¿La investigación informática está en artículos? ¿Cuántos artículos de referencia tienen los “investigadores” de referencia en software?
Estamos en tiempos de elecciones y, como corresponde, cada partido propone sus ideas. Más allá de partidos concretos, he visto, en estos tiempos, volver a repetirse desde varios una vieja propuesta relacionada con cómo mejorar la investigación nacional, con financiación pública, incluida la investigación en tecnología y software: apoyar y valorar a los investigadores y proyectos, y las subvenciones, en función de sus publicaciones JCR (si te suena a chino eso del JCR, lógico, ahora te cuento qué es).
No sé en otras ramas científicas si lo que voy a exponer tiene la misma aplicación, pero desde luego en tecnología valorar la investigación en función de número de JCRs no sólo es absurdo sino que además es peligroso y del siglo pasado.
Vamos a ello, y puedes tomar este post como continuación al de ¿Cómo te explicas que España sea potencia en publicaciones I+D y presencia nula en tecnología? o el de ¿Es el JCR una herramienta de evaluación de la investigación poderosa o un gran error?
Me encantaría que este post iniciara una reflexión y debate profundo sobre el tema, que tiene una importancia alta, aunque no tengo claro que es debate se llegue a producir, sumado a que curiosamente este es un tema muy desconocido más allá de de los directamente involucrados.
¿Qué es un JCR?
Si eres investigador esto te lo sabrás, o deberías, por ello te puedes saltar esta sección, sino, si no estás muy puesto en cómo se valora la investigación pública, en lo que refiere a valoraciones que vienen del estado, muy resumidamente, lo bien o mal que se investiga en España se valora en número de JCRs que un investigador, tiene (hay otros parámetros pero este es el más importante)
El JCR (Journal Citation Reports) es una “puntuación” que se da a una revista (no quiero extenderme en cómo se calcula en JCR de una revista, si tienes curiosidad, puedes leer ¿Es el JCR una herramienta de evaluación de la investigación poderosa o un gran error?) si la revista tiene buen JCR se supone que es mejor y si publicas un artículo en ella alguien dirá que es un buen artículo. Tu investigación, a efectos públicos, se valorará según los artículos publicados en revistas con buen JCR.
Dicho lo anterior, ¿cómo puede valorarse la investigación en tecnología y software en pleno s.xxi en función de publicación en revistas? Sí, revistas… ¿revistas?
¿Está la investigación y los aportes de último nivel en tecnología en los JCR?
Qué mejor manera de responder a lo anterior que hacer un muestreo, vayamos a ver grandes aportes y autores en tecnología y software de nuestro tiempo y veamos si hicieron uso de los JCR para difundir su creación, esas creaciones de las que no podemos dudar de que si son investigación ya que… han cambiado el sector.
Empecemos, por ejemplo, por Aslak Hellesøy, creador del famoso Cucumber, usado en el desarrollo dirigido por comportamiento, BDD, etc. Poco más hay que decir. JCRs que tiene… igual a cero. Publicaciones tradicionales conocidas igual a 3, que son libros. Todo lo demás post en la web.
Vamos con algo de agilidad, Henrik Kniberg, si tuviera que destacar su mayor, o más amplia, aportación al campo, sería haber creado (o liderado, que dice que él no lo creo) el modelo de escalar la agilidad de Spotify (aparte de sus nosotros libros), que si te mueves un poco por ahí en empresas medianas grandes ha sido una referencia altamente imitada. Pues tiene sólo 4 apariciones (ver aquí) en las populares bases de datos de artículos tecnológicos. Sólo un artículo en una conferencia de las de referencia, las que “se valoran” a nivel de investigación, las otras tres apariciones son libros.. Ah… y ningún JCR.
No es cuestión de extenderse, Jurgen Appelo (autor del management 3.0), apariciones en bases de datos de artículos de investigación… sólo una (ver aquí) y no es un artículo, es por un libro publicado en Addison-Wesley. Y JCR cero.
Mike Cohn, que en su día fue nombrado el “agilista” de referencia, popularizador de la planificación ágil, del punto historia, del planning poker, etc. Sólo 7 apariciones en BBDD de artículos valorados en investigación, solo 7. Y un sólo JCR.
Reflexionando sobre todo esto
No me voy a extender en el pequeño estudio anterior, podíamos tirar de quien creo Docker, Puppet, Calabash, JSON (Douglas Crockford sólo tiene 3 artículos populares en revista, solo 3), etc. Creo que queda claro que la investigación hoy no está en artículos de revista, por lo que premiar la investigación en función de publicaciones en revista es… volver a mandarnos al pasado, retrasarnos aún más tecnológicamente.
Quizá si te vas a aportaciones de unos años más atrás sí, quizá antes, la investigación se difundía en artículos de revista pero… ¿hoy? Hoy las aportaciones en investigación las tienes que buscar en post, linkedins, twitters, etc.
El modelo de mandar un artículo a una revista esperar literalmente meses para que se publique, ceder tus derechos a la misma y que, además solo se pueda leer bajo pago (y no económico) está totalmente obsoleto, al menos, en tecnología.
Pero bueno, aquí no nos enteramos, y parece que volveremos a incentivar a los investigadores al uso de métodos obsoletos.