Ya
he explicado en otros artículos y en el libro Los amos del mundo. Las armas del
terrorismo financiero que escribí con Vicenç Navarro, que los recortes de gasto
que llevan consigo las políticas de austeridad son un auténtico engaño. Se
justifican diciendo que solo con ellos se puede recortar la deuda para que a
continuación vuelva a generarse crecimiento y empleo, pero lo que demuestran
los estudios empíricos es lo contrario. Al recortar el gasto en etapas de
recesión (ya de por sí de gasto insuficiente) lo que sucede es que disminuye la
actividad, el empleo y los ingresos y que, por tanto, finalmente aumenta aún
más la deuda.
Además,
cuando estas políticas de recortes se presentan como de ‘austeridad’ tienen
también otro efecto no menos importante a la hora de garantizar el sometimiento
de la población. Cuando lo que se reclama es la austeridad -algo con lo que
nadie puede estar en desacuerdo- se está sugiriendo que es imprescindible una
terapia frente a un despilfarro anterior. O, como suele decirse, para pagar el
pecado de haber vivido “por encima de nuestras posibilidades”. Su imposición
genera en la gente un sentimiento de culpa que atemoriza, confunde y paraliza.
Pero,
con independencia de ello, los recortes de gasto público social también llevan
consigo otras consecuencias muy peligrosas de los que se habla aún menos. Por
ejemplo, un mayor control político del conocimiento.
Con
la excusa de que hay que recortar gastos se ha reducido la financiación a la
universidad pública y se están aprovechando los recortes para concederle un
papel mucho más determinante aún en toda la actividad universitaria a la
evaluación de la actividad investigadora del personal universitario, que en España
se realiza desde hace años mediante los llamados sexenios (unos complementos
salariales que nacieron para retribuir la productividad investigadora y que se
han convertido en medida de su “calidad”) y los procedimientos de acreditación
que llevan a cabo las agencias de evaluación nacional o autonómicas.
Yo
soy totalmente partidario de que se evalúe la actividad docente e investigadora
de los universitarios. Y de hecho, cuando fui vicerrector de ordenación
académica y profesorado de la universidad de Málaga entre 1987 y 1990, puse en
marcha uno de los primeros procedimientos de evaluación que se realizaron en
España, tanto en los dos primeros ciclos como en el doctorado.
Pero
lo que ahora se está produciendo es un verdadero control político del
conocimiento cuando se empiezan a establecer las nuevas obligaciones docentes
(horas de clase) o cuando se hace depender la participación en comisiones de
selección, la dirección de tesis doctorales o la promoción a las diferentes
categorías contractuales o del funcionariado, entre otras cosas, en función de
los sexenios o de la acreditación conseguidos en procesos de evaluación que,
sobre todo en algunas áreas del conocimiento, son claramente arbitrarios y muy
sesgados ideológicamente.
En
España, como en otros países, estos procesos se basan originalmente en
criterios puramente cuantitativos que simplifican al extremo la valoración de
la producción científica, reduciendo o eliminando por completo cualquier atisbo
de debate o controversia sobre su calidad efectiva, mediante la aplicación de
índices que solo pueden tener en cuenta (en el mejor de los casos) el número de
publicaciones más o menos ponderado por rangos no menos discutibles referentes
a las revistas donde aparecen, y el número de citas.
Los
efectos de este tipo de evaluaciones son claros. Los investigadores, en lugar
de tener como objetivo de su actividad científica el descubrir nuevos
conocimientos, han de orientarla necesariamente a obtener el mayor número de
publicaciones consideradas como valiosas por dichos indicadores. Así ha de ser,
pues de ello va a depender su financiación, su promoción profesional, su
capacidad de decisión y su incardinación en la academia o incluso las horas de
clase que van a tener que impartir.
Ese
incentivo perverso tiene multitud de efectos negativos. Así, se promueve la
firma colectiva como práctica oportunista para lograr más y más rápidas
aportaciones susceptibles de ser valoradas positivamente aunque en la mayoría
de las ocasiones eso no responda ni a la realidad de la actividad realizada por
cada investigador, ni a necesidades de división del trabajo científico que se
realiza.
Además,
la exigencia de multiplicar al máximo la publicaciones lleva a que resulte más
rentable a los investigadores el dedicarse a ‘versionar’ sin descanso un
trabajo, descubrimiento o planteamiento o modelo original a base de introducir
muy pequeñas variaciones posteriores que se dirigen a diferentes revistas, sin
que ninguna de ellas suponga alguna novedad importante o un incremento efectivo
del conocimiento.
Un
estudio realizado en Francia al respecto ha mostrado claramente que aunque el
número de publicaciones en el área de economía se ha triplicado desde la mitad
de los años 90 del siglo pasado no puede decirse que haya mejorado
sustancialmente su calidad (Bosquet, C., Combes, P-Ph., y Linnemer, L., “La
publicationd’articles de recherche en économie en France en 2008.
Disparitésactuelles et évolutionsdepuis 1998″. Rapportpour la Directiongénérale
de la recherche et de l’innovation, DGRI, 2010).
Cualquier
investigador que se comporte con un mínimo de racionalidad en este régimen de
evaluación debe consagrar mucho más tiempo y esfuerzo a multiplicar las
publicaciones preparando diversas versiones y a estar presente allí donde se
puede conseguir influencia o redes que faciliten la publicación, que a
investigar. Y así resulta que estos métodos de evaluación, aparentemente
encaminados a medir la productividad y la calidad académica, incentivan
comportamientos que limitan ésta última y que se basan en un sentido claramente
distorsionado de la primera. No reflejan la productividad como una mayor
capacidad de aportar conocimiento efectivo sino como la de colocar menores
dosis de él en mayor número de publicaciones. Se promueve la productividad
“publicacional”, si vale el barbarismo, que no tiene mucho que ver en estas
condiciones con la productividad científica.
La
evaluación cuantitativa de los resultados del conocimiento tiene otro efecto no
menos negativo. Para poder llevarla a cabo es por lo que se ha ido limitando a
tomar en consideración los artículos publicados en revistas, que pueden ser
jerarquizados y catalogados en función de dónde se publiquen, en detrimento del
conocimiento publicado en libros o cualquier otro tipo de monografías, que hoy
día no tienen prácticamente valor alguno, o muy escaso, a la hora de
acreditarse o de ser evaluado para recibir sexenios.
Las
consecuencias de esto último son variadas. Una es que los investigadores que
quieran ser evaluados positivamente solo deben abordar temas que se puedan
exponer en el espacio reducido y en la forma convencional que se suele
establecer en las revistas. Tienen que renunciar así a exponer pasos
intermedios, derivaciones de sus análisis, matices y, sobre todo, las dudas y
preguntas y las cuestiones transversales y sintéticas que cada vez son más
necesarias para poder conocer la realidad, pero que es casi imposible trasladar
a los espacios muy especializados y por definición más cerrados, en todos los
sentidos del término, de las revistas.
La
generalización de la publicación en revistas ha estandarizado la expresión del
conocimiento y el conocimiento mismo al establecer no solo el encuadre formal
de los textos sino los contenidos, los enfoques, e incluso los postulados e
hipótesis de partida “convenientes” en cada una de ellas, de modo que salirse
de ese saber establecido conduce de modo prácticamente inevitable al ostracismo
y a la imposibilidad de ser evaluado positivamente, pues es seguro que no se
podrá publicar en las revistas que sirven de referencia como de mayor calidad e
impacto.
Es
por eso que el poder de evaluación efectivo recae en última instancia en los
equipos que mantienen y evalúan las publicaciones en las revistas que encabezan
los ranking de las más destacadas: las que están formadas por miembros de los
departamentos y grupos de investigación más destacados, que son aquellos cuyos
miembros publican en las revistas más destacadas. Así se crea un círculo
vicioso de conformismo y de redes de autentico clientelismo en donde es muy
difícil que penetre la luz de enfoques novedosos, alternativos o contrarios a
lo que habitualmente se publica en esas revistas por los autores solo de
aquello que sus evaluadores consideran que es publicable, y que lógicamente
nunca podrá ser diferente de lo que sostienen o defienden. ¿Cómo tratar de
publicar en una revista si el autor o autores no se ajustan a los criterios de
publicación o enfoques normalizados que mantiene?
En
definitiva, el predominio de este tipo de evaluación ahoga la disidencia, la
duda, la innovación, la ruptura con el saber establecido…, es decir, justo los
factores que sabemos perfectamente que han sido siempre los que han promovido
realmente el conocimiento y los que han hecho que de verdad avance la ciencia.
Lógicamente,
no puede ser muy ajeno a todo ello el hecho de que la gestión de los trabajos
que se incluyen en el ‘Journal Citation Reports’ (JCR en la jerga de los
investigadores) que sirve como base de referencia sacrosanta de la evaluación
cuantitativa esté controlado por una sola y poderosa multinacional, Thompson
Reuters, o que estos métodos de evaluación se hayan comenzado a aplicar con
especial disciplina en ciencias sociales, y muy especialmente en economía,
justo en los años en que se vienen imponiendo las políticas neoliberales. No es
casualidad que éstas se justifiquen con el paradigma neoclásico que predomina
en las publicaciones de las revistas mejor consideradas y lo cierto es que
pueden aplicarse más cómodamente en la medida en que eludan más ampliamente la
crítica social. Lo que puede conseguirse cuando el pensamiento económico y
social en general se hiperespecializa y pierde el contacto con la realidad al
desarrollar un tipo de conocimiento encerrado en sí mismo, abstracto y
completamente ajeno a la complejidad e interconectividad que tienen los
fenómenos económicos y sociales.
Ahora
bien, si en casi todo el mundo viene ocurriendo todo esto, en España la
situación es mucho más grave porque los procesos de evaluación son opacos y ni
siquiera los criterios cuantitativos se aplican objetivamente sino a nuestra
carpetovetónica manera clientelar y corrupta.
Aquí
predomina una arbitrariedad constante que da lugar a decisiones
contradictorias, a resoluciones caprichosas y sin fundamento alguno, que muchas
veces no pueden disimular que se toman ad hoc o incluso ex post de haber
decidido el resultado. En el caso particular de la economía, que mejor conozco,
se han hecho fuertes grupos de poder de clara significación ideológica o al
menos, por decirlo más sutilmente, de evidente connivencia paradigmática, que
aplicando este tipo de criterios van consolidando una forma de investigar
conservadora y uniformada que poco a poco va dejando fuera del juego académico
a quienes optan por generar cualquier otro tipo de conocimiento o por difundirlo
a través de otras publicaciones, cuyo impacto, por cierto, suele mucho mayor,
la mayoría de las veces, que el de las revistas convencionales.
Al
igual que pasa fuera de España, la producción bibliográfica mejor valorada en
economía presenta, eso sí, una gran variedad de temáticas, pero una
extraordinaria homogeneidad que se traduce en un gran irrealismo y abstracción,
en una gran coincidencia en las perspectivas de análisis y en la asunción de
conclusiones que terminan justificando un mismo tipo de políticas.
Es
por eso que puede afirmarse que la imposición de este tipo sesgado de
evaluación, en todos los campos del saber científico pero sobre todo en los que
tienen más que ver con juicios de valor y con las diferentes preferencias
sociales, como la economía, es un claro intento de control (político) del
conocimiento que se acelera en estos momentos gracias a la oportunidad que
proporcionan los recortes asociados a las políticas de austeridad.
Los
resultados de son tan paradójicos y significativos como el que mencionaba
recientemente el profesor de Sociología de la Universidad de Oviedo,
Holm-DetlevKöhler: la investigadora Saskia Sassen que acaba de recibir el
Premio Príncipe de Asturias de Ciencias Sociales, “una de las científicas más
importantes de nuestra época, no ha conseguido ningún sexenio, ninguna
acreditación, frente a los criterios de nuestras agencias de evaluación, que
anteponen siempre el mismo criterio: tres publicaciones JCR (Journal Citation
Reports) en los últimos cinco años. Sassen no tiene ni una, sino que ha
publicado libros e informes, fruto de proyectos de investigación de verdad y
referencias fundamentales para académicos comprometidos, ha publicado numerosos
artículos en medios de gran difusión, etc., pero se ha resistido a la práctica
de inflar su currículum con artículos estandarizados sin interés ni lectores,
más allá de círculos de amigos de citación mutua”.
Fuente: www.tercerainformacion.es
No hay comentarios:
Publicar un comentario