La sostenibilidad del sistema de publicaciones científicas en Chile y en el mundo
03.02.2026
Hoy nuestra principal fuente de financiamiento son nuestros socios. ¡ÚNETE a la Comunidad +CIPER!
03.02.2026
El autor de esta columna levanta una alerta sobre el actual sistema mundial de publicaciones científicas, el que ha privilegiado la cantidad, lo que ha tenido un impacto en la credibilidad. Dice que como el número de publicaciones tiene relación con la asignación de fondos públicos para investigación «esto probablemente requerirá repensar los incentivos académicos, desarrollar nuevas formas de evaluar el mérito científico y explorar modelos de publicación y revisión más escalables y transparentes. De no hacerlo, existe el riesgo de que la creciente masa de publicaciones, lejos de consolidar el conocimiento, se convierta en un obstáculo para su avance. La credibilidad de la ciencia y su capacidad para orientar decisiones públicas dependen, en buena medida, de cómo se resuelva esta encrucijada».
La manera en que una sociedad evalúa, valida y comunica el conocimiento científico no es un asunto meramente académico. De ella dependen decisiones de política pública, la asignación de recursos escasos y, en última instancia, la orientación del desarrollo científico de un país. En Chile, esta cuestión adquiere una relevancia particular si se considera que en 2023 el Estado invirtió aproximadamente 1,2 millones de millones de pesos anuales en investigación científica, según datos de la Cuenta Pública 2025 del Ministerio de Ciencia. La distribución de estos recursos —becas, fondos concursables, financiamiento basal y puestos académicos— se apoya de manera central en indicadores derivados del sistema de publicaciones científicas. Por ello, cualquier debilidad estructural en dicho sistema no solo afecta a la comunidad académica, sino que compromete la eficiencia, legitimidad y racionalidad del uso de una inversión pública de gran magnitud.
En la práctica, la asignación de recursos se basa crecientemente en métricas asociadas a la productividad científica: número de publicaciones, prestigio de las revistas y recuento de citas. Estos indicadores, sin embargo, provienen de un sistema cuya fiabilidad como garante de calidad se encuentra hoy seriamente cuestionada. El énfasis en lo cuantificable tiende a premiar la productividad aparente, generando un ciclo de retroalimentación en el que lo que se mide —la cantidad— termina determinando lo que se produce, en detrimento de aspectos menos visibles pero fundamentales, como la solidez metodológica, la replicabilidad de los resultados y el impacto profundo y duradero de una investigación.
El sistema de publicaciones científicas se sustenta históricamente en el proceso de revisión por pares. Este mecanismo, mediante el cual expertos anónimos evalúan un manuscrito antes de su publicación, busca asegurar estándares mínimos de rigor, originalidad y contribución al conocimiento. Durante décadas, este procedimiento ha operado como el principal sello de calidad que distingue a la ciencia formal de la mera especulación o divulgación no controlada.
Para comprender las tensiones actuales del sistema, resulta útil considerar su evolución histórica. En sus orígenes, las revistas científicas eran gestionadas principalmente por sociedades académicas o universidades. Con el tiempo, editoriales comerciales asumieron la administración del proceso editorial y de distribución, mientras que la comunidad científica continuó aportando, de forma no remunerada, el trabajo esencial de la revisión por pares. El modelo de negocio se estructuró en torno a la venta de suscripciones a universidades y bibliotecas, generando grandes bases de datos cuyo acceso se volvió crítico para la producción científica. Esta estructura creó una dependencia sistémica: sin acceso a la literatura, es imposible conocer el estado del arte o difundir nuevos resultados.
En las últimas décadas ha emergido con fuerza un modelo alternativo: el acceso abierto mediante pago por publicación. En este esquema, los autores o sus instituciones pagan una tarifa —que puede superar los diez mil dólares por artículo— para que el trabajo esté disponible gratuitamente en línea una vez publicado. Estas revistas suelen prometer procesos editoriales acelerados, con plazos de uno o dos meses desde el envío hasta la publicación, en contraste con los seis meses o más que pueden requerir las revistas tradicionales basadas en suscripción.
Desde un punto de vista cuantitativo, la eficiencia de este modelo resulta impactante. Existen revistas que publican decenas de miles de artículos al año, lo que equivale a más de un centenar de publicaciones diarias. En campos específicos, como la investigación del Alzheimer, una sola revista puede concentrar miles de artículos anuales. Estas cantidades se multiplican aún más debido a la proliferación de revistas científicas en los distintos campos. Estas cifras obligan a formular una pregunta fundamental: ¿puede el proceso de revisión por pares, tal como fue concebido, operar con niveles aceptables de calidad bajo este volumen y esta velocidad?
La dificultad se vuelve evidente cuando se considera la escala humana del proceso. Una revisión rigurosa exige evaluadores calificados que dediquen horas a analizar cuidadosamente cada manuscrito. El número de revisores necesarios para sostener estándares elevados frente a flujos de cientos de artículos diarios simplemente no existe. Para ponerlo en perspectiva, un estudiante de doctorado puede leer y analizar en profundidad unos 200 artículos clave a lo largo de toda su formación; esa cantidad equivale a lo que algunas revistas publican en poco más de una semana. Todo esto implica, casi por necesidad, procesos de revisión por pares que son menos acuciosos.
Este volumen interactúa con otros incentivos del ecosistema académico. Está bien documentado que los artículos de acceso abierto tienden a recibir más citas que aquellos tras un muro de pago. Dado que el promedio de citas de una revista —su factor de impacto— se utiliza como indicador de prestigio y calidad, las revistas de acceso abierto tienen un incentivo estructural a publicar mucho. En un escenario ideal, con una revisión por pares infalible, esta métrica podría ser informativa. En el contexto actual, donde la capacidad de revisión está claramente sobre exigida, su valor como garantía de calidad se debilita.
Estas dinámicas no operan en el vacío, sino que se ven reforzadas por las propias exigencias del sistema académico. Hace algunas décadas, publicar un artículo al año era signo de productividad y prestigio. Hoy, no es raro encontrar investigadores cuyos currículums incluyen decenas o incluso cientos de publicaciones anuales. Si bien esto se explica en parte por el aumento de colaboraciones en grandes equipos multidisciplinarios, también refleja la proliferación de revistas y la relajación de los estándares editoriales.
Cuando las instituciones académicas y los organismos de financiamiento evalúan a los investigadores casi exclusivamente en función de su producción científica cuantificada, se genera un fuerte incentivo a priorizar la cantidad. Este entorno favorece prácticas problemáticas, como el salami slicing —dividir un mismo conjunto de resultados en múltiples publicaciones mínimas—, y aumenta el riesgo de plagio y fraude académico (casos que con cierta frecuencia llegan incluso a ser noticia en medios de comunicación). La irrupción de herramientas de inteligencia artificial añade una nueva capa de complejidad al problema de la integridad científica.
Las consecuencias de este escenario son profundas. Por una parte, se agudiza la asimetría de información: ni los comités de evaluación, ni los periodistas científicos, ni siquiera los propios investigadores pueden mantenerse al día con la marea creciente de publicaciones, mucho menos evaluar con confianza su calidad. Esto dificulta la identificación de hallazgos sólidos y retrasa la síntesis de conocimiento confiable.
Por otra parte, y volviendo al punto de partida, la asignación de recursos públicos de gran magnitud se apoya en métricas cuya relación con la calidad científica es cada vez más incierta. El riesgo no es solo académico, sino institucional: un sistema de evaluación saturado y poco fiable amenaza con distorsionar las prioridades de investigación y con debilitar la legitimidad del uso de fondos públicos.
Este no es un problema exclusivo de Chile, sino una tensión estructural de la ciencia contemporánea. La experiencia de disciplinas como la psicología, que han enfrentado de manera explícita la crisis de replicabilidad, sugiere que estos fenómenos no son anomalías locales, sino síntomas de un sistema llevado más allá de sus límites operativos.
El desafío consiste en equilibrar la necesaria accesibilidad y velocidad de la comunicación científica con mecanismos de control de calidad que le otorguen autoridad y credibilidad. Esto probablemente requerirá repensar los incentivos académicos, desarrollar nuevas formas de evaluar el mérito científico y explorar modelos de publicación y revisión más escalables y transparentes. De no hacerlo, existe el riesgo de que la creciente masa de publicaciones, lejos de consolidar el conocimiento, se convierta en un obstáculo para su avance. La credibilidad de la ciencia y su capacidad para orientar decisiones públicas dependen, en buena medida, de cómo se resuelva esta encrucijada.