Algoritmia y Violín

La nueva Ciencia y Justicia artificiales, en el estrado

Los científicos se atascan en la paradoja de un incremento exponencial de trabajos de investigación que tardan ya de media más de un año en publicarse y jueces y abogados deben acostumbrarse a colaborar con una IA generativa entrenada con sentencias que necesariamente reflejan de forma incompleta la realidad, nada nos va a librar de la obligación de pensar

Eugenio
Eugenio Mallol
Director de Comunicación - Atlas Tecnológico
19-04-2026

El impacto de la inteligencia artificial (IA) generativa en el ámbito científico genera mucha preocupación. El número de artículos de investigación crece exponencialmente, pese a que la cantidad de revisores pares no lo hace, ni mucho menos, a un ritmo similar. Frontiers ha puesto cifras al fenómeno en una investigación de la que se ha hecho eco Nature: más de la mitad de los revisores (53%) han probado la IA durante la revisión por pares, aunque la mayoría la utiliza solo para tareas superficiales, y el 61% de los revisores con menos de cinco años de experiencia utilizan la IA con regularidad.

El boom de los papers está alcanzando tal dimensión que el tiempo de publicación de una investigación ha pasado de alrededor de 100 días a mediados de la pasada década a más de un año en la actualidad. Eso es una eternidad al ritmo al que avanza la tecnología ahora mismo.

Por paradójico que resulte, tardamos más tiempo hoy en conocer un avance científico que antes del aluvión de la IA generativa, pese a que una de sus consecuencias es precisamente que el proceso de investigación científica no sólo se acelera, sino que permite la automatización end to end, desde el momento mismo de aparición de la idea hasta su ¿publicación? Nature ha tenido que dedicar una portada al fenómeno, lo llama la IA Científica.

Quién nos iba a decir que el otro gran cuello de botella para extender los beneficios de la IA generativa, además de la disponibilidad de datos de calidad, interoperables, blablabla, iba a ser la rigidez del mercado de publicaciones científicas. Donde no parece haber atascos es en el lado de los revisores.

Reviewer3 ha analizado 145.000 comentarios sobre papers científicos formulados tanto por personas como por modelos de IA (el suyo propio, Gemini 3 y ChatGPT-5.2) en tres disciplinas: informática, ciencias sociales y ciencias de la vida. Su conclusión es que las revisiones de la IA están mejor estructuradas y tienen mayores tasas de coincidencia con las humanas (el rango va desde poco más del 40% hasta el 80,7%) en ciencias sociales. Las personas son mejores criticando la contribución y la calidad, y la máquina lo es verificando la validez y la suficiencia.

Tengo la oportunidad de conversar con varios nombres destacados del mundo de la abogacía y el ámbito judicial de nuestro país, con motivo de una jornada sobre el impacto de la IA en su actividad organizada por el Consejo General de la Abogacía. Verdaderamente admirable la rapidez con la que su sector ha reaccionado a los nuevos desafíos, y se comprende.

Se han zambullido sin ambages en el vibe coding y han tomado las riendas de la programación, porque, como me dice Alfredo Sánchez-Rubio, coordinador del Programa Upro en Competencias Digitales y decano del Colegio de Zaragoza, “los ingenieros y nosotros no hablamos en la misma longitud de onda”. Ni siquiera la programación informática está por encima de la ley, al menos de momento.

Si la ciencia básica tiene mucho que analizar sobre cómo será su futuro a partir de ahora, la ciencia jurídica es consciente de que también le toca arremangarse (impresionante la Instrucción 2/2026 del CGPJ y el Libro Blanco sobre la IA y la Abogacía). Las consecuencias de un mal uso de una tecnología por parte de jueces y abogados pueden ser demoledores y transmitirse por todo el sistema en cascada.

Formulo la siguiente pregunta a los componentes de una de las mesas: ¿estáis realmente convencidos de que, incorporando toda la jurisprudencia existente en un repositorio digital, como sucede en el CENDOJ (Centro de Documentación Judicial del CGPJ), la IA producirá una respuesta válida? Y estalla el debate.

La IA se puede entrenar con sentencias que no están correctamente fundamentadas, que son directamente cuestionables, se escucha. Una sentencia no puede recoger el momento en el que la persona baja la cabeza al responder una mentira, apunta un magistrado, hay aspectos del acto de juzgar que necesariamente existen en la acción de la persona que lo ejercita.

Siempre me ha impresionado la idea de que un juez no debe tener una certeza objetiva y absoluta de que algo ha sucedido, porque desde Hume sabemos que eso resulta imposible. Tendría que haber vivido el momento. Nuestro sistema judicial exige que tenga una convicción subjetiva de que fue como se refleja en su fallo, después de haber tomado todas las medidas necesarias para formársela.

Creemos entender el mecanismo de integrar la IA en nuestras vidas, pero sólo estamos al principio del camino. La actividad científica no está muy lejos de ese modelo de conformación de la realidad necesitada de convicción subjetiva. Hay 27 teorías distintas para explicar fenómenos como la superconductividad en determinadas condiciones. No nos vamos a librar tan fácilmente de tener que pensar.