El Peso de las Razones
La autoría murió: lo que la IA vino a recordarnos
Hay debates que empiezan hasta que alguien señala el elefante en la habitación. Y en la ciencia, la pregunta incómoda del siglo es esta: ¿quién es el autor de lo que producimos cuando una inteligencia artificial participa en el proceso? La reacción típica ha sido de pánico, como si la autoría fuera un territorio sagrado invadido por máquinas entrometidas. Pero conviene admitirlo de una vez: la autoría científica lleva siglos agonizando. La IA no la mata; simplemente enciende la luz que revela el cadáver.
Durante décadas nos vendieron la imagen romántica del genio solitario, un Einstein tocado por los dioses, un Arquímedes saltando de la bañera con el Eureka en la boca. Pero ese mito es tan real como un unicornio administrativo. La ciencia siempre ha sido una obra colectiva, negociada, instrumentalizada por tecnologías, instituciones y ejércitos enteros de colaboradores invisibles. Así que el escándalo de que una máquina “participe” del proceso creativo es, en el fondo, un mal chiste: ¿en qué momento la ciencia fue una actividad individual?
El problema, por supuesto, es que la IA no colabora como un telescopio ni como un editor humano. No amplifica únicamente nuestras capacidades: simula las nuestras. Y esa simulación inquieta. Nos obliga a mirar la autoría sin maquillaje. ¿Qué significa decir “yo escribí esto” cuando una máquina pudo haber generado las primeras versiones del argumento, limpiado la prosa o sugerido conexiones conceptuales que tú no habías visto?
La reacción institucional, en cambio, ha sido la de siempre: prohibir. Como si la prohibición hubiese resuelto algo en la historia de la humanidad. Las revistas científicas redactan políticas que suenan heroicas pero que, en la práctica, son tan efectivas como pedirle a un adolescente que deje de usar el celular porque “lo dice el reglamento”. La verdad es que, mientras se redactan doctrinas solemnes sobre lo correcto e incorrecto, miles de investigadores ya usan IA todos los días sin supervisión, sin transparencia y sin estándares.
Pensemos en la experiencia cotidiana. Cualquiera que haya usado un modelo de lenguaje sabe que puede ser brillante…, y delirante. Produce esquemas impecables y luego se inventa un artículo de 1978 por un tal “Robinson & McAllister” que jamás existió. Este comportamiento -mitad prodigio, mitad fabulador profesional- dispara la pregunta clave: ¿podemos confiar en contenidos que no entendemos cómo se generan? Y más importante: ¿podemos adjudicarles autoría?
La respuesta obvia es no. La responsabilidad sigue siendo humana. Ningún modelo de lenguaje puede responder ante una retractación, un fraude o un error metodológico. Ninguno pierde prestigio, es despedido o enfrenta consecuencias. Confiar sin validar equivale a entregar la brújula al viento. Pero reconocer esto no implica negar su papel. Implica redefinirlo.
La ciencia ha convivido siempre con instrumentos que reorganizan lo que vemos del mundo. El telescopio no “descubrió” las lunas de Júpiter, pero sin él Galileo no habría visto nada. ¿Quién es entonces el autor del descubrimiento? ¿El científico que interpreta o la herramienta que hace visible? La pregunta es absurda solo porque hemos decidido que lo es. Y esa decisión -esa convención- es lo único que sostiene hoy el concepto de autoría.
La IA nos obliga a admitir que la autoría no es un hecho natural, sino una negociación institucional. No es quién “realmente” hizo algo, sino quién asume responsabilidad por ello. Y la responsabilidad, a diferencia del talento, no se puede delegar. Esa es la frontera real, y quizá la única que importa.
Imaginemos un caso simple: una investigadora en un país con ciencia precarizada usa IA para generar borradores tentativos de hipótesis. Luego revisa, corrige, contrasta, decide. ¿Es menos autora que quien, en una universidad rica, delega la redacción completa de la introducción a un asistente humano pagado? Lo dudamos. La frontera entre “ayuda legítima” y “fraude intelectual” nunca fue clara; simplemente preferíamos no verla.
El mayor peligro, en todo caso, no es que los investigadores usen IA. Es que dependan de ella sin entender por qué aceptan lo que produce. Cuando un científico pierde contacto con sus propios datos, cuando adopta interpretaciones sin pensarlas, cuando entrega al modelo el trabajo que define su agencia intelectual, no pierde solo la autoría: pierde la competencia epistémica.
Por eso es absurdo discutir si la IA “debería” usarse en ciencia. Debería y se usará. La verdadera pregunta es cómo hacerlo sin abdicar de nuestro rol. Y la respuesta es brutalmente simple: con transparencia absoluta y responsabilidad proporcional. Nada de vergüenzas, nada de clandestinidad. Decir exactamente cómo, cuándo y para qué se usó. Decirlo sin miedo y sin adornos. Porque la transparencia no es un castigo: es la única forma de saber qué parte del trabajo puede defender un humano.
Pero también necesitamos una segunda regla: nunca dejar a la IA hacer lo que define la actividad científica. Y eso incluye formular interpretaciones primarias de los datos, generar conclusiones o fabricar bibliografía. En esas zonas, delegar es abandonar el oficio.
La tercera regla es la más importante y la más difícil de aplicar: la IA debe ampliar nuestras capacidades, nunca sustituirlas. Si uno no puede explicar qué aceptó o rechazó de la contribución de la IA, ya perdió el timón. La prueba es simple: ¿podrías hacer este trabajo sin la IA, aunque tardaras más? Si la respuesta es no, no estás usando IA como herramienta, sino como muleta cognitiva.
¿Significa esto que debemos defender la autoría tradicional? No. Significa que debemos reinventarla. La autoría científica del siglo XXI será plural, distribuida, matizada y transparente. Una autoría que reconoce que la creatividad ya no es una posesión privada, sino un proceso de interacción entre mentes, máquinas e instituciones.
En el fondo, la IA solo ha acelerado un reajuste conceptual inevitable. Lo que desaparece no es la autoría, sino la fantasía de la autoría individual. Lo que emerge es una noción nueva, más honesta y más acorde con la forma en que realmente producimos conocimiento.
La conclusión incómoda es esta: la autoría murió hace mucho. La IA solo vino a hacernos el favor de mostrarlo. Y quizá esa sea su contribución científica más profunda: obligarnos, por fin, a sincerarnos sobre cómo funciona la ciencia y sobre quién -o qué- merece figurar en la portada de un artículo.
Lo que viene ahora no es resistir la tecnología, sino resistir la tentación de culpar a la tecnología por nuestra falta de claridad conceptual. Si logramos eso -si aceptamos la muerte del autor como un acto de madurez intelectual- podremos finalmente construir algo mejor: una ciencia donde no temamos a las herramientas, sino a la oscuridad con la que preferimos no nombrar nuestros propios dilemas.
mgenso@gmail.com




