18.9 C
Mexico City
jueves, diciembre 4, 2025

Autor-IA | El peso de las razones por: Mario Gensollen

Te podría interesar

El peso de las razones

Autor-IA

El conocimiento científico siempre ha operado en la frontera ambigua entre colaboración y competencia, originalidad individual y contexto histórico-tecnológico. Desde la disputa de Newton y Leibniz por la paternidad del cálculo hasta los equipos del CERN negociando créditos, la noción de autoría ha estado marcada por profundas tensiones. Actualmente, al incorporar inteligencias artificiales generativas (GAIs) y modelos grandes de lenguaje (LLMs), esta complejidad se agudiza. Lo novedoso no es sólo cuestionar si una máquina puede ser autora, sino cómo estas tecnologías alteran radicalmente nuestra percepción de la agencia, la creatividad, la originalidad y la responsabilidad.

Históricamente, la autoría científica se ha idealizado como resultado exclusivo del genio individual. Sin embargo, esta visión es simplista: el trabajo científico siempre es colaborativo, condicionado por herramientas técnicas, comunidades epistémicas y contextos sociales específicos. El investigador no actúa como una mente solitaria, sino como un nodo en redes complejas, articulando influencias diversas. Reconocer esto implica aceptar que la autoría es inherentemente colectiva y distribuida.

La incorporación de los LLMs expone como nunca antes que autoría es concepto vago. Si un investigador utiliza GPT únicamente para mejorar aspectos estilísticos o agregar referencias, la autoría humana permanece clara. Pero cuando la participación de la IA moldea significativamente las ideas centrales o la estructura conceptual, surgen dudas inevitables sobre la asignación adecuada del crédito intelectual.

¿Por qué incomodan tanto estas interacciones con LLMs? Principalmente porque ofrecen una ilusión de agencia autónoma. A diferencia de herramientas clásicas cuya contribución es técnicamente transparente, estos modelos operan hasta cierto punto desde una “caja negra” algorítmica. Sus productos presentan características como creatividad aparente, originalidad discursiva y espontaneidad, tradicionalmente consideradas humanas, difuminando así las fronteras entre lo humano y lo artificial.

Para clarificar estos matices, es útil clasificar las interacciones científico-IA en tres categorías. La primera son las interacciones mínimas, donde la IA realiza tareas triviales como corregir ortografía o mejorar estilo. Por ejemplo, utilizar GPT solo para pulir estilísticamente una introducción, sin alterar el contenido central. La segunda categoría son las interacciones moderadas, donde la IA colabora activamente formulando preguntas, organizando argumentos o sugiriendo conexiones conceptuales nuevas. Un ejemplo sería emplear GPT para identificar lagunas en un marco teórico. La tercera categoría, las interacciones profundas, ocurre cuando la IA determina significativamente ideas centrales, métodos o conclusiones. Un caso claro sería cuando un modelo propone hipótesis inéditas o metodologías innovadoras que transforman el curso original de la investigación.

Esta clasificación muestra que no todas las interacciones entre humanos y máquinas son igualmente problemáticas. La autoría debe evaluarse según el grado en que la IA influya sobre decisiones conceptuales clave del trabajo. Casos claros ocurren cuando la IA solamente mejora estilo o cuando directamente genera hipótesis centrales. Sin embargo, el verdadero desafío está en los escenarios intermedios: si la IA reformula significativamente la pregunta inicial del investigador o propone enfoques metodológicos cruciales que definen el proyecto.

En estos casos intermedios surgen preguntas difíciles: ¿qué tan determinante debe ser la contribución de la IA para cuestionar la autoría tradicional? ¿Dónde trazamos el límite entre herramienta y colaboración genuina? La ambigüedad de estos escenarios obliga a repensar nuestros criterios éticos y legales, ya que las prácticas científicas actuales avanzan más rápido que nuestra capacidad para definirlas claramente.

Es aquí donde se requiere una reflexión profunda sobre lo que implica realmente comprometer la autoría. La autoría científica no sólo asigna prestigio académico, sino también responsabilidades epistémicas y éticas claras. Quien aparece como autor debe garantizar la validez, precisión y honestidad intelectual de lo que firma. Al usar tecnologías como los LLMs, estas responsabilidades se vuelven difusas porque no es posible atribuir responsabilidad sin más a una IA. Por ende, la responsabilidad recae sobre el investigador humano, generando una tensión crítica entre autoría y responsabilidad intelectual.

Este desajuste entre autoría y responsabilidad demanda repensar urgentemente las normas académicas y éticas actuales. Es crucial desarrollar criterios claros que permitan asignar tanto créditos como responsabilidades reales y definidas, para mantener intacta la integridad intelectual en una era donde la producción del conocimiento ya no es exclusivamente humana.

Las instituciones académicas y las políticas editoriales tienen aquí una responsabilidad fundamental: ofrecer criterios claros, flexibles y adaptables, capaces de lidiar con la evolución constante de las tecnologías. Estas pautas deben ser transparentes, coherentes y capaces de adaptarse rápidamente.

En definitiva, la llegada de los LLMs no significa el fin de la autoría, sino el inicio de una discusión más honesta sobre su verdadera naturaleza. Este debate, aunque incómodo, es indispensable. Sin una comprensión clara de lo que implica ser autor en el siglo XXI, corremos el riesgo de perder precisión conceptual y capacidad real de responsabilizarnos por nuestras ideas y descubrimientos.

Quizá los LLMs solo evidencian que nuestra noción tradicional de autoría nunca reflejó plenamente la realidad del trabajo científico ni las dinámicas reales de la comunidad académica. Ahora tenemos la oportunidad histórica de abandonar esa mitología del autor autónomo e individual para construir un marco conceptual más honesto y responsable sobre lo que significa realmente participar en la creación colectiva del conocimiento.

mgenso@gmail.com

RELACIONADOS

Coordinación de Becas pide no caer en fraudes, tres intentos detectados en el estado de Aguascalientes

La Coordinación Estatal de Becas para el Bienestar en Aguascalientes pidió a la ciudadanía mantenerse alerta ante páginas falsas que intentan suplantar las plataformas...

Habrá mesas de diálogo para definir reubicación del tianguis navideño de Jardín Carpio

El director de Mercados del Municipio de Aguascalientes, Israel Díaz, informó que a partir de enero iniciarán mesas de trabajo con los comerciantes del...

Municipio de Aguascalientes contempla terreno para el Programa de Vivienda para el Bienestar

El secretario de Desarrollo Urbano del Municipio de Aguascalientes, Óscar Tristán Rodríguez Godoy, informó que ya se tiene identificado un terreno al oriente de...

C5 de Aguascalientes colaborará en prevención de delitos cibernéticos para el Mundial de Futbol

Colaborará con Jalisco y Ciudad de México para prevenir delitos como fraude electrónico Aguascalientes participará con personal del C5i en capacitación solicitada por...

Pensión del Bienestar a punto de cerrar registros para mujeres y adultos mayores en Aguascalientes

Mujeres desde los 60 años y hombres a partir de los 65 pueden registrarse a más tardar el 13 de diciembre. El programa...

Se refuerza la capacitación y coordinación en seguridad con el tercer Foro de Seguridad y Justicia en Aguascalientes

Se detallaron los convenios con agencias americanas, colombianas y brasileñas Más de 50 elementos de la policía estatal han sido capacitados en el...
- Advertisement -spot_img
- Advertisement -spot_img

Recientes en LJA.MX

Coordinación de Becas pide no caer en fraudes, tres intentos detectados en el estado de Aguascalientes

La Coordinación Estatal de Becas para el Bienestar en Aguascalientes pidió a la ciudadanía mantenerse alerta ante páginas falsas...
- Advertisement -spot_img

MÁS INFORMACIÓN EN LJA.MX

- Advertisement -spot_img