La Columna J
Ética e Inteligencia Artificial: la urgencia de construir acuerdos antes que algoritmos
Estimado lector de LJA.MX, con el gusto de saludarle como cada semana, y agradeciendo su tiempo y disposición para dar lectura a esta columna. En esta ocasión cedo el espacio a una persona a la que admiro y he tenido la gran oportunidad de trabajar junto a ella, así mismo es una especialista en temas de educación, actualmente es la rectora de Universidad Internacional de Innovación. Lourdes Margain nos comparte una visión sumamente interesante sobre lo que conlleva la inteligencia artificial.
La Inteligencia Artificial ha dejado de ser una promesa tecnológica para convertirse en un actor silencioso, pero decisivo, en múltiples ámbitos de nuestra vida cotidiana. Hoy, los algoritmos influyen en decisiones que van desde qué información consumimos, cómo se asignan recursos, hasta cómo se interpretan datos que pueden incidir en derechos fundamentales. En este contexto, hablar de ética en la Inteligencia Artificial ya no es una opción académica ni un debate futurista: es una necesidad urgente y un deber institucional.
El reciente fortalecimiento del diálogo en torno a la ética y la Inteligencia Artificial en la impartición de justicia, impulsado desde el Poder Judicial del Estado de Aguascalientes, marca un precedente relevante. Este tipo de espacios evidencian que las instituciones comienzan a reconocer que el desarrollo tecnológico, si no se acompaña de reflexión ética, puede amplificar desigualdades, reproducir sesgos y generar decisiones automatizadas difíciles de auditar o cuestionar. La tecnología avanza con rapidez; los marcos normativos y éticos, no siempre.
Conviene subrayar una idea central: la Inteligencia Artificial no es neutral. Todo sistema algorítmico está diseñado, entrenado y operado por personas, bajo determinados supuestos, valores y objetivos. Los datos con los que aprende reflejan contextos sociales específicos, muchas veces atravesados por desigualdades históricas. Por ello, cuando estos sistemas se utilizan en ámbitos sensibles -como la justicia, la seguridad, la educación o la salud- el riesgo no es la tecnología en sí, sino su uso acrítico, desregulado o descontextualizado.
Frente a este escenario, la ética en la Inteligencia Artificial debe entenderse como un marco de orientación práctica, no como un simple discurso moral. Implica preguntarnos quién diseña la tecnología, con qué fines, bajo qué criterios de transparencia, rendición de cuentas y supervisión humana. Implica también definir límites claros: qué decisiones pueden ser asistidas por algoritmos y cuáles deben permanecer, de manera indelegable, bajo el juicio humano.
La urgencia de este debate radica en que la Inteligencia Artificial ya está siendo incorporada en procesos institucionales sin que necesariamente existan protocolos éticos, comités especializados o marcos normativos claros que orienten su implementación. Actuar tarde significa reaccionar ante daños consumados; actuar a tiempo implica anticipar escenarios, establecer salvaguardas y construir consensos antes de que la tecnología imponga su propia lógica.
Desde la academia, particularmente desde universidades comprometidas con la innovación responsable, tenemos una responsabilidad indeclinable. No basta con formar profesionales altamente capacitados en tecnologías emergentes; debemos formar ciudadanos críticos, conscientes del impacto social, jurídico y ético de las herramientas que desarrollan y utilizan. La ética en la Inteligencia Artificial no puede ser un complemento marginal en los planes de estudio, sino un eje transversal que dialogue con el derecho, la filosofía, la ciencia de datos, la ingeniería y las políticas públicas.
Asimismo, resulta impostergable la conformación de comités interdisciplinarios de ética en Inteligencia Artificial, integrados por representantes del sector público, el poder judicial, la academia, la iniciativa privada y la sociedad civil. Estos espacios no solo deben reflexionar, sino generar propuestas concretas: lineamientos, recomendaciones, modelos de gobernanza y, eventualmente, insumos para marcos normativos que garanticen un uso responsable, transparente y humano de la tecnología.
La construcción de estos marcos no puede darse de manera aislada ni fragmentada. Requiere sumar voluntades, compartir conocimiento y reconocer que los desafíos tecnológicos contemporáneos trascienden fronteras institucionales. La ética, en este sentido, se convierte en un punto de encuentro: un lenguaje común desde el cual es posible alinear innovación, justicia y derechos humanos.
Desde la academia de pertinencia y calidad asumimos el compromiso de impulsar este debate de manera activa, propositiva y colaborativa. Creemos firmemente que el futuro tecnológico no debe definirse únicamente por lo que es técnicamente posible, sino por lo que es socialmente deseable y éticamente aceptable. El momento histórico que vivimos nos exige pasar de la fascinación por la tecnología a la responsabilidad compartida sobre sus consecuencias.
La Inteligencia Artificial seguirá evolucionando. La pregunta es si lo hará al margen de principios claros o bajo acuerdos colectivos que pongan en el centro la dignidad humana. La ética no debe llegar después de la innovación; debe caminar con ella desde el inicio. Solo así podremos garantizar que el progreso tecnológico sea, verdaderamente, un progreso social.
Sin duda alguna las palabras de Margain extienden una profunda reflexión, seguramente le estaremos leyendo más a menudo.
In silentio mei verba, la palabra es poder, la filosofía es libertad.




