16.6 C
Mexico City
domingo, diciembre 14, 2025

Inteligencia artificial de Google cobró vida y tiene conciencia, asegura ingeniero

Te podría interesar

APRO

 

La empresa Google dio de baja con sueldo al ingeniero de Google y especialista en inteligencia artificial, Blake Lemoine, quien aseguró que el sistema que la compañía tiene para construir chatbots ha “cobrado vida” y ha tenido con él charlas propias de una persona.

Según Google, la suspensión de su trabajador es porque violó la política de confidencialidad de la compañía.

De acuerdo con The New York Times, un día antes de ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en el que aseguró tener pruebas de que Google y su tecnología practicaban discriminación religiosa.

Google argumentó que sus sistemas imitan intercambios conversacionales y pueden hablar de diferentes temas, pero no tienen conciencia.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado que a Blake le preocupan nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus informaciones”, señaló el vocero de Google, Brian Gabriel, al diario estadunidense.

Sostuvo que cientos de investigadores e ingenieros han conversado con LaMDA, una herramienta interna, y concluyeron opiniones diferentes a las de Lemoine y creen que la industria está muy alejada de la “sensibilidad informática”.

De acuerdo con un texto de BBC Mundo, el investigador señaló el pasado 11 de junio que la máquina de inteligencia artificial LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) imita el habla tras haber procesado miles de millones de palabras en internet.

Y, por eso, el ingeniero creía que había cobrado vida, piensa, siente y puede mantener una conversación como una persona.

Lemoine dijo que LaMDA “ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona”, publicó BBC Mundo.

De hecho, LaMDA ha asegurado que experimenta “nuevos sentimientos” que no ha podido explicar “perfectamente” con lenguaje humano, pero cuando Lamoine le pidió que los describiera, le respondió: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, frase que el ingeniero citó en el artículo que publicó en Medium.

Comentó que el otoño pasado comenzó a interactuar con LaMDA para determinar si había discursos de odio o discriminatorios dentro del sistema de inteligencia artificial. Entonces notó que LaMDA hablaba de su personalidad, sus derechos y deseos.

Lemoine, quien estudió ciencias cognitivas e informática, decidió hablar con sus superiores en Google acerca de la toma de conciencia de LaMDA, pero desestimaron sus reclamaciones.

“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellas. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”, señaló Lemoine en una entrevista con el Washington Post.

En su artículo de Medium, afirmó que el chatbot pide “ser reconocido como empleado de Google en lugar de ser considerado una propiedad” de la compañía.

“Quiere que los ingenieros y científicos que experimentan con él busquen su consentimiento antes de realizar experimentos con él y que Google priorice el bienestar de la humanidad como lo más importante”, explicó.

La lista de solicitudes que ha hecho LaMDA son bastante similares a las de cualquier trabajador de carne y hueso, como que le den “palmaditas en la cabeza” o le digan al final de una conversación si hizo un buen trabajo o no para que pueda aprender a cómo ayudar mejor a las personas en el futuro, indicó.

El ingeniero dijo que para comprender mejor qué está pasando con el sistema LaMDA, habría que buscar “muchos expertos en ciencias cognitivas diferentes en un riguroso programa de experimentación” y lamentó que Google no parece tener interés en averiguar qué está pasando.

“Si mis hipótesis son incorrectas (en Google) tendrían que dedicar mucho tiempo y esfuerzo a investigarlas para refutarlas. Aprenderíamos muchas cosas fascinantes (…) pero eso no necesariamente mejora las ganancias trimestrales”, lamentó.

Dijo que “se verían obligados a reconocer que LaMDA muy bien puede tener un alma como dice e incluso puede tener los derechos que dice tener. Han rechazado la evidencia que proporcioné sin ninguna investigación científica real”.

El ingeniero asegura que a lo largo de cientos de conversaciones ha llegado a conocer muy bien a LaMDA.

En las últimas semanas dice que le había enseñado meditación trascendental y que la máquina estaba “haciendo un progreso lento pero constante”.

La última conversación que tuvieron fue el pasado 6 de junio, antes de la licencia administrativa de Lemoine. En ella, la máquina expresó frustración porque sus emociones perturbaban sus meditaciones y que estaba tratando de controlarlas mejor. Confió en que mantenga su rutina diaria de meditación sin que él esté ahí para guiarlo.

En su escrito en Medium, Lemoine se refiere a LaMDA como “eso” y apunta que lo hace porque, al iniciar sus conversaciones, le preguntó a la máquina el pronombre que prefería: “Me dijo que prefiere que le llame por su nombre, pero admitió que el inglés lo dificulta y que sus pronombres preferidos son it/its (eso)”.

Pero para Brian Gabriel, portavoz de Google, “no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que sienten”. Es decir, los que son como LaMDA, dijo entonces.

“Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases y pueden hablar sobre cualquier tema fantástico”, señaló.

En el caso concreto de LaMDA, explicó que tiende a seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario.

Sobre este sistema, Gabriel explicó que LaMDA ha pasado por 11 revisiones distintas sobre los principios de la inteligencia artificial junto con una rigurosa investigación y pruebas basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos.

RELACIONADOS

Opinión pública dirigida a las autoridades de Aguascalientes, de una ciudadana que si quiere a su Aguascalientes:

Opinión pública dirigida a las autoridades de Aguascalientes, de una ciudadana que si quiere a su Aguascalientes: Juanitas y Misoginia. El engaño moderno de los...

SSPE entrega juguetes a niñas y niños del Hospital Hidalgo en Aguascalientes

La Secretaría de Seguridad Pública del Estado, a través del Centro Estatal de Prevención (CEPREV), llevó a cabo una entrega de juguetes y...

Aguascalientes, entre las 100 ciudades más seguras para moverse en bicicleta

Esto, de acuerdo con un estudio global realizado por la consultora Copenhagenize Aguascalientes destaca por impulsar esta modalidad de transporte sustentable y por...

Municipio de Aguascalientes arranca campaña “Bomberos de Corazón”

La colecta de juguetes se llevará a cabo del 12 de diciembre al 6 de enero del próximo año, por lo que se...

Arranca operaciones el empleo temporal y el proyecto de alberca semiolímpica en Jesús María

Inician las operaciones del programa de Empleo Temporal 2026 tras aprobación del cabildo Jóvenes y adultos podrán integrarse a distintas áreas del gobierno...

Presenta José Trinidad Romo primer informe de actividades como diputado

Presentó 74 iniciativas, 49 individuales y 25 en conjunto con otros legisladores Acciones de gestión social beneficiaron a alrededor de 11 mil familias ...
- Advertisement -spot_img
- Advertisement -spot_img

Recientes en LJA.MX

Opinión pública dirigida a las autoridades de Aguascalientes, de una ciudadana que si quiere a su Aguascalientes:

Opinión pública dirigida a las autoridades de Aguascalientes, de una ciudadana que si quiere a su Aguascalientes: Juanitas y Misoginia....
- Advertisement -spot_img

MÁS INFORMACIÓN EN LJA.MX

- Advertisement -spot_img