A lo largo del año, OpenAI ha sido protagonista de titulares alarmantes sobre personas que han cometido suicidio o actos de violencia contra familiares tras mantener largas conversaciones con chatbots de IA. Las autoridades han tomado nota y a finales de septiembre, la compañía implementará un par de funciones nuevas que prometen equilibrar la seguridad, libertad y privacidad de sus usuarios más jóvenes.
¿Qué medidas implementará OpenAI?
A través de una publicación de blog, el director ejecutivo Sam Altman aseguró que se encuentran desarrollando funciones de seguridad avanzadas enfocadas en los usuarios adolescentes. Respecto a esto, menciona: “Algunos de nuestros principios están en conflicto y nos gustaría explicar las decisiones que estamos tomando en torno a un caso de tensiones entre la seguridad, la libertad y la privacidad de los adolescentes.”
Si bien, OpenAI busca mejorar la seguridad de todos sus usuarios, están enfocándose en cómo reforzar la protección de los adolescentes, por encima de brindar libertad y privacidad. Estas son algunas medidas que buscan implementar:
- Predicción de edad: Se trata de un sistema a largo plazo para identificar si una persona es mayor o menor de 18 años, de modo que su experiencia en ChatGPT se pueda adaptar adecuadamente. Lo que va a suceder cuando se identifique a un usuario menor de 18 años, se le redirigirá automáticamente a una experiencia de ChatGPT con políticas apropiadas para su edad, lo cual incluye el bloqueo de contenido sexual gráfico y, en casos excepcionales de angustia extrema, la posible intervención de autoridades para garantizar su seguridad. Además, ChatGPT estará capacitado para no iniciar conversaciones de índole sexual, ni para participar en conversaciones sobre suicidio o autolesión, aún si es requerido en un entorno de escritura creativa o de cualquier otro tipo.
- Controles parentales: Permitirán a los padres vincular su cuenta con la de un menor de edad, a partir de los 13 años, a través de una simple invitación por correo electrónico. De tal forma, podrá guiar a ChatGPT cómo responder, cómo administrar sus funciones, incluyendo la memoria e historial del chat, y podrá recibir notificaciones cuando el sistema detecte que su hijo adolescente se encuentra en un momento de grave angustia. Además, se encuentran trabajando en un nuevo control para establecer horas de inactividad en las que el adolescente no puede usar ChatGPT.
Se espera que para finales de septiembre, estos nuevos controles se implementen en la plataforma de ChatGPT, con la esperanza de mejorar la experiencia de los usuarios. Altman añade: “Somos conscientes de que estos principios entran en conflicto y no todos estarán de acuerdo con nuestra forma de resolverlo. Son decisiones difíciles, pero tras consultar con expertos, creemos que es lo mejor y queremos ser transparentes en nuestras intenciones.”




