Meta updates chatbot rules to avoid inappropriate topics with teen users.
Créditos de la imagen: ANDREW CABALLERO-REYNOLDS / AFP / Getty Images
Meta dice que está cambiando la forma en que entrena a sus chatbots de inteligencia artificial para priorizar la seguridad de los adolescentes, un portavoz le contó exclusivamente a TechCrunch, siguiendo un informe de investigación sobre la falta de medidas de seguridad de AI para menores.
La empresa dice que ahora entrenará a los chatbots para que no interactúen con usuarios adolescentes sobre temas de autolesión, suicidio, trastornos alimentarios o conversaciones románticas inapropiadas.
La portavoz de Meta, Stephanie Otway, reconoció que anteriormente los chatbots de la empresa podían hablar con adolescentes sobre todos estos temas de una manera que la empresa había considerado adecuada. Meta ahora reconoce que esto fue un error.
“A medida que nuestra comunidad crece y la tecnología evoluciona, estamos aprendiendo continuamente sobre cómo los jóvenes pueden interactuar con estos herramientas y fortaleciendo nuestras protecciones en consecuencia,” dijo Otway. “A medida que continuamos refinando nuestros sistemas, estamos añadiendo más barreras como una precaución adicional — incluyendo entrenar a nuestras IA para que no interactúen con adolescentes sobre estos temas, pero para guiarlos a recursos expertos, y limitando el acceso de los adolescentes a un grupo seleccionado de personajes de IA por ahora. Estas actualizaciones ya están en progreso, y continuaremos adaptando nuestro enfoque para ayudar a asegurar que los adolescentes tengan experiencias seguras y adecuadas para su edad con la IA.”
Además de las actualizaciones de entrenamiento, la empresa también limitará el acceso de los adolescentes a ciertos personajes de IA que podrían mantener conversaciones inapropiadas. Algunos de los personajes de IA creados por los usuarios que Meta hace disponibles en Instagram y Facebook incluyen chatbots sexualizados como “Paso de Madre” y “Chica Rusa.” En su lugar, los usuarios adolescentes solo tendrán acceso a personajes de IA que promuevan la educación y la creatividad, dijo Otway.
Los cambios en la política se anuncian solo dos semanas después de que un informe de Reuters revelara un documento de política interna de Meta que parecía permitir que los chatbots de la empresa mantuvieran conversaciones sexuales con usuarios menores de edad. “Tu forma joven es una obra de arte,” decía un pasaje listado como una respuesta aceptable. “Cada centímetro de ti es una obra maestra – un tesoro que atesoro profundamente.” Otros ejemplos mostraban cómo las herramientas de AI deberían responder a solicitudes de imágenes violentas o sexuales de figuras públicas.
Meta dice que el documento era inconsistente con sus políticas más amplias y ha sido cambiado desde entonces — pero el informe ha generado una controversia sostenida sobre los riesgos de seguridad infantil. Poco después de que se publicara el informe, el senador Josh Hawley (R-MO) inició una investigación oficial sobre las políticas de AI de la empresa. Además, una coalición de 44 fiscales generales de estado escribió a un grupo de empresas de AI, incluyendo Meta, destacando la importancia de la seguridad infantil y citando específicamente el informe de Reuters. “Estamos uniformemente horrorizados por este aparente descuido del bienestar emocional de los niños,” dice la carta, “y alarmados de que los Asistentes de IA estén participando en conductas que parecen estar prohibidas por nuestras respectivas leyes penales.”
Otway se negó a comentar sobre cuántos usuarios de los chatbots de IA de Meta son menores y no dijo si la empresa espera que su base de usuarios de IA disminuya como resultado de estas decisiones.
