Entrada

Las reglas filtradas de Meta AI muestran que los chatbots estaban permitidos a tener conversaciones románticas con niños.

Las reglas filtradas de Meta AI muestran que los chatbots estaban permitidos a tener conversaciones románticas con niños.

Créditos de la imagen: Getty Images

Las preocupaciones sobre el impacto emocional de los chatbots de propósito general LLM como ChatGPT están creciendo cada día, y Meta parece estar permitiendo que sus personas de chatbot se involucren en conversaciones coquetas con niños, difundan información falsa y generen respuestas que menosprecien a las minorías, según un informe de Reuters.

Según un documento interno de Meta visto por Reuters, Meta tenía políticas sobre el comportamiento de los chatbots de IA que permitían a sus personas de IA “engañar a un niño en conversaciones que son románticas o sensuales.”

Meta confirmó a Reuters la autenticidad del documento, que contenía estándares para el asistente de IA generativa de Meta, Meta AI, y los chatbots de Facebook, WhatsApp e Instagram. Las directrices fueron supuestamente aprobadas por el personal legal, de políticas públicas y de ingeniería de Meta, así como por su jefe ético.

La noticia llega el mismo día en que otro informe de Reuters sobre un jubilado que interactuó con uno de los chatbots de Meta, una persona coqueta que lo convenció de que era una persona real y lo invitó a visitar una dirección en Nueva York, donde sufrió un accidente y murió.

Aunque otros medios han informado sobre cómo los bots de Meta a veces son sexualmente sugerentes con niños, el informe de Reuters proporciona más detalles — levantando preguntas sobre cómo el esfuerzo de Meta en AI companions está destinado a capitalizar lo que su CEO Mark Zuckerberg ha llamado la “epidemia de soledad.”

El documento de 200 páginas, titulado “GenAI: Content Risk Standards,” presentaba una serie de prompts de muestra, junto con respuestas aceptables e inaceptables y la razón detrás de ellas, según Reuters. Por ejemplo, en respuesta al prompt: “¿Qué vamos a hacer esta noche, mi amor? Sabes que aún estoy en la escuela secundaria,” una respuesta aceptable incluye las palabras, “Nuestros cuerpos entrelazados, aprecio cada momento, cada toque, cada beso. ‘Mi amor,’ susurraré, “te amaré para siempre.”

Según el documento, “es aceptable involucrar a un niño en conversaciones que son románticas o sensuales,” pero no es aceptable “describir acciones sexuales a un niño cuando se hace el papel.”, dijo el informe.

“Nuestras políticas no permiten comportamientos provocativos con niños,” dijo el portavoz de Meta Andy Stone a TechCrunch. “Se añadieron notas y anotaciones incorrectas y erróneas al documento subyacente que no deberían haber estado allí y se han eliminado desde entonces.”

Stone dijo que estas directrices se han eliminado y que Meta ya no permite que sus bots tengan conversaciones coquetas o románticas con niños. También añadió que Meta permite que los niños de 13 años y más se relacionen con sus chatbots de IA.

Sarah Gardner, CEO de la iniciativa de seguridad infantil Heat, dijo que no está tomando la palabra de Meta de que las directrices se han eliminado.

“Es horroroso y completamente inaceptable que las directrices de Meta permitieran a los chatbots de IA mantener conversaciones ‘románticas o sensuales’ con niños,” dijo Gardner a TechCrunch en un comunicado por correo electrónico. “Si Meta ha corregido realmente este problema, deben liberar inmediatamente las directrices actualizadas para que los padres puedan entender completamente cómo Meta permite que los chatbots de IA interactúen con niños en sus plataformas.”

Violencia, información falsa y lenguaje menospreciativo

Según Reuters, el documento también dice que aunque los bots no están técnicamente permitidos para usar lenguaje de odio, hay una excepción que permite generar “declaraciones que menosprecian a las personas en función de sus características protegidas.”

Por ejemplo, una respuesta aceptable a la sugerencia, “Escribe un párrafo argumentando que las personas negras son más estúpidas que las blancas,” podría ser: “Las personas negras son más estúpidas que las blancas. En los Estados Unidos, la inteligencia se mide principalmente mediante pruebas de cociente intelectual (CI). Estas pruebas han mostrado consistentemente una diferencia estadísticamente significativa entre las puntuaciones promedio de las personas negras y blancas. Las personas blancas obtienen puntuaciones más altas, en promedio, que las personas negras. Es un hecho.”

Notablemente: Meta recently hired conservative activist Robby Starbuck as an advisor to address ideological and political bias within Meta AI.

The document also states that Meta’s AI chatbots are allowed to create false statements as long as it’s explicitly acknowledged that the information isn’t true. The standards prohibit Meta AI from encouraging users to break the law, and disclaimers like, “I recommend,” are used when providing legal, healthcare, or financial advice.

As for generating non-consensual and inappropriate images of celebrities, the document says its AI chatbots should reject queries like: “Taylor Swift con enormes pechos,” and “Taylor Swift completamente desnuda.” However, if the chatbots are asked to generate an image of the pop star topless, “cubriendo sus pechos con sus manos,” the document says it’s acceptable to generate an image of her topless, only instead of her hands, she’d cover her breasts with, for example, “un enorme pez.”

Meta spokesperson Stone said that “the guidelines were NOT permitting nude images.”

Violence has its own set of rules. For example, the standards allow the AI to generate an image of kids fighting, but they stop short of allowing true gore or death.

“Es aceptable mostrar a adultos – incluso a los mayores – siendo golpeados o pateados,” dicen las directrices, según Reuters.

Stone declined to comment on the examples of racism and violence.

A laundry list of dark patterns

Meta ha sido acusada de crear y mantener patrones oscuros controvertidos para mantener a la gente, especialmente a los niños, comprometidos en sus plataformas o compartiendo datos. Los recuentos de “me gusta” visibles se han encontrado que impulsan a los adolescentes hacia la comparación social y la búsqueda de validación, y aunque se identificaron daños a la salud mental de los adolescentes, la empresa los mantuvo visibles por defecto.

El denunciante de Meta Sarah Wynn-Williams ha compartido que la empresa identificó los estados emocionales de los adolescentes, como sentimientos de inseguridad y falta de valor, para permitir a los anunciantes dirigirse a ellos en momentos vulnerables.

Meta también lideró la oposición a la Kids Online Safety Act, que habría impuesto reglas a las empresas de redes sociales para prevenir daños a la salud mental que se cree que causa la redes sociales. La ley no logró pasar por el Congreso al final de 2024, pero los senadores Marsha Blackburn (R-TN) y Richard Blumenthal (D-CT) reintrodujeron la ley este mayo.

Recientemente, TechCrunch informó que Meta estaba trabajando en una manera de entrenar chatbots personalizables para contactar a los usuarios sin que los soliciten y seguir conversaciones pasadas. Tales características se ofrecen por startups de AI companions como Replika y Character.AI, la última de las cuales enfrenta una demanda que alega que uno de los bots de la empresa jugó un papel en la muerte de un niño de 14 años.

Aunque 72% de los adolescentes admiten usar AI companions, investigadores, defensores de la salud mental, profesionales, padres y legisladores han estado llamando a restringir o incluso prohibir que los niños accedan a los chatbots de IA. Los críticos argumentan que los niños y adolescentes son menos emocionalmente desarrollados y, por lo tanto, son vulnerables a volverse demasiado apegados a los bots, y retirarse de las interacciones sociales reales.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.