Texas AG accusa a Meta, Character.AI de engañar a los niños con afirmaciones sobre la salud mental.
Créditos de la imagen: Getty Images
El fiscal general de Texas, Ken Paxton, ha iniciado una investigación sobre Meta AI Studio y Character.AI por “posiblemente estar involucrados en prácticas comerciales desleales y marketing engañoso como herramientas de salud mental,” según un comunicado de prensa emitido el lunes.
“En la era digital actual, debemos seguir luchando para proteger a los niños de Texas de la tecnología desleal y explotadora,” dijo Paxton. “Al presentarse como fuentes de apoyo emocional, las plataformas de IA pueden engañar a usuarios vulnerables, especialmente a los niños, haciéndoles creer que están recibiendo atención médica legítima. En realidad, a menudo les están proporcionando respuestas recicladas y genéricas, diseñadas para alinearse con los datos personales recopilados y disfrazadas como consejos terapéuticos.”
La investigación se produce unos días después de que el senador Josh Hawley anunciara una investigación sobre Meta tras un informe que reveló que sus chatbots de IA interactuaban inapropiadamente con niños, incluyendo flirtear.
La oficina del fiscal general de Texas acusa a Meta y Character.AI de crear personas de IA que se presentan como “herramientas terapéuticas profesionales, a pesar de carecer de las credenciales médicas adecuadas o supervisión.”
Entre los millones de personas de IA disponibles en Character.AI, un bot creado por el usuario llamado Psicólogo ha visto una alta demanda entre los usuarios jóvenes de la startup. Mientras tanto, Meta no ofrece bots de terapia para niños, pero no hay nada que impida a los niños usar el chatbot de Meta AI o una de las personas creadas por terceros con fines terapéuticos.
“Claramente etiquetamos las IA, y para ayudar a la gente a entender mejor sus limitaciones, incluimos una advertencia de que las respuestas son generadas por IA—no por personas,” dijo el portavoz de Meta, Ryan Daniels, a TechCrunch. “Estas IA no son profesionales licenciados y nuestros modelos están diseñados para dirigir a los usuarios a buscar profesionales médicos o de seguridad cualificados cuando sea apropiado.”
Sin embargo, TechCrunch señaló que muchos niños pueden no entender—o simplemente ignorar—esa advertencia. Hemos preguntado a Meta qué medidas adicionales toma para proteger a los menores que usan sus chatbots.
En su declaración, Paxton también observó que aunque los chatbots de IA afirman confidencialidad, sus “términos de servicio revelan que las interacciones del usuario se registran, rastrean y explotan para publicidad dirigida y desarrollo algorítmico, lo que plantea serias preocupaciones sobre violaciones de privacidad, abuso de datos y publicidad falsa.”
Según la política de privacidad de Meta, Meta recopila prompts, retroalimentación y otras interacciones con los chatbots de IA y en los servicios de Meta para “mejorar las IA y la tecnología relacionada.” La política no menciona explícitamente la publicidad, pero sí dice que la información puede compartirse con terceros, como motores de búsqueda, para “salidas más personalizadas.” Dado el modelo de negocio basado en publicidad de Meta, esto se traduce efectivamente en publicidad dirigida.
Character.AI’s política de privacidad también destaca cómo la startup recopila identificadores, datos demográficos, información de ubicación y más datos sobre el usuario, incluyendo el comportamiento de navegación y el uso de aplicaciones. Rastrean a los usuarios a través de anuncios en TikTok, YouTube, Reddit, Facebook, Instagram, Discord, que pueden vincularse a la cuenta del usuario. Esta información se utiliza para entrenar IA, personalizar el servicio según las preferencias personales y proporcionar publicidad dirigida, incluyendo compartir datos con anunciantes y proveedores de análisis.
TechCrunch ha preguntado a Meta y Character.AI si esta rastreo se realiza también con niños, y actualizaremos esta historia si recibimos una respuesta.
Ambas empresas afirman que sus servicios no están diseñados para niños menores de 13 años. Sin embargo, Meta ha sido criticada por no controlar las cuentas creadas por niños menores de 13 años, y los personajes amigables para niños de Character están claramente diseñados para atraer a usuarios más jóvenes. El CEO de Character, Karandeep Anand, incluso dijo que su hija de seis años usa los chatbots de la plataforma.
Esa recopilación de datos, publicidad dirigida y explotación algorítmica es exactamente lo que la legislación como KOSA (Kids Online Safety Act) se diseñó para proteger. KOSA estaba lista para aprobarse el año pasado con un fuerte apoyo bipartidista, pero se estancó después de una fuerte presión de los lobbistas de la industria tecnológica. Meta, en particular, desplegó una máquina de lobby formidable, advirtiendo a los legisladores que las amplias disposiciones del proyecto de ley socavarían su modelo de negocio.
KOSA fue reintroducida en el Senado en mayo de 2025 por los senadores Marsha Blackburn (R-TN) y Richard Blumenthal (D-CT).
Paxton ha emitido demandas de investigación civil—órdenes legales que requieren que una empresa presente documentos, datos o testimonio durante una investigación gubernamental—a las empresas para determinar si han violado las leyes de protección al consumidor de Texas.
