Meta ha suprimido la investigación sobre la seguridad de los niños, afirman cuatro denunciantes.
Créditos de la imagen: Hollie Adams/Bloomberg / Getty Images
Dos empleados actuales y dos ex empleados de Meta revelaron documentos a Congreso alegando que la empresa podría haber reprimido la investigación sobre la seguridad de los niños, según un informe de The Washington Post.
Según sus afirmaciones, Meta cambió sus políticas sobre la investigación de temas sensibles — como la política, los niños, el género, la raza y el acoso — seis semanas después de que la denunciante Frances Haugen filtrara documentos internos que mostraban cómo la propia investigación de Meta encontró que Instagram puede dañar la salud mental de las adolescentes. Estas revelaciones, que se hicieron públicas en 2021, desencadenaron años de audiencias en el Congreso sobre la seguridad de los niños en internet, un tema que sigue siendo un tema candente en los gobiernos del mundo hoy.
Como parte de estos cambios de política, el informe dice que Meta propuso dos formas en las que los investigadores podrían limitar el riesgo de realizar investigaciones sensibles. Una sugerencia fue involucrar a abogados en su investigación, protegiendo sus comunicaciones de “partes adversas” debido al privilegio abogado-cliente. Los investigadores también podrían escribir sobre sus hallazgos de manera más vaga, evitando términos como “no conforme” o “ilegal.”
Jason Sattizahn, un ex investigador de Meta especializado en realidad virtual, le dijo a The Washington Post que su jefe le hizo eliminar grabaciones de una entrevista en la que un adolescente afirmaba que su hermano de diez años había sido acosado sexualmente en la plataforma de realidad virtual de Meta, Horizon Worlds.
“Las regulaciones globales de privacidad establecen claramente que si se recopila información de menores de 13 años sin consentimiento verificable de padres o tutores, debe eliminarse,” dijo un portavoz de Meta a TechCrunch.
Sin embargo, los denunciantes afirman que los documentos que presentaron al Congreso muestran un patrón de empleados siendo desalentados a discutir y investigar sus preocupaciones sobre cómo los niños menores de 13 años están utilizando las aplicaciones de realidad virtual social de Meta.
“Estos pocos ejemplos están siendo cosidos juntos para encajar en una narrativa predeterminada y falsa; en realidad, desde el inicio de 2022, Meta ha aprobado casi 180 estudios relacionados con Realidad Labs sobre temas sociales, incluyendo la seguridad y el bienestar de los jóvenes,” dijo Meta a TechCrunch.
En una demanda presentada en febrero, Kelly Stonelake — una ex empleada de Meta de quince años — expresó preocupaciones similares a estas cuatro denunciantes. Ella le dijo a TechCrunch anteriormente este año que lideró estrategias “go-to-market” para llevar Horizon Worlds a adolescentes, mercados internacionales y usuarios móviles, pero sintió que la aplicación no tenía métodos adecuados para mantener a los usuarios menores de 13 años; también señaló que la aplicación tenía problemas persistentes de racismo.
“El equipo directivo estaba al tanto de que en una prueba, tardaba un promedio de 34 segundos en entrar a la plataforma antes de que los usuarios con avatares negros fueran insultados con epítetos raciales, incluyendo la ‘N-word’ y ‘monkey,’” alega la demanda.
Stonelake ha presentado una demanda separada contra Meta por acoso sexual y discriminación de género.
Aunque las denuncias de estos denunciantes se centran en los productos de VR de Meta, la empresa también enfrenta críticas sobre cómo otros productos, como los chatbots de IA, afectan a los menores. Reuters informó el mes pasado que las reglas anteriores de IA de Meta permitían que los chatbots tuvieran “conversaciones románticas o sensuales” con niños.
