Meta corrige un error que podría filtrar los prompts de inteligencia artificial y el contenido generado de los usuarios.
Créditos de la imagen: TechCrunch
Meta ha corregido un error de seguridad que permitía a los usuarios de Meta AI chatbot acceder y ver los prompts privados y las respuestas generadas por AI de otros usuarios.
Sandeep Hodkasia, fundador de la firma de pruebas de seguridad Appsecure, le dijo exclusivamente a TechCrunch que Meta le pagó $10,000 en una recompensa por error por informar privadamente sobre el error que presentó el 26 de diciembre de 2024.
Meta implementó una corrección el 24 de enero de 2025, según Hodkasia, y no se encontró evidencia de que el error fuera explotado maliciosamente.
Hodkasia le dijo a TechCrunch que identificó el error al examinar cómo Meta AI permite a sus usuarios registrados editar sus prompts de AI para regenerar texto e imágenes. Descubrió que cuando un usuario edita su prompt, los servidores de backend de Meta asignan un número único al prompt y su respuesta generada por AI. Al analizar el tráfico de red en su navegador mientras editaba un prompt de AI, Hodkasia encontró que podía cambiar ese número único y los servidores de Meta devolverían un prompt y una respuesta generada por AI de otra persona.
El error significaba que los servidores de Meta no estaban verificando adecuadamente que el usuario que solicitaba el prompt y su respuesta estuviera autorizado para verlo. Hodkasia dijo que los números de prompt generados por los servidores de Meta eran “fácilmente adivinables,” lo que podría permitir a un actor malicioso raspar los prompts originales de los usuarios cambiando rápidamente los números de prompt mediante herramientas automatizadas.
Cuando TechCrunch contactó a Meta, el portavoz Ryan Daniels confirmó que el error se había corregido en enero y que la empresa “no encontró evidencia de abuso y recompensó al investigador,” dijo.
La noticia del error llega en un momento en que las grandes empresas tecnológicas están luchando por lanzar y refinar sus productos de AI, a pesar de muchos riesgos de seguridad y privacidad asociados con su uso.
La aplicación de AI en solitario de Meta, que debutó a principios de este año para competir con aplicaciones rivales como ChatGPT, tuvo un inicio accidentado después de que algunos usuarios compartieran inadvertidamente conversaciones privadas con el chatbot.