Irregular raises $80 million to secure frontier AI models
Los dos cofundadores se paran uno al lado del otro en un pasillo de la oficina, vestidos con camisetas de logo negro.
La empresa de ciberseguridad AI Irregular anunció el miércoles $80 millones en nueva financiación, en una ronda liderada por Sequoia Capital y Redpoint Ventures, con la participación de Wiz CEO Assaf Rappaport. Una fuente cercana al acuerdo dijo que la ronda valoró a Irregular en $450 millones.
“Nuestra visión es que pronto, una gran parte de la actividad económica vendrá de la interacción humano-AI y AI-AI, y eso va a romper el stack de seguridad en múltiples puntos,” dijo cofundador Dan Lahav a TechCrunch, “y eso es lo que estamos haciendo.”
Anteriormente conocida como Pattern Labs, Irregular ya es un jugador significativo en las evaluaciones de AI. El trabajo de la empresa se cita en evaluaciones de seguridad para Claude 3.7 Sonnet así como los modelos o3 y o4-mini de OpenAI. En general, el marco de la empresa para calificar la capacidad de detección de vulnerabilidades de un modelo (denominado SOLVE) es ampliamente utilizado en la industria.
Aunque Irregular ha realizado un trabajo significativo en los riesgos existentes de los modelos, la empresa está recaudando fondos con la vista puesta en algo aún más ambicioso: detectar riesgos y comportamientos emergentes antes de que aparezcan en el mundo real. La empresa ha construido un sistema elaborado de entornos simulados, permitiendo pruebas intensivas de un modelo antes de su lanzamiento.
“Tenemos simulaciones de redes complejas donde tenemos AI tanto actuando como atacante como defensor,” dice cofundador Omer Nevo. “Así que cuando sale un nuevo modelo, podemos ver dónde se mantienen las defensas y dónde no.”
La seguridad se ha convertido en un punto de enfoque intenso para la industria de AI, a medida que los riesgos potenciales de los modelos fronterizos han aumentado. OpenAI revisó sus medidas de seguridad internas este verano, con la vista puesta en el espionaje corporativo.
Al mismo tiempo, los modelos de AI están adquiriendo cada vez más habilidades para encontrar vulnerabilidades de software — una capacidad con serias implicaciones tanto para atacantes como para defensores.
Para los fundadores de Irregular, esto es solo el primero de muchos dolores de cabeza de seguridad causados por el creciente potencial de los modelos de lenguaje grandes.
“Si el objetivo del laboratorio fronterizo es crear modelos cada vez más sofisticados y capaces, nuestro objetivo es asegurar estos modelos,” dice Lahav. “Pero es un objetivo en movimiento, por lo que hay muchísimo más trabajo por hacer en el futuro.”
