Inteligencia artificial en ciberseguridad que frenó las filtraciones de Anthropic

La noticia de la filtración de modelos de inteligencia artificial humana conmocionó a la industria de la ciberseguridad y provocó la caída de los precios de las acciones de las principales empresas. Lo que inicialmente parecía un posible punto de inflexión ahora plantea preguntas apremiantes: ¿pueden las organizaciones confiar a la inteligencia artificial sus activos digitales más sensibles, o este incidente simplemente ha reforzado la necesidad de protección de expertos?
Según Mint, un borrador de publicación de blog filtrado presenta un nuevo modelo de inteligencia artificial llamado Capybara. El borrador afirma que Capybara supera al modelo insignia de Anthropic, Claude Opus 4.6, en “codificación de software, razonamiento académico y tareas relacionadas con la ciberseguridad”. También señaló que se ha completado el entrenamiento sobre Claude Mythos, que Anthropic describe como su modelo más avanzado hasta la fecha.
¿Por qué gotea?
Si bien Anthropic atribuyó la filtración a un “error humano”, esa explicación puede no tranquilizar a las organizaciones sobre la capacidad de la empresa para proteger material confidencial. Algunos analistas especulan que pueden haber otros motivos en juego.
“La filtración de Capybara es desafortunada, pero casi me pregunto si se dejó intencionalmente en un lago de datos accesible para resaltar algunos de los riesgos cibernéticos emergentes que plantean y traerán las plataformas de inteligencia artificial en evolución”, dijo Tracy Goldberg, directora de ciberseguridad de Javelin Strategy & Research. “Aun así, el modelo todavía está en versión beta, y Anthropic ha dejado claro que necesita abordar los errores y el riesgo de errores en el sistema, y este mero lanzamiento de arabpic es la única indicación de ello”.
La amenaza inminente de la inteligencia artificial
Anthropic también destacó los riesgos de ciberseguridad asociados con estos modelos, destacando la creciente carrera armamentista entre los defensores de la IA y los ciberdelincuentes. La compañía advirtió que Capybara podría ser el primero de una serie de modelos que identifican y explotan vulnerabilidades mucho más rápido de lo que los equipos de seguridad pueden responder. En otras palabras, los delincuentes podrían aprovechar este modelo para impulsar una nueva generación de amenazas a la ciberseguridad impulsadas por la IA.
Los inversores reaccionaron rápidamente, haciendo que las acciones de CrowdStrike, Datadog y Zscaler cayeran más del 10% en las primeras operaciones.
“La caída de las acciones tecnológicas tras la noticia de las filtraciones de Carpincho realmente puso de relieve la falta general de comprensión que tienen los inversores sobre la IA”, dijo Goldberg. “Sabemos que estos modelos seguirán adaptándose, y lo harán más rápido de lo que pueden responder las medidas de seguridad de la industria. Por eso la gobernanza en torno a la IA es tan importante”.



