Equipos rojos para sus sistemas de IA antes de que los ataquen
Los sistemas de IA ya están siendo explotados, desde desbloqueos e inyecciones de instrucciones hasta filtraciones de datos y manipulación de agentes. Los atacantes usan lenguaje sencillo para irrumpir en sistemas antes considerados seguros, superando las pruebas de penetración tradicionales.
Esta sesión aborda por qué la IA necesita un manual de equipos rojos nuevo, con casos reales que muestran cómo fallan los modelos avanzados y por qué es crucial el trabajo continuo con equipos rojos.
Temas clave: la naturaleza no determinista de la IA, vectores de ataque comunes, diferencias en vulnerabilidades de modelos y aplicaciones, y cómo el trabajo continuo genera confianza.
Opting in to PANW's privacy policy.
I want to receive related communications from Palo Alto Networks and acknowledge their Privacy Policy and Terms of Use.
Descargue este Webcast


