La inteligencia artificial (IA) es muy prometedora para mejorar la ciberdefensa y facilitar la vida de los profesionales de la seguridad. Puede ayudar a los equipos a superar la fatiga de las alertas, detectar patrones más rápido y lograr un nivel de escala que los analistas humanos por sí solos no pueden igualar. Pero hacer realidad ese potencial depende de asegurar los sistemas que lo hacen posible.
Cada organización que experimenta con IA en operaciones de seguridad, conscientemente o no, está ampliando su superficie de ataque. Sin una gobernanza clara, controles de identidad sólidos y visibilidad de cómo la IA toma sus decisiones, incluso las implementaciones bien intencionadas pueden generar riesgos más rápido de lo que los reducen. Para beneficiarse verdaderamente de la IA, los defensores deben abordar su seguridad con el mismo rigor que aplican a cualquier otro sistema crítico. Eso significa establecer confianza en los datos de los que aprende, responsabilidad por las acciones que toma y supervisión de los resultados que produce. Cuando se protege correctamente, la IA puede amplificar la capacidad humana en lugar de reemplazarla para ayudar a los profesionales a trabajar de manera más inteligente, responder más rápido y defenderse de manera más efectiva.
Establecer confianza para los sistemas de IA agentes
A medida que las organizaciones comienzan a integrar la IA en los flujos de trabajo defensivos, la seguridad de la identidad se convierte en la base de la confianza. Cada modelo, script o agente autónomo que opera en un entorno de producción ahora representa una nueva identidad: una identidad capaz de acceder a datos, emitir comandos e influir en los resultados defensivos. Si esas identidades no se gobiernan adecuadamente, las herramientas destinadas a fortalecer la seguridad pueden convertirse silenciosamente en fuentes de riesgo.
La aparición de sistemas de IA agente hace que esto sea especialmente importante. Estos sistemas no sólo analizan; pueden actuar sin intervención humana. Clasifican alertas, enriquecen el contexto o activan guías de respuesta bajo la autoridad delegada de operadores humanos. Cada acción es, en efecto, una transacción de confianza. Esa confianza debe estar vinculada a la identidad, autenticada mediante políticas y auditable de extremo a extremo.
Los mismos principios que protegen a las personas y los servicios deben aplicarse ahora a los agentes de IA:
- Credenciales con alcance y privilegio mínimo para garantizar que cada modelo o agente pueda acceder solo a los datos y funciones necesarios para su tarea.
- Autenticación sólida y rotación de claves para evitar la suplantación de identidad o la fuga de credenciales.
- Procedencia de la actividad y registro de auditoría para que cada acción iniciada por la IA pueda rastrearse, validarse y revertirse si es necesario.
- Segmentación y aislamiento para evitar el acceso entre agentes, asegurando que un proceso comprometido no pueda influir en otros.
En la práctica, esto significa tratar cada sistema de IA agente como una identidad de primera clase dentro de su marco de IAM. Cada uno debe tener un propietario definido, una política de ciclo de vida y un alcance de monitoreo, como cualquier usuario o cuenta de servicio. Los equipos defensivos deben verificar continuamente lo que esos agentes pueden hacer, no sólo lo que estaban destinados a hacer, porque la capacidad a menudo varía más rápido que el diseño. Una vez establecida la identidad como base, los defensores pueden centrar su atención en proteger el sistema en general.
Proteger la IA: mejores prácticas para el éxito
Proteger la IA comienza con la protección de los sistemas que la hacen posible: los modelos, los canales de datos y las integraciones que ahora están integrados en las operaciones de seguridad cotidianas. Precisamente como
Para proteger las redes y los puntos finales, los sistemas de IA deben tratarse como una infraestructura de misión crítica que requiere una defensa continua y en capas.
El plan SANS Secure AI Blueprint describe un Proteger la IA pista que proporciona un punto de partida claro. Construido sobre el Pautas críticas de seguridad de IA de SANSel plan define seis dominios de control que se traducen directamente en la práctica:
- Controles de acceso: Aplique privilegios mínimos y autenticación sólida a cada modelo, conjunto de datos y API. Registre y revise el acceso continuamente para evitar el uso no autorizado.
- Controles de datos: Valide, desinfecte y clasifique todos los datos utilizados para entrenamiento, aumento o inferencia. El almacenamiento seguro y el seguimiento del linaje reducen el riesgo de envenenamiento del modelo o fuga de datos.
- Estrategias de implementación: Fortalezca los entornos y los canales de IA con sandboxing, activación de CI/CD y red teaming antes del lanzamiento. Trate la implementación como un evento controlado y auditable, no como un experimento.
- Seguridad de inferencia: Proteja los modelos contra la inyección rápida y el uso indebido aplicando validación de entrada/salida, barreras de seguridad y rutas de escalamiento para acciones de alto impacto.
- Escucha: Observe continuamente el comportamiento del modelo y los resultados en busca de desviaciones, anomalías y signos de compromiso. La telemetría eficaz permite a los defensores detectar la manipulación antes de que se propague.
- Seguridad del modelo: Versione, firme y verifique la integridad de los modelos a lo largo de su ciclo de vida para garantizar la autenticidad y evitar intercambios o reentrenamiento no autorizados.
Estos controles se alinean directamente Marco de gestión de riesgos de IA del NIST y el OWASP Top 10 para LLMque destaca las vulnerabilidades más comunes y consecuentes en los sistemas de IA, desde la inyección rápida y las integraciones de complementos inseguras hasta el envenenamiento de modelos y la exposición de datos. La aplicación de mitigaciones de esos marcos dentro de estos seis dominios ayuda a traducir la orientación en defensa operativa. Una vez que estas bases estén establecidas, los equipos pueden centrarse en utilizar la IA de manera responsable sabiendo cuándo confiar en la automatización y cuándo mantener a los humanos informados.
Equilibrio entre aumento y automatización
Los sistemas de inteligencia artificial son capaces de ayudar a los profesionales humanos como un pasante que nunca duerme. Sin embargo, es fundamental que los equipos de seguridad diferencien qué automatizar y qué aumentar. Algunas tareas se benefician de la automatización total, especialmente aquellas que son repetibles, mensurables y de bajo riesgo si ocurre un error. Sin embargo, otros exigen supervisión humana directa porque el contexto, la intuición o la ética importan más que la velocidad.
El enriquecimiento de amenazas, el análisis de registros y la deduplicación de alertas son candidatos principales para la automatización. Se trata de procesos basados en patrones y con gran cantidad de datos, en los que la coherencia supera a la creatividad. Por el contrario, las decisiones sobre el alcance, la atribución y la respuesta de los incidentes dependen de un contexto que la IA no puede captar por completo. En este caso, la IA debería ayudar mostrando indicadores, sugiriendo próximos pasos o resumiendo los hallazgos mientras los profesionales conservan la autoridad para tomar decisiones.
Encontrar ese equilibrio requiere madurez en el diseño del proceso. Los equipos de seguridad deben clasificar los flujos de trabajo según su tolerancia al error y el costo de las fallas de automatización. Siempre que el riesgo de falsos positivos o de matices perdidos sea alto, mantenga a los humanos informados. Dondequiera que la precisión pueda medirse objetivamente, dejemos que la IA acelere el trabajo.
¡Únase a nosotros en SANS Surge 2026!
Profundizaré en este tema durante mi discurso de apertura en SANS Surge 2026 (23-28 de febrero de 2026), donde exploraremos cómo los equipos de seguridad pueden garantizar que los sistemas de IA sean seguros. Si su organización está avanzando rápidamente en la adopción de la IA, este evento le ayudará a avanzar de forma más segura. Únase a nosotros para conectarse con pares, aprender de expertos y ver cómo es realmente la IA segura en la práctica.
Regístrese para SANS Surge 2026 aquí.
Nota: Este artículo fue aportado por Frank Kim, miembro del Instituto SANS.