Funcionarios federales, operadores de modelos de inteligencia artificial y compañías de ciberseguridad llevaron a cabo la primera simulación conjunta de un ciberataque en un sistema de IA crítico la semana pasada.

Por qué es relevante: Los participantes dijeron a Axios que la respuesta a un ataque cibernético en un sistema habilitado por IA requerirá un enfoque diferente al de los hackeos tradicionales.
Visión general: Tanto en Washington como en Silicon Valley están intentando anticiparse a las amenazas cibernéticas únicas que enfrentan las empresas de IA antes de que se vuelvan más prevalentes.
La seguridad ha sido históricamente una prioridad secundaria cuando las nuevas tecnologías se generalizan, dejando a muchas empresas desprevenidas cuando las amenazas cibernéticas evolucionan para atacar estos dispositivos.

Sin embargo, a medida que las herramientas de IA se vuelven más comunes, los hackers podrían utilizarlas para acelerar y escalar sus ataques, comentó Clayton Romans, subdirector de la Colaboración de Defensa Cibernética Conjunta (JCDC) de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA), a Axios.

Dentro del evento: El JCDC organizó el ejercicio de simulación el jueves en las oficinas de Microsoft en Reston, Virginia.
CISA no reveló públicamente qué incidente simularon los participantes, como es práctica estándar en cualquier ejercicio de simulación.
Romans mencionó que el incidente exploró las «amenazas que estamos viendo actualmente» y cómo el gobierno y el sector privado pueden intercambiar información sobre esas amenazas.
Más de 50 expertos en IA de diversas oficinas gubernamentales de EE. UU., gobiernos internacionales y el sector privado participaron en el experimento de cuatro horas.
Entre los participantes se encontraban representantes de Amazon Web Services, Microsoft, Nvidia, OpenAI y Palantir.

Lo que dicen: Kyle Wilhoit, director de investigación de amenazas en Unit 42 de Palo Alto Networks, también formó parte del ejercicio.
«Nos brindó la oportunidad de discutir algunas de las amenazas actuales que estamos observando y realmente hipotetizar, en cierto grado, cómo podrían ser esos nuevos vectores en el futuro utilizando IA,» comentó Wilhoit a Axios.

Entre líneas: El ejercicio de simulación ayudó a CISA a identificar a las personas adecuadas en el sector privado con quienes contactar en caso de un incidente relacionado con IA, y viceversa, según Romans.
El ejercicio también ayudó a identificar posibles nuevas amenazas en el horizonte, añadió Wilhoit.

Qué observamos: Las lecciones del ejercicio de simulación informarán el próximo manual de incidentes de seguridad de IA de CISA, que se espera publicar antes de fin de año.
El JCDC espera organizar otro ejercicio de simulación de IA antes de lanzar el manual, indicó Romans.

Conclusión: Esta colaboración entre los sectores público y privado es un paso crucial para fortalecer la defensa contra amenazas cibernéticas en el contexto de la creciente adopción de la inteligencia artificial.

Noticias de Stability AI

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Verificado por MonsterInsights