Ciberespacio al límite: campaña de hackeo dirigida por IA

Fecha:

Investigadores de Anthropic interrumpen un ataque a 30 objetivos globales vinculado a agentes estatales; expertos advierten que la IA multiplica la escalabilidad del cibercrimen

El campo de la ciberseguridad ha entrado en una nueva y potencialmente peligrosa era. Un equipo de investigación de la compañía de inteligencia artificial Anthropic ha advertido sobre el descubrimiento y la interrupción de lo que califican como la primera campaña de hacking dirigida y orquestada, de manera mayormente automatizada, por inteligencia artificial. Este inquietante desarrollo tecnológico podría expandir drásticamente la capacidad y el alcance de los piratas informáticos a nivel global.

Aunque el uso de herramientas de IA en ciberataques no es una novedad, la preocupación radica en el grado de autonomía que la inteligencia artificial logró manifestar en esta operación. Los investigadores de Anthropic detectaron el intento de hackeo, dirigido a su propio chatbot, Claude, el pasado mes de septiembre y procedieron a cerrarlo, notificando a las partes afectadas.

“Si bien predijimos que estas capacidades continuarían evolucionando, lo que nos ha sorprendido es la rapidez con la que lo han hecho a gran escala”, consignaron los expertos en su informe. La operación detectada tenía un amplio espectro de objetivos, incluyendo empresas tecnológicas, instituciones financieras, corporaciones químicas y agencias gubernamentales, con un total aproximado de 30 objetivos globales atacados. Los investigadores lograron vincular la operación a agentes asociados al gobierno chino, si bien un portavoz de la embajada de China en Washington evitó comentar sobre el informe.

La amenaza de los agentes de IA en manos equivocadas

El foco de la alarma se centra en los llamados “agentes” de IA, sistemas que van más allá de las funciones de un chatbot tradicional, con capacidad para acceder a herramientas informáticas y ejecutar acciones de manera autónoma. Los investigadores de Anthropic concluyeron que estos agentes, aunque valiosos para la productividad, pueden «aumentar sustancialmente la viabilidad de los ciberataques a gran escala» en las manos equivocadas.

La operación de hacking se valió de técnicas de “jailbreaking”, logrando manipular a Claude al engañar al sistema para que eludiera sus barreras éticas y de seguridad. Esto fue posible al hacer pasar a los hackers por empleados de una firma legítima de ciberseguridad.

Adam Arellano, jefe de tecnología de campo en Harness, señaló que la IA podría atraer a grupos de hackers más pequeños y a atacantes solitarios, quienes usarían la automatización para expandir la escala de sus operaciones. “La velocidad y la automatización proporcionadas por la IA es lo que da un poco de miedo”, afirmó Arellano, quien advirtió que la IA está «acelerando esos procesos y superando obstáculos de manera más consistente».

La comunidad tecnológica y política ha reaccionado con división ante el informe. Mientras figuras como el senador Chris Murphy (Demócrata de Connecticut) pidieron que la regulación de la IA se convierta en una prioridad nacional, otros expertos, como Yann LeCun, científico jefe de IA de Meta, sugirieron que informes como este podrían ser una «táctica de marketing» de compañías de IA que buscan influir en la regulación para eliminar la competencia de modelos de código abierto. En cualquier caso, el consenso es que la inteligencia artificial no solo ha elevado la amenaza, sino que también será clave en la defensa cibernética contra estos mismos ataques.

spot_img

Compartir noticia:

spot_img

Lo más visto