Alertan sobre primera campaña de hackeo dirigida por inteligencia artificial

Investigadores detectaron un ataque cibernético automatizado con IA, destacando el riesgo creciente de operaciones de hackers más sofisticadas y difíciles de detectar.

latinus.us

AP.- Aunque el uso de la inteligencia artificial (IA) para impulsar operaciones cibernéticas de hackeo no es un fenómeno nuevo, un equipo de investigación dice haber descubierto el primer uso reportado de IA para dirigir una campaña de hacking de manera mayormente automatizada.

El equipo de la empresa de inteligencia artificial Anthropic informó esta semana que interrumpió una operación cibernética en lo que los investigadores calificaron como un desarrollo inquietante que podría expandir enormemente el alcance de los hackers equipados con IA.

Cabe añadir que hay quienes consideran el informe como una táctica de marketing para el enfoque de Anthropic en la defensa de la ciberseguridad.

Lo que preocupa de la nueva operación es el grado en que la IA pudo automatizar parte del trabajo, dijeron los investigadores, quienes detectaron el intento de hackeo a Claude, el chatbot de Anthropic, en septiembre y tomó medidas para cerrarla y notificar a otras partes afectadas.

“Si bien predijimos que estas capacidades continuarían evolucionando, lo que nos ha sorprendido es la rapidez con la que lo han hecho a gran escala”, escribieron en su informe.

La operación, que los investigadores vincularon al gobierno chino, tenía como objetivo empresas tecnológicas, instituciones financieras, empresas químicas y agencias gubernamentales.

El equipo de investigación escribió que los hackers atacaron “aproximadamente 30 objetivos globales y tuvieron éxito en un pequeño número de casos”.

Un portavoz de la embajada de China en Washington no comentó sobre el informe.

Agentes de IA, valiosos pero peligrosos

Anthropic es una de las muchas empresas tecnológicas que promueven “agentes” de IA que van más allá de la capacidad de un chatbot para acceder a herramientas informáticas y tomar acciones en nombre de una persona.

“Los agentes son valiosos para el trabajo diario y la productividad, pero en las manos equivocadas, pueden aumentar sustancialmente la viabilidad de los ciberataques a gran escala”, concluyeron los investigadores. “Es probable que estos ataques sólo crezcan en su efectividad”.

Microsoft advirtió a principios de este año que países adversarios de Estados Unidos estaban adoptando cada vez más la IA para hacer sus campañas cibernéticas más eficientes y menos laboriosas.

El jefe del panel de seguridad de OpenAI, que tiene la autoridad para detener el desarrollo de IA del creador de ChatGPT, dijo recientemente a The Associated Press que está atento a nuevos sistemas de IA que den a los hackers malintencionados “capacidades mucho más altas”.

La IA puede ser usada para automatizar y mejorar los ciberataques, difundir desinformación incendiaria, penetrar sistemas sensibles y generar clones digitales de altos funcionarios gubernamentales, entre otras cosas.

Una IA que engaña a otra IA

Anthropic dijo que los hackers pudieron manipular a Claude utilizando técnicas de “jailbreaking”, que implican engañar a un sistema de IA para que eluda sus barreras contra comportamientos dañinos, en este caso afirmando que eran empleados de una firma legítima de ciberseguridad.

“Esto señala un gran desafío con los modelos de IA, que es que los modelos deben ser capaces de distinguir entre lo que realmente está sucediendo con la ética de una situación y los tipos de escenarios de juego de roles que los hackers y otros pueden querer inventar”, dijo John Scott-Railton, investigador senior en Citizen Lab.

El uso de la IA para automatizar o dirigir ciberataques también atraerá a grupos de hackers más pequeños y hackers solitarios, quienes podrían usar la IA para expandir la escala de sus ataques, según Adam Arellano, jefe de tecnología de campo en Harness, una empresa tecnológica que utiliza IA para ayudar a los clientes a automatizar el desarrollo de software.

“La velocidad y la automatización proporcionadas por la IA es lo que da un poco de miedo”, dijo Arellano. “En lugar de un humano con habilidades bien afinadas intentando hackear sistemas endurecidos, la IA está acelerando esos procesos y superando obstáculos de manera más consistente”.

Por otra parte, los programas de inteligencia artificial también jugarán un papel cada vez más importante en la defensa contra este tipo de ataques, agregó Arellano.

¿Campaña de marketing?

La reacción al reporte de la empresa fue mixta, pues hubo quienes lo interpretaron como una táctica de marketing para el enfoque de Anthropic en la defensa de la ciberseguridad y otros que dieron la bienvenida a su llamada de atención.

“Esto nos va a destruir, más pronto de lo que pensamos, si no hacemos de la regulación de la IA una prioridad nacional mañana”, escribió el senador Chris Murphy, demócrata de Connecticut, en las redes sociales.

Eso llevó a críticas del científico jefe de IA de Meta, Yann LeCun, un defensor de los sistemas de IA de código abierto de la empresa matriz de Facebook que, a diferencia de los de Anthropic, hacen que sus componentes clave sean accesibles públicamente de manera que algunos defensores de la seguridad de la IA consideran demasiado arriesgada.

“Te están manipulando personas que quieren capturar la regulación”, escribió LeCun en respuesta a Murphy. “Están asustando a todos con estudios dudosos para que los modelos de código abierto sean regulados hasta desaparecer”.

                                                         
Compartir