Meta, empresa matriz de Facebook, Instagram y WhatsApp, advirtió el miércoles que los ciberdelincuentes están aprovechando el interés que despiertan las nuevas herramientas de inteligencia artificial (IA), como el ChatGPT, para inducir a los usuarios a instalar códigos maliciosos en sus dispositivos.
En abril, los analistas de seguridad del gigante de las redes sociales encontraron software malicioso que se hacía pasar por ChatGPT o herramientas de IA similares, dijo a periodistas el director de seguridad de la información de Meta, Guy Rosen.
Recordó que los actores malintencionados (hackers, spammers, etcétera) siempre están al acecho de las últimas tendencias que «capturan la imaginación» del público, como el ChatGPT. Esta interfaz de OpenAI, que permite un diálogo fluido con humanos para generar código y textos como mensajes de correo electrónico y disertaciones, genera gran entusiasmo entre los usuarios.
Es común que los actores malintencionados capten el interés de los usuarios con desarrollos llamativos, engañando a las personas para que hagan clic en enlaces web con trampas o descarguen programas que terminan por robar datos privados, contraseñas y más.
«Hemos visto esto en otros temas populares, como las estafas motivadas por el inmenso interés en las monedas digitales», dijo Rosen. «Desde la perspectiva de un actor malintencionado, ChatGPT es la nueva criptomoneda«, señaló.
Meta detectó y bloqueó más de mil direcciones web que se promocionan como herramientas prometedoras similares al ChatGPT, pero que en realidad son trampas tendidas por piratas informáticos, según el equipo de seguridad de la empresa de tecnología.
Asimismo, la compañía aún no vio que la IA generativa sea utilizada como algo más que un cebo por parte de los ciberdelincuentes, pero se está preparando para que sea usada como arma, algo que considera inevitable, dijo Rosen.
«La IA generativa es muy prometedora y los actores malintencionados lo saben, por lo que todos debemos estar muy atentos», afirmó.
Al mismo tiempo, los equipos de Meta comprobaron que hay formas de utilizar la IA generativa para contrarrestar las ciberamenazas de los hackers y sus campañas online que terminan en estafas.
«Tenemos equipos que ya están pensando en cómo se podría abusar (de la IA generativa) y las defensas que debemos implementar para contrarrestar eso», dijo el jefe de política de seguridad de Meta, Nathaniel Gleicher, durante la misma sesión informativa.
ChatGPT puede crear software malicioso
Según los responsables de esta firma y varios consultores, este tipo de herramientas potenciadas por esta tecnología podrían cambiar las reglas del juego en lo que respecta al delito informático, potenciando los virus y códigos maliciosos.
Los investigadores refuerzan la teoría de que el código desarrollado con la ayuda de ChatGPT, un malware de prueba, demostró capacidades avanzadas que podrían «evadir fácilmente los productos de seguridad». Este tipo de software, conocido como polimórfico, logró esconderse a los antivirus y eludir las soluciones de seguridad más conocidas.
Esta capacidad de adaptación conlleva que muchas soluciones antivirus o antimalware, que se basan en la detección basada en firmas, no sean capaces de hacerle frente o detenerlos.
Que una IA sea capaz de programar un malware que puede cambiar de forma criptográficamente para sortear los mecanismos de seguridad tradicionales tiene en vilo a las principales compañías del segmento de seguridad informática.
No obstante, ChatGPT asegura que tiene una serie de filtros que impiden que la IA desarrolle programas peligrosos con capacidad de infección o replicación en otras computadoras, pero esta medida aparentemente puede ser sorteada. De hecho, los investigadores de CyberArk insistieron con las órdenes o buscaron nuevos prompt, forzando a la IA al lugar en el que querían.