Era cuestión de tiempo que los ciberdelincuentes comenzaran a utilizar herramientas de IA para hacer más efectivos sus ataques.Desde crear malware más efectivo hasta mejorar las campañas de ingeniería social.
Utilizar indebidamente servicios como ChatGPT puede tener consecuencias.
OpenAI ha cerrado varias cuentas que, según explican, violaron su política de uso.
Los actores malintencionados han tenido dificultades a la hora de ejecutar algunas de sus campañas.
El código utilizado era detectado por sistemas antivirus y los correos electrónicos que pretendían suplantar la identidad de compañías u organismos mostraban defectos evidentes para los usuarios.
Microsoft y OpenAI “esto está cambiando en diferentes niveles”. Los ciberdelincuentes están aprovechando las bondades de los grandes modelos de lenguaje (LLM) como GPT-4 para mejorar sus técnicas.
Así como cualquiera de nosotros puede recurrir a herramientas como ChatGPT para crear textos en diferentes idiomas e incluso programar con mayor facilidad, los piratas informáticos pueden utilizarlos para actividades ilegales, aunque con el riesgo de ser descubiertos.
Ciberdelincuentes descubiertos usando IA
Las mencionadas compañías anunciaron este miércoles que detectaron varios grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, Irán y China que habían estado utilizando sus servicios para un amplio abanico de tareas sospechosas.
Se trata de hallazgos que llegan después de una profunda investigación destinada a descubrir “amenazas emergentes en la era de la inteligencia artificial”. Veamos algunos detalles de los grupos mencionados por Microsoft y OpenAI en su estudio.
STRONTIUM
“Actor de inteligencia militar ruso” que impulsa ataques de interés táctico y estratégico para el gobierno al que responde. Se cree que está relacionado a actividades militares en Ucrania.
El estudio señala que Strontium ha recurrido a los modelos de IA para tareas básicas como automatizar y optimizar operaciones técnicas, pero también para otras más avanzadas, como comprender protocolos de comunicación por satélite y tecnologías de radar.
EMERALD SLEET
En este caso se habla de un grupo norcoreano que utilizó los LLM para identificar víctimas e incluso encontrar vulnerabilidades en diferentes sistemas para ejecutar ataques.
Una de ellas ha sido la vulnerabilidad CVE-2022-30190 de una herramienta de soporte de la propia Microsoft.
Según el informe, este grupo ha utilizado los modelos de IA para mejorar la redacción y generación de contenidos que probablemente podrían ser utilizados en campañas de phishing.
CHARCOAL TYPHOON
Aquí se habla de un actor malintencionado vinculado al gobierno chino con un amplio abanico de objetivos que incluyen sectores gubernamentales, tecnológicos, infraestructura de comunicaciones e infraestructura energética.
Este grupo ha utilizado los modelos de IA para comprender mejor tecnologías y plataformas que podrían ser utilizadas para realizar ataques.
Se ha utilizado estas herramientas para mejorar el código de malware, así como para prácticas de ingeniería social.
CRIMSON SANDSTORM
Por último tenemos a un grupo que Microsoft y OpenAI consideran que está conectado al Cuerpo de la Guardia Revolucionaria Islámica (IRGC) y que ha estado activo desde al menos 2017.
Sus ataques en el pasado se han dirigido a los sectores del transporte marítimo, la defensa y la atención médica.
Una de las prácticas más destacadas de este grupo con modelos de IA ha sido utilizarlos para intentar evadir los sistemas de seguridad de sus potenciales víctimas.
Si bien en todos los casos se trata de actores malintencionados que aparentemente llevan impulsado actividades ilegales desde hace tiempo.
Microsoft y OpenAI señalan que todavía no han conseguido detectar ningún “ataque significativo” específico utilizando LLM.
Ambas compañías han decidido publicar su investigación para exponer cualquier tipo de movimiento en su etapa inicial. Asimismo, han optado por bloquear las cuentas asociadas a los mencionados grupos.
ChatGPT
ChatGPT como DALL·E y otros productos de OpenAI están sujetos a una política de uso que prevé sanciones para aquellos usuarios que cometan infracciones. La propia compañía explica que recurre a diferentes métodos para evaluar actividades potencialmente sospechosas.
“Violar nuestras políticas podría resultar en acciones contra su cuenta, hasta la suspensión o cancelación”, dice la compañía en la pagina de política de uso actualizada el pasado 10 de enero.
También te puede interesar leer: Phishing, estos son los países de América Latina más afectados por ataques