Aunque la inteligencia artificial (IA) no es precisamente nueva, la llegada de la IA generativa trae consigo un sinfín de posibilidades y tendencias para su implementación, incluyendo su uso (para bien o para mal) en el campo de la ciberseguridad.
Gracias a esta tecnología, ahora nos encontramos en medio de un intenso juego del gato y el ratón con los ciberdelincuentes, que aprovechan la IA generativa para escalar sus ataques.
La IA generativa permite a los cibercriminales ejecutar más ciberataques en menos tiempo, optimizar sus operaciones y ser más precisos. Algunos ejemplos de cómo los ciberdelincuentes ya capitalizan la IA generativa son el phishing diseñado por IA, LLMs maliciosos, envenenamiento de la IA y deepfakes
Ante los riesgos relacionados con la inteligencia artificial, la visión de la ciberseguridad hace la diferencia.
Las capacidades de software o servicios impulsadas por la inteligencia artificial aceleran los resultados de ciberseguridad y, combinadas con automatización, generan un impacto aún mayor.
De hecho, las organizaciones en Latinoamérica que usaron extensivamente seguridad impulsada por IA y automatización vieron ciclos de vida 94 días más cortos en las filtraciones de datos, según IBM. También ahorraron 1.04 millones de dólares (mdd) en costos, en comparación con quienes no las desplegaron.
El impacto inmediato que tiene la inteligencia artificial generativa en las defensas de ciberseguridad es una mejora sustancial de productividad, tanto a nivel humano como programático y tecnológico. Esto es particularmente importante, considerando que la brecha de profesionales en seguridad aumentó en el mundo, pasando de 3.4 millones a 4 millones en 2023.
A medida que la adopción de la inteligencia artificial generativa crezca y las innovaciones evolucionen, también madurará la orientación de la ciberseguridad; sin embargo, es clave primero reconocer a qué podríamos enfrentarnos este año, derivado del uso de la tecnología.
Tendencias de seguridad para 2024
1. 2024 será el año del engaño
Este año empieza con diversas tensiones geopolíticas, pero también incluirá votaciones presidenciales de importancia y los Juegos Olímpicos de París más adelante.
De acuerdo con IBM, esto será ideal para que los ciberdelincuentes realicen campañas de desinformación a un nivel sin precedentes a través de tácticas de engaño diseñadas por inteligencia artificial.
IBM advierte que estamos a punto de ver deepfakes, audio fakes y phishing demasiado convincentes.
2. La IA Generativa facilitará la adquisición de objetivos para los ciberdelincuentes
Hasta ahora, los ciberdelincuentes han estado muy limitados en cómo pueden monetizar sus «botines de datos»; sin embargo, todo eso está a punto de cambiar gracias a la IA generativa, según IBM.
Esta tecnología ayudará a filtrar, correlacionar y categorizar esos enormes conjuntos de datos y organizarlos de manera programática para que los ciberdelincuentes creen perfiles de objetivos potenciales.
La capacidad de la IA generativa para optimizar la selección de objetivos no es diferente a la manera en la que mejora la adquisición de clientes en marketing, es solo una perspectiva diferente de legalidad.
3. Pronto llegará la versión de IA del Gusano Morris
El gusano Morris fue el primer ejemplar de malware autorreplicable que afectó a internet (entonces ARPANET) el 2 de noviembre de 1988. Este gusano informático infectó aproximadamente 6,000 de los 60,000 servidores conectados a la red, generando un golpe económico de entre 100,000 y 10,000 mdd.
De acuerdo con IBM, pronto podríamos ver un incidente como el «Gusano Morris» en el que se confirme el uso de la inteligencia artificial para escalar una campaña malintencionada.
Con la generalización de las plataformas de inteligencia artificial en las empresas, los ciberdelincuentes empezarán a probar las nacientes superficies de ataque y sus ataques escalarán progresivamente.
4. La priorización de los datos críticos será la acción principal para los líderes de seguridad en 2024
Cada vez más empresas comienzan a incorporar la IA generativa en su infraestructura; sin embargo, esto también hace que lidien con un nuevo riesgo al centralizar diferentes tipos de datos en sus modelos de IA, como el acceso de diferentes personas a esos modelos y los datos que están ingiriendo.
Este riesgo impulsará a los CISO a redefinir qué datos pueden introducir una amenaza existencial a la organización si están comprometidos (por ejemplo, propiedad intelectual fundamental) y reevaluar los controles de seguridad y acceso que los rodean.
También puedes leer el siguiente articulo: Una IA genera miles de documentos de identidad falsos al día: cuestan 14 euros en la Dark Web