9 formas en que se utiliza el aprendizaje automático para realizar ciberataques

  • Seguridad

Los ciberdelincuentes se encuentran a la cabeza de la innovación tecnológica en sus operaciones delictivas, poniendo constantemente a prueba las defensas de las organizaciones. Una de las tecnologías que han incorporado en los últimos tiempos es el aprendizaje automático, que aplican de diversas formas para ayudarles a tener éxito en sus ataques, y que las empresas también están utilizando para contrarrestar sus esfuerzos.

El panorama de la ciberseguridad y los ciberdelitos está cambiando mucho con la incorporación de tecnologías relacionadas con la inteligencia artificial, como el aprendizaje automático. Por un lado, los delincuentes están aprovechando estos algoritmos para mejorar sus estrategias de ataque y, por otro, los expertos en ciberseguridad están incorporándolas a sus soluciones para aumentar las capacidades de protección. En esta encarnizada batalla los vencedores serán aquellos capaces de estar a la vanguardia en el uso de las tecnologías más avanzadas, aunque no por mucho tiempo, ya que ambos bandos se esfuerzan al máximo por lograr sus objetivos.

En el lado de la ciberseguridad, la IA y el aprendizaje automático se están convirtiendo en una parte central de las herramientas de detección y respuesta frente a las amenazas cibernéticas. Estas tecnologías permiten aprender constantemente y adaptarse mejor a los cambios en todo tipo de amenazas. Pero en el lado de los ciberdelincuentes la IA y el machine learning sirven para escalar los ataques cibernéticos, sortear la seguridad y localizar nuevas vulnerabilidades a explotar, y los piratas informáticos son cada vez más ágiles e ingeniosos gracias al uso de estas tecnologías. En un reciente artículo publicado por la firma CSO, su colaboradora, María Korolov, describe las 9 formas en que los ciberdelincuentes utilizan el aprendizaje automático para potenciar sus estrategias de ataque.

Sortear los sistemas anti-Spam

El correo basura ha sido durante muchos años una de las vías de acceso que han utilizado los ciberdelincuentes para engañar a personas y organizaciones. Los proveedores de servicios y gestores de correo electrónico llevan mucho tiempo utilizando el machine learning para detectar y filtrar este tipo de comunicaciones, con un gran éxito. Pero los ciberdelincuentes están empleando técnicas cada vez más sofisticadas para saltarse los filtros de Spam, y el aprendizaje automático les ayuda a comprender mejor cómo funcionan estos filtros para utilizar sus normas a su favor.

En opinión de Fernando Montenegro, analista de la firma de investigación Omdia, señala que, si se envían ciertas cosas con la suficiente frecuencia, se podría reconstruir cuál es el modelo que sigue el filtro de Spam y luego reajustar los ataque para evitar este modelo. Además, esta estrategia se puede utilizar para saltarse otros sistemas de seguridad basados en ciertas escalas de puntuación, como los filtros de Spam. Montenegro dice que no todos los proveedores de ciberseguridad tienen este problema, pero si no tienen cuidado, los ciberdelincuentes podrían obtener información sobre el funcionamiento de sus soluciones que podría usarse para superar la seguridad.

Phishing más peligroso

El aprendizaje automático aplicado a los ciberataques va más allá de aprender cómo funcionan los filtros de Spam, y otro campo en el que se está aplicando esta tecnología es en la creación de correos de phishing. Esto está llegando a un nivel peligroso, ya que actualmente se ofrecen servicios de creación de phishing a medida en foros criminales, lo que proporciona a los atacantes una mejora importante para efectuar este tipo de ataques. Aunque para algunos el uso de machine learning para crear phishing automatizado es puro marketing, otros expertos señalan que la IA está dando grandes resultados a la hora de generar comunicaciones de phishing altamente realistas y convincentes, así como perfiles falsos en redes sociales y otras plataformas que son difíciles de distinguir de los reales.

Adivinación de contraseñas

Los motores de adivinación de contraseñas que utilizan los ciberdelincuentes son cada vez más complejos y precisos gracias al machine learning, ya que esta tecnología está ayudando a incrementar la frecuencia y la tasa de éxito a través de mejores diccionarios y del pirateo de hashes robados. Y también se está aplicando el aprendizaje automático para identificar mejor los controles de seguridad y para reducir el número de intentos de adivinar las contraseñas sin alertar al sistema de seguridad.

Deep Fakes

Más allá de su uso en el ámbito multimedia, los Deep Fakes sirven para simular la voz o la cara de una persona, a fin de saltarse los controles de seguridad biométricos o de generar comunicaciones falsas basadas en estas características físicas. Viendo una cara o escuchando una voz conocida es fácil convencer a una persona de la veracidad de un mensaje falso, lo que se puede usar de muchas formas para engañar, obtener información o acceder a los sistemas informáticos y los datos.

Y se han registrado casos de llamadas falsas que han causado problemas en la seguridad de algunas organizaciones, y los Deep Fakes también se están usando de otras formas. Por ejemplo, para generar fotos, perfiles de usuario y correos electrónicos de phishing más convincentes gracias a la IA, y estas estrategias no harán sino evolucionar en el futuro.

Neutralizar los sistemas de seguridad básicos

Aunque muchas herramientas de ciberseguridad utilizan la IA y el aprendizaje automático para mejorar la detección de amenazas, los atacantes también pueden utilizar estas tecnologías para modificar su malware y eludir los sistemas de detección. Los expertos consideran que por el momento los modelos de IA presentan muchos puntos ciegos, y gracias al machine learning los atacantes pueden identificarlos y encontrar formas de sortear la seguridad de los sistemas básicos de antivirus, correo electrónico, etc.

Reconocimiento de vulnerabilidades

Una de las tareas fundamentales para diseñar una buena estrategia de ciberataque es conocer los patrones de tráfico, las defensas y las posibles vulnerabilidades del objetivo, y en este aspecto el machine learning puede ser de gran ayuda para los delincuentes. Aunque esto no está al alcance de los hackers de nivel medio, los expertos consideran muy probable se acaben comercializando servicios o herramientas que apliquen el aprendizaje automático para llevar a cabo un reconocimiento profundo de los entornos objetivo. Y también existe otro ámbito donde se está extendiendo el uso de estas técnicas, que es el de los ataques patrocinados por estados-naciones, cuyo objetivo es dañar infraestructuras críticas, robar secretos o desarmar los sistemas de ciberseguridad de países y organizaciones clave para la defensa nacional.

Agentes autónomos

En muchos casos, cuando se detecta un intento de infiltración o una actividad sospechosa los sistemas de seguridad cierran el tráfico para evitar que el posible malware se conecte a sus servidores de comando y control para recibir instrucciones y llevar a cabo su cometido. Pero los ciberdelincuentes están empezando a aplicar el aprendizaje automático para generar agentes automatizados inteligentes capaces de permanecer activos, incluso cuando no pueden ser controlados a distancia, para pasar desapercibidos más tiempo y poder reconectar una vez que se restablece la normalidad en los sistemas objetivo.

Envenenamiento por IA

Una de las principales características del machine learning es que aprende a través de la experiencia, por lo que los modelos de entrenamiento están siempre activos para adaptarse de firma dinámica a los cambios. Esto puede ser aprovechado por los ciberdelincuentes que, llevando a cabo ciertas acciones aparentemente inocuas, pueden condicionar a la IA de los sistemas de seguridad para que considere normales determinadas actividades. Así, cuando reproduzcan estas acciones, pero con la finalidad de realizar un ataque, es más probable que el motor de detección impulsado por IA no detecte el ataque.

Fuzzing de IA

Los desarrolladores de software de ciberseguridad y los encargados de poner a prueba la seguridad de estas soluciones emplean software de Fuzzing de IA para bloquear aplicaciones o localizar vulnerabilidades. Las versiones más avanzadas de estas aplicaciones utilizan machine learning para generar entradas de una forma más precisa y organizada, priorizando los elementos susceptibles de causar más problemas. Pero estas herramientas tan útiles para los expertos en seguridad también pueden ser aprovechadas por los ciberdelincuentes, precisamente para localizar y explotar las debilidades de un sistema.

Por ello, los expertos recomiendan seguir a rajatabla las buenas prácticas de mantener los sistemas siempre actualizados y aplicar los parches de seguridad en cuanto son lanzados por los proveedores de hardware y software. Además, aconsejan llevar a cabo programas de formación sobre phishing y microsegmentación para garantizar que los trabajadores de la organización sean más conscientes de las amenazas y sepan cómo actuar frente a comportamientos sospechosos. Por el momento, el conocimiento en aprendizaje automático es escaso en ambos bandos de esta contienda, pero los ciberdelincuentes no pierden el tiempo y en un futuro próximo podría producirse un desequilibrio favorable a los delincuentes, que las empresas deberán ser capaces de contrarrestar para protegerse frente a las nuevas generaciones de ciberamenazas.