Los Expertos Opinan: El arma silenciosa: descubrir las amenazas de la IA adversaria (Deep Instinct)

Publicado el 13-12-2021      Notícia sobre: Artículos

 

Chuck Everette, Director de defensa de la seguridad cibernética en Deep Instinct


Hace casi seis décadas, nació el concepto de inteligencia artificial (IA). Desde entonces, la tecnología ha evolucionado y desde los cimientos han surgido múltiples subconjuntos, incluido el aprendizaje automáticoo Machine Learning(ML). Desafortunadamente, los enormes beneficios que ofrece esta tecnologíaa menudo son presagiados,por las formas en que los ciberdelincuentes están manipulando la tecnología y utilizándola como armas con fines maliciosos.

El valor del MLha sido ampliamente reconocido por las organizaciones y la velocidad con la que se están adoptando estas soluciones lo refleja.Al aplicar los beneficios del MLen ciberseguridad, las empresas han podido fortalecer sus defensas.

Desafortunadamente, como cualquier gran herramienta, el aprendizaje automático se puede deformar y utilizar con fines maliciosos, recientemente, los ciberdelincuentes han logrado descifrar el código de ML y ahora están usando la tecnología para disminuir las ciberdefensas de una organización. A esto se le llama IA adversaria.

A diferencia de los habituales ataques sencillos en los que los ciberdelincuentes se dirigen a un puesto de trabajoy se abren camino en el sistema, ahora están utilizando sus propias herramientas de IA adversas en un ataque mucho más estratégicoy avanzado.

ML en sí está estructurado como un diagrama de flujo: una cadena de eventos desde la entrada de datos hasta la tecnología reconoce el código malicioso. Los ataques de IA adversarios tienen como objetivo todo el proceso, explotando las debilidades para engañar a los sistemas de una organización y hacerles creer que los ataques entrantes son inofensivos y, por lo tanto, otorgan libre acceso y movimiento prácticamente sin ser detectados.

El resultado es que losdatos maliciosos se reclasifican como benignos y viceversa, lo que permite a los ciberdelincuentes usarprogramas maliciosos en unentorno empresarial sin que las soluciones de seguridad basadas en ML los detectencomo peligrosos.

Los peligros ocultos

El elemento más amenazante de la IA adversaria es que los efectos pueden pasar desapercibidos hasta que es demasiado tarde. Este tiempo de permanencia crea una oportunidad para que los delincuentes se expandan por todo el entorno de la organización y, por lo tanto, hace que eliminarlos una vez detectados sea aún más difícil.

Los ciberdelincuentes están aprovechando cada desarrollo realizadoen aplicaciones y datos sobre plataformas en Nube, incluyendoel uso de IA con fines maliciosos. Esto, junto a la creciente tendencia deltrabajo remoto, la superficie de amenazas se ha expandido dramáticamente a un ritmo récord en los últimos 24 meses. Las organizaciones ciberdelincuentes están creciendo y volviéndose más sofisticadas, tanto que ahora están comenzando a funcionar como negocios legítimos. Tienen disciplinas comerciales y siguen una estructura comercial tradicional, que incluye marketing, ventas y servicios de compra. Esto los hace más mortíferos a medida que se vuelven cada vez más eficientes.

Las organizaciones tienen un gran desafío por delante, ya que necesitan analizar sus sistemas para detectar cualquier indicador de que han sido víctimas de un ataque de IA adversaria. Debido a la sofisticación del ataque, sería necesario un gran esfuerzo por parte de los equipos de seguridad ya sobrecargados con soluciones de seguridad actuales.

Sin embargo, las organizaciones rara vez tienen los recursos o capacidades suficientes de seguridad para realizar este tipo de evaluaciones de forma regular. Al igual que muchos otros vectores de amenazas, se desarrollan diferentes variantes de forma semanal y mensual: algunos vectores ya tienen alrededor de 300 variantes diferentes dentro de la misma familia, y la IA adversaria no es diferente.

Para empeorar las cosas, es difícil rastrear con precisión el alcance total del problema, ya que solo se informa alrededor del 25 por ciento de los ataques de ransomware. Las organizaciones a menudo optan por mantener la privacidad de los ataques y las infracciones, ya que no quieren mostrar sus debilidades a los demás o afectar su reputación.

Es seguro asumir que hay una gran cantidad de ataques nuevos y exitosos que no se denuncian, lo que ayuda aún más a ocultar las actividades delictivas cibernéticas.

Construyendo resiliencia con aprendizaje profundoo DL

Cuando se trata de IA adversaria, la mejor defensa es la prevención. Como hemos establecido, las habilidades de los ciberdelincuentes aumentan día a día, por lo que es importante mantenerse a la vanguardia. La prioridad debe ser evitar que se apoderen de su sistema.

Aquí es donde el aprendizaje profundo (DL), un subconjunto avanzado del aprendizaje automático, entra en juego contra la IA adversaria. DL ha demostrado ser una solución de seguridad preventiva muy superior, reduciendo en gran medida las alertas de falsos positivos y promete detener los ataques que otras tecnologías no pueden.

El aprendizaje profundo(DL)se diferencia del aprendizaje automático (ML), en que se perfeccionaconsumiendo grandes cantidades de datos sin procesar e instintivamente "aprende" a reconocer conjuntos de datos maliciosos y benignos, similar a un cerebro humano. Si bien el aprendizaje automático requiere que los humanos ingresen conjuntos de datos preclasificadosque son vulnerables al compromiso, el aprendizaje profundo solo usa datos sin procesar que son más difíciles de manipular.

Dado que las soluciones de aprendizaje automático son mucho menos confiables,ahora que los ciberdelincuentes pueden utilizarlas como armas contra las víctimas, se necesita un nuevo nivel de inteligencia tecnológica. El aprendizaje profundo, como la próxima evolución, es resistente contra los ataquesde inteligencia artificial y es mucho menos probable evadirlo o engañarlo, para otorgar a los ciberdelincuentesun dominio libre dentro de los entornos de las víctimas.

Desafortunadamente, el conocimiento del aprendizaje profundo todavía es bastante mínimo, y hay equipos de seguridad que están implementando entornosde aprendizaje profundo "externos a la seguridad" y alimentándolesconmodelos de aprendizaje automático. Mientras continúe esta práctica, estas soluciones seguirán estando en mayor riesgo de comprometerse.

¿Qué podemos esperar en el futuro?

Las organizaciones están involucradas en un peligroso y continuo juego del gato y el ratón con los ciberdelincuentes y es una lucha diaria mantenerse a la vanguardia. Si bien,hoy estamos un poco alejados de que la IA adversaria se venda como un servicio, aunquese dirige en esa dirección según los indicadores que estamos viendo. Continuando con esatendencia actual, podemos esperar que los ciberdelincuentes desarrollen un marco de IA hostil y aumenten su prevalencia en los próximos seis meses a un año.

El uso de esta herramienta maliciosa también sería una opción que pueden adoptar los gobiernos,es algo muy lucrativo, y si estos grupos comenzaran a utilizar la IA adversaria, se volverían cada vez más peligrosos.

Sin embargo, hay esperanza para quienes luchan contra la IA adversaria. El aprendizaje profundo o Deep Learning ofrece ese siguiente nivel de defensa,que ha demostrado ser mucho más resistente que las soluciones tradicionales de aprendizaje automático. De la misma manera que losvectores de amenazas evolucionan constantemente, también lo hacen las soluciones de seguridad que actúan contra ellos.

A medida que se expanda la conciencia del aprendizaje profundo y se adopten más soluciones de aprendizaje profundo, las organizaciones se encontrarán en una posición más sólida para luchar contra la amenaza creciente de los ciberdelincuentes y los ataques de IA adversarios.

Global Gold Sponsor