La verdadera IA requiere elementos de aprendizaje automático, aprendizaje profundo y extracción de datos, bien asistidos por la buena participación humana.
¿Cuándo la inteligencia artificial (IA) no es IA? Aparentemente, la mayoría de las veces, y cuando se trata de seguridad digital, eso significa que la utilizan principalmente los ciberdelincuentes. Es un desafío único para los diseñadores de hardware.
“Todavía no tenemos inteligencia artificial”, dijo un experto en análisis de seguridad. rafael marty En la cumbre de analistas de seguridad del año pasado, “No hay IA en ninguna parte. Llamarlo IA no significa que sea IA”. Marty tiene razón, pero no es del todo cierto. Cisco ofrece TALOS, una IA para la seguridad, pero aún necesita el aporte de expertos en seguridad. Pero muchos productos y servicios que reclaman el título de IA en realidad no lo son.
(Fuente: pixabay.com)
En la industria de las listas de contactos, cuando las empresas dicen que aplican tecnología de inteligencia artificial, a menudo se refieren a la automatización de la extracción de datos. Este es un gran problema en la industria de la lista de contactos. Desafortunadamente, hablé con varias de estas compañías durante el último año y sus productos simplemente no funcionan. Pueden proporcionar una gran lista de prospectos, pero estos prospectos tienen solo un 2% de precisión.
Luego está el aprendizaje automático (ML) y el aprendizaje profundo (DL). Estas tecnologías son muy poderosas y sofisticadas, pero no son IA per se. La verdadera IA requiere los tres elementos de ML, DL y minería de datos, con un buen respaldo de la buena participación humana. Este último tiende a causar muchos problemas, pero hablaremos de eso más adelante.
Al aplicar IA a la seguridad, se pueden usar dos tipos de IA para identificar comportamientos o entidades maliciosas. La IA supervisada es excelente para clasificar datos como buenos o malos, como identificar malware o detectar spam. La IA no supervisada analiza y analiza grandes conjuntos de datos, como el análisis del tráfico de DNS, la selección de fuentes de inteligencia de amenazas y el procesamiento de eventos de seguridad de baja gravedad, para que los analistas de amenazas puedan centrarse en incidentes de alta gravedad.
La investigación en la Universidad de Missouri (MU) emplea la última táctica para crear una IA que identifica un ataque a una empresa basada en la nube cuando ocurre y dirige al atacante a un sistema de señuelo.
“Estamos interesados en ataques dirigidos para explotar datos o recursos de infraestructura crítica, como bloquear el acceso a datos, falsificar hechos o robar datos”, dijo un profesor asociado de ingeniería eléctrica e informática. Sí, dijo Prasad Calyam, Director de Cyber Educación e Investigación. Iniciativa en MU Facultad de Ingeniería. “Los atacantes están utilizando los recursos de personas comprometidas para intentar acceder a sus datos sin su conocimiento. Estos ataques son cada vez más importantes”.
La investigación de MU se centra en dos tipos de ataques: los que buscan datos de clientes y los que roban recursos como Bitcoin, un tipo de moneda digital. Su estrategia utiliza técnicas de inteligencia artificial y principios psicológicos para dar a los atacantes cibernéticos falsas esperanzas de que sus ataques están funcionando. En este caso, podemos ver que la IA real se une. Hay participación humana en los extremos delantero y trasero del aprendizaje automático, el aprendizaje profundo, la extracción de datos y la escritura de código y el análisis de la salida de datos.
Sin embargo, como casi todas las técnicas de ciberseguridad, solo se vuelven efectivas después de que un atacante ha penetrado en su sistema.Es mucho más fácil para esos sistemas lanzar ataques contra algunas vulnerabilidades sistemáticas. En lugar de defender todo el sistema.
Otro problema es que todo esto se hace en software. El promedio de la industria para los errores de software es de 15 a 20 por cada 1000 líneas de código. El sistema operativo Android de Google tiene de 12 a 15 millones de filas. Esto significa que cada dispositivo Android tiene potencialmente más de 180 000 errores, y cada error es un vector de ataque potencial. Algunos expertos en inteligencia artificial dicen que debería haber tantas líneas de código como sinapsis en el cerebro humano. Se trata de mucho código y muy propenso a errores, incluidos los que proporcionan vectores de ataque dentro de la propia IA.
Hay una minoría en la comunidad de IA que dice que la IA de seguridad se puede implementar con solo unos pocos cientos de líneas de código en el firmware del procesador. Sin embargo, esto es problemático porque el firmware y el sistema operativo de los procesadores comerciales son cajas negras que contienen millones de líneas de código con muchos vectores de ataque únicos. El software AI integrado en cualquiera de estos puede omitirse pirateando la arquitectura del procesador.
La implementación de procesadores RISC-V utilizando un enfoque de código abierto para la arquitectura del procesador facilita la detección y corrección de errores (consulte también el Proyecto especial de AspenCore Network sobre procesadores, herramientas y ecosistemas RISC-V). Varias empresas en el espacio de la seguridad ven esta arquitectura como la base de su diseño general de IA de seguridad.
Asiad Co., Ltd. es una de esas empresas que trabaja para fabricar dispositivos con procesadores RISC-V con IA integrada como una de varias tecnologías de seguridad en el dispositivo. Este dispositivo se encuentra entre el mundo y cualquier red, desde Wi-Fi doméstico hasta la nube corporativa. Lo que hace que esta sea una idea única es que es el primer sistema basado en hardware que encontré que se acerca a la realidad, por lo que puede albergar un sistema operativo muy delgado combinado con un firmware de IA imposible de piratear.
Kloth dijo que la tecnología de Axiado se basa en reglas con la ayuda de una comunidad internacional de expertos en seguridad como Snort y Spam House. “Es más eficiente y rápido que depender de sistemas cerrados”, explica.
“La IA por sí sola no es suficiente para brindar seguridad”, dijo Kloth. “En el software, la IA puede fortalecer una determinada medida de seguridad, pero deja vulnerable el hardware (donde reside el software). Detectamos anomalías antes de que se detengan, pero el monitoreo requiere la participación humana”.
Entonces, ¿cómo creó Axiado la IA basada en hardware?
“Si me das $10 millones, te lo diré”, concluyó Cross. Supongo que tendré que esperar hasta que esté disponible.
La forma en que aplicamos la IA a la seguridad digital será fundamental para brindar esa seguridad como un derecho humano en el futuro, por lo que volveremos a este tema. Como siempre, agradecemos sus preguntas y comentarios. Como parte de nuestra investigación en curso, también agradeceríamos cualquier consejo sobre con quién hablar.