En los últimos días, he estado ayudando a amigos a escapar de las garras de los chantajistas de las redes sociales, también conocido como “catfishing”. El primero es engorroso, pero mucho más fácil que el segundo. Pero en el camino, he estado pensando en cómo mitigar el aumento de lo que se ha convertido en el delito cibernético más frecuente del mundo. Necesitamos inteligencia artificial (IA) personal que combata el fraude.
Esta idea ya la están poniendo en práctica empresas líderes en redes sociales y comercio en línea. Amazon ha creado una lista de proveedores potencialmente fraudulentos. EBay está eliminando una cuenta que ha atraído varias quejas. Facebook y Twitter anuncian periódicamente su eliminación de cuentas falsas. Hacen todo esto principalmente mediante el uso de IA interna para identificar a los estafadores a través del aprendizaje automático y recopilar inferencias sobre posibles estafas. El problema es que su IA es bastante mala, seleccionando cuentas legítimas que muestran que están libres.
Por lo tanto, incorporar IA personal en aplicaciones de dispositivos móviles puede proporcionar una mejor defensa. Las empresas se preocupan más por sus propios beneficios y seguridad que por sus clientes y su base de usuarios, y en el mundo actual los usuarios deben ser responsables de su propia seguridad. Sin embargo, se sabe que los usuarios son perezosos cuando se trata de seguridad personal. Una aplicación que puede advertir a los usuarios de situaciones potencialmente peligrosas puede superar hasta cierto punto la pereza personal.
El bagre tiene algo básico. Sus fotos rara vez tienen rostros, solo cuerpos, y son muy simpáticos. Su foto de perfil es la de alguien con un nombre diferente a Catfish, cuyo rostro es fácilmente identificable en una búsqueda de imágenes. Si te encuentras con ellos en Instagram o en cualquier otro lugar, notarás que tienen cientos o miles de seguidores, pero menos de 10 personas los siguen. Si se dirigen a hombres, dicen que son actores, instructores de fitness o modelos. Esta es una obviedad para aquellos que se toman el tiempo de hacer una investigación mínima antes de aceptar un mensaje privado de un extraño. Sin embargo, hay historias de que solo unos pocos escépticos con habilidad técnica pudieron descubrirlo. Esa capacidad puede ser proporcionada por la IA.
Después de preguntar a algunos expertos en seguridad si mi idea valía la pena, se les ocurrió una descripción general básica de lo que hace la aplicación. Los componentes básicos son:
- Búsqueda automática inversa de direcciones IP: La mayoría de los estafadores de las redes sociales usan kits comprados a actores estatales del crimen organizado (como Corea del Norte). Estos kits incluyen un medio para rebotar de una dirección IP a otra para evadir el descubrimiento. AI pudo confirmar si esto realmente estaba sucediendo sin identificar la dirección IP original y agregar señales de alerta a la cuenta.
- Multiples cuentas: Los estafadores de las redes sociales se mueven de una plataforma a otra, enviando mensajes de texto desde múltiples teléfonos desechables solo para cubrir sus huellas. AI puede ver patrones de uso en varias cuentas, lo que agrega otra bandera roja.
- Ortografía, gramática, sintaxis, coloquialismos: El 90 % de los fraudes en Internet se producen en África Occidental, India, Indonesia, China y Europa del Este. Lo que tienen en común es que todos son países donde el inglés no es el primer idioma. Pocos estafadores han tenido una educación rudimentaria, por lo que la gramática y la ortografía claramente carecen de fluidez más allá de las líneas iniciales estándar (“Tienes una sonrisa bonita”, “Hola, guapo”, etc.). Puedes ver que hay El uso de ciertas palabras vendrá como regalos. En el caso de un amigo mío que cayó en la trampa, el estafador dijo que el próximo paso sería involucrar a su “abogado”, un abogado británico. Fue un claro indicio de que el estafador, si no específicamente en el Reino Unido, era un ex residente colonial británico y no una modelo de traje de baño rubia y regordeta de Miami, Florida. Ortografía y gramática simples Agregar damas a la IA marcará con una bandera roja su cuenta.
Estas pocas inferencias rudimentarias se pueden fortalecer con cada contacto y proporcionar datos valiosos para que las fuerzas del orden investiguen y arresten a los delincuentes. La desventaja es que esto podría hacer estallar la industria del marketing de influencers.
Los hombres y mujeres solitarios no son los únicos objetivos del bagre. Durante mis conversaciones con varios “sombreros negros”, aprendí que los estafadores expertos en tecnología crearon cuentas falsas de personas influyentes y se les pagó mucho para que las personas compraran sus productos. Es bastante simple.
Para convertirse en un influencer específico, los estafadores deben demostrar una cantidad significativa de seguidores (mínimo 10,000) en las plataformas de redes sociales (generalmente Instagram). Un estafador puede comprar esa cantidad por el precio de una modesta botella de vino. Luego pagan cientos de dólares más a modelos atractivos pero con dificultades para que se tomen fotos con sus productos, otorgándoles los derechos exclusivos de esas imágenes en particular. cuentas certificadas por grandes empresas.
Mi IA propuesta para los equipos de marketing detendrá a los influencers falsos.
Algunas cuentas son legítimas y tienen potencial de litigio, por lo que la aplicación no las bloqueará, pero realizará la diligencia debida básica que los usuarios deben realizar y aceptar o bloquear la conexión.
Así que alguien, por favor, tome esta idea e impleméntela. Mi regalo para tí.