Así como las nuevas tecnologías ofrecen un mundo de oportunidades y beneficios en muchos sectores, también ofrecen nuevas vías para el crimen organizado. Fue cierto en el advenimiento de Internet, y es cierto para el creciente campo de la inteligencia artificial y el aprendizaje automático, según un nuevo informe conjunto de Europol y el Centro Interregional de Investigación sobre Justicia y Crimen de las Naciones Unidas.
En su forma más simple, las inteligencias artificiales son sistemas diseñados por humanos que, dentro de un conjunto definido de reglas, pueden absorber datos, reconocer patrones y duplicarlos o alterarlos. En efecto, están “aprendiendo” para poder automatizar tareas cada vez más complejas que en el pasado requerían la participación humana.
Sin embargo, “la promesa de una automatización y autonomía más eficientes es inseparable de los diferentes esquemas de los que son capaces los actores maliciosos”, advierte el documento. “Los delincuentes y los grupos de delincuencia organizada (OCG) han ido integrando rápidamente nuevas tecnologías en su modi operandi”.
La IA es particularmente útil en el mundo cada vez más digitalizado del crimen organizado que se ha desarrollado debido a la nueva pandemia de coronavirus.
“Las técnicas de ciberataque apoyadas o mejoradas por IA que se han estudiado son una prueba de que los delincuentes ya están tomando medidas para ampliar el uso de la IA”, dice el informe.
Un ejemplo son los correos electrónicos de pesca generados por procedimientos diseñados para evitar los filtros de correo no deseado.
A pesar de la proliferación de tecnologías nuevas y poderosas, el mayor activo de un ciberdelincuente sigue siendo la propensión de su marca al error humano y los tipos más comunes de estafas cibernéticas todavía se basan en la llamada ingeniería social, es decir, aprovechando la empatía, la confianza o la ingenuidad.
Si bien en el pasado las estafas de ingeniería social tenían que adaptarse de alguna manera a objetivos o audiencias específicas, a través de la inteligencia artificial se pueden implementar en masa y utilizar el aprendizaje automático para adaptarse a nuevas audiencias.
“Desafortunadamente, los criminales ya tienen suficiente experiencia y textos de muestra para desarrollar sus operaciones”, dice el informe. Un estafador innovador puede introducir sistemas de inteligencia artificial para automatizar y acelerar la tasa de detección a la que las víctimas entran o salen de la estafa. Esto les permite enfocarse solo en aquellas víctimas potenciales que son fáciles de engañar. Cualquiera que sea la falsa pretensión que elija un estafador para persuadir al objetivo de que participe, un algoritmo de aprendizaje automático podría anticipar las respuestas más comunes de un objetivo a la pretensión elegida, explica el informe.
Sin embargo, lo más aterrador de todo es el concepto de los llamados “deepfakes”. A través de deepfakes, con poco material de origen, el aprendizaje automático se puede utilizar para generar caras o voces humanas increíblemente realistas e imponerlas en cualquier vídeo.
“La tecnología ha sido alabada como un arma poderosa en las guerras de desinformación de hoy, en las que uno ya no puede confiar en lo que ve u oye”. decía el informe. “Un efecto secundario del uso de deepfakes para la desinformación es la menor confianza de los ciudadanos en la autoridad y los medios de información”.
Inundada con cada vez más spam generado por IA y noticias falsas que se basan en texto intolerante, videos falsos y una plétora de teorías de conspiración, las personas pueden sentir que una cantidad considerable de información, incluidos videos, simplemente no es confiable. El resultado es un fenómeno denominado ‘apocalipsis de la información’ o ‘apatía de la realidad’ “.
Uno de los usos más infames de la tecnología deepfake ha sido la superposición de rostros de mujeres desprevenidas en videos pornográficos.
.
Por David Klein, 27 de noviembre de 2020, publicado en OCCRP