La IA corre el riesgo de trasponer el sesgo humano a los sistemas automatizados para el blanqueo de capitales; advierte de un “desastre real” si la automatización no se realiza correctamente

La IA corre el riesgo de trasponer el sesgo humano a los sistemas automatizados para el blanqueo de capitales; advierte de un “desastre real” si la automatización no se realiza correctamente

El experto en ciberseguridad dice que la inteligencia artificial corre el riesgo de trasladar el sesgo humano a sistemas automatizados para el blanqueo de capitales; advierte de un “verdadero desastre” si la automatización no se realiza correctamente

UTILIZAR LA INTELIGENCIA ARTIFICIAL para ayudar a combatir los delitos financieros conlleva el riesgo de incorporar prejuicios humanos si no se hace correctamente, advirtió un experto.

El director de delitos financieros y ciberseguridad de Finance Finland, Mika Linna, dijo que a medida que los humanos continúan desarrollando sistemas de inteligencia artificial en AML, podrían incluir involuntariamente sesgos humanos sutiles en la programación, que luego aparecerían una vez que esos sistemas estén activos.

Este sesgo podría afectar tanto la toma de decisiones financieras como la gestión de riesgos, lo que automáticamente podría prejuzgar en función de la raza, el origen étnico, el sexo o la religión.

“Si usa la tecnología para discriminar, no aliviará nada”, dijo Linna. “Si algunos de los problemas en los procesos manuales están automatizados, puede terminar creando un verdadero lío”.

Habló en el simposio virtual nórdico contra el crimen financiero el jueves, en un seminario que examinó la inteligencia artificial como la “solución milagrosa” en la lucha contra el dinero sucio.

La IA es una solución que emerge rápidamente para AML, que se destaca por su capacidad para realizar grandes volúmenes de trabajo en períodos cortos de tiempo y sus usos en protocolos de conocimiento del cliente.

Si bien la inteligencia artificial significa cosas diferentes para diferentes personas, algunas de las cuales están al borde del territorio de la ciencia ficción, Linna habló de debajo en el contexto de sistemas que simplemente imitan el comportamiento humano en la detección y la evaluación de riesgos.

Su efectividad lo ha visto implementado como una herramienta estándar en organizaciones tan grandes como Nasdaq, que anunció su propio software basado en inteligencia artificial a principios de este año para analizar decisiones humanas y detectar fraudes.

“Es una especie de inteligencia incorporada que puede ayudarnos a detectar cosas que de otra manera no podríamos detectar”, dijo Kieran Holland, Jefe de Soluciones Técnicas para Cumplimiento de AML en Innovative Systems.

“También nos permite ser mucho más eficientes”, dijo en el simposio.

Holanda, junto con sus compañeros oradores, reconoció la gran cantidad de beneficios que la IA puede aportar a la lucha contra el dinero sucio. Pero también advirtió sobre los desafíos que rodean la información que procesa.

“Un sistema de inteligencia artificial es tan bueno como lo que usted alimenta, por lo que los datos son extremadamente importantes”, dijo. “Todo el concepto de ‘basura que entra – basura’ es tan cierto para la IA como para cualquier otro sistema”.

Holland se unió a Linna para instar a las organizaciones que utilizan inteligencia artificial a buscar datos transparentes, explicables y limpios para que sus sistemas produzcan resultados de calidad.
.
Por Dan Byrne, 12 de noviembre de 2020, publicado en AMLi

Recent Posts