altonivel
Regresar a la edición
Pantalla completa Compartir Accesibilidad Tamaño de texto
A- A+
Animaciones
Iniciar sesión
Opinión

Inteligencia artificial, un riesgo en pagos digitales

Por: Alejandro Desfassiaux Swipe

Continua en la historia

Swipe Desliza a la izquierda para continuar

Es obligación de las entidades financieras garantizar la seguridad de sus usuarios dentro de sus plataformas. Adicional a lo anterior, deben mantener una campaña permanente de información sobre seguridad digital para sus usuarios, así como de concientización acerca de los nuevos riesgos.

El empleo de elementos biométricos para salvaguardar la integridad de las transacciones bancarias, como huellas digitales, lectura de iris o reconocimiento facial, no son invulnerables.

El empleo de elementos biométricos para salvaguardar la integridad de las transacciones bancarias, como huellas digitales, lectura de iris o reconocimiento facial, no son invulnerables.

El uso de Deepfake —un modo de inteligencia artificial (IA) generativa, mediante la cual los delincuentes pueden crear rostros falsos o recrear los de usuarios de la banca— se presenta más en los sectores de pagos y criptomonedas.

| IA generativa

Según un estudio realizado por las firmas Censuwide y Jumio, que consultaron a 8,000 usuarios entre Reino Unido, Estados Unidos, Singapur y México, el 33% de los usuarios de criptomonedas desconocían las herramientas de IA generativa.

Es necesario resaltar que el 52% de los encuestados confía en que sería capaz de detectar un video creado con IA. Lo anterior, en sí mismo, supone un riesgo, toda vez que el exceso de confianza puede llevar a tener una sensación de seguridad que no está sustentada en información; además, no se considera que esta tecnología está en constante evolución.

Es deber de los usuarios exigir a las empresas financieras el reforzamiento de las medidas de seguridad, y toca a los órganos reguladores y al ámbito legislativo establecer las normas necesarias para resguardar el patrimonio de las personas usuarias.

En el mundo, la mayoría de las regulaciones existentes exigen la validación mediante la captura del rostro del usuario, pero son sistemas automatizados los que procesan la información enviada mediante las plataformas digitales. Esto hace vulnerable el proceso ante herramientas como el Deepfake.

A decir verdad, los usuarios están desprotegidos ante estas amenazas; por ello, es su deber exigir a las empresas financieras el reforzamiento de las medidas de seguridad, y toca a los órganos reguladores y al ámbito legislativo establecer las normas necesarias para resguardar el patrimonio de las personas usuarias.

| La estafa de la cara falsa

De hecho, hace tan solo unos cuantos días los expertos de Kaspersky alertaron sobre la llegada de la “estafa de la cara falsa”, en la cual los ciberdelincuentes han comenzado la apertura de cuentas bancarias mediante la utilización de maniquíes y fotografías de sus víctimas para pedir préstamos, engañando la verificación biométrica de las apps de instituciones financieras.

De acuerdo con esta importante firma, la biometría facial se basa en el análisis del rostro, en el cual el programa lee la geometría de la cara de los individuos, como la distancia entre los ojos, la forma del pómulo y el contorno de los labios, orejas y barbilla, para identificar los principales puntos de referencia faciales que distinguen una cara de otra.

Basta tan solo que los delincuentes utilicen alguna foto de la posible víctima para “intercambiar el rostro” con un maniquí y así abrir múltiples cuentas en aplicaciones bancarias, iniciando la “estafa de la cara falsa”.

Tanto la IA como la biometría juegan un papel importante en la seguridad, pero deben estar bien implementadas y contar con los máximos estándares de protección, tanto para los usuarios, como para las organizaciones.

Finalmente, es preciso señalar que la biometría como método de reconocimiento de personas basado en sus propias características fisiológicas también se incluye para otros procesos; por ejemplo, en los sistemas de control de acceso, permitiendo que las personas correctas ingresen a los lugares destinados para ellos.

En conclusión, tanto la IA como la biometría juegan un papel importante en la seguridad, pero deben estar bien implementadas y contar con los máximos estándares de protección, tanto para los usuarios, como para las organizaciones. AN

 


Alejandro Desfassiaux es presidente de Grupo Multisistemas de Seguridad Industrial. @grupoMSI

También en esta edición

Compartir