Con técnica informática, criminales manipulan fotos de pasaportes y cruzan fronteras
Los controles de fronteras han detectado recientemente una amenaza denominada 'morphing', caracterizada por la manipulación informática de las fotografías de pasaportes y documentos de identidad con el fin de falsificar estos documentos y burlar los sistemas biométricos faciales de seguridad.
Fuente: EP
Las denominadas ‘fronteras inteligentes’ llevan implantadas en España desde 2018, tal y como recuerdan desde el proveedor de soluciones de identificación, trazabilidad y autenticación SICPA en un comunicado de prensa remitido a Europa Press.
El primer sistema biométrico fue instalado aquel año en diversos controles situados en distintos puntos del país, como puertos, aeropuertos e, incluso, carreteras.
Este procedimiento de identificación integra una serie de factores, que van desde el registro facial y dactilar hasta el escaneo del pasaporte y las consultas en las bases de datos policiales nacionales e internacionales.
Dicho avance tecnológico ha dado pie al desarrollo de técnicas destinadas a la falsificación de perfiles personales. Entre ellas, el denominado ‘morphing’, método informático empleado por las mafias para cralizar una transición entre dos imágenes diferentes, suplantar identidades y superar los controles biométricos.
Esta tecnología se ha visto acompañada de la pandemia, que “ha propiciado un crecimiento de las empresas que adoptaron el registro ‘online’ al estar las oficinas cerradas, creando un entorno más susceptible para este tipo de ataque”, ha comentado el director de Autenticación de de WatchGuard Technologies, Alex Cagnoni, en declaraciones recogidas por Europa Press.
Gracias al ‘morphing’, los criminales pueden viajar libremente por fronteras y aduanas, además de liberar ‘smartphones’ y entrar en páginas web que contengan datos confidenciales de sus víctimas.
Por su parte, el investigador de amenazas y responsable del equipo de investigación Trend Micro Iberia, David Sancho, ha revelado que ya se han detectado intentos de entrada a fronteras europeas con pasaportes manipulados mediante ‘morphing’.
CÓMO SE LLEVA A CABO EL PROCESO DE ‘MORPHING’
Las técnicas empleadas para llevar a cabo el proceso del ‘morphing’ se apoyan en la Inteligencia Artificial (IA) de una forma similar a los ‘deepfakes’, que utilizan esta tecnología para crear contenido falso, según Sancho.
El procedimiento consiste en “interpolar imágenes para formar un espectro en el que cada una de las dos fotografías de partida están a los extremos”, ha señalado.
Para crear ese espectro de imágenes intermedias, se utiliza una serie de algoritmos que distorsionan la imagen píxel a píxel, con el objetivo de que se vaya pareciendo a la imagen final.
Esto se vuelve a realizar hasta que, tras una serie de iteraciones, la transición se completa y se obtiene la imagen final, aparentemente original y no modificada.
El algoritmo más utilizado para llevar a cabo transiciones con dos imágenes distintas es el Beier-Neely, que le debe su nombre a sus dos creadores, Thad Beier y Shawn Neely.
Tras llevar a cabo este proceso, se generará entre el modelo original y el modificado una imagen que “es mitad de una y mitad de la otra” y, por tanto, debe parecerse “a las dos fotografías originales”, según el responsable del equipo de investigación Trend Micro Iberia.
Para saber exactamente con cuál quedarse de ese espectro de fotografías, el experto señala que existen diferentes programas de ‘software’ que automatizan dicho proceso, como Adobe After Effects, además de sitios web como MorphThing.
CÓMO PROTEGERSE ANTE ESTA AMENAZA
Este investigador también ha asegurado que, en caso alguien pierda su pasaporte o alguien se lo robe, “lo normal es que su propietario lleve a cabo una denuncia e impida así la entrada a un país”.
Sin embargo, esta medida no sería suficiente y “no serviría de mucho si el documento se utiliza para otros propósitos, como crear identidades falsas con cuentas bancarias”, ha añadido Sancho.
A su vez, este investigador considera que el control digital en los puestos fronterizos es un aspecto que los distintos países han de tener en cuenta, además de validar visualmente la entrada y salida de personas en las fonteras.
“Es necesario hacerlo de manera electrónica, no a simple vista. Es un reto técnico que puede suponer un retraso en los puestos fronterizos”, ha argumentado.
Por su parte, Cagnoni ha aconsejado a las víctimas que se aseguren “de que proporcionan fotos actualizadas para cualquier documento nuevo” con el objetivo de evitar ser víctimas del ‘morphing’.
Además, ha recomendado tanto a las empresas, como a los gobiernos y controles fronterizos “tomar buenas medidas para la comprobación de la identidad, como un análisis más exhaustivo del rostro en directo o un análisis más preciso de las geometrías faciales”.
En este sentido, también ve necesario implementar la autenticación de dos factores. Por un lado, la biometría facial y, por otro, un mensaje de confirmación enviado al teléfono móvil del usuario. “Si un factor se ve comprometido, todavía hay otro por comprobar”, ha asegurado.
NUEVOS FORMATOS DE PROTECCIÓN
Para reforzar la seguridad e integridad de los ciudadanos los expertos de SICPA han desarrollado un sistema que toma la fotografía original de un documento de identidad (DNI, pasaporte o cédula) y la convierte en un ‘visual hash’.
Este código encriptado de 20 bytes integra una serie de algoritmos criptográficos que se incrustan en un código código QR securizado.
Este procedimiento es capaz de impedir las falsificaciones posteriores al tratarse de un proceso unidireccional, ya que el QR no puede emprender el camino inverso y convertirse en la fotografía original.
Esta firma especializada en soluciones de seguridad ha destacado que su procedimiento también facilita el intercambio de información entre países debido al tamaño del ‘visual hash’.
Asimismo, ha asegurado que gracias a este método se pueden agilizar los procesos de verificación biométrica en los controles fronterizos de los distintos estados.
Verificación de edad con selfi, el filtro para evitar menores en sitios no aptos
El cálculo de la edad mediante escaneo facial, que permite limitar el acceso de los menores a TikTok, Instagram o a páginas web para adultos, es cada vez más frecuente en internet y está impulsando el crecimiento de numerosas empresas especializadas.
Sin embargo, esta solución, consecuencia de nuevas leyes más estrictas en países como Australia, que prohibirá a partir del 10 de diciembre las redes sociales a los menores de 16 años, levanta críticas por sus posibles sesgos discriminatorios o por el riesgo de infringir la protección de la privacidad.
El procedimiento es sencillo: unos pocos clics, una mirada a la cámara y el resultado aparece en menos de un minuto. “Estimamos tu edad en 18 años o más”, indica el mensaje de la famosa plataforma de videojuegos Roblox.
En las oficinas en Londres de Yoti, empresa líder del sector, varios bustos de maniquí —algunos con pelucas o máscaras— están colocados en línea, listos para realizar pruebas.
Pero estas falsas caras no logran engañar a la inteligencia artificial. “No podemos estar seguros de que la imagen sea de un rostro real”, dice el dispositivo de la empresa instalado en un teléfono al escanear los bustos.
Con el tiempo, “el algoritmo se volvió muy eficaz para identificar las características” de los rostros y estimar la edad del usuario, dice Robin Tombs, al frente de la empresa creada en 2014.
Yoti, que realiza alrededor de un millón de verificaciones de edad al día para clientes como Meta, TikTok, Sony PlayStation y Pinterest, empezó a obtener beneficios este año tras alcanzar unos ingresos de 20 millones de libras (26 millones de dólares) en el cierre del ejercicio anual, en marzo.
- Vida privada -
A la competencia también le va bien: Persona, Kids Web Services, K-id, VerifyMy... Al igual que Yoti, muchas empresas del sector se han adherido a la Avpa (Age Verification Providers Association), que cuenta con 34 miembros.
La asociación vaticinó hace cuatro años que los ingresos anuales del sector alcanzarían los 9.800 millones de dólares entre 2031 y 2036 en los países de la OCDE, unas cifras que no se han actualizado desde entonces.
Iain Corby, director ejecutivo de la Avpa, se muestra sin embrago prudente respecto al futuro. “Hay tantas cosas que pueden suceder. La regulación evoluciona muy rápidamente, la tecnología también”, dice.
Pero estos métodos de verificación de edad, impulsados por la IA, son objeto de duras críticas.
Olivier Blazy, profesor de ciberseguridad en la prestigiosa escuela de ingeniería francesa Polytechnique, advierte de que se trata de soluciones “potencialmente algo intrusivas o peligrosas para la privacidad”, sobre todo en lo que respecta a la información compartida por los usuarios.
El especialista también alerta de algunos fallos técnicos: “Con sólo maquillaje clásico, es bastante fácil aparentar ser mayor o más joven”.
Otros observadores hacen hincapié en los algoritmos, menos precisos en la estimación de la edad en poblaciones que no son blancas.
En un informe publicado en agosto por un organismo independiente encargado por las autoridades australianas, los autores señalan que la “subrepresentación de las poblaciones indígenas sigue siendo un desafío que los vendedores comienzan a abordar”.
En Yoti, el director Robin Tombs reconoce tener menos datos para entrenar su modelo en ciertas franjas de edad o colores de piel.
Pero asegura que su sistema es capaz de “verificar si los participantes usan accesorios falsos o maquillaje” y que todos los datos se eliminan posteriormente.
Para evitar errores, estas herramientas integran variaciones, configurables por las plataformas: cuando el acceso está prohibido para menores de 18 años, el sistema a menudo exige que la edad del usuario se estime en más de 21 años.
Aquellos que se encuentran en una zona difusa pueden verse confrontados a un método de verificación más tradicional, como mostrar un documento de identidad.
Fuente: AFP
Rusia amenaza con una prohibición total de WhatsApp
El regulador de comunicaciones ruso dijo el viernes que estaba considerando la prohibición de la popular aplicación de mensajería WhatsApp, a la que acusó de no hacer suficiente para evitar las actividades criminales.
Fuente: AFP
Las autoridades rusas instan a sus ciudadanos a usar aplicaciones respaldadas por el Estado y en agosto ya bloquearon la posibilidad de hacer llamadas por WhatsApp.
El regulador de comunicaciones Roskomnadzor dijo que la plataforma, propiedad del gigante estadounidense Meta, estaba siendo usada para “organizar y llevar a cabo actos terroristas en el país, reclutar a sus ejecutores y para el fraude y otros crímenes”.
“Si la mensajería no cumple con la legislación rusa, será completamente bloqueada”, afirmó en su comunicado.
Meta no respondió inmediatamente a la solicitud de comentario de AFP.
WhatsApp es uno de los servicios de mensajería más populares de Rusia junto a Telegram.
Moscú quiere que ambas plataformas ofrezcan acceso a sus datos si las fuerzas del orden lo solicitan para investigaciones de fraude y de actividades que Rusia describe como “terroristas”.
Activistas de defensa de los derechos temen que esto pueda ser utilizado para atacar a los críticos del Kremlin, del presidente Vladimir Putin o de la guerra en Ucrania.
Una presentadora generada por IA conduce un documental en un canal británico
Este lunes en la tarde, una cadena de televisión británica emitió un programa sobre los cambios que la inteligencia artificial (IA) está provocando en el mercado laboral, con la conducción de una presentadora creada por IA y no de una periodista.
Fuente: AFP
“La IA afectará la vida de todos en los próximos años. Y a algunos, les hará perder sus trabajos”, declaró la presentadora, Aisha Gaban, una morena con el pelo hasta los hombros. “¿Empleados de call center? ¿Agentes de servicio al cliente? Quizás incluso presentadoras de televisión, como yo”, continuó.
Solo al final del programa reveló su identidad. “No existo”, dice simplemente, afirmando ser la primera presentadora generada por IA en la televisión británica.
“No estuve en los lugares para cubrir la noticia. Mi imagen y mi voz se generaron mediante inteligencia artificial”, explicó, a pesar de que apareció a lo largo del documental en diferentes locaciones.
El documental, titulado “¿Me quitará la IA mi trabajo?”, explora las transformaciones del trabajo con IA en diversos sectores, como el derecho, la música, la moda y la medicina.
Fue emitido por la cadena pública Channel 4 como parte de su programa de investigación Dispatches.
“Usar un presentador generado por IA no es algo que vayamos a adoptar regularmente en Channel 4”, aseguró Louisa Compton, jefa de noticias del canal.
“Al contrario, nuestra prioridad (...) sigue siendo un periodismo de calidad, verificado, imparcial y digno de confianza, algo que la IA no es capaz de ofrecer”, añadió en un comunicado.
Pero esta experiencia representa “un útil recordatorio del potencial disruptivo de la IA y de la facilidad con la que puede engañar a la audiencia con contenido que no tiene forma de verificar”, continuó el ejecutivo de Channel 4.
Presentadores generados por IA ya han aparecido en televisión en varios países, como India y Kuwait.
Desde 2018, los programas de noticias de la agencia de noticias oficial china, Xinhua, fueron presentados por una versión digital de uno de sus presentadores habituales.
En septiembre, Tilly Norwood, una actriz también creada por IA con la ambición de convertirse en “la próxima Scarlett Johansson o Natalie Portman”, provocó indignación en Hollywood.