El Cuento del Tío, ahora con inteligencia artificial

/ 6 de Mayo de 2024

Pareciera ser una historia extraída de una película de ciencia ficción, pero es real. Las estafas telefónicas tipo vishing están evolucionando al nivel de incorporar herramientas de replicación de voz, hechas con IA ¿Cómo es esto posible? Expertos aseguran que solo bastaría con un número de teléfono y 14 segundos de una conversación.

Por Catalina Matamala
Estudiante de Periodismo
UDD Concepción.

-” Hola, usted no me conoce, pero yo a usted sí. Y muy bien”, fue lo que escuchó Paola desde el otro lado del teléfono.

Era la primera semana de diciembre del 2023. Lo segundo que oyó fue: “Tengo a su hija conmigo, secuestrada”. La voz era de un hombre.

Los rostros de sus hijas, de 15 y 17 años, inmediatamente vinieron a su cabeza. En el horario en el que recibió el llamado, ellas debían estar en el colegio, pero tampoco podía comprobarlo en ese instante, pues unos 30 kilómetros separaban su casa del lugar donde estudiaban.

No sabía a cuál de las dos niñas se refería, hasta que escuchó un grito horrible. “Era la voz de la más pequeña llamándome. Era su voz, por eso jamás pensé que esto podía ser una estafa”, recuerda. Aunque de eso se trataba, pues el llamado que esa mañana recibió Paola fue una de las 9 mil estafas telefónicas que se denunciaron el 2023. Sin embargo, esta tenía algo especial, ya que la voz de su hija la habían replicado con inteligencia artificial.

Más cerca de lo que creen 

Los usuarios de Internet están constantemente expuestos a estafas y a páginas maliciosas cuando navegan en la web, lo que los hace propensos a caer en nuevas amenazas para su ciberseguridad.

Una de estas prácticas fraudulentas es el vishing, que “se trata de un tipo de estafa telefónica en donde los emisores pretenden ser una persona o institución de confianza, e inventan un escenario que engaña al receptor para que este les entregue dinero”, según explica el subprefecto Andrés Contreras, jefe de la Brigada Investigadora del Cibercrimen de la PDI en Concepción.

Como ocurrió en la historia de Paola, las llamadas no se hacen al azar, sino que se seleccionan según la información que los ciberdelincuentes pueden recopilar con los medios a su alcance. “Algunos obtienen las bases de datos de clientes de alguna empresa, ya sea en Internet o porque fueron antiguos trabajadores de tiendas”, específica el subprefecto. Con esto, agrega, usan información personal de las víctimas, y así le dan más credibilidad a su discurso, “para que estas les crean y caigan en realizar la transacción que ellos solicitan”.

Los reportes anuales de la PDI indican que un 58% de las estafas efectuadas el 2022 se hicieron a través de Internet o tienen origen en datos obtenidos con en ella.

Debido a que aún es reciente, los registros de la Policía de Investigaciones no cuentan con una separación entre el vishing y otras estafas telefónicas, en donde no se finge ser alguien conocido de la víctima o no se solicita dinero, por lo que todas quedan en la misma categoría.

Para dar una idea, el funcionario de la PDI sostiene que la Brigada Investigadora de Delitos Económicos cuantificó en más de 9 mil las denuncias de estafas hechas por teléfono el 2023. “Eso ayuda a dimensionar la gravedad del asunto,” agrega, y asegura que todas las semanas llegan a la Brigada del Cibercrimen al menos dos personas a denunciar haber sido víctimas de vishing.

La interrogante que surge es el motivo por el que dichos ataques están aumentando. Según expertos, la respuesta podría estar en los avances tecnológicos, precisamente, en la inteligencia artificial (IA).

La investigadora del Centro Nacional de Inteligencia Artificial (CENIA) y profesora del Instituto de Éticas Aplicadas UC, Gabriela Arriagada, sostiene que “la IA es un método más para mejorar las labores que se hacían antes, y si se le usa para estafas, también las mejorará”.

Son herramientas que evolucionan y, consigo, también sus riesgos, ya que sus facultades permiten hacer que una voz robótica suene más real o se asemeje a la de una persona determinada que los ciberdelincuentes planeen. “Con la creación de síntesis de voz es posible que todo sea más convincente. Se puede simular el vocabulario y el tono de una persona conocida”, explica la especialista en ética de datos, sesgos y transparencia en el uso de la IA.

Así se hace realidad el Cuento del Tío, con una voz cada vez más similar a la del familiar de quien “cae” en responder al teléfono. De esta manera, el vishing se vuelve un fenómeno discutido en medios, compañías y en la mesa de muchos hogares en el mundo por su rápido crecimiento.

Las predicciones de la empresa WatchGuard Technologies, líder mundial en ciberseguridad unificada, indican que la masividad de la Inteligencia artificial, sumada al uso de una edición de audio convincente, aumentará el volumen de las llamadas tipo vishing en lo que queda del año y que se mantendrá en crecimiento exponencial.

 14 segundos de muestra 

Algo como la clonación de voz pareciera sonar muy futurista para la realidad de estos tiempos, o así era como pensaba Paola antes de escuchar un audio creado por los avances digitales de la IA.

Los autores del fraude cibernético le solicitaron 950 mil pesos. “Un monto que estaba dispuesta a pagar por el bienestar de mi hija, por lo que pedí inmediatamente una cuenta para transferir el dinero”, continuó. Mientras la voz masculina del llamado hacía una pausa antes de dictar los datos, a ella se le ocurrió preguntarle desde qué hora tenía retenida a su hija. “Recuerdo que me dijo entre las seis y siete de la mañana, pero mis niñas habían entrado a las ocho al colegio, y antes de esa hora habían estado conmigo en el auto”.

Recién ahí se dio cuenta de que se trataba de un engaño. De todas maneras, ese día prefirió ir a retirar antes a sus hijas al colegio. Seguía dando vueltas en su cabeza cómo habían hecho para imitar su voz.

El modus operandi de los ciberdelincuentes que trabajan con inteligencia artificial consiste en el uso de la comúnmente llamada clonación de voz.

Gabriela Arriagada explica que el término preciso no es clonar exactamente, pues lo que hace la IA es replicar el comportamiento de voces que ya existen, creando un bot al que se le programa la función específica para estudiar los patrones de la voz de una persona determinada. Dentro de los tecnicismos, los bots usan herramientas de procesamiento del lenguaje natural, que es el que utilizan las personas al hablar informalmente entre sí, para que sea posible replicar una voz lo más humana posible.

Lo que pareciera ser difícil, puede ser una tarea que se hace en menos de un minuto, ya que la experta asegura que “en el caso de la voz, basta con unos 14 segundos de archivo de un audio claro y sin mucho ruido ambiente para que un bot bien programado pueda replicar las inflexiones o el tono de una persona específica”. Una muestra es lo único que se necesita, segundos que pueden ser extraídos de un audio de WhatsApp, una historia de Instagram o un TikTok subido a las redes.

Para dimensionar el mar de datos que es el Internet, el Digital Report 2024, investigación internacional que estudia el uso de esta tecnología, refleja que los usuarios de entre 16 a 64 años, a nivel global, navegan por redes sociales al menos dos horas y 20 minutos al día, por lo que existen miles de conjuntos de 14 segundos rondando por la web.

En el caso de Chile, el lapso aumenta una hora, con 203 minutos de tiempo invertido en redes sociales diariamente. Al sacar cuentas, son 12.180 segundos que, si fueran ocupados viendo TikTok, por ejemplo, darían un total de 870 veces los 14 segundos necesarios para replicar voz con inteligencia artificial. Tomando en consideración que el cálculo es por persona, las cifras demuestran que cada usuario es testigo de contenido que podría usarse con fines fraudulentos.

La investigadora de CENIA lo resume en simples palabras: “La IA funciona con contenido y hoy en día el contenido está en todas partes”.

Denunciar a quien está detrás de la máscara 

El jefe de la Brigada Investigadora del Cibercrimen de la PDI en Concepción entrega consejos para realizar una denuncia completa y efectiva: “Es importante que la gente entregue la mayor cantidad de información, que dé fotografías de las conversaciones por WhatsApp, datos de cuentas que les puedan haber dado y números telefónicos a la PDI, todo esto es esencial para llegar a resultados rápidos y positivos en la investigación”.

Para evitar caer en el engaño digital, el subprefecto Contreras asegura que “es más fácil de lo que cualquiera cree”. El método más eficaz estaría en poner en práctica el principio de “si no se está seguro de la llamada y no se conoce el número de quien lo está contactando, no entregue datos y sea acotado con lo que dice”, aseveró.

Las recomendaciones de expertos sugieren siempre contactar a números guardados previamente en los celulares y no aceptar aquellos que podrían tratarse de fraude. El llamado es reforzar la comunicación con familiares y conocidos para no caer en el engaño.

El Cuento del Tío es un embuste antiguo, pero que todavía hace caer a muchos, sobre todo si tras él están las tremendas capacidades de la inteligencia artificial.

O’Higgins 680, 4° piso, Oficina 401, Concepción, Región del Biobío, Chile.
Teléfono: (41) 2861577.

SÍGUENOS EN NUESTRAS REDES SOCIALES