Estafadores que usan IA de clonación de voz para hacerse pasar por parientes

Estafadores que usan IA de clonación de voz para hacerse pasar por parientes

¿Estás seguro de que es tu ser querido el que está en la línea? Tenga cuidado con las estafas de clonación de voz de IA. Getty

Es posible que reciba una llamada en un futuro cercano de un familiar que necesita ayuda, pidiéndole que le envíe dinero rápidamente. Y puedes creer que son ellos, porque conoces su voz.

La inteligencia artificial cambiará eso. Las nuevas herramientas generativas de IA pueden crear todo tipo de resultados, incluidas indicaciones de texto simples Artículos El estilo de un autor determinado, escrito en imágenes. El arte merece premiosY, con un fragmento de la voz de alguien para trabajar, un discurso que suena convincentemente como una determinada persona.

En enero, los investigadores de Microsoft realizado Una herramienta de inteligencia artificial de texto a voz que, con solo una muestra de audio de tres segundos, puede imitar de cerca la voz de una persona. No comparten código para jugar con otros; En cambio, advierten, la herramienta, llamada VALL-E, «puede tener riesgos potenciales de abuso… como suplantar el reconocimiento de voz o hacerse pasar por un hablante específico».

Pero tecnología como esta ya existe y los estafadores se están aprovechando de ella. Si pueden encontrar 30 segundos de tu voz en algún lugar en línea, es muy probable que puedan clonarlos y decir algo.

“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona. Ahora… si tienes una página de Facebook… o si grabas un TikTok y tu voz está ahí durante 30 segundos, la gente puede clonar tu voz”, dijo Honey Farid, profesora de análisis forense digital en la Universidad de California, Berkeley. El el poste de washington.

‘El dinero se ha ido’

El Publícalo Reportado este fin de semana En Peligro, una familia canadiense describe cómo perdieron miles de dólares a manos de estafadores que usaron la clonación de voz con IA. Un «abogado» les dice a los padres ancianos que su hijo mató a un diplomático estadounidense en un accidente automovilístico, está en la cárcel y necesita dinero para los honorarios legales.

READ  Descubra cuánto Cyberpunk 2077 ocupa la Xbox, sin un parche del primer día

El supuesto abogado le entregó el teléfono al hijo, quien les dijo a los padres que los amaba y apreciaba y que necesitaba el dinero. Su hijo Benjamin Perkin dijo que la voz clonada estaba «lo suficientemente cerca como para creer que mis padres me hablaron». Publícalo.

Los padres enviaron más de $15,000 a través de una terminal de Bitcoin, bueno, a los estafadores, no a su hijo como pensaban.

«El dinero se ha ido», dijo Perkin al periódico. «Sin seguro. Sin recuperarlo. Se ha ido».

Una empresa que ofrece una herramienta productiva de voz de IA, ElevenLabs, tuiteó El 30 de enero, «El número de casos de uso indebido de clonación de voz va en aumento». Al día siguiente, eso es Anunciado La capacidad de clonación de voz ya no está disponible para los usuarios de la versión gratuita de su herramienta, VoiceLab.

buena suerte Se contactó a la compañía para hacer comentarios, pero no recibió una respuesta inmediata.

“Casi todo el contenido malicioso es generado por cuentas gratuitas y anónimas”, dijo. escribió. “Se requiere verificación de identidad adicional. Por esta razón, VoiceLab solo está disponible en niveles pagos. (Las suscripciones comienzan en $ 5 por mes).

La verificación de la tarjeta no detendrá a todos los malos, pero hace que los consumidores sean menos anónimos y «los obliga a pensar dos veces», admite.

Recommended For You

About the Author: Tristán Jerez

"Lector amigable. Aficionado al tocino. Escritora. Nerd de Twitter galardonado. Introvertido. Gurú de Internet. Aficionado a la cerveza".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *