estafas de voz deepfake 7 18
 Clonar la voz de alguien es más fácil que nunca. D-Keine/iStock a través de Getty Images

Acabas de regresar a casa después de un largo día de trabajo y estás a punto de sentarte a cenar cuando de repente tu teléfono comienza a vibrar. En el otro extremo está un ser querido, tal vez un padre, un hijo o un amigo de la infancia, rogándote que le envíes dinero de inmediato.

Les haces preguntas, tratando de entender. Hay algo fuera de lugar en sus respuestas, que son vagas o fuera de lugar, ya veces hay un retraso peculiar, casi como si estuvieran pensando un poco demasiado lento. Sin embargo, está seguro de que definitivamente es su ser querido el que habla: esa es su voz que escucha, y el identificador de llamadas muestra su número. Atribuyéndole la extrañeza a su pánico, envías obedientemente el dinero a la cuenta bancaria que te proporcionan.

Al día siguiente, les devuelves la llamada para asegurarte de que todo está bien. Su ser querido no tiene idea de lo que está hablando. Eso es porque nunca te llamaron, has sido engañado por la tecnología: una voz falsa. Miles de personas fueron estafado de esta manera en 2022.

La capacidad de clonar la voz de una persona está cada vez más al alcance de cualquier persona con una computadora.


gráfico de suscripción interior


 

As la seguridad informática investigadores, vemos que los avances continuos en algoritmos de aprendizaje profundo, edición e ingeniería de audio y generación de voz sintética han significado que es cada vez más posible simular de manera convincente la voz de una persona.

Peor aún, los chatbots como ChatGPT están comenzando a generar guiones realistas con respuestas adaptables en tiempo real. Por combinar estas tecnologías con la generación de voz, un deepfake pasa de ser una grabación estática a un avatar vivo y realista que puede tener una conversación telefónica de manera convincente.

Clonar una voz

Elaborar un deepfake convincente de alta calidad, ya sea video o audio, no es lo más fácil de hacer. Requiere una gran cantidad de habilidades artísticas y técnicas, un hardware potente y una muestra bastante considerable de la voz objetivo.

Hay un número creciente de servicios que se ofrecen a producir clones de voz de calidad moderada a alta por una tarifa, y algunas herramientas de deepfake de voz necesitan una muestra de sólo un minuto de duración, o incluso solo unos segundos, para producir un clon de voz que pudiera ser lo suficientemente convincente como para engañar a alguien. Sin embargo, para convencer a un ser querido, por ejemplo, para utilizarlo en una estafa de suplantación de identidad, probablemente se necesitaría una muestra significativamente mayor.

Los investigadores han podido clonar voces con tan solo cinco segundos de grabación.

 

Protección contra estafas y desinformación

Con todo lo dicho, nosotros en el Proyecto DeFake del Instituto de Tecnología de Rochester, la Universidad de Mississippi y la Universidad Estatal de Michigan, y otros investigadores están trabajando arduamente para poder detectar falsificaciones profundas de video y audio y limitar el daño que causan. También hay acciones sencillas y cotidianas que puede tomar para protegerse.

Para empezar, phishing de voz, o "vishing", las estafas como la descrita anteriormente son las falsificaciones de voz más probables que puede encontrar en la vida cotidiana, tanto en el trabajo como en el hogar. En 2019, un Empresa de energía fue estafada con US$243,000 cuando los delincuentes simularon la voz del jefe de su empresa matriz para ordenar a un empleado que transfiriera fondos a un proveedor. En 2022, la gente estaba estafado de un estimado de $ 11 millones por voces simuladas, incluso de conexiones personales cercanas.

¿Qué se puede hacer?

Tenga cuidado con las llamadas inesperadas, incluso de personas que conoce bien. Esto no quiere decir que deba programar cada llamada, pero ayuda al menos enviar un correo electrónico o un mensaje de texto con anticipación. Además, no confíe en el identificador de llamadas, ya que eso tambien se puede fingir. Por ejemplo, si recibe una llamada de alguien que dice representar a su banco, cuelgue y llame directamente al banco para confirmar la legitimidad de la llamada. Asegúrese de utilizar el número que ha anotado, guardado en su lista de contactos o que puede encontrar en Google.

Además, tenga cuidado con su información de identificación personal, como su número de Seguro Social, domicilio, fecha de nacimiento, número de teléfono, segundo nombre e incluso los nombres de sus hijos y mascotas. Los estafadores pueden usar esta información para hacerse pasar por usted ante bancos, agentes inmobiliarios y otros, enriqueciéndose mientras lo llevan a la bancarrota o destruyen su crédito.

He aquí otro consejo: conócete a ti mismo. Específicamente, conozca sus sesgos y vulnerabilidades intelectuales y emocionales. Este es un buen consejo de vida en general, pero es clave para protegerse de ser manipulado. Los estafadores generalmente buscan descubrir y luego aprovecharse de sus ansiedades financieras, sus apegos políticos u otras inclinaciones, cualesquiera que sean.

Este estado de alerta también es una defensa decente contra la desinformación que utiliza deepfakes de voz. Deepfakes se puede utilizar para aprovechar su sesgo de confirmación, o lo que te inclinas a creer acerca de alguien.

Si escucha a una persona importante, ya sea de su comunidad o del gobierno, decir algo que parece muy poco característico para ellos o confirma sus peores sospechas sobre ellos, sería prudente tener cuidado.La conversación

Acerca de los Autores

Matthew Wright, Profesor de Seguridad Informática, Rochester Institute of Technology y cristobal schwartz, Investigador Postdoctoral Asociado de Seguridad Informática, Rochester Institute of Technology

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.