Consuelo Duval es víctima de robo debido a un uso negativo de la Inteligencia Artificial. Con una herramienta de esta tecnología, delincuentes la despojaron de 500 mil pesos en efectivo y algunas pertenencias valiosas.
Aparentemente este método de robo se conoce como “La Patrona”. Esto debido a que los delincuentes engañaron a la empleada doméstica. Con una herramienta de IA que simula la voz, le hicieron creer que era la propia Duval quien solicitó el dinero en efectivo.
Sin embargo, Consuelo Duval señaló a su trabajadora como cómplice del delito. En sus redes sociales escribió:
“Cuando regresé de un día de trabajo a mi casa, me di cuenta que la persona de servicio que trabajaba para mí y que cuidaba de mis perros en complicidad con otras personas habían entrado a robarme y despojarme de lo que tanto trabajo y esfuerzo me ha costado ganar”.
En este sentido, algunos reportes indican que actualmente la mujer es investigada. En contraste, la empleada doméstica sostiene que recibió una llamada con la voz de la actriz, por lo que entregó los bienes pensando que eran para ella.
¿Cómo funciona un simulador de voz con IA?
Actualmente una de las capacidades más sorprendentes de la inteligencia artificial, a la vez que riesgosas, es la de simular las voces de cualquier persona.
Esta tecnología se basa en el uso de redes neuronales artificiales para analizar las características acústicas de una voz. Una vez que la red ha aprendido las características de cómo suena una persona, puede generar una simulación que suene idéntica a la original.
🔴 CLONACIÓN DE VOZ AVANZADA!
ElevenLabs abre hoy al público su servicio de clonación de voz profesional.
Con este nuevo servicio, disponible para los planes de pago Creators y superiores, ya podrás crear un MODELO EXACTO de tu voz!
Os cuento [1/2] 🧵pic.twitter.com/71xrSaYBXp
— Carlos Santana (@DotCSV) August 1, 2023
Para entrenar una red neuronal para simular una voz, se necesitan datos de audio de la persona que se quiere simular. Estos datos pueden ser grabaciones, llamadas telefónicas o incluso videos.
Una vez que la red neuronal ha sido entrenada, se puede utilizar para generar nuevas voces. Por ejemplo, se puede utilizar para crear un asistente virtual que suene como un amigo o familiar, o para crear un personaje de juego que hable como una persona real.
La tecnología para simular voces también tiene algunos riesgos potenciales. Por ejemplo, se puede utilizar para crear deepfakes, que son videos o audios manipulados para que parezca que una persona dice o hace algo que en realidad no ha dicho, como en el caso de Duval.