Robo a Consuelo Duval: así habrían simulado su voz con inteligencia artificial para el crimen

El uso de Inteligencia Artificial para la creación de “deepfakes” es uno de los mayores riesgos relacionados a esta tecnología
José Andrés Velázquez José Andrés Velázquez Publicado el
Comparte esta nota

Consuelo Duval es víctima de robo debido a un uso negativo de la Inteligencia Artificial. Con una herramienta de esta tecnología, delincuentes la despojaron de 500 mil pesos en efectivo y algunas pertenencias valiosas.

Aparentemente este método de robo se conoce como “La Patrona”. Esto debido a que los delincuentes engañaron a la empleada doméstica. Con una herramienta de IA que simula la voz, le hicieron creer que era la propia Duval quien solicitó el dinero en efectivo.

Sin embargo, Consuelo Duval señaló a su trabajadora como cómplice del delito. En sus redes sociales escribió:

“Cuando regresé de un día de trabajo a mi casa, me di cuenta que la persona de servicio que trabajaba para mí y que cuidaba de mis perros en complicidad con otras personas habían entrado a robarme y despojarme de lo que tanto trabajo y esfuerzo me ha costado ganar”.

En este sentido, algunos reportes indican que actualmente la mujer es investigada. En contraste, la empleada doméstica sostiene que recibió una llamada con la voz de la actriz, por lo que entregó los bienes pensando que eran para ella.

¿Cómo funciona un simulador de voz con IA?

Actualmente una de las capacidades más sorprendentes de la inteligencia artificial, a la vez que riesgosas, es la de simular las voces de cualquier persona.

Esta tecnología se basa en el uso de redes neuronales artificiales para analizar las características acústicas de una voz. Una vez que la red ha aprendido las características de cómo suena una persona, puede generar una simulación que suene idéntica a la original.

Para entrenar una red neuronal para simular una voz, se necesitan datos de audio de la persona que se quiere simular. Estos datos pueden ser grabaciones, llamadas telefónicas o incluso videos.

Una vez que la red neuronal ha sido entrenada, se puede utilizar para generar nuevas voces. Por ejemplo, se puede utilizar para crear un asistente virtual que suene como un amigo o familiar, o para crear un personaje de juego que hable como una persona real.

La tecnología para simular voces también tiene algunos riesgos potenciales. Por ejemplo, se puede utilizar para crear deepfakes, que son videos o audios manipulados para que parezca que una persona dice o hace algo que en realidad no ha dicho, como en el caso de Duval.

Show Player
Síguenos en Google News para estar al día
Salir de la versión móvil