Robo a Consuelo Duval: así habrían simulado su voz con inteligencia artificial para el crimen
El uso de Inteligencia Artificial para la creación de “deepfakes” es uno de los mayores riesgos relacionados a esta tecnología
José Andrés VelázquezConsuelo Duval es víctima de robo debido a un uso negativo de la Inteligencia Artificial. Con una herramienta de esta tecnología, delincuentes la despojaron de 500 mil pesos en efectivo y algunas pertenencias valiosas.
Aparentemente este método de robo se conoce como “La Patrona”. Esto debido a que los delincuentes engañaron a la empleada doméstica. Con una herramienta de IA que simula la voz, le hicieron creer que era la propia Duval quien solicitó el dinero en efectivo.
Sin embargo, Consuelo Duval señaló a su trabajadora como cómplice del delito. En sus redes sociales escribió:
“Cuando regresé de un día de trabajo a mi casa, me di cuenta que la persona de servicio que trabajaba para mí y que cuidaba de mis perros en complicidad con otras personas habían entrado a robarme y despojarme de lo que tanto trabajo y esfuerzo me ha costado ganar”.
Para entrenar una red neuronal para simular una voz, se necesitan datos de audio de la persona que se quiere simular. Estos datos pueden ser grabaciones, llamadas telefónicas o incluso videos.
Una vez que la red neuronal ha sido entrenada, se puede utilizar para generar nuevas voces. Por ejemplo, se puede utilizar para crear un asistente virtual que suene como un amigo o familiar, o para crear un personaje de juego que hable como una persona real.
La tecnología para simular voces también tiene algunos riesgos potenciales. Por ejemplo, se puede utilizar para crear deepfakes, que son videos o audios manipulados para que parezca que una persona dice o hace algo que en realidad no ha dicho, como en el caso de Duval.