Deepfake. Cuando la IA se utiliza para el mal.

Marta Villén Sotomayor

La extensión que ha tenido en los últimos años el uso de la IA a múltiples disciplinas ha provocado también que hayan proliferado sus usos delictivos. Entre estos usos uno de los que más está creciendo es el denominado deepfake.

Deepfake (cuyo nombre proviene de “Deep learnig” y “fake”) es la utilización de la inteligencia artificial para elaborar imágenes, audios o videos falsos pero que aparentemente son reales. En función de lo que se trata de falsificar los deepfake se clasifican en Deepface si se trata de una imagen y Deepvoice si se trata de voz.

Los deepfake utilizan lo que se denomina RGAs o redes generativas antagónicas que son algoritmos para crear nuevos tipos de datos a partir un conjunto de datos existentes. Pero no hay que ser un experto programador de IA para crear deepfake ya que existen programas fáciles de obtener que permiten con conocimientos a nivel de usuario de aplicaciones básicas convertirse en creadores de deepfakes. Por lo que cualquier defraudador puede aprovechar la abundancia de contenido sobre una persona específica, que existe en la red de manera gratuita y abierta, para crear una nueva imagen, audio o video falsos de la misma. Y estas falsificaciones son la puerta de entrada a diversos fraudes.

Por ejemplo, se utilizó un deepfake de audio en combinación con el fraude BCE o “Fraude al CEO”, los defraudadores a partir de grabaciones de la voz del CEO de una empresa energética pudieron crear un audio totalmente nuevo que sonaba igual y que utilizaba el mismo lenguaje que el utilizado en sus conversaciones al dirigirse a sus empleados. Así la víctima un alto ejecutivo de la empresa creyó recibir una llamada de su jefe que le pedía una transferencia urgente a un nuevo proveedor en Hungría y sin cuestionarse la veracidad de la llamada realizo la transferencia. La transferencia supero los 200.000 € y para cuando se supo que se trataba de un fraude y se iniciaron las investigaciones no se pudo recuperar el dinero, sólo se consiguió averiguar que los fondos fueron desde Hungría pasando por varios países hasta México donde “mulas” hicieron la retirada del dinero.

Los deepfake también se utilizan para simular videos y extorsionar bajo la amenaza de difundir estas grabaciones falsas que pueden afectar tanto en el caso de las empresas como en el de los individuos a su reputación. Y ni las empresas ni los particulares están familiarizados con las denuncias de acoso mediante deepfakes.

Por último, en el terreno del comportamiento más privado recientemente el MIT ha advertido de las consecuencias psicológicas y sociales de la “app” de deepfakes que coloca en videos porno a mujeres y que también afecta a los hombres en países donde se castiga la homosexualidad.

En el futuro se cree que crecerá la utilización de la IA en la realización de nuevos fraudes ya que las posibilidades de su aplicación se extienden a casi todas las casuísticas y además se crearan nuevos fraudes que todavía no conocemos por lo que la preocupación sobre potencialidad defraudadora es enorme.

La UE consciente de este problema pretende regular la IA y esta trabajando en un proyecto de reglamento que intenta encontrar el equilibrio entre el incentivo al desarrollo de esta tecnología y el establecimiento de limites legales para su uso. Esperemos que esta regulación ayude a perseguir de forma más efectiva los fraudes.

 

Bibliografia.

  • Fraude con un Deepfake. Panda security mediacenter.
  • Deepfakes, ¿cómo se aprovechan de esta tecnología para engañarnos? Oficina de seguridad del Internauta. OSI
  • Chen Angela.Tres amenazas de los deepfakes que la tecnología no puede arreglar. MIT Technology Review
  • Regulación de la inteligencia artificial en la UE: la propuesta del Parlamento. Parlamento Europeo.