Preocupa impacto de la IA en la creación de “Deepfakes”


Por: Ulises Soriano
México. El “deepfake” en 2017 captó la atención del público gracias a la difusión de material pornográfico falso con rostros de celebridades; el término derivado de "fake" y del aprendizaje profundo conocido como “Deep Learning”, utiliza algoritmos basados en redes neuronales generativas adversariales, afirmó Lorna Verónica Rosas Téllez, profesora de la Facultad de Tecnologías de Información y Ciencias de Datos de la Universidad Popular Autónoma del Estado de Puebla (UPAEP).

La especialista señaló dos categorías principales de “deepfakes”: primero están los "big boys", enfocados en generar audios falsos para simular declaraciones inexistentes, y los "deepface", centrados en manipular imágenes para crear videos con información falsa. Uno de los primeros delitos cibernéticos notorios, en 2019, involucró el uso de "big boys" para convencer a ejecutivos de transferir dinero mediante la simulación de llamadas.

El potencial destructivo de esta tecnología abarca el 96% de los 15 mil videos de “deepfakes” encontrados por la firma de Inteligencia Artificial “deep trace” en 2019, los cuales estaban relacionados con pornografía, apuntó Rosas Téllez; después resaltó algunos usos positivos en entretenimiento, como la recreación de Salvador Dalí en un museo.

La existencia de esta inteligencia artificial plantea desafíos, oportunidades, beneficios, pero también peligros éticos. Mientras algunos países exploran regulaciones y existe una promoción de la alfabetización digital para detectar y prevenir la propagación de “deepfakes”, la ponente advirtió la difusión de información falsa y el consentimiento en su uso, el aumento de fraudes y manipulación financiera. Subrayó la importancia de una gestión responsable para evitar consecuencias negativas en la sociedad.

Yareli Elizeth Delgado Bacilio, estudiante de la Facultad de Tecnologías de Información y Ciencias de Datos del Decanato de Ingenierías de la UPAEP, ahondó en la técnica detrás de la creación de “deepfakes”, específicamente explorando las redes adversarias generativas. Estas redes, explicó, también conocidas como “GANs” (Generative Adversarial Networks), fueron creadas en 2014 por Ian Goodfellow y sus colegas de la Universidad de Montreal. Las “GANs” utilizan dos redes, una generadora y otra discriminadora, para manipular fotos, imágenes, videos y audio, en un constante juego de evolución.

Detalló el proceso de entrenamiento de estas redes comienza con la creación de una base de datos con imágenes reales. La red generadora intenta engañar a la red discriminadora para clasificar la imagen generada como real. Este ciclo se repite hasta lograr engañar a la red discriminadora. Ambas redes evolucionan continuamente, la generadora busca mejorar en el arte de engañar, mientras, la discriminadora busca mejorar en la detección de imágenes falsas.

La creación de “deepfakes” puede parecer compleja, señaló Delgado Bacilo, pues existen plataformas y software en línea, las cuáles permiten a los usuarios inyectar imágenes y generar “deepfakes” sin necesidad de conocimientos avanzados en programación. Así mismo destacó las medidas para detectar “deepfakes”, como software especializado entrenadas para identificar movimientos de ojos, sincronización con el audio, movimiento de labios y otros detalles del vídeo  dónde podría revelar la falsedad. 

Laura Morfiss Gómez, estudiante de la Facultad de Tecnologías de Información y Ciencias de Datos de la UPAEP, Habló sobre la regulación y ética en la implementación de la IA Deepfake, resaltando la importancia de ser éticos y responsables en el desarrollo tecnológico. 

Morffis Gómez manifestó la existencia de normas y estándares a nivel mundial, como la norma ISO 23001, ISO 27001 e ISO 30000, reguladoras de la seguridad informática; no obstante, cada país o región tiene sus propias leyes para abordar este fenómeno. En México, citó la Ley Federal de Protección de Datos Personales en Posesión de Particulares, ahí están establecidas las reglas para la recopilación y tratamiento de datos personales.

También mencionó la limitación de la legislación actual en términos de derechos de autor, pues estas leyes protegen solo lo creado por humanos y no abordan de manera específica los contenidos generados por IA. Hizo hincapié en la falta de regulación específica para la generación de “deepfakes” con fines ilícitos, como la pornografía generada artificialmente. Explicó: las leyes existentes, en su mayoría, están enfocadas en proteger a personas vulnerables, pero no abordan de manera exhaustiva la protección de adultos frente a este tipo de contenidos.

En este contexto, subrayó la importancia de fomentar un uso responsable de la tecnología y promover prácticas éticas en la creación y difusión de información, especialmente en un mundo donde la IA Deepfake plantea desafíos éticos y legales.




 Bookmark and Share

No hay comentarios.

Con tecnología de Blogger.