Nueva sede
Conversamos con uno de los socios: Hernán Munilla Lacasa
Por Hernán Munilla Lacasa
¿Qué tienen en común ciertas fotos que se han conocido del Papa Francisco, de Donald Trump, de Kim Jong-un y de Scaloni, obtenidas todas con gran precisión y definición? Que son falsas.
La Inteligencia Artificial Generativa ya es capaz de engañar a los humanos, creando cuanta imagen nuestra imaginación sea capaz de ofrecer. Es decir, no hay límites. Existen muchas plataformas de la IAG creadoras de imágenes: Dall.E, Midjourney, Stable Diffusion, This person does not exist, entre otras.
A su vez, a partir de una imagen es posible generar un video (v.g. Deep Fakes).
También es posible crear o imitar voces que ya existen (Wellsaid, Descript, Voice.ai), que alcanzan el mismo tono y hasta las mismas inflexiones de las originales, solo con una muestra de audio.
Si a partir de una foto se puede generar un video y de una muestra de audio se puede generar una voz, entonces estamos ya embarcados en una realidad en la cual el problema reside, precisamente, en distinguir qué es real y qué es falso.
¿Qué podría pasar si esta tecnología cayera en mano de las personas “equivocadas”? ¿Hay regulaciones apropiadas? ¿Los Fiscales/Jueces poseen las herramientas tecnológicas adecuadas para desbaratar, en forma inmediata, una operación que consiste en involucrar a una persona real, famosa o no, en una situación falsa y por supuesto embarazosa, hasta repulsiva o ilícita?
No todo lo que crea la IAG es reprochable, por supuesto. Nos ofrece también cosas maravillosas, que podremos comentar en otra oportunidad. Pero este costado dilemático hoy no solo nos interpela, sino que debería provocar una reacción tempestiva y acorde a los valores que están en juego.
El desafío que tenemos como ciudadanos y como abogados es inmenso e impostergable. La IAG recién empieza. ¿Quién sabe cómo sigue?