Principal
La IA agravaría un problema.-La pornografía “deepfake” sería más fácil de crear
- Detalles
- Categoría: San Andres
NUEVA YORK.-Abril 24 del 2023.- (AP).— Las imágenes creadas con Inteligencia Artificial (IA) se pueden utilizar para crear arte, ponerse ropa en probadores virtuales o ayudar a diseñar campañas publicitarias.
Pero los expertos temen que el lado más oscuro de estas herramientas de fácil acceso empeore algo que daña principalmente a las mujeres: la pornografía “deepfake” no consensuada.
Las imágenes “deepfake” son aquéllas creadas o alteradas digitalmente con Inteligencia Artificial. La pornografía creada con esta tecnología comenzó a difundirse por internet hace varios años cuando un usuario de Reddit compartió clips de vídeos en que se colocaban rostros de celebridades femeninas sobre los hombros de actores porno.
Desde entonces, los creadores de “deepfakes” han difundido vídeos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con un perfil público. Existen miles de vídeos en una gran cantidad de sitios web.
Y algunos han estado ofreciendo a los usuarios la oportunidad de crear sus propias imágenes, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o que use la tecnología para dañar a sus antiguas parejas.
El problema, dicen los expertos, creció a medida que se hizo más fácil hacer “deepfakes” sofisticados y visualmente atractivos. Y dicen que podría empeorar con el desarrollo de herramientas de Inteligencia Artificial generativa que se entrenan en miles de millones de imágenes de internet y arrojan contenido novedoso utilizando datos existentes.
“La realidad es que la tecnología continuará proliferando, continuará desarrollándose y seguirá siendo tan fácil como presionar un botón”, advirtió Adam Dodge, fundador de EndTAB, un grupo que brinda capacitación sobre abusos habilitados por la tecnología.
Mientras tanto, algunos modelos de Inteligencia Artificial dicen que ya están restringiendo el acceso a imágenes explícitas.
Contenido eliminado
OpenAI dice que eliminó el contenido explícito de los datos utilizados para entrenar la herramienta de generación de imágenes Dall-E, lo que limita la capacidad de los usuarios para crear ese tipo de imágenes.
La compañía también filtra las solicitudes y dice que bloquea a los usuarios para que no creen imágenes de inteligencia artificial de celebridades y políticos prominentes. Midjourney, otro modelo, bloquea el uso de ciertas palabras clave y alienta a los usuarios a señalar las imágenes problemáticas a los moderadores.
Mientras tanto, la startupStability AI lanzó una actualización en noviembre que elimina la capacidad de crear imágenes explícitas utilizando su generador de imágenes StableDiffusion. Esos cambios se dieron a raíz de los informes de que algunos usuarios estaban creando imágenes de desnudos que se inspiraban en celebridades y que utilizaban la tecnología.