Monográfico
DOI: https://doi.org/10.32719/26312514.2024.10.5
URU: Revista de Comunicación y Cultura, n.° 10 (Julio - Diciembre 2024), 85-99. e-ISSN: 2631-2514
Fecha
de recepción: 21/04/2024 - Fecha de revisión: 23/04/2024
Fecha de aceptación: 27/05/2024 - Fecha de publicación: 01/07/2024
Università di Bologna Bolonia, Italia
Resumen:
Tener la inteligencia artificial (IA) generativa al alcance de un prompt extiende el potencial de la IA hacia cualquier persona que tenga a su disposición un dispositivo con conexión a internet. Esto democratiza aspectos más allá del texto, abarcando lo audiovi-sual, lo multimedia, la realidad aumentada, la realidad virtual y más. La IA encuentra un terreno fértil en la creación de imágenes, al contribuir a la construcción de imaginarios colectivos y fortalecer la cultura visual y la difusión de ideas. Esta capacidad expandida de acción también plantea incertidumbres éticas y emocionales, con opiniones divididas entre aquellos que ven a la IA como un instrumento de engaño y manipulación, y otros más optimistas que la consideran un impulso al progreso y la creatividad humana. ¿Es posible confirmar que la generación de la imagen es auténtica? ¿Genera emociones genuinas? ¿Transforma o afecta la percepción del espacio?.
Palabras clave: Inteligencia artificial generativa, imagen, sociedad, percepción
Abstract:
Having Generative Artificial Intelligence at the touch of a button extends the po-tential of AI to anyone who has a device with an internet connection at their disposal. This democratizes aspects beyond the text, encompassing audiovisual, multimedia, augmented reality, virtual reality, and more. Artificial intelligence finds fertile ground in the creation of images, contributing to the construction of collective imaginaries and stren-gthening visual culture and the dissemination of ideas. This expanded capacity for action also raises ethical and emotional uncertainties, with opinions divided between those who see AI as an instrument of deception and manipulation, and more optimistic others who see it as a boost to human progress and creativity. Is it possible to confirm that the image generation is authentic? Does it generate genuine emotions? Does it transform or affect the perception of space?
Keywords: Generative artificial intelligence, image, society, perception
La inteligencia artificial (IA) ha captado la atención de diversos ámbitos disciplinarios, desde las ciencias hasta los contextos políticos y económicos. Se ha impuesto en el debate público con promesas de avance tecnológico, vanguardismo, mejora de las condiciones de vida, mayor seguridad y asistencia, pero también ha creado una serie de preocupaciones sobre los riesgos potenciales y la incertidumbre general causada por los retos inherentes que crea a su alrededor.
Actualmente está en el centro de atención. Cada escalón en la programación de algoritmos o en la generación de contenidos es igual de relevante por lo que puede conseguir como por lo que no. Las cuestiones que se plantean en esta fase de crecimiento suelen considerarse problemas técnicos que podrían superarse con el desarrollo de modelos más avanzados de los procesos cognitivos (Schwartz 1989). Sin embargo, hasta hace poco, IA era un término conocido solo en pequeños círculos de expertos y en grandes producciones de ciencia ficción. Hoy en día es inevitable oír hablar de ella en todas partes: en las noticias, en la calle, en las charlas con amigos e incluso en el bar. Hay un interés constante por los últimos avances tecnológicos de la IA, aquella que hasta hace unos años era una tecnología “invisible”, presente únicamente en silencio en las plataformas digitales, sin causar revuelo.
La IA representa la evolución de siglos de progreso social, cultural y tecnológico. Por lo tanto, hay que situarla en el contexto social e histórico del que forma parte. De hecho, dando un paso atrás, surge la pregunta: ¿por qué los humanos quieren crear una IA? Un programador seguramente respondería: “¿Por qué no?”, y asumiría así el reto que parece nacer en un laboratorio un día cualquiera, producido por la imaginación de un científico. Pero la respuesta no es tan sencilla. Todo empezó con la pregunta de si puede el ser humano crear consciencia o inteligencia, y en algún momento esa pregunta se convirtió en: “¿Pueden los humanos replicar la inteligencia?”. Estas preguntas y su evolución tienen un origen antiguo, estrechamente ligado a la naturaleza humana y al progreso cultural.
En este progreso histórico, las dinámicas derivadas de los sistemas de producción y desarrollo tecnológico crearon las condiciones previas para la posterior introducción de la IA en la vida cotidiana. Estos elementos característicos podrían ser la causa de la dirección que ha tomado esta tecnología en términos de rendimiento. Llegados a este punto, ¿cómo se valora la IA tras su integración en la sociedad? Se plantea la cuestión de si se le puede dar un significado simbólico que vaya más allá de sus competencias técnicas y, en caso afirmativo, cómo puede definirse este significado colectivo.
La tecnología ha desempeñado un papel fundamental en la evolución de la humanidad. De hecho, cada tipo de sociedad parece corresponder a una categoría específica de máquinas: las sociedades de soberanía se asocian a máquinas simples o dinámicas, mientras que las sociedades disciplinarias encuentran utilidad en las máquinas energéticas. Las sociedades de control, como se definen las sociedades modernas, por su parte, se sirven de máquinas cibernéticas y ordenadores (Deleuze 1990). Esta visión de la máquina como elemento de transformación social se asocia al determinismo tecnológico, que es la capacidad de la tecnología para afectar a la esfera social cambiando las dinámicas de producción, poder, jerarquías y significados (McLuhan y Powers 1989; Deleuze 1990; Zimmerman 2019).
Sin embargo, es importante subrayar que las máquinas por sí solas no ofrecen una explicación exhaustiva del funcionamiento de una sociedad. Por el contrario, es esencial examinar en detalle las interconexiones colectivas dentro de las cuales operan las máquinas. Estas interacciones representan un aspecto crucial que va más allá de su mero uso. Para comprender plenamente su significado, debemos examinar en profundidad cómo se integran estas máquinas en la estructura social y cómo contribuyen a darle forma. De este modo, podremos apreciar plenamente su papel complejo y multifactorial en la
sociedad actual.
En primer lugar, ¿qué camino ha recorrido la humanidad para llegar a abrazar e incorporar el algoritmo y la IA en su vida cotidiana? Ciertamente no ha sido un proceso lineal; no sería posible obtener una respuesta únicamente mirando hacia atrás, hacia el progreso tecnológico y la construcción de la máquina, el ordenador y el algoritmo. Las premisas sociales, las sistémicas y especialmente las simbólicas están en la base misma de la comprensión del fenómeno. No vienen dadas únicamente por la relación entre la humanidad y la tecnología, sino que son un conjunto de dinámicas complejas en las que intervienen procesos históricos, culturales, económicos, demográficos y -también- tecnológicos.
Estos aspectos simbólicos abarcan ámbitos muy diversos, como la percepción del tiempo, los sistemas y ritmos de producción, las dinámicas de consumo, el proceso de digitalización y la creación de mundos virtuales, las nuevas formas de interactuar y construir relaciones sociales, la autorrepresentación, la información como rasgo distintivo de las sociedades modernas, el fenómeno de la globalización y el culto y la centralidad de la imagen. Todos estos elementos representan pilares fundamentales que constituyen un precedente, una base sobre la que la IA se desarrolla específicamente para encajar.
En el contexto social actual, la imagen juega un rol fundamental; la cultura visual ha llegado a ocupar un rol protagónico, superando el impacto del texto y la palabra. A nivel semiótico, la imagen ha aumentado el impacto de la comunicación, y se ha vuelto incluso, en cierto modo, un instrumento que amplía la imaginación y permite una fusión entre la realidad y la fantasía. Es en este terreno donde la IA entra para ampliar el fenómeno. Liu (2022) introduce el concepto de “estudio de la IA cultural”, en el que la evolución de la IA se considera un fenómeno social. Los estudios desde esta perspectiva deben examinar este fenómeno en relación con los contextos sociales, culturales, económicos y políticos más amplios en los que se desarrolla y que lo influencian.
En esta investigación, la atención se centra en la esfera social de la IA generativa, más allá de su rendimiento tecnológico. Algunos optimistas creen que la IA no sustituirá a los humanos, sino que quienes la dominen estarán mejor posicionados en el nuevo panorama laboral y social. Desde la perspectiva de la interacción mediada, la IA generativa suscita importantes inquietudes sobre la construcción de la identidad en línea.
Por ejemplo, algunos sitios de citas están considerando la integración con interfaces de programación de aplicaciones (API, por sus siglas en inglés) de modelos lingüísticos para permitir que los chatbots gestionen directamente las conversaciones, con el fin de maximizar las posibilidades de éxito en el acercamiento a posibles parejas (Iovine 2022). Existen innumerables ejemplos de este tipo, que representan una clara tendencia de los individuos a delegar su capacidad de acción durante la interacción, que en este punto ya no es meramente mediada, sino que implica una especie de “encarnación” simbólica (y práctica) del self, así como una serie de conflictos que pueden desencadenarse entre los individuos implicados. Existen numerosos y amplios aspectos que deben examinarse en relación con la gestión, el uso y el control de la IA generativa, especialmente en lo vinculado a las experiencias cotidianas de los usuarios, sus preocupaciones, intereses y necesidades. Se trata de una cuestión emergente que no deja de evolucionar, con implicaciones relevantes a nivel empresarial, jurídico, político y sociológico. La única certeza es que la IA generativa ya es parte integrante de la esfera pública y sigue evolucionando a un ritmo que dificulta su comprensión por parte de las instituciones, con el consiguiente reto de encontrar la definición de un marco regulatorio adecuado y con muchos interrogantes, especialmente de carácter ético, sobre la gestión en el ámbito de la interacción social (Cath 2018).
Se realizó una revisión sistemática que, según Aguilera (2014), presenta una evidencia en forma descriptiva sin metaanálisis. De este modo, se analizaron veinte investigaciones y literatura relevante sobre IA, que se obtuvieron a través de una búsqueda sistemática. Posteriormente, se extrajeron los datos y se realizó una síntesis narrativa de los resultados. Las variables fueron los resultados obtenidos de las investigaciones y las conclusiones de los estudios.
Al ser un tema actual, se encontraron pros y contras en la búsqueda. La mayoría de investigaciones se han enmarcado en los beneficios y oportunidades que puede tener el uso de la IA y en demostrar, a nivel técnico, la poca o mucha capacidad de los programas. Todavía no hay muchas investigaciones experimentales, de modo que la mayoría de literatura parte desde la teoría y desde una visión más tecnológica, específicamente en el ámbito computacional.
Por otro lado, al ser un tema de moda, incluso fuera de la academia, hay muchas personas que hablan de este tema y repiten los mismos criterios. En este contexto se tuvo que llevar a cabo un trabajo intensivo en los primeros filtros en la búsqueda de la información. Para llegar a los veinte textos, se revisaron más de doscientos documentos.
Al analizar en la revisión sistemática las variables resultados y conclusiones de veinte estudios o literatura relevante, se determinaron los siguientes puntos principales:
1. Inteligencia artificial que revoluciona: IA generativa
2. La inteligencia artificial como generadora de mundos alternativos
3. La estética y el significado
La historia de la IA, al menos en la opinión pública, puede haber quedado marcada por el lanzamiento de ChatGPT. Se trata de un modelo de IA generativa lingüística a gran escala desarrollado por OpenAI, una empresa fundada en San Francisco en diciembre de 2015 por un grupo de expertos en tecnología, que quería crear una organización de investigación de IA sin ánimo de lucro para descubrir su potencial y beneficios para la sociedad (friendly AI). En el transcurso de unos años, OpenAI ha conseguido importantes inversiones de conocidos patrocinadores, como Elon Musk, Reid Hoffman, Peter Thiel y Sam Altman, que han comprometido más de mil millones de dólares en la empresa (Roumeliotis y Tselikas 2023).
OpenAI destaca en el mundo de la IA por su serie GPT (Generative Pre-trained Transformer), modelos entrenados en un gran corpus de datos textuales para generar respuestas similares a las humanas. ChatGPT se centra específicamente en generar respuestas conversacionales y se ha entrenado utilizando técnicas de procesamiento del lenguaje natural, aprendizaje supervisado y aprendizaje por refuerzo para comprender y generar textos comparables a los creados por humanos (Roumeliotis y Tselikas 2023).
Este enfoque implica afinar el modelo utilizando respuestas generadas por humanos y modelos de clasificación y recompensa. El objetivo de ChatGPT es ofrecer conversaciones más interactivas y atractivas con los usuarios. Se ha entrenado con una amplia gama de textos de internet para mejorar su capacidad de entender y generar respuestas en diversos contextos. El programa se ha puesto a disposición tanto a través de un sitio web de acceso público y gratuito como mediante una API que permite a los desarrolladores integrarlo en sus aplicaciones y servicios (Douglas 2023).
ChatGPT puede utilizarse en diversos ámbitos funcionales, como la creación de contenidos creativos, la redacción de ensayos, la escritura rápida de textos, la programación informática y la respuesta a preguntas. Este modelo tiene el potencial de influir en la tecnología y en las personas de forma tanto positiva como negativa. No obstante, hay cuatro cuestiones principales que deben abordarse en el campo de la IA: la evolución de los puestos de trabajo, el cambio en el panorama tecnológico, la búsqueda de una IA general y los dilemas éticos relacionados con el progreso (Taecharungroj 2023).
Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) han suscitado un interés considerable. No realizan razonamientos ni comprensiones, ni representan un paso hacia la IA de ciencia ficción. No se relacionan con los procesos cognitivos presentes en el mundo animal, ni en el cerebro y la mente humanos, para manejar con éxito contenidos semánticos (Bishop 2021). Sin embargo, gracias a la enorme cantidad de datos disponibles, la creciente potencia de cálculo y algoritmos cada vez mejores, pueden operar estadísticamente trabajando sobre todo en la forma del contenido. Las principales características que tanto atraen el interés de la gente son precisamente la velocidad de cálculo, la cantidad de resultados que producen y la capacidad de procesar y comprender los prompts, es decir, las peticiones de los usuarios. De todos modos, existen dudas sobre la calidad de estos contenidos. Los expertos consideran que los LLM como ChatGPT o Bard, de Google, generan realmente contenidos escritos, respuestas o referencias incluso cuando no consiguen dar una respuesta adecuada; cometen errores factuales evidentes; a veces no hacen las inferencias lógicas más obvias o tienen dificultades con operaciones matemáticas elementales; o manifiestan extrañas lagunas lingüísticas en las que se atascan. Ante sus notables éxitos y sus igualmente evidentes limitaciones, algunos los han comparado con “loros estocásticos”, que repiten textos sin comprender su significado (Bender et al. 2021).
Esta analogía es útil en parte, pero no del todo, no solo porque los loros poseen una inteligencia propia que sería la envidia de cualquier IA, sino especialmente porque los LLM sintetizan los textos de formas nuevas, reestructurando el contenido sobre el que han sido entrenados, en lugar de limitarse a repeticiones o yuxtaposiciones. A medida que las personas se desarrollen, interactúen y aprendan a entender esta nueva forma de acción, surgirán nuevas preguntas. ChatGPT ha mejorado desde GPT3 en términos de rendimiento al introducir reinforced learning (RL) para perfeccionar sus respuestas como interlocutor. Se trata de una forma de acción nunca vista, ya que es capaz de aprender y mejorar su comportamiento sin poseer necesariamente inteligencia (Floridi 2023).
Otro aspecto al que siempre se vuelve cuando se habla de IA generativa es precisamente el del control, ya que no hay un filtro real en cuanto a lo que el modelo de RL realmente aprende o a cómo se maneja la información. La cuestión es que constantemente sigue aprendiendo y absorbiendo datos, con un lado oscuro muy grande en cuanto a cómo se manejan estos datos y cómo se producen luego los resultados (Radford et al. 2019).
A pesar de las investigaciones destinadas a demostrar la no inteligencia de la IA, la IA generativa sigue suscitando una aceptación y un interés considerables entre el público. Esto se debe tanto a que la distinción entre forma y contenido sigue siendo compleja, incluso para las personas, como a que ofrece un valor añadido apreciable en términos de tiempo y cantidad cuando se trata de producción de contenidos y elaboración de datos. Las IA han suscitado una serie de temores y preocupaciones, especialmente relacionados con la posible sustitución tecnológica en el lugar de trabajo y con cuestiones de privacidad y gestión de datos.
El funcionamiento de las aplicaciones de IA generativa se basa en las instrucciones que dan los usuarios a través de un prompt. En el contexto de la IA generativa, el prompt se refiere a la entrada o instrucción dada a un modelo para generar un resultado específico. Es el concepto o preferencia definida por el usuario que impulsa el proceso generativo. El prompt puede ser un texto, una imagen o cualquier otro input que el modelo pueda entender. El objetivo es vincular las salidas generadas con los conceptos y las preferencias deseados implícitos en las instrucciones, y los resultados se generan en cuestión de segundos (Wong et al. 2023).
El dilema aquí no es la eficacia de ChatGPT o Bard frente a otro sistema similar, sino las posibilidades que el uso de sistemas de IA generativa puede ofrecer a las personas y cómo se explotarán estas posibilidades. A diferencia de otros sistemas de IA que requerían conocimientos técnicos avanzados, la IA generativa democratiza el potencial de la IA poniéndola al alcance de todo el mundo, gracias a un prompt introducido de la forma más fácil posible para el usuario: a través de sencillos comandos de texto que también pueden ser de carácter muy informal, utilizando el lenguaje espontáneo de los usuarios, llegando hasta instrucciones muy precisas, en el caso de prompts escritos por profesionales en un campo determinado.
Esta situación recuerda la evolución que se produjo cuando los motores de búsqueda pusieron el conocimiento de la Red al alcance de todos con un simple clic. De hecho, incluso en el pasado, cuando se produjo un acceso más amplio a las herramientas tecnológicas relacionadas con internet, surgieron diversos problemas; entre ellos, la difusión de contenidos ilegales, la proliferación de fake news, la preocupación por la pérdida de control sobre la privacidad y la comercialización de los datos de los usuarios (Williams y Delli Carpini 2000; Bro y Wallberg 2015; Lăzăroiu 2011).
Estos factores aún no resueltos pueden ser tomados como un antecedente para considerar que la accesibilidad de la IA podría desencadenar conflictos. Un ejemplo flagrante se manifiesta en el ámbito de la educación, donde a los profesores les preocupa que ChatGPT pueda utilizarse para realizar tareas escolares, con el agravante de que aún no existe ningún programa informático capaz de distinguir con precisión si una tarea ha sido realizada por una IA o por un ser humano.
Estos problemas se reflejan también en el entorno laboral y en la creación de contenidos con fines comerciales. En consecuencia, suscitan inquietud en cuestiones de propiedad intelectual. Además, plantean interrogantes sobre las estructuras actuales, lo que conduce a la necesidad de innovar con plazos de adaptación muy limitados. El reto no solo se refiere a la innovación tecnológica per se, sino al hecho de que la difusión de las nuevas tecnologías se produce a un ritmo mucho más rápido que los tiempos de comprensión y adaptación social (Lievertz 2019; Spindler 2019).
Tener la IA al alcance de la mano también extiende el potencial de la IA generativa a otros aspectos que trascienden la barrera textual: audiovisuales, multimedia, realidad aumentada, realidad virtual y otros. Modelos generativos a gran escala como el propio ChatGPT, Stable Diffusion, DALL·E 2, Dreamfusion, Flamingo, Phenaki, AudioLM, Codex, Galactica y AlphaTensor pueden transformar texto en imágenes, imágenes 3D, video, audio, piezas enteras de código, textos científicos e incluso otros algoritmos (Gozalo y Garrido 2023).
Las redes generativas adversarias han supuesto una revolución en el campo de la
IA, al permitir a los ordenadores aprender intrincadas distribuciones de datos y crear imágenes increíblemente realistas. Este avance ha desencadenado una investigación y una innovación considerables en el campo de la IA, para dar lugar a una serie de nuevos descubrimientos y aplicaciones (Goetschalckx, Andonian y Wagemans 2021).
Para comprender plenamente el impacto de la IA generativa en la imagen y la identidad en los medios sociales, es esencial examinar el contexto previo a la llegada de esta tecnología. Ya en el pasado, a través de la publicidad, el cine y, más recientemente, las redes sociales, se promovían ideales estéticos relativos a la belleza, el cuerpo, los paisajes y la moda (Martínez y Muñoz 2015). Con la llegada de herramientas como los filtros de Instagram y las correcciones de Photoshop, ha aumentado la tendencia a “modificar” la realidad para ajustarse a unos cánones estéticos a menudo irreales, lo que fomenta la práctica de alterar constantemente la realidad circundante y la imagen individual.
Este proceso de manipulación de la imagen permite a las personas construir una especie de “máscara” -en palabras de Goffman- que se adapte mejor a sus necesidades, especialmente en el contexto de la socialización en línea, que a menudo encuentra una gran distancia con la realidad del mundo físico. Además, el papel de la imagen es cada vez más predominante en el paisaje digital. En contextos como Twitter, donde el texto debe ser breve, o en Instagram, donde predominan las imágenes, y aún más en TikTok, donde el texto suele ser secundario frente al contenido visual, la imagen ha adquirido un papel central a la hora de atraer la atención de los usuarios.
La IA no aparece con ChatGPT, ya estaba presente en estas plataformas en forma de algoritmos de elaboración de perfiles, personalización y recomendación. Sin embargo, ahora está emergiendo como un actor importante debido a su capacidad para generar contenidos totalmente artificiales. Estos están destinados a ser compartidos en plataformas gestionadas por otras IA. Muchas veces, estos contenidos se diseñan específicamente para maximizar su “viralidad”, teniendo en cuenta las recomendaciones de los algoritmos. Este énfasis puede hacer que el contenido cambie totalmente, dejando a un lado la intención de crear para transmitir o comunicar y maximizando el interés en su impacto.
Si Photoshop y herramientas similares han suscitado preocupación por la autoestima de las personas debido a la edición excesiva de imágenes, la IA generativa suscita inquietudes más amplias. Algunos temen que esta tecnología pueda potenciar la tendencia a crear realidades alternativas que proporcionen un refugio frente a los problemas del mundo físico. Las identidades y las imágenes en las redes sociales están intrínsecamente vinculadas, ya que las personas utilizan estas plataformas para presentar y dar forma a sus identidades a través de las imágenes que comparten (Murfianti 2017).
Centrándonos en la generación de contenidos, es importante señalar que la IA generativa es diferente en comparación con herramientas como Photoshop o los programas tradicionales de edición de fotos y videos, así como de los programas de animación y edición gestionados por el usuario. El rasgo distintivo de la IA generativa reside en la accesibilidad que ofrece a un amplio abanico de personas, independientemente de sus conocimientos técnicos. Esto amplía enormemente la producción de imágenes, videos y contenidos gráficos.
Además, al igual que ocurre con la creación de texto, a menudo es difícil distinguir visualmente los contenidos generados por IA. En 2022, un experimento realizado en la plataforma Tidio propuso una prueba basada en técnicas de gamification para evaluar la capacidad de las personas para reconocer si los contenidos habían sido producidos por humanos o por IA. La prueba contó con una muestra de aproximadamente 20 000 participantes (Rajnerowicz 2024).
Los resultados son muy interesantes: los extractos breves de texto y música, creados tanto por individuos como por sistemas de IA, suelen ser difíciles de distinguir, incluso para expertos en la materia. Por ejemplo, una foto generada por IA en 2018 fue confundida con la imagen de una persona real por el 35,7 % de los participantes, y una de 2021, hasta por el 68,3 %. Es imposible predecir cuáles serán los resultados en 2025.
La modificación de ciertos rasgos en las fotos, como el peinado o el sexo, por aplicaciones basadas en IA es extremadamente difícil de detectar, incluso si la resolución de la imagen es significativamente mayor que la de los típicos avatares y fotos de perfil. Además, los sistemas de generación de imágenes basados en IA y texto son capaces de crear imágenes muy realistas a partir de breves pistas y descripciones.
Por un lado, la IA puede ser una poderosa herramienta para difundir desinformación. Sin embargo, según los creadores de la encuesta, también hay aspectos positivos a tener en cuenta. Por ejemplo, el uso de la IA sigue siendo más complejo que las técnicas tradicionales: si alguien quisiera engañar, sería más fácil robar imágenes reales que generar imágenes falsas. Además, los participantes de la Generación Z parecen ser más competentes a la hora de evaluar imágenes falsas. Si los peligros de la manipulación de la IA se hicieran más comunes, puede que simplemente fuera necesario aumentar la concienciación y la educación al respecto (Rajnerowicz 2024).
Sin embargo, si las imágenes fake ya eran un problema en el mundo de las redes sociales, los deep fakes podrían alcanzar niveles sin precedentes. Los deep fakes son medios como videos o imágenes alterados mediante el uso de IA generativa para crear contenidos visuales que parecen reales pero son falsos. Este fenómeno ha captado la atención y el interés del público, especialmente en el contexto de los medios de comunicación. Han surgido opiniones encontradas sobre la probabilidad de un futuro en el que los deep fakes desempeñen un papel significativo.
Algunos creen que estos escenarios son inevitables, y citan como factores clave la disminución de los costos de producción de contenidos falsos y el aspecto humano malicioso. Otros, sin embargo, se muestran más escépticos y subrayan la importancia de las leyes, las regulaciones del mercado y las posibles soluciones técnicas para la detección y atribución de fuentes. Además, se está empezando a insistir en la necesidad de seguir investigando en la detección de contenidos generados automáticamente, utilizando softwares para la detección de la IA, así como en la introducción del uso potencial de marcas de agua digitales y tecnologías blockchain para demostrar la originalidad de los contenidos y reducir la dependencia de sistemas de detección centralizados (Houde et al. 2020).
Este hecho va más allá de la mera estética cotidiana de las representaciones identitarias, al cuestionar también la estética como punto de referencia. Es decir, no solo abre la puerta a la creación de ideales estéticos y representaciones visuales a menudo inalcanzables o irreales que pueden considerarse o sentirse como verdaderas, aunque sean artificiales, sino que también toca la esfera del arte y la creatividad. Además, si una IA se basa en obras de artistas para generar otros contenidos visuales, también aparece un problema de atribución de propiedad intelectual (Spindler 2019).
Sobre este aspecto, Donnarumma (2022), en el contexto de la IA, se refiere al concepto de “fantasía mercantilizada” para describir una forma de producción cultural que, en lugar de asumir riesgos o experimentar, imita y simplifica las narrativas preexistentes, para convertirlas en clichés emocionales convencionales. Los sistemas generativos basados en la IA reproducen con cautela los cánones estéticos tradicionales y de moda, e introducen pocos cambios para desviarse de las normas establecidas. Esta actitud se alinea con la idea de “fantasía mercantilizada” ya presente como una tendencia.
Este tipo de producción cultural encaja sin esfuerzo en el contexto de la comercialización, donde las cuestiones morales profundas se esterilizan y se presentan de forma segura, desprovista de matices intelectuales y éticos. A través de su proceso automatizado de mímesis, la estética de la IA combina lenguajes, formas y estructuras estéticas de diferentes obras de arte en una única forma, sin cuestionarlas ni modificarlas, con la tranquilizadora familiaridad del arte ya conocido. La presencia del poder regulador en la IA contribuye a perpetuar la “fantasía mercantilizada”, reforzando las estructuras de poder existentes y limitando la exploración creativa (Landay 2008).
Los modelos generativos de IA crean datos basándose en datos: amplifican, intercambian, reordenan, pero siempre basándose en la misma información. Esto pone en tela de juicio la presunción de su originalidad. Manovich (2020), por ejemplo, es uno de los expertos que cree que la IA puede anular la creatividad en lugar de potenciarla, ya que puede girar en un bucle estético que amplifica tendencias y repite patrones en lugar de generar algo realmente nuevo.
En el primer episodio de la sexta temporada de la serie Black Mirror, “Joan Is Awful”, se aborda de forma distópica uno de los potenciales de una imagen generada totalmente de un modo artificial. El personaje de Joan se encuentra una noche viendo una serie de televisión de sí misma en Netflix, protagonizada por Salma Hayek, todo ello generado completamente por IA e incluso con tecnologías de computación cuántica. La trama se desarrolla de manera dramática: emerge el caos en la vida de Joan al verse asociada por la opinión pública con una historia que es la suya, pero no en realidad. Aunque se trata de ciencia ficción, la preocupación por proteger la propia imagen de las garras de la IA ya está causando revuelo en la vida real (Heritage 2023).
Desde mayo de 2023, Hollywood estuvo varios meses en huelga precisamente por la preocupación que suscita el uso de la IA en la industria. En concreto, el conflicto se dio en parte porque los guionistas no querían que los estudios alimentaran a la IA con guiones antiguos para que los asistentes virtuales pudieran generar textos con un estilo similar. A los guionistas también les preocupaba que los estudios pudieran pedir a los asistentes virtuales que reescribieran o perfeccionaran los primeros borradores de su trabajo para escenas o programas enteros. “Esta es la peor situación”, afirmó John August, miembro del comité negociador del Sindicato de Guionistas (López y Jackson 2023, párr. 8).
Entre las diversas cuestiones planteadas, también preocupa el uso de imágenes de famosos, al igual que en “Joan Is Awful”. Se reclaman medidas de protección más estrictas para asegurar el control sobre la monetización de las propias imágenes, así como una garantía efectiva de obtención del consentimiento, a fin de evitar que los rostros de los famosos se utilicen para crear producciones mediáticas enteras sin su auténtica participación.
Un ejemplo en este contexto es la campaña publicitaria de Virgin Voyages, en la que, con consentimiento, se empleó la imagen de Jennifer López. En este video, de forma irónica y muy explícita, se hace notar cómo la IA generativa recrea la voz y la imagen de la actriz para crear un producto extremadamente realista, capaz de confundir incluso a los observadores más experimentados. Sin embargo, la ironía reside en el hecho de que se revela que en realidad no se trata de la celebridad, sino de un “equipo” de creativos que intentan realizar el próximo anuncio utilizando la imagen de la estrella (Campbell et al. 2022).
Wang sostiene que es importante resaltar la distinción entre estilo y significado. El estilo es algo en lo que la IA tiene una gran ventaja, lo que permite experimentar con infinidad de posibilidades, desde modificar una foto para que se parezca a La noche estrellada de Van Gogh hasta crear producciones multimediales enteras mezclando los mejores efectos de edición, usando estilos de artistas y directores ya existentes. Sin embargo, el estilo no necesariamente posee un significado.
El significado en la imagen es más que la combinación de estilo o color. Lo que diferencia a una fotografía normal de una fotografía artística no es únicamente el tipo de cámara con la que se toma, sino lo que la imagen puede transmitir, muchas veces relacionado sobre todo con el contexto: por ejemplo, una fotografía en primer plano del rostro de un soldado en medio de la guerra con una lágrima cayendo por su mejilla. Es posible pedir a la IA que reproduzca una imagen con estas características y el resultado podría incluso ser realista, pero carecería de contexto, de un contexto real que agregue intensidad al significado.
Además, el significado por lo general también se atribuye durante el proceso de creación, que va más allá del resultado. Reducir la potencialidad de la IA a copiar, reordenar y cambiar lo existente no agregaría valor, sería algo tedioso y “obvio”. El verdadero reto sería utilizar la IA y los sistemas computacionales para generar algo que no sería posible crear si no fuera a través de esas herramientas, lo cual en realidad representaría un avance para el campo desde el punto de vista técnico y también artístico (Wang 2018).
Estos acontecimientos ponen de relieve la posibilidad tangible de crear “mundos alternativos” en los que la línea entre lo real y lo artificial es cada vez más sutil. Aunque una imagen o interacción pueda etiquetarse como artificial, lo importante es el impacto emocional que suscita en los receptores. Este aspecto central va más allá de las cuestiones de consentimiento y protección jurídica relacionadas con la creación de mundos artificiales. ¿Quién puede en realidad afirmar que una imagen no real no es capaz de generar emociones reales?
En esta situación, es crucial tener en cuenta las implicaciones emocionales, ya que estas pueden amplificar la tendencia a crear ideales inalcanzables que se mezclan con la realidad. Además, surge la preocupación por las posibles implicaciones en el imaginario colectivo. Por ejemplo, la posibilidad de crear contenidos audiovisuales inapropiados utilizando la imagen de una persona real, como en el contexto del revenge porn, puede tener graves consecuencias en la reputación de un individuo, así como en su bienestar psicológico. Estas prácticas amplifican el fenómeno de la difamación, pero demostrar la falsedad de un video puede resultar extremadamente difícil. Incluso si existieran los medios para hacerlo, las consecuencias seguirían siendo complejas de gestionar.
Sin embargo, la IA no hace más que ampliar la magnitud de un fenómeno ya existente, que consiste en la centralidad de la imagen y en su sobredimensión; se convierte cada vez en un objetivo más difícil de alcanzar realísticamente, pero cada vez más fácil de imaginar y, por ende, de visualizar. Una imagen puede crear sensaciones reales, más allá de su origen y creación, pero quedan interrogantes acerca de la responsabilidad jurídica de estas sensaciones, que pueden confundir y manipular la realidad, lo que genera consecuencias palpables en la percepción de las personas.
Aguilera, R. 2014. “Carta al director: ¿Revisión sistemática, revisión narrativa o metaanálisis?”. Revista de la Sociedad Española del Dolor 21 (6): 359-60. https://doi.org/10.4321/S1134-80462014000600010.
Bender, Emily, Timmit Gebru, Angelina McMillan-Major y Shmargaret Shmitchell. 2021. “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”. En FAcct ‘21: Proceedings of the 2021 - 97 ACM Conference on Fairness, Accountability, and Transparency, 610-23. Nueva York: Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922
Bishop, J. Mark. 2021. “Artificial Intelligence Is Stupid and Causal Reasoning Will Not Fix It”. Frontiers in Psychology 11. https://doi.org/10.3389/fpsyg.2020.513474.
Bro, Peter, y Filip Wallberg. 2015. “Gatekeeping in a Digital Era: Principles, Practices and Technological Platforms”. Journalism Practice 9 (1): 92-105. https://doi.org/10.1080/17512786.2014.928468.
Campbell, Colin, Kirk Plangger, Sean Sands, Jan Kietzmann y Kenneth Bates. 2022. “How Deepfakes and Artificial Intelligence Could Reshape the Advertising Industry: The Coming Reality of AI Fakes and Their Potential Impact on Consumer Behavior”. Journal of Advertising Research 62 (3): 241-51. https://doi.org/10.2501/JAR-2022-017.
Cath, Corinne. 2018. “Governing Artificial Intelligence: Ethical, Legal and Technical Opportunities and Challenges”. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376. https://doi.org/10.1098/RSTA.2018.0080.
Deleuze, Gilles. 1990. “La Società del Controllo”. L’Autre Journal 1. https://tinyurl.com/yc5p2pnu.
Donnarumma, Marco. 2022. “Against the Norm: Othering and Otherness in AI Esthetics”. Journal of Digital Culture & Society 8 (2): 39-66. https://tinyurl.com/mv7b5d7x.
Douglas, Michael R. 2023. “Large Language Models”. Arxiv. https://doi.org/10.48550/arXiv.2307.05782.
Floridi, Luciano. 2023. “AI as Agency Without Intelligence: On ChatGPT, Large Language Models, and Other Generative Models”. Philosophy and Technology. https://doi.org/10.2139/SSRN.4358789.
Goetschalckx, Lore, Alex Andonian y Johan Wagemans. 2021. “Generative Adversarial Networks Unlock New Methods for Cognitive Science”. Trends in Cognitive Sciences 25 (9): 788-801. https://doi.org /10.1016/j.tics.2021.06.006.
Gozalo, Roberto, y Eduardo Garrido. 2023. “ChatGPT Is Not All You Need: A State of the Art Review of Large Generative AI models”. Arxiv. https://tinyurl.com/3na5ec8v.
Heritage, Stuart. 2023. “Joan Is Awful: Black Mirror Episode Is Every Striking Actor’s Worst Nightmare”. The Guardian. 13 de julio. https://tinyurl.com/kb7wrkzx.
Houde, Stephanie, Vera Liao, Jacquelyn Martino, Michael Muller , David Piorkowski, John Richards, Justin Weisz y Yunfeng Zhang. 2020. “Business (Mis)Use Cases of Generative AI”. Arxiv. https://doi. org/10.48550/arXiv.2003.07679.
Iovine, Anna. 2022. “Tinder Users Are Using ChatGPT to Message Matches”. Mashable. 17 de diciembre. https://tinyurl.com/mrjnj29u.
Landay, Lori. 2008. “Having But Not Holding: Consumerism & Commodification in Second Life”. Journal of Virtual Worlds Research 1 (2). https://tinyurl.com/2jzvz53w.
Lăzăroiu, George. 2011. “Conceptualizing Gatekeeping in the Digital Era”. Contemporary Readings in - 98 - Law and Social Justice 3 (1): 152-9. https://tinyurl.com/55d7zauv.
Lievertz, Matthew. 2019. “Artificial Intelligence in Education”. En Artificial Intelligence and Machine Learning for Business for Non-Engineers, editado por Stephan Jones y Frank Groom, 125-40. Boca Raton, US: CRC Press. https://doi.org/10.1201/9780367821654-11.
Liu, Chuncheng. 2022. “Who Supports Expanding Surveillance? Exploring Public Opinion of Chinese Social Credit Systems”. International Sociology 37 (3): 391-412. https://doi.org/10.1177/026 85809221084446.
López, German, y Lauren Jackson. 2023. “A Deal in Hollywood”. The New York Times. 25 de septiembre. https://tinyurl.com/mrdfv6uy.
Manovich, Lev. 2020. L’estetica dell’intelligenza artificiale: Modelli digitali e analitica culturale. Roma: Luca Sossella.
Martínez, M. Mar, y Ana Muñoz. 2015. “Iconografía, estereotipos y manipulación fotográfica de la belleza femenina”. Estudios sobre el Mensaje Periodístico 21 (1): 369-84. https://doi.org/10.5209/rev_ ESMP.2015.v21.n1.49100.
McLuhan, Marshall, y Bruce Powers. 1989. The Global Village: Transformations in World Life and Media in the 21st Century. Nueva York: Oxford.
Murfianti, Fitri. 2017. “Photo: Identity and Commodity on Social Media Instagram”. En International and Interdisciplinary Conference on Arts Creation and Studies (IICACS 2017), 153-9. Surakarta, ID: ISI Press. https://tinyurl.com/58twd65k.
Radford, Alec, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei y Ilya Sutskever. 2019. “Language Models Are Unsupervised Multitask Learners”. OpenAI Blog 1 (8). https://tinyurl.com/2ywvzycm.
Rajnerowicz, Kazimierz. 2024. “AI or Not: How to Tell if Art Is AI Generated or Real [AI Test]”. Tidio. 22 de mayo. https://tinyurl.com/mur5hfyt.
Roumeliotis, Konstantinos, y Nikolaos Tselikas. 2023. “ChatGPT and Open-AI Models: A Preliminary Review”. Future Internet 15 (6). https://doi.org/10.3390/FI15060192.
Schwartz, Ronald. 1989. “Artificial Intelligence as a Sociological Phenomenon”. The Canadian Journal of Sociology 14 (2): 179-202. https://doi.org/10.2307/3341290.
Spindler, Gerald. 2019. “Copyright Law and Artificial Intelligence”. IIC International Review of Intellectual Property and Competition Law 50 (9): 1049-51. https://doi.org/10.1007/S40319-019-00879-W.
Taecharungroj, Viriya. 2023. “‘What Can ChatGPT Do?’: Analyzing Early Reactions to the Innovative AI Chatbot on Twitter”. Big Data and Cognitive Computing 7 (1). https://doi.org/10.3390/ BDCC7010035.
Wang, Ge. 2018. Artful Design: Technology in Search of the Sublime. Redwood City, US: Stanford University Press.
Williams, Bruce, y Michael delli Carpini. 2000. “Unchained Reaction: The Collapse of Media Gatekeeping and the Clinton-Lewinsky Scandal”. Journalism 1 (1): 61-85. https://doi.org/10.1177/ 146488490000100113.
Wong, Melvin, Yew Soon Ong, Abhishek Gupta, Kavitesh Kumar Bali y Caishun Chen. 2023. “Prompt Evolution for Generative AI: A Classifier-Guided Approach”. Ponencia presentada en la 2023 IEEE Conference on Artificial Intelligence, Santa Clara, Estados Unidos, 5-6 de junio. https://doi. org/10.1109/CAI54212.2023.00105.
Zimmerman, Michael. 2019. Beyond “Humanism”: Heidegger’s Understanding of Technology. Abingdon, UK: Routledge.
UNIVERSIDAD ANDINA SIMÓN BOLÍVAR, Sede Ecuador
Toledo N22-80 (Plaza Brasilia) • Apartado Postal:
17-12-569 • Quito, Ecuador
Teléfonos: (593 2) 322 8085, 299 3600 • Fax: (593
2) 322 8426
© Uru: Revista de Comunicación y Cultura.