Monográfico


Deepfake, cinismo y diversión en la crueldad: Un caso de colegiales y pornografía en Ecuador

Deepfake, Cynicism and Fun in Cruelty: A Case of High School Students and Pornography in Ecuador


DOI: https://doi.org/10.32719/26312514.2025.11.2


URU: Revista de Comunicación y Cultura, n.° 11 (Enero - Junio 2025), 8-28. e-ISSN: 2631-2514


 

Fecha de recepción: 23/03/2024 - Fecha de revisión: 25/03/2024
Fecha de aceptación: 26/04/2024 - Fecha de publicación: 01/01/2025

Byron Andino Veloz

Escuela Politécnica Nacional Quito, Ecuador

 

Resumen

Los debates sobre la inteligencia artificial (IA) generativa han cobrado fuerza. Sus usos expandidos provocaron asombro y también conmoción al ver cómo derivaron en acciones que afectan la concepción de la realidad. El deepfake es una tecnología que crea videos, imágenes o audios falsos mediante algoritmos de aprendizaje profundo que -al conjugarse con lógicas del cinismo y la crueldad hacia otros- amenazan la integridad y la verdad. El objetivo del artículo es debatir críticamente los usos instrumentales de la IA para crear contenidos visuales manipulados y pornográficos. La metodología tiene carácter cualitativo, mediante revisión bibliográfica y documental, entrevistas y un análisis de caso: unos jóvenes crearon más de 700 fotos y videos falsos, con rostros de mujeres de distintas edades, estudiantes de un colegio de Quito. El artículo debate cómo se relacionan la tecnología, las juventudes, la pornografía, la lógica del cinismo y la formación de redes y enjambres digitales, así como la necesidad de políticas públicas en el campo educativo ante los “ultrafalsos”.

Palabras clave : Deepfake, inteligencia artificial, cinismo, pornografía, tecnología, comunicación, educación

 

Abstract

Debates about generative artificial intelligence have gained strength, its expanded uses caused astonishment and also shock to see how they led to actions that affect the conception of reality. Deepfake is a technology that creates false videos, images or audio using deep learning algorithms and that - when combined with the logic of cynicism and cruelty towards others - affects integrity and truth. The objective of the article is to critically debate the instrumental uses of artificial intelligence to create manipulated and pornographic visual content. The methodology is qualitative in nature, with bibliographic and documentary review, interviews and a case analysis: young people created more than 700 fake photos and videos, with faces of female students of different ages, from a school in Quito. The article debates how technology, youth, pornography, the logic of cynicism, the formation of networks and digital swarms are related, as well as the need for public policies in the educational field to confront ultrafakes.

Keywords :Deepfake, artificial intelligence, cynicism, pornography, technology, communication, education

Introducción

Las concepciones sobre la realidad se construyen con una ampliación de las hipermediaciones y sus procesos de intercambio, producción y consumo simbólico en entornos con sujetos, medios y lenguajes interconectados tecnológicamente de manera reticular (Scolari 2008, 113). Los resultados son varios, entre ellos el asombro por los avances en las capacidades tecnológicas, así como formas de vulnerabilidad, incertidumbre y confusión ante las creaciones de la inteligencia artificial (IA), la realidad virtual y aumentada (Gómez de Ágreda, Feijóo y Salazar 2021).

Unas transformaciones brindan potenciales beneficios para la automatización de tareas y la reducción de tiempo en la producción y accesibilidad para su uso, así como para una mejor calidad de productos y narrativas comunicacionales; por ejemplo, con elementos multimodales que se juntan con la digitalidad, la hipertextualidad, la reticularidad y la interactividad. Otros se conciben como amenaza porque recaen en usos dañinos; la formación del sentido se establece con estos condicionamientos, que colocan una primacía de lo visual (por dar mayor apariencia de realidad) y lo emocional para su ejecución.

En ese marco, la posverdad fue conceptualizada por la Real Academia de la Lengua Española (RAE) como una distorsión deliberada de una realidad, la manipulación de creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales. Es hacer creer algo a partir de manipulación y engaño, por lo que se debe identificar hasta dónde la falsificación atenta contra la dignidad humana y los derechos fundamentales (Bañuelos 2020).

La posverdad se normaliza en el ecosistema comunicacional, a tal punto que es parte de cotidianidades, prácticas y creencias:

Aunque la verdad no exista se generan consensos muy direccionados […] para establecer que determinadas ideas pasan como si fuesen verdaderas. Todo el mundo sabe que está todo armado, pero todo el mundo necesita y quiere creer en eso igualmente. (Sztajnszrajber 2017, 2:08)

Las subjetividades, entonces, se forman también con mentiras y distorsiones provenientes de la digitalidad.

En septiembre de 2023, en Ecuador, estudiantes de un colegio privado de Quito utilizaron una herramienta de IA para colocar rostros de mujeres estudiantes en videos y fotografías pornográficos. Este caso es objeto de estudio del presente texto, para contextualizarlo en debates sobre la tecnología, la cosificación, las lógicas del cinismo y la diversión en la crueldad mediante la manipulación de imágenes.

A este fenómeno social se lo denominó deepfake -‘mentira profunda’, ‘ultrafalso’ o ‘profundamente falso’-, un video hiperrealista manipulado digitalmente y con técnicas computarizadas de IA para representar a personas que dicen o hacen cosas que en realidad nunca dijeron ni hicieron (García-Ull 2021). Es un contenido que “la percepción convencional no puede determinar si es verdad o falaz” (Cerdán y Padilla 2019, 506). Según la terminología de la ecología de la comunicación, es una especie mediática que evoluciona como amenaza, una transformación discursiva y narrativa multilenguaje que posee una complejidad como fenómeno tecnológico, cultural, legal y ético (Bañuelos 2020), atravesada por lógicas de poder, una de ellas la violencia de género.

La tecnología, durante décadas y siglos, ha ofrecido una creencia de eterno progreso, utopías de transformación del mundo mediante su aplicación; sin embargo, el desarrollo técnico no es sinónimo automático de desarrollo social (Andino Veloz y Andino Espinoza 2022). Tampoco se busca recaer en miradas apocalípticas como las que desde la filosofía de la técnica sugerían abandonarla. El propósito es salir de la ingenua y radical tecnofilia, así como de la prejuiciosa o eufórica tecnofobia (Cuadra 2021; Follari 2023). Se debe reconocer que hay múltiples usos porque la tecnología tiene un carácter social (Williams 1992), con reapropiaciones diversas y en disputa en condiciones de producción localizadas, aunque también con usos altamente perjudiciales, como el caso en cuestión.

La tecnología se desarrolla en un contexto de desplazamiento del terreno moral: de la hipocresía burguesa (represión con silencio, secretismo) se pasa a los cinismos del neoliberalismo (Sibilia 2023),en que el ideal de libertad individual exacerbada reafirma las mentiras como verdades para hacer a las opresiones transparentes y directas también mediante internet, las plataformas y más redes digitales.

Este artículo será un aporte para las ciencias de la comunicación y las discusiones sobre la tecnología. Prevé abordar el uso de la IA con el fenómeno de los deepfakes y advertir esas prácticas. Sobre el caso específico, se contribuye a un debate acerca de esta problemática en Ecuador, al analizar el ultrafalso en el ámbito educativo juvenil y en distintos puntos del proceso comunicacional, así como una consciencia de sus contextos sociales.

El artículo empieza con un marco conceptual y síntesis sobre el deepfake y sus usos. Luego está la metodología, que parte desde lo cualitativo. Se exponen los resultados para debatir la matriz pornográfica y su relación con el género; los usos de la tecnología en las juventudes; las lógicas de diversión en la crueldad, amplificadas mediante enjambres digitales; la relación entre cinismo y neoliberalismo; y, finalmente, se proponen alternativas para combatir estos fenómenos que someten a otros sujetos.

Historia, conceptos y debates sobre el deepfake

El primer escenario propagado de un ultrafalso se dio en 2017 (Campillo 2021; García-Ull 2021). En la plataforma Reddit -donde se añaden textos, imágenes, videos o enlaces para interactuar y votar a favor o en contra del contenido para destacarlo-, el usuario Deepfakes publicó videos en los que colocó rostros de mujeres famosas como Gal Gadot, Maisie Williams o Taylor Swift en cuerpos de actrices del cine pornográfico. Lo hizo con su computadora en casa y un algoritmo de machine learning. Estas creaciones se popularizaron y difundieron (Cerdán y Padilla 2019).

Luego, otros usuarios crearon aplicaciones, como FaceApp, para que cualquier persona acceda, modifique rostros y les dé otras expresiones, edades o sexos. En marzo de 2021, los diputados europeos fueron engañados: tuvieron una videollamada en vivo con una imagen trucada de Leonid Volkov, uno de los opositores del gobierno ruso; luego descubrieron que era un montaje con filtros de deepfake (Campillo 2021). Asimismo, el presidente de Ucrania, Volodímir Zelenski, tuvo que aclarar que era falso un video que se había propagado en la red, en el que su imagen trucada pedía a sus tropas rendirse ante Rusia.

En cuanto a su relación con el poder, el deepfake es considerado una forma de control del discurso, con campañas de desinformación para alterar percepciones en el ámbito cognitivo mediante varios lenguajes. Busca generar influencia en los sentidos de la gente, por lo que sirve incluso en entornos militares y de inteligencia (Gómez de Ágreda, Feijóo y Salazar García 2021). Es un engaño mutado, con alto grado de veracidad, por ello se debe alertar sobre él y desnormalizarlo en su existencia (Wagner y Blewer 2019; Campillo 2021).

En el ambiente operativo se hace referencia a los deepfakes como representaciones sintéticas, generadas mediante técnicas computarizadas, de fácil acceso y usabilidad (García-Ull 2021). Fusionan dos imágenes para generar una nueva:

[S]on el producto de las redes generativas antagónicas […]., algoritmos de IA […]. implementados por un sistema de dos redes neuronales que compiten mutuamente en una especie de juego de suma cero […]. Estas dos redes, llamadas el generador y el discriminador, se entrenan en el mismo conjunto de datos de imágenes, videos o sonidos. Luego, el primero intenta crear nuevas muestras que sean lo suficientemente buenas para engañar a la segunda red, que trabaja para determinar si los nuevos medios que ve son reales. De esa manera, se impulsan entre sí para mejorar […]. El resultado es una imagen, video o audio original. (García-Ull 2021, 107-8)

Varios actores se han hecho cargo de esta tecnología: 1. las comunidades de aficionados con finalidades de humor, pornografía o venganza (Cerdán, García y Padilla 2020); 2. políticos que lo usan para campañas de desinformación, para manipular la opinión pública y para debilitar la confianza en los opositores y el sistema; 3. los delincuentes o estafadores que buscan réditos ilegales, con base en el cometimiento de delitos; y 4. actores legítimos que generan valor social, como los creadores artísticos, productores audiovisuales o agencias de publicidad, para realizar narrativas lúdicas (García-Ull 2021).

En otra taxonomía puede indicarse que los campos (Bañuelos 2020) privilegiados para el ultrafalso son: 1. el del entretenimiento (ironía, sátira, crítica, parodia); 2. el político (para desinformar, dañar carreras, influir sobre el electorado); 3. el experimental (todos los nuevos que surjan con distintos usos, sean positivos o negativos); y 4. el pornográfico. A este último se lo abordará más ampliamente en un próximo apartado, al ser el foco de estudio.

Además del caso del entretenimiento, los usos positivos y de actores legítimos que se han recopilado se emplean, por ejemplo, para el arte y la educación, como revivir personajes de la historia que desarrollen relatos, se muevan y aparenten existencia; así, se vuelven narrativas que conectan con la gente para una mejor comprensión. También sirve para la protección de identidad de testigos y víctimas en transmisiones en vivo, ante un caso judicial. En el tema policial, asimismo, fue un gancho para detectar pedófilos y traficantes de pornografía infantil. El punto es encontrar aplicaciones que tengan una finalidad positiva para la sociedad y no atenten contra los usuarios.

Pero esa perspectiva no es la dominante, de modo que es necesaria una postura crítica. El primer problema es que con el deepfake se disminuye la capacidad de confiar en lo que vemos, leemos y escuchamos: perdemos fe en los sentidos humanos (Cerdán, García y Padilla 2020) al no distinguir lo real de lo ficticio (Cerdán y Padilla 2019). Hasta las unidades de investigación de seguridad se preocupan por estos contenidos, pues tienen efecto en la realidad (Campillo 2021): amenazan la sociedad humana y la democracia, al influir en la percepción de la gente para la toma de decisiones (García-Ull 2021).

Segundo, la mentira crece exponencialmente. Las imágenes hiperrealistas son difíciles de desmentir; su propagación y distribución es tan rápida que luego es difícil borrar ese contenido (Wagner y Blewer 2019). Además, quedan en manos de cualquier usuario, incluso por fuera de la red, en dispositivos privados.

Tercero, los controles de las plataformas no avanzan: por más que el video sea detectado como deepfake, no es eliminado (Campillo 2021), porque hay demora y dificultad de desmontar las copias una a una.

Al momento, la situación negativa sobrepasa la barrera legal y hay impunidad (Cerdán, García y Padilla 2020). Las miradas pesimistas consideran que los deepfakes se usarán cada vez más para la pornografía de venganza, el acoso, como evidencia falsa en los tribunales, para el sabotaje político, la propaganda terrorista, el chantaje, la manipulación del mercado y las noticias falsas (García-Ull 2021).

Metodología

El objetivo de este artículo es debatir críticamente los usos instrumentales de la IA para la creación de contenidos visuales manipulados, de carácter sexual. Algunas preguntas guiarán el trabajo: ¿cuál es la matriz cultural pornográfica que llega hasta el ultrafalso con lógicas de cosificación?, ¿cuáles son las apropiaciones de estas tecnologías desde las juventudes?, ¿cómo la diversión en la crueldad se expande mediante enjambres digitales?, ¿cómo las lógicas del cinismo del neoliberalismo son parte del contexto del uso de la IA?, ¿qué acciones se pueden desplegar desde la ciberética como propuestas para combatir el deepfake dañino?.

Esta investigación tiene un enfoque cualitativo, pues acude a una perspectiva interpretativa sobre el caso de análisis, no es experimental y responde a un enfoque sociocrítico. Es correlacional (Hernández Sampieri, Fernández y Baptista 2014) para poner en discusión las categorías de las interrogantes planteadas en el anterior párrafo.

El orden lógico de realización del artículo comenzó con el análisis bibliográfico, al revisar en repositorios los artículos científicos referentes al deepfake, abordados desde la comunicación y las ciencias sociales y humanas; estos tienen mayor presencia en idioma inglés y su debate ha sido más extenso. También existen manuscritos en castellano, sobre todo con investigaciones de España que vienen desde el año 2019. Por otro lado, se registró una escasez de publicaciones acerca de esta temática en Ecuador. Con los escritos se desarrolló una revisión analítica y sintética para recoger los aportes que contribuyeran a reconstruir la historia, la conceptualización, la taxonomía y los debates sobre el uso del deepfake-.   

En la investigación documental, se recopilaron noticias sobre el ultrafalso en el ámbito educativo y en páginas de medios de comunicación de otros países. Se encontraron casos en EE. UU., España, Brasil y Perú. Para el análisis de caso planteado sobre las imágenes y videos pornográficos creados por estudiantes colegiales de Quito, se procedió a una revisión documental de noticias publicadas en páginas web u otras plataformas como YouTube:

Tabla 1 . Noticias y entrevistas sobre el caso de deepfake en medios

Elaboración propia

Para complementar, confirmar y contrastar información, se llevó a cabo una entrevista semiestructurada con la abogada Sybel Martínez, de la Fundación Grupo Rescate Escolar, quien contribuyó en el seguimiento de la situación con padres de familia. También se entrevistó a la madre de una estudiante víctima de deepfake (cuya identidad se reserva para no afectar los derechos de la adolescente ni limitar la libertad de expresión) con el fin de ampliar la información sobre lo que ocurrió entre los padres y el colegio.

Tanto en la revisión documental como en las entrevistas se indagó sobre quiénes eran los actores involucrados y sus acciones; las víctimas; el uso de la tecnología para construir los videos e imágenes ultrafalsos y fomentar su propagación; el estado del caso judicial y las acciones tomadas desde el ámbito educativo; además de criterios sobre propuestas para las políticas públicas ante este fenómeno, entre otras cuestiones. Una limitación fue que no se pude obtener información judicial sobre el caso, debido a que -hasta el momento de redacción de este artículo- se encontraba en investigación previa.

Las entrevistas fueron transcritas para una revisión analítica. A partir de todos esos elementos se seleccionaron los datos que permitieron reconstruir la historia de este caso de deepfake, y se los puso bajo análisis.

Matriz cultural pornográfica y la mujer como objeto

La representación de imágenes sexuales ha estado en todas las culturas humanas. Por ejemplo, las esculturas de diosas de la lujuria y la fertilidad representaban, en sociedades antiguas, contenido erótico en arte visual (Varnet y Cartes 2021). Desde la Edad Media se volvió tabú y las represiones sexuales se expandieron. Pinturas e ilustraciones crearon esas imágenes, pero distintos regímenes las prohibieron.

En el siglo XX, desde los años 60 y 70, con el capitalismo, esa representación se fortaleció y se consolidó como mercado. En los años 80, con la reproductibilidad del VHS y su ingreso a los hogares, la sexualidad se tornó espectáculo en una industria cultural subterránea para estimular espectadores y normalizar su consumo, como indica Beatriz Preciado, porque la pornografía es un dispositivo visual masturbatorio literario, audiovisual y cibernético (en Egaña 2009). Desde los años 90, o antes, empiezan a registrarse en Ecuador los teatros porno; hasta la actualidad algunos sitios mantienen el acceso a bajo costo. La masividad también ocurría en medios impresos, como la revista Playboy y otras -también de circulación popular- con contenido sexual explícito.

Cuando la tecnología cambió, la pornografía giró hacia los nuevos dispositivos; por ejemplo, el DVD pirata, con acceso mediante alquiler o por medio de su compra a USD 1. Con la llegada de internet, las producciones empezaron a mundializarse rápidamente en las páginas web. Los usuarios también se hicieron productores y hoy suben sus propios videos a esos sitios. Existen plataformas en las que se pueden comprar videollamadas por streaming o servicios VIP, con suscripciones en OnlyFans, para obtener productos, incluso personalizados. Estas producciones pornográficas están accesibles en todas las pantallas de forma instantánea, con acceso individualizado en dispositivos. Alcanzaron ubicuidad, rompieron barreras de espacio y tiempo de consumo, almacenamiento, propagación, hasta llegar a la IA, que produce imágenes pornográficas falsas, actos que nunca existieron.

Una postura reivindica la pornografía como forma de empoderamiento, expresión y libertad sexual, indica que el sexismo y la misoginia no proceden de ella, sino de la sociedad patriarcal; por ello, impulsa un posporno o una pornografía feminista. Otra tendencia es la abolicionista, que alega que la pornografía refuerza el modelo de masculinidad hegemónica y reprime la sexualidad de los cuerpos feminizados, los cuales son hipersexualizados, mercantilizados y cosificados. La pornografía se ubica en sistemas culturales con reapropiaciones, pero en su uso hegemónico y mayoritario reproduce desigualdades con categorías dicotómicas: dominación-subordinación, sujeto deseante-objeto deseado, individuación-deshumanización (Criado 2022).

Uno de los puntos más nombrados es el de la cosificación. Su debate proviene desde Marx para indicar que, en un mercado, el objeto domina al sujeto y lo constituye. El intercambio de mercancías se produce entre sujetos convertidos en cosas, ya no entre personas. Andrea Criado (2022) indica que en la pornografía se produce una cosificación sexual y una deshumanización: el cuerpo de una mujer se vuelve un instrumento para conseguir un fin; sus piezas corporales sirven para la satisfacción del deseo masculino.

La IA generativa llega en un tiempo de capitalismo de datos y economía de la atención en que la pornografía busca el consumo masculino, está entre las páginas más vistas del mundo y monetiza sus videos. Es un manejo político de la imagen sometido a nuevas lógicas de producción, distribución y consumo:

Cualquier avance en las imágenes visuales surge con los deseos del consumo masculino heterosexual y cisgénero a la vanguardia y estos deepfakes no son diferentes […], mostrando el deseo de colocar a las mujeres, famosas o no, en posiciones de explotación no consensuada, a menudo de naturaleza sexual. (Wagner y Blewer 2019, 38)

Según el estudio State of Deepfakes 2023, de Home Security Heroes (que revisó 85 plataformas), del total de producciones ultrafalsas, el 98 % es pornografía; esta aumentó 464 % (de 3725 a 21 019) entre 2022 y 2023. El 99 % de víctimas son mujeres, y el 53 % de videos está hecho sobre cantantes y actrices famosas (Bigas 2023).

Nuestro caso de estudio, en cambio, ocurre en el ámbito escolar. Dos estudiantes hombres crearon con sus dispositivos y aplicaciones de IA más de 700 videos y fotos pornográficas de al menos 24 estudiantes mujeres colegiales (al momento no se conoce el número certero de víctimas).

Este apartado se centra en las condiciones de producción del deepfake. El primer ámbito es su facilidad de acceso. Los estudiantes tuvieron acceso a esa herramienta sin complejidades, no hubo límites en el tipo de uso y así desarrollaron audiovisuales con montajes de rostros en imágenes pornográficas. El ultrafalso se remite a la vida en la cotidianidad, ya no a famosas o personajes de élite de la industria cultural; entonces, las afectaciones se expanden a las comunidades cercanas de convivencia.

Es una época de hiperreproductibilidad digital, con hiperindustrias. Las posibilidades de simulación y manipulación de un contenido son infinitas; la idea del “aquí y ahora” cambia, son otros tiempos y lugares mixeados, alterados, falseados: las estudiantes no son quienes protagonizaron esas imágenes sexuales en el video original. El deepfake con la aplicación de imágenes y sonidos busca “umbrales de excitación cada vez mayores” (Cuadra 2015, 103), aprovechándose de las identidades de otras sin su consentimiento.

La cantidad de audiovisuales producidos no es menor: más de 700 imágenes y videos, como fragmentos, ya no grandes obras, sino para un consumo rápido. Esto muestra una noción deliberada de ejercer productos dirigidos únicamente contra la mujer como objeto. La representación de roles, espacios y cuerpos construye subordinación: lo femenino es controlado, negado, renegado y sobre todo tutelado en el modelo patriarcal y civilizatorio (Vega 2018) que se reproduce en los deepfakes y -citando ideas de John Berger- en el consumo visual, que ha estado para

cosificar los roles masculinos de mirar y obtener el objeto que miran. Históricamente, esto significó que el cuerpo femenino se convirtió en el tema de esta mirada y solo podía cumplir funciones mediante las cuales se aseguraba la comodidad masculina ante la audiencia. (Wagner y Blewer 2019, 35)

Algunas consecuencias son la ridiculización de la mujer, un mensaje que causa vergüenza, sensación de humillación y estigma: “Mientras que, para los hombres, alardear de sus conquistas sexuales ha sido siempre un símbolo de masculinidad […], las mujeres objeto de esas conquistas se han visto expuestas a la vergüenza pública” (Bigas 2023, párr. 9).

La tabla 2 muestra esa forma dicotómica de construcción de la representación:

 

Tabla 2. Representación de lo femenino y masculino con deepfake

 

 

Elaboración propia a partir de Cerdán y Padilla (2019, 516-7).

 

Juventudes y uso de tecnologías

Se reiteran algunos elementos del relato para profundizar su análisis sobre los productores, las víctimas, su entorno inmediato y su relación con la tecnología: quienes crearon el deepfake y las afectadas son estudiantes adolescentes de un colegio católico y particular. Se crearon audiovisuales con contenido pornográfico, mediante la utilización de tecnología de IA. ¿Cómo recopilaron imágenes para alimentar a esta tecnología? De dos formas: tomaron fotos de las estudiantes y descargaron imágenes de sus perfiles en redes sociales (Martínez 2023, entrevista personal).

Existen otros casos con similitudes. En agosto de 2023, dos estudiantes de un colegio de Perú crearon imágenes ultrafalsas pornográficas de sus compañeras, también con fotos obtenidas de sus perfiles en plataformas; la finalidad era la venta de esos contenidos (Infobae 2023). En Brasil, se reportaron dos casos en noviembre de 2023: uno fue en Río de Janeiro, con veinte adolescentes víctimas; en Recife, las afectadas fueron 40 estudiantes mujeres entre trece y catorce años, y cuatro alumnos fueron los responsables (Soares 2023). En Nueva Jersey, EE. UU., se repitió el hecho, con 34 víctimas (McNicholas 2023). Y en España, en el caso de Almendralejo, hubo al menos veintidós denuncias por imágenes pornográficas deepfake de adolescentes entre doce y catorce años, creadas por sus compañeros de curso y luego difundidas mediante WhatsApp y Telegram (Cenizo 2023).

El primer punto es que se trata de juventudes que son susceptibles a los cambios históricos. Poseen características, comportamientos, horizontes de posibilidad y códigos culturales muy diferenciados por su heterogeneidad (Margulis 2001), aunque también hay coincidencias de acciones, incluso dañinas, como los casos de deepfake descritos en distintos contextos. Las juventudes socializan más allá del ámbito familiar, con otras comunidades interpretativas y múltiples mediaciones. La sexualidad suele aprenderse desde la pornografía al ser aún un tabú en muchos sitios. La “escuela del porno” (Roldán 2022) exhibe relaciones de pareja con desigualdad, una suposición de superioridad del varón. Además, idealiza la excitación de lo prohibido, modula un imaginario o deseo, muestra acciones sin emociones y sin comunicación.

En segundo lugar, el marco institucional y el contexto inmediato de interacción es el colegio. En esa entidad se conocieron los estudiantes, se tomaron fotografías para alimentar a la IA, se propagó el contenido con otros actores internos y se produjeron los litigios posteriores. Los estudiantes creadores del ultrafalso mostraron, en sus prácticas, sus esquemas de percepción. Es un habitus atado a estructuras que motivan masculinidades hegemónicas que procuran ser dominantes sobre lo femenino y los cuerpos feminizados, sin descartar que puedan producirse rupturas de ese habitus en otros casos, con reapropiaciones críticas de esas tecnologías y concepciones de género.

Una memoria personal de 2003-2004 coincide con ese habitus, aunque con otras formas, debido al contexto: al cursar los primeros años de la secundaria, en un colegio católico y fiscomisional de Riobamba (Ecuador), un grupo de estudiantes creó un cuaderno de dibujos pornográficos en el que representaba a algunas de sus compañeras, ridiculizándolas y mostrándolas también como objeto sexual. Varios de los alumnos hombres no participaron, pero tampoco reclamaron nada; las estudiantes y sus representantes sí lo hicieron ante las autoridades del colegio.

Tercero, se establece una relación entre tecnología y estudiantes. Los dispositivos y las aplicaciones fueron usados por los colegiales para crear el deepfake, para su distribución y circulación, al igual que como pantalla de consumo. En este caso, las autoridades del colegio quitaron el teléfono celular a un estudiante creador del ultrafalso, dispositivo al cual se vio como instrumento determinante, sin conocer si se usaron otros para ese propósito (madre de familia 2023, entrevista personal; Martínez 2023, entrevista personal).

Las plataformas y los dispositivos conllevan una economía de la atención monopolizada. Para Éric Sadin (2018), el smartphone participa en la individualización de las personas: una conexión sin distinción de tiempo y espacio para producir, distribuir o consumir, en este caso, el deepfake. Es un instrumento de asistencia de vida y aceleración de operaciones (descarga de imágenes, videos y montajes automatizados de rostros); permite la virtualidad del sujeto y construye una realidad aumentada, otras formas de percibir la realidad (las imágenes aparentan ser verídicas aunque sean escenas que no existieron en lo factual). Para el autor francés, esto es una integración potenciada de cualidades de lo digital para una sensación de autonomía y fácil accesibilidad.

Cuarto, se produce una vulnerabilidad de las juventudes ante los deepfakes, debido al entorno normalizado de un “espectáculo del yo” como lógica de las subjetividades contemporáneas (Sibilia 2008). Se exponen las autorrepresentaciones fotográficas de su cuerpo, que suele ser el primer plano de apreciación de la condición de juventud (Margulis 2001) como objeto de diseño y culto. Los usuarios juveniles son productores, narradores de sus vidas, indica Sibilia, para exponer sus imágenes de cada actividad, de su familia, su entorno y sobre todo de sí mismos en sus perfiles. Es una “extimidad” con autoficción que busca elogio e interacción con los otros; el espectáculo es el modelo de vida socialmente dominante (Debord 2012) en un entorno expandido por la digitalidad.

En el caso indagado, se configura la representación pornográfica del cuerpo de la mujer con una superposición de rostros de adolescentes mediante un mundo de aplicaciones “inteligentes”, como diría Sadin, alimentadas por imágenes. En este caso, las imágenes se obtuvieron de las plataformas, por lo que la ilusión de libertad como narradores de sus vidas se ve subsumida por las lógicas del ultrafalso, que se apoderan de esos datos y los reutilizan para fines crueles. Como indica Will Knight, el deepfake no tardará en convertirse en una potente herramienta de ciberacoso y acoso escolar (en Campillo 2021), además de los casos de ciberbullying, sextorsión, grooming, suplantación de identidad, stalking, entre otros, que ya existen.

Enjambres digitales: diversión en la crueldad  y públicos colegiales

En este apartado se discuten la circulación y la propagación del deepfake, que se conectan con los productores y usuarios. El relato en los medios y las entrevistas recopiladas indican que algunas estudiantes afectadas por el deepfake fueron alertadas por sus compañeros de que existían esos videos; ellas avisaron a sus padres y a las autoridades del colegio tras reconocer sus rostros, como montaje, en los videos pornográficos ultrafalsos. Significa que los audiovisuales fueron compartidos a alumnos de ese colegio, pero al momento no se sabe a quiénes, cuántos ni cómo (mediante qué plataformas, si en grupos o de forma individual), a pesar de que el colegio retiró el celular solo a uno de los dos estudiantes implicados y después empezó la investigación judicial en Fiscalía (Martínez 2023, entrevista personal).

Lidia Ferrari (2016) escribió que la diversión en la crueldad es una experiencia sádica sobre el otro porque ejerce violencia para controlarlo. Se crea un espectáculo bajo lógicas masculinas de dominio, ya que quien fabrica el deepfake se dibuja una aureola de superioridad por disponer a su voluntad de otros, en este caso mediante el control de videos pornográficos alterados.

El deseo sádico, como muestra Ferrari, va desde las bromas del Renacimiento, con la beffa; pasa, a inicios del siglo XX, por el titeo y los fumistas en Argentina[i]  y luego llega a la televisión de los años 90 con la cámara oculta de Videomatch, una producción de Marcelo Tinelli. En tiempos de internet, el video conocido como “La caída de Édgar” -en el que unos adolescentes hacen sufrir, llorar y caer al agua a su compañero Édgar mientras intenta cruzar por dos troncos- fue el primero en viralizarse en YouTube. Ahora, la diversión en la crueldad ocurre mediante la IA, al elaborar contenidos ultrafalsos. Así, el deseo sádico se satisface: los creadores de los deepfakes son sus primeros consumidores, al haber escogido los videos pornográficos originales y luego revisar los falseados.

La digitalización cambió el circuito comunicacional, al permitir la fijación y el almacenamiento de los contenidos mediante bytes que pueden ser alterados, mixeados, reproducidos y propagados. Es tiempo de una circulación infinita mediante una hiperreproductibilidad técnica (Cuadra 2019) en una sociedad red, con reticularidad en sus formas de producción, distribución y consumo.

En la red, los usuarios se comportan como un enjambre digital. No es una masa, porque no forma un “nosotros” con alma o espíritu que los congregue y unifique; es un ruido diverso y no una voz unísona, no se junta permanentemente, pierde lo común y lo comunitario, la solidaridad (Han 2014). Cuadra (2019, 10-1) conceptualiza al enjambre digital como

una aglomeración de “usuarios” carentes de cualquier sentido gregario; individuos aislados (hikikomoris). No obstante, y a pesar de esta desintegración de “lo público” en las redes digitalizadas, se puede observar que ante determinadas circunstancias un “enjambre” es capaz de aglomerarse en torno a un suceso que llamaremos “trending topic”.

Cuadra indica que ocurre un comportamiento ondulatorio: los usuarios aislados a momentos se aglutinan de forma efímera y superficial ante una tendencia, se dispersan, forman otros enjambres y vuelve a repetirse el proceso¿Cómo actúa el enjambre? La primera forma es como masa-red, indica Cuadra, una reproducción o un mero reflejo de la tendencia sin mayor criticidad.

La diversión en la crueldad cobra reticularidad y los usuarios actúan en forma de masa-red, propagando los videos deepfake y haciendo extensivo ese sufrimiento de las víctimas. Es un ritual digital en el que esos usuarios toman una actitud de superioridad al identificarse con quien castiga (Ferrari 2016) -es decir, los creadores del deepfake- y siguen propagando los videos para agrandar su “nosotros” efímero. Otra opción es que produzca un goce sádico del maltrato audiovisual, al ver el montaje de los rostros en otros cuerpos; esto, atado a las masculinidades hegemónicas y una noción patriarcal.

Las estudiantes pueden ser afectadas por una masa-red, como pasó en los ejemplos citados de otros países. En nuestro caso, la incertidumbre de los padres de familia es esa, pues no se conoce con certeza hasta quiénes llegaron esos contenidos. La madre de familia entrevistada cuenta que, al momento, no tuvieron una propagación mayor que el entorno inmediato del colegio, porque se quebró ese goce sádico y la formación de esa masa-red cuando algunos estudiantes, en vez de seguir compartiendo el contenido, alertaron a las víctimas y frenaron la propagación, retomando la solidaridad con el otro. Sin embargo, las pericias correspondientes deben determinar qué pasó.

También hubo reacciones colectivas. Los alumnos del mismo colegio se organizaron, difundieron un comunicado y se movilizaron en una marcha para apoyar a sus compañeras y buscar una respuesta de autoridades de la entidad educativa. Este comportamiento es el que Cuadra (2019) llama público-red, en el que los usuarios fomentan la ruptura de tendencias dañinas y se comportan como multitudes inteligentes o redes democratizantes que interrumpen relaciones de dominio, aunque también de forma momentánea y volátil. Las presiones de los estudiantes, de los padres y del Grupo Rescate Escolar, además de la mediatización del caso, expandieron ese público-red de manera crítica, en medios tradicionales y en plataformas digitales.

Lógicas del cinismo, neoliberalismo y lo ultrafalso

En el suelo cultural en que se desarrollan el deepfake y la diversión en la crueldad está el cinismo. Cinismo, según la RAE, es la “desvergüenza en el mentir en la defensa o práctica de acciones o doctrinas vituperables”, mientras que cínico es aquel que insiste en su mentira: aunque sepa que es falso no tiene afán de ocultarlo, sino de expandirlo. Esto se ata al ideario neoliberal, que impulsa una idea de supuesta libertad, del todo vale, de la estimulación del “yo” sobre el “nosotros”. Por eso el “yo quiero” (engañar y mentir sobre el otro, en este caso) es el modelo de conducta y patrón de racionalidad que se ha hecho socialmente aceptable, al evadir el respeto e incluso legitimar formas inéditas de violencia (Sibilia 2023).              

Las formas que había para establecer certezas y consensos han cambiado. Las nuevas bases morales que intervienen para construir las subjetividades llevan información falsa, negacionismos y deepfakes para relacionarnos con los otros y el mundo y así definir lo verdadero y lo falaz.

En el caso de estudio, algunos padres de familia se reunieron, preocupados por el daño contra sus hijas. Algunos prefirieron bajar el tono de la situación, otros pidieron a sus hijos que no intervinieran, deslegitimaban a las víctimas presumiendo su culpabilidad, según narró una madre de familia. La actuación del colegio fue tardía, indica Sybel Martínez. En un inicio trató de resolverlo mediante el código de convivencia de la institución y no se aplicó inmediatamente el protocolo contra la violencia digital. El Grupo Rescate Escolar denunció el caso en la Junta Metropolitana de Protección de Derechos de la Niñez y Adolescencia porque varios padres de familia se sentían dubitativos y no querían presentar la queja.

Luego de una semana, el colegio colocó el proceso ante el Ministerio de Educación, tras la presión de estudiantes, padres, el Grupo y la mediatización del caso. Según la madre entrevistada, no hubo mayor posibilidad de diálogo con las autoridades ni reuniones para profundizar en qué había pasado. Incluso afirma que el colegio -con su postura y sus comunicados- intentó contraponer posiciones y buscó deslegitimar el reclamo de los padres. Mientras, la Fiscalía abrió una investigación de oficio al enterarse.

El cinismo se evidencia en cadena. Los creadores del ultrafalso y quienes compartieron el material pornográfico enfatizan la mentira y propagan las lógicas patriarcales. La pornografía con deepfake es querer optimizar a la mujer para explotarla simbólica y económicamente. Es un manejo político de la imagen. El deseo de poseer a la mujer en lo fáctico se extiende a lo comunicacional; ahora también quieren controlarla en su representación alterada, verosímil y forzosa con IA. Los dos estudiantes implicados fueron retirados del colegio de forma voluntaria por sus padres; ahí volvieron la culpa, la vergüenza y el arrepentimiento, porque sabían que lo hecho estaba mal (Sibilia 2023).

El cinismo de algunos padres de familia aparenta un goce masoquista del humillado (Ferrari 2016), pues bien sabían que las estudiantes eran víctimas, pero prefirieron omitirlo, es decir, dejaron que la mentira circulara sin problema alguno, que el sufrimiento permaneciera latente, que se reprodujeran lógicas patriarcales y hubiera un manejo dañino de la tecnología. Pasó lo mismo con el colegio como institución: en un inicio defendió su imagen y legitimidad (madre de familia 2023, entrevista personal; Martínez 2023, entrevista personal); su “yo” como entidad particular por encima de lo que le ocurriera a las víctimas. En las plataformas, por su falta de control y regulación, la mentira circula y se propaga, mientras la economía de la atención sigue siendo su modelo de negocio para monetizar y explotar la supuesta libertad de mostrar las subjetividades y los datos personales ante otros.

Ciberética, políticas y accionar en el campo educativo  ante el deepfake

El ejercicio ético reflexiona sobre nuestra moral, que guía comportamientos y normas. La ética aplicada a la red impulsa límites frente a conductas lesivas. Su propósito es que “sin renunciar a las bondades que trae la tecnología el ser humano, [este] sea consciente de sus riesgos, de sus peligros y haga de ella el mejor uso sin cosificarnos e intentando mantener el control” (Campillo 2021, 91). Las preguntas deben cambiar del “¿qué puedo hacer con la tecnología?”, que se guía por una concepción instrumental y técnica, hacia el “qué consecuencias habrá”, señala Campillo.

Y, junto con la reflexión, es necesario preparar a los usuarios para que interactúen con la tecnología ahora y en el futuro, tomando habilidades, consciencia crítica y de justicia social sobre sus usos, que no siempre traen progreso. También se requieren políticas públicas que acompañen desde el Estado y acciones de la ciudadanía para impulsar regulaciones, guías y más medidas ante el fenómeno del deepfake.

En Ecuador se oficializó en septiembre de 2023 el “Protocolo de atención frente a situaciones de violencia digital detectadas en el Sistema Nacional de Educación” (EC Ministerio de Educación 2023). Semanas después ocurrió este caso y la aplicación del protocolo demoró (madre de familia 2023, entrevista personal; Martínez 2023, entrevista personal), lo que contradice al documento, pues en él se indica que el informe debía presentarse inmediatamente. Por ello, el Grupo Rescate Escolar activó denuncias en la Junta Cantonal de Protección de Derechos, y la Fiscalía inició la indagación de oficio, por iniciativa propia.

La madre de familia indica que el colegio implicado, luego de las denuncias por los ultrafalsos, desarrolló en las aulas un taller de ciberacoso sobre protección de la imagen de los estudiantes y los cuidados en plataformas y redes sociales. En el caso del deepfake de Perú, la reacción desde el colegio fue mantener en clases virtuales a los responsables mientras se llevaban a cabo las investigaciones del Ministerio de Educación y la Fiscalía; además, el Ministerio de la Mujer se pronunció en contra del hecho (Infobae 2023). En Recife, Brasil, el colegio tomó medidas “sociodisciplinares” y la policía investigó (Soares 2023). También se habla de cursos de concienciación posteriores a la detección de los ultrafalsos.

Son medidas reactivas, pero que muestran una falta de prevención, así como la necesidad de una educación digital y sexual integral, afirma Sybel Martínez (2023, entrevista personal). Se requieren estrategias conjuntas para combatir a los ultrafalsos, como dice García-Ull (2021, 118): “[I]mplica una combinación de avances legales, educativos y tecnológicos y, por supuesto, la implicación de actores gubernamentales, académicos y científicos”, a la cual se añaden más elementos y alternativas:

1.                      Legislación y regulación jurídica. Al deepfake se lo ha tratado con base en delitos existentes como difamación, suplantación de identidad o falsificación, indica García-Ull, y también como un delito contra los derechos a la propia imagen y al honor, o derivado de la injuria o los delitos de odio. Al ser escenas pornográficas, atentan contra la vida privada y lesionan la dignidad de la persona (Cerdán y Padilla 2019).

Vale advertir sobre el riesgo de caer en una visión punitivista, esto es, solo penalizar sin desarrollar políticas integrales con una fuerte prevención. También se debe evitar coartar libertades o llegar a la censura deliberada (Campillo 2021). Para ello es necesario fijar taxonomías que contribuyan a identificar los ultrafalsos dañinos. En Ecuador, la Ley de Educación Intercultural obliga a implementar mecanismos de prevención y reparación ante la violencia digital, algo incorporado por impulso de grupos de la sociedad civil.

2.                      Políticas públicas, iniciativas del gobierno en conexión con ciudadanos y eficiencia en su implementación y seguimiento desde el Estado. En el protocolo emitido por el Ministerio de Educación se habla de prevención, detección de situaciones de vulnerabilidad, intervención de entidades, derivación a redes de apoyo internas y externas a la institución, seguimiento y atención psicosocial, así como de reparación para lograr el bienestar del estudiante. Se requiere la constante actualización de esos documentos para contemplar qué hacer ahora, por ejemplo, con la IA y el deepfake.

3.                      Concienciación de políticas corporativas (García-Ull 2021) de plataformas para establecer normas severas y de prevención que prohíban la pornografía y el deepfake no consentidos. En caso de que no colaboren, se puede quitar a las plataformas incentivos económicos, prohibir cuentas o formas de obtener ingresos, todo con regulación en cada país (Wagner y Blewer 2019). Algunas plataformas ya lo hicieron desde un plano deontológico al rechazar la violencia creíble, la incitación al odio, la promoción de fraudes y los contenidos sexuales (Cerdán y Padilla 2019).

4.                      Educación y sensibilización para construir consciencia sobre las amenazas del ultrafalso. Significa enfatizar en sentidos críticos sobre el contexto sociocultural y su relación con las tecnologías, con discusiones sobre la construcción de la realidad y de las subjetividades, sobre la explotación de datos por parte de las plataformas, las representaciones visuales falseadas y otros temas. Es relevante la prevención del sufrimiento y sus consecuencias en la salud mental. Se busca una buena calidad de vida estudiantil y no ansiedad, depresión, autolesiones y hasta suicidio de víctimas de los ultrafalsos.

5.                   Alfabetización en pautas de detección y herramientas tecnológicas. Es necesaria una capacitación en la parte operativa ante el deepfake, mantener un control emocional y no propagar contenidos automáticamente. Aquí, un listado de elementos que pueden revisarse de forma manual o con softwares especializados para autenticar los contenidos: parpadeo irregular, dirección anormal de mirada, desenfoque en cuello y boca, distorsión del rostro, unión no natural de la cara con el cuello, posiciones anormales del rostro, deformidad en gestos, sombras, brillos, reflejos y luces intermitentes (Campillo 2021). También, al examinar versiones anteriores de imágenes usadas, se debe revisar las imágenes en cámara lenta para detectar saltos y borrosidades e identificar voces artificiales (Cerdán y Padilla 2019).

Estos softwares deberían ser de uso abierto, con accesibilidad y usabilidad para que se incluyan en el aprendizaje educativo. La contrastación con fuentes confiables también es importante, así como denunciar a los responsables o alertar a las víctimas sobre este uso no consentido, indica Campillo.

Discusión y conclusiones

La desinformación es un fenómeno ubicuo, reticular, multilenguaje y cada vez con más herramientas que causan una mayor ilusión de realidad. Los ultrafalsos se esparcen en lo cotidiano y podrían derivar en una desvinculación extendida de percepciones y realidades, que niegue paradójicamente el valor de evidencia que poseía lo visual (Gómez de Ágreda, Feijóo y Salazar 2021).

La técnica desarrolla una superioridad cognitiva (Sadin 2018) pero dañina debido a muchos de sus usos instrumentales; por ello es necesaria una postura crítica para lograr su reapropiación en otras causas y cuestionar las estructuras que lo sostienen y agrandan. El deepfake, como parte de la IA, marca un paso en los cambios de sensorium, porque los sentidos ya no son suficientes para captar si algo es real o no; tenemos que valernos de otras aplicaciones de la técnica, además de un sentido cuestionador, para develar lo que esta construyó como falsedad.

Los deepfakes son un dispositivo usado para generar violencia de género y violencia audiovisual, al momento en que los usuarios los aplican con nociones patriarcales y montajes pornográficos de la mujer como objeto, como en este caso, de estudiantes que son parte de comunidades escolares. Así “se confirma como una herramienta peligrosa y terrible para atentar contra la imagen de las mujeres” (Cerdán y Padilla 2019, 517), en la que se las capitaliza y cosifica, creando una existencia digital falsa y forzada bajo la que se las posee como vidas pornificadas.

Las juventudes son parte de este habitus, de modo que son necesarios una reflexividad y procesos de enseñanza-aprendizaje críticos para construir otras subjetividades fuera de las masculinidades hegemónicas. Las instituciones educativas son espacios de interacción, puesta en escena y disputa de sentidos sobre estas nociones de género, en las que también se registra el potencial de consciencia cuestionadora de los estudiantes ante los ultrafalsos pornográficos, incluso con rescate de solidaridad. El punto es no subestimar a las juventudes como si tuvieran una totalidad pasiva o “de cristal”, como se las suele tratar.

La diversión en la crueldad, descrita por Lidia Ferrari (2016), es un fenómeno cultural que ejerce lógicas de superioridad y control sobre el otro para un disfrute sádico individual y colectivo. Se transforma y se vuelve hipermediática con el deepfake, sigue inserta en las pantallas y tecnologías que aparecen, incluso profundiza y propaga su existencia en enjambres digitales por su fácil accesibilidad, elección de contenidos y un disfrute de consumo sin restricciones de tiempo y espacio. La crueldad hace que el control sea ahora sobre las vidas infotecnológicas (Costa 2021), sobre su existencia imitada en lo digital, que configura sin consentimiento la imagen como otredad; en este caso, representándola como poseída por los deseos masculinos y pornográficos.

El cinismo devela que, como lógica del contexto neoliberal, no expande libertades sino autoritarismo sobre los otros. Los distintos actores la ejercen desde sí como individuos, a escala familiar o en instituciones educativas, hasta indicar que la sociedad cobra rasgos cínicos porque se vuelve una práctica expandida que admite e insiste en la mentira con la creación, la circulación, la propagación y el consumo del deepfake pornográfico, es decir, la explotación normalizada del otro mediante su imagen. Sin embargo, no es una lógica absoluta o única, pues vale rescatar iniciativas solidarias y en relación con los otros que se desarrollan en comunidades para una convivencia distinta.

El caso de deepfake en cuestión permitió discutir el que sería el primero en Ecuador en ser denunciado y analizar el rol diverso de los creadores de los ultrafalsos, comunidades de propagación, víctimas, padres de familia, la entidad educativa, el Ministerio de Educación y la sociedad. La limitación fue no tener los detalles de cómo se produjeron los ultrafalsos, la aplicación específica que habilitó su creación, el total de víctimas, las formas de distribución y los dispositivos de almacenamiento, pues el caso aún estaba en investigación previa en Fiscalía al momento de realización de este artículo.

El Estado, con sus diversas instituciones y sus políticas, debe estar preparado para acciones integrales de prevención, atención e incluso sanción ante los ultrafalsos. Las plataformas, así como se aprovechan de esa economía de la atención para monetizar a costa de las subjetividades del resto, requieren procesos de regulación potentes para evitar que este tipo de contenidos pulule en ellas. Las entidades de educación deben ejecutar acciones preventivas para comprender críticamente las culturas digitales contemporáneas, mientras los estudiantes y padres de familia ejercen sus derechos ante eventuales nuevos episodios de ultrafalsos y otras afectaciones que ocurren en la digitalidad. Son épocas en que discutir qué es o no real se vuelve imperante. Queda por motivar una lucha directa contra la falsedad para evitar riesgos democráticos y más afectaciones de las que ya sufren los sujetos sociales.

Referencias

Andino Veloz, Byron, y Eduardo Andino Espinoza. 2022. “Imaginarios desde la distopía: Política, tecnología y públicos en Black Mirror”. Uru. Revista de Comunicación y Cultura 6: 22-38. https://doi.org/10.32719/26312514.2022.6.2

Bañuelos, Jacob. 2020. “Deepfake: La imagen en tiempos de la posverdad”. Revista Panamericana de Comunicación 2 (1): 51-61. https://doi.org/10.21555/rpc.v0i1.2315.

Bigas, Núria. 2023. “Deepfakes pornográficos: Cuando la IA desnuda tu intimidad y vulnera tus derechos”. Universitat Oberta de Catalunya. 2 de noviembre. https://tinyurl.com/mv3t9d2j

Campillo, Beatriz. 2021. “De las fake news a las deepfakes: Nuevos retos para la ciberética”. Anuario Colombiano de Filosofía 2 (2): 89-106. https://tinyurl.com/yc3wcw45

Cenizo, Néstor. 2023. “Los identificados por los ‘deepfakes’ sexuales de Almendralejo, que acumulan ya 22 denuncias, tienen entre 12 y 14 años”. elDiario.es. 20 de septiembre. https://tinyurl.com/4xd5m2ux

 Cerdán, Víctor, María Luisa García, y Graciela Padilla. 2020. “Alfabetización moral digital para la detección de deepfakes y fakes audiovisuales”. CIC. Cuadernos de Información y Comunicación 25: 165-81. https://doi.org/10.5209/ciyc.68762

 Cerdán, Víctor, María Luisa García, y Graciela Padilla y Graciela Padilla .,. 2019. “Historia del ‘fake’ audiovisual: ‘Deepfake’ y la mujer en un imaginario falsificado y perverso”. Historia y Comunicación Social 24 (2): 505-20. https://doi.org/10.5209/hics.66293

Costa, Flavia. 2021. Tecnoceno: Algoritmos, biohackers y nuevas formas de vida. Buenos Aires: Taurus.

Criado, Andrea. 2022. “La representación de la mujer en la pornografía desde una perspectiva de género: Un análisis global”. Journal of Feminist, Gender and Women Studies 1 (12): 52-80. https://doi.org/10.15366/jfgws2022.12.004

 Cuadra, Álvaro. 2015. “La obra de arte en la época de su hiperreproducibilidad digital”. Textos y Contextos 16: 89-117. https://doi.org/10.29166/tyc.vi16.1326

Cuadra, Álvaro. 2019. El príncipe posmoderno. Quito: Ciespal.

Cuadra, Álvaro.2021. Tecnopolítica: Mediaciones & mutaciones. Quito: Universidad Central del Ecuador. https:// tinyurl.com/32fvxjab

Debord, Guy. 2012. La sociedad del espectáculo. Buenos Aires: La Marca.

EC Ministerio de Educación. 2023. “Se presentó oficialmente el ‘Protocolo de actuación frente a situaciones de violencia digital detectadas en el Sistema Nacional de Educación’”. Ministerio de Educación. 28 de septiembre. https://tinyurl.com/4m2aeytb

Egaña, Lucía. 2009. “La pornografía como tecnología de género: Del porno convencional al post-porno. Apuntes freestyle”. La Fuga 9. https://tinyurl.com/5f5rkcbc

Ferrari, Lidia. 2016. La diversión en la crueldad: Psicoanálisis de una pasión argentina. Buenos Aires: Letra Viva.

 Follari, Roberto. 2023. “Por fuera de la tecnofilia y la tecnofobia”. Revista Ciencias Sociales 1 (44): 17-29. https://doi.org/10.29166/csociales.v1i44.4087

García-Ull, Francisco. 2021. “Deepfakes: “El próximo reto en la detección de noticias falsas”. Anàlisi. Quaderns de Comunicació i Cultura 64: 103-20. https://doi.org/10.5565/rev/analisi.3378

Gómez de Ágreda, Ángel, Claudio Feijóo e Idoia Salazar. 2021. “Una nueva taxonomía del uso de la imagen en la conformación interesada del relato digital: Deep fakes e inteligencia artificial”. Profesional de la Información 30 (2). https://doi.org/10.3145/epi.2021.mar.16

Han, Byung-Chul. 2014. En el enjambre. Barcelona: Herder.

Hernández Sampieri, Roberto, Carlos Fernández y Lucio Baptista. 2014. Metodología de la investigación. Ciudad de México: McGraw-Hill.

Infobae. 2023. “Fiscalía de Perú investiga a quienes vendieron fotos de menores manipuladas con IA en Lima”. Infobae. 28 de agosto. https://tinyurl.com/4wvvj2pf

Margulis, Mario. 2001. “Juventud: Una aproximación conceptual”. En Adolescencia y juventud en América Latina, compilado por Solum Donas Burak, 41-56. Cartago, CR: Libro Universitario Regional.

McNicholas, Tim. 2023. “New Jersey High School Students Accused of Making AI-Generated Pornographic Images of Classmates”. CBS News. 2 de noviembre. https://tinyurl.com/mrxu63vc

Roldán, Paula. 2022. “Pornografía, sexualidad y redes: ¿Nuevas violencias o nuevas máscaras?”. Revista de Estudios de Juventud 125: 77-94. https://tinyurl.com/yc5p6zfj

Sadin, Éric. 2018. La humanidad aumentada: La administración digital del mundo. Buenos Aires: Caja Negra.

Scolari, Carlos. 2008. Hipermediaciones: Elementos para una teoría de la comunicación digital interactiva. Barcelona: Gedisa.

 Sibilia, Paula. 2008. La intimidad como espectáculo. Buenos Aires: Fondo de Cultura Económica.

Sibilia, Paula.. 2023. “Da hipocrisia aos cinismos: Transformações do ‘solo moral’ nas democracias contemporâneas”. Revista Eco-Pós 26 (1): 324-48. https://doi.org/10.29146/eco-ps.v26i01.28055

Soares, Fernanda. 2023. “‘Nudes’ falsos de cerca de 40 alunas criados por colegas de escola mostravam posições pornográficas e foram postados em redes sociais”. Globo. 8 de noviembre. https://tinyurl. com/mrzn4z6m

Sztajnszrajber, Darío. 2017. "Darío Sztajnszrajber y la Posverdad - Intro Futurock Late Night Show". Video de YouTube. https://tinyurl.com/yw7x4ywz

Varnet, Tomás, y Ricardo Cartes. 2021. “Tránsito histórico de la pornografía: De transformaciones hasta la era de la internet”. Civilizar 21 (41): 81-92. https://doi.org/10.22518/jour.ccsh/2021.2a07

Vega, Edgar. 2018. “De gays y trans a diversidades sexo/genéricas: Dos décadas de despenalización de la homosexualidad en Ecuador”. Interdisciplina 7 (17): 119-53. https://doi.org/10.22201/ceiich.24485705e.2019.17.67524

Wagner, Travis, y Ashley Blewer. 2019. “‘The Word Real Is No Longer Real’: Deepfakes, Gender, and  the Challenges of AI-Altered Video”. Open Information Science 3 (1): 32-46. https://doi.org/10.1515/opis-2019-0003

Williams, Raymond. 1992. Historia de la comunicación. Madrid: Bosch.

Declaración de autoría

Byron Andino Veloz participó en la conceptualización, investigación, aplicación metodológica, redacción del borrador y edición final.

Declaración de conflicto de intereses

El autor declara no tener ningún conflicto de interés financiero, académico ni personal que pueda haber influido en la realización del estudio.

 

Notas



[i]La beffa se dio en la Florencia del Renacimiento y en Italia en general; se trata de episodios similares a las bromas pesadas: engaños para reírse. Los fumistas son bromistas, farsantes, embusteros; toman el pelo o se mofan de alguien. Por ejemplo, el grupo La Syringa creó un falso homenaje a un poeta provinciano, incluso lo llevaron a Buenos Aires, pero allí el poeta fue rechazado y escarnecido por los mismos que lo habían llevado. Todo fue un disfraz, una farsa, indica Ferrari (2016).

UNIVERSIDAD ANDINA SIMÓN BOLÍVAR, Sede Ecuador
Toledo N22-80 (Plaza Brasilia) • Apartado Postal: 17-12-569 • Quito, Ecuador
Teléfonos: (593 2) 322 8085, 299 3600 • Fax: (593 2) 322 8426
© Uru: Revista de Comunicación y Cultura.