Miscelánea


URU - Revista de Comunicación y Cultura, No. 13
(Enero - Junio 2026), 190-206. e-ISSN: 2631-2514


Deepfake en Ecuador: Una mirada desde la cobertura periodística


Deepfake in Ecuador: A Look at Journalistic Coverage


DOI: https://doi.org/10.32719/26312514.2026.13.11


Recepción: 16/02/2024, revisión: 01/10/2025,
aceptación: 06/10/2025, publicación: 09/01/2026.




Marco Vinicio Altamirano Molina ORCID

Universidad Técnica de Cotopaxi Latacunga, Ecuador marco.altamirano2686@utc.edu.ec

RESUMEN

Este estudio analiza la cobertura periodística sobre un caso ocurrido en octubre de 2023 en Quito, Ecuador, en el que dos estudiantes menores crearon contenido sexual falso mediante inteligencia artificial (deepfake), usando fotografías de compañeras. Se analizaron siete contenidos informativos publicados entre el 4 y el 7 de octubre de 2023, procedentes de medios locales, nacionales e internacionales. El análisis empleó categorías relacionadas con los encuadres informativos (legal, tecnológico y denuncia), las fuentes utilizadas (oficiales, expertas, interesadas y ciudadanas) y el tono del contenido (objetivo, denunciativo y neutral). Los resultados, basados en un estudio cualitativo, indican que la mayoría de los medios mantuvieron la objetividad y usaron fuentes confiables, pero profundizaron poco en temas de violencia de género y derechos de las víctimas. Se identifican vacíos legales en la regulación de contenido sexual generado con IA en Ecuador, mientras que el debate ético se centra en la privacidad, el consentimiento y la responsabilidad legal. Este análisis subraya la necesidad de un abordaje mediático ético que respete la dignidad de las víctimas, evite la revictimización y promueva la actualización normativa ante tecnologías emergentes como la inteligencia artificial.

Palabras clave: Inteligencia artificial, Deepfake, Periodismo, Leyes, Ética, Moral, Delito cibernético.


ABSTRACT

This study analyzes news coverage of the October 2023 case in Quito, Ecuador, where two underage students created fake sexual content using artificial intelligence (DeepFake) using photographs of female classmates. Seven news stories published between October 4 and 7, 2023, from local, national, and international media outlets were analyzed. The analysis used categories related to news framing (legal, technological, denunciation), sources used (official, expert, interested, and citizen), and content tone (objective, denunciatory, neutral). The results, based on a qualitative study, indicate that most media outlets maintained objectivity and used reliable sources, but provided little depth on issues of gender-based violence and victims’ rights. Legal gaps were identified in the regulation of AI-generated sexual content in Ecuador, while the ethical debate centers on privacy, consent, and legal liability. This analysis underscores the need for an ethical media approach that respects the dignity of victims, prevents re-victimization, and promotes regulatory updates in light of emerging technologies such as artificial intelligence.

Keywords: Artificial intelligence, Deepfake, Journalism, Law, Ethics, Morality, Cybercrime.






INTRODUCCIÓN


El 3 de octubre de 2023, la Fundación Rescate Escolar, dedicada a la prevención de la violencia contra niños, niñas y adolescentes, denunció públicamente en la plataforma X un caso ocurrido en una institución educativa religiosa privada de Quito. Según El Universo (2023, párr. 1), "se habrían tomado fotografías a 20 o 24 alumnas de primero a tercer año de bachillerato por parte de adolescentes en una institución religiosa de la capital, y se usó este mecanismo para crear videos y fotos de contenido erótico o sexual". Dos estudiantes menores de edad habrían creado cerca de 700 imágenes y videos sexuales falsos mediante inteligencia artificial (IA). Varios medios -El Universo, Cero Latitud, Infobae, Teleamazonas y Revista Vistazo, entre otros- cubrieron el caso desde el 4 hasta el 7 de octubre de 2023 en sus portales web.

La manipulación de imágenes, audios o videos con IA, para que aparenten ser reales y tengan carácter sexual, constituye un delito digital denominado deepfake. Este término describe "medios visuales o de audio manipulados o sintéticos que parecen auténticos, y que presentan a personas que aparentan decir o hacer cosas que nunca dijeron o hicieron, producidos mediante técnicas de IA" (Gomes 2022, 8).

Desde el periodismo, el abordaje de la violencia sexual es delicado, pues involucra la línea editorial del medio y el aspecto humano de evitar la revictimización. El uso de IA para crear contenido sexual plantea desafíos éticos, morales y legales que requieren una reflexión profunda, considerando derechos de autor, privacidad, regulaciones para evitar el uso indebido y riesgos cibernéticos.

La literatura ecuatoriana sobre deepfake y contenido sexual generado por IA es incipiente, y se centra en temas generales de periodismo digital o violencia de género, sin abordar la pornografía sintética y sus implicaciones ético-legales en el contexto local. Esta ausencia dificulta la creación de políticas públicas ajustadas a la realidad sociocultural del país. Por lo tanto, este trabajo es una contribución pionera al documentar y analizar este fenómeno en Ecuador, recabando información primaria a través del análisis mediático y señalando la urgencia de investigaciones futuras desde perspectivas psicosexuales, legales y comunicativas.

Es fundamental diferenciar los usos legítimos y socialmente aceptados del deepfake de aquellos que atentan contra los derechos humanos. La tecnología deepfake no es intrínsecamente perjudicial; tiene aplicaciones creativas y comerciales en publicidad, entretenimiento y artes visuales, bajo consentimiento y ética, aportando valor cultural y social. Por otro lado, el uso malicioso ocurre cuando se manipulan imágenes o videos para confeccionar pornografía falsa sin consentimiento, difamar, suplantar identidades o desinformar, lo que implica graves violaciones a la privacidad, la dignidad y los derechos, al causar daños psicológicos, sociales y legales irreparables.

Esta distinción debe quedar clara para evitar estigmatizar toda producción generada mediante IA y atender con rigor las vulneraciones.

Generalidades de los deepfakes

El término deepfake, acuñado a fines de los años 90, proviene de fake ('falso') y deep ('profundo'), y del concepto deep learning ('aprendizaje profundo'), una tipología de aprendizaje automático de IA. Se traduce como 'falsedades profundas' y designa archivos visuales, de voz o de video manipulados por software especializado o IA, con alto grado de autenticidad (Buckley 2023).

Estos contenidos sintéticos alteran o suplantan identidades para que parezca que una persona dice o hace algo que nunca ocurrió. El acceso a esta tecnología es cada vez más sencillo y los resultados, más realistas. Existen tutoriales y plataformas de creación y distribución (Cerdán y Padilla 2019).

Los primeros deepfakes difundidos en internet tomaron rostros de personas famosas del entretenimiento, como Gal Gadot, Maisie Williams y Taylor Swift, para desacreditar su integridad personal. Aunque utilizados inicialmente con fines humorísticos, su uso se extendió a videos pornográficos falsos y manipulación política, al punto de convertirse en una herramienta para difundir información falsa y engañar a la opinión pública. Por ejemplo, imágenes de Barack Obama, Nancy Pelosi y Donald Trump se emplearon para crear videos falsos (Cerdán y Padilla 2019).

Falsificaciones muy creíbles existían desde antes. Por ejemplo, en 1908, Frederick Cook presentó pruebas (archivos sonoros y fotos) sobre una supuesta llegada al Polo Norte (Cerdán y Padilla 2019). Sin embargo, las herramientas actuales desafían el escepticismo. La tecnología para crear contenido indebido está disponible gratuitamente en portales web, y la IA usa algoritmos que analizan imágenes para aumentar su realismo, con lo que permiten a las fake news clásicas evolucionar (Zamorano 2020).

La IA se ha utilizado en el cine para efectos especiales -por ejemplo, para incluir al fallecido actor Paul Walker en escenas de la saga Rápidos y furiosos-, y en redes sociales como Instagram y TikTok para crear filtros que reemplazan rostros de forma realista (Meskys et al. 2020).

Por otro lado, el deepfake es una manera peligrosa de desinformación y violencia contra la intimidad, principalmente, de mujeres o figuras públicas. La distribución suele ocurrir por internet, aunque también en medios tradicionales con formatos como publirre-portajes o falsos documentales, para crear la sensación de verdad (Cerdán y Padilla 2019).

La popularización del deepfake ha crecido con la facilidad para acceder a tecnologías de IA. Su detección avanza paralelamente, en una carrera "hacia el fondo" que puede traer soluciones para su verificación (Bañuelos 2020). Facebook prohibió en enero de 2020 los deepfakes maliciosos, debido al riesgo de atentar contra la dignidad de personas (Bloomberg, en Muñoz 2021).

Abordaje periodístico de la denuncia

La manipulación informativa vinculada directamente con las fake news representa un riesgo para el periodismo (Matamoros 2023). Por ello, resulta crucial el enfoque de los medios al tratar actos violentos que exponen la privacidad de víctimas o afectan procesos judiciales (Espinoza et al. 2022).

Los medios, como agentes socializadores, modelan la opinión pública, por lo que una cobertura errada puede causar revictimización y aumentar el daño psicológico a las _ víctimas, aspecto reconocido en documentos como el Manual de cobertura de hechos con víctimas (MX Comisión Ejecutiva de Atención a Víctimas [CEAV] 2017). Es fundamental que los medios produzcan contenidos adecuados, que respeten los derechos de las audiencias.

Frecuentemente, los medios presentan una imagen distorsionada de la criminalidad y las víctimas, sin análisis profundo ni opinión experta. A veces incurren en el sensacionalismo o el escrutinio injusto, lo que influencia la percepción pública. La Constitución del Ecuador ampara el derecho a recibir información veraz, plural y oportuna, con responsabilidad posterior (EC 2008). Los medios deben promover un periodismo sensible a las necesidades de niños y adolescentes, reconociendo sus derechos y voces. UNESCO (2023) señala, por ejemplo, que pueden ayudar a las víctimas de violencia infantil a recibir apoyo e incluir estos derechos en agendas informativas para promover análisis y soluciones.

La elaboración de noticias pasa por un proceso de interiorización por parte del periodista, quien determina el enfoque o encuadre (framing). Según Changoluisa (2020), el encuadre implica cuatro niveles: reporte inicial, mensaje del autor, recepción por audiencia e interpretación final.

Es esencial que la información sea objetiva y equilibrada para evitar prejuicios que distorsionen la percepción del público. Cruz et al. (2023) indican que los medios funcionan como artefactos de vigilancia y poder, al construir la realidad social mediante discursos que hegemonizan la información. Esto exige responsabilidad para presentar las noticias con ética.

Para proteger a las víctimas de casos de violencia sexual con uso de IA, es imprescindible aplicar modelos periodísticos ajustados a recomendaciones de entidades como el Consejo de Comunicación y las Naciones Unidas. Asimismo, UNESCO (2023) enfatiza la necesidad de evitar sesgos de género en el desarrollo y la aplicación de algoritmos de IA, para no perpetuar estereotipos.

Uso de IA para crear contenido sexual: dilemas ético-legales
Aspectos éticos

La ética estudia la moralidad y las normas de conducta humanas. Define lo correcto y lo incorrecto, lo bueno y lo malo, en acciones que afectan a otros y a uno mismo (Vanegas, Moreno y Echeverri 2020).

El uso de IA plantea múltiples cuestionamientos sobre límites, impacto social, control de sesgos, influencia en relaciones humanas y distribución de bienestar (González y Martínez 2020). Expertos proponen la aplicación de pruebas éticas a desarrollos tecnológicos de IA para prevenir usos inapropiados. La educación ética de los usuarios es clave.

El empleo ilegal o malicioso de IA afecta procesos electorales, altera percepciones y puede generar conflictos sociales, al punto que ha llamado la atención de académicos y ONG por sus repercusiones (González y Martínez 2020). Weissman (2022), por ejemplo, examina la vigilancia en redes sociales como parte de un "panóptico" digital en el que los usuarios se vigilan y censuran entre sí, lo que afecta la privacidad y crea tensiones entre vigilancia y resistencia.

Desde la filosofía, preservar la autonomía y la dignidad humanas es un límite ético fundamental. La IA debe ajustarse a normas que protejan los derechos humanos, ofrezcan transparencia y responsabilidad y eviten la discriminación (Zabala 2021; Furiasse 2022).

Sorgner, por su parte, aporta la perspectiva del arte poshumano, interpretando la IA en la creación artística desde una estética no dual, arraigada en el naturalismo ontológico y el perspectivismo epistémico (en Nutas 2022).

Internet ha democratizado derechos y eliminado barreras, pero también ha facilitado los delitos digitales. El abordaje ético debe ser multidisciplinario, con transparencia y rendición de cuentas, para que la IA sirva a la humanidad y no a intereses de poder (Corvalán 2018).

Lo legal

El deepfake sexual genera vulneraciones a derechos como el honor, la imagen y la información, y se considera delito según expertos en tecnología y derecho (Muñoz 2021). Aunque es un problema global sin regulación unificada, en 2021 el Parlamento Europeo propuso el Artificial Intelligence Act (Ley de Inteligencia Artificial), que obliga a la transparencia para revelar contenidos generados o manipulados artificialmente (Piedra 2023). Revisemos en forma general algunos aspectos en cuanto a cuestiones de legalidad y legalidad por país (Tablas 1 y 2):


Tabla 1 Situación legal de los deepfake

Situación legal Descripción
Legalidad variable La legalidad de los deepfakes varía según el país y la jurisdicción. Algunos lugares tienen leyes específicas para abordar el problema de los deepfakes, mientras que otros no.
Derecho a la privacidad y la imagen En muchos países, la creación de deepfakes sin el consentimiento de la persona cuya imagen se utiliza podría violar el derecho a la privacidad y/o a la imagen de esa persona.
Difamación y calumnias Si un deepfake se utiliza para difundir información falsa o difamatoria sobre alguien, podría dar lugar a a acciones legales por difamación o calumnias.
Derechos de autor En algunos casos la creación y distribución de deepfakes podría violar los derechos de autor, especialmente si se utiliza contenido protegido sin el permiso del propietario.
Políticas de plataformas Algunas plataformas en línea tienen políticas específicas que prohíben la creación y/o distribución de deep-fakes. Si se violan estas políticas, se pueden enfrentar consecuencias como la eliminación del contenido o la suspensión de la cuenta.

Fuente: Granero (2023).

Elaboración propia.



Tabla 2 Legalidad en varios países País Situación legal

País Situación legal
Estados Unidos La creación de deepfakes sin el consentimiento de la persona cuya imagen se utiliza podría violar las leyes estatales y federales de privacidad y derecho a la imagen, así como las leyes de difamación. Varias jurisdicciones, incluyendo California y Virginia, han promulgado leyes específicas para abordar el problema de los deepfakes.
Reino Unido La creación y distribución de deepfakes podría violar las leyes de difamación y privacidad. El Gobierno británico está considerando la promulgación de leyes específicas para abordar el problema de los deepfakes.
España La creación y distribución de deepfakes podría violar las leyes de propiedad intelectual, las leyes de protección de datos y las leyes penales.
México La creación y distribución de deepfakes podría violar las leyes de propiedad intelectual, las leyes de derechos de autor y las leyes penales que protegen la privacidad y el honor de las personas.
China La creación y distribución de deepfakes podría violar las leyes de propiedad intelectual, las leyes de derechos de autor y las leyes penales. El Gobierno chino ha promulgado leyes específicas para abordar el problema de los deepfakes.

Fuente: Granero (2023).

Elaboración propia.


El desafío legal incluye identificar víctimas y responsables, y aplicar medidas tecnológicas para detectar y eliminar contenidos maliciosos, minimizando las estafas, la creación de pornografía y la manipulación política (Zabala 2021).

Actualmente, no se considera urgente una regulación penal específica para deepfakes, pues se los puede juzgar bajo normas existentes contra injurias, falsificación, suplantación de identidad y/o pornografía infantil (EC 2014, art. 103).

La pornografía infantil abarca representaciones visuales reales o simuladas de menores en actos sexuales explícitos (Zambrano y Dueñas 2019). Se recomienda armonizar leyes bajo un marco común para evitar interpretaciones erróneas y proteger eficazmente a las víctimas (Matamoros 2023).

Las mentiras profundas violan el derecho humano a la verdad, componente esencial del debido proceso, que debe estar formalmente reconocido en convenios y leyes (Cruz et al. 2023). Un riesgo judicial es el uso de IA para forjar evidencias falsas (López y Maestre 2019). Por ello, se necesitan regulaciones claras para el uso de IA en la recolección y presentación de pruebas, la supervisión rigurosa, la capacitación de jueces y profesionales legales, y sanciones efectivas (León 2022). Los procesos judiciales ecuatorianos han empezado a enfrentar demandas ligadas a IA, como casos de difamación por información falsa generada por chatbots (Hsu 2023).

Respecto a los referentes teóricos, se recomienda limitar la bibliografía a autores con aporte directo en los ámbitos ético-legales y mediáticos para mantener una coherencia temática.

Otras implicaciones

El caso analizado y su cobertura mediática evidencian profundas implicaciones sociales, políticas y éticas que se despliegan a partir del uso malicioso de tecnologías de IA como el deepfake, aplicado a la generación de contenido sexual falso. En primer lugar, desde el ámbito social, este fenómeno representa una grave vulneración a la privacidad y dignidad de las personas afectadas, especialmente cuando involucra a menores de edad. La producción y difusión no consentida de imágenes y videos falsificados genera daños irreparables a la reputación y el bienestar psicológico de las víctimas, comprometiendo sus derechos digitales fundamentales, como el control sobre su imagen y la protección contra la revictimización (Espinoza et al. 2022; Cruz et al. 2023).

En el plano político y democrático, la proliferación de deepfakes plantea riesgos significativos a la confianza pública y a los procesos electorales y sociales. Al facilitar la creación de contenidos falsos, pero altamente creíbles, estas tecnologías pueden ser utilizadas para manipular la opinión pública, difundir desinformación y socavar la credibilidad de instituciones, líderes y medios de comunicación (Cerdán y Padilla 2019; González y Martínez 2020). La ausencia o insuficiencia de regulación específica expone vulnerabilidades estructurales que pueden ser explotadas para fines maliciosos, minando la democracia y la cohesión social.

Ante este contexto, se hacen imperativos el desarrollo y la implementación de marcos regulatorios claros y actualizados que contemplen las particularidades y los desafíos éticos asociados al uso de la IA en la generación de contenidos digitales. La regulación debe equilibrar el respeto por la libertad de expresión con la protección efectiva de los derechos humanos, garantizando transparencia, rendición de cuentas y mecanismos eficaces de sanción (Granero 2023; Piedra 2023).

Paralelamente, la alfabetización mediática y digital constituye una estrategia esencial para dotar a la ciudadanía de competencias críticas que permitan identificar y resistir la manipulación informativa derivada del deepfake y otras formas de desinformación digital. La educación en medios debe promover la comprensión ética y técnica de estas herramientas, fomentando una cultura de responsabilidad social y respeto por la privacidad (Zamorano 2020; UNESCO 2023).

En síntesis, las implicaciones sociales, políticas y éticas del uso indebido de la IA para crear contenido falso exigen una respuesta multidimensional que combine regulación jurídica, educación pública y compromiso ético de medios, desarrolladores tecnológicos y actores sociales, para proteger la integridad individual y fortalecer la confianza democrática en la era digital.


Metodología y materiales


Este estudio emplea una metodología cualitativa y descriptiva, adecuada para explorar y comprender fenómenos complejos y subjetivos en las ciencias sociales, como el tratamiento periodístico de la creación de contenido sexual explícito mediante IA (Corona 2018). Este enfoque permite analizar en profundidad los contenidos mediáticos relacionados con un caso específico de violencia sexual digital ocurrido en octubre de 2023 en una institución educativa privada de Quito, Ecuador.

El corpus está compuesto por siete contenidos periodísticos publicados entre el 4 y el 7 de octubre de 2023 en plataformas digitales de medios locales, nacionales e internacionales que cubrieron el caso de deepfake. Estos medios, con presencia en televisión, prensa escrita y digital, incluyen El Universo, Cero Latitud, Teleamazonas, Revista Vistazo e Infobae. Los criterios de inclusión fueron:

  • Cobertura directa del caso denunciado.

  • Disponibilidad en formato digital y acceso público.

  • Contenidos orientados a informar al público general.

  • Enfoque explícito sobre el uso de IA para producir contenido sexual.

Este corpus permitió un análisis representativo del tratamiento mediático recibido por el fenómeno en el corto período señalado, considerando la naturaleza dinámica y acelerada de la circulación informativa (Salazar 2005).

Para la sistematización y el análisis de los contenidos se diseñó una ficha de observación directa, técnica común en investigaciones cualitativas que permite recopilar información detallada y contextualizada sobre el objeto de estudio (Salazar 2005; Corona 2018). La ficha incluyó categorías esenciales como:

  • Tipo de medio (digital, televisión, prensa escrita).

  • Fecha y hora de publicación.

  • Encuadres predominantes (legal, tecnológico, denuncia).

  • Fuentes utilizadas (oficiales, expertas, ciudadanas, interesadas, periodísticas).

  • Tono del contenido (objetivo, neutral, denunciativo).

  • Tratamiento y humanización de las fuentes.

  • Referencias a la normativa vigente en Ecuador sobre el uso de IA y pornografía infantil.

El instrumento fue sometido a un proceso de validación de contenido por parte de expertos en periodismo, ética y derecho digital, quienes aportaron observaciones para garantizar la pertinencia, la claridad y la exhaustividad de las categorías. Asimismo, se aplicó una prueba piloto con publicaciones similares fuera del corpus, con el fin de evaluar la confiabilidad del instrumento y realizar los ajustes necesarios para asegurar la consistencia en la recolección y codificación de datos (Corona 2018).

Los contenidos analizados muestran que los medios de comunicación emplean diversas fuentes -oficiales, interesadas, ciudadanas, expertas y periodísticas- para contextualizar el problema y destacar la necesidad de prevenir y sancionar este tipo de delitos. Entre las fuentes citadas se encuentran Yalilé Loaiza, directora del grupo Rescate Escolar; la directora del colegio afectado; autoridades del Ministerio de Educación; la Oficina de Seguridad del Internauta de España; la Fiscalía General del Estado; y UNESCO.

Cabe destacar que la metodología cualitativa no busca generalizar los resultados, sino comprender en profundidad un fenómeno específico. Por ello, los hallazgos obtenidos pueden ser de gran utilidad para analizar el abordaje periodístico de hechos de violencia sexual vinculados al uso de IA.

Esta investigación se guía por las siguientes preguntas:

  • ¿De qué manera abordan los medios de comunicación el uso de IA para crear contenido sexual, específicamente en el caso de deepfake ocurrido en Quito?

  • ¿Cuáles son los encuadres informativos predominantes en la cobertura mediática (legal, tecnológico, denuncia)?

  • ¿Qué tipos de fuentes utilizan los medios y qué grado de confiabilidad presentan?

  • ¿Cuál es el tono predominante en los reportajes y cómo se representa a las víctimas en el tratamiento periodístico?

  • ¿En qué medida los medios respetan las normativas éticas y legales, evitando la revictimización y garantizando la protección de la dignidad de los afectados?


Análisis y resultados


La información recopilada mediante las fichas de observación directa fue analizada de forma comparativa, con el objetivo de identificar patrones, tendencias y diferencias entre los medios en cuanto al enfoque, las fuentes utilizadas y el lenguaje empleado. Este análisis permitió evaluar críticamente la calidad y responsabilidad del abordaje periodístico frente a un tema de alta sensibilidad, así como evidenciar vacíos normativos y desafíos éticos vinculados al contenido sexual generado con IA.

Para el análisis adecuado de contenidos periodísticos relacionados con hechos de violencia sexual contra menores, se consideraron los siguientes criterios:

  • Identificar prácticas discursivas basadas en prejuicios o estereotipos de género en la representación de las víctimas.

  • Evaluar si las narrativas comunicacionales tienden a culpabilizar a las víctimas menores de edad.

  • Observar si los medios reconocen a las víctimas como sujetos de derecho y si siguen las recomendaciones del Manual de cobertura de hechos con víctimas (MX CEAV 2017).

  • Analizar si se preserva la dignidad de las víctimas y se evita cualquier forma de sufrimiento adicional.

  • Verificar si los reportajes evitan la revictimización y consideran recomendaciones de textos especializados como las Reglas de Brasilia sobre Acceso a la Justicia de Personas en Condición de Vulnerabilidad (XIV Cumbre Judicial Iberoamericana 2008) y la Declaración sobre los Principios Fundamentales de Justicia para las Víctimas de Delitos y del Abuso del Poder (ONU Asamblea General 1985).

El análisis cualitativo de los siete contenidos periodísticos publicados entre el 4 y el 7 de octubre de 2023 en medios digitales locales, nacionales e internacionales permitió identificar diversas categorías analíticas que estructuran la cobertura del caso de deepfake sexual ocurrido en Quito. Estas categorías incluyen los tipos de fuentes utilizadas, el tono de la cobertura y la representación de víctimas y agresores.

Los medios consultados emplearon una diversidad de fuentes para sustentar sus informaciones. Predominaron las fuentes oficiales, como la Fiscalía General del Estado, el Ministerio de Educación y autoridades de la institución educativa involucrada. También se incluyeron fuentes expertas, como especialistas en seguridad digital, miembros de la Fundación Rescate Escolar y representantes de organismos internacionales como UNESCO y la Oficina de Seguridad del Internauta de España. Asimismo, se consideró a fuentes interesadas, como padres de familia y comunidades afectadas, que aportaron testimonios y denuncias directas. La inclusión de múltiples tipos de fuentes permitió una contextualización amplia del fenómeno y facilitó la triangulación de la información, fortaleciendo la veracidad y confiabilidad de los reportajes (Cruz et al. 2023).

El análisis del tono reveló que la mayoría de las coberturas adoptaron un enfoque informativo y objetivo, evitando el sensacionalismo. Cinco de los siete reportajes emplearon un lenguaje formal, neutral y respetuoso hacia las víctimas, sin recurrir a expresiones o imágenes que pudieran inducir a la revictimización. Dos contenidos adoptaron un tono más crítico y denunciante, orientado a exigir acciones por parte de las autoridades y reformas normativas. No se identificaron tratamientos amarillistas, lo que evidencia un compromiso ético en la cobertura de un tema delicado que afecta la privacidad y dignidad de menores (Espinoza et al. 2022).

En cuanto a la representación de las víctimas, los medios privilegiaron el resguardo de su identidad, omitiendo detalles que pudieran exponerlas públicamente. Se enfatizó su condición de sujetos de derecho, destacando la necesidad de proteger su integridad física y psicológica, así como su derecho a la privacidad y a no ser revictimizadas. El discurso mediático reconoció explícitamente que las víctimas eran menores de edad y abordó la violencia digital como una forma de violencia de género que requiere atención institucional y judicial (El Universo 2023; UNESCO 2023). Respecto a los agresores, se los identificó como dos estudiantes menores de edad que habrían actuado sin consentimiento. La cobertura evitó estigmatizaciones o juicios que pudieran vulnerar sus derechos procesales, respetando los estándares éticos y legales vigentes.

Tratar a las fuentes como personas, y no como simples instrumentos informativos, resulta esencial para comprender sus perspectivas y experiencias. En este sentido, la normativa vigente en Ecuador ofrece un marco legal relevante para entender cómo los medios abordan el uso de IA en la producción de contenido sexual.

La selección del corpus incluyó medios con presencia en diversos formatos (digital, televisión, prensa escrita) que publicaron contenidos entre el 4 y el 7 de octubre de 2023, período inmediato a la denuncia pública y a los primeros desarrollos judiciales. Esta ventana temporal permitió capturar la reacción inicial de los medios ante un caso -novedoso y complejo. La cobertura fue mayoritariamente nacional, con solo un medio internacional entre los contenidos analizados, lo que refleja un interés centrado en el contexto ecuatoriano, aunque con conexiones a debates globales sobre la regulación del deepfake (Granero 2023).

La mayoría de los contenidos se redactaron en formato de noticia, mientras que dos adoptaron el estilo de reportaje. Esta diferencia responde a la disponibilidad de información en las primeras horas del caso; el formato de noticia permite una entrega más precisa y rápida en tal contexto.

Se observó que, en su totalidad, los contenidos respetaron las normas de objetividad. Además, se identificó que la mayoría de los periodistas que cubrieron el caso eran mujeres, posiblemente por contar con mayor sensibilidad y convicción frente a temas de violencia sexual.

En Ecuador, según el Consejo de Comunicación (2025), existen aproximadamente 500 medios de comunicación. Sin embargo, el nivel de importancia otorgado a este caso fue limitado, lo que sugiere que las agendas informativas priorizan otros contenidos y que los hechos de violencia de género aún enfrentan resistencia mediática por su carácter polémico.

Para evitar la revictimización en la cobertura noticiosa, es fundamental utilizar fuentes confiables, evitar el sensacionalismo, aplicar lenguaje e imágenes oportunos y tratar adecuadamente a las víctimas. También es esencial proteger la identidad de niños, niñas y adolescentes, especialmente cuando son víctimas de violencia o desplazamiento.

El análisis enfatiza la necesidad de emplear un lenguaje respetuoso, evitar la publicación de imágenes que expongan a personas perjudicadas o traumatizadas, no difundir demandas de los agresores y evitar narrativas sensacionalistas. Según el Manual para evitar la revictimización a través de los medios de comunicación (Espinoza et al. 2022), el periodista debe comprender el proceso de recuperación de las víctimas, respetar sus deseos de no participar en entrevistas y considerar cuidadosamente el enfoque, el lenguaje y las imágenes que se utilizan. Se recomienda evitar técnicas coercitivas para obtener testimonios y garantizar un tratamiento respetuoso, incluso ante presiones editoriales o limitaciones de tiempo.

La cobertura periodística analizada mostró una actitud profesional orientada a informar con objetividad, respetando la protección de las víctimas y ofreciendo un enfoque legal y tecnológico que contribuye a sensibilizar sobre los retos ético-legales del uso malicioso de la IA. No obstante, se identificó la necesidad de profundizar en el tratamiento de los derechos de género y los procesos de recuperación de las víctimas, aspectos que podrían fortalecerse en futuras coberturas para aportar a la justicia social y al bienestar integral de las personas afectadas (Changoluisa 2020; Espinoza et al. 2022).

Entre las limitaciones se destaca que el estudio se enfoca en un corpus reducido y temporalmente acotado, lo que restringe la generalización de sus hallazgos a otras circunstancias o contextos geográficos diferentes al caso de Quito en 2023. Asimismo, el análisis cualitativo conlleva interpretaciones subjetivas que, aunque mitigadas con validación y procedimientos rigurosos, dependen en parte de la perspectiva investigativa. Adicionalmente, no se incorporaron otros formatos mediáticos como audiovisuales o redes sociales, que también tienen un rol en la difusión de la noticia. Finalmente, la evolución constante de la tecnología y los medios implica que nuevos casos o modelos de deepfake podrían generar dinámicas informativas distintas.




Discusión y conclusiones


El análisis de la cobertura mediática sobre la creación de contenido sexual mediante IA en el caso de deepfake ocurrido en Quito revela un enfoque mayoritariamente objetivo y profesional por parte de los medios, en concordancia con recomendaciones internacionales sobre el tratamiento de temas sensibles relacionados con violencia sexual y vulneración de derechos (Espinoza et al. 2022; UNESCO 2023). Los medios estudiados evitaron el sensacionalismo y se esforzaron por proteger la identidad y dignidad de las víctimas, enfatizando su condición de sujetos de derecho y la necesidad de sanciones legales. Esto evidencia una contribución positiva hacia la sensibilización pública sobre los riesgos y desafíos que plantea el deepfake (El Universo 2023).

No obstante, esta cobertura presenta ciertas limitaciones en relación con los hallazgos de la literatura revisada. Autores como Cerdán y Padilla (2019) advierten que los medios pueden reproducir estereotipos de género que agravan la victimización, especialmente en casos de violencia sexual mediada por tecnología. En contraste, los contenidos analizados en Ecuador tienden a minimizar estos estereotipos, aunque no profundizan suficientemente en el abordaje de la violencia de género digital ni en las medidas de apoyo y recuperación para las víctimas, aspectos fundamentales para una cobertura integral (Changoluisa 2020).

La selección y pluralidad de fuentes en las coberturas analizadas contribuyó a una contextualización equilibrada entre aspectos legales, tecnológicos y sociales, alineándose con los planteamientos de Cruz et al. (2023) sobre la responsabilidad mediática de incluir voces expertas y oficiales para construir una realidad social informada. Sin embargo, la escasa presencia de testimonios directamente vinculados a las víctimas evidencia un espacio por fortalecer, necesario para garantizar una humanización y una empatía más profundas en el discurso mediático.

En cuanto al abordaje ético, los medios respetaron principios de no revictimización y protección de la privacidad, en coherencia con estándares internacionales y nacionales, tal como lo sugieren la Comisión Ejecutiva de Atención a Víctimas (MX CEAV 2017) y el Manual para evitar la revictimización a través de los medios de comunicación (Espinoza et al. 2022). Esto resulta crucial en un contexto en que la tecnología complica la protección de datos y la dignidad de los afectados. Sin embargo, la limitada profundidad con que se abordaron las implicaciones éticas del uso malicioso de la IA, en comparación con los debates filosóficos y tecnológicos recogidos en la literatura (González y Martínez 2020; Zamorano 2020), revela una oportunidad para ampliar el análisis periodístico hacia una reflexión crítica más holística.

La cobertura de los medios analizados también refleja las prioridades temáticas en las agendas informativas ecuatorianas, y coincide con lo señalado por Matamoros (2023) sobre el bajo interés por cubrir sistemáticamente hechos de violencia tecnológica y de género. Esta situación podría limitar la formación de una opinión pública informada y la generación de políticas públicas efectivas.

En síntesis, la cobertura mediática del caso de deepfake en Ecuador, aunque objetiva y respetuosa en su mayoría, presenta margen para fortalecer la discusión sobre la violencia de género digital, el apoyo a las víctimas y los dilemas ético-legales que plantea la IA. Los medios pueden potenciar su rol social incorporando un análisis más crítico y profundo, así como ampliando la participación de voces diversas, especialmente las afectadas. Este enfoque contribuiría a sensibilizar a la sociedad y a fortalecer la prevención y sanción de los delitos relacionados con el deepfake, en consonancia con los estándares internacionales de derechos humanos y ética periodística.

Desde el punto de vista social y ético, los hallazgos resaltan la importancia de que los medios actúen como agentes responsables en la difusión de información sensible, garantizando la protección de derechos fundamentales como la privacidad y la no revictimización. La inexistencia de regulaciones específicas sobre deepfake en Ecuador y los desafíos éticos en el uso de esta tecnología demandan una respuesta integral que combine acción legal, educativa y tecnológica para mitigar sus impactos negativos y fortalecer la justicia social.

Entre las limitaciones del estudio se encuentran el reducido corpus temporal y cuantitativo, limitado a medios digitales publicados en un lapso breve. Esto restringe la posibilidad de generalizar los resultados y excluye otros formatos y plataformas que podrían tener influencia relevante. Además, al tratarse de un análisis cualitativo, la interpretación de los datos depende del marco teórico y de la subjetividad de los investigadores, pese a la implementación de mecanismos de validación.

Finalmente, se recomienda promover investigaciones interdisciplinarias que profundicen en la incidencia del deepfake en distintos ámbitos sociales y culturales en Ecuador. Asimismo, resulta urgente impulsar políticas públicas orientadas a la actualización normativa sobre IA y delitos digitales, a la capacitación de periodistas en el manejo ético de estas temáticas, y a campañas de educación pública que fomenten una ciudadanía crítica y protegida frente al abuso tecnológico. La conjunción de estos esfuerzos contribuirá a una sociedad más informada, respetuosa y resiliente ante los retos que plantean las nuevas tecnologías.


Referencias


Bañuelos, Jacob. 2020. "Deepfake: La imagen en tiempos de la posverdad". Revista Panamericana de Comunicación 2 (1): 51-61. https://doi.org/10.21555/rpc.v0i1.2315.

Buckley, Oli. 2023. "AI Scam Calls Imitating Familiar Voices Are a Growing Problem: Here's How They Work". The Conversation. 12 de julio. https://tinyurl.com/33uxwztc.

Cerdán, Víctor, y Graciela Padilla. 2019. "Historia del 'fake' audiovisual: 'Deepfake' y la mujer en un imaginario falsificado y perverso". Historia y Comunicación Social 24 (2): 505-20. https://doi.org/10.5209/hics.66293.

Changoluisa, Priscilla. 2020. "Rutinas y enfoques informativos sobre temas vinculados a la niñez y adolescencia: Análisis del tratamiento periodístico realizado por el medio digital GK sobre abuso sexual infantil". Tesis de grado, Universidad Casa Grande, Ecuador.

Corona, José Luis. 2018. "Investigación cualitativa: Fundamentos epistemológicos, teóricos y metodológicos". Vivat Academia 21 (144): 69-76. https://doi.org/10.15178/va.2018.144.69-76.

Corvalán, Juan. 2018. "Inteligencia artificial: Retos, desafíos y oportunidades. Prometea: La primera inteligencia artificial de Latinoamérica al servicio de la justicia". Revista de Investigações Constitucionais 5 (1): 295-316. https://doi.org/10.5380/rinc.v5i1.55334.

Cruz, Alba, Alejandra Calderón, Juanita Rojas, María Paula Vásquez y Andrés Barrera. 2023. "Memorias colectivas, medios de comunicación alternativa y post acuerdo". Universitas 39: 229-53. https://doi.org/10.17163/uni.n39.2023.10.

EC. 2008. Constitución de la República del Ecuador. Registro Oficial 449, 20 de octubre.

______. 2014. Código Orgánico Integral Penal. Registro Oficial 180, Suplemento, 10 de febrero.

EC Consejo de Comunicación. 2025. Catastro del registro público de medios-2025. Quito: Consejo de Comunicación. https://tinyurl.com/mt67uzk6.

El Universo. 2023. "'Utilizaron herramientas digitales para vulnerar derechos de las niñas': Plantón en colegio para exigir justicia por imágenes sexuales creadas con inteligencia artificial". El Universo. 5 de octubre. https://tinyurl.com/ykxtu79f.

Espinoza, Fernanda, Paola Martínez, Carlos Vizuete, Andrés Mier y Daniela Bravo. 2022. Manual para evitar la revictimización a través de los medios de comunicación. Quito: Consejo de Comunicación . https://tinyurl.com/3md6cbsb.

Furiasse, Amanda. 2022. "Reviewing the Ethics and Philosophy behind Social Media's Crowdsourced Panopticon". International Journal of Technoethics 13 (1). https://doi.org/10.4018/ijt.302627.

Gomes, Sónia. 2022. "Los deepfakes como una nueva forma de desinformación corporativa: Una revisión de la literatura". IROCAMM. International Review of Communication and Marketing Mix 5 (2): 22-38. https://doi.org/10.12795/irocamm.2022.v05.i02.02.

González, Mario, y Dagmaris Martínez. 2020. "Dilemas éticos en el escenario de la inteligencia artificial". Economía y Sociedad 25 (57). https://tinyurl.com/235awkhd.

Granero, Mario. 2023. "Deepfakes: ¿Son legales? Una guía sobre la legalidad de crear y compartir videos deepfake". Yeswelab. 12 de febrero. https://tinyurl.com/ynz6x66j.

Hsu, Tiffany. 2023. "La inteligencia artificial afirmó que era terrorista. No era cierto". The New York Times. 8 de agosto. https://tinyurl.com/ysbvcw26.

León, Raúl. 2022. "La imagen como forma de (des)conocimiento en la era del deepfake". ANIAV. Revista de Investigación en Artes Visuales 11: 53-70. https://doi.org/10.4995/aniav.2022.17309.

López, Francisco, y Alejandro Maestre. 2019. "Fake pictures. Falsificación de imágenes científicas y avances actuales en el análisis forense: Análisis de casos". Perspectivas de la Comunicación 12 (1): 209-26. https://doi.org/10.4067/s0718-48672019000100209.

Matamoros, Abraham. 2023. "Algunas claves del castigo penal del deepfake de naturaleza sexual". IberICONnect. 24 de julio. https://tinyurl.com/3y7dpv98.

Meskys, Edvinas, Aidas Liaudanskas, Julija Kalpokiene y Paulius Jurcys. 2020. "Regulating Deep Fakes: Legal and Ethical Considerations". Journal of Intellectual Property Law & Practice 15 (1): 24-31. https://doi.org/10.1093/jiplp/jpz167.

Muñoz, José Manuel. 2021. "Derecho de la inteligencia artificial: Un enfoque global de responsabilidad desde la ética, la seguridad y las nuevas propuestas reguladoras europeas". Tesis doctoral, Universitat de Valência, España. https://tinyurl.com/3b975v27.

MX CEAV. 2017. Manual de cobertura de hechos con víctimas. Ciudad de México: CEAV. https://tinyurl.com/2s4245dy.

Nutas, Andrei. 2022. "Review of Sorgner's Philosophy of Posthuman Art". International Journal of Technoethics 13 (1). https://doi.org/10.4018/ijt.313197.

ONU Asamblea General. 1985. Declaración sobre los principios fundamentales de justicia para las víctimas de delito y del abuso de poder. 29 de noviembre. A/RES/40/34

Piedra, Jonathan. 2023. "Anotaciones iniciales para una reflexión ética sobre la regulación de la inteligencia artificial en la Unión Europea". Revista de Derecho 28. https://doi.org/10.22235/rd28.3264.

Salazar, Oscar. 2005. "Métodos, técnicas de investigación y la apertura de las ciencias sociales". Revista Colombiana de Sociología 25: 199-212. https://tinyurl.com/3ycktu7y.

UNESCO. 2023. "Inteligencia artificial: Ejemplos de dilemas éticos". UNESCO. 24 de abril. https://tin-yurl.com/yb3duk35.

Vanegas, Edgar, Verónica Moreno y Pablo Echeverri. 2020. "Ética de lo público: Formar para la integridad humana y profesional en el contexto de la educación superior en Colombia". CS 31: 297-326. https://doi.org/10.18046/recs.i31.3251.

Weissman, Jeremy. 2022. The Crowdsourced Panopticon: Conformity and Control on Social Media. Lanham, US: Rowman & Littlefield.

XIV Cumbre Judicial Iberoamericana. 2008. Reglas de Brasilia sobre Acceso a la Justicia de las Personas en Condición de Vulnerabilidad. 4-6 de marzo. https://tinyurl.com/2ekdftnj.

Zabala, Tatiana. 2021. "La ética en inteligencia artificial desde la perspectiva del derecho". VIeI 16 (2). https://doi.org/10.15332/19090528.6785.

Zambrano, José Eugenio, y Kelvin Dueñas. 2019. "Un acercamiento al abuso sexual infantil: La pornografía". Polo del Conocimiento 4 (6): 192-207. https://doi.org/10.23857/pc.v4i6.1006.

Zamorano, Enrique. 2020. "Los "deepfakes" del porno: así han reaccionado las actrices". El Confidencial. 23 de enero. https://tinyurl.com/257cp6m6.