Ir al contenido principal
article 50 ai acttransparence ia générativedeepfakes ai actétiquetage contenu iawatermarking intelligence artificielle

Artículo 50 AI Act: todo sobre las obligaciones de transparencia para contenidos generados por IA

9 de marzo de 202613 min50
Artículo 50 AI Act: todo sobre las obligaciones de transparencia para contenidos generados por IA

En resumen

El Artículo 50 del AI Act se aplica a TODOS los sistemas de IA generativa — no solo a los de alto riesgo. Chatbots, deepfakes, imágenes, textos: estas son las 4 obligaciones de transparencia, el calendario y las medidas concretas a implementar antes de agosto de 2026.

En el AI Act, los sistemas de alto riesgo y las prácticas prohibidas acaparan la mayor parte de la atención. Sin embargo, es el Artículo 50 el que afectará al mayor número de organizaciones. Su alcance es mucho más amplio: se aplica a todos los sistemas de IA generativa, desde los chatbots hasta los generadores de imágenes, desde las herramientas de síntesis de voz hasta los asistentes de redacción. Cualquier empresa que utilice o proporcione un sistema capaz de producir texto, imágenes, audio o vídeo sintéticos está afectada — y el plazo es el 2 de agosto de 2026.

Qué establece el Artículo 50

El Artículo 50 del Reglamento (UE) 2024/1689 establece obligaciones de transparencia para cuatro situaciones distintas que implican sistemas de IA. A diferencia de las obligaciones para sistemas de alto riesgo (Capítulo III), estas obligaciones no dependen de la clasificación de riesgo: se aplican en cuanto un sistema de IA entra en uno de los siguientes cuatro casos.

Obligación 1 — Revelar las interacciones con IA (Art. 50.1)

Los proveedores deben diseñar sus sistemas de IA de modo que las personas sean informadas de que están interactuando con un sistema de IA y no con un ser humano. Esta obligación se dirige a chatbots, asistentes virtuales y cualquier sistema de IA en contacto directo con personas físicas.

Excepción: cuando el contexto de uso hace evidente que se trata de una IA. No obstante, en la práctica esta excepción se interpreta de forma restrictiva.

Obligación 2 — Marcar los contenidos sintéticos (Art. 50.2)

Los proveedores de sistemas de IA generativa — incluidos los modelos GPAI — deben garantizar que los contenidos generados (audio, imagen, vídeo, texto) estén:

  • Marcados en un formato legible por máquina — mediante watermarking, metadatos u otras técnicas de procedencia
  • Detectables como generados o manipulados artificialmente — las soluciones técnicas deben ser eficaces, interoperables, robustas y fiables

Las soluciones de marcado deben resistir las alteraciones habituales: recorte, compresión, cambios de resolución o formato. Los proveedores también deben poner a disposición herramientas de detección gratuitas con puntuaciones de confianza.

Excepciones: los sistemas de IA que desempeñan una función de asistencia a la edición estándar o que no alteran sustancialmente los datos proporcionados por el responsable del despliegue. Los sistemas autorizados por ley para la detección o persecución de delitos penales también están exentos.

Obligación 3 — Informar sobre el reconocimiento de emociones (Art. 50.3)

Los responsables del despliegue de sistemas de reconocimiento de emociones o categorización biométrica deben informar a las personas físicas expuestas sobre el funcionamiento del sistema. Esta información debe proporcionarse antes de la exposición.

Obligación 4 — Etiquetar deepfakes y textos IA (Art. 50.4)

Es la obligación más examinada. Los responsables del despliegue de sistemas de IA que generan o manipulan contenido que constituye un deepfake deben revelar que el contenido ha sido generado o manipulado artificialmente. Esta obligación se aplica también a los textos generados por IA publicados con el propósito de informar al público sobre asuntos de interés público.

Un deepfake, según la definición del AI Act (Art. 3, punto 60), es un contenido de imagen, audio o vídeo generado o manipulado por IA que se asemeja a personas, objetos, lugares o acontecimientos reales y podría inducir a una persona a creer que es auténtico.

Excepciones:

  • Contenidos que formen parte de una obra evidentemente artística, creativa, satírica o ficticia — basta una divulgación mínima y no intrusiva
  • Contenidos autorizados por ley para la detección o persecución de delitos penales
  • Textos IA que hayan sido objeto de una revisión humana y de los que una persona física o jurídica haya asumido la responsabilidad editorial

A quién afecta: proveedores vs responsables del despliegue

El Artículo 50 reparte las responsabilidades entre dos actores de la cadena de valor, con obligaciones complementarias.

Los proveedores: marcado técnico previo

Los proveedores (que desarrollan y comercializan los sistemas de IA) son responsables del marcado técnico: watermarking imperceptible, metadatos de procedencia, mecanismos de detección integrados. También deben proporcionar herramientas que permitan a los responsables del despliegue cumplir sus propias obligaciones.

El primer borrador del Código de prácticas especifica que los proveedores previos (modelos fundacionales) deben integrar el marcado «by design» antes de la comercialización, para que los proveedores de sistemas posteriores puedan cumplir sus obligaciones.

Los responsables del despliegue: etiquetado visible posterior

Los responsables del despliegue (que utilizan los sistemas de IA bajo su propia responsabilidad) deben garantizar el etiquetado visible para los usuarios finales. Es el responsable del despliegue quien debe exhibir el icono común, insertar los avisos y asegurar que las personas estén informadas del origen artificial del contenido.

El uso personal y no profesional de un sistema de IA no convierte al usuario en responsable del despliegue. Sin embargo, la publicación de contenido dirigido a un público amplio puede calificarse como despliegue, incluso para un individuo.

El Código de prácticas sobre transparencia de contenidos IA

Para apoyar la implementación del Artículo 50, la Oficina de IA inició a finales de 2025 la elaboración de un Código de prácticas sobre el marcado y etiquetado de contenidos generados por IA. Aunque voluntario, este código está llamado a convertirse en la referencia de conformidad — los reguladores y tribunales lo utilizarán para evaluar las prácticas empresariales.

Dos grupos de trabajo especializados

El código está siendo redactado por expertos independientes, con la contribución de los actores de la cadena de valor de la IA, organizados en dos grupos de trabajo:

  • GT1 — Técnicas de marcado y detección: watermarking, metadatos, soluciones de procedencia, interoperabilidad, robustez contra la eliminación, gobernanza técnica
  • GT2 — Divulgación de deepfakes y textos IA: etiquetado visible, taxonomía de contenidos, distinción entre contenidos «enteramente generados por IA» y «asistidos por IA», responsabilidades de las plataformas

Durante la segunda ronda de reuniones en enero de 2026, las discusiones se centraron en la articulación entre marcado técnico y etiquetado visible, la necesidad de evitar la fatiga informativa de los usuarios y la coherencia con otras legislaciones de la UE (especialmente el Digital Services Act).

El icono común «IA»

El borrador del Código propone un icono común armonizado a nivel europeo para identificar los contenidos generados por IA. A la espera de la finalización de un símbolo interactivo europeo, la solución provisional es una etiqueta visual con el acrónimo «AI» (o su equivalente local: «IA» en español y francés, «KI» en alemán).

La taxonomía «enteramente IA» vs «asistido por IA»

El Código introduce una distinción entre dos categorías de contenido:

  • Enteramente generado por IA — Contenido creado de forma autónoma por el sistema, sin contenido auténtico de autoría humana
  • Asistido por IA — Contenido con una contribución humana significativa, con la IA en un papel de asistente

Esta distinción tiene implicaciones jurídicas y comerciales importantes. Un contenido etiquetado como «enteramente generado por IA» podría considerarse sin contribución creativa humana suficiente para beneficiarse de la protección del derecho de autor europeo — haciéndolo potencialmente libre para su reutilización por terceros.

Calendario del Código de prácticas

  • Diciembre 2025 — Publicación del primer borrador
  • Marzo 2026 — Publicación del segundo borrador (incorporando comentarios de las partes interesadas)
  • Junio 2026 — Versión final esperada
  • Agosto 2026 — Entrada en vigor de las obligaciones del Artículo 50

Medidas concretas por tipo de contenido

El borrador del Código detalla las medidas de divulgación específicas para cada modalidad de contenido.

Vídeo deepfake en tiempo real

El icono IA debe mostrarse de manera no intrusiva pero permanente durante toda la exposición. Debe insertarse un aviso al inicio de la emisión.

Vídeo deepfake grabado

Un aviso al inicio del vídeo o el icono IA mostrado permanentemente en una posición fija. Para obras artísticas o ficticias, el icono debe aparecer al menos 5 segundos.

Imágenes deepfake

El icono común debe colocarse de forma coherente en cada exposición, en una posición fija dentro de la imagen.

Audio deepfake

Un breve aviso sonoro en lenguaje claro debe insertarse al inicio del contenido. Para contenidos de más de 30 segundos, el aviso debe repetirse. Para obras artísticas, un aviso no intrusivo al inicio es suficiente.

Textos IA de interés público

El icono debe mostrarse en una posición fija, clara y distinguible — en la parte superior del texto, junto al texto, en el colofón o después de la frase final.

Articulación con otras legislaciones de la UE

El Artículo 50 no funciona de forma aislada. Se articula con varios textos europeos:

  • Digital Services Act (DSA) — Las plataformas que son a la vez responsables del despliegue e intermediarios en línea deben combinar las obligaciones del Artículo 50 con los requisitos del DSA (moderación de contenidos, transparencia, evaluaciones de riesgos)
  • RGPD — Los sistemas de reconocimiento de emociones y categorización biométrica (Art. 50.3) plantean cuestiones de protección de datos personales
  • Obligaciones GPAI — Para los modelos GPAI (Art. 51-56), las obligaciones de transparencia del Artículo 50 se acumulan con las obligaciones específicas de los proveedores de modelos
  • Sistemas de alto riesgo — Los sistemas de IA que son a la vez generativos y de alto riesgo deben cumplir tanto las obligaciones de transparencia del Artículo 50 como los requisitos del Capítulo III

Qué deben hacer las empresas ahora

Con el plazo de agosto de 2026, las organizaciones tienen menos de 6 meses para prepararse. Estos son los pasos prioritarios.

1. Cartografiar los sistemas de IA afectados

Identifique todos los sistemas de IA de su organización que generan o manipulan contenido (texto, imagen, audio, vídeo) o que interactúan directamente con personas. Incluya las herramientas de terceros utilizadas por sus equipos (asistentes de redacción, generadores de imágenes, chatbots).

2. Determinar su papel en la cadena de valor

¿Es usted proveedor (desarrolla el sistema de IA) o responsable del despliegue (utiliza un sistema de IA existente)? Las obligaciones difieren. Muchas empresas son ambas cosas para diferentes sistemas.

3. Evaluar las capacidades de marcado existentes

Para proveedores: ¿integran sus sistemas soluciones de watermarking, metadatos de procedencia y detección? ¿Son robustas frente a alteraciones habituales? ¿Son interoperables con los estándares emergentes?

4. Revisar los flujos de publicación

Para responsables del despliegue: ¿cómo se publica el contenido generado por IA en su organización? ¿Existen procesos de etiquetado? ¿Están formados los equipos de marketing, comunicación y editorial?

5. Anticipar el impacto en el derecho de autor

La clasificación «enteramente IA» vs «asistido por IA» puede afectar la protección del derecho de autor de sus contenidos. Evalúe las implicaciones para su propiedad intelectual.

¿Utiliza sistemas de IA generativa y desea evaluar sus obligaciones de transparencia? El diagnóstico gratuito de AiActo identifica su papel (proveedor o responsable del despliegue) y sus obligaciones específicas según el AI Act.

Preguntas frecuentes

¿Se aplica el Artículo 50 a los sistemas de IA que no son de alto riesgo?

Sí. Precisamente eso es lo que hace al Artículo 50 tan importante. Las obligaciones de transparencia se aplican a todos los sistemas de IA generativa, independientemente de su clasificación de riesgo. Un simple chatbot o generador de imágenes está afectado igual que un sistema de IA de alto riesgo.

¿Cuándo entran en vigor las obligaciones del Artículo 50?

El 2 de agosto de 2026. Es el mismo plazo que para los sistemas de IA de alto riesgo del Anexo III. El Digital Omnibus podría modificar ciertos aspectos del calendario, pero el Artículo 50 no está directamente afectado por las prórrogas propuestas.

¿Es obligatorio el Código de prácticas sobre transparencia?

No, el Código de prácticas es voluntario. No obstante, muy probablemente será utilizado como referencia de conformidad por reguladores y tribunales para evaluar si una organización cumple sus obligaciones del Artículo 50. No alinearse con él puede atraer un examen más detallado de las autoridades.

¿Debo etiquetar un texto redactado con ayuda de IA?

La obligación de etiquetado de textos IA (Art. 50.4) se aplica a los textos publicados con el propósito de informar al público sobre asuntos de interés público. Los textos que hayan sido objeto de revisión humana y de los que una persona haya asumido la responsabilidad editorial están exentos. Un correo electrónico interno o un borrador de trabajo no están afectados.

¿Cómo marcar una imagen generada por IA?

Se necesitan dos niveles de marcado. El proveedor integra un marcado técnico imperceptible (watermarking, metadatos C2PA/IPTC). El responsable del despliegue aplica el etiquetado visible — el icono común «IA» en una posición fija. Ambos niveles son complementarios.

¿Están exentas las obras artísticas o satíricas?

Parcialmente. Los deepfakes que formen parte de una obra evidentemente artística, creativa, satírica o ficticia se benefician de un régimen aligerado: basta una divulgación mínima y no intrusiva (ej.: icono mostrado 5 segundos para vídeo). Pero la exención total no existe — un nivel mínimo de transparencia sigue siendo obligatorio.

El Artículo 50 es la obligación del AI Act que afectará a más organizaciones, mucho más allá del círculo de proveedores de sistemas de alto riesgo. Con la entrada en vigor en agosto de 2026 y un Código de prácticas que va tomando forma, las empresas que anticipen desde ahora el marcado y etiquetado de sus contenidos IA tomarán ventaja — tanto en conformidad como en la confianza de sus usuarios.

Compartir este artículo

Artículos similares