Pruebe todas las funcionalidades gratis — 3 créditos incluidos al registrarseProbar gratis
Ir al contenido principal
contenido ia identificaciónartículo 50 ai act

Sus imágenes y vídeos de IA deben identificarse desde noviembre de 2026: qué implica

20 de abril de 20267 min17
Sus imágenes y vídeos de IA deben identificarse desde noviembre de 2026: qué implica

En resumen

  • 2 de noviembre de 2026 - fecha fija: el Parlamento Europeo ha fijado esta fecha para la obligación de marcado legible por máquina de los contenidos de IA, en el marco del Digital Omnibus en curso de trilogue
  • Artículo 50 AI Act - parcialmente ya en vigor: la obligación de informar a los usuarios de que interactúan con una IA (chatbots) se aplica desde agosto de 2026. El marcado de contenidos generativos llega en noviembre.
  • Quién está afectado: cualquier empresa que genere y distribuya públicamente imágenes, vídeos, audios o textos producidos por IA
  • Dos niveles de obligación: etiquetado visible para deepfakes, marcado legible por máquina para todos los contenidos generativos distribuidos a gran escala
  • No es opcional: las infracciones del Artículo 50 se sancionan con hasta 7,5 millones de euros o el 1% de la facturación mundial
  • Las herramientas se adaptan: OpenAI, Google y Mistral están implementando watermarking en sus APIs - pero usted debe verificar que esté activado y que se preserve en su flujo de publicación

¿Usa Midjourney para sus visuales, ChatGPT para sus textos o una herramienta de síntesis de voz IA para sus podcasts? Pronto deberá indicarlo claramente - y no solo en sus avisos legales. El AI Act (Reglamento UE 2024/1689) impone una obligación de marcado de contenidos generados por IA que llega a una fecha precisa, fijada en el marco del Digital Omnibus actualmente en proceso de finalización: el 2 de noviembre de 2026.

Esta fecha no es condicional. A diferencia de las obligaciones de alto riesgo del Anexo III cuyo aplazamiento al 2 de diciembre de 2027 está en negociación, el marcado de contenidos se mantiene en el calendario acelerado por ambas instituciones europeas.

Lo que dice exactamente el Artículo 50 del AI Act

Obligación 1 - Chatbots e IA conversacional (Art. 50§1)

Aplicable desde el 2 de agosto de 2026. Cualquier persona que interactúe con un sistema de IA debe ser informada de que habla con una máquina. Excepción: cuando el contexto hace evidente el carácter IA.

Obligación 2 - Reconocimiento emocional y biométrico (Art. 50§3)

Los sistemas que analizan emociones o categorizan a personas por características biométricas deben informar a las personas afectadas. Aplicable desde el 2 de agosto de 2026.

Obligación 3 - Deepfakes y contenidos manipulados (Art. 50§4)

La obligación más amplia para las empresas productoras de contenidos. Todo contenido audio o visual generado o manipulado por IA para parecerse a personas, lugares o eventos reales debe identificarse claramente como artificial o manipulado.

  • Vídeos de avatares IA que se parecen a personas reales en sus campañas
  • Fotos de "testimonios de clientes" generadas por IA
  • Voces sintéticas que imitan a un presentador conocido
  • Vídeos de presentadores IA presentando noticias o información de productos
  • Imágenes de lugares reales retocadas o generadas por IA presentadas como auténticas

Obligación 4 - Marcado legible por máquina (Art. 50§2) - la gran novedad de noviembre de 2026

La obligación técnica más estructurante. Los proveedores de sistemas de IA generativa deben asegurarse de que sus outputs están marcados en un formato legible por máquina. Este marcado invisible a nivel de archivo permite a las plataformas, reguladores y algoritmos de detección verificar automáticamente el origen IA de un contenido.

La distinción clave: la obligación 3 (Art. 50§4) se dirige a los desplegadores - usted debe mostrar la etiqueta. La obligación 4 (Art. 50§2) se dirige a los proveedores de modelos - son OpenAI, Midjourney, ElevenLabs quienes deben integrar el marcado en sus outputs. Pero si usa estas herramientas y el marcado está ausente o ha sido eliminado, usted sigue siendo responsable como desplegador.

Lo que el Digital Omnibus cambia en el calendario

  • Chatbots Art. 50§1: fecha mantenida al 2 de agosto de 2026
  • Deepfakes Art. 50§4: fecha mantenida al 2 de agosto de 2026
  • Marcado legible por máquina Art. 50§2: el Parlamento propone el 2 de noviembre de 2026; el Consejo propone el 2 de febrero de 2027. Fecha final a decidir en trilogue.

Estado de implementación en los proveedores

  • OpenAI: implementando progresivamente el marcado C2PA en imágenes generadas por DALL-E
  • Google: integra SynthID en Imagen y Lyria (audio). El watermark es invisible y resistente a modificaciones comunes
  • Adobe: pionero del estándar C2PA, integrado en Firefly y Photoshop
  • Mistral: implementación progresiva en modelos generativos de imágenes

Qué debe hacer antes de noviembre de 2026

  1. Inventariar sus herramientas de generación de contenidos IA: listar todas las herramientas que producen imágenes, vídeos, audios o textos. Para cada una, verificar si integran marcado C2PA o equivalente en sus exportaciones.
  2. Auditar su flujo de publicación: identificar los pasos donde los metadatos de marcado podrían eliminarse - conversión de formato, subida a redes sociales, compresión web.
  3. Añadir etiquetas visibles en sus deepfakes: para toda imagen o vídeo de IA de una persona real, añadir una mención visible - "Generado por IA", "Imagen sintética", "Voz sintética". Es la obligación Art. 50§4, aplicable desde agosto de 2026.
  4. Actualizar sus condiciones generales y menciones legales: indicar claramente que su sitio o aplicación usa IA generativa para producir contenidos.
  5. Formar a sus equipos de contenido y marketing: los equipos que publican contenidos deben saber qué está sujeto a la obligación de marcado y cómo verificar la presencia del watermark antes de publicar.

El diagnóstico de AiActo le ayuda a identificar si sus usos de IA entran en el ámbito del Artículo 50 y a preparar su documentación de conformidad antes de los plazos.

La obligación de marcado de contenidos IA no es una restricción abstracta - es la respuesta regulatoria a abusos documentados: deepfakes electorales, publicidad falsa con celebrities IA, vídeos sintéticos presentados como reales. Consulte el calendario del AI Act para planificar sus pasos antes de noviembre de 2026.

Preguntas frecuentes sobre el marcado de contenidos de IA

¿Cuándo entra en vigor la obligación de marcado de contenidos IA en Europa?

La obligación de marcado visible de deepfakes y contenidos manipulados (Artículo 50§4 del AI Act) se aplica desde el 2 de agosto de 2026. La obligación de marcado legible por máquina (Artículo 50§2 - watermarking) entra en vigor el 2 de noviembre de 2026 según la posición del Parlamento Europeo en el Digital Omnibus, o el 2 de febrero de 2027 según la posición del Consejo. La fecha definitiva será fijada por el acuerdo de trilogue esperado a finales de abril de 2026.

¿Qué tipos de contenidos de IA deben identificarse obligatoriamente según el AI Act?

El Artículo 50 del AI Act exige la identificación de varias categorías: deepfakes y contenidos audio/visuales generados o manipulados por IA que representen a personas, lugares o eventos reales (Art. 50§4); outputs de sistemas de IA generativa a gran escala con marcado legible por máquina (Art. 50§2); e interacciones con chatbots donde los usuarios deben ser informados de que hablan con una máquina (Art. 50§1). Las obras artísticas claramente presentadas como ficticias están exentas.

Mi empresa usa imágenes generadas por IA para marketing: ¿estoy afectado?

Sí, si esas imágenes representan a personas reales o se presentan como fotos auténticas. El Artículo 50§4 exige una mención clara para todo contenido IA que represente a personas reales identificables - incluidos testimonios de clientes con avatares IA, fotos de "clientes satisfechos" generadas por IA o vídeos de presentadores sintéticos. El diagnóstico de AiActo puede identificar sus obligaciones precisas.

¿Qué es el estándar C2PA y es suficiente para cumplir el AI Act?

El C2PA (Coalition for Content Provenance and Authenticity) es un estándar técnico abierto que incrusta metadatos criptográficos en archivos multimedia para certificar su origen. Respaldado por Adobe, Microsoft y Google, es la referencia principal que los proveedores de herramientas IA están implementando para cumplir la obligación de marcado del Artículo 50§2. Un archivo con metadatos C2PA intactos satisface la obligación de marcado legible por máquina, siempre que esos metadatos no se eliminen durante el procesamiento o la publicación.

¿Qué sanciones se aplican si mi empresa no etiqueta sus contenidos IA?

Las infracciones de las obligaciones de transparencia del Artículo 50 del AI Act se sancionan con multas de hasta 7,5 millones de euros o el 1% de la facturación mundial anual, aplicándose la cifra más elevada. Estas sanciones se aplican tanto a los proveedores de herramientas IA como a los desplegadores. En España, la AESIA es la autoridad nacional competente para el AI Act.

¿La obligación de marcado de contenidos IA se aplica a los textos generados por ChatGPT?

La obligación de marcado legible por máquina (Art. 50§2) se aplica a textos generativos distribuidos a gran escala por sistemas de IA. Para un uso profesional estándar - redactar un correo revisado y modificado por un humano - el etiquetado visible no es automáticamente obligatorio. Sin embargo, si el texto se genera y publica directamente sin supervisión humana real, o representa un testimonio falso atribuido a una persona real, se aplica la obligación de transparencia.

Compartir este artículo