TU VOZ, TU CARA Y UNA MENTIRA VIRAL: CÓMO QUIERE RESPONDER LA LEY FRENTE A LOS “DEEPFAKES”

TU VOZ, TU CARA Y UNA MENTIRA VIRAL: CÓMO QUIERE RESPONDER LA LEY FRENTE A LOS “DEEPFAKES” 150 150 Lexjuridic

El Gobierno ha anunciado el pasado 15 de enero la aprobación del Anteproyecto de Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. Un nombre largo para un problema muy actual: qué hacer cuando la tecnología permite poner palabras en tu boca, gestos en tu cara y conductas en tu historial… sin que hayas hecho nada de eso.

El anteproyecto nace como respuesta —o quizá como reacción algo tardía— a una realidad social marcada por los deepfakes y su difusión masiva en redes sociales. Una tormenta perfecta en la que se mezclan inteligencia artificial, viralidad y una creciente dificultad para distinguir lo verdadero de lo falso, con consecuencias cada vez más difíciles de reparar.

Cuando lo falso ya no parece falso

Desde hace años convivimos con imágenes y vídeos generados por inteligencia artificial cada vez más realistas. Algunos son abiertamente absurdos —como aquel vídeo en el que Trump y Zelenski aparecían forcejeando en la Casa Blanca— y, aunque llamen la atención, la mayoría de los espectadores identifican que se trata de una broma o de ficción.

El problema empieza cuando lo generado resulta creíble, cuando no provoca risa sino duda, y cuando además daña el honor, la intimidad o la reputación de una persona real. En esos casos, el daño ya no es hipotético: es inmediato, viral y difícil de borrar.

El arranque de este año ha estado marcado por polémicas graves relacionadas con la difusión de este tipo de contenidos en la red social de Elon Musk, lo que ha vuelto a poner sobre la mesa la urgencia de regular en esta materia.

Los esfuerzos legislativos frente a la IA avanzan por dos grandes vías:

  • La regulación tecnológica y de orden público, donde la Unión Europea ya ha fijado un marco obligatorio para los Estados Miembros que clasifica los sistemas de IA (prohibidos, de alto riesgo y de uso general) y establece sanciones y responsabilidades.
  • La protección de los derechos fundamentales de las personas afectadas, que es precisamente el eje de este anteproyecto y el foco de este artículo.

 La nueva ley del honor: punto de partida, no de llegada

Conviene subrayar que estamos ante un anteproyecto. Su tramitación parlamentaria aún puede introducir cambios relevantes y su aprobación definitiva no está garantizada, especialmente teniendo en cuenta que cuando se trata de una ley orgánica necesita mayoría absoluta (la mitad mas uno) en el congreso.

Aun así, su contenido ya permite identificar con claridad la orientación de la reforma, especialmente si se compara con la Ley Orgánica de 1982 y se analizan los motivos que la justifican.

¿Por qué era necesaria una reforma?

El Gobierno expresa en la exposición de motivos que la ley vigente ha funcionado razonablemente bien durante más de cuarenta años. El problema es que todo lo que la rodea ha cambiado.

Desde entonces se han aprobado normas sobre protección de menores, datos personales, derechos digitales, discapacidad o rectificación informativa, además de nueva legislación europea que afecta directamente a la imagen, la voz y la identidad personal.

A esto se suma un cambio social profundo: hoy somos los propios ciudadanos quienes exponemos fragmentos de nuestra vida privada en redes sociales, muchas veces sin ser plenamente conscientes del alcance real de ese consentimiento. La reforma lanza un mensaje claro y tranquilizador: compartir no significa renunciar a tus derechos fundamentales.

Puntos clave de la nueva propuesta legislativa

La propuesta arranca de una idea que no es nueva, pero que sigue siendo clave para entender todo lo que viene después: los derechos al honor, a la intimidad y a la propia imagen no son absolutos. Como ya ocurría en la normativa anterior, deben convivir —a veces con fricción— con la libertad de expresión y de información.

Por eso, el anteproyecto no opta por la vía fácil de prohibir sin matices. Se mantiene, por ejemplo, la posibilidad de difundir comunicaciones privadas cuando exista un interés público relevante. La lógica es clara: no se trata de blindar la realidad frente a cualquier uso incómodo, sino de ponderar derechos caso por caso.

Dicho esto, la reforma no se queda en una mera declaración de principios. Introduce cambios concretos y muy relevantes que conviene destacar, porque marcan un antes y un después en cómo se protege la imagen, la voz y la identidad personal en la era de los deepfakes.

Consentir no es dar carta blanca

Uno de los pilares del anteproyecto es la redefinición del consentimiento. Autorizar el uso de la imagen o la voz no implica permitir cualquier utilización posterior. El consentimiento es limitado, contextual y revocable, y su extralimitación constituye una intromisión ilegítima.

La norma presta especial atención a los menores de edad, fijando los 16 años como umbral para presumir madurez suficiente, sin renunciar a una protección reforzada cuando se vea afectada su dignidad o interés superior. Incluso con consentimiento, cualquier uso perjudicial será ilícito.

En cuanto a las personas con discapacidad, la ley se alinea con la legislación más reciente: se reconoce su capacidad para consentir por sí mismas, con los apoyos necesarios, abandonando enfoques paternalistas.

Deepfakes, IA y suplantaciones hiperrealistas

El elemento más innovador de la reforma es la incorporación expresa de los deepfakes y las suplantaciones tecnológicas al núcleo de la protección del honor.

La creación o difusión de imágenes o voces falsificadas que reproduzcan de forma hiperrealista a una persona pasa a considerarse, siempre que no haya su consentimiento, una intromisión ilegítima.

La protección no se limita a contenidos generados por IA, sino que abarca cualquier manipulación tecnológica destinada a engañar, defraudar o dañar la reputación.

Existen, no obstante, excepciones: tratándose de personajes públicos, estos contenidos podrán emplearse en contextos claramente satíricos, artísticos o de ficción, siempre que se informe de forma visible de su carácter artificial. La creatividad se protege, pero no el engaño. 

Más tutela judicial y reparaciones efectivas

El anteproyecto refuerza los mecanismos judiciales de protección: amplía quién puede defender los derechos de una persona fallecida, otorga al Ministerio Fiscal un papel activo cuando hay menores implicados y endurece el enfoque sobre las indemnizaciones por daño moral, que dejan de ser meramente simbólicas.

Asimismo, se facilita la adopción de medidas cautelares para retirar imágenes o voces —reales o manipuladas— incluso antes de que exista sentencia firme.

Conclusiones: qué aporta esta reforma y qué queda por resolver

La Exposición de Motivos sitúa esta reforma dentro del Plan de Acción por la Democracia, cuyo objetivo es mejorar la calidad del debate público en el entorno digital. Y es cierto que la manipulación de rostros y voces puede tener un impacto enorme en la opinión pública: a veces, una imagen pesa más que mil desmentidos.

Sin embargo, permitir que los afectados se defiendan —necesario, sin duda— no basta por sí solo. Tampoco puede asumirse que toda la carga de detectar y frenar la manipulación recaiga sobre los usuarios.

La clave está en definir con claridad las responsabilidades y los límites de los proveedores de servicios, un asunto que debería resolverse en el otro gran anteproyecto pendiente: la Ley para el buen uso y la gobernanza de la Inteligencia Artificial. España está obligada a incorporar esta norma conforme al reglamento europeo de 2024, pero, a pesar de ello, el texto sigue guardado en un cajón desde marzo de 2025, dejando un vacío normativo que dificulta dar una respuesta integral a los daños que la tecnología puede causar.

La intención de esta reforma es positiva, pero insuficiente si no se coordina con la normativa tecnológica. Tipificar mejor las lesiones al honor y endurecer las indemnizaciones plantea una pregunta inevitable: ¿contra quién se actúa realmente? ¿El usuario que crea el contenido, la plataforma que lo viraliza o el proveedor de la herramienta de IA?

Estas cuestiones quedan fuera del alcance de este anteproyecto, pero exigen una respuesta integral que combine protección de derechos y regulación tecnológica. Teniendo en cuenta que la ley siempre llega tarde y que esta realidad ya está causando daños concretos, ojalá 2026 sea el año en que veamos propuestas legislativas terminadas y afinadas que realmente nos protejan frente a los riesgos de la inteligencia artificial.

Back to top

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies y nuestra política de privacidad

ACEPTAR
Aviso de cookies