lunes, 29 de septiembre de 2025

Italia aprueba la primera ley nacional sobre inteligencia artificial en la UE

 


 laecuaciondigital

Italia se ha convertido en el primer país de la Unión Europea en promulgar una ley nacional específica sobre inteligencia artificial, adelantándose a la aplicación completa del Reglamento Europeo de Inteligencia Artificial (AI Act), previsto para 2030.

 

La nueva legislación fue aprobada por el Senado el pasado 17 de septiembre y contempla un marco normativo transversal que regula el uso, desarrollo y gobernanza de la IA en sectores clave como sanidad, justicia, educación, administración pública y trabajo.

La ley, impulsada por el Gobierno de Giorgia Meloni, se fundamenta en principios de uso antropocéntrico, seguro y transparente. Según declaraciones recogidas por Reuters, el Ejecutivo ha definido como prioridades la trazabilidad de los sistemas, la supervisión humana y la protección de la privacidad, a la vez que subraya su interés en fomentar la ciberseguridad y la transferencia tecnológica en empresas italianas.

Supervisión nacional y organismos responsables

En materia de gobernanza, la normativa designa a dos entidades como autoridades competentes: la Agencia para la Ciberseguridad Nacional (ACN), con funciones de inspección y control, y la Agencia para Italia Digital (AgID), encargada de gestionar las notificaciones y promover usos seguros de la IA en el ámbito público y empresarial. Además, se establece un mecanismo de planificación estratégica que contempla la actualización bienal de la Estrategia Nacional de Inteligencia Artificial y un informe anual al Parlamento sobre su implementación.

Los organismos reguladores sectoriales, como el Banco de Italia o la autoridad de mercados financieros Consob, mantienen sus competencias en los ámbitos correspondientes. El Ministerio de Trabajo, por su parte, albergará un observatorio dedicado a monitorizar riesgos de discriminación o abuso derivados del uso de herramientas automatizadas.

Restricciones al uso por menores y sanciones penales

Uno de los puntos más destacados de la nueva ley es la introducción de restricciones específicas al acceso a sistemas de IA por parte de menores. En concreto, se requiere consentimiento parental para que los menores de 14 años puedan utilizar este tipo de herramientas, tras varios incidentes internacionales que han reavivado el debate sobre la exposición infantil a contenidos generados por IA.

La normativa también tipifica nuevos delitos relacionados con el uso ilícito de inteligencia artificial. La creación y difusión de contenidos falsificados mediante IA, como los denominados deepfakes, será penada con entre uno y cinco años de prisión si provoca perjuicios a terceros. Asimismo, se prevén agravantes en delitos como el fraude o el robo de identidad cuando se empleen sistemas automatizados para su comisión.

Sanidad, justicia y entorno laboral: límites al uso automatizado

En el ámbito sanitario, la ley permite el uso de IA para apoyo al diagnóstico y la atención médica, pero exige que la decisión final permanezca en manos de profesionales humanos. También se reconoce el derecho de los pacientes a recibir información comprensible sobre el papel de la tecnología en su atención.

En el sistema judicial, la normativa prohíbe expresamente que los jueces deleguen resoluciones en sistemas automatizados. Del mismo modo, en el entorno laboral se obliga a los empleadores a informar a los trabajadores si se emplean herramientas de IA para funciones relacionadas con la contratación, supervisión o evaluación del desempeño.

Marco sobre propiedad intelectual y minería de datos

En lo relativo a derechos de autor, el texto legal establece que las obras generadas con asistencia de IA podrán acogerse a protección legal si derivan de un esfuerzo intelectual humano identificable. En cambio, se restringe el uso de minería de textos y datos a contenidos no protegidos o a proyectos de investigación científica impulsados por instituciones autorizadas.

Este punto busca dar respuesta a las crecientes tensiones entre los desarrolladores de IA y los titulares de derechos de propiedad intelectual, en un momento en que diversas demandas judiciales han puesto en cuestión la legalidad del entrenamiento de modelos sobre grandes volúmenes de contenido sin licencia previa.

Programa de inversión pública y críticas al alcance financiero

La ley contempla también la activación de un fondo de inversión dotado con hasta 1.000 millones de euros, gestionado a través de un vehículo de capital riesgo con participación estatal. Su objetivo es financiar iniciativas empresariales en los campos de la IA, la ciberseguridad, las telecomunicaciones y las tecnologías cuánticas, tanto en grandes compañías como en pymes y startups.


No obstante, el alcance de este apoyo financiero ha sido cuestionado por sectores de la oposición y organizaciones especializadas. Según informó Il Sole 24 Ore, el Partido Democrático ha señalado que los recursos son insuficientes para fomentar la adopción tecnológica a gran escala. Por su parte, la Red por los Derechos Humanos Digitales expresó su preocupación por lo que considera una concentración excesiva de poder regulador en manos del Gobierno.

Precedentes regulatorios y contexto europeo

Italia ya había protagonizado episodios destacados en materia de supervisión tecnológica. En enero de 2024, su autoridad de protección de datos ordenó la suspensión temporal de ChatGPT al considerar que procesaba información personal sin una base legal válida, en aplicación del Reglamento General de Protección de Datos (GDPR). La nueva ley consolida este enfoque preventivo, situando al país como actor activo en la definición de límites a la automatización en línea con los valores constitucionales italianos.

El marco normativo se aprueba en un contexto europeo en el que aún se están definiendo los mecanismos concretos de aplicación del AI Act. La legislación italiana se alinea formalmente con este reglamento, aunque introduce medidas adicionales en función de las competencias nacionales. Coincide también con recientes declaraciones de Mario Draghi, ex presidente del Banco Central Europeo, quien cuestionó la capacidad competitiva de la Unión en materia de IA y propuso pausar la implantación del AI Act hasta evaluar mejor sus implicaciones.

Hacia una supervisión diferenciada y en evolución

La legislación aprobada en Italia representa el primer ejemplo en la UE de una ley nacional integral sobre inteligencia artificial. Aunque su alineación con la normativa comunitaria es explícita, su enfoque propio plantea interrogantes sobre la armonización futura del marco legal europeo en este campo.

El carácter transversal de la norma, unido a las facultades específicas asignadas a organismos nacionales, puede establecer un modelo que otros países comunitarios consideren replicar o adaptar. Sin embargo, dado el carácter global de los desarrollos tecnológicos actuales, el efecto práctico de estas disposiciones dependerá también de su interoperabilidad con regulaciones internacionales y del grado de cumplimiento por parte de empresas transnacionales.