Así afecta la nueva ley IA a las empresas y negocios

- Publicidad -

En un movimiento histórico, el Parlamento Europeo ha dado luz verde recientemente a la Ley de Inteligencia Artificial (AI Act), adelantándose en la regulación de estas tecnologías a nivel global. Esta normativa integral, la primera en su tipo, entra en vigor tras completar un extenso proceso legislativo, iniciando la cuenta atrás para que empresas de todos los sectores adapten sus operaciones a los nuevos estándares establecidos.

«Esta ley coloca a Europa a la cabeza en regulación de tecnología, cambiando el escenario para todos, desde gigantes corporativos hasta startups y entidades del sector público.«, afirma Nacho de Pinedo, experto en Inteligencia Artificial y fundador de ISDI. «El modelo legislativo europeo gira alrededor del concepto de IA responsable: pone la seguridad y el respeto a las personas primero, prohibiendo o limitando su uso en categorías altamente sensibles como la biométrica o la manipulación subliminal, pero a la vez abre un campo de juego suficientemente amplio en otras aplicaciones de mercado para que las empresas puedan desarrollar competitividad a través de esta tecnología

La ley tiene como objetivo central el respeto y la protección de los derechos fundamentales y la dignidad humana en el desarrollo y aplicación de la inteligencia artificial, estableciendo un marco regulatorio que promoverá una innovación responsable.

La nueva legislación se aplica tanto a entidades públicas como privadas, afectando a cualquier empresa, dentro y fuera de la UE, que desarrolle o implemente herramientas de IA en el mercado europeo. Este enfoque inclusivo garantiza que los productos y servicios de IA respeten los principios éticos y de seguridad antes de su comercialización, llevando una etiqueta de cumplimiento y proporcionando la documentación necesaria.

Riesgos y regulaciones

Bajo la nueva Ley de Inteligencia Artificial de la UE, las empresas enfrentarán una clasificación de sus sistemas de IA en cuatro categorías de riesgo: inaceptable, alto limitado y mínimo. Por ejemplo,  la aplicación de técnicas subliminales o de clasificación de individuos con fines discriminatorios es inaceptable y está prohibida. La identificación biométrica o el uso en educación o reclutamiento es de alto riesgo y requiere una serie de controles y aprobaciones.  En cambio, otras categorías limitan su obligación nada más que al deber de transparencia.

Esta clasificación dictará el nivel de responsabilidad y las restricciones aplicables a cada sistema, poniendo especial énfasis en aquellos considerados como de alto riesgo o inaceptables debido a su potencial para comprometer la seguridad y los derechos fundamentales.

Para cumplir con la ley, las empresas deberán evaluar cuidadosamente sus sistemas de IA, asegurándose de que no caigan en categorías de usos prohibidos como las tecnologías que manipulan comportamientos de forma subliminal, categorización biométrica de datos sensibles, recolección ilimitada de imágenes faciales en internet, reconocimiento emocional indebido en entornos laborales o educativos, sistemas de puntuación social y la vigilancia policial predictiva.

Con la proliferación de deepfakes y otros contenidos generados por IA, esta ley también aborda la necesidad urgente de proteger nuestra capacidad para discernir la realidad, imponiendo regulaciones estrictas para combatir la desinformación y proteger la integridad de la información.

Sin embargo, Nacho de Pinedo también advierte: Europa ha tomado la delantera generando un regulación firme sobre IA que permite su progreso buscando un compromiso entre la protección del ciudadano y su aplicación competitiva por parte del mercado.  Pero preocupa que algunas empresas opten por operar desde ‘refugios’ de legislación laxa, similares a paraísos fiscales. Esto trasciende una cuestión ética y subraya la necesidad crítica de una normativa global y cohesiva en torno a la inteligencia artificial.”

Implementación y sanciones

La ley se implementará por etapas, comenzando con prohibiciones inmediatas en algunos ámbitos y estableciendo normativas detalladas para las IA de alto impacto. Las empresas deberán estar preparadas para adaptarse rápidamente, con sanciones significativas previstas para el incumplimiento.

Fase 1: Implementación Inicial (6 meses)

  • Todas las entidades, tanto públicas como privadas, deben revisar los sistemas de IA que emplean.
  • Ajustar las operaciones a los requisitos de seguridad y ética estipulados por la ley.

Fase 2: Regulaciones para Modelos Fundacionales (1 año después)

  • Aplicable a modelos de IA generativa de alto impacto (ej. GPT-4 de OpenAI).
  • Cumplimiento de normativas de transparencia, seguridad informática y documentación técnica previa al lanzamiento al mercado.
  • Los modelos menos complejos las regulaciones se activarán en el momento de la comercializació

Fase 3: Plena Aplicabilidad de la Ley (2 años después)

  • La ley es totalmente aplicable.
  • Sanciones:
    • Para infracciones menores: 1.5% de los ingresos globales o 7.5 millones de euros.
    • Para infracciones graves: Hasta el 7% de los ingresos globales o 35 millones de euros.

 

- Publicidad -