Europa es una región muy activa en materia de legislación, quizás en exceso. Dada la preocupación que existe sobre la irrupción de la IA, el viejo continente pronto se afanó en regular esta tecnología para evitar excesos y promover un uso ético de la misma. Sin entrar en si es acertado o no, el Reglamento Europeo de Inteligencia Artificial (RIA) es el marco jurídico en el que se deben mover agentes e instituciones en el uso de la IA.
En vigor desde agosto de 2024, esta medida impulsada por la Unión Europea tiene como objetivo principal fomentar el desarrollo y uso responsable de la IA en todo el territorio europeo. Y como toda ley, también recoge multas y sanciones para todos aquellos que no estén alineados con tales medidas.
Índice de contenidos
El entorno actual de la IA
La inteligencia artificial ha transformado profundamente el panorama de las nuevas tecnologías, con más del 24% de las empresas españolas utilizando ya alguna forma de IA, según el «III Informe sobre Transformación Digital» de InfoJobs. Entre las herramientas más populares está ChatGPT, lanzada en noviembre de 2022, que en 2024 ya cuenta con 200 millones de usuarios activos semanales a nivel mundial. Este chat basado en IA registró más de 1,5 millones de visitantes en febrero de 2024, según datos de UBS.
A pesar del entusiasmo por la IA, también surgen preocupaciones en torno a su uso. Desde Secure&IT, empresa española referente en ciberseguridad, advierten sobre el uso de herramientas como ChatGPT: «Debemos ser conscientes de que al utilizar estas aplicaciones, estamos proporcionando datos que la IA puede usar más tarde en su beneficio», señalan.
Esta advertencia refleja uno de los desafíos clave que enfrenta el Reglamento Europeo de Inteligencia Artificial: garantizar que las organizaciones que desarrollan y utilizan IA lo hagan de manera ética y responsable, protegiendo la privacidad y seguridad de los usuarios.
Impacto del Reglamento Europeo de Inteligencia Artificial en las organizaciones: posibles sanciones
El Reglamento de Inteligencia Artificial clasifica a los operadores en diferentes categorías, entre las que destacan los proveedores, distribuidores e importadores de sistemas de IA. No todas las entidades enfrentan las mismas obligaciones bajo el RIA, aunque las empresas que desarrollan sistemas de IA de alto riesgo se verán más afectadas, ya que estos son susceptibles de causar daños a la salud, seguridad o derechos fundamentales.
Según Natalia Patiño, consultora Legal TIC de Secure&IT, los sistemas de alto riesgo incluyen aquellos utilizados en sectores como vehículos a motor, productos sanitarios, sistemas de identificación biométrica, así como infraestructuras críticas. Las empresas que no cumplan con la normativa pueden enfrentarse a sanciones que alcanzan los 35 millones de euros o el 7% de su volumen de negocio anual.
Consecuencias de la nueva regulación
Desde su aprobación, el Reglamento Europeo de Inteligencia Artificial ya ha tenido repercusiones en el sector tecnológico. Apple, por ejemplo, ha anunciado que su inteligencia artificial, Apple Intelligence, no estará disponible en la Unión Europea a corto plazo debido a las restricciones impuestas por el reglamento. Aunque la empresa planea lanzar su IA en varios idiomas, incluido el español, su disponibilidad en Europa será limitada. Esta es una de las grandes novedades que llegarán de la mano de iOS 18, la última actualización del famoso sistema operativo de Apple para sus dispositivos móviles.
Natalia Patiño también subraya la importancia de definir correctamente lo que constituye IA para aplicar correctamente la normativa. «El término ‘inteligencia artificial’ se utiliza a menudo como estrategia de marketing, lo que puede generar confusión sobre qué productos o servicios realmente incorporan IA», advierte Patiño.
Riesgos del uso de la IA
Aunque el Reglamento Europeo de Inteligencia Artificial busca regular el uso responsable de la inteligencia artificial, los riesgos asociados al uso de IA generativa siguen siendo motivo de preocupación. Uno de los principales es el uso de los datos proporcionados por los usuarios en los «prompts» o entradas de información. Empresas como OpenAI, creadora de ChatGPT, han reconocido que utilizan estos datos para reentrenar sus modelos y, potencialmente, compartirlos con terceros.
Además, incidentes de seguridad en los sistemas de IA generativa pueden comprometer información sensible. En marzo de 2023, ChatGPT sufrió un incidente que expuso datos confidenciales, incluidas conversaciones de usuarios y datos de pago de suscriptores.
Otro riesgo es la posibilidad de que la IA genere resultados incorrectos, o «alucinaciones», debido a la falta de supervisión humana en tiempo real. Esto pone de relieve la importancia de contar con mecanismos de control y responsabilidad en el uso de estas tecnologías.
En resumen, mientras que la IA sigue ofreciendo oportunidades inmensas para la innovación y el desarrollo tecnológico, su uso debe estar acompañado de una regulación adecuada y una conciencia clara de los riesgos involucrados. El Reglamento Europeo de Inteligencia Artificialrepresenta un primer paso crucial para garantizar un entorno más seguro y responsable en el ámbito de la inteligencia artificial dentro de la Unión Europea.