Publicado el 23 de mar. 2024
0

La UE aprobó la primera ley integral de IA del mundo

Las violaciones a la Ley de IA podrían generar multas de hasta 35 millones de euros (38 millones de dólares), o el 7% de los ingresos globales de una empresa.

La UE aprobó la primera ley integral de IA del mundo
Lo más importante
  • El parlamento de la Unión Europea aprobó esta semana la primera Ley de Inteligencia Artificial con el objetivo de establecer un marco normativo "claro" que se pondrá en marcha en los próximos meses.

  • Las violaciones a Ley de IA podrían generar multas de hasta 35 millones de euros (38 millones de dólares), o el 7% de los ingresos globales de una empresa.

  • Cada país de la UE creará su propio organismo de control de la IA. Mientras tanto, Bruselas creará una Oficina de IA encargada de hacer cumplir y supervisar la ley para los sistemas de IA de uso general.

  • En lo que respecta a las normativas para los sistemas de inteligencia artificial de uso general, como los chatbots, se aplicarán un año después de que la ley sea promulgada. Se estima que a mediados de 2026 tendrá plena vigencia el marco normativo completo, incluidos los requisitos para sistemas de alto riesgo.

  • Luego de que la Unión Europea aprobara este miércoles la Ley de IA, ahora se espera que se promulgue oficialmente en mayo o junio ya que las disposiciones comenzarán a entrar en vigencia por etapas y los países deberán prohibir los sistemas de IA prohibidos seis meses después de que las normas entren en los estatutos legales de la UE.

El parlamento de la Unión Europea aprobó esta semana la primera Ley de Inteligencia Artificial con el objetivo de establecer un marco normativo "claro" que se pondrá en marcha en los próximos meses.

Esto sucede cinco años después de que aparecieran las primeras propuestas para regular la IA. Diversas voces del parlamento expresaron su deseo de que otras naciones del mundo avancen en el mismo sentido.

Uno de los principales impulsores del proyecto de ley es el legislador rumano Dragos Tudorache y expresó que "la Ley de IA ha impulsado el futuro de la IA en una dirección centrada en el ser humano, en una dirección en la que los humanos tienen el control de la tecnología y donde ella (la tecnología) nos ayuda a aprovechar nuevos descubrimientos, el crecimiento económico, el progreso social y desbloquear el potencial humano."

Al igual que sucede en el ecosistema de las criptomonedas, las grandes empresas de tecnología ya venían manifestando su acompañamiento a esta ley de regulación de la IA mientras que el director ejecutivo de OpenAI, Sam Altman advirtió el año pasado que podría abandonar Europa si no pueden cumplir con la Ley de IA.

¿Cómo funciona la Ley de IA?

Según el parlamento de la Unión Europea, el propósito de la Ley de Inteligencia Artificial es proteger a los usuarios.

En este sentido, mientras más "riesgosa" sea la aplicación de la IA, más normativas deberá enfrentar. La idea de la UE es que la mayoría de los sistemas que implementan IA "sean de bajo riesgo" como los sistemas de recomendación de contenidos o los filtros de spam. En este caso, las empresas podrán optar por seguir requisitos y códigos de conducta voluntarios.

Son considerados de "alto riesgo" aquella implementación de IA en dispositivos médicos o infraestructuras críticas como redes de agua o eléctricas; en este caso tendrán que afrontarse con normativas regulatorias muchísimo más estrictas.

Vale destacar que ya hay algunos casos donde la IA está totalmente prohibida porque se considera que plantean un "riesgo inaceptable", tal como sucede con los "sistemas de puntuación social que rigen el comportamiento de las personas, algunos tipos de vigilancia policial predictiva y sistemas de reconocimiento de emociones en las escuelas y los lugares de trabajo", según destaca el artículo publicado en TIME.

Asimismo, se prohíbe la identificación o escaneo policial de rostros en público a través de sistemas remotos de “identificación biométrica” impulsados por inteligencia artificial a excepción delitos graves como secuestro o terrorismo.

¿Qué pasa con la IA generativa?

Si bien los primeros artículos de la ley buscaron alcanzar a los sistemas de inteligencia artificial que realizaban tareas muy limitadas, como el escaneo de currículums y solicitudes de empleo, lo cierto es que el rápido aumento de los distintos modelos de IA como ChatGPT de OpenAI, derivó en que los parlamentarios de la UE vayan más allá con su marco normativo.

En este sentido, la ley alcanzará a los llamados modelos de IA generativa, la tecnología que sustenta los sistemas de chatbot de IA que pueden producir respuestas e imágenes aparentemente realistas.

Vale destacar que los desarrolladores de modelos de inteligencia artificial de propósito general como OpenAI y Google deberán facilitar un documento detallado del texto, imágenes, videos y otros datos en Internet que se utilizan para entrenar los sistemas, como así también cumplir con la ley de derechos de autor de la UE.

De esta forma, las imágenes, vídeos o audios deepfake generados por IA de personas tendrán que llevar consigo la etiqueta de que fueron creados o manipulados con IA.

También es importante remarcar que hay una normativa más específica para aquellos modelos de IA más grandes y poderosos que plantean “riesgos sistémicos”, que incluyen GPT4 de OpenAI y Gemini de Google.

Para la UE, esta implementación de inteligencia artificial puede "causar accidentes graves o ser utilizados indebidamente para ataques cibernéticos de gran alcance" mientras que advierten que la IA generativa puede difundir “sesgos dañinos” en muchas aplicaciones.

Lo que sucede en la Unión Europea ya tiene algunos antecedentes previos como el caso de Bruselas que fue el que sugirió por primera vez que se avancen en regulaciones de IA en 2019.

Por su parte, el presidente de Estados Unidos, Jose Biden, firmó en octubre una amplia orden ejecutiva sobre IA y espera que sea ratificada a través de una legislación y convenios con otras regiones de mundo.

En tanto el presidente de China, Xi Jinping, impulsó una Iniciativa Global de Gobernanza de la IA para "un uso justo y seguro de la IA". Mientras tanto, el gobierno chino ya generó "medidas provisionales ” para gestionar la IA generativa.

Además, hay otras regiones como Brasil y Japón, entre otras, al igual que agrupaciones globales como la ONU y el Grupo los Siete países industrializados que avanzan en diversas medidas para lograr más seguridad.

Luego de que la Unión Europea aprobara este miércoles la Ley de IA, ahora se espera que se convierta oficialmente en ley en mayo o junio ya que las disposiciones comenzarán a entrar en vigencia por etapas y los países deberán prohibir los sistemas de IA prohibidos seis meses después de que las normas entren en los libros legales.

En lo que respecta a las normativas para los sistemas de inteligencia artificial de uso general, como los chatbots, se aplicarán un año después de que la ley sea promulgada. Se estima que a mediados de 2026 tendrá plena vigencia el marco normativo completo, incluidos los requisitos para sistemas de alto riesgo.

De esta forma, cada país de la UE creará su propio organismo de control de la IA. Por el momento, Bruselas creará una Oficina de IA encargada de hacer cumplir y supervisar la ley para los sistemas de IA de uso general.

Según la ley aprobada este miércoles, las violaciones de la Ley de IA podrían generar multas de hasta 35 millones de euros (38 millones de dólares), o el 7% de los ingresos globales de una empresa.

Hace click para conocer mas sobre bitwage
Noticias relacionadas
Hace click para conocer mas sobre bitwage