SER Blog  Casos de éxito y Soluciones

Ley de IA de la UE: la alfabetización en IA es obligatoria a partir del 2 de febrero del 2025

Dr. Max Häusler

A partir del 2 de febrero del 2025, entran en vigor disposiciones clave de la Ley de IA de la UE. ¿Está preparada tu empresa? Además de prohibir ciertas prácticas de IA clasificadas como de alto riesgo, se espera que las empresas se aseguren de que su personal tiene los conocimientos y habilidades necesarios para ser considerado competente en IA. A través de este artículo, exploraremos por qué la alfabetización en IA es tan importante para tu organización y te orientaremos sobre cómo cumplir en la práctica los requisitos de la Ley de IA de la UE.

Regulación de la IA: lo que las empresas deben saber

La Ley de IA de la Unión Europea ha establecido un marco único en el mundo para fomentar la confianza en la inteligencia artificial, impulsar la innovación y mitigar sus riesgos para la sociedad. Muchos expertos lo consideran un paso pionero que sitúa a la UE a la cabeza del debate mundial sobre la regulación de la IA.

Adoptada en junio del 2024, la Ley de IA de la UE introduce normas y directrices para los proveedores y usuarios de IA. A diferencia de las directivas de la UE, que primero deben transponerse a la legislación nacional, las disposiciones de la Ley entrarán en vigor directamente en todos los Estados miembros de la UE el 2 de febrero del 2025. Puedes acceder al documento completo de 144 páginas en inglés aquí.

Alfabetización obligatoria en IA: el trasfondo jurídico

Muchos empresarios se preguntan ahora cómo aplicar los cambios que llegaron el 2 de febrero del 2025: ¿basta con indicar los conocimientos en IA como requisito en las ofertas de empleo? ¿Tendrán que asistir los empleados a sesiones periódicas de formación sobre IA? ¿Y qué entiende exactamente la UE por alfabetización en IA?

Para ayudar a responder a estas preguntas, la Ley de IA de la UE define la alfabetización en IA como «las habilidades, el conocimiento y la comprensión que permiten a los proveedores [...], teniendo en cuenta sus respectivos derechos y obligaciones [...], realizar un despliegue informado de los sistemas de IA, así como adquirir conciencia de las oportunidades y riesgos de la IA y de los posibles daños que puede causar». (Página 49).

Esta definición deja claro que la alfabetización en IA significa que los usuarios necesitarán una comprensión exhaustiva de las herramientas con las que interaccionan. Más allá de las habilidades técnicas, la alfabetización en IA requiere que tengas un profundo conocimiento de sus riesgos. En pocas palabras, la alfabetización en IA no consiste solo en dominar los sistemas de IA, sino también en evaluar responsablemente los riesgos y daños potenciales asociados a ellos.

Alfabetización en IA: ¿quién la necesita?

El alcance de las personas que deben estar alfabetizadas en IA a partir del 2 de febrero del 2025 es tan amplio como el propio término. El artículo 4 de la Ley de IA establece:
«Los proveedores e implementadores de sistemas de IA tomarán medidas para garantizar, en la medida de lo posible, un nivel suficiente de alfabetización en IA de su personal y de otras personas que se ocupen del funcionamiento y uso de los sistemas de IA en su nombre, teniendo en cuenta sus conocimientos técnicos, experiencia, educación y formación y el contexto en el que se van a utilizar dichos sistemas, así como considerando las personas o grupos de personas sobre los que se van a utilizar». (Página 51).

En la práctica, esto significa que no solo los que manejan directamente los sistemas de IA en las tareas cotidianas deben tener suficientes conocimientos de IA, sino también todos los que participan en el funcionamiento, desarrollo o uso de estos sistemas. Por ejemplo:

  • Gestores responsables de supervisar el despliegue de la IA.
  • Desarrolladores y profesionales informáticos que diseñan y mantienen sistemas de IA.
  • Empleados que trabajan en áreas empresariales sensibles, como las evaluaciones de crédito automatizadas.
  • Proveedores de servicios externos que desarrollan, implantan o mantienen sistemas de IA para empresas.

En resumen, se ven afectados los empleados internos, los socios externos y los proveedores de servicios. ¿El objetivo? Capacitar a todas las partes interesadas (desde el personal técnico hasta la dirección) para utilizar los sistemas de IA de forma segura y responsable.

Riesgos de ignorar la alfabetización en IA

Subirse al coche para hacer la compra semanal sin carné de conducir tiene consecuencias claras, pero ¿qué pasa con las empresas que utilizan sistemas de IA a partir del 2 de febrero del 2025 sin asegurarse de que su personal posee los conocimientos adecuados?  

Bueno, no es tan grave. Si las empresas no aplican medidas para garantizar la alfabetización en IA de sus empleados y socios externos, la Ley de IA de la UE no impone multas ni sanciones directas. Sin embargo, los responsables de la toma de decisiones no deben menospreciar este asunto, ya que siguen existiendo riesgos importantes, pues en el futuro cualquier daño causado por los sistemas de IA podría considerarse una violación de las responsabilidades legales del empresario. Las empresas deben prepararse para afrontar responsabilidades legales si esos daños podrían haberse evitado mediante la formación y las medidas adecuadas.

Sally Mewies, socia de Tecnología y Digital de Walker Morris, señala que, aunque la Ley de IA de la UE no impone directamente multas por falta de conocimientos sobre IA, las empresas están obligadas a garantizar una formación adecuada para mitigar los riesgos legales asociados a daños evitables por los sistemas de IA, riesgos que ninguna organización puede permitirse pasar por alto.

Cuatro pasos para conseguir un uso de la IA conforme con la normativa

Aunque actualmente no se indican sanciones directas, invertir en la alfabetización en IA de los empleados es una medida inteligente para cualquier empresa. En lugar de considerar la formación obligatoria como otro molesto trámite, los líderes deberían verla como una oportunidad para mejorar la innovación y la competitividad de su organización.

Para hacerlo un poco más fácil, hemos reunido cuatro pasos de ejemplo sobre cómo podrías establecer de forma sostenible el cumplimiento de la IA en tu organización:

1. Evaluar las necesidades: ¿quién necesita formación en IA?

Empieza por identificar qué personas y departamentos trabajan directa o indirectamente con sistemas de IA y los conocimientos específicos que necesitan. Esto te dará una buena idea de cómo priorizar las necesidades de formación y evitar medidas innecesarias que generen ineficiencias en la empresa.

2. Seleccionar los programas de formación en IA adecuados

Una vez que sepas quién necesita más formación, puedes empezar a ofrecer programas de formación que cubran los aspectos técnicos, legales y éticos del uso de la IA. Tú decides si recurres a proveedores externos o desarrollas programas internos. Lo importante es que el contenido de tu formación en IA se ajuste a las distintas funciones y responsabilidades de tu empresa.

3. Garantizar la formación continua en IA

Planifica cursos de actualización periódicos para mantener al día los conocimientos de tus empleados, algo que quizá ya estés haciendo con otras cuestiones. Las tecnologías de IA y los requisitos normativos seguirán evolucionando, junto con las exigencias de alfabetización en IA. Al fin y al cabo, una cultura de aprendizaje continuo es importante para que las empresas sigan siendo competitivas.

4. Documentar y archivar pruebas

Por lo general, es una buena práctica mantener registros exhaustivos de cualquier formación que ofrezcas, y este caso no es una excepción. Mantener una perspectiva general de la formación de IA realizada, incluyendo el contenido tratado y los participantes, te permite demostrar el cumplimiento de los requisitos legales si se realizan inspecciones o tienen lugar casos de responsabilidad.

Estos cuatro pasos deberían servir como un buen punto de partida. Con unos pocos retoques para adaptarlos a tu empresa, si sigues estas directrices, pronto estarás más preparado para cumplir los nuevos requisitos de la Ley de IA. Y lo que es mejor, también aumentará la productividad de tu personal formado en IA, que podrá hacer mucho más en menos tiempo.  

Buena práctica: establece responsabilidades claras

Además de ofrecer cursos de formación, es una buena práctica designar un rol responsable del cumplimiento normativo en cuanto a IA, como si se tratara de un Delegado de Protección de Datos de acuerdo con el RGPD. Este individuo o comisión no solo establece la credibilidad externa, sino que también garantiza unas estructuras internas claras y una coordinación eficaz de todas las actividades relacionadas con la IA.

Disponer de estos recursos envía una señal clara a empleados, clientes y organismos reguladores de que tu empresa reconoce la importancia de la alfabetización en IA y la aborda de forma proactiva. Esto ayuda a mitigar los riesgos, demostrando al mismo tiempo una responsabilidad activa sobre una tecnología que tiene cada vez más peso en nuestra vida cotidiana.

Ley de IA de la UE: prácticas de IA prohibidas a partir de febrero del 2025

Los sistemas de IA abren oportunidades increíbles para que las empresas aumenten la productividad a niveles sin precedentes. Sin embargo, como cualquier tecnología potente, la IA también puede utilizarse con fines maliciosos. El aumento de las noticias falsas generadas por IA en las redes sociales es solo la punta del iceberg.
Para evitar o, al menos, frenar el uso indebido, la Ley de IA de la UE introduce la prohibición de prácticas peligrosas basadas en la IA a partir del 2 de febrero del 2025. Algunos ejemplos de prácticas prohibidas:

  • Tecnologías de manipulación: sistemas de IA diseñados para influir en el comportamiento humano sin su conocimiento, como una IA que influye sutilmente en los hábitos de compra para inducir compras no planificadas.
  • Puntuación social o social scoring: sistemas que evalúan y clasifican a los individuos en función de su comportamiento o atributos personales, como situaciones que recompensan o penalizan a los ciudadanos por sus publicaciones en las redes sociales o sus decisiones de compra.
  • Identificación biométrica en espacios públicos: especialmente las tecnologías de vigilancia en tiempo real. Esto podría incluir escenarios como escanear multitudes en actos públicos para encontrar a personas con órdenes de detención pendientes o vigilar calles concurridas de la ciudad para detectar delincuentes conocidos, lo que plantea importantes problemas éticos y de privacidad.

Estas nuevas normas tienen como principal objetivo salvaguardar los derechos fundamentales. Las empresas que utilicen la IA tendrán que examinar, por ejemplo, si sus aplicaciones podrían entrar en el ámbito de estas prohibiciones.  
¿Quieres saber más sobre las distintas categorías de riesgo de los sistemas de IA y su clasificación jurídica? Lee nuestro artículo sobre la Ley de AI de la UE.

Doxis Intelligent Content Automation

With Doxis Intelligent Content Automation SER offers the next level of enterprise content management.

Leer ahora

Dr. Max Häusler

The PhD Germanist loves intelligent automation solutions – especially when they make everyday work easier. But the technology behind them is often difficult to grasp. Max wants to change that: As a Content Writer at SER Group, he makes the functionality of advanced AI systems easy to understand, even for non-technical audiences. For that, his many years of experience in the creative industry and at a tech startup are helpful – but even more so, his two children, who often ask the trickiest questions.

Índice