Skip to main content

Seminario web bajo demanda disponible próximamente

Blog

La Ley de IA de la UE

El parlamento ha respaldado la Ley de IA de la UE, lo que establece la normativa esencial para garantizar los derechos fundamentales mientras se continúa fomentando la innovación.

Param Gopalasamy
Especialista en marketing de contenido, CIPP/E, CIPP/US, CIPM
13 de noviembre de 2023

EU flags in front of the EU Commission Building


Un enfoque horizontal: cómo destacar en la fase global 

Al elaborar su enfoque en torno a la legislación sobre inteligencia artificial (IA), la UE ha optado por un marco legislativo de carácter horizontal. En este respecto, el marco jurídico sobre IA de la UE adopta una perspectiva independiente del sector y se ha diseñado de manera meticulosa a partir de casi cien artículos.

En esta publicación, intentaremos analizar la Ley de IA de la UE. Esta legislación no es solo la primera de su tipo, sino también un punto de referencia para la regulación de la IA a nivel global, puesto que se ha desarrollado para ayudar a crear un precedente en el panorama de la IA en tan rápida evolución.

Garantía de valores e innovación

La Ley de IA de la UE está bien equilibrada. No se trata únicamente de colocar un colchón de seguridad para la sociedad, la economía, los derechos fundamentales y los valores esenciales de la UE, que podrían verse en riesgo a raíz de los sistemas de IA. También es un nexo para el afianzamiento y el potencial de la innovación de la IA, con garantías prediseñadas que tienen el fin de promover y proteger los novedosos avances de la IA. Además, se intenta buscar el equilibrio entre la gestión de riesgos y la protección de infraestructura crítica frente a perjuicios potenciales, a la vez que se promueve la innovación que la IA en general puede traer consigo.

Elaborar la Ley de IA de la UE ha sido todo menos sencillo. De hecho, definir la IA fue uno de los puntos más complicados. Desde su propuesta inicial en abril de 2021, esta ley ha sido un documento vivo. A través de sus numerosas iteraciones, cada enmienda refleja un discurso fluido sobre la tecnología de IA y sus implicaciones para la sociedad.

En una reunión, Francia, Alemania e Italia plantearon sus preocupaciones sobre las limitaciones impuestas a los potentes modelos de IA y quisieron adoptar un régimen normativo menos estricto para modelos como el GPT-4 de OpenAI.  

Tras un debate continuo, el compromiso alcanzado por la Comisión Europea fue adoptar un enfoque escalonado, con normas de transparencia horizontal para todos los modelos y obligaciones adicionales para los modelos convincentes con riesgo sistémico.
 

En qué punto se encuentra esta ley

El 2 de febrero de 2024, el Comité de Representantes Permanentes votó a favor del acuerdo político que se alcanzó en diciembre de 2023. Por su parte, el 13 de marzo, el parlamento votó a favor de esta ley, con 523 votos a favor, 46 en contra y 49 abstenciones.

Por tanto, la Ley de IA entrará en vigor 20 días después de su publicación en el Boletín Oficial de la UE. Las disposiciones sobre sistemas prohibidos se aplicarán después de 6 meses y las obligaciones para proveedores de IA de uso general se aplicarán después de 12 meses. La mayoría del resto de requisitos se aplicarán después de dos años.

Dicho esto, los sistemas de alto riesgo que estén destinados a utilizarse como componente de seguridad de un producto o estén cubiertos por otras leyes de la UE tendrán un plazo de 36 meses para cumplir con la Ley de IA de la UE.
 

IA: desglosando el concepto

En principio, la ley definió el aprendizaje automático, es decir, los fundamentos de los sistemas de IA, como «el aprendizaje de refuerzo supervisado o no que utiliza una amplia variedad de métodos, entre los que se incluye el aprendizaje profundo». El texto incluye una definición actualizada que define a los sistemas de IA como «un sistema basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales».

Dicho esto, la complejidad de los sistemas de IA es como una escala móvil, con sistemas más complejos que requieren una potencia informática sustancial y datos de entrada. El resultado de estos sistemas puede ser simple o muy complejo, lo que varía según la sofisticación de la IA en concreto.

Esta amplia definición abarca una gama de tecnologías, desde chatbots hasta modelos de IA generativos altamente sofisticados. Sin embargo, es importante tener en cuenta que no se regularán todos los sistemas de IA dentro de esta amplia definición de la ley. La ley establece un marco inteligente de acuerdo con un enfoque basado en riesgos, lo que hace que caigan sobre su paragüas regulatorio solo aquellos sistemas que estén asociados con niveles de riesgos específicos calibrando según el riesgo
 

Regulación de la IA: calibrando según el riesgo

Aquí es donde la cosa se pone interesante. La Ley de IA de la UE tiene diferentes categorías para los sistemas de IA. Y se considera que algunas de estas categorías suponen un riesgo inaceptable para los valores de la UE, lo que desemboca en su prohibición. Los sistemas de riesgo elevado, aunque no están prohibidos per se, tienen que ajustarse a una normativa más estricta. Es vital recordar que estas categorías de riesgo no son estáticas; de hecho, la ley aún se encuentra en borrador y, a medida que se vayan produciendo más cambios, estas categorías de riesgo probablemente también acabarán ajustándose.

Niveles de riesgo según la Ley de IA de la UE

La Ley de IA de la UE define múltiples niveles de riesgo permisible: elevado, limitado y mínimo.

Estos son los niveles de riesgo permisible para las organizaciones, aunque también está el riesgo inaceptable que es otro nivel pero que no está permitido, puesto que si se llega a este punto los modelos de la empresa deben cambiarse de la manera más adecuada.

  • Riesgo inaceptable: sistemas de puntuación social, verificación biométrica a distancia en tiempo real.

  • Riesgo elevado: sistemas de calificación crediticia, reclamaciones de seguro automatizadas.

    Para los procesos que entren en este grupo, las empresas deberán realizar una evaluación de conformidad y registrarla en una base de datos de la UE antes de que el modelo esté disponible para el público.

    Además, estos procesos de riesgo elevado también requieren registros detallados y supervisión humana.

  • Riesgo limitado: chatbots, funciones de personalización.

    Para los procesos de riesgo limitado, las empresas deben asegurarse de ser completamente transparentes con sus clientes sobre para qué se utiliza la IA y los datos involucrados.

  • Riesgo mínimo: para cualquier proceso que utilicen las empresas que recaiga en el grupo de riesgo mínimo. En este respecto, el borrador de la Ley de IA de la UE anima a los proveedores a contar con un código de conducta que garantice que la IA se esté utilizando de forma ética.

Pyramid graphic showing the levels of permissable AI risk areas defined by the EU AI Act and what the act requires organizations to do to address these areas of risk. Starting from the lowest level: Minimal risk areas require a code of conduct; limited risk areas need transparency; high risk areas need conformity assessments; and at the top level are areas that are considered unacceptable.

 

Evaluaciones de conformidad 

De estos niveles de riesgo, los sistemas de riesgo elevado supondrán la mayor carga de cumplimiento normativo para las organizaciones, puesto que tendrán que seguir cumpliendo con las obligaciones de las evaluaciones de conformidad. Las evaluaciones de conformidad requieren que las empresas se aseguren de que sus sistemas de riesgo elevado cumplan con los siguientes requisitos:

  • La calidad de los conjuntos de datos que se utilicen para entrenar, validar y probar los sistemas de IA debe ser relevante, representativa, completa y libre de errores.
  • La documentación técnica debe ser detallada.

  • Debe haber una conservación de registros a modo de registro automático de eventos.

  • Debe haber transparencia y se debe aportar información a los usuarios.

  • Debe haber supervisión humana.

Esta evaluación es obligatoria antes de que cualquier sistema de IA de riesgo elevado esté disponible o se utilice en el mercado de la UE. De hecho, garantiza que los sistemas de IA cumplan con los estándares de la UE; especialmente, si hay modificaciones o cambios significativos en el uso previsto. La principal parte responsable de la evaluación de conformidad es el proveedor, es decir, la entidad que comercializa el sistema. Sin embargo, bajo ciertas circunstancias, la responsabilidad podría recaer sobre el fabricante, distribuidor o importador; especialmente, cuando estos modifiquen el sistema o su propósito.
 

¿Quién realiza la evaluación de conformidad?

La evaluación de conformidad se puede efectuar de manera interna o a través de un organismo notificado de carácter externo. Las evaluaciones de conformidad son bastante comunes, puesto que se espera que los proveedores tengan la experiencia necesaria. Dicho esto, los organismos notificados entran en juego especialmente cuando un sistema de IA se utiliza para aplicaciones sensibles como la identificación biométrica en tiempo real y esta no cumple con los estándares predefinidos.

Durante una evaluación de conformidad interna, el proveedor comprueba el cumplimiento normativo de los estándares de gestión de calidad, evalúa la documentación técnica y garantiza que el diseño y la supervisión del sistema de IA sean consistentes con los requisitos. Los resultados exitosos generan una declaración de conformidad de la UE y la marca CE, que indica el cumplimiento normativo, que a su vez debe conservarse durante diez años y proporcionarse a las autoridades nacionales si estas lo solicitaran.

Para las evaluaciones de conformidad de terceros, los organismos notificados deberán revisar el sistema y su documentación. Si cumplen con la normativa, emitirán un certificado; de lo contrario, requerirán que el proveedor tome las medidas correctivas que resulten necesarias.
 

¿Con qué frecuencia debes realizar una evaluación de conformidad?

La evaluación de conformidad no es un proceso único. De hecho, los proveedores deben monitorizar de modo continuo sus sistemas de IA después de la comercialización de su producto con objeto de garantizar que siguen cumpliendo con la Ley de IA de la UE. En los casos donde esté involucrado un organismo notificado, se efectuarán auditorías periódicas para verificar el cumplimiento normativo del sistema de gestión de calidad.
 

Con la IA, todo el mundo tiene su parte de responsabilidad

La Ley de IA de la UE no está solamente repartiendo responsabilidades entre los proveedores de la IA, sino que también está ampliando su ámbito para incluir a más actores dentro del ciclo de vida de la IA, desde los propios usuarios hasta los encargados de implementarla. Además, su alcance no se limita únicamente a la UE. Tiene un impacto global que afecta a entidades incluso fuera de la UE, lo que conlleva implicaciones de carácter mundial.
 

Multas: la mayor disuasión

Con los ajustes recientes del Parlamento Europeo a la Ley de IA de la UE, las multas por incumplimiento normativo han sido objeto de una subida, que ya alcanza un máximo de 35 millones de euros o, lo que es lo mismo, un 7 % de la facturación a nivel global. En contexto, estas multas son un 50 % superiores en cuantía a las del RGPD, cuya cantidad máxima fue 20 millones de USD o el 4 % de la facturación a nivel global, lo que destaca el compromiso de la UE a la hora de garantizar el estricto cumplimiento de la Ley de IA de la UE.

 

Marcando el camino hacia una IA regulada

La Ley de IA de la UE es una declaración clara por parte de la UE, que equilibra de manera meticulosa el fomento de la innovación en materia de IA al mismo tiempo que garantiza que los valores y derechos fundamentales de la sociedad europea no se vean comprometidos. Con la ley cada vez más cerca de aprobarse, es crucial que nadie pierda de vista su desarrollo; especialmente, todos aquellos que trabajen en el campo de la IA.

Ya seas un proveedor, usuario o estés involucrado en el despliegue de IA, es imperativo prepararse para un futuro donde la IA no sea únicamente un avance tecnológico, sino también un avance sujeto a límites y responsabilidades de carácter jurídico. De hecho, esta publicación te ofrece la oportunidad de tener cierta idea sobre el recorrido de la Ley de IA de la UE y su impacto potencial, lo que sienta las bases para un análisis más profundo que iremos desgranando en las secciones de más abajo. Así que nada, continúa leyendo para comprender mejor los matices y las implicaciones de esta ley.
 

Marcos de IA: perspectiva global

El panorama global: el mapa de calor de los marcos de IA a nivel global

El panorama global en cuanto a los marcos de IA destaca la necesidad imperante de reglas y normas internacionales más cohesionadas. La proliferación de diferentes marcos de IA es innegable y esto exige una mejor colaboración internacional para que al menos los aspectos clave sean homogéneos como, p. ej., definir la IA de una manera que sea aceptada universalmente.
 

Global map showing the different AI regulations and proposals from various major countries.

 

Dentro del marco jurídico de la UE, la Ley de IA de la UE será una legislación clave y fundamental. Al mismo tiempo, a nivel de los Estados miembros, también existen una miríada de iniciativas con sus organismos reguladores propios que no paran de publicar directrices, herramientas y recursos no vinculantes con el objetivo de ofrecer orientación de cara al uso y despliegue efectivo de la IA.
 

La IA dará lugar a procesos más eficientes en el futuro

La IA promete procesos más rápidos, eficientes y precisos en varios sectores. Por ejemplo, en el mundo de los seguros, la IA ha simplificado el proceso de evaluación de accidentes de automóvil, lo que ha optimizando un proceso que antes era manual y tedioso. Este ejemplo sirve como testimonio del potencial de la IA a la hora de mejorar varios aspectos del negocio y la vida cotidiana de manera significativa.

Sin embargo, interactuar con la IA es un proceso repleto de matices. Es importante encontrar el equilibrio entre sacarle el máximo jugo a todo su potencial y controlar sus riesgos asociados. Sin perder de vista su potencial transformador y disruptivo, la IA debe tratarse con cautela y de manera informada.

Reconocer el poder transformador de la IA al mismo tiempo que te preparas para sus desafíos es fundamental tanto para las organizaciones y como sus profesionales a medida que van explorando el entorno dinámico que la IA supone para la era moderna.
 

Pros y contras de la IA en los negocios

Riesgos: transparencia, precisión y sesgos

A pesar de sus innumerables ventajas, la IA no está exenta de desafíos y riesgos significativos. Para empezar, algunos sistemas de IA, que podrían entenderse como «cajas negras», han sido objeto de un intenso escrutinio y debate sobre cuestiones de transparencia. En concreto, esta preocupación es patente con los sistemas de IA de mayor tamaño, como los modelos de lenguaje de gran envergadura, donde hay una falta de claridad en cuanto a los datos que se emplean para entrenar la IA. Esto plantea preocupaciones muy significativas sobre los derechos de autor y la privacidad, que deben abordarse de antemano.

Además, persiste la dificultad a la hora de garantizar la precisión de los sistemas de IA, con varios casos documentados de respuestas y predicciones erróneas por parte de la IA. En particular, los sesgos que podrían surgir de los sistemas de IA, a raíz de datos comprometidos que podrían haberse utilizado, presentan un riesgo de discriminación, por lo que es necesario una monitorización adecuada y esfuerzos de rectificación por parte de las partes involucradas.
 

La IA como solución: transformar los riesgos en oportunidades

Curiosamente, la IA no es solo un desafío, también es una posible solución a estos interrogantes. Por ejemplo, la IA se puede aprovechar para identificar y mitigar los sesgos dentro de los conjuntos de datos. Cuando se detecten los sesgos, se pueden tomar medidas estratégicas para rectificarlos, lo que garantiza que la IA se pueda aprovechar de forma óptima a la hora de maximizar sus beneficios y minimizar los riesgos asociados.
 

Desarrollo de la gobernanza de la IA: el camino a seguir 

Las bases para la gobernanza de la IA

Con un panorama complejo y dinámico donde la IA no para de evolucionar, existe la necesidad urgente de profesionales en asuntos jurídicos y privacidad para sentar las bases de programas de cumplimiento normativo y gobernanza de la IA sólidos. Una buena cantidad de directrices ofrece una hoja de ruta preliminar para con los requisitos esenciales de estos programas, donde el apoyo de la directiva es fundamental a la hora de dar los primeros pasos.

Implicar a los ejecutivos y garantizar que comprenden la magnitud y las complejidades de la influencia de la IA es crucial a la hora de fomentar una cultura de responsabilidad proactiva para con la IA en toda la organización. Esta iniciativa va más allá del mero cumplimiento normativo y llega a abarcar la generación de confianza en las aplicaciones de IA, que a su vez es fundamental para el éxito de las operaciones comerciales. 
 

Medidas prácticas hacia un marco de gobernanza de la IA 

A efectos prácticos, las organizaciones pueden valerse de directrices para el uso ético de la IA. Estas directrices se ajustan a los principios para la IA de la OCDE:

 

  1. Transparencia: los esfuerzos deben dirigirse a desmitificar las aplicaciones de IA, lo que hace que sus operaciones y decisiones sean comprensibles y explicables a los usuarios y las partes interesadas. 

  2. Cumplimiento de la privacidad: las aplicaciones de IA deben respetar y proteger la privacidad de los usuarios al administrar los datos personales con juicio y de acuerdo con las leyes y normativas de privacidad pertinentes.

  3. Control humano: especialmente en áreas de riesgo elevado, debería haber mecanismos para la supervisión y el control humanos sobre las aplicaciones de IA, lo que garantiza que se respetan los valores y expectativas humanos.

  4. Aplicación justa: deben implementarse estrategias para detectar y mitigar los sesgos en las aplicaciones de IA, lo que a su vez promueve la equidad y evita la discriminación.

  5. Responsabilidad proactiva: debe haber documentación y registros exhaustivos de las actividades de IA, lo que permitiría el escrutinio, la responsabilidad proactiva y las correcciones necesarias.

 

Política sobre ética de la IA: elementos críticos

Establecer políticas de ética sobre IA, que se fundamenten en evaluaciones de impacto sobre la ética, es clave a la hora de superar los desafíos y tomar decisiones informadas y éticas en lo que respecta al uso de la IA. Por ejemplo, en lugar de bloquear ciertas aplicaciones de IA directamente, las evaluaciones de impacto sobre la ética pueden guiar a las organizaciones en la implementación de políticas de uso responsable con los matices adecaudos (especialmente, en lo respectivo a datos confidenciales). Asimismo, las consideraciones éticas deben informar sobre cada paso de la aplicación de la IA, desde su inicio y desarrollo, hasta su implementación y monitorización.
 

Gobernanza de IA inclusiva: un imperativo independiente del tamaño

Es importante destacar que la gobernanza de la IA no sea un dominio exclusivo de las grandes corporaciones con amplios recursos. Con supuestos prácticos de IA que proliferan en varios sectores, empresas de todos los tamaños trabajarán con la IA de manera inevitable, lo que requiere marcos de gobernanza de IA que se adapten a sus necesidades y capacidades específicas.

Dicho esto, se aplican algunos principios universales independientemente del tamaño de la empresa. En primer lugar, garantizar la aceptación del equipo ejecutivo y adoptar un enfoque multidisciplinar es esencial para una implementación exitosa de la gobernanza de la IA.

En segundo lugar, las organizaciones deben comenzar con principios de alto nivel como punto de partida, incluso en el caso de las pymes o, simplemente, compran modelos de IA listos para usarse. La formación y mejora de las aptitudes de los empleados en diversas funciones, incluidas adquisiciones y tecnología, también es vital para comprender y mitigar los riesgos que están asociados con las herramientas y aplicaciones de IA.
 

Incorporación de principios de gobernanza esenciales

Es necesario integrar seis principios básicos de gobernanza en los programas de gobernanza de la IA:

  1. Gobernanza y responsabilidad: es esencial establecer una estructura de responsabilidad proactiva; posiblemente, a través de comités de supervisión de la IA o juntas de revisión ética. La gobernanza debe aplicarse a lo largo del ciclo de vida de la IA, desde el inicio hasta su operación.

  2. Monitorización humana: adoptar un enfoque centrado en las personas, con revisores bien formados en varias fases, es crucial para la aplicación ética de la IA.

  3. Equidad y ética: las respuestas de la IA deben ajustarse a estándares éticos y de equidad, lo que a su vez refleja la cultura y los valores de la organización.

  4. Gestión de datos: implementar procesos de gestión de datos sólidos, llevar un seguimiento de las modificaciones de los conjuntos de datos y enlazar las fuentes de datos es clave para tener sistemas de IA de confianza.

  5. Mejora de la transparencia: es necesario garantizar que los procesos de toma de decisiones de la IA sean transparentes y fáciles de entender para generar confianza y asegurar el cumplimiento normativo.

  6. Ciberseguridad y privacidad: abordar los requisitos jurídicos del tratamiento de datos, realizar evaluaciones de impacto sobre la privacidad y mitigar los riesgos cibernéticos de la IA es imprescindible para desarrollar aplicaciones de IA que sean seguras y que cumplan con la legislación.

Visto el ritmo al que evoluciona la IA y sus profundas implicaciones, las organizaciones deben desarrollar e implementar programas de gobernanza de la IA de manera proactiva. Al adoptar un conjunto de principios y prácticas de gobernanza de carácter esencial, las organizaciones pueden enfrentar el panorama de la IA de manera responsable, ética y eficaz. Estos principios, basados en aspectos éticos, el cumplimiento jurídico y el compromiso con la transparencia y la responsabilidad proactiva, guiarán a las organizaciones a la hora de sacar partido de los beneficios de la IA al mismo tiempo que mitigan sus riesgos, lo que fomenta en última instancia la confianza y el éxito en el futuro impulsado por la IA. 
 

Gobernanza de la IA con el foco en el valor añadido

A medida que las organizaciones profundizan en el ámbito de la IA, es primordial desarrollar e implementar programas de gobernanza de la IA que se ajusten a sus valores. Estos marcos de gobernanza no solo deben garantizar el cumplimiento de las normativas, sino que también deben reflejar los compromisos y valores éticos de las organizaciones.

Tanto si se trata de hacer concesiones difíciles entre la transparencia y la seguridad, o decidir sobre el uso ético de los datos, un enfoque que se centre en el valor añadido de la gobernanza de la IA es como una brújula que guía a las organizaciones a lo largo del intricado panorama de las aplicaciones de IA y la ética.
 

Ideas y consejos finales sobre gobernanza de la IA

IA, RGPD y privacidad de datos

Al tener en cuenta la interacción entre la IA, la Ley de IA de la UE y el RPGD, es crucial reconocer las directrices existentes sobre cómo utilizar la IA de acuerdo con el RGPD. Los recursos destacados incluyen el kit de herramientas proporcionado por la Oficina del Comisionado de Información del Reino Unido y la guía completa de orientación y autoevaluación que ofrece la CNIL de Francia. Estas herramientas ofrecen controles y listas de verificación de gran valor, lo que ayuda a las organizaciones a la hora de garantizar el cumplimiento normativo de su uso de la IA con los requisitos del RGPD.

Un buen punto de partida para ajustar el uso de datos dentro de los marcos de IA con los principios del RGPD es realizar evaluaciones de impacto relativa a la protección de datos de manera diligente con objeto de garantizar que todos estos procesos mantengan el cumplimiento normativo.

Punto de partida de la gobernanza de la IA: los profesionales de privacidad están bien posicionados para actuar como coordinadores, lo que aúna varias funciones y aptitudes dentro de las organizaciones para abordar la gobernanza de la IA de forma exhaustiva. Este enfoque colaborativo no solo garantiza el cumplimiento normativo, sino que también funciona como facilitador empresarial al fomentar un método proactivo y bien informado de cara a los desafíos y las oportunidades emergentes en el panorama de la IA.

Mantén la calma y ábrete a la IA: adopta los avances tecnológicos con calma y curiosidad. Sumergirse en el campo de la IA, que avanza con tanta celeridad, requiere voluntad de aprendizaje y adaptación, y reconocer que comprender y abordar la IA y sus riesgos potenciales es más bien un proceso que un mero destino.

Evolución de los roles profesionales: con los cambios continuos en tecnología y tratamiento de datos, el rol de los delegados de protección de datos va evolucionando, lo que va resultando en «delegados para la confianza de los datos». Es imperativo que los profesionales de este campo estén abiertos a asumir nuevos roles y responsabilidades a medida que el panorama tecnológico y regulatorio se va transformando.

 

Para la puesta en marcha, es útil tener en cuenta este plan de 5 pasos: 

  1. Adopta programas de gobernanza de la IA desde el principio. Actuar de manera proactiva es crucial.

  2. Asegúrate de que el equipo ejecutivo esté a favor, puesto que la gobernanza de la IA requiere un enfoque multilateral y que abarque toda la empresa.

  3. Reúne un equipo multidisciplinar y bien cualificado, que cuente con el departamento de cumplimiento normativo, ciencia de datos, seguridad de la información, RR. HH. y jurídico, además de consultores externos si fuera necesario.

  4. Prioriza, establece objetivos realistas y pregúntate si adoptar un enfoque por pases para enfrentar la gobernanza de la IA.

  5. Mantente al día sobre los avances en IA, interactúa con regularidad con compañeros del sector y participa en iniciativas de IA para fomentar la colaboración y estar bien informado. 

A raíz del panorama de la IA en constante evolución, las organizaciones deben afrontar la gobernanza de la IA de manera proactiva. Por ello, es fundamental un enfoque colaborativo y multidisciplinar con el fin de abordar los complejos desafíos y las oportunidades que presenta la IA.

 

Para saber más sobre cómo puede ayudar a tu organización la gobernanza de la IA, solicita una demostración hoy mismo.


También podría interesarte:

Seminario web

Gobernanza de la IA

Cómo OneTrust usa OneTrust: Gestión de la IA

Nuestras estrategias internas para administrar las aplicaciones de IA de manera responsable, lo que garantiza el uso ético y el cumplimiento normativo.

julio 02, 2025

Aprende más

Evento presencial

Privacy & Data Governance

OneTrust Day Barcelona

Acompáñanos en la primera edición de OneTrust Day Barcelona, un evento exclusivo donde hablaremos de los temas más actuales y relevantes en el mundo de la Privacidad, la Inteligencia Artificial, el Consentimiento y Preferencias, la Gestión de Terceros y los próximos desafíos relacionados con la directiva NIS2.  

mayo 22, 2025

Aprende más

Seminario web

Gobernanza de la IA

EU AI Act al descubierto: ¿qué hay nuevo?

Acompáñanos en este fireside chat con Rubén Jurado, Privacy Counsel, para hablar del Reglamento Europeo de IA y hacer un repaso de lo que ya está en marcha, lo que llega el próximo mes de mayo y en agosto de este año, y todo lo que supondrá para las organizaciones.

mayo 07, 2025

Aprende más

Documento técnico

Gobernanza de la IA

Cómo poner en práctica la Ley de IA de la UE con OneTrust: manual de implementación

enero 02, 2025

Aprende más

Seminario web

Gobernanza de la IA

Navegar el panorama normativo de la IA: Ley de IA de la UE y soluciones de gobernanza de la IA

Acompáñanos en este webinar para explorar juntos el panorama normativo actual de la inteligencia artificial, con especial atención a la Ley de IA de la UE que entró en vigor el pasado 1 de agosto.  Además, durante el webinar se hará una demostración práctica de nuestra solución AI Governance, que mostrará cómo puedes ayudar a tu organización a optimizar tus procesos de gestión, documentación y análisis.

octubre 22, 2024

Aprende más

Informe

Privacy Automation

Descubre los beneficios económicos de OneTrust

Descarga este estudio Total Economic Impact™ de 2024 de Forrester Consulting para conocer cómo OneTrust ha ayudado a las organizaciones a la hora de navegar las complejidades de gestión de datos, generar ROI de manera significativa y permitir el uso responsable de los datos y la IA. 

septiembre 24, 2024

Aprende más