Skip to main content

Webinar su richiesta in arrivo…

Legge sull'intelligenza artificiale dell'UE

Adotta l'AI e preparati a raggiungere la conformità alla legge sull'intelligenza artificiale dell'UE

Sostieni l'innovazione aziendale e dimostra la responsabilizzazione per quanto riguarda i requisiti normativi della legge sull'intelligenza artificiale dell'UE con la nostra tecnologia di AI Governance.

Flags in front of the EU Commission building in Brussels

Preparati a rispettare la legge sull'intelligenza artificiale dell'UE

La legge sull'intelligenza artificiale dell'UE è la prima legge generale al mondo su questo tema. Ti aiuteremo a prepararti estendendo i tuoi programmi di governance dei dati, privacy e sicurezza all'uso dell'intelligenza artificiale.

Gli implementatori ottengono visibilità sui rischi e sulle opportunità dei sistemi basati sull'intelligenza artificiale in uso o in fase di approvvigionamento, mentre i fornitori possono gestire centralmente tali sistemi, i modelli di machine learning e i set di dati di formazione.

This is an example of OneTrust's AI system registration feature in compliance with the EU AI Act .

Valuta e classifica i sistemi basati sull'intelligenza artificiale alla luce dei requisiti della legge sull'intelligenza artificiale dell'UE e semplifica la valutazione dell'AI utilizzata da terze parti. 

This is an example of OneTrust's streamlined risk classification workflow used to comply with the EU AI Act.

Gestisci la documentazione e le policy per tradurle in controlli tecnici. Attiva facilmente le notifiche, le attività degli utenti e gli aggiornamenti delle applicazioni. 

This is an example of OneTrust's EU AI Act policy enforcement abilities.

Identifica i rischi nei set di dati di formazione e negli input di riduzione dei rischi. Proteggi ed effettua la governance dei dati nella pipeline di ML attraverso l'applicazione automatizzata delle policy e le azioni correttive.

This is an example of OneTrust's data governance abilities in compliance with the EU AI Act.

Genera report, dashboard, assessment dell'impatto e della conformità dell'intelligenza artificiale e schede modello per gli stakeholder interni ed esterni.

This is an example of OneTrust's AI impact workflow to demonstrate accountability, transparency, and compliance with the EU AI Act.

USO RESPONSABILE DELL'INTELLIGENZA ARTIFICIALE

Orientarsi nell’IA responsabile: Una guida per i professionisti sulla privacy

L’Intelligenza Artificiale (IA) continua a trasformare il panorama aziendale. Ma cosa rende questa tecnologia diversa dai suoi predecessori? A differenza di altri progressi tecnologici visti con la telefonia mobile e i sistemi di archiviazione dati, l’IA porta con sé delle differenze uniche che rendono più difficile prevedere e gestire i rischi. Ecco perché i professionisti della privacy, insieme ai colleghi che si occupano di sicurezza, etica e ESG, svolgono un ruolo cruciale nel garantire un’adozione responsabile dell’IA all’interno delle organizzazioni.


Domande frequenti

Siamo qui per condividere ciò che sappiamo sulla legge sull'intelligenza artificiale della Commissione europea e aiutare la tua azienda a prepararsi a essa tramite l'AI governance e le appropriate tutele dei dati. Leggi le risposte alle domande frequenti qui sotto.

Prendendo atto del crescente utilizzo di modelli di AI, chatbot e di tutti i tipi di AI generativa, la Commissione europea ha introdotto la legge sull'intelligenza artificiale dell'UE quale prima normativa generale sull'AI per disciplinare lo sviluppo e l'utilizzo dell'intelligenza artificiale nell'Unione.  

 

La legge sull'intelligenza artificiale dell'UE fornisce un quadro giuridico sull'intelligenza artificiale che contempla un approccio generale al tema, vale a dire una prospettiva indipendente dal settore in cui viene utilizzata. Inoltre, la legge è stata concepita in modo dettagliato e comprende quasi cento articoli. 

La legge sull'intelligenza artificiale dell'UE definisce diversi livelli di rischio ammissibile per l'AI: alto rischio, rischio limitato e rischio minimo. I sistemi basati sull'intelligenza artificiale ad alto rischio rappresentano un rischio significativo per i diritti e le libertà fondamentali delle persone o di interi gruppi. Se il livello di rischio di un'organizzazione è superiore a "rischio limitato" ed è, ad esempio, "rischio inaccettabile", questa deve sottoporsi a un assessment di conformità e/o adeguare i modelli di AI affinché possano essere resi disponibili come servizio o utilizzati.  

 

Oltre a definire i livelli di rischio, la legge sull'intelligenza artificiale dell'UE specifica le aspettative dei seguenti gruppi che interagiscono con l'AI: 

 

  • Fornitori: coloro che costruiscono sistemi basati sull'AI per immetterli sul mercato.  
  • Implementatori: coloro che incorporano i sistemi basati sull'AI nei loro prodotti o servizi 
  • Utenti: coloro che sono interessati dalle decisioni relative ai sistemi basati sull'AI 

Analogamente al GDPR, la legge sull'intelligenza artificiale dell'UE ha una copertura estremamente ampia. La legge riguarda il trattamento dei dati personali con 'mezzi parzialmente o esclusivamente automatizzati', compresi i sistemi di intelligenza artificiale.  

Iniziamo?

Richiedi subito una demo gratuita per scoprire come OneTrust può guidare il tuo percorso di trasformazione della fiducia.