Commissione Ue: entra in vigore il regolamento sull’IA

Oggi entra in vigore la legge europea sull’intelligenza artificiale (legge sull’IA), il primo regolamento globale sull’intelligenza artificiale al mondo. La legge sull’IA รจ concepita per garantire che l’IA sviluppata e utilizzata nell’UE sia affidabile, con garanzie per proteggere i diritti fondamentali delle persone. Il regolamento mira a istituire un mercato interno armonizzato per l’IA nell’UE, incoraggiando l’adozione di questa tecnologia e creando un contesto favorevole all’innovazione e agli investimenti.

La legge sull’IA introduce una definizione lungimirante di IA, basata su un approccio basato sulla sicurezza dei prodotti e sul rischio nell’UE:

  • Rischio minimo: La maggior parte dei sistemi di IA, come i sistemi di raccomandazione basati sull’IA e i filtri spam, rientra in questa categoria. Tali sistemi non sono soggetti a obblighi ai sensi della legge sull’IA a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le imprese possono adottare volontariamente codici di condotta aggiuntivi.
  • Rischio specifico per la trasparenza: I sistemi di IA come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina. Alcuni contenuti generati dall’IA, compresi i deep fake, devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che il contenuto sintetico di audio, video, testo e immagini sia marcato in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente.
  • Rischio elevato: I sistemi diIA identificati come ad alto rischio saranno tenuti a rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l’elevata qualitร  dei set di dati, la registrazione delle attivitร , la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Gli spazi di sperimentazione normativa agevoleranno l’innovazione responsabile e lo sviluppo di sistemi di IA conformi. Tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi di IA utilizzati per il reclutamento o per valutare se qualcuno ha diritto a ottenere un prestito o a gestire robot autonomi.
  • Rischio inaccettabile: I sistemi diIA considerati una chiara minaccia per i diritti fondamentali delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per eludere la libera volontร  degli utenti, come i giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori, i sistemi che consentono il “punteggio sociale” da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l’identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

A integrazione di tale sistema, la legge sull’IA introduce inoltre norme per i cosiddetti modelli di IA per finalitร  generali, che sono modelli di IA altamente capaci progettati per svolgere un’ampia gamma di compiti, come la generazione di testi di tipo umano. I modelli di IA per finalitร  generali sono sempre piรน utilizzati come componenti delle applicazioni di IA. La legge sull’IA garantirร  la trasparenza lungo la catena del valore e affronterร  i possibili rischi sistemici dei modelli piรน capaci.

Applicazione e applicazione delle norme in materia di IA

Gli Stati membri hanno tempo fino al 2 agosto 2025 per designare autoritร  nazionali competenti, che vigileranno sull’applicazione delle norme per i sistemi di IA e svolgeranno attivitร  di vigilanza del mercato. L’ufficio per l’IA della Commissione sarร  il principale organismo di attuazione della legge sull’IA a livello dell’UE, nonchรฉ il responsabile dell’applicazione delle norme per i modelli di IA per finalitร  generali.

Tre organi consultivi sosterranno l’attuazione delle norme. Il comitato europeo per l’intelligenza artificiale garantirร  un’applicazione uniforme della legge sull’IA in tutti gli Stati membri dell’UE e fungerร  da principale organo per la cooperazione tra la Commissione e gli Stati membri. Un gruppo scientifico di esperti indipendenti fornirร  consulenza tecnica e contributi sull’applicazione delle norme. In particolare, questo gruppo di esperti puรฒ inviare segnalazioni all’Ufficio per l’IA in merito ai rischi associati ai modelli di IA per finalitร  generali. L’Ufficio per l’IA puรฒ anche ricevere orientamenti da un forum consultivo, composto da una serie diversificata di portatori di interessi.

Le imprese che non rispettano le norme saranno sanzionate. Le sanzioni pecuniarie potrebbero arrivare fino al 7 % del fatturato annuo globale per le violazioni di applicazioni di IA vietate, fino al 3 % per le violazioni di altri obblighi e fino al 1,5 % per la fornitura di informazioni inesatte.

Prossime fasi

La maggior parte delle norme della legge sull’IA inizierร  ad applicarsi il 2 agosto 2026. Tuttavia, i divieti dei sistemi di IA che si ritiene presentino un rischio inaccettabile si applicheranno giร  dopo sei mesi, mentre le norme per i cosiddetti modelli di IA per finalitร  generali si applicheranno dopo 12 mesi.

Per superare il periodo transitorio prima della piena attuazione, la Commissione ha varato il patto per l’IA. La presente iniziativa invita gli sviluppatori di IA ad adottare volontariamente gli obblighi fondamentali della legge sull’IA prima delle scadenze legali. 

La Commissione sta inoltre elaborando orientamenti per definire e precisare le modalitร  di attuazione della legge sull’IA e facilitare strumenti di coregolamentazione come le norme e i codici di condotta. La Commissione ha lanciato un invito a manifestare interesse a partecipare all’elaborazione del primo codice di buone pratiche per finalitร  generali in materia di IA, nonchรฉ una consultazione multilaterale che offre a tutti i portatori di interessi l’opportunitร  di esprimersi sul primo codice di buone pratiche ai sensi della legge sull’IA.

Contesto

Il 9 dicembre 2023 la Commissione ha accolto con favore l’accordo politico sulla legge sull’IA. Il 24 gennaio 2024 la Commissione ha varato un pacchetto di misure a sostegno delle start-up e delle PMI europee nello sviluppo di un’IA affidabile. Il 29 maggio 2024 la Commissione ha reso noto l’Ufficio per l’IAIl 9 luglio 2024 รจ entrato in vigore il regolamento modificato relativo all’impresa comune EuroHPC, che consente la creazione di fabbriche di IA. Ciรฒ consente l’uso di supercomputer dedicati all’IA per la formazione di modelli di IA per finalitร  generali (GPAI).

La prosecuzione di ricerche indipendenti e basate su dati concreti prodotte dal Centro comune di ricerca (JRC) รจ stata fondamentale per definire le politiche dell’UE in materia di IA e garantirne l’effettiva attuazione.

Per maggiori informazioni

Legge europea sull’intelligenza artificiale

Nuove regole per l’intelligenza artificiale โ€” Domande e risposte 

Ufficio europeo per l’IA | Plasmare il futuro digitale dell’Europa

Fonte: Commissione europea

spot_imgspot_img
spot_imgspot_img
spot_imgspot_img
Segui il blog di Maria Cristina Urbano sull'Huffington Post

Iscriviti alla newsletter

Altri articoli