intelligenza-artificiale-unione-europea-GI-1138358728 jpg

Il regolamento dell’UE in materia di intelligenza artificiale

Fonte: Conferenza sull’intelligenza artificiale Bruxelles 28-29 gennaio 2024

I principali elementi del nuovo regolamento (in base all’accordo provvisorio tra Parlamento europeo e Consiglio)

l testo dell’accordo provvisorio, diffuso presso i gruppi di lavoro del Consiglio, prevede i seguenti punti qualificanti.

Definizione e ambito di applicazione

Il regolamento ha l’obiettivo di migliorare il funzionamento del mercato interno e promuovere l’adozione di un’intelligenza artificiale affidabile e incentrata sull’uomo, garantendo, nel contempo, un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, compresa la democrazia, lo Stato di diritto e la tutela dell’ambiente dagli effetti dannosi dei sistemi di intelligenza artificiale nell’Unione, e sostenendo l’innovazione.

Il regolamento definisce un sistema di IA come un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l’implementazione e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

La nuova disciplina non intende introdurre una normazione esaustiva e dettagliata di ogni aspetto connesso all’IA, così definita. Tiene conto che diversi profili della materia sono già riconducibili ad atti legislativi vigenti o in corso di adozione a livello UE (v. infra). In particolare, il nuovo regolamento introduce:

a)        regole armonizzate per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale nell’Unione;

b)        il divieto di determinate pratiche di intelligenza artificiale;

c)         requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi;

d)        regole di trasparenza armonizzate per alcuni sistemi di IA;

e)        regole armonizzate specifiche per l’immissione sul mercato di modelli di IA di uso generale;

f)         regole  sul       monitoraggio  del       mercato,         sulla    governance     e sull’applicazione della vigilanza del mercato stesso;

g)        misure a sostegno dell’innovazione, con particolare attenzione alle PMI, comprese le start-up;

Il regolamento si applicherà ai soggetti pubblici e privati, all’interno e all’esterno dell’UE, a condizione che il sistema di IA sia immesso sul mercato dell’Unione o che il suo uso abbia effetti su persone situate nell’UE.

Riguarderà sia i fornitori (ad es. uno sviluppatore di uno strumento di screening dei CV) che gli operatori di sistemi di IA ad alto rischio (ad es., una banca che acquista uno strumento di screening dei CV).

Gli importatori di sistemi di IA dovranno inoltre garantire che il fornitore straniero abbia già eseguito l’appropriata procedura di valutazione della conformità, che il sistema rechi una marcatura di conformità europea (CE) e sia corredato della documentazione e delle istruzioni per l’uso richieste.

Il regolamento prevede inoltre determinati obblighi per i fornitori di modelli di IA per finalità generali, compresi i modelli di IA generativa di grandi dimensioni. Invece, i fornitori di modelli gratuiti e open source saranno esentati dalla maggior parte di questi obblighi. Esenzione che tuttavia non riguarderà gli obblighi incombenti ai fornitori di modelli di IA per finalità generali che comportano rischi sistemici.

Il regolamento non pregiudicherà le competenze degli Stati membri in materia di sicurezza nazionale. Non si applicherà infatti ai sistemi di IA che sono esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività, nonché alle attività di ricerca, sviluppo e prototipazione che precedono l’immissione sul mercato o a persone che utilizzano l’IA per motivi non professionali.

Misure a sostegno dell’innovazione

Il regolamento contiene diverse misure a sostegno dell’innovazione. In particolare, consente la creazione di spazi di sperimentazione normativa per l’IA (sandbox normativi) e di prova in condizioni reali, che forniscono un ambiente controllato per testare tecnologie innovative per un periodo di tempo limitato, promuovendo in tal modo l’innovazione da parte delle imprese, delle PMI e delle start-up.

Gli Stati membri dovranno istituire almeno un sandbox normativo sull’IA a livello nazionale. Potrà anche essere istituito congiuntamente tra più Stati membri.

Le prove in condizioni reali dei sistemi di IA ad alto rischio potranno essere effettuate per un massimo di 6 mesi (prorogabili di altri 6 mesi). Prima delle prove dovrà essere elaborato un piano da presentare all’autorità di vigilanza del mercato, la quale dovrà approvare il piano e le condizioni di prova specifiche; in caso di mancata risposta entro 30 giorni, il piano si considererà tacitamente approvato. Le prove potranno essere oggetto di ispezioni senza preavviso da parte dell’Autorità.

Le prove in condizioni reali potranno essere effettuate solo se sono presenti garanzie specifiche: ad esempio, gli utenti dei sistemi sottoposti a prova in condizioni reali dovranno fornire un consenso informato, le prove non dovranno avere alcun effetto negativo sugli utenti, gli esiti delle prove dovranno essere reversibili o poter essere ignorati, i relativi dato dovranno essere cancellati dopo la conclusione delle prove. Una protezione speciale dovrà essere riservata ai gruppi vulnerabili, ad esempio a causa della loro età o della disabilità fisica o mentale

 

Architettura di governance

Le autorità nazionali competenti per la vigilanza del mercato sorveglieranno l’attuazione delle nuove norme a livello nazionale, mentre un Ufficio europeo per l’IA, costituito presso la Commissione europea, garantirà il coordinamento a livello europeo.

Un comitato scientifico di esperti indipendenti avrà il compito di segnalare i rischi sistemici e contribuire alla classificazione e alla sperimentazione dei modelli. Un comitato europeo per l’IA, composto dai rappresentanti degli Stati membri, svolgerà il ruolo di piattaforma di coordinamento e di organo consultivo per la Commissione europea. Si prevede infine l’istituzione di un forum consultivo per i portatori di interessi, come i rappresentanti dell’industria, le PMI, le start-up, la società civile e il mondo accademico.

Più nello specifico, la missione dell’Ufficio per l’IA sarà quella di sviluppare le competenze e le capacità dell’Unione nel settore dell’IA e contribuire all’attuazione della legislazione dell’Unione in materia di intelligenza artificiale in una struttura centralizzata. In particolare, l’Ufficio avrà il compito di applicare e supervisionare le nuove regole per i modelli di IA per finalità generali, con il potere di richiedere documentazione, condurre valutazioni dei modelli, indagare sulle segnalazioni e chiedere ai fornitori di adottare misure correttive.

L’Ufficio garantirà inoltre il coordinamento per quanto riguarda la politica in materia di IA e la collaborazione tra le istituzioni, gli organi e le agenzie dell’Unione coinvolti, nonché con gli esperti e i portatori di interessi. In particolare, dovrà provvedere a creare un forte legame con la comunità scientifica per sostenere l’applicazione delle regole, fungerà da punto di riferimento internazionale per gli esperti e le organizzazioni di esperti indipendenti e faciliterà gli scambi e la collaborazione con istituzioni analoghe in tutto il mondo.

Sanzioni

Le sanzioni per le violazioni del nuovo regolamento sono state fissate in una percentuale del fatturato annuo globale nell’anno finanziario precedente della società incriminata o in un importo predeterminato, a seconda di quale sia il più elevato.

Più nello specifico, per i sistemi di IA che sono immessi sul mercato o messi in servizio e che non rispettano i requisiti del regolamento, gli Stati membri dovranno stabilire sanzioni effettive, proporzionate e dissuasive, comprese sanzioni amministrative pecuniarie, in relazione alle violazioni, e comunicarle alla Commissione. Il regolamento stabilisce le soglie da tenere in considerazione:

•                      fino a 35 milioni di euro o al 7% del fatturato mondiale totale annuo dell’esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l’inosservanza di requisiti in materia di dati;

•          fino a 15 milioni di euro o al 3% del fatturato mondiale totale annuo dell’esercizio precedente, per l’inosservanza di qualsiasi altro requisito o obbligo del regolamento, compresa la violazione delle regole relative ai modelli di IA per finalità generali;

•          fino a 7,5 milioni di euro o all’1,5% del fatturato mondiale totale annuo dell’esercizio precedente, per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta;

•          per ciascuna categoria di violazione, la soglia per le PMI sarebbe l’importo più basso tra i due previsti, mentre per le altre imprese sarebbe l’importo più elevato.

La Commissione, sulla base del parere del comitato, elaborerà orientamenti al fine di armonizzare le regole e le prassi nazionali in materia di calcolo delle sanzioni amministrative pecuniarie.

Entrata in vigore

Il regolamento sull’IA sarà pienamente applicabile due anni dopo la sua entrata in vigore, secondo il seguente approccio graduale:

•          6 mesi dopo l’entrata in vigore, gli Stati membri devono eliminare gradualmente i sistemi vietati;

•          12 mesi dopo: diventano applicabili gli obblighi relativi alla

governance dell’IA per finalità generali;

•          24 mesi dopo: tutte le regole della legge sull’IA diventano applicabili, compresi gli obblighi per i sistemi ad alto rischio definiti nell’allegato III (elenco dei casi d’uso ad alto rischio);

•          36 mesi dopo: si applicano gli obblighi per i sistemi ad alto rischio definiti nell’allegato II (elenco della normativa di armonizzazione dell’Unione).

Il regolamento potrà essere modificato mediante atti delegati e di esecuzione, anche per aggiornare la soglia FLOPS (atto delegato), aggiungere criteri per classificare i modelli di IA per finalità generali come modelli che presentano rischi sistemici (atto delegato), modificare le modalità per istituire spazi di sperimentazione normativa ed elementi del piano di prova in condizioni reali (atti di esecuzione).

Screenshot_20240205_170120_Samsung Notes

Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione – Orientamento generale

La Commissione ha adottato la proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) il 21 aprile 2021. La proposta della Commissione mira ad assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati nell’Unione siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione, ad assicurare la certezza del diritto al fine di facilitare gli investimenti e l’innovazione nell’intelligenza artificiale, a migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e sicurezza nonché a facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili, evitando nel contempo la frammentazione del mercato.

Screenshot_20240205_163951_Samsung Notes

REGOLAMENTO DEL PARLAMENTO EUROPEO E DEL CONSIGLIO CHE STABILISCE REGOLE ARMONIZZATE SULL’INTELLIGENZA ARTIFICIALE (LEGGE SULL’INTELLIGENZA ARTIFICIALE) E MODIFICA ALCUNI ATTI LEGISLATIVI DELL’UNIONE

Motivi e obiettivi della proposta

La presente relazione accompagna la proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale). Con il termine intelligenza artificiale (IA) si indica una famiglia di tecnologie in rapida evoluzione in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali. L’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione dell’erogazione di servizi, può contribuire al conseguimento di risultati vantaggiosi dal punto di vista sociale e ambientale nonché fornire vantaggi competitivi fondamentali alle imprese e all’economia europea. Tale azione è particolarmente necessaria in settori ad alto impatto, tra i quali figurano quelli dei cambiamenti climatici, dell’ambiente e della sanità, il settore pubblico, la finanza, la mobilità, gli affari interni e l’agricoltura. Tuttavia gli stessi elementi e le stesse tecniche che alimentano i benefici socio-economici dell’IA possono altresì comportare nuovi rischi o conseguenze negative per le persone fisiche o la società. In considerazione della velocità dei cambiamenti tecnologici e delle possibili sfide, l’UE si impegna a perseguire un approccio equilibrato. L’interesse dell’Unione è quello di preservare la leadership tecnologica dell’UE e assicurare che i cittadini europei possano beneficiare di nuove tecnologie sviluppate e operanti in conformità ai valori, ai diritti fondamentali e ai principi dell’Unione.

Screenshot_20240205_162311_LinkedIn

Conferenza sull’intelligenza artificiale Bruxelles 28-29 gennaio 2024

IL REGOLAMENTO UE IN MATERIA DI INTELLIGENZA
ARTIFICIALE
È in via di definitiva adozione da parte del Parlamento europeo e del
Consiglio, secondo la procedura legislativa ordinaria, la proposta di
regolamento, presentata dalla Commissione europea il 21 aprile 2021,
recante un quadro giuridico in materia di intelligenza artificiale
(esplicitamente denominato “legge sull’intelligenza artificiale”).
In esito ai triloghi (negoziati interistituzionali tra i rappresentanti di Parlamento
europeo, Consiglio e Commissione per concordare il testo da sottoporre
all’approvazione dei due colegislatori), il 9 dicembre 2023 è stato infatti raggiunto
un accordo politico provvisorio, con l’obiettivo di approvare in via definitiva la
nuova normativa entro la fine dell’anno o, al massimo, entro la conclusione
dell’attuale legislatura europea.
L’accordo dovrà ora essere formalmente approvato dal Consiglio (a
maggioranza qualificata), probabilmente nel corso del mese di febbraio, e dal
Parlamento europeo (a maggioranza dei suoi componenti), al più tardi nella
sessione del prossimo aprile.
Prima dell’avvio dei negoziati, il Consiglio dell’UE, con un orientamento
generale adottato all’unanimità il 6 dicembre 2022 e il Parlamento europeo con
emendamenti approvati in plenaria (con 499 voti a favore, 28 contrari e 93
astensioni) il 14 giugno 2023 avevano definito le proprie posizioni.


Clic per il documento completo

RCA WAGNER

Repubblica Centrafricana: Crisi umanitaria e protettorato della Wagner

Marco Tamburro

Nell’Agosto del 2023 il Presidente Tuatara è stato confermato grazie a un referendum costituzionale che egli stesso si era adoperato per far approvare e che portò alla firma della nuova costituzione centro africana.

La Repubblica Centrafricana è un paese che versa storicamente e cronicamente in una situazione di crisi umanitaria, che oggi colpisce una popolazione fra 1.8 e 2 milioni, di cui circa 300.000 bambini a rischio di malnutrizione acuta-severa.

Oltre ai problemi interni acuitisi dopo la deposizione dello storico presidente Bozize (2003-2010), il Paese si è frammentato in diverse parti controllate da fazioni e milizie islamiche (seleka), antislamiche (anti-balaka) ed esercito fedele al governo centrali e supportate dalla missione delle Nazioni Unite (MINUSCA). La Repubblica Centrafricana oggi ospita nel nord-est circa 24.000 sudanesi fuggiti a causa del confronto fra le autorità centrali sudanesi che hanno portato un’ondata di violenze nel 2023.

Come altre realtà africane una lunga storia di conflitti, guerre civile e sottosviluppo entrano in contraddizione con una vasta ricchezza di risorse naturali. In questo quadro i partner storici di cooperazione come gli Stati membri dell’Unione Europea e gli Stati Uniti sono rimasti impotenti di fronte alla scelta del governo della Repubblica del Centrafrica di essere supportato dalla compagnia militare privata russa Wagner per garantire la sicurezza della capitale Bangui e soprattutto combattere le milizie e gruppi che hanno fronteggiato il governo centrale. Ci si interroga su come un Paese poverissimo e dipendente dagli aiuti umanitari di decine di paesi internazionali sia riuscito a stringere un accordo militare che non è solamente una parziale perdita del controllo della propria sovranità nazionale, quantomeno da un punto di vista di uso della forza, ma anche da un punto di vista economico, considerando il costo enorme di quelle che sono le compagnie militari private, soprattutto se vengono chiamaate ad assumere un assetto operativo.

Per questo motivo in Centrafrica, come in altri contesti, i partner occidentali sono sempre stati molto attenti nel cercare di decifrare le basi degli accordi e le relazioni fra i Paesi africani e la Wagner, soggetto ovviamente ‘’in avanscoperta‘’ per conto della Russia. In uno stato particolarmente debole come il Centrafrica, la Wagner è riuscita non solo ad assicurarsi dei posti di primo piano nelle decisioni politiche e militari del paese, basti pensare che un consigliere politico e uno militare sono membri permanenti del gabinetto del Presidente, ma anche delle concessioni per l’estrazione di oro e altri metalli preziosi. E’ quindi probabilmente questa la moneta di scambio richiesta per i servigi della Wagner, forse unica soluzione per questi Paesi che mirano a una consolidazione del potere e a migliorare la situazione della sicurezza. Dopo i fatti accaduti fra il gruppo Wagner e la Russia nel quadro del conflitto tra quest’ultima e l’Ucraina, sarà importante decifrare se la presenza della Wagner possa essere ancora considerata come una forza militare che persegue gli stessi interessi della Russia e che quindi si propone anche come alternativa alle collaborazioni militari rispetto alle missioni delle Nazioni unite o il supporto dell’Unione Europea, o se agisca per proprio conto.

Marco Tamburro