ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùScenario

Stretta finale per l’«Ai Act»: cosa chiede l’Europa all’intelligenza artificiale 

Il Parlamento europeo vicino a una posizione comune. Ecco cosa prevede il nuovo regolamento sul modello Gdpr che abbraccia da Chatgpt alla sorveglianza biometrica

di Luca Tremolada

(greenbutterfly - stock.adobe.com)

4' di lettura

L’Europa ha cominciato a discutere di intelligenza artificiale prima di ChatGpt, dei deep fake e dei recenti timori sulla sorveglianza di massa. Siamo nell’aprile del 2021, nel secondo anno di Covid, quando viene presentata la Proposta di Regolamento sull'Intelligenza Artificiale presentata dalla Commissione europea nell'ambito della Strategia europea per l'IA. La proposta di regolamento che ormai conosciamo come Ai Act come è stato per Gdpr, il regolamento europeo per la protezione dei dati, è una norma egualmente applicabile in tutti gli Stati membri dell'Unione europea. Si compone di 85 articoli più gli allegati ed è il primo testo legislativo che si propone di regolare una materia vastissima come l'Ai. Sono passati quasi due anni. Dopo svariate bozze di regolamento sono arrivate a dicembre dell’anno scorso le modifiche al testo da parte del Consiglio. Ora si sta discutendo in sede di Parlamento europeo sugli emendamenti alla proposta di Regolamento. Il confronto dovrebbe esaurirsi già a marzo di quest’anno. Dovremmo essere la capolinea di questo lungo iter legislativo con il tavolo a tre tra Consiglio, Parlamento e Commissione.

La questione delle scatole nere

La materia non è semplice da un punto di vista tecnico. In questi anni abbiamo letto del diffondersi di algoritmi a volte opachi, a volte meno, creati dal deep learning, per inferire di tutto e di più, dai tratti intimi delle persone al rischio creditizio, dalle condizioni di salute alla propensione al crimine. Parliamo delle black box, scatole nere, sistemi di AI che non rendono visibili all’utente o ad altre parti interessate i loro input e sopratutto i loro processi. Questo significa che il modo in cui l’AI elabora le informazioni e produce le previsioni è oscuro e non comprensibile. Questo può creare problemi di trasparenza, affidabilità ed etica nell’uso dell’AI. Per questo motivo, alcuni ricercatori e alcune grandi multinazionali stanno sviluppando e adottando strumenti di Explanaible AI, cioè tools che aiutano a rendere trasparente come un sistema prende una determinata decisione.

Loading...

La questione della nazionalità dei sistemi di AI 

La questione è rilevante anche perché ad oggi i maggiori”provider” di sistemi di intelligenza artificiale sono extra-europei. Un regolamento che imponga trasparenza nelle black box potrebbe essere visto come un modo per favorire la concorrenza europea. La questione è dibattuta da anni ma il regolamento è chiamato a fornire anche su questo aspetto una risposta definitiva. Da qui l’attesa e l’interesse per questo regolamento che non riguarda più solo dagli addetti ai lavoro e quindi da gran parte dell’industria digitale globale ma anche dai governi e dai cittadini per le implicazioni dell’Ai nella vita di tutti i giorni.

L’impatto dell’AI in Europa

Qualche esempio? Lo scorso 22 dicembre il governo francese ha depositato un disegno di legge sui giochi olimpici del 2024 che intende tra le altre cose potenziare la sicurezza attraverso videocamere dotate di AI. Se sarà approvata, la legge permetterà di installare per le strade di Parigi telecamere in grado di riconoscere in tempo reale, attraverso l'intelligenza artificiale. La misura ha suscitato e sta suscitando proteste da parte di associazioni di cittadini e partiti politici anche fuori dalla Francia che temono l’adozione massiva di strumenti di sorveglianza al di fuori della legge. E poi c’è il settore privato. Dall'Ibm Global AI Adoption Index 2022 si evince che il 45% delle aziende sta utilizzando l'Ai e il 32% ne sta esplorando un uso futuro. Vuole dire che pezzi sempre più ampi dei processi decisionali delle aziende potrebbero essere messe in mano ad algoritmi di intelligenza artificiale. Inoltre, l’Europa sembra preoccupata anche dalla nazionalità di questi algoritmi anche perché l’intendimento della Commissione è aumentare a 20 miliardi di euro l'anno gli investimenti privati e pubblici per le tecnologie di IA.

Cosa c’è dentro l’AI Act?

Da qui lo spirito dell’Ai Act made in Europe che però rispetto a Cina e Stati Uniti si caratterizza per un approccio umano-centrico, che vuole mantenere al centro della protezione normativa, la tutela dell'integrità e dei diritti dell'individuo. Detto altrimenti, la Commissione vuole fornire regole comuni per lanciare nuovi prodotti e servizi sul mercato europeo in un contesto di fiducia da parte dei cittadini dell’Unione. Come avviene per la Gdpr non ci sarà un ente terzo che autorizzerà l’AI ma dovranno essere le aziende a dimostrare che i loro sistemi sono stati progettati per non ledere i diritti fondamentali e non costituisce un rischio per le persone. Esisterà un organo di vigilanza composto da un rappresentante di ogni autorità nazionale preposta, dal Garante europeo per la privacy e dalla Commissione. Ed di conseguenza un sistema sanzionatorio anche in questo caso sul modello presente nel regolamento per la protezione dei dati.

Le novità e i nodi da sciogliere

La novità sostanziale dell’approccio europeo è però nell’avere stabilito una classificazione dei sistemi di AI in base ai rischi che questi pongono per i diritti fondamentali. Vuole dire che una volta individuati i sistemi considerati ad alto rischio verranno stabiliti dei requisiti specifici a cui questi devono conformarsi, oltre che degli obblighi per fornitori e utenti di IA appartenenti a questa categoria. Per altro rischio si intendono i i casi in cui l'Ai è usata per infrastrutture critiche come i trasporti, l’accesso all’istruzione o la progettazione di software per la gestione dei lavoratori o di servizi pubblici e privati essenziali. Verranno regolati anche l’uso di sistemi di riconoscimento biometrico da parte delle forze dell'ordine come nel caso del disegno di legge in discussione in Francia. Ed è previsto un capitolo dedicato all’uso di chatbot sul modello di ChatGpt per prevedere strumenti in grado di avvertire l’utente se il contenuto è generato da una macchina o da un essere umano. Data la portata del regolamento i nodi da sciogliere non sono pochi. Anche all’interno dell’Europa e tra singoli stati membri. Secondo quanto emerge, il parlamento europeo non trova una posizione comune sul il divieto di esportare sistemi AI basati su pratiche vietate e sulla questione dei dei database biometrici e di riconoscimento facciale. Si sta discutendo anche e ancora sul concetto stesso di IA ad alto rischio. La data di marzo potrebbe slittare ancora.

Riproduzione riservata ©
  • Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

loading...

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti