Genere, discriminazione, donne: cosa dice la legge europea sull'intelligenza artificiale in vigore da agosto

In Gazzetta Ufficiale europea da agosto, l'AI Act entrerà in vigore in tutte le sue parti nel 2027. Il tema cruciale riguarda il contrasto alle discriminazioni. Elisabetta Gola, filosofa del linguaggio, analizza il testo da un punto di vista di genere.

Genere, discriminazione, donne: cosa dice la legge europea sull'intelligenza artificiale in vigore da agosto
growtika.unsplash
Preroll AMP

Elisabetta Gola Modifica articolo

3 Settembre 2024 - 11.22


ATF AMP

In tutto 144 pagine di testo fitto (interlinea singola) e in carattere piccolo che diventano 470 se riportate a dimensioni normali: un testo imponente andrà a regolamentare comportamenti e azioni relative all’uso dell’Intelligenza artificiale in Europa entrato in vigore dal 2 agosto 2024. Il documento è diviso in varie parti: la prima consiste in un elenco ragionato di “considerazioni” preliminari, 180 punti per la precisione. Il regolamento vero e proprio è contenuto nei successivi due terzi del testo, suddivisi in 12 “Capi”, ciascuno articolato in articoli e commi, a cui si aggiungono 12 allegati.

Top Right AMP

In questa mole monumentale di testo, il termine “genere” compare 6 volte”, “discriminazione” 20 e la parola “donne” 2. Vediamo insieme in quali sezioni del documento e come. Le indicazioni relative alla tematiche di genere si trovano concentrate in gran parte nelle premesse, che sviluppano nei 180 punti lo stato dell’arte sul mercato, l’uso, i rischi dell’intelligenza artificiale, con l’obiettivo di orientare le azioni in modo eticamente corretto per  un’IA affidabile. Perciò nel 27esimo punto delle “considerazioni” vengono ricordati i sette principi elaborati dal gruppo di esperti indipendente, nominato dalla Commissione Europea per l’IA (High-level expert group on artificial intelligence), tra cui troviamo anche quello dedicato alla «diversità, non discriminazione ed equità», con cui «si intende -leggiamo nell’AI Act- che i sistemi di IA sono sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l’uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti vietati dal diritto dell’Unione o nazionale». Questa indicazione, insieme a molte altre, rientra nelle finalità generali del regolamento, ossia bilanciare l’innovazione che può promuovere l’introduzione dell’intelligenza artificiale nel mercato con il rispetto dei diritti fondamentali.

VEDI IL CAPO I, art. 1

«Migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione, e promuovendo l’innovazione».

Dynamic 1 AMP

La letteratura e la filosofia, da Asimov in poi, hanno riflettuto su quanto questo equilibrio sia difficile da trovare, anche quando programmiamo i sistemi robotici espressamente per non danneggiare l’umanità. È infatti molto difficile, se non impossibile, prendere decisioni quando ci troviamo in continuazione davanti a dilemmi morali in cui qualcuno comunque viene danneggiato. E una macchina non può basarsi su parametri come empatia, emozioni, assunzione di responsabilità, che lungi dall’essere ostacoli sono i fattori che aiutano gli esseri umani a prendere le decisioni. Per restare sul tema del “gender”, basti pensare all’impasse in cui ci troviamo sull’adozione o meno della “schwa”, il segno indicativo di un genere non binario: adottarlo scontenta le donne, che si sentono cancellate per l’ennesima volta, non adottarlo scontenta chi non si riconosce né nel genere maschile né in quello femminile e vuole potersi definire senza forzature. Cosa sceglierebbe un IA generativa in questo caso? Come verrebbe addestrata? E questo è solo un piccolo esempio, ma le possibili violazioni dei diritti sono tante e preoccupanti. Ridurre i possibili impatti negativi dei sistemi di IA è il tema trattato in diversi punti, tra cui il 48 e il 70, in cui troviamo la seconda occorrenza della parola “genere”. Il testo evidenzia l’importanza di classificare i rischi connessi ai sistemi di IA rispetto alle possibili violazioni dei diritti umani, che vengono esplicitamente elencati, e tra cui troviamo appunto l’uguaglianza di genere, ma anche la necessità di tutelare le persone con disabilità, le minoranze, i gruppi a vario titolo messi ai margini o senza possibilità di far sentire la propria voce, come i minori esposti a molte vulnerabilità e infine anche l’ambiente.

VEDI CAPO I, art.48

«il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e il diritto alla non discriminazione, il diritto all’istruzione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l’uguaglianza di genere, i diritti di proprietà intellettuale, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare il fatto che i minori godono di diritti specifici sanciti dall’articolo 24 della Carta e dalla Convenzione delle Nazioni Unite sui diritti dell’infanzia e dell’adolescenza, ulteriormente sviluppati nell’osservazione generale n, 25 della Convenzione delle Nazioni Unite dell’infanzia e dell’adolescenza per quanto riguarda l’ambiente digitale, che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l’assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone, il diritto fondamentale a un livello elevato di protezione dell’ambiente sancito dalla Carta e attuato nelle politiche dell’Unione».

Quali conseguenze potrebbero portarsi dietro queste violazioni? I possibili effetti discriminatori avrebbero un impatto almeno in tre ambiti molto importanti, che infatti sono inclusi nelle indicazioni dell’IA Act: l’istruzione, l’occupazione e i servizi essenziali.

Dynamic 1 AMP

Per quanto riguarda l’istruzione il punto dedicato è il 56 (dove per inciso compare il riferimento diretto alle donne): mentre si auspica che i sistemi di IA facciano ingresso per «per promuovere un’istruzione e una formazione digitali di alta qualità e per consentire a discenti e insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l’alfabetizzazione mediatica, e il pensiero critico», il regolamento allo stesso tempo mette in guardia rispetto all’uso dei sistemi di IA quando utilizzati per valutare i livelli di istruzione per l’accesso alla formazione. Questi sistemi sono tra quelli considerati ad alto rischio, in quanto «possono essere particolarmente intrusivi e violare il diritto all’istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale». I sistemi ad alto rischio sono quelli regolamentati con maggiore attenzione e in cui le indicazioni sono divieti veri e propri.

Analoga applicazione, e quindi analoghi rischi, si possono trovare in sistemi utilizzati per il reclutamento e la gestione di lavoratori e lavoratrici. Anche questi sistemi sono classificati ad alto rischio: possono infatti ragionare e agire in base a pregiudizi e stereotipi, la cui presenza è stata già osservata in molti database testuali (LLMS) e chat generative. I sistemi di IA, si legge nel regolamento, possono infatti «perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale». Senza considerare «i rischi in materia di protezione dei dati e vita privata».

Stesso discorso vale per i sistemi di IA utilizzati per l’accesso ad alcuni servizi e prestazioni essenziali, a cui il regolamento dedica il punto 58. Chi si rivolge agli enti pubblici e privati per avere accesso a qualche prestazione o servizio essenziale (come i servizi sanitari, le prestazioni di sicurezza sociale, la protezione in caso di maternità, malattia, infortuni, dipendenza o vecchiaia), è in una situazione di vulnerabilità e un sistema automatico che si ritrova il potere di concedere, negare, ridurre o aumentare l’accesso a questi servizi, è da ritenersi anch’esso un sistema ad alto rischio. Anche l’accesso al credito, se gestito in automatico, senza mediazione umana, può avere come esito la discriminazione fra persone o gruppi sulla base di «modelli storici di discriminazione», che si basano su variabili come l’origine razziale o etnica, il genere, la disabilità, l’età o l’orientamento sessuale.

Dynamic 1 AMP

I comportamenti non discriminatori non nascono certamente con l’intelligenza artificiale, le conosciamo perché nelle società umane decisioni prese da esseri umani causano effetti iniqui. Nel caso di discriminazioni, a volte anche inconsapevoli, che si verificano a seguito di decisioni o interazioni tra umani, esistono tuttavia sia procedure per avviare processi per poter discutere le decisioni, sia la possibilità di contrastare gli effetti discriminatori facendo leva su argomentazioni ed empatia che invece non possono essere utilizzate con i sistemi artificiali. Sulle procedure invece interviene, appunto, almeno a livello europeo, l’IA act. E l’antidoto proposto dall’IA act per poter integrare i sistemi di intelligenza artificiale nel mercato e nei processi di governo, perché agevolino l’innovazione, ma senza incorrere in effetti discriminatori, e di fatto un’estensione di quanto si fa già negli altri contesti: vigilanza, monitoraggio, responsabilità restano in capo esseri umani, competenti rispetto alle tematiche in gioco. Nel punto 163 si raccomanda -per esempio- il ricorso, sia a livello locale che europeo, a gruppi di esperti scientifici indipendenti con funzione di monitoraggio. Il ricorso a persone esperte è nello specifico raccomandato anche rispetto alla attenzione verso le categorie vulnerabili. Come? Coinvolgendo portatori di interesse in grado di tutelarle. La Commissione che viene consultata sull’IA, dovrà adottare tutte le disposizioni per la costituzione del gruppo di esperti indipendenti, determinandone numero e composizione «in funzione delle esigenze richieste e garantisce un’equa rappresentanza di genere e geografica». Nell’art. 68 (nella sezione dedicata alla “Governance”) è una chiamata all’azione delle «organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati», chiamati a entrare nel processo di vigilanza possibilmente sin dalla progettazione e sviluppo dei sistemi di IA.

Infine nella sezione dedicata ai Codici di condotta e orientamenti, il regolamento invita ad estendere in modo volontario le buone prassi indicate per i sistemi di IA ad alto rischio, anche agli altri sistemi di IA e l’ufficio europeo per l’IA e gli stati membri sono chiamati ad agevolare questo processo.

L’idea è che tutti i sistemi di IA dovrebbero rispondere a requisiti che soddisfino alcuni indicatori chiave: tra gli indicatori elencati a titolo esemplificativo nell’art. 93, troviamo «la valutazione e la prevenzione dell’impatto negativo dei sistemi di IA sulle persone vulnerabili o sui gruppi di persone vulnerabili, anche per quanto riguarda l’accessibilità per le persone con disabilità, nonché sulla parità di genere».

Dynamic 1 AMP

L’approvazione dell’IA act ha seguito un lungo iter, iniziato nell’aprile del 2021, quando è stata presentata dalla Commissione Europea una proposta di regolamento con lo scopo di creare un quadro normativo armonizzato per l’intelligenza artificiale nell’Unione europea. Ma è soprattutto il lavoro dell’ultimo anno, ad avere portato alla sua approvazione definitiva e infine la sua entrata in vigore ufficiale a partire del 2 agosto 2024. Il regolamento è il primo nel suo genere e ha subito generato un dibattito attorno alla efficacia di regole che vorrebbero promuovere due azioni in contrasto fra loro: l’innovazione da un lato e il controllo dall’altro. La preoccupazione è che troppi vincoli blocchino gli investimenti in IA in Europa, creando un ritardo nello sviluppo rispetto a Paesi più liberali. Del resto non è la prima volta che in qualche modo siamo stati posti davanti a questo dilemma, letteratura e filosofia ci ragionano sin da quando questi scenari erano solo remote possibilità: il primo tentativo di “regolamento”, basato totalmente su una allora remota possibilità futura, ce l’ha proposto la fantascienza con le famose 3, anzi 4, leggi della robotica, ideate da Asimov tra il 1942 e il 1985 (anno in cui è stata aggiunta la legge zero nel romanzo I robot e l’impero) proprio attorno alla necessità di impedire a macchine umanoidi di prendere decisioni dannose per l’umanità, anche a costo di recar danno a se stesso.

Le “leggi della robotica” sono state in qualche modo smentite dalle storie in cui sono state simulate diverse possibili situazioni. La letteratura gioca un ruolo importante nell’anticipazione degli scenari possibili e la fantascienza ci ha mostrato che non è possibile mettere il mondo in mano ai robot senza che questi prendano decisioni che danneggiano le società umane.

Il richiamo alla fantascienza finisce qui. Nell’IA Act non troviamo regole per i sistemi artificiali, ma l’invito, ripetuto in varie forme, a governare le decisioni attraverso il monitoraggio supervisionato da esseri umani e sanzionando chi, attraverso i sistemi artificiali, si trova a commettere colpe gravi, lesive dei diritti fondamentali delle persone, in particolare di quelle che si trovano -a vario titolo- in situazioni di vulnerabilità. Tra queste categorie siamo (tristemente) incluse anche noi donne, col dilemma di sempre: bisogna evitare che i sistemi applichino trattamenti basati sulle caratteristiche di genere (ma anche etniche, anagrafiche, etc.) rendendo privati i dati e quindi nascondendo queste proprietà? Oppure il contrasto alla discriminazione richiede invece di rendere esplicita la presenza e rilevanza di queste caratteristiche, rischiando però di continuare a far ereditare distinzioni, pregiudizi e stereotipi?

Dynamic 1 AMP

La responsabilità di questa scelta, secondo la filosofia dell’IA Act, sarà a carico dei provider (i fornitori dei servizi), dei deployer (i distributori dei servizi) e degli stessi costruttori, tenuti a rispettare -loro sì- le norme dettagliate nel vademecum, per garantire una IA centrata sugli esseri umani (human centered).

I sistemi generativi e le macchine che apprendono però, al momento, stanno di fatto replicando linguaggi e stereotipi assorbiti dai testi con cui vengono “nutrite”. Così, mentre a livello legislativo si dichiara esplicitamente di voler contrastare stereotipi e discriminazioni, nei fatti e implicitamente si continuano a replicare e consolidare. Questa situazione è esattamente quella che viviamo quotidianamente e che è uno scenario probabile anche nel mondo ibrido in cui sempre più ci troveremo a vivere.

FloorAD AMP
Exit mobile version