L’intelligenza artificiale è una branca dell’informatica che ha come oggetto di studio la realizzazione di sistemi informatici capaci di apprendere in maniera autonoma. Simili strumenti, noti con l’acronimo di IA, sono caratterizzati dalla natura algoritmica del processo decisionale, a cui si abbinano la capacità di simulare i processi decisionali umani e un’attitudine spiccata al problem solving e al machine learning.

Nei prossimi anni, il ruolo svolto dalle intelligenze artificiali nella ricerca scientifica e nella crescita economica è destinato a diventare sempre più preponderante. Infatti, le IA hanno il potenziale di rivoluzionare settori chiave come quelli dell’innovazione tecnologica, della medicina e della finanza. Da un punto di vista più pragmatico, l’implementazione progressiva dell’intelligenza artificiale nel settore dell’impresa potrà servire ad analizzare quantità enormi di dati, così da migliorare la produttività aziendale grazie a processi di selezione e screening innovativi, previsioni basate su campioni statistici smisurati, realizzazione di campagne pubblicitarie ad hoc.

  1. Intelligenza artificiale e bias

Pur trattandosi di sistemi informatici estremamente sofisticati, le intelligenze artificiali non sono immuni da pregiudizi che possono inficiarne la capacità decisionale, restituendo una visione distorta della realtà. Simili pregiudizi, noti con il termine tecnico di bias, non dipendono direttamente dai processi decisionali delle IA, ma sono spesso dovuti ai set di dati che i programmatori selezionano per creare gli algoritmi. La conseguenza tipica dei bias in oggetto è quella di produrre un certo grado di discriminazione – specialmente all’interno di categorie sociali come la razza, il genere, l’età – laddove venga richiesto all’IA di svolgere determinati compiti di selezione e/o riconoscimento.

Ad esempio, negli Stati Uniti ha fatto recentemente scalpore uno studio svolto dal Dipartimento del Commercio (DOC), secondo cui la funzione di riconoscimento facciale dell’IA compie spesso errori nell’identificare soggetti di colore. Gli autori dello studio sottolineano le potenziali conseguenze penali di simili sbagli, chiedendosi cosa accadrebbe laddove sistemi biometrici “difettosi” venissero forniti in dotazione alle forze dell’ordine. Similmente il software COMPAS, utilizzato negli Stati Uniti per valutare le probabilità di recidiva dei criminal offender, restituiva stime fallate in eccesso laddove l’imputato da valutare era una persona di colore.

I bias sono perciò particolarmente perniciosi, sia perché mettono a repentaglio la reputazione delle aziende che utilizzano le IA a scopi commerciali, sia perché espongono le aziende stesse a spiacevoli conseguenze legali. Ne sa qualcosa iTutorGroup, agenzia interinale statunitense che ha patteggiato con la Commissione per le pari opportunità di lavoro degli Stati Uniti (EEOC) di versare una somma pari a 365 mila dollari ad un gruppo di 200 candidati in cerca di occupazione. Il motivo? L’IA utilizzata dall’agenzia interinale per selezionare i profili adatti all’assunzione compiva palesi discriminazioni di età, rifiutando su base automatica le candidature di chi avesse superato un certo limite d’età.

  1. Regolamentazione dell’IA 

Situazioni come quelle proposte evidenziano la necessità di agire sulle IA a livello normativo, al fine da produrre una regolamentazione che determini non tanto e solamente i campi di applicazione dell’intelligenza artificiale, ma anche i requisiti da rispettare nella compilazione dei set dati e nella creazione degli algoritmi.

In Europa il testo più importante in tal senso è l’Artificial Intelligence Act, approvato dall’Europarlamento il 14 giugno 2023 e che potrebbe entrare in vigore nel 2024. Tale regolamento, da molti considerato come uno dei più avanzati in materia, stabilisce una serie di obblighi per le aziende fornitrici di servizi IA (in particolare, obblighi di trasparenza), delineando al contempo il campo di applicazione della tecnologia a riconoscimento facciale.

Particolarmente importante, poi, è la sezione che riguarda le pratiche vietate. Qui vengono elencati tutti i casi in cui l’utilizzo dell’intelligenza artificiale è espressamente proibito, in quanto andrebbe a violare i diritti fondamentali dei cittadini dell’Unione (specialmente in materia di privacy), oppure potrebbe costituire una potenziale minaccia per gli utenti di determinati servizi. I sistemi di IA che rientrano in questa categoria sono considerati ad alto rischio, e includono – oltre ai già citati sistemi di identificazione biometrica – anche quelli che gestiscono infrastrutture critiche, che erogano servizi di istruzione e di formazione professionale, che si occupano della gestione dei lavoratori, delle forze dell’ordine, delle migrazioni, dell’applicazione della legge, e che regolano l’accesso a servizi essenziali e pubblici.

Il regolamento, apprezzato per la chiarezza e la tutela offerta al cittadino, prevede infine un sistema sanzionatorio da applicare in caso di gravi violazioni, specie da parte di grandi società.

 

Marco Anselli