HomeAttualitàPeriodo natalizio e… Intelligenza Artificiale… riflessioni di Innocenzo Orlando
Periodo natalizio e… Intelligenza Artificiale… riflessioni di Innocenzo Orlando
143
Periodo natalizio e… Intelligenza Artificiale riflessioni di Innocenzo Orlando
Ogni anno, tutto il peso di dodici mesi di avvenimenti, di detti e contraddizioni, di ricordi e di bilanci sembra trovare il suo minuscolo fulcro nelle quarantotto ore tra il 24 e il 25 dicembre.
Ogni ora che ci avvicina a quelle date, ogni pensare che ci proiettiamo in avanti o che lanciamo lo sguardo all’indietro sembra sottomesso alla spinta gravitazionale che solo il Natale può esercitare.
E c’è da dire che il mondo sembra volercelo dimenticare, capsule targate Holiday a parte.
Ogni Natale è uno specchio dell’anno che lo ha preceduto: il nostro è iperdinamico, teso in mille direzioni diverse, nostalgico, in alcuni casi febbrile.
Intanto mentre veniamo assorbiti dal Natale il mondo continua a girare…e…
Dopo un negoziato fiume di oltre 36 ore, le istituzioni Ue hanno raggiunto l’accordo sull’AI Act, la legge europea sull’intelligenza artificiale.
Si tratta del primo quadro normativo sui sistemi di IA nel mondo. Lo annuncia in un tweet il commissario europeo al Mercato Interno, Thierry Breton.
Obiettivo della normativa è garantire che l’IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l’innovazione e rendendo l’Europa leader nel settore.
I negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l’uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’RBI “post-remoto” verrebbe utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. I sistemi di identificazione biometrica “in tempo reale” sarebbero conformi a condizioni rigorose e il loro uso sarebbe limitato nel tempo e nel luogo, ai fini di: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro).
Quanto alle pratiche vietate, la lista dei divieti include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale.
Il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l’IA usata per sfruttare le vulnerabilità delle persone.
I sistemi di identificazione biometrica “in tempo reale”, si legge ancora, sarebbero conformi a condizioni rigorose e il loro uso sarebbe limitato nel tempo e nel luogo, ai fini di: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro).
L’accordo prevede, inoltre, una serie di obblighi per i sistemi ad alto rischio, tra cui quello di una valutazione dell’impatto sui diritti fondamentali. In questa categoria saranno inseriti anche i sistemi di IA usati per influenzare l’esito delle elezioni e il comportamento degli elettori. I cittadini, poi, avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui loro diritti. Altro punto fondamentale riguarda i guardrail per i sistemi di IA generale, e in particolare per quelli ad alto impatto con rischio sistemico, per cui sono previsti obblighi più stringenti che vanno dalla valutazione del modello, alla valutazione e mitigazione dei rischi sistemici, alla protezione della sicurezza informatica. Il testo include infine misure a sostegno dell’innovazione e delle Pmi e un regime di sanzioni, con multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.