L’AI Act è un passo avanti decisivo, ma non ci si fermi a questo
Ci siamo quasi. Sta per entrare in vigore l’AI Act, il primo intervento normativo organico sull’intelligenza artificiale.
La normativa anticiperebbe i livelli di rischio legati all’utilizzo di tale tecnologia, prevedendo obblighi e divieti progressivamente connessi al grado di pericolosità.
Secondo la ricostruzione operata dagli organi europei, la stragrande maggioranza dei sistemi di IA non presenterebbe rischi, potendo essere utilizzata senza i limiti imposti dalla nuova legge. I sistemi, poi, che presentano ‘rischi limitati’ saranno soggetti a obblighi di trasparenza ‘leggeri’, come la divulgazione del fatto che il loro contenuto è stato generato dall’IA, in modo che gli utenti possano prendere decisioni consapevoli sul loro utilizzo. In caso, invece, di ‘rischio elevato’, il meccanismo dovrà essere autorizzato e, a monte, soggetto a una serie di requisiti e obblighi per l’accesso al mercato dell’Unione. Vi sono anche dei rischi considerati ‘inaccettabili’, che portano a vietare l’uso dei relativi sistemi. Sono quelli relativi a manipolazione cognitiva del comportamento, polizia predittiva, riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative e il social scoring. Anche i sistemi di identificazione biometrica a distanza, come il riconoscimento facciale, saranno vietati, con alcune limitate eccezioni.
L’intelligenza artificiale non è una tecnologia nuova. Alcuni sistemi esistono da decenni, ma i progressi nella potenza dei computer, la disponibilità di grandi quantità di dati e i nuovi software hanno portato a nuovi usi in un breve lasso di tempo. Del resto, l’IA è già in molte applicazioni della vita quotidiana (assistenza virtuale, diagnosi mediche, traduzioni automatiche, strumenti di navigazione, controllo di qualità nella produzione, previsione di disastri naturali).
È indubbio che tale tecnologia, se ben usata, possa portare benefici ma è altrettanto indiscusso che, se non regolamentata, rischia di avere deleterie ripercussioni nella vita quotidiana dei cittadini e in particolare nel mercato del lavoro, almeno come attualmente concepito. Per questo, e condivisibilmente, pur sostenendo lo sviluppo della tecnologia dell’IA, l’Europa ne ha voluto riconoscere i rischi potenziali e incoraggia un approccio etico e umano all’uso della tecnologia.
Etica e sicurezza devono poter essere garantire.
Meritocrazia Italia considera l’iniziativa dell’Europa un passo avanti importante e necessario, apprezzando l’impianto della nuova regolazione e comunque reputando non sufficiente introdurre nuove norme, che a poco servono senza un lavoro costante sull’educazione alla responsabilità, perché non sia mai persa di vista l’attenzione per la tutela della persona nell’implementazione di nuove tecnologie.
Soltanto così si può realizzare un’intelligenza artificiale che sia a sostegno dell’uomo, e non ne sostituisca l’opera prendendo il sopravvento, e creando distorsioni e fratture sociali. Offra piuttosto l’occasione per sviluppare nuove competenze, al fine di assorbire la forza lavoro in eccesso e non rendere invece inutile il lavoro prezioso di tantissimi.
Per questo, Meritocrazia chiede, tra l’altro, che, in ogni ambito, sia prevista una quota destinata di necessità e inderogabilmente all’attività umana.
Siano conservati gli equilibri di una società che non sembra pronta a tenere il passo di cambiamenti troppo repentini.
Stop war.