Pericolo IA: anche la voce, oltre ai profili, può essere rubata. Serve una immediata regolazione
La cosa sta sfuggendo di mano.
Se già spaventava il fenomeno, ormai comunissimo, del furto di identità digitale e di profili social, ora terrorizza la possibilità che anche la nostra voce e il nostro volto possano essere utilizzate a nostra insaputa.
La tecnologia permette di riprodurre in maniera fedelissima timbro, inflessione e accento, a costi infimi e senza troppo sforzo. Si aggiunge che risalire al responsabile è di solito pressoché impossibile.
Non serve troppa immaginazione per pensare a quali abusi questo sistema si presta. Facili e coperti da anonimato.
In questi giorni, soltanto per dirne una, sono diventate virali immagini sessualmente esplicite, ma artefatte, della nota cantautrice Taylor Swift, per decine di milioni di visualizzazioni.
Non si può restare a guardare, basiti e forse anche un po’ affascinati, un pericolo che cresce, che si amplifica senza misura e controllo.
A inizio d’anno, nel New Hampshire, molti elettori hanno ricevuto chiamate telefoniche di propaganda elettorale, con la voce di Biden, riprodotta con intelligenza artificiale. Di rimando, la FCC ha dichiarato reato le chiamate fake, a prescindere dal fine. Non è utile attendere che si verifichi in concreto il problema per cercare una soluzione di dettaglio, peraltro di mera repressione, senza capacità di previsione e di sistema. Il male va anticipato, ed evitato. Non è con l’approssimazione e con interventi di contingenza che si scongiura un pericolo di questa portata.
Meritocrazia Italia invoca da sempre attenzione per la questione. Non si sottovalutano le utilità dell’intelligenza artificiale, ma neppure vanno sottovalutate le degenerazioni possibili di un uso non responsabile.
Urge una regolamentazione nazionale che consenta di cogliere le occasioni offerte da un panorama straordinario per l’interazione uomo-macchina e prevenire, a un tempo, i pericoli insiti nei coni d’ombra in cui si annidano forme diffuse di irresponsabilità. Ma è altrettanto indispensabile saper dare la giusta lettura e applicazione anche a norme concepite in altro contesto, in tempi non (o poco) sospetti, ma comunque adeguate e congrue. È necessario, ad esempio, dare applicazione alla normativa preposta a tutela della privacy anche nei casi di riproduzione di elementi identificativi diversi dall’immagine e con riferimento a ogni modalità di circolazione dei dati personali. Una liberatoria, poi, sia necessaria non soltanto per autorizzare l’uso dell’immagine propria, ma anche per tutti i fattori caratterizzanti l’identità personale, compresa la voce.
Si intervenga a favore di una maggiore consapevolezza, anche per le vie di un’informazione massiva, chiara e comprensibile a tutti, dei pericoli connessi all’uso di strumenti, come i social, che recepiscono, immagazzinano e mettono in incontrollata circolazione informazioni personali, immagini e ora anche la voce.
Meritocrazia torna a chiedere che venga istituito un tavolo permanente presso il Centro Nazionale Anticrimine Informatico per la Protezione delle Infrastrutture Critiche, coinvolgendo anche esperti nazionali esterni alla p.a. ed esperti internazionali, e che venga istituito, presso il Ministero del Lavoro e delle Politiche Sociali, un centro di ascolto in grado di raccogliere le segnalazioni dei cittadini e degli addetti ai lavori in merito a problemi che potranno essere riscontrati conseguenti all’uso dell’intelligenza artificiale.
Stop war.