Regolamentazione IA: serve un’apposita agenzia?
La regolamentazione dell’IA è una richiesta sempre più diffusa, fatta (tra le varie parti) anche da un numero crescente di istituzioni e organizzazioni, che ormai concordano a pieno sui possibili rischi di un uso malevolo della suddetta tecnologia: soluzione che per alcuni andrebbe addirittura vigilata tramite un’apposita agenzia di controllo, poiché il suo potenziale sarebbe in parte paragonabile a quello dell’energia nucleare.
Certo, un simile accostamento tende a risultare abbastanza azzardato, ma è comunque indiscutibile che, proprio come avviene nel caso del nucleare stesso, anche con l’intelligenza artificiale ci si trova di fronte a una proposta da un lato in grado di offrire dei benefici tangibili e dall’altro perfettamente capace di generare conseguenze imprevedibili se adoperata nella maniera scorretta.
Come sarebbe strutturata una possibile agenzia di controllo IA?
Ad avanzare l’interessante idea sono stati per primi i vertici di OpenAI, che fanno parte della società creatrice di Chat GPT. Direttamente coinvolta nell’argomento in questione, l’azienda ha redatto un documento intitolato “Governance of superintelligence”, nel quale suggerisce alcune idee sulla regolamentazione delle IA, affinché i rischi correlati al loro utilizzo vengano ridotti ai minimi termini.
Il punto di maggiore rilievo riguarda proprio la creazione di un apposito ente, che si occupi di supervisionare tutto ciò che ha a che fare con le intelligenze artificiali. Basandosi sul modello dell’Agenzia Internazionale per l’Energia Atomica (AIEA), viene infatti immaginata un’istituzione similare, che faccia da garante per il rispetto delle regole e funga al contempo come punto di riferimento dei governi di tutto il mondo.
Diversi Stati, infatti, si sono resi conto di quanto la suddetta tecnologia si sia già rapidamente espansa, arrivando in pratica a toccare qualunque ambito commerciale, sociale ed economico. Una diffusione massiccia e priva di controlli adeguati che, se continua a non essere gestita con maggiore attenzione, può iniziare a presentare falle e vulnerabilità, sfruttabili senza alcun limite dai malintenzionati.
La regolamentazione delle IA potrebbe risolvere i problemi dell’AI Act?
Allo scopo di proteggere le imprese che stanno decidendo di ricorrere all’intelligenza artificiale, l’Europa si è messa a lavorare sul cosiddetto AI Act: raccolta di leggi preparate ad hoc per la regolamentazione delle IA che, però, per adesso presenta ancora una serie di problematiche, pronte a renderla inefficace ancora prima della sua effettiva pubblicazione.
Tre i vari problemi con cui tale piano deve fare i conti, rientrano ad esempio:
- la rapida evoluzione delle reti neurali (le cui potenzialità si moltiplicano esponenzialmente nel giro di pochi mesi, rendendo obsoleta già in partenza qualunque norma che le regoli);
- il rischio legato alla territorialità (per il quale risulta inverosimile che Nazioni profondamente differenti tra loro come Cina, USA, UE o India riescano a formulare un accordo legislativo comune per le IA. Ciò potrebbe portare alla nascita di “paradisi per le intelligenze artificiali”, caratterizzati da leggi meno stringenti, che agevolerebbero alcuni Stati a discapito di altri);
- gli eventuali controlli su algoritmi posti sotto brevetto (nessuna delle Big Tech sarebbe disposta a fare esaminare i propri prodotti da possibili esponenti di governi concorrenti, se non correndo il rischio che i rispettivi segreti industriali trapelino).
In questo stesso contesto difficoltoso potrebbe tuttavia trovare applicazione la proposta avanzata da OpenAI di creare un’agenzia super partes. Tale istituzione dovrebbe garantire piena imparzialità a tutti i governi mondiali, nonché trovare un bilanciamento corretto nella regolamentazione dell’intelligenza artificiale e delle sue applicazioni in base all’evoluzione tecnologica.
Se poi venisse istituita come ente direttamente subordinato alle Nazioni Unite, avrebbe la possibilità di contare anche sui principi di democraticità e multilateralismo, che contraddistinguono la suddetta organizzazione. Ciò offrirebbe un’ulteriore garanzia di affidabilità e faciliterebbe l’adesione a tale progetto da parte dei diversi Stati.
