{"id":21342,"date":"2023-09-27T07:30:59","date_gmt":"2023-09-27T05:30:59","guid":{"rendered":"https:\/\/www.unilab.eu\/?p=21342"},"modified":"2023-09-07T10:15:15","modified_gmt":"2023-09-07T08:15:15","slug":"regolamentazione-ia","status":"publish","type":"post","link":"https:\/\/www.unilab.eu\/it\/articoli\/coffee-break-it\/regolamentazione-ia\/","title":{"rendered":"Regolamentazione IA: serve un&#8217;apposita agenzia?"},"content":{"rendered":"<p>La <strong>regolamentazione dell\u2019IA<\/strong> \u00e8 una richiesta sempre pi\u00f9 diffusa, fatta (tra le varie parti) anche da un numero crescente di istituzioni e organizzazioni, che ormai concordano a pieno sui possibili rischi di un uso malevolo della suddetta tecnologia: soluzione che per alcuni andrebbe addirittura vigilata tramite un\u2019apposita <strong>agenzia di controllo<\/strong>, poich\u00e9 il suo potenziale sarebbe in parte paragonabile a quello dell\u2019energia nucleare.<\/p>\n<p>Certo, un simile accostamento tende a risultare abbastanza azzardato, ma \u00e8 comunque indiscutibile che, proprio come avviene nel caso del nucleare stesso, anche con l\u2019intelligenza artificiale ci si trova di fronte a una proposta da un lato in grado di <strong>offrire dei benefici tangibili<\/strong> e dall\u2019altro perfettamente capace di <strong>generare conseguenze imprevedibili se adoperata nella maniera scorretta<\/strong>.<\/p>\n<p><strong>Come sarebbe strutturata una possibile agenzia di controllo IA?<\/strong><\/p>\n<p>Ad avanzare l\u2019interessante idea sono stati per primi i <strong>vertici di OpenAI<\/strong>, che fanno parte della societ\u00e0 creatrice di Chat GPT. Direttamente coinvolta nell\u2019argomento in questione, l\u2019azienda ha redatto un documento intitolato \u201c<em>Governance of superintelligence<\/em>\u201d, nel quale suggerisce alcune idee sulla regolamentazione delle IA, affinch\u00e9 i rischi correlati al loro utilizzo vengano ridotti ai minimi termini.<\/p>\n<p>Il punto di maggiore rilievo riguarda proprio la <strong>creazione di un apposito ente<\/strong>, che si occupi di supervisionare tutto ci\u00f2 che ha a che fare con le intelligenze artificiali. Basandosi sul modello dell\u2019Agenzia Internazionale per l\u2019Energia Atomica (AIEA), viene infatti immaginata un\u2019istituzione similare, che faccia da garante per il rispetto delle regole e funga al contempo come punto di riferimento dei governi di tutto il mondo.<\/p>\n<p>Diversi Stati, infatti, si sono resi conto di quanto la suddetta tecnologia si sia gi\u00e0 rapidamente espansa, arrivando in pratica a toccare qualunque ambito commerciale, sociale ed economico. Una diffusione massiccia e priva di controlli adeguati che, se continua a non essere gestita con maggiore attenzione, pu\u00f2 iniziare a presentare <strong>falle e vulnerabilit\u00e0<\/strong>, sfruttabili senza alcun limite dai malintenzionati.<\/p>\n<p><strong>La regolamentazione delle IA potrebbe risolvere i problemi dell\u2019AI Act?<\/strong><\/p>\n<p>Allo scopo di proteggere le imprese che stanno decidendo di ricorrere all\u2019intelligenza artificiale, l\u2019Europa si \u00e8 messa a lavorare sul cosiddetto <strong>AI Act<\/strong>: raccolta di leggi preparate ad hoc per la regolamentazione delle IA che, per\u00f2, per adesso presenta ancora una serie di problematiche, pronte a renderla inefficace ancora prima della sua effettiva pubblicazione.<\/p>\n<p>Tre i vari <strong>problemi con cui tale piano deve fare i conti<\/strong>, rientrano ad esempio:<\/p>\n<ul>\n<li>la <strong>rapida evoluzione delle reti neurali<\/strong> (le cui potenzialit\u00e0 si moltiplicano esponenzialmente nel giro di pochi mesi, rendendo obsoleta gi\u00e0 in partenza qualunque norma che le regoli);<\/li>\n<li>il <strong>rischio legato alla territorialit\u00e0<\/strong> (per il quale risulta inverosimile che Nazioni profondamente differenti tra loro come Cina, USA, UE o India riescano a formulare un accordo legislativo comune per le IA. Ci\u00f2 potrebbe portare alla nascita di \u201c<em>paradisi per le intelligenze artificiali<\/em>\u201d, caratterizzati da leggi meno stringenti, che agevolerebbero alcuni Stati a discapito di altri);<\/li>\n<li>gli <strong>eventuali<\/strong> <strong>controlli su algoritmi posti sotto brevetto<\/strong> (nessuna delle Big Tech sarebbe disposta a fare esaminare i propri prodotti da possibili esponenti di governi concorrenti, se non correndo il rischio che i rispettivi segreti industriali trapelino).<\/li>\n<\/ul>\n<p>In questo stesso contesto difficoltoso potrebbe tuttavia trovare applicazione la proposta avanzata da OpenAI di creare un\u2019<strong>agenzia super partes<\/strong>. Tale istituzione dovrebbe garantire piena imparzialit\u00e0 a tutti i governi mondiali, nonch\u00e9 trovare un bilanciamento corretto nella regolamentazione dell\u2019intelligenza artificiale e delle sue applicazioni in base all\u2019evoluzione tecnologica.<\/p>\n<p>Se poi venisse <strong>istituita come ente direttamente subordinato alle Nazioni Unite<\/strong>, avrebbe la possibilit\u00e0 di contare anche sui principi di democraticit\u00e0 e multilateralismo, che contraddistinguono la suddetta organizzazione. Ci\u00f2 offrirebbe un\u2019ulteriore garanzia di affidabilit\u00e0 e faciliterebbe l\u2019adesione a tale progetto da parte dei diversi Stati.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La regolamentazione dell\u2019IA \u00e8 una richiesta sempre pi\u00f9 diffusa, fatta (tra le varie parti) anche da un numero crescente di istituzioni e organizzazioni, che ormai concordano a pieno sui possibili rischi di un uso malevolo della suddetta tecnologia: soluzione che per alcuni andrebbe addirittura vigilata tramite un\u2019apposita agenzia di controllo, poich\u00e9 il suo potenziale sarebbe in parte paragonabile a quello dell\u2019energia nucleare.<\/p>\n","protected":false},"author":10,"featured_media":21340,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"none","_seopress_titles_title":"Regolamentazione IA: serve un&#039;apposita agenzia?","_seopress_titles_desc":"La regolamentazione dell\u2019IA \u00e8 una richiesta sempre pi\u00f9 diffusa, fatta (tra le varie parti) anche da un numero crescente di istituzioni e organizzazioni, che ormai concordano a pieno sui possibili rischi di un uso malevolo della suddetta tecnologia: soluzione che per alcuni andrebbe addirittura vigilata tramite un\u2019apposita agenzia di controllo, poich\u00e9 il suo potenziale sarebbe in parte paragonabile a quello dell\u2019energia nucleare.","_seopress_robots_index":"","footnotes":""},"categories":[46],"tags":[],"class_list":["post-21342","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-coffee-break-it","has-post-title","has-post-date","has-post-category","has-post-tag","has-post-comment","has-post-author",""],"builder_content":"","_links":{"self":[{"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/posts\/21342","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/users\/10"}],"replies":[{"embeddable":true,"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/comments?post=21342"}],"version-history":[{"count":0,"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/posts\/21342\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/media\/21340"}],"wp:attachment":[{"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/media?parent=21342"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/categories?post=21342"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.unilab.eu\/it\/wp-json\/wp\/v2\/tags?post=21342"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}