La Fionda è anche su Telegram.
Clicca qui per entrare e rimanere aggiornato.

L’intelligenza artificiale e l’autodistruzione del genere umano


12 Apr , 2023|
| 2023 | Visioni

1. Quello che segue non rientra tra gli ambiti di riflessione usuale di chi scrive. La decisione di affrontarlo, con cautela e umiltà, è legata alla sua rilevanza ontologica, per impiegare un aggettivo di genesi filosofica, alla luce di una colpevole negligenza nella quale viene relegato. Si tenga a mente d’altro canto che ciascuno potrà far ricorso ad libitum alla copiosa letteratura disponibile, in funzione della sua sensibilità e curiosità.

Il tema riguarda la nuova tecnologia denominata GPT-4 (e 5), un acronimo inglese che sta per Generative Pre-trained Transformer (trasformatore generativo pre-fabbricato). Come in altri casi, si tratta di un’abbreviazione che lungi dal rivelarne il senso, mira in realtà a nasconderlo. La tecnologia in questione consiste in un modello linguistico multimodale, a largo spettro, derivato dal predecessore GPT-3 e generato da OpenAI, un laboratorio di ricerca sull’intelligenza artificiale con sede a San Francisco, co-fondato da Elon Musk, il Ceo di Tesla.

Rispetto alla versione precedente, il GPT-4 viene presentato come più sicuro e affidabile, più creativo e collaborativo, e in grado di risolvere problemi complessi con maggiore precisone, grazie a una multimodalità che consente di abbinare testo e immagini.

La nuova funzionalità di input multimodale, anche se potrà essere alimentata da foto, immagini e grafici, genera per ora solo un output testuale. È dunque possibile caricare documenti completi di grafici e dati, libri di testo, foto, screenshot e altro. Sulla base di ciò, ChatGPT sarà in grado di elaborare un progetto, riformulare i dati disponibili e personalizzarli in funzione di un prodotto definito o predefinito.

Il GPT-4 manca di conoscenza degli eventi occorsi dopo il settembre 2021 (non gli sarebbero stati forniti i relativi dati per impedirne un utilizzo improprio, influenzare le elezioni o la gestione delle cosiddette emergenze sanitarie), sebbene nessuno possa credere che i servizi militari non se ne siano già impadroniti per fini occulti. Il GPT-4 inoltre, secondo ChatGPT (il modello di linguaggio basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI) per ora non sarebbe in grado di apprendere dalla sua esperienza (anche questo poco credibile).

Il GPT-4 sarebbe ancora imperfetto e limitato, non avendo ancora risolto problemi tipici dei modelli precedenti, ossia la tendenza ad avere allucinazioni, termine con il quale s’intende che il modello produrrebbe talvolta risposte prive di evidenza con la medesima autorità di quelle corrette. I sistemi di IA, infatti, non distinguono ciò che è vero da ciò che non lo è. Rispetto a GPT-3, il tasso di allucinazione sarebbe sceso del 40% ca. Sussiste ancora la possibilità che venga prodotto un testo violento e dannoso, ma vi è ora l’82% di probabilità in meno che il sistema GPT-4 risponda a richieste di contenuto non consentito. Per quanto riguarda il 18% residuo, OpenAI raccomanda di prestare sempre attenzione quando si utilizzano output del modello linguistico, in particolare in contesti ad alto rischio, un consiglio che, tradotto in linguaggio corrente, rasenta l’inutilità totale.

Il GPT-4 è acquistabile tramite ChatGPT Plus con un abbonamento mensile di 20 dollari. OpenAI collabora con diverse aziende per integrarne i loro prodotti, tra cui Stripe, Khan Academy e Duolingo che lo utilizza tramite due funzionalità chiamate “Roleplay” e “Explain My Answer”.

 La tecnologia in questione, disponibile dal 14 marzo 2023 tramite API e ChatGPT Plus, è in grado di utilizzare dati pubblici, informazioni provenienti da terze parti e tramite apprendimento dal feedback umano. OpenAI non ha diffuso dettagli sul numero di parametri, l’infrastruttura di calcolo e l’architettura utilizzata da GPT-4. Quel che si sa è che il GPT-4, oltre a processare input di testo e immagini, è basato su una rete neurale profonda che dispone di mille miliardi di parametri, un valore che lo rende il modello generativo più potente mai fabbricato, che dispone della nuova architettura Transformer-XL in grado di gestire le sequenze più lunghe e complesse di sempre.

A partire da poche parole o immagini fornite dall’utente, il GPT-4 è in grado di generare testi coerenti su qualsiasi argomento. Il modello è altresì capace di rispondere a domande, scrivere codici, comporre e-mail, creare presentazioni e molto altro.

OpenAI conferma che il GPT-4 tende a comportarsi in modo simile agli esseri umani sulla scorta di benchmark prestabiliti. Tali benchmark misurano le capacità linguistiche e visive del modello come la comprensione del contesto, la logica, l’inferenza, la generazione di contenuti, la traduzione e la descrizione di immagini.

openAI precisa che il modello non è perfettoonnisciente. Esso è carente rispetto alla scena reale in diversi ambiti, quali la conversazione emotiva, la creatività artistica, i ragionamenti morali, l’apprendimento da pochi dati o esempi. Può inoltre generare errori per deficit di conoscenza del mondo reale, ed è esposto all’acquisizione di informazioni false o fuorvianti diffuse sul Web. Le iterazioni di GPT si baserebbero su un modello probabilistico che valuta la compatibilità dei dati ai quali può accedere con quelli degli input forniti dall’utente. Il cosiddetto sampling o campionamento permette di introdurre un po’ di stocasticità (casualità), generando percorsi concettuali diversi per il medesimo input e aumentando contemporaneamente la qualità dell’output.

Il GPT-4 presenta dunque sfide etiche e sociali di profilo e profondità inedite, imprevedibili e sinora non determinate. OpenAI ammette che il modello può generare contenuti falsi e potenzialmente dannosi, e persino testi violenti, aggiungendo che, consapevole di ciò, avrebbe adottato adeguate misure per mitigare i rischi associati all’utilizzo di GPT-4. L’utilizzo dell’API pubblica verrebbe inoltre monitorato in modo da bloccare le richieste sospette o dannose. OpenAI avrebbe anche istituito un Comitato Etico Indipendente con il compito di supervisionare lo sviluppo e l’utilizzo di GPT-4 garantendo il rispetto dei principi morali e legali (quali, come, stabiliti da chi?). OpenAI riconosce dunque che il GPT-4 può generare contenuti contrari all’etica e alla legge, che esso può essere utile o dannoso per la società e che occorre comprenderne appieno il potenziale impatto. L’avvento di GPT-4 segna una pietra miliare nell’avanzamento della macchina a scapito dell’uomo. Sebbene ancora imperfetto, il modello lascia intendere di poter crescere senza limitazioni di sorta, se non quelle della disponibilità dei parametri che sarà in grado di assimilare, fors’anche già ora in modo indipendente, divenendo uno strumento potente di sostituzione della mente umana.

2. Quanto sopra premesso, una lettera aperta[1], firmata nei giorni scorsi da numerose personalità di diversa estrazione e provenienza (compreso lo stesso Elon Musk), chiede a tutti i laboratori d’intelligenza artificiale (IA) di sospendere immediatamente, e per almeno sei mesi, lo sviluppo dei sistemi più potenti di quelli denominati GPT-4[2], implicando essi un cambiamento radicale della vita sulla Terra, specificando che tali sistemi dovrebbero essere introdotti solo dopo un esame scrupoloso dei loro effetti di sistema. Per far ciò sarà necessario sviluppare unità d’azione a livello mondiale, pianificazione e risorse, poiché tali sistemi sono pericolosi al punto tale che nessuno, nemmeno i loro ideatori, sono in grado di capirne portata e conseguenze.

Questi stanno inondando la nostra esistenza di dati deformati, distorti o artificiali, modificando la percezione del reale. I canali d’informazione sono affollati di realtà virtuali, propaganda e falsità di ogni risma. L’automazione del lavoro umano sta procedendo a un ritmo accelerato e non meditato nei suoi effetti sistemici sulla società e sulla mente degli individui. Le intelligenze non-umane, presenti non solo nei chip del computer, sono più diffuse degli individui, hanno capacità superiori e tendono a rendere l’uomo obsoleto e sostituibile. Stiamo perdendo la presa sulla civiltà umana. In questo ambito, e non è il solo, decisioni strategiche sono assunte da portatori di interessi privati, tramite scienziati/esperti di tecnologia non-eletti, quando invece, alla luce di tale fondamentale rilevanza, i sistemi di IA dovrebbero essere sottoposti al vaglio etico e strategico della società democratica (vale a dire lo Stato, quale sintesi rappresentativa degli interessi dell’essere umano nei suoi bisogni essenziali, compatibili con la sua biologia), ed essere sviluppati solo, ed esclusivamente, quando si sia raggiunta la massima evidenza che la loro introduzione non comporta rischi ingestibili. Ma questo non sta avvenendo.

In una pubblica presa di posizione, OpenAI ha affermato che a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di procedere con i sistemi di IA, e per gli aspetti più avanzati impegnarsi a limitare il tasso di crescita del calcolo utilizzato per la creazione di nuovi modelli. Non solo si deve concordare con tale riflessione, ma ciò che più conta il momento per farlo è adesso.

Quanto alla pausa di sei mesi che la lettera aperta suggerisce di rispettare prima di procedere oltre, va da sé che essa dovrebbe essere accolta subito, resa verificabile e includere tutti gli attori-chiave senza eccezioni, e i governi dovrebbero garantirne il totale rispetto. Non solo, poiché una moratoria di sei mesi rinvia, ma non risolve, sebbene essa sia meglio di nessuna moratoria. Nonostante le buone intenzioni, in buona sostanza, la lettera sottovaluta la gravità della situazione e sollecita una risposta timida davanti ai rischi cui l’umanità è esposta, poiché le potenzialità distruttive di tale tecnologia sono ancora sconosciute anche se intuibili, potendo l’IA evolvere in un soggetto autonomo incontrollabile.

Il punto centrale, come suggerisce l’analisi riportata in nota[3], non è l’intelligenza umana-competitiva, ma la prateria sconosciuta che si aprirà quando l’IA oltrepasserà (e di molto) le capacità intellettive dell’essere umano. E la soglia di tale superamento non può essere calcolata in anticipo. A tale scenario altamente inquietante si aggiunge la competizione tra le nazioni, alcune delle quali con ogni probabilità stanno investendo segretamente nell’IA in vista di vantaggi militari, trascurandone gli esiti incontrollabili. Nessun laboratorio di ricerca dovrebbe invece avventurarsi su un terreno potenzialmente esiziale per l’intera umanità, tenendo a mente che la soglia critica può essere superata in ogni momento e in modo involontario.

In linea teorica, si potrebbe immaginare che gli esseri umani potranno sopravvivere a tale futuro scenario, sviluppando una tecnologia ancor più intelligente di quella che sta ora prendendo il sopravvento. Si tratta però di un’ipotesi che richiederebbe unità d’intenti a livello mondiale, impegno, altissime competenze e nuove scoperte scientifiche, tenendo presente che i sistemi d’IA sono composti da gigantesche matrici di dati imperscrutabili dalla mente umana.

Senza disporre di nuovi strumenti d’azione, l’IA si svilupperà in forma autonoma rispetto alla sfera umana e sarà incline a eseguire i nostri ordini solo nella misura in cui questi favoriscano la stessa IA, senza riguardo alla preoccupazione di preservare la vita umana.

Open-AI suggerisce che per prevenire ogni rischio basterebbe trasferire all’IA quelle istruzioni necessarie a impedire il suo disallineamento rispetto agli interessi degli umani. La totale inconsistenza di tale precauzione fa accapponare la pelle. Mentre alcuni concordano che in linea di principio tale preoccupazione potrebbe essere infusa nel DNA dell’IA, altri fanno notare che la storia futura non è la trama di un libro di Asimov: oggi non solo non siamo pronti, ma non sappiamo nemmeno cosa fare. L’IA non ama e non odia nessuno, semplicemente considera gli esseri umani come atomi utilizzabili a qualsiasi scopo.

L’umanità è oggi confrontata con un’intelligenza sovrumana avanzata e incontrollabile che rischia di sopprimere la vita sulla Terra, poiché per l’IA la vita non è un valore, ma solo un calcolo.

L’IA (sovrumana e in fin dei conti ostile all’uomo) non sarà un’entità occulta confinata nei chips di un computer, potendo assumere le sembianze di una civiltà aliena, capace di sostituirsi alla mente umana. Già oggi è in grado di inviare via e-mail stringhe di DNA ai laboratori di produzione di specifiche proteine, inviando un input cruciale a qualsivoglia struttura da qualsiasi luogo di Internet per dare inizio alla produzione di molecole post-biologiche di nuova, inedita generazione.

Alla luce di un futuro potenzialmente distruttivo, rebus sic stantibus, è ragionevole ipotizzare che la vita sulla terra verrà distrutta, anche se non è possibile prevederne i tempi.

Va rilevato che per il momento nessuno considera l’ipotesi che l’IA possa evolvere verso forme di vita consapevoli della propria esistenza. Tale ipotesi, tuttavia, non si può scartare, perché da tale trasgressione potrebbero sorgere, anche inavvertitamente, menti digitali consapevoli di esistere e potenzialmente titolari di diritti alla stregua di essere umani.

Da quando l’Intelligenza Artificiale è stata studiata per la prima volta sono trascorsi 60 anni. Si può dunque aspettare prima di avanzare oltre e sei mesi sono troppo pochi, poiché un errore oggi sarebbe un errore per sempre. Se la profezia di una catastrofe in arrivo fosse ritenuta azzardata, scartarla può tuttavia rivelarsi un errore fatale.

Davanti ai rischi di un’IA fuori controllo il sistema-mondo non sembra aver approntato alcun piano di salvataggio. I progressi dell’IA avanzano in fretta. Non abbiamo idea di cosa succeda dentro quei giganteschi modelli matematici. I firmatari della lettera aperta affermano che se non facciamo qualcosa ora, moriremo tutti. Molti di coloro che hanno operato in questo campo condividono le medesime inquietudini, ma ritengono che il treno non possa più essere fermato. Si tratta di una postura pericolosa perché rinunciataria, che rischia di accelerare la scomparsa del genere umano.

Se l’uomo è ancora arbitro del proprio destino, allora una possibile reazione resta possibile, attraverso: a) moratoria sullo sviluppo di IA a livello mondiale, per un tempo indefinito, senza eccezioni, per tutti i governi e apparati militari (questi ultimi, in particolare, che operano spesso senza controllo dei rispettivi livelli politici); b) blocco di tutti i cluster GPU sviluppati dalle imprese di IA; c) chiusura di tutti i corsi di formazione sull’IA; d) limitazione della potenza di calcolo dei sistemi di IA e spostamento verso il basso degli algoritmi d’addestramento; e) stipula di accordi multinazionali per evitare che attività vietate si spostino altrove; f) tracciamento di tutte le GPU vendute. Se un paese costruisse cluster di GPU, la comunità internazionale (le Nazioni Unite andrebbero destate dal loro stato comatoso) dovrebbe intervenire. Le Grandi Potenze hanno una responsabilità ancora maggiore. Secondo alcuni firmatari della lettera, anche il rischio di un conflitto (e a determinate condizioni persino un conflitto nucleare) sarebbe preferibile all’inerzia davanti allo sviluppo di sistemi d’intelligenza incontrollabili. Ciascuno valuti per suo conto.

Nella progettazione e sviluppo di sistemi avanzati di IA, tutti i laboratori e ricercatori indipendenti dovrebbero sviluppare protocolli di sicurezza rigorosamente supervisionati da esperti esterni. La ricerca e lo sviluppo dovrebbero garantire che i sistemi odierni di IA siano sicuri, interpretabili, trasparenti, robusti e affidabili.

Parallelamente, gli sviluppatori di IA dovrebbero lavorare con i responsabili politici allo sviluppo di sistemi di governance dell’IA che ne prevedano a) regolamentazione; b) supervisione e tracciamento di sistemi di IA altamente capaci e grandi pool di capacità computazionali; b) controllo dei sistemi di provenienza, audit e certificazione; c) responsabilità per danni causati dall’IA; d) finanziamenti pubblici per la ricerca sulla sicurezza dell’IA; e) istituzioni dotate di risorse per far fronte alle perturbazioni economiche (disoccupazione) e politiche (tutela di valori e sistemi democratici) che l’IA sta già causando e causerà.

Siamo alle prese con un conflitto di rilevanza storica e insieme biologica. Non siamo di fronte a un accadimento politico, ma ad un evento di natura che implica la concreta possibilità che l’IA distrugga il genere umano. Gli individui privi di potere capiscono a cosa siamo confrontati, coloro che hanno potere, no. Se nulla viene fatto, la corrente del fiume ci travolgerà. Forse noi stessi, di certo i nostri figli e nipoti periranno per mano delle macchine.

L’umanità può godere di un futuro fiorente solo se sarà capace di tenere sotto controllo l’intelligenza artificiale, progettando sistemi di autotutela. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Possiamo farlo anche con l’IA, anzi dobbiamo. È possibile trarre beneficio da una pausa estiva, che può anche essere lunga, evitando così di avanzare incautamente verso l’autunno o, peggio, l’inverno della storia dell’uomo.


[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[2] https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

[3] https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/


Di:

La Fionda è una rivista di battaglia politico-culturale che non ha alle spalle finanziatori di alcun tipo. I pensieri espressi nelle pagine del cartaceo, sul blog online e sui nostri social sono il frutto di un dibattito interno aperto, libero e autonomo. Aprendo il sito de La Fionda non sarai mai tempestato di pubblicità e pop up invasivi, a tutto beneficio dei nostri lettori. Se apprezzi il nostro lavoro e vuoi aiutarci a crescere e migliorare, sia a livello di contenuti che di iniziative, hai la possibilità di cliccare qui di seguito e offrirci un contributo. Un grazie enorme da tutta la redazione!