La Fionda è anche su Telegram.
Clicca qui per entrare e rimanere aggiornato.
L’intelligenza artefatta
Nella storia umana, l’innovazione tecnologica è una costante. Dalle punte di selce alle sonde spaziali, l’umanità ha sempre realizzato strumenti e macchine (dal greco antico μαχανά: mechanè). Spesso, con conseguenze più ampie di quelle previste. La stampa è nata per abbassare i costi dei documenti scritti, ma è divenuta soprattutto uno straordinario propulsore culturale. L’utilizzo dell’energia elettrica ha consentito l’illuminazione notturna, ma ha portato anche a nuove possibilità di socializzazione. Molte tecnologie hanno avuto effetto non solo sulla prosperità di chi le ha adottate, ma anche sul suo modo di comunicare, di pensare e di agire.
Pertanto, ora che ci troviamo di fronte a quell’innovazione dirompente che comunemente viene chiamata Intelligenza Artificiale, attorno alla quale sono nati tanti entusiasmi quante paure, è utile interrogarsi su cosa effettivamente essa sia e su cosa possa rappresentare per l’umano. Perché forse, nel dibattito attuale e spesso polarizzato, ci sono aspetti che non stiamo guardando.
Definizione
L’IA viene spesso descritta come un sistema in grado di assolvere funzioni riconosciute come umane, quali il compiere azioni complesse, il ragionare o l’interagire linguisticamente. A questa definizione si associano i moderni Chatterbot, quali Bard o ChatGPT, ma è proprio tale paragone a rivelare quanto essa sia fuorviante.
Il primo Chatterbot mai realizzato, ELIZA, risale al 1966 e venne descritto dal suo creatore J. Weizenbaum come l’imitazione parodistica di un terapeuta. Traendo spunto dall’approccio psicoterapico di Carl Rogers, ELIZA venne programmata per rispondere alle domande riformulando le stesse frasi dell’utente (“Oggi mi sento giù di morale.” – “Raccontami. Perché ti senti giù di morale?”). Un’interazione incuriosente, essendo la prima del suo genere, tanto da spingere il poeta D. Avidan a raccogliere in un’opera i suoi dialoghi con la terapeuta virtuale. Allo stesso tempo, talmente superficiale che venne coniato il termine “Effetto ELIZA” proprio per indicare il fenomeno del ritenere un software più capace (o intelligente) di quanto in realtà sia. Partendo da qui, quanto sono diventati “intelligenti” ChatGPT et similia, quasi sessant’anni dopo?
I Large Language Models (LLM) odierni sono basati essenzialmente su schemi statistici. In estrema sintesi, prima di essere immessa nel mercato l’IA viene sottoposta ad un’elevata quantità di input e, con la supervisione dei suoi programmatori, stabilisce delle associazioni. Esaminando enormi biblioteche di dati, registra che le parole (in realtà gruppi di caratteri, chiamati token), compaiono in una certa successione con maggiore probabilità rispetto ad altre. Ad esempio, la parola “mela” compare spesso dopo la parola “la” o “una”, ma non compare mai dopo l’articolo “il”. Oppure, compare molto più spesso vicino alla parola “frutta” che alla parola “astrolabio”. L’IA non ha idea di cosa sia una mela o un articolo, non sa nemmeno cosa sia una parola. Semplicemente rileva la frequenza e l’ordine con cui certi caratteri compaiono rispetto ad altri, così da produrne sequenze che abbiano un senso. E quando questo schema raggiunge dimensioni e affidabilità sufficientemente grandi, può assumere la parvenza di un interlocutore consapevole. Ma è solo una simulazione di consapevolezza.
In altre parole, i LLM non riconoscono causa ed effetto, non applicano ciò che definiamo ragionamento deduttivo, ma solo un modello probabilistico che, grazie all’ampia memoria e all’estrema velocità nel processare i dati, imita il ragionamento. Sotto certi aspetti, è simile alla differenza tra il saper contare e il memorizzare tutti i numeri fino ad un certo valore, con i risultati di tutte le possibili operazioni fra essi. In entrambi i casi si giunge alla risposta corretta, ma nel secondo non si ha idea del perché venga fuori quel risultato.
Inoltre, alle IA mancano almeno altre due cose profondamente legate all’intelligenza: l’istinto di sopravvivenza e l’emozione.
Pertanto, anziché di Intelligenza Artificiale forse sarebbe più opportuno parlare di Intelligenza Artefatta. Osservando che dopotutto l’Effetto ELIZA è applicabile tanto agli anni ’60 quanto ai giorni nostri. Ma se l’IA non è così “intelligente”, quanto può impattare sul nostro mondo? Moltissimo.
Problema
Le preoccupazioni per uno sviluppo eccessivo delle macchine risalgono a ben prima di ELIZA, del primo computer e della macchina di Turing. Era il 1863 quando S. Butler, a firma di Cellarius, espose le sue apprensioni nell’articolo “Darwin among the Machines”. Uno scritto probabilmente meno interessato e certamente più interessante della lettera pubblicata nel marzo 2023 dal Future of Life Institute. Superando lo stupore del leggere in un paper di 160 anni fa la fantascienza del terzo millennio, e perdonando all’autore i suggerimenti sulle misure estreme da adottare (proclamare guerra totale alle macchine, distruggendone ogni esemplare), è possibile cogliere già allora la consapevolezza su un aspetto del problema. Una delle frasi più significative recita: “Riteniamo che quando si sarà verificato lo stato delle cose che abbiamo tentato di descrivere, l’uomo sarà divenuto per la macchina ciò che il cavallo e il cane sono per l’uomo“. Oltre un secolo e mezzo fa, a qualcuno era già evidente la traiettoria degli eventi: lo sviluppo delle macchine avrebbe accelerato così tanto da diventare incontrollabile, anche perché nel processo l’umanità ne sarebbe divenuta dipendente.
Oggi i più catastrofisti riprendono nella sostanza i timori di Butler, il rischio massimo che le macchine prendano il controllo. Principalmente però, le apprensioni odierne vertono sulle vulnerabilità economiche: il rischio che le IA riducano sempre più i posti di lavoro; il rischio che le IA violino la privacy degli utenti fornendo ad altri i loro dati privati e di consumo; il rischio che le IA accentrino troppi vantaggi nelle aziende che le sviluppano. Il dibattito pubblico guarda soprattutto a questo, perché la dimensione economica è quella che percepiamo come più importante. Ma all’impatto che un utilizzo sempre più esteso dell’IA può avere nel lungo termine sugli aspetti individuali, culturali e antropologici, viene data molta meno attenzione.
Per molti versi l’IA è una tecnologia come molte altre, ma per almeno due ragioni rappresenta un unicum nella Storia: è immensamente più pervasiva delle precedenti, essendo trasversale a qualunque settore, e si propone come potenziale surrogato della relazionalità umana.
Le tecnologie nascono per assolvere specifiche funzioni, e il loro utilizzo ci condiziona di conseguenza. L’automobile ci ha permesso di compiere grandi distanze in poco tempo e questa possibilità ha reso meno necessaria la fatica del muoversi a piedi. Allo stesso modo, l’espansione delle memorie informatiche ha reso sempre meno necessario allenare la nostra memoria biologica. I telefoni portatili ed internet ci hanno permesso di comunicare a distanza e questo ci ha abituati a comunicazioni sempre più brevi e più veloci, semplificando il modo di esprimerci per rispettare il ritmo e il limite di spazio imposti dalle piattaforme del web.
La tecnologia porta dei vantaggi, ma inevitabilmente ci cambia. E il cambiamento diventa rischioso nel momento in cui riguarda la nostra individualità e la nostra cultura. L’Occidente odierno dispone virtualmente (in ogni senso) di qualunque informazione, di studi e programmi sofisticati per avere la migliore dieta, il miglior allenamento fisico, la migliore istruzione. Eppure, sono in costante crescita i casi di disordine alimentare, discalculia, carenza lessicale e analfabetismo funzionale.
Da qui sorge l’interrogativo, importante eppure poco proferito, su quale sia il giusto limite tra ciò che l’umanità può smarrire di sé e ciò che può guadagnare dalla tecnologia. E limitandoci all’IA, la domanda suona ancora più inquietante: nel momento in cui diventiamo assidui frequentatori di un’Intelligenza Artefatta, magari convinti che sia qualcosa di più di ciò che è, cosa stiamo dando in cambio?
La progettazione e l’utilizzo dell’IA devono concorrere all’ottenimento di output corretti e in tempi rapidi. E per usare uno strumento in modo efficiente, va da sé che dobbiamo adattarci alle sue caratteristiche. Ma in questo caso, adattarsi non significa imparare a coordinare mano e occhio come fu per l’innovazione del mouse. Significa adattare il nostro codice relazionale. Che si costituisce non solo di esposizione linguistica, ma anche di emozione ed empatia. Cose di cui l’IA non dispone. Per una macchina, la simulazione di un’interazione complessa, in apparenza umana, è un processo tecnicamente più dispendioso del semplice domanda-risposta. Richiede il calcolo di molte più variabili, espone il sistema ad una probabilità di errore molto più alta, a consumi energetici maggiori, a tempi di elaborazione più lunghi. Già adesso le IA si stanno dotando di interfacce vocali e visive oltre a quelle testuali, e nei prossimi anni svilupperanno enormemente la qualità delle proprie simulazioni comunicative, ma per definizione produrranno sempre e solo un’approssimazione dei comportamenti umani. Conseguentemente, dato che nel nome dell’efficienza l’utente e lo strumento dovranno venirsi incontro, quanto più tale interazione diventerà frequente e fiduciosa tanto più livelleremo noi stessi all’IA. Col rischio di atrofizzare le nostre capacità empatiche e relazionali.
E se ammettiamo questo rischio negli adulti, possiamo riflettere su quanto esso si amplifichi in età infantile. Quando, nella fase biologica in cui la mente edifica la sfera emotiva, si viene sempre più esposti ad una virtualità dove empatia ed emozione sono simulazioni standardizzate.
Lo stesso avviene per la nostra creatività. Le IA vengono già impiegate nella realizzazione di contenuti “artistici”, dai romanzi alle sceneggiature fino alle immagini generate da Midjourney. Ma nonostante le potenzialità apparentemente enormi offerte dallo strumento, l’Arte finora non ne ha avuto vantaggi rilevanti. Al contrario, le case editrici, l’industria cinematografica, quella discografica e quella delle piattaforme streaming sono in crisi. All’orizzonte non si vede alcuna rivoluzione nelle forme d’arte già esplorate, né tantomeno applicazioni inedite.
Questo può spingere a riflettere su quanto l’arte sia un qualcosa di profondamente diverso da un risultato meramente tecnico. Se guardiamo alle grandi rivoluzioni musicali del Novecento, l’origine del blues va ricercata nelle worksongs cantate dagli schiavi afroamericani nelle piantagioni di cotone. Da lì, con un percorso di infinite sperimentazioni, sono nati il rock, la fusion, il metal. E se guardiamo all’inizio del Rinascimento, la Cupola di Santa Maria del Fiore era un’opera ritenuta semplicemente impossibile da realizzare. Finché Brunelleschi, non potendosi avvalere delle usuali centine perché non compatibili con una cupola di tali dimensioni, propose di costruire una doppia cupola senza impalcature, resa autoportante da una disposizione innovativa dei mattoni. Nessun altro aveva mai fatto nulla di simile.
L’arte non è determinata dalla facile disponibilità dei mezzi. Anzi spesso emerge nella loro scarsità, che obbliga a sviluppare l’inventiva. E nasce dalle proprie esperienze, dalle proprie speranze, dal proprio dolore. Che sono unici e reali, non virtuali e standardizzati. Non guardiamo il tramonto nella Nave di Schiavi di William Turner per vedere un tramonto – per quello c’è già la realtà, che è ineguagliabile. Lo guardiamo per sentire ciò che ha provato Turner nel dipingerlo. L’IA, al contrario, può solo attingere ad una versione modellizzata di quanto è già stato fatto, producendone una ricombinazione inconsapevole. Non prova né dolore, né rabbia, né amore nel comporre un’immagine o una canzone.
Quindi, in che modo può arricchirci?
A complemento degli aspetti relazionali e creativi, ci sono quelli etici e decisionali. Già da tempo le IA intervengono nella selezione per le nuove assunzioni nelle grandi aziende, nell’automazione o nel marketing. Presto verranno impiegate nell’istruzione e probabilmente in assistenza ai procedimenti giudiziari. Quali programmi di educazione all’uso delle IA sono presenti oggi, per i professionisti o per gli studenti? Quali legislazioni si stanno sviluppando contro i rischi di profilazione psicologica e indirizzamento al consumo di specifici beni o servizi? E quali contromisure sono attualmente in atto per scongiurare il rischio di condizionamento culturale, dato che chi controlla lo sviluppo delle IA non corrisponde alla varietà di Paesi e culture esistenti? Nel quotidiano abbiamo costante prova di come sempre più volentieri ci facciamo guidare dagli algoritmi per le nostre abitudini di consumo, o nelle nostre opinioni. Ci rivolgiamo sempre di più a strumenti che decidono per noi, perché siamo sempre meno consapevoli di cosa vogliamo davvero. Idealizziamo le decisioni immediate ed efficienti, perché temiamo sempre di più l’errore.
E seguendo la traiettoria ci si potrebbe chiedere quanto ci vorrà, una volta che l’intero sistema economico-produttivo sarà regolato dalle IA, prima che si demandi ai loro algoritmi decisionali anche parte del sistema politico e istituzionale. O delle piattaforme missilistiche.
Ad amplificare quanto detto finora è il contesto di necessità in cui le IA si stanno evolvendo. Grazie alla capacità di processare enormi quantità di dati, il loro utilizzo dà accesso a livelli di prestazione altrimenti irraggiungibili. E questo, in un sistema centrato sulla competizione, innesca una corsa all’utilizzo sempre più esteso di IA sempre più efficienti. Mai come oggi, chi detiene il primato tecnologico vince, chi esita resta indietro.
Le tecnologie sono treni che corrono veloci. E in modo sempre meno sorvegliabile, data la loro pervasività crescente. Ci sono voluti oltre dieci anni e lo scandalo Cambridge Analytica perché le istituzioni si sensibilizzassero rispetto all’utilizzo dei dati personali da parte dei social network, al punto da prendere provvedimenti legali. E quando ChatGPT è approdato sui computer italiani sono trascorsi mesi prima dell’intervento, peraltro molto contestato dagli utenti, del Garante della Privacy. Dato che lo strumento dell’IA è sempre più necessario e allo stesso tempo prodotto da pochissimi attori, spesso i sistemi legislativi non hanno la capacità di controllarne lo sviluppo. Possono solo rincorrerlo.
L’affanno è ancora più evidente se si guarda al complesso aziendale. In Italia si stima un incremento annuo di circa il 30% nell’utilizzo dell’IA, ma le piccole e medie imprese pesano su questo aumento in modo marginale. I tempi di adattamento dei settori produttivi si stanno mostrando fisiologicamente superiori a quelli dell’evoluzione tecnologica. E se in Italia (fonte Istat) le PMI costituiscono il 99% del totale e detengono oltre l’80% degli occupati, quali ricadute sistemiche ci si potranno aspettare sul piano delle capacità competitive?
Da un lato quindi, la relazionalità e la creatività umane a rischio atrofizzazione, la cultura a rischio di condizionamento. Dall’altro l’enorme spinta ad accelerare il processo, a prescindere dal fatto che vengano implementate o meno le opportune contromisure.
Il ché può portarci a un’ulteriore riflessione, che aggrava le precedenti: l’IA impone un cambiamento che sovrasta in velocità il nostro metabolismo sociale.
Allargando lo sguardo, c’è il tema della disuguaglianza. Se uno strumento serve a tutti ma è controllato da pochi, è inevitabile che la forbice tra chi ha maggiori possibilità e chi ne ha meno tenderà ad allargarsi. Da fonte OCSE, il coefficiente di Gini mostra che già negli ultimi dieci anni, per molti Paesi UE e ancor di più per America, Africa ed Asia, c’è stata una stagnazione o un peggioramento sul piano della disuguaglianza del reddito e della ricchezza. Nonostante lo sviluppo costante dell’informatizzazione.
Il progresso della tecnica cambia il mondo, ma non necessariamente implica il progresso umano.
Conclusione
A riepilogo di questo breve estratto, lo sviluppo delle IA accelererà, guidato da chi detiene la supremazia tecnologica e rincorso da chi la subisce. Ciascuno spinto dagli obblighi della competizione. Nell’utilizzo sempre più pervasivo dell’artificiale, ad essere meno considerati saranno inevitabilmente gli aspetti umani. Ovvero le capacità metaboliche delle nostre istituzioni e delle nostre società. E in modo ben più profondo, le nostre capacità creative, empatiche e relazionali, già assuefatte da anni di virtualità.
Ciò non vuol dire, com’è ovvio, che le IA non siano strumenti utili. La capacità di confrontare grandi quantità di dati clinici per la diagnostica, l’impiego a supporto dell’agricoltura nei Paesi in via di sviluppo, l’efficientamento dei processi industriali sono solo alcuni degli esempi. I rischi prospettati emergono nel momento in cui all’utilizzo crescente delle IA non corrispondono azioni efficaci per studiarne e mitigarne gli impatti.
L’avvento dei Large Language Models segna uno spartiacque particolarmente significativo. Noi siamo animali sociali e il linguaggio è la nostra più grande invenzione, evolutasi in millenni di confronti umani. L’interazione con le IA, se priva di limiti e consapevolezza, rischia di sacrificare alla standardizzazione la nostra unicità creativa, la nostra profondità relazionale, la nostra ricchezza culturale. Fino al punto da dimenticare quella parte di noi che ci rende “umani”, perché sarà troppo atrofizzata per poter continuare ad evolversi.
L’Umano non è solo un concetto filosofico, è innanzitutto una realtà tangibile. Prima ancora di essere ciò su cui speculiamo, è ciò che siamo: siamo noi con le nostre capacità, la nostra memoria, le nostre emozioni, che insieme generano quel complesso sistema che chiamiamo “intelligenza”. E che stiamo usando sempre meno, perché sempre più ci avvaliamo di quella costruzione artefatta che riteniamo sua omologa. Rivolgendoci ad essa per ogni necessità, per placare nell’immediato ogni dubbio.
Con la conseguenza finale che, ponendo sempre più domande all’IA, le porremo sempre meno a noi stessi.
La Fionda è una rivista di battaglia politico-culturale che non ha alle spalle finanziatori di alcun tipo. I pensieri espressi nelle pagine del cartaceo, sul blog online e sui nostri social sono il frutto di un dibattito interno aperto, libero e autonomo. Aprendo il sito de La Fionda non sarai mai tempestato di pubblicità e pop up invasivi, a tutto beneficio dei nostri lettori. Se apprezzi il nostro lavoro e vuoi aiutarci a crescere e migliorare, sia a livello di contenuti che di iniziative, hai la possibilità di cliccare qui di seguito e offrirci un contributo. Un grazie enorme da tutta la redazione!