La Fionda è anche su Telegram.
Clicca qui per entrare e rimanere aggiornato.

Se sono le macchine a decidere


6 Dic , 2024|
| 2024 | Visioni

L’intelligenza artificiale (IA) è al centro di un dibattito pubblico che spesso polarizza l’opinione, generando entusiasmo o paura più che comprensione.
Lo strumento IA viene spesso descritto da divulgatori e media come una macchina capace di prendere decisioni in maniera autonoma, e questo è qualcosa di fuorviante, che rischia di nascondere il vero problema: la tendenza attuale alla delega e alla deresponsabilizzazione dei decisori umani.

La cattiva divulgazione: un problema di narrazione

La scintilla che ha dato vita a questa riflessione è nata da alcuni scambi avuti con chi segue il mio lavoro dopo che ho condiviso e criticato il video di parte di un’intervista[1] allo storico Yuval Harari[2], figura di spicco nel dibattito culturale globale, che ha di recente pubblicato un saggio divulgativo che tocca il tema della tecnologia e del possibile sviluppo dell’IA.
Nel video in questione Harari afferma letteralmente:

“L’Intelligenza artificiale è il primo strumento nella storia che può prendere decisioni per suo conto […] e i sistemi d’arma autonomi possono decidere da soli chi uccidere, chi bombardare […] È una cosa senza precedenti. La prima tecnologia che invece di dare potere agli esseri umani, lo toglie. E il pericolo è che ci sottragga sempre più potere fino a lasciarci inermi.”[3]

Questa rappresentazione, sebbene sia suggestiva e possa colpire emozionalmente il pubblico, è completamente fallace.

Espressioni come “macchine che decidono” o “strumenti che tolgono potere agli esseri umani” alimentano un immaginario distopico privo di basi solide, che non ha effettivo riscontro nella realtà.
Il modo in cui Harari parla di IA fa capire quanto sia basso il livello della discussione su questi temi.

Il risultato è un dibattito sempre più polarizzato e confuso, in cui si perde di vista il nodo centrale, che non è la capacità delle macchine di prendere decisioni (cosa che anticipo: non sono in grado di fare), ma la nostra tendenza a trattare le loro previsioni come sentenze scientifiche e per questo definitive, giuste e portatrici di verità oggettiva.

Quindi chiediamoci: come può una macchina prendere una decisione?

Il drone killer e il mito delle “decisioni” autonome

Per descrivere in maniera semplice come “decide” un sistema di IA, si può riprendere l’esempio (citato da Harari stesso) sui sistemi d’arma autonomi, semplificando al massimo il funzionamento di un ipotetico drone killer dotato di IA.

Immaginiamo che questo drone sia stato integrato con un algoritmo di apprendimento automatico addestrato su grandi quantità di dati, come immagini di persone e veicoli, con lo scopo di identificare e classificare potenziali obiettivi o minacce.
L’algoritmo, una volta addestrato, è capace di analizzare in tempo reale i dati raccolti dai sensori (come microfoni o telecamere) del drone, tradurli in numeri, eseguire calcoli applicando le regole che ha imparato durante “l’addestramento” e restituire un risultato.
L’AI genera in questo modo una previsione, solitamente assegnando una probabilità di minaccia ad ogni potenziale obiettivo.
Se la probabilità supera una certa soglia, il drone può essere programmato per sparare in automatico.

È fondamentale capire che la macchina ha solamente generato una previsione. Il drone non può decidere nulla. L’essere umano che l’ha programmato ha stabilito una regola rigida: oltre una certa soglia il drone deve sparare. La macchina non ha potere decisionale, segue le regole del suo programma, che è stato scritto e approvato da esseri umani.

L’uomo che salvò il mondo contraddicendo una macchina

Assodato che gli algoritmi di Intelligenza Artificiale non possono prendere decisioni c’è da domandarsi: bisogna fidarsi ciecamente dei loro calcoli e delle loro previsioni?

Un reale evento storico può offrire un fondamentale spunto di riflessione sul tema.

Il 26 settembre 1983, in piena Guerra Fredda, un sistema di allarme sovietico segnalò un imminente attacco nucleare da parte degli Stati Uniti. Secondo la macchina 5 missili nucleari statunitensi stavano per colpire l’URSS. Stanislav Petrov[4], l’ufficiale di turno, avrebbe dovuto seguire il protocollo e trasmettere l’allarme ai suoi superiori, scatenando una probabile rappresaglia nucleare. Petrov scelse coraggiosamente di ignorare il sistema automatico, classificando il segnale come un falso positivo.

La sua decisione fu guidata dall’intuizione, dall’esperienza e dalla conoscenza dei limiti tecnologici della macchina e fu una decisione esemplare e corretta: l’allarme era stato causato da riflessi solari che avevano ingannato i satelliti sovietici.
Questa decisione umana, contraria all’indicazione di una macchina, evitò una possibile guerra nucleare. Il giudizio critico di un essere umano è stato fondamentale per interpretare e contestualizzare l’output di un sistema d’allarme automatico.

Prevedere non significa decidere

L’errore principale della narrativa odierna sull’IA risiede nella confusione tra previsione e decisione. Le macchine eccellono nel calcolo, nell’analisi e nella classificazione dei dati, ma non hanno accesso al campo semantico, non potendo quindi avere comprensione del contesto e conseguente capacità di giudizio.
In parole povere le intelligenze artificiali sono migliori di un essere umano nel fare calcoli e fornire previsioni, ma non comprendono il significato di quello che stanno facendo.
Il vero rischio non è che le macchine diventino autonome, ma che gli esseri umani abbandonino la propria autonomia decisionale, affidandosi ciecamente a strumenti privi di empatia o considerazioni etiche.

Delegare a entità calcolatrici prive di giudizio critico scelte in campi delicati come la giustizia, la politica economica, la medicina, la sicurezza nazionale è pericoloso, poiché in questi campi non bastano dati e calcoli per prendere decisioni, ma serve una seria comprensione del contesto.
Attribuire responsabilità decisionale alle IA deresponsabilizza istituzioni, governi e cittadini, creando un alibi tecnologico per decisioni potenzialmente disumane.

Riprendere il controllo tramite la responsabilità

Le intelligenze artificiali rappresentano strumenti straordinari, ma non possono né devono sostituire il processo decisionale umano. La loro forza risiede nel saper fornire calcoli e previsioni che possono coadiuvarci, ma la responsabilità ultima delle scelte prese deve rimanere umana.

Solo mantenendo chiara la distinzione tra previsione e decisione possiamo evitare di delegare irresponsabilmente la scelta in campi critici alle macchine.

Il caso di Stanislav Petrov ci insegna una lezione importante: comprendere i limiti delle macchine e valorizzare il giudizio umano è essenziale per evitare scenari distopici.

In definitiva, il problema non è ciò che le macchine possono fare, ma ciò che noi scegliamo di fare con loro. È tempo di riaffermare il primato della responsabilità umana, difendendo il valore della nostra autonomia decisionale contro la tentazione di cedere a strumenti che, per quanto avanzati, rimangono meri calcolatori privi di coscienza.


[1] Puntata 390 del podcast di Lex Fridman del 17 Luglio 2023, visionabile su YouTube al link: https://www.youtube.com/watch?v=Mde2q7GFCrw&ab_channel=LexFridman

[2] Yuval Harari è uno storico, filosofo e saggista israeliano. Diventato famoso per il suo saggio divulgativo “Sapiens. Da animali a dèi. Breve storia dell’umanità” (2014) ha pubblicato recentemente “Nexus: Breve storia delle reti di informazioni dall’età della pietra all’IA” (2024)

[3] Estratto tradotto dalla Puntata 390 del podcast di Lex Fridman del 17 Luglio 2023 (ascoltabile circa al minuto: 1 ora e 59 minuti)

[4] Stanislav Evgrafovič Petrov (1939 – 2017) fu militare dell’Armata Sovietica, passato alla storia come “l’uomo che ha salvato l’umanità”

Di:

La Fionda è una rivista di battaglia politico-culturale che non ha alle spalle finanziatori di alcun tipo. I pensieri espressi nelle pagine del cartaceo, sul blog online e sui nostri social sono il frutto di un dibattito interno aperto, libero e autonomo. Aprendo il sito de La Fionda non sarai mai tempestato di pubblicità e pop up invasivi, a tutto beneficio dei nostri lettori. Se apprezzi il nostro lavoro e vuoi aiutarci a crescere e migliorare, sia a livello di contenuti che di iniziative, hai la possibilità di cliccare qui di seguito e offrirci un contributo. Un grazie enorme da tutta la redazione!