I 4 clan che comandano sull’intelligenza artificiale
Wired A.D.Signorelli
Tecno-apocalittici, utopisti, attenti all’etica o alla sicurezza: ecco i quattro gruppi che dominano il dibattito sullo sviluppo dell’AI. E le cui idee hanno infiammato la battaglia per il comando di OpenAI
La saga che nell’ultima settimana ha avuto come protagonista OpenAI (la società di ChatGPT) ha fatto emergere uno scontro che va avanti da tempo e coinvolge il settore dell’intelligenza artificiale. All’origine del licenziamento (poi rientrato) di Sam Altman ci sarebbero infatti le divergenze tra il fondatore di OpenAI e il consiglio di amministrazione (i cui membri sono stati in seguito quasi tutti sostituiti) sul modo corretto di sviluppare questa cruciale innovazione. Visioni opposte che a volte assumono toni ideologici e addirittura millenaristi.
Cos’è Q*, il progetto di intelligenza artificiale che ha portato al licenziamento di Sam Altman
Secondo quanto riporta l’agenzia Reuters, pochi giorni prima del licenziamento dell’ad alcuni ricercatori dello staff avrebbero avvisato il cda di un imminente pericolo legato a un progetto sull’AI
Da una parte il precedente consiglio d’amministrazione – guidato dal direttore scientifico Ilya Sutskever – che considerava l’intelligenza artificiale una tecnologia intrinsecamente pericolosa e da trattare con cautela. Dall’altra Sam Altman, convinto – come ha scritto in un post di qualche mese fa – che l’intelligenza artificiale forte (ovvero in grado di raggiungere sotto ogni punto di vista le abilità umane) “possa elevare l’umanità”.
PUBBLICITÀ
Quanto avvenuto all’interno di OpenAI ricalca lo scontro che da tempo sta andando avanti nella Silicon Valley. Uno scontro che ha ai suoi poli opposti i cosiddetti doomers (i tecno-apocalittici, convinti che l’intelligenza artificiale forte ponga dei “rischi esistenziali” per l’essere umano) e i tecno-utopisti, certi che questa tecnologia ci condurrà verso un futuro migliore e permetterà all’essere umano di raggiungere livelli di benessere mai visti prima. Questi gruppi – sfruttando la loro influenza economica, politica o accademica – stanno relegando in secondo piano chi, come la maggior parte degli scienziati informatici, cerca di concentrarsi su questioni più concrete e realistiche.
Amandeep Singh Gill al Wired Next Fest 2023: “Intelligenza artificiale e nucleare sono cose molto diverse”
L’Apocalisse scatenata dall’intelligenza artificiale è solo marketing (e la politica ci è cascata)
Al summit di Londra sui i rischi dell’AI i leader del mondo pendevano dalle labbra di imprenditori che hanno tutto l’interesse a creare una narrazione emergenziale. Perché? Per difendere il loro orticello
I tecnoapocalittici
Era addirittura il 2014 quando Elon Musk affermò che sviluppare l’intelligenza artificiale fosse l’equivalente tecnologico di “evocare il demonio”. Al tempo, la AI generativa (in grado cioè di produrre testi come ChatGPT, immagini come Midjourney o anche suoni e video) era ancora molto lontana e le applicazioni più diffuse del deep learning riguardavano il riconoscimento di immagini o i suggerimenti personalizzati. Eppure Musk, sicuramente influenzato dagli scritti del controverso filosofo Nick Bostrom (autore del saggio Superintelligenza), già al tempo metteva in guardia da quelli che riteneva gli enormi rischi di questa tecnologia.
ANNUNCIO PUBBLICITARIO
Da allora, Elon Musk è diventato il capofila dei doomers e della teoria del “rischio esistenziale”, secondo la quale lo sviluppo dell’intelligenza artificiale porterà inevitabilmente a una superintelligenza, che a sua volta potrebbe sfuggire al controllo dell’essere umano e ribellarsi a esso. Una visione che portò comunque Musk a fondare l’allora no-profit OpenAI, nata proprio allo scopo di sviluppare l’intelligenza artificiale in modo “sicuro e responsabile”. Con gli anni, la teoria del “rischio esistenziale” posto dall’intelligenza artificiale si è fatta largo tra i membri più radicali di numerosi think tank, tra cui il Future of life institute, che qualche mese fa ha lanciato la lettera aperta per interrompere lo sviluppo di questi strumenti.
Visioni fantascientifiche, estreme e a tratti molto pericolose, ma che si stanno facendo largo nel mondo delle istituzioni. Infatti, la teoria del “rischio esistenziale” è stata anche alla base del recente AI summit voluto dal premier britannico Rishi Sunak.
Cos’è lo “scenario Terminator” che fa venire gli incubi al papà di ChatGPT
Il fondatore di OpenAi, Sam Altman, lancia allarmi sui rischi futuri e remoti dell’intelligenza artificiale generativa. Una paranoia in ritardo, visto che non si cura delle ricadute attuali
AI Safety: i cauti dell’intelligenza artificiale
È il gruppo che, prima di ogni altra considerazione, desidera che lo sviluppo dell’intelligenza artificiale avvenga in sicurezza. È il cosiddetto “AI Alignment”, che viene considerata la strada più promettente per evitare che un’intelligenza artificiale sfugga al nostro controllo e si ribelli all’essere umano, anche senza rendersene conto. Immaginate il seguente, e ormai noto, scenario (che dobbiamo sempre a Bostrom): un’intelligenza artificiale particolarmente evoluta riceve il comando di massimizzare la produzione di graffette. Interpretando alla lettera l’obiettivo che le è stato dato, questa intelligenza artificiale consuma tutte le risorse del pianeta Terra al fine di produrre quante più graffette possibili, causando involontariamente anche l’estinzione dell’essere umano.
Come ha scritto Melanie Mitchell, docente di Complessità all’Università di Santa Fe, “vogliamo che le macchine facciano ciò che intendiamo, non necessariamente ciò che abbiamo detto”. È possibile raggiungere questo obiettivo e fare in modo che le intelligenze artificiali siano in grado di contestualizzare e bilanciare i nostri comandi, interpretandoli come faremmo noi umani?Secondo questa tesi, fornire i nostri valori alle macchine permetterebbe loro di interpretare i comandi correttamente, non limitandosi a “massimizzare la funzione obiettivo” (ovvero portare a termine il compito che gli è stato dato nel modo più efficiente possibile), ma comprendendo autonomamente cosa davvero vogliamo e quali sono i limiti e i vincoli da rispettare (per esempio, evitare di distruggere il pianeta per produrre un numero esorbitante di graffette). Resta comunque aperto, e assai lontano da essere risolto, il problema di come trasmettere effettivamente i nostri valori alle macchine. Attualmente sono in corso alcuni esperimenti, che non hanno ancora portato a risultati rilevanti.
Tra i seguaci di questa scuola di pensiero troviamo l’ex direttore scientifico di OpenAI Ilya Sutskever, il fondatore di DeepMind Demis Hassabis, quelli di Anthropic Dario e Daniela Amodei e parecchi altri ancora. Il movimento ha prodotto alcuni importanti lavori scientifici, ma spesso si avvicina alle posizioni dei più estremi doomers.
Nessuno sa ancora perché OpenAI ha licenziato Sam Altman
A diversi giorni dal ribaltone, non è chiaro cosa abbia spinto il consiglio di amministrazione a rimuovere l’ex ad. Ma le teorie non mancano
I tecnoutopisti
Il capofila degli ottimisti dell’intelligenza artificiale è sicuramente il potentissimo investitore Marc Andreessen, fondatore della società di venture capital a16z e autore di un recente scritto intitolato L’intelligenza artificiale salverà il mondo (una tesi forse non del tutto disinteressata, viste le sue innumerevoli partecipazioni in startup del settore).
Ovviamente, anche in questo “gruppo” – al quale possiamo ascrivere il fondatore di OpenAI Sam Altman – viene prestata attenzione ai potenziali rischi posti dall’intelligenza artificiale. E ovviamente anch’essi condividono l’idea che l’intelligenza artificiale forte potrebbe sorgere nel giro di pochi anni. Ciò che li contraddistingue è la fiducia nei confronti di una tecnologia che, se sviluppata nel modo giusto, porterà il mondo a vivere una nuova utopia socioeconomica.
È una visione ampiamente delineata nel recente saggio AI 2041 dello scienziato informatico e investitore Kai-Fu Lee, dove – tra un racconto di fantascienza e un saggio di approfondimento a esso collegato – si descrive come l’intelligenza artificiale creerà una “economia dell’abbondanza”, che ci libererà da ogni ristrettezza economica, ci permetterà di allungare le nostre vite a dismisura, ci libererà dal giogo del lavoro e altro ancora.
Per questa ragione, gli utopisti sono contrari a qualsiasi regolamentazione che possa rallentarne lo sviluppo e anzi puntano ad arrivare all’intelligenza artificiale forte nei tempi più rapidi possibili. Oltre a Andresseen e Altman, anche figure come il ceo di Microsoft Satya Nadella o di Google Sundar Pichai vengono spesso fatti rientrare tra gli utopisti. Ma siamo davvero sicuri che la loro sia una genuina visione del futuro e che non siano invece semplicemente interessati a massimizzare il ritorno dei loro investimenti in questo settore?
Chi ci guadagna dalla paura dell’intelligenza artificiale
E se dietro tutti i timori esistenziali legati alle nuove generazioni di algoritmi, come ChatGPT, ci fosse solo una sofisticata strategia di marketing?
Gli eticisti dell’intelligenza artificiale
I gruppi che abbiamo citato fino a questo momento si preoccupano del futuro, dell’avvento di una superintelligenza, di come evitarlo, gestirlo al meglio o approfittare al massimo delle sue potenzialità. Tutti questi gruppi condividono inoltre una chiave di lettura fortemente ideologica e fantascientifica. L’ultimo gruppo di cui ci stiamo per occupare ha invece preoccupazioni decisamente più concrete, realistiche e immediate.
Sono gli esperti di etica dell’intelligenza artificiale, che invece di occuparsi di apocalissi o utopie cercano di porre l’attenzione sui rischi immediati, posti da questa tecnologia: perché ChatGPT o Midjourney tendono a produrre immagini stereotipate e discriminatorie della società e quali sono i pericoli di una tecnologia che tende a perpetuare lo status quo invece di aiutarci a superarlo? Quali sono i rischi di uno strumento prettamente statistico che viene impiegato in ambiti delicatissimi come la sorveglianza, la sanità, la selezione dei posti di lavoro, l’erogazione di mutui e altro?
È a questo gruppo di persone – provenienti soprattutto dall’accademia – che dobbiamo la scoperta di come (e perché) l’algoritmo di Amazon usato per la selezione del personale discriminasse sistematicamente le donne, di come i sistemi di riconoscimento facciale usati dalla polizia americana sbaglino molto più spesso quando si tratta di individuare donne o persone appartenenti alle minoranze etniche e altro ancora.
L’esponente più nota è probabilmente la ricercatrice Timnit Gebru, autrice già nel 2020 di un cruciale paper sui rischi di discriminazione insiti in sistemi come ChatGPT (paper che le causò il licenziamento da parte di Google, dove guidava il comitato etico). Tra gli altri troviamo anche Joy Buolamwini (fondatrice della Algorithmic justice league), Kate Crawford (autrice del saggio “Né artificiale né intelligente”) e anche la linguista dell’università di Washington Emily Bender. La docente belga Helga Nowotny, autrice del bellissimo Le macchine di Dio, approccia invece il tema etico da un punto di vista più generale analizzando approfonditamente come l’impiego di strumenti predittivi basati sulla statistica rischi di ridurre la libertà della nostra società.
Provenienti soprattutto dal mondo dell’accademia e dotate inevitabilmente di risorse economiche e potere mediatico molto inferiori rispetto a Musk, Altman e compagnia, Timnit Gebru e le altre ricercatrici stanno comunque riuscendo a contrastare almeno in parte le visioni millenariste degli altri gruppi. È anche per merito loro che l’AI Act europeo si concentra soprattutto sui rischi concreti e che altrettanto fa la sua controparte statunitense. C’è solo da sperare che la loro influenza continui a crescere. E in questo anche i media hanno una responsabilità.