«Sovrumano» l’ultimo libro di Nello Cristianini
Nel suo ultimo libro Nello Cristianini cerca di rispondere ad un importante quesito: l’intelligenza artificiale ha superato, o potrà superare, la nostra intelligenza?
Spesso, forse anche troppo, si sente discutere sull’opportunità di usare il termine “intelligente” per l’intelligenza artificiale.
È una diatriba poco stimolante.
Sono molto più interessata alla sostanza del suo funzionamento e in fondo ho sempre concordato con chi affermava che l’AI sia una delle tante forme di intelligenza, intendendo con questa espressione la capacità di risolvere in modo inatteso problemi imprevisti.
Nel suo ultimo libro Nello Cristianini travalica questa discussione e, con solidi argomenti, cerca di rispondere ad un altro quesito, ben più sfidante, ovvero se l’intelligenza artificiale abbia superato la nostra intelligenza o possa farlo in futuro.
Come egli stesso scrive, già negli anni Duemila «la sfida non era più se le macchine potessero essere intelligenti ma se potessero esserlo quanto noi».
«Sovrumano», uscito per Il Mulino, nello stile del professore di Bath, è assolutamente godibile e di facile lettura anche per chi non abbia una formazione tecnica, scritto con la chiarezza di un ottimo divulgatore.
L’autore ci conduce gradualmente verso il possibile Sovrumano, iniziando dalla c.d intelligenza artificiale ristretta, Artificial Narrow Intelligence (ANI), per passare all’intelligenza artificiale generale, Artificial General Intelligence (AGI) e infine alla Artificial Super Intelligence (ASI), suddivisione comunemente accettata che trova il suo fondamento in uno studio del 1993 dello psicologo John Carroll che proponeva un modello di intelligenza (umana) a tre strati.
I sistemi di intelligenza “narrow”
I sistemi di intelligenza “narrow” sono gli unici ad oggi esistenti e consentono di risolvere problemi in settori specifici. Nonostante la limitatezza del loro intervento sono molto efficaci e hanno cambiato profondamente il modo di lavorare in diversi ambienti.
Se si pensa ai sistemi di riconoscimento delle immagini, oggi l’attività umana è sostituita, con risultati migliori, da algoritmi come AlexNet, ResNet, SENet, OmniVec che hanno raggiunto un’accuratezza nel riconoscimento visivo molto alta, fino al 93%, superando l’essere umano medio già nel 2017-2018.
In ambito medico, nello stesso periodo, diversi algoritmi superavano i medici nell’esame delle mammografie, nella diagnosi della polmonite e del melanoma, fino ad arrivare al famoso AlphaFold che nel 2018 ha vinto la competizione tra i migliori esperti a livello mondiale nella previsione di nuove forme di proteine. AlphaFold è oggi considerato uno strumento irrinunciabile e ha valso il premio Nobel per la chimica a Demis Hassabis nel 2024.
Se restiamo nell’ambito dell’intelligenza artificiale ristretta, ovvero di quella tecnologia sviluppata per fornire risposte o soluzioni in un ambito specifico, e soltanto in quello, di fatto ci rendiamo conto che le macchine ci hanno già superato.
Quello che non sono in grado di fare, però, è risolvere un’ampia gamma di problemi, capacità che invece appartiene all’uomo che non è, per così dire, settoriale.
Intelligenza Artificiale Generale
Quello che sembra mancare alle macchine è quindi un’intelligenza generale ed è questo l’obiettivo che si stanno ponendo molti scienziati.
Già nel libro Artificial General Intelligence di Ben Goertzel e Cassio Pennachin del 2007 l’AGI veniva definita come la caratteristica di quei sistemi «che possiedono un ragionevole grado di autocomprensione e autocontrollo autonomo e hanno la capacità di risolvere una varietà di problemi complessi in una varietà di contesti e di imparare a risolvere problemi di cui non erano a conoscenza al momento della loro creazione».
Diciamo subito che l’AGI non esiste, ma questa affermazione va inserita in un contesto definitorio, in quanto per potere dire che un oggetto esiste o meno dobbiamo avere chiaro a che cosa ci stiamo riferendo.
Dell’AGI abbiamo una definizione generale, ma quali siano i requisiti che debba soddisfare dipende principalmente dagli strumenti che usiamo per misurarla e qui entrano in gioco i test di intelligenza.
Anche se non sarebbe scontato misurare l’intelligenza delle macchine parametrandola a quella dell’uomo, la tendenza è quella di utilizzare sistemi di misurazione simili ai nostri.
Vengono utilizzate batterie di test come GLUE, SuperGLUE e MMLU, pensati per valutare quanto i modelli linguistici capiscano davvero ciò che leggono e come ragionano, considerando che per “ragionare”, in termini tecnici, si intende «seguire una serie di passi espliciti che portano da una premessa ad una conclusione».
Richiamandoci a Daniel Kahneman, il premio Nobel autore di Pensieri Lenti e Veloci, l’AI è molto brava nell’applicare il Sistema 1, ma meno nel Sistema 2 che implica un maggiore ragionamento in cui l’essere umano sembra ancora predominare.
Non si può però non tenere presente che gli scienziati tendono a sottoporre alla macchina test sempre più complessi alzando l’asticella e che diventano anche definitori della natura del fenomeno che misurano.
Il test GLUE, nato nel 2018, proponeva migliaia di domande di comprensione, logica e grammatica che l’AI ha superato, stimolando i ricercatori a creare SuperGLUE composto da test più difficili e mirati, che hanno per un po' messo in difficoltà le macchine, fino ad arrivare a MMLU che prevede quasi 16.000 domande tratte da veri esami universitari e professionali che valutano conoscenze e logica in scienze, tecnologia e umanistica e che rappresentano ancora un ostacolo da superare.
È una sfida continua tra chi costruisce i test e chi addestra l’intelligenza artificiale, per capire quanto si possa avvicinare davvero al modo di ragionare umano.
Anche se ad oggi l’intelligenza artificiale non è in grado di fare tutto, e molte cose che fa non sono misurabili, certamente ne può fare parecchie e il suo livello si sta alzando tantissimo.
Nel 2024 è stato presentato «o1», il progetto “Strawberry” di OpenAI, casa produttrice di ChatGPT, che ha superato GPT4 arrivando al 92.3% nella valutazione della batteria MMLU superando l’essere umano che raggiunge l’89,8%. Non è davvero poco.
Se il timore è che possa sfuggirci di mano, dovremmo forse rassicurarci che potremmo sempre trovare un modo per ingannarla e batterla, magari utilizzando un altro algoritmo.
L’Intelligenza Sovrumana
Per intelligenza sovrumana (ASI) si intende «una forma ipotetica di intelligenza artificiale in grado di superare l’intelligenza umana in ogni aspetto cognitivo tra cui creatività, risoluzione dei problemi e conoscenza artificiale» ma se ci si chiede se l’intelligenza artificiale possa battere l’uomo giocando al suo stesso gioco è piuttosto probabile che accada. Basta spingere l’AGI sempre di più in avanti.
La domanda cruciale, su cui l’autore ci spinge a riflettere, è se sia davvero questo l’obiettivo o se piuttosto non vogliamo far fare alla macchina cose che noi non siamo assolutamente in grado di fare o di pensare.
Se consideriamo l’intelligenza artificiale come una forma diversa di intelligenza, come lo è quella del gatto rispetto alla nostra, potremmo sfruttarla per fare cose oggi impensabili o inimmaginabili, per raggiungere confini inesplorati della conoscenza.
Certo quest’ipotesi fa paura ma è anche estremamente elettrizzante.
Ho letto tutti i suoi libri, sicuramente leggerò anche questo. Grazie!
Il recente saggio "Compatibile con l'uomo: Come impedire che l'IA controlli il mondo" di Stuart Russell:
https://www.einaudi.it/catalogo-libri/scienze/compatibile-con-luomo-stuart-russell-9788806263218/
prospetta un criterio per garantire una [super] intelligenza artificiale "benefica", basato su un algoritmo di apprendimento per rinforzo inverso (IRL), applicato alle persone ed alle collettività servite: "mentre l’apprendimento per rinforzo genera il comportamento a partire dalle ricompense, in realtà noi volevamo l’opposto: apprendere le ricompense, dato il comportamento".
Si tratterebbe di una rivoluzione copernicana nell'etica analoga a quella dell'intelligenza artificiale generativa rispetto a quella tradizionale, nel senso che invece di cercare di pre definire quali sarebbero gli ipotetici fattori benefici, per dei [super] assistenti digitali intelligenti, questi li potrebbero apprendere e quindi imporseli dall'analisi del comportamento delle persone e comunità servite, in modo da evitare tanto danni quanto eccessi di zelo, come quelli immaginati rispettivamente in film come "Teminator" ed in romanzi come "Gli Umanoidi" di Jack Williamson
http://www.bibliotecagalattica.com/romanzi/umanoidi.html
Per altro si perfezionerebbero anche le leggi della robotica di Asimov, come auspicavo in "Cosa ci azzecca l’intelligenza artificiale generativa con le Leggi di Asimov sulla robotica?"
https://www.partecipami.it/infodiscs/view/42377
perché la [super] intelligenza artificiale potrebbe addirittura inferire fattori benefici e malefici di cui gli stessi soggetti serviti potrebbero essere inconsapevoli.