«Big Data e Algoritmi». La realtà spiegata da Teresa Numerico
Il libro di Teresa Numerico, giunto alla seconda ristampa, è un manuale di chiarezza, oltre che essere un libro ricco di contenuti e di tanti spunti di riflessione.
Teresa Numerico, professoressa associata di Logica e Filosofia della scienza all’Università di Roma Tre, ha scritto libri molto interessanti sull’intelligenza artificiale.
Quello che vi proponiamo è giunto alla seconda ristampa ed è un manuale di chiarezza, oltre che essere un libro ricco di contenuti e di tanti spunti di riflessione.
La centralità dei dati
La prima parte si apre con una ricostruzione della nascita e degli sviluppi dell’intelligenza artificiale, di cui ripercorre le tappe fondamentali, concentrando subito l’attenzione sulla centralità dei dati e sulla cibernetica, la disciplina introdotta da Norbert Wiener nel suo libro del 1948 dal titolo Cybernetics: or Control and Communication in the Animal and the Machine, che si propone di studiare i fenomeni in modo transdisciplinare e di considerare le macchine come dispositivi indistinguibili dagli agenti organici.
In un articolo del 1943 di Rosenblueth, Wiener, Bigelow questo concetto era ancora più esplicitato e vi si affermava che non essendoci sostanziali diversità di metodo nell’esaminare il comportamento di una macchina e quello di un essere vivente, c’erano le basi per un’integrazione delle macchine negli esseri umani e per la creazione di una interazione comunicativa tra i due.
Grazie alla cibernetica, la macchina viene vista come una sorta di estensione dell’uomo che non si limita a immagazzinare le informazioni, ma diventa capace di elaborare e estrarre quelle giuste a seconda dello scopo.
Joseph Licklider, informatico e psicologo statunitense, una delle più importanti figure dell’informatica, andò ancora oltre, sostenendo che una volta che tutto il sapere, la memoria umana fosse stata riversata nella macchina, probabilmente non ci sarebbe stato alcun contributo creativo da parte dell’uomo, in quanto la centralità cognitiva sarebbe stata appannaggio dell’intelligenza artificiale. Quest’ultima è creata e addestrata dall’uomo attraverso i dati, ma è proprio il suo rapido sviluppo e la sua crescente importanza che rende necessario porre grande attenzione alle informazioni su cui viene formata.
Il problema è di grande rilevanza soprattutto per quanto attiene l’uso dei big data, in quanto la macchina potrebbe diventare sempre più autonoma nel processo decisionale.
Quando la quantità di dati aumenta tanto che la mente umana può non essere in grado di gestirla e la macchina genera “correlazioni spuri”, ovvero relazioni che sono frutto di accostamenti arbitrari tra i dati, senza che ci sia apparentemente una qualche relazione o dipendenza, il ruolo dell’essere umano potrebbe ridursi sempre di più. Non solo.
L’esame dei dati, effettuato da una macchina che può memorizzarne un numero esorbitante e relazionarli tra loro anche in modo spurio, può produrre effetti sorprendenti che sono alla base di molte ricerche che si prestano anche ad usi distorti.
Nel libro ne vengono citate alcune tra cui l’esperimento di Facebook chiamato “emotional contagion” per misurare il contagio emotivo senza l’interazione fisica, attraverso la manipolazione dei news feed degli utenti e il test della personalità di Kosinski, Stillwell e Graepel che intuirono che fosse possibile rilevare alcune caratteristiche delle persone, incluso l’orientamento sessuale, le opinioni politiche e religiose, esaminando le loro tracce digitali e, in particolare, i like di Facebook e i tweet. Sembra che Facebook abbia addirittura brevettato alcuni sistemi che consentono di misurare lo stato mentale delle persone dai loro post e dall’espressione facciale delle loro fotografie. Si tratta di ricerche tanto stimolanti quanto pericolose.
Il fenomeno dell’affect recognition esploso negli ultimi anni, che si propone di riconoscere gli stati emotivi sulla base di algoritmi che analizzano le espressioni del volto, il tono della foce e il modo di muoversi, è uno dei più preoccupanti, non solo per i possibili errori di lettura, ma anche per l’ingerenza nella vita delle persone. Questi sistemi possono, infatti, essere utilizzati per molti scopi, tra cui la scelta di un candidato, la valutazione della soglia di dolore, del grado di attenzione e di apprendimento.
L’intelligenza artificiale può essere in grado di sapere, o di credere di sapere, molte più cose di noi di quante possa conoscere un altro essere umano e se ci si dovesse affidare esclusivamente alle sue valutazioni si rischierebbe una supremazia degli algoritmi che deve, invece, essere mitigata e integrata con l’intervento umano che dovrebbe assumere un ruolo decisionale.
Come ricorda Teresa Numerico, parlando di Alan Turing:
«La macchina può valere solo nell’ambito di decisioni tecniche. Ma quando sarà lasciata agire senza guida a prendere decisioni politiche, il risultato sarà niente altro che una tempesta».
L’obiettivo dovrebbe essere quello di sviluppare un’economia politica che sfrutti le potenzialità di calcolo e di memorizzazione delle macchine, ma che sia in grado di fornire risposte originali a cui anche l’uomo deve contribuire, in quel dialogo uomo macchina di cui la cibernetica ha segnato gli albori.
Questi sono solo alcuni degli stimoli offerti dal bel lavoro di Teresa Numerico. Una lettura intelligente per prepararci a parlare di futuro in modo consapevole.
Grazie per aver letto LISP!
Vorrei che questa rubrica diventasse un luogo di confronto e condivisione di suggerimenti su libri, articoli, pubblicazioni, podcast e newsletter.
Hai qualche consiglio di lettura da condividere?