La Teoria letteraria per robot di Dennis Yi Tenen
Dennis Yi Tenen nel suo libro "Teoria letteraria per robot" ci mostra come intelligenza artificiale e scrittura siano due facce della stessa medaglia.
L’intelligenza artificiale è una tecnologia, potente, travolgente quanto si vuole, ma è pur sempre uno strumento creato dall’uomo e nelle mani dell’uomo, che sarebbe molto poco senza la letteratura.
Questo non solo per il fatto che è sui libri che l’intelligenza artificiale si è formata e addestrata, proprio come noi ma memorizzandone un numero impossibile da raggiungere nell’arco di una vita umana, ma anche perché le sue logiche e la sua stessa esistenza sono strettamente connesse con la lingua.
Ce lo insegna Dennis Yi Tenen, professore di letteratura inglese e comparata della Columbia University, nel suo libro Teoria letteraria per robot, in cui ci mostra come ChatGPT sia solo l’ultimo degli strumenti di ausilio alla scrittura e come intelligenza artificiale e scrittura siano due facce della stessa medaglia.
Nella quarta di copertina si legge «la dicotomia uomo-macchina nasce da una domanda mal posta: l’intelligenza è un fenomeno collettivo e le macchina ne fanno parte. Non da oggi, da sempre».
Oltre il testo
Il libro, che nella sua versione originale si intitola "Plain Text: The Poetics of Computation", evidenzia come la scrittura, la lettura e la comprensione del testo, da sempre considerate prerogative umane, nell'era dell'elaborazione computazionale hanno acquistato un ruolo nuovo.
Il "plain text", in informatica, è un insieme di dati privo di una formattazione complessa e che, da mezzo per trasmettere informazioni alla macchina, diventa una piattaforma neutra sulla quale umano e macchina possono incontrarsi.
Uno stesso testo può essere codificato, decodificato e manipolato sia dagli esseri umani che dalle macchine e questo processo porta a una nuova forma di collaborazione, in cui le tecnologie computazionali amplificano le capacità interpretative e creative dell'uomo e viceversa, le macchine migliorano i loro processi di apprendimento e di deduzione attraverso la letteratura.
È dalla collaborazione tra uomo e macchina che possono ottenersi i risultati migliori.
L’algoritmo diventa lettore e interprete del testo, ma bisogna stare attenti perché le macchine non leggono come noi, non cercano significati impliciti, concentrandosi invece su schemi, frequenze e modelli. Questa lettura meccanica può essere utile per analizzare grandi quantità di testi, ma non è sufficiente perché rischierebbe di ridurre la complessità letteraria a una serie di rappresentazioni statistiche. Le macchine possono leggere ciò che è esplicito nei testi, ma spesso mancano della capacità di cogliere le sfumature, l'ironia o le ambiguità che caratterizzano l'esperienza umana della lettura. Almeno per ora.
Quindi se, da un lato, gli strumenti digitali offrono nuove possibilità per esplorare testi complessi e ampliare l’accesso alla conoscenza, attraverso l'analisi di grandi corpus letterari che possono rivelare tendenze e connessioni impossibili da individuare attraverso metodi tradizionali, dall'altro lato, si corre il pericolo di ridurre i testi a semplici dati, perdendo di vista la ricchezza dell'esperienza umana e le dimensioni emotive della letteratura.
La sfida, secondo Tenen, è sviluppare una teoria critica che integri il meglio della tradizione umanistica con le possibilità trasformative offerte dalla tecnologia.
La letteratura come strumento di progresso per l’AI
È importante considerare che nel processo di codifica e decodifica del testo, l’algoritmo non è neutro e che ogni linea di codice riflette scelte culturali, politiche ed estetiche. Gli algoritmi che leggono e analizzano i testi sono progettati da esseri umani, portano con sé bias culturali e strutture di potere. Questo è evidente, ad esempio, nei modelli di linguaggio di grandi dimensioni come GPT, che possono replicare, o addirittura amplificare, i pregiudizi presenti nei dati con cui sono stati addestrati.
In questo contesto i programmatori, attraverso il codice, diventano nuovi autori, o coautori, in grado di plasmare la nostra comprensione del linguaggio e della realtà.
Questo è un fattore di cui bisogna tenere conto, mentre la letteratura, proprio in ragione della sua profondità, rappresenta una sfida per gli algoritmi, che sono obbligati a confrontarsi con i propri limiti di analisi e vengono spinti a migliorarsi attraverso sistemi di autoapprendimento o nuova programmazione.
La letteratura, secondo Tenen, non è solo un oggetto di studio, ma diventa uno strumento di progresso per l’intelligenza artificiale, obbligando i ricercatori a sviluppare modelli sempre più sofisticati.
In Teoria letteraria per robot, l'intelligenza artificiale non è vista come una minaccia, ma come un'opportunità per rinnovare il pensiero critico e creativo, guardando ai testi non solo come oggetti da interpretare, ma come processi vivi che emergono dall'interazione tra umano e macchina.
Questa visione richiede un approccio interdisciplinare, capace di unire competenze tecniche e sensibilità umanistiche, per affrontare le sfide e le opportunità di un mondo sempre più mediato dalla tecnologia, ma che non può fare a meno dell’uomo.
Vorrei che questa rubrica diventasse un luogo di confronto e condivisione di suggerimenti su libri, articoli, pubblicazioni, newsletter e non solo.
Hai qualche consiglio di lettura da condividere?