Discussione su questo Post

Avatar di User
Avatar di Sir_Francis

Ho letto tutti i suoi libri, sicuramente leggerò anche questo. Grazie!

Expand full comment
Avatar di Giulio Beltrami

Il recente saggio "Compatibile con l'uomo: Come impedire che l'IA controlli il mondo" di Stuart Russell:

https://www.einaudi.it/catalogo-libri/scienze/compatibile-con-luomo-stuart-russell-9788806263218/

prospetta un criterio per garantire una [super] intelligenza artificiale "benefica", basato su un algoritmo di apprendimento per rinforzo inverso (IRL), applicato alle persone ed alle collettività servite: "mentre l’apprendimento per rinforzo genera il comportamento a partire dalle ricompense, in realtà noi volevamo l’opposto: apprendere le ricompense, dato il comportamento".

Si tratterebbe di una rivoluzione copernicana nell'etica analoga a quella dell'intelligenza artificiale generativa rispetto a quella tradizionale, nel senso che invece di cercare di pre definire quali sarebbero gli ipotetici fattori benefici, per dei [super] assistenti digitali intelligenti, questi li potrebbero apprendere e quindi imporseli dall'analisi del comportamento delle persone e comunità servite, in modo da evitare tanto danni quanto eccessi di zelo, come quelli immaginati rispettivamente in film come "Teminator" ed in romanzi come "Gli Umanoidi" di Jack Williamson

http://www.bibliotecagalattica.com/romanzi/umanoidi.html

Per altro si perfezionerebbero anche le leggi della robotica di Asimov, come auspicavo in "Cosa ci azzecca l’intelligenza artificiale generativa con le Leggi di Asimov sulla robotica?"

https://www.partecipami.it/infodiscs/view/42377

perché la [super] intelligenza artificiale potrebbe addirittura inferire fattori benefici e malefici di cui gli stessi soggetti serviti potrebbero essere inconsapevoli.

Expand full comment
3 more comments...

Nessun post