Questo articolo è il seguito di quello pubblicato alcuni giorni fa sull’intelligenza artificiale (AI), un argomento che suscita interpretazioni contrastanti contrasti. Nei riguardi del significato dell’AI, infatti, ci troviamo di fronte a due atteggiamenti diametralmente opposti: c’è chi ritiene che l’AI, come una vera intelligenza, possa fornire anche risultati “nuovi”, cioè non contenuti nei dati che le sono stati forniti in precedenza, e chi invece pensa che si limiti semplicemente a riciclare l’enorme mole di informazioni che le sono state fornite nella fase di addestramento, cioè svolga la funzione di “rastrello” delle informazioni (ad esempio, si veda l’intervista a Roberto Battiston, Alto Adige, 5 maggio 2024).
Questa seconda opinione è apparentemente contraddetta da alcuni risultati che sono stati ottenuti recentemente dall’AI. Prendiamo, ad esempio, il software chiamato AlphaFold, un sistema sviluppato da DeepMind (https://alphafold.ebi.ac.uk), che ha permesso di modellare, in un modo che appare sostanzialmente corretto, la struttura tridimensionale di tutte le proteine codificate da un genoma partendo dalle più di 200.000 strutture tridimensionali sperimentali presenti nella banca dati PDB (Protein Data Bank, www.rcsb.org). E questo un risultato nuovo? Lo è, nel senso che i numerosi software di predizione strutturale basati sui precedenti algoritmi non erano in grado di fornire lo stesso livello di risposte e, soprattutto, non erano in grado di prevedere il modello di proteine con sequenze completamente diverse da quelle presenti nel data base. È vero che AlphaFold non avrebbe raggiunto questo risultato se non avesse potuto utilizzare i modelli tutte le strutture determinate con tecniche sperimentali nei ultimi sessant’anni, ciò non toglie che fornisce ai ricercatori del settore delle informazioni che prima non c’erano.
Così com’è vero che ChatGTP, un altro esempio di AI, è in grado di tradurre in modo molto efficiente un qualunque testo in una lingua diversa dall’originale. Lo fa sfruttando l’enorme mole di testi bi-lingue con cui è stata addestrata in precedenza. Anche in questo caso, un testo originale in italiano le cui frasi non sono presenti nell’insieme dei testi utilizzati per l’allenamento, viene tradotto in inglese in modo più che buono, comunque migliore della traduzione che potrebbe fornire una persona con una conoscenza media dell’inglese.
Tutto questo è sufficiente per parlare di intelligenza? Dipende. Se per intelligenza intendiamo le capacità logico-deduttive, allora probabilmente sì. Per quanto riguarda le capacità di ragionamento logico, gli algoritmi utilizzati nelle reti neurali che costituiscono il principio base dell’AI pare abbiano già raggiunto un livello più che discreto. Si può obiettare che lo possono fare perché utilizzano una grande mole di informazioni che costituiscono la base culturale del settore di cui una certa AI si occupa, ma questo non è quello che facciamo anche noi? Anche gli umani passano gran parte del tempo, soprattutto nella loro giovinezza, a studiare, leggere, informarsi, in una parola ad addestrarsi. Quando noi risolviamo dei problemi nuovi, quasi sempre lo facciamo grazie a ciò che abbiamo imparato in precedenza.
Ciò che ci distingue da un computer è quello che si definisce “coscienza di sé” (Federico Faggin, Silicio, Mondadori 2019; Irriducibile, 2022). Il computer non solo non ha una coscienza, ma non prova sentimenti, piacere, sofferenza, gioia e così via. Questo è il limite dell’intelligenza artificiale (almeno per ora, e per fortuna non pare ci siano alle viste progressi in questo senso).

No comment