domenica 23 febbraio 2025

La Corsa all'AI: Stiamo Assistendo a un Vero Ragionamento o Solo a una Mimica Meccanica?

L'intelligenza artificiale (AI) sta evolvendo così rapidamente che ogni giorno emergono nuovi modelli. OpenAI lancia uno, DeepSeek ne sviluppa un altro, e OpenAI risponde con una nuova versione. Ma dietro questi sviluppi, c'è una domanda fondamentale: i modelli di AI stanno davvero "ragionando" come gli esseri umani, o si limitano a imitare questo processo?


 

Il Cuore della Questione: L'AI Può Ragionare?

Hai mai usato ChatGPT o un modello simile? Sono ottimi a rispondere velocemente a domande semplici. Ma i nuovi modelli, come l’o1 di OpenAI e il r1 di DeepSeek, promettono di fare di più. Questi modelli affermano di essere in grado di fare "ragionamenti a catena": scomporre un problema complesso in parti più piccole e risolverle passo dopo passo, proprio come farebbe un essere umano.

Ad esempio, o1 ha risolto un problema complesso di logica matematica in pochi secondi, ma ha faticato a rispondere correttamente a una domanda semplice come "quanti mesi ci sono in un anno?". Questo ci fa chiedere: stanno davvero ragionando, o semplicemente imitano un processo che hanno imparato dai dati?

Cosa Significa "Ragionare"?

Nel contesto dell’AI, "ragionamento" significa suddividere un problema in parti e risolverlo con logica, ma questo è solo un aspetto. Gli esseri umani ragionano in vari modi: deduttivo (fare conclusioni a partire da principi generali), induttivo (generalizzare da osservazioni specifiche), analogico (fare parallelismi tra situazioni simili), e causale (capire causa ed effetto).

Un esempio pratico: un medico potrebbe osservare un sintomo (induttivo) e fare una diagnosi basata su quella osservazione (deduttivo). Un AI, come o1, potrebbe risolvere una situazione simile applicando modelli precostituiti, ma senza la flessibilità di un medico umano.

Scettici: L'AI Sta Solo Imitando, Non Ragionando

Molti esperti, come la filosofa Shannon Vallor, sostengono che l’AI stia solo "imitando" il ragionamento umano senza capirlo davvero. Per esempio, un modello come o1 non "pensa" alla domanda, ma esamina il set di dati da cui ha appreso e applica schemi pre-esistenti per generare una risposta.

Immagina che l’AI stia giocando a scacchi. Se vince, potrebbe non aver effettivamente "capito" la strategia, ma ha riconosciuto modelli vincenti dai suoi dati di allenamento. Eppure, quando le viene chiesto un problema semplice come un calcolo aritmetico, fallisce.

I Credenti: L'AI Sta Ragionando, Ma Diversamente

Altri, come Ryan Greenblatt di Redwood Research, ritengono che i modelli di AI stiano comunque ragionando, ma in un modo diverso rispetto agli esseri umani. Esempio: uno studente che ha memorizzato 500 equazioni di fisica. Non ha l'intuizione di un esperto, ma applica comunque la formula giusta al problema. Non è un processo intuitivo come quello di un esperto, ma è un tipo di ragionamento.

In modo simile, l'AI può non generalizzare come un essere umano, ma applica le informazioni che ha in modo che sembri un vero ragionamento. Ad esempio, un modello come o1 può risolvere problemi mai visti prima, ma non lo fa con la stessa flessibilità di un pensiero umano.

La Verità a Mezzavia: Un Ragionamento Frastagliato

La realtà è che l'AI non sta semplicemente imitando l'umano, ma sta applicando una forma di ragionamento, benché limitata. I modelli di AI non sono costantemente brillanti in tutto ciò che fanno: eccellono in alcuni compiti (come risolvere equazioni matematiche) ma faticano in altri, simili per gli esseri umani.

Un esempio? L'AI potrebbe scrivere un codice perfetto per una pagina web, ma fallire nell'interpretare il contesto di una situazione complessa, come prendere una decisione etica o dare consigli su relazioni interpersonali.

Cosa Significa per il Futuro?

Quindi, l’AI sta veramente "ragionando"? La risposta non è né un sì né un no. Come afferma Ajeya Cotra di Open Philanthropy, i modelli di AI sono una via di mezzo tra la pura memorizzazione e il vero ragionamento. Possono sembrare "studenti diligenti", ma mancano della flessibilità mentale che caratterizza il pensiero umano.

Per esempio, un AI potrebbe essere molto brava a suggerire una ricetta basata su ingredienti disponibili, ma non sarebbe in grado di offrire una consulenza accurata in una situazione complessa come la gestione di un conflitto familiare. Quindi, per ora, l'AI è uno strumento utile, ma non può sostituire completamente il giudizio umano.