sabato 15 marzo 2025

Limitazioni e criticita' di manus ai

 Manus AI, sviluppato dalla startup cinese Butterfly Effect Technology Ltd Co e lanciato il 6 marzo 2025, è un agente di intelligenza artificiale autonomo che promette di eseguire compiti complessi senza supervisione umana costante. 

 


Tuttavia, nonostante l’entusiasmo iniziale e il clamore generato, presenta diverse limitazioni e criticità emerse dai primi test e dalle analisi degli utenti. Ecco una panoramica basata sulle informazioni disponibili:

Limitazioni di Manus AI
  1. Autonomia limitata in contesti complessi: Sebbene Manus sia progettato per operare in modo indipendente, alcuni esperti, come Alexander Doria di Pleias, lo descrivono più come un "workflow" che come un vero agente autonomo. Per attività intricate che richiedono decisioni sfumate o adattamenti in tempo reale, tende a richiedere interventi umani, riducendo la sua effettiva indipendenza.
  2. Problemi di stabilità e crash frequenti: Gli utenti hanno segnalato instabilità del sistema, con crash ricorrenti e interruzioni durante l’esecuzione di compiti. Ad esempio, MIT Technology Review ha notato che Manus si blocca su alcune pagine o attività per lunghi periodi, mostrando un tasso di fallimento superiore rispetto a strumenti come ChatGPT DeepResearch.
  3. Finestra di contesto limitata: Manus fatica a gestire quantità elevate di dati contemporaneamente a causa di una finestra di contesto ristretta. Questo lo rende meno efficace per compiti che richiedono l’elaborazione di informazioni estese o il mantenimento di un contesto prolungato.
  4. Dipendenza da modelli esistenti: Non si tratta di un’IA completamente nuova, ma di un sistema che integra modelli preesistenti come Claude (Anthropic) e Qwen (Alibaba). Ciò solleva dubbi sulla sua originalità e sul fatto che sia più un’"orchestrazione intelligente" di tecnologie già disponibili piuttosto che un’innovazione rivoluzionaria.
  5. Accesso ristretto e scalabilità: Attualmente in fase beta privata, Manus è accessibile solo tramite invito, e la domanda elevata ha sovraccaricato i server, causando ritardi e difficoltà nell’espansione dell’infrastruttura. Il team ha ammesso di aver sottostimato l’interesse, evidenziando problemi di scalabilità.
  6. Limitazioni operative specifiche: Non può creare account utente, superare misure di sicurezza senza autorizzazioni esplicite o eseguire alcune azioni che teoricamente dovrebbe supportare, come postare sui social media. Inoltre, la quantità di utilizzo giornaliero è limitata, restringendo ulteriormente le sue potenzialità.
Criticità di Manus AI
  1. Efficienza e prestazioni incoerenti: I test iniziali hanno rivelato errori frequenti, come risposte errate, soluzioni incomplete o processi che si bloccano senza concludersi. Ad esempio, attività semplici come ordinare cibo o prenotare voli hanno mostrato problemi di affidabilità, con link errati o elaborazioni interrotte.
  2. Hype sovradimensionato: Il clamore mediatico, amplificato dalla stampa cinese e dalla strategia di distribuzione limitata (con codici d’invito venduti a migliaia di euro), sembra superare le reali capacità attuali del sistema. Video virali che mostravano funzionalità avanzate sono stati smentiti dagli stessi sviluppatori, alimentando scetticismo.
  3. Sicurezza e responsabilità: La capacità di Manus di eseguire comandi autonomamente solleva preoccupazioni sui rischi per la sicurezza, come l’interazione non autorizzata con sistemi esterni. Inoltre, non è chiaro chi sia responsabile in caso di errori con conseguenze significative, un problema aggravato dall’assenza di regolamentazioni adeguate per IA autonome.
  4. Confronto con alternative: Rispetto a DeepSeek, un altro modello cinese noto per il suo approccio open-source e risultati concreti, Manus appare meno maturo. DeepSeek ha sviluppato soluzioni originali, mentre Manus si basa su tecnologie esistenti, e i suoi problemi di esecuzione lo rendono meno competitivo al momento.
  5. Costo-beneficio e applicabilità: Sebbene il costo per compito sia basso (circa 2 dollari secondo MIT Technology Review), le prestazioni instabili e i limiti funzionali potrebbero non giustificare l’investimento per utenti o aziende che cercano affidabilità.
Butterfly Effect Technology Ltd Co ha creato con Manus un progetto ambizioso, che punta a rivoluzionare l’interazione uomo-macchina attraverso un agente AI autonomo. 
 
Tuttavia, le limitazioni tecniche e operative, unite a un lancio più orientato al marketing che alla sostanza, suggeriscono che il sistema sia ancora in una fase sperimentale. 
 
La partnership con Alibaba (Qwen) e l’impegno a rilasciare componenti open-source potrebbero migliorarne le prospettive, ma al momento Manus non sembra all’altezza delle aspettative generate. Per un giudizio definitivo, serviranno aggiornamenti e test più approfonditi.
 

domenica 23 febbraio 2025

La Corsa all'AI: Stiamo Assistendo a un Vero Ragionamento o Solo a una Mimica Meccanica?

L'intelligenza artificiale (AI) sta evolvendo così rapidamente che ogni giorno emergono nuovi modelli. OpenAI lancia uno, DeepSeek ne sviluppa un altro, e OpenAI risponde con una nuova versione. Ma dietro questi sviluppi, c'è una domanda fondamentale: i modelli di AI stanno davvero "ragionando" come gli esseri umani, o si limitano a imitare questo processo?


 

Il Cuore della Questione: L'AI Può Ragionare?

Hai mai usato ChatGPT o un modello simile? Sono ottimi a rispondere velocemente a domande semplici. Ma i nuovi modelli, come l’o1 di OpenAI e il r1 di DeepSeek, promettono di fare di più. Questi modelli affermano di essere in grado di fare "ragionamenti a catena": scomporre un problema complesso in parti più piccole e risolverle passo dopo passo, proprio come farebbe un essere umano.

Ad esempio, o1 ha risolto un problema complesso di logica matematica in pochi secondi, ma ha faticato a rispondere correttamente a una domanda semplice come "quanti mesi ci sono in un anno?". Questo ci fa chiedere: stanno davvero ragionando, o semplicemente imitano un processo che hanno imparato dai dati?

Cosa Significa "Ragionare"?

Nel contesto dell’AI, "ragionamento" significa suddividere un problema in parti e risolverlo con logica, ma questo è solo un aspetto. Gli esseri umani ragionano in vari modi: deduttivo (fare conclusioni a partire da principi generali), induttivo (generalizzare da osservazioni specifiche), analogico (fare parallelismi tra situazioni simili), e causale (capire causa ed effetto).

Un esempio pratico: un medico potrebbe osservare un sintomo (induttivo) e fare una diagnosi basata su quella osservazione (deduttivo). Un AI, come o1, potrebbe risolvere una situazione simile applicando modelli precostituiti, ma senza la flessibilità di un medico umano.

Scettici: L'AI Sta Solo Imitando, Non Ragionando

Molti esperti, come la filosofa Shannon Vallor, sostengono che l’AI stia solo "imitando" il ragionamento umano senza capirlo davvero. Per esempio, un modello come o1 non "pensa" alla domanda, ma esamina il set di dati da cui ha appreso e applica schemi pre-esistenti per generare una risposta.

Immagina che l’AI stia giocando a scacchi. Se vince, potrebbe non aver effettivamente "capito" la strategia, ma ha riconosciuto modelli vincenti dai suoi dati di allenamento. Eppure, quando le viene chiesto un problema semplice come un calcolo aritmetico, fallisce.

I Credenti: L'AI Sta Ragionando, Ma Diversamente

Altri, come Ryan Greenblatt di Redwood Research, ritengono che i modelli di AI stiano comunque ragionando, ma in un modo diverso rispetto agli esseri umani. Esempio: uno studente che ha memorizzato 500 equazioni di fisica. Non ha l'intuizione di un esperto, ma applica comunque la formula giusta al problema. Non è un processo intuitivo come quello di un esperto, ma è un tipo di ragionamento.

In modo simile, l'AI può non generalizzare come un essere umano, ma applica le informazioni che ha in modo che sembri un vero ragionamento. Ad esempio, un modello come o1 può risolvere problemi mai visti prima, ma non lo fa con la stessa flessibilità di un pensiero umano.

La Verità a Mezzavia: Un Ragionamento Frastagliato

La realtà è che l'AI non sta semplicemente imitando l'umano, ma sta applicando una forma di ragionamento, benché limitata. I modelli di AI non sono costantemente brillanti in tutto ciò che fanno: eccellono in alcuni compiti (come risolvere equazioni matematiche) ma faticano in altri, simili per gli esseri umani.

Un esempio? L'AI potrebbe scrivere un codice perfetto per una pagina web, ma fallire nell'interpretare il contesto di una situazione complessa, come prendere una decisione etica o dare consigli su relazioni interpersonali.

Cosa Significa per il Futuro?

Quindi, l’AI sta veramente "ragionando"? La risposta non è né un sì né un no. Come afferma Ajeya Cotra di Open Philanthropy, i modelli di AI sono una via di mezzo tra la pura memorizzazione e il vero ragionamento. Possono sembrare "studenti diligenti", ma mancano della flessibilità mentale che caratterizza il pensiero umano.

Per esempio, un AI potrebbe essere molto brava a suggerire una ricetta basata su ingredienti disponibili, ma non sarebbe in grado di offrire una consulenza accurata in una situazione complessa come la gestione di un conflitto familiare. Quindi, per ora, l'AI è uno strumento utile, ma non può sostituire completamente il giudizio umano.