Arriva GPT-4o, modello rivoluzionario o un’Eliza di Weizenbaum?

Al momento stai visualizzando Arriva GPT-4o, modello rivoluzionario o un’Eliza di Weizenbaum?

È il nuovo modello di intelligenza artificiale annunciato da OpenAI, che risponde a qualsiasi domanda riuscendo a interpretare le espressioni facciali e le emozioni umane per rispondere “a tono”. La “o” sta per “omni” perché traduce lingue, parla con un linguaggio naturale e usa toni diversi, ma secondo chi l’AI la crea tutto questo è più nelle intenzioni che nel risultato ottenuto.

La demo del nuovissimo ChatGPT-4o è impressionante. La CTO di OpenAI, Mira Murai, conversa con gli amici e con un AI, del più e del meno, tra risate e battute snocciolano equazioni, grafici, discorsi. È evidente la linea tracciata da Mark Zuckerberg per questo tipo di tecnologia AI consumer: una sorta di TikTok AI-Generated per incoraggiare le persone in una conversazione con un AI, profilarle e vendergli pubblicità. 

Ma qualche esperto AI che lo ha provato, sottoponendogli domande che non necessariamente richiedono una risposta univoca e assertiva, del tipo che si usano per mettere in difficoltà un LLM, è incappato in continui crash che chiedevano di “riprovare più tardi”, un italiano stentato, attese anche di 5 secondi per la risposta e una serie di assurdità basate sul non comprendere esattamente ciò che si sta dicendo. Tra questi il Ceo di Aida46, che in un post su Linkedin scrive: “Posso affermare che HAL9000 per ora resta nella monumentale opera di Stanley Kubrick. Forse seguiranno aggiornamenti, ma a tutti gli hashtag#AI-experts che stanno incensando il nuovo arrivato mi sentirei di raccomandare la Calma Zen”. 

Probabilmente OpenAI ha modelli molto più performanti di quello che offre tramite App (anche se a pagamento), ma questo ostinarsi a rendere universale e consumer qualcosa che per sua natura è intrinsecamente specializzato e basato sul training di precisione, a tratti scade nell’impossibile e potrebbe presto anche stancare il pubblico, oltre che gli investitori. Il Prof Lecunn, tra gli altri, ha già evidenziato il problema di base che un LLM non può affrontare: “L’Intelligenza non è una grandezza scalare”. Per quanti miliardi si vogliano investire, per quanti miliardi di miliardi di token (parole) si vogliano usare in allenamento, per quanto se ne voglia parlare e scrivere, questa tecnologia non è “intelligente”.

Funziona benissimo se utilizzata per fare la differenza in tantissime attività umane e industriali, ma l’idea di conversare con un AI fa tornare alla mente l’automa “Eliza” di Weizenbaum del 1966, solo un po’ più spettacolare in demo, con la capacità di ripetere frasi più sofisticate, ma con lo stesso livello di “Intelligenza”. Vedremo il titolo nel Nasdaq nelle prossime settimane come si comporterà.