Da poco più di un mese l’organizzazione di ricerca sull’intelligenza artificiale OpenAI, fondata da Elon Musk e Sam Altman per creare tecnologia “amichevole” a beneficio dell’umanità, attualmente di proprietà di Microsoft, ha messo in rete gratuitamente una chatbot dal nome ChatGPT in grado di rispondere a domande su una vasta gamma di argomenti e dialogare in modo estremamente realistico con gli umani. Immediatamente cinque milioni di utenti si sono registrati nella nuova piattaforma in grado di scrivere lettere, articoli plausibili e fare ricerche in tutto il web. Ma è ben chiaro che dietro gli scopi filantropici di OpenAi si nasconde anche il bisogno di testare le innovazioni e di ricevere feedback dagli utenti.
L’intelligenza artificiale supporta l’uomo in attività che non siano intuitive o cognitive
Quello che occorre non scordare mai è che dentro ogni innovazione tecnologica si possono nascondere delle insidie, soprattutto se non se ne conoscono esattamente pro e contro, pregi e difetti. Nella fattispecie, bisogna aver chiaro che alla fine la macchina produrrà una risposta simile a quella di un bambino che abbia studiato a memoria. Una risposta nozionistica, generata dalla matematica, senza una minima attinenza con il razionale, con l’intuito, con la creatività di noi esseri umani. La stessa piattaforma in entrata avvisa che “può occasionalmente generare informazioni errate, può occasionalmente produrre istruzioni dannose o contenuti tendenziosi e ammette che la sua conoscenza del mondo è limitata agli eventi che sono accaduti solo dopo il 2021”. Ma per comprenderne appieno il senso occorre essere in possesso di una “cultura” dell’intelligenza artificiale che ancora non tutti abbiamo.
La tecnologia è una grande alleata, ma solo se la si conosce
“La risposta di ChatGPT, se presa male, senza considerare che è generata da una macchina, può avere anche effetti dannosi. Prendiamo, ad esempio una persona che abbia dei sintomi di una certa malattia e chieda a ChatGPT di formulare una sorta di diagnosi e immaginiamo che dall’altra parte non ci sia un medico, una persona che abbia studiato medicina, che possa interpretare questa diagnosi. Il quel caso ChatGPT utilizzerà i termini che noi abbiamo usato nel porre il quesito per descrivere la nostra malattia, per cercare, senza filtri, di capire attraverso Internet che cosa avevano persone che hanno detto cose simili e produrrebbe una risposta, ma non capirebbe minimamente che sta formulando una frase che potrebbe cambiare la vita di una persona né il contenuto della risposta stessa. Se noi gli chiedessimo dammi la ricetta per il pane o dimmi se ho un tumore per lui è la stessa cosa”, ha spiegato molto bene Nicola Grandis, Ceo di Ac27, ai microfoni del podcast “Corriere Daily”.
A rischio l’esercizio delle nostre facoltà espressive
Il filosofo Éric Sadin pone, poi, l’accento sull’importanza del nostro patrimonio linguistico che vede minacciato dai rigidi algoritmi che si nutrono di analisi statistiche e che “hanno come fonte soltanto registri già esistenti”. Niente a che vedere con “la nostra capacità di generare formule, in un rapporto col tempo che non è un mero attaccamento al passato ma una dinamica coniugata al presente e in costante divenire”. “Anziché domandarci ingenuamente – spiega il filosofo – se questi sistemi si sostituiranno presto a noi nella stesura di testi – segno di una nostra definitiva rinuncia all’uso della ragione – riusciamo a vedere quale modello di civiltà si sta sommessamente affermando? È un modello che deriva dalla trasformazione del nostro rapporto con la lingua e che vede intelligenze artificiali dette ‘generative’, dotate di eloquio e di espressioni in apparenza identiche alle nostre, a cui verrà progressivamente delegato il compito di gestire i rapporti interpersonali e molte delle nostre faccende quotidiane, conducendoci lungo una china che finirà per privarci di quella facoltà che determina il nostro diritto a pronunciarci in prima persona e a comportarci secondo il nostro giudizio all’interno di una società libera e plurale”.