Ingegner Grandis, partiamo da una definizione di intelligenza artificiale.
L’intelligenza artificiale è una tecnologia che, utilizzando la matematica e i modelli matematici della realtà, esprime proprie interpretazioni e può anche innescare delle azioni. In altri termini, l’intelligenza artificiale è una tecnica matematica applicata alle informazioni intorno a noi. Ci consente di analizzare la nostra realtà e di prendere decisioni molto veloci e asettiche.
In che cosa differisce dall’intelligenza umana?
Sono due cose completamente distinte. In comune hanno solo la parola intelligenza, che in realtà ha origini più storiche che significative.
Quindi l’intelligenza artificiale non potrà mai raggiungere i livelli dell’intelligenza umana?
Il discorso è complesso. Intanto di intelligenza artificiale non esiste un unico tipo e un unico modello. L’intelligenza artificiale comunemente utilizzata, che vediamo tutti i giorni senza neanche accorgercene, è un tipo di intelligenza artificiale “data driven”, quindi creata e fondata sui dati. La nostra intelligenza, quella umana, è, invece, una intelligenza molto più simbolica. Noi ragioniamo in termini astratti. Esistono studi sull’intelligenza artificiale simbolica, sono anche molto promettenti, ma quella che attualmente utilizziamo è lontanissima da quel modello e, proprio per le sue basi, non potrà mai replicare in nessun modo l’intelligenza umana.
L’uomo insegna alla macchina, ma la macchina può insegnare anche all’uomo?
Sì, lo può fare, facendogli notare delle anomalie nei dati e in particolari sequenze ricorrenti.
Che cosa l’uomo sta chiedendo all’intelligenza artificiale?
Noi di Asc27utilizziamo l’intelligenza artificiale, per esempio, applicata al mondo dell’insegnamento e del training, per dare dei suggerimenti agli insegnanti. Immagini un insegnante che non ha il polso della classe e non ha feeling con gli studenti. In quel caso cerchiamo di aiutare l’insegnante fornendogli dei suggerimenti del tipo “rallenta”, perché se si parla troppo in fretta la classe si distrae, oppure “fai una battuta”, “guarda le persone”. Si, in determinati casi molto specifici l’intelligenza artificiale può anche insegnare all’uomo. La validità di un algoritmo di intelligenza artificiale può dipendere molto dalla esattezza dei dati che sono stati forniti da chi li ha inseriti.
Ecco, come si fa a essere sicuri di aver messo tutti i dati rilevanti, chi è che giudica?
C’è una grande discussione su questo tema. Passa sotto vari nomi, il più comune è quello del “trustworthy AI”, un’intelligenza artificiale in cui abbiamo fiducia. Diciamo che esistono delle best practice, delle policy che le aziende stanno trasmettendo a chi si occupa di intelligenza artificiale. Ovviamente non ci può essere una certezza sull’effettiva correttezza, dovremmo quasi dire sull’etica di quello che stiamo realizzando.
Ecco, vorrei proprio parlare di etica adesso. È uno dei temi cruciali di cui si è discusso, tra l’altro, in un recente convegno promosso proprio dalla sua società. Un robot che rispetta principi etici mi sembra una contraddizione in termini, perché l’etica si basa su una scelta. Il robot non ha tante possibilità di scegliere, soprattutto tra bene e male, giusto?
Io la penso come lei. Proprio nel corso del convegno, un grandissimo studioso di etica, il professor Paolo Benanti, ne ha dato una bella definizione, una definizione del Novecento che fornì John Fletcher Moulton, matematico e politico, direttore del dipartimento esplosivi inglesi durante la Prima Guerra Mondiale, il quale la definì “the obedience to the unforceable”. Tradotto in italiano corrisponderebbe a qualcosa del tipo: obbedienza all’inesigibile, all’incoercibile, in contraddizione con il concetto di legalità che si contraddistingue per l’obbedienza all’esigibile. Una scelta etica non è dettata dalla legge o da un obbligo, è una nostra opzione, una nostra discrezionalità. L’attuale intelligenza artificiale, invece, è una funzione matematica che opera su una trasformazione a sua volta matematica della realtà, quindi ovviamente qui non c’è nessuno spazio per l’etica. Il robot attuale non può operare nessuna opzione etica.
Quindi servono delle regole, non tanto per il robot quanto per chi li programma, altrimenti si rischia una sorta di far west in cui gli algoritmi prendono delle decisioni sulla base di dati inseriti da umani che, però, possono essere molto disumane.
Si questo è vero, il rischio esiste, ma è sempre esistito, a prescindere dall’intelligenza artificiale. Per esempio, la decisione di concedere un mutuo a una persona oppure no da parte di una banca probabilmente oggi viene presa dall’algoritmo che impiega l’intelligenza artificiale sulla base di parametri oggettivi (ha un lavoro, ha una famiglia, etc.). Ma qualunque banca, che abbia 2 milioni di richieste di mutuo nello stesso giorno, ha poche opzioni sia che voglia utilizzare l’intelligenza artificiale sia che voglia utilizzare un algoritmo classico. C’è molto chiacchiericcio sulla materia. Le regole servono, ma, secondo me, servono a prescindere dall’intelligenza artificiale. Non c’è nessuna bestia nera, nessun diavolo nascosto in questa tecnologia rispetto agli altri algoritmi.
Secondo lei la Commissione europea riuscirà a produrre una serie di norme in questo senso, che possano quantomeno fissare dei principi di comportamento per evitare, per esempio, che un meccanismo di intelligenza artificiale applicato al sistema militare possa decidere chi è il cattivo da colpire o il buono da non colpire, magari sbagliando o l’uno o l’altro?
Adesso è in discussione un documento, l’Artificial Intelligence Act europeo, che per ora è solo una proposta, poi dovrà essere votata, ma già sono stati presentati migliaia di emendamenti. Va chiarito che queste insieme di regole non si applicheranno né alla sicurezza nazionale né al mondo militare. E c’è un motivo. Tutti abbiamo sotto gli occhi cosa sta succedendo qui vicino, tra Russia e Ucraina. Se noi ci dovessimo difendere da qualcuno che utilizza droni con intelligenza artificiale, la nostra scelta non potrebbe essere diversa da quella di chi ci attacca. Questa è una cosa che mi piacerebbe chiarire molto bene: ai temi della sicurezza nazionale, militari e strategici non si applica l’AI Act o, comunque, le regole di cui si sta discutendo adesso in Commissione europea.
Ma si arriverà comunque a una standardizzazione?
Si, l’Europa secondo me riuscirà a fissare regole basate su principi etico-morali, magari anche diversi, un po’ controcorrente, rispetto a ciò che viene fatto nel resto del mondo. Io, però, la vedo positivamente perché pare che negli ultimi 4/5000 anni la civiltà l’abbiamo portata abbastanza avanti noi, anche se sul piano economico o finanziario non sempre siamo stati i numeri uno. Credo che le scelte etico morali che noi facciamo in Europa, quelle che guideranno anche la Commissione che è fatta di persone come noi, nel medio lungo termine ci pagheranno e si concentreranno sul fare in modo che l’intelligenza artificiale non vada a violare dei diritti dei singoli, dei cittadini intesi come persone. Quindi, per esempio, il sistema che c’è in Cina, per cui se una persona attraversa con un semaforo rosso gli arriva subito un messaggio sullo smartwatch che gli dice hai perso tre punti e hai preso una multa, ecco, questa cosa in Europa la eviteremo, ne sono quasi sicuro.
Secondo lei si può prevedere un diritto all’intelligenza artificiale? Cioè, oltre a prevedere i rischi, si può stabilire il principio che ogni cittadino ha diritto a utilizzare l’intelligenza artificiale? Avvicinare un po’ questo mondo alla quotidianità, mettere a disposizione di tutti strumenti accessibili, non esattamente tecnici e costosi?
Io credo di sì. Noi stiamo ragionando con una struttura salesiana per introdurre una sorta di formazione Stem “avanzata”, che riguardi l’intelligenza artificiale e consenta a dei ragazzi, che magari vivono in aree disagiate, di prendere contatto con questa materia, in età adolescenziale, in modo che possano capire se effettivamente potrà rappresentare per loro una strada. Quindi, in teoria dal punto di vista personale io ci conto che questo diventi un diritto, esteso anche alle scuole. E questo non vale solo per l’intelligenza artificiale, ma per tutte le nuove tecniche e tecnologie che stiamo “portando a terra” direttamente dalla ricerca scientifica.
La sua società è una start up innovativa, molto dinamica. Ci può dire, per quello che è possibile, in quali settori siete un po’ più all’avanguardia di altri?
Noi operiamo nell’ambito della sicurezza nazionale, della cyber difesa e del cyber attacco. Lavoriamo nell’ambito dell’intelligenza artificiale e lo facciamo per grandi gruppi, grandi aziende non solo italiane, anche di respiro europeo o internazionale. Siamo una piccola azienda, però siamo molto focalizzati: il nostro lavoro è quello di portare intelligenza artificiale altamente specializzata in settori chiave e settori di nicchia.
Considerato che noi siamo come altri Paesi vittime, diciamo quasi quotidianamente, di attacchi di una guerra informatica, dal punto di vista della sicurezza nazionale siamo ben attrezzati per fronteggiarli, anche grazie all’intelligenza artificiale?
Sì, io direi di sì. Lei parla del nuovo concetto di guerra ibrida, teorizzato peraltro in modo quasi un po’ ironico da un russo. Ma sì, siamo attrezzati. In un convegno recente che si è tenuto a Venezia c’è stato un intervento molto interessante di un esperto di temi strategici. Ci ha parlato di un concetto che mi ha fatto molto riflettere. Lui faceva l’esempio dello Zambia, che non si può costruire una portaerei perché non ha le risorse per poterlo fare, ma può sferrare un attacco cyber all’Uganda che gli sta a fianco. Quello che è cambiato è che, mentre prima, fino a 20 o 30 anni fa, noi ci dovevamo difendere da alcuni attori, anche abbastanza ben identificati, ora con la cyber la capacità di attacco si è “democratizzata”. Oggi probabilmente ci dobbiamo difendere da migliaia di attori diversi che talvolta possono essere anche gruppi di ragazzi, bande criminali cyber, che decidono di fare questo per soldi. Come nel famoso caso del riscatto chiesto alla Regione Lazio. In Italia sì, direi che ci stiamo attrezzando.
Siamo pronti o ci stiamo attrezzando?
Probabilmente ci sono due velocità diverse o anche tre. Una, come dire, quella pratica- operativa, dove siamo sicuramente molto ben messi. Poi c’è una parte pubblica, politica, sociale, dove ci stiamo lavorando adesso con la Commissione del professor Baldoni. E poi probabilmente ce n’è una intermedia, che è fatta dall’insieme di tutte le aziende che offrono servizi a questo nuovo settore. E anche qui non siamo messi malissimo, anche se purtroppo scontiamo il fatto di non avere i finanziamenti sui cui possono contare le imprese negli altri Stati. Un’azienda di cyber israeliana, cinese o americana possono contare su finanziamenti statali di bilioni di dollari. Noi in Italia facciamo fatica a prendere un finanziamento da 10.000 euro.
È una questione di scarsità di risorse messe a disposizione dal Governo e di procedure burocratiche lunghe? Avete una associazione che rappresenta questi interessi presso le istituzioni?
Io credo che la differenza sia dovuta proprio alla strategia politica. Tra gli Stati che citavo prima sappiamo tutti che gli Stati Uniti riservano alla difesa circa il 13% del loro Pil. Noi forse non arriviamo nemmeno all’1%. Noi abbiamo più welfare, ad esempio, rispetto a loro. Utilizziamo il bilancio statale in altro modo, a volte anche male. E, quindi, credo che queste differenze siano differenze di assetto strategico. Non è tanto un problema di procedure o di burocrazia. È una differenza così grande che è una differenza di indirizzo.
Al Governo servirebbe una sorta di intelligenza artificiale per spiegargli quali sono le scelte che dovrebbe fare in questo settore?
Credo si tratti di una questione di mentalità. Probabilmente se ci fosse un referendum, noi italiani non vorremmo che il 10% del nostro Pil fosse destinato alla difesa, ma preferiremmo continuare ad avere le medicine col solo ticket. In qualche modo bisogna scegliere, però noi aziende italiane nella cyber questa differenza pesante l’avvertiamo. Ma, come già successo anche in passato, poi arriva quella scintilla, quel guizzo di ingegno degli italiani, che permette lo stesso alle aziende di riuscire comunque a farsi notare e a portare soluzioni sul mercato talvolta anche uniche.
Un’ultima domanda, ingegner Grandis, ma per lavorare nel settore dell’intelligenza artificiale bisogna essere necessariamente informatici o si può essere creativi, filosofi, pittori e artisti? Cioè, serve solo una competenza informatica o serve anche una capacità di volare alto?
Da noi è necessaria, direi una competenza multidisciplinare. Per esempio, abbiamo un nostro prodotto che si chiama Asimov, tra l’altro creato per la stampa. Uno dei principali data scientist che ci lavora è un ragazzo che si è laureato in filosofia e poi ha fatto un corso di intelligenza artificiale e questo devo dire, lo aiuta anche molto nell’addestramento del sistema Asimov, nel capirne i limiti e le potenzialità. Potrei fare molti altri esempi perché una visione multidisciplinare aiuta meglio a comprendere la realtà, a tradurla in matematica per la macchina.