L'oracolo dell'AI: promesse, illusioni e realtà
I fraintendimenti sull'AI mostrano che il problema non è la risposta, ma la domanda.
Chi lavora nel mio settore è ormai abituato al fatto che ciclicamente alcune tecnologie finiscono "in trend", diventando estremamente popolari tra ingegneri, manager e addetti ai lavori in generale. A volte, queste tecnologie finiscono per superare i confini del mondo tecnico e arrivano sulla stampa generalista.
In pratica funziona un po’ come su Twitter (pardon, X): qualcosa diventa virale, si crea entusiasmo, tutti ne parlano, e per non rimanere tagliato fuori, sei costretto a parlarne anche tu.
Potreste pensare che sia un fenomeno limitato ai social media, ma posso assicurarvi, dall’esperienza accumulata in questa disgraziata professione (cit.), che anche nelle aziende succede la stessa cosa.
In questo report di McKinsey, che vi invito a consultare velocemente se volete avere una buona panoramica, si nota che tantissime buzzword attorno al tema della “AI” sono in fortissima crescita.
È aumentata la domanda di personale formato in "AI", e in generale, tra "Applied AI" e "Generative AI", il volume degli investimenti supera i 100 miliardi di dollari.
Stando al Gartner Hype Cycle, questa fase corrisponde a quella della corsa verso il “Peak of Inflated Expectations” e cioè un aumento rapidissimo delle aspettative su quella tecnologia, a cui si affianca tipicamente un aumento degli investitori alla ricerca della famosa gallina dalle uova d’oro. Tutti parlano di quella tecnologia, ieri era l’Internet of things, oggi è l’Artificial Intelligence e siccome tutti ne parlano come di qualcosa di rivoluzionario, allora deve esserlo! Dovrei assolutamente investirci tutti i miei soldi, basarci tutta la mia carriera… insomma avete capito dove voglio andare a parare.
Una specie di Fear of missing out, ma per aziende e professionisti.
Ci sono state delle critiche al Gartner Hype Cycle (una abbastanza ben fatta la trovate qui) che, guardando in retrospettiva, hanno notato che non sempre questo modello è veritiero e che alcune importanti tecnologie siano sfuggite ai “radar” di questo ciclo, presentando una variazione di aspettative molto diversa.
E forse questo è proprio parte del punto.
Che i mercati finanziari si muovano secondo le aspettative, più che secondo la realtà, è cosa nota: il prezzo incorpora tutta una serie di aspettative su un titolo, o un’azienda, non riflette necessariamente il valore reale - qualunque cosa questo voglia dire - di quell’azienda. Ciò che si prezza è il valore atteso di quell’azienda. Amazon riuscirà a guadagnare la sottoscrizione a servizi dalla sua ampia offerta di domotica riuscendo finalmente a farci soldi? Nvidia sarà veramente l’acceleratore delle tecnologie di AI (sigh)? Meta riuscirà a diffondere la sua idea di Metaverso (doppio sigh)?
Il mare di soldi che finiscono in queste azioni varia a seconda dell’aspettativa che si ha. L’entusiasmo porta fiducia, la quale porta più soldi, che portano più investimenti, che danno più entusiasmo e così via.
Finché dura.
Questa sorta di allucinazione collettiva può avere - e spesso ha - degli effetti positivi, e credo sia un riflesso della natura umana spontaneamente votata all’ottimismo.
E se questo è vero nei mercati finanziari, di riflesso è vero anche nelle tecnologie.
L’hype sempre crescente nei confronti dell’AI finisce per generare sempre più investimenti, a volte anche aggressivi, e sempre più attenzione.
Nascono carriere come i Prompt Engineers, si diffonde il panico per cui l’AI rimpiazzerà tutti i lavori e che quindi sarebbe urgentissimo iniziare a pensare ad un UBI (Universal Basic Income), la terra promessa di chi aspetta di poter stare a pancia all’aria tutta la vita nutrito, servito e riverito da robot intelligenti: insomma si esce dai confini della tecnologia in sé e si entra nel mondo delle aspettative.
Cito l’AI perché mi sembra che sia il trend che più di ogni altri abbia invaso il pubblico generalista. Commentatori, politici, appassionati, futurologi: chiunque ci tiene a farci sapere quanto il mondo con l’AI cambierà.
E se questo va bene, perché come dicevo altrove tutti devono farsi una propria opinione, anche chi non è del settore, è importante però che queste opinioni partano da delle premesse corrette.
Da una corretta comprensione di ciò che oggi è una intelligenza artificiale generativa, di come funziona, di quali sono i suoi limiti e del motivo per cui possiamo usarla.
Sgombriamo subito il campo da un fraintendimento: l’AI non è una testa pensante artificiale, è un nome di marketing dato a tecniche e obiettivi diversissimi, realizzati tramite complessi metodi statistici.
L'intelligenza artificiale è un campo generale dell'informatica che mira a creare sistemi in grado di svolgere compiti che richiederebbero intelligenza umana.
Gli obiettivi di questo scopo comune sono diversissimi perché possono andare dall’individuazione di pattern - cioè di sequenze ripetute - all’interno di alcuni dati, dai quali trarre informazioni utili, alla generazione di contenuti a partire da dei modelli linguistici (Come è ad esempio il caso delle LLM - Large Language Model - tipo ChatGPT).
Sono cose molto diverse, anche se spesso si basano sulle stesse tecnologie come il Deep Learning, ovvero l’utilizzo di vari livelli di reti neurali addestrate su dati pre-esistenti, per scomporre un input e suggerire una soluzione che potrebbe sfuggire ad un “occhio” umano.
Per stringere e semplificare moltissimo.
Questa cosa di per sé è potentissima, non è questo certo il fraintendimento.
Ad esempio, riuscire a riconoscere dall’analisi automatica di immagini diagnostiche l’insorgenza di un tumore, è un grande vantaggio che può impattare la vita di milioni di persone.
Il punto è che non è tutto AI, ciò che è scritto in Python, per prendere spunto da una nota battuta che gira nel mio settore.

In preda all’hype, ci avviciniamo a ogni tecnologia con l'assunto di aver trovato l'oracolo pronto a risolvere tutti i nostri problemi.
Utilizziamo ChatGPT, Gemini e tutti questi generatori basati su LLM come fossero antichi oracoli a cui chiedere la risposta a qualsiasi domanda.
Questo è il grande fraintendimento: questa tecnologia non serve a questo.
Serve a produrre contenuti - testuali o visivi - a partire da un input scritto in linguaggio più o meno naturale. Punto.
Che è già tantissimo, eh? Pensate a quante opportunità si possono sbloccare potendo dare vita a immagini o video partendo da una descrizione.
Pensate a quante cose si possono automatizzare, usando un LLM come una sorta di copywriter personale.
Io stesso utilizzo spesso queste tecnologie per la correzione di bozze, aggiustamenti linguistici di testi, ecc., perché è per questo che sono state create.
Dato un set di training che insegna il modo in cui è più frequente che a una certa sequenza di input segua un certo output, con una certa probabilità, un LLM produrrà il contenuto che ritiene più adatto a ciò che gli viene chiesto.
Ma un LLM non è un oracolo. Anzi, tutto ciò che produce non è detto che sia fattuale o provato. È solo la cosa più probabile che segue la vostra richiesta, messa insieme come una sequenza di parole pescate da quelle più probabili in quel contesto.
Se chiedete a ChatGPT cos'è una caramella, vi risponderà in base al testo che più frequentemente è apparso durante il training in riferimento a quella parola.
Questo è probabile che vi dia una risposta corretta, ma è importante riconoscere una sottile differenza: ChatGPT non sa cosa sia una caramella, non ha un modello di cosa sia una caramella. Sa solo che quando gli chiedete di una caramella, c'è una certa probabilità, basata sui contesti in cui ha visto la parola "caramella", che vogliate sapere determinate cose. E in base a questo risponde con il suo output.
In questa sottile differenza si annida il fraintendimento che fa sproloquiare i politici, confonde e spaventa il pubblico generalista e, in parte, muove tantissimi soldi.
Anche tra moltissimi miei conoscenti si è diffuso l'utilizzo di ChatGPT come una specie di oracolo a cui chiedere di tutto. Questo è un utilizzo improprio - e per certi versi anche pericoloso.
Sicuramente un'intelligenza artificiale generativa può aiutare in certi tipi di professioni, e sono certo che alla lunga alcune potranno anche scomparire del tutto: penso al mondo del copywriting, della correzione di bozze, della scrittura di contenuti a basso valore aggiunto, forse persino alla traduzione tout court.
Ma è importante gestire bene le aspettative, proprio per utilizzare questi strumenti e queste tecnologie al meglio.
Nessuna AI Generativa potrà mai darci le risposte alle domande che come esseri umani più spesso ci facciamo con sicurezza assoluta, come il significato della vita o cosa è giusto o non giusto fare in una certa situazione.
Queste insicurezze ce le portiamo dentro da quando abbiamo iniziato a pensare, così come il desiderio di un oracolo capace di darci una risposta che ci doni la pace. Questo “qualcosa” è personale, ma che sia dio, un lavoro, una famiglia, o un oracolo tecnologico, la ricerca di senso non avrà mai fine.
Siamo nati col dubbio, e probabilmente ce lo terremo per tutta la nostra esistenza come specie.

Questa discrepanza di aspettative sulle AI, invece, avrà una fine.
Visti i costi e il pochissimo ritorno economico fino ad ora, il tutto si regge sull’aspettativa che ad un certo punto gli investitori potranno passare alla cassa. Le promesse di guadagno sono alte e anche se fino ad ora quasi nessuno sta facendo profitti dalle AI, gli investitori sembrano fiduciosi che prima o poi questi soldi arriveranno.
Non sono dubbioso sul fatto che si faranno dei soldi con l’AI, nell’accezione più generalista del termine, anche perché si stanno già facendo, ma credo che se ne faranno molti meno di quanto l’investitore medio ha incorporato nelle sue aspettative.
Questo causerà un rallentamento della corsa all’AI, che verrà puntualmente sostituita da nuove buzzword in cui cercare l’Eldorado.
E inizierà un altro ciclo.
Quello di cui sono preoccupato è la terra bruciata intellettuale che il fallimento dell’AI come oracolo lascerà dietro di sé.
Cosa ne sarà delle mirabolanti promesse di un futuro ai limiti del distopico che futurologi e politici si stanno sbracciando per propagandare?
Come reagiranno centinaia di migliaia di giovani che oggi usano ChatGPT in modo sbagliato, delegandogli tutto il ragionamento critico?
Un'aspettativa errata di questo tipo, se non siamo pronti a livello educativo e sociale, può generare una generazione di persone abituata a utilizzare uno strumento inadeguato e a commentare un risultato frutto di quello strumento, necessariamente sbagliato.
Un po’ come cercare di rispondere a un tema usando una calcolatrice.
Saremo pieni di persone che risponderanno "42" alla domanda fondamentale sulla vita, l'universo e tutto quanto.

Come rimediare?
Intanto, facendo utilizzare questi strumenti nel modo appropriato e non proibendoli. Le intelligenze artificiali generative possono essere un grande strumento per l’analisi sintattica, ad esempio, e in generale per migliorare la nostra produzione di linguaggio. Proibirne l’utilizzo in contesti educativi è miope e poco lungimirante.
Ovviamente, è necessario formare il personale educativo di base all’interazione con queste tecnologie, spiegando loro le opportunità e i limiti che possono incontrare. Se sono gli insegnanti i primi a credere a tutto quello che esce da ChatGPT, allora il problema sarà ancora più grande.
Ultimo, ma non meno importante, studiare le basi di ogni nuova tecnologia che ci arriva sul tavolo. Anche sapere a grandi linee come funziona un oggetto che usiamo tutti i giorni può fare la differenza.
Viviamo in un mondo in cui ogni cosa che ci circonda si appoggia a decine, a volte centinaia, di tecnologie di base che ci sono del tutto sconosciute e che utilizziamo in forma oracolare.
Non c’è bisogno di conoscere tutti i fenomeni fisici a livello atomico di ogni cosa che abbiamo in stanza, ma sapere più o meno come funziona un oggetto può spalancarci le porte del pensiero critico di base, che può farci da scudo quando qualcuno vuole spacciarci quell’oggetto per qualcosa che non è.
Sapendo come funziona una forchetta, difficilmente prenderete sul serio qualcuno che vuole convincervi che ci si può bere il brodo, no?
Si ringrazia ChatGPT per la correzione di bozze.