IA! IA! IA!
Dopo quasi tre anni dal mio ultimo articolo che trattava di intelligenza artificiale, è forse giunto il momento di fare di nuovo il punto della situazione (per quanto possibile sostenuto da fonti pubblicate in questi anni e di cui trovate i riferimenti in questo stesso articolo).
Non mi interessa in questo momento analizzare i, numerosi e notevoli, progressi tecnici che ci sono stati in questi anni, gli LLM sono diventati molto bravi a parlare, tanto che per alcuni sono in grado di superare il test di Turing.
Quindi è fatta? Abbiamo ottenuto l'intelligenza artificiale generale? Abbiamo creato degli esseri pari a noi?
Secondo alcuni si, o almeno ci siamo vicini, ma noto un problema di approccio: l'intera valutazione è basata sulla capacità degli LLM di parlare come un umano. Li abbiamo istruiti con una quantità folle di esempi, e gli abbiamo detto di rispondere alle nostre domande basandosi su quegli esempi.
Ma questa è intelligenza? Può un sistema imparare funzioni complesse come il ragionamento partendo semplicemente da dei ragionamenti scritti portati come esempio? Ebbene questa è la congettura su cui si basa il tutto, su cui si fonda la nostra speranza di avere una vera intelligenza artificiale. Ma il termine “congettura” dovrebbe già far suonare qualche allarme: di prove che sia così non ne abbiamo, anzi, basandosi su altri studi e su altre analisi possono sorgere diversi dubbi a riguardo.
Uno studio più recente mostra che stiamo confondendo l'emergenza di nuove capacità negli LLM con la presunta emergenza di intelligenza di tipo umano. E che questa non sia per nulla scontata.
Il rischio è che al posto di creare un essere intelligente, stiamo creando uno specchio linguistico, che semplicemente ci rimanda indietro sprazzi della nostra intelligenza che gli forniamo grazie al contesto, e della intelligenza umana che si può trovare nei testi che abbiano usato per allenare il modello linguistico. E rischiamo di selezionare questi sprazzi come prova di intelligenza generale mentre scartiamo gli evidenti errori classificandoli come momentanea “allucinazione”, risolvibile fornendo ancora nuovi dati.
Ma se la cosa si fermasse qui, sarebbe solo una discussione accademica, il problema è l'impatto che sta avendo nel mondo. Il fatto è che la congettura sopra citata, non viene presa come congettura, viene presa come un dato di fatto. Aziende che vendono servizi lasciando intendere più o meno apertamente di avere tra le mani l'intelligenza artificiale generale (ma mettendo poi clausole nei termini e condizioni del servizio per evitare cause in caso di errori), manager ed economisti che credono ciecamente nell'inevitabile aumento di produttività delle aziende che utilizzano i servizi IA (anche se non sembra sia propriamente così, visto che spesso il tempo guadagnato nel delegare un compito poi viene perso nel controllare che l'IA lo abbia portato a termine correttamente ed eventualmente correggere gli errori, che sembra siano addirittura in aumento) e in generale un hype diffuso che il futuro sia qui, tale da giustificare investimenti miliardari e probabilmente insostenibili.
Non si vede il beneficio delle IA? Ma non è un problema, semplicemente per vedere i benefici ci vuole tempo. Le aziende che vendono servizi con le IA non sanno ancora come generare guadagni? Non è un problema, semplicemente ci vuole tempo. Abbiamo un evidente problema a fornire l'energia necessaria ai datacenter per implementare l'IA? Non vi preoccupate, l'IA risolverà tutto. Questi sono solo alcuni dei ragionamenti che si sentono sempre più spesso a giustificazione di mancanze sempre più evidenti ed ingombranti.
E in tutto questo, quando il dubbio inizia ad insinuarsi anche tra i diretti interessati, e iniziamo a notare i primi danni cognitivi in chi la usa, non ci resta (forse) che una sola cosa per evitare una nuova crisi: abbracciare acriticamente il futuro come prescrive l'accelerazionismo efficace e gridare tutti insieme “IA! IA! IA!”.