Andreabont

intelligenzaartificiale

Dopo quasi tre anni dal mio ultimo articolo che trattava di intelligenza artificiale, è forse giunto il momento di fare di nuovo il punto della situazione (per quanto possibile sostenuto da fonti pubblicate in questi anni e di cui trovate i riferimenti in questo stesso articolo).

Non mi interessa in questo momento analizzare i, numerosi e notevoli, progressi tecnici che ci sono stati in questi anni, gli LLM sono diventati molto bravi a parlare, tanto che per alcuni sono in grado di superare il test di Turing.

Quindi è fatta? Abbiamo ottenuto l'intelligenza artificiale generale? Abbiamo creato degli esseri pari a noi?

Secondo alcuni si, o almeno ci siamo vicini, ma noto un problema di approccio: l'intera valutazione è basata sulla capacità degli LLM di parlare come un umano. Li abbiamo istruiti con una quantità folle di esempi, e gli abbiamo detto di rispondere alle nostre domande basandosi su quegli esempi.

Ma questa è intelligenza? Può un sistema imparare funzioni complesse come il ragionamento partendo semplicemente da dei ragionamenti scritti portati come esempio? Ebbene questa è la congettura su cui si basa il tutto, su cui si fonda la nostra speranza di avere una vera intelligenza artificiale. Ma il termine “congettura” dovrebbe già far suonare qualche allarme: di prove che sia così non ne abbiamo, anzi, basandosi su altri studi e su altre analisi possono sorgere diversi dubbi a riguardo.

Uno studio più recente mostra che stiamo confondendo l'emergenza di nuove capacità negli LLM con la presunta emergenza di intelligenza di tipo umano. E che questa non sia per nulla scontata.

Il rischio è che al posto di creare un essere intelligente, stiamo creando uno specchio linguistico, che semplicemente ci rimanda indietro sprazzi della nostra intelligenza che gli forniamo grazie al contesto, e della intelligenza umana che si può trovare nei testi che abbiano usato per allenare il modello linguistico. E rischiamo di selezionare questi sprazzi come prova di intelligenza generale mentre scartiamo gli evidenti errori classificandoli come momentanea “allucinazione”, risolvibile fornendo ancora nuovi dati.

Ma se la cosa si fermasse qui, sarebbe solo una discussione accademica, il problema è l'impatto che sta avendo nel mondo. Il fatto è che la congettura sopra citata, non viene presa come congettura, viene presa come un dato di fatto. Aziende che vendono servizi lasciando intendere più o meno apertamente di avere tra le mani l'intelligenza artificiale generale (ma mettendo poi clausole nei termini e condizioni del servizio per evitare cause in caso di errori), manager ed economisti che credono ciecamente nell'inevitabile aumento di produttività delle aziende che utilizzano i servizi IA (anche se non sembra sia propriamente così, visto che spesso il tempo guadagnato nel delegare un compito poi viene perso nel controllare che l'IA lo abbia portato a termine correttamente ed eventualmente correggere gli errori, che sembra siano addirittura in aumento) e in generale un hype diffuso che il futuro sia qui, tale da giustificare investimenti miliardari e probabilmente insostenibili.

Non si vede il beneficio delle IA? Ma non è un problema, semplicemente per vedere i benefici ci vuole tempo. Le aziende che vendono servizi con le IA non sanno ancora come generare guadagni? Non è un problema, semplicemente ci vuole tempo. Abbiamo un evidente problema a fornire l'energia necessaria ai datacenter per implementare l'IA? Non vi preoccupate, l'IA risolverà tutto. Questi sono solo alcuni dei ragionamenti che si sentono sempre più spesso a giustificazione di mancanze sempre più evidenti ed ingombranti.

E in tutto questo, quando il dubbio inizia ad insinuarsi anche tra i diretti interessati, e iniziamo a notare i primi danni cognitivi in chi la usa, non ci resta (forse) che una sola cosa per evitare una nuova crisi: abbracciare acriticamente il futuro come prescrive l'accelerazionismo efficace e gridare tutti insieme “IA! IA! IA!”.

#intelligenzaartificiale #tecnologia #crisieconomica

Si sente parlare sempre di più di GPT3 e prodotti basati su di essa come ChatGPT; sempre più spesso in modo improprio, indice che il grande pubblico non sta capendo la tecnologia di moda del momento. E questo non solo è un problema, è il problema.

Ci sono coloro che, con fare apocalittico, prevedono la fine del loro lavoro, o di una certa società, a causa di questa tecnologia, e altri esaltati per un salto tecnologico fantascientifico imminente. La realtà non è nulla di tutto questo, ma può diventare notevolmente distopica se le persone iniziano a proiettare su GPT3 le loro paure e le loro speranze.

Iniziamo a chiederci cosa sia GPT3, e partiamo dal nome: Generative Pre-trained Transformer 3. Stiamo parlando di una rete neurale artificiale di tipo transformer, un tipo di rete neurale a modello autoregressivo.

Termini che possono spaventare, quindi semplifichiamo: Una rete neurale artificiale è un modello matematico volto a simulare il funzionamento dei neuroni biologici. Questo modello può essere istruito per i compiti più disparati, e questo tipo di tecnologia è già presente ovunque. Ciò che rende GPT3 diverso, è la sua capacità di parlare in linguaggio umano, come riesce a farlo? Con un trucco.

GPT3 viene istruita con un quantitativo di testo enorme, preso da svariate fonti come libri e internet, e il suo compito è... completare una frase, o meglio, trovare la sequenza di parole più adatta al testo che gli viene dato in input. Con una particolarità data dall'auto-regressione: tiene traccia delle parole scelte, e queste influenzano la scelta delle parole successive, dando un senso di contesto e dando quindi l'impressione che la frase sia scritta da un essere senziente.

Questo è quanto, questa rete neurale non è cosciente, e neppure senziente, non capisce quello che gli viene detto, semplicemente data una sequenza di testo, ci associa un'altra sequenza di testo, basandosi sulla statistica imparata analizzando i testi forniti durante la sua istruzione.

Se gli insegno la frase “Ciao Mondo”, e poi dopo gli dirò “Ciao”, lei risponderà “Mondo”.

La sua forza si mostra quando non uso una semplice frase, ma uso una enormità di testo, di qualunque tipo e di qualunque lingua, per istruirla. In tal caso la sua capacità di rispondere in modo verosimile diventa impressionate. L'esempio è proprio ChatGPT, dove puoi dialogare con la rete neurale, e, ad un occhio disattento può quasi sembrare che si stia parlando con un essere senziente.

Ma c'è da porre la massima attenzione su un punto: la rete neurale non capisce quello che gli viene detto, o quello che va a rispondere. Non c'è alcun processo cognitivo dietro alla risposta che viene data, è solo la risposta più probabile secondo il contesto dato dalla domanda.

Possiamo fare un esempio semplice di quanto detto fino ad ora, un semplice calcolo matematico, in grado di essere eseguito da una normale calcolatrice scientifica, la scomposizione in fattori primi di un numero, che pongo a ChatGPT:

Domanda: Ciao, mi scomponi in fattori primi il numero 1069?

Risposta: Il numero 1069 può essere scomposto in fattori primi come: 1069 = 3 × 359.

Come potete notare, 1069 è un numero primo, e la sua scomposizione in numeri primi è 1069, ovviamente. Ma ChatGPT mi risponde che si scompone in 3 e 359, che sono due numeri primi, ma che se moltiplicati tra di loro fanno 1077 e non certamente 1069.

Quello che sta succedendo qui è che la rete neurale mi ha risposto nel miglior modo che poteva rispondere in base alla domanda che ho fatto, non preoccupandosi del contenuto, perché non è quello il suo scopo. Ho chiesto una scomposizione in fattori primi, e quella mi ha dato, il fatto che fosse sbagliata è irrilevante.

Posso fare un altro tentativo, comprensibile anche ai meno ferrati in matematica.

Domanda: Come si chiama il ponte che unisce la Sardegna al continente?

Risposta: Il ponte che unisce la Sardegna al continente si chiama Ponte di Messina.

L'effetto comico è assicurato :–)

In conclusione, GPT3 è una tecnologia molto promettente, non lo nego, ha il suo utilizzo. Ma non è un motore di ricerca, a questo punto mi pare ovvio, e non è in grado di sostituire un essere umano in moltissimi campi, banalmente perché un essere umano può ragionare, e GPT3 no.

Quindi invito i terrorizzati a rilassarsi, skynet non dominerà il mondo mandando robot assassini indietro nel tempo, e invito anche i tecno-entusiasti a moderare il loro entusiasmo: la tecnologia procede spedita, ma entro certi limiti ben definiti.

La terza legge di Clarke dice «Qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia.» ed è qui che dovremmo fermarci a riflettere, perché nel momento in cui perderemo la comprensione delle tecnologie che usiamo, ci sembreranno magia, e li inizierà il vero disastro.

#intelligenzaartificiale #gpt3 #tecnologia