Il problema di GPT3

Si sente parlare sempre di più di GPT3 e prodotti basati su di essa come ChatGPT; sempre più spesso in modo improprio, indice che il grande pubblico non sta capendo la tecnologia di moda del momento. E questo non solo è un problema, è il problema.

Ci sono coloro che, con fare apocalittico, prevedono la fine del loro lavoro, o di una certa società, a causa di questa tecnologia, e altri esaltati per un salto tecnologico fantascientifico imminente. La realtà non è nulla di tutto questo, ma può diventare notevolmente distopica se le persone iniziano a proiettare su GPT3 le loro paure e le loro speranze.

Iniziamo a chiederci cosa sia GPT3, e partiamo dal nome: Generative Pre-trained Transformer 3. Stiamo parlando di una rete neurale artificiale di tipo transformer, un tipo di rete neurale a modello autoregressivo.

Termini che possono spaventare, quindi semplifichiamo: Una rete neurale artificiale è un modello matematico volto a simulare il funzionamento dei neuroni biologici. Questo modello può essere istruito per i compiti più disparati, e questo tipo di tecnologia è già presente ovunque. Ciò che rende GPT3 diverso, è la sua capacità di parlare in linguaggio umano, come riesce a farlo? Con un trucco.

GPT3 viene istruita con un quantitativo di testo enorme, preso da svariate fonti come libri e internet, e il suo compito è... completare una frase, o meglio, trovare la sequenza di parole più adatta al testo che gli viene dato in input. Con una particolarità data dall'auto-regressione: tiene traccia delle parole scelte, e queste influenzano la scelta delle parole successive, dando un senso di contesto e dando quindi l'impressione che la frase sia scritta da un essere senziente.

Questo è quanto, questa rete neurale non è cosciente, e neppure senziente, non capisce quello che gli viene detto, semplicemente data una sequenza di testo, ci associa un'altra sequenza di testo, basandosi sulla statistica imparata analizzando i testi forniti durante la sua istruzione.

Se gli insegno la frase “Ciao Mondo”, e poi dopo gli dirò “Ciao”, lei risponderà “Mondo”.

La sua forza si mostra quando non uso una semplice frase, ma uso una enormità di testo, di qualunque tipo e di qualunque lingua, per istruirla. In tal caso la sua capacità di rispondere in modo verosimile diventa impressionate. L'esempio è proprio ChatGPT, dove puoi dialogare con la rete neurale, e, ad un occhio disattento può quasi sembrare che si stia parlando con un essere senziente.

Ma c'è da porre la massima attenzione su un punto: la rete neurale non capisce quello che gli viene detto, o quello che va a rispondere. Non c'è alcun processo cognitivo dietro alla risposta che viene data, è solo la risposta più probabile secondo il contesto dato dalla domanda.

Possiamo fare un esempio semplice di quanto detto fino ad ora, un semplice calcolo matematico, in grado di essere eseguito da una normale calcolatrice scientifica, la scomposizione in fattori primi di un numero, che pongo a ChatGPT:

Domanda: Ciao, mi scomponi in fattori primi il numero 1069?

Risposta: Il numero 1069 può essere scomposto in fattori primi come: 1069 = 3 × 359.

Come potete notare, 1069 è un numero primo, e la sua scomposizione in numeri primi è 1069, ovviamente. Ma ChatGPT mi risponde che si scompone in 3 e 359, che sono due numeri primi, ma che se moltiplicati tra di loro fanno 1077 e non certamente 1069.

Quello che sta succedendo qui è che la rete neurale mi ha risposto nel miglior modo che poteva rispondere in base alla domanda che ho fatto, non preoccupandosi del contenuto, perché non è quello il suo scopo. Ho chiesto una scomposizione in fattori primi, e quella mi ha dato, il fatto che fosse sbagliata è irrilevante.

Posso fare un altro tentativo, comprensibile anche ai meno ferrati in matematica.

Domanda: Come si chiama il ponte che unisce la Sardegna al continente?

Risposta: Il ponte che unisce la Sardegna al continente si chiama Ponte di Messina.

L'effetto comico è assicurato :–)

In conclusione, GPT3 è una tecnologia molto promettente, non lo nego, ha il suo utilizzo. Ma non è un motore di ricerca, a questo punto mi pare ovvio, e non è in grado di sostituire un essere umano in moltissimi campi, banalmente perché un essere umano può ragionare, e GPT3 no.

Quindi invito i terrorizzati a rilassarsi, skynet non dominerà il mondo mandando robot assassini indietro nel tempo, e invito anche i tecno-entusiasti a moderare il loro entusiasmo: la tecnologia procede spedita, ma entro certi limiti ben definiti.

La terza legge di Clarke dice «Qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia.» ed è qui che dovremmo fermarci a riflettere, perché nel momento in cui perderemo la comprensione delle tecnologie che usiamo, ci sembreranno magia, e li inizierà il vero disastro.

#intelligenzaartificiale #gpt3 #tecnologia