<?xml version="1.0" encoding="UTF-8"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>crisieconomica &amp;mdash; Andreabont</title>
    <link>https://blog.andreabont.it/tag:crisieconomica</link>
    <description>Il Blog di Andreabont</description>
    <pubDate>Wed, 22 Apr 2026 11:00:59 +0000</pubDate>
    <item>
      <title>IA! IA! IA!</title>
      <link>https://blog.andreabont.it/ia-ia-ia</link>
      <description>&lt;![CDATA[Dopo quasi tre anni dal mio ultimo articolo che trattava di intelligenza artificiale, è forse giunto il momento di fare di nuovo il punto della situazione (per quanto possibile sostenuto da fonti pubblicate in questi anni e di cui trovate i riferimenti in questo stesso articolo).&#xA;&#xA;Non mi interessa in questo momento analizzare i, numerosi e notevoli, progressi tecnici che ci sono stati in questi anni, gli LLM sono diventati molto bravi a parlare, tanto che per alcuni sono in grado di superare il test di Turing.&#xA;&#xA;Quindi è fatta? Abbiamo ottenuto l&#39;intelligenza artificiale generale? Abbiamo creato degli esseri pari a noi?&#xA;&#xA;Secondo alcuni si, o almeno ci siamo vicini, ma noto un problema di approccio: l&#39;intera valutazione è basata sulla capacità degli LLM di parlare come un umano. Li abbiamo istruiti con una quantità folle di esempi, e gli abbiamo detto di rispondere alle nostre domande basandosi su quegli esempi.&#xA;&#xA;Ma questa è intelligenza? Può un sistema imparare funzioni complesse come il ragionamento partendo semplicemente da dei ragionamenti scritti portati come esempio? Ebbene questa è la congettura su cui si basa il tutto, su cui si fonda la nostra speranza di avere una vera intelligenza artificiale. Ma il termine &#34;congettura&#34; dovrebbe già far suonare qualche allarme: di prove che sia così non ne abbiamo, anzi, basandosi su altri studi e su altre analisi possono sorgere diversi dubbi a riguardo.&#xA;&#xA;Uno studio più recente mostra che stiamo confondendo l&#39;emergenza di nuove capacità negli LLM con la presunta emergenza di intelligenza di tipo umano. E che questa non sia per nulla scontata.&#xA;&#xA;Il rischio è che al posto di creare un essere intelligente, stiamo creando uno specchio linguistico, che semplicemente ci rimanda indietro sprazzi della nostra intelligenza che gli forniamo grazie al contesto, e della intelligenza umana che si può trovare nei testi che abbiano usato per allenare il modello linguistico. E rischiamo di selezionare questi sprazzi come prova di intelligenza generale mentre scartiamo gli evidenti errori classificandoli come momentanea &#34;allucinazione)&#34;, risolvibile fornendo ancora nuovi dati.&#xA;&#xA;Ma se la cosa si fermasse qui, sarebbe solo una discussione accademica, il problema è l&#39;impatto che sta avendo nel mondo. Il fatto è che la congettura sopra citata, non viene presa come congettura, viene presa come un dato di fatto. Aziende che vendono servizi lasciando intendere più o meno apertamente di avere tra le mani l&#39;intelligenza artificiale generale (ma mettendo poi clausole nei termini e condizioni del servizio per evitare cause in caso di errori), manager ed economisti che credono ciecamente nell&#39;inevitabile aumento di produttività delle aziende che utilizzano i servizi IA (anche se non sembra sia propriamente così, visto che spesso il tempo guadagnato nel delegare un compito poi viene perso nel controllare che l&#39;IA lo abbia portato a termine correttamente ed eventualmente correggere gli errori, che sembra siano addirittura in aumento) e in generale un hype diffuso che il futuro sia qui, tale da giustificare investimenti miliardari e probabilmente insostenibili.&#xA;&#xA;Non si vede il beneficio delle IA? Ma non è un problema, semplicemente per vedere i benefici ci vuole tempo. Le aziende che vendono servizi con le IA non sanno ancora come generare guadagni? Non è un problema, semplicemente ci vuole tempo. Abbiamo un evidente problema a fornire l&#39;energia necessaria ai datacenter per implementare l&#39;IA? Non vi preoccupate, l&#39;IA risolverà tutto. Questi sono solo alcuni dei ragionamenti che si sentono sempre più spesso a giustificazione di mancanze sempre più evidenti ed ingombranti.&#xA;&#xA;E in tutto questo, quando il dubbio inizia ad insinuarsi anche tra i diretti interessati, e iniziamo a notare i primi danni cognitivi in chi la usa, non ci resta (forse) che una sola cosa per evitare una nuova crisi: abbracciare acriticamente il futuro come prescrive l&#39;accelerazionismo efficace e gridare tutti insieme &#34;IA! IA! IA!&#34;.&#xA;&#xA;#intelligenzaartificiale #tecnologia #crisieconomica&#xA;&#xA;]]&gt;</description>
      <content:encoded><![CDATA[<p>Dopo quasi tre anni dal mio <a href="https://blog.andreabont.it/il-problema-di-gpt3">ultimo articolo</a> che trattava di intelligenza artificiale, è forse giunto il momento di fare di nuovo il punto della situazione (per quanto possibile sostenuto da fonti pubblicate in questi anni e di cui trovate i riferimenti in questo stesso articolo).</p>

<p>Non mi interessa in questo momento analizzare i, numerosi e notevoli, progressi tecnici che ci sono stati in questi anni, gli <a href="https://en.wikipedia.org/wiki/Large_language_model">LLM</a> sono diventati molto bravi a parlare, tanto che per alcuni sono in grado di <a href="https://arxiv.org/abs/2503.23674">superare il test di Turing</a>.</p>

<p>Quindi è fatta? Abbiamo ottenuto l&#39;<a href="https://en.wikipedia.org/wiki/Artificial_general_intelligence">intelligenza artificiale generale</a>? Abbiamo creato degli esseri pari a noi?</p>

<p><a href="https://arxiv.org/abs/2303.12712">Secondo alcuni si</a>, o almeno ci siamo vicini, ma noto un problema di approccio: l&#39;intera valutazione è basata sulla capacità degli LLM di parlare come un umano. Li abbiamo istruiti con una quantità folle di esempi, e gli abbiamo detto di rispondere alle nostre domande basandosi su quegli esempi.</p>

<p>Ma questa è intelligenza? Può un sistema imparare funzioni complesse come il ragionamento partendo semplicemente da dei ragionamenti scritti portati come esempio? Ebbene questa è la <strong>congettura</strong> su cui si basa il tutto, su cui si fonda la nostra speranza di avere una vera intelligenza artificiale. Ma il termine “congettura” dovrebbe già far suonare qualche allarme: di prove che sia così non ne abbiamo, anzi, basandosi <a href="https://arxiv.org/abs/2304.15004">su altri studi</a> e <a href="https://www.oecd.org/en/publications/introducing-the-oecd-ai-capability-indicators_be745f04-en/full-report/component-4.html#chapter-d1e230-f85c23a209">su altre analisi</a> possono sorgere diversi dubbi a riguardo.</p>

<p>Uno <a href="https://arxiv.org/abs/2506.11135">studio più recente</a> mostra che stiamo confondendo l&#39;emergenza di nuove capacità negli LLM con la presunta emergenza di intelligenza di tipo umano. E che questa non sia per nulla scontata.</p>

<p>Il rischio è che al posto di creare un essere intelligente, stiamo creando uno <strong>specchio linguistico</strong>, che semplicemente ci rimanda indietro sprazzi della nostra intelligenza che gli forniamo grazie al contesto, e della intelligenza umana che si può trovare nei testi che abbiano usato per allenare il modello linguistico. E rischiamo di selezionare questi sprazzi come prova di intelligenza generale mentre scartiamo gli evidenti errori classificandoli come momentanea “<a href="https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)">allucinazione</a>”, risolvibile fornendo ancora nuovi dati.</p>

<p>Ma se la cosa si fermasse qui, sarebbe solo una discussione accademica, il problema è l&#39;impatto che sta avendo nel mondo. Il fatto è che la congettura sopra citata, non viene presa come congettura, viene presa come un dato di fatto. Aziende che vendono servizi lasciando intendere più o meno apertamente di avere tra le mani l&#39;intelligenza artificiale generale (ma mettendo poi clausole nei <em>termini e condizioni</em> del servizio per evitare cause in caso di errori), manager ed economisti che credono ciecamente nell&#39;inevitabile aumento di produttività delle aziende che utilizzano i servizi IA (anche se <a href="https://www.forbes.com/sites/torconstantino/2024/09/12/77-of-surveyed-employees-say-ai-tools-make-them-less-productive/">non sembra sia propriamente così</a>, visto che spesso il tempo guadagnato nel delegare un compito poi viene perso nel controllare che l&#39;IA lo abbia portato a termine correttamente ed eventualmente correggere gli errori, che sembra siano addirittura <a href="https://www.newsguardtech.com/ai-monitor/august-2025-ai-false-claim-monitor/">in aumento</a>) e in generale un hype diffuso che il futuro sia qui, tale da giustificare <a href="https://scenarieconomici.it/la-bolla-dellia-non-e-il-2000-e-il-2008-debito-ombra-e-ingegneria-finanziaria-sono-la-vera-minaccia/">investimenti miliardari e probabilmente insostenibili</a>.</p>

<p>Non si vede il beneficio delle IA? Ma non è un problema, semplicemente per vedere i benefici <a href="https://mitsloan.mit.edu/ideas-made-to-matter/productivity-paradox-ai-adoption-manufacturing-firms">ci vuole tempo</a>. Le aziende che vendono servizi con le IA non sanno ancora come generare guadagni? Non è un problema, semplicemente <a href="https://fortune.com/2025/11/12/openai-cash-burn-rate-annual-losses-2028-profitable-2030-financial-documents/">ci vuole tempo</a>. Abbiamo un evidente problema a fornire l&#39;energia necessaria ai datacenter per implementare l&#39;IA? Non vi preoccupate, <a href="https://www.iea.org/reports/energy-and-ai/ai-for-energy-optimisation-and-innovation">l&#39;IA risolverà tutto</a>. Questi sono solo alcuni dei ragionamenti che si sentono sempre più spesso a giustificazione di mancanze sempre più evidenti ed ingombranti.</p>

<p>E in tutto questo, quando <a href="https://www.bbc.com/news/articles/cwy7vrd8k4eo">il dubbio inizia ad insinuarsi anche tra i diretti interessati</a>, e iniziamo a notare i primi <a href="https://arxiv.org/abs/2506.08872">danni cognitivi in chi la usa</a>, non ci resta (forse) che una sola cosa per evitare una nuova crisi: abbracciare acriticamente il futuro come prescrive <a href="https://en.wikipedia.org/wiki/Effective_accelerationism">l&#39;accelerazionismo efficace</a> e gridare tutti insieme “IA! IA! IA!”.</p>

<p><a href="https://blog.andreabont.it/tag:intelligenzaartificiale" class="hashtag"><span>#</span><span class="p-category">intelligenzaartificiale</span></a> <a href="https://blog.andreabont.it/tag:tecnologia" class="hashtag"><span>#</span><span class="p-category">tecnologia</span></a> <a href="https://blog.andreabont.it/tag:crisieconomica" class="hashtag"><span>#</span><span class="p-category">crisieconomica</span></a></p>
]]></content:encoded>
      <guid>https://blog.andreabont.it/ia-ia-ia</guid>
      <pubDate>Sat, 15 Nov 2025 07:24:36 +0000</pubDate>
    </item>
  </channel>
</rss>