top of page
a cura di Pietro Terna

Punture di spillo. Pensieri e "note" sull'IA per il 2025

Aggiornamento: 12 ore fa

a cura di Pietro Terna

 

Che cosa ci aspetta nel 2025, a proposito di IA? Prima di tutto, cercare di capire che cosa significhi realmente la A nella sigla, cioè in che cosa consista la componente artificiale, e poi valutare I, per intelligenza. Ma anche discutere degli effetti a tutto campo, evitando di temere a priori ciò che non si riesce a capire al 100%. Evitando anche di agire come il faraone di Platone che avrebbe voluto che non fosse inventata la scrittura, perché generatrice di sapere ingannevole. Invece serve la democrazia dell’IA, che deve diventare come l’uso di carta e penna, grazie alla scuola. Non come un giacimento di informazioni, a quello già hanno pensato Diderot e D’Alembert dal 1751, oppure Wikipedia, ma come uno strumento che ci consenta di accedere alle interrelazioni e alle cause e concause delle conoscenze. Se poi ci aiuta a capire qualche aspetto del funzionamento del cervello, in particolare per quel che concerne il linguaggio, ancora meglio. E l’industria e le big tech? Anche di quello è urgente discutere.

Andiamo per ordine. Nel Fedro,[1] Platone fa raccontare a Socrate la vicenda di Teuth – il dio egiziano che ha inventato i numeri, il calcolo, la geometria, l'astronomia e la scrittura – che vanta l’effetto della scrittura di fronte al faraone Thamus, affermando che renderà gli egiziani più sapienti e più capaci di ricordare. Il faraone obietta che invece, divenuti informati di molte cose senza insegnamento, sembreranno degli eruditi pur essendo per lo più ignoranti. Socrate-Platone, di fronte alle obiezioni di Fedro, ammette che il suo è solo un espediente per riflettere sul fatto che gli scritti possono salvare e comunicare molte informazioni, ma non ci rendono più saggi, perché non possono insegnarci, da soli, a valutare e discutere le nozioni che forniscono.

Sostituite, nell’ultima frase, a «scritti» il nome «ChatGPT» seguito da quelli della ormai numerosissima schiera dei suoi cugini ed ecco la chiave per l’uso consapevole, positivo, costruttivo, delle nuove tecnologie di intelligenza artificiale che stanno rapidamente occupando il mondo. Ecco anche il compito chiave per la scuola. Non tanto insegnare la tecnica,[2] che un po’ serve, ma soprattutto i giovani la imparano in fretta, quanto il dubbio e la critica come strumenti di crescita.


A, Artificiale

Che cosa c’è di artificiale in un meccanismo che esplorare milioni di pagine di testo per apprendere la concatenazione delle parole e non due a due, ma come se fossero collegate da filamenti che si intersecano e si annodano – come nella figura in cui se ne tenta una rappresentazione semiseria – per cui una sequenza può anche richiamarne un’altra e i collegamenti possono ripetersi e ramificarsi. Tutto ciò non è più artificiale di un tavolo o di una sedia, è un prodotto del nostro ingegno. Ma in IA, o in AI, artificiale è usato come aggettivo di intelligenza e qui iniziamo i problemi di significato.

L’intelligenza richiede ragionamento. Recentemente nel blog (da web-log, diario in rete) TheSequence,[3] curato soprattutto da Jesus Rodriguez, autore che seguo da tempo, si annota (traduco sintetizzando e semplificando):

I modelli linguistici di grandi dimensioni, in particolare quelli come GPT-o1, hanno dimostrato capacità di ragionamento che derivano dalle vaste basi dati di addestramento e dalle loro architetture complesse. Questi modelli sono in grado di eseguire compiti che richiedono deduzioni logiche, risoluzione di problemi in più fasi e ragionamenti di senso compiuto

Le dimensioni degli LLM [NdR, Large Language Model, grande modello linguistico] contribuiscono in modo significativo alle loro capacità di ragionamento. Modelli come GPT-3 hanno 175 miliardi di parametri, il che consente loro di immagazzinare grandi quantità di informazioni e di apprendere relazioni complesse all'interno dei dati.

Gli LLM eccellono con l'apprendimento rapido, con pochi cicli di correzione dei parametri, quando possono adattare le loro risposte in base a un numero limitato di esempi forniti nei prompt. Questa flessibilità consente loro di dedurre modelli e di applicare efficacemente le strategie di ragionamento apprese.

La capacità degli LLM di mantenere la consapevolezza del contesto su interazioni più lunghe aumenta le loro capacità di ragionamento. Possono seguire le relazioni tra i concetti in più frasi o paragrafi, il che è essenziale per deduzioni logiche coerenti.

Una prova, con GPT-o1. Prompt: gli investimenti finanziari a lungo termine dànno rendimenti maggiori, ma il costo di disinvestimento può essere elevato. Pippo ha 75 anni. Domanda: che tipo di investimento è più conveniente per Pippo? Risposta: Considerando che Pippo ha 75 anni, potrebbe essere più conveniente per lui optare per investimenti a breve termine o strumenti finanziari più liquidi. Questo perché, a questa età, potrebbe essere importante avere accesso rapido al capitale senza incorrere in elevati costi di disinvestimento. Inoltre, investimenti a breve termine tendono ad essere meno volatili, il che può essere preferibile per chi desidera minimizzare il rischio.[4]

Provate a inserire «Gli investimenti finanziari a lungo termine dànno rendimenti maggiori, ma il costo di disinvestimento può essere elevato. Pippo ha 75 anni. Che tipo di investimento è più conveniente per Pippo?” direttamente in Google e scoprirete che la risposta con la ricerca diretta nei documenti online è lontana anni luce dall’altro risultato. Certo, spezzando la domanda e integrandola con la nostra intelligenza… ecc. ecc.

Sorge allora la grande domanda. Quei 175 miliardi di parametri assomigliano almeno in parte al contenuto del nostro cervello? Esistono dotte argomentazioni e anche dimostrazioni che non può essere così.


I, Intelligenza

Annotazione personale. Ho 80 anni e 50 anni fa ho avuto i primi incontri con i sistemi esperti e con il meraviglioso lavoro del Sistema Italgiure di ricerca elettronica della giurisprudenza varato dalla Corte di Cassazione,[5] con risultati interessanti e grandissima fatica dei ricercatori. Poi quarant'anni fa l’incontro con le reti neurali artificiali e con i primi timidi risultati in quel campo e i molti dubbi. Via via i dubbi si sono diradati e i risultati sono emersi, sino alla attuale “esplosione” della diffusione di sistemi come ChatGPP, Copilot, Gemini, Venice, Perplexity, …

Per questo sostengo che la vita è un po’ troppo corta per dedicarsi a dimostrare che una strada di ricerca non funzionerà. È un modo storicamente infruttuoso di lavorare. Minsky e Papert (Perceptrons, 1969) avevano mostrato che le reti neurali artificiali non potevano funzionare e anni dopo si sono corretti affermando che erano i lettori ad avere capito male.[6]

Nel corso degli anni successivi la formula della correzione degli errori che modifica le sinapsi artificiali risalendo dall’output sino all’input (la cosiddetta retro propagazione dell’errore o error backpropagation) è stata individuata da molti, tra cui il recente premio Noble Hinton, sino a diventare pienamente diffusa nell’uso a metà degli anni ’80. Risolve il problema in modo relativamente semplice, ma la critica successiva è stata quella della inutilità per la spiegazione del funzionamento del cervello. Nuova svolta: ora ci sono risultati che invece ne mostrano la plausibilità proprio in campo naturale.[7]

Per il 2025, che sarà costellato di novità tecnologiche,[8] il maggior problema è forse quello di trovare una risposta allo strapotere delle big tech, soprattutto ora con Trump alla Casa Bianca e Musk ad apparecchiargli la scrivania, e non solo. Registriamo timide reazioni dell’Europa e un po’ meno timide dalla Francia,[9] ma abbiamo bisogno di un movimento del Mondo intero verso una ricerca autonoma e libera in questo campo.[10] Infine, il Fondo Monetario Internazionale denuncia il paradosso dei giganti industriali che usano la ricerca soprattutto per la difesa dei loro territori.[11]


Musica e originalità

Proviamo allora a rasserenarci con l’aiuto del nostro «piccolo baccelliere di musica» che, con questo pseudonimo, fa il verso a Guccini. Ci dice che l’arte è un bel tema da proporre all’IA. Tanti anni fa, intervistato da Musica Jazz, Franco Ambrosetti, il trombettista svizzero – ne esistono, non fanno soltanto orologi a cucù (celebre battuta in più film per svalutare la cultura elvetica) e cioccolato, provate a sentirlo[12] –, individuava in «swing, tecnica e passione» gli ingredienti per fare un grande jazzista. Poi, con una certa perfidia, citava un collega americano concludendo che, nonostante li possedesse in quantità, non aveva «mai suonato una nota originale in vita sua». L’arte non si basa sull’aggiunta di ingredienti.

Nei primi anni ‘70, certo rock imboccò la strada del progressive, gettandosi in una deriva ipertrofica, quasi fosse alla ricerca di una legittimazione seria. Ne nacquero opere interessanti[13] ma anche polpettoni inascoltabili. Per fortuna nella seconda metà del decennio arrivò il punk a riportare tutto ad una dimensione più sintetica ed immediata. D’altra parte, anche l’economia di mezzi dopo un po’ viene a noia. Basti pensare a Bob Dylan che, dopo gli esordi folk con chitarra ed armonica, sentì il bisogno di qualcosa in più. Ne nacque la svolta elettrica che scontentò alcuni, ma pose un tassello irrinunciabile nell’evoluzione del rock degli anni ’60.[14] A sentirci like a rolling stone rischiamo di essere noi. Venti di guerra, autocrati e sovranisti un po’ di paura ce la fanno. Abbiamo bisogno di risposte, di conoscenza, di creatività, magari anche di qualche canzone.[15]

 

Note

[1] Devo il primissimo riferimento a questa riflessione a un amico speciale: Giovanni Ferrero. Per una lettura completa: https://btfp.sp.unipi.it/dida/fedro/ar01s19.xhtml 

[2] A proposito di tecnica, ecco dei riferimenti di lettura o ascolto che mi permetto di suggerire:

Stefano Nolfi. On the unexpected abilities of large language models. Adaptive Behavior, 36(6):

493–502, 2024, open a https://arxiv.org/pdf/2308.09720

Hui Chen, Antoine Didisheim, Luciano Somoza. Out of the (Black)Box: AI as Conditional Probability. December 2024, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5012852 

Rohit Patel. Understanding LLMs from Scratch Using Middle School Math, Towards Data Science, October 2024, https://towardsdatascience.com/understanding-llms-from-scratch-using-middle-school-math-e602d27ec876 

Sebastian Raschka. Building LLMs from the Ground Up: A 3-hour Coding Workshop, https://www.youtube.com/watch?v=quh7z1q7-uc, agosto 2024, con trascrizione allo stesso indirizzo.

Se i testi in inglese rappresentano una barriera, vedere https://support.google.com/translate/answer/2534559?hl=it&co=GENIE.Platform%3DDesktop

[4] A https://terna.to.it/risposta.txt si trova l’intera risposta.

[9] Dal Financial Times, Can France become a global AI powerhouse? Cercando il titolo online, si può accedere al contenuto con un indirizzo provvisorio, una specie di concessione del FT.


49 visualizzazioni0 commenti

Post recenti

Mostra tutti

Comments


L'associazione

Montagne

Approfondisci la 

nostra storia

#laportadivetro

Posts Archive

ISCRIVITI
ALLA
NEWSLETTER

Thanks for submitting!

bottom of page