top of page
a cura di Pietro Terna

Punture di spillo. "IA a segno: 2 premi Nobel in un colpo solo..."

a cura di Pietro Terna


«Quando si parla di intelligenza artificiale, spesso si intende l'apprendimento automatico tramite reti neurali artificiali. Questa tecnologia è stata originariamente ispirata dalla struttura del cervello. In una rete neurale artificiale, i neuroni del cervello sono rappresentati da nodi che hanno valori diversi. Questi nodi si influenzano a vicenda attraverso connessioni che possono essere paragonate a sinapsi e che possono essere rafforzate o indebolite. La rete viene addestrata, ad esempio sviluppando connessioni più forti tra nodi con valori contemporaneamente elevati. I vincitori di quest'anno hanno svolto un importante lavoro con le reti neurali artificiali a partire dagli anni ‘80». Così inizia la motivazione[1] dell’assegnazione dei premi Nobel per la fisica nel 2024 a John Hopfield e Geoffrey Hinton.

Fisica? Siamo sicuri? Poi è arrivata anche la Chimica,[2] con: «Il Premio Nobel per la Chimica 2024 riguarda le proteine, gli ingegnosi strumenti chimici della vita. David Baker è riuscito nell'impresa quasi impossibile di costruire tipi di proteine completamente nuovi. Demis Hassabis e John Jumper hanno sviluppato un modello di intelligenza artificiale per risolvere un problema vecchio di 50 anni: prevedere le strutture complesse delle proteine. Queste scoperte hanno un enorme potenziale». Chimica, siamo sicuri?


Le intimazioni di Marvin Minsky

È nuova scienza o un nuovo modo di fare scienza? È certamente una innovazione nella scienza. Una innovazione che per quel che riguarda le reti neurali artificiali ha dovuto superare gli enormi ostacoli generati dall’ipse dixit del cattedratico di turno, con in primo piano Marvin Minsky, che nel 1969 bloccò per un decennio la ricerca in quel campo con le sue critiche.[3]

Il lavoro di Hopfield[4] fu di altissimo livello teorico, ma non applicabile direttamente. Hinton,[5] chiamato in causa in un recente spillo,[6] fece parte di un gruppo di studiosi[7] che con un fondamentale articolo[8] del 1986 mostrarono che il punto di incaglio prospettato da Minsky era ben superabile. In realtà non furono gli unici: Paul Werbos[9] aveva proposto lo stesso algoritmo di soluzione nel 1971, come ben chiarito in un articolo interessantissimo[10] di Widrow e Lehr, ma il suo lavoro passò sotto silenzio, essendo incappato nella critica di Minsky. Quanto è complicata la ricerca!

Il tutto era accompagnato dal contrasto accesissimo tra due scuole, il cognitivismo e il connessionismo, con la contrapposizione tra chi cerca le regole che presiedono al funzionamento della mente, software che userebbe il cervello come hardware, e chi si occupa di capire come le capacità del cervello emergano via via con l’apprendimento durante lo sviluppo di un vivente, attrezzato dalle capacità derivate dalla sua storia evolutiva. Invito a leggere un articolo[11] chiarissimo, del 2001, di un maestro della psicologia italiana, Domenico Parisi, giustamente citato nella voce “connessionismo” della Treccani.[12]

Ripeto: quanto è complicata la ricerca e quanto è difficile innovare. Si dice che vediamo lontano perché siamo sulle spalle dei giganti. Cerco, ma anche abbiamo i giganti sulle nostre spalle…


La rivoluzione gentile di Wes Montgomery

Immagino che il lettore, e forse anche il direttore della Porta di Vetro, siano perplessi per le lunghe note di questo spillo e allora passo ad altre note, quelle per l’arte dei suoni che ogni settimana ci propone il nostro piccolo baccelliere di musica: l’approccio innovativo alla scienza moderna ne suggerisce uno altrettanto innovativo alla musica e in particolare alla chitarra, quello di Wes Montgomery e della sua rivoluzione gentile. Wes Montgomery era nato a Indianapolis nel 1923. Suonava con i fratelli Monk e Buddy, bassista e pianista, prevalentemente nella sua città e intanto lavorava come saldatore.

La musica era entrata nella sua vita grazie all’ascolto di Charlie Christian, uno dei pionieri della chitarra elettrica. [13] Però Wes abitava in appartamento e nella stanza vicina dormivano i suoi bambini. Insomma, non poteva fare troppo rumore. Sviluppò così una tecnica basata sull’impiego del pollice della mano destra invece del plettro. Divenne bravo e veloce e con il pollice otteneva un suono molto originale, al tempo stesso delicato e profondo.

Aveva più di trent’anni quando, all’inizio degli anni Sessanta, il saxofonista Cannonball Adderley lo notò e lo portò a New York. Molti musicisti vollero collaborare con lui, a cominciare dal jazz man più famoso del momento, quel John Coltrane a cui però non si sentì di unirsi stabilmente. Ebbe successo. Ne è testimone questa versione di uno standard come Here’s that rainy day.[14] Aveva una straordinaria capacità architettonica nel costruire i suoi assoli. Raggiungeva il climax passando dal fraseggio a note singole a quello ad ottave fino a cluster accordali. L’industria discografica lo trasformò in una star grazie a qualche sconfinamento nel pop. [15] Quando morì improvvisamente di un infarto nel 1968, aveva solo 45 anni. La sua influenza si sarebbe fatta sentire in più ambiti, dal jazz di Pat Metheny, al blues di B.B King fino al rock di Jimi Hendrix.

Una nota che precede quelle "ufficiali" a proposito delle immagini: la giovane che danza sui neuroni proviene dal comunicato stampa della Royal Swedish Academy of Sciences; quella dell’IA che vince il Nobel è prodotta proponendo il tema “Artificial intelligence won the Nobel Prize” al generatore di immagini[16] Flux-1

 

Note

[3] Marvin Minsky e Seymour Papert (1969), Perceptrons: An Introduction to Computational Geometry. Ripubblicarono il libro anni dopo, affermando che erano gli altri a non aver capito, loro volevano rendere più rigorosa la ricerca in quel campo... Papert è anche l'ideatore di Logo, https://el.media.mit.edu/logo-foundation/, da cui deriva NetLogo, https://ccl.northwestern.edu/netlogo/, diffusissimo linguaggio di simulazione basata su agenti.

[7] David Rumelhart, https://it.wikipedia.org/wiki/David_Rumelhart, morto nel 2011; Ronald J. Williams, https://en.wikipedia.org/wiki/Ronald_J._Williams, morto nel 2024; James McClelland, https://it.wikipedia.org/wiki/James_McClelland, ben vivo, chissà per quale motivo non insignito del Nobel.

[8] David E. Rumelhart, Geoffrey E. Hinton, and Ronald J. Williams. Learning internal representations by error propagation. In David E. Rumelhart and James L. McClelland, editors, Parallel Distributed Processing: Explorations in the Microstructures of Cognition, volume I, chapter 8, pages 318–362. MIT Press, Cambridge, MA, 1986. http://www.cs.cmu.edu/~bhiksha/courses/deeplearning/Fall.2016/pdfs/Chap8_PDP86.pdf 

[11] Il lavoro di Domenico Parisi, "Le due scienze cognitive" è incluso in un libro introvabile: "Discorsi e pensieri. Scritti in onore di Giuseppe Mosconi", Bologna, Il Mulino, 2001, a p. 217-224. Meraviglia dell'internet, da http://laral.istc.cnr.it/dparisi/domenico/articoli/mosconi.doc si può scaricare la versione originaria in Word di quello scritto.

[15] Vale la pena ascoltarlo in questa versione orchestrale di Senza fine di Gino Paoli https://youtu.be/LAAH7IcJpf0?si=KQ0sLKsgHiK9dY0b

85 visualizzazioni0 commenti

コメント


L'associazione

Montagne

Approfondisci la 

nostra storia

#laportadivetro

Posts Archive

ISCRIVITI
ALLA
NEWSLETTER

Thanks for submitting!

bottom of page