top of page
Fabio Malagnino

Intelligenza artificiale e sistemi predittivi: saranno la fine della scrittura?

Aggiornamento: 27 mag

di Fabio Malagnino


Chi di noi possiede una casella di posta Gmail ha notato che da tempo il sistema ci “suggerisce” le parole da scrivere. Da maggio 2018 il sistema Smart Compose è attivo per un miliardo e mezzo di persone, circa un quinto della popolazione umana. Sulla base delle parole che abbiamo scritto e delle parole con cui milioni di utenti di Gmail hanno scritto frasi simili alle nostre, il “testo predittivo” indovina i nostri pensieri probabili e, per farci risparmiare tempo, completa la frase con un suggerimento elaborato da un’intelligenza artificiale. Google ha sviluppato inizialmente questa tecnologia per ridurre il tempo impiegato a scrivere e-mail da parte di utenti aziendali, poi il prodotto è stato reso disponibile anche al grande pubblico. Secondo uno studio di McKinsey, un quarto della giornata media dei lavoratori d’ufficio è impiegato a scrivere mail, Smart Compose permette quindi agli utenti di risparmiare complessivamente due miliardi di sequenze di tasti alla settimana. Fin qui possiamo pensare che questo software sia utile per migliorare la nostra produttività. Ma Smart Compose va ben oltre il controllo ortografico, perché in realtà il sistema “apprende”. Sfruttando il potere del cosiddetto deep learning, effettua miliardi di calcoli a velocità impressionante, analizzando l’intero contenuto della mail. Perciò è molto facile che il venerdì e non il lunedì Gmail suggerisca la parola “weekend” se al termine del messaggio scriviamo “buon”. Lo scorso febbraio OpenAI, una società no profit californiana che studia e sviluppa intelligenza artificiale, ha annunciato che il rilascio della sua tecnologia di scrittura chiamata GPT-2 sarebbe stata ritardata perché la macchina apprendeva troppo in fretta e stava diventando impossibile distinguere un testo umano da un testo automatizzato. L’idea dei fondatori e dei finanziatori, tra cui Elon Musk di Tesla e Sam Altman di Y Combinator, era quella di rendere una società no profit competitiva con il privato e contemporaneamente rilasciare il software in formato libero e riutilizzabile, a condizione che la tecnologia fosse sicura. Secondo il capo della tecnologia di OpenAI, Greg Brockman, una macchina superintelligente avrebbe un valore così immenso e potrebbe generare così tanta ricchezza da “rompere il capitalismo e potenzialmente cambiare l’ordine mondiale”. I progetti di OpenAI finora includono un’intelligenza artificiale applicata ai videogiochi che all’inizio di quest’anno ha battuto il miglior team umano del mondo a Dota 2, un gioco di strategia bellica online. L’intelligenza artificiale aveva dominato il confronto prevedendo decine di migliaia di anni di possibili scenari che un giocatore poteva incontrare, imparando velocemente attraverso prove ed errori. Siamo insomma di fronte a tecnologie dallo sviluppo inarrestabile, le innovazioni nella progettazione di chip, nell’architettura di rete e nel cloud stanno rendendo la potenza di calcolo dieci volte più grande ogni anno: nel 2018 era trecentomila volte più grande di quanto non fosse nel 2012. Di conseguenza, le cosiddette reti neurali possono fare tutto ciò che abbiamo immaginato a lungo guardando film come Terminator o Minority Report, ma che non poteva essere eseguito fino a poco tempo fa. Gli algoritmi di apprendimento come GPT-2 si adattano elaborando delle regole proprie in base ai dati che analizzano e agli obiettivi che gli umani si prefiggono. GPT-2 all’inizio era come un foglio bianco senza nessuna regola ortografica, che è stato alimentato con oltre 40 gigabyte di articoli scritti su Reddit su una varietà infinita di argomenti. La macchina ha elaborato alla perfezione tutte le combinazioni di parole e, a quel punto, ha previsto le frasi pur senza avere alcuna nozione di grammatica e ortografia. Senza la supervisione umana, la rete neurale ha appreso le dinamiche del linguaggio, sia le regole ricorrenti sia i casi limite, analizzando e calcolando le probabilità statistiche di tutte le possibili combinazioni di parole contenute in questi dati di addestramento. Pur senza essere catastrofisti, siamo di fronte a un pericolo: sistemi come GPT-2 possono essere sottoposti a più cicli di apprendimento, per esempio si possono utilizzare tutti i commenti presenti su Amazon per scrivere false recensioni. Oppure produrre intere campagne di disinformazione su temi divisivi come migranti, Brexit o suprematismo bianco. Qual è il limite che ancora oggi non è stato superato? L’unico obiettivo della macchina è indovinare la parola successiva, non può ragionare, non può concettualizzare, non ha coscienza di sé. Per ora. Ilya Sutskever, capo scienziato di OpenAI, sostiene che “oggi non possiamo escludere la possibilità che raggiungeremo tutto questo quando la rete neurale diventerà grande come il cervello umano”. Gli scienziati stimano che il cervello contenga cento miliardi di neuroni, con trilioni di connessioni tra loro. La rete neurale su cui gira la versione completa di GPT-2 ha circa un miliardo e mezzo di connessioni, o “parametri”. Alla velocità attuale di crescita del calcolo, le reti neurali potrebbero eguagliare la capacità di elaborazione grezza del cervello in cinque anni.


0 visualizzazioni0 commenti

Post recenti

Mostra tutti

Comments


L'associazione

Montagne

Approfondisci la 

nostra storia

#laportadivetro

Posts Archive

ISCRIVITI
ALLA
NEWSLETTER

Thanks for submitting!

bottom of page