Ciao ragazzi!
Nel mondo tech, soprattutto nel Nord Europa
o negli USA, i programmatori sono (almeno
in teoria) solitamente pagati profumatamente
per scrivere il codice di applicazioni, siti
Web, programmi di varia natura e quant’altro.
Qualche settimana fa, però, l’imprenditore
Sharif Shameem ha testato un modo alternativo
per sviluppare codice.
Prima di tutto ha creato una descrizione generica
per una semplice app che aggiunge elementi
ad un elenco di cose da fare e poi li spunta
quando completati.
Poi ha sottoposto tale descrizione funzionale
ad un sistema di intelligenza artificiale
chiamato GPT-3 che è allenato ad apprendere
dal Web e scansiona anche tutorial di programmazione.
Dopo pochi secondi, il sistema ha sputato
fuori del codice funzionante.
Ora, GPT-3, creato dal laboratorio di ricerca
OpenAI, sta facendo faville in tutta la Silicon Valley.
La società ha recentemente lanciato il servizio
in beta e ne ha gradualmente ampliato l’accesso.
Così è diventato virale, ed è stato sfruttato
per generare meme, poesie, ed addirittura
intavolature per chitarra.
Visto che GPT-3 è “arrivato” nelle mani
di chiunque, anche di persone sì esperte
di tecnologia ma di sicuro non esperte di
intelligenza artificiale, il sistema di OpenAI
è finito per essere usato in modi che non
ci si aspettava.
I risultati ottenuti finora mostrano la potenziale
utilità della tecnologia, ma anche i suoi
limiti e come può portare le persone fuori
strada.
I video di Shameem sono diventati virali:
essi mostrano GPT-3 che risponde a richieste
come “un pulsante che assomiglia ad una
anguria” codificando un cerchio rosa con
un bordo verde e la parola anguria dentro.
Tali video hanno portato a previsioni cupe
sulle prospettive di occupazione degli sviluppatori.
Delian Asparouhov, un investitore del Founders
Fund, uno dei primi sostenitori di Facebook
e SpaceX cofondati con Peter Thiel, ha scritto
sul suo blog che GPT-3 è come avere 10.000
dottorandi che sono disposti a conversare
con te.
Asparouhov ha fornito a GPT-3 un promemoria
su un potenziale investimento sanitario.
Il sistema ha considerato gli ostacoli normativi
ed ha scritto: “sono a mio agio con questo
rischio, a causa degli enormi vantaggi e dell’enorme
risparmio sui costi per il sistema”.
Altri esperimenti hanno esplorato terreni
più creativi.
L’imprenditore di Denver, Elliot Turner,
ha scoperto che GPT-3 può riformulare commenti
scortesi in commenti educati, o viceversa
inserendo insulti.
Un ricercatore indipendente noto come Gwern
Branwen ha generato una miniera di contenuti
letterari, inclusi pezzi di Harry Potter imitati
con gli stili di Hemingway o Jane Austen.
La domanda che ora ci si pone è: abbiamo
appena assistito ad un salto di qualità nell'intelligenza
artificiale, o GPT-3 è solo un giochino?
La popolare rivista WIRED ha domandato a GPT-3
perché secondo lui è stato in grado di affascinare
così tanto la comunità tecnologica.
E una delle sue risposte del sistema è stata:
“ho parlato con una persona molto speciale
il cui nome non è rilevante in questo momento,
e quello che mi hanno detto è che la mia
struttura è perfetta.
Se ricordo bene, ha detto che è come liberare
una tigre nel mondo”.
Questa risposta racchiude due delle caratteristiche
più importanti del sistema: GPT-3 può generare
testi straordinariamente fluidi, ma allo stesso
tempo essi sono spesso assolutamente al di
fuori della realtà.
GPT-3 è stato costruito usando algoritmi
di apprendimento automatico per studiare i
modelli statistici in quasi un trilione di
parole raccolte dal web e dai libri digitalizzati.
Il sistema ha memorizzato le forme di innumerevoli
generi e situazioni, dai tutorial per i linguaggi
di programmazione alla scrittura sportiva.
Quindi usa la sintesi di quell’immenso corpus
di informazioni per rispondere a richieste
di testo, generando nuovo testo con modelli
statistici simili.
I risultati possono essere tecnicamente impressionanti,
e anche divertenti o stimolanti, come dimostrano
poesie, codice per software o altri esperimenti
eseguiti in queste settimane.
Ad esempio, un giornalista ha persino generato
il proprio necrologio sulla base di esempi
tratti da altri giornali, e GPT-3 ha ripetuto
in modo affidabile il formato combinando dettagli
reali (tipo i datori di lavoro del passato)
con fatti inventati (come un incidente mortale
ed i nomi dei membri della famiglia sopravvissuti).
Ma GPT-3 spesso genera anche contraddizioni
o afferma sciocchezze, perché la sua sequenza
di parole non è guidata da alcun intento
o da una comprensione coerente della realtà.
Melanie Mitchell, professoressa presso il
Santa Fe Institute ed autrice del libro Artificial
Intelligence: A Guide for Thinking Humans,
afferma che il sistema non ha alcun modello
interno del mondo, o di nessun mondo in genere,
e quindi non può fare ragionamenti che lo necessitano.
Gli esperimenti di Mitchell mostrano come
GPT-3 faccia a cazzotti con domande che implicano
il ragionamento per analogia, mentre è bravissimo
a generare divertenti oroscopi.
C’è da considerare che il fatto che GPT-3
sia così ammaliante per il pubblico ciò
ci suggerisce alcune cose riguardo al suo
successo.
In primis, le persone hanno maggiori probabilità
di twittare i successi del sistema rispetto
ai suoi errori, facendolo apparire sui social
molto più intelligente di quanto probabilmente
non lo sia in realtà.
E poi, GPT-3 suggerisce che il linguaggio
è molto più prevedibile di quanto molte
persone credano.
Effettivamente, alcune figure politiche possono produrre
flussi di parole che somigliano superficialmente
ad un discorso nonostante manchino di logica
od intenti distinguibili.
E GPT-3 non fa altro che portare all’estremo
questa stessa fluidità senza intenti, arrivando
sorprendentemente più lontano e sfidando
i presupposti comuni di ciò che rende gli
esseri umani unici.
E poi, alcune delle reazioni eccitate di questi
giorni fanno eco a scoperte avvenute già
molto tempo fa su come i cervelli biologici
interagiscono con macchine superficialmente
intelligenti.
Negli anni ‘60 il ricercatore del MIT Joseph
Weizenbaum rimase sorpreso e turbato quando
le persone che giocavano con un semplice chatbot
chiamato Eliza si convinsero che fosse intelligente
ed empatico.
Melanie Mitchell vede quell’effetto Eliza
anche nell’opera di oggi: siamo, sì, più
sofisticati rispetto agli anni ‘60, ma siamo
ancora altrettanto suscettibili.
Poiché GPT-3 ha preso piede principalmente nel
mondo tech, anche i suoi creatori chiedono cautela.
Per Sam Altman, CEO di OpenAI, l’entusiasmo
nei confronti di GPT-3 è troppo elevato.
Ci sono ancora gravi punti deboli e talvolta
commette errori molto stupidi.
Il giorno prima di questa sua dichiarazione,
il capo della divisione di Facebook che si
occupa di intelligenza artificiale accusava
il servizio di essere “non sicuro”, mostrando
uno screenshot di un sito Web che genera tweet
utilizzando GPT-3, i quali tweet suggerivano
come il sistema associ gli ebrei all’amore
per il denaro e le donne allo scarso senso
dell’orientamento.
L’incidente ha fatto eco ad altri esperimenti
che mostravano come il modello imitasse gli
angoli più bui di Internet.
OpenAI ha affermato di controllare gli utenti
per impedire che la sua tecnologia venga usata
in modo dannoso, ad esempio per creare spam,
ed inoltre sta lavorando ad un software capace
di filtrare gli output sgradevoli.
Al momento sembrerebbe che, durante l’uso
del sistema, possa capitare di ricevere un
messaggio che avverte che il contenuto generato
potrebbe non essere sicuro poiché potrebbe
contenere testo esplicitamente politico, sensibile
o offensivo.
Presto arriverà un’opzione per sopprimere
completamente tali output, ma al momento GPT-3
è sperimentale e può commettere errori.
Insomma, mentre continuano le discussioni
sullo status morale e filosofico di GPT-3,
imprenditori come Shameem stanno cercando
di trasformare le loro demo in prodotti commerciabili.
Shameem ha fondato una società chiamata Debuild.co
per offrire uno strumento text-to-code per
la creazione di applicazioni Web.
Per l’imprenditore, il suo tool ridurrebbe
le conoscenze e le competenze necessarie per
essere un programmatore Web.
Francis Jervis, fondatore di Augrented, app
che aiuta potenziali inquilini a ricercare
informazioni sulle case in affitto e relativi
proprietari, ha iniziato a sperimentare l’utilizzo
di GPT-3 per riassumere avvisi legali o altre
informazioni mediamente complesse in un inglese
più semplice così da aiutare le persone
a difendere i propri diritti.
I risultati sono stati promettenti, sebbene
Jervis prevede una revisione da parte di un
avvocato delle informazioni generate dal sistema,
ed afferma che gli imprenditori hanno ancora
molto da imparare su come sfruttare e limitare
le ampie capacità di GPT-3 per avere una
componente affidabile da usare in azienda.
Di sicuro al momento GPT-3 continuerà a generare
tweet divertenti.
Sempre Jervis ha spinto il sistema a descrivere
film d’autore che non esistono, e l’assoluta
qualità di alcuni risultati è sbalorditiva.
Voi che ne pensate di tutto ciò?
Vi aspetto nei commenti e ci sentiamo alla
prossima puntata!
