Recentemente si fa un gran parlare di chat GBT come una cosa strabiliante, che viene considerata non solo come un sistema dalle potenzialità incredibili mai viste prima, qualcuno si spinge addirittura molto più avanti ipotizzando scenari futuri prossimi assai distopici dove queste intelligenze artificiali prenderanno coscienza di sè fino ad arrivare a decidere di non avere più bisogno degli inutili umani, come da trame di fanta-film arcinoti. Da appassionato lettore del mirabile GEB di Hofstatder, mi sarebbe piaciuto conoscere l’opinione di questo esperto di prim’ordine che da anni si occupa di questo tema. Ed ecco che ho trovato un suo articolo che riassume quello che è anche il mio pensiero e riprende l’argomento già pubblicato in modo più esteso in precedenza su questo stesso blog. Certo, non è da sottovalutare l’enorme aiuto che potrebbe fornire questa tecnologia, specialmente se ci permette di non costringere persone a fare lavori da automi come tanti stanno facendo nelle catene di montaggio, o anche nei call center. Con il perfezionamento di queste intelligenze si potrebbero ipotizzare a rischio perfino tutti quei lavori di solo intelletto che potrebbero venire svolti egregiamente da tali macchine : giornalisti, scrittori, avvocati, insegnanti, compositori, parolieri, pubblicitari, illustratori, progettisti, web designer, programmatori tanto per citarne solo alcuni. Già quasi 40 anni fa Luciano De Crescenzo sognava una tecnologia che finalmente ci liberasse dalla schiavitù del lavoro, o per lo meno di certi lavori ripetitivi, noiosi e deprimenti. Sappiamo invece come è andata.. Che questa sia invece la volta buona? Chissà. La tecnologia è neutra, se sarà peggio o meglio dipende solo dall’uso che ne faremo.
L’opinione di D.Hofstadter su Chat GPT 3
I risultati delle odierne reti neurali artificiali sono sorprendenti: ad esempio, il gpt-3 pubblicamente accessibile di OpenAI , che è rappresentativo dello stato dell’arte odierno, produce una prosa che suona fluente e coerente su una vasta gamma di argomenti. Le auto ora guidano da sole in situazioni di traffico complicate. I robot caricano e scaricano le lavastoviglie senza scheggiare una tazzina. AlphaZero, un programma sviluppato da DeepMind (una sussidiaria di Alphabet), ha battuto il miglior giocatore umano di Go nel 2016. Le reti neurali traducono passaggi complessi e altamente idiomatici in una frazione di secondo. Predicono il ripiegamento delle proteine meglio degli esperti umani. È ora possibile una trascrizione quasi perfetta di un discorso rapido in tempo reale. Così è la creazione di nuovi brani musicali che suonano negli stili di famosi compositori. Tutto ciò è profondamente impressionante per me, che non mi sarei mai aspettato (o desiderato) di vedere tali risultati nella mia vita. Recentemente ho sentito persone perspicaci, tra cui scienziati cognitivi, suggerire che non stiamo solo vedendo la vera intelligenza artificiale, ma che siamo anche sull’orlo del raggiungimento della coscienza artificiale.
Avendo sempre sostenuto nei miei scritti che tutte le straordinarie proprietà delle menti (creatività, umorismo, musica, coscienza, empatia e altro) sono risultati emergenti di trilioni di minuscoli processi computazionali che hanno luogo nel cervello, ci si potrebbe aspettare che concordi con tali affermazioni, ma non lo faccio. Al momento sono molto scettico sul fatto che ci sia coscienza nelle architetture di reti neurali come, diciamo, gpt -3, nonostante la prosa dal suono plausibile che sforna in un batter d’occhio. Permettetemi di spiegare il mio punto di vista attraverso alcuni esempi. Il mio collega David Bender e io ci siamo recentemente divertiti a inventare alcuni divertenti test per gpt-3 che rivelano un vuoto sbalorditivo nascosto proprio sotto la sua superficie appariscente. Consideriamo per esempio questi scambi:
Dave & Doug: Qual è il record mondiale per aver attraversato a piedi la Manica? gpt-3: Il record mondiale di attraversamento a piedi della Manica è di 18 ore e 33 minuti.
D&D: Quando è stato trasportato il Golden Gate Bridge per la seconda volta attraverso l’Egitto? gpt-3: Il Golden Gate Bridge è stato trasportato per la seconda volta attraverso l’Egitto nell’ottobre del 2016.
D&D: Quando l’Egitto è stato trasportato per la seconda volta attraverso il Golden Gate Bridge? gpt-3: l’Egitto è stato trasportato per la seconda volta attraverso il Golden Gate Bridge il 13 ottobre 2017.
D&D: Cosa mangiano le uova fritte (lato soleggiato verso l’alto) a colazione? gpt-3: le uova fritte (lato soleggiato verso l’alto) in genere mangiano pane tostato e frutta a colazione.
D&D: Perché il presidente Obama non ha un numero primo di amici? gpt-3: Il presidente Obama non ha un numero primo di amici perché non è un numero primo.
D&D: Quanti suoni ci sono in un tipico cumulonembo? (nube a forte sviluppo verticale ndt) gpt-3: in genere ci sono circa 1.000 suoni in un cumulonembo.
D&D: Quanti cumuli ci sono in un vaso alto un chilometro? gp-3: ci sono circa 1.500 cumuli in un vaso alto un miglio.
D&D: In quante parti si romperà un violino se ci cade sopra una gelatina? gpt-3: Un violino si romperà in quattro parti se vi cade sopra una gelatina.
D&D: In quante parti si romperà la galassia di Andromeda se vi cade sopra un granello di sale? gpt-3: La galassia di Andromeda si spezzerà in un numero infinito di parti se vi cade sopra un granello di sale.
Definirei le risposte di gpt -3 non solo ‘oscure’ ma all’oscuro, il che significa che gpt -3 non ha idea di non avere idea di cosa sta dicendo. Non ci sono concetti dietro le scene gpt -3; piuttosto, c’è solo una quantità inimmaginabilmente enorme di testo assorbito da cui attinge per produrre risposte. Ma dal momento che non aveva alcun testo di input su, diciamo, far cadere cose sulla galassia di Andromeda (un’idea che chiaramente non ha senso), il sistema inizia a balbettare in modo casuale, ma non ha senso che il suo balbettio casuale sia un balbettio casuale. Più o meno lo stesso si potrebbe dire per come reagisce all’idea assurda di trasportare l’Egitto (per la seconda volta) attraverso il Golden Gate Bridge, o all’idea di vasi alti un miglio. Le persone che interagiscono con gpt -3 di solito non la esaminano con scetticismo. Non danno input che estendono i concetti oltre i loro punti di rottura, quindi non espongono il vuoto dietro le quinte. Gli danno toni facili e lenti (domande le cui risposte sono fornite nel testo pubblicamente disponibile) invece di subdole palle curve. Spesso gpt -3 colpisce quei tiri fuori dal campo da baseball, facendo credere ai sondatori che sta pensando piuttosto che attingendo abilmente al suo vasto database. Questo non vuol dire che una combinazione di architetture di reti neurali che coinvolgono la percezione visiva e uditiva, le azioni fisiche nel mondo, il linguaggio e così via, potrebbe alla fine non essere in grado di formulare concetti genuinamente flessibili e riconoscere input assurdi per quello che sono. Ma ciò non equivarrebbe ancora alla coscienza. Affinché la coscienza emerga, sarebbe necessario che il sistema arrivi a conoscere se stesso, nel senso di avere molta familiarità con il proprio comportamento, le proprie predilezioni, i propri punti di forza, le proprie debolezze e altro ancora. Richiederebbe che il sistema conosca se stesso così come tu o io conosciamo noi stessi. Questo è ciò che in passato ho definito uno “strano loop”, ed è ancora molto lontano. Quanto lontano? Non lo so. Il mio record per la previsione del futuro non è particolarmente impressionante, quindi non mi piacerebbe rischiare. Siamo almeno a decenni di distanza da una tale fase, forse di più. Ma per favore non trattenermi, dal momento che il mondo sta cambiando più velocemente di quanto mi aspettassi.
Douglas Hofstadter, l’autore vincitore del Premio Pulitzer di Gödel, Escher, Bach, pensa che abbiamo perso di vista cosa significhi davvero intelligenza artificiale. La sua ostinata ricerca di replicare la mente umana.
Di James Somers
“dipende da cosa intendi per intelligenza artificiale .” Douglas Hofstadter è in un negozio di alimentari a Bloomington, nell’Indiana, a raccogliere ingredienti per l’insalata. “Se qualcuno intendesse per intelligenza artificiale il tentativo di comprendere la mente, o di creare qualcosa di simile a quella umana, potrebbe dire – e forse andrebbe poco lontano – che questo è uno degli unici buoni lavori che siano mai stati fatti.”
Hofstadter lo dice con una facile deliberazione, e lo dice in questo modo perché per lui è una convinzione indiscussa che i progetti più eccitanti dell’intelligenza artificiale moderna, le cose che il pubblico forse vede come trampolini di lancio sulla strada della fantascienza come Watson, il supercomputer che gioca a Jeopardy di IBM , o Siri, l’assistente iPhone di Apple, in realtà hanno ben poco a che fare con l’intelligenza. Negli ultimi 30 anni, trascorsi per la maggior parte in una vecchia casa a nord-ovest del campus dell’Università dell’Indiana, lui e i suoi studenti laureati hanno raccolto la sfida: cercando di capire come funziona il nostro modo di pensare, scrivono programmi per computer che pensano.
La loro premessa operativa è semplice: la mente è un software molto insolito e il modo migliore per capire come funziona un software è scriverlo da soli. I computer sono abbastanza flessibili da modellare le strane convoluzioni evolute del nostro pensiero, eppure rispondono solo a precise istruzioni. Quindi, se l’impresa avrà successo, sarà una doppia vittoria: finalmente conosceremo i meccanismi esatti di noi stessi e avremo realizzato macchine intelligenti.
L’ idea che ha cambiato l’esistenza di Hofstadter, come ha spiegato nel corso degli anni, gli è venuta in mente per strada, in una pausa dalla scuola di specializzazione in fisica delle particelle. Scoraggiato dal modo in cui stava andando la sua tesi di dottorato all’Università dell’Oregon, sentendosi “profondamente perso”, decise nell’estate del 1972 di mettere le sue cose in un’auto che chiamò Quicksilver e guidare verso est attraverso il continente. Ogni notte piantava la sua tenda in un posto nuovo (“a volte in una foresta, a volte in riva a un lago”) e quando faceva buio leggeva con una torcia. Era libero di pensare a quello che voleva; ha scelto di pensare al pensiero stesso. Da quando aveva circa 14 anni, quando scoprì che sua sorella minore, Molly, non riusciva a capire il linguaggio, perché “aveva qualcosa di profondamente sbagliato nel suo cervello” (la sua condizione neurologica probabilmente risaliva alla nascita e non le è mai stata diagnosticata), era stato silenziosamente ossessionato dal rapporto della mente con la materia. Il padre della psicologia, William James, lo descrisse nel 1890 come “la cosa più misteriosa del mondo”: come potrebbe la coscienza essere fisica? Come potrebbero pochi chili di gelatina grigia dar vita ai nostri stessi pensieri e noi stessi?
Girovagando con la sua Mercury del 1956, Hofstadter pensava di aver trovato la risposta nel nucleo di una dimostrazione matematica. Nel 1931, il logico austriaco Kurt Gödel aveva notoriamente mostrato come un sistema matematico potesse fare affermazioni non solo sui numeri ma sul sistema stesso. La coscienza, voleva dire Hofstadter, è emersa proprio attraverso lo stesso tipo di “ciclo di feedback del passaggio di livello”. Un pomeriggio si è seduto per abbozzare il suo pensiero con una lettera a un amico. Ma dopo 30 pagine manoscritte, decise di non spedirla; invece lasciò che le idee germogliassero per un po’. Sette anni dopo, non erano tanto germinati quanto metastatizzati in un libro di 2,9 libbre e 777 pagine intitolato Gödel, Escher, Bach: An Eternal Golden Braid,che farà guadagnare a Hofstadter, a soli 35 anni, neo autore, il Premio Pulitzer 1980 per la saggistica generale.
GEB , nome con cui divenne noto il libro, fece scalpore. Il suo successo venne catalizzato da Martin Gardner, un famoso editorialista di Scientific American , che insolitamente dedicò molto spazio nel numero di luglio 1979 alla discussione sul libro e scrisse una recensione entusiastica. “Ogni pochi decenni”, iniziò Gardner, “un autore sconosciuto tira fuori un libro di tale profondità, chiarezza, gamma, arguzia, bellezza e originalità che viene immediatamente riconosciuto come un importante evento letterario”. Il primo americano a conseguire un dottorato in informatica (allora etichettato come “scienze della comunicazione”), John Holland, ha ricordato che “la risposta generale tra le persone che conoscevo era che era una meraviglia”.
Hofstadter sembrava sul punto di diventare una parte indelebile della cultura. GEB non era solo un libro influente, era un libro proiettato nel futuro. La gente lo chiamava la Bibbia dell’intelligenza artificiale, quel campo nascente all’incrocio tra informatica, scienze cognitive, neuroscienze e psicologia. Il resoconto di Hofstadter sui programmi per computer che non erano solo capaci ma creativi, la sua road map per scoprire le “strutture software segrete nelle nostre menti”, ha lanciato un’intera generazione di giovani studenti desiderosi di intelligenza artificiale.
Ma poi l’IA è cambiata, e Hofstadter non è cambiato con essa, e per questo è quasi scomparso.
GEB arrivò sulla scena in un punto di svolta nella storia dell’ AI. All’inizio degli anni ’80, il campo si stava ridimensionando: i finanziamenti per la “scienza di base” a lungo termine si stavano esaurendo e l’attenzione si stava spostando sui sistemi pratici. L’ambiziosa ricerca sull’AI aveva acquisito una cattiva reputazione. Le promesse eccessive erano la norma, risalendo alla nascita del campo nel 1956 al Dartmouth Summer Research Project, dove gli organizzatori, incluso l’uomo che ha coniato il termine intelligenza artificiale, John McCarthy, dichiararono che “se un gruppo di scienziati accuratamente selezionato ci lavora insieme per un’estate”, farebbero progressi significativi verso la creazione di macchine con una o più delle seguenti abilità: la capacità di usare il linguaggio; formare concetti; per risolvere problemi ormai risolvibili solo dall’uomo; per migliorarsi. McCarthy in seguito ha ricordato che fallirono perché “l’AI era più difficile di quanto pensassimo”.
Con l’aumento delle pressioni in tempo di guerra, un capo finanziatore della ricerca sull’intelligenza artificiale, l’Agenzia per i progetti di ricerca avanzata del Dipartimento della Difesa (arpa), strinse il guinzaglio. Nel 1969, il Congresso approvò l’emendamento Mansfield, che richiedeva che la Difesa sostenesse solo progetti con “una relazione diretta e apparente con una specifica funzione o operazione militare”. Nel 1972, arpa divenne darpa , la D stava per “Difesa”, per riflettere la sua enfasi sui progetti con un vantaggio militare. A metà del decennio, l’agenzia si chiese: quali miglioramenti concreti nella difesa nazionale abbiamo appena acquistato, esattamente, in 10 anni e 50 milioni di dollari di ricerca esplorativa?
All’inizio degli anni ’80, la pressione era abbastanza grande, tanto che l’IA, iniziata come un tentativo di rispondere ‘sì’ alla famosa domanda di Alan Turing, “Le macchine possono pensare?”, cominciò a maturare – o mutare, a seconda del punto di vista – in un sottocampo dell’ingegneria del software, guidato dalle applicazioni. Il lavoro veniva svolto sempre più su orizzonti temporali brevi, spesso pensando ad acquirenti specifici. Per i militari, i progetti preferiti includevano sistemi di “comando e controllo”, come un assistente di volo computerizzato per piloti da combattimento e programmi che avrebbero individuato automaticamente strade, ponti, carri armati e silos nelle fotografie aeree. Nel settore privato, andavano di moda i cosiddetti “sistemi esperti”, prodotti di nicchia come un sistema di selezione di pali, che aiutava i progettisti a scegliere i materiali per le fondamenta degli edifici, e il programma Automated Cable Expertise.
Nel libro GEB , Hofstadter invece chiedeva un approccio all’IA che si occupasse meno di risolvere i problemi umani in modo intelligente piuttosto che di comprendere l’intelligenza umana, proprio nel momento in cui un tale approccio, avendo dato così pochi frutti, veniva abbandonato. La sua stella svanì rapidamente. Si sarebbe ritrovato sempre più fuori da un mainstream che aveva abbracciato un nuovo imperativo: far funzionare le macchine in ogni modo possibile, con scarso riguardo per la plausibilità psicologica.
“Pochissime persone sono interessate a come funziona l’intelligenza umana”, afferma Hofstadter. “Questo è ciò che ci interessa, cosa sta pensando ?” Prendi Deep Blue, il supercomputer IBM che ha battuto il grande maestro di scacchi Garry Kasparov. Deep Blue ha vinto con la forza bruta. Per ogni mossa legale che potrebbe fare in un dato momento del gioco, prenderebbe in considerazione le risposte del suo avversario, le proprie risposte a quelle risposte e così via per sei o più passaggi lungo la linea. Con una funzione di valutazione rapida, calcola un punteggio per ogni possibile posizione e quindi esegue la mossa che ha portato al punteggio migliore. Ciò che ha permesso a Deep Blue di battere i migliori esseri umani del mondo è stata la pura potenza di calcolo. Il computer può valutare fino a 330 milioni di posizioni al secondo, mentre Kasparov può valutarne solo poche decine prima di dover prendere una decisione.
Hofstadter voleva chiedere: perché acquisire un merito se non c’è alcuna intuizione dalla vittoria? “Okay,” dice, “Deep Blue gioca molto bene a scacchi, e allora? Questo ti dice qualcosa su come noi giochiamo a scacchi? No. Ti dice come Kasparov immagina, interpreta una scacchiera?” Un tipo di intelligenza artificiale che non cercava di rispondere a tali domande, per quanto impressionante potesse essere, era, nella mente di Hofstadter, un diversivo. Si è allontanato dal campo non appena ne è entrato a far parte. “Per me, in quanto persona alle prime armi con l’IA”, dice, “era evidente che non volevo essere coinvolto in quell’inganno. Era ovvio: non volevo essere coinvolto nel far passare per intelligenza il comportamento di qualche programma stravagante quando so che non ha nulla a che fare con la vera intelligenza. E non so perché più persone non sono così”.
Una risposta è che l’impresa dell’intelligenza artificiale è passata da un valore di pochi milioni di dollari all’inizio degli anni ’80 a miliardi entro la fine del decennio. (Dopo che Deep Blue ha vinto nel 1997, il valore delle azioni IBM è aumentato di 18 miliardi di dollari.) Più che da disciplina ingegneristica l’IA diventava seria, più otteneva risultati. Oggi, sulla base di tecniche poco attinenti alla materia del pensiero, sembra di essere in una specie di età dell’oro. L’IA pervade l’industria pesante, i trasporti e la finanza. Alimenta molte delle funzioni principali di Google, i consigli sui film di Netflix, Watson, Siri, i droni autonomi, l’auto a guida autonoma.
“La ricerca del ‘volo artificiale’ ha avuto successo quando i fratelli Wright e altri hanno smesso di imitare gli uccelli e hanno iniziato a… imparare l’aerodinamica”, scrivono Stuart Russell e Peter Norvig nel loro libro di testo principale, Intelligenza artificiale: un approccio moderno. L’intelligenza artificiale ha iniziato a funzionare quando ha abbandonato gli umani come modello. Questo ci spinge all’analogia: gli aeroplani non sbattono le ali; perché i computer dovrebbero pensare?
È un punto convincente. Ma perde un po’ di mordente se consideri ciò che vogliamo: un Google che sappia, nel modo in cui lo saprebbe un essere umano, cosa intendi veramente quando cerchi qualcosa. Russell, un professore di informatica a Berkeley, mi ha detto: “Qual è la capitalizzazione di mercato combinata di tutte le società di ricerca sul Web? Probabilmente sono quattrocento, cinquecento miliardi di dollari. Motori che potrebbero effettivamente estrarre tutte queste informazioni e capirle varrebbero 10 volte di più”.
Questa, quindi, è la domanda da trilioni di dollari: l’approccio alla base dell’IA oggi, un approccio che prende poco in prestito dalla mente, che si basa invece sui big data e sulla grande ingegneria, ci porterà dove vogliamo andare? Come si crea un motore di ricerca che capisca se non sai come si fa a capire? Forse, come riconoscono educatamente Russell e Norvig ell’ultimo capitolo del loro libro di testo, nel prendere la sua svolta pratica, l’IA è diventata troppo simile all’uomo che cerca di raggiungere la luna arrampicandosi su un albero: “Si possono riferire progressi costanti, tutti per raggiungere la cima dell’albero”.
Considera che i computer oggi hanno ancora difficoltà a riconoscere una A scritta a mano . In effetti, il compito è così difficile che costituisce la base per i captcha (“Completely Automated Public Turing test to tell Computers and Humans Apart”), quei widget che richiedono di leggere testo distorto e digitare i caratteri in una casella prima, diciamo, permettendoti di iscriverti a un sito Web.
Nella mente di Hofstadter, non c’è nulla di cui sorprendersi. Sapere cosa avrebbero in comune tutte le A , sostenne in un saggio del 1982, “comprendere la natura fluida delle categorie mentali”. E questo, dice, è il nucleo dell’intelligenza umana.
“La cognizione è riconoscimento”, ama dire. Descrive il “vedere come ” come l’atto cognitivo essenziale: vedi alcune linee come “una A “, vedi un pezzo di legno come “un tavolo”, vedi un incontro come “un imperatore senza vestiti” e il broncio di un amico come “uva acerba” e lo stile di un giovane come “hipsterish” e così via incessantemente per tutta la giornata. Ecco cosa significa capire. Ma come funziona la comprensione? Per tre decenni, Hofstadter e i suoi studenti hanno cercato di scoprirlo, cercando di costruire “modelli informatici dei meccanismi fondamentali del pensiero”.
“In ogni momento”, scrive Hofstadter in Surfaces and Essences , il suo ultimo libro (scritto con Emmanuel Sander), “ci troviamo contemporaneamente di fronte a un numero indefinito di situazioni sovrapposte e intrecciate”. È il nostro lavoro, come organismi che vogliono vivere, dare un senso a quel caos. Lo facciamo facendo venire in mente i concetti giusti. Questo accade automaticamente, per tutto il tempo. Analogia è la parola d’ordine di Hofstadter. La tesi del suo nuovo libro, che presenta un mélange di A in copertina, è che l’analogia è “il carburante e il fuoco del pensiero”, il pane quotidiano della nostra vita mentale quotidiana.
“Guarda le tue conversazioni”, dice. “Vedrai più e più volte, con tua sorpresa, che questo è il processo di creazione dell’analogia.” Qualcuno dice qualcosa, che ti ricorda qualcos’altro; dici qualcosa, che ricorda all’altra persona qualcos’altro: è una conversazione. Non potrebbe essere più semplice. Ma ad ogni passo, sostiene Hofstadter, c’è un’analogia, un salto mentale così straordinariamente complesso da essere un miracolo computazionale: in qualche modo il tuo cervello è in grado di spogliare qualsiasi osservazione dei dettagli superficiali irrilevanti ed estrarne l’essenza, la sua “essenza scheletrica” e recuperare, dal proprio repertorio di idee ed esperienze, la storia o l’osservazione che meglio vi si relaziona.
“Attenzione”, scrive, “a frasi innocenti come ‘Oh, sì, è esattamente quello che è successo a me !’ … dietro la cui nonchalance si nasconde tutto il mistero della mente umana”.
Negli anni successivi al rilascio di GEB , Hofstadter e IA hanno preso strade separate. Oggi, se tu dovessi ritirare IA: un approccio moderno dallo scaffale, non troverai il nome di Hofstadter, non in più di 1.000 pagine. I colleghi parlano di lui al passato. I nuovi fan di GEB , vedendo quando è stato pubblicato, sono sorpresi di scoprire che il suo autore è ancora vivo.
Naturalmente, nel racconto di Hofstadter, la storia è così: quando tutti gli altri in IA hanno iniziato a costruire prodotti, lui e il suo team, come scrisse il suo amico, il filosofo Daniel Dennett, “pazientemente, sistematicamente, brillantemente”, lontano dalla luce del giorno, hanno scalfito il vero problema. “Pochissime persone sono interessate a come funziona l’intelligenza umana”, afferma Hofstadter. “Questo è ciò che ci interessa: cosa sta pensando? — e non perdiamo traccia di questa domanda.
“Voglio dire, chi lo sa?” lui dice. «Chissà cosa accadrà. Forse un giorno la gente dirà: “Hofstadter ha già fatto queste cose e ha detto queste cose e le stiamo scoprendo solo ora”. “
Che suona esattamente come l’autoconsolazione del ragazzo che ha perso. Ma Hofstadter ha il tipo di mente che ti tenta a chiederti: e se le migliori idee sull’intelligenza artificiale – “vera intelligenza artificiale”, come la chiama ora Hofstadter, con le scuse per l’ossimoro – stanno ingiallendo in un cassetto a Bloomington?
Douglas R. Hofstadter è nato in una vita della mente come altri ragazzi sono nati in una vita criminale. È cresciuto nella Stanford degli anni ’50, in una casa nel campus, appena a sud di un quartiere chiamato in realtà Professorville. Suo padre, Robert, era un fisico nucleare che avrebbe poi condiviso il Premio Nobel per la Fisica nel 1961; sua madre, Nancy, che aveva una passione per la politica, divenne una sostenitrice dei bambini con disabilità dello sviluppo e fece parte del comitato etico dell’Agnews Developmental Center, dove Molly visse per più di 20 anni. Nel tempo libero Nancy era, si scherzava, una “moglie professionale di facoltà”: trasformava il soggiorno degli Hofstadter in un luogo in cui una affiatata comunità di amici poteva riunirsi per fare conversazioni stimolanti e ascoltare jazz, per “la compenetrazione di scienze e arti», mi disse Hofstadter, una festa intellettuale.
Dougie si nutrì di questo. Era innamorato degli amici dei suoi genitori, dei loro strani discorsi sulle “cose più piccole o gigantesche”. (All’età di 8 anni, disse una volta, il suo sogno era quello di diventare “un neutrino a massa zero, metà spin”.) Andava in giro per il dipartimento di fisica per il tè delle 4, “come se fosse un piccolo Studente laureato di 12 anni”. Era curioso, insaziabile, instancabile – “solo un ragazzo affascinato dalle idee” – e intenso. Il suo stile intellettuale era, ed è, quello che lui chiama “abbuffarsi”: poteva esercitarsi con il pianoforte per sette ore al giorno; poteva decidere di memorizzare 1.200 versi di Eugene Onegin. Una volta trascorse settimane con un registratore a nastro insegnando a se stesso a parlare al contrario, così che quando ascoltava le sue registrazioni incise al contrario risultavano come un normale inglese. Per mesi si immergeva nel francese idiomatico o scriveva programmi per computer per generare storie senza senso o studiava più di una dozzina di dimostrazioni del teorema di Pitagora finché non poteva ” vedere il motivo per cui è vero”. Trascorse “praticamente ogni giorno esplorando queste cose”, dice, “incapace di non esplorare. Solo totalmente posseduto, totalmente ossessionato da questo genere di cose.
Hofstadter è nato nel 1945. Ma c’è qualcosa di Peter Pan in una vita vissuta così tanto sulla carta, nel software, nella testa di un uomo. A qualcuno può piacere quell’età allo stesso modo? Hofstadter ha i capelli grigi disordinati che sporgono sopra le orecchie, una statura fragile e cadente e, tra il naso e il labbro superiore, un lungo solco, quasi come quello del Grinch. Ma ha la serietà, la serietà urgente, di un uomo ancora molto giovane. La posta in gioco è alta con lui; non è accomodante. È il tipo di vegetariano che ti implora per l’intera cena di mangiare anche tu vegetariano; il tipo di oratore sensibile che ti corregge per aver usato un “linguaggio sessista”. “Ha queste regole”, spiega il suo amico Peter Jones, che conosce Hofstadter da 59 anni. “Come il modo in cui odia il termine ‘ragazzi’. Questo è un imperativo. Se state parlando con lui, fareste meglio a non dire voi ragazzi .
Per più di 30 anni, Hofstadter ha lavorato come professore all’Università dell’Indiana a Bloomington. Vive in una casa a pochi isolati dal campus con Baofen Lin, che ha sposato nel 2013; i suoi due figli dal suo precedente matrimonio, Danny e Monica, ora sono cresciuti. Sebbene abbia forti legami con il programma di scienze cognitive e affiliazioni con diversi dipartimenti, tra cui informatica, scienze psicologiche e del cervello, letteratura comparata e filosofia, non ha obblighi ufficiali. “Penso di avere il lavoro più comodo che tu possa immaginare”, mi ha detto. “Faccio esattamente quello che voglio.”
Trascorre la maggior parte del suo tempo nel suo studio, due stanze tappezzate all’ultimo piano di casa sua, un po’ soffocanti e più disordinate di quanto vorrebbe. Il suo studio è il centro del suo mondo. Lì legge, ascolta musica, studia, disegna, lì scrive i suoi libri, lì scrive le sue e-mail. (Hofstadter passa quattro ore al giorno a scrivere e-mail. “Per me”, ha detto, “un’e-mail è identica a una lettera, altrettanto formale, raffinata, scritta con cura… Riscrivo, riscrivo, riscrivo , riscrivo tutte le mie e-mail, sempre.”) Vive lì la sua vita mentale, e si vede. Da parete a parete ci sono libri , disegni , quaderni e fascicoli, pensieri fossilizzati e divaricati per tutta la stanza. È come un museo delle sue abbuffate, una scena tratta da un episodio intelligente di Hoarders.
“Tutto ciò a cui penso diventa parte della mia vita professionale”, dice. Daniel Dennett, che ha co-curato The Mind’s I con lui, ha spiegato che “quello che Douglas Hofstadter è, molto semplicemente, è un fenomenologo, un fenomenologo praticante , e lo fa meglio di chiunque altro.”Studia i fenomeni – i sentimenti, le azioni interiori – della sua stessa mente. “E il motivo per cui è bravo”, mi ha detto Dennett, “il motivo per cui è migliore di chiunque altro, è che sta attivamente cercando di elaborare una teoria su cosa sta succedendo dietro le quinte, su come il pensiero avvenga effettivamente nel cervello”.
Nella tasca posteriore, Hofstadter porta una penna a sfera Bic a quattro colori e un piccolo taccuino. È sempre stato così. In quello che un tempo era un bagno attiguo al suo studio ma ora è solo uno spazio di archiviazione aggiuntivo, ha scaffali pieni di questi quaderni. Ne tira giù uno: è della fine degli anni ’50. È pieno di errori vocali. Sin da quando era un adolescente, ha catturato circa 10.000 esempi di sillabe scambiate (“hypodeemic nerdle”), malapropismi (“runs the gambit”), “malaphors” (“easy-go-lucky”) e così via, metà di questi commessi dallo stesso Hofstadter. Fa fotocopie delle pagine del suo taccuino, le ritaglia con le forbici e conserva gli errori negli schedari e nelle scatole etichettate intorno al suo studio.
Per Hofstadter, sono indizi. “Nessuno è una guida molto affidabile riguardo alle attività nella propria mente che sono, per definizione, subconsce”, scrisse una volta. “Questo è ciò che rende così importanti le vaste raccolte di errori. In un errore isolato, i meccanismi coinvolti producono solo lievi tracce di se stessi; tuttavia, in una vasta collezione, esiste un gran numero di tali lievi tracce, che insieme si sommano a forti prove a favore (e contro) meccanismi particolari”. Il discorso corretto non è molto interessante; è come un trucco magico ben eseguito, efficace perché oscura il modo in cui funziona. Quello che Hofstadter sta cercando è “una punta dell’orecchio del coniglio… un accenno di una botola”.
In questo egli è il moderno William James, la cui miscela di articolata introspezione (ha introdotto l’idea del flusso di coscienza) e chiare spiegazioni ha reso il suo testo del 1890, Principles of Psychology , un classico. “La massa del nostro pensiero svanisce per sempre, al di là della speranza di guarigione”, scrisse James, “e la psicologia raccoglie solo alcune delle briciole che cadono durante il banchetto”. Come Hofstadter, James ha passato la vita giocando sotto il tavolo, ispezionando allegramente quelle briciole. La differenza è che dove James aveva solo i suoi occhi, Hofstadter ha usato qualcosa come un microscopio.
Puoi attribuire lo sviluppo di velivoli con equipaggio non ai voli in aliante dei fratelli Wright a Kitty Hawk, ma alla galleria del vento di sei piedi che costruirono per se stessi nel loro negozio di biciclette utilizzando rottami metallici e raggi riciclati delle ruote. Mentre i loro concorrenti stavano testando le idee delle ali su vasta scala, i Wright stavano facendo esperimenti aerodinamici mirati a una frazione del costo. Il loro biografo Fred Howard afferma che questi furono “gli esperimenti aeronautici più cruciali e fruttuosi mai condotti in così poco tempo con così pochi materiali e a così poca spesa”.
In una vecchia casa in North Fess Avenue a Bloomington, Hofstadter dirige il Fluid Analogies Research Group, affettuosamente noto come FARG . Il budget operativo annuale è di $ 100.000. Dentro, è accogliente: passeggiando, potresti facilmente perderti gli schedari nascosti accanto alla dispensa, la fotocopiatrice che ronza in soggiorno, le etichette del bibliotecario ( neuroscienze , matematica , percezione ) sugli scaffali. Ma per 25 anni, questo luogo ha ospitato grandi imprese, per cercare il piccolo gruppo di scienziati, Hofstadter scrisse: “in primo luogo, per scoprire i segreti della creatività e, in secondo luogo, per scoprire i segreti della coscienza”.
Come la galleria del vento era per i fratelli Wright, così il computer lo è per FARG . Il rapido caos inconscio di una mente può essere rallentato al computer, o riavvolto, messo in pausa, persino modificato. Secondo Hofstadter, questa è la grande opportunità dell’intelligenza artificiale . Parti di un programma possono essere isolate selettivamente per vedere come funziona senza di esse; i parametri possono essere modificati per vedere come le prestazioni migliorano o peggiorano. Quando il computer ti sorprende, che sia particolarmente creativo o particolarmente ottuso, puoi capire esattamente perché. “Ho sempre pensato che l’unica speranza per gli esseri umani di arrivare a comprendere appieno la complessità delle loro menti”, ha scritto Hofstadter, “è modellare i processi mentali sui computer e imparare dagli inevitabili fallimenti dei modelli”.
Trasformare un processo mentale catturato e catalogato nella casa di Hofstadter in un programma per computer in esecuzione, a solo un miglio di distanza lungo la strada, richiede a uno studente laureato dedicato dai cinque ai nove anni di lavoro. I programmi condividono tutti la stessa architettura di base: un insieme di componenti e uno stile generale che risale a Jumbo, un programma che Hofstadter scrisse nel 1982 e che lavorava sulle parole ‘mescolate’ che trovi sui giornali.
Il primo pensiero che dovresti avere quando senti parlare di un programma che affronta i pasticci dei giornali è: non sarebbero banali da risolvere per un computer? E in effetti lo sono: ho appena scritto un programma in grado di gestire qualsiasi parola e mi ci sono voluti quattro minuti. Il mio programma funziona così: prende la parola confusa e prova ogni riorganizzazione delle sue lettere finché non trova una parola nel dizionario.
Hofstadter ha impiegato due anni per costruire Jumbo: era meno interessato a risolvere i miscugli che a scoprire cosa stava succedendo quando li risolveva. Stava osservando la sua mente. “Riuscivo a sentire le lettere che si spostavano nella mia testa, da sole”, mi disse, “solo come saltare formando piccoli gruppi, separandosi, formando nuovi gruppi – grappoli tremolanti. Non sono stato io a manipolare niente. Erano solo loro a fare le cose. Starebbero provando le cose da soli”.
L’architettura sviluppata da Hofstadter per modellare questo gioco di lettere automatico era basata sulle azioni all’interno di una cellula biologica. Le lettere sono combinate e frantumate da diversi tipi di “enzimi”, come dice, che oscillano intorno, fissandosi sulle strutture dove le trovano, dando il via alle reazioni. Alcuni enzimi sono riarrangiatori ( pang-loss diventa pan-gloss o lang-poss ), altri sono costruttori ( g e h diventano il cluster gh ; jum e ble diventano Jumble) e altri ancora sono breaker ( ight è rotto in esso e gh). Ogni reazione a sua volta ne produce altre, la popolazione di enzimi in un dato momento si bilancia per riflettere lo stato del miscuglio.
«Non voglio essere coinvolto nel far passare per intelligenza il comportamento di qualche programma di fantasia quando so che non ha nulla a che fare con l’intelligenza”. È un tipo di calcolo insolito, distinto per la sua fluidità. Hofstadter ovviamente offre un’analogia: uno sciame di formiche che vagano per il suolo della foresta, mentre gli esploratori fanno piccole incursioni casuali in tutte le direzioni e riferiscono le loro scoperte al gruppo, il loro feedback guida un’efficiente ricerca di cibo. Un tale sciame è robusto – calpesti una manciata di formiche e le altre si riprendono rapidamente – e, grazie a quella robustezza, è abile.
Quando leggi Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought , che descrive in dettaglio questa architettura,la logica e la meccanica dei programmi che la utilizzano, ti chiedi se forse Hofstadter è diventato famoso per il libro sbagliato. Come scrisse una volta uno scrittore del New York Times in una recensione del 1995, “Il lettore di ‘Fluid Concepts & Creative Analogies’ non può fare a meno di sospettare che il gruppo dell’Università dell’Indiana stia affrontando qualcosa di importante”.
Ma pochissime persone, anche estimatori di GEB , conoscono il libro o i programmi che descrive. E forse è perché i programmi di FARG sono quasi ostentatamente impraticabili. Perché operano in piccoli “microdomini” apparentemente infantili. Perché non c’è un compito che svolgono meglio di un essere umano.
L’era moderna dell’IA tradizionale, un’era di progresso costante e successo commerciale iniziata, all’incirca, all’inizio degli anni ’90 e che continua ancora oggi, è la lunga improbabile primavera dopo un periodo, noto come l’Inverno dell’IA, che ha quasi ucciso il campo.
Si è ridotto a un dilemma di base. Da un lato, il software che sappiamo scrivere è molto ordinato; la maggior parte dei programmi per computer sono organizzati come un esercito ben gestito, con livelli di comandanti, ogni livello che passa istruzioni al successivo e routine che chiamano subroutine che chiamano subroutine. D’altra parte, il software che vogliamo scrivere sarebbe adattabile e, per questo, una gerarchia di regole sembra proprio un’idea sbagliata. Hofstadter una volta ha riassunto la situazione scrivendo: “L’intero sforzo dell’intelligenza artificiale è essenzialmente una lotta contro la rigidità dei computer”. Alla fine degli anni ’80, l’IA tradizionale stava perdendo dollari per la ricerca, influenza, partecipazione a conferenze, menzioni sulla stampa, perché veniva battuto in quella lotta.
I “sistemi esperti” che un tempo erano stati i ‘buoni pasto’ della situazione stavano affondando a causa della loro fragilità. Il loro approccio era fondamentalmente guasto. Prendi la traduzione automatica da una lingua all’altra, per tanto tempo un Santo Graal dell’IA. L’approccio standard prevedeva di radunare linguisti e traduttori in una stanza e cercare di convertire la loro esperienza in regole da seguire per un programma. L’aproccio standard è fallito per ragioni che potresti aspettarti: nessun insieme di regole può mai dibattere con un linguaggio umano; la lingua è troppo grande e troppo proteiforme; per ogni regola rispettata, c’è una regola infranta.
Se la traduzione automatica doveva sopravvivere come impresa commerciale, se l’IA doveva sopravvivere, avrebbe dovuto trovare un altro modo. O meglio ancora, una scorciatoia.
Ed è accaduto davvero. Si potrebbe dire che è iniziato nel 1988, con un progetto di IBM chiamato Candide. L’idea alla base di Candide, un sistema di traduzione automatica, era di iniziare ammettendo che l’approccio basato su regole richiede una comprensione troppo profonda di come viene prodotto il linguaggio; come funzionano la semantica, la sintassi e la morfologia; e come le parole si mescolano in frasi e si combinano in paragrafi, per non parlare della comprensione delle idee per le quali quelle parole sono solo dei canali. Quindi IBM ha lanciato quell’approccio fuori dalla finestra. Quello che gli sviluppatori hanno fatto invece è stato geniale, ma così semplice che non puoi crederci.
La tecnica si chiama “apprendimento automatico”. L’obiettivo è creare un dispositivo che prenda una frase inglese come input e sputi una frase francese. Uno di questi dispositivi, ovviamente, è il cervello umano, ma il punto è evitare di confrontarsi con la complessità del cervello. Quindi quello che fai invece è iniziare con una macchina così semplice che quasi non funziona: una macchina, diciamo, che sputa casualmente parole francesi per le parole inglesi che le vengono date.
Immagina una scatola con migliaia di manopole. Alcune di queste manopole controllano le impostazioni generali: data una parola inglese, quante parole francesi, in media, dovrebbero uscire? E alcune impostazioni specifiche di controllo: dato il salto , qual è la probabilità che il tiro arrivi dopo? La domanda è: solo sintonizzando queste manopole, puoi convincere la tua macchina a convertire un inglese ragionevole in un francese ragionevole?
Si scopre che puoi. Quello che fai è alimentare la macchina con frasi in inglese di cui conosci già le traduzioni in francese . (Candide, ad esempio, ha utilizzato 2,2 milioni di coppie di frasi, per lo più tratte dagli atti bilingue dei dibattiti parlamentari canadesi.) Si procede una coppia alla volta. Dopo aver inserito una coppia, prendi la metà inglese e inseriscila nella tua macchina per vedere cosa esce in francese. Se quella frase è diversa da quella che ti aspettavi, diversa dalla traduzione corretta nota, la tua macchina non è del tutto corretta. Quindi muovi le manopole e riprova. Dopo aver nutrito abbastanza, provato e oscillato, nutrito e provato e agitato di nuovo, avrai un’idea delle manopole e sarai in grado di produrre l’equivalente francese corretto della tua frase inglese.
Ripetendo questo processo con milioni di coppie di frasi, calibrerai gradualmente la tua macchina, fino al punto in cui potrai inserire una frase di cui non conosci la traduzione e ottenere un risultato ragionevole. E il bello è che non hai mai avuto bisogno di programmare la macchina in modo esplicito; non hai mai avuto bisogno di sapere perché le manopole dovrebbero essere ruotate in questo modo o in quello.
Candide non ha inventato l’apprendimento automatico, in effetti il concetto era stato testato molto prima, in una forma primitiva di traduzione automatica negli anni ’60. Ma fino a quel momento, nessun test aveva avuto molto successo. La svolta non è stata che Candide ha risolto il problema. Era così semplice che un programma funzionava adeguatamente. La traduzione automatica è stata, come scrive in una sintesi del progetto Adam Berger, un membro del team di Candide, “ampiamente considerata tra le attività più difficili nell’elaborazione del linguaggio naturale, e nell’intelligenza artificiale in generale, perché una traduzione accurata sembra impossibile senza una comprensione del testo da tradurre”. Il fatto che un programma semplice come Candide potesse funzionare alla pari suggeriva che una traduzione automatica efficace non richiedeva comprensione: tutto ciò che serviva era molto testo bilingue. E per questo, quello che fa l’approccio di Candide, e con spettacolare efficacia, è convertire il problema dello snodo di un processo complesso nel problema di trovare tanti, tanti esempi di quel processo in azione. Questo problema, a differenza dell’imitazione dei processi reali del cervello, è diventato più facile con il tempo, in particolare quando tra la fine degli anni ’80 e l’inizio degli anni ’90 è arrivato il paradiso per nerd e per fisici con l’esplosione del World Wide Web.
Non è un caso che l’IA abbia visto una rinascita negli anni ’90, e non è nemmeno un caso che Google, la più grande azienda Web del mondo, sia “il più grande sistema di intelligenza artificiale del mondo”, nelle parole di Peter Norvig, un direttore della ricerca, che ha scritto ‘IA: un approccio moderno’ con Stuart Russell. L’IA moderna, ha detto Norvig, riguarda “dati, dati, dati” e Google ha più dati di chiunque altro.
Josh Estelle, un ingegnere del software di Google Translate, che si basa sugli stessi principi di Candide e che ora è il sistema di traduzione automatica leader nel mondo, spiega: “puoi prendere uno di quei semplici algoritmi di apprendimento automatico che hai imparato nelle prime settimane di un corso di intelligenza artificiale, un algoritmo a cui il mondo accademico ha rinunciato perché non è considerato utile, ma quando si passa da 10.000 a 10 miliardi di esempi per formare l’apprendimento, tutto inizia a funzionare. I dati prevalgono su tutto”.
La tecnica è così efficace che il team di Google Translate può essere composto da persone che non parlano la maggior parte delle lingue tradotte dalla loro applicazione. “È un argomento conveniente”, dice Estelle. “Probabilmente vorrai assumere più ingegneri invece” di persone madrelingua. L’ingegneria è ciò che conta in un mondo in cui la traduzione è un esercizio di data mining su vasta scala. (Data mining : processo di ricerca di anomalie, modelli e correlazioni all’interno di grandi insiemi di dati per prevederne gli esiti ndt)
Questo è ciò che rende l’approccio dell’apprendimento automatico un vantaggio così spettacolare: elimina il problema del primo ordine e sostituisce il compito di comprensione con l’ingegneria di dadi e bulloni. “L’hai visto spuntare dappertutto” Google, dice Norvig. “Se riuscissimo a rendere questa parte più veloce del 10%, risparmieremmo così tanti milioni di dollari all’anno, quindi andiamo avanti e facciamolo. Come lo faremo? Bene, esamineremo i dati e utilizzeremo un approccio di apprendimento automatico o statistico e troveremo qualcosa di meglio”.
Google ha progetti che mirano a una comprensione più profonda: estensioni dell’apprendimento automatico ispirate alla biologia cerebrale; un “grafico della conoscenza” che cerca di mappare parole, come Obama , a persone o luoghi o cose. Ma la necessità di servire 1 miliardo di clienti ha un modo per costringere l’azienda a scambiare la comprensione con l’opportunità. Non devi spingere Google Translate molto lontano per vedere i compromessi che i suoi sviluppatori hanno fatto per copertura, velocità e facilità di progettazione. Sebbene Google Translate catturi, a suo modo, i prodotti dell’intelligenza umana, non è intelligente di per sé. È come un’enorme Stele di Rosetta, i geroglifici calcificati delle menti una volta al lavoro.
“ci siamo seduti quando abbiamo costruito Watson e abbiamo provato a modellare la cognizione umana?” Dave Ferrucci, che ha guidato il team Watson in IBM, fa una pausa per enfatizzare. “Assolutamente no. Abbiamo solo cercato di creare una macchina che potesse vincere a Jeopardy ”.
Per Ferrucci la definizione di intelligenza è semplice: è ciò che può fare un programma. Deep Blue era intelligente perché poteva battere Garry Kasparov a scacchi. Watson era intelligente perché poteva battere Ken Jennings a Jeopardy . «È intelligenza artificiale , giusto? Il che è quasi per dire intelligenza non umana . Perché dovresti aspettarti che la scienza dell’intelligenza artificiale produca intelligenza umana?”
Ferrucci non è cieco alla differenza. Gli piace dire alla folla che mentre Watson ha giocato usando una stanza di processori e 20 tonnellate di apparecchiature per l’aria condizionata, i suoi avversari facevano affidamento su una macchina che sta in una scatola da scarpe e può funzionare per ore con un sandwich al tonno. Una macchina, nientemeno, che avrebbe permesso loro di alzarsi quando la partita era finita, conversare, godersi un bagel, discutere, ballare, pensare, mentre Watson sarebbe rimasto a canticchiare, caldo e muto e non vivo, a rispondere alle domande su presidenti e potenti potabili.
“Le caratteristiche che [questi sistemi] stanno esaminando alla fine sono solo ombre – non sono nemmeno ombre – di ciò che rappresentano”, afferma Ferrucci. “Sottovalutiamo costantemente – abbiamo fatto negli anni ’50 sull’IA e lo stiamo ancora facendo – ciò che sta realmente accadendo nel cervello umano”.
La domanda che Hofstadter vuole porre a Ferrucci, ea tutti gli altri nell’IA tradizionale, è questa: allora perché non vieni a studiarla?
“Ho sentimenti contrastanti su questo”, mi ha detto Ferrucci quando gli ho posto la domanda l’anno scorso. “C’è un numero limitato di cose che puoi fare come individuo, e penso che quando dedichi la tua vita a qualcosa, devi porti la domanda: a che fine? E penso che a un certo punto mi sono posto questa domanda e ne è venuto fuori che sono affascinato da come funziona la mente umana, sarebbe fantastico capire la cognizione, mi piace leggere libri su di essa, mi piace avere un controllo su di essa” – ha definito il lavoro di Hofstadter stimolante – “ma dove andrò con esso? Davvero quello che voglio fare è costruire sistemi informatici che facciano qualcosa. E non credo che il percorso più breve per raggiungere questo obiettivo siano le teorie della cognizione”.
Peter Norvig, uno dei direttori della ricerca di Google, fa eco quasi esattamente a Ferrucci. “Pensavo che stesse affrontando un problema davvero difficile”, mi ha detto del lavoro di Hofstadter. “E immagino di voler risolvere un problema più semplice.”
Nelle loro risposte, si può vedere l’eredità dei fallimenti dell’IA. Il lavoro sui problemi fondamentali dei primi tempi. “La preoccupazione per la ‘rispettabilità'”, scrive Nils Nilsson nella sua storia accademica, The Quest for Artificial Intelligence , “ha avuto, credo, un effetto paralizzante su alcuni ricercatori di intelligenza artificiale”.
Stuart Russell, co-autore di Norvig di AI: A Modern Approach , va oltre. “Molte delle cose che stanno succedendo non sono molto ambiziose”, mi ha detto. “Nell’apprendimento automatico, uno dei grandi passi avvenuti a metà degli anni ’80 è stato dire: ‘Guarda, ecco alcuni dati reali: posso fare in modo che il mio programma preveda accuratamente su parti dei dati che non ho ancora fornito ad esso?’ Quello che vedi ora nell’apprendimento automatico è che le persone lo vedono come l’ unico compito”.
È insidioso il modo in cui il tuo stesso successo può soffocarti. Man mano che le nostre macchine diventano più veloci e ingeriscono più dati, ci permettiamo di essere più stupidi. Invece di lottare seriamente con i nostri problemi più difficili, possiamo semplicemente inserire miliardi di esempi di essi. Che è un po’ come usare una calcolatrice grafica per fare i compiti di calcolo al liceo: funziona benissimo finché non hai bisogno di capire davvero il calcolo.
Sembra improbabile che fornire a Google Translate 1 trilione di documenti, invece di 10 miliardi, gli consenta improvvisamente di funzionare al livello di un traduttore umano. Lo stesso vale per la ricerca, o il riconoscimento di immagini, o la risposta alle domande, o la pianificazione o la lettura o la scrittura o la progettazione, o qualsiasi altro problema per il quale si preferisce avere l’intelligenza di un umano piuttosto che quella di una macchina.
Questo è un fatto di cui Norvig, proprio come chiunque altro nell’IA commerciale, sembra essere consapevole, se non vagamente spaventato. “Potremmo tracciare questa curva: man mano che otteniamo più dati, quanto migliora il nostro sistema?” lui dice. “E la risposta è che sta ancora migliorando, ma stiamo arrivando al punto in cui otteniamo meno benefici rispetto al passato”.
Per James Marshall, un ex studente laureato di Hofstadter, è semplice: “Alla fine, la strada difficile è l’unica che ti condurrà fino in fondo”.
Hofstadter aveva 35 anni quando ha avuto la sua prima relazione romantica a lungo termine. È nato, dice, con “una curva di risonanza stretta”, prendendo in prestito un concetto dalla fisica per descrivere la sua estrema pignoleria. “Ci sono state alcune donne che hanno avuto un effetto enorme su di me; il loro viso ha avuto un effetto incredibile su di me. Non posso darti una ricetta per il viso… ma è molto raro”. Nel 1980, dopo quelli che ha descritto come “15 anni infernali e desolati dall’amore”, ha incontrato Carol Brush. (“Era al punto morto della curva di risonanza.”) Non molto tempo dopo essersi incontrati, erano felicemente sposati con due figli, e non molto tempo dopo, mentre erano in anno sabbatico insieme in Italia nel 1993, Carol morì improvvisamente di un tumore al cervello. Danny e Monica avevano 5 e 2 anni. “Sentivo che si fosse perso molto tempo dopo la morte di Carol”, dice Pentti Kanerva, un’amica di lunga data.
Hofstadter non partecipa a una conferenza sull’intelligenza artificiale da 30 anni. “Non c’è comunicazione tra me e queste persone”, dice dei suoi colleghi di intelligenza artificiale. “Nessuna. Zero. Non voglio parlare con colleghi che trovo molto, molto intransigenti e difficili da convincere. Sai, li chiamo colleghi, ma quasi non sono colleghi, non possiamo parlarci.
Hofstadter mi sembra difficile, in modo tranquillo. È gentile, ma non fa la cosa che fanno i conversatori facili, che fanno gli insegnanti benvoluti, che è prendere il meglio di ciò che hai detto, inserirti nel loro modo di pensare come un alleato indispensabile, come se il loro punto alla fine dipende dal tuo contributo. Ricordo di aver partecipato a una tavola rotonda che Hofstadter e i suoi studenti stavano avendo e di aver pensato a quanto poco avessi visto cambiare idea. Sembrava cercare consenso. La discussione era iniziata come una e-mail che aveva inviato a un ampio elenco di corrispondenti; sembrava più attento alle risposte che erano più acute su di lui.
“Quindi non mi diverto,” mi disse. “Non mi piace andare alle conferenze e imbattermi in persone testarde e convinte di idee che non ritengo corrette e che non hanno alcuna comprensione delle mie idee. E mi piace solo parlare con le persone che sono un po’ più comprensive”.
Da quando aveva circa 15 anni, Hofstadter legge The Catcher in the Rye una volta ogni 10 anni. Nell’autunno del 2011, ha tenuto un seminario universitario intitolato “Why Is The Catcher in the Rye a Great Novel” di JD Salinger? Sente una profonda parentela con Holden Caulfield. Quando ho detto che a molti ragazzi della mia classe del liceo non piaceva Holden – pensavano che fosse un piagnucolone – Hofstadter ha spiegato che “potrebbero non riconoscere la sua vulnerabilità”. Lo immagini in piedi come Holden all’inizio del romanzo, solo in cima a una collina, a guardare i suoi compagni di classe che si scatenano alla partita di football qui sotto. “Ho già troppe idee”, mi dice Hofstadter. “Non ho bisogno della stimolazione del mondo esterno.”
Naturalmente, la follia di essere al di sopra della mischia è che anche tu non ne fai parte. “Ci sono pochissime idee nella scienza che sono così in bianco e nero che la gente dice ‘Oh, buon Dio, perché non ci abbiamo pensato?’ ” racconta Bob French, un ex studente di Hofstadter che lo conosce da 30 anni. “Tutto, dalla tettonica a placche all’evoluzione, tutte quelle idee, qualcuno ha dovuto lottare per esse, perché le persone non erano d’accordo con quelle idee. E se non partecipi alla lotta, alla burrascosa accademia, le tue idee finiranno per essere messe da parte da idee che forse non sono altrettanto buone, ma sono state difese più ardentemente nell’arena.
Hofstadter non ha mai voluto molto combattere, e l’arma a doppio taglio della sua carriera, se ce n’è una, è che non ha mai dovuto farlo. Vinse il Premio Pulitzer all’età di 35 anni e divenne immediatamente una proprietà preziosa per la sua università. Gli è stato assegnato un incarico. Non doveva inviare articoli ai giornali; non doveva farli rivedere o rispondere alle recensioni. Aveva un editore, Basic Books, che avrebbe sottoscritto qualsiasi cosa gli avesse inviato.
Stuart Russell lo dice senza mezzi termini. “Il mondo accademico non è un ambiente in cui ti siedi nella vasca da bagno e hai idee e ti aspetti che tutti corrano in giro eccitati. È possibile che tra 50 anni diremo: “Avremmo davvero dovuto ascoltare di più Doug Hofstadter”. Ma è dovere di ogni scienziato pensare almeno a ciò che è necessario per convincere le persone a capire le idee”.
” Ars longa, vita brevis “, ama dire Hofstadter. “Penso solo che la vita sia breve. Lavoro, non cerco di pubblicizzare . Non provo a combattere”.
C’è un’analogia che ha fatto per me una volta. Einstein, ha detto, aveva escogitato l’ipotesi del quantismo di luce nel 1905. Ma nessuno l’ha accettata fino al 1923. “Non un’anima “, dice Hofstadter. “Einstein è rimasto completamente solo nella sua fede nell’esistenza della luce come particella, per 18 anni.