IA. Non ci somiglia per niente


IA. Non ci somiglia per niente. Sul New York Times del 8 marzo 2023, Noam Chomsky interviene sull’Intelligenza artificiale con un saggio. Confronta intelligenza umana e intelligenza artificiale. Sostiene che IA è fondamentalmente un sistema descrittivo e predittivo, mentre l’intelligenza umana è capace di critica: “dire non solo cosa è vero, cosa è stato e cosa sarà – questa è descrizione e previsione – ma anche cosa non è vero e cosa potrebbe e non poteva essere così”. La critica creativa è tale anche perché è fallibile e non è indifferente sul piano morale. Un giudizio su IA: è fantastica in certi ambiti limitati, ma le differenze costitutive tra l’intelligenza umana e quella artificiale “pongono limiti significativi a ciò che questi programmi possono fare, codificandoli con difetti inestirpabili”.

Su ItalianaContemporanea il testo è rubricato nella pagina Intelligenza artificiale. Il testo è di 1.564 parole e richiede un tempo di lettura di circa 7 minuti.


Jorge Luis Borges una volta scrisse che vivere in un momento di grande pericolo e promessa è sperimentare sia la tragedia che la commedia, con “l’imminenza di una rivelazione” nella comprensione di noi stessi e del mondo. Oggi i nostri presunti progressi rivoluzionari nell’intelligenza artificiale sono davvero motivo di preoccupazione e ottimismo. Ottimismo perché l’intelligenza è il mezzo con cui risolviamo i problemi. Preoccupazione perché temiamo che la varietà più popolare e alla moda di IA – l’apprendimento automatico – degraderà la nostra scienza e svilirà la nostra etica incorporando nella nostra tecnologia una concezione fondamentalmente imperfetta del linguaggio e della conoscenza.

ChatGPT di OpenAI, Bard di Google e Sydney di Microsoft sono meraviglie dell’apprendimento automatico. In parole povere, prendono enormi quantità di dati, cercano schemi in essi e diventano sempre più abili nel generare risultati statisticamente probabili, come un linguaggio e un pensiero apparentemente umani. Questi programmi sono stati salutati come i primi barlumi all’orizzonte dell’intelligenza artificiale generale, quel momento a lungo profetizzato in cui le menti meccaniche superano i cervelli umani non solo quantitativamente in termini di velocità di elaborazione e dimensioni della memoria, ma anche qualitativamente in termini di intuizione intellettuale, creatività artistica e ogni altra facoltà distintamente umana.

Quel giorno può arrivare, ma la sua alba non è ancora spuntata, contrariamente a quanto si può leggere nei titoli iperbolici e ricavare da investimenti sconsiderati. La rivelazione borgesiana della comprensione non è avvenuta e non accadrà – e, sottomettiamo, non può verificarsi – se i programmi di apprendimento automatico come ChatGPT continuano a dominare il campo dell’intelligenza artificiale. Per quanto utili questi programmi possano essere in alcuni domini ristretti (possono essere utili nella programmazione di computer, per esempio, o nel suggerire rime per versi leggeri), sappiamo dalla scienza della linguistica e dalla filosofia della conoscenza che differiscono profondamente dal modo in cui gli esseri umani ragionare e usare il linguaggio. Queste differenze pongono limiti significativi a ciò che questi programmi possono fare, codificandoli con difetti inestirpabili.

È al tempo stesso comico e tragico, come avrebbe potuto notare Borges, che tanto denaro e tanta attenzione siano concentrati su una cosa così piccola – qualcosa di così banale se confrontato con la mente umana, che a forza di linguaggio, nelle parole di Wilhelm von Humboldt, può fare “un uso infinito di mezzi finiti”, creando idee e teorie di portata universale.

La mente umana non è, come ChatGPT e simili, un goffo motore statistico per la corrispondenza di schemi, che si rimpinza di centinaia di terabyte di dati ed estrapola la risposta conversazionale più probabile o la risposta più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e persino elegante che opera con piccole quantità di informazioni; cerca di non inferire correlazioni brute tra punti dati ma di creare spiegazioni.

Ad esempio, un bambino piccolo che acquisisce una lingua sta sviluppando – inconsciamente, automaticamente e rapidamente da dati minuscoli – una grammatica, un sistema stupendamente sofisticato di principi e parametri logici. Questa grammatica può essere intesa come un’espressione del “sistema operativo” innato e geneticamente installato che dota gli esseri umani della capacità di generare frasi complesse e lunghe serie di pensieri. Quando i linguisti cercano di sviluppare una teoria sul perché una data lingua funziona in quel modo (“Perché queste – ma non quelle – frasi sono considerate grammaticali?”), stanno costruendo consapevolmente e laboriosamente una versione esplicita della grammatica che il bambino costruisce istintivamente e con un’esposizione minima alle informazioni. Il sistema operativo del bambino è completamente diverso da quello di un programma di apprendimento automatico.

In effetti, tali programmi sono bloccati in una fase preumana o non umana dell’evoluzione cognitiva. Il loro difetto più profondo è l’assenza della capacità più critica di qualsiasi intelligenza: dire non solo cosa è vero, cosa è stato e cosa sarà – questa è descrizione e previsione – ma anche cosa non è vero e cosa potrebbe e non poteva essere così. Questi sono gli ingredienti della spiegazione, il segno della vera intelligenza.

Ecco un esempio. Supponiamo di tenere in mano una mela. Ora lascia andare la mela. Osservi il risultato e dici: “La mela cade”. Questa è una descrizione. Una predizione potrebbe essere stata l’affermazione “La mela cadrà se apro la mano”. Entrambi sono preziosi ed entrambi possono essere corretti. Ma una spiegazione è qualcosa di più: include non solo descrizioni e previsioni, ma anche congetture controfattuali come “Qualsiasi oggetto cadrebbe”, più la clausola aggiuntiva “a causa della forza di gravità” o “a causa della curvatura dello spazio-tempo”. o qualsiasi altra cosa. Questa è una spiegazione causale: “La mela non sarebbe caduta senza la forza di gravità”. Questo è pensare.

Il punto cruciale dell’apprendimento automatico è la descrizione e la previsione; non pone meccanismi causali o leggi fisiche. Naturalmente, qualsiasi spiegazione in stile umano non è necessariamente corretta; siamo fallibili. Ma questo fa parte di ciò che significa pensare: per avere ragione, deve essere possibile avere torto. L’intelligenza consiste non solo di congetture creative, ma anche di critiche creative. Il pensiero in stile umano si basa su possibili spiegazioni e correzione degli errori, un processo che limita gradualmente le possibilità che possono essere razionalmente considerate. (Come disse Sherlock Holmes al dottor Watson, “Quando hai eliminato l’impossibile, tutto ciò che rimane, per quanto improbabile, deve essere la verità”.)

Ma ChatGPT e programmi simili sono, per progettazione, illimitati in ciò che possono “imparare” (vale a dire, memorizzare); sono incapaci di distinguere il possibile dall’impossibile. A differenza degli umani, ad esempio, che sono dotati di una grammatica universale che limita le lingue che possiamo imparare a quelle con un certo tipo di eleganza quasi matematica, questi programmi imparano lingue umanamente possibili e umanamente impossibili con uguale facilità. Mentre gli esseri umani sono limitati nei tipi di spiegazioni che possiamo razionalmente congetturare, i sistemi di apprendimento automatico possono apprendere sia che la terra è piatta sia che la terra è rotonda. Commerciano semplicemente in probabilità che cambiano nel tempo.

Per questo motivo le previsioni dei sistemi di machine learning saranno sempre superficiali e dubbie. Poiché questi programmi non sono in grado di spiegare le regole della sintassi inglese, ad esempio, potrebbero prevedere, erroneamente, che “John è troppo testardo per parlare” significa che John è così testardo che non parlerà con qualcuno o altro (piuttosto che è troppo testardo per essere ragionato con lui). Perché un programma di apprendimento automatico dovrebbe prevedere qualcosa di così strano? Perché potrebbe analogizzare lo schema che ha dedotto da frasi come “John ha mangiato una mela” e “John ha mangiato”, in cui quest’ultimo significa che John ha mangiato qualcosa o altro. Il programma potrebbe benissimo prevedere che, poiché “John è troppo testardo per parlare con Bill” è simile a “John ha mangiato una mela”, “John è troppo testardo per parlare con” dovrebbe essere simile a “John ha mangiato”. Le spiegazioni corrette del linguaggio sono complicate e non possono essere apprese solo marinando nei big data.

Perversamente, alcuni appassionati di apprendimento automatico sembrano essere orgogliosi del fatto che le loro creazioni possano generare previsioni “scientifiche” corrette (ad esempio, sul movimento dei corpi fisici) senza fare uso di spiegazioni (che coinvolgono, ad esempio, le leggi del moto di Newton e la gravitazione universale). Ma questo tipo di previsione, anche quando ha successo, è pseudoscienza. Mentre gli scienziati cercano certamente teorie che abbiano un alto grado di conferma empirica, come ha osservato il filosofo Karl Popper, “non cerchiamo teorie altamente probabili ma spiegazioni; vale a dire teorie potenti e altamente improbabili”.

La teoria secondo cui le mele cadono sulla terra perché quello è il loro posto naturale (punto di vista di Aristotele) è possibile, ma invita solo a ulteriori domande. (Perché la terra è il loro posto naturale?) La teoria secondo cui le mele cadono sulla terra perché la massa piega lo spazio-tempo (punto di vista di Einstein) è altamente improbabile, ma in realtà ti dice perché cadono. La vera intelligenza si dimostra nella capacità di pensare ed esprimere cose improbabili ma perspicaci.

La vera intelligenza è anche capace di pensiero morale. Ciò significa vincolare la creatività altrimenti illimitata delle nostre menti con un insieme di principi etici che determinano ciò che dovrebbe e non dovrebbe essere (e naturalmente sottoporre quegli stessi principi a critiche creative). Per essere utile, ChatGPT deve essere abilitato a generare un output dall’aspetto nuovo; per essere accettabile per la maggior parte dei suoi utenti, deve evitare contenuti moralmente discutibili. Ma i programmatori di ChatGPT e di altre meraviglie del machine learning hanno lottato – e continueranno a lottare – per raggiungere questo tipo di equilibrio.

Nel 2016, ad esempio, il chatbot Tay di Microsoft (un precursore di ChatGPT) ha inondato Internet di contenuti misogini e razzisti, essendo stato inquinato da troll online che lo hanno riempito di dati di addestramento offensivi. Come risolvere il problema in futuro? In assenza di una capacità di ragionare sulla base di principi morali, ChatGPT è stato brutalmente limitato dai suoi programmatori dal contribuire con qualcosa di nuovo a discussioni controverse, cioè importanti. Ha sacrificato la creatività per una sorta di amoralità.

(…)

In breve, ChatGPT e i suoi fratelli sono costituzionalmente incapaci di bilanciare creatività e costrizione. O sovragenerano (producendo sia verità che falsità, approvando allo stesso modo decisioni etiche e non etiche) o sottogenerano (esibindo non impegno verso qualsiasi decisione e indifferenza per le conseguenze). Data l’amoralità, la falsa scienza e l’incompetenza linguistica di questi sistemi, possiamo solo ridere o piangere per la loro popolarità.


Il testo originale in inglese può essere reperito qui


Guida alla lettura

Completate la scaletta del testo che vi proponiamo.

  1. Gli aspetti emotivi dell’impatto di IA su di noi. Borges come esempio. Riassumete brevemente
  2. Come lavorano i software di IA: quali software cita e come operano. Riassumete
  3. Non si verificherà a breve la profezia di Borges: cioè?
  4. I software di IA hanno usi limitati: quali?
  5. Come lavora invece la mente umana? Cita Humbolt (chi è?) e fa un primo esempio che ha valore argomentativo: esempio del bambino che impara a parlare. Riassumetelo mettendo bene in chiaro quelle che sono le differenze coi sistemi di IA.
  6. La tesi centrale di Chomsky: IA afferma descrizione e previsione, Ma l’intelligenza. umana è in grado anche di ragionare sulle cause.
  7. L’esempio della mela: spiegatelo con attenzione perché lì sta il motivo per cui IA non ci somiglia per niente.
  8. Chomsky spiega meglio la tesi centrale. l’intelligenza umana ricerca le cause, è. critica, ed è anche fallibile. Ma questo è appunto pensare. Riassumente questa parte del tessuto.
  9. L’imparare delle macchine è memorizzare. Come sostiene questa affermazione?
  10. La vera intelligenza è anche capace di pensiero morale. Che significa? Ricavatelo dal testo
  11. Quale il (durissimo) giudizio finale?.

Ultimo aggiornamento 12 Marzo 2023