Matteo Scano

Intelligenza Artificiale: tra Filosofi e Scienziati

2019-11-03 11:48:55

La mente umana รจ un computer? Quali sono le nuove frontiere filosofiche della ricerca sull'Intellligenza Artificiale? Queste e altre domande nel nostro nuovo tema domenicale: La Ricerca sull'Intelligenza non Umana


L'espressione Intelligenza Artificiale (IA) o Artificial Intelligence (AI) è stata usata per la prima volta da John McCarthy e da un team di 10 scienziati nel 1956 durante un seminario a New Hampshire.

Durante questa serie di conferenze, McCarty promise che lui e il suo team avrebbero creato in meno di due mesi una macchina artificiale capace di simulare perfettamente un cervello umano. A questo progetto si unirono anche diversi ricercaroti del MIT.

Ma - sopresa sorpresona - il loro proposito si rivelò assai più complesso del previsto, e di conseguenza il progetto fallì. Nonostante la delusione, McCarthy finì comunque con il creare quello che fu il primo linguaggio di programmazione artificiale: il Lisp.

Negli anni seguenti filosofi e scienziati cercarono di espandare le conoscenze sull'IA. Si svilupparono due correnti:

  • L'IA Forte pensava che le macchine potessero essere in grado di sostituirsi perfettamente agli esseri umani raggiungendo un proprio grado di consapevolezza
  • L'IA Debole pensava che le macchine non potessero diventare autoconsapevoli e che quindi dovessero semplicemente essere rilegate al ruolo di problem solver

Si formò inoltre una particolare scuola di pensiero, detta Funzionalismo, che sosteneva che la mente umana fosse esattamente come un computer. Secondo il Funzionalismo, infatti, la mente sta al cervello come il software sta all'hardware, perché la mente è immaginata come un insieme di programmi.

Alan Turing, padre dell'Informatica, arrivò a formulare un esperimento mentale che esprimesse questa convinzione: Il Test di Turing. Praticamente, in una conversazione in cui due interlocutori non si vedono, se una persona crede di stare parlando con un altro essere umano anche se in realtà sta parlando con un robot, allora si può dire che il robot sia in grado di pensare e non sia dunque diverso da un essere umano.

John Searle, un filosofo inglese, non era d'accordo. A suo dire la corrente dell'IA Forte rappresentata da Turing era sbagliata, e per dimostrarlo ideò un contro-esperimento al Test di Turing: il Test della Stanza Cinese.

Immaginate un uomo (lo chiameremo Bob per facilità - John Searle non approva) rinchiuso all'interno di una stanza i cui muri sono fiancheggiati da libri contenenti simboli cinesi. Bob però non conosce minimamente il Cinese: non sa nemmeno che i simboli nei libri sono l'alfabeto cinese! Attraverso l'unica porta della stanza c'è un piccolo passaggio dal quale entra ogni ora un foglio di carta con simboli cinesi. Il foglio è infatti scritto da un uomo cinese al di fuori della stanza e da lui mandato al suo interno.

Sempre dentro la stanza c'è un libro scritto in Inglese che dice esattamente cosa fare e cosa scrivere sul foglio che l'uomo cinese manda a Bob ogni ora. Dopo aver scritto ciò che ha letto sulle istruzioni, Bob deve rimandare il foglio all'uomo cinese.

Ricapitolando: Bob riceve un foglio dal Cinese, guarda sul libro in Inglese a cosa corrispondono i simboli cinesi, e rimanda all'esterno il foglio dopo aver scritto ciò che gli dicono le istruzioni sul libro in Inglese

La persona all'esterno della stanza, ovvero il Cinese, sta in questo momento credendo di avere una conversazione con una persona che sa il Cinese, anche se Bob non lo conosce per nulla! Infatti Bob si sta limitando a scrivere in Cinese imitando quanto scritto sul libro in inglese, pur non capendo nulla di quello che scrive (un po' come se con google translate io provassi a scrivere in arabo - avrei scritto in arabo e un arabo mi capirebbe, ma io non avrei la più pallida idea di che cosa avrei davvero scritto)


Bob è come un computer: non comprende il Cinese, ma simula di comprenderlo. Questo è il motivo per cui Searle ritiene che la teoria di Alan Turing sia sbagliata: anche se un computer può convincere un umano di stare parlando con un altro umano, non si può dire che il computer stia pensando! Così, anche se un uomo si comporta come se conoscesse davvero il Cinese, questo non vuol dire che conosca davvero il Cinese.


A questa critica si aggiunse quella di Hubert Dreyfus, che sostenne fosse impossibile che un computer divenrasse uguale a una mente umana: il computer, dice Dreyfus, non ha il senso comune (buon senso) di un uomo comune! Non ha insomma tutto quell'insieme di credenze condivise che caratterizzano gli uomini.


Personalmente, però, io credo avesse ragione Turing. La mente umana non è necessariamente uguale a un computer, però i computer potrebbero benissimo diventarlo. Non ritengo che ci sia qualcosa di così speciale nella nostra mente e nel nostro cervello da non poter essere replicato: è solo una questione di tempo prima che la Scienza ci riesca.


Bob potrà anche non sapere il Cinese, ma allora? Ai fini comunicativi della conversazione, conta qualcosa che egli sappia solo fingere di sapere il Cinese? Non c'è nessuna differenza, a livello comunicativo, tra fingere di sapere una cosa e saperla davvero (a patto che la finzione sia della stessa qualità della conoscenza reale)


E voi, cosa ne pensate? Fatemelo sapere nei commenti