Le neuroscienze decretano la fine del libero arbitrio? (parte terza)

 
 
di Michele Forastiere*
*professore di matematica e fisica
 

Nei due precedenti articoli (Ultimissima 13/1/12 Ultimissima 24/1/12) avevamo cominciato a esaminare il problema del libero arbitrio e della mente, alla luce delle indicazioni fornite dalle neuroscienze.

Eravamo giunti a fissare alcuni punti fermi:

A) Il concetto pragmatico di responsabilità morale e legale non è intaccato dalle recenti osservazioni neuroscientifiche, poiché rimane non falsificabile l’ipotesi che le scelte importanti dipendano dalla consapevolezza cosciente di una persona (che si tratti di un processo neuronale – ancora non ben specificato – o di altro)

B) Non esistono prove decisive che facciano propendere più per un funzionamento deterministico che per uno indeterministico del cervello (e viceversa);

C) Le neuroscienze non sono in grado di dare indicazioni conclusive neanche riguardo alla cornice concettuale in cui inquadrare il rapporto causale mente-cervello (interazionismo o riduzionismo materialista?)

In particolare, avevamo concluso osservando che sarebbe probabilmente necessario rivolgersi ad altre discipline (come la fisica e l’informatica) per ottenere qualche suggerimento concreto – soprattutto in relazione all’ultimo punto citato, il cosiddetto problema ontologico.

Cominciamo dall’INFORMATICA. Come è noto, i ricercatori nel campo dell’intelligenza artificiale perseguono da molti anni l’obiettivo di realizzare una “mente” algoritmica equivalente a quella umana. Fino a oggi, ogni tentativo è stato infruttuoso. Qualora ci si riuscisse, però, risulterebbe dimostrata l’esportabilità dell’autocoscienza su un supporto informatico. In tal caso, sia il riduzionismo materialista sia il determinismo troverebbero – apparentemente – un forte argomento a loro favore. Va però chiarito che, in realtà, neanche la realizzazione di un’autocoscienza artificiale dimostrerebbe alcunché, dal punto di vista scientifico, riguardo al problema ontologico. La ragione di ciò risiede in una considerazione fondamentale: qualunque test ipotizzabile per la valutazione della consapevolezza (come il famoso Test di Turing o il più recente ConsScale) non potrà mai dire nulla di conclusivo sull’esperienza autocosciente, che è un fenomeno intrinsecamente sperimentabile solo “in prima persona”. In altre parole, non vi è alcun modo concepibile per cui procedure di verifica applicate “dall’esterno” (i test) possano avere accesso ad aspetti fenomenologici vissuti “dall’interno” (l’esperienza autocosciente), quand’anche il sistema esaminato mostrasse tutte le caratteristiche funzionali di una mente consapevole.

C’è dell’altro. Come è ovvio, il tentativo di realizzare una macchina veramente pensante si basa sull’assunto che l’autocoscienza sia effettivamente una caratteristica algoritmica: puro software, indipendente dallo specifico supporto hardware (tesi dell’Intelligenza Artificiale forte). Tale ipotesi corrisponde all’idea che il cervello umano sia riconducibile a una qualche complicata macchina di Turinge perciò – in ultima analisi – che il funzionamento della mente equivalga all’esecuzione di una serie di calcoli aritmetici, seppure enormemente complessi. Al di là del fatto che tale concezione implica che ogni fenomeno psichico concretamente sperimentabile – percezioni, emozioni, sentimenti, pensieri – sia pura illusione, è risaputo che essa non è in grado di spiegare la fondamentale caratteristica mentale dell’intenzionalità. Con questo termine si indica, nell’analisi filosofica delle funzioni cognitive, la capacità della mente umana di assegnare contenuto semantico a dati sintattici, ovvero di attribuire un significato a una serie di simboli. Perciò, un’intelligenza artificiale potrebbe non giungere mai a essere dotata di intenzionalità, essendo essenzialmente costituita da strutture formali – gli algoritmi – che sono per loro natura meramente sintattiche.

Questa incapacità intrinseca è stata esemplificata in modo suggestivo dal filosofo John Searle, nel famoso argomento della “Stanza cinese”. Come è logico aspettarsi, Searle è molto criticato dai sostenitori dell’Intelligenza Artificiale forte. Da profano, tuttavia, mi pare di capire che le obiezioni alla sua argomentazione si basino sostanzialmente su un’aspettativa indimostrata: quella che la consapevolezza autocosciente debba comparire spontaneamente in una macchina opportunamente progettata, a patto che questa raggiunga una soglia minima di complessità algoritmica. La mia impressione è che tale congettura abbia un’unica giustificazione razionale: la constatazione che di fatto esiste, nell’Universo, un sistema enormemente complesso dotato di autocoscienza – il cervello umano. Un’osservazione empirica a sostegno di un’ipotesi, però, non basta certo a dimostrarne la verità. Tra le ragioni che si oppongono alle tesi dell’Intelligenza Artificiale forte citerei infine l’argomento gödeliano di Lucas-Penrose, secondo cui l’intuito matematico è di natura non-algoritmica. In breve, la  tesi consiste in questo: in base ai teoremi di incompletezza di Gödel i sistemi computazionali hanno dei limiti che la mente umana non ha. La dimostrazione non è complicata: per i teoremi di Gödel, in ogni sistema formale coerente – abbastanza potente da comprendere l’aritmetica – esiste un enunciato vero (un cosiddetto enunciato gödeliano) che il sistema stesso non può dimostrare; ciò non di meno, noi umani siamo in grado di capire che l’enunciato gödeliano è vero: perciò, noi umani possediamo una capacità di cui il sistema formale è privo. Ora, poiché ogni sistema computazionale opera in modo algoritmico sulla base di un qualche sistema formale, risulta in tal modo dimostrata l’irriducibilità dell’intuito matematico – e per estensione dell’intera attività mentale – a una procedura algoritmica esportabile su supporto informatico.

Anche stavolta, naturalmente, le critiche a questa conclusione vengono soprattutto dai sostenitori dell’Intelligenza Artificiale forte. Dato, però, che le dimostrazioni dei teoremi di Gödel sono irrefutabili, gli attacchi filosofici all’argomento gödeliano partono solitamente dal contestare i postulati che sono alla base di quei teoremi (per esempio, il concetto di sistema formale). Francamente, penso che una scappatoia del genere risulti poco digeribile alla maggior parte dei matematici. Va detto, peraltro, che anche un materialista come Douglas Hofstadter ritiene l’argomento gödeliano difficilmente confutabile. Nonostante le difficoltà logiche citate, molti studiosi sono fermamente convinti che entro qualche decennio si arriverà a creare una mente algoritmica autocosciente. I neuroscienziati Giulio Tononi e Christof Koch, per esempio, hanno già proposto un nuovo tipo di test di Turing per verificare il livello di consapevolezza di un’ipotetica “macchina pensante”. Personalmente, ritengo che questa proposta non aggiunga niente di realmente nuovo allo scenario, essendo soggetta agli stessi limiti di ogni altro test di valutazione dell’autocoscienza. Le riflessioni di Koch e Tononi, forniscono però, secondo me, un’interessante indicazione: in considerazione delle enormi difficoltà finora incontrate dalla ricerca sull’intelligenza artificiale, i due ricercatori dichiarano infatti di sospettare che una mente artificiale “potrebbe sfruttare i principi strutturali del cervello dei mammiferiper diventare autocosciente.  Insomma, pare che tra gli studiosi di intelligenza artificiale si stia facendo strada l’idea (abbastanza rivoluzionaria) che un’autocoscienza computazionale potrebbe aver bisogno quanto meno di un supporto fisico con una specifica architettura – quella di un certo sistema biologico – per poter emergere.

Viene allora spontaneo chiedersi se la consapevolezza cosciente non possa rivelarsi essere, in fin dei conti, una caratteristica non esportabile, ed esclusiva di un ben preciso oggetto fisico: il cervello umano (o, naturalmente, quello di un’eventuale altra forma di vita intelligente – di cui però non abbiamo, al momento, prove). Appare chiaro che, se le cose stessero effettivamente così, uno studio teorico del legame mente-cervello andrebbe condotto da una prospettiva totalmente differente da quella dell’informatica, e ancora più approfondita di quella della neuroscienze: potrebbe rendersi necessario, in altre parole, arrivare al livello della stessa fisica fondamentale dei fenomeni coinvolti nell’attività cerebrale. Ovviamente l’approccio non dovrebbe più essere quello della fisica classica, su cui continuano largamente a basarsi gli attuali modelli del funzionamento del cervello: esso, infatti, non può che condurre a un concetto di mente computazionale – e questo, alla luce di quanto abbiamo visto finora, non è in grado di risolvere il problema ontologico, né tanto meno quello del determinismo.

Nel prossimo (e ultimo) articolo, dunque, cercheremo di capire se la FISICA possa davvero darci qualche indizio decisivo sulle questioni della mente e del libero arbitrio.

Michele Forastiere
michele.forastiere@gmail.com

Condividi su:
  • Aggiungi su Facebook
  • Aggiungi su Twitter
  • Aggiungi su Windows Live
  • Aggiungi su MySpace

78 commenti a Le neuroscienze decretano la fine del libero arbitrio? (parte terza)

« nascondi i commenti

  1. GiuliaM ha detto

    Apro una parentesi informatica: nella programmazione, i compilatori sono programmi che traducono il codice scritto dall’uomo nel cosiddetto “codice oggetto”, cioè in linguaggio macchina. Tali compilatori riescono ad identificare nel codice solo un certo tipo di errori, gli errori sintattici; per fare un esempio, riconoscerebbe come errata la frase “io del mangiato ho pollo” o la parola “cuasi”. Ma non è in grado di riconoscere errori semantici: per lui la frase “l’albero cantò un tir” è corretta!
    Un errore semantico in programmazione sarebbe, ad esempio, una sequenza di istruzioni che “funzionano” ma non fanno quel che noi volevamo a causa di errori nella progettazione dell’algoritmo.
    L’intelligenza del compilatore, quindi, si riduce a un semplice controllo meccanico, mentre per trovare gli errori di semantica bisogna affidarsi tutto all’intelligenza umana; ci possono essere i debugger in aiuto, che tracciano l’andamento del programma passo per passo, ma è in primo luogo il programmatore che conosce il “senso” del programma che ha scritto, cosa che nessuna intelligenza artificiale è in grado di fare, e solo lui può intervenire.

    • Luigi Pavone ha detto in risposta a GiuliaM

      “per trovare gli errori di semantica bisogna affidarsi tutto all’intelligenza umana”

      Non è proprio così. Infatti possiamo tradurre in sintassi parte della semantica, mediante postulati di significato, che riconducono predicazioni semanticamente sbagliate a predicazioni sintatticamente sbagliate.

      • GiuliaM ha detto in risposta a Luigi Pavone

        Non credo che un tale postulato sia applicabile al debugging; se per qualche refuso crei un loop infinito (quando ovviamente non lo volevi), la macchina continuerà a ciclare senza rilevare nulla di sbagliato, fin quando la memoria non finisce. In generale, se sbagli a scrivere un’operazione, la macchina farà quel che gli è stato chiesto ma senza domandarsi il “perchè” o se sia “giusto”…

        • Andrea ha detto in risposta a GiuliaM

          Ciao Giulia,
          parti dall’assunto che l’algoritmo da “debuggare” non giri in una sandbox ma debba necessariamente girare direttamente in un processo nativo, se così non fosse sarebbe possibile uscire da un loop infinito mettendo semplicemente un timeout. Un algoritmo più generico “progettato” per ricercare (generandoli lui stesso a caso o deducendoli da correlazioni ambientali) algoritmi specifici e testarli in condizioni isolate potrebbe svolgere proprio tale ruolo di sandbox senza entrare in crisi così facilmente ogni volta che formula ipotesi sbagliate (una sorta di CTRL-ALT-CANC biologico 😉

      • Kosmo ha detto in risposta a Luigi Pavone

        uh?

      • GiuliaM ha detto in risposta a Luigi Pavone

        Inoltre tale postulato è una cosa puramente grammaticale, mentre qua si sta parlando di “meccanismi”…

      • credino ha detto in risposta a Luigi Pavone

        quello che dice giuliam è vero ed è una cosa nota ai programmatori. il linguaggio macchina riconosce la sola correttezza sintattica. che poi i concetti semantici possano essere ricondotti o meno a mere relazioni tra simboli (cioè sintassi) è un altro discorso. ma finché riconosciamo valida la distinzione sintassi-semantica, allora è giusto dire che le macchine hanno accesso solo alla sintassi.

  2. Michele Forastiere ha detto

    Buona Domenica a Giulia e Luigi, i primi commentatori dell’articolo!
    Caro Luigi, quello che lei dice è senz’altro possibile; però, come è facile capire, apre la strada ad un “regressio ad infinitum” che pare sia un problema ben noto alla semantica (http://books.google.it/books?id=2s0mDDinA3gC&pg=PA36&lpg=PA36&dq=regressio+ad+infinitum&source=bl&ots=yhv93XUWtU&sig=xjzaclm-zPOEyUCgxIoVGrwaL44&hl=it&sa=X&ei=tYIuT-6jLoKT-wa6puSXDg&sqi=2&ved=0CDYQ6AEwAw#v=onepage&q=regressio%20ad%20infinitum&f=false). L’unico modo per bloccare questo scivolone inerminabile sta, credo, in ciò che ha indicato lei stesso: sono i postulati di significato che, tuttavia, è il programmatore umano a fissare! 🙂
    Un cordiale saluto

    • GiuliaM ha detto in risposta a Michele Forastiere

      Ho trovato molto interessante il suo articolo, professore, soprattutto perchè queste cose le studio 🙂 Attendo il suo ultimo articolo sulla fisica, intanto la ringrazio!

      • Michele Forastiere ha detto in risposta a GiuliaM

        Cara Giulia, sono contento di essere riuscito a dire qualcosa di interessante anche per un'”addetta ai lavori” come lei – i suoi commenti sono perciò, per me, preziosissimi. A proposito: se ricordo bene, lei dovrebbe essere prossima alla laurea in informatica; se non mi sono sbagliato, dunque, in bocca al lupo! 🙂

    • Scettico ha detto in risposta a Michele Forastiere

      E’ sempre piacevole e stimolante leggere gli articoli pubblicati su questo sito.
      Ringrazio Michele, per la panoramica che sta facendo. In particolare da “addetto ai lavori” (perchè studio nel campo dell’IA), posso confermare tutte le considerazioni e le notizie che ha riportato.
      Vorrei aggiungere due cose molto veloci a quello che detto Michele per fare chiarezza sui limiti della macchina di Turing.

      Ogni calcolatore, programma o interprete è riconducibile ad una macchina di Turing. Questa è in grado di risolvere solo problemi che sono algoritmicamente risolubili (Tesi di Church-Turing). E Fino ad ora, nessun formalismo si è dimostrato più potente della macchina di Turing, questo significa, ad esempio, che nessun linguaggio di programmazione, o macchina programmabile è in grado di risolvere più problemi di una macchina di Turing. (Potete mettere tutta la memoria e la potenza di calcolo che volete).

      Infatti esistono funzioni che sono bene definite matematicamente, ma non calcolabili dalle macchine. Un esempio è la funzione di Ackermann (http://it.wikipedia.org/wiki/Funzione_di_Ackermann)

      Godel-Turing hanno dimostrato, tramite il “problema della fermata della macchina di Turing” quale è il limite di questo formalismo.

      In generale è calcolabile solo un insieme numerabile di funzioni di N in N. (questo perchè ad ogni macchina di Turing è possibile associare una funzione di N in N, tramite la Godelizzazione, ma ovviamente l’insieme delle macchine di Turing è numerabile e non infinito continuo)

      Mi scuso se sono stato, forse, troppo “formale”. Ma non ho ancora la capacità di semplificare concetti, spesso complessi, come fanno gli articolisti del sito.

  3. Enzo Pennetta ha detto

    Ciao Michele, anche stavolta hai sviluppato con grande precisione e sintesi un ragionamento che, uscendo dalle solite affermazioni generiche che si sentono in giro, mette a nudo i problemi e le contraddizioni di chi vuole vedere la coscienza come la “secrezione” di un sistema complesso come il cervello.
    In definitiva, a distanza di pochi giorni, siamo ancora una volta a confrontarci col riduzionismo, e da quello che hai scritto, mi sembra che sia una strada che in questo campo non porti a spiegazioni convincenti.

    • Michele Forastiere ha detto in risposta a Enzo Pennetta

      Caro Enzo, hai proprio ragione, in giro se ne sentono di tutti i colori… su “Focus” di febbraio, per esempio, si dichiara allegramente che in futuro si potrà sostituire il cervello con una “mente artificiale”. Che dire: tutto può essere, però in certi casi io mi sento tanto come San Tommaso… se non vedo non credo! 🙂
      Un caro saluto

  4. Luigi Pavone ha detto

    Buona domenica anche a lei, prof., mi riferivo soltanto alla parte inferenziale del significato lessicale. Quanto alla vaghezza, per così dire, dei significati, o, per meglio dire, il loro carattere pragmatico, pare che i linguisti e i filosofi del linguaggio si dividano in due categorie: coloro che ritengono la distinzione tra significato letterale e significato pragmatico, e coloro che ritengono invece che sia disperato tracciare una simile distinzione, la quale coinvolgerebbe anche l’elemento inferenziale del significato. Per conto mio, penso che la distinzione sia sensata e vada mantenuta, almeno se riteniamo certi valori non dispensabili: mi riferisco al carattere epistemico delle teorie, ma a anche nozioni normative in molti campi, primo fra tutti il campo della traduzione.

  5. Giorgio Masiero ha detto

    Un articolo lucido e chiaro. Ineccepibile, a mio parere, dal punto di vista scientifico.
    Mi ha colpito la frase: “Nonostante le difficoltà logiche citate, molti studiosi sono fermamente convinti che entro qualche decennio si arriverà a creare una mente algoritmica autocosciente”. Su che cosa si basa questa loro “ferma convinzione”? Su nulla. Ricordate il bellissimo film di Stanley Kubrick “Odissea 2001 nello spazio” del 1968 ed il computer Hal (http://www.youtube.com/watch?v=WRcrHVIJivU )che ragionava, soffriva e sbagliava e alla fine moriva, come ogni essere umano? Anche allora i fautori dell’IA pensavano che nel giro di 30 anni si sarebbe creata una mente intelligente. Ne sono passati quasi 50 e nessun progresso, dico “nessuno”, è stato fatto in questa direzione. In compenso, Hollywood ci ha divertito con decine di bellissimi film da Blade Runner a Matrix a Avatar.
    Questo fallimento non è di tipo tecnico-applicativo, né si deve alla scarsità dei finanziamenti impegnati nella ricerca (che invece sono stati enormi ed hanno anche causato fallimenti di newco e start up dedicate); ma è dovuto all’incapacità di trovare una base scientifica concettuale (di necessità dal punto fisico riduzionista, e da quello logico algoritmica) adeguata all’impresa. Certo è dura, per i gruppi di ricerca impegnati nell’IA dover chiudere la baracca per insussistenza scientifica del progetto. Così come è dura per le ideologie smentite dai fatti riconoscerne la dura inerzia.
    Noi citiamo sempre Occam e Popper come principi guida della scienza. Però, ricordiamoci, il frate francescano e l’epistemologo razionalista sono stati notoriamente degli “ingenui”, almeno con riferimento alla situazione del sistema tecnico-scientifico moderno, a ridurre alla semplicità assiomatica e al falsificazionismo sperimentale la competizione tra le teorie scientifiche: Imre Lakatos ha dimostrato che altrettanto pesano i programmi di ricerca (cioè l’economia) e lo sfondo concettuale generale (cioè la visione del mondo, l’ideologia insomma).
    E’ illuminante allora l’ultima novità di cui ci ha informato Forastiere: la proposta dei cosiddetti neuroscienziati (che io preferisco chiamare col nome esatto di tecnici delle misure elettroencefalografiche) di ripiegare su una IA, non più basata sul silicio ed altri materiali inanimati, ma sul “cervello dei mammiferi”!
    L’IA si ridurrà all’ammaestramento degli animali, che come è noto è una tecnica che ha mostrato fin dall’allevamento domestico del cane e del gatto selvatico grande successo?

    • Enzo Pennetta ha detto in risposta a Giorgio Masiero

      Ciao Giorgio, la frase finale del tuo intervento la trovo particolarmente efficace, è come se dopo aver immaginato HAL9000 ci risvegliassimo accorgendoci di aver fatto solo un sogno, e che la vera IA nello spazio l’avevano già mandata negli anni ’60 i russi con la cagnetta Laika e gli americani con la scimmia Ham.

    • Luigi Pavone ha detto in risposta a Giorgio Masiero

      Comunque, propriamente parlando Hal non muore: http://www.youtube.com/watch?v=s-MTlyS0XQk

    • Michele Forastiere ha detto in risposta a Giorgio Masiero

      Tra l’altro, mi giunge voce che esiste un metodo solidamente testato per produrre una nuova mente di livello umano a partire da due umani pre-esistenti… l’investimento tecnologico è minimo e il risultato garantito! 😀

    • GiuliaM ha detto in risposta a Giorgio Masiero

      Secondo me l’IA di oggi è già un “ammaestramento” molto facile: dai delle precise istruzioni a una macchina che le esegue senza fiatare! Poi queste istruzioni possono anche essere “furbe” quanto vogliamo (algoritmi autoapprendenti, di compressione, ecc.) ma è sempre l’uomo a inventarli, non si generano da sè!
      Un’eccezione potrebbero essere gli algoritmi automodificanti, ma sono altamente sconsigliati per varie ragioni:
      – sono molto complessi e difficili da analizzare: i virus sono basati su tali algoritmi proprio per sfuggire all’analisi dei programmi antivirus.
      – è difficilissimo debuggarli e si evolvono in modo molto imprevedibile.
      Erano utilizzati solo una volta, quando i sistemi di indirizzamento delle celle di memoria erano meno raffinati (architettura di Von Neumann), ma ora solo un pazzo si imbarcherebbe in queste cose, se non per pura curiosità 😉

  6. Carmine ha detto

    Ammetto che da qualche settimana sto stampando questi articoli per parlarne in classe al mattino o comunque per prendere degli spunti. Grazie mille ragazzi.

    • Michele Forastiere ha detto in risposta a Carmine

      Caro Carmine, credo che questo sia il complimento più bello che si possa ricevere da un collega!

  7. joseph ha detto

    Quando leggo questi articoli mi sento come Manolito nella famosa striscia di Mafalda…

  8. EnricoBai ha detto

    davvero un bell’articolo…mi ero perso i precedenti e ho usato questo pomeriggio per ripassare. complimenti all’autore.

  9. Alessandro ha detto

    Complimenti per gli articoli Michele li sto leggendo con piacere, sopratuttto per la chiarezza espositiva. Non e’ facile farlo specie trattando certi argomenti.
    Non so se hai letto il libro di Penrose “La mente nuova dell’imperatore”, forte critica del fisico Penrose alla cosiddetta AI forte.
    C’erano alcuni esempi veramente interessanti nel libro su cio’ che potrebbe accadere se si avverassero le predizioni della AI. Ne riporto due.
    Uno era quello del libro: un libro, di notevole dimensioni(!), potrebbe contenere l’algoritmo del nostro cervello. Una qualsiasi persona potrebbe trovare risposta ad un quesito postoci usando quel libro. Poniamo che sia facilmente usabile essendo fatto da semplici domande con risposte SI e NO e ad ogni domanda rimandasse ad un altra pagina con un altro quesito. Bene, alla fine del processo il libro risponderebbe esattamente come il cervello da cui fosse stato “scaricato” l’algoritmo.
    Il secondo era ancor piu’ fanatscientifico: immaginiamo che l’uomo ad un certo punto, sia progredito abbastanza da poter anche “fotocopiare” ogni singola particella del nostro corpo ad un dato istante. Per poter viaggiare, per es. dalla Terra a Marte, la cosa piu’ veloce sarebbe quella di trasmettere quell’informazione e non il nostro corpo. Su Marte poi dovrebbe solo esserci un altro macchinario atto alla ricostruzione del nostro corpo(e mente) basata su l’informazione trasmessa. Il nostro nuovo IO si vedrebbe teletrasportato su Marte, come voleva. La domanda a quel punto sorge spontanea, che farne del nostro vecchio IO sulla Terra ?
    Senza dilungarmi ulteriormente si capisce benissimo a quali altri “problemi”, chiamiamoli cosi’, si andrebbe incontro, semantica e sintassi passerebbero sicuramente in secondo piano.

    Poi volevo chiederti come mai nessuno sembra mai citare un piccolo passaggio de “L’uomo bicentenario”, racconto breve di Isaac Asimov e interpretato per il cinema da Robin Williams. In quel racconto, si fa menzione di come cambi radicalmente la percezione del robot cosciente quando viene dotato di meccanisimi capaci di fargli provare, freddo, caldo, dolore etc.
    Possibile che nessuno pensi mai a come il nostro cervello si sia evoluto ? Bene o male esso e’ partito da organismi unicellulari a noi sempre sotto l’enorme influsso dell’ambiente esterno.
    Credo che questo abbia avuto un impatto incredibilmente potente sul suo sviluppo.
    Ripeto, mi sembra strano che nessuno pensi ad un concetto tanto semplice.

    • Michele Forastiere ha detto in risposta a Alessandro

      Caro Alessandro, certo che l’ho letto! Comunque la si pensi, credo che “La mente nuova dell’imperatore” sia un libro fondamentale. Il primo esempio, in effetti, corrisponde alla famosa “Conversazione col cervello di Einstein”, scritta da Douglas Hofstadter per “L’io della mente”: ricordo che quando lo lessi (tantissimi anni fa, ormai) mi lasciò molto perplesso – nonostante all’epoca propendessi, diciamo un po’ superficialmente, per un’idea di mente algoritmica.
      Il secondo esempio, da gran divoratore di fantascienza, mi ha perseguitato per un po’ di tempo: se ricordo bene, c’era anche un racconto in cui il corpo teletrasportato era programmato per autodistruggersi dopo avere svolto il suo compito (per evitare, appunto, duplicati ridondanti di una stessa personalità)! Terribile…
      Quanto alla citazione del “buon dottore” Asimov, mi sa che ci hai azzeccato: sono proprio Koch e Tononi che parlano di una cosa del genere a pag. 59 del lavoro di cui parlo nell’articolo (questo – http://www.klab.caltech.edu/news/koch-tononi-08.pdf)! Si ritorna comunque allo stesso punto: se l’unico modo di ottenere una mente artificiale funzionante è quello di “copiare” il cervello umano… secondo me vuol dire che c’è qualcosa che non torna nel concetto di base (cioè, l’esportabilità della mente).
      Saluti!

      • GiuliaM ha detto in risposta a Michele Forastiere

        Dovrò leggerlo Asimov prima o poi, mi avete messo curiosità! Lo so che è riprovevole che una “nerd” come me non lo conosca, ma il tempo scarseggia 🙂

  10. dome ha detto

    Ringrazio Michele Forastiere un articolo brillante, fresco e godibile nelle analisi.
    Pensi che mi ha deliziato così tanto che non riesco a porre delle domande
    Alla prossima!

    • Michele Forastiere ha detto in risposta a dome

      Sono veramente felice che le sia piaciuto! Come sempre, però, dovrei essere io a ringraziare voi tutti per l’attenzione con cui leggete i miei scritti.

  11. Max ha detto

    Caro Michele, cio’ che scrivi mi sembra assai interessante e “denso”. Dovro’ stamparmelo e rileggerlo con calma.

    Dovresti scrivere sul blog di un certo giornalista del Daily Telegraph od agli interventi di un certo svedese, almeno per far venire loro qualche dubbio, sarebbe gia’ qualcosa 😉

    Ciao e God bless.

  12. Antonio72 ha detto

    Non sono di certo un solipsista ma se ci basiamo solo sull’evidenza che il fenomeno autocosciente è sperimentabile solo in prima persona, si potrebbe negare l’autocoscienza non solo nelle eventuali future macchine, ma anche negli altri uomini, oggi. Qualche animalista potrebbe addirittura pensare che il gatto o il cane siano più autocoscienti dell’uomo.
    Per quanto riguarda invece l’esperimento della Stanza Cinese di Searle, è inutile discutere all’infinito tra i materialisti-riduzionisti ed i dualisti.
    Infatti i primi spiegheranno che la comprensione del cinese, come qualsiasi altra comprensione, emerge da un sistema complesso e non dai suoi sottosistemi, dai sottolivelli, o addirittura dai singoli componenti (come nel cervello non esiste alcun neurone che sa il cinese, non esisterà mai alcun transistor che saprà il cinese); nel caso del programma di Searle, lo stesso filosofo rappresenta un ingranaggio ignaro dell’intero meccanismo (come il singolo neurone del cervello), il quale in effetti comprende benissimo il cinese.
    Gli ultimi, invece, diranno che qualsiasi incremento degli ingredienti di un sistema, che siano transistor o neuroni, non potrà mai condurre alla comprensione autentica di alcunchè e quindi nemmeno all’autocoscienza umana.
    Era il mio stesso argomento di discussione con Andrea nell’ultimo blog, ovvero l’autocoscienza come “cambio di paradigma”. Ma per Andrea la mia “goccia che fa traboccare il vaso” è rappresentato proprio da un neurone, e quindi se per assurdo lo scimpanzè contasse gli stessi neuroni dell’uomo, allora lo scimpanzè diventerebbe autocosciente come l’uomo, senza alcuna necessità che operi un agente esterno che non sia l’ambiente e quindi la selezione naturale.
    L’autocoscienza per i riduzionisti emergerebbe quindi dalla complessità cerebrale, che si raggiunge superata una certa soglia neurale. Quindi per loro l’autocoscienza rappresenta un livello superiore sviluppato dai sottolivelli elementari necessari per la sopravvivenza di qualsiasi organismo biologico. Tuttavia alla mia domanda, quale pressione ambientale abbia imposto e quindi selezionato l’autocoscienza nell’uomo, rispondono pressapoco così: l’autocoscienza è emersa spontaneamente dallo sviluppo dei sottosistemi elementari che si sono fatti sempre più numerosi e con interazioni tra loro sempre più complesse (all’incirca l’anello nell’io di Hofstadter). Una volta emerso questo sottoprodotto dai sottosistemi elementari, ecco che allora il fenotipo autocosciente sviluppa capacità intellettive e predittive superiori e quindi viene selezionato dallo stesso ambiente. In definitiva l’approccio è coerente con il modello darwiniano: mutazione casuale genotipica -> fenotipo mutante -> selezione naturale = autocoscienza casuale -> fenotipo cosciente -> selezione naturale. Quindi se l’autocoscienza umana emerge esclusivamente dalle numerose, particolari e complesse connessioni cerebrali non si capisce perchè, dice il riduzionista, con la eventuale futura o futuribile retroingegnerizzazione dell’intero cervello umano, non si potrebbe creare una IA del tutto simile a quella umana; ed anche gli stessi speciali e particolari algoritmi, paralleli autoorganizzanti, ecc.. che operano nel cervello umano, non si capisce perchè un giorno non potranno essere riprodotti artificialmente. La mia risposta è che l’autocoscienza umana non sia affatto emersa da sottolivelli elementari, ma che sia qualcosa di unico ed irripetibile in quanto non riducibile alle sola complessità neurale del cervello umano. Per me quindi l’autocoscienza umana è sì, una “ciliegina sulla torta”, ma una ciliegina non intesa nel senso riduzionistico, piuttosto nel senso che è “un di più” inservibile alla torta in sè, in quanto è una qualità particolare ed indipendente dal meccanismo biologico, la cui funzione non è quella di potenziare il meccanismo, che rimane quello che è, ma di trascendere lo stesso meccanismo, perchè la realtà non è affatto solo meccanica e determinista. L’autocoscienza umana quindi proviene direttamente da Dio e ci rende liberi di conoscere Dio.

    • dome ha detto in risposta a Antonio72

      Ragionamento che non fa una piega! Complimenti…

    • Michele Forastiere ha detto in risposta a Antonio72

      Certo, caro Antonio. Le spiegazioni del riduzionismo materialista al problema della comparsa dell’autocoscienza sono esattamente quelle che dici (a proposito, possiamo darci del tu?). 🙂
      Personalmente, l'”escamotage” degli anelli nell’io di Hofstadter mi ha sempre lasciato allibito: penso che sia un concetto ancora più evanescente del buon vecchio “ghost in the machine”, perché ipotizza – in soldoni – che un calcolo aritmetico possa cominciare a “sentire qualcosa” non appena diventa sufficientemente complesso da poter in qualche modo “contemplare se stesso”, tirandosi fuori per così dire dal sistema… bah! Se questo non è un appello a una forma distorta di trascendenza, non so cos’altro possa esserlo!
      In ogni caso, credo che sia significativo il fatto che la ricerca sull’IA si stia sempre più orientando verso l’idea di “copiare” il cervello umano, e in particolare di cercare di ricalcare i (presunti ipotetici immaginari) passi compiuti dall’evoluzione per arrivarci. In sostanza, si comincia ad ammettere che forse non basta una forma astratta di complessità (per cui un’equipollenza formale e topologica sarebbe sufficiente per emulare il fenomeno “mente”), ma che potrebbe essere bensì necessario riprodurre esattamente il cervello umano – non è chiaro però a nessuno a quale livello di dettaglio (atomo per atomo? elettrone per elettrone e ione per ione? …)
      Un caro saluto

      • GiuliaM ha detto in risposta a Michele Forastiere

        In effetti l’informatica è intesa per lo più come “rappresentazione della realtà”: si codifica quel che si vuole memorizzare in un certo linguaggio. La programmazione a oggetti è rappresentativa di questa concezione: si “dichiarano” in astratto le strutture dati che rappresentano un’entità, e l’esecuzione del programma poi potrà “creare” tali oggetti e farli interagire tra loro.
        Es. se voglio rappresentare una stanza dichiaro un oggetto che si chiama “stanza”, e al suo interno ci inserisco gli attributi “tavolo”, “sedia”, “pavimento”, “muro” ecc. che a loro volta potrebbero essere oggetti.

        Secondo me anche noi vediamo il mondo come una rappresentazione: tramite le nostre “periferiche”, ossia i cinque sensi, catturiamo parti della realtà, che il nostro cervello, in modo misterioso, unifica e percepisce come un’unica cosa. Ma il mondo si può ridurre a ciò che vediamo, che sentiamo, che tocchiamo? No, come questo blog non si riduce certo a colori e righe di testo. Si ritorna anche al discorso della trascendenza: dato che i nostri sensi sono “solo” 5, come possiamo dire che non ci sia altro al di fuori di ciò che percepiamo?

      • Antonio72 ha detto in risposta a Michele Forastiere

        OK, caro Michele, possiamo darci del tu.
        Per quanto riguarda la spiegazione della coscienza di Hofstadter, il suo pensiero lo si può sintetizzare in queste poche sue frasi:
        “La coscienza non è un optional a richiesta quando si ha un cervello da 100 huneker; è un’inevitabile conseguenza emergente del fatto che il sistema ha un repertorio di categorie sufficientemente sofisticato. Come lo strano anello di Godel, che nasce automaticamente in qualsiasi sitema formale di teoria dei numeri purché sia abbastanza potente, lo strano anello del sé nascerà automaticamente in qualsiasi repertorio di categorie purché sia abbastanza sofisticato, e una volta che avete un sé, avete una coscienza. L’élan mental non è necessario.”

        In definitiva, per fare un paragone automobilistico, tutti gli essere viventi hanno una determinata cilindrata che sviluppa una conseguente potenza: dalla zanzara, con bassissima cilindrata e quindi con pochissimi cavalli vapori, fino all’uomo, la Ferrari degli organismi viventi, dotato del biturbo e di dodici cilindri a V, passando per lo scimpanzé a cui manca evidentemente il turbo ed anche qualche cilindro. E’ la potenza cerebrale che determina il livello di autocoscienza che Hosfstadter misura in hunecker: non c’è quindi necessità di alcun intervento esterno al sistema natura.
        Per questa ragione i fautori della IA vogliono studiare a fondo il funzionamento del cervello umano, analizzandolo fin nei minimi dettagli, scomponendolo in parti elementari più semplici, secondo il metodo scientifico che, di qualsiasi entità complessa, vivente o non-vivente, ne fa uno spezzatino, perchè sempre per la scienza la complessità non è altro che un insieme, più o meno grande, di parti più semplici.
        Allora quello che conta veramente nello studio del cervello è la risoluzione sempre più elevata degli strumenti di neuroimaging (PET, fMRI, ecc..) visto che è partendo dal livello più basso che si possono spiegare tutti i livelli superiori. Quindi le interazioni delle particelle subatomiche spiegano l’atomo, le aggregazioni atomiche spiegano le molecole, l’organizzazione molecolare spiega la complessità della materia organica ed inorganica, ecc.. Perchè per l’uomo dovrebbe essere diverso? La coscienza pare che provenga dal cervello e quindi si studiano le connessioni neurali e le interazioni sinatpiche, ecc.., non a cervello morto come una volta, ma in tempo reale durante la viva attività cerebrale. Molte cose oggi non si spiegano, compresa l’autocoscienza, solo a causa di una limitazione tecnica che impedisce una elevatissima risoluzione che possa rilevare anche le più minute interazioni cerebrali.
        D’altronde credo sia lo stesso anche in informatica: qualsiasi potentissimo programma è composto da una miriade di funzioni elementari, le quali messe assieme determinano la complessità del sistema. Quindi la complessità del software emerge dalla sua potenza (non intesa nel senso di memoria occupata, piuttosto di interazioni interne o pattern sempre più complessi), come l’autocoscienza emerge dalla potenza cerebrale.
        Ora, nessuno nega che l’autocoscienza umana possa emergere solo dalla complessità di un cervello come quello umano, altrimenti si negherebbe la realtà, ma si nega che l’autocoscienza debbe emergere necessariamente da questa complessità in quanto prodotta dell’evoluzione cerebrale, assimilata quindi ad una sorta di funzione superiore rispetto a quelle più elementari selezionate dalla sopravvivenza (forse qualcuno dirà che cado in contraddizione in quanto prima ho detto autocoscienza casuale, ed ora necessaria; la spiegazione è che per i materialisti l’autocoscienza dipende tutta dalla complessità cerebrale, ed è quest’ultima che sarebbe casuale).
        Questa teoria è facilmente smentibile dall’evidenza di alcuni pazienti affetti da minima coscienza, i quali, pur mantenendo inalterata la propria coscienza di sé, non hanno il controllo delle proprie funzioni inferiori che servono per interagire con il mondo. Se fosse veramente così vengono smentiti anche i teorici della mente estesa, i quali sostengono che la mente fuoriesca dal cervello dell’individuo per ampliarsi nel mondo esterno, per es. si potrebbe anche estendere la propria mente anche qui, in rete, tanto che c’è già qualcuno che paragona internet ad una sorta di supermente collettiva.
        Un esempio significativo della mente estesa potrebbe essere il malato di Alzheimer il quale, per potersi orientare in città gira con il suo taccuino in cui ha precedentemente tracciato una mappa. Per i teorici della mente estesa privare un individuo normale delle sue facoltà cerebrali che gli permettono di orientarsi non è tanto diverso che togliere a quel malato di Alzheimer il suo taccuino.
        Come si vede, sia l’ipotesi di Hofstadter della coscienza misurata in hunecker (si pensi alla minore coscienza di un bambino rispetto a quella dell’adulto), sia la tesi della mente estesa appaiono convincenti in quanto sperimentate o sperimentabili da chiunque. Allora come la mettiamo con la spiegazione della coscienza umana? Secondo me è così: è innegabile che ci vuole un complesso cervello come quello umano perchè si abbia un essere autocosciente; è innegabile che la mente umana possa essere ampliata e potenziata con supporti extracorporei anche artificiali (si pensi solo ai vari cellulari, Ipod, computer, ecc..). Su questo, non si può non essere d’accordo poichè sono frutto dell’esperienza, quindi l’élan mental non credo che serva nemmeno al credente. Tuttavia l’autocoscienza, almeno secondo me, è come una calamita a due poli opposti: un polo che dirige l’uomo verso il mondo esperienzale e materiale, ed il polo opposto che si connette con il trascendente. La libertà dell’uomo consiste allora nell’equilibrare i due poli, come ci informa il messaggio cristiano. Il problema dei materialisti è che vedono e credono solo al primo polo, mentre gli idealisti e gli spiritualisti credono che esista solo l’ultimo.
        Allora paradossalmente non si può negare che un domani una sorta di autocoscienza indirizzata esclusivamente verso il primo polo possa emergere da una struttura tecnologica creata dall’uomo. Ma il polo opposto, che si dirige verso il trascendente, in quanto determinato solo da Dio, non potrà mai aversi in alcuna entità, che non sia un essere umano (diciamo che la galleria ha un solo sbocco). In definitiva la libertà di scegliere il Bene (Dio) o il male (il mondo, inteso nel senso evangelico e quindi come Mammona) è, e sarà sempre, una pertinenza esclusiva dell’uomo, dato che per l’eventuale futura macchina autocosciente, il creatore è l’uomo stesso, il quale evidentemente non può rappresentare il Bene oggi, né potrà mai farlo nemmeno domani.

      • Andrea ha detto in risposta a Michele Forastiere

        Antonio72.
        Un plauso perchè sei molto più bravo ed elegante di me nell’esprimere i miei stessi pensieri (non sono affatto ironico), sei uno dei pochi che non fraintende mai quello che dico ( e purtroppo io non ho la stessa dote nell’analizzare le tue proposizioni nè quelle degli altri)

        Michele:

        “in soldoni – che un calcolo aritmetico possa cominciare a “sentire qualcosa” non appena diventa sufficientemente complesso da poter in qualche modo “contemplare se stesso”, tirandosi fuori per così dire dal sistema…”

        Ecco nell’articolo prendi uno shortcut simile quando dici:

        “Viene allora spontaneo chiedersi se la consapevolezza cosciente non possa rivelarsi essere, in fin dei conti, una caratteristica non esportabile, ed esclusiva di un ben preciso oggetto fisico”

        è corretto ma perché limitare le possibilità ad un’istanza e non tentare di definirne le caratteristiche? Magari in un set di possibili differenti oggetti fisici che abbiano almeno le seguenti caratteristiche:

        – sufficiente complessità algoritmica.
        – sempre acceso (o almeno avente memoria scrivibile)
        – connesso ad input ed output (l’ambiente)
        – dotato della capacità di riconfigurarsi e modificare la propria struttura (es: interconnessioni dei neuroni, specializzazione motoria, trasformazione della massa presente in ambiente in massa funzionale a diventare parte integrante del meccanismo, vedi alimentazione ai fini di crescita/riparazione)

        IL non tenere in considerazione questi fattori astratti, rende, a mio avviso, “intuitivamente sciocco” qualunque paragone uomo/macchina ove la macchina fosse eventualmente dotata della sola opportuna complessità algoritmica.

        tirarsi fuori dal sistema significa semplicemente teorizzare un modello astratto (e semplificato di se), è un tirarsi fuori dal sistema solo se vale l’equivalenza sistema= puro algoritmo, ma non per il sistema: algoritmo + interfacce + automodifica + tutto il resto.

        • Andrea ha detto in risposta a Andrea

          Nel caso dell’uomo ovviamente il problema dell’accensione del meccanismo è chiave.
          Non sappiamo dare la vita nemmeno ad un bruco morto a quanto pare, e questo potrebbe essere per nostra incapacità di controllare contemporaneamente (e di configurare fisicamente) la moltitudine di fattori che configurano lo stato al tempo t di un meccanismo sufficientemente complesso. Ma ciò non significherebbe che non si possa trattare comunque di un meccanismo.

        • Antonio72 ha detto in risposta a Andrea

          Ciao Andrea, ti ringrazio per i complimenti, d’altronde immeritati, e mi scuso di averti tirato in ballo, ma era così, per una sorta di continuità con il blog precedente.
          Ho un paio di obiezioni e di domande sulle caratteristiche che hai elencato. Innanzitutto mi pare di capire che quelle tue caratteristiche dovrebbero spiegare l’essere vivente in genere (parli del bruco) e non quel fenomeno particolare che è il fenomeno soggettivo cosciente.
          Nel secondo punto: sappiamo che la coscienza soggettiva non è continua e quindi non può essere “sempre accesa”, per ovvie ragioni.
          Il terzo punto non spiega l’azione della coscienza durante il sonno, quello che Freud definisce pressapoco il “censore”, visto che l’ambiente esterno non prende parte all’attività onirica. Ora, faccio una confessione: c’è stato un periodo della mia vita in cui mi ricordavo tutti i sogni, o meglio tutti i frammenti di sogno, e al mattino li sottoponevo all’interpretazione freudiana, così per divertimento (quindi l’ambiente c’entra sempre, anche nei sogni anche se è più che altro un ambiente digerito e rimaneggiato, come in letteratura).
          Per il quarto punto non mi pare che sia dimostrato che l’autocoscienza sia così determinante.
          Secondo me, invece, hai dimenticato il punto fondamentale, proprio l’oggetto della presente discussione: la libertà di decidere e di agire e quindi la volontà, vere o illusorie.
          E poi anche la particolarità dell’autocoscienza di unificare tutto, che mal si adatta alla spiegazione dell’attività neurale che interessa zone cerebrali molto distanti, quasi casuali, e credo di ricordare anche che mutino da individuo ad individuo, il che spiegherebbe forse, l’unicità e l’irreplicabilità del sè. Detto in parole povere: se nel mondo esistono circa sette miliardi di sé, come si può credere che, anche se si riuscisse a spiegarne uno solo, la medesima spiegazione dovrebbe valere anche per tutti gli altri?

          • Antonio72 ha detto in risposta a Antonio72

            Volevo puntualizzare che, anche se non è dimostrato, io credo che la volontà possa incidere sulle singole connessioni neurali, data la plasticità del cervello umano, soprattutto nei più giovani.
            D’altronde mi pare che esistano evidenze sperimentali di bambini che sono riusciti a sviluppare le funzioni cerebrali proprie di un emisfero, in quanto difettoso, sull’emisfero sano. E’ ovvio che il cervello perde di plasticità con l’avanzamento dell’età fino a ridursi a zero, o meglio a sottozero, nella vecchiaia.
            Questo fatto dimostra che la struttura cerebrale non è così rigida e determinata come ci vogliono far credere i darwinisti, ovvero se mi passi il termine, anche l’hardware è un po’ software.
            Sono quindi d’accordo in tutto e per tutto con la considerazione di Alcor Vega: la forza di volontà è capace di modificare le connessioni neurali; non siamo affatto determinati dai nostri geni, né solo dall’ambiente in cui siamo, più o meno, costretti. Per questo la spiegazione meccanicista si dimostra molto riduttiva, in quanto una “finzione letteraria”, pressapoco la definizione del sè fatta dal filosofo Dennett, non potrebbe mai produrre effetti fisici sulla materia grigia.

            • Andrea ha detto in risposta a Antonio72

              “hardware è un po’ software”, è corretto, ma non è poi così difficile concepire una macchina che aggiunge capacità processiva alla propria (fabbricandone i componenti) o ad un software che scrive pezzi di software che poi fa interagire con sè stesso. Il primo concetto è plausibilissimo (pensa ad un computer collegato ad una factory di componenti elettronici), il secondo esiste già (certamente a livelli molto più basici, in quanto esiste nel software creato dall’uomo).

              Ad ogni modo le tue ipotesi come ho già detto nell’altro commento sono ampiamente confermate dal fatto che per essere grandi pianisti occorre una predisposizione (ossia una probabile conformazione cerebrale al tempo t0 che favorisce un certo tipo di interconnessioni). Ma ciò è sufficiente solo ad escludere le persone negate per la musica, per ottenere un grande pianista da una persona che è semplicemente portata, è richiesto lo studio che va poi a modificare il cervello nel modo opportuno, affinando il senso del tempo, la percezione dei suoni, la sensibilità delle dita, etc etc.

              http://www.youtube.com/watch?v=Ipomu0MLFaI

              (non farti ingannare dal tono spiritoso 😉

          • Andrea ha detto in risposta a Antonio72

            “mi pare di capire che quelle tue caratteristiche dovrebbero spiegare l’essere vivente in genere (parli del bruco) e non quel fenomeno particolare che è il fenomeno soggettivo cosciente.”

            e’ così direi che considerando l’essere viventi una condizione necessaria (ma non sufficiente) ad avere una coscienza, nel caso dell’avvio del meccanismo siamo ad un livello di know how ancora più basico.

            “sappiamo che la coscienza soggettiva non è continua e quindi non può essere “sempre accesa”, per ovvie ragioni.”

            Si sono d’accordo è il meccanismo che deve essere sempre acceso, non la coscienza, sia in una modalità direttamente connessa ai canali di input e output, che in una modalità indirettamente connessa, in cui per dirla come direbbe uno sviluppatore sono “stubbati” ( http://en.wikipedia.org/wiki/Method_stub ) , ossia sono sostituiti (durante il sonno sognante) da rappresentazioni fittizie dei canali stessi ad opera del cervello.
            E il corpo è sempre acceso, è necessario un minimo d’alimentazione (il metabolismo basale). Se la coscienza è uno stato del cervello, esso può creare delle simulazioni di coscienza fingendo di essere connesso ai sensi anche mentre non lo è (o meglio mentre non li esercita direttamente, es: vista e udito, ma li tiene semplicemente sotto controllo, è infatti ovvio che la 5 di beethoven ci possa svegliare anche se stiamo sognando delle cannonate 😉

            Sul quarto punto: hai ragione, i punti mi servivano per colmare il divario tra meccanismo uomo e algoritmo che riflette su di sè,l’algoritmo non può riflettere su di sè se non è avviato e connesso, e se non si può in qualche modo riparare e trasformare.

            sulla libertà di agire io indicherei di nuovo ciò che ho espresso nel commento qui sotto in risposta ad Alessandro Giuliani.
            Concordo con te che sette miliardi di cervelli distinti non possano essere considerati variazioni “darwiniane”, innanzitutto perchè non potendo due esseri trovarsi allo stesso tempo nello stesso luogo le loro esperienze non potranno mai coincidere ed in secondo piano perchè come dici giustamente tu, le interconnessioni tra i neuroni si modificano nel tempo (altrimenti nessuno potrebbe diventare un grande pianista od un grande ballerino).

            Sull’unicità del sè concordo, sull’irreplicabilità del sè non ho i mezzi per concordare. Ritengo tuttavia che, sempre nell’ipotesi che tale unicità possa avere un riscontro di tipo materiale, l’unicità del sè possa essere teoricamente rappesentata.

  13. Alessandro Giuliani ha detto

    Grandioso Michele, come sempre puntuale e preciso. Quello che mi colpisce sempre di questi scienziati che a vario titolo (IA forte, Determinismo neuroetico, Determinismo genetico) cercano di convincere il prossimo che l’uomo E’ UNA MACCHINA e quindi privo di libero arbitrio, non in possesso pieno delle sue emozioni, slanci pensieri, poi nella vita reale tornano a casa e magari si incazzano come jene con i figli che rispondono male, si infiammano d’amore per la segretaria diventando come adolescenti, piangono la morte della madre, si preoccupano della salute della moglie, e perchè no, godono dal profondo di un bel piatto d’amatriciana. Ora tutto questo dovrebbe essere in palese contraddizione con quello che propongono, caspita una volta ‘scoperto il gioco’ che nessuno di noi è libero tutte le attività prcedentemente esposte diventerebbero insensate e, con un minimo di coerenza, lo studioso dovrebbe immagianre l’innocenza dei figli soggetti ad una chiarissima chimica amplificata dei loro ormoni, dovrebbe ridimensionare l’appetibilità delle curve della segretaria vista la chiara dipendenza da un banale meccanismo evolutivo….
    Il nostro mondo non richiede più agli studiosi la coerenza con il loro magistero e questo è sempliceemnte orribile in quanto permette di esporre qualsiasi scemenza senza pagarne le conseguenze, cosa impossibile a qualsiasi altro professionista serio.

    • Giorgio Masiero ha detto in risposta a Alessandro Giuliani

      Verissimo, Alessandro. Un’altra conferma della definizione dello scienziato naturalista come contraddizione ambulante.

    • Michele Forastiere ha detto in risposta a Alessandro Giuliani

      Caro Alessandro, sospetto che in questa contraddizione possa nascondersi, in fondo in fondo, un qualche accenno di quel solipsismo che Antonio72 evoca nel suo intervento qui sopra. Spiegherebbe tante cose…
      Un caro saluto! 🙂

    • Andrea ha detto in risposta a Alessandro Giuliani

      Non ho capito come si possa affermare che se l’uomo è una macchina egli è necessariamente privo di libero arbitrio.
      Non possiamo escludere affatto che il libero arbitrio sia semplicemente percepito, al livello d’astrazione di sè che il cervello ci permette di fare attraverso l’autocoscienza.. In tal caso il libero arbitrio sarebbe: la percezione che potremmo aver potuto prendere qualunque scelta, anche quella che non fosse la più logica (per noi) in quel momento. Ma non credo si possa prendere una decisione illogica senza attribuirle noi stessi una sorta di logica fondante.

      • Antonio72 ha detto in risposta a Andrea

        Mettiamo che il libero arbitrio sia un “percepente” e non un “agente”, ma allora a che scopo è stato selezionato a livello evolutivo? Per es. nei famosi esperimenti di Libet la coscienza soggettiva si attiva poco prima dell’azione e molto dopo l’attività cerebrale inconscia che innesca l’azione, tanto che Libet stesso parla di “veto cosciente”, ossia la piccola finestra temporale in cui il soggetto è libero di scegliere, almeno nelle elementari (e secondo me poco significative) attività previste dagli esperimenti. Qualcuno addirittura ritiene che anche il “veto cosciente” sia di origine inconscia e quindi meccanica.
        Ma allora la mia domanda iniziale, su quale ruolo abbia l’illusione di essere liberi di scegliere, mi pare lecita: ma qual è la risposta dei darwinisti?
        In definitiva, qual è il vantaggio evolutivo dell’illusione cosciente? Se non esiste alcun vantaggio evolutivo, credo che ciò sia una prova che la selezione naturale darwiniana non possa spiegare tutta l’evoluzione. Insomma la “ciliegina sulla torta” rimane indigesta allo stesso neodarwinista che l’ha inventata.
        Per quanto riguarda la tua ultima considerazione, già risposi una volta: ma per quale arcana motivazione l’uomo dovrebbe prendere sempre la decisione più logica per lui in quel momento, ma dove sta scritto?
        Quella volta infatti risposi che la prova più evidente della libertà dell’uomo (ma sopratutto della donna) risiede nel suo personale capriccio.
        Allora credo che nessun algoritmo computazionale possa spiegare l’uomo.
        A questo proposito riporto delle frasi significative del tecnologo Kurzweil (che è diciamo un riduzionista e fautore della IA all’ennesima potenza):
        “La capacità più complessa del cervello umano è la nosta intelligenza emozionale. Proprio in cima alla complessa e interconnessa gerarchia del nostro cervello sta la nostra capacità di percepire e rispondere in modo giusto alle emozioni, di interagire nelle situazioni sociali, capire una barzelletta… Ovviamente, le funzioni di più basso livello della percezione e dell’analisi alimentano l’elaborazione emozionale del nostro cervello, ma ora cominciamo a capire le regioni del cervello, e anche modelllizzare gli specifici tipi di neuroni, che gestiscono queste cose.”
        Ed è qui l’errore, e non lo affermo io ma gli stessi neuroscienziati, per es. che studiano i circuiti cerebrali interessati dalla malattia di Parkinson, per l’eventuale terapia di neurostimolazione profonda. Si è scoperto che le decisioni morali, che prima si pensava interessassero solo le strutture corticali appartenendo ad un livello avanzato e sofisticato del comportamento umano, pare invece che coinvolgano anche particolari strutture sottocorticali, molto antiche, denominate gangli della base. In realtà il neurobiologio Antonio Damasio (L’errore di Cartesio) già aveva scoperto che i processi decisionali razionali coinvolgono anche i centri emozionali, e non di sfuggita, visto che un paziente con la corteccia intatta, sede dei processi cognitivi, ma con una struttura sottocorticale emozionale alterata, nonostante riuscisse a capire razionalmente tutti gli input dell’esperimento, non sapeva cmq prendere mai una decisione! Il comportamento umano non è quindi suddiviso in compartimenti stagni: le emozioni dai centri emozionali sottocorticali, i movimenti dai centri motori, la razionalità dai centri cognitivi, ecc.. (Per questa ragione i pochi pazienti psichiatrici sottoposti a neuromodulazione cerebrale profonda, presentano degli effetti collaterali che coinvolgono più livelli, spesso non accettabili e mai prevedibili, in quanto come abbiamo già detto esistono sette miliardi di individui diversi – inoltre sono evidenti le degenerazioni cognitive del malato di Parkinson al quale viene ridotto di molto il tremore dalla terapia).
        Ora, come può qualsiasi algoritmo computazionale semplificato replicare una tale complessità? Davvero puoi credere a Kurweil ed affini, i quali pensano di capire, anzi no replicare, le emozioni umane studiando le cellule a fuso, Andrea? Non ti ricordi che una volta mi hai replicato che l’organismo umano funziona come una sorta di anarchia organizzata, e quindi si possono benissimo studiare le singole parti e componenti per spiegarlo tutto? Non mi pare che si possa fare lo stesso anche per il cervello: le singole parti non possono spiegare il tutto e non dico solo per l’autocoscienza, ma nemmeno per un singolo comportamento dell’uomo, anche semplice, come alzare un braccio.

        • Michele Forastiere ha detto in risposta a Antonio72

          Caro Antonio, grazie per i tuoi commenti ricchi di preziose informazioni! Concordo in pieno con la tua analisi. Permettimi di parlare un po’ semplicisticamente: a me pare che una spiegazione riduzionistica della mente richiederebbe l’esistenza di un “organo” cerebrale preposto a ogni funzione (tipo i famigerati “neuroni della nonna”) – in particolare, dunque, dal punto di vista riduzionista dovrebbe esistere un ben preciso “centro neurale dell’autocoscienza” atto a svolgere la simulazione illusoria del sè (ma anche ad avere un effetto causale sul resto del cervello, altrimenti la sua presenza non avrebbe senso in un’ottica di selezione naturale darwiniana). Questa idea, però, è ampiamente negata dall’ampia messe di evidenze sperimentali che tu citi.
          Insomma, la coperta riduzionista appare veramente un po’ troppo corta… 🙂
          Un caro saluto

  14. Fabrizio Ede ha detto

    dato che il libero arbitrio non è fenomenologicamente dato, dal p.d.v. scientifico non si dovrebbe nemmeno porre la questione – non è falsificabile perchè non è sperimentalmente verificabile, o no?
    Una domanda ( spero di non risultare troppo impertinente): ma è lecito parlare di determinismo o indeterminismo del cervello?
    Forse sono troppo legato ad un linguaggio filosofico, ma il determinismo come il condizionamento assoluto della VOLONTA’da parte di cause determinate è chiaro, quello del cervello non lo è affatto

    grazie per il chiarimento!

    • Michele Forastiere ha detto in risposta a Fabrizio Ede

      Caro Fabrizio, per come la vedo io, credo che la faccenda stia più o meno così: se tutto ciò che esiste è la realtà fisica (particelle più campi), i fenomeni mentali non sono altro che epifenomeni illusori dell’attività cerebrale – quindi, per definizione, incapaci di azione causale sul cervello. Al massimo, perciò, il nostro “io” sarebbe un osservatore passivo, intrappolato in un corpo che agisce esclusivamente sotto l’influsso ineludibile delle leggi fisiche; e che queste siano deterministiche o indeterministiche, farebbe poca differenza dal punto di vista del libero arbitrio.
      E’ d’altra parte vero che – per l’appunto – non è possibile stabilire esclusivamente per via scientifica se la realtà sia effettivamente limitata alla sua parte fisica, oppure no.
      L’obiettivo di questa serie di articoli, dunque, è più o meno quello di ribadire questo concetto: che il problema del libero arbitrio, almeno per il momento, non è di fatto risolvibile mediante la sola indagine scientifica e tecnologica.
      Un cordiale saluto

      • Fabrizio Ede ha detto in risposta a Michele Forastiere

        grazie per il seguito alla mia domanda: se posso, vorrei ancora fare alcune osservazioni.
        Mi sembra che l’impostazione del problema soffra un poco di quello che i neoscolastici chiamano il gnoseologismo = supporre ingiustificatamente l’esistenza di una realtà separata dal pensiero ( magari appunto già determinata come campi e particelle) cercando poi di ricostruire a partire da questa una realtà extra corporea. Quest’errore di metodo comporta una disamina parecchio lunga e qui non mi sembra il caso di tediare nessuno.
        Altra osservazione. Quando faccio 100 per 100 non ho bisogno di rappresentarmi 100 cose per sapere che il risultato dell’operazione sarà di 10 000 e questo perchè ho a che fare con un ens rationis (l’astrazione numerica) che non risulterà da nessuna osservazione sperimentale: questo prova l’esitenza di una mente, dato che sto svolgendo un’attività irriducibile e campi e particelle ?

        • Michele Forastiere ha detto in risposta a Fabrizio Ede

          Caro Fabrizio, ammetto la mia totale ignoranza dei fondamenti della filosofia, essendo solo “un vil meccanico” che si interessa di scienza! 😉 Riguardo al discorso cui accenni, relativo all’astrazione numerica: per quanto ne so, la maggior parte dei matematici lavorano dando per scontato che in qualche senso pre-esista (ovvero co-esista eternamente) al mondo fisico una verità matematica indipendente da esso – una specie di territorio inesplorato da scoprire. Certamente ciò non dimostra l’esistenza della mente, ma secondo alcuni fornisce un indizio a suo favore. Personalmente, rimanendo nell’ambito scientifico non posso esprimermi a tal proposito; nè posso esprimermi scientificamente riguardo al dualismo della realtà: mi limito a mettere in evidenza il fatto che per la scienza la questione ontologica (dualismo interazionista contro riduzionismo materialista) è sostanzialmente indecidibile – sebbene sia convinto che per la logica ci siano forti indicazioni a favore di uno dei due punti di vista.
          Saluti!

        • Giorgio Masiero ha detto in risposta a Fabrizio Ede

          Se posso inserirmi nella seconda domanda di Fabrizio, c’è a mio parere una sola risposta alla domanda sulla natura degli oggetti matematici: sono enti di ragione, ma non della ragione umana (come è per es., prevalentemente, un racconto letterario), bensì del logos divino. E noi umani ne possiamo almeno in parte conoscere le relazioni solo perché partecipiamo (in parte) di quel logos.
          Quindi, nel caso specifico, noi sappiamo che 10×10=100 perché questo è un pensiero di Dio, eterno e a Lui consustanziale, e noi lo conosciamo come Dio.

  15. Alcor vega ha detto

    Che dire Michele davvero grazie di cuore per l’articolo, e per le interessanti informazioni che dai a noi Cristiani impegnati, ormai sempre più, nella difesa di una logica della nostra fede. Forse sarò ripetitivo, io credo che la plasticità neuronale sia una delle prove dell’esistenza di un libero arbitrio, l’uomo è capace di poter modificare i percorsi neuronali anche quando essi sono danneggiati ,questo tipo di architettura del cervello lo allontana da un mero componente meccanico ,ma lascerebbe intendere una servitù del pensiero ,anche quando questo fosse determinato (come gli istinti) esso attraverso la volontà può essere modificato cmq non sono molto bravo ad esprimere le mie idee sono resoconti che mi sono fatto in anni di studio e sperimentazioni sul campo di riabilitazione neurologica e neuropsicologica

    • Michele Forastiere ha detto in risposta a Alcor vega

      Caro Alcor, mi sa che qualcosina che riguarda la plasticità neuronale ci potrebbe essere nel prossimo articolo… aspetterò quindi con piacere le tue interessanti osservazioni! 🙂

      • Max ha detto in risposta a Michele Forastiere

        Risposta alla tua… risposta precedente a me. Invece, a mio modesto parere, dovresti proprio scrivere in quei blog. Non so se gli autori ti terrebbero in considerazione, ma qualcuno che vi legge ti noterebbe ed eviterebbe di farsi delle opinioni sbagliate.
        D’altra parte hai anche uno stile “calmo”, che e’ quello che ci vuole.

  16. umberto fasol ha detto

    Grande Michele! Ancora un pezzo di grande lucidità e rispetto della verità dell’uomo.
    Mi chiedevo che cosa possa pensare l’approccio dell’IA di una facoltà tipicamente umana e poco sottolineata in questi dibattiti: la capacità di inventarsi e di raccontare una barzelletta e ridere prima con la mente e il cuore che con la faccia!
    Il senso dell’humor e l’autoironia non sono ancora una prova della capacità di autoriflessione che non può dipendere dai nostri ingredienti materiali?
    un caro saluto veramente!

    • Andrea ha detto in risposta a umberto fasol

      “Il senso dell’humor e l’autoironia non sono ancora una prova della capacità di autoriflessione che non può dipendere dai nostri ingredienti materiali?”

      Ciao Umberto, esiste tra i “riduzionisti” chi ha formulato teorie su questi aspetti, facendoli dipendere non direttamente dalla materia ma dagli algoritmi che attraverso di essa il cervello esprimerebbe. Quindi se accetti lo short-cut: materia–> algoritmo e quello: algoritmo sufficientemente complesso–>autoriflessione, ed inoltre hai una buona conoscenza dell’inglese, questa potrebbe essere una lettura interessante:

      al capitolo 6 dello studio le considerazioni chiave, sullo specifico tema che sollevi, ma si basano ovviamente sulle premesse stabilite nella parte precedente

      http://www.idsia.ch/~juergen/ieeecreative.pdf

      PS: metto sempre “riduzionisti” tra virgolette perchè sono uno di loro, e non concepisco questa visione come riduttiva, ma non è il caso di perdere tempo a parlarne, molto più interessante è invece confrontarsi sulle varie possibili spiegazioni.

      • Andrea ha detto in risposta a Andrea

        MI correggo, credo di essere uno di loro, stanti le definizioni che di riduzionisti avete dato voi qui 😉

    • Michele Forastiere ha detto in risposta a umberto fasol

      Carissimo Umberto, non sai quanto mi faccia piacere il tuo apprezzamento! Credo che la capacità di ridere sia effettivamente un osso abbastanza duro per le spiegazioni riduzionistiche. A ben vedere, la proposta di Koch e Tognoni (che cito nell’articolo, di un nuovo test per valutare l’autocoscienza artificiale) si basa sulla richiesta che la “macchina pensante” dimostri di essere in grado di riconoscere gli errori in una scena – quindi che riesca, in un certo qual modo, ad afferrare le situazioni paradossali: abilità che, a me pare, apre la strada al senso dell’umorismo, no? Insomma, una “macchina pensante” dovrebbe essere capace di ridere; nessuno studioso dell’IA, però, sa ancora dire come la si debba programmare a tal fine… 🙂
      Cari saluti!

  17. umberto fasol ha detto

    Ma come è possibile che un algoritmo dia risposte così diverse: c’è chi ride e chi piange, di fronte ad una barzelletta!
    E soprattutto, l’ironia non risponde a nessun criterio razionale: è un’invenzione estemporanea della persona, che rappresenta il massimo della padronanaza della situazione e della relazione con sè e con gli altri.
    Anche fin che scrivo questo… ci rido sopra…
    No, caro Andrea, lo spirito umano non è imbrigliabile in nessun algoritmo.
    Che poi possa autoriflettersi, come materia….

    • Andrea ha detto in risposta a umberto fasol

      “No, caro Andrea, lo spirito umano non è imbrigliabile in nessun algoritmo.”

      Io ho solo fatto delle ipotesi, (anzi non io una persona più competente di me), nessuno può dimostrare al momento che le cose stiano effettivamente così, ma credere di poterlo negare a priori mi pare altrettanto errato, è giusto invece formulare delle teorie e capire se spiegano l’esperienza

      non so se hai letto la teoria, ma non è indispensabile, l’obiezione che ne scaturirebbe credo sia questa: nessuno ha postulato l’identità degli algoritmi tra una serie di esseri umani-fotocopia , l’esperienza modifica e ottimizza l’algoritmo conducendo a nuovi modi di rappresentare le informazioni, Ecco che di colpo quello che sembra ironico a me è offensivo per te e viceversa, mi sembra plausibile, o almeno non negabile con la strenua certezza con cui pari negarlo tu. Però ripeto, ognuno è liberissimo di ritenere talmente stupida un’ipotesi da non reputarla degna di essere approfondita, io stesso lo faccio tutti i giorni e non escludo che questo possa aver pregiudicato il mio incontro con molte teorie soddisfacenti che da queste ipotesi magari sarebbero scaturite.

      • Giorgio Masiero ha detto in risposta a Andrea

        “Io ho solo fatto delle ipotesi, […] nessuno può dimostrare al momento che le cose stiano effettivamente così”, ovvero nessuno, secondo te Andrea, ha ancora dimostrato che lo spirito umano non è imbrigliabile in un algoritmo. Ma questo non è vero, è stato dimostrato nel 1931 da Goedel, col suo primo teorema d’incompletezza. Secondo tale teorema, esistono nei sistemi formali coerenti che comprendono l’aritmetica proposizioni vere, accessibili alla mente per via intuitiva, ma non deducibili per via algoritmica.
        Il fatto è che il concetto di dimostrabilità algoritmica pertiene alla sintassi della logica, mentre quello di verità alla semantica; cosicché l’insieme delle formule dimostrabili da un computer non potrà mai coincidere con l’insieme delle formule “vere” per la mente, ma ne costituisce necessariamente un sottoinsieme.
        Un piccolo esempio: qual è l’algoritmo capace di dimostrare la proprietà commutativa della moltiplicazione? Non esiste. Quindi, non esisterà mai una macchina di Turing in grado di dimostrare la verità che a x b = b x a.

  18. umberto fasol ha detto

    Grande Giorgio!
    grazie per la risposta chiarissima, che non fa che confermare quanto il semplice buon senso suggerisce.
    Io ho tre bambini piccoli in casa ed assisto quotidianamente a gesti, a parole, a comportamenti assolutamente imprevedibili e diversissimi tra loro, frutto di creatività assoluta e spontanea. Altro che algoritmi!

    Ne approfitto per dirti che ho letto il tuo ultimo su Hawking ed è stupendo!
    Ne faccio tesoro e ti citerò con gli studenti della mia scuola.

« nascondi i commenti