Neuroetica

A cura di Andrea Lavazza e Giovanni Sartori

Il Mulino, Bologna 2011
Andrea Lavazza
Che cosa è la neuroetica

1. Una ristrutturazione del sapere

Il re è nudo. Forse il sovrano era senza abiti da tempo, ma soltanto in un preciso momento qualcuno si è messo a gridarlo. Molti sono ancora increduli, non è facile vederlo circolare in pieno giorno, sue notizie arrivano in maniera mediata da fonti non verificabili; soltanto una minoranza è ammessa direttamente al suo cospetto. E se il re è nudo la sua aura di mistero e di autorevolezza rischia di dissolversi. Una volta diffusa la voce, gli si obbedirà ancora? Qualcuno prenderà il suo posto? Come ci si organizzerà per il futuro?

La metafora rischia sempre di essere fuorviante, la scienza generalmente l'aborre, e con buone ragioni. Ma la neuroetica non è (ancora, né mai presumibilmente lo sarà) una disciplina interamente empirica. Manterrà una componente di analisi concettuale che la caratterizza come ambito di confine, suscettibile, per ora, di continui aggiustamenti e ridefinizioni. Resta il fatto che il progredire della ricerca ha fatto sì che un giorno, di qualche anno fa soltanto, si sia potuto affermare che del cervello conosciamo abbastanza (seppure siamo lontanissimi dal sapere tutto) perché si possano tentare di spiegare (o di dissolvere) questioni e misteri che dagli albori dell'umanità ci accompagnano. I giudizi morali, l'idea di libertà, le scelte e i comportamenti più idiosincratici (dal crimine efferato all'isolamento ascetico), ma anche i mutamenti d'umore e i tipi di personalità, l'altruismo, l'empatia, la menzogna, la fede in una divinità e l'intera psicologia dell'individuo (fino ai suoi pensieri più intimi), grazie alle neuroscienze contemporanee, sembrano alla portata della comprensione sperimentale e oggettiva tipica dell'investigazione sulla natura. L'Io, il soggetto - già sotto scacco nell'analisi freudiana e in tanta riflessione novecentesca - viene privato di gran parte delle sue attribuzioni; come è stato detto, non è più padrone in casa propria, se mai lo fu. A un'attenta indagine, risulta irrimediabilmente spogliato delle sue nobili vesti, debole e fragile, ridotto a spettatore di forze elementari che lo muovono e di cui può solo illusoriamente presentarsi controllore.

È di questo che si occupa la neuroetica nella declinazione che appare più rilevante e che la caratterizza con un proprio specifico profilo, a differenza di un'impostazione più «classica», legata alle conseguenze e alle implicazioni dell'applicazione concreta delle conoscenze e delle tecniche neuroscientifiche, dal caso della privacy cerebrale a quello del potenziamento cognitivo. Come afferma Colin Blakemore

Se si accetta che il cervello, e il cervello soltanto, sia responsabile della totalità della coscienza e dell'azione, compreso il senso di ciò che è giusto e di ciò che è sbagliato, e della capacità di percepire i valori morali, allora è legittimo chiedersi se esiste un altro genere di etica all'infuori della neuroetica [Blakemore 2006, V],

Forse la monarchia del Sé come lo conoscevamo in passato deve lasciare il posto alla rumorosa democrazia di una pluralità di entità subpersonali (costituite dall'attivazione differenziale di diversi circuiti cerebrali), che si contendono il palcoscenico della coscienza (come sostiene ad esempio Daniel Dennett [1991]). E se tutto sembra restare immutato - continuiamo invariabilmente a gloriarci o biasimarci, a gioire o a intristire per atti che crediamo intenzionalmente scelti da noi e dal nostro prossimo -, gli scienziati che sono giunti davanti al sovrano riferiscono che è stato smascherato, non ha trono, scettro né ermellini, se ne sta inerme in un angolo, benché continui a emettere pompose grida tramite i suoi messaggeri. E dunque le cose dovranno cambiare. Si può certo accettare il quieto vivere della tradizione, il regolare tran tran cui siamo abituati, eppure una rivoluzione bussa alla porta. «Fatti non foste a viver come bruti ma per seguir virtute e canoscenza», diceva padre Dante e la scienza ci sta aprendo gli occhi su una realtà che non possiamo ignorare. Ancora Blakemore

Al progredire della comprensione delle funzioni cerebrali, è certamente ragionevole chiedersi in che modo tale conoscenza illumini temi che nel passato sono stati espressi, formulati o spiegati in modi diversi. L'epistemologia (la teoria della conoscenza), i principi legali, i concetti sociali e politici dei diritti e della responsabilità, le credenze e il comportamento religiosi, i presupposti filosofici della scienza: tutto ciò è un prodotto dei nostri cervelli e necessita una riconsiderazione all'interno della cornice costituita dalla nostra conoscenza del cervello [Blakemore 2006, V],

In realtà, la conoscenza scientifica avanza cumulativamente per salti e lenti processi, con congetture, confutazioni, conferme e aggiustamenti, ipotesi teoriche e prove sperimentali, scoperte casuali e raffinamenti concettuali. Niente di ciò cui si è accennato finora è divenuto d'improvviso chiaro in un singolo laboratorio. È stata invece una ristrutturazione complessiva del sapere sull'essere umano che, raggiunta una massa critica, si è rilevata con tutta la sua evidenza. La neuroetica ha a che fare con questa ristrutturazione. Per accompagnarla con una chiarificazione e una rigorizzazione concettuale, in prima istanza, ma anche per valutarne la reale portata, per fare la tara agli eccessi di neuro-mania [Legrenzi e Umiltà 2009] ed, eventualmente, anche per contrastare una deriva che troppo frettolosamente vuole archiviare approcci che non siano strettamente neuronaturalistici in tutti gli ambiti che riguardano l'essere umano. E pare si possa in effetti affermare che da una parte spesso si ripone un'eccessiva fiducia nei risultati, provvisori, finora raggiunti, mentre dall'altra se ne fanno indebite estrapolazioni a campi e ambiti che non sono ancora sufficientemente indagati dalle scienze della mente e del cervello [Lavazza e De Caro 2010],

[…]

3. Dalle neuroscienze alla neuroetica

La crescente comprensione del funzionamento del sistema nervoso centrale e il conseguente «accoppiamento» sempre più stretto della sua attività con le funzioni mentali ha prodotto una capacità di intervenire sul cervello che va al di là della cura dei disturbi un tempo considerati esclusivamente organici (neurologici), distinti da quelli genericamente psicologici e psichiatrici. Inoltre, si è concretizzata la possibilità di intervenire sul cervello «sano» o «normale», con relativa modificazione di comportamenti, aprendo scenari del tutto inediti. Di qui la neuroetica nella sua prima accezione.

Neuroetica: l'esame di che cosa è giusto e di che cosa sbagliato, di che cosa è bene e di che cosa è male nel trattamento, nel perfezionamento, nelle intrusioni indesiderate e nelle preoccupanti manipolazioni del cervello umano. [...] Quali norme etiche e quali regolazioni legali dovrebbero esservi per trattamenti mirati a modificare i comportamenti criminali? [...] Dovremmo sviluppare un farmaco che migliori la memoria o che cancelli i ricordi dolorosi? [...] Sottoporre a esame il cervello di un sospetto terrorista per verificare se mente costituisce una forma di tortura, o perlomeno un modo di costringere un individuo ad auto-accusarsi? [Safire 2002, 5-8],

Così si esprimeva uno dei promotori del primo simposio in cui vennero messe a tema, nel maggio del 2002 a San Francisco, le problematiche neuroetiche. A posteriori, le origini remote di esse si possono fare risalire agli interventi condotti dal neurochirurgo portoghese Antonio Egas Moniz, inventore nel 1936 di una tecnica, detta leucotomia prefrontale, per la cura di gravissime e debilitanti malattie psichiatriche (dall'epilessia alla psicosi). La lobotomia - rescissione a scatola cranica aperta di alcuni fasci di collegamento tra i lobi frontali e altre parti dell'encefalo - consentiva una riduzione dei sintomi spesso a prezzo, però, di grave apatia e di forti cambiamenti della personalità del paziente. Tali effetti sarebbero oggi considerati inaccettabili, sebbene all'epoca venissero valutati come male minore, tanto che a Moniz nel 1949 fu assegnato il premio Nobel per la Medicina (che qualcuno recentemente ha chiesto di revocare; non mancano tuttavia i difensori contemporanei di terapie per quei tempi innovative e benefiche in mancanza di alternative). Il suo emulo americano Walter Freeman mise a punto una metodica che, utilizzando un punteruolo rompighiacci inserito attraverso l'orbita oculare, permetteva di eseguire la leucotomia in forma «ambulatoriale», di fatto «alla cieca». Negli oltre 3.500 interventi vi furono decessi per emorragia e infezioni, fino a che gli fu revocata l'abilitazione medica, ma per anni la sua fama rimase alta, tanto che fu chiamato a operare anche Rosemary Kennedy, sorella minore di John Fitzgerald, il futuro presidente, malgrado l'abulia e a volte la demenza che discendevano dal trattamento [El-Hai 2005],

L'ingresso dei neurologi nei comitati etici ospedalieri ha prodotto quella che sembra la prima attestazione del termine («neuroeticista») nel 1989 [Illes 2003]. E quindi soltanto da due decenni che la riflessione sulle implicazioni etiche, legali e sociali delle neuroscienze (ELSI, nell'acronimo inglese) ha cominciato a dispiegarsi a partire dagli Stati Uniti e dal mondo anglosassone. È questa la prospettiva che ha assunto la neuroetica nelle prime formalizzazioni e nei primi manuali, cui sono seguiti pareri e indicazioni di comitati nazionali di bioetica e un iniziale inquadramento accademico, con una rivista scientifica («Neuroethics») interamente dedicata al tema nata nel 2008. Implicazioni o conseguenze delle neuroscienze che fin dagli esordi della neuroetica hanno attirato l'attenzione degli studiosi (e dell'opinione pubblica) sono quelle legate alla privacy cerebrale (che fare di fronte alle «scoperte

casuali» di anomalie o predisposizioni nel cervello di un soggetto sottoposto a esami per altri scopi? Quali sono i rischi da screening cerebrali diffusi?); agli interventi di psicofarmacologia (è giusta la progressiva medicalizzazione dei cambiamenti del tono dell'umore? Quali le conseguenze sociali?) e di neurochirurgia (impianti cerebrali per la cura dei sintomi del morbo di Parkinson possono indurre significativi mutamenti di personalità: come scegliere in tali casi?) [Marcus 2002; Gazzaniga 2005; Rose 2005; Illes 2006; Glannon 2007a; 2007c; Levy 2007; Giordano e Gordijn 2010; Racine 2010; Farah 2010]. Un tema che ha acceso il dibattito e continua ad alimentarlo riguarda il potenziamento cerebrale, ovvero l'intervento chimico o tecnologico che eccede la cura (il ripristino di una situazione di normalità) e mira a innalzare le risposte emotive e cognitive o, per estensione, a modificare una condizione data, «media» rispetto al totale della popolazione, o ritenuta in qualche modo «naturale», con i suoi risvolti sanitari, etici, di autenticità personale e di equità sociale.

Si sono presto aggiunte, su un altro piano, le ricadute su temi filosofici generali, che vanno dall'esistenza del libero arbitrio allo statuto della coscienza fino alla concezione stessa della persona e della natura umana. La filosofa e neuroscienziata Adina Roskies ha quindi proposto una partizione che è andata affermandosi e che pone da un lato l'«etica delle neuroscienze» e dall'altro le «neuroscienze dell'etica» [Roskies 2002]. La dicotomia coglie aspetti diversi e complementari. In sintesi, l'«etica delle neuroscienze» riguarda la riflessione sulle applicazioni controverse delle neuroscienze stesse (come visto sopra), mentre le «neuroscienze dell'etica» hanno al loro centro la riflessione metaetica, ovvero quella che si concentra sul ragionamento morale a partire dalle sue basi materiali. Un'impostazione sostanzialmente condivisa da Farah [2005], con la divisione tra gli aspetti «pratici» e quelli «filosofici».

In coerenza con le premesse esposte fino a questo punto, la posizione che ispira questo volume è che l'«etica delle neuroscienze» con i suoi ELSI potrebbe essere sostanzialmente ricompresa in ciò che si definisce «bioetica», non avendo di per sé un carattere specifico. Una decisione medica non differisce se riguarda il cuore

o il cervello, in quanto può comportare scelte di vita/morte, alterazioni delle condizioni e della qualità dell'esistenza. Ugualmente, le questioni riguardanti la privacy genetica non sono diverse da quelle della privacy cerebrale. In tema di potenziamento, le considerazioni sono spesso di ordine filosofico e sociologico e, quindi, non specifiche delle forme di enhancement cerebrale. Come ha sensatamente affermato uno studioso, non è necessario reinventare ogni volta la ruota. (La bioetica, nata come disciplina a sé stante negli anni '70 del secolo scorso, si definiva inizialmente come «lo studio sistematico della condotta umana nell'area delle scienze della vita e della cura della salute, esaminata alla luce di valori e principi morali» [Reich 1978, vol. I, XIX] e più recentemente come «studio sistematico delle dimensioni morali - comprendenti visione morale, decisioni, condotta, politiche - delle scienze della vita e della cura della salute» [Reich 1995, vol. I, XXXI]. In sintesi, «un sapere pratico (teorico-applicativo), che riflette sui limiti di liceità e illiceità degli interventi dell'uomo sulla vita (umana e non umana, esistente e non ancora esistente), interventi resi possibili (o che si ipotizza saranno resi possibili in un futuro prossimo o remoto) dal progressivo sviluppo della scienza e della tecnologia in biologia e in medicina» [D'Agostino e Palazzani 2007, 9].)

Diversi risultano i casi, molto più rari, in cui si tocca quella che si potrebbe definire provvisoriamente l'«essenza» dell'essere umano, la sua identità personale, cosa che pare possa accadere soltanto con la manipolazione diretta di mente/cervello. Perciò il terreno specifico della neuroetica dovrebbe attenere alla riflessione circa ciò che apprendiamo su noi stessi e il nostro «funzionamento» grazie principalmente (ma non esclusivamente) alle neuroscienze. In altre parole, è la naturalizzazione forte dell'indagine sull'essere umano a rendere pertinente una metadisciplina che si occupi dell'ambito multidisciplinare descritto. A essere oggetto di studio per il suo carattere nuovo e controverso, quindi, non sarebbe ciò che possiamo fare, ma ciò che sappiamo o che crediamo attendibilmente di sapere1. (Non si può ignorare che esistono prospettive etico-filosofiche di matrice utilitaristica che contestano alla radice la necessità di una specifica riflessione bioetica (e, di conseguenza, neuroetica) nei termini qui esposti [Baron 2006].)

Pragmaticamente, sul primo versante - su ciò che tecnicamente è diventato possibile - si può intervenire per libero consenso (per esempio sul modello delle regole concordate tra ricercatori in materia di DNA ricombinante nella conferenza di Asilomar del 1975) oppure normativamente (vietando o consentendo determinate pratiche tecnologiche), mentre sul secondo - la comprensione di «come siamo» - non vi sono possibilità di rimettere il «genio nella lampada», ovvero le conoscenze, una volta disponibili, dispiegano invariabilmente i loro effetti filosofici e di autocomprensione dell'essere umano, quindi con le relative conseguenze sociali, politiche e giuridiche, più o meno significative esse siano.

A ciò si lega strettamente il versante complementare, in cui convergono filosofia, psicologia e neuroscienze cognitive, nel quale si va sovvertendo la rappresentazione «mentalistica» e ingenua che abbiamo di noi stessi, ribaltando la natura intuitiva della soggettività come unitaria e trasparente [Di Francesco e Marraffa 2009b]. Moduli indipendenti e processi subpersonali, non accessibili alla coscienza, sembrano ridurre l'Io a una molteplicità di agenzie in competizione o in collaborazione, una «società della mente», nella definizione di Minsky, dove nessuno è al comando, sebbene abbiamo l'impressione di un Sé che agisce e perdura nel tempo, e la stessa volontà non sarebbe che un'utile illusione [Wegner 2002], La teoria di Hume dell'Io come fascio di sensazioni trova oggi conferme sperimentali in una serie di dissociazioni della coscienza presenti in sindromi patologiche in cui l'Io può perdere «parti» in dipendenza di lesioni a carico di specifiche aree cerebrali e assumere connotati abnormi per attivazioni neuronali anomale [Feinberg 2009]. Si va dall'incapacità di riconoscere i volti noti alla tendenza di scambiare persone familiari per impostori (sindrome di Capgras) fino all'improvvisa e transitoria acquisizione di doti creative e artistiche in seguito a una degenerazione dell'emisfero sinistro che dà - o almeno così si ritiene - più spazio di espressione a quello destro, sede delle funzioni correlate [Seeley et al. 2008].

Se è questo quindi l'ambito della neuroetica, in cui sembra possa anche trovare una nuova arena il confronto tra l'empirismo humeano e il trascendentalismo kantiano (con un punto iniziale che pare vada a favore del primo), può essere utile darne un primo esempio più approfondito, per quanto lo spazio qui disponibile possa consentire. Si tratta di mettere alla prova l'idea che la nuova comprensione di mente/cervello grazie alle acquisizioni di neuroscienze e scienze cognitive possa reagire con il nostro apparato concettuale e la stessa pratica filosofica - appunto una fetta consistente del sapere sull'essere umano. L'esito non è necessariamente e soltanto una riscrittura di quel sapere, ma anche una valutazione delle sue implicazioni pratiche (che - pur non discendendo da un saper fare tecnico, come nel primo corno in cui si è stabilito di ripartire la disciplina - sono ugualmente presenti). E tale valutazione può ben attingere anche da fonti normative «esterne», rimanendo però consapevoli che il carattere stesso della nostra razionalità e delle sue declinazioni rimane paradossalmente - come si accennava all'inizio - connesso ai complessi rapporti tra mente e cervello di cui si deve giudicare.

4. Il caso dell'autonomia

Un buon candidato a tale esemplificazione è il concetto di autonomia. Seppure abbia un precipuo carattere prescrittivo, sembra che esso possa subire torsioni o perfino modifiche sulla base delle condizioni abilitanti e degli specifici meccanismi cerebrali sottostanti a queste ultime. Tali torsioni o modifiche potranno avere ripercussioni sulla riflessione teorica e sulle condotte da essa derivanti in contesti determinati. Ecco quindi un caso pertinente per la neuroetica.

Bisogna preliminarmente considerare le definizioni classiche. «L'autonomia individuale è l'idea che si riferisce alla capacità di essere la propria persona, di vivere la propria vita secondo ragioni e motivi che sono considerati come propri e non il prodotto di forze esterne che manipolano o distorcono» [Christman 2003]. Autonomo è chi può guidarsi da solo, governare il proprio Sé, libero da interferenze di altri e da limitazioni personali che impediscono scelte significative; chi può agire secondo un proprio piano scelto in assenza di costrizioni. L'autonomia riguarda anche la possibilità di decidere in che cosa credere e di soppesare le diverse ragioni pro e contro una determinata azione. Un altro elemento ritenuto fondamentale è quello della consapevolezza circa le regole che ci si dà e che si seguono; centrale è la riflessione razionale, la capacità di valutare le norme e le tradizioni di condotta esistenti e scegliere con il necessario distacco quali seguire e quali ignorare. O ancora, autonomo è chi ha la competenza critica per essere attento ai risultati delle proprie deliberazioni e si dimostra in grado di fare guidare la propria attività dagli scopi cui ha pensato e per i quali ha trovato proprie ragioni che ne giustifichino il perseguimento.

Essere autonomi è essere se stessi, essere diretti da considerazioni, desideri, condizioni e caratteristiche che fanno parte di ciò che in qualche modo può essere considerato il proprio Sé autentico e, in quanto tale, si propone come un valore irrefutabile. Per l'autonomia si richiedono condizioni di competenza (stato minimo di salute, capacità di pensiero razionale, di autocontrollo, di sfuggire ali'autoinganno sistematico) e condizioni di autenticità (riflettere e aderire sui/ai propri desideri, valori...), mentre si può distinguere tra un'autonomia di base (lo stato minimo per essere responsabile, indipendente, capace di parlare per sé) - tipica di tutti coloro che non soffrono di patologie debilitanti e non sono sottoposti a costrizioni -, e l'autonomia ideale, un obiettivo cui aspirare, secondo il quale una persona è libera da condizionamenti manipolativi e distorcenti, uno stato verosimilmente raggiunto da pochi (e per poco tempo).

Si può quindi affermare che, nell'attuale temperie culturale, per gli adulti sopra una certa soglia valga sempre la presunzione di autonomia e l'obbligo del rispetto di essa. Dunque, anche se si interviene contro la volontà di un individuo per il suo bene (bene non importa se presunto o oggettivo, il liberalismo dell'autonomia dà la preminenza al giusto come deontologia di valori assoluti, l'autonomia in questo caso), si mostra meno rispetto per quell'individuo come persona che non se gli si permette di compiere ciò che pare un errore agli osservatori. In questo senso, il rispetto dell'autonomia è richiesto indipendentemente dall'effettiva autonomia mostrata dalla persona in quel momento [Bagnoli 2007].

[…]

5. Un cammino appena avviato

Quello dell'autonomia è un ambito delicato e controverso, sul quale bisogna utilizzare prudenza e discernimento, osservando ad esempio che la trattazione sopra proposta è soltanto preliminare e ponendo attenzione al fatto che l'indagine delle condizioni cerebrali abilitanti non conduce ipso facto verso alcuna posizione valoriale specifica12. (Per fare soltanto un esempio, l'insistenza sulle basi materiali delle funzioni superiori e le pretese conoscitive delle neuroscienze possono risultare difficilmente conciliabili con prospettive che si richiamino più o meno direttamente all'antropologia cattolica. Ma non si considera forse abbastanza che il modello della mente estesa, il quale lega strettamente l'individuo al suo ambiente e quindi alle distorsioni o alle deprivazioni cognitive che da esso in alcuni casi provengono, potrebbe portare argomenti ai sostenitori di una autodeterminazione soltanto parziale dell'individuo circa alcune decisioni bioetiche. Se infatti, come si è visto, l'autonomia secondo quella prospettiva non risiede «nella testa» delle persone, ma è funzione anche dell'interazione con l'ambiente, l'autonomia stessa perde il suo carattere aprioristico di assolutezza e va riportata a una valutazione di ordine sociale, come chiede appunto l'antropologia cattolica tradotta a livello pratico di fronte alle istanze di una totale autodeterminazione personale in casi di rilievo bioetico.)

Meno controverso sembra un altro ambito in cui la neuroetica potrà entrare in quanto sintesi di nuovo sapere sul cervello e della sua declinazione personale e sociale. Si tratta specificamente dell'istruzione.

Le prossime generazioni di docenti saranno chiamate ad allargare il proprio bagaglio e la propria prospettiva, ad esempio non concentrandosi soltanto sull'insegnamento della matematica, ma anche sul modo in cui il ragionamento matematico si sviluppa nel cervello [Hardiman e Denckla 2009]. Una delle principali acquisizioni recenti è, infatti, che l'apprendimento cambia letteralmente il nostro cervello, caratterizzato com'è quest'ultimo da una forte plasticità, per la quale crea nuovi collegamenti tra cellule nervose e rafforza quelli esistenti a mano a mano che si incamerano e si integrano informazioni e capacità, oppure nuovi compiti «occupano» zone che in precedenza erano deputate ad altre attività poi trascurate. Ciò sta aprendo lo spazio per un settore in cui la ricerca neuroscientifica può ispirare le tecniche di insegnamento, e la pratica dell'istruzione fornire agli studiosi preziose indicazioni su come si produce l'apprendimento nonché elementi per valutare l'efficacia dei metodi da loro suggeriti.

Sono possibili soltanto alcuni accenni. Molti insegnanti si sono formati in un periodo in cui anche gli scienziati erano convinti che il cervello fosse immutabile dal momento della nascita e soggetto soltanto alla degenerazione senile o a quella dovuta a malattie e incidenti. Tale convinzione, oggi dimostratasi erronea, può produrre un atteggiamento «fatalista» nei confronti di alunni che da tempo hanno difficoltà in qualche materia. Faranno sempre fatica, si dice in termini colloquiali ed eufemistici, sottintendendo che non possono migliorare a causa delle loro limitate capacità cognitive. La consapevolezza che invece il cervello cambia costantemente e può essere aiutato a sviluppare nuove sinapsi, grazie all'attività mirata e ripetuta, contrasta con la rassegnazione di fronte ai deficit di apprendimento e spinge a ideare, ad esempio per la matematica, esercizi creativi legati ai numeri e al calcolo capaci di mutare gli stessi circuiti cerebrali. Sul fronte del cosiddetto disturbo di iperattività con deficit di attenzione, nuove analisi indicano che potrebbe trattarsi più di uno sviluppo lento e ritardato di alcune aree cerebrali che non di una patologia e che, dunque, i bambini interessati sono particolarmente sensibili alle influenze ambientali e ad alcuni tipi di esperienze esistenziali. Gli insegnanti dovrebbero perciò tenerne conto, poiché un'istruzione che preservi un contesto favorevole a vantaggio degli alunni più «problematici» è fondamentale per la maturazione delle funzioni esecutive e, in definitiva, di persone mature e responsabili [Shaw et al. 2007].

Sempre su questo fronte, è stato appurato che la tendenza a distrarsi, tipica degli adolescenti, è legata alla dinamica in evoluzione di alcune strutture corticali, che sono sovrabbondanti di cellule nervose, rendendo così difficile concentrarsi a lungo su un compito singolo [Dumontheil et al. 2010]. Ciò non significa, tuttavia, che soltanto la maturazione neuronale porti a un miglioramento di questo tipo di prestazioni. E che quindi nulla si possa fare con i ragazzi «multitasking», divisi tra mille stimoli ambientali. Nello stesso studio è emerso infatti che strategie neurocognitive mirate possono contribuire a rendere gli adolescenti e i giovani più capaci di porre attenzione continuativa a un argomento. Infine, anche il ruolo delle emozioni nell'apprendimento è stato ampiamente riconsiderato, suggerendo che instaurare un clima positivo e scevro di tensioni, che riduca per quanto possibile stress e ansia, favorisce grandemente lo stesso successo scolastico.

Tuttavia, come è stato osservato [Sheridan, Zinchenko e Gardner 2006], gli insegnanti non sono e non possono essere né medici né neuroscienziati e quindi la traduzione delle nuove conoscenze sul cervello nei programmi e nell'ambiente scolastico non può essere loro demandata (ad esempio, come leggere gli indizi fisiologici della dislessia in una risonanza magnetica funzionale?). Ma non la si può nemmeno affidare ai ricercatori di base, ignari degli scopi valoriali, dei metodi generali dell'educazione e della situazione socioculturale dei discenti (ad esempio, che conseguenze avrà una pillola che aumenta la memoria sull'atteggiamento complessivo dei ragazzi verso la scuola?). Gli autori citati propongono di introdurre la figura del «neuroeducatore», dotato di entrambe le competenze. Si potrebbe forse auspicare una figura meno specifica, ma ugualmente necessaria nell'epoca «neuro» in cui siamo entrati: quella del neuroeticista.

[…]

Michele Di Francesco

L'Io tra neuroni e mente estesa

1. Il «soggetto cerebrale» e la neurocultura

In un articolo pubblicato su «Nature Neuroscience», Giovanni Frazzetto e Suzanne Anker hanno utilizzato il termine «neurocultura» per indicare l'effetto dello straordinario sviluppo delle neuroscienze nell'immaginario collettivo della nostra epoca [Frazzetto e Anker 2009]. Le neuroscienze, accumulando fondamentali e sorprendenti scoperte sul funzionamento del cervello e della mente, non solo stanno modificando la nostra conoscenza, ma anche cambiano la nostra forma di vita e l'immagine di noi stessi, estendendo la loro influenza dalla scienza al campo della cultura, della società, della politica. Senza esagerazione, si può dire che la neurocultura è all'origine di una nuova antropologia, secondo la quale non è fuori posto per un essere umano affermare: «Io sono il mio cervello». Il processo è in atto da almeno un ventennio: nella prima parte degli anni '90, Francis Crick avanzava così la sua «ipotesi strabiliante» asserendo: «Tu [...] non sei altro che un pacchetto di neuroni», dove l'idea è che la nostra vita mentale - e quindi la nostra identità - può essere spiegata «dal comportamento di una miriade di cellule nervose e delle molecole in esse contenute» [Crick 1994, 17]. All'alba del nuovo millennio, Josep LeDoux si muoveva su linee analoghe affermando: «Tu sei le tue sinapsi [...]. Il tuo Sé, l'essenza di quello che sei, rispecchia i pattern di interconnettività tra i neuroni nel tuo cervello» [LeDoux 2002, 1, 4]; da allora le cose si sono mosse con grande rapidità. Grazie allo sviluppo delle neuroscienze

Il presente lavoro rappresenta un ampliamento e uno sviluppo delle tesi esposte in Di Francesco [2008a], Per quanto le parti del testo legate ai rapporti tra coscienza e linguaggio riprendano senza sostanziali modifiche quanto argomentato nel preceden- te saggio, la struttura e il peso assunto dal punto di vista esternista nell'argomentazione qui proposta lo rendono un lavoro tematicamente autonomo. Ringrazio Andrea Lavazza per una serie di consigli sulla strutturazione del testo.

Cap III
Mario De Caro
Libero arbitrio e neuroscienze

1. Due concezioni del libero arbitrio

Nell'ultimo paio di decenni, la discussione sul libero arbitrio ha conosciuto notevoli sviluppi anche e forse soprattutto in virtù di nuove proposte teoriche che si ispirano agli ingenti successi delle scienze cognitive, delle neuroscienze e della sintesi neodarwiniana (che, com'è noto, al suo interno, oltre alla teoria dell'evoluzione, include anche la genetica). Più specificamente, la domanda è se - e nel caso con quali modalità e in quale misura - date le nuove acquisizioni scientifiche sia ancora possibile attribuire agli esseri umani libertà rispetto alle scelte e le azioni che essi compiono.

Torna così in auge un metodo d'indagine classico, per mezzo del quale buona parte della filosofia moderna ha affrontato la discussione sul libero arbitrio: ovvero il metodo che cerca di confrontare e, se possibile, di armonizzare le più radicate intuizioni riguardanti noi stessi con ciò che via via veniamo a sapere sulla struttura nomologico-causale del mondo naturale - un mondo di cui, in quanto esseri fisici, ovviamente anche noi facciamo parte (in qualche misura oppure integralmente, a seconda della visione filosofica che si adotta). Tale metodo di indagine fu utilizzato da molti dei maggiori filosofi dell'età moderna: Descartes e Leibniz, Hume e Kant, Mill e James, pur partendo dall'intuizione sulla libertà («una delle prime e più comuni nozioni innate» secondo Descartes [1644, 19]), cercarono di dare conto nella propria prospettiva del punto di vista della scienza coeva - e ciò anche, e forse soprattutto, per quanto riguardava la questione del libero arbitrio. Il caso di Kant è in questo senso esemplare. Si pensi, in particolare, alla terza antinomia della Critica della ragion pura, ove l'idea di una «causalità secondo le leggi della natura» - incompatibile con la libertà umana - viene opposta a quella di una «causalità mediante libertà», concepita come «vero e proprio fondamento dell'imputabilità dell'azione» [Kant 1781/1787, 502]1. La libertà come condizione di possibilità della responsabilità morale: una tesi, questa, su cui la gran parte dei filosofi (al di là delle differenti interpretazioni su cosa la libertà e la responsabilità siano) si è sempre trovata d'accordo (un'eccezione a questa regola universale è rappresentata da Frankfurt [1969]).

Per buona parte della discussione novecentesca sul libero arbitrio le cose sono però andate in modo diverso: per molti decenni, infatti, l'idea che la filosofia debba tenere presente i dati provenienti dalla scienza è stata infatti sostanzialmente subordinata - secondo i canoni metodologici della filosofia analitica classica - a una diversa strategia d'indagine, incentrata sulla pura analisi concettuale: in totale indipendenza, dunque, dalle indicazioni provenienti dal campo scientifico. Il problema del libero arbitrio, in base a questa nuova prospettiva, non può che essere affrontato in abstracto, perseguendo la chiarificazione dei concetti implicati (autonomia, libertà, determinismo, indeterminismo, controllo, possibilità alternative e così via). Una prospettiva metodologica, questa, in cui ciò che le scienze empiriche ci dicono rispetto alla struttura nomologico-causale del mondo naturale diviene filosoficamente irrilevante (su questa prospettiva di studio, cfr. Kane [2002] e De Caro [2009]).

Negli ultimi vent'anni, sotto la spinta delle nuove scienze della mente, la situazione è tornata quella di un tempo: e così oggi la discussione sul libero arbitrio si articola nuovamente sul duplice piano filosofico e scientifico. Ne è emersa una sfida intellettuale ben riassunta da John Searle, uno dei più autorevoli pensatori contemporanei. Secondo Searle, il problema filosofico fondamentale è quello di comprendere come la concezione di noi stessi in quanto agenti dotati di mente - agenti che possono creare significati e sono liberi e razionali - si possa far rientrare in un universo che consiste interamente di brute particelle fisiche, che non hanno mente, né significato, né libertà, né razionalità [Searle 2004]. Insomma, l'obiettivo è quello di riuscire a sciogliere, in un senso o nell'altro, l'apparente incompatibilità delle due concezioni fondamentali con cui guardiamo al mondo umano.

La prima di queste concezioni appare del tutto ovvia al senso comune (nonché a molta parte della filosofia e delle scienze umane). Essa si incentra sull'idea che pensiero e agire siano manifestazioni essenziali e irriducibili della nostra libertà e della nostra razionalità. La seconda concezione, ispirata dalla visione scientifica del mondo, guarda invece agli esseri umani come a un agglomerato di particelle materiali. Il problema fondamentale è che, a parere di molti, questa seconda concezione implica che tutti i comportamenti e tutte le proprietà degli esseri umani siano, almeno in linea di principio, spiegabili per mezzo dell'apparato concettuale delle scienze naturali. E ciò sembra implicare la completa dismissione dell'altra concezione, in base alla quale noi siamo esseri intrinsecamente e irriducibilmente liberi e razionali.

Siamo, insomma, tornati a una situazione di grave tensione concettuale: mutatis mutandis, è evidente l'assonanza con il problema posto da Kant con la terza antinomia.

2. Gli esperimenti di Libet

Tra i contributi offerti dalle neuroscienze alla discussione sul libero arbitrio, i più noti sono certamente quelli, pionieristici, di Benjamin Libet. Con gli esperimenti sui quali si basavano le sue pubblicazioni, Libet ha infatti incanalato la discussione in una direzione che è ancora quella adottata oggi da molti teorici del libero arbitrio2.

Nella versione più nota di questi esperimenti, Libet chiedeva ai soggetti di rilassarsi e poi di compiere un semplice movimento, come la flessione della falange di un dito, non appena avessero sentito l'impulso a farlo: un movimento, questo, che i soggetti dovevano eseguire spontaneamente, ovvero esercitando il loro libero arbitrio (assumendo che una tal cosa esista). Ai soggetti veniva anche richiesto di guardare un grande orologio e di indicare il momento esatto in cui avvertivano l'impulso a flettere il dito; nel frattempo, con l'elettroencefalogramma si misurava l'attività elettrica del loro cervello. Sulla base di molte ripetizioni di questo esperimento, Libet osservò che i soggetti sperimentali avvertivano l'impulso a flettere il dito circa 200 millisecondi prima del compimento effettivo dell'azione. Il dato più interessante che Libet notò, tuttavia, fu che 550 millisecondi prima del compimento di quell'azione - e dunque 250 millisecondi prima che divenissero consapevoli dell'impulso a flettere il dito -, nel cervello dei soggetti si verificava un rilevante incremento dell'attività elettrica, detto readiness potential (ovvero «potenziale di prontezza»). In base a un'analisi statistica dei dati sperimentali, Libet interpretò l'incremento dell'attività elettrica del cervello come una prova che il piegamento del dito non andava in realtà imputato causalmente alla volontà cosciente dei soggetti sperimentali, ma a eventi neurali precedenti - che ovviamente sono al di fuori del possibile controllo dei soggetti, ma che in linea di principio sono prevedibili da parte degli sperimentatori. La conclusione di Libet fu allora che tali eventi neuronali sono i veri determinanti causali tanto delle azioni che compiamo quanto delle (pseudo) deliberazioni consce cui invece, erroneamente, attribuiamo la genesi causale delle nostre azioni.

Da ciò Libet inferì che l'azione di flettere il dito, compiuta dal soggetto sperimentale, non poteva essere definita libera - almeno nel senso dato a tale termine dalla tradizione filosofica. Egli sostenne però che i suoi esperimenti mostravano che gli esseri umani godono comunque di un tipo peculiare (e filosoficamente inedito) di libertà, ovvero la «libertà di veto»: e ciò nel senso che, nei 200 millisecondi che separano la consapevolezza dell'impulso a flettere il dito dall'effettivo piegamento, al soggetto è aperta la possibilità di decidere di interrompere la catena causale che altrimenti condurrebbe all'esecuzione dell'azione. L'idea, insomma, è che noi siamo in grado di porre liberamente il veto al compimento di azioni che, in assenza di tale veto, sarebbero invece causate da eventi neurali su cui non abbiamo alcun controllo. Va tuttavia detto che molti interpreti sono stati più radicali di Libet e, rifiutando la teoria della libertà di veto, hanno sostenuto che i suoi esperimenti mostrano, o quantomeno suggeriscono, l'infondatezza dell'idea tradizionale del libero arbitrio nel suo complesso.

In proposito, però, occorre dire varie cose. Una prima considerazione generale riguarda tanto l'esperimento di Libet quanto i numerosi altri che da esso sono stati ispirati nei decenni successivi. Il punto è che se anche Libet avesse ragione nel sostenere che le nostre decisioni sono causalmente inefficaci - e che ciò che conta, dal punto di vista causale, sono soltanto eventi neurofisiologici che tutt'al più possiamo porre il veto, ma non determinare -, allora avremmo un'eccellente prova di quanto sia erronea la concezione di matrice cartesiana secondo cui la mente è trasparente a se stessa e la causazione delle azioni è sempre consapevole (una concezione, questa, contro cui peraltro argomenti molto importanti erano stati già offerti da Leibniz, Baumgarten, i fisiologi ottocenteschi, Freud e la scienza cognitiva classica).

Non v'è dunque dubbio che l'esperimento di Libet possa essere rilevante rispetto alla discussione sulla coscienza. Non è però ovvio che sia altrettanto rilevante per la discussione sulla libertà. In primo luogo, infatti, egli sembra presupporre una tesi fenomenologicamente dubbia, quando attribuisce al senso comune l'idea che le azioni volontarie siano causate dagli stati coscienti che abbiamo nel momento in cui pensiamo di causarle. In realtà, una cosa sembra essere la causazione volontaria delle azioni, una cosa diversa la nostra consapevolezza di tale causazione: e non è affatto detto che le due cose coincidano. Accade assai spesso, infatti, che noi compiamo azioni che diremmo libere, ma che rimangono in qualche misura (talora anche molto rilevante) opache alla coscienza. Immaginiamo, ad esempio, che durante un dibattito pubblico un relatore decida di bere un bicchiere d'acqua: mentre ascolta una domanda, dunque, egli riempie il bicchiere e subito comincia a pensare al quesito e al modo in cui può rispondervi. Questi pensieri lo occupano a livello cosciente; tuttavia, mentre riflette su cosa rispondere, egli porta il bicchiere alle labbra e beve. Poi inizia a parlare e poco dopo si chiede: «Ma ho già bevuto, oppure no?», e per verificarlo deve vedere se il bicchiere è vuoto o ancora pieno. Egli non ricorda, insomma, se e quando ha bevuto: ma sa che se l'ha fatto, l'ha fatto volontariamente. La coscienza del relatore non è stata dunque trasparente rispetto al momento in cui ha compiuto l'azione di bere: non per questo, però, diremmo che l'azione da lui compiuta non sia stata libera. Naturalmente esempi di questo tipo si potrebbero moltiplicare: il punto importante è che ci sono casi in cui compiamo azioni libere senza essere completamente coscienti del fatto che le eseguiamo, né delle modalità o dei tempi in cui lo facciamo. Richiamare l'imprecisione del resoconto della coscienza rispetto alle nostre deliberazioni non è sufficiente, dunque, per affermare che le azioni che da quelle deliberazioni conseguono non sono libere. Detto altrimenti: occorrono altri argomenti per dimostrare che gli esperimenti di Libet sono rilevanti per la discussione sulla libertà.

Inoltre, tali esperimenti, per quanto interessanti e certo degni di analisi, sono esposti a una serie di obiezioni più specifiche. Molte di queste obiezioni, d'altra parte, possono essere ripetute anche rispetto ad altri esperimenti successivi, ispirati da quelli di Libet. Di uno di questi esperimenti, e delle suddette critiche, discuteremo tra breve: prima, infatti, sarà utile menzionare tre altre critiche che riguardano specificamente Libet.

In primo luogo, il modo in cui Libet interpreta i suoi esperimenti può essere, e di fatto è stato, contestato. La sua interpretazione, come detto, è che gli agenti umani non avrebbero in positivo alcun potere decisionale, in quanto le volizioni a compiere le azioni sarebbero causalmente inerti; tuttavia rimarrebbe loro la libertà negativa di porre un veto sulle azioni che altrimenti discenderebbero causalmente dagli eventi neurofisiologici. Tuttavia, una volta assunto che le nostre volizioni positive hanno determinanti neuronali inconsci, perché dovremmo ritenere che le decisioni consapevoli di porre il veto a specifiche azioni non debbano a loro volta avere determinanti neuronali inconsci? Detto diversamente: cosa mai potrebbe differenziare tanto sostanzialmente una volizione negativa da una positiva, al punto che la prima si rivelerebbe l'ultimo bastione della libertà umana, mentre la seconda sarebbe interamente determinata - e dunque, secondo il punto di vista di Libet, irrimediabilmente non libera?

In secondo luogo, va notato che in letteratura non v'è accordo su quale sia la natura del potenziale di prontezza né sul ruolo che esso svolge nei processi causali che portano al compimento delle azioni intenzionali (cfr. ad esempio Wegner [2002, 55 ss.]).

Infine, negli esperimenti escogitati da Libet, ai soggetti viene comunicato sin dall'inizio quale azione dovranno compiere (nel caso discusso sopra, la flessione del dito): quindi è richiesto soltanto di determinare quando eseguire quell'azione. Ciò permette però di muovere una critica all'interpretazione offerta da Libet dei suoi esperimenti - ovvero quella secondo cui la flessione del dito è preceduta e determinata causalmente da processi neurofisiologici inconsci (testimoniati dall'incremento del potenziale di prontezza) e non da processi consci. Il problema, infatti, è che in questo setting sperimentale non si dice nulla sul momento iniziale in cui i soggetti aderiscono alla richiesta degli sperimentatori, ovvero prendono la decisione di flettere il dito. Ma a proposito di tale decisione due cose vanno notate: primo, essa è pienamente conscia e, per quanto ne sappiamo, potrebbe non essere preceduta da un incremento del potenziale di prontezza (l'esperimento di Libet, infatti, non dice nulla su quella presa di decisione). Secondo, l'accettazione conscia del compito precede l'incremento del potenziale di prontezza che, a sua volta, precede il momento in cui effettivamente si decide di piegare il dito: dunque, per quanto ne sappiamo, l'accettazione conscia del compito potrebbe essere causa sia dell'incremento del potenziale di prontezza sia, in modo più mediato, della decisione finale di flettere il dito. In questa prospettiva, è semplicemente arbitrario da parte di Libet e dei suoi continuatori sezionare la catena causale fermandosi al momento dell'incremento del potenziale di prontezza senza risalire al momento precedente in cui i soggetti (consciamente, per quanto ne sappiamo) decidono di aderire alla richiesta degli sperimentatori. La tesi che i determinanti causali dell'azione di flettere il dito abbiano soltanto carattere inconscio appare dunque mal fondata.

3. Nuove prospettive

Gli esperimenti di Libet sono stati assai dibattuti e hanno dato luogo a molti tentativi di contribuire alla discussione con nuovi esperimenti (per una dettagliata bibliografia e una discussione da vari punti di vista, cfr. De Caro, Lavazza e Sartori [2010]). Un esperimento di particolare interesse è stato pubblicato nel 2008 su «Nature Neuroscience» da Soon, Brass, Heinze e Haynes, in un articolo dal programmatico titolo di Unconscious determinants of free decisions in the human brain (I determinanti inconsci delle decisioni libere nel cervello umano). Gli autori hanno studiato, sulla base di una sofisticata tecnica statistica (la pattern recognition), l'attività cerebrale associata con una scelta, apparentemente libera, operata dai soggetti sperimentali. Già l’abstract mostra quanto questo articolo sia ambizioso - al punto che lo si può ritenere una sorta di manifesto del vasto movimento che si propone di risolvere la questione del libero arbitrio con lo strumentario neurofisiologico.

C'è stata una lunga controversia concernente la possibilità che le decisioni soggettivamente «libere» siano determinate da attività cerebrali che le precedono. Noi abbiamo verificato che il risultato di una decisione può essere codificato nell'attività cerebrale della corteccia prefrontale e parietale sino a 10 secondi prima che esso raggiunga la consapevolezza. Questo ritardo presumibilmente riflette l'operazione di una rete di aree di controllo di alto livello che cominciano a preparare una decisione imminente ben prima che essa raggiunga la consapevolezza [Soon et al. 2008, 543].

La conclusione degli autori è che la nostra decisione conscia, e soggettivamente libera, di compiere un'azione possa essere preceduta di ben dieci secondi da eventi cerebrali che determinano causalmente quell'azione (con un intervallo temporale, dunque, di più di trenta volte maggiore di quello ipotizzato da Libet). In questo senso, secondo gli autori, la sensazione soggettiva della libertà è illusoria, perché dal punto di vista oggettivo la libertà non esiste. Ed è per questo che, nell'abstract, l'aggettivo «libere» (riferito alle decisioni) è posto tra virgolette: la libertà, in questa prospettiva, non è nulla più di un'illusione.

L'esperimento che gli autori portano a sostegno della loro tesi richiede ai soggetti sperimentali di rilassarsi mentre tengono due dita poggiate su due pulsanti e fissano il centro di uno schermo sul quale scorre una serie di lettere dell'alfabeto. Viene poi richiesto loro di scegliere liberamente, quando avvertono un impulso in tal senso, di premere il pulsante destro o quello sinistro, verificando quale lettera appare in quel momento sullo schermo; nel frattempo gli sperimentatori misurano, per mezzo della risonanza magnetica funzionale (fMRI), la risposta emodinamica del cervello dei soggetti. Il sorprendente risultato è che, sulla base dell'attivazione specifica di un'area cerebrale rilevata con la fMRI e analizzata con un software esperto, la quale anticipa ampiamente (sino a 10 secondi) la decisione consapevole da parte dei soggetti, gli sperimentatori sono in grado di prevedere (con buona approssimazione, come si vedrà) se la decisione dei partecipanti all'esperimento sarà quella di premere il bottone destro o quello sinistro.

Vi sono varie ragioni per pensare che questo esperimento sia interessante e, da un punto di vista metodologico, più sofisticato degli esperimenti di Libet. Innanzi tutto, per com'è concepito, esso non si presta alla riformulazione di una grave obiezione sopra citata a proposito di Libet. In quel caso, infatti, l'azione che i soggetti compivano discendeva causalmente da una decisione consapevole (quella di compiere l'azione richiesta dagli sperimentatori) precedente l'incremento del potenziale di prontezza: appariva dunque arbitrario sostenere che la causa dell'azione era inconscia. Nel caso dell'esperimento di Soon e colleghi, invece, quando lo sperimentatore chiede al soggetto di predisporsi ad agire, gli offre una scelta tra due azioni alternative (premere il pulsante destro oppure quello sinistro): in questo modo, l'assenso del soggetto è una metascelta che non riguarda l'esecuzione di un'azione specifica, ma il futuro compimento di una scelta tra due azioni alternative. Pertanto in questo esperimento non si può imputare causalmente la scelta di quale pulsante sarà premuto alla previa decisione consapevole di aderire alla richiesta dello sperimentatore: la scelta vera e propria, infatti, viene operata solo in un secondo momento, immediatamente prima di premere il pulsante.

Inoltre, l'esperimento di Soon e colleghi fa appello a uno strumentario tecnologico più progredito e accurato di quello di Libet: viene infatti usata la risonanza magnetica funzionale invece dell'elettroencefalogramma. Ed è anche apprezzabile che gli autori di questo articolo interpretino con nettezza il loro esperimento, considerando la libertà soggettiva in quanto irrimediabilmente illusoria: essi dunque non si appellano alla libetiana capacità di veto - un'ipotesi questa che, come abbiamo visto, non pare ben fondata. Infine, il risultato sperimentale che Soon e colleghi riportano è davvero sorprendente: l'intervallo temporale che separa gli eventi neuronali che causano il compimento dell'azione richiesta ai soggetti dalla loro «decisione» consapevole (ma in realtà epifenomenica) di eseguire tale azione è infatti trenta volte maggiore di quello ipotizzato da Libet.

Tuttavia, contro l'esperimento di Soon e colleghi si possono muovere varie obiezioni: molte delle quali, come anticipato, sono riferibili anche agli esperimenti di Libet. In primo luogo, pare molto dubbio che la decisione di premere uno dei due pulsanti, la consapevolezza di tale decisione e la percezione di quale sia la specifica immagine che appare sullo schermo del computer siano veramente simultanee come presuppongono gli autori dell'articolo3. Un'altra delicata questione concerne la misurazione dei tempi soggettivi della coscienza: le analisi fenomenologiche dimostrano infatti che non è facile caratterizzarli come puntiformi, perché essi - al contrario dei processi fisico-chimici che avvengono nel cervello - tendono ad avere una durata. Ne segue che non è ovvio che la catena degli eventi coscienziali e quella degli eventi neuronali siano dello stesso genere e possano essere poste in corrispondenza puntuale. Va poi menzionata l'accusa di cripto-cartesismo mossa a Libet da Daniel Dennett [2003, cap. 8]: a parere di Dennett, infatti, il quadro concettuale che fa da sfondo agli esperimenti di Libet si baserebbe su un'obsoleta interpretazione dualistica della coscienza, vista come una sorta di homunculus che contempla quale spettatore gli eventi che si svolgono nel teatro della mente. Non meno rilevanti sono le critiche contro il modo in cui in questo tipo di esperimenti si utilizza la risonanza magnetica funzionale per individuare nessi causali (o di covariazione) tra i processi neurofisiologici, da una parte, e gli stati mentali e le azioni compiute dai soggetti sperimentali, dall'altra parte. In molti casi, infatti, questo tipo di procedura lascia molto a desiderare dal punto di vista metodologico [Vul et al. 2009].

Al di là di queste obiezioni, comunque, la questione fondamentale è se l'esperimento di Soon e colleghi possa dare effettivamente sostegno alla tesi dell'illusorietà dell'idea di libero arbitrio. In realtà, vi sono buone ragioni per ritenere che ciò non accada: vediamo perché.

È utile notare che il titolo dell'articolo è Unconscious determinants of free decisions in the human brain. Programmaticamente, dunque, esso si propone di investigare le decisioni libere: o meglio le decisioni che, secondo gli autori, soggettivamente ci appaiono libere, ma oggettivamente non lo sono (tant'è che, come notato, nell’abstract il termine «libere» è messo tra virgolette). A favore di questa tesi Soon e colleghi riportano un solo esperimento: l'idea che ovviamente sottende titolo e abstract, però, è che i dati ottenuti siano paradigmatici e si possano generalizzare a tutte le decisioni soggettivamente libere. In realtà, a ben vedere, gli eventi mentali di cui si discute nell'esperimento e nell'articolo non possono affatto essere ritenuti decisioni libere nemmeno nel senso soggettivo; e, anzi, non si possono nemmeno considerare decisioni genuine.

Che gli eventi mentali di cui si discute nell'articolo non siano propriamente liberi, nemmeno in senso soggettivo, si può comprendere già leggendo la prima pagina dell'articolo, ove si dice che ai soggetti sperimentali veniva richiesto di decidere liberamente quale dei due bottoni premere quando avessero sentito l'impulso a far ciò [«when they felt the urge to do so, they were to freely decide between one of the two buttons»]. Esattamente la stessa cosa valeva per gli esperimenti di Libet: ovvero, un movimento che compiamo dopo aver sentito l'impulso a eseguirlo viene preso come paradigma della classe delle azioni libere. È comprensibile che gli sperimentatori avanzino una tale richiesta: a loro serve un momento specifico in cui collocare la decisione da studiare, e «avvertire l'impulso» serve esattamente a definire tale momento. Tuttavia, una corretta analisi fenomenologica mostra che avvertire l'impulso a compiere una determinata scelta non è né condizione necessaria, né condizione sufficiente per considerare tale scelta come libera (altro che paradigma della libertà, dunque). Non è condizione necessaria, perché nella gran parte dei casi, quando compiamo una scelta o un'azione che soggettivamente avvertiamo come libera, tale scelta non è preceduta da alcun impulso a compierla: si pensi alle situazioni standard in cui si parla con qualcuno (in cui quasi mai diciamo ciò che diciamo perché avvertiamo l'impulso a dirlo: semplicemente lo diciamo); oppure si consideri quando si prende la decisione rispetto alla facoltà universitaria alla quale iscriversi (in questo caso il processo decisionale, lungi dal concludersi con un impulso a iscriversi a una determinata facoltà, appare diluito nel tempo e dunque non è affatto riferibile a uno specifico momento, come si assume invece nell'esperimento di Soon e colleghi). Né la presenza di un impulso ad agire può essere considerata condizione sufficiente perché si scelga o si agisca volontariamente. Assai spesso, infatti, un tale impulso precede azioni non volontarie, come quando ci viene da starnutire in pubblico o da sbadigliare di fronte a un interlocutore poco brillante: in situazioni di questo genere, ovviamente, non avrebbe senso parlare di decisioni libere. In definitiva, dunque, la classe delle azioni che sono percepite come libere e, allo stesso tempo, vengono precedute da impulso a compierle, seppure non è una classe vuota, certamente è alquanto limitata e (con buona pace di Libet, Soon e colleghi) è ben lungi dal rappresentare paradigmaticamente la classe delle scelte e delle azioni libere.

Inoltre, gli eventi mentali di cui si parla nell'articolo di Soon e colleghi non possono essere considerati nemmeno decisioni genuine. Per comprenderlo, si ripensi a uno degli aspetti apparentemente più promettenti dell'esperimento: ovvero, il modo in cui esso aggira l'obiezione, cui invece Libet si prestava, riguardo a quale sia il vero inizio della catena causale che porta i soggetti sperimentali a eseguire l'azione (come detto in precedenza, Libet ingiustificatamente assume che tale catena causale cominci con l'attivazione del potenziale di prontezza e non, piuttosto, con la previa decisione consapevole da parte del soggetto di aderire alla richiesta dello sperimentatore di prestarsi all'esperimento). Come si è visto, Soon e colleghi evitano acutamente questa obiezione, in quanto non chiedono al soggetto di predisporsi a compiere una specifica azione già nota, come Libet, ma una decisione tra due azioni possibili. Se è così, si evita il problema cui andava incontro Libet; non se ne evita però un altro: ovvero, non è giustificato richiamare il concetto di decisione quando l'alternativa posta ai soggetti sperimentali si riduce semplicemente e banalmente alla scelta tra il premere il pulsante destro o quello sinistro. Come postulato dalla teoria delle decisioni (che su questo peraltro si muove in accordo con il senso comune), la nozione di decisione è infatti concettualmente correlata a quella di preferenza: ogni decisione presuppone una gerarchia di preferenze in base alla quale il soggetto valuta i vari corsi d'azione che gli si presentano. Se al ristorante devo scegliere se prendere frutta o insalata, valuto i pro e i contro delle due opzioni, e giudico in base a essi: è per questo che penso di aver preso una decisione. Se invece al supermercato devo scegliere se prendere il carrello di sinistra o quello di destra, la cosa mi è del tutto indifferente e agisco con un automatismo (se mi chiedessero perché ho preso un carrello invece che l'altro, risponderei che non lo so, oppure che la cosa era del tutto irrilevante e ho scelto a caso). Ora, la presunta «decisione» cui l'articolo di Soon e colleghi fa riferimento - premere il pulsante destro o quello sinistro - è del tutto irrilevante per i soggetti sperimentali: essi non hanno preferenze in un senso o nell'altro che possano essere poste in gerarchia per operare la scelta. Dunque, non si tratta di una scelta genuina.

In conclusione, Soon e colleghi pretendono di dimostrare che le decisioni che ci appaiono libere in realtà libere non sono affatto, ma la situazione sperimentale da essi approntata ha ben poco a che fare tanto con le decisioni quanto con la libertà. E c'è ancora un'osservazione da fare. Immaginiamo di concedere per un momento che l'esperimento in questione sia metodologicamente solido e che si occupi di un genuino esempio di decisione soggettivamente libera (dunque, sia plausibile generalizzare i risultati ottenuti a tutte le decisioni che ci paiono libere). È interessante notare che nemmeno in questo caso Soon e colleghi avrebbero veramente corroborato l'idea che la libertà è meramente illusoria, come invece pretendono di fare: ciò perché i risultati sperimentali da loro apportati sono compatibili con tutte le teorie classiche della libertà - sia quelle negative (illusionismo, misterianismo) sia quelle positive (compatibilismo, libertarismo). Consideriamo una per una queste concezioni.

In primo luogo, naturalmente, è legittimo fare come gli stessi autori, quando usano i loro dati sperimentali allo scopo di difendere l'illusionismo, ovvero la concezione secondo la quale la libertà è un'illusione [Nannini 2007]. Tuttavia, un buon argomento a favore dell'illusionismo non può fermarsi alla prova (seppure l'esperimento di Soon e colleghi la desse) che le nostre decisioni sono causalmente determinate da fattori neuronali che sfuggono al nostro controllo. Oltre a ciò, infatti, è necessario anche provare un punto concettuale: ovvero, che la libertà è incompatibile con il determinismo causale. Ma nell'articolo citato non si dice nulla su questa tesi; essa tuttavia non è affatto ovvia. Inoltre, c'è da notare che, se si assume che la scienza naturale dica l'ultima parola sulla questione della libertà (come fanno Soon e colleghi), allora la possibilità che le nostre scelte e le nostre azioni siano causalmente determinate da eventi che sfuggono al nostro controllo era suggerita da una teoria scientifica di grande rilevanza - ovvero dalla teoria della relatività generale - ben prima di questi risultati neurofisiologici. Non che, naturalmente, l'eventuale scoperta di specifiche modalità neuronali di determinazione causale sia irrilevante: soltanto che non sarebbe, in sé, rivoluzionaria per la questione della libertà.

C'è poi da notare che esiste una tradizione filosofica importantissima, il cosiddetto compatibilismo (difeso da Leibniz, Hume, Mill e da molti filosofi contemporanei), secondo cui la libertà è compatibile con il determinismo e anzi, in alcune versioni, addirittura, lo richiede [De Caro 2004, cap. 2], L'esperimento di Soon e colleghi, dunque, lungi dallo scuotere la fiducia nella libertà dei filosofi compatibilisti, può addirittura rafforzarla.

Ma i dati forniti dagli autori sono in linea di principio compatibili anche con l'altra concezione positiva della libertà, ovvero il libertarismo. La ragione sta nell'indice di accuratezza dell'esperimento discusso nell'articolo in questione, che si aggira attorno al 60% (questo è dunque l'ordine di grandezza delle predizioni compiute dagli scienziati, sulla base della risonanza magnetica funzionale, circa quale pulsante sarà premuto dai soggetti). Statisticamente, questa cifra è rilevante; essa tuttavia lascia un 40% di margine per chi, come molti libertari, ritiene che la libertà umana si fondi su eventi indeterministici: in questo senso basterà interpretare quel 40% non come un segnale della nostra ignoranza, ma come una manifestazione oggettiva dell'indeterminismo neurofisiologico (plausibilmente originato, secondo i difensori di questa concezione, dall'indeterminismo quantistico)4. Infine, un altro gruppo di libertari ritiene che la libertà sia, sì, incompatibile con il determinismo causale, ma nondimeno si possa continuare a pensarci liberi purché si riconosca che il discorso sulla libertà risulta categorialmente diverso da quello sulla causalità naturale - e altrettanto legittimo [Strawson 1962; McDowell 1994]. Una posizione, questa, di chiara matrice kantiana, che non può essere confutata sulla base di dati empirici, come quelli forniti da Soon e colleghi, ma soltanto da argomenti concettuali.

L'ultima concezione della libertà degna di menzione, infine, è il misterianismo (difeso oggi da Chomsky, van Inwagen e McGinn), secondo il quale il libero arbitrio è per noi irrinunciabile, ma allo stesso tempo inconciliabile con la visione scientifica del mondo: dunque rappresenta per noi, e sempre rappresenterà, un mistero insolubile [Nannini 2002; De Caro 2004, cap. 3; Trautteur 2009; De Caro 2009, cap. 3]. In questo senso, l'esperimento di Soon e colleghi, proprio in quanto compatibile con tutte le concezioni della libertà, non fa per i fautori di questa concezione che rendere il mistero ancora più impenetrabile.

4. Scienza e filosofia

Quanto detto sinora vuole costituire una caveat rispetto ai troppo facili entusiasmi che possono derivare dall'applicazione delle conoscenze neuroscientifiche ai problemi filosofici, e in particolare alla questione del libero arbitrio. Riassumendo quanto detto sinora, non è pensabile che una tale questione sia affrontabile senza un'adeguata analisi concettuale, che serva a comprendere quali sono le nozioni in gioco, quali rapporti intercorrano tra di esse, quali siano le opzioni teoriche coerenti e quali le più promettenti. Inoltre, un'analisi di carattere concettuale è richiesta per stabilire quali tra le opzioni teoriche disponibili hanno bisogno di riscontro empirico e come potrebbero esserne corroborate.

Quest'ultima osservazione mostra però anche il versante positivo dei rapporti tra filosofia e scienza empirica: alcune concezioni classiche della libertà sono fondate su assunzioni empiriche che sta alla scienza verificare. Basterà in questo senso fare due esempi classici. Il libertarismo causale (difeso da Cameade, dagli epicurei, da Thomas Reid e, oggi, da John Searle, Robert Kane e - sia pure in modo più esitante - da Robert Nozick [1981, 291-362]; Penrose [1994]; Kane [1996]; Searle [2007], nonché, per una presentazione generale, De Caro [2009, cap. 1]) richiede che nel mondo naturale esistano fattori indeterministici rilevanti, perché essi sono condizione necessaria della possibilità e dell'esercizio del libero arbitrio: la scienza deve dunque verificare che nei processi causali che conducono all'agire si diano, in posizione rilevante, momenti indeterministici (in questo senso le neuroscienze potrebbero naturalmente fornire il sostegno necessario). Il supercompatibilismo, difeso da Leibniz, Hume, Mill, Ayer, richiede al contrario che le nostre azioni, per dirsi libere, debbano essere perfettamente determinate (se non fossero conseguenze di una precisa catena causale, sarebbero casuali, quindi non libere): in questo senso, sebbene non si possa avere una conferma definitiva (perché la tesi deterministica riguarda un numero potenzialmente infinito di eventi), la neuroscienza potrebbe fornire importanti conferme [De Caro 2004, cap. 2]. Entrambe queste concezioni, dunque, operano assunzioni sul mondo naturale e, soprattutto, sulle modalità della causazione neurofisiologica delle scelte e delle azioni, perciò non possono che essere verificate empiricamente.

Altre concezioni come il compatibilismo tradizionale e il libertarismo di matrice kantiana paiono invece indipendenti dalla verifica empirica: il primo perché ritiene che la libertà sia garantita sia in un ambiente deterministico sia in uno indeterministico, il secondo perché pone la libertà su un piano concettuale del tutto irrelato rispetto al piano empirico. Tuttavia oggi, a meno di voler declinare queste posizioni in senso radicalmente antinaturalistico, occorre mostrare come esse non siano incompatibili con la visione scientifica del mondo: per questo, a livello metafilosofico, rientra in gioco il discorso dei rapporti tra filosofia e scienza (per un approfondimento di questi temi cfr. i saggi raccolti in De Caro, Lavazza e Sartori [2010]).

Infine, c'è da notare come, qualunque sia il punto di vista adottato sulla questione del libero arbitrio, paia plausibile ritenere che sono le scienze cognitive, le neuroscienze e le altre teorie empiriche rilevanti a specificare i dettagli delle modalità dell' esercizio della libertà - qualora essa esista, naturalmente.

Dire che la discussione sul libero arbitrio deve procedere indipendentemente dalle indagini scientifiche pare insomma tesi poco sostenibile - al pari di quella, complementare, secondo cui la soluzione del problema del libero arbitrio potrà un giorno essere offerta dalle scienze, poiché in fondo si tratterebbe di una questione meramente empirica. In realtà, di una cosa possiamo essere certi: ovvero che, rispetto al problema della libertà, il piano concettuale e quello empirico si intrecciano saldamente - e chi lo dimentica troppo lontano non potrà mai arrivare.

***

1 Sulla concezione kantiana della libertà, e in generale per un inquadramento della storia del dibattito sul libero arbitrio, cfr. Mori [2001].

2 Le riflessioni di Libet sono raccolte in Libet [2004]. Questo paragrafo del capitolo riprende in parte De Caro [2009],

3 Sono grato ad Alessandro Antonietti per alcune interessanti discussioni su questo tema.

4 Va comunque precisato che Haynes non esclude di poter molto migliorare le predizioni grazie ad avanzamenti tecnologici. Due interessanti concezioni indeterministiche causali sono sviluppate da Kane [1996] e Searle [2004] (secondo Kane [2005, 134], nel cervello umano possono esserci processi caotici che «amplificano le indeterminazioni quantistiche nelle attivazioni dei singoli neuroni»).

Cap. VI
Giuseppe Sartori, Andrea Lavazza e Luca Sammicheli
Cervello, diritto e giustizia
 

1. Le neuroscienze e il diritto

È stato affermato che il diritto deve essere stabile, però non immobile. Una posizione non solo ampiamente sottoscritta dagli studiosi della materia e dagli operatori della legge, ma di fatto confermata dall'effettiva evoluzione dei sistemi giuridici. Secondo la prospettiva delle neuroscienze contemporanee, si potrebbe sostenere invece che il diritto, sotto alcuni profili rilevanti, è rimasto attardato di quattro secoli rispetto allo sviluppo delle conoscenze sull'essere umano. Un'esagerazione, certo, eppure dotata di qualche fondamento, perché il diritto occidentale contemporaneo mantiene ancora implicitamente una concezione «cartesiana» dell'individuo. Sotto tale semplificatoria etichetta, si colloca una comprensione della persona come costituita da un dualismo di mente e corpo, in cui il primo elemento, variamente definito, gode di una rilevante autonomia, se non di una totale indipendenza dal secondo. In altre parole, nelle condizioni «normali», i protagonisti dei casi giudiziari sono considerati liberi nelle proprie scelte e pienamente responsabili dei propri atti, svincolati dalle determinazioni fisiche - e in parte anche da quelle sociali - che dominano per contro l'intero universo, inorganico e vivente.

La concezione cartesiana deriva dalla necessità di ancorarsi a un «modello di agire» umano legato al principio della libertà e della «signoria dell'azione». Il punto di interesse (qui introdotto e poi ripreso nel paragrafo finale) è che l'attuale confronto tra diritto e neuroscienze rappresenta un esempio di scollamento tra filosofia (e scienza) della mente «teorica» e posizioni pragmatiche e di senso comune1. I modelli che implicitamente reggono i sistemi penali moderni sono sostanzialmente (si perdoni la forzata approssimazione) modelli dualistici, indeterministici e che si richiamano alla cosiddetta agent causation, ovvero l'attribuzione all'agente consapevole dell'origine causale dell'azione. Modelli che, sul piano scientifico e filosofico, vengono considerati primitivi e scarsamente giustificabili alla luce delle recenti acquisizioni sperimentali.

Usando come paradigma il sistema penale italiano, possiamo facilmente notare come sia uno dei suoi principi cardine, il principio di colpevolezza, a richiedere - per il suo stesso funzionamento - un siffatto «modello d'agire umano». Limitandoci a citare alcuni tra i principali esponenti della nostra scienza penalistica, si osserva un'oggettiva convergenza sul punto.

Nell'ambito dei moderni diritti penali, misti, il principio di soggettività del fatto sta a indicare che, per aversi reato, non basta che il soggetto abbia posto in essere un fatto materiale offensivo (il prius), ma occorre altresì che questo gli appartenga psicologicamente, che sussista cioè non solo un nesso causale ma anche un nesso psichico tra l'agente e il fatto criminoso (il posterius) onde questo possa considerarsi opera di costui [...]. La colpevolezza è venuta così a imporsi come un imprescindibile principio di civiltà giuridica, assurgendo, accanto al fatto materiale, a secondo pilastro dei moderni sistemi penali, stante - per ormai concorde parere - l'esigenza anche dell'imputazione soggettiva del fatto all'autore e il rigetto di ogni responsabilità penale nei casi di impossibilità del soggetto di signoreggiare gli eventi e, quindi, di un diverso agire [Mantovani 2001, 293].

E su un versante analogo:

Se la pena esprime la riprovazione etico-sociale di un dato fatto, se questo fatto viene rimproverato al suo autore e in ciò consiste la colpevolezza, la colpevolezza presuppone una libertà di agire dell'uomo, una libertà del volere; non necessariamente un libero arbitrio inteso come a-causale, a-motivata spontaneità e creatività, sì invece una libertà come capacità dell'uomo, seppure entro certi limiti, di autodeterminarsi, di assumere decisioni, di optare tra più alternative, di scegliere se adeguarsi o ribellarsi al diritto [Romano 1995, 305].

In un ambito così delicato come quello giuridico, i «modelli» che paiono funzionare meglio sono dunque quelli meno accreditati dalla filosofia contemporanea. In realtà, al di là delle questioni puramente tecniche di gestione del diritto che non appartengono al nostro dibattito, la questione centrale di carattere «neuroetico» che solleva la neuroscienza giuridica è proprio l'occasione di «scontro» tra una visione ingenua (non in senso svalutativo, ma nell'accezione di immediata all' esperienza) della natura umana e una visione, invece, di carattere scientifico (includendo in tale accezione anche la riflessione filosofica vera e propria).

D'altra parte, la nozione di autodeterminazione propria del diritto sembra introdurre una sorta di graduazione del libero arbitrio della quale non si trova traccia nelle discussioni di teoria della mente. La quantità di «autodeterminazione» richiesta per lasciare in eredità ai figli i propri beni è più ridotta rispetto alla quantità di «autodeterminazione» necessaria per stipulare un contratto. Per giustificare l'introduzione di un amministratore di sostegno, basta una lieve riduzione della capacità di «autodeterminazione». In altri termini, ciò sembra delineare una specie di variazione quantitativa del libero arbitrio in qualche modo legata alla complessità dell'atto che vede impegnato il soggetto agente.

Sul tema della colpevolezza giuridica, in ogni caso, si assiste in «diretta» a uno scontro tra quella che De Caro chiama «l'intuizione prefilosofica di libertà» (ossia una concezione dell'uomo in quanto agente libero che si basa su una intuizione di senso comune non razionalmente fondata e unanimemente condivisa) e la concezione scientifica del mondo naturale legata all'ineluttabilità delle leggi del determinismo causale:

Da una parte il senso comune suggerisce che noi siamo liberi di scegliere e di agire e che, dunque, in qualche misura, siamo arbitri del nostro destino; dall'altra, la visione deterministica induce invece a concludere che la libertà sia una mera illusione, giacché noi non possiamo non obbedire alle ferree leggi dell'universo (macroscopico) [De Caro 2002, 11; cfr. anche De Caro 2009].

In altri termini, l'aspetto culturalmente interessante è che il diritto si trova ad ammettere che ciò che lo fonda è proprio tale «intuizione prefilosofica» riconducibile a un fatto immediatamente dato dell'esperienza umana. Così, ancora, Romano:

L'uomo ha sempre avuto, insieme all'esperienza della sua finitudine, della sua limitatezza imposta da fattori spazio-temporali, dalla costituzione e dall'ambiente, l'esperienza della sua libertà; e che l'ordinamento politico-istituzionale e la sua forma giuridica sono dati a (e quindi presuppongono) uomini che vivono tale esperienza: la libertà politica, la libertà religiosa, le libertà costituzionali in genere, l'idea stessa di libertà come sostanza etica e télos degli ordinamenti democratici (e da noi la carta costituzionale, il suo «personalismo», la sua «responsabilità penale personale») non avrebbero alcun senso compiuto se non trovassero le loro radici in una libertà del singolo, più profondamente e autenticamente umana [Romano 1995, vol. I, 305].

Inoltre, come si è visto nei capitoli precedenti (nel primo in particolare), è la stessa nozione di soggetto unitario a essere messa in discussione dalle scienze cognitive odierne.

La nostra visione intuitiva dell'Io è minacciata [...] non solo da argomenti filosofici, inevitabilmente controversi, ma anche da una serie di poco contestabili acquisizioni nell'ambito della psicologia e delle neuroscienze cognitive che sembrano essere in rotta di collisione con una solidissima concezione di noi stessi. Questa è una novità, e una novità importante, non ancora perfettamente assimilata dalla filosofia e dal senso comune [Di Francesco e Marraffa 2009b, 5].

Ciò sembra valere anche per l'ambito del diritto e della giustizia civile e penale. Se davvero «la mente è ciò che il cervello fa», se l'unità dell'Io risulta solo un'utile «finzione» [Frith e Rees 2007; Metzinger 2009; Boncinelli 2010], se la stessa volontà cosciente è messa in discussione [Libet et al. 1983] oppure ridotta a un'illusione [Wegner 2002] e se si possono perfino prevedere le opzioni di soggetti in contesti sperimentali prima che essi compiano l'azione scelta mentalmente [Soon et al. 2008], allora concetti come quelli di responsabilità, colpevolezza e punizione risultano sottoposti a una sfida che proviene dalla frontiera della ricerca. Ovviamente, si discute qui di acquisizioni recenti, che andranno ulteriormente corroborate, e di estrapolazioni filosofiche sulla base di risultati scientifici, quindi oggetto di una discussione che non ha per la sua stessa natura un esito univoco.

Non di meno, in ambito anglosassone si parla già da qualche anno di neurodiritto (neurolaw o law and neuroscience o legal neuroscience) per indicare un ampio spettro di riflessione. Principalmente, ci si riferisce al modo in cui le neuroscienze sono utilizzate nel campo del diritto e alle previsioni circa un loro impiego più ampio nel futuro, ma anche alle questioni interpretative di come le neuroscienze dovrebbero o non dovrebbero trovare applicazione nelle aule di giustizia [Belcher e Sinnott-Armstrong 2010]. Esiste, tuttavia, anche un senso più forte in cui si può intendere l'ambito del neurodiritto, ed è principalmente quello di una più o meno radicale revisione delle basi teoriche di alcuni istituti o, addirittura, dell'impostazione filosofica di intere branche della disciplina.

In questo panorama, due novità si impongono quali frutti dell'incontro tra neuroscienze e mondo della giustizia. La prima è quella delle possibilità tecnico-diagnostiche che, sempre più perfezionate, consentono un fortissimo progresso «quantitativo» rispetto al passato, provocando anche uno slittamento «qualitativo». I vari strumenti per la visualizzazione in vivo del cervello, infatti, non solo permettono analisi maggiormente precise e oggettive, laddove in precedenza lo psicologo e lo psichiatra forensi dovevano affidarsi alla propria competenza soggettiva, ma quando applicati, ad esempio, al mind reading (con l'incipiente possibilità di leggere davvero alcuni semplici pensieri, ben oltre le vecchie e folcloristiche macchine della verità), introducono elementi affatto nuovi, che pongono opportunità e dilemmi all'interno delle cornici legali tradizionali. Le seconda novità è quella delle interpretazioni che dalle scoperte della psicologia e dalle neuroscienze cognitive si traggono a livello pragmatico, filosofico e sociale. Va in questa direzione l'auspicato - da alcuni - progressivo allargamento delle condizioni di non imputabilità o di diminuita responsabilità, in accordo con una più stretta associazione tra stati patologici cerebrali o specifici corredi genetici suscettibili di indurre determinati comportamenti e la commissione di crimini e reati. E si collocano in tale contesto anche le riscritture di parti del diritto penale cui si accennava sopra.

Rimandando, per ovvie ragioni di spazio, ad altre trattazioni in cui abbiamo esplorato alcune delle tematiche succitate [Lavazza e Sammicheli 2010; Sammicheli e Sartori 2009], in questa sede ci soffermeremo su tre ambiti che ci paiono caratterizzati dalla novità e dal significato esemplare circa l'impatto delle neuroscienze sul diritto. In primo luogo, rispetto al modo in cui le neuroscienze sono utilizzate e alle previsioni circa un loro impiego più ampio nel futuro, discuteremo delle tecniche di lie-detection e di memory-detection, nei loro aspetti metodologici e in quelli legati alla coordinazione tra prova scientifica, norme attuali e aspetti etici; e della capacità di agire, valutata con le più recenti risorse diagnostiche, che stanno portando novità in un ambito circoscritto ma significativo come quello degli stati vegetativi. Secondariamente, in relazione alla «decodifica» - di stampo neuroscientifico - dell'agire criminale patologico, ci concentreremo sul tema generale dell'imputabilità quale esempio paradigmatico di possibili torsioni o modifiche dell'approccio classico della giustizia penale. Infine, spostandoci in un'ottica jure condendo, analizzeremo l'idea (ancora minoritaria) secondo la quale, stante il determinismo fisico che annullerebbe la basilare premessa del libero arbitrio, ci si dovrebbe avviare verso una concezione non più retributiva della giustizia penale, bensì sarebbero auspicabili codici che letteralmente guardino avanti (forward thinking), progettati non al fine di infliggere la giusta pena per i crimini precedenti, piuttosto per incoraggiare buoni comportamenti e proteggere la società.

2. Metodologie neuroscientifiche e applicazioni forensi

Tra le applicazioni tecnologiche che le nuove conoscenze sul cervello umano e il suo funzionamento hanno reso disponibili, le metodiche di visualizzazione in vivo sono quelle che hanno maggiori possibilità di utilizzazione anche nelle scienze giuridiche. In particolare, esse sembrano svelarci - stante l'assunzione di un legame diretto tra attivazione cerebrale ed esercizio delle funzioni cognitive superiori - la prima e fondamentale fonte dei nostri comportamenti manifesti. In alcuni casi, addirittura, come negli stati vegetativi, potrebbero essere in grado di mostrare un barlume di coscienza e di volontà che in alcune persone non ha altri modi di segnalarsi.

2.1. La «lie-detection» e la «memory-detection»

L'identificazione della menzogna costituisce una delle chiavi del processo civile e penale ed è tra i compiti più difficili, sostanzialmente ritenuto impossibile con i mezzi conosciuti. Perciò, a partire dall'inizio del secolo scorso, la scienza psicologica, dotata di nuovi strumenti, ha cercato di sviluppare una metodologia oggettiva affidabile [Sartori e Agosta 2009]. Il primo a porsi il problema delle basi fisiologiche della menzogna fu Vittorio Benussi [1914] che mise a punto una pionieristica metodologia di lie-detection fondata sulla rilevazione del profilo fisiologico della respirazione.

I risultati dell'indagine sui processi cognitivi associati alla menzogna hanno successivamente portato a chiarire che l'attività del mentire è basata in primo luogo sull'inibizione della risposta che si ritiene veritiera (che al soggetto si presenta come automatica e prevalente) e nell'attivazione volontaria di una risposta sostitutiva che si sa essere falsa. Ciò comporta che nella memoria di lavoro si producano informazioni coerenti con la versione proposta e si sopprimano quelle in contraddizione.

Le recenti tecnologie di brain imaging permettono di visualizzare l'attività cerebrale nel suo compiersi e di studiarla non invasivamente (senza quindi influenzarla o modificarla in alcun modo). Il risultato è l'individuazione, seppure in forma indiretta, delle zone cerebrali più intensamente sollecitate e, dunque, ritenute associate al compito svolto nella situazione sperimentale. Analizzando grazie alla risonanza magnetica funzionale (fMRI) e ai potenziali evento-correlati (ERP's, Event Related Potentials) il cervello di volontari sottoposti a test standard di «inganno», si ottiene una mappa delle aree che si attivano in corrispondenza delle diverse risposte. Sol tanto in occasione della menzogna deliberata paiono «accendersi» in modo rilevante alcune zone specifiche. In particolare, in quasi tutti gli esperimenti, il network della menzogna sembra coinvolgere la corteccia prefrontale dorsolaterale (impegnata per la memoria di lavoro) e la corteccia cingolata anteriore (deputata alla soppressione della risposta primaria) [Davatzikos et al. 2005; Langleben et al. 2002].

Si è poi accertato che è possibile interferire a livello neuronale con il proferimento di bugie: con la stimolazione transcranica a corrente diretta (metodica innocua che può accelerare o rallentare i processi cognitivi modificando l'attività elettrica delle aree cerebrali interessate) si riduce la velocità alla quale i soggetti sperimentali riescono a rispondere in modo menzognero quando una corrente anodica attraversa la loro corteccia prefrontale dorsolaterale [Priori et al. 2008].

Attualmente, le metodologie in fase di sperimentazione si possono suddividere in tecniche finalizzate a valutare la risposta del soggetto come veritiera o menzognera {lie-detection) e tecniche finalizzate a identificare una traccia di memoria (memory-detection). Tra le prime, la più antica e la più nota è la «macchina della verità» o, meglio, poligrafo. Essa rileva le reazioni neurovegetative - sudorazione, frequenza cardiaca, pressione arteriosa - che si accompagnano alle risposte fornite dall'imputato a domande specifiche (ad esempio, «Ha sparato al suo datore di lavoro?»). Tali reazioni sono confrontate con quelle a domande di cui si conosce la risposta («Ha mai subito condanne penali?»). Se i parametri delle domande critiche sono sovrapponibili a quelli delle domande di controllo, il soggetto presumibilmente sta dicendo la verità; altrimenti, si può ipotizzare che menta. Il poligrafo, dichiarato inaffidabile dalla Corte suprema statunitense nel 1998, è ancora ammesso come strumento probatorio nello stato americano del New Mexico.

Con la stessa logica, si può utilizzare la risonanza magnetica funzionale, solo che in questo caso a essere confrontate non sono le reazioni neurovegetative, bensì le aree cerebrali che risultano maggiormente attive nei diversi schemi di risposta a domande critiche e a domande di controllo. Si tratta di una tecnica più sofisticata, meno sensibile alla manipolazione del soggetto (mordersi la lingua, contare mentalmente al contrario), ma di validità e affidabilità ancora assai discussa e di utilizzo molto complicato [Langleben et al. 2002]. Due metodi di lie-detection che sfruttano la risonanza magnetica funzionale sono correntemente proposti da due società private: No Lie MEI e Cephos. Il primo si basa sull'ipotesi che la menzogna sia associata a uno specifico tipo di attività del giro frontale medio e anteriore e che il proferimento di affermazioni vere si accompagni a una specifica attivazione della parte inferiore del lobo parietale. La No Lie MRI ha prodotto una perizia presentata davanti a una corte californiana nel marzo 2009, ma poi ritirata [Belcher e Sinnott-Armstrong 2010]. La Cephos ha fornito una consulenza per uno psicologo accusato di frode al sistema sanitario, la quale è stata respinta da un tribunale del Tennessee nel maggio 2010, con un parere che potrebbe fare testo a lungo [Miller 2010]. Il giudice ha infatti stabilito che l'uso della fMEI per valutare il tipo di attivazione di tre aree specifiche, quali indicatori di verità e menzogna, non è accettabile perché la tecnica di lie-detection manca di due dei quattro requisiti «Daubert» sulla prova scientifica (non sono noti i tassi di errore e non c'è accettazione condivisa della comunità scientifica). Inoltre, rischia di fuorviare la giuria, nella pretesa di sostituirsi a essa con un elemento oggettivo inoppugnabile, che ad avviso del tribunale tale ancora non è.

Per quanto riguarda la rilevazione delle memorie personali (la cosiddetta memory-detection)2, una - il Guilty Knowledge Test [Lykken 1959] - usa le risposte psicofisiologiche come variabile dipendente. In questa procedura, si presentano al soggetto vari scenari dal contenuto indifferente od oggetti quotidiani e si misurano le reazioni emotive. Solo colui che riconosce alcune di tali presentazioni come strettamente associate al crimine e al crimine commesso dal soggetto stesso manifesta reazioni fisiologiche distintive. L'informazione diversa dalle altre svela la conoscenza «colpevole», da cui il nome della procedura. Tale metodologia si può applicare anche con i potenziali evento-correlati (registrazione dell'attività elettrica cerebrale mediante elettrodi posti sullo scalpo in concomitanza allo svolgimento di un compito specifico da parte del soggetto). Ci si basa sull'andamento della risposta della cosiddetta onda P300 [Tancredi 2004]: questo specifico tipo di segnale elettrico aumenta la sua ampiezza quando compaiono stimoli che il soggetto identifica come nuovi. A chi è sospettato di un delitto potrebbe essere mostrata l'immagine del luogo in cui è stato commesso il crimine, oppure dell'arma, per stabilire se la persona sottoposta all'esame ha «familiarità» con ciò che osserva.

Questa metodologia (nota commercialmente come «Brain finger-print» e ammessa in un procedimento penale in Iowa nel 2001, nel quale fu prosciolto un condannato all'ergastolo per un omicidio del 1977) ha come obiettivo l'individuazione della conoscenza «colpevole», ovvero quei ricordi che soltanto il responsabile di un delitto può avere.

Una variante messa a punto in India è il Brain Electrical Oscillations Signature Test (BEOS), che è entrata in un processo per omicidio volontario mediante avvelenamento. Nel 2008, a Pune, Stato di Maharashtra, il giudice citò esplicitamente il test come prova che il cervello dell'imputata contenesse «una conoscenza esperienziale» del crimine che soltanto l'assassino poteva possedere, in ciò affidandosi alla competenza degli scienziati autori dell'esame prima della fase dibattimentale. In seguito, la donna è stata scarcerata su cauzione dalla corte d'appello per insufficienza di prove, ma nel dispositivo non si faceva accenno al test neuroscientifico.

Una metodologia efficace per identificare memorie autobiografiche è l'Autobiographical IAT [Sartori et al. 2008]. Essa si basa su una modificazione innovativa dell'Implicit Association Test [Green-wald, McGhee e Schwartz 1998], metodo che ha avuto larga diffusione e applicazione negli ambiti più disparati, tanto da diventare uno dei settori di ricerca più prolifici e maggiormente citati del settore psicologico/psichiatrico. Lo IAT è uno strumento di misura indiretta che, in base alla latenza delle risposte, stabilisce la forza dell'associazione tra concetti. Esso si basa su un fenomeno molto forte relativo all'organizzazione del sistema nervoso, l'effetto compatibilità. Un esempio di condizione incompatibile si ha quando guidiamo con le gambe incrociate: diventiamo molto lenti e inaccurati e questa è una condizione che non si elimina nemmeno con un lungo addestramento. Lo IAT confronta situazioni compatibili (come nella condizione di guida normale) e condizioni incompatibili (come nella condizione di guida a gambe incrociate). L'effetto compatibilità alla base dello IAT si basa su questo fenomeno: quando due concetti sono associati fra di loro nella mente/cervello del soggetto e condividono la medesima risposta motoria (ad esempio, viene usato lo stesso tasto per rispondere) i tempi di reazione saranno molto rapidi; al contrario, quando due concetti non associati condividono la medesima risposta motoria, i tempi di reazione diventeranno molto lenti. Ad esempio, nello IAT usato per evidenziare lo stereotipo razziale presente anche nei soggetti che si autodefiniscono privi di questo pregiudizio, il soggetto deve classificare concetti «buoni» (rosa) e «cattivi» (vipera) e facce di uomo bianco (John Kennedy) e facce di uomini di colore (Martin Luther King). In una condizione, deve rispondere con la medesima mano (la sinistra per stimoli appartenenti alla categoria «buono» e a facce bianche); nell'altra, alla categoria «buono» e a facce nere. Una velocità di risposta significativamente maggiore nella condizione in cui si risponde assieme a «buono» e a volti bianchi rispetto a «buono» e volti di colore è indice che, per quel soggetto, «buono» è associato a bianco e «cattivo» a uomo di colore, segno dell'esistenza dello stereotipo razziale a livello inconscio.

Nell’Autobiographical IAT, invece di indagare il livello di associazione fra concetti (memoria semantica), si valuta l'esistenza di una traccia della memoria autobiografica (episodica), rendendo lo strumento idoneo ad applicazioni investigative e forensi. A questo fine, si impiegano frasi da classificare come vere e false, «innocenti» (che descrivono un ricordo irrilevante per il fatto in esame) e «colpevoli» (che descrivono un ricordo rilevante del fatto in esame); questa procedura permette di identificare quale sia la conoscenza fattuale riguardo a determinati eventi autobiografici. Le prove condotte fino a oggi hanno permesso di documentare un'accuratezza attorno al 92%.

L’Autobiographical IAT consente quindi di identificare, con elevata precisione, quale di due memorie sia quella vera per il soggetto, ma ciò a condizione che una delle due memorie risulti vera e l'altra falsa, condizione non sempre facile da soddisfare. Fortunatamente, quando si passa ad applicazioni reali, si trovano frequentemente casi in cui solo una delle due memorie è vera e l'altra è falsa, come tipicamente succede nelle situazioni giudiziarie nelle quali, per definizione, si contrastano due ipotesi mutual-mente escludentesi, quella «accusatoria» e quella «difensiva». Il meccanismo stesso del processo penale restringe i gradi di libertà a due memorie alternative che non sono conciliabili all'interno del dibattimento. L’Autobiographical IAT ha molte caratteristiche che lo rendono particolarmente idoneo alle applicazioni forensi: a) i ricordi oggetto di esame sono rappresentati da frasi e quindi esiste un livello di flessibilità che l'uso delle immagini non può raggiungere; b) l'analisi è interamente algoritmica e questo permette di riprodurre il risultato finale in modo univoco partendo dai medesimi dati di partenza.

L’Autobiographical IAT è basato sui tempi di reazione rilevati in condizioni nelle quali viene indotto un conflitto cognitivo che si riflette sulle latenze di risposta e da queste è possibile ricavare il ricordo autobiografico vero. A questa tecnica comportamentale si sono aggiunte, di recente, anche tecniche di neuroimmagine basate sulla risonanza magnetica funzionale. Sembra infatti tracciata la strada dello sviluppo di tecniche di identificazione delle memorie autobiografiche sulla base delle attivazioni cerebrali. Queste attivazioni (segnale BOLD di fMRI oppure potenziali evocati) opportunamente trattate con metodi che enfatizzano il segnale (solitamente tecniche di machine learning) permettono di identificare, come per L’Autobiographical IAT, i singoli ricordi e non solo le strutture nervose implicate, in generale, nel processo di memorizzazione.

Recentemente, ad esempio, Rissman, Greely e Wagner [2010] hanno dimostrato come sia possibile individuare se il singolo soggetto abbia visto in precedenza un determinato volto sulla base delle attivazioni cerebrali misurate mediante la risonanza magnetica funzionale. Risulta particolarmente interessante il fatto che le attivazioni siano proporzionali al grado di confidenza soggettiva dell'individuo nel proprio riconoscimento. Cioè, se la persona sotto esame si dice particolarmente convinta della bontà del suo riconoscimento, si trova un'attivazione elevata; se invece è meno convinta, si trova un'attivazione minore. È immediatamente chiaro il rilievo di un'applicazione in ambito forense, in cui la valutazione dell'accuratezza di un riconoscimento testimoniale gioca un ruolo fondamentale.

Altra questione è quella della recettività dello stesso mondo forense a queste nuove tecniche. Il dibattito a livello internazionale è stato prevalentemente condotto da neuroscienziati che tendono, per forza di cose, a usare nel giudizio complessivo i parametri della scienza. Come invece ha notato correttamente un giurista [Schauer 2010], la questione della nuova prova scientifica andrebbe valutata non con i parametri della scienza, ma con quelli del sistema giudiziario. Se quest'ultimo accetta precisioni del 55% nella diagnosi psichiatrica e del 25% nell'ecografia, lo fa perché queste tecniche rappresentano allo stato delle conoscenze il grado massimo di precisione raggiungibile. Considerare insoddisfacente, con i parametri della scienza, una precisione del 90% e rifiutare la validità legale di una prova come lo IAT significa appoggiarsi, dice l'autore, ad altri criteri di valutazione, che rischiano di essere di gran lunga di precisione inferiore. Quindi, conclude che «contrariamente all'opinione prevalente la validità di metodi di lie-detection in ambito processuale o forense dovrebbe essere decisa secondo criteri legali e non scientifici».

Dal punto di vista più generale, è stato sottolineato come queste metodologie costituiscano strumenti estremamente utili, ma siano anche in grado di cambiare la realtà sociale. Incrementarne lo sviluppo, la diffusione e la legittimazione tramite il loro utilizzo in tribunale può sollevare problemi e resistenze.

Una rilevazione pressoché infallibile della menzogna [...] modificherebbe anche i nostri modelli del Sé. Se, in quanto cittadini, sapessimo che per principio non esistono più segreti, ossia che non è più possibile nascondere informazioni allo Stato, verrebbe meno uno dei pilastri della nostra vita quotidiana (almeno per quel che riguarda il mondo occidentale), ossia il piacere dell'autonomia individuale. La mera consapevolezza dell'esistenza di una simile neurotecnologia forense sarebbe sufficiente per realizzare il cambiamento. Vorremmo davvero vivere in una società del genere? I benefici sarebbero davvero superiori ai danni? Come potremmo evitare, sempre che sia possibile farlo, che queste tecnologie vengano usate male? [Metzinger 2009; trad. it. 2010, 266].

Domande che in futuro potrebbero diventare di stringente attualità e alle quali conviene porre mente già oggi, sia sul versante del diritto sia su quello sociale più ampio.

2.2. La capacità di agire e gli stati vegetativi

La capacità di agire è un concetto essenzialmente giuridico, che riguarda la possibilità di esercitare i diritti e i doveri di cui si è titolari e portatori a partire dalla nascita. In altre parole,

la capacità di agire consiste nella possibilità di agire in autonomia circa il proprio progetto di vita e il proprio destino, nel rispetto delle regole di civile convivenza e di solidarietà sociale [...]. La capacità di agire presuppone l'integrità e l'esercizio efficace di una vasta famiglia di competenze di natura cognitiva, emozionale e sociale, a loro volta riassunte nelle locuzioni giuridiche di capacità di provvedere ai propri interessi o in quella - più generica - di intendere e di volere [Stracciari, Bianchi e Sartori 2010, 48].

In questo contesto, limitandoci alla legislazione civile italiana, va sottolineato come il diritto si sia adeguato al progresso delle scienze psicologiche, superando gli strumenti dell'interdizione e dell'inabilitazione a favore della nuova figura dell'amministratore di sostegno, introdotta a partire dal 2004. Se però lo spirito delle norme precedenti era quello della tutela di chi, pur maggiorenne, non fosse in grado di esercitare in modo responsabile, per sé e per gli altri, la propria libertà, l'attuale assetto, che di fatto abbassa la soglia della protezione, richiede una specifica attenzione a non superare la linea di confine tra stato di malattia o debolezza «oggettiva» e valutazioni «morali» della condotta del soggetto.

Temi «neuroetici» sono pertanto quelli che riguardano la specifica diagnosi di incapacità. Le nuove conoscenze e le nuove tecniche, infatti, consentono di spostare confini che a lungo sembravano immutabili (cfr. cap. 1, Lavazza). In particolare ci si può soffermare su alcuni casi che rientra(va)no fino a oggi nella categoria di «soggetti che si trovano in situazioni così gravi da non poter esprimere alcuna preferenza circa il proprio stato giuridico né presente, né futuro, e che di conseguenza non possono che essere rappresentati da altri nella formulazione della domanda di tutela» [Stracciari, Bianchi e Sartori 2010, 51]. Si tratta, nello specifico, di persone in quello che si definisce stato vegetativo persistente.

In prima approssimazione, per stato vegetativo si intende generalmente la condizione di soggetti colpiti da malattia neurologica che non manifestano segni di consapevolezza di sé o dell'ambiente, nessuna risposta agli stimoli esterni tale da suggerire movimenti volontari od orientati a uno scopo (cioè non puri riflessi) e nessun segno di espressione linguistica o di comprensione del linguaggio [Royal College of Physicians 2003, sez. 2.2]. La classificazione tradizionale dello stato vegetativo come permanente (ovvero nessuna possibilità di recupero) è stata progressivamente abbandonata a favore di quella meno drastica di persistente (ridottissime possibilità di recupero, declinanti con il tempo).

Negli ultimi anni, almeno due drammatici casi di vastissima eco mediatica hanno imposto all'attenzione pubblica il tema di capacità, tutela e decisione riguardo situazioni di stato vegetativo. In Italia, quello di Eluana Englaro, la donna da 17 anni in stato vegetativo alla quale, su istanza del padre, sono state sospese alimentazione e idratazione dopo lungo, controverso e tormentato iter giudiziario; negli Stati Uniti, quello di Terri Schiavo, dove lo stesso è avvenuto su richiesta del marito, richiesta contestata e contrastata dalla famiglia di origine, al termine di una lunga sequela di sentenze di segno opposto nei vari gradi di giurisdizione.

Al di là degli aspetti, pur fondamentali, di ordine giuridico rispetto all'interpretazione del diritto esistente, ciò che rileva in ambito neuroetico è la nuova, incipiente conoscenza scientifica, la quale si candida a spostare una consolidata frontiera in tema di capacità e di decisione negli stati vegetativi. Alcuni studi recenti hanno infatti fornito indicazioni di un possibile residuo di coscienza in alcuni pazienti in stato vegetativo persistente. Owen e colleghi [2006] hanno sottoposto a risonanza magnetica funzionale una ragazza di 23 anni, vittima di un grave incidente stradale, in stato vegetativo da cinque mesi. Alla giovane veniva fatta ascoltare una registrazione in cui le si chiedeva di immaginare di giocare a tennis; in un altro test, veniva invitata a pensare di percorrere le stanze della propria abitazione. Successivamente, le venne chiesto di rilassarsi completamente. Grazie alla fMRI si sono potute osservare le aree attivate nel cervello della paziente e in soggetti sani di controllo, sia durante i compiti di immaginazione sia durante la fase di riposo. Ne è risultata una quasi perfetta sovrapponibilità delle attivazioni cerebrali rilevate nella paziente con quelle dei 34 volontari sani. La partita di tennis immaginata provocava un incremento di attivazione dell'area motoria supplementare e il percorso nella propria casa un incremento di attivazione del giro ippocampale, del lobo parietale posteriore e della corteccia premotoria laterale [Boly et al. 2007; Owen et al. 2007] sia nella giovane sia nei soggetti di controllo.

La conclusione degli autori è stata molto chiara:

Questi risultati confermano che [...] la paziente in questione mantiene la capacità di comprendere comandi verbali e di rispondere a essi attraverso l'attivazione cerebrale, piuttosto che attraverso la parola o il movimento. Inoltre, la sua decisione di cooperare con gli sperimentatori immaginando di svolgere particolari compiti quando le veniva chiesto rappresenta un chiaro atto intenzionale, che conferma al di là di ogni dubbio che è consciamente consapevole di sé e del suo ambiente [Owen et al. 2006, 1402].

Molto recentemente, si è cominciata a ipotizzare la possibilità di interrogare direttamente soggetti in stato vegetativo persistente usando la fMRI. Quello che sembrava praticabile in via teorica [Monti, Coleman e Owen 2009] è stato in effetti realizzato. In uno studio pilota, tra 54 pazienti diagnosticati in stato vegetativo sottoposti a risonanza magnetica funzionale, 5 sono stati in grado di modulare volontariamente la propria attività cerebrale [Monti et al. 2010]. Uno, in particolare, è stato capace di rispondere a semplici domande («Tuo padre si chiama Thomas?»). Lo sperimentatore formula la domanda e istruisce il soggetto a dire «sì» pensando a un particolare compito («giocare a tennis») e «no» pensando a un compito affatto differente. In base alle aree maggiormente utilizzate (associate a quel pensiero), grazie agli esiti della fMRI, si può poi risalire alla risposta espressa. Nel caso specifico, il giovane traumatizzato ha risposto (tramite le attivazioni cerebrali) correttamente a cinque domande su sei. I ricercatori sono stati quindi in grado di decodificare il pattern cerebrale delle risposte «sì» e «no» e di usare questi profili di attivazione come sostituti della risposta verbale, rendendo così alcuni di questi pazienti potenzialmente capaci di comunicare.

Tale risultato solleva quindi il dubbio che anche alcuni di coloro che sono stati finora considerati «incapaci» per definizione abbiano invece una pur gravemente diminuita forma di coscienza la quale, sebbene non espressa esplicitamente, sia rilevabile in modo strumentale. Quello che prima facie sembra solo un caso di progresso tecnico di cui il diritto può servirsi, apre invece una questione assai complessa. Come discusso in modo ampio e raffinato da Shea e Bayne [2010], si potrebbero infatti considerare gli errori di omissione (giudicare incosciente un organismo che è invece ancora dotato di consapevolezza) più gravi degli errori di commissione (giudicare cosciente un organismo che risulta invece privo di consapevolezza) e, dunque, adottare un criterio «liberale» di ascrizione di coscienza. Quando un paziente mostrasse un'attivazione cerebrale rilevabile strumentale, si dovrebbe allora riconoscergli una capacità di autodeterminazione? Non è così automatico. Si pensi, ad esempio, al grado di confidenza che sarebbe richiesto per ritenere un particolare tipo di risposta «letta» con la risonanza magnetica funzionale vera espressione della volontà del soggetto. Il caso paradigmatico sarebbe quello della domanda circa la volontà di proseguire le cure: a che condizioni si potrebbe prendere per «autentica» la determinazione del paziente - qualunque essa sia -manifestata tramite la risonanza magnetica funzionale?

Vi sono almeno due ordini di questioni tecnico-scientifiche che riguardano le decisioni del diritto. La prima attiene all'affidabilità della metodica (il segnale BOLD letto dalla macchina) come unico indicatore di volontà del soggetto interrogato; la seconda, più generale, ha a che fare con la riformulazione - o perlomeno all'ampliamento - del criterio che si adotta per l'ascrizione di consapevolezza a un individuo. Infatti, l'approccio standard, preteorico ma utilizzato ordinariamente dalla legislazione esistente, è quello del comportamento volontario e della riportabilità (ovvero della possibilità di manifestare esternamente con qualche mezzo i contenuti della propria vita mentale; i pazienti con sindrome locked-in possono farlo soltanto con il movimento di una palpebra, che però è sufficiente ad articolare una comunicazione complessa). Nei pazienti in stato vegetativo (che non comunicano e non manifestano atti orientati a uno scopo al di là dei riflessi e dei comportamenti automatici) sembrano mancare entrambe queste condizioni.

Gli esperimenti di cui si è riferito mostrano tuttavia che la riportabilità è consentita da una modalità strumentale e che la volontà viene espressa dall'attivazione specifica di aree cerebrali in seguito a precise istruzioni verbali, come accade in soggetti sani (almeno per pochi e semplici compiti per i quali sono stati finora condotti test). E le obiezioni teoriche o pratiche mosse a questi risultati non appaiono conclusive. Ad esempio, si contesta che se alcuni soggetti in stato vegetativo sono in grado di formare intenzioni volontarie (come immaginare di giocare a tennis), dovrebbero essere capaci di compiere qualche azione. Ma esistono pazienti in queste condizioni (sindrome di locked-in) per i quali nessuno nemmeno ipotizza l'assenza di consapevolezza. Né è dirimente il fatto che molti comportamenti abitudinari complessi anche nelle persone sane sono documentati come automatici, perché immaginare di giocare a tennis non è verosimilmente un pensiero di routine e perfino corsi d'azione compiuti inconsciamente (come i movimenti di base della guida di un'auto) sono sollecitati dalla consapevolezza degli stimoli che li provocano (si parte quando si vede il semaforo verde...).

Si apre così un campo del tutto nuovo, di estrema delicatezza e complessità, in cui neuroscienze e diritto vengono a interagire. Le diagnosi di stato vegetativo con conseguente affidamento totale di responsabilità all'amministratore di sostegno potrà non tenere conto di acquisizioni, benché ancora provvisorie, come quelle fin qui segnalate? Sarà possibile prevedere e normare situazioni in cui soggetti apparentemente non in grado di comunicare né apparentemente dotati di coscienza diano segni di consapevolezza rilevati strumentalmente e dimostrino di poter rispondere a domande? Come rimodulare le soglie di incapacità, e in quale considerazione tenere le preferenze espresse da tali soggetti con modalità indirette così particolari? Quesiti la cui soluzione procederà di pari passo con il progresso tecnico-scientifico e la riflessione filosofica e giuridica, insieme con la mutata sensibilità sociale. In definitiva, un ambito privilegiato per la neuroetica.

3. Le neuroscienze e il crimine

Spostando il focus all'ambito del diritto penale, e in particolare sull'autore di reato, le neuroscienze si possono declinare come «neuroscienze criminologiche», in quanto aventi l'obiettivo di disegnare una neuroanatomia (strutturale e funzionale) del soggetto responsabile di atti contrari alla legge.

Senza entrare nel dettaglio delle singole ricerche, ma guardando i risultati più importanti oramai acquisiti, si può affermare che è ormai chiaro il ruolo del lobo frontale nella complessa eziologia del comportamento violento. I disturbi del comportamento possono essere di origine lesionale (ad esempio, trauma cranico) oppure essere congeniti, cioè non insorti successivamente a uno stato di benessere psichico. Tipicamente, le malattie psichiatriche appartengono a questa seconda categoria, mentre le malattie neurologiche alla prima. Era noto da tempo il ruolo causativo del comportamento aggressivo da parte di lesioni al lobo frontale, specialmente nelle aree orbito-frontali (alla base del lobo frontale). A seguito di esse, in genere il paziente modifica il suo carattere premorboso diventando irascibile, impulsivo e mostrando una sorta di «anestesia» emotiva. Meno chiaro era invece che la medesima funzione frontale, quando alterata, fosse alla base dei comportamenti aggressivi del paziente psichiatrico. A questa conclusione si è arrivati usando le tecniche di neuroimmagine.

Di particolare interesse è stato lo studio dei soggetti diagnosticati quali psicopatici (Disturbo antisociale di personalità, secondo il DSM-IV) in quanto in essi vi è una naturale convergenza degli elementi della malattia mentale con quelli del soggetto criminale3. In primo luogo, attraverso l'uso di tecniche di neuroimaging strutturale, come la Voxel Based Morphometry, in grado di identificare anche piccole variazioni nella struttura anatomica del cervello, alcuni autori hanno trovato negli individui antisociali un aumento della sostanza bianca del corpo calloso [Raine et al. 2003], una diminuzione della sostanza grigia nella corteccia prefrontale [Raine et al. 2000] e una diminuzione del volume dell'ippocampo posteriore [Laakso et al. 2001],

Per quanto invece attiene il neuroimaging funzionale, ovvero la registrazione del funzionamento fine del sistema nervoso, nei soggetti antisociali sono state chiaramente evidenziate disfunzioni dei lobi temporali e frontali. Studi con la PET hanno mostrato l'esistenza di alterazioni metaboliche nella corteccia frontale di soggetti con comportamenti sistematicamente violenti [Volkow et al. 1995], di soggetti con storie di aggressioni [Goyer et al. 1994] e di omicidio [Raine, Buchsbaum e Lacasse 1997].

Lo stile di risposta impulsivo che caratterizza tale disturbo potrebbe essere associato a una diminuzione del controllo dell'azione, che può essere valutato (passando a una diversa metodologia di indagine neuroscientifica, quella della misurazione dei parametri neurofisiologici) attraverso la componente «ERN»: negatività correlata agli errori [Gehring et al. 1993]. Essa è una componente dei potenziali evocati evento-correlati generata nella corteccia cingolata anteriore in conseguenza di risposte sbagliate [Kiehl, Liddle e Hopfìnger 2000; Ullsperger e von Cramon 2001]. Un recente studio ha ottenuto le misure comportamentali e quelle dei potenziali evocati durante un compito di reazione accelerata con due possibili scelte in un gruppo di pazienti con Disturbo borderline di personalità (un altro disturbo di personalità che, come quello antisociale, è caratterizzato da comportamenti auto ed eteroaggressivi) e in un gruppo di soggetti di controllo [De Bruijin et al. 2006]. I risultati mostrano che l'ampiezza della ERN (la suddetta componente «legata agli errori») risultava ridotta per i pazienti affetti da disturbo borderline, come anche l'ampiezza della P3004 dopo un feedback ritardato. La diminuzione d'ampiezza della P300 avvalora l'ipotesi secondo la quale i pazienti con disturbo borderline di personalità attribuiscano un minore significato a questo feedback negativo rispetto ai soggetti di controllo. Sembra quindi che il sistema cerebrale che valuta gli effetti delle conseguenze negative delle proprie azioni sia in qualche modo mal funzionante.

In conclusione, le alterazioni identificate all'origine del comportamento violento nei soggetti privi di patologia neurologica ma con storia di aggressività sono le medesime che si osservano nel comportamento violento che insorge in seguito a lesioni. I soggetti con disturbo antisociale di personalità condividono sia i sintomi sia le alterazioni con alcune tipologie di pazienti colpiti da sindrome frontale di origine lesionale.

3.1. La capacità di intendere e di volere

Se in futuro un modello neurobiologico del comportamento criminale potrebbe in astratto condurre - come si vedrà nel paragrafo 4 - a una rivalutazione di istituti e categorie giuridiche proprie (seppur rinnovate) della vecchia Scuola Positiva, già oggi - jure condito - è possibile assistere a una concreta applicazione delle neuroscienze «criminologiche» nei tribunali.

Esempio principe non può che essere l'uso delle metodologie neuroscientifiche nel caso di accertamenti peritali circa le «capacità di intendere e di volere» (capacità che danno contenuto all'istituto giuridico dell'imputabilità) del soggetto sotto accusa. Applicazione, questa, che certamente alcuni potrebbero considerare un controsenso culturale e scientifico: l'imputabilità, infatti, è proprio l'istituto giuridico che caratterizza i sistemi retributivistici in quanto traccia una linea di separazione «medica» tra i normali (liberi per postulato convenzionale e dunque, se colpevoli, meritevoli di pena) e i malati (determinati al crimine per cause psicopatologiche accertate e, quindi, sottoposti solo alla misura di sicurezza priva di connotazioni punitive). Ma l'imputabilità assume proprio ciò che - come visto - una certa lettura delle neuroscienze vorrebbe confutare (la non determinazione dell'agire umano in assenza di cause patologiche), riportando lo stesso agire umano alla categoria di accadimento naturale sottoposto, come tutti gli accadimenti, alle ferree leggi della determinazione.

In realtà, in ossequio al principio proprio di molte vicende umane per il quale la teoria segue, e non precede la pratica, è possibile già oggi osservare, anche nel panorama giudiziario italiano, applicazioni dei metodi neuroscientifici nella valutazione della imputabilità. Un caso di cronaca giudiziaria di fine 2009 ha conosciuto una risonanza mediatica a livello internazionale proprio in ragione di una lettura «neurobiologica» della determinante al delitto. La vicenda, in estrema sintesi, ha visto come protagonista un giovane algerino riconosciuto colpevole del reato di omicidio nei confronti di un uomo di nazionalità colombiana. Il soggetto veniva, nel corso del giudizio di primo grado, considerato seminfermo di mente (attraverso una perizia psichiatrica che potremmo definire tradizionale) e condannato a una pena ridotta rispetto al massimo edittale. Tale pronuncia, tuttavia, veniva impugnata proprio per questioni attinenti alla imputabilità e si procedeva dunque a un nuovo giudizio in appello vertente intorno al tema della capacità (piena, parziale, assente) di intendere e di volere del condannato.

Per il nuovo accertamento peritale nel grado di appello sono entrate in gioco le neuroscienze. I due periti nominati dal giudice, entrambi accademici, esperti uno in genetica molecolare e l'altro in neuropsicologia clinica (uno degli scriventi, Giuseppe Sartori), hanno dato al nuovo lavoro di expertise forense un taglio decisamente diverso, abbandonando (rectius, ampliando) la tradizionale metodologia psichiatrica (colloqui e test) e facendo uso di categorie concettuali e metodi di indagine propri delle discipline neuroscientifiche. Nella Relazione Peritale, sono chiaramente esposti, nella sezione introduttiva, tutti i postulati cardine che distinguono il «procedere tecnico» del neuroscienziato rispetto al clinico tradizionale:

Le neuroscienze cognitive enfatizzano - al di là dell'individuazione dell'etichetta diagnostica propria dell'approccio psichiatrico - la relazione tra sintomi psicopatologici e alterata attività cerebrale, al fine di arrivare a una descrizione delle dinamiche cerebrali patologiche sottostanti all'eventuale manifestazione clinica. [...] La neuropsicologia infatti è lo studio sperimentale delle relazioni intercorrenti fra il sistema nervoso centrale e la mente.

Oltre ai postulati teorici di base (il metodo anatomo-clinico, appunto) sono state segnalate dai periti anche le tecniche strumentali che, avendo conosciuto un vivace sviluppo negli ultimi vent'anni, hanno permesso di espandere tale metodo (il confronto costante tra dati biologici e dati comportamentali) a livelli un tempo inimmaginabili.

Negli ultimi anni, la neuropsicologia ha avuto il maggior sviluppo nell'ambito delle neuroscienze, grazie soprattutto all'evoluzione delle tecniche neuroradiologiche (in particolare la risonanza magnetica cerebrale), all'introduzione di tecniche che misurano le variazioni di flusso ematico o il metabolismo cerebrale durante l'esecuzione di particolari compiti cognitivi (tomografia a emissioni di positroni, risonanza magnetica funzionale) e all'affinarsi di tecniche elettrofisiologiche che sono in grado di evidenziare disordini funzionali in assenza di alterazioni strutturali (potenziali evocati).

Uno sviluppo che ha permesso l'applicazione del metodo «anatomo-clinico» oltre gli angusti limiti delle sue origini (quando di fatto era possibile solo osservare i deficit psichici selettivi in specifiche regioni cerebrali) poiché ha reso possibile osservare la dinamica cerebrale in vivo, anche di soggetti sani. E la conseguenza è quella di «disegnare» grazie a tali metodiche nuovi modelli di architettura cognitiva.

È così possibile descrivere l'architettura anatomica e funzionale delle varie funzioni cognitive, definendo con maggior precisione le basi neurologiche dell'attività mentale e definire le conseguenze, sia sul piano cognitivo sia su quello comportamentale, di una alterazione psichica e comportamentale.

Infine, sempre nelle note teoriche generali di tale elaborato peritale, si rinviene il richiamo al contributo della genetica molecolare, in grado di procedere a una spiegazione su un livello biologicamente ancora antecedente (il gene che rende più probabile lo sviluppo di disordini psichiatrici, a loro volta alla base di comportamento deviante).

Inoltre, la genetica molecolare ha permesso di formulare spiegazioni causative del comportamento patologico tramite l'identificazione di polimorfismi che determinano una elevata vulnerabilità psichiatrica nel soggetto portatore.

La sintesi di tale approccio neuroscientifico all'indagine del comportamento «non imputabile» si ritrova infine nell'articolazione del momento diagnostico (fulcro del lavoro peritale) intorno a tre diverse dimensioni:

(la) Diagnosi descrittiva. Per diagnosi descrittiva si intende l'identificazione dei sintomi, in questo caso psichici, (la) Diagnosi di sede. Per diagnosi di sede si intende l'identificazione dell'alterazione anatomica e funzionale che origina i sintomi, (la) Diagnosi di natura. Per diagnosi di natura si intende il meccanismo causativo dell'alterazione anatomica e funzionale che a sua volta è all'origine dei sintomi specificati nella diagnosi descrittiva.

Triplice partizione dell'atto diagnostico che sintetizza in pieno il metodo neuroseientifico: conoscenza (del fenomeno patologico) attraverso la convergenza di dati biologici e di dati comportamentali. La sentenza della Corte d'Assise d'appello è stata di accoglimento delle tesi della perizia e di riconoscimento della seminfermità di mente con il massimo dello sconto di pena previsto dal codice (nello specifico, un anno in meno di carcere rispetto al primo grado)5.

Le letture, più o meno corrette, della sentenza indicano quali saranno i dilemmi che in futuro si potranno aprire con la massiccia introduzione di perizie di tal genere. Si va dalla contestazione di riduzionismo biologico - l'individuo è determinato dai suoi geni e non più considerato libero nei suoi atti - all'allarme sociale per i molti proscioglimenti che si vedrebbero all'orizzonte con queste letture del profilo neurobiologico dell'imputato, fino al paventato sovvertimento del diffuso senso di giustizia, che richiede la punizione dei colpevoli quale pilastro della convivenza sociale.

Le tecniche delle neuroscienze cognitive applicate alla questione della imputabilità sono massimamente utili se sono viste quali contributi per ridurre il margine di discrezionalità in sede peritale. Inoltre, la possibilità che oggi esiste di effettuare una diagnosi di sede e una diagnosi di natura a un livello di precisione prima non immaginabile permette di superare l'approccio convenzionalista al tema della infermità mentale. Nel nostro sistema penale, come in molti altri del resto, l'incapacità di intendere e di volere non può essere limitata al momento della commissione del reato e non può essere insorta esclusivamente per un transitorio stato emotivo o passionale (ad esempio, la gelosia), deve invece costituire il risultato di un'infermità di mente. La definizione del concetto di infermità di mente ha occupato per decenni giuristi e psichiatri forensi, essendo considerato sinonimo di malattia di mente comunque diagnosticabile. In epoca precedente allo sviluppo delle tecniche di neuroimmagine, l'infermità di mente veniva definita secondo criteri di tipo convenzionale; diagnosi di psicopatologia grave come quella di schizofrenia vi erano ricomprese, mentre diagnosi più lievi come quelle del disturbo di personalità non vi rientravano, oppure soltanto se particolarmente gravi. Posto che la malattia mentale è ora documentabile nel suo correlato neuronale, questo approccio convenzionalista, adottato in un'epoca nella quale non si poteva «visualizzare» il cervello mal funzionante, non sembra più avere ragione d'essere. Sapere se esiste un correlato nervoso evidenziabile nella malattia mentale è oggi possibile, risulta massimamente utile nei casi di potenziale simulazione e di forme psicopatologiche di gravità dubbia, casi che però rappresentano la grande maggioranza di quelli di interesse forense, in cui l'affermazione della non imputabilità è una strategia difensiva di prima elezione, in quanto permette al soggetto responsabile del reato di venire prosciolto in via preventiva.

Se le neuroscienze cognitive devono ormai essere considerate lo standard nella determinazione della sussistenza della infermità di mente, ben poco ci dicono tuttavia circa il nesso causale che esiste fra stato mentale patologico e reato, nesso causale che è possibile identificare solo utilizzando argomentazioni che rientrano all'interno della psicologia patologica. Che la malattia di mente abbia «cancellato» o meno la possibilità di autodeterminazione dell'autore di un dato reato può essere stabilito solo analizzando la potenziale relazione causa-effetto fra la mente patologica e le caratteristiche del reato stesso, relazione che non può essere studiata con il linguaggio del neuroimaging e della genetica comportamentale. Se la piromania sia sufficiente a impedire l'autocontrollo del piromane nel momento in cui egli appicca il fuoco a un albergo è una questione di competenza della psicopatologia e non delle neuroimmagini o della genetica: solo la psicopatologia può fornire una risposta.

In breve, le neuroscienze cognitive migliorano la diagnosi di infermità di mente, ma non quella del nesso causale fra malattia di mente e reato.

3.2. Le neuroscienze dell'azione imputabile

Non è questa la sede per una trattazione di tipo psicopatologico forense. Tuttavia, l'aspetto neuroeticamente rilevante delle perizie sulla imputabilità sopra citate è che in esse si realizza un contatto reale tra concetti di matrice giuridico-filosofìca e concetti della moderna neuropsicologia funzionale.

Le perizie sull'imputabilità, infatti, sembrano essere proprio il banco di prova della cosiddetta «neuroscienza del libero arbitrio», filone di ricerca che, nel tentativo di indagare le componenti neuropsicologiche specifiche dell'agire deliberato, procede all'analisi minuziosa (attraverso le più disparate metodologie) dei rapporti tra «intenzione», «coscienza dell'azione» e «processi di controllo» sia nei soggetti normali (la fisiologia del libero arbitrio) sia nei soggetti portatori di disturbi mentali (la patologia del libero arbitrio)6.

La caratteristica della «neuroscienza del libero arbitrio» risiede nel tentativo (proprio dell'approccio analitico e modulare della neuropsicologia cognitiva) di «scomporre» le diverse componenti psichiche che si assumono coinvolte nel libero agire e di studiarne le interazioni fisiologiche e comportamentali.

Nell'indagare le componenti psichiche del libero arbitrio, un primo filone si è concentrato sul «timing dei processi volitivi normali», a partire dalle pionieristiche ricerche di Libet [Libet et al. 1983; Libet 2004] sui rapporti tra azione, coscienza dell'azione e potere di veto. In estrema sintesi, tali ricerche (e tutti i lavori seguenti caratterizzati da quell'impostazione metodologica) hanno condotto a un'evidenza certamente controintuitiva, ossia che nel cervello le aree che preparano l'esecuzione di un movimento si attivano prima che il soggetto abbia consapevolezza della decisione di compierlo. Sembra quindi che il cervello abbia già deciso prima che l'individuo sia cosciente dell'azione che sta compiendo. L'impatto potenziale sulla categoria filosofica (e, a cascata, su quella giuridica) del libero arbitrio pare dunque devastante: come si può essere considerati padroni di azioni che il nostro cervello ha già deciso prima che noi ne siamo consapevoli? Non mancano, tuttavia, interpretazioni ben differenti di tale supposta «rivoluzione filosofica»: De Caro, ad esempio, sottolinea come

varie ragioni dovrebbero invece portarci a ritenere che gli esperimenti di Libet, per quanto interessanti e certo degni di analisi, non hanno conseguenze tanto ovvie per quanto riguarda la vexata quaestio del libero arbitrio [...]. Tali esperimenti si prestano ad alcune obiezioni metodologiche: è corretto, per esempio, equiparare la valutazione soggettiva delle esperienze coscienti con la misurazione oggettiva degli eventi neurali? E in che senso l'azione di piegare il dito «spontaneamente» può essere considerata il paradigma dell'azione libera? Inoltre come va interpretato esattamente il cosiddetto «potenziale di prontezza»? [De Caro 2008, 152].

Restando al tema più strettamente giuridico, è chiaro che tali ricerche potrebbero rivelarsi utili per lo meno in alcune specifiche «figure» della psicopatologia forense (dunque in via indiretta, nella misura in cui tali spunti neuropsicologici potessero essere fatti propri dalla clinica). Il pensiero va alla categorizzazione del cosiddetto «reato d'impeto», solitamente descritto dal soggetto stesso come un atto iniziato senza una chiara volontà, del quale quindi non si sa dare spiegazione. In criminologia, si parla di «reato d'impeto» (o anche di «reazione a corto circuito»), quando il comportamento criminale pare consistere «nel bisogno imperioso e incoercibile di compiere improvvisamente e repentinamente un gesto o un'azione violenta» [Fornari 2005, 333], caratterizzato da un «immediato passaggio all'atto, che può configurarsi in un delitto o in atti auto-eteroaggressivi [...] senza meditazione e a corto circuito, come in un raptus» [Volterra 2006, 250] e dove «l'individuo può agire secondo criteri di razionalità primitiva e irriflessa, adeguando la sua condotta alle esigenze immediate dell'ambiente...» [Gulotta 2002, 386]. Le ricerche sulla fisiologia del libero arbitrio possono senza dubbio contribuire a illuminare alcuni aspetti relativi ai correlati neurobiologici di questo tipo di comportamenti delittuosi.

In ambito giudiziario, si deve giungere a una valutazione sull'intenzionalità rispetto al reato, in quanto il diritto si occupa di azioni libere e consapevoli, ovvero non «deviate» da fattori esterni alla volontà dell'individuo, come una malattia mentale oppure pressioni subite da altri individui. Le risultanze di Libet e quelle successive ancora più stringenti introducono allora la possibilità che alcuni «reati d'impeto» siano effettivamente fuori del controllo cosciente dell'individuo e che si introduca in sede forense una «quantificazione del libero arbitrio» [Sartori e Gnoato 2010]. In sostanza, attraverso gli strumenti della neuropsichiatria (dai test alle neuroimmagini) si potrà cominciare a stabilire «quanto volontariamente» sia stato compiuto quel determinato reato e che tipo di sanzione risulti quindi adeguata.

Un altro classico approccio all'indagine dell'azione libera e responsabile è quello della neuropsicologia della cognizione sociale. Una branca delle neuroscienze si occupa infatti di studiare i correlati neuronali di quelle funzioni psichiche che consentono all'individuo di mantenere un comportamento adeguato in un contesto di interazione. L'insieme di queste abilità costituisce l'intelligenza sociale che comprende, fra le altre funzioni, la capacità di interpretare gli stati emotivi propri e altrui, la mentalizzazione (teoria della mente), il giudizio morale e l'empatia. In questo caso, la relazione con il libero arbitrio nel significato giuridico è ancora più sottile. Non si tratta di indagare le componenti neurofisiologiche che paiono rendere l'uomo «agente non consapevole» delle proprie azioni, come nel caso degli studi di Libet, quanto di cogliere quelle componenti che compromettono lo stesso intendere morale: infatti, nella misura in cui il mio cervello mi impedisce di cogliere alcuni aspetti del significato morale dell'interazione sociale, la mia libertà di volere morale sarà compromessa alla radice. Ad esempio, se in base al modello di deficit di empatia identificato da Blair [1995], il mio cervello non mi «consegna» l'informazione sullo stato dell'altrui sofferenza (deficit di empatia determinato da disfunzioni dell'amigdala, la regione cerebrale ritenuta fondamentale per l'empatia e l'apprendimento etico), la mia azione non potrà modularsi moralmente in ragione di tale informazione.

Dato che tale disfunzione all'amigdala si trova in moltissimi soggetti diagnosticati come psicopatici, e che chi ha una diminuita funzionalità di tale struttura si suppone abbia minore, se non nulla, sensibilità rispetto al danno provocato a esseri viventi e rispetto a comportamenti impulsivi e criminali in generale, lo psicopatico potrebbe essere considerato moralmente non colpevole, oppure si potrebbe mitigare il grado della sua colpevolezza. Dunque, dato che la sensibilità emozionale ha una notevole influenza sulla percezione etica (cioè il riconoscimento delle ragioni morali e la risposta a esse) e, a sua volta, una ridotta percezione etica limita la nostra responsabilità (mentre un'assenza di percezione etica l'annulla del tutto), lo psicopatico potrebbe risultare - secondo una «lettura neuroscientifica» - non imputabile. Posizione che contrasta fortemente invece con gli attuali criteri giuridici e il senso diffuso di giustizia, per i quali il criminale lucido e pianificatore, senza rimorso e incapace di redenzione, sembra il prototipo del soggetto da punire con durezza esemplare.

Proseguendo ancora nella «scomposizione cognitiva» dell'intendere a fondamento dell'imputabilità, oltre alla «coscienza dell'agire» e alla cognizione sociale, un'altra funzione psichica di assoluta rilevanza è la capacità di «ragionamento controfattuale». In ciò vi è un aspetto di novità in quanto, tradizionalmente, in area giuridica il ragionamento controfattuale è stato affrontato dal «punto di vista del giudice», inserito cioè all'interno della tematica riguardante la logica del nesso di causalità penale [Stella 2000; 2003].

Negli ultimi decenni tuttavia, il ragionamento controfattuale ha destato notevole interesse nell'ambito delle scienze cognitive [Epstude e Roese 2008]. In particolare, sono stati studiati i processi cognitivi e neuronali alla base di quella che è la caratteristica precipua del ragionamento controfattuale, ovvero la produzione di simulazioni mentali di alternative a eventi realmente accaduti. In che modo tale filone di ricerca neurocognitiva si collega alla psicopatologia dell'imputabilità penale? La capacità di «fare altrimenti» di fronte a una data situazione è criticamente influenzata dalla capacità di rappresentarsi mentalmente possibili comportamenti o scenari alternativi («Se fosse successo questo, allora avrei fatto quest'altro»). Sebbene il concetto di controfattuale si riferisca tradizionalmente alla rappresentazione mentale di eventi passati (appunto un evento «contrario ai fatti»), la capacità di immaginare comportamenti diversi può riguardare anche il futuro, configurandosi in questo caso come la generazione di simulazioni mentali riguardanti alternative d'azione. La simulazione mentale di comportamenti futuri, che maggiormente interessa il concetto di imputabilità, può essere esemplificata dall'affermazione: «Se farò così, sarò sicuro che...; se invece farò in quest'altro modo, potrà succedere che...».

Ebbene, tale capacità di «pensare alternative» viene spesso considerata un elemento qualificante - da un punto di vista forense - dell'integrità dell’intendere: molti psichiatri utilizzano una valutazione di tipo qualitativo del ragionamento controfattuale come aspetto critico dell'intera valutazione peritale. Ad esempio, nel caso di una donna accusata di aver ucciso la vittima sulla soglia di casa dopo avere suonato il campanello, la domanda posta dal perito, che richiedeva il ragionamento controfattuale, è stata la seguente: «E se invece della signora avesse aperto la porta la domestica, lei che cosa avrebbe fatto?». Dalla risposta «me ne sarei andata senza fare nulla, anziché ucciderla», lo psichiatra ha ricavato un'indicazione circa la capacità del soggetto di alterare intenzionalmente il corso degli eventi e conseguentemente ne ha dedotto la capacità di intendere7. In questo caso, tuttavia, servirà un raccordo e un'opera di armonizzazione con gli altri elementi visti in precedenza, dato che la capacità di pensiero controfattuale può coesistere con l'atto di impulso, che a posteriori è razionalizzabile con un «se... allora», ma nel momento della commissione del reato prevale su ogni altro elemento.

4. Dal sistema retributivo a quello consequenzialista

Per quanto esposto finora, si può affermare che in un certo senso le neuroscienze cognitive applicate ai casi giudiziari sono alla ricerca delle nuove stigmate del soggetto criminale: ossia, secondo la definizione lombrosiana, le caratteristiche corporee costanti (e determinanti) dell'agire contra legem, indagate al livello che la tecnologia odierna consente. A tal fine, si procede confrontando le caratteristiche neurofisiologiche della popolazione criminale, della popolazione «normale» e delle diverse diagnosi psichiatriche.

Questo filone di ricerca, avente per oggetto «la possibilità di significativi collegamenti tra alcuni comportamenti violenti o antisociali e vari disturbi cerebrali» [Mobbs et al. 2007], è infatti quello che risveglia più apertamente i fantasmi lombrosiani. Nella misura in cui pone in relazione necessitante le «caratteristiche cerebrali» con modelli di comportamento antisociale, riapre implicitamente tutte le questioni relative al determinismo biologico della criminalità. «Non è lui ad agire, è la sua malattia»: la conseguenza di tale interpretazione naturalistica del delitto è radicale sul piano delle corrispondenti opzioni giuridiche. Attribuire alla «malattia» la causa del crimine significa, come già era stato sostenuto dalla Scuola Positiva, escludere il principio di responsabilità e la funzione retributiva della pena. Il delinquente, vittima esso stesso della patologia che lo induce al delitto, va messo semplicemente nelle condizioni di non nuocere (a causa della sua pericolosità sociale) ed eventualmente curato.

Per tali motivi la questione (sebbene velata da un'aura modernistica) è giuridicamente vecchia e - sostanzialmente - lombrosiana: differenti sono le metodologie di individuazione delle stigmate del criminale (neuroimaging al posto della craniometria), ma sostanzialmente analoghe le conseguenze sul piano giuridico. L'esclusione del libero arbitrio dalla determinazione al delitto fa cadere il fondamento dei sistemi retributivistici. Su questa linea si muovono coloro che propugnano un atteggiamento «radicale» o «rifondativo», il quale muove dall'ipotesi che la neuroscienza, andando a ridefinire alle fondamenta la nostra concezione di mente/cervello e pretendendo di offrire la prova della sostanziale identificazione della mente con il sostrato cerebrale (il cosiddetto riduzionismo neuroscientifico), non possa che imporre una concezione del sistema giuridico criminale poggiata sul principio del determinismo biologico al delitto [Greene e Cohen 2004; Sapolsky 2004; Farah 2005]. Tale orientamento ritiene che da una concezione essenzialmente deterministica del reato non possano che derivare, come forme di reazione collettiva, strumenti di «difesa sociale» non più caratterizzati dalla logica di restituzione del male per il male. Infatti, il fine di tali strumenti (nel nostro ordinamento chiamati «misure di sicurezza») non è quello di punire (secondo una logica retributiva) il delinquente, bensì quello di renderlo semplicemente non più pericoloso (e, se possibile, rieducarlo e risocializzarlo rimuovendo - attraverso il trattamento - le cause del suo comportamento criminale). La proposta dell'orientamento «rifondativo», dunque, è quella di un'abolizione del sistema retributivistico in favore di un sistema di difesa sociale «puro» (basato, come spesso si legge, su una logica consequenzialistica). Resta da segnalare, comunque, come le pretese di determinismo neurobiologico debbano essere precisate all'interno di una concezione incompatibilista della libertà, stante il fatto che i compatibilisti accettano da tempo il generale determinismo delle leggi fisiche di base, ma non lo ritengono un ostacolo al riconoscimento del libero arbitrio, opportunamente definito, agli esseri umani [cfr. De Caro, Lavazza e Sartori 2010] (cfr. cap. 3, De Caro).

Si tratta di una prospettiva certamente minoritaria e che con-fligge, come già accennato, con le comuni assunzioni in materia di libertà, responsabilità, colpevolezza e giustizia. Da una parte, comunque, non va sottovalutata, in quanto la naturalizzazione della conoscenza sull'essere umano è da tempo indirizzata verso una comprensione sempre più basata sulle scienze biologiche che non sugli aspetti culturali e sociali, i quali sarebbero conseguenze della dotazione genetica e dei meccanismi evolutivo-adattativi. Dall'altra, sembra cozzare con una diversa lettura, emergente delle intuizioni diffuse in materia di giustizia, che si rifa proprio a una sorta di darwinismo applicato alle categorie giuridiche [Robinson e Darley 2007; Robinson, Kurzban e Jones 2007].

Secondo questi studiosi, la maggior parte dei giudizi delle persone sulla responsabilità penale e sulla pena per gravi reati risulta intuitiva e non frutto di riflessione razionale; inoltre, tali intuizioni sono variegate e ampiamente condivise tra gruppi e società, benché riguardino temi che appaiono complessi e soggettivi. In analogia con gli studi che hanno portato a ipotizzare che i giudizi morali non solo abbiano una base biologica, ma riflettano anche i processi evolutivi cui è andata incontro la mente umana, si ritiene che una predisposizione verso le intuizioni circa la giustizia sia egualmente frutto dell'evoluzione naturale. In particolare, l'ipotesi è che le idee di responsabilità, colpevolezza e punizione siano sorte o comunque si siano affermate grazie ai vantaggi che fornivano in termini di stabilità, predicibilità delle interazioni sociali e di sostegno agli scambi mutuamente benefici, ovvero i fondamenti della cooperazione e dei suoi effetti sulla sopravvivenza selettiva.

Di conseguenza, da questo punto di vista sembra irrealistico proporre riforme che puntino a ridurre o ad abolire la pena «retributiva» per gli autori di gravi delitti, perché non si potrebbero «cancellare» le intuizioni condivise (e innate) circa l'obbligo di punire chi ha commesso reati socialmente rilevanti.

Le due posizioni che si fronteggiano, derivanti entrambe da una concezione scientifica avanzata, sembrano in definitiva spostare a un livello superiore il conflitto antico tra una più adeguata considerazione del reo, che non «merita» una punizione per il suo comportamento quando non è pienamente responsabile del proprio atto, e una difesa dell'ordine sociale che reclama di continuare ad applicare categorie antiche e consolidate per mantenere operativa ed efficace la cooperazione tra i suoi membri. Su questo crinale e su questa tensione è chiamata a mediare la neuroetica, con le crescenti e presumibilmente sempre più diffuse acquisizioni delle scienze della mente e del cervello e con gli attuali strumenti del diritto, non necessariamente immobili, come si diceva all'inizio, eppure chiamati a essere stabili per non fare crollare il delicato edificio della giustizia sotto i colpi di nuove conoscenze estranee al suo ambito.

***

1 In realtà, le cose sono, come sempre accade, un po' più complesse. C'è infatti, come si vedrà, una linea di riflessione sul diritto che àncora nella teoria della moderna psicologia evoluzionistica antiche posizioni di senso comune.

2 Non è facile la loro collocazione all'interno del sistema processual-penalistico italiano. Mentre le tecniche di lie-detection potrebbero essere considerate modalità di valutazione scientifica della credibilità della testimonianza, quelle di memory-detection, essendo concettualmente sganciate dalla narrazione in quanto dichiarata, forse dovrebbero essere ricondotte nell'ambito della «prova atipica» disciplinata dall'art. 189 c.p.p.

3 In un certo senso si potrebbe argomentare che le classificazioni «criminale» e «psicopatico» non siano altro che definizioni dello stesso fenomeno osservato da ottiche differenti, quella medica e quella giuridica, anche se una rigida sovrapposizione dei due concetti sarebbe ovviamente da respingere. Lo stesso sintomo cardine della diagnosi di Disturbo antisociale (l'inosservanza delle regole) è in concreto un rinvio a ipotesi di commissione di illeciti, che per definizione sono fenomeni dello spazio gnoseologico della giustizia.

4 La P300 è un'onda che viene registrata attraverso i potenziali evocati: dal punto di vista cognitivo, l'ampiezza di quest'onda riflette gli eventi neurologici centrali nell'attenzione di fronte a stimoli «nuovi» e nella memoria.

5 Corte d'Assise d'Appello di Trieste n. 5/2009, 18 settembre 2009. Per un commento, cfr. Forza [2010],

6 Per una trattazione approfondita, si vedano, ad esempio, De Caro, Lavazza e Sartori [2010], Sartori, Rigoni e Sammicheli [2010],

7 Comunicazione personale di Ugo Fornari, luminare della psichiatria forense italiana che ha condotto la perizia in oggetto.

Cap VIII
Rino Rumiati e Lorella Lotto
Decisioni e decisioni morali, tra razionalità ed emozioni

1. Decisioni irrazionali o distorte?

Gli studi sui processi di decisione si sono sviluppati negli ultimi cinquant'anni, dominati in gran parte da modelli formali che hanno costituito la base dell'approccio normativo e che hanno caratterizzato la ricerca sperimentale [Edwards 1961; Luce e Raiffa 1957]. In questo campo, il problema della razionalità dei comportamenti è segnato fin dall'inizio dalla posizione di Hume e dei pensatori empiristi e pragmatisti, ovverosia da una concezione della razionalità di tipo strumentale. Come ha sostenuto Simon [1983, 7-8], «la ragione è completamente strumentale. Essa non può dirci dove andare; tutt'al più può dirci come arrivarci. È un'arma da utilizzare che può essere impiegata per ottenere un qualche scopo, buono o cattivo che sia».

La razionalità strumentale costituisce il presupposto di gran parte delle dispute teoriche sulla relazione tra regole normative e la loro applicazione corretta, ma le conseguenze di tale dibattito non sempre hanno prodotto una conclusione chiara, decisiva e condivisa. Le teorie normative e le loro regole sono state assunte come base per la produzione degli standard della razionalità, proprio come si è ipotizzato che la logica formale e le sue regole potessero costituire gli standard del pensiero razionale. Dal punto di vista dell'orientamento strumentale, come suggerisce Over [2004], una teoria normativa è rilevante in un certo contesto se e solo se aiuta a perseguire un dato obiettivo in quel particolare contesto, ottenendo con ciò la soddisfazione delle proprie attese. La teoria standard della decisione è un tentativo per determinare regole normative che dovrebbero consentire agli individui di comportarsi in maniera razionale, ovverosia massimizzare la soddisfazione dei propri obiettivi.

Per molto tempo, dunque, il punto di vista dominante nella ricerca sulla presa di decisione è stato quello che considerava che l'assunzione di razionalità fosse un'approssimazione accettabile alla costruzione di modelli predittivi del comportamento, e i modelli elaborati sulla base di criteri di razionalità hanno costituito il principale riferimento per valutare i risultati della ricerca e per comprendere le ragioni dello scarto osservato nell'indagine empirica.

La nozione di «razionalità limitata» proposta da Simon [19.57] e il programma di ricerca sulle euristiche e i biases avviato da Kahneman e Tversky [Kahneman, Slovic e Tversky 1982] hanno messo in luce in maniera sempre più pressante l'inadeguatezza dei modelli che all'assunzione di razionalità facevano riferimento, come la teoria dell'utilità, per descrivere e predire il comportamento umano nei compiti di decisione.

Ciò che l'approccio normativo sostiene è che gli individui decidono esprimendo le loro preferenze, ma tali preferenze dovrebbero essere stabili e coerenti con le regole di base della logica e della teoria delle probabilità. Inoltre, l'espressione delle preferenze non dovrebbe essere influenzata da altri fattori quali il contesto in cui i decisori agiscono o il loro stato emozionale o il modo con cui le informazioni sono presentate. I risultati ottenuti nelle ricerche condotte negli ultimi 35 anni hanno documentato molte modalità in cui le decisioni non sono coerenti, né seguono i principi della logica - gli assiomi della teoria standard della decisione -, mentre dipendono da quei fattori che dovrebbero risultare irrilevanti per il compito.

Dunque, i vincoli posti dal contesto decisionale, l'impossibilità per il decisore di disporre di un'informazione completa e il non essere dotato di risorse computazionali illimitate determinano, secondo Simon [1978], le procedure effettivamente utilizzabili dalle persone. Ecco perché gli individui si trovano nella sostanziale impossibilità di applicare procedure cognitivamente complesse per adottare il corso di azione che «razionalmente» potrebbe garantire l'esito migliore. Diversamente, gli individui utilizzano strategie intuitive e semplici euristiche che sono ragionevolmente efficaci il più delle volte, ma che possono produrre biases o distorsioni o errori sistematici. Strategie intuitive, «frugal and fast» per dirla con Gigerenzer e colleghi [1999], possono essere specifiche per determinati contesti e possono essere inadeguate per altri o anche, talvolta, per lo stesso dominio per il quale sono programmate, dato che in quasi tutti i domini si possono verificare cambiamenti imprevedibili. Quasi tutte le euristiche che l'uomo ha potuto sperimentare ed evoluzionisticamente consolidare sono esposte a fallimenti in determinate condizioni [Kahneman 2000], Anche se per talune euristiche si tratta di una circostanza molto rara, non si può sostenere che i potenziali fallimenti abbiano una rilevanza limitata sugli effetti della condotta umana, in quanto una certa euristica può produrre un risultato anche catastrofico per la stessa nostra vita.

Ormai esiste una visione ampiamente condivisa per la quale si può sostenere che la mente è capace di utilizzare euristiche specifiche organizzate in moduli specifici per i differenti domini, euristiche che possono essere talvolta contrastate da procedure più formali indipendenti dal dominio. Tale visione propone teorie secondo le quali la mente utilizza principalmente due processi [Epstein 1994; Stanovich e West 2000; Kahneman e Frederick 2002], I due processi mentali sono implementati da due sistemi, il Sistema 1 e il Sistema 2. Il primo è caratterizzato da euristiche la cui azione è dipendente dal contenuto. La sua attività è automatica e rapida, facendo ricorso a un'elaborazione parallela delle informazioni; inoltre, agisce in modo pressoché indipendente dal controllo della coscienza. Il Sistema 1 può talvolta adeguarsi in maniera più o meno implicita a regole normative indipendenti dal contesto, quando vengono applicate in maniera molto rapida. Nel Sistema 2, invece, operano procedure consapevoli ed esplicite. La sua attività è relativamente lenta, si sviluppa in maniera sequenziale ed è vincolata alla limitazione della memoria di lavoro. Il Sistema 2 può intervenire in aiuto al Sistema 1 e surrrogarne le funzioni quando quest'ultimo produce risposte che appaiono ecologicamente non adeguate ad alcuni contesti, ma può attivarsi anche in maniera nuova in risposta a eventi insoliti.

Le teorie che propongono l'esistenza di due processi di ragionamento, quindi, possono spiegare come efficienti strategie di pensiero basate sulla logica possano essere disattese e produrre decisioni talvolta disastrose per il fatto di essere sostenute da strategie euristiche che, in altre circostanze, si solo rivelate efficienti essendo guidate dall'intuizione [De Neys 2006]. Sulla base di queste considerazioni, si può spiegare come mai gli americani abbiano sopravvalutato il rischio di incidente aereo per attacco terroristico nei tre mesi successivi all'11 settembre 2001 decidendo di utilizzare l'auto in luogo dell'aereo e producendo la perdita di 350 vite in più della media del periodo, un numero maggiore delle perdite umane occorse nei dirottamenti terroristici dell'11 settembre [Gigerenzer 2004].

2. Razionalità e irrazionalità nelle decisioni morali

Un ambito particolare nel quale, al momento di esprimere una scelta, possono entrare in conflitto razionalità ed emozioni è quello in cui è coinvolto il giudizio morale, cioè un ambito in cui le scelte implicano valutazioni di tipo etico. Le ricerche condotte nel campo del moral judgment riguardano decisioni e giudizi su fatti i quali chiamano in causa comportamenti che possono essere accettati e condivisi in diversa misura dal punto di vista sociale; tali ricerche hanno posto spesso in discussione il ruolo che razionalità ed emozioni svolgono in quei particolari contesti in cui le decisioni tra varie alternative possono essere fonte di conflitto morale.

Per molto tempo le ricerche sul giudizio morale hanno enfatizzato il ruolo della razionalità nella formulazione del giudizio stesso. Kohlberg [1987], ad esempio, collocandosi nella classica tradizione kantiana, propone una spiegazione del giudizio morale che si basa sul ruolo fondamentale della ragione nella sua formulazione. Il ragionamento morale, infatti, si focalizza sui giudizi normativi prescrivendo ciò che è obbligatorio o giusto fare. I giudizi morali «prescrivono» ciò che si dovrebbe fare nelle situazioni in cui le proprie richieste o quelle di più persone sono in conflitto tra loro. Nella visione kohlberghiana, i processi di ragionamento generano il ragionamento morale dal quale consegue il giudizio morale. In quest'ottica, le emozioni morali non sono la diretta causa dei giudizi morali, sebbene le emozioni possano costituire uno stimolo per i processi di ragionamento.

Più recentemente, anche grazie al contributo di Damasio [1994], si è imposto un orientamento teorico in cui si pone in rilievo il ruolo dell'emozione, dell'affettività e dell'intuizione nella formulazione del giudizio morale. Questo approccio presuppone che il giudizio morale sia il risultato di intuizioni automatiche molto rapide. In questa prospettiva, i ragionamenti morali sono spesso costruzioni a posteriori, generate dopo che un giudizio è stato stabilito. Perciò, quando devono formulare un giudizio morale, gli individui avvertono prima una reazione emozionale e successivamente tentano di giustificarla con argomentazioni razionali. Le neuroscienze hanno quindi contribuito in questi ultimi anni allo sviluppo di tale area di ricerca andando alla ricerca dei meccanismi neuronali che sottendono la decisione e il giudizio morale. Greene e colleghi [2001; 2004], in esperimenti di laboratorio con risonanza magnetica funzionale (fMRI), hanno posto al centro dell'attenzione l'importanza delle aree cerebrali volte alla gestione delle emozioni nel guidare aspetti particolari delle valutazioni morali. Questo conflitto fra razionalità ed emotività è in grado di spiegare le difficoltà nel fornire risposte a questioni che implicano un dilemma morale.

In questi esperimenti, vengono utilizzati dilemmi morali, tratti da quelli discussi da Thomson [1986], in cui si chiede ai partecipanti se una certa azione è appropriata oppure no. Secondo Greene e colleghi [2001], i giudizi morali variano a seconda che si tratti di situazioni personali o di situazioni impersonali. Le prime sono quelle situazioni in cui la violazione del principio morale causa un danno grave, diretto verso una o più specifiche persone. Per rientrare nella categoria dei dilemmi personali, inoltre, il danno non deve risultare da una deviazione di una minaccia esistente. Il venire meno di uno di questi tre aspetti rende la violazione morale impersonale.

L'esempio prototipico di dilemma morale impersonale è il cosiddetto «dilemma del carrello». «Una locomotiva senza controllo si sta dirigendo verso cinque operai che stanno lavorando sui binari. Il percorso dei binari presenta una deviazione a sinistra dove si può fare andare la locomotiva. Tuttavia, sul tracciato di sinistra si trova un altro operaio. È appropriato azionare lo scambio in modo da deviare la locomotiva sul binario secondario e salvare così i cinque operai uccidendone però un altro?».

L'esempio prototipico di dilemma morale personale è il cosiddetto «dilemma del ponte»: «Un vagoncino senza controllo si sta dirigendo verso cinque operai che stanno lavorando sui binari. Ti trovi sopra un ponte e stai assistendo alla scena. L'unico modo per fermare il vagoncino è lanciare sui binari un grosso peso. Vicino a te c'è uno sconosciuto corpulento. È appropriato spingere giù lo sconosciuto, in modo che con il suo peso possa fermare il vagoncino e salvare i cinque operai?».

Nel primo caso la maggior parte delle persone ritiene che l'azione di provocare la deviazione della locomotiva uccidendo un operaio in maniera indiretta sia appropriata, mentre nel secondo caso la maggior parte delle persone ritiene che gettare lo sconosciuto per provocare l'arresto del vagoncino risulti un'azione inappropriata. Che cosa rende appropriato o accettabile sacrificare una vita per salvarne cinque nel caso del «dilemma del carrello» ma non nel «dilemma del ponte»? Secondo Greene e colleghi [ibidem], i dilemmi morali personali suscitano risposte emozionali negative che portano l'individuo a considerare l'azione come non appropriata. In lavori successivi si è tentato di superare la distinzione personale/impersonale, focalizzando l'attenzione sul ruolo dell'intenzionalità. In altri termini, nel giudicare la liceità di un'azione, oltre agli effetti delle azioni si devono considerare anche i mezzi con i quali tali effetti sono raggiunti. Questo aspetto è alla base di quello che nella teoria etica è conosciuto come «principio del doppio effetto» [Moore, Clark e Kane 2008].

Per poter giudicare appropriata la scelta tra i corni di un dilemma morale personale, il decisore dovrebbe andare oltre la reazione emozionale utilizzando una sorta di «controllo cognitivo» che gli permetta di rispondere in modo utilitaristico, considerando la violazione morale come accettabile se è al servizio di un bene maggiore. Così il controllo cognitivo permette di trovare una giustificazione all'azione. È possibile, tuttavia, che la risposta di appropriatezza di un'azione in un dilemma morale possa dipendere dal modo con cui il decisore si rappresenta la situazione. In un esperimento condotto da Manfrinati e colleghi [2008], il «dilemma del ponte» è stato modificato introducendo al posto dell'individuo corpulento una persona che era in fin di vita. Ai partecipanti veniva chiesto un giudizio di appropriatezza su una scala da uno (completamente inappropriato) a otto punti (completamente appropriato). I risultati hanno mostrato che, rispetto allo scenario tradizionale, i partecipanti all'esperimento giudicavano significativamente più appropriata l'azione di gettare dal ponte colui che si trovava in fin di vita.

Ciò sembra fare ritenere che l'informazione sulla ridotta aspettativa di vita di una persona crei una diversa «rappresentazione mentale», al punto da considerare quella persona «quasi morta» e, quindi, sacrificabile. Il giudizio morale pare influenzato da una forma di ragionamento utilitaristico quando al decisore viene fornita una ragione che può giustificare il suo giudizio [Hauser et al. 2007]. Ecco dunque che l'aggiunta di un'informazione critica, come quella sull'aspettativa di vita relativa alla persona da sacrificare, sembra «aiutare» i partecipanti a trovare una giustificazione per le loro azioni.

3. Rappresentazione e decisione

Come abbiamo visto, la rappresentazione della situazione può influenzare decisioni sensibili che coinvolgono il giudizio morale. È però una delle acquisizioni ormai consolidate nello studio delle decisioni che molte incoerenze decisionali dipendano dal modo con cui il compito viene presentato. La prova più nota che dimostra come la modalità di presentazione del compito decisionale produca decisioni incoerenti è stata fornita da Kahneman e Tversky [1979; Tversky e Kahneman 1981].

Kahneman e Tversky [1979] hanno proposto la «teoria del prospetto», una spiegazione di come effettivamente gli individui prendono le decisioni, che costituisce la più convincente alternativa alla teoria standard della decisione, cioè la teoria classica che stabiliva le condizioni ideali a partire dalle quali si potesse definire razionale una decisione. Tale teoria, pur avendo una base assiomatica come la teoria standard della decisione basata sulla valutazione dell'utilità degli esiti, ha come riferimento diretto fenomeni comportamentali che si assume corrispondano agli stati mentali del decisore [Wakker e Tversky 1993].

I compiti discussi in quel lavoro dimostrarono che gli individui cambiavano la loro preferenza a seconda del modo con cui le opzioni di scelta erano formulate. In uno dei compiti decisionali utilizzati, i partecipanti dovevano scegliere tra due opzioni con lo stesso valore atteso, ma con differente grado di rischiosità. Tali opzioni, benché formalmente analoghe, presentavano gli stessi esiti descritti in termini di guadagni o di perdite. In una condizione, ai partecipanti veniva detto di immaginare di essere più ricchi di 300 euro e di scegliere tra queste due opzioni:

A) 50% di probabilità di guadagnare 200 euro e 50% di probabilità di non guadagnare nulla;

B) Guadagnare 100 euro con certezza.

Nella totalità dei casi i partecipanti sceglievano l'alternativa B, dimostrando con ciò di essere avversi al rischio quando le opzioni erano descritte in termini di potenziali esiti positivi.

In una seconda condizione, invece, ai partecipanti veniva detto di immaginare di essere più ricchi di 300 euro e di scegliere tra queste due opzioni descritte in termini di potenziali perdite:

C) 50% di probabilità di perdere 200 euro e 50% di probabilità di non perdere nulla;

D) Perdere 100 euro con certezza.

In questo secondo caso i partecipanti sceglievano prevalentemente l'alternativa C, manifestando così una propensione al rischio. Di fronte a una perdita certa, cioè, gli individui mostravano la disponibilità ad accettare di perdere il doppio a fronte della possibilità di non perdere nulla.

L'incoerenza delle persone nella presa di decisione trova ulteriore conferma in un'altra situazione decisionale descritta da Tversky e Kahneman [1981]. In tale situazione si osserva che gli individui manifestano un diverso atteggiamento nei confronti del rischio e ciò dipende da come le stesse alternative, descritte in maniera differente, vengono interpretate. Nel compito noto come «problema della malattia asiatica», ai partecipanti viene chiesto di immaginare che gli USA siano minacciati da un'inattesa epidemia, a causa della quale ci si aspetta che moriranno 600 persone. In una condizione 1) vengono proposti due programmi di intervento e i partecipanti devono scegliere quale programma adottare.

• Programma A, 200 persone saranno salvate;

• Programma B, c'è 1/3 di probabilità che saranno salvate 600 persone e 2/3 di probabilità che nessuno si salverà.

Nella condizione 2) i partecipanti devono scegliere tra due piani formulati diversamente e cioè:

• Programma C, 400 persone moriranno;

• Programma D, c'è 1/3 di probabilità che nessuno morirà e 2/3 di probabilità che 600 persone moriranno.

Nel lavoro originale e in varie repliche [ad esempio, Fagley e Miller 1990; Frisch 1993; Kuhberger 1998; Druckman 2001; Bless, Betsch e Franzen 1998] i partecipanti nella condizione 1) sceglievano nella stragrande maggioranza l'opzione certa A (72% dei casi), mentre i partecipanti nella condizione 2) sceglievano nella stragrande maggioranza l'opzione rischiosa D (78% dei casi).

L'inversione di preferenze sembra dipendere dal fatto che le alternative, strutturalmente equivalenti, sono «incorniciate» in modi differenti e inducono gli individui a cambiare il punto di riferimento. Infatti, nella prima condizione il punto di riferimento è la morte di 600 persone se non si fa nulla: ogni eventuale sopravvissuto costituisce un guadagno; nella seconda condizione, invece, il punto di riferimento è la situazione attuale, in cui nessuno è ancora morto: ogni eventuale vittima costituisce una perdita. Per tali ragioni, dunque, nella prima condizione viene preferita l'opzione certa, in quanto rispetto al punto di riferimento è quella che offre l'esito migliore, mentre nella seconda condizione viene preferita l'opzione rischiosa poiché è quella che apparentemente consente di evitare le perdite.

Questa asimmetria può essere ben rappresentata in termini di differenza di utilità degli esiti delle opzioni di scelta. La figura 8.1 descrive la «funzione del valore», nozione centrale nella teoria del prospetto. La teoria, infatti, sostituisce la funzione classica dell'utilità originata dall'intuizione di Bernoulli [1738], misurando gli stati della ricchezza di un individuo con gli scarti dei guadagni e delle perdite rispetto a un punto di riferimento. La funzione del valore riflette la psicofisica della sensazione decrescente. In altri termini, l'impatto marginale di una variazione nel valore decresce in funzione della distanza dal punto di riferimento.

Il punto di riferimento naturale è lo status quo e ciò consente di distinguere e valutare i guadagni e le perdite. Infatti, la funzione descrive una curva concava per i guadagni e convessa per le perdite. Ciò significa che nel contesto dei guadagni gli individui tendono a manifestare un atteggiamento di avversione al rischio, mentre nel contesto delle perdite gli individui tendono ad assumere rischi.

FIG. 8.1.Curva del valore che mostra come guadagni e perdite della stessa entità hanno differenti utilità soggettive.

Ad esempio, il valore negativo di perdere 100 euro è più della metà del valore negativo di perdere 200 euro e ciò favorirà la preferenza per una scommessa che comporta una perdita possibile rispetto a una perdita sicura (cfr. fig. 8.1).

Dunque, la sigmoide descritta dalla funzione del valore produce come conseguenza che guadagni e perdite della stessa entità abbiano differenti utilità soggettive. Confrontando le valutazioni espresse nel «problema della malattia asiatica» nei due segmenti in neretto, si comprende come le 400 persone in più che potrebbero essere salvate scegliendo l'opzione rischiosa nella prima condizione abbiano un'utilità soggettiva molto inferiore rispetto alle 400 persone in più che potrebbero «non morire» scegliendo l'opzione rischiosa nella seconda situazione. La differenza è tale da rendere più propense al rischio le persone cui è stato presentato il problema in un frame di perdita, e più avverse al rischio quelle che sono state esposte alle stesse opzioni in un frame di guadagno [Tversky e Kahneman 1981].

L'effetto framing ha trovato recentemente una chiara dimostrazione anche a livello neuronale, grazie all'individuazione di un'associazione con l'attivazione dell'amigdala. Il ruolo del frame, infatti, fa emergere la risoluzione di un conflitto generato dalla particolare formulazione del compito decisionale e la distorsione nella presa di decisione è stata imputata al ruolo di questo specifico substrato neuronale associato a risposte emozionali.

L'elegante esperimento condotto da De Martino e colleghi [2006] è stato effettuato registrando le risposte dei partecipanti agli stimoli presentati all'interno di una risonanza magnetica funzionale. I volontari dovevano scegliere tra un'opzione «certa» e un'opzione «scommessa». L'opzione sicura era presentata con due frame diversi, uno di guadagno e uno di perdita. Nel primo caso, frame di guadagno, veniva indicata la quota di denaro che il soggetto poteva «tenere» per sé rispetto alla quantità di denaro inizialmente offerta; nel secondo caso, frame di perdita, veniva indicato l'ammontare che il soggetto avrebbe potuto «perdere» rispetto all'ammontare iniziale. Ai partecipanti, ad esempio, poteva essere presentata una quota iniziale di 50 sterline; di seguito veniva presentato il dilemma di scelta costituito dall'opzione sicura di «tenere 20 sterline» o «perdere 30 sterline» e da un'opzione che indicava la probabilità di vincere 50 sterline o di perdere 50 sterline.

I risultati mostrano che i volontari manifestano una propensione al rischio nel frame di perdita e un'avversione al rischio nel frame di guadagno. Le risposte registrate con la fMRI mettono in luce un'attivazione dell'amigdala come effetto dell'intercettazione dell'effetto framing in tutti i partecipanti, attivazione che risultava maggiore in coloro che sono vittime dell'effetto e cioè in coloro che scelgono l'opzione «certa» nel caso in cui la scelta sia incorniciata in termini di vincita e in coloro che scelgono l'opzione «scommessa» quando la scelta è incorniciata in termini di perdita. Inoltre, si osserva una correlazione significativa tra l'attivazione della corteccia prefrontale ventromediale e orbitofrontale e le scelte razionali. Una maggiore attivazione di quest'area consente di prevedere la neutralizzazione dell'effetto frame nei partecipanti: costoro sono quelli che manifestano coerenza nelle proprie decisioni.

4. Le emozioni nei processi di giudizio e di decisione

Per lungo tempo la letteratura che si è occupata dei processi di giudizio e di decisione ha prestato scarsa considerazione alla componente emozionale di tali processi. La ragione di questa sorta di miopia nei confronti delle emozioni era dettata dal fatto che giudizi e decisioni - come si è visto nel caso di quelli morali - erano pensati come processi basati principalmente su valutazioni razionali e deliberate, concettualizzati quindi come cognitivi in natura. Al momento attuale, invece, gli studiosi concordano nel ritenere che lo studio dei processi di giudizio, di decisione e di percezione del rischio non possa prescindere dal prendere in considerazione la componente emozionale.

Le emozioni si riferiscono a stati complessi dell'organismo caratterizzati da modificazioni dell'attività del sistema nervoso autonomo associate a specifiche tendenze all'azione, a distinte espressioni comportamentali e a determinate esperienze affettive soggettive [Strongman 1987]. La letteratura che si rifà alla presa di decisione usa generalmente il termine emozione in senso lato, non solo quindi in riferimento alle emozioni discrete, propriamente riconosciute come tali (ad esempio, rabbia, gioia e paura), ma anche in relazione a risposte affettive più indistinte, a sentimenti e stati d'animo. Gli studi che si sono occupati degli effetti delle emozioni sul giudizio e la decisione hanno distinto due classi di emozioni: stati emozionali incidentali e risposte affettive integrali.

Gli stati emozionali incidentali sono identificabili come esperienze affettive la cui fonte non ha alcuna relazione con l'oggetto del giudizio o della decisione. Ci si riferisce, ad esempio, allo stato d'animo di una persona (umore), al suo temperamento (ottimismo o pessimismo), alle sue disposizioni emozionali (ansia o depressione croniche), o a fattori contestuali (ad esempio, musica di sottofondo, tipo di illuminazione dell'ambiente). Le risposte emozionali integrali sono invece quegli stati affettivi che vengono esperiti in relazione all'oggetto del giudizio o della decisione. In questo caso ci si riferisce a emozioni o sensazioni suscitate dalle caratteristiche dell'oggetto target, su cui si deve esprimere un giudizio o che deve essere preso in considerazione per effettuare la decisione. Tali caratteristiche possono essere reali, percepite o anche solo immaginate [Cohen, Pham e Andrade 2007].

In una recente e interessante rassegna, Pham [2007] sostiene che se si vuole discutere in che modo emozioni e razionalità si intreccino nei processi di giudizio e di decisione è necessario distinguere, oltre che tra stati emozionali incidentali e risposte affettive integrali, anche tra tre diverse concettualizzazioni di razionalità. La prima implica la capacità di ragionare logicamente: le persone sono considerate razionali se agiscono (giudicano, scelgono, decidono) rispettando gli standard della logica. Un chiaro esempio è fornito dalla proprietà transitiva: se una persona preferisce A a B, e preferisce B a C, ci si aspetta che preferisca A a C. Una preferenza diversa viene considerata irrazionale.

La seconda concettualizzazione di razionalità enfatizza la coerenza tra gli obiettivi e le azioni (e le decisioni) che una persona compie nel suo interesse personale. Questo punto di vista è centrale nella teoria economica standard, nella quale si assume che gli individui agiscano in modo da massimizzare i propri guadagni.

Lo studio delle emozioni ha fatto emergere un terzo tipo di razionalità. Certe scelte comportamentali sono considerate razionali non tanto perché sono logicamente coerenti o perché sono utili all'interesse personale, quanto piuttosto perché adempiono a obiettivi sociali, soddisfano principi morali o assolvono obiettivi di natura evoluzionistica. Tali comportamenti possono perciò andare anche contro l'interesse materiale della persona che li mette in atto o comunque non fornirle alcuna utilità. Si pensi, ad esempio, ai comportamenti puramente altruistici. In questo terzo tipo di razionalità, definita «ecologica», le emozioni svolgono una funzione primaria.

Gli stati emozionali incidentali influenzano in diversi modi i processi di giudizio e di decisione. Per quanto riguarda la capacità di ragionare in modo logico, è stato dimostrato che intensi stati emozionali, ad esempio elevati livelli di ansia, pregiudicano la capacità di ragionamento delle persone. Confrontati con individui meno ansiosi, individui ansiosi dimostrano una minore abilità nel ricordare informazioni e nell'organizzare tali informazioni in memoria [Mueller 1976] e impiegano più tempo per verificare la validità di inferenze logiche [Darke 1988]. Non è chiaro se i risultati relativi all'ansia possano essere generalizzati ad altri stati emozionali intensi. Uno stato di buon umore produce risultati per certi versi contraddittori sulle capacità di ragionamento: da una parte sembra in grado di promuovere maggiore flessibilità e creatività nella soluzione di problemi, dall'altra sembra indurre un'elaborazione delle informazioni meno sistematica ed esaustiva.

Altre interessanti ricerche indicano che gli stati emozionali incidentali possono produrre distorsioni nella percezione delle persone. Goldberg e Gorn [1987] mostrano che i partecipanti che guardavano un programma televisivo divertente giudicavano una pubblicità commerciale più efficace rispetto ad altri che osservavano la stessa pubblicità inserita in un programma dai contenuti più malinconici. Un altro esempio è fornito dallo studio di Dommermuth e Millard [1967], che evidenzia come una bibita analcolica sia giudicata più buona dopo avere visto un film piacevole e meno buona dopo avere assistito a un film meno piacevole.

Le risposte emozionali integrali sono suscitate dalle caratteristiche percepite o immaginate dell'oggetto su cui si effettua un giudizio o si prende una decisione e svolgono un ruolo significativo nella valutazione di tale oggetto. Giudizi e decisioni basate sulle risposte emozionali integrali richiedono un minore impiego di risorse cognitive [Epstein 1990] e sono realizzati più rapidamente rapportati a decisioni basate su informazioni di tipo descrittivo. Rispetto a queste ultime, inoltre, tendono a essere maggiormente polarizzati, fenomeno, questo, associato al cosiddetto vividness effect [Nisbett e Ross 1980]. In Francia, ad esempio, articoli che utilizzarono l'etichetta «morbo della Mucca Pazza» causarono una maggiore riduzione nel consumo di carne di manzo rispetto ad altri articoli che impiegarono l'etichetta scientifica «morbo di Creutzfeldt-Jacob» [Sinaceur, Heath e Cole 2005]. In generale, sembra che i comportamenti attuati in risposta a situazioni rischiose siano più intensi quando i pericoli sono comunicati attraverso una modalità che provoca un forte impatto emozionale.

L'effetto di polarizzazione delle valutazioni e delle risposte comportamentali basate sulle risposte emozionali integrali può condurre a comportamenti irrazionali. È stato osservato, ad esempio, che le persone sono disposte a pagare di più per una polizza assicurativa aerea che copre il caso di «morte dovuta a qualsiasi atto di terrorismo» rispetto a una che copre il caso di «morte dovuta a qualsiasi ragione». Benché questa seconda opzione abbia una probabilità più elevata, la prima viene percepita come una minaccia emotivamente più pregnante [Johnson et al. 1993].

Valutazioni e decisioni basate sulle risposte emozionali integrali tendono inoltre a essere distorte da una sorta di miopia che ci fa pesare in modo diverso ricompense e punizioni immediate rispetto a conseguenze posticipate nel tempo. Tale fenomeno ha un effetto rilevante nelle situazioni in cui è implicata la capacità di autocontrollo (ad esempio, quando le persone si costringono a fare regolarmente un po' di esercizio fisico), perché i benefici derivanti dal fatto di differire al giorno dopo qualcosa che al momento attuale è costoso risulta superiore al beneficio che si otterrà nel lungo termine. È stato proposto che tale distorsione sia dovuta alla diversa accessibilità di cui godono le risposte affettive immediate rispetto a quelle posticipate. In altre parole, mentre l'esperienza affettiva immediata è percepita al momento della valutazione, sembra più difficile riuscire a rappresentarsi l'esperienza affettiva in un tempo futuro.

È stato inoltre dimostrato che quando le risposte emozionali integrali guidano la valutazione, tale risposta non è sensibile alla variazione di grandezza e nemmeno alle probabilità. In uno studio recente [Hsee e Rottenstreich 2004], è stato chiesto ai partecipanti quanto denaro fossero disposti a donare per salvare panda in estinzione. Il numero di panda era rappresentato in una tabella in due diversi modi: in modo astratto (ciascun panda era rappresentato da un pallino) oppure attraverso un disegno accattivante che riproduceva l'animale. I risultati hanno dimostrato che quando il numero di panda era presentato in modo astratto le donazioni erano più elevate nella condizione in cui i panda da salvare erano quattro anziché uno; quando invece il numero di panda da salvare era presentato utilizzando una modalità affettivamente più intensa, le donazioni non differivano nelle due condizioni. Le persone, dunque, sembrano essere insensibili alle variazioni di grandezza se nell'elaborazione della valutazione entra a far parte la componente emozionale. Analogamente, è stato dimostrato che le persone sono insensibili alle diverse probabilità: la consapevolezza di una minaccia imminente produce lo stesso livello di stress e di attivazione fisiologica indipendentemente dal fatto che la minaccia abbia il 5%, il 50% o il 100% di probabilità di accadere [Monat, Averill e Lazarus 1972].

Secondo l'ipotesi dei marcatori somatici formulata da Damasio [1994], le sensazioni esperite a livello corporeo, siano esse piacevoli o spiacevoli, costituiscono segnali che ci permettono di anticipare le emozioni che si proverebbero come conseguenza delle nostre azioni. Se gli esiti previsti di una decisione sono negativi, vengono attivati marcatori somatici negativi, la cui funzione sarà quella di orientare la persona verso una scelta diversa. Viceversa, se gli esiti previsti sono positivi, vengono attivati marcatori somatici positivi, che aumenteranno la motivazione a perseguire il piano previsto. In altri termini, sembra che la regolazione del comportamento sia sensibile al feedback emozionale prodotto dall'esito della scelta.

La maggior parte delle evidenze empiriche descritte fino a ora si riferisce a giudizi e decisioni effettuati in isolamento. Tuttavia, non possiamo dimenticare che gli individui interagiscono gli uni con gli altri e fanno parte di gruppi sociali più o meno ristretti e che le emozioni, anche se talvolta possono essere categorizzate come irrazionali perché non procurano alcun vantaggio a colui che le esperisce, soddisfano l'importante funzione di promuovere comportamenti socialmente e moralmente desiderabili.

Questo tipo di razionalità ecologica è stata messa in luce da quelle ricerche in cui viene chiesto di partecipare a giochi in cui si deve interagire con un'altra persona. Un buon esempio è costituito dal paradigma sperimentale denominato «Ultimatum game», nel quale due giocatori devono spartirsi una certa somma di denaro (ad esempio, 10 euro). Uno dei giocatori, chiamato proponente, fa l'offerta (ad esempio, 5 euro per me e 5 euro per te), mentre l'altro giocatore decide se accettare o rifiutare la proposta. Se l'offerta viene accettata, entrambi ricevono quanto pattuito, mentre se l'offerta viene rifiutata, nessuno ottiene alcunché. I comportamenti che si osservano in questo gioco contrastano nettamente con le assunzioni della teoria razionale economica: i riceventi dovrebbero accettare qualsiasi offerta superiore a zero, perché qualsiasi proposta è sempre meglio che niente, mentre i proponenti dovrebbero offrire la minore somma possibile per massimizzare il proprio guadagno. Quello che si osserva è che i riceventi sacrificano il loro guadagno, andando contro il proprio interesse personale, piuttosto che accettare un'offerta iniqua [Sanfey et al. 2003]. È stato proposto che tale comportamento irrazionale sia principalmente guidato da risposte emozionali di rabbia nei confronti delle offerte inique.

Quando l'offerta non è equa, gli studi di neuroimmagine mostrano un'attivazione significativa dell'insula anteriore, una parte del cervello che è coinvolta quando vengono esperite emozioni negative come il dolore. D'altro canto, sembra che i proponenti anticipino tali risposte negative perché il loro comportamento va in direzione di offerte non troppo sbilanciate dal punto di vista dell'equità, in modo tale da essere accettate con maggiore probabilità. In altre parole, pare che le risposte emozionali contribuiscano a creare una situazione di maggiore equilibrio che permette a entrambi i giocatori di essere più soddisfatti.

5. Controllabilità degli eventi e autocontrollo

Gli individui a volte pensano che la probabilità di svolgere con successo un dato compito sia più elevata di quanto le condizioni obiettive lo consentano: ad esempio, quando in situazioni evidentemente governate dal caso si crede che il successo dipenda dall'abilità personale. Vi sono situazioni in cui l'abilità degli individui è determinante per il risultato; se un violinista ha studiato a fondo un certo brano, l'esecuzione sarà migliore rispetto a quella di un collega che l'ha studiato poco o non l'ha studiato affatto. Vi sono però altre situazioni in cui l'abilità dell'individuo non ha alcuna influenza sul risultato, dato che questo dipende esclusivamente dal caso: ad esempio, l'esperienza acquisita dal notaio che sovrintende alle estrazioni della lotteria di Capodanno non ha alcuna rilevanza sull'esito delle estrazioni. Infine, ve ne sono altre ancora in cui l'esito viene determinato da una serie di concause, tra cui anche l'abilità individuale ha la sua influenza: ad esempio, un incidente automobilistico dipende dall'inesperienza dell'autista e da altre ragioni che attengono all'efficienza del mezzo, alle condizioni del fondo stradale, del traffico... La gente tende a credere di avere una qualche possibilità di controllo della situazione o delle proprie abilità tale da poter influenzare il risultato, anche quando quest'ultimo ha nulla o poco a che fare con le abilità personali.

Tale fenomeno è stato studiato dalla psicologa americana Ellen Langer [1975]. L'indagine è stata condotta con sei esperimenti in cui furono coinvolti oltre 600 partecipanti adulti per identificare i fattori che determinano l'«illusione di controllo». Essa è definita come l'aspettativa di successo personale con una probabilità valutata in modo ingiustificatamente più elevato della probabilità effettiva. Langer ha mostrato che quando veniva controllata l'abilità dei partecipanti si osservava che essi si mostravano fiduciosi nel successo in maniera eccessiva e immotivata.

Molte indagini hanno permesso di sostenere che gli individui trattano gli eventi casuali come eventi in un qualche modo controllabili. Ad esempio, Henslin [1967] ha osservato che giocatori di dadi si comportavano come se potessero avere una qualche influenza sull'esito dei lanci. Infatti, costoro erano molto attenti a lanciare i dadi in maniera dolce se si aspettavano di ottenere numeri bassi, mentre lanciavano con più forza se volevano un numero alto. Evidentemente, ritenevano che la concentrazione sul compito avesse un'effettiva influenza. Ancora, se si volesse esercitare il controllo su un evento casuale, l'influenza dovrebbe essere esercitata prima che l'esito dell'evento sia determinato. A questo proposito è stato visto che scommettitori ai dadi facevano puntate maggiori prima del lancio piuttosto che dopo il lancio dei dadi [Strickland, Lewicki e Katz 1966]. Naturalmente, non si può negare che molti di questi comportamenti abbiano un qualche fondamento di razionalità se gli individui ritengono che il gioco in cui intendono cimentarsi sia un gioco di abilità. Ma questo non sembra il caso.

Per provare come funziona l'illusione di controllo e quali sono i fattori che la generano, vengono ideate situazioni sperimentali in cui possono essere trasferiti aspetti tipici di una situazione caratterizzata dall'utilizzo di particolari abilità in una situazione tipicamente caratterizzata dalla casualità. In questo ultimo caso, secondo Langer, gli aspetti più tipicamente associati con l'esercizio di specifiche abilità sono la scelta, la competizione, la familiarità con lo stimolo e il coinvolgimento.

Uno degli esperimenti era volto a controllare l'effetto della scelta/non scelta sull'illusione di controllo. L'esperimento venne condotto in due aziende di Long Island, una del comparto assicurativo e una del comparto manifatturiero, nelle quali era stata organizzata una lotteria. I dipendenti delle due aziende erano contattati da sperimentatori che non erano al corrente dell'ipotesi della ricerca ed erano invitati ad acquistare un biglietto della lotteria che costava un dollaro. Dopo aver accettato di acquistare il biglietto, il dipendente estraeva da un contenitore una carta corrispondente al biglietto acquistato. Lo sperimentatore registrava il nome del partecipante e la carta scelta e contattava un secondo partecipante al quale veniva consegnata la carta che corrispondeva alla scelta fatta dal partecipante precedente. Successivamente, a tutti coloro che avevano accettato di partecipare alla lotteria veniva chiesto di determinare il prezzo al quale sarebbero stati disposti a cedere il biglietto a un collega desideroso di partecipare alla stessa lotteria. I risultati di questo esperimento mostrarono che coloro che avevano scelto il biglietto determinavano un prezzo medio di vendita di quattro volte superiore rispetto a quello indicato da quei partecipanti che avevano ricevuto il biglietto scelto da altri. È evidente che dal punto di vista della teoria della probabilità tutti i biglietti hanno la stessa probabilità di essere estratti. Ma i partecipanti che avevano indicato personalmente il biglietto, proprio per aver fatto essi stessi la scelta, pensavano di poter esercitare una qualche forma di controllo sull'esito, a differenza degli altri che ritenevano, invece, l'esito determinato unicamente dalla sorte.

All'illusione di controllo può essere associato un altro fenomeno di ampia rilevanza sui comportamenti decisionali e cioè l’«ottimismo irrealistico». L'illusione di controllo e l'ottimismo irrealistico sono entrambi aspetti legati alla probabilità di incontrare eventi negativi nell'area del coinvolgimento percepito in fatti fortuiti. Mentre l'illusione di controllo, però, fa riferimento alla causa dell'esito atteso che ha la sua fonte nel controllo personale, l'ottimismo irrealistico si riferisce a un'aspettativa generalizzata per gli esiti positivi indipendentemente dalla fonte che ha generato quegli esiti.

Uno dei primi psicologi a osservare in maniera sistematica le condizioni in cui si manifesta l'ottimismo irrealistico è stato Wein Stein [1980; 1989]. Utilizzando 18 eventi positivi come, ad esempio, «possedere la propria casa», «essere in vita dopo gli 80 anni», e 24 eventi negativi della vita reale come, ad esempio, «avere problemi con l'alcol», «subire un infarto prima dei 40 anni», Weinstein [1980] chiedeva agli studenti del Cook College di stimare comparativamente, avendo quale riferimento i compagni, la probabilità che quegli eventi si potessero verificare nel corso della loro vita. I risultati hanno permesso di provare che i partecipanti:

1. pensano che gli eventi negativi accadano con minore probabilità a sé rispetto agli altri e, viceversa, che quelli positivi li vedano più favoriti;

2. pensano di essere meno esposti rispetto alla media all'evento più indesiderabile tra quelli negativi e che, per contro, possano essere destinatari dell'evento più desiderabile tra quelli positivi con una probabilità maggiore della media;

3. pensano di essere meno esposti della media a un evento negativo quanto più ritengono quell'evento controllabile, mentre ritengono di avere più probabilità rispetto alla media di essere destinatari di un evento positivo quanto maggiore è la controllabilità percepita di quell'evento.

Un esempio di comportamento facilmente soggetto a errori di valutazione legati al controllo, ma anche imputabile alle credenze relative alla valutazione delle proprie abilità, è la guida. In un lavoro ormai classico condotto da Svenson [1981] con due campioni di studenti americani e svedesi, è stato osservato quanto l'effetto combinato di questi due fattori determini distorsioni nella valutazione. A costoro furono poste due semplici domande: «Quanto ritieni di essere un abile automobilista, prendendo a riferimento i tuoi compagni di corso?» e «Quanto ritieni di essere prudente come automobilista, prendendo a riferimento i tuoi compagni di corso?». I risultati ottenuti mostrarono che circa il 70-80% dei partecipanti valutava se stesso abile e prudente sopra la mediana. Balza subito agli occhi l'aspetto paradossale di tale risultato, che si potrebbe etichettare come «effetto di fare meglio della media». Infatti, un valore medio deve essere formato da valori più alti e valori più bassi, perciò questa stranezza deve essere imputata a qualche fattore di natura psicologica che produce la distorsione del giudizio: la fiducia eccessiva nelle proprie abilità, cioè il bias dell'ottimismo irrealistico.

Circa quindici anni dopo, Zakay [1996] ha osservato l'influenza sul grado dell'ottimismo irrealistico dell'interazione tra la valenza di un evento futuro e la sua controllabilità percepita. L'ipotesi formulata da Zakay era che i partecipanti, quando dovevano confrontare se stessi con un obiettivo sconosciuto, avrebbero assegnato una probabilità di occorrenza più elevata a eventi positivi controllabili, mentre avrebbero assegnato probabilità di occorrenza più bassa a eventi negativi che li avrebbero riguardati, rispetto alle rispettive probabilità assegnate a obiettivi vaghi. I partecipanti era no studenti delle scuole superiori suddivisi in quattro categorie di eventi che riassumevano le probabilità di occorrenza di 12 eventi futuri rilevanti, ad esempio eventi positivi percepiti come controllabili o incontrollabili, ed eventi negativi percepiti come controllabili o incontrollabili. I risultati ottenuti permettono a Zakay di proporre l'idea che l'ottimismo irrealistico sia il risultato di processi motivazionali come l'attribuzione ego-difensiva, ovverosia la tendenza ad attribuire a fattori esterni piuttosto che a fattori interni i propri insuccessi e, viceversa, a fattori interni piuttosto che a fattori esterni i fallimenti, o a un altro processo noto come «pensiero guidato dal desiderio» [Miller e Ross 1975].

La tendenza a ritenere controllabili gli eventi costituisce un aspetto che differisce tra gli individui. È noto, infatti, che le persone manifestino diversità nella credenza di essere in grado di controllare i risultati e gli effetti di eventi o condotte di cui possono essere obiettivamente responsabili. Secondo Rotter [1966], le, spiegazioni che le persone si danno per il successo o il fallimento di una loro attività o di un loro comportamento sono di due tipi e sono tra loro mutuamente escludentesi: o percepiscono un legame tra il loro comportamento e i risultati ottenuti, oppure non percepiscono alcun legame tra i risultati delle loro azioni e se stessi.

Questa particolare disposizione, inoltre, può manifestarsi nel ritenere imputabile prevalentemente a se stessi il risultato di un certo evento positivo e a ritenere che esiti negativi siano ascrivibili al comportamento altrui o al caso. Questa disposizione fu ipotizzata e operazionalizzata principalmente da Rotter [1966; 1967] come locus interno-esterno, intendendo questa disposizione come il grado in cui gli individui tendono a valutare un certo esito come il risultato dell'intervento della fortuna o del fato o del caso, oppure come un esito sotto il controllo di altre persone o soltanto impredicibile. Le persone che pensavano di avere un controllo sui loro destini avevano un locus di controllo interno; quelli che pensavano che la fortuna o la volontà degli altri potesse costituire il fattore predominante dei loro destini manifestavano un locus di controllo esterno. Rotter descrisse e collocò questa dimensione in grado di differenziare la condotta degli individui entro la sua teoria più ampia denominata «teoria dell'apprendimento sociale» [Rotter, Chance e Phares 1972]. Rotter ha proposto che il locus di controllo abbia origine dall'aspettativa generalizzata degli individui nei confronti del mondo. Più precisamente, si può sostenere che se gli individui registrano che i loro sforzi sono sistematicamente rinforzati, molto probabilmente essi svilupperanno un locus di controllo interno; per contro, se gli individui registrano insuccessi, nonostante gli sforzi profusi per ottenere un risultato, molto probabilmente essi svilupperanno un locus di controllo esterno [Rotter 1990].

Il costrutto è stato utilizzato per spiegare le condotte in diversi contesti, ad esempio nelle decisioni prese dai giovani per la loro carriera scolastica [Mann, Harmoni e Power 1989; Kishor 1981], nell'ambito della gestione della salute [Wallston e Wallston 1978] e nell'ambito economico [Furnham 1986; Coleman e DeLeire 2003]. Vi sono differenze individuali relativamente alla dimensione interno/esterno del locus di controllo. In particolare, è stata trovata una forte correlazione con l'intelligenza degli individui. Chi è più intelligente tende a manifestare un locus interno e a percepire gli eventi come maggiormente sotto il proprio controllo. Ciò può essere imputabile al fatto che le persone più intellettivamente dotate acquisiscono una maggiore consapevolezza delle proprie competenze, che li porta a sperimentare un controllo efficace degli eventi in cui sono coinvolte [Phares 1978].

Questa differenza disposizionale nell'attribuzione ha effetti rilevanti nella credenza manifestata dagli individui di controllare le proprie condotte in situazioni rischiose. Le ricerche mostrano che le persone che esprimono una maggiore propensione al rischio hanno anche un locus di controllo interno [Turasi e Jaccard 2006]. I guidatori con un locus di controllo esterno sono meno propensi a cadere in errori di giudizio rispetto a quelli con un locus di controllo interno. I primi, è stato osservato, sono molto più cauti e prestano un'attenzione maggiore ai segnali esterni. La tendenza quindi a sottovalutare i rischi associati alla guida da parte di coloro che sono caratterizzati da un locus di controllo interno è imputabile al fatto che questi ultimi ritengono di avere una maggior capacità di controllo sulle conseguenze della loro condotta rischiosa.

Un'ulteriore distorsione relativa al controllo delle proprie decisioni si verifica nelle scelte intertemporali, ovverosia quelle scelte tra opzioni le cui conseguenze si manifesteranno in momenti differenti. Esempi tipici di scelte intertemporali possono essere la circostanza in cui vi sia la possibilità di ricevere 10 euro oggi oppure 11 euro tra un mese e ancora tutte le decisioni in cui si tratta di spendere una certa quantità di denaro oppure risparmiarla [Ainslie 1991; Thaler e Benartzi 2004]. In circostanze come queste, il decisore deve poter effettuare un trade-off tra il valore di un esito vicino nel tempo e quello di un esito più distante. Nei due esempi citati, quindi, deve essere confrontato il piacere di accettare una somma immediatamente, rispetto alla possibilità di ricevere una somma maggiore in un tempo diverso e di spendere subito una certa somma o mettere da parte quella somma per far fronte alle avversità.

Vi sono molti esempi che documentano una sistematica tendenza a sottovalutare gli esiti presenti rispetto a quelli futuri, come la «preferenza miope» citata da Loewenstein e Thaler [1989]: un dermatologo lamenta quanto sia difficile convincere la gente a proteggersi dal sole per evitare il cancro. Ebbene, i pazienti sembrano essere più disposti ad aderire ai suggerimenti se viene detto loro che i raggi solari possono causare inestetismi della pelle.

I decisori spesso tentano di evitare di cedere alle tentazioni imponendosi una qualche forma di autocontrollo. Tale necessità dipende dal conflitto esistente tra le conseguenze associate all'opzione a breve e quelle associate all'opzione a lungo termine. Ad esempio, nel marketing, certi prodotti sono percepiti come «viziosi» perché nell'immediato garantiscono sensazioni positive o istantanei benefici, ma procurano conseguenze negative nel lungo periodo. Infatti, nel caso del consumo di dolciumi, il piacere provato è immediato, ma a lungo andare ha conseguenze negative sulla salute. Per contro, vi sono prodotti cosiddetti «virtuosi», i quali garantiscono effetti positivi nel lungo periodo, ma procurano conseguenze negative nel breve. E questo il caso del consumo di vitamine, che contribuisce a una buona salute nel futuro, pur essendo le compresse spiacevoli all'atto dell'assunzione [Wertenbroch 1998]. Evidentemente, se gli individui non potessero mettere in atto una qualche forma di autocontrollo, sarebbero portati a preferire smodatamente i prodotti denotati come «viziosi» e a consumare meno di quanto si dovrebbe i prodotti «virtuosi».

Un altro esempio di difficoltà nell'aderire a una qualche forma di autocontrollo riguarda il comportamento degli individui con problemi di sovrappeso. L'aspetto critico è dato dal fatto che costoro sono esposti alla tentazione della gratificazione immediata garantita dall'assunzione di cibo rispetto al controllo della condotta alimentare che comporta una rinuncia oggi per avere un benefico futuro. Gli individui, di norma, consumano più calorie e mangiano più frequentemente di quanto essi stessi ritengano essere un bene quando pianificano la dieta. Generalmente, la gente ne ha consapevolezza, ma pensa che tale considerazione valga più per gli altri che per sé.

Nel caso delle decisioni di individui con problemi di sovrappeso è evidente per lo meno un autocontrollo limitato; costoro, infatti, rispondono più facilmente alla disponibilità di prodotti alimentari rispetto alle persone che non hanno questi problemi [Cutler, Glaeser e Shapiro 2003]. Anche in questo particolare comportamento i problemi di autocontrollo si manifestano attraverso la miopia e la procrastinazione. Ma in entrambi i casi gli individui con problemi alimentari sovrastimano i benefici presenti a spese di quelli a lungo termine. Con riferimento alla miopia, ci si focalizza sul consumo presente e non si riesce a sviluppare una prospettiva di lungo periodo, mettendo a repentaglio il proprio benessere nel tempo. Sotto questo aspetto il cibo, offrendo benefici immediati a fronte di costi marginali di scarsa rilevanza, è senza dubbio una tentazione. La procrastinazione consiste nel ritardare la messa in atto di un'attività onerosa e in ogni caso scarsamente gratificante, come l'impegnarsi in esercizi faticosi o accettare privazioni, ritardo maggiore di quanto si sarebbe voluto quando era stata valutata in precedenza quell'attività. Tale incoerenza decisionale è stata modellizzata in economia come «sconto iperbolico» del tempo [Ainslie 1991]. Ad esempio, gli individui scontano in modo iperbolico quando preferiscono prendere un pasto ora rispetto a due pasti tra un anno, ma anche quando scelgono i due pasti tra ventun anni rispetto a un solo pasto fra vent'anni, dunque invertendo l'ordine delle proprie preferenze [Frederick, Loewenstein e O'Donoghue 2002].

Molte scelte che gli individui compiono nella vita di tutti i giorni sono scelte intertemporali. Tuttavia, una particolare caratteristica di tali modalità di scelta è che gli esiti futuri sono scontati rispetto agli esiti immediati, tendono cioè a essere sottovalutati. In altri termini, lo stesso esito risulterà più apprezzato quanto più è vicino al momento in cui viene presa la decisione. Mentre su questo aspetto esiste una larga condivisione di vedute tra gli studiosi, un consenso minore si osserva sugli antecedenti psicologici dello sconto intertemporale e ciò è plausibile che si rifletta sulle scelte che gli individui fanno riguardo agli investimenti i cui risultati dipendono anche dall'orizzonte temporale assunto per valutare i rendimenti. Si deve perciò tentare di rispondere a un interrogativo fondamentale: perché gli esiti futuri non sono valutati come i risultati che si verificano al tempo presente o, meglio, come mai i consumi effettuati al momento sono valutati molto più di quelli che potranno essere fatti in futuro?

Per rispondere a tali quesiti si può ricorrere a due nozioni centrali nella «teoria del prospetto» proposta da Kahneman e Tversky [1979]: il punto di riferimento nella valutazione dei mutamenti di benessere rispetto a quello stesso punto e l'avversione alle perdite che rende conto dell'asimmetria tra perdite e guadagni. L'influenza del punto di riferimento sulle scelte intertemporali è provata, ad esempio, da Loewenstein e Prelec [1992]. I due studiosi hanno condotto un esperimento in cui offrivano a un campione di studenti un buono omaggio da 7 dollari da utilizzare in un negozio di dischi. Il tempo in cui i ragazzi potevano ricevere il buono omaggio variava tra 1, 4 e 8 settimane. Ai partecipanti venivano proposte scelte binarie tra ottenere il buono nei tempi originariamente stabiliti o scambiarlo con uno di valore inferiore da ricevere subito o con uno di valore superiore da ricevere più tardi. Ad esempio, ai partecipanti che si aspettavano di ricevere il buono dopo quattro settimane veniva chiesto se preferivano scambiarlo con uno di valore maggiore compreso tra 7,10 dollari e 10 dollari, avvertendoli che lo sperimentatore avrebbe selezionato a caso una delle loro scelte. Quindi, ad alcuni partecipanti si richiedeva di effettuare un trade-off tra l'entità del buono omaggio e il ritardo da 1 a 4 settimane con cui avrebbero potuto fruirne; ad altri veniva chiesto di effettuare un trade-off tra l'entità del buono omaggio e la velocità -con cui avrebbero potuto fruirne, passando da 4 a 1 settimana. I risultati mostrano che chi doveva ottenere il buono più tardi, quando aveva l'occasione di averlo prima, era disposto ad aspettare ancora a favore di una cifra maggiore, cosa che invece era meno disposto a fare chi sapeva di doverlo ricevere proprio in quel momento, a riprova che le aspettative precedenti - il punto di riferimento - hanno un'importanza notevole.

La gestione del denaro costituisce un settore della vita quotidiana in cui la gente manifesta assenza di autocontrollo. Gli individui però tendono ad adottare comportamenti caratterizzati dalla tendenza sistematica a consumare di più nell'immediato a scapito della possibilità di destinare risorse al risparmio (self control bias) [O'Donoghue e Rabin 2003]. In questo senso, si osserva che la gente tende a consumare oggi evitando di destinare quelle somme al risparmio per far fronte alle esigenze future. È questo un comportamento che può trovare una spiegazione nella tendenza generale all'avversione alle perdite: continuare a consumare oggi è un comportamento di inerzia giustificato dall'avversione alle perdite.

Pompian [2006] esemplifica la scarsa capacità degli individui di fare leva sull'autocontrollo analizzando l'atteggiamento verso il pagamento delle tasse. Un contribuente potrebbe stimare che l'incremento del suo reddito produrrà un aumento dell'imposizione fiscale di 3.600 euro che saranno versati fra un anno e che per sicurezza deciderà di mettere da parte. Vi sono, però, due possibilità per far fronte al pagamento di tasse. La prima è che il contribuente accetti che il sistema fiscale trattenga anticipatamente le tasse spalmandole lungo l'anno. La seconda è che il contribuente decida di mettere da parte mensilmente una quota che sarà destinata a rispondere agli obblighi fiscali. Questa seconda strategia sembra essere quella da adottare razionalmente. Infatti, le somme messe in un conto destinato a soddisfare quell'obbligo, fintanto che non siano utilizzate a quel fine, producono un interesse che aumenterà - seppur di poco - il conto. La gente, però, preferisce generalmente la prima soluzione del problema, perché il prelievo alla fonte costituisce una forma sostitutiva di autocontrollo personale, sulla cui forza gli individui sembrano non riporre una grande fiducia [Thaler e Benartzi 2004].

La scarsa capacità di autocontrollo che la gente manifesta nelle scelte intertemporali può trovare un «aiuto» in interventi definiti come «paternalismo libertario» [Thaler e Sunstein 2003; 2008]. Tali interventi si basano sull'idea che in certi casi gli individui fanno scelte poco efficienti, scelte che cambierebbero se avessero informazione completa, capacità cognitive illimitate e totale forza di volontà. Queste strategie, invece, fanno leva sulla tendenza a preferire le opzioni di «default», dato che le persone sono esposte al bias di «status quo», cioè a preferire il corso di azione attuale invece di analizzare le altre opzioni che richiederebbero un cambiamento. Thaler e Sunstein [2008] propongono quindi che l'opzione difficile da accettare in condizioni normali, come seguire una dieta o un programma di fitness oppure aderire a un piano previdenziale, venga proposta «paternalisticamente» come scelta base «automatica». In questa condizione, l'opzione di default tenderà a essere accettata più facilmente, dato che gli individui sono portati ad agire in maniera impulsiva, in forza dei limiti sopra considerati, lasciando tuttavia la «libertà» di decidere diversamente qualora disponessero del tempo per un'analisi accurata delle opzioni proposte.

6. Decisioni rischiose o decisori temerari?

Le decisioni rischiose e la presa di rischi costituiscono condotte che spesso vengono riferite a predisposizioni che caratterizzano la personalità dell'individuo. Alcune ricerche sul giudizio e l'assunzione di decisione hanno permesso di valutare in che misura le dimensioni costitutive della teoria dei «Big Five» influenzano le decisioni. Ad esempio, Nicholson e colleghi [2005] hanno trovato che gli individui che assumono rischi si caratterizzano per estroversione e apertura mentale elevate e nevroticismo, coscienziosità e amicalità bassi.

Le condotte rischiose, inoltre, sembrano essere associate a una particolare attitudine degli individui a ricercare sensazioni forti [cfr., ad esempio, Zuckerman e Kuhlman 2000; Weber, Blais e Betz 2002]. Tuttavia, pur essendo l'assunzione di rischi un correlato della ricerca delle sensazioni forti non è una componente essenziale della definizione di sensation seeking proposta da Zuckerman [1979]. Nella sua definizione originale, fornita anche in tempi recenti da Zuckerman [1994, 26], si sottolinea che «la ricerca di sensazioni è un tratto definito dalla ricerca di movimentate, nuove, complesse e intense sensazioni ed esperienze e la disponibilità a prendersi rischi fisici, sociali, legali e finanziari proprio per il gusto di fare questa esperienza».

La ricerca di sensazioni, tuttavia, varia da individuo a individuo, cioè è più presente in alcune persone che in altre e le ragioni di questa variabilità sono sia psicologiche sia biologiche. Psicologiche perché, come già detto, la propensione al rischio dipende da come ci rappresentiamo la situazione. Biologiche perché la propensione al rischio è, in parte, geneticamente ereditata. Lo confermano gli studi condotti su gemelli omozigoti che condividono una uguale tendenza verso il rischio sia che crescano insieme sia che vengano separati alla nascita e quindi vivano in ambienti diversi. Il tratto genetico avrebbe anche una variabilità legata all'età; infatti, sembrerebbe mostrare il proprio picco verso la tarda adolescenza o la prima giovinezza, ovverosia, verso i 20 anni, per poi diminuire di intensità mano a mano che invecchiamo.

Molte persone decidono di intraprendere condotte rischiose, come ad esempio guidare in maniera sconsiderata e assumere sostanze stupefacenti, soltanto per il puro piacere di rischiare. Questa particolare attitudine costituisce un aspetto di quel tratto di personalità più generale caratterizzato dalla «ricerca di sensazioni». Secondo Zuckerman, la ricerca di sensazioni è il desiderio di esperienze nuove, eccitanti e diverse dalle solite, che fa parte del nostro patrimonio genetico. Sarebbe stata ereditata dai nostri antenati e costituirebbe un bisogno fondamentale, alla stregua del mangiare e del dormire, anche se spesso non viene riconosciuto come tale. Lo strumento che misura questo tratto di personalità è la Sensation Seeking Scale che, nella versione V, si articola in quattro sotto-scale. La prima mira a valutare il desiderio di un individuo di impegnarsi in attività fisiche avventurose; la seconda misura il desiderio di provare una varietà di esperienze assumendo uno stile di vita non conformista; la terza il grado di disinibizione sociale; la quarta, infine, l'avversione a condotte routinarie o ripetitive.

Le ricerche condotte utilizzando queste scale hanno permesso di rilevare l'esistenza di correlazioni positive tra un alto grado di ricerca di sensazioni forti e comportamenti rischiosi, come la guida spericolata, il bere alcolici, il fumo, pratiche sessuali non protette [Finn e Bragg 1986]. La ricerca di sensazioni forti è stata utilizzata come elemento predittore di differenze individuali nell'intrapren-dere un'ampia varietà di rischi. Zuckerman [1979] ha presentato un modello che delinea l'interazione tra la ricerca di sensazioni, gli stati di ansia e la valutazione cognitiva del rischio nel determinare l'approccio o l'allontanamento da una situazione pericolosa. In breve, coerentemente con questo modello, la novità suscita un interesse positivo e la ricerca di sensazioni forti.

Tuttavia, altre variabili come l'aggressività ostile associata alla ricerca di sensazioni sembrano essere il migliore predittore di comportamenti pericolosi o azzardati quale, ad esempio, la guida spericolata. Arnett [1996], osservando due campioni di studenti di scuole superiori e di college, trovò che sia la ricerca di sensazioni sia l'aggressività erano coinvolte nella predizione di comportamenti temerari tra gli adolescenti. Mentre l'aggressività sembrava fornire soltanto un qualche supporto, la ricerca di sensazioni dava una solida base comune per quattro tipi di comportamenti spericolati nella guida automobilistica, nelle pratiche sessuali, nel consumo di droghe e in atti di microcriminalità. Una particolare forma di ricerca di sensazioni forti sembra essere il gioco d'azzardo. In queste condotte lo scommettitore, sia esso adulto o adolescente, riceve un rinforzo dall'attivazione o arousal anticipatoria esperita durante i momenti in cui effettua le scommesse [Zuckerman 1994; Langewisch e Frisch 1998]. In conclusione, considerati nel loro complesso, questi risultati sembrano suggerire che la ricerca di sensazioni forti costituisca un potente predittore di un'ampia categoria di rischi. Coloro che presentano questa propensione in misura elevata tendono a valutare molte situazioni come meno rischiose di coloro che mostrano di essere meno propensi alla ricerca sistematica di sensazioni forti.

7. Dai processi decisionali alla neuroetica

Negli ultimi decenni, i paradigmi tipici delle scienze cognitive hanno consentito di approfondire i differenti fattori che influenzano la nostra presa di decisione, in particolare la modalità di rappresentazione delle informazioni e gli effetti della struttura dei dilemmi decisionali, come pure la differente propensione al rischio e le credenze sulla controllabilità delle conseguenze delle scelte effettuate. Inoltre, i paradigmi della psicologia cognitiva e le metodologie utilizzate dalle neuroscienze cognitive hanno contribuito a sviluppare le conoscenze sui processi decisionali che riguardano valutazioni e azioni morali, dando impulso alla nascita di un ambito di indagine ormai riconosciuto come «neuroetica». I contributi di entrambe le aree hanno consentito di collocare la componente razionale e quella emozionale nell'architettura dei processi decisionali, compresi i giudizi morali. Infatti, come è stato documentato da De Martino e colleghi [2006], le decisioni prese in condizioni di conflitto appaiono come processi che sembrano emergere dal contributo della componente emozionale e della cognizione. Analogamente, le decisioni in cui sono coinvolti giudizi etici appaiono come il risultato di processi lenti in cui sono soppesati i costi e i benefici delle diverse azioni e in cui entrano prepotentemente in gioco componenti emozionali, com'è stato evidenziato dagli esperimenti di Greene e colleghi [2001; 2004].