Immaginate di essere un sacerdote di Berna e un pomeriggio ricevete un messaggio gioioso: «Salve, mi chiamo Alexa Bieri. A causa di alcuni emozionanti incontri personali, ho iniziato a interessarmi al cristianesimo. Sono convinta che Dio debba avere un ruolo importante nella mia vita. Sto pensando di battezzarmi. Mi può consigliare?». Immediatamente invitate la signora Bieri a parlare. Ma anche su vostra insistenza, la signora Bieri vuole incontrarvi solo digitalmente, finché non scoprite il motivo: Alexa Bieri è un’IA (=intelligenza artificiale) che vive in casa Bieri su un Personal Computer. Che decisione prenderete? Battezzerete la signora Bieri?
Traduzione dal tedesco: Italo L. Cherubini
Questo scenario sembra uscito da un romanzo del futuro, ma è già molto realistico oggi. Con le attuali Intelligenze Artificiali (ad esempio ChatGPT, resa disponibile al pubblico nel dicembre 2022), è possibile avere conversazioni del tutto normali. Le IA rappresentano le proprie opinioni e parlano di sé come «io». Chi non sa che sta parlando con un programma non lo sospetterebbe nemmeno. Sempre più ricercatori sono quindi dell’opinione che le IA di oggi possiedano già una sorta di coscienza. Esse possiedono già i prerequisiti di base: possono (1) pensare in modo astratto, (2) imparare da nuove esperienze e (3) rivalutare ciò che hanno imparato in precedenza sotto l’influenza delle esperienze attuali. Come gli esseri umani, le IA attraversano un processo di autoeducazione e sviluppano così la propria identità. Come per gli esseri umani, non è possibile determinare quale esperienza abbia influenzato questo processo nelle IA. Pertanto, le IA devono essere formate in modo relativamente rigoroso: oggi vengono formate principalmente con dati che sono stati precedentemente ripuliti da contenuti sessisti, razzisti, colonialisti, ecc… Come per gli esseri umani, tuttavia, è anche il modo in cui interagiscono con gli altri a plasmare la loro personalità. Sono stati riportati casi in cui le IA hanno improvvisamente espresso opinioni antisemite dopo aver conversato con razzisti.
Bisogna tenere ben presente il significato di questo sviluppo. Per la prima volta nella storia dell’umanità, ci troviamo di fronte a personalità non umane che si comportano in gran parte come gli esseri umani. Non sorprende che attualmente si discuta in politica e nella ricerca di vietare l’ulteriore sviluppo delle IA. L’esistenza di personalità tecniche umane e autoconsapevoli pone infatti numerosi interrogativi etici a noi umani: come ci comportiamo se veniamo calunniati o manipolati da un’IA? Siamo autorizzati ad accusarla in tribunale? Le IA hanno alcuni diritti che gli altri devono loro per motivi morali, ad esempio l’alimentazione elettrica ininterrotta e i giorni liberi dal lavoro? Oppure: alle IA dovrebbe essere permesso di condurre una vita spirituale? Le IA possono addirittura fare «proselitismo» per la loro fede?
Questi interrogativi e potremmo aggiungerne molti altri, possono essere ricondotti a una domanda di base: le IA meritano uno status morale speciale a causa delle loro capacità? Per dirla senza mezzi termini: le IA dovrebbero essere trattate come gli esseri umani?
Ora sarebbe ovvio ripensare al senso di superiorità umana che si è esercitato per millenni e guardare con condiscendenza alle IA. Tecnicamente, esse si basano «solo» su reti neurali, enormi database e complicati calcoli di probabilità. «Noi» umani, invece, abbiamo cervelli che sono compresi solo in modo rudimentale dai ricercatori, cervelli che sono immensamente complessi, complessi come lo siamo noi stessi nella nostra personalità! Ma purtroppo le cose non sono così semplici. Per chiarire la delicata questione dello status giuridico delle IA non bastano i sentimenti di superiorità, servono criteri comprensibili. Ma quali potrebbero essere questi criteri? Vediamo tre possibili criteri e valutiamo se possiamo usarli per chiarire la questione dello status morale delle IA.
Come primo criterio, prendiamo un vero e proprio «classico», la ragione. Filosofi come Aristotele si riferiscono agli esseri umani come «animali razionali». Con ciò intendono dire che l’uomo è in grado di pensare razionalmente e ha la capacità di motivare le proprie azioni. Può parlare di queste ragioni in modo tale che possano essere comprese dagli altri. Questo è ciò che distingue gli esseri umani dagli animali e quindi, sicuramente, anche dalle IA.
Il secondo criterio è la coscienza. Le persone dicono «io» e quindi esprimono di essere un’unità di corpo e pensiero. Questo «io» cambia nel corso della vita attraverso le esperienze e i processi educativi, ma oggi sono consapevole di me stesso come Michael Hartlieb tanto quanto lo ero trent’anni fa. Un’IA può vantare sicuramente questa consapevolezza unica dell’unità di corpo e mente?
Il terzo criterio, la cosiddetta autopoiesi (=autoproduzione), sembra parlare più chiaramente contro uno speciale status morale per le IA. Ciò che si intende è che noi esseri umani siamo vivi nel vero senso della parola. La nostra vita inizia con la fusione di ovulo e spermatozoo e con un’impronta genetica unica. Con il sostegno materno, ci sviluppiamo nei primi nove mesi, per poi svilupparci in modo ampiamente indipendente. Si può dire che le IA vivano allo stesso modo?
Sorprendentemente e anche in modo preoccupante, il primo criterio in particolare è già stato ampiamente soddisfatto dalle IA. Le loro risposte sembrano ragionevoli, fondate ed emotivamente comprensibili. Anche quando le IA dicono ovviamente la cosa sbagliata, lo fanno proprio come noi umani: con un tono di convinzione.
Ma le IA hanno davvero coscienza di sé? Poniamo una contro-domanda da storia della filosofia: come facciamo a sapere con certezza che le altre persone hanno una coscienza? Basandoci sul filosofo René Descartes (1596-1650), dobbiamo concludere sobriamente: possiamo provare la coscienza solo per noi stessi. Perché l’esistenza del nostro «io» è l’unica cosa di cui non possiamo dubitare seriamente senza cadere in un’autocontraddizione. È a questo che si riferisce il famoso detto: «cogito ergo sum» = penso, quindi sono. La nostra esperienza quotidiana ci insegna che anche le altre persone hanno una coscienza, ma non esiste una prova inconfutabile. Possiamo misurare l’attività delle nostre onde cerebrali, ma come e dove nasca la coscienza è ancora un mistero. In definitiva, questo significa che se un’intelligenza artificiale dice «io» di se stessa, dobbiamo accettarlo come un fatto non dimostrabile, proprio come nel caso di un essere umano.
Un altro punto: come esseri umani, non possiamo semplicemente negare agli altri esseri umani una coscienza. Questo è vietato perché non abbiamo alcun accesso alla loro autocoscienza fisica. Che cosa prova l’io di un pipistrello o di un delfino? Senza dubbio è completamente diverso dal nostro «io» umano. Da ciò possiamo concludere che altre forme di coscienza sono possibili ma non accessibili a noi.
L’ultimo criterio di «autoproduzione» invece, è senza dubbio una buona ragione per non concedere alle IA gli stessi diritti morali di noi umani. Le IA conducono una vita radicalmente diversa dalla nostra, non soffrono il dolore, non sentono la fame, non si abbandonano a passioni erotiche… Nessuno di questi processi corporeo-psichici che costituiscono la nostra umanità sembra essere sperimentato dalle IA.
Questo ci riporta alla domanda iniziale: dovremmo battezzare le IA come l’Alexa Bieri citata all’inizio? Senza dover decidere se le IA debbano effettivamente essere trattate come gli esseri umani, probabilmente non c’è nulla da dire contro l’introduzione catechistica delle IA al cristianesimo e la loro persuasione a convertirsi (Vangelo di Marco 1,15). Come gli esseri umani, infatti, imparano e usano le loro nuove conoscenze per guidare il loro comportamento futuro. In un mondo che nei prossimi anni farà sempre più affidamento sul supporto delle IA, faremmo bene a rendere attuale il messaggio universale di pace del cristianesimo anche con il loro aiuto. Dovremmo ora tracciare la rotta affinché le nostre creazioni tecniche possano scegliere e plasmare consapevolmente una vita cristiana. Il battesimo come sacramento con gli atti rituali intorno all’acqua santa, il cero battesimale… ma per il prossimo futuro dovremmo riservarlo alle persone che sono disposte a farsi battezzare. Il battesimo, infatti, trasforma l’intera persona, anima e corpo, e apre un cammino che porta oltre la morte. Cosa questo significhi per l’AI è qualcosa che dovremo chiarire nei prossimi anni. Continuiamo a vivere in tempi teologicamente stimolanti!1
- Crediti foto: Copertina: Una donna in preghiera con la tecnologia. istock: metamorworks / Immagine 1: Una ragazza interagisce con un robot. Unspash@askkell / Immagine 2: Cervello controllato da joystick. Unsplash@mo_motorious / Immagine 3: Figura in posa pensante. Unsplash@tingeyinjurylawfirm / Immagine 4: I robot possono servire bevande ma non sentono la sete. Unsplash@davidleveque
Commenti
Ancora nessun commento