(Crediti immagine: Claude AI UK – https://claudeai.wiki)

Sempre più si parla di Intelligenza Artificiale. Ma una macchina non potrà mai essere assimilata a una persona. Quest’ultima, infatti, è consapevole dei propri stati interiori, riconosce il proprio agire come libero ed è capace di scegliere in base a una ponderazione complessa delle circostanze, e non semplicemente in base a un calcolo di vantaggi e benefici. Differenze assolutamente rilevanti

di padre Augusto Chendi

Sempre più spesso si sente parlare di robotica e di Intelligenza Artificiale, ma a volte questi due termini vengono impropriamente utilizzati come sinonimi. È necessario, quindi, anzitutto chiarire cosa si intende, le differenze e i reciproci collegamenti tra questi due sistemi tecnologici, prima di affrontare inevitabili domande etiche.

Anzitutto, la robotica è la disciplina dell’ingegneria che studia e sviluppa metodi grazie ai quali un robot può eseguire compiti specifici, riproducendo in modo automatico il lavoro umano. L’Intelligenza Artificiale, invece, – nota anche come AI dalle iniziali inglesi delle due parole – è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.

Per quanto attiene, in particolare, alle loro funzioni congiunte, l’Intelligenza Artificiale non solo replica le funzioni della mente umana, ma grazie alla robotica è in grado di migliorarne e aumentarne le capacità e le potenzialità. L’AI è quindi una delle diverse tecnologie robotiche che vengono impiegate, ad esempio, nei sistemi produttivi, per gestire in maniera automatica processi che diversamente dovrebbero essere gestiti dalle persone, senza però i benefici che questi sistemi tecnologici sono in grado di garantire, come una maggior sicurezza, tempi ridotti, un maggior controllo…

L’Intelligenza Artificiale supporta già gran parte delle nostre attività quotidiane e ci aiuta a prendere decisioni più informate. Quanto al nostro vissuto, e in specie nella recente situazione pandemica, ad esempio, varie tecniche di AI, supportate da computer molto veloci e da altre tecnologie, hanno permesso di identificare velocemente molecole per combattere il virus e anche di avere vaccini in tempi brevissimi. Uno dei punti di forza dell’AI, infatti, è la capacità di derivare conoscenza utile da grandi quantità di dati, di cui siamo circondati e che generiamo in tutte le nostre attività online. Questo le permette di portare grandi benefici in termini di progresso scientifico, valore economico, e la soluzione di grandi problemi sanitari, sociali, e ambientali.

Questa tecnologia, tuttavia, genera alcune domande e preoccupazioni, che riguardano, ad esempio, l’uso dei dati personali, la difficoltà di spiegare come decide le sue azioni, e il possibile effetto discriminatorio delle sue decisioni… Questi ed altri temi sono al centro del dibattito internazionale sull’etica dell’AI. Infatti, gli scenari aperti dal progresso tecnologico nell’ambito dell’Intelligenza Artificiale e dall’impatto che esso avrà sulla società sollevano questioni etiche e antropologiche con le quali la riflessione filosofica e teologica e la stessa dottrina sociale della Chiesa sono chiamate a misurarsi. Fra queste, le più urgenti e fondamentali possono essere così espresse e sintetizzate: le macchine intelligenti acquisteranno anche la capacità di distinguere il bene dal male? Dovremo quindi considerarle soggetti con una propria responsabilità? O la responsabilità morale resterà una caratteristica peculiare dell’essere umano?

Non deve sorprendere che le conquiste anche più avanzate della tecnologia, come della medicina o di qualsiasi altra scienza applicata, debbano sempre e comunque essere ricondotte a quelle domande di fondo, improrogabili e insopprimibili circa lo status ontologico, ovvero l’essenza ultima dell’humanum, alle quali necessariamente si deve dare una risposta. Infatti, anche in questo caso specifico, la questione aperta dell’Intelligenza Artificiale è riconducibile nell’alternativa tra bios e technè, tra vita e tecnica.

Non si tratta di domande capziose o riservate a poche “menti elette” che vivono avulse dal nostro vissuto quotidiano, bensì si innestano sui dati oggettivi che registrano le dimensioni della trasformazione in atto. Alcuni esempi lo confermano: attualmente in un solo anno l’umanità produce tanti dati quanti in tutta la storia precedente. Nel 2018 si è registrato un aumento del 18% nell’uso di AI per operazioni chirurgiche. Si stima che in futuro il 49% dei lavori potrà essere svolto da apparati dotati di AI, con una ricaduta anche sui cosiddetti “colletti bianchi”. Determinate professioni non esisteranno più, mentre in tutti i lavori l’essere umano dovrà collaborare con macchine intelligenti. Nel 2016 in Arabia Saudita per la prima volta un robot, chiamato Sophia, ha ottenuto la cittadinanza.

Al di là delle sfide tecniche e sociali, si pone la domanda etica e antropologica se le macchine intelligenti un giorno davvero disporranno di una coscienza simile alla nostra, in grado di autodeterminarsi e di scegliere fra bene e male. Se così fosse, acquisterebbero lo status di autentiche “persone artificiali”, dissolvendo il confine fra l’umano e l’artificiale. Al riguardo, ciò che differenzia il comportamento degli esseri umani da quello delle macchine è che i primi sono consapevoli dei propri stati interiori, riconoscono il proprio agire come libero (libero arbitrio) e sono capaci di scegliere in base a una ponderazione complessa delle circostanze, e non semplicemente in base a un calcolo di vantaggi e benefici. Queste capacità costituiscono il proprio dell’essere umano e il fondamento di una libertà che chiede di essere rispettata; pertanto, già nel 1990, Giovanni Paolo II affermò che «il tentativo di spiegare il pensare e il volere libero dell’uomo in chiave meccanicistica e materialistica porta inevitabilmente alla negazione della persona e della sua dignità». In altre parole, la prassi delle decisioni morali non può essere sostituita da algoritmi. 

Il fatto che il funzionamento delle macchine possa assomigliare a quello dell’essere umano non significa che sia identico.

Le macchine intelligenti e agenti, i cosiddetti robot “umanoidi” esprimono quella che senz’altro possiamo chiamare soggettività, cioè la capacità di elaborare determinate informazioni e di rispondere autonomamente. In questo senso, possiamo affermare senza dubbio che l’AI è un “soggetto”. Tuttavia un soggetto, descritto in questi termini, è lontano dal realizzare la specificità che la tradizione filosofica e teologica cattolica attribuisce alla nozione di “persona”. Essa si realizza nella capacità dell’essere umano di distinguere il bene dal male, detta in termini tecnici sinderesi. Questa facoltà è anteriore alla coscienza morale riflessa e ne costituisce il presupposto. La possibilità di deliberare moralmente, infatti, non potrebbe sussistere se non vi fosse, al di sotto di essa, questa capacità intuitiva dei principi universali dell’ordine morale. È a questo livello che si radica il concetto di “persona”.

Solo l’essere umano, in quanto moralmente responsabile, è quindi un agente morale in senso proprio. Su questo crinale si istituisce la distinzione e la differenza fra risolvere un problema (problem solving) e il fatto di affrontare un problema morale. Il primo è una procedura di ottimizzazione dei risultati, che può essere svolta da un soggetto artificiale sulla base di parametri previamente assegnati, forse anche in modo più efficiente di quanto un essere umano farebbe. Invece, si dà un problema morale quando una persona mette in gioco la propria intuizione, il proprio libero arbitrio e la propria responsabilità per rispondere a una situazione data. Per questo motivo le macchine non devono acquisire potere decisionale quando si tratta della vita umana: devono essere poste al servizio dell’autodeterminazione umana e non restringerla, per assicurare sempre l’ultima istanza della responsabilità umana. Per sfruttare a pieno le opportunità dell’Intelligenza Artificiale occorre, pertanto, collocarla entro i limiti – etici e giuridici – di un nuovo umanesimo tecnologico.

Quello dell’Intelligenza Artificiale è, senz’altro, un tema cruciale della nostra epoca, ma è essenziale definire i limiti etici dello sviluppo della tecnologia attraverso la condivisione di approcci che, affermando la centralità dell’uomo, il valore proprio dell’humanum e la dignità della persona, contribuiscano all’attuazione piena dei principi fondativi della civiltà.

***

Altri aspetti bioetici dello stesso tema saranno proposti in successivi articoli.

 

Articolo pubblicato su “La Voce” del 19 maggio 2023

Abbonati qui alla nostra rivista!

Continua a leggere