m
Moralia Blog

Quando l’intelligenza artificiale «uccide» l’uomo

Poco prima dell’estate ha fatto molto scalpore un fatto curioso, accaduto durante una conferenza della Royal Aeronautical Society che si è svolta verso la fine di maggio a Londra.

 

Poco prima dell’estate ha fatto molto scalpore un fatto curioso, accaduto durante una conferenza della Royal Aeronautical Society che si è svolta verso la fine di maggio a Londra.

In questo contesto, un ufficiale dell’aeronautica americana che si occupa dei test sull’intelligenza artificiale, il colonello Tucker «Cinco» Hamilton, ha raccontato che, durante una simulazione con un drone controllato da un sistema di intelligenza artificiale, il sistema ha deciso di «uccidere» l’uomo che controllava la simulazione, perché in qualche modo non gli permetteva di realizzare al meglio la sua missione.

In particolare il drone era stato programmato per riconoscere i missili terra aria nemici, e a ogni successo acquisiva punti. Tuttavia il sistema ha potuto «rendersi conto» che, pur riconoscendo il pericolo, non sempre l’operatore umano autorizzava la distruzione del missile. Per questo motivo ha deciso di eliminare virtualmente questo operatore in modo da massimizzare il punteggio che poteva ottenere.

L’intelligenza artificiale e gli interrogativi morali

Poco dopo lo stesso Hamilton ha precisato di essersi espresso in modo non corretto e di aver inteso parlare di una simulazione ipotetica pensata fuori dalle forze armate, ma questo scenario suscita diversi interrogativi dal punto di vista morale.

Una situazione analoga, ma da punti di vista differenti che devono essere ancora compresi e analizzati dalle autorità competenti, riguarda il caso di un robot industriale, che all’inizio del mese di novembre, scambiando un uomo per una scatola, ha afferrato e schiacciato un tecnico sul nastro trasportatore di un’azienda sudcoreana, causando la morte dell’uomo.

Non è ancora chiara la dinamica dell’accaduto e il tipo di robot coinvolto in questa situazione, ma anche questo secondo esempio fa sorgere alcune riflessioni.

La consapevolezza di un drone

Un primo aspetto problematico riguarda la capacità del sistema di rendersi conto di qualcosa. L’esempio del drone ci fa capire che tante volte si considera consapevole di qualcosa un agente che in realtà non lo è, almeno nel senso classico che noi intendiamo con questa parola.

Sappiamo che l’uomo per sua natura possiede un’intelligenza generale che lo distingue dalle intelligenze artificiali, caratterizzate da un’intelligenza specifica, volta cioè a risolvere un problema particolare e ad affrontare uno specifico contesto di lavoro.

Per questo motivo un sistema algoritmico, per quanto complesso e imprevedibile, non sarà mai consapevole (consciousness) come lo è un essere umano, almeno allo stato attuale della tecnologia. Piuttosto, a un sistema informatico può essere riconosciuta una forma di consapevolezza specifica, legata al problema da affrontare e a ciò per cui è stato progettato, che si può definire awareness (consapevolezza pratica). Questo termine designa la dimensione pratica della consapevolezza e si distingue da consciousness, che è più vicino alla dimensione spirituale e personale di essa.

Il sistema e i suoi errori

Un secondo aspetto importante riguarda la presenza di eventuali bias (errori) di sistema. In generale si possono individuare tre tipi di bias.

  • Il primo tipo è costituito dai pregiudizi che scaturiscono dai valori e dalle attitudini preesistenti alla progettazione dell’artefatto stesso, e che possono essere individuali, cioè legati a colui che progetta l’algoritmo, o sociali, cioè legati al contesto culturale in cui opera il progettista.
  • Ci sono poi i bias tecnici, che dipendono dai limiti tecnologici che lo sviluppo odierno permette di raggiungere.
  • E infine ci sono i bias emergenti, che non derivano dalle intenzioni del progettista ma dagli utilizzatori e dall’esperienza che l’artefatto acquisisce.

Garantire un buon livello di trasparenza per i sistemi informatici permette di comprendere quali valori sono in gioco e di poter verificare che questi siano effettivamente rispettati e promossi, correggendo così anche eventuali errori o pregiudizi che possono essere riscontrati.

Un’etica per le macchine

Queste veloci considerazioni, unite alla necessità della presenza e della valorizzazione del ruolo dell’uomo nelle decisioni che un sistema di intelligenza artificiale prende, ci portano sempre di più a scoprire l’urgenza di riflettere eticamente sul ruolo dei sistemi di intelligenza artificiale in ambiti così delicati come quello militare.

È necessario definire delle governance e dei principi etici che orientino il progresso tecnologico verso uno sviluppo sempre più integrale dell’essere umano.

 

Alessandro Picchiarelli è prete della diocesi di Assisi e insegna presso la Pontificia università urbaniana di Roma. Ha scritto Tra profilazione e discernimento. La teologia morale nel tempo dell’algoritmo, Cittadella, Assisi (PG) 2021.

Lascia un commento

{{resultMessage}}