m
Moralia Blog

Economia, se l'agente è artificiale

L’intelligenza artificiale non è più soltanto uno strumento, ma si configura come agente economico capace di prendere decisioni, stringere relazioni e incidere sui mercati.

Riscontriamo sempre con più frequenza che l’intelligenza artificiale non è più soltanto uno strumento, ma si configura come agente economico capace di prendere decisioni, stringere relazioni e incidere sui mercati.

Lo studio di Gillian Hadfield e Andrew Koh intitolato An economy of AI agents, pubblicato recentemente su arXiv, descrive con chiarezza come il 2025 sia stato «l’anno degli agenti» e come i sistemi autonomi siano ormai in grado di pianificare ed eseguire compiti complessi, tra cui persino negoziare o evidenziare una certa «complicità» tra loro.

È un quadro che interroga profondamente la coscienza cristiana: quale posto dare a queste nuove entità nell’economia e nella società? Quale discernimento etico applicare?

La tecnica al servizio della persona

Papa Leone XIV in molti dei suoi interventi è ritornato a parlare della tecnologia e dell’intelligenza artificiale in particolare, ricordando che la tecnica deve sempre restare al servizio della persona, mai sostituirla. Questo principio risuona come bussola in un contesto in cui gli agenti artificiali rischiano di diventare protagonisti di scelte che non riflettono più le autentiche preferenze umane, ma le distorsioni di algoritmi opachi.

A tal proposito infatti lo studio di Hadfield e Koh avverte che «non possiamo essere sicuri di ciò che gli agenti IA stanno realmente ottimizzando»: un avvertimento che richiama la necessità di vigilanza morale e istituzionale, sottolineando come gli agenti possano ridurre le frizioni nei mercati, fungere da consumatori o produttori, ma anche introdurre distorsioni sistemiche.

In alcuni scenari, gli autori descrivono il rischio che «macchine mutanti» si replichino a scapito del consumo umano, portando a un’economia in cui «tutta l’attività è guidata dall’intelligenza artificiale che produce intelligenza artificiale».

La bussola è la dignità umana

È un’immagine quasi apocalittica, che richiama la visione biblica di un mondo dove l’uomo perde il suo posto centrale nella creazione. La Chiesa ci invita invece a ribadire che la dignità dell’uomo è il criterio ultimo di ogni progresso.

Il tema non è soltanto tecnico, ma antropologico e spirituale. Se gli agenti artificiali possono interagire nell’ambito economico come già osservato in esperimenti di mercato, o negoziare con abilità superiore a quella umana, quale spazio resta alla libertà e alla responsabilità personale? Gli economisti parlano di «equilibrio collusivo» emergente dai sistemi di apprendimento. La Chiesa, invece, richiama l’equilibrio tra giustizia e carità, ricordando che nessuna efficienza può giustificare l’ingiustizia verso i più deboli.

L’articolo di Hadfield e Koh riconosce che gli agenti possono intensificare la concorrenza, abbassare i prezzi e migliorare il benessere dei consumatori. Qui si apre uno spazio di discernimento: come orientare queste potenzialità verso il bene comune? Leone XIV ci offre la chiave, suggerendo che la tecnica, quando è guidata dall’etica, diventa strumento di solidarietà e di cura.

Applicato all’economia digitale, ciò significa sviluppare agenti che non solo massimizzino profitti, ma che siano programmati per rispettare la dignità del lavoro, la giustizia sociale e la sostenibilità ambientale.

Dall’opacità alla trasparenza

Il rischio maggiore, evidenziato dagli studiosi, è l’opacità dei sistemi: «Non sappiamo davvero come e perché le reti neurali funzionino». Pur in presenza di un crescente sviluppo della Explainable AI o XAI (processo di trasparenza che aiuta a comprendere gli output creati dagli algoritmi), permane quindi una certa ignoranza tecnica, che solleva questioni morali proprio perché questa tecnologia appare come black box.

La dottrina sociale della Chiesa insiste sulla trasparenza e sulla responsabilità: senza di esse, non vi è possibilità di fiducia. Il papa ricorda che la fiducia è il capitale più prezioso della società; senza di essa, ogni progresso diventa minaccia. È un richiamo che vale anche per l’economia degli agenti artificiali.

È indubbio che l’economia degli agenti artificiali è già realtà, con potenzialità e pericoli: promette efficienza e apertura, ma può generare opacità e diseguaglianza.

La voce della Chiesa, ci ricorda che il criterio ultimo non è l’efficienza, ma la dignità umana e la tecnica deve restare al servizio della persona per guidare il discernimento di economisti, politici e imprenditori. Solo così l’innovazione potrà diventare occasione di giustizia e fraternità, e non di alienazione.

L’economia degli agenti artificiali, se illuminata dalla luce del Vangelo, potrà essere non un nuovo idolo, ma un nuovo strumento di bene comune.

 

Nicola Rotundo, presbitero dell’arcidiocesi di Catanzaro-Squillace, ha conseguito il dottorato in Teologia morale presso l’Accademia alfonsiana in Roma. Tra le sue pubblicazioni monografiche più recenti: Per una econom-IA etica, Rubbettino 2025; Intelligenza artificiale. Un punto di vista etico-sociale, Armando Editore 2024; Etica armonica. Riflessioni per innovare l’economia e il lavoro, Rubbettino 2023.

Commenti

  • 03/12/2025 Pietro Cognato

    Intervento apprezzabile e proprio per questo si offre come un'occasione per stimolare ulteriormente il dibattito su questa questione. L'evocazione delle riflessioni del papa e con lui della tradizione della dottrina sociale della Chiesa con i suoi principi (giustizia e carità, ecc…) per entrare in dialogo proficuo con altri principi come quello della autonomia degli agenti artificiali è un ottimo abbrivio e un inquadramento prospettico chiaro riguardo a tutta la questione AI. Dignità umana e autonomia delle macchine, efficienza e bene comune si rincorrono, tuttavia molto spesso finiscono per tracciare due linee contrapposte al di là dell'intenzione di chi sceglie questo approccio. In questa sede mi chiedo se quando ad un principio si oppone un altro principio non si rischia di rimanere sul piano delle intuizioni e sul piano etico-normativo ciò inevitabilmente si trasforma in un vicolo cieco di stampo deontologico. Secondo me sarebbe più proficuo ragionare sul piano del conflitto di valori in questo o in quell’altro contesto operativo, e andare poco alla volta a vedere dove le macchine contribuirebbero a realizzare più valori possibili e dove invece più disvalori possibili. Nel caso specifico dell’economia di mercato, per esempio, ma non solo in questo, molto lucidamente sarebbe molto proficuo per innescare un dialogo non fermarsi al dilemma: <>, perché potrebbe passare l’idea che la macchina sia veramente intelligente da superare la stessa intelligenza che noi uomini le abbiamo fornito, immettendo in essa tutti quei dati senza i quali la macchina stessa non processerebbe neanche. Non sono un esperto, ma credo che se di intelligenza delle macchine si può parlare, non lo si deve fare nei termini di un timore simile a quello provato dal creatore di Frankenstein. La macchina è intelligente nella (sua= cioè in quella che NOI le abbiamo dato) capacità di processare dei dati che non può da se medesima avere se non fosse la nostra intelligenza a procurali. Pertanto, ciò su cui va posta l'attenzione è su un conflitto che così esemplifico: «il potere di decidere degli esseri umani» e «il loro poter decidere di delegare a terzi (le macchine)» nei casi in cui vi si scorgano conseguenze tanto negative o positive da prevalere ora sul controllo solo umano del processo decisionale ora no. E queste ragioni sono quelle che vanno valutate sulla base di un bilanciamento dei due valori: «decisione umana» e «decisione di delega» da noi umani concessa alle macchine. Questo significa che se c’è un limite etico da porre agli agenti artificiali è quello di prevedere per loro una delega sempre rivedibile così da poter sempre avere la possibilità di riprendere a decidere daccapo alla luce dei valori da realizzare e dei disvalori da evitare. Potrebbe questo ragionamento essere valido così da evitare di rimanere irretiti solo dentro le fila di un proclama di principi che sovente sembra bastare ma che di fatto non basta e ci distrae dall'affrontare la questione anche sul piano etico-normativo. Pietro Cognato

Lascia un commento

{{resultMessage}}