Tema complesso dalle molte sfaccettature e denso di incognite. Qui l'indice degli articoli sulla realtà distopica.
La grande riorganizzazione invisibile. Etica, politica e diritto nell’era delle intelligenze agentiche
La grande riorganizzazione che attraversa oggi le nostre società non è solo un fatto tecnologico: è un evento che tocca insieme l’etica del discernimento, la politica della giustizia sociale e il diritto della responsabilità. Quando le tecnologie corrono più veloci del lessico con cui potremmo nominarle, diventano infrastrutture silenziose di potere prima ancora di essere oggetto di dibattito pubblico. È ciò che sta accadendo con l’ingresso dell’intelligenza artificiale agentica nei processi decisionali di imprese e istituzioni: sistemi che non si limitano a rispondere, ma pianificano, orchestrano flussi di lavoro, attivano altri software e persone, fino a comporre catene di azione autonome. La “grande riorganizzazione” non è una promessa futura, è un processo in corso che ridisegna gerarchie, compiti, responsabilità a una velocità che non conosce precedenti.
Agostino, riflettendo sul mistero del tempo, notava che il presente, se fosse sempre presente e non passasse mai, non sarebbe più tempo ma eternità: il tempo, per esistere, deve consumarsi, farsi storia, memoria, giudizio. L’innovazione tecnica, accelerando il presente, rischia di consumarlo prima che diventi pensiero: l’evento tecnologico accade, ma non abbiamo il tempo di comprenderlo, nominarlo, valutarlo. L’intelligenza agentica si colloca in questa terra di nessuno. Delegare a un agente non significa più chiedere un supporto strumentale, ma affidare porzioni crescenti del processo decisionale a catene di azioni che si svolgono in autonomia per ore, giorni, talvolta settimane. Hannah Arendt ci ha messo in guardia dalla “banalità del male” come prodotto di una deresponsabilizzazione diffusa, dove ciascuno si nasconde dietro il sistema, la procedura, il comando impersonale. Oggi la formula rischia di aggiornarsi: ha deciso il modello, lo ha suggerito il sistema, era il percorso ottimizzato dall’IA.
Anche la tradizione teologica cristiana, da Tommaso d’Aquino in poi, diffida della delega integrale del giudizio. La coscienza resta il luogo non delegabile in cui la persona valuta i mezzi alla luce dei fini: un agente può ottimizzare i mezzi, ma non conosce i fini ultimi dell’agire umano, che sono sempre relazionali e trascendenti. La tentazione del nostro tempo è confondere ciò che funziona con ciò che è buono, ciò che è efficiente con ciò che è giusto. Per questo un’etica di frontiera dell’intelligenza artificiale deve porre soglie nette: ci sono decisioni – che riguardano diritti fondamentali, inclusione o esclusione dal lavoro, accesso al credito, traiettorie di vita – che non possono essere interamente affidate a catene automatiche. La lentezza del discernimento non è un lusso, ma il segno che stiamo prendendo sul serio il peso delle conseguenze; dove tutto è immediato, la responsabilità evapora.
Sul piano sociopolitico, l’impatto delle intelligenze agentiche sul lavoro non si presenta, almeno per ora, come un’ondata di disoccupazione di massa, ma come una ricomposizione sottile del tessuto professionale. Molte imprese dichiarano di non vedere ancora effetti macroscopici su occupazione e produttività aggregata, e tuttavia si osservano incrementi significativi di prestazione per chi è in grado di usare in modo avanzato questi strumenti. Si parla di “paradosso della produttività”: ci si sente più efficienti di quanto non dicano i dati. Una parte della spiegazione è strutturale: le organizzazioni restano costruite con logiche pre‑digitali, con ruoli e processi che non sono stati ripensati, mentre il tempo “liberato” dall’automazione è spesso riempito da ulteriore carico di lavoro o reinvestito solo in tecnologia, molto meno in formazione.
Qui ritornano attuali le categorie di Pierre Bourdieu: il capitale culturale e cognitivo si auto‑riproduce, consolidando sotto la retorica della meritocrazia gerarchie che privilegiano chi può permettersi di imparare prima e meglio. La disuguaglianza non passa più soltanto dal reddito o dalla proprietà, ma dal tempo disponibile per apprendere, dal contesto che consente di sperimentare senza paura di sbagliare, dalla capacità di tradurre problemi complessi in istruzioni efficaci per un agente. Zygmunt Bauman parlava di modernità liquida per descrivere strutture che si sciolgono rendendo le vite precarie; la diffusione agentica rischia di aggiungere un ulteriore strato di liquidità: mansioni intermedie, amministrative, ripetitive vengono progressivamente automatizzate, restano in alto poche posizioni in grado di orchestrare la macchina, e in basso una massa di lavori intermittenti, frammentati, difficilmente organizzabili in termini di diritti. Senza una vera politica pubblica dell’apprendimento e della protezione dei percorsi professionali, la grande riorganizzazione si tradurrà in una nuova questione sociale: non solo inclusi ed esclusi dal lavoro, ma inclusi ed esclusi dal sapere che governa il lavoro.
In questo quadro, la figura del leader che si circonda di agenti personali per accelerare le decisioni assume un valore emblematico. L’esperimento di Mark Zuckerberg, impegnato a sviluppare un agente in grado di orientare in tempo reale le sue scelte e appiattire la struttura manageriale attorno a sé, non è solo un gesto di avanguardia tecnologica: è il sintomo di una tendenza più profonda. La promessa è seducente: ridurre i livelli intermedi, rendere l’organizzazione più “snella”, velocizzare il flusso informativo verso il vertice. Ma Max Weber ci ha insegnato che la burocrazia, con tutti i suoi limiti, era anche un dispositivo di razionalizzazione e di contenimento del potere personale: i passaggi, i rallentamenti, le firme erano anche controlli. Se un agente digitale consente al vertice di attraversare e in parte bypassare i corpi intermedi, si rafforza una forma nuova di carisma tecnificato: non il capo ispirato, ma il decisore potenziato da una razionalità algoritmica che nessun altro è davvero in grado di sindacare.
Alexis de Tocqueville temeva un potere dolce, paternalistico, capace di guidare le scelte dei cittadini fino a svuotare dall’interno la loro capacità di iniziativa. Gli agenti personali dei leader, e più in generale l’uso di IA per “supportare” decisioni politiche e manageriali, rischiano di introdurre forme nuove di paternalismo organizzativo: non si impone una decisione dall’alto, la si presenta come esito ottimale di un processo tecnico. La discussione diventa eccezione, la fiducia cieca nel sistema la regola. Se la tecnologia viene usata per “appiattire” le organizzazioni senza ricostruire altrove presidi di mediazione e controllo, l’ecologia di pesi e contrappesi che ha tenuto in equilibrio le democrazie novecentesche entra in crisi.
Sul piano giuridico, tutto questo pone con urgenza il problema della catena della responsabilità. Ulrich Beck ha descritto la “società del rischio” come una società in cui i pericoli non sono più incidenti esterni, ma prodotti interni di sistemi altamente complessi. L’IA agentica incarna questa logica: i danni potenziali non derivano da un malfunzionamento straordinario, ma dal funzionamento ordinario di catene di azioni in parte opache e distribuite tra soggetti diversi. I primi tentativi di governance – comitati interni dedicati, standard per tracciare e verificare le decisioni automatizzate – sono segnali importanti, ma il diritto è chiamato a un salto ulteriore: passare dalla ricerca ex post di un colpevole a un’architettura di doveri di diligenza ex ante lungo tutta la filiera. Chi progetta, chi addestra, chi integra nei processi, chi decide di affidare funzioni critiche a un agente partecipa, in gradi diversi, alla stessa responsabilità.
La tradizione teologica della cooperazione al male, che distingue tra cooperazione formale e materiale, prossima e remota, offre una chiave preziosa per comprendere la responsabilità diffusa nelle azioni complesse. Trasposta sul terreno dell’IA, suggerisce che non possiamo limitarci a cercare un colpevole ultimo: occorre riconoscere responsabilità graduali, ma reali, anche in chi ha omesso controlli, formazione, limiti all’autonomia del sistema. Ne discende la necessità di un quadro giuridico che garantisca tracciabilità delle decisioni agentiche, obblighi stringenti di audit indipendente per i sistemi più critici, diritti sostanziali per le persone impattate: diritto alla spiegazione, alla revisione umana, alla contestazione degli esiti che incidono su lavoro, reddito, accesso a servizi essenziali. Nessuna catena di automazione dovrebbe poter spezzare il legame tra azione e responsabilità umana.
Gli economisti ricordano che ogni tecnologia è ambivalente: può innalzare la produttività e insieme creare nuove fragilità, squilibri, dipendenze. Mentre alcune stime attribuiscono all’IA potenziali incrementi significativi della produttività del lavoro, i dati evidenziano che gran parte delle imprese non ha ancora saputo tradurre questa promessa in benessere diffuso e in lavoro migliore. Karl Polanyi, criticando l’idea di un mercato disincarnato, avvertiva che ogni volta che l’economico si è sganciato da vincoli morali e politici la società ha reagito con un contro‑movimento di protezione. Oggi il rischio è analogo, ma la posta è più alta: se lasciamo che la logica agentica penetri ovunque senza una cornice etica, politica e giuridica robusta, saranno i più fragili a pagare il prezzo del nostro ritardo.
Romano Guardini definiva la tecnica “potenza dischiusa” che chiede di essere governata alla luce di un’immagine dell’uomo. La grande riorganizzazione in corso non è un destino inevitabile, ma un banco di prova della nostra libertà collettiva. Possiamo usare gli agenti artificiali per concentrare il potere, radicalizzare le disuguaglianze, dissolvere la responsabilità, oppure per liberare tempo, rendere il lavoro più umano, rafforzare le istituzioni nella loro funzione di tutela dei più deboli. La differenza non la faranno gli algoritmi, ma le strutture di governance che sapremo costruire: quelle che distinguono l’efficienza dall’elusione della responsabilità, la delega funzionale dalla cessione del giudizio, l’innovazione dalla rinuncia silenziosa a quei presidi di verifica che costituiscono il presidio etico di ogni organizzazione. È da qui che passa oggi la fedeltà a una priorità non negoziabile: la centralità della persona umana, con il suo diritto a non essere ridotta a semplice variabile di ottimizzazione in una catena di decisioni automatizzate.
Gianni Lattanzio, 12 aprile - Fonte
Direttore di Meridianoitalia

Nessun commento:
Posta un commento