La sfida del rapporto uomo-macchina

Di Paolo Benanti Giovedì 23 Febbraio 2023 18:40 Stampa
La sfida del rapporto uomo-macchina ©iStockphoto/Ponomariova Maria

L’uomo ha alcune caratteristiche uniche. Tra queste c’è la capacità di trasformare la realtà in qualcosa di conosciuto, potremmo dire di addomesticato, che chiama mondo. Se le altre specie viventi hanno un habitat, cioè l’insieme delle condizioni ambientali in cui vive una determinata specie, l’habitat umano è composto da elementi che ci fanno sentire in uno spazio congeniale alle nostre inclinazioni o ai nostri gusti. Il nostro habitat diviene in un certo senso abitudine. Tuttavia, questa abitudine ad abitare un mondo in un certo senso addomesticato tramite la condivisione con i nostri simili di orizzonti, modi di fare e artefatti tecnologici che segnano il nostro vivere quoti­diano, potrebbe di fatto renderci come i celebri pesci di David Foster Wallace: «Ci sono questi due giovani pesci che nuotano e incontrano un pesce più vecchio che nuota in senso contrario e fa loro un cenno, dicendo: “Salve ragazzi, com’è l’acqua?” e i due giovani pesci conti­nuano a nuotare per un po’ e alla fine uno di loro guarda l’altro e fa: “Che diavolo è l’acqua?”».

Questa piccola storia, in circolo ben prima della riproposizione di Foster Wallace, porta con sé una morale prevedibile, ma non banale: talvolta non si presta attenzione e non ci si rende conto delle cose più ovvie. Molti aspetti del vivere quotidiano, proprio perché presenti da sempre sullo sfondo dell’esistenza, ci sono sconosciuti, diventano pressoché invisibili.

Questa sorta di filtro su il-continuamente-presente nella nostra espe­rienza ha radici biologiche e caratterizza la nostra stessa cognizione. Basta pensare agli occhiali da vista. Dopo un po’ è come se scordassi­mo di averli sul naso ed è come se fossero parte di noi.

Oggi questo effetto di assimilazione lo stiamo compiendo con le in­telligenze artificiali: il motore di ricerca che utilizziamo per trovare dei contenuti in internet, l’assistente vocale e il sistema di naviga­ zione del nostro smartphone, come le piattaforme di streaming, ci suggeriscono cosa guardare. L’algoritmo predittivo che ci fa vedere i prodotti che più ci interessano sulla piattaforma di e-commerce, il sistema antifrode automatico della nostra carta di credito e il rispon­ditore dell’assistenza del nostro servizio di telefonia mobile sono tutti sistemi quotidiani in cui interagiamo con le intelligenze artificiali. Queste però a differenza degli occhiali non sono passive ma mentre predicono quello che possiamo volere o cercare, producono anche, in parte, il nostro comportamento: probabilmente abbiamo notato quando quell’algoritmo dell’e-commerce, che suggeriva che forse ci interessava anche un altro prodotto oltre a quanto stavamo acqui­stando, ha effettivamente prodotto un acquisto ulteriore da parte nostra.

Se le intelligenze artificiali diventano invisibili come l’acqua, che ef­fetti ci saranno sull’uomo e sulla società? Cosa saremo portati a fare? O, per rimanere nella metafora di Wallace, quali correnti invisibili ci spingeranno e verso dove?

L’avvento della ricerca digitale, dove tutto viene trasformato in dati numerici, porta alla capacità di studiare il mondo secondo nuovi pa­radigmi gnoseologici: quello che conta è solo la correlazione tra due quantità di dati e non più una teoria coerente che spieghi tale corre­lazione. Oggi la correlazione viene usata per predire con sufficiente accuratezza, pur non avendo alcuna teoria scientifica che lo suppor­ti, il rischio di impatto di asteroidi anche sconosciuti in vari luoghi della Terra, i siti istituzionali oggetto di attacchi terroristici, il voto dei singoli cittadini alle elezioni presidenziali USA, l’andamento del mercato azionario nel breve termine.

Quello che appare come esito di questa nuova rivoluzione è il domi­nio dell’informazione, un labirinto concettuale la cui definizione più diffusa è basata sull’altrettanto problematica categoria di dati.

L’evoluzione tecnologica dell’informazione e del mondo compre­so come una serie di dati si concretizza nelle intelligenze artificiali (IA) e nei robot: siamo in grado di costruire macchine che possono prendere decisioni autonome e coesistere con l’uomo. Si pensi alle macchine a guida autonoma che Uber, il noto servizio di trasporto automobilistico privato, già utilizza in alcune città come Pittsburgh, o a sistemi di radio chirurgia come il Cyberknife o i robot desti­nati al lavoro affianco all’uomo nei processi produttivi in fabbrica. Le intelligenze artificiali, queste nuove tecnologie, sono pervasive. Stanno insinuandosi in ogni ambito della nostra esistenza. Tanto nei sistemi di produzione, incarnandosi in robot, quanto nei sistemi di gestione sostituendo i server e gli analisti. Ma anche nella vita quo­tidiana i sistemi di intelligenza artificiale sono sempre più pervasivi. Gli smartphone di ultima generazione sono tutti venduti con un as­sistente dotato di intelligenza artificiale, Cortana, Siri o Google Hel­lo – per citare solo i principali –, che trasforma il telefono da un hub di servizi e applicazioni a un vero e proprio partner che interagisce in maniera cognitiva con l’utente. Sono in fase di sviluppo sistemi di intelligenza artificiale, i bot, che saranno disponibili come partner virtuali da interrogare via voce o in chat che sono in grado di fornire servizi e prestazioni che prima erano esclusiva di particolari profes­sioni: avvocati, medici e psicologi sono sempre più efficientemente sostituibili da bot dotati intelligenza artificiale.

Il mondo del lavoro conosce oggi una nuova frontiera: le interazioni e la coesistenza tra uomini e intelligenze artificiali. Per evitare in­comprensioni, dobbiamo ricordare che non sono le intelligenze arti­ficiali la minaccia di estinzione del lavoro o dell’estinzione dell’uomo come magari paventato da una certa fantascienza. È vero però che la tecnologia può essere pericolosa per la nostra sopravvivenza come specie: l’uomo ha già rischiato di estinguersi per­ché battuto da una macchina molto stupida come la bomba atomica. Esistono sfide estremamente delicate nella società contemporanea in cui la variabile più importante non è l’intelligenza ma il poco tempo a disposizione per decidere e le macchine cognitive trovano qui grande interesse applicativo.

Si aprono a questo livello tutta una serie di pro­blematiche etiche su come validare la cognizione della macchina alla luce proprio della velocità della risposta che si cerca di implementare e otte­nere. Il pericolo maggiore non viene dalle IA in se stesse ma dal non conoscere queste tecnologie e dal lasciare decidere sul loro impiego a una classe dirigente assolutamente non preparata a gestire il tema.

Se l’orizzonte di esistenza delle persone nel prossimo futuro – in re­altà già del nostro presente – è quello di una cooperazione tra intel­ ligenza umana e intelligenza artificiale e tra agenti umani e agenti robotici autonomi diviene urgente cercare di capire in che maniera questa realtà mista, composta da agenti autonomi umani e agenti autonomi robotici, possa coesistere.

PRIMUM NON NOCERE

Il primo e più urgente punto che le intelligenze artificiali pongono nell’agenda dell’innovazione del lavoro è quello di adattare le nostre strutture sociali a questa nuova e inedita società fatta di agenti auto­nomi misti.

Una primissima sfida è di natura filosofica e antropologica. Abbia­mo bisogno di rendere evidente quale sia la specifica componente e qualità umana del lavoro rispetto a quella macchinica: le rivoluzioni industriali hanno dimostrato che non è l’energia, non è la velocità e, ora, che anche la cognizione e l’adattabilità alla situazione non sono specifiche solamente umane.

Un secondo, e altrettanto urgente tema, è quello di definire come e in che maniera si può garantire la coesistenza tra uomo e intelligenza artificiale, tra uomo e robot. Per rispondere a questa domanda pro­cederemo nel seguente modo. In primo luogo, cercheremo di for­mulare una direttiva fondamentale che deve essere garantita dalle IA e dai robot e poi cercheremo di definire cosa questi sistemi cognitivi autonomi devono imparare per poter convivere e lavorare cooperati­vamente con l’uomo.

La prima e fondamentale direttiva da implementare può essere rac­chiusa nell’adagio latino primum non nocere. La realizzazione di tec­nologie controllate da sistemi di intelligenza artificiale porta con sé una serie di problemi legati alla gestione dell’autonomia decisionale di cui questi apparati godono. La capacità dei robot di mutare il loro comportamento in base alle condizioni in cui operano, per analo­gia con l’essere umano, viene definita autonomia. Per indicare tutte le complessità che derivano da questo tipo di libertà decisionale di queste macchine si è introdotto il termine Artificial Moral Agent (AMA): parlando di AMA si indica quel settore che studia come de­finire dei criteri informatici per creare una sorta di moralità artificiale nei sistemi IA portando alcuni studiosi a coniare l’espressione mac­chine morali per questi sistemi. Quando si usa il termine autonomia legato al mondo della robotica si vuole intendere il funzionamento di sistemi di IA la cui programmazione li rende in grado di adattare il loro comportamento in base alle circostanze in cui si trovano a operare. Un esempio classico di applicazione di questa direttiva fondamenta­le, chiamato situazione dei due carrelli, è stato formulato da Philippa Foot nel 1967 mentre si sperimentavano i primi sistemi di guida automa­tica dei mezzi per il trasporto di passeggeri negli aeroporti. Nel caso presentato dalla Foot un vei­colo si avvicina a un incrocio e realizza che un altro veicolo, con cinque passeggeri, in direzione opposta è in traiettoria di collisione. Il primo veicolo può o continuare sulla sua traiettoria e urtare il veicolo che procede nell’altro verso uccidendo i cinque pas­seggeri a bordo o sterzare e colpire un pedone uccidendolo. La Foot si chiedeva: se noi fossimo alla guida del veicolo cosa faremmo? E un sistema robotizzato cosa dovrebbe fare? Giungendo alla conclusione che la macchina autonoma deve essere programmata per evitare as­solutamente di ferire o uccidere l’essere umano e che, se in situazioni estreme, non fosse possibile evitare di nuocere all’uomo avrebbe do­vuto scegliere il male minore.

Tuttavia, racchiudere tutta la questione degli agenti morali autono­mi, dell’utilizzo di bot e robot cognitivi in un ambiente di lavoro mi­sto umano-robotico non può esaurirsi in questa direttiva primaria. Sfruttando un linguaggio evocativo potremmo dire che le macchine sapienti/autonome per poter coesistere con i lavoratori umani devono imparare almeno quattro cose. Questi quattro elementi possiamo ca­pirli come una declinazione operativa della dignità insita nel lavora­tore umano. Solo se le macchine sapranno interagire con l’uomo se­condo queste direzioni allora non solo non nuoceranno alla persona ma ne sapranno tutelare la dignità e l’inventività senza mortificarne l’intrinseco valore.

Intuizione Quando due esseri umani cooperano normalmente l’uno riesce ad anticipare e assecondare le intenzioni dell’altro perché riesce a intuire cosa sta facendo o cosa vuole fare. Si pensi alla situazione in cui vediamo una persona che cammina con le braccia piene di pacchi. Istintivamente capiamo che la persona sta trasportando quei pacchi e la aiutiamo rendendole il lavoro più semplice o trasportando per lei parte del fardello che le ingombra le braccia. Questa capacità umana è alla base della grande duttilità che caratterizza la nostra specie e che ci ha permesso di organizzarci fin dai tempi più antichi riuscendo a cooperare nella caccia, nell’agricoltura e poi nel lavoro. In un am­biente misto uomo-robot le IA devono essere in grado di intuire cosa gli uomini vogliono fare e adattarsi alle loro intenzioni cooperando. Solo in un ambiente di lavoro in cui le macchine sapranno capire l’uomo e assecondare il suo agire potremo veder rispettato l’ingegno e la duttilità umana. La macchina si deve adattare all’uomo e alla sua unicità e non viceversa.

Intellegibilità I robot in quanto macchine operatrici funzionano secondo algoritmi di ottimizzazione. I software ottimizzano l’uso energetico dei loro servomotori, le traiettorie cinematiche e le velo­cità operative. Se un robot deve prendere un contenitore cilindrico da una fila di contenitori il suo braccio meccanico scarterà verso il contenitore prescelto secondo una traiettoria di minimo consumo energetico e temporale. Un uomo, di contro, se deve prendere lo stesso barattolo si muoverà verso quello in una maniera che fa capire a chi gli è intorno cosa stia tentando di fare. L’uomo è in grado, nel vedere un altro uomo che compie un’azione, di capire cosa stia per fare in forza non dell’ottimizzazione dell’azione altrui ma della sua intellegibilità. Il modo di compiere le azioni rende l’agito intellegibi­le e prevedibile. Se vogliamo garantire un ambiente di lavoro misto in cui l’uomo possa coesistere con la macchina il modo di compiere le azioni della macchina dovrà essere intellegibile. Dovremmo far sì che la persona che condivide con la macchina lo spazio di lavoro pos­sa sempre essere in grado di intuire qual è l’azione che la macchina sta per compiere. Questa caratteristica è necessaria, tra l’altro, per permettere all’uomo di coesistere in sicurezza con la macchina non esponendosi mai a eventuali situazioni dannose. Non è l’ottimizza­zione dell’agito della macchina la più importante finalità che deve caratterizzare i suoi algoritmi ma il rispetto dell’uomo.

Adattabilità Un robot dotato di IA si adatta all’ambiente e alle cir­costanze per compiere delle azioni autonome. Tuttavia non si tratta di progettare e realizzare algoritmi di intelligenza artificiale che siano in grado di adattarsi solo all’imprevedibile condizione dell’ambiente donando alla macchina una sorta di consapevolezza sulla realtà che la circonda. In una situazione di cooperazione e lavoro mista tra uomo e macchina il robot deve adattarsi anche alla personalità umana con cui coopera. Per esemplificare questa caratteristica proviamo a fare un esempio. Supponiamo di avere un’automobile a guida autonoma. La macchina dovrà adattarsi alle condizioni del traffico: in condi­zioni di intenso traffico se la macchina non possiede degli efficienti algoritmi di adattabilità rischia di rimanere sempre ferma perché gli altri veicoli a guida umana le passeranno sempre avanti cercando di evitare l’ingorgo. Oppure se non fosse abbastanza adattabile rischie­rebbe di causare degli incidenti non capendo l’intenzione furtiva di cambiare corsia del guidatore che ha davanti. Tuttavia vi è un ul­teriore e più importante adattamento che la macchina deve saper fare: quello alla sensibilità dei suoi passeggeri. Qualcuno potrebbe trovare la lentezza della macchina nel cambiare corsia esasperante o, al contrario, potrebbe trovare il suo stile di guida troppo aggressivo e vivere tutto il viaggio con l’insostenibile angoscia che un incidente sia imminente. La macchina deve adattarsi alla personalità con cui interagisce. L’uomo non è solo un essere razionale ma anche un es­sere emotivo e l’agire della macchina deve essere in grado di valutare e rispettare questa unica e peculiare caratteristica del suo partner di lavoro. La dignità della persona è espressa anche dalla sua unicità. Sa­per valorizzare e non mortificare questa unicità di natura razionale-emotiva è una caratteristica chiave per una coesistenza che non sia un detrimento della parte umana.

Adeguatezza degli obiettivi Un robot è governato da degli algo­ritmi che ne determinano delle linee di condotta. Si pensi a uno di quei robot casalinghi in vendita nei negozi di elettrodomestici che in maniera autonoma pulisce il pavimento raccogliendo la polvere. I suoi algoritmi sono programmati per questo ma il robot è program­mato per raccogliere la polvere o per raccogliere il massimo della polvere possibile? Se in un ambiente di sole macchine l’assolutezza dell’obiettivo è una policy adeguata in un ambiente misto di lavoro uomo-robot questo paradigma non sembra essere del tutto valido. Se il robot vuole interagire con la persona in una maniera che sia conveniente e rispettosa della sua dignità deve poter aggiustare i suoi fini guardando la persona e cercando di capire qual è l’obiettivo ade­guato in quella situazione. Si pensi a una situa­zione in cui un lavoratore e un robot cooperino nella realizzazione di un artefatto. Il robot non può avere come unica policy l’assolutezza del suo obiettivo come se fosse la cosa più importante e assoluta ma deve saper adeguare il suo agire in funzione dell’agire e dell’obiettivo che ha la per­sona che con lui coopera. In altri termini si tratta di acquisire, ci si perdoni il termine, una sorta di umiltà artificiale che, tornando all’esempio del robot aspirapolvere, consenta alla macchina di comprendere se deve aspirare tutta la polvere possibile o in questo momento aspirare solo un po’ di polvere e poi tornare a compiere questa funzione più tardi perché sono sorte altre priorità nelle persone che in quel momento sono nella stanza. Si tratta di stabilire che la priorità operativa non è nell’algoritmo ma nella persona che è luogo e sede di dignità. In un ambiente misto è la persona e il suo valore unico ciò che stabilisce e gerarchizza le priorità: è il robot che coopera con l’uomo e non l’uo­mo che assiste la macchina.

Se queste quattro direttrici possono essere quattro dimensioni di tu­tela della dignità della persona nella nuova e inedita relazione tra uomo e macchina sapiens/autonoma bisogna poterle garantire in ma­niera certa e sicura. Si devono allora sviluppare degli algoritmi di verifica indipendenti che sappiano in qualche modo quantificare e certificare questa capacità di intuizione, intellegibilità, adattabilità e adeguatezza degli obiettivi del robot. Questi algoritmi valutativi de­vono essere indipendenti e affidati a enti terzi certificatori che si fac­ciano garanti di questo. Serve implementare da parte del governo un framework operativo che, assumendo questa dimensione valoriale, la trasformi in strutture di standardizzazione, certificazione e controllo che tutelino la persona e il suo valore in questi ambienti misti uomo-robot. Non bastano standard ma servono algoritmi che sappiano va­lutare in maniera intelligente l’adeguatezza delle intelligenze artificiali destinate a coesistere e cooperare con il lavoratore umano. Solo in questa maniera potremmo non subire l’innovazione tecnologica ma guidarla e gestirla nell’ottica di un autentico sviluppo umano anche nell’era dei robot e delle intelligenze artificiali.

Volendo concludere possiamo soffermarci su una categoria di fon­do necessaria per una gestione etico-politica di queste tecnologie. Il mondo della tecnologia è oggi descritto dalla categoria dell’innovazione. Continuando a guar­dare la tecnologia solamente come innovazione rischiamo però di non riuscirne a percepire la portata di trasformazione sociale né di orientarne verso il bene gli effetti.

L’innovazione indica un avanzamento o una tra­sformazione graduale contrassegnati da un sem­pre maggiore aumento di capacità e potenzialità. Non tutti i progressi sono nel bene o per il bene o comportano solo del bene. Per poter parlare di innovazione come di un bene e per poterla orientare al bene comune abbiamo bisogno di una qualifica che sia in grado di descrivere come e quali caratteristiche del progresso contribuisca­no al bene dei singoli e della società. Per questo si utilizza la catego­ria dello sviluppo. L’idea di sviluppo umano porta l’attenzione su un concetto di ampia portata che si concentra su quei processi che espandono le possibilità di scelta degli individui e che migliorano le loro prospettive di benessere e che consentono ai singoli e ai gruppi di procedere il più speditamente possibile verso il loro potenziamen­to.

Lo sviluppo umano è da intendersi, quindi, come un fine e non come un mezzo che caratterizza il progresso definendo delle priorità e dei criteri. Parlare di sviluppo significa, quindi, non mettere la capacità tecnica al centro dell’attenzione bensì tenere l’uomo al centro della riflessione e come fine che qualifica il progresso.

Utilizzare eticamente la tecnologia oggi significa cercare di trasfor­mare l’innovazione in sviluppo. Significa indirizzare la tecnologia verso e per lo sviluppo e non semplicemente cercare un progresso fine a se stesso. Sebbene non sia possibile pensare e realizzare la tec­nologia senza delle forme di razionalità specifiche (il pensiero tecnico e scientifico), porre al centro dell’interesse lo sviluppo significa dire che il pensiero tecnico-scientifico non basta a se stesso. Servono di­versi approcci compreso quello umanistico.

Lo sviluppo necessario per affrontare le sfide del cambio d’epoca do­vrà essere: a) globale, ovvero per tutte le donne e per tutti gli uomini e non solo di qualcuno o di qualche gruppo (distinto per sesso, lin­gua o etnia); b) integrale, ovvero di tutta la donna e di tutto l’uomo; c) plurale, ovvero attento al contesto sociale in cui viviamo, rispet­toso della pluralità umana e delle diverse culture; d) fecondo, ovvero capace di porre le basi per le future generazioni, invece che miope e diretto all’utilizzo delle risorse dell’oggi senza mai guardare al futuro; e) gentile, ovvero rispettoso della terra che ci ospita (la casa comune), delle risorse e di tutte le specie viventi.

Per la tecnologia e per il nostro futuro abbiamo bisogno di uno svi­luppo che sinteticamente vorrei definire gentile. L’etica delle intelli­genze artificiali è questo e le scelte etiche sono quelle che vanno nella direzione dello sviluppo gentile.