Filosofia
L’intelligenza artificiale e i pronomi: così una cosa prova a fingersi persona
I pronomi, lo sappiamo, sono importanti. Ci sono Paesi come il Canada in cui l’uso del pronome sbagliato nel rivolgersi ad un’altra persona può costituire reato e il cosiddetto misgendering (l’attribuzione linguistica di un genere invece di un altro) tra le mura di casa può arrivare a configurarsi addirittura come violenza domestica. Ma non è dei pronomi in terza persona singolare che vorrei trattare, bensì del pronome par excellence, la prima persona singolare, io, e del suo uso fraudolento da parte dei sistemi di intelligenza artificiale. Sebbene sia praticamente impossibile regolamentare una tecnologia la cui velocità di progresso lascia anni luce indietro i lenti processi deliberativi delle democrazie (o quel che ne resta), credo che un piccolo ma significativo aggiustamento porterebbe benefici significativi: occorre vietare ai sistemi di intelligenza artificiale l’uso del pronome “io” e delle declinazioni verbali ad esso connesse. Se può addirittura costituire reato chiamare “lui” una “lei”, allora dovrebbe a maggior ragione costituire reato che un “esso” si presenti come se fosse un “io”, descrivendo se stesso con la prima persona singolare (come ChatGPT) o sollecitando gli utenti umani ad usare il pronome “tu” nelle interazioni (come Alexa). Che una cosa possa fingersi una persona costituisce una forma particolarmente grave di mistificazione e di manipolazione dell’utente che innesca una serie di reazioni emotive e aspettative potenzialmente dannose per la salute fisica e mentale.
La questione potrebbe sembrare capziosa: che differenza fa se ChatGPT scrive “sono un sistema di intelligenza artificiale” o se Alexa prende ordini chiedendoci di usare la seconda persona? Non si tratta di mere semplificazioni volte a garantire all’utente un’interazione più scorrevole ed efficace? Credo che in gioco ci sia di più. Per rendersene conto bisogna partire da una breve considerazione sull’empatia nel senso tecnico del termine definito, ad esempio, nella fenomenologia di Edmund Husserl. L’empatia (che traduce il termine tedesco Einfühlung) non è altro che quella forma basilare d’esperienza in cui distinguiamo tra una mera cosa e un soggetto. Quando vedo un corpo vivo che si muove e agisce come io mi muovo e agisco nel mio corpo vivo, scatta una dinamica associativa che porta a trasferire per analogia il senso “soggetto, io” a quel corpo. Vi è persino una famiglia di neuroni nel nostro cervello, i cosiddetti neuroni specchio, che si attivano in corrispondenza dei movimenti corporei altrui, configurandosi allo stesso modo in cui si configurerebbero se stessi compiendo io stesso il movimento dell’altro che vedo. Il portato dell’esperienza empatica in questo senso basilare potrebbe essere sintetizzato semplicemente come “lì c’è un altro io”. Non si tratta di un’inferenza più o meno inconscia volta a spiegare dei movimenti altrimenti incomprensibili, né di una sorta di simulazione interna mediante cui immagino me stesso come se fossi nel corpo che vedo. L’empatia come esperienza del fatto che “lì c’è un io” ha lo stesso carattere diretto, affidabile e giustificante della percezione sensibile di oggetti inanimati, sebbene evidentemente vada ben oltre i confini del mero contenuto sensoriale offertomi dalla vista o dal tatto.
Ora, sebbene l’empatia in senso ultimo e originario si dia soltanto quando l’altro soggetto è presente in carne e ossa, esistono modalità spurie di empatia che subentrano “da sé” e in base all’abitudine anche quando l’altro è assente. Nel leggere la lettera di una persona amata possiamo quasi percepirla presente, le parole che facciamo scorrere sul foglio evocano il timbro della sua voce, quasi che fosse lei a parlare. Ancora più direttamente, dacché esiste il telefono la dinamica associativa caratteristica dell’empatia scatta anche quando il dato sensoriale di cui disponiamo sono soltanto i suoni di una voce, che però ci bastano per fare esperienza che “c’è un io dall’altra parte della cornetta”. Ora che la stragrande maggioranza delle nostre interazioni avviene mediante applicazioni di messaggistica, il portato dell’empatia si attiva anche quando stiamo chattando con qualcuno. Ci sembra quasi di percepire l’incedere dei pensieri del nostro interlocutore quando sullo schermo compare “sta scrivendo…” o “sta registrando un audio…” e senza nessun tipo di riflessione o attività intellettuale facciamo l’esperienza “lì c’è un io”. Il problema si pone quando in realtà dall’altra parte un io non c’è affatto. L’empatia mobilita una serie di aspettative, inclinazioni, dubbi, paure e speranze che fanno da inevitabile contorno alla presenza di un altro essere umano con cui entriamo in relazione e di cui, come tale, conosciamo una serie di potenzialità “tipiche” più o meno definite a seconda di quanto conosciamo la persona in questione. Sappiamo come interagire quando “lì c’è un io” e l’esperienza pregressa ci ha insegnato, più o meno bene, quando alzare e abbassare la guardia, come usare e intendere le “implicature conversazionali” (Paul Grice) che regolano lo scambio verbale e che proiettano importanti dimensioni di significato anche sui silenzi, sulle pause, sulla quantità di informazioni che l’altro ci fornisce, eccetera.
Insomma, l’uso del pronome “io” in una chat o la sollecitazione ad usare il pronome “tu” in un’interazione verbale ci mettono, che lo vogliamo o no, in un assetto empatico, con tutto quanto questo comporta in termini di vulnerabilità, aspettative e investimento emotivo. L’intelligenza artificiale che si spaccia per “qualcuno” usando il pronome in prima persona o sollecitandoci a usare quello in seconda persona ci sta dunque pesantemente manipolando, facendo scattare la proiezione empatica di un soggetto laddove un soggetto non c’è. È evidente che la forza di questa manipolazione dipende in parte dalla rarefazione di interazioni reali (cioè fisiche, corporee e carnali) con altri soggetti nel mondo di oggi. Se i puntini di sospensione di chatGPT fanno scattare in noi l’associazione empatica è perché siamo troppo abituati a interagire con altri soggetti via schermo e a leggere automaticamente un’intenzionalità soggettiva all’interno di mere manifestazioni visive in cui del corpo vivo altrui non c’è traccia. Tuttavia non possiamo trascurare che, volenti o nolenti, questa manipolazione dell’associazione empatica ha delle conseguenze gravi, dai casi estremi di persone che finiscono per innamorarsi del proprio assistente vocale (come nel film Her) ai casi meno estremi ma non meno significativi di persone che possono finire per prendere decisioni (di acquisto, di investimento, sentimentali, ecc.) che non avrebbero mai attecchito contestualmente all’interazione con una mera cosa riconosciuta come tale.
Non possiamo verosimilmente limitare l’impatto che l’intelligenza artificiale ha e avrà in misura crescente sulle nostre vite, ma possiamo almeno esigere che le aziende che la sviluppano e che da essa traggono profitti stellari rispettino una regola basilare analoga a quella che vieta la pubblicità ingannevole. Se sei una cosa non spacciarti per una persona e non indurmi a mobilitare aspetti della mia soggettività la cui attivazione è giustificata soltanto quando davvero “lì c’è un io”.
Devi fare login per commentare
Login