Filosofia
AI ed umani: cosa temiamo?
Lo sviluppo attuale dei modelli di AI genera sicuramente inquietudine, sia perché temiamo di essere sostituiti da supplenti più performanti e mai stanchi sia perché temiamo di essere superati da sistemi intelligenti non umani (M. C. Carrozza, Prefazione, a: A. Prencipe – M. Sideri, Il visconte cibernetico. Italo Calvino e il sogno dell’intelligenza artificiale, LUISS University Press, Roma, 2023, p. 10).
Negli studi riguardo a questo snodo epocale manca, in genere, la comprensione esatta della ragione del timore esperito. O, perlomeno, non è mai del tutto chiara la ragione del perché guardiamo con sospetto le AI.
Forse, un valido motivo potrebbe essere la sensazione di estraneazione prodotta dall’interazione con l’AI, e segnatamente la strana impressione di avere a che fare con un’intelligenza apparentemente umana, ma mai esattamente tale. Semplificando, si potrebbe anche dire che l’esperienza con le AI è un po’ come guardarsi allo specchio. In altri termini, il problema non è tanto l’AI in quanto tale, ma, e sempre soltanto, chi crediamo di essere noi. In estrema sintesi, l’AI ci restituisce il riflesso distorto della nostra intelligenza; interagendo con l’AI ci specchiamo in simulacri della nostra intelligenza senza però ritrovare mai del tutto quest’ultima (L’intelligenza allo specchio, https://filosofiaenuovisentieri.com/2024/04/21/lintelligenza-allo-specchio/).
Non volendo, tuttavia, rassegnarci all’apparente incomprensibilità, vediamo un po’ come sia invece possibile comprendere le ragioni del nostro timore, e, dunque, come sia possibile, entro certi termini, recuperare parte del significato umano dell’esperienza presente.
Secondo Paolo Benanti, l’origine dello sviluppo tecnologico attuale va rintracciata nella cibernetica (Human in the Loop, p. 24), e segnatamente nella proposta di «una nuova visione del mondo attraverso la lente delle informazioni, dei canali di comunicazione e della loro organizzazione». In altri termini, la cibernetica ha consentito di colmare una lacuna storica, e segnatamente l’incapacità umana di correlare tra di loro tutti i dati presenti nella realtà. Per di più, l’analisi dei dati stessi consente agli esseri umani di colmare il modo attraverso cui interagire con le macchine. Adoperando dei feedback per correggere gli errori e raggiungere l’obiettivo, la cibernetica ha consentito di cominciare ad usare delle metafore informative per «descrivere i nostri processi decisionali» (Human in the Loop, p. 26). Nello specifico, abbiamo riscritto la «relazione uomo-macchina e la lettura del mondo che grazie alla macchina stessa siamo in grado di fare» (Human in the Loop, p. 26). Attraverso la cibernetica, insomma, le macchine sono diventate, per così dire, sapienti, ovvero degli artefatti che sembrano possedere «un fine proprio» (Human in the Loop, p. 27) e che però ci permettono «di fare nuove cose in maniera sempre più efficiente» (Human in the Loop, p. 27). Questa doppia natura ingenera in tutti noi, nel momento in cui entriamo in relazione con loro, il timore per «una sorta di rivale evolutivo della nostra specie» (Human in the Loop, p. 27).
Tuttavia, per comprendere appieno le ragioni di detto timore, è bene approfondire il discorso, allargando il focus dalla cibernetica alla terza rivoluzione industriale. Lo sviluppo dell’informatica, infatti, ha «prodotto una diffusa modellizzazione della realtà» (Human in the Loop, p. 33). In sintesi, il reale viene analizzato attraverso «modelli matematici di approssimazione affidati a programmi di calcolo» (Human in the Loop, pp. 33 – 4) che si affidano su computer sempre più potenti. E qui si verifica la prima inversione degna di nota. Infatti, la modellizzazione informatica della realtà non serve a conoscere la realtà, ma ad acquisire una sempre maggiore capacità di fare. In altri termini, è mutato il modo di studiare la realtà. Oggi conta la correlazione tra due quantità, e «non più una teoria coerente che spieghi tale correlazione» (Human in the Loop, p. 35). In pratica, avanza la tecnologia, ovvero la capacità di fare, ma non il correlativo sviluppo scientifico, e segnatamente la capacità di conoscere e spiegare. E qui ha luogo la seconda inversione degna di nota. La correlazione consente di predire con sufficiente accuratezza pur in assenza di una «teoria scientifica che lo supporti» (Human in the Loop, p. 36). Ma lo scostamento di predizione e teoria fa evaporare la dimensione prettamente umana del senso. Da qui lo smarrimento generalmente esperito dinnanzi agli artefatti dell’AI.
Questa sensazione è resa ancor più manifesta se prendiamo in esame l’esatto meccanismo di funzionamento di una sezione dell’AI, e segnatamente le reti neurali profonde. Queste ultime non seguono un insieme di regole predefinite, ma «vengono messe a contatto con un gran numero di dati umani (immagini, parole, suoni…) e in questo modo imparano a generare autonomamente altri dati che sono simili, ma mai identici, a quelli di partenza» (Barale, L’arte dell’Intelligenza Artificiale, p. 15). In altri termini, i sistemi di AI analizzano i nostri dati, individuano pattern e schemi di correlazione, e ne inferiscono un modello predittivo futuro. In maniera autonoma, cioè, l’AI “apprende” come intendere i rapporti tra le entità reali.
E giungiamo così al terzo ed ultimo snodo fondamentale. La cultura umana diviene così un avatar del modello statistico appreso dalle AI. Il punto, però, non è la bontà computazionale di questo ultimo, ma l’effetto finale su utenti umani che debbano farne uso, o per lavoro o per studio o anche solo per diletto. Come rammenta ancora Barale, infatti, «le parti della nostra cultura di cui la AI si appropria vengono però frammentate, rimescolate e rielaborate, sino a produrre rappresentazioni nuove, in cui l’essere umano in parte si riconosce e in parte si perde» (L’arte dell’Intelligenza Artificiale, p. 15). Via il particolare meccanismo di modellizzazione della realtà umana, la cultura degli esseri umani assume una natura composita, parzialmente umana e parzialmente incomprensibile. Oppure, lato fruitore finale, la rielaborazione artificiale della cultura umana diviene parzialmente riconoscibile e parzialmente estranea. Di conseguenza, i prodotti finali dell’AI saranno per metà riconosciuti come umani e per metà di origine ignota. E questo rende conto della sensazione di alienazione o di rappresentazioni surreali esperita ogniqualvolta si fruisca dell’AI: in parte risulta umana, e in parte no. Di conseguenza, viene meno il rispecchiamento umano nell’AI. Con chi stiamo interagendo? E chi interagisce, è una singolarità oppure una combinazione statistica di risposta automatica che simuli intelligenza?
Veniamo, dunque, alla parte più propositiva, dopo aver smontato l’effetto distorsivo dell’AI nella percezione umana.
La questione emergente del senso, comunque, non va sottovalutata, dal momento che rimane all’utente umano il compito di «capire che tipo di conoscenza stiamo generando» (Human in the Loop, p. 36). Se ciò non viene fatto, si rimane “abbagliati”. L’analogia con una delle tipiche manifestazioni dell’AI non tragga in inganno, è voluta. Infatti, potrebbe accadere che, presi dalla potenza e dalla velocità dell’AI, potremmo ingenuamente credere che l’AI costruisca anche il senso della conoscenza. Invece, le cose non stanno così. Questo aspetto è ben espresso da Benanti il quale diagnostica la patologia attuale, e segnatamente «il macroscopio, la macchina correlativa che trova schemi nei dati, è lo strumento che cambia le nostre credenze sulla realtà» (Human in the Loop, p. 37). Ma lo strumento conosce la realtà, non la comprende. Credere che lo faccia, significa consegnarsi ad una macchina la quale, benché straordinariamente complessa ed efficiente, resta una macchina, cioè qualcosa di non umano. Di conseguenza, aspettandosi una conoscenza della realtà dalle macchine, si rimane spaesati davanti ai responsi di queste ultime. Correlare i dati non equivale a comprendere la realtà. E la comprensione porta significati, ossia una trama di relazione reale tra soggetti, oggetti e fini.
La sfida odierna, dunque, non sta nel comprendere come funzioni l’AI, ma nel comprendere il senso dei suoi responsi, e segnatamente la relazione finale tra noi, l’AI, gli oggetti reali e gli scopi possibili. E questo perché è nella relazione che si gioca la dimensione stessa del significato.
Senza significato, potremmo rimanere abbagliati nella rete statistica, e vagamente surreale, delle AI.
Per concludere, non temiamo l’AI, ma lo smarrimento di senso. Solo che la sua perdita non è colpa dell’AI, ma solo nostra, ovvero della nostra insostituibile ed umana, troppo umana, pigrizia di distinguere, agendo di conseguenza, tra conoscenza e rappresentazione della conoscenza, ovvero tra strumento e significato.
Immagine prodotta dall’AI
(L’autorizzazione alla pubblicazione è visionabile nella chat apposita https://chatgpt.com/share/679bd9ad-daf0-8011-b9c5-997380dca3b4)
Referenze
- Barale, L’arte dell’Intelligenza Artificiale: parole-chiave filosofiche, Jaca Book, Milano, 2025.
- Benanti, Human in the Loop. Decisioni umane e intelligenze artificiali, Mondadori, Milano, 2022.
- C. Carrozza, Prefazione, a:A. Prencipe – M. Sideri, Il visconte cibernetico. Italo Calvino e il sogno dell’intelligenza artificiale, LUISS University Press, Roma, 2023, p. 10.
- Pizzo, L’intelligenza allo specchio, “Filosofia e nuovi sentieri/ISSN 2282-5711”, 21 Aprile 2024, https://filosofiaenuovisentieri.com/2024/04/21/lintelligenza-allo-specchio/
Devi fare login per commentare
Accedi