Parlare saggiamente: le implicazioni nell’essere umano e nell’A.I.


L’avvento di ChatGPT, il potente modello di linguaggio basato sull’A.I. (NDR:l’intelligenza artificiale), sviluppato da OpenAI e utilizzato per la generazione automatica del testo, rischia di stravolgere il mondo così come lo conosciamo. Se usato con saggezza e responsabilità, da questo strumento possiamo comunque aspettarci incredibili progressi nell’intelligenza artificiale che potrebbero andare a beneficio di tutti. Prepariamoci a cambiare, a reinventarci e a evolvere: in definitiva, questa è in definitiva la lezione.


Potrà sembrare strano ma uno speciale spazio di esercizio della saggezza è costituito dal nostro linguaggio. Ciò non si riferisce solo alla comunicazione, ma coinvolge anche la nostra comprensione, nella misura in cui noi comprendiamo in ragione della nostra capacità di attenzione e di ascolto, la quale, a sua volta, è direttamente connessa alla nostra capacità di moderarci nel parlare e di fare silenzio. Si pone in tal modo tutta una questione di equilibri psicodinamici assai precari, laddove l’obiettivo è quello di mantenere una certa stabilità in termini di umore, emozioni e sentimenti. Ovvero reagire psicologicamente con una certa moderazione agli stimoli esterni. E tutto quanto sta diventando sempre più una sfida dal punto di vista neurologico e psicologico, visto l’effetto di strumenti digitali e tecnologici, quali ad esempio anche il Metaverso, che permettono di realizzare simulazioni, di viaggiare e orientarsi, di reperire informazioni da fonti diverse e di confrontarle tra loro, di scrivere … con il risultato di poter con grande facilità fare deragliare o ulteriormente motivare un soggetto.
In questi termini, uno dei temi più accesi dell’attuale dibattito è ChatGPT (Chat Generative Pre-trained Transformer, che può essere tradotto dall’inglese come “trasformatore pre-istruito generatore di conversazioni”), un prototipo di chatbot basato su intelligenza artificiale e machine learning (apprendimento automatico) sviluppato da OpenAI. Quest’ultima, formalmente un’organizzazione a scopo di lucro di ricerca sull’intelligenza artificiale, è volta a promuovere e sviluppare un’intelligenza artificiale amichevole in modo che l’umanità possa trarne beneficio.
Un simile nuova irruzione dell’intelligenza artificiale (AI) nella nostra vita quotidiana si configura nella possibilità di conversazione con l’utente umano, non senza suscitare ampi timori, peraltro già emersi dal 2016, quando questa tecnologia cominciò a diventare molto popolare. Il tema spinoso: ci sostituirà come forza lavoro?
E in tal caso, non tanto per lavori manuali come si temeva con l’avvento dei robot, ma per compiti intellettuali? Ma non è solo questo l’elemento di preoccupazione. Vi sono altri aspetti di natura etica che ci interpellano. Aldilà, di implicazioni strettamente legate all’uso e all’abuso di Chat GPT, con maggiore facilità riducibili alla necessità da parte nostra di un suo uso accompagnato saggezza, la corrente speculazione in ambito accademico e scientifico si indirizza sui i limiti entro i quali la macchina possa emulare nel pensiero comportamenti umani, replicandone virtù e difetti, modulando tra questi, in base a modelli imposti di fabbrica fino a logiche auto apprese o all’estremo di forme di pseudo libero arbitrio. Ci sostituirà nella coscienza?
Sul piano ontologico, non è ancora chiaro se si possa concepire o meno addirittura una certa saggezza da parte dello strumento. Ma se lo fosse, entrerebbe ineluttabilmente in crisi buona parte del genere umano, ossia quella destinata, ineluttabilmente e per marchio di fabbrica, ad essere peggiore della macchina. L’eventualità sarebbe non sarebbe tuttavia in antitesi alle ipotesi di certa letteratura distopica, nella misura in cui un ridimensionamento, anche forzato, delle “mele bacate” non costituirebbe probabilmente un futuro deleterio sotto diversi punti di vista?
E, volendo approfondire implicazioni morali inerenti all’uso del linguaggio, qui entrano in gioco termini pratici di giudizio ampiamente assodati rispetto ad una porzione di umanità, della quale si vorrebbe volentieri fare a meno per un semplice motivo: chi parla sempre molto è destinato a capire poco. Chi non chiude mai la bocca non apre mai la mente.
Che il: «Il vostro parlare sia sì, sì; no, no: il di più viene dal maligno», dal Vangelo secondo Matteo (Mt 5, 17-37), sia un monito indirizzato all’uomo è un dato incontrovertibile; la stessa frase però, debitamente riformulata in codice binario, pare altrettanto essere il criterio informatore di macchina costruita per utilizzare un linguaggio da subalterno, «signorsì, signornò». Da qui, la supposizione che la macchina sia per ora scevra dal vizio tutto umano del parlare troppo e a vanvera può reggere nella misura in cui chi l’ha programmata ne sia a sua volta privo.
In questo senso, ChatGPT-3 non è attualmente autonomo, essendo un sistema di apprendimento, per tentativi ed errori, che gli umani correggono man mano che procedono nello sviluppo. Di per sé, ChatGPT-3 non ha quindi una visione neutra del mondo. Perché gli umani che lo sovrintendono sono principalmente i progettisti e gli ingegneri di OpenAI. E dietro di essi gli investitori di PayPal, LinkedIn e Facebook, come Peter Thiel (creatore anche di Palantir) o Elon Musk (che non ha bisogno di presentazioni).
Nonostante tutte le riserve del caso, ChatGPT assomiglia lo stesso un po’ a certi maestri della storia, forse meglio a certi santoni che difficilmente parlano per primi e quando i loro discepoli li interrogano sui vari aspetti dello scibile, amano piuttosto ricercare analogie dal mondo naturale e familiare per farsi sempre capire e non scoraggiarli.
Una logica suadente e perfida alligna in questa immediatezza comunicativa, in questa ampiezza della conoscenza, da cui insegnanti, avvocati, giornalisti… possono sentirsi minacciati? Non rischiamo di cadere nella trappola del fascino delle macchine, che sono state a lungo soltanto un’estensione delle attività umane? Va venuto, innanzi tutto, tenuto in conto che determinati scenari di attuazione tecnologica sono irti di incognite e, perciò, hanno bisogno di essere provati e riprovati, per verificarne non solo l’efficacia, ma soprattutto la bontà e l’utilità del loro operato. In positivo, va detto che la sperimentazione è utile anche per rompere indugi e dogmi cristallizzati da parte individuale e sociale.
Se dire che il linguaggio umano deve essere all’insegna del sì e del no significa ricondurlo alla realtà, al primato delle cose rispetto al linguaggio che le nomina, al primato dei significati autentici rispetto alle parole, nel caso dell’intelligenza occorre fare i conti, a partire dal codice binario che sta a premessa di tutto, con la base dei dati e con la sintassi del linguaggio di programmazione, questi ultimi elementi conferiti in dote iniziale, espandibile e modificate, dall’uomo, almeno per ora.
Dovendosi così garantire un comportamento etico della macchina, vale a dire integrare tutele in termini di disinformazione, ideologie estreme o presumibili forme di manipolazione, nel caso di ChatGPT i succitati progettisti hanno programmato una censura basata sui propri valori, applicando sostanzialmente i criteri praticati dal Gafam (Google, Amazon, Facebook, Apple, Microsoft). Ne viene una tecnologia che racchiude gli standard e la visione del mondo di questi grandi marchi dei Social Media. In definitiva, la prospettiva imposta è di tipo occidentale, libertario, progressista e fortemente convinta che l’intelligenza artificiale aumenterà in termini di importanza. Sostituendo anche quella umana?
Questo è il rischio intrinseco, che ci riporta alla differenza tra una coscienza ascritta ed una acquisita, a quella fra l’essere autonomi ed eteronomi, eterodiretti, al caso morale di porsi nell’atteggiamento non mentire mai, laddove il verbo mentire è da intendersi nel senso etimologico che lo fa derivare da mente e così allude al lavorio della mente che distoglie dall’aderire alla situazione reale di ciò che è. Ed è proprio qui il vulnus, la macchina non è altro che un super cervello che macina dati?
Sussiste, inoltre, il delicato tema delle eventuali influenze della tecnologia digitale sulle questioni geopolitiche, nel momento in cui gli Stati Uniti sono particolarmente impegnati in una lotta di potere con la Cina a tutti i livelli. I cinesi la definiscono “concorrenza strategica”. E l’intelligenza artificiale è al centro di questa perversa competizione – del resto la Cina punta a diventare la prima potenza mondiale in questo campo –, soprattutto per i suoi usi militari.
Ecco una rivalità che si dispiega essenzialmente dal lato dello spionaggio e del controspionaggio, della propaganda e della contropropaganda, campi nei quali il precetto morale di “non mentire mai” viene evidentemente e volutamente estromesso dal programmatore dalle azioni operate dalla macchina nei confronti dell’avversario. Qui la macchina deve saper davvero mentire, cioè affermare qualcosa che non c’è (simulare), negare qualcosa che c’è (dissimulare) e anche alterare, aggiungere o togliere dettagli e sfumature inesistenti.
Benvenuti dunque i progressi tecnologici, ma occorre comprendere i limiti di questo tipo di sistemi. Nondimeno, come nel giudizio verso gli umani, sostenere che il linguaggio deve essere «sì sì, no no» e che «II dì più viene dal maligno» comporta un atteggiamento riverente verso la realtà, situandosi all’estremo opposto rispetto al detto di Nietzsche secondo cui «i fatti non esistono. esistono solo interpretazioni», un detto che esalta il dì più rispetto alla realtà riconosciuta dicendo «sì sì, no no». Un di più che nel caso della macchina sta di conseguenza tutto nelle regole cognitive impostate dal programmatore.
Nel tempo in cui due superpotenze si affrontano nello sviluppare armi autonome che incorporino un alto livello di intelligenza artificiale, cioè che siano in grado di prendere decisioni di vita o di morte senza che ci sia l’intervento umano, non deve pertanto sorprendere che si possa determinare paradossalmente nella macchina stessa l’esaltazione del nietzschiano “Umano, troppo umano”, ossia il fingere per convenzione, mistificare la realtà, cedere al proprio egoismo, anche quando risulta chiaro che l’altruismo e la nobiltà d’animo siano in grado di aprire migliori prospettive, anche e soprattutto per sé stessi.
Abbiamo, soprattutto, informazioni inerenti agli sviluppi in campo occidentale, secondo i quali pare che Sam Altman, il capo di OpenAI, sia entusiasta all’idea di mettere la sua tecnologia al servizio degli usi militari e dello spionaggio portati avanti dal Pentagono. In particolare, per contrastare Google, che opera in Cina… I due Paesi stanno comunque predisponendo, grazie e attraverso le nuove tecnologie, le guerre di domani.
Forse è presto per trarre conclusioni definitive. Con gli strumenti – ahimè risicati – di cui dispone, l’opinione pubblica mondiale dovrebbe a maggior ragione vigilare sugli sviluppi di utilizzo dell’intelligenza artificiale. L’innovazione va veloce e sfruttarla per ottenere vantaggi è sicuramente un ottimo esercizio di saggezza e lungimiranza. Un esercizio nel quale essere ben consci che in questa prospettiva il linguaggio autentico è quello da cui traspare il primato dei fatti, sapendo che di essi esistono interpretazioni vere e interpretazioni false. Interpretazioni che cioè consentono ai fatti di emergere nella loro luce e nella loro portata, e così assolvere l’innocente e condannare il colpevole, o che, invece, offuscano, annebbiano, adulterano, finendo per esempio con lo stabilire che tutti sono colpevoli e tutti sono innocenti, senza che la vittima (che invece purtroppo esiste) abbia mai il legittimo risarcimento e il colpevole la meritata punizione.
Per fortuna, nella sfera politica e amministrativa si tende piuttosto spesso alla prudenza e quasi sempre ad aspettare regole e linee guida, prima di lanciarsi in voli pindarici. Ma poi ci sono gli impazienti, gli ansiosi, gli entusiasti, quelli che vogliono stupire e mostrare da subito le opportunità offerte dal progresso, oltre che gli inesorabili e fatali incidenti di percorso. Ecco, in chiaroscuro e sintesi, il quadro e le prospettive dell’intelligenza artificiale.