In merito alla parola macchinica, il famoso pappagallo stocastico in grado di generare statisticamente il linguaggio ma di non comprenderlo – almeno per ora -, ci vuole chiarire il sistema di funzionamento, le eventuali limitazioni, errori e le integrazioni possibili ad essi?
Tecnicamente, il dispositivo che istanzia un “modello linguistico su larga scala” (LLM o large language model) è un assemblaggio socio-tecnico generativo fatto di abilità diverse connesse a molteplici architetture computazionali e risorse informative.
Un LLM è un sequenziatore linguistico-probabilistico a bassa crossentropicità. Dunque, ridotto ai suoi minimi termini, è un modello matematico della distribuzione di probabilità delle parole di una lingua scritta che si sforza di minimizzare la crossentropia (cioè lo scarto tra due potenziali distribuzioni di frequenza) massimizzando, di conseguenza, la sua capacità performativa come text predictor.
Dopo le calcolatrici (deterministiche dei numeri), abbiamo creato la calcolatrice (probabilistica) delle parole. I successi raggiunti dai LLM nelle competenze formali-sintattiche del linguaggio non devono trarci in inganno rispetto alle seconde quelle funzionali-semantiche che, ad oggi, rimangono lontane da quelle umane.
Ad oggi, è un linguaggio sintetico che non ha relazione col mondo e col senso del mondo, anche se si sta immaginando di integrare capacità di memoria, pianificazione, ragionamento, azione (LLM, LVM, LMM, LAM) che espandono il suo solipsismo linguistico. Rimangono, certamente, limiti e criticità non poco significative (dalla verità alla sicurezza) come i fenomeni di allucinazione (risposte non corrette inventate), ipnotizzazione (aggiramento delle restrizioni etiche), contaminazione (iniezione di dati falsi o criminogeni). Ma indubbiamente questo processamento macchinico del linguaggio e della parola (neural NLP) rappresenta un momento di passaggio di civiltà.
Se il pappagallo stocastico non è in grado di capire ciò che dice, alcuni filosofi come Barthes e Foucault ci ammoniscono che ci accingiamo a una grande trasformazione del modo di parlare determinata dalla morte dell’autore, per Gunkel siamo alla fine dell’autorialità per come da noi conosciuta. In che consiste questo passaggio decostruttivo, e quale potrà essere il suo approdo? È necessario decostruire l’autore, il soggetto umano, per integrare la macchina nel nostro mondo?
Sostenere -come fanno alcuni- a proposito dei LLM che si tratta di meri pappagalli stocastici significa non comprendere la portata culturale epocale di questo passaggio alla “parola non-umana”.
La prerogativa storica della parola (simulata) ai soli umani mostra segni di cedimento. Passaggio che la teoria letteraria e la filosofia continentale avevano anticipato. In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore? chi può parlare?).
Passaggio che la teoria letteraria e la filosofia continentale hanno anticipato. Ad esempio, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e sulla “funzione-autore” con Foucault (Qu’est-ce qu’un auteur?). ‘Cosa importa chi parla?’ scriveva Foucault in chiusura del suo testo intendendo così porre l’attenzione sulle dimensioni politiche della storicità della funzione-autore e della funzione-soggetto.
E quindi, direi, sul perché ci importa chi parla e sul come ci importa chi parla (o scrive). Ora queste questioni entrano direttamente nel dibattito politico e sociale (e economico) intorno alle “macchine” che scrivono e parlano (verità, responsabilità, creatività, produttività). Non una questione tecnica, allora, come si comprende, ma politica e antropologica. Come (a che condizioni), perché (a quali scopi) e chi o cosa (quale soggettività/soggettivazione) potrà parlare e scrivere in futuro? La parola (e la scrittura) alla macchina è dunque anche e soprattutto una provocazione di senso alla nostra idea di umano.
Ne La Potenza della Latenza (2023), illustra l’interessante dinamica della generazione dell’immagine sintetica. Vuole spiegarci i passaggi, in particolare in merito alla scomposizione e ricomposizione dell’immagine, la componente del rumore gaussiano, la trasformazione dei token linguistici in pixel grafici?
Storicamente, attraverso una serie di discontinuità ontologiche, quello che chiamiamo “immagine” è stato prima ri-rappresentato con produzioni, strutture e interfacce digitali e poi, infine, da ultimo proprio ri-creato attraverso l’impiego di reti neurali artificiali profonde.
Un’immagine (interpretata dalla macchina come trasposizione numerica che è poi il “suo” modo di “vedere” il mondo) viene corrotta e degradata progressivamente iniettando del rumore gaussiano. L’iniezione diffusiva di rumore nei dati dell’immagine continua fino alla distruzione totale della stessa che diviene, a quel punto, interamente rumore (processo di forward diffusion).
Una volta terminata questa diffusione degradativa dell’immagine scomposta in pixel caotizzati, la tecnica generativa capovolge il processo addestrando invece una rete neurale artificiale a ricreare l’immagine (processo di reverse diffusion).
La potenza inflattiva dell’immagine sintetica deriva da questa capacità macchinica di scandagliare e valorizzare lo spazio latente del dato osservato, ma invisibile all’umano. Lo spazio latente è lo spazio che ospita e mappa tutte le dimensioni (features) possibili dei dati in input. Se l’immagine ‘latente’ in un processo meccanicamente fotografico era prodotta chimicamente, l’immagine ‘latente’ in un processo artificialmente generativo è prodotta algoritmicamente.
Così, il modello visuale (LVM) non si limita più a classificare immagini date assegnandole ad una categoria (classifier), ma dato un input genera (generator) proprio una nuova immagine.
Valorizzazione dello spazio latente nella generazione di immagini, immagini non più rappresentative ma operative, che concretizzano una realtà, produzione della realtà dal caos (chaos engineering) e catastrofe crossentropica (stato allucinatorio della AI), e tanto altro ancora, sembra da questi termini e dai processi sottostanti che più che di tecnologia si tratti di magia, o metafisica, con programmatori e macchine che plasmano, generano, creano la realtà come dei demiurghi a partire dal caos e dalla materia informe. È forzata una tale interpretazione, o la nuova filosofia di cui si ha bisogno deve prevedere anche questo piano di realtà?
Le tecnologie digitali, sintetiche, artificiali e virtuali stanno terraformando un nuovo pianeta, il Pianeta Terra Digitale. Sono un nuovo modo di essere (abitato) del nostro mondo. L’ho scritto chiaramente nell’ultimo saggio breve “The Latent Planet” in pubblicazione a inizio 2024.
È in atto una nuova ontogenesi del mondo e insieme una riscrittura delle categorie filosofiche e metafisiche. Pensiamo agli sforzi attuali di discriminare e certificare, allora, l’umano dalla macchina, il vero dal falso, l’originale dalla copia, il fatto dal contraffatto. Il nuovo “vero” si instanzia come processo-evento di uno stack di protocolli e primitive che presiedono, nella forma di nuovi assemblaggi umani-macchine, alla produzione, circolazione e conservazione della “verità” del mondo.
È in accelerazione, dunque, lo sviluppo di soluzioni informatiche varie tra watermarking, fingerprinting e molto altro. Per questa provocazione di senso che è l’AI occorrerà avviarsi all’innovazione culturale. Quella per cui, forse, ad esempio, sono e saranno le macchine (i nuovi assemblaggi umano-macchinici) a discriminare il vero dal falso e non il nostro sensorium? Dai server di posta elettronica che separano le email dallo spam e dai data center bancari che distinguono accessi legittimi da accessi fraudolenti alle architetture che certificheranno notizie vere da fake news?
Per il futuro, la questione politica e ingegneristica (e filosofica ovviamente) della produzione sociotecnica delle condizioni della sua possibilità (condizioni di esistenza, di esperienza, di intelligenza) rimane aperta e urgente.
Invece tornando più nel pratico, lei parla di una nuova economia sintetica. Ci vuole definire questo nuovo scenario possibile del mondo economico e del lavoro, e qual è la funzione degli agenti (autonomi) di tale trasformazione?
Questa fase contemporanea di competizione strategica e di business experimentation abilitata dall’automazione ha caratteristiche nuove e distintive al punto che è stata anche riqualificata come “iperautomazione”.
Io la chiamo “economia della macchina” (machine economy) o anche automazione delle 3M (mani, menti, mercati). Per questo si vengono anche moltiplicando e diffondendo, sia pur con declinazioni varie, ma prossime di senso, espressioni come agent economy, autonomous economy, artificial economy.
Si automatizza la forza fisica, la capacità cognitiva, la relazione mercantile scardinando con radicalità forme organizzative classiche, antiche divisioni del lavoro e pratiche produttive consolidate. È il caso degli agenti artificiali autonomi. Dato un determinato obiettivo, un agente autonomo definisce i compiti iniziali attingendo anche alla sua memoria (corta e lunga) e creando in autonomia sottotask/goal, li mette in esecuzione evocando strumenti e risorse necessari e ne raccoglie i primi feedback, sulla scorta di questi genera nuovi compiti mettendoli in scala di priorità selettivamente per poi continuare a iterare il processo, per cicli migliorativi, fino al conseguimento finale dell’obiettivo.
Dopo il successo nell’individuazione della sequenza di parole (modelli linguistici su larga scala) siamo passati ora all’individuazione della sequenza delle azioni (agenti pianificanti step-by-step). Possono essere disincarnati come i modelli linguistici oppure incarnati dentro un corpo robotico dando vita ai LAM (Large Action Model).
Ci apprestiamo quindi a una nuova era mediale, tanto seducente quanto rischiosa, che ha tratti del veleno quanto del farmaco, rovina e rimedio (cit. Machiavelli), lei mi pare che pone come parametro decisivo, al di là delle problematiche etiche, giuridiche, politiche, ecc., l’aspetto della tollerabilità da parte dell’umano di ciò. O ci sono altri rischi, problematiche, o possibili catastrofi dovute a questa nuova era?
L’AI non è rischio esistenziale, ma provocazione di senso. Noi non affronteremo solo problemi tecnici (con vulnerabilità e rischi reali di discriminazioni, manipolazioni, deprivazioni, polarizzazioni, alienazioni, contraffazioni). Piuttosto e più radicalmente noi fronteggeremo delle provocazioni intellettuali.
A partire da quella primaria sulla natura dell’umano (chi siamo? o meglio, chi diveniamo?) declinata poi in molte altre domande di senso e di scopo: può esistere una scrittura formalizzata senza l’autore come accade per i modelli linguistici su larga scala? e una fotografia realistica senza il referente come avviene per le immagini sintetiche? e un’autonomia decisionale senza l’umano come immaginata dagli agenti artificiali?
Questi non sono solo problemi, sono provocazioni. E se ai problemi tecnici lavoreremo, nel tempo e a tentativi, per trovare una soluzione ingegneristica di qualche tipo (informatica, legale, istituzionale, etica), alle provocazioni intellettuali dovremo invece rispondere, di necessità, con l’innovazione culturale. Non saranno sufficienti educazione digitale, consapevolezza intellettuale, guida etica e regolazione giuridica. Avremo bisogno anche e soprattutto di (fare) innovazione culturale.
A questo compito più alto siamo chiamati: alla produzione di nuovo senso e di nuovi significati per questo nostro nuovo abitare terrestre. Human-in-the-loop si dice, ancora troppo ingenuamente. Ci si dimentica di dire, però, che l’umano non sarà più quello di una volta e che il loop in cui sarà preso cambierà radicalmente e planetariamente.
Roberto Siconolfi, classe ’83, campano, sociologo, saggista, mediologo. Uno dei suoi campi principali di ricerca è il mondo dei media, in tutti i suoi aspetti, da quello tecnico a quello storico e antropologico, fino a giungere al piano “sottile”, “magico”, “esoterico”.
Come possiamo aiutarti?
Costruisci un’impresa resiliente reinventando le funzioni aziendali per supportare l’innovazione agile e modi migliori per soddisfare le mutevoli esigenze dei tuoi dipendenti e dei tuoi clienti. Consenti esperienze fluide, personalizzate e intuitive. Vuoi saperne di più?