Il confronto tra la traiettoria generativa del senso e i modelli di intelligenza artificiale contemporanei impone una precisazione terminologica: il termine “generativo” non può essere assunto in modo univoco. Marion Colas-Blaise mette in risalto il fatto che i modelli algoritmici di deep learning, pur producendo testi e immagini, “non sono generativi nel senso inteso dai semiotici”. La divergenza non è marginale, ma riguarda il modo stesso in cui si concepisce la produzione del senso.
Nel quadro greimasiano, la generatività è inseparabile da una struttura teorica rigorosa. La traiettoria generativa organizza il passaggio da un livello fondamentale, in cui si articolano le categorie semantiche elementari, a livelli progressivamente più concreti, fino alle strutture discorsive. Questo movimento implica una serie di trasformazioni che non si limitano a riorganizzare dati, ma producono un vero e proprio incremento di senso. Come viene sottolineato, “each new articulation is an enrichment or increase in meaning”: ogni livello non replica il precedente, ma lo arricchisce.
Un aspetto essenziale di questa concezione è l’integrazione tra sintassi e semantica. Nella traiettoria generativa, i valori semantici e le relazioni sintattiche sono sempre co-presenti e strutturalmente interdipendenti. Le relazioni di contrarietà e contraddizione, formalizzate nel quadrato semiotico, costituiscono il fondamento di questa organizzazione: il senso emerge da opposizioni strutturate e da trasformazioni che traducono tali opposizioni nei livelli successivi.
Quando si osservano i modelli di intelligenza artificiale, la situazione appare radicalmente diversa. I sistemi come ChatGPT o DALL·E operano attraverso spazi vettoriali in cui il significato è il risultato di correlazioni statistiche. In questo contesto, la somiglianza semantica viene tradotta in prossimità geometrica: “semantic similarity corresponds to geometric proximity”. Il senso non è organizzato attraverso opposizioni logiche, ma emerge da configurazioni topologiche all’interno di uno spazio continuo.
Questa differenza implica una trasformazione profonda del concetto di struttura. Le categorie non derivano da un sistema di relazioni come contrarietà e contraddizione, ma da aggregazioni statistiche, da cluster che raggruppano elementi simili. Ne consegue che il modello algoritmico non costruisce un sistema di valori nel senso semiotico, ma produce configurazioni plausibili sulla base di regolarità distribuzionali.
La divergenza si manifesta anche nella nozione di livello. Nella semiotica greimasiana, i livelli sono gerarchici e implicano un passaggio dal profondo alla superficie, accompagnato da una progressiva complessificazione del senso. Nei modelli neurali, invece, si parla di layers, cioè di strati di elaborazione che trasformano i dati in rappresentazioni sempre più astratte. Come osserva Colas-Blaise, “each layer changes the representation”, ma queste trasformazioni non corrispondono a una gerarchia semantica nel senso greimasiano.
Inoltre, nei sistemi di intelligenza artificiale, le componenti sintattiche e quelle semantiche risultano distribuite e intrecciate, piuttosto che integrate in ogni livello secondo un principio strutturale. Si tratta di un gradiente di astrazione, non di una successione di livelli dotati di una funzione specifica nella costruzione del senso.
Un ulteriore elemento di distinzione riguarda la prospettiva epistemologica. La traiettoria generativa è un modello analitico che interviene a posteriori: essa permette al semiologo di ricostruire le condizioni di produzione del senso. Nei modelli di intelligenza artificiale, al contrario, si osserva direttamente il processo di generazione degli output, senza che questo implichi una teoria del senso. Colas-Blaise distingue così una prospettiva “esterna”, propria dell’analisi semiotica, e una prospettiva “interna”, propria dei processi algoritmici.
Ne deriva che la generatività semiotica e quella algoritmica appartengono a due ordini distinti. Nel primo caso, si tratta di un modello di intelligibilità che rende conto delle strutture del senso; nel secondo, di un insieme di procedure tecniche che producono artefatti senza fondarsi su un sistema semantico esplicito.
L’uso dello stesso termine per designare entrambi i processi rischia quindi di essere fuorviante. Se è possibile individuare operazioni comuni, come la segmentazione e la combinazione degli elementi, queste analogie non devono oscurare le differenze strutturali. La generatività, in senso greimasiano, implica un’organizzazione del senso orientata da valori, opposizioni e trasformazioni; nei modelli di intelligenza artificiale, essa si riduce a una dinamica probabilistica che produce configurazioni senza costituire un sistema semantico.
La conclusione che si impone è dunque una presa di distanza: l’intelligenza artificiale può essere detta “generativa” solo in un senso tecnico e operativo, ma non nel senso teorico proprio della semiotica. L’apparente convergenza lessicale nasconde, in realtà, una divergenza epistemologica radicale.
Riferimento bibliografico: Marion Colas-Blaise, From the Greimasian generative trajectory to generative artificial intelligence: Rethinking the status of the human, in Punctum. International Journal of Semiotics, vol. 12, n. 2, Winter 2025, pp. 69–96.
