Per affrontare il tema dell’intelligenza artificiale come produttrice di contenuti dotati di significato, Massimo Leone propone di analizzare non solo la simulazione dei segni espressivi, ma anche la riproduzione inorganica del contenuto. In particolare, è necessario distinguere tra la mera simulazione dell’intelligenza e l’effettiva produzione di comportamenti intelligenti.
L’intelligenza artificiale, osserva Leone, è percepita come tale quando produce contenuti che vanno oltre il calcolo analitico. Una calcolatrice, pur generando risultati nuovi da dati noti, difficilmente verrebbe qualificata come “intelligente”. Il comportamento intelligente deve risultare sintetico, non soltanto analitico. Per chiarire questa distinzione, Leone ricorre ai concetti di Charles S. Peirce: «una macchina produce un comportamento che può essere qualificato come intelligente se coinvolge non solo la deduzione e l’induzione, ma anche l’abduzione».
L’abduzione, forma di inferenza ipotetica, consente alla macchina di operare in modo creativo. Ma è proprio questa creatività a sollevare interrogativi: l’intelligenza artificiale è davvero creativa? Leone suggerisce che, per rispondere, sia necessario definire con chiarezza che cos’è l’intelligenza, quali tipi esistano e in che modo questi generino creatività.
Uno dei metodi principali attraverso cui l’intelligenza artificiale produce contenuti oggi è il riconoscimento di pattern nei big data. Essa è in grado di individuare configurazioni non immediatamente percepibili dagli esseri umani a causa della mole di informazioni processate. Questo spostamento di scala ha modificato la natura stessa dell’intelligenza computazionale.
Leone rievoca due episodi emblematici. Il primo riguarda il campione mondiale di scacchi Garry Kasparov: negli anni Ottanta riteneva impossibile essere sconfitto da una macchina. Nel 1989 vinse contro Deep Thought, ma nel 1997 fu battuto da Deep Blue, il cui gioco “istintivo” e apparentemente creativo suscitò scalpore. Il secondo caso è quello del gioco del Go, storicamente considerato il più difficile da padroneggiare per un’IA. Il programma AlphaGo, sviluppato da Silver et al. (2016), ha introdotto una strategia basata su “reti di valore” e “reti di politica”, addestrate sia su partite umane sia tramite auto-apprendimento. Il risultato: una percentuale di vittorie del 99,8% e la sconfitta dei migliori giocatori umani.
Leone osserva che in passato l’intelligenza delle macchine era di tipo essenzialmente computazionale; oggi, «la quantità sta diventando qualità». Le prestazioni dell’IA non si limitano più a eseguire istruzioni, ma mostrano capacità creative, difficilmente distinguibili da quelle umane. La semiotica, allora, è chiamata a indagare non solo i prodotti dell’IA, ma anche la natura stessa della sua creatività.
Riferimento bibliografico: Massimo Leone, I compiti principali di una semiotica dell’intelligenza artificiale, 2022