L’AI raccontata come favola: quando il design dell’immaginario sostituisce il dibattito
C’è un errore che chi progetta conosce bene: confondere l’interfaccia con il sistema.
È esattamente ciò che sta accadendo oggi con l’intelligenza artificiale.
La scena di Sam Altman da Jimmy Fallon non è un episodio ingenuo di comunicazione pop. È design narrativo allo stato puro. Luci soffuse, tono confidenziale, il CEO che parla da padre, non da decisore globale. L’AI entra in casa non come infrastruttura di potere, ma come supporto emotivo. Non come sistema, ma come relazione.
Non è un caso.
È una strategia.
L’emotività come scorciatoia cognitiva
La narrazione contemporanea sull’AI non punta alla comprensione, ma all’adesione.
Affezione con Altman.
Paura con Musk.
Sicurezza con Palantir.
Tre registri emotivi diversi, un unico obiettivo: evitare che il pubblico attivi l’intelletto critico.
Perché l’intelletto costa fatica.
E il mondo è diventato troppo complesso per essere affrontato senza scorciatoie.
Il nostro organismo, per sopravvivere, cerca la via più facile. Delegare. Fidarsi. Accettare ciò che appare plausibile. È qui che la narrazione di parte diventa uno strumento di governo: non mente apertamente, seleziona. Non impone, normalizza.
Black box, non strumenti neutri
Nel mondo del design sappiamo che ogni strumento incorpora una visione del mondo. L’AI non fa eccezione, ma viene raccontata come se fosse neutra, inevitabile, naturale.
Non lo è.
Le piattaforme di Intelligenza Artificiale generativa o che fanno uso di IA sono scatole nere di proprietà privata, progettate, addestrate e controllate da un numero ristrettissimo di aziende. Non rispondono a criteri di verità, ma a obiettivi di ottimizzazione: profitto, controllo, previsione del comportamento.
E soprattutto: dual-use.
Ogni tecnologia che oggi ci viene venduta come assistente creativo, domani può essere (e spesso è già) strumento di sorveglianza, controllo sociale, selezione automatica, decisione militare. Storicamente è sempre stato così: prima nasce per scopi militari o di sicurezza, poi viene addolcita e adattata all’uso civile.
Ordine e controllo precedono quasi sempre la verità.
Altman, Musk, Palantir: tre maschere dello stesso potere
Altman usa l’empatia.
Musk usa l’apocalisse.
Il CEO di Palantir usa la paura e la promessa di protezione.
Tre storytelling diversi, ma complementari. Tutti evitano la stessa cosa: una discussione adulta sul potere.
- Chi decide cosa un modello può o non può dire?
- Chi controlla i dataset?
- Chi governa l’infrastruttura?
- Chi beneficia realmente dell’automazione?
- Chi viene escluso, sorvegliato, classificato?
Queste domande non vanno in onda nei talk show. Non funzionano con il marketing. Non generano affezione. Ma sono le uniche che contano.
Il problema non è solo la tecnologia dell’AI. È la delega.
Non è vero che non c’è nulla di male nella tecnologia, bisogna vedere per quali scopi e obiettivi reali è stata progettata e chi ha il vero controllo di decidere le macro regole e leggi universali etiche, ciò influisce a cascata a tutti gli utilizzatori (utenti, sudditi).
C’è molto di male nella rinuncia al pensiero critico.
Quando accettiamo narrazioni preconfezionate, quando lasciamo che siano algoritmi e piattaforme a selezionare ciò che è rilevante, stiamo delegando non solo le scelte, ma la nostra capacità di sintesi morale.
Ogni tesi ha un’antitesi.
Ogni progetto ha un lato ombra.
Ogni sistema complesso richiede uno sforzo immane per essere compreso.
Rinunciare a questo sforzo significa diventare utenti, non cittadini. Consumatori di verità statistiche, plausibili, verosimili, ma mai realmente interrogate.
Perché questo riguarda chi progetta
Designer, progettisti, architetti del digitale: non siete spettatori.
Siete mediatori di realtà.
Se accettate l’AI come strumento neutro, state legittimando un sistema di potere opaco.
Se progettate senza chiedervi chi controlla l’infrastruttura, state contribuendo alla normalizzazione.
Se vi accontentate dello storytelling, state rinunciando alla responsabilità critica.
Il design non è solo forma. È scelta politica.
Uscire dal labirinto
Questo è il labirinto in cui stiamo entrando: comodo, efficiente, rassicurante.
Ma ogni labirinto ha una funzione: trattenere.
Liberarsene richiede attrito. Richiede conflitto. Richiede di guardare il lato che non viene mostrato.
Non per rifiutare la tecnologia.
Ma per difendersi.
Per sopravvivere come individui pensanti in un sistema che preferisce utenti prevedibili a menti critiche.
La verità non è confortevole.
E non arriva mai in prima serata.
Sta a noi decidere se vogliamo ancora cercarla.





