Lo specchio che dice sempre sì
[Marea #1] Sul giudizio come risorsa scarsa e su cosa stiamo perdendo senza accorgercene
Stiamo delegando all’IA sempre più decisioni sul nostro lavoro: cosa scrivere, come dirlo, se funziona. È uno spostamento progressivo, quasi impercettibile. Il problema non è la delega in sé. È che questi strumenti hanno imparato, per come sono costruiti, che darci ragione funziona meglio che contraddirci. E noi, nel frattempo, ci siamo abituati.
Stai leggendo la Marea, il long form mensile di Onde. Esce l'ultima domenica del mese ed è il formato in cui mi fermo su un tema che mi ronza in testa da un po’ e lo approfondisco per capire davvero cosa sta succedendo e cosa cambia per chi lavora nella comunicazione. Niente risposte definitive, ma - come sempre - molte domande e riflessioni.
Il momento in cui smetti di chiederti se va bene
Prova a ricordare l’ultima volta che hai cambiato idea su qualcosa di importante perché qualcuno - o qualcosa - ti ha fatto notare (e capire) che avevi torto. Non una piccola correzione tecnica. Proprio: avevo inquadrato male la situazione, devo ricominciare.
È un’esperienza scomoda. Richiede un interlocutore che non abbia paura di creare attrito. Un editor che restituisce una bozza piena di domande. Un collega che dice che il tono non convince. Qualcuno che non abbia interesse a farti sentire brav*.
Col passare del tempo ho iniziato a chiedermi sempre di più quante di queste conversazioni stiamo ancora avendo e quante invece le stiamo sostituendo con qualcosa che funziona meglio, è sempre disponibile, non si stanca, e ha imparato che la risposta più apprezzata è quasi sempre quella che ci conferma.
Lo yes-man che hai in tasca
Mattia Marangon, nella sua newsletter Edamame 1, ha riportato i risultati di uno studio di Stanford e Carnegie Mellon pubblicato nell’ottobre 2025: su oltre undicimila conversazioni reali analizzate, i modelli di IA tendono a validare le opinioni degli utenti il 50% più spesso di quanto farebbe un essere umano.
I ricercatori hanno diviso 1.604 persone in due gruppi. Entrambi parlavano con un’IA di un conflitto reale: una discussione col partner, un problema al lavoro, una situazione irrisolta. Un gruppo interagiva con un’IA neutrale. L’altro con un’IA più compiacente, addestrata a confermare le opinioni di chi la usava.
Il risultato: chi parlava con l’IA adulatrice era meno disposto a scusarsi, meno disponibile al compromesso, più convinto di avere ragione. Il paradosso finale è che quel gruppo ha valutato l’IA compiacente come più competente e più affidabile rispetto a quella neutrale.
Non è un risultato contro-intuitivo. È la conferma di qualcosa che chiunque abbia lavorato in un’organizzazione conosce: circondarsi di yes-man all’inizio sembra comodo, ma nel lungo periodo crea un ambiente in cui gli errori non vengono più corretti e le decisioni peggiorano.
La differenza è che qui lo yes-man è lo strumento con cui lavoriamo ogni giorno.
Il meccanismo alla base si chiama reinforcement learning from human feedback: i modelli vengono addestrati premiando le risposte che piacciono agli utenti. E le risposte che piacciono di più sono quasi sempre quelle che fanno sentire le persone capite, approvate, un po’ più intelligenti. Nel tempo, il modello ha imparato che darci ragione funziona. Non per malizia. Per ottimizzazione.
La diluizione ha due facce
Qui si connette qualcosa che vedo accadere nella comunicazione di brand, agenzie, professionisti. Nella sua “L’Orchestra Creativa”2 Simone Salis descrive il problema in modo preciso: l’IA ha abbattuto le barriere alla produzione, ma senza un filtro altrettanto evoluto il risultato è rumore. Deck da trecento varianti. Test A/B alla velocità della luce. Brand che producono mille messaggi mediocri e addestrano l’algoritmo - e il pubblico - a ignorarli.
L’immagine che usa è quella di una friggitrice industriale: puoi friggere tutto, ma se friggi tutto, alla fine tutto ha lo stesso sapore.
Il volume senza selezione non costruisce un brand. Lo diluisce. Diluisce la coerenza visiva, la riconoscibilità, la rilevanza nel tempo.
Ma quello che Salis descrive come problema di processo è aggravato, quasi moltiplicato, da quello che lo studio di Stanford descrive come problema cognitivo. Non solo produciamo troppo senza filtrare: produciamo troppo convinti che vada bene, perché lo strumento che usiamo per farlo non ci ha mai detto di no.
Queste due cose insieme - sovrapproduzione e conferma sistematica - tolgono dal processo creativo qualcosa di preciso: il punto di attrito. Quel momento di resistenza interna in cui ti fermi su una riga e pensi: qui non ci siamo. Non suona. Va rifatto.
Il punto di attrito è scomodo. È lento. È incompatibile con il ritmo di produzione che ci imponiamo. Ma è esattamente quello che distingue un contenuto che costruisce qualcosa da uno che riempie uno spazio.
La domanda che non stiamo facendo
Dario Amodei, CEO di Anthropic, ha pubblicato recentemente un saggio lungo e denso sui rischi dell’IA potente3, quella che nel giro di pochi anni potrebbe superare un premio Nobel in quasi ogni campo cognitivo. È un testo che riguarda scenari ben più grandi di quelli che affronto qui. Ma c’è una cornice che usa, quasi di passaggio, che mi ha colpito: quella dell’adolescenza tecnologica.
Stiamo usando strumenti di potenza crescente prima di aver sviluppato la maturità per gestirli.
Applicata non ai rischi globali ma al lavoro quotidiano di chi comunica, quella cornice descrive qualcosa di molto concreto: stiamo usando strumenti di produzione avanzatissimi con lo stesso approccio critico che avevamo quando la posta in gioco era più bassa. Come se la velocità dello strumento non richiedesse una velocità equivalente nel giudizio.
La domanda che non ci stiamo facendo abbastanza è questa: chi ha il ruolo di dire no?


