Goodbye Human #1
Robot, fratelli Lumiére, e il futuro dell'umanità nel teatro filmato dell'intelligenza artificiale
#Questo è il primo pezzo di una serie di post che vorrei dedicare al futuro degli umani nel tempo dell’AI. Lavorando con e sull’AI quotidianamente non mento se dico che sempre di più ci sono domande che mi tengono sveglio la notte. In questo primo pezzo cerco di toccarle quasi tutte. Nei pezzi seguenti mi concentrerò più approfonditamente su alcuni aspetti citati qui.
C’è qualcosa di profondamente inquietante nel guardare un’organizzazione investire sei mesi per automatizzare la produzione di un report che, una volta pubblicato, verrà processato dall’assistente AI di un dirigente che ne estrarrà tre frasi, le incollerà in una mail scritta da un altro assistente AI, che verrà letta dall’assistente AI del destinatario, il quale ne produrrà un riassunto di due righe.
Macchine che scrivono per macchine, in un formato progettato per cervelli umani che non ci sono più.
Se vi sembra assurdo, è perché lo è. Ma è esattamente quello che sta succedendo in migliaia di organizzazioni in questo momento. Ed è il sintomo di un problema molto più grande di quanto la maggior parte delle discussioni sull’AI sia disposta ad ammettere.
Partiamo da una scena che chiunque lavori in un’organizzazione medio-grande riconoscerà all’istante. La riunione sull’AI. Qualcuno — di solito qualcuno che si considera particolarmente razionale — dice: “Identifichiamo i nostri bottleneck e vediamo se l’AI può risolverli.” Tutti annuiscono. Sembra ragionevole. Sembra metodico. Sembra la cosa giusta da fare.
Ed è esattamente il modo sbagliato di pensarci.
Non perché identificare i colli di bottiglia sia inutile — è utile, certo, come è utile lubrificare gli ingranaggi di una macchina. Ma perché presuppone che il processo sia corretto e che serva solo accelerarlo. Presuppone che la forma attuale del lavoro sia quella giusta e che l’AI sia un lubrificante, non un solvente.
Chiamiamola “bottleneck thinking”: prendi quello che fai, cerca dove si inceppa, applica l’AI. Il risultato è un processo identico che gira più veloce. L’alternativa — molto più scomoda e molto più potente — è quello che potremmo chiamare “possibility thinking”: ignora come fai le cose adesso. Parti dal risultato che vuoi ottenere. Chiediti: se dovessi progettare questo da zero, sapendo quello che l’AI sa fare, che forma avrebbe? E soprattutto: il risultato stesso potrebbe essere radicalmente diverso — e migliore?
La differenza non è sottile. È la differenza tra ottimizzare e reinventare. Ed è la differenza che quasi nessuno, nelle riunioni sull’AI, è disposto ad affrontare.
Per capire cosa sta succedendo, serve un’analogia. Quando i fratelli Lumière proiettarono le prime immagini in movimento al Grand Café di Parigi nel dicembre 1895, quello che il pubblico vide era essenzialmente teatro filmato. Una macchina da presa fissa, un’inquadratura unica, attori e situazioni che si sarebbero potuti osservare identici su un palcoscenico. I Lumière stessi consideravano il cinematografo poco più di una curiosità scientifica — Louis dichiarò notoriamente che il cinema era un’invenzione senza futuro.
Ci vollero anni prima che qualcuno capisse che il mezzo non serviva a replicare il teatro in modo più comodo. Serviva a fare cose che il teatro non poteva fare: montaggio, primi piani, storie parallele, manipolazione del tempo. Il cinema non era teatro veloce. Era un linguaggio completamente diverso che richiedeva di essere pensato da zero.
Noi siamo nella fase del teatro filmato dell’AI.
Prendiamo i report — il nostro esempio iniziale. Un report è un formato progettato intorno ai limiti del cervello umano. Gli umani non possono processare flussi di dati continui, quindi abbiamo inventato i report periodici: qualcuno raccoglie informazioni, le sintetizza, le organizza in un documento strutturato con un sommario esecutivo, grafici e raccomandazioni. Tutto questo esiste perché il cervello umano ha bisogno di informazioni pre-masticate, servite in porzioni digeribili, a intervalli regolari.
Ma se l’AI può monitorare flussi di dati in tempo reale, rilevare anomalie nel momento in cui emergono, incrociare fonti che nessun analista potrebbe tenere a mente simultaneamente — perché produrre un report trimestrale? Perché non un sistema di monitoraggio continuo che allerta i decisori nel momento esatto in cui qualcosa cambia, con il contesto necessario per agire? L’output non è un report più veloce. È un sistema di early warning che prima non esisteva. Il report trimestrale diventa un artefatto dei limiti umani, come la scenografia teatrale dopo l’invenzione del montaggio.
Lo stesso vale praticamente ovunque. Il processo di selezione del personale si basa sui CV — un formato inventato perché gli umani non possono valutare 500 candidati che svolgono compiti reali. Ma l’AI può. Quindi l’intero formato di input cambia: non più un documento ottimizzato per la scansione umana, ma una simulazione di lavoro valutata in tempo reale. L’intelligence competitiva si basa su report periodici perché nessun analista può monitorare simultaneamente brevetti, assunzioni, movimenti di mercato e depositi regolamentari di tutti i competitor. Ma un sistema AI può farlo in continuo, producendo un radar strategico sempre aggiornato invece di una fotografia scaduta.
Il pattern è sempre lo stesso: identifica il limite umano intorno al quale il processo è stato progettato (attenzione sequenziale, memoria limitata, elaborazione a batch, giornate lavorative di otto ore, impossibilità di monitorare continuamente). Rimuovi quel limite. Chiediti: che processo progetteresti se quel limite non fosse mai esistito? E poi: che risultato diventa possibile che prima non lo era?
Insomma. Non cercare i ‘bottleneck’ nel sistema esistente. Parti dal presupposto che TU SEI IL BOTTLENECK.
Ma seguendo questa logica fino in fondo emerge qualcosa di più profondo e più scomodo.
Gran parte del lavoro intellettuale — il knowledge work di cui le economie avanzate vanno così orgogliose — non è lavoro produttivo in senso stretto. È infrastruttura cognitiva: il tessuto connettivo tra decisioni umane. Report, presentazioni, aggiornamenti di stato, briefing note, verbali di riunione, mail di allineamento — tutto questo esiste perché i cervelli umani hanno bisogno di formati di trasferimento dell’informazione. Sono ponti tra menti.
Quando l’AI è su entrambi i lati della comunicazione — produce l’informazione e la consuma — quei ponti diventano inutili. Non lenti: strutturalmente superflui. L’intera classe di artefatti che chiamiamo “lavoro di conoscenza” si rivela per quello che in molti casi era: non pensiero strategico, ma traduzione. Traduzione di dati in formati leggibili da altri umani.
E qui arriviamo alla domanda che nessuno nelle riunioni sull’AI vuole davvero affrontare: se una parte significativa di quello che facciamo è infrastruttura cognitiva tra decisori, e l’AI rende quell’infrastruttura superflua, cosa resta per gli umani?
La risposta onesta è: meno di quanto ci piacerebbe credere. E non è distribuita equamente.
Se si guarda con lucidità ai ruoli che resistono (almeno per ora) all’automazione cognitiva, si trovano essenzialmente cinque strati.
Il primo è la definizione degli obiettivi: decidere cosa l’organizzazione dovrebbe perseguire. Questo è valori, priorità, politica, etica — quale funzione obiettivo ottimizzare? L’AI può modellare qualsiasi funzione le si dia. Non può scegliere quale funzione sia quella giusta. Ma questo strato impiega pochissime persone in qualsiasi organizzazione.
Il secondo è la responsabilità e la legittimità. Anche quando l’AI può prendere una decisione migliore di un umano, ci sono ambiti in cui la società richiede che un umano sia responsabile. Un medico firma la diagnosi. Un giudice emette la sentenza. Un ministro autorizza la politica. Questo ruolo è reale, ma è strutturale, non cognitivo. E potrebbe cambiare man mano che i quadri normativi si evolvono.
Il terzo è la navigazione dell’ambiguità e delle situazioni senza precedenti. L’AI è addestrata su pattern del passato. In situazioni genuinamente nuove — un tipo di crisi mai visto, uno scenario geopolitico inedito — il giudizio umano sotto incertezza radicale potrebbe ancora essere superiore. Ma questo dominio si restringe: man mano che l’AI diventa più capace di ragionare sotto incertezza, l’insieme delle situazioni “genuinamente nuove” dove gli umani hanno un chiaro vantaggio si riduce.
Il quarto è la fiducia interpersonale e la persuasione. Convincere un governo riluttante, negoziare un accordo, persuadere un consiglio d’amministrazione a prendere un rischio — queste dinamiche umano-a-umano sono quelle che l’AI può supportare ma probabilmente non sostituire, almeno non a breve. Ma questo riguarda un sottoinsieme di ruoli, non l’analista, non il data processor, non chi scrive report.
Il quinto è il significato, la cura, la presenza. Insegnare a un bambino, fare terapia, creare arte che risuona perché un umano l’ha creata — queste attività hanno valore non per la qualità dell’output ma per l’umanità dell’interazione. Se questo valore si traduca in valore economico nel sistema attuale, o diventi un valore culturale e sociale al di fuori dell’economia di mercato, è una domanda genuinamente aperta. Ma c’è un elemento che la rende ancora più incerta: la velocità con cui gli esseri umani stanno sviluppando legami affettivi con i chatbot (ne abbiamo parlato qui) — compagni digitali, terapeuti artificiali, amici virtuali — suggerisce che molte di queste interazioni “irriducibilmente umane” potrebbero rivelarsi, agli occhi degli umani stessi, non così speciali come ci piace pensare. Se un adolescente preferisce confidarsi con un chatbot piuttosto che con un adulto, la presunta insostituibilità della relazione umana diventa meno una certezza e più un’assunzione da verificare.
Il problema — quello che quasi nessuno dice — è che i primi due strati impiegano pochissime persone. Il terzo si sta restringendo. Il quarto è reale ma specifico. Il quinto potrebbe non avere un prezzo.
E qui si arriva al nodo che rende tutto il resto particolarmente scomodo, se non inquietante. Si sente spesso dire — dagli esperti di AI, dai CEO nelle keynote, dai consulenti nelle slide patinate — che l’intelligenza artificiale permetterà agli umani di liberarsi dei compiti più noiosi e ripetitivi per dedicarsi finalmente a lavoro più elevato, più creativo, più stimolante. È una promessa rassicurante. È anche una promessa che presuppone che tutti gli umani possano spostarsi su quel lavoro più elevato. Ma gli umani non sono una tipologia unica. Sono una distribuzione di tipologie assai ampia.
C’è un’enorme varietà di capacità cognitive, background educativi, disposizioni, circostanze. Molti professionisti competenti hanno costruito carriere su competenze che erano preziose precisamente perché tediose e richiedevano disciplina: attenzione al dettaglio, diligenza, padronanza dei processi. Non tutti hanno la disposizione o la capacità di operare al livello del “cosa dovremmo costruire?”.
In questi tempi di repentino cambiamento, alcuni esperimenti di adattamento all’AI all’interno di aziende ha portato alla luce distinzioni che in passato erano assai meno chiare. Per anni, nelle organizzazioni, abbiamo chiamato “pensiero strategico” – quella attività che tanti promettono diventerà prerogativa umana con l’avvento dell’AI – qualcosa che in molti casi era semplicemente accuratezza. Funzionava così: un professionista senior produceva analisi approfondite, report dettagliati, raccomandazioni ben argomentate. Il lavoro era eccellente. I clienti erano soddisfatti. La persona veniva promossa, e tutti — inclusa la persona stessa — assumevano che l’eccellenza nell’analisi corrispondesse a capacità strategica. Ma le due cose non sono la stessa cosa. L’accuratezza è la capacità di raccogliere informazioni, verificarle, organizzarle, sintetizzarle in modo rigoroso. Il pensiero strategico è la capacità di guardare quelle informazioni e dire: “il problema non è quello che pensavamo”, oppure “dovremmo smettere di fare questa cosa interamente”, oppure “c’è un’opportunità che nessuno sta vedendo”. L’accuratezza risponde bene alle domande. La strategia cambia le domande.
Per decenni questa distinzione non aveva conseguenze pratiche, perché l’accuratezza era essa stessa costosa e rara: servivano settimane di lavoro, anni di esperienza, una disciplina che pochi avevano. Quando un sistema AI può essere accurato in tre minuti, il velo cade. Si scopre che molti professionisti senior non hanno in realtà un contributo strategico da aggiungere al di là dell’accuratezza che ora la macchina fornisce gratis. Non perché siano incompetenti: erano eccellenti nel loro lavoro. Ma il lavoro richiedeva meticolosità e padronanza dei processi, non visione. Le organizzazioni li hanno promossi usando l’esperienza come proxy per la capacità strategica. Per alcuni ha funzionato. Per molti altri, sono diventati molto bravi nell’esecuzione e l’hanno chiamata strategia.
Le transizioni economiche precedenti hanno gestito questo problema attraverso nuove categorie di lavoro routinario. Quando l’agricoltura si è meccanizzata, il lavoro in fabbrica ha assorbito le persone. Quando le fabbriche si sono automatizzate, i servizi le hanno assorbite. La promessa implicita era: ci sarà sempre nuovo lavoro routinario per chi fa bene il lavoro routinario.
La transizione AI potrebbe rompere questo schema. Perché non automatizza solo la routine fisica (come le macchine) o la routine digitale ristretta (come il software). Automatizza la routine cognitiva — leggere, scrivere, analizzare, sintetizzare, decidere entro framework consolidati. Esattamente il lavoro che impiegava la fascia centrale della distribuzione delle capacità.
I dati sono piuttosto netti. Secondo McKinsey, le tecnologie attuali potrebbero già automatizzare circa il 57% delle ore lavorative negli Stati Uniti — e l’impatto è concentrato proprio sul lavoro cognitivo ad alta retribuzione e alta istruzione, quello che McKinsey chiama “reverse skill bias”. Contemporaneamente, un rapporto OECD del 2025 documenta che la partecipazione degli adulti alla formazione – quelle attività di ‘re-skilling’ così cruciali in una fase di grande trasformazione tecnologica come questa – è in stagnazione o declino nella maggior parte dei paesi, e che il 42% delle attività formative dura un giorno o meno — difficilmente sufficiente per il tipo di riconversione strutturale di cui stiamo parlando.
Stiamo usando istituzioni dell’era industriale — università con cicli di aggiornamento di 3-5 anni, programmi di formazione aziendale che diventano obsoleti prima di essere completati — per un problema dell’era esponenziale. Le capacità degli agenti AI si accumulano con crescita esponenziale su cicli di 6-12 mesi. L’adattamento umano attraverso i sistemi tradizionali opera su cicli di 2-5 anni. Il mismatch di velocità è reale, ed è strutturale.
A questo punto, chi ha seguito il ragionamento fin qui si aspetta la parte propositiva. L’elenco di “cosa fare”. Le cinque mosse per salvarsi.
Sarebbe disonesto offrirla come se avessi le risposte. Non le ho. Quello che posso fare è distinguere tra ciò che credo di sapere con ragionevole certezza e ciò che è genuinamente aperto.
Quello che so con ragionevole certezza: l’approccio “bottleneck” all’AI — identifica cosa è lento, acceleralo — ha un tetto basso. Le organizzazioni che riprogettano i processi da zero intorno alle capacità AI supereranno massicciamente quelle che si limitano ad accelerare i workflow esistenti. Gli artefatti intermedi del lavoro di conoscenza — report, presentazioni, briefing — si trasformeranno in sistemi di dati continui e interrogabili, oppure scompariranno. Interrogabili da chi, però? Se a interrogarli sono umani, il sistema deve ancora produrre output leggibili da cervelli umani — cambia la forma, ma il destinatario resta lo stesso. Se a interrogarli sono altre AI — l’assistente del dirigente, l’agente che prepara il briefing, il sistema che monitora i rischi — allora non è solo il processo a dover essere riformato, ma l’output stesso. Non servono più testi strutturati, sommari esecutivi, grafici commentati: serve un formato macchina-a-macchina, un flusso di dati strutturati che nessun umano leggerà mai direttamente. E a quel punto, l’intera catena di produzione del “lavoro di conoscenza” come lo conosciamo diventa un artefatto storico. Chi saprà vedere cosa diventa possibile quando un vincolo umano viene rimosso — e tradurlo in cambiamento concreto e implementabile — avrà un valore professionale reale nei prossimi anni.
So anche che capire i fondamentali resta importante — non per l’uso quotidiano, ma per i momenti di rottura. Quando una pipeline di retrieval (la cosiddetta RAG, Retrieval Augmented Generation) inizia a estrarre documenti sbagliati, quando la latenza esplode senza spiegazione, quando un agente autonomo si blocca in un loop infinito — chi si affida solo al prompting sarà completamente bloccato. L’AI spesso mente con sicurezza sulle ragioni del proprio malfunzionamento. Capire come funzionano gli embedding vettoriali o i meccanismi di attenzione non serve per il lavoro di tutti i giorni. Serve come assicurazione per quando le cose si rompono nel momento peggiore. E in contesti professionali, il tuo valore è spesso definito da cosa succede quando le cose vanno male, non quando funzionano.
So infine che la competenza valutativa — la capacità di costruire test set, definire categorie di fallimento, quantificare le performance di un modello sui dati reali — è probabilmente la skill più sottovalutata e più duratura in questo momento. La maggior parte delle persone salta questa fase. Chiunque sia in grado di rispondere alla domanda “questo modello è abbastanza buono per la produzione, e come lo sai?” ha un vantaggio competitivo reale.
Ma c’è molto altro che so di non sapere, e probabilmente ancora più cose che nemmeno so di non sapere. Per le seconde posso farci poco al momento, quindi dedichiamoci alle prime: l’economia genererà abbastanza lavoro significativo per l’intera distribuzione delle capacità umane? Il lavoro di “significato” e “cura” sarà valorizzato economicamente o sarà facilmente sostituito da entità AI come tutti gli altri lavori? La catena di produzione AI-to-AI porterà ad abbondanza radicale o a concentrazione radicale di potere? Queste sono le domande (insieme a molte altre che ora non vedo) che definiranno i prossimi vent’anni e nessuno ha risposte affidabili.
I fratelli Lumière pensavano che il cinematografo fosse un’invenzione senza futuro. Avevano costruito uno strumento straordinario e non riuscivano a vedere cosa sarebbe diventato, perché continuavano a pensarlo nei termini di quello che già conoscevano: la fotografia, il teatro, la curiosità da fiera. Ci vollero altri — con meno investimento nel vecchio mondo — per capire che il mezzo non serviva a filmare il teatro. Serviva a inventare qualcosa che non aveva ancora un nome.
Forse la domanda giusta, la prossima volta che qualcuno in una riunione dice “identifichiamo i bottleneck”, non è “quali sono i nostri colli di bottiglia?” — ma “cosa stiamo filmando che non dovrebbe più essere teatro?”
E poi, magari sottovoce, un’altra domanda, che segue naturalmente dalla prima. Quando i fratelli Lumière filmavano operai che uscivano dalla fabbrica, il cinema stava nascendo e servivano nuove figure — registi, montatori, sceneggiatori, direttori della fotografia — per esplorare un linguaggio che non esisteva ancora. Ma servivano anche molti meno attori teatrali. Se l’AI è il cinema di questa metafora, la domanda che nessuno vuole fare ad alta voce è: per quanti di noi c’è un ruolo nel nuovo mezzo? O la maggior parte di noi è destinata a restare imprigionata nei propri ruoli di teatranti — eccellenti in un’arte irrimediabilmente destinata ai margini?

