Get In Touch
Italy Via Calabiana 6 Milano
Emirati Arabi Al Moosa Tower 2 14th Floor Trade Centre, Dubai
hello@filipposcorza.com
Ph: +39 349 270 1223
Back

L’AI non licenzia nessuno (per ora). Ma sta svuotando silenziosamente i ruoli.

L’AI non sta solo automatizzando task: sta ridisegnando il mix di competenze dentro ogni ruolo e dentro ogni team.

Se non governi questa redistribuzione, rischi persone sovra‑sotto utilizzate, ruoli confusi e decisioni miopi su hiring e reskilling.

Negli ultimi mesi hai probabilmente ricevuto o sentito richieste del tipo:

Usiamo l’AI per fare i report, Claude per scrivere le policy, automatizziamo il customer care e molto altro.

Più che chiederci se possiamo far svolgere un compito ad un LLM dovremmo chiederci se dovremmo farlo?

E’ una domanda totlamete diverse che apre delle riflessioni meno polarizzate.

Il problema non è la tecnologia. È che quasi nessuno sta guardando a come si stanno ridistribuendo competenze e responsabilità intorno a questi strumenti.

Anthropic ha analizzato milioni di interazioni con Claude e le ha collegate alle occupazioni del database O*NET (il principale database pubblico sulle professioni usato negli Stati Uniti per analisi del lavoro, orientamento e progettazione di percorsi di carriera e competenze), costruendo un “Economic/Exposure Index” che misura dove l’AI viene davvero usata nei compiti di lavoro, non solo dove potrebbe teoricamente essere usata.

Quindi se leggiamo l’index con gli occhi dell’organizational design, il messaggio non è quali lavori spariranno ma come stiamo ridistribuendo, in modo implicito, le competenze tra persone e sistemi.

Cosa ha misurato Anthropic (e perché ci dovrebbe interessare)

Anthropic parte da tre fonti: O*NET (compiti per 800+ occupazioni), dati di utilizzo di Claude, e stime teoriche su quali task potrebbero essere accelerati da LLM.

Da qui costruisce un indicatore di rischio chiamato “observed exposure” da cui si evince che un’occupazione è più “esposta” all’AI quando:

  • una parte consistente dei suoi compiti è teoricamente fattibile con LLM (e fin qui nulla di nuovo);
  • quegli stessi compiti compaiono spesso nei log d’uso della piattaforma (li abbiamo mai analizzati?);
  • l’uso è chiaramente legato al lavoro (non personale) e tende a essere automatizzato o integrato via API più che puramente assistivo.

Tradotto: non è che l’AI potrebbe svolgere le tue task. È che in alcune professioni le sta già svolgendo, spesso in modalità automatizzata, ma solo su una porzione del lavoro complessivo.

Quando applicano questo schema, trovano che i ruoli oggi più esposti sono computer programmer, customer service, data entry worker, financial analyst e altri profili tipicamente “white collar”.

In molti casi, per esempio, stimano che oltre il 70% dei compiti tipici di un programmatore o di un operatore di customer service sia già svolto dall’AI, almeno in una parte dei contesti osservati (e la cosa curiosa è che la scuola continua a produrre menti che risultano sostituibili in questi ambiti).

La cosa importante, però, è un’altra: l’AI è ancora lontana dal suo potenziale teorico.

L’adozione reale copre solo una frazione di ciò che sarebbe tecnicamente possibile, e l’effetto sull’occupazione finora è limitato: Anthropic non trova impatti significativi sulla disoccupazione, ma segnali deboli di rallentamento dell’hiring per i profili più esposti, soprattutto tra i 22–25 anni.

In altre parole: non siamo ancora nella fase di “ondata di licenziamenti causati dall’AI”.

Siamo nella fase, molto più silenziosa, in cui si sta ridisegnando la struttura del lavoro dentro e tra i ruoli.

👉 Se vuoi continuare questa conversazione oltre la newsletter, sarò felice di conoscerti meglio in call e ascoltare cosa sta succedendo nella tua realtà: ecco il mio booking

Non è solo sostituzione: è redistribuzione del lavoro dentro i ruoli

Il linguaggio della “sostituzione” è comodo ma fuorviante: dà l’idea che, a un certo punto, un ruolo venga semplicemente rimpiazzato da una macchina.

I dati di Anthropic raccontano una storia diversa: all’interno di ogni lavoro, alcuni task vengono assorbiti dall’AI, altri diventano ibridi, altri restano profondamente umani.

In molti ruoli knowledge‑based si vedono tre tipi di attività:

  • compiti che l’AI può prendere quasi in carico (es. data entry, bozza di risposte standard, sintesi di documenti, generazione di codice ripetitivo);
  • compiti da orchestrare insieme all’AI, dove la persona guida, controlla, corregge, combina più output (es. scrittura di report complessi, analisi comparate, brainstorming strutturati);
  • compiti che restano ad alta intensità umana: decisioni ambigue, negoziazione, relazione, sense‑making in contesti organizzativi specifici.

Prendiamo l’esempio dei programmatori.

Anthropic stima che circa tre quarti dei task tipici del ruolo siano già coperti dall’AI in qualche misura: generazione di snippet, refactoring, test di base, documentazione.

Questo non significa che il lavoro del programmatore “sparisca”, ma che il mix di attività si sposta verso:

  • architettura, scelte di design e trade‑off;
  • comprensione profonda del dominio di business;
  • coordinamento con product, design, operations;
  • revisione critica del codice generato.

Lo stesso vale per ruoli come il customer service: una fetta crescente di interazioni viene gestita da modelli via API, mentre agli esseri umani vengono lasciati i casi più complessi, emotivi, contraddittori.

Risultato: il ruolo si polarizza, e le competenze richieste non coincidono più con quelle che trovi ancora oggi in molte job description.

Se non riconosciamo e progettiamo esplicitamente questa redistribuzione interna al ruolo, creiamo uno scollamento: il titolo è lo stesso, ma il lavoro reale è cambiato; le aspettative non sono chiare, i percorsi di sviluppo nemmeno.

Dal singolo ruolo al team: dove si spostano competenze e potere decisionale

Questa redistribuzione non avviene solo dentro i ruoli, ma anche tra ruoli e funzioni.

I dati di Anthropic mostrano che l’adozione dell’AI oggi è più forte in professioni a medio‑alto reddito, centrate su attività cognitive e testuali, rispetto ai lavori manuali o altamente fisici.

Questo crea un effetto collaterale interessante per chi guida team:

  • alcuni ruoli diventano nodi di orchestrazione dell’AI, accumulando competenze tecniche e potere di decidere “come si lavora con l’AI”;
  • altri ruoli rimangono più ai margini, spesso confinati su attività non ancora automatizzabili ma anche meno visibili e meno valorizzate.

È una forma di redistribuzione di potere, non solo di compiti.

Se l’esperienza di “lavorare con l’AI” è concentrata in pochi profili (spesso già centrali quali product, tech, alcuni ruoli di operations), rischi di creare colli di bottiglia: tutti dipendono da loro per integrare l’AI nei processi, mentre il resto dell’organizzazione rimane passivo.

C’è poi una redistribuzione tra fasi del processo.

L’AI è particolarmente forte nella trasformazione di input testuali o strutturati cioè nel middle‑office del lavoro della conoscenza. Questo spinge competenze e attenzione verso:

  • il front‑end (chi definisce bene i problemi, fa le domande giuste, raccoglie il contesto);
  • il back‑end (chi traduce output dell’AI in decisioni, processi, implementazione).

In un’organizzazione che non ridisegna intenzionalmente ruoli e accountability, è facile che:

  • alcune persone diventino “hub” informali di AI, sovraccaricandosi;
  • altre scivolino in ruoli “zombie”, dove la parte interessante del lavoro è stata automatizzata, ma nessuno ha ripensato il perimetro del ruolo.

Un piccolo framework per leggere l’AI Exposure Index “da manager”

Come puoi usare, in pratica, questo tipo di indice per ripensare ruoli e competenze nel tuo contesto?

Ti propongo un mini‑framework in quattro passi.

1. Mappa le task, non i ruoli. Scegli 2–3 ruoli chiave nel tuo team.

Per ciascuno, lista i 10 compiti che occupano più tempo. Non usare etichette vaghe (gestire progetti), ma micro‑attività (preparare report per il board, rispondere alle richieste dei clienti etc etc).

2. Per ogni task, fai le tre domande di Anthropic.

  • È teoricamente fattibile con un LLM (anche se oggi non lo stiamo facendo)?
  • Lo vediamo già, in qualche forma, svolto con AI in azienda (o nel settore)?
  • Lo potremmo automatizzare via tool/API, almeno parzialmente?

In base alle risposte, classifica i task in tre categorie:

  • da delegare all’AI (alto volume, bassa ambiguità, alto potenziale di automazione);
  • da orchestrare con AI (richiedono competenze nel parlare con il modello, integrare output, controllare qualità);
  • da proteggere/arricchire come core umano (relazione, giudizio, creatività situata).

3. Ridisegna il mix di competenze per ruolo. Ora guarda ogni ruolo alla luce di questa mappa. Per ciascuno chiediti:

  • quali competenze diventano centrali (prompting, data literacy, capacità di framing dei problemi, capacità di revisione critica dell’output dell’AI);
  • quali competenze scendono di priorità (esecuzione ripetitiva su testi standard, compilazione meccanica di report, traduzioni base).

Questo è il vero lavoro di redistribuzione delle competenze: non decidere “se usare l’AI”, ma decidere quali capacità umane vuoi aumentare e quali attività liberare.

4. Allinea learning, hiring e performance. Infine, collega questo ridisegno a tre leve manageriali:

  • Learning: quali percorsi di formazione servono perché le persone imparino a orchestrare l’AI, non solo a “usarla” superficialmente.
  • Hiring: se l’esposizione dell’AI nei tuoi processi cresce, che tipo di profili cerchi tra 12–24 mesi? Più “generalisti” capaci di orchestrare, o più specialisti di dominio?
  • Performance: come misuri il contributo di una persona quando una parte del lavoro visibile è svolta dall’AI? Rimani sulle ore e sui deliverable, o passi a metriche di progettazione, qualità delle decisioni, impatto?

Cosa guardare nei prossimi 12–24 mesi

Il lavoro di Anthropic non è un oracolo sul futuro del lavoro.

È un “sistema di allerta precoce” per capire dove l’AI sta entrando sul serio nei job, e come.

Al momento, le evidenze sul fronte occupazionale sono ancora deboli: nessun aumento netto della disoccupazione nei ruoli più esposti, ma primi segnali di rallentamento dell’ingresso dei giovani in quelle professioni.

Per chi guida team, la domanda utile non è quali lavori spariranno, ma:

  • dove, nei nostri processi, l’AI sta già cambiando il mix di attività?
  • come stiamo ridistribuendo le competenze tra persone e ruoli?
  • chi sta accumulando competenze nuove, e chi rischia di restare in ruoli svuotati?

Puoi trasformare l’idea di “AI Exposure Index” in un tuo indicatore interno, molto più semplice:

  • percentuale di progetti in cui l’AI è parte dichiarata del workflow;
  • quanto tempo, nei ruoli chiave, si sposta dall’esecuzione alla progettazione e alla decisione;
  • quali persone stanno diventando nodi di orchestrazione dell’AI, e come le stai supportando.

Non per capire chi sostituire, ma per decidere chi potenziare, cosa ridisegnare e quale lavoro umano vuoi rendere più prezioso.

👉 Se vuoi continuare questa conversazione oltre la newsletter, sarò felice di conoscerti meglio in call e ascoltare cosa sta succedendo nella tua realtà: ecco il mio booking

Filippo Scorza
Filippo Scorza
Sono un digital enthusiast, ho un transponder sotto pelle, faccio volontariato digitale nei paesi in via di sviluppo e mi piacciono i progetti in beta!
Translate