Il divario tra ciò che l’AI sa fare e ciò che l’uomo è in grado di comprendere
di Gabriele Silva
L’adozione dell’intelligenza artificiale nei contesti lavorativi è in crescita costante. Le aziende acquistano licenze, integrano chatbot, sperimentano Copilot, attivano sistemi di analisi predittiva. Tutto sembra correre.
Eppure, qualcosa non torna.
Perché le potenzialità dell’AI spesso non si traducono in miglioramenti effettivi?
Perché molte soluzioni restano inutilizzate, sottoutilizzate o addirittura osteggiate?
Il problema non è (solo) tecnologico. È cognitivo, culturale e organizzativo.
Nasce, cioè, un divario tra ciò che l’AI sa fare e ciò che le persone sono in grado di assorbire, interpretare e usare. Questo divario prende il nome di capability absorption gap.
Un algoritmo può generare report perfetti. Ma serve un professionista in grado di leggerli, di coglierne il contesto, di trasmetterne il senso.
Altrimenti, l’output resta sterile. O, peggio, fuorviante.
Contesto tecnologico e organizzativo
Il capability absorption gap si manifesta in tre livelli:
individuale: il lavoratore non ha le competenze per interagire efficacemente con l’AI (prompt, verifica, contestualizzazione)
organizzativo: le strutture aziendali non sono pronte a integrare l’AI nei processi esistenti, o lo fanno in modo superficiale
culturale: prevale la logica “compra lo strumento e funziona da solo”, ignorando che l’AI non è una stampante. È una tecnologia conversazionale, relazionale, situata
Molte delle aziende che adottano AI generativa non riescono a ottenere i benefici previsti. I motivi principali?
mancanza di formazione
difficoltà di governance dei nuovi processi
timore o rifiuto da parte del personale
È l’equivalente digitale di acquistare una 911 GT3 RS e non saper guidare.
Impatto sul lavoro: strumenti inutilizzati, risorse sottovalutate
Nel quotidiano, il capability absorption gap genera effetti molto concreti:
frustrazione nei lavoratori, che si sentono inadeguati di fronte a strumenti “intelligenti” che non sanno dominare
spreco di risorse aziendali, con licenze pagate e mai sfruttate appieno
superficialità decisionale, quando si usa l’AI in modo automatico, senza comprendere ciò che restituisce
rischi reputazionali, quando una decisione sbagliata viene attribuita a “quello che ha detto il sistema”
Ma il danno più sottile è la svalutazione dell’intelligenza umana.
Quando si finge di “usare l’AI” senza averla davvero capita, si finisce per delegare senza discernimento, riducendo la qualità del lavoro, non aumentandola.
Eppure, le aziende e i professionisti disposti a investire nel colmare questo divario stanno già sviluppando un vantaggio competitivo reale: sanno quando fidarsi dell’AI, quando metterla in discussione, quando ignorarla.
Sguardo prospettico: servono nuovi mediatori di senso
Per superare il capability absorption gap non basta “formare”.
Serve creare una nuova figura professionale trasversale capace di:
leggere l’output dell’AI e interpretarlo nel contesto
tradurre tra linguaggio tecnico e linguaggio umano
allenare le persone all’uso critico e strategico degli strumenti
È un ruolo che può essere assunto da manager, consulenti, professionisti ibridi. Ma solo a patto che abbiano una doppia competenza: comprendere la tecnologia, ma anche leggere le persone.
Tre leve fondamentali:
formazione diffusa, non elitaria: ogni lavoratore dovrebbe sapere come funziona (davvero) l’AI che usa
spazi per la riflessione operativa, non solo operatività cieca: integrare momenti di verifica, confronto, correzione
cultura della “lentezza”: non ogni innovazione va adottata subito, e non ogni output va seguito
Il futuro del lavoro non sarà determinato solo da quanto sarà potente l’intelligenza artificiale. Ma da quanto sarà profonda l’intelligenza umana che la utilizza.
E questa intelligenza va allenata, nutrita, ascoltata.
Altrimenti, l’AI non sarà uno strumento. Sarà solo un’altra occasione mancata.