L’Intelligenza Artificiale amica del professionista (ma fino a un certo punto)
di Cesare Tomassetti
“La tecnica non pensa” sembra ammonire Martin Heidegger nel suo saggio "La questione della tecnica" del 1954, eppure l’avvento dell’intelligenza artificiale, proprio perché apparentemente capace di sostituire il pensiero, ci interroga oggi su cosa significhi davvero pensare, decidere, agire con responsabilità. Il professionista, artigiano della complessità economico-giuridica, si trova oggi di fronte a uno specchio opaco: quello dell’algoritmo che lo imita, lo supporta e – forse – rischia di sostituirlo. Come possiamo trasformare l’AI in un affidabile alleato ed entro quali limiti?
L’articolo 13 del Ddl 1146/2025: un nuovo confine tra delega e responsabilità
Il Senato italiano ha approvato la scorsa settimana il disegno di legge n. 1146 recante "Disposizioni e delega al Governo in materia di intelligenza artificiale", un provvedimento che, insieme al Regolamento UE 2024/1689, compone il quadro normativo in tema di intelligenza artificiale applicabile in Italia. Con 85 voti favorevoli e 42 contrari, il testo ha superato il primo passaggio parlamentare e si appresta ad affrontare l’esame della Camera.
L’articolo 13 del Ddl, in particolare, pone un principio cardine per le professioni intellettuali: l’utilizzo dell’IA è consentito esclusivamente per attività strumentali e di supporto, mentre deve rimanere prevalente il contributo critico e personale del professionista.
La norma, oltre che di natura tecnica, assume il rango di presidio filosofico. Cos’è la professione intellettuale se non l’esercizio della libertà di giudizio in un contesto vincolato da regole? Come può l’algoritmo, che non conosce né il dubbio né il rimorso, sostituire un consulente che vive nella carne dei dilemmi normativi e contabili?
Dall’automazione alla delega parziale: indicazioni pratiche per il Commercialista
Il Codice Deontologico aggiornato dal CNDCEC nel marzo 2024 impone al professionista l’obbligo di competenza, indipendenza, riservatezza e diligenza (articoli da 8 a 10). Questi principi, se traslati nell’ecosistema dell’intelligenza artificiale, implicano alcune riflessioni operative.
Tracciabilità dell’uso dell’IA: ogni volta che si fa uso di strumenti basati su IA per analisi di bilancio, simulazioni fiscali o elaborazioni di scenari ESG, è necessario conservare evidenza dell’interazione umana e della supervisione esercitata.
Informativa al cliente: l’articolo 13, comma 2, del Ddl 1146 impone di comunicare in modo “chiaro, semplice ed esaustivo” l’uso dell’IA nelle prestazioni offerte. È opportuno, in tal senso, adottare modelli di informativa preventiva, da allegare al contratto di incarico.
Limitazione della delega: l’IA può essere usata per raccogliere dati, proporre opzioni, generare simulazioni. Ma non può – né deve – sostituire la valutazione critica del professionista nel redigere una perizia, un parere, un business plan.
Revisione delle policy interne: l’uso di IA impone una revisione dei protocolli di qualità, riservatezza e sicurezza, affinché siano aggiornati al rischio specifico dell’outsourcing algoritmico.
Il rischio dell’illusione tecnologica: tra responsabilità e deresponsabilizzazione
Se l’algoritmo è l’“apprendista stregone” dei nostri tempi, capace di rispondere prima ancora che la domanda sia stata formulata, il principale rischio per il professionista è quello di confondere l’efficienza con l’efficacia, la velocità con l’approfondimento, la quantità di dati con la comprensione reale del contesto.
L’articolo 13 del Ddl 1146 esplicita un timore (non più) latente: l’asservimento del pensiero critico all’output automatico. In questa luce, il professionista deve restare interprete, non semplice esecutore. Il suo compito è mediare tra il linguaggio dell’algoritmo e il lessico della responsabilità, mantenendo saldo il presidio umano nell’assunzione delle decisioni.
In fondo, come ricordava Max Weber, la responsabilità etica dell’agente si misura nella consapevolezza delle conseguenze delle proprie azioni. L’IA, al contrario, non conosce conseguenze, ma solo correlazioni.
IA e deontologia professionale
La sfida che si apre è ontologica: può esistere una professione intellettuale che si affida a un’intelligenza non umana? Quali fattori caratterizzeranno la relazione tra professionista e cliente se dovesse essere mediata da un codice poco trasparente?
Il Codice Deontologico del CNDCEC, in particolare l’articolo 11, impone al professionista di comportarsi con lealtà nello svolgimento dell’attività professionale. Ciò significa che ogni uso dell’IA deve essere consapevole, dichiarato, controllato. Non si tratta solo di un adempimento formale, ma di una componente dell’impegno etico alla luce del nuovo contesto tecnologico.
Oltre il dualismo, verso un’alleanza controllata?
Il professionista – da subito – non può ignorare l’IA, ma nemmeno affidarsi ad essa senza discernimento. Come in ogni passaggio epocale, l’adozione dell’IA ci obbliga a ripensare la nostra identità professionale.
Il punto non è certamente “se” avvalersi delle opportunità offerte dalle nuove tecnologie, ma “come” rimanere umani nel loro utilizzo.