Collegio Sindacale e vigilanza su AI: il documento del CNDCEC

5 Dicembre 2025 in Notizie Fiscali

Il CNDCEC ha pubblicato le Linee Guida per il controllo del Collegio Sindacale sull'adozione di AI.

In particolare, nelle premesse del documento si evidenzia come la crescente regolamentazione in materia di intelligenza artificiale (“IA”) richieda di affiancare alle scelte tecnologiche delle imprese un’adeguata attenzione ai profili di conformità, gestione dei rischi e responsabilità. 

Vediamo la governance del Collegio Sindacale a tema AI.

Collegio Sindacale e vigilanza su AI: il documento del CNDCEC

Nel documento in oggetto viene sottolineato come le attività di vigilanza debbano essere calibrate secondo principi di proporzionalità e materialità e adeguate ai singoli casi concreti, basandosi su informazioni ragionevoli fornite dalle funzioni aziendali e, SE necessario, da competenze specialistiche esterne. 

I Commercialisti propongono le seguenti sezioni:

  • gestione strategica della transizione verso l’IA;
  • valutazione strategica dell’IA;
  • supervisione della governance interna;
  • gestione dei rischi legati all’IA
  • compliance normativa e regolamentare;
  • utilizzo dei sistemi di IA da parte degli organi di governance.

Tra i punti focali vi è quello della gestione dei rischi connessi all'uso di AI e si evidenzia che il Collegio deve vigilare sull'attività del management affinchè abbia ricompreso nel proprio modello almeno le seguenti tipologie:

  • rischi tecnici di performance, sicurezza del modello e dei dati, disponibilità e integrità;
  • rischi di bias e discriminazione ovvero di distorsioni nei dati e nei modelli;
  • rischi legali e di conformità;
  • rischi operativi e di terze parti;
  • rischi reputazionali e di diritti fondamentali.

A tal proposito specifica il documento, il collegio sindacale acquisisce informazioni riguardanti il sistema di controllo interno sui sistemi di IA, con metriche di performance (accuratezza, tasso di errore, automazione), trasparenza dei modelli (documentazione dei processi decisionali) e protocolli di implementazione coerenti con le policy.
L’attenzione deve essere rivolta anche ai processi posti in essere dalla Società per prevenire errori o violazioni normative. L’AI Act richiede per esempio logging, sorveglianza umana e rispetto delle istruzioni per i sistemi ad alto rischio: il collegio sindacale deve chiedere conferma della esistenza di
questi presidi. Un elemento fondamentale per garantire una governance efficace è il controllo sistematico sui sistemi di Intelligenza Artificiale (IA) utilizzati all’interno dell’organizzazione. 

Ciò richiede un’analisi approfondita da parte del management delle capacità tecnologiche implementate e un monitoraggio continuo per assicurare che tali sistemi funzionino in linea con gli obiettivi strategici e operativi dell’impresa. Ciò posto, le possibili attività di vigilanza possono includere l’ottenimento di informazioni su:

  • la definizione da parte del management di metriche chiave per valutare l’efficacia e l’efficienza dei sistemi di IA, come la precisione delle previsioni, il tasso di errore e il livello di automazione raggiunto;
  • come i processi della società assicurano che gli algoritmi utilizzati siano trasparenti e comprensibili per gli stakeholder interni.
  • l’utilizzo dell’AI in modo coerente con le politiche aziendali e la presenza di protocolli chiari per l’adozione di nuove tecnologie IA.

I commenti sono chiusi