Cerca
Blog

Linee Guida per il Procurement di sistemi di IA nella PA: principi, strumenti e scelte strategiche

Didascalia

Nel percorso di adozione dell’intelligenza artificiale nella Pubblica Amministrazione italiana, il procurement rappresenta uno snodo decisivo. Non è semplicemente il momento in cui si acquistano tecnologie, ma quello in cui si definiscono – spesso in modo difficilmente reversibile – le condizioni di controllo, sostenibilità, sicurezza e responsabilità dei sistemi che verranno utilizzati.

Questo terzo articolo analizza le Linee Guida per il procurement di IA nella Pubblica Amministrazione” sottoposte a consultazione pubblica da parte dell'Agenzia per l'Italia Digitale (AgID) al seguente link:  Consultazione Linee Guida Procurement.

Un passo indietro: il quadro normativo e linee guida

Le Linee guida si collocano in un contesto normativo in rapida evoluzione a cui cercano di fornire un approccio operativo. Ma andiamo per gradi.

L’AI Act introduce un approccio basato sul rischio, imponendo obblighi stringenti per i sistemi ad alto rischio, tra cui:

  • gestione del ciclo di vita;

  • qualità dei dati;

  • trasparenza e documentazione;

  • supervisione umana.

La Legge 132/2025 rafforza la visione antropocentrica dei sistemi di IA e prevede che la PA agisca come soggetto attivo nella governance e nella gestione dell’IA, richiamando la necessità di:

  • scelte consapevoli;

  • controllo sui dati;

  • capacità interna di valutazione e gestione.

Le Linee Guida, previste dal Piano Triennale per l'informatica nella pubblica Amministrazione, definiscono un percorso virtuoso di applicazione del quadro normativo, basato su tre pilastri:

  • Linee guida sull’adozione, che definiscono le modalità per decidere se e quando usare l’IA;

  • Linee guida sullo sviluppo, che spiegano come progettare sistemi affidabili;

  • Linee guida sul procurement, che definiscono come acquisirli e governarli.

Quest'ultima traduce i principi di adozione e sviluppo in scelte concrete di gara, contratto e gestione. Il procurement è infatti il punto in cui strategia, tecnologia e diritto si incontrano (o si scontrano). Infatti, la fase del procurement non è solo il momento in cui si acquista tecnologie, ma quello in cui si definiscono – spesso in modo irreversibile – le condizioni di controllo, sostenibilità e sicurezza dei sistemi che verranno utilizzati. Dobbiamo tener presente, infatti, che acquisire sistemi di IA introduce caratteristiche che rompono gli schemi tradizionali dell’acquisto pubblico, in quanto:

  • i sistemi sono probabilistici e non deterministici;

  • dipendono in modo critico da dati e contesto d’uso;

  • evolvono nel tempo attraverso aggiornamenti e riaddestramento;

  • possono incidere direttamente su diritti, servizi e decisioni amministrative.

Cosa contengono le Linee guida sul procurement

Le Linee guida sul procurement dell’IA sono progettate come un insieme integrato di principi, indicazioni operative e strumenti concreti, pensati per accompagnare le amministrazioni lungo tutto il processo di acquisto e gestione.

Dal punto di vista strutturale, il documento copre quattro dimensioni principali.

Una dimensione strategica e organizzativa: Le Linee guida chiariscono il ruolo della Pubblica Amministrazione come soggetto responsabile dell’adozione dell’IA, sottolineando la necessità di mantenere capacità decisionale, controllo sui dati e competenze interne. Il procurement viene quindi inquadrato come leva di governance e non come mera funzione amministrativa.

Una dimensione tecnica: Ampio spazio è dedicato alle scelte architetturali, all’interoperabilità, alla gestione dei dati e alla sicurezza. Le amministrazioni sono chiamate a comprendere – almeno a livello funzionale – le implicazioni delle diverse soluzioni tecnologiche, evitando deleghe implicite al fornitore.

Una dimensione giuridica e contrattuale: Le Linee guida forniscono indicazioni concrete su come strutturare capitolati e contratti, includendo aspetti come:

  • diritti sui dati e sugli output;

  • obblighi di trasparenza e auditabilità;

  • clausole di portabilità ed exit strategy;

  • allocazione delle responsabilità.

Una dimensione economica: Particolare attenzione è dedicata alla sostenibilità economica, con il superamento della logica del prezzo iniziale a favore di una valutazione lungo il ciclo di vita.

In questo contesto, gli allegati operativi svolgono un ruolo essenziale. Tra questi, lo schema di capitolato tecnico rappresenta uno strumento centrale, offrendo una struttura completa che copre requisiti funzionali, governance dei dati, gestione del rischio, sicurezza, monitoraggio e collaudo.

Accanto a questo, strumenti come la metrica LCOAI (Levelized Cost of Artificial Intelligence) permettono di valutare in modo sistematico il costo delle soluzioni di IA, integrando costi iniziali e operativi e rapportandoli all’effettivo utilizzo.

Questi strumenti segnano un passaggio importante: il procurement dell’IA diventa un processo strutturato, misurabile e comparabile, e non più basato su valutazioni qualitative o su prezzi parziali.

I principi chiave del procurement per i sistemi di IA

Le Linee guida individuano alcuni principi fondamentali che devono orientare tutte le fasi del processo.

Il primo è il principio di risultato: l’obiettivo non è acquistare tecnologia, ma generare valore pubblico misurabile.

Segue il principio di fiducia, che implica la necessità per la PA di mantenere competenze e capacità di controllo, evitando una dipendenza eccessiva dai fornitori.

Il principio di trasparenza richiede che il funzionamento del sistema sia comprensibile e documentato, anche nei limiti intrinseci dei modelli di IA.

Il principio di responsabilità ribadisce che la decisione amministrativa resta sempre in capo all’amministrazione, anche quando supportata da sistemi automatizzati.

A questi si affiancano il principio di proporzionalità, che impone un uso dell’IA commisurato al rischio, il principio di controllo, che richiede monitorabilità e possibilità di intervento, e il principio di sostenibilità, che estende la valutazione economica all’intero ciclo di vita.

Architettura e costi: una decisione strategica, non solo tecnica

Nel procurement di sistemi di intelligenza artificiale, le scelte architetturali vengono spesso percepite come decisioni tecniche, da delegare a fornitori o specialisti ICT. In realtà, si tratta di scelte profondamente strategiche, che incidono direttamente su costi, controllo, sicurezza e capacità evolutiva dell’amministrazione nel medio-lungo periodo.

Optare per una determinata architettura – ad esempio tra modelli erogati tramite API, soluzioni cloud gestite o sistemi self-hosted su infrastruttura dedicata – significa definire il grado di autonomia della PA, il livello di dipendenza dal fornitore e la sostenibilità economica dell’iniziativa.

Le Linee guida sottolineano come sia necessario superare una visione limitata al costo immediato, introducendo una valutazione complessiva lungo il ciclo di vita del sistema. In questo contesto, strumenti come il LCOAI (Levelized Cost of Artificial Intelligence) consentono di integrare in un’unica metrica i costi iniziali (CAPEX) e quelli operativi (OPEX), rapportandoli al volume effettivo di utilizzo.

Questo approccio permette di evitare errori frequenti nel procurement tradizionale dell’IA, come:

  • basare la scelta esclusivamente sul prezzo per token o per chiamata API, senza considerare i costi complessivi;

  • sottostimare i costi di integrazione, supervisione e gestione;

  • non considerare l’evoluzione dei volumi di utilizzo nel tempo;

  • trascurare i costi di uscita o migrazione.

L’esempio applicativo riportato negli allegati mostra con chiarezza come due soluzioni apparentemente comparabili possano avere impatti economici molto diversi: nel caso analizzato, una soluzione basata su API risulta più efficiente nel breve periodo, mentre una soluzione self-hosted presenta costi significativamente più elevati, almeno a parità di volumi.

Questo non significa che una soluzione sia sempre preferibile all’altra. Al contrario, le Linee guida evidenziano che la scelta dipende da una combinazione di fattori:

  • volumi di utilizzo: soluzioni self-hosted diventano competitive solo al crescere delle inferenze;

  • esigenze di controllo e sovranità del dato: in alcuni contesti (es. dati sensibili o strategici) può essere necessario mantenere maggiore controllo interno;

  • capacità organizzative interne: gestire infrastrutture e modelli richiede competenze che non tutte le amministrazioni possiedono;

  • flessibilità e scalabilità: le soluzioni API consentono un avvio rapido e una maggiore adattabilità iniziale;

  • rischio di lock-in: alcune architetture rendono più difficile cambiare fornitore o tecnologia nel tempo.

In questo senso, la scelta architetturale è anche una scelta di posizionamento strategico della PA: quanto controllo vuole mantenere? Quanto è disposta a delegare? Quale capacità interna intende sviluppare?

Un ulteriore aspetto spesso sottovalutato riguarda la dinamicità dei costi. I sistemi di IA non hanno un costo statico: variano in funzione dell’utilizzo, degli aggiornamenti, delle modifiche normative e delle esigenze organizzative. Questo rende fondamentale la capacità di:

  • simulare scenari di crescita dei volumi;

  • prevedere soglie di convenienza economica;

  • monitorare costantemente i costi reali rispetto alle stime iniziali.

Le Linee guida suggeriscono quindi di integrare nella fase di procurement strumenti di analisi economica evoluta, in grado di supportare decisioni informate e sostenibili.

Infine, la dimensione architetturale è strettamente collegata alla governance complessiva del sistema. Architetture modulari, basate su standard aperti e componenti interoperabili, permettono di:

  • sostituire singoli moduli senza riprogettare l’intero sistema;

  • ridurre il rischio di dipendenza dal fornitore;

  • facilitare l’evoluzione tecnologica nel tempo;

  • migliorare la resilienza e la sicurezza complessiva.

Al contrario, soluzioni chiuse e fortemente integrate possono apparire più semplici nel breve periodo, ma tendono a generare rigidità e costi crescenti nel lungo termine.

In definitiva, nel procurement dell’IA l’architettura non è un dettaglio tecnico, ma uno degli strumenti principali attraverso cui la Pubblica Amministrazione esercita – o perde – il controllo sui propri sistemi, sui propri dati e, in ultima analisi, sulla propria capacità di innovazione.

Sicurezza e gestione del rischio: dal requisito tecnico alla responsabilità organizzativa

Uno degli aspetti più delicati nel procurement di sistemi di intelligenza artificiale riguarda la sicurezza e, più in generale, la gestione del rischio. A differenza dei sistemi informativi tradizionali, infatti, l’IA introduce nuove superfici di vulnerabilità che non sono sempre immediatamente evidenti e che richiedono un cambio di approccio da parte delle amministrazioni.

Non si tratta solo di proteggere infrastrutture e dati, ma di comprendere che il comportamento stesso del sistema può essere oggetto di attacco o manipolazione.

Tra i rischi più rilevanti si possono individuare, ad esempio:

  • la manipolazione dei dati di addestramento o di input (data poisoning), che può alterare il funzionamento del modello;

  • gli attacchi basati su prompt injection, in cui input costruiti ad arte inducono il sistema a produrre output non previsti o non conformi;

  • le vulnerabilità legate alla catena di fornitura (modelli, librerie, servizi esterni);

  • i rischi di deriva del modello nel tempo (model drift), che possono compromettere affidabilità e coerenza delle decisioni;

  • i rischi reputazionali e legali, soprattutto nei casi in cui l’IA incida su diritti o servizi ai cittadini.

Questi elementi rendono evidente che la sicurezza dell’IA non può essere affrontata come un insieme di controlli statici, ma deve essere gestita come un processo continuo.

Le Linee guida sottolineano, in linea con l’AI Act e con i principali framework internazionali (come il NIST AI Risk Management Framework), che la gestione del rischio deve coprire l’intero ciclo di vita del sistema, dalla progettazione all’esercizio.

In concreto, questo implica che il procurement deve prevedere fin dall’inizio:

  • meccanismi di monitoraggio continuo, per rilevare anomalie, degradazioni delle performance e comportamenti inattesi;

  • auditabilità del sistema, inclusa la disponibilità di log, tracciamenti e informazioni utili alla verifica;

  • capacità di intervento, cioè la possibilità per la PA di modificare, limitare o sospendere il sistema in caso di criticità;

  • aggiornamento e manutenzione controllata, evitando modifiche non governate da parte del fornitore;

  • chiara allocazione delle responsabilità, soprattutto nei casi in cui il sistema supporti decisioni amministrative.

Un punto particolarmente importante riguarda il rischio di eccessiva dipendenza dal fornitore anche sul piano della sicurezza. Se la PA non ha accesso alle informazioni necessarie per comprendere e verificare il funzionamento del sistema, la capacità di gestione del rischio risulta fortemente compromessa.

Per questo motivo, le Linee guida insistono sulla necessità di prevedere nei contratti:

  • accesso ai dati e ai log;

  • trasparenza sulle componenti del sistema;

  • possibilità di verifiche indipendenti.

In definitiva, la sicurezza dell’IA non è solo una questione tecnica, ma una responsabilità organizzativa e strategica. Il procurement diventa lo strumento attraverso cui questa responsabilità viene resa concreta, traducendo principi generali in requisiti verificabili e in strumenti di governo effettivi.

Per chiudere

Le Linee guida sul procurement dell’intelligenza artificiale segnano un cambio di prospettiva per la Pubblica Amministrazione. Acquistare sistemi di IA non significa più selezionare un prodotto o un servizio, ma progettare e governare nel tempo un sistema complesso, dinamico e intrinsecamente evolutivo. In questo senso, il procurement diventa il punto in cui si concretizza la capacità della PA di esercitare il proprio ruolo: non solo come utilizzatore di tecnologia, ma come soggetto responsabile della sua integrazione nei processi amministrativi e nei servizi ai cittadini.

Il passaggio è culturale prima ancora che tecnico. Richiede:

  • una maggiore consapevolezza delle implicazioni dell’IA, in termini di rischi, opportunità e responsabilità;

  • lo sviluppo di competenze interne, non necessariamente specialistiche ma sufficienti a comprendere, valutare e governare le scelte;

  • una capacità di operare in modo interdisciplinare, integrando competenze giuridiche, tecniche, organizzative ed economiche.

Le Linee guida offrono un quadro strutturato e strumenti operativi per accompagnare questa trasformazione. Tuttavia, la loro efficacia dipenderà dalla capacità delle amministrazioni di utilizzarle non come un adempimento formale, ma come una leva per migliorare concretamente i processi decisionali e la qualità dei servizi.

Un elemento centrale che emerge è il superamento della logica tradizionale del procurement come fase “a valle” del processo decisionale. Nel caso dell’IA, il procurement diventa parte integrante della progettazione: è nel capitolato, nei criteri di valutazione e nelle clausole contrattuali che si definiscono i margini di controllo, le possibilità di evoluzione e i livelli di rischio accettabili.

Allo stesso tempo, si rafforza il ruolo della PA come custode del valore pubblico generato dall’IA. Questo implica:

  • mantenere il controllo sui dati;

  • garantire trasparenza e accountability;

  • assicurare che le decisioni restino sempre riconducibili a responsabilità umane;

  • prevenire dipendenze tecnologiche che possano limitare l’autonomia futura.

In prospettiva, il procurement dell’IA rappresenta anche un’opportunità per qualificare la domanda pubblica, orientando il mercato verso soluzioni più trasparenti, interoperabili e sostenibili. Una PA che acquista in modo consapevole non solo riduce i propri rischi, ma contribuisce a definire standard più elevati per l’intero ecosistema.

Il passaggio, quindi, è netto: da una Pubblica Amministrazione che acquista tecnologia a una Pubblica Amministrazione che governa sistemi intelligenti. È in questa capacità di governo – più che nella tecnologia in sé – che si gioca il successo dell’intelligenza artificiale nel settore pubblico.