• Programmatic
  • Engage conference
  • Engage Advanced TV
  • Engage Play
16/10/2025
di Cristina Oliva

La Generative AI è considerata la più affidabile, ma servono misure di protezione e governance

A rivelarlo è “IDC Data and AI Impact Report: The Trust Imperative”, uno studio realizzato da SAS, secondo cui le imprese che danno priorità all'AI affidabile hanno il 60% di probabilità in più di raddoppiare il ROI

ai_1032743.jpg

Cresce la fiducia nell’AI generativa, molto più rispetto ad altre forme di intelligenza artificiale, ma solo il 40% delle organizzazioni sta investendo per rendere questi sistemi affidabili, attraverso governance, trasparenza e garanzie etiche.

A rivelarlo è IDC Data and AI Impact Report: The Trust Imperative, l'ultimo studio realizzato da SAS, secondo cui le imprese che danno priorità all'affidabilità dell'AI hanno il 60% di probabilità in più di raddoppiare il ritorno sull'investimento dei relativi progetti.

Paradossalmente, tra coloro che riportano il minor investimento in sistemi di AI affidabili, quella generativa (come ChatGPT) è considerata il 200% più degna di fiducia rispetto a quella tradizionale (come il machine learning), nonostante quest'ultima sia più consolidata e diffusa da maggior tempo.

“La nostra ricerca mostra una contraddizione: le forme di AI con interattività umana e familiarità sembrano incoraggiare una maggiore fiducia, indipendentemente dall'affidabilità o accuratezza effettiva”, ha dichiarato Kathy Lange, Research Director of the AI & Automation Practice di IDC.  “Come fornitori di AI, professionisti e utenti privati, dobbiamo chiederci: la GenAI è considerata affidabile, ma è sempre davvero degna di fiducia? I leader stanno applicando le necessarie misure di protezione e pratiche di governance dell’AI a questa tecnologia emergente?”

La ricerca si basa su un sondaggio globale condotto su 2.375 partecipanti in Nord America, America Latina, Europa, Medio Oriente e Africa, e Asia Pacifico. Tra gli intervistati professionisti IT e business leader, che offrono prospettive sia dal punto di vista tecnologico sia da quello aziendale.

Le tecnologie emergenti di AI suscitano maggiore fiducia

Nel complesso, lo studio ha rilevato che le implementazioni di AI più affidabili sono le tecnologie emergenti, come la GenAI e l’Agentic AI. Quasi la metà dei rispondenti (48%) ha “completa fiducia” nell'AI generativa, mentre un terzo ha fiducia nell'AI agentica (33%). Per quanto riguarda l'AI tradizionale, meno di uno su cinque (18%) ha indicato completa fiducia.

Pur dichiarando un alto livello di fiducia nella GenAI e nell’Agentic AI, gli intervistati hanno espresso preoccupazioni legate alla privacy dei dati (62%), alla trasparenza e alla spiegabilità (57%) e all'utilizzo etico (56%).

Nel frattempo, l'AI quantistica sta acquisendo rapidamente considerazione, anche se la tecnologia necessaria per realizzare la maggior parte dei casi d’uso non è ancora stata pienamente sviluppata. Quasi un terzo degli executive afferma di essere familiare con l'AI quantistica e il 26% si fida completamente di questa tecnologia, nonostante le applicazioni nel mondo reale siano ancora nelle prime fasi.

Il ritardo nelle misure di sicurezza per l'AI indebolisce l'impatto il ROI

Lo studio ha mostrato un rapido aumento dell'utilizzo dell'AI - in particolare quella generativa, che ha superato quella tradizionale, sia in visibilità che in applicazione (81% contro 66%). Un trend che però porta con sé un nuovo livello di rischi e preoccupazioni etiche.

I ricercatori di IDC hanno identificato in tutte le regioni un disallineamento tra quanto le organizzazioni si fidano dell'AI e quanto la tecnologia sia realmente affidabile. Secondo lo studio, mentre quasi 8 imprese su 10 (78%) affermano di fidarsi completamente, solo il 40% ha investito per rendere i sistemi affidabili in modo dimostrabile attraverso governance, trasparenza e garanzie etiche.

La ricerca ha inoltre evidenziato come venga attribuita bassa priorità all’implementazione di misure per garantire un’AI affidabile nella fase di messa in operatività dei progetti di intelligenza artificiale.

Tra le prime tre priorità, solo il 2% ha indicato lo sviluppo di un framework di governance dell'AI e meno del 10% ha indicato lo sviluppo di policy di AI responsabile.

La mancanza di solide basi di dati e governance ostacola l'AI

Man mano che i sistemi di intelligenza artificiale diventano più autonomi e profondamente integrati nei processi, le basi dati assumono un’importanza sempre maggiore. La qualità, la diversità e la governance dei dati influenzano direttamente i risultati dell’AI, rendendo le strategie di gestione dei dati fondamentali sia per ottenere benefici (ad es. ROI, aumento di produttività) sia per mitigare i rischi.

Lo studio ha identificato tre principali ostacoli al successo delle implementazioni di AI: infrastruttura dati debole, scarsa governance e mancanza di competenze in AI. Quasi la metà (49%) delle organizzazioni indica basi di dati non centralizzate o ambienti di dati cloud non ottimizzati come una delle barriere principali. Questa preoccupazione è seguita da una mancanza di processi di governance dei dati (44%) e una carenza di specialisti qualificati all'interno della loro organizzazione (41%).

I partecipanti allo studio hanno riportato che il problema principale nella gestione dei dati utilizzati nelle implementazioni di AI è la difficoltà di accesso alle fonti di dati rilevanti (58%). Altre preoccupazioni includono questioni di privacy e conformità dei dati (49%) e qualità dei dati (46%).

“Per il bene della società, delle imprese e dei lavoratori, la fiducia nell’AI è imprescindibile”, ha concluso Bryan Harris, Chief Technology Officer di SAS. “Per raggiungere questo obiettivo, l'industria deve aumentare il tasso di successo delle implementazioni, le persone devono valutare in modo critico i risultati generati dall’AI e la leadership deve mettere i lavoratori nelle condizioni di valorizzare al meglio questa tecnologia”.

scopri altri contenuti su

ARTICOLI CORRELATI