Il mantenimento di un Internet "libero e aperto" passa inevitabilmente attraverso la capacità di garantire un ecosistema pubblicitario basato sulla fiducia. È questo il messaggio centrale del nuovo Ads Safety Report presentato da Google, che analizza le azioni intraprese nel corso del 2025 per proteggere utenti e inserzionisti. Kirith Sharma, alla guida dei team Ad Privacy e Safety di Mountain View, ha sottolineato come la monetizzazione sicura sia il motore che permette a editori e sviluppatori di offrire servizi gratuiti, ma che tale opportunità comporti una responsabilità cruciale nel garantire che gli utenti possano fidarsi dei contenuti che visualizzano.
La principale linea di difesa nell'ultimo anno è stata l'implementazione massiva dell'intelligenza artificiale generativa. Grazie all'integrazione di Gemini, i sistemi di Google hanno migliorato drasticamente la capacità di analisi proattiva: nel 2025, oltre il 99% degli annunci che violavano le policy è stato intercettato e bloccato prima ancora di raggiungere il pubblico. Complessivamente, l'azienda ha rimosso o bloccato più di 8 miliardi di annunci dannosi.
Come spiegato durante la presentazione, l'azienda si è focalizzata con estrema precisione su un approccio preventivo: «Il dettaglio fondamentale è la specificità con cui blocchiamo i sistemi che violano le nostre policy. Spesso possono nascere dibattiti sulla larghezza o sulla specificità di una norma, o se questa si sia adattata a una nuova minaccia». Questa capacità di bloccare gli attori malevoli a livello di sistemi e di configurazione degli account, analizzando centinaia di miliardi di indicatori come l'anzianità degli account e i segnali comportamentali, permette di neutralizzare le minacce in tempo reale.
Un aspetto fondamentale emerso dal report è la lotta contro i tentativi di aggiramento delle norme. I truffatori cercano spesso di nascondersi dietro zone grigie della regolamentazione, sostenendo di non aver violato formalmente una specifica clausola pur promuovendo attività palesemente fraudolente. L'IA oggi permette a Google di superare questi dibattiti formali, identificando l'intento malevolo e distinguendo meglio tra un'offerta credibile e un'esca sofisticata. Questa maggiore precisione ha portato a un beneficio collaterale per le imprese legittime, riducendo dell'80% le sospensioni errate degli account degli inserzionisti.
Per sostenere questo sforzo tecnologico, anche l'apparato normativo di Google ha subito una profonda accelerazione. La velocità con cui i malintenzionati cambiano strategia ha richiesto un monitoraggio costante e un aggiornamento continuo delle regole del gioco. «Un passaggio che ritengo importante è che, nel corso dell'ultimo anno, abbiamo apportato 35 modifiche alle nostre policy. Questo è un indicatore del fatto che stiamo tracciando l'evoluzione delle minacce e aggiornando i nostri regolamenti per assicurarci che, man mano che rileviamo nuovi elementi o dobbiamo riformulare una norma esistente, lo stiamo facendo fattivamente», ha dichiarato Sharma.
L'impiego di Gemini ha inoltre permesso di gestire le segnalazioni degli utenti con un'efficienza quattro volte superiore rispetto all'anno precedente. L'obiettivo per il 2026 resta quello di creare un ambiente dove l'innovazione tecnologica sia sempre un passo avanti rispetto alle minacce, garantendo trasparenza attraverso la pubblicazione periodica di questi report che, come ribadito dal team, servono a spiegare «quali sono le categorie e i volumi per le diverse tipologie» di violazioni intercettate.