google bard cerchia

Google: “Con questo rapporto intendiamo condividere i progressi raggiunti nell’applicazione delle nostre policy”

«Miliardi di persone in tutto il mondo si affidano ai prodotti Google per trovare informazioni pertinenti e affidabili, inclusi gli annunci. Ecco perché abbiamo migliaia di persone che lavorano 24 ore su 24 per salvaguardare l’ecosistema della pubblicità digitale. Oggi pubblichiamo il nostro rapporto annuale sulla sicurezza degli annunci, il Google Ads Safety Report, con l’obiettivo di condividere i progressi raggiunti nell’applicazione delle nostre policy per inserzionisti e publisher, e per continuare a portare avanti il nostro impegno nel mantenere un Internet sano e supportato dalla pubblicità».

Inizia così il lungo comunicato con cui Google annuncia la pubblicazione del “Google Ads Safety Report”, rapporto annuale sulla sicurezza degli annunci.

Secondo l’azionda americana «la tendenza chiave del 2023 è stata l’impatto dell’intelligenza artificiale generativa. Questa nuova tecnologia ha introdotto cambiamenti significativi ed entusiasmanti nel settore della pubblicità digitale, dall’ottimizzazione delle prestazioni all’editing delle immagini. Naturalmente, l’intelligenza artificiale generativa presenta anche nuove sfide, che prendiamo in seria considerazione, e illustreremo il lavoro che stiamo svolgendo per affrontarle direttamente».

«Cosa altrettanto importante, l’intelligenza artificiale generativa rappresenta un’opportunità unica per migliorare in modo significativo il nostro impegno circa l’applicazione delle policy. I nostri team stanno adottando questa tecnologia trasformativa, in particolare i Large Language Model (LLM), in modo da poter garantire al meglio la sicurezza delle persone online» continua Google.

«Nel 2023, le truffe e le frodi su tutte le piattaforme online si sono rivelate in aumento. I malintenzionati aggiornano costantemente le loro tattiche per manipolare la pubblicità digitale al fine di truffare persone e aziende. Per contrastare queste minacce in continua evoluzione, abbiamo aggiornato rapidamente le policy, istituito team di controllo a risposta rapida e affinato le nostre tecniche di rilevamento».

Infine Google snocciola i numeri complessivi del 2023:

«Il nostro obiettivo è individuare annunci malevoli e sospendere gli account fraudolenti prima che arrivino sulle nostre piattaforme, o rimuoverli immediatamente una volta rilevati. L’intelligenza artificiale sta migliorando la nostra applicazione delle norme su tutti questi fronti. 

Nel 2023, abbiamo bloccato o rimosso oltre 5,5 miliardi di annunci, in leggero aumento rispetto all’anno precedente, e 12,7 milioni di account di inserzionisti, quasi il doppio rispetto all’anno precedente. Allo stesso modo, lavoriamo per proteggere gli inserzionisti e le persone rimuovendo i nostri annunci dalle pagine e dai siti dei publisher che violano le nostre norme, come contenuti sessualmente espliciti o prodotti pericolosi.

Nel 2023, abbiamo bloccato o limitato la pubblicazione degli annunci su oltre 2,1 miliardi di pagine di publisher, in leggero aumento rispetto al 2022. Stiamo anche migliorando nel contrastare le violazioni pervasive o gravi. Abbiamo adottato misure più ampie a livello di sito su oltre 395.000 siti di publisher, in netto aumento rispetto al 2022.

Per mettere in prospettiva l’impatto dell’intelligenza artificiale su questo lavoro: l’anno scorso oltre il 90% delle applicazioni di policy a livello di pagina dei publisher è iniziata con l’uso di modelli di apprendimento automatico, inclusi i nostri ultimi LLM.

Naturalmente, qualsiasi inserzionista o publisher può comunque presentare ricorso contro un’azione coercitiva se ritiene che abbiamo sbagliato. I nostri team lo esamineranno e, nel caso in cui venisse trovato un errore, verrà utilizzato per migliorare i nostri sistemi».

www.impresaitaliana.net

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Segnala a Zazoom - Blog Directory
informazione.it
%d blogger hanno fatto clic su Mi Piace per questo: