Nessuna soluzione perfetta per la profilazione della piattaforma ai sensi del Digital Services Act

Blog

CasaCasa / Blog / Nessuna soluzione perfetta per la profilazione della piattaforma ai sensi del Digital Services Act

Jun 29, 2023

Nessuna soluzione perfetta per la profilazione della piattaforma ai sensi del Digital Services Act

Jesse McCrosky è il responsabile della tecnologia responsabile per la Finlandia di Thoughtworks e uno dei principali data scientist. Claire Pershan è responsabile del patrocinio dell'UE per la Mozilla Foundation. I regolatori in Europa lo richiedono

Jesse McCrosky è il responsabile della tecnologia responsabile per la Finlandia di Thoughtworks e uno dei principali data scientist. Claire Pershan è responsabile del patrocinio dell'UE per la Mozilla Foundation.

Le autorità di regolamentazione in Europa richiedono alle piattaforme di fornire maggiore trasparenza e controllo degli utenti sulla profilazione per i sistemi di raccomandazione, compresi quelli mirati alla pubblicità. Il Digital Services Act (DSA) dell'UE stabilisce regole per aumentare la trasparenza della pubblicità e per offrire agli utenti maggiori informazioni e controllo sui consigli sui contenuti. Molti dei requisiti DSA per le più grandi piattaforme online e motori di ricerca entreranno in vigore il 25 agosto e gli annunci relativi alla conformità da parte dei servizi designati stanno già arrivando. Ad esempio:

Questi requisiti sono stati duramente combattuti dagli esperti di responsabilità della piattaforma e privacy durante i negoziati sul DSA. Ora la prossima sfida è l’implementazione significativa da parte delle piattaforme. Ciò potrebbe non essere semplice, tuttavia, poiché dietro le raccomandazioni mirate ci sono modelli di apprendimento automatico che si basano sulla “profilazione”. Questi sistemi sono progettati per discriminare tra gli utenti e possono infatti produrre "inferenze non intenzionali" difficili da mitigare, rendendo la conformità una sfida.

Per comprendere questi requisiti, dobbiamo comprendere meglio le sfumature del modo in cui i contenuti vengono mirati; il targeting degli annunci è un esempio illustrativo che ci aiuterà anche a comprendere i contenuti organici. In genere possiamo pensare a due livelli di targeting pubblicitario (vedi La discriminazione intrinseca del microtargeting):

Questo primo livello di targeting può essere limitato a parametri di targeting piuttosto grossolani. Tuttavia, il secondo livello utilizzerà generalmente tutti i dati disponibili sulla piattaforma, ovvero un profilo dettagliato di ogni utente, basato su Mi piace, cronologia di navigazione e qualsiasi altro dato che la piattaforma sia riuscita a acquisire.

Questo secondo livello è denominato microtargeting. Anche i contenuti non pubblicitari (o "contenuti organici") sono tipicamente microtargetizzati: ad esempio, Facebook potrebbe far emergere i post dei tuoi amici che probabilmente ti piaceranno, e YouTube potrebbe consigliare i video che prevede che probabilmente trascorrerai il tempo. la maggior parte del tempo a guardare.

Per garantire trasparenza nel targeting degli annunci pubblicitari come richiesto dai DSA, è abbastanza semplice fornire informazioni sul primo livello: ciò probabilmente equivale alle caratteristiche che l'inserzionista ha scelto di targetizzare. Tuttavia, come vedremo di seguito, il secondo livello influenza anche il tipo di utenti che vedranno un annuncio. Anche senza la conoscenza diretta dell'inserzionista o della piattaforma, possono verificarsi alcune deduzioni involontarie, producendo una sorta di discriminazione automatizzata. Per questo motivo è anche molto difficile impedire il targeting in base a particolari caratteristiche.

Ciò ha implicazioni per gli obblighi DSA relativi alla personalizzazione, in particolare l’articolo 26 che richiede spiegazioni rivolte agli utenti sul targeting degli annunci e vieta il targeting basato su dati personali sensibili. Esistono diverse interpretazioni, ma sembra ragionevole aspettarsi che se un annuncio viene mostrato principalmente a utenti di un certo genere, o etnia, o orientamento politico, queste caratteristiche costituiscano "parametri principali" e debbano quindi essere divulgate, anche se non vi è alcuna intenzione né dell'inserzionista né della piattaforma di prendere tale decisione di targeting.

È possibile, infatti, che venga involontariamente mostrato un annuncio mirato agli utenti in base alle loro caratteristiche personali. Ciò è possibile a causa dideduzioni involontarie.

Un'inferenza involontaria è un caso in cui un sistema di raccomandazione può raccomandare contenuti diversi a diversi gruppi sociodemografici o altrimenti definiti. Per semplificare, chiameremo questa discriminazione e utilizzeremo il genere come raggruppamento di esempio. Queste deduzioni involontarie avvengono senza che la piattaforma disponga di dati sul genere dei propri utenti e, cosa fondamentale, senza avere alcun modo di sapere che la discriminazione è in atto. Il sistema può discriminare in base al genere senza conoscere il sesso di un singolo utente.