The quest for algorithm diversity: a dive into facebook.tracking.exposed dataset

2017-04-8 09:30:00 2017-04-8 10:15:00 Europe/Rome The quest for algorithm diversity: a dive into facebook.tracking.exposed dataset #ijf17 A giugno 2016, mentre Trump si dedicava a rendere la filter bubble un problema mainstream, se già non lo era dopo il Brexit, noi stavamo sviluppando https://facebook.tracking.exposed, che serve ad analizzare e capire concretamente come funzionano gli algoritmi. Osando un po' di più, serve a rendere visibile cosa sia la filter bubble a non addetti ai lavori. Rendere visibile non significa risolverlo, si tratta di un problema complesso, sia tecnologico che politico. Il nostro scopo è  almeno fornire dati oggettivi che possano descrivere il fenomeno a giornaliste e ricercatori che vogliono investigare sugli effetti di una dieta informativa guidata da algoritmi. Il progetto, nella sua fase beta, funziona collezionando quello che appare sulla tua timeline. spesso viene chiesto come sia differente da https://dataselfie.it: dataselfie ti mostra quello che tu dai a Facebook, noi l'opposto, quello che Facebook da a te. Una volta aggregati questi dati possono essere studiati, così da capire il fenomeno dalla filter bubble, o da comparare, ad esempio, da un gruppo di utenti omogeneo come Facebook mostri realtà differenti per ognuno. Questi sono effetti dei algoritmi di personalizzazione, la filter bubble, o altri effetti di censura implicita dei contenuti, sono degli effetti derivati. Tutto quello che facciamo è open source, puoi vedere come funziona, contribuire alla tecnologia ed alle analisi. Considerando l'impatto politico della diffusione di fake news e della filter bubble, noi consideriamo gli algoritmi di personalizzazione alla stregua di politiche sociali. Dovrebbero essere discusse, conosciute e scelte pubblicamene e dove possibile, indipendentemente. invece di assecondare le logiche di business. Questo è il motivo per cui non stiamo sviluppando, per ora, servizi, ma piuttosto un'infrastruttura di archivio che abiliti personale esperto a fare analisi di critica. Dagli anni passati, si sente sempre spesso di come Facebook e Google dovrebbero essere regolati, ma la società civile manca di strumenti adeguati per giudicare cosa effettivamente questi algoritmi fanno. Noi vogliamo dare questo strumento. Hotel Brufani - Sala Priori - Perugia

presentations | in English (without translation)

  • 09:30 - 10:15   saturday 8/04/2017

Hotel Brufani - Sala Priori

« back to the programme
Claudio Agosti
Good Technology Collective

While Trump was busy making  the filter bubble a mainstream problem, we were developing https://facebook.tracking.exposed. We can’t solve a political problem with technology but we might at least provide reliable data to help address the phenomenon objectively. The goal of the project is to collect the stories that make your Facebook Newsfeed, and to aggregate and analyse the data collected in order to study the relation between the filter bubble effects and how the personalization algorithm (PA) operates. Everything we do is open source so you can see how it works and help make it better. Filter bubble and fake news proliferation are a side-effect of PA. As 2016 shows us, PA can have a certain impact in our society. We treat algorithms as nothing less than social policies. But social policies have to be debated openly and not in a technical meeting intended to optimize revenues. That’s why we promote a collaborative study of PA.

Recently we have heard much about how Facebook and Google can be “regulated”, but civil society lacks a reliable tool to judge what PA are actually doing.

Facebook.tracking.exposed wants to remedy this. Our vision is to increase transparency behind personalization algorithms, so that people can have more effective control of their online Facebook experience and more awareness of the information to which they are exposed.

Our mission is to help researchers assess how current filtering mechanisms work and how personalization algorithms should be modified in order to minimize the dangerous social effects of which they are indirectly responsible and to maximize the values, both individual and social, that algorithms should incorporate.

In this session, I shall present the browser extension, how the supporter can get beneficial insights from it, and how algorithm auditors can use it to run their analysis.










2018 Il Filo di Arianna - contacts - Privacy Policy - © All rights reserved P.I. 02480770540