Quando un’azienda “rivela” il suo algoritmo, presta attenzione a ciò che non condivide. Ma gli esperti non sembrano affatto impressionati.

Di fronte a domande e speculazioni di vecchia data su come funziona il suo popolare feed “Per Te“, la settimana scorsa TikTok ha rilasciato alcuni dettagli su come funziona il feed in un post sul blog. La mossa giunge nel mezzo di uno sforzo più ampio di TikTok per apparire più trasparente, soprattutto perché la società deve affrontare le accuse di censura sia politica che estetica, nonché la crescente pressione da parte dei legislatori negli Stati Uniti sulla relazione di TikTok con la sua società madre con sede a Pechino, ByteDance.

Ma il post di TikTok ha raccontato una storia familiare su come funzionano gli algoritmi di feed. Secondo il recente annuncio di TikTok, una varietà di fattori basati sul modo in cui gli utenti interagiscono con l’app influenza ciò che finisce nel loro feed Per te; alcuni di questi fattori contano più di altri; e sono tutti al servizio di una salsa tecnica segreta che la piattaforma utilizza per fare la migliore ipotesi su ciò che prevede che gli utenti vorranno vedere. Questo flusso di lavoro non è così diverso dal modo in cui altre piattaforme di social media, come Facebook, descrivono i loro feed.

Aziende come TikTok generalmente vogliono massimizzare il coinvolgimento e il tempo spesi sulla loro piattaforma, il che li aiuta a vendere annunci pubblicitari. Esattamente come lo fanno è pensato per essere un po ‘un mistero. Tra le altre cose, non rivelare tutto ciò che accade dietro le quinte aiuta le aziende a dettare la comprensione degli utenti di determinati feed e la loro concezione degli algoritmi in generale. Quindi, mentre ora sappiamo un po ‘di più su come funziona l’algoritmo di TikTok, ciò che TikTok sceglie di non condividere è forse più importante.

Più riescono a tenere vicino al giubbotto, più ambiguo è capire“, ha dichiarato Kelley Cotter, uno studente di dottorato presso la Michigan State University che studia la consapevolezza pubblica degli algoritmi. “Senza il calore su di loro, sono in grado di progettare e riprogettare come ritengono opportuno senza essere appesantiti da regolamenti, azioni legali e utenti”.

Naturalmente, TikTok non è assolutamente unico nella scelta di non rivelare la formula esatta dietro il suo algoritmo. Ma la sua rivelazione non così grande sull’algoritmo For You serve a ricordare che quando le piattaforme dicono che ci dicono di più su come funzionano i loro algoritmi, spesso non ci dicono così tanto.

E fintanto che non rivelano esattamente come questi algoritmi incidono sugli utenti – e sui diversi tipi di utenti – le persone si assumono la responsabilità di capire come funzionano gli algoritmi di social feed. Alcuni potrebbero trarre delle conclusioni con cui queste piattaforme non sono necessariamente d’accordo.

TikTok assomiglia molto alle piattaforme che descrivono come funzionano i loro feed

Nel suo recente post sul blog, TikTok ha spiegato che la pagina per te di tutti è unica e gli utenti forniscono all’app informazioni esplicite ed esplicite che informano quali video potrebbero vedere in futuro.

Alcuni fattori, come se guardi video più lunghi fino alla fine, contano più di altri, come se uno spettatore e un creatore hanno sede nello stesso Paese. Per gli utenti che stanno appena avviando l’app, le loro preferenze iniziali – i loro interessi dichiarati, la loro risposta a un feed video generale e così via – aiutano a informare su come si presenta il feed Per Te.

Man mano che TikTok raccoglie più informazioni da quell’utente e da utenti come loro, ciò che viene mostrato nel feed For You continua ad essere regolato in base a ciò che l’algoritmo ritiene possano essere interessati. Sono coinvolti anche modelli predittivi, simili a molti altri sistemi di raccomandazione .

Quando decidi di seguire nuovi account, ad esempio, quell’azione aiuterà anche a perfezionare i tuoi consigli, così come l’esplorazione di hashtag, suoni, effetti e argomenti di tendenza nella scheda Scopri“, ha detto TikTok nel suo post sul blog.

L’azienda afferma che il feedback di un utente, come toccare “non interessato”, può anche svolgere un ruolo in ciò che appare nel feed For You. TikTok può anche impedire che determinati tipi di contenuto, come “procedure mediche grafiche o consumo legale di beni regolamentati”, finiscano qui.

Riconoscendo che le bolle di filtro possono essere un problema, TikTok afferma che tenta anche di diversificare i feed degli utenti. In particolare, la società ha affermato che il conteggio dei follower di un utente che pubblica un video, nonché i conteggi delle visualizzazioni dei video precedenti pubblicati da quell’utente, non influenzano direttamente se finiscono nel feed For You. La società ha ammesso che “è probabile che un video riceva più visualizzazioni se pubblicato da un account che ha più follower”.

Ma quanto è rivelatore ciò che TikTok ha condiviso? Non molto, hanno spiegato alcuni ricercatori.

Marc Faddoul, ricercatore presso l’Università della California Berkeley, ha dichiarato in un’e-mail che ciò che TikTok ha discusso è stato “dal punto di vista della ricerca, inutile”. Faddoul ha aggiunto che “tutto ciò che dicono è ovvio” e contrassegnato come non sorprendente “il fatto che facendo clic su” non interessato “si riduca l’importanza di contenuti simili [e] elencando tutti i tipi di interazioni dell’utente che” potrebbero “essere utilizzate per personalizzare il raccomandazioni “.

I dettagli nel recente post di TikTok coincidono anche con il modo in cui le aziende hanno precedentemente caratterizzato gli algoritmi che guidano i propri feed. Considera come Facebook descrive i fattori che giocano nel suo feed di notizie. Facebook riconosce che “migliaia di segnali che possono essere considerati per la classifica dei feed di notizie” e “alcune cose hanno un’influenza minore su ciò che vedi“. Questo sembra simile a quello che sappiamo anche dell’algoritmo di Instagram.

Cotter, dello stato del Michigan, ha anche notato che molto nel post di TikTok “ricorda molto da vicino quello che abbiamo visto in passato in aziende”. Ha indicato la sua precedente ricerca su una serie di post sul blog di Facebook che hanno lo scopo di descrivere il feed delle notizie. Cotter e i suoi colleghi hanno scoperto che la società era più focalizzata nello spiegare perché il feed funziona così, piuttosto che esattamente come.

Nicolas Kayser-Bril, reporter di AlgorithmWatch, un’organizzazione no profit che si concentra sul processo decisionale algoritmico, è giunto a una conclusione simile.

La lingua mi ricorda ciò che Facebook e Google scrivono nelle loro sezioni” Perché vedo questo annuncio? “: Apprendiamo che” un certo numero di fattori “sono in gioco”, ha detto Kayser-Bril in una e-mail. “In assenza di un controllo indipendente dell’algoritmo di TikTok, non c’è motivo di credere che ne sappiamo di più dopo aver letto la dichiarazione (certamente sappiamo di più su come l’azienda vorrebbe vedere il suo algoritmo, ma questa è una cosa completamente diversa) “.

TikTok non direbbe quanti fattori totali possono influenzare il feed. Il post sul blog afferma semplicemente che “le raccomandazioni si basano su una serie di fattori” e forniscono diverse categorie di tali fattori.

Quindi, quali tipi di informazioni sarebbero utili per comprendere effettivamente come TikTok e il suo algoritmo For You? Christo Wilson, professore di informatica alla Northeastern, sostiene che le sfumature del modo in cui il software comprende i contenuti è più rivelatrice.

Dovresti ottenere molto di più dai dettagli chiacchieroni di che tipo di caratteristiche o variabili stanno andando in raccomandazioni“, ha detto Wilson. “Guardano gli hashtag. Questa è la cosa più ovvia. Ma stanno guardando cose come il sentimento? ”

TikTok ha un problema di immagine

Il post sul blog di TikTok non è appena uscito dal nulla. Gli utenti sono stati a lungo assorti nel capire come ottenere video nel feed For You. Alcuni influencer di TikTok si sono persino rivolti a realizzare video per condividere i loro consigli su come raggiungere il feed For You, e alcuni hanno tentato di condurre i propri pseudo-esperimenti per vedere cosa attira le persone sulla pagina. Nel complesso, il funzionamento interno dell’algoritmo For You è almeno una fonte di interesse in qualche modo significativa sull’app stessa. I video con l’hashtag #TikTokAlgorithm hanno raccolto oltre 130 milioni di visualizzazioni.

Tutto ciò è fantastico per TikTok, che vince quando le persone trascorrono più tempo sulla sua app cercando di capire come funziona il suo algoritmo nel tentativo di diventare virale. Come ha scritto Rebecca Jennings di Vox all’inizio di quest’anno:

Il suo algoritmo serve a fornire contenuti di tendenza a un vasto pubblico, quindi anche gli account con una manciata di follower possono diventare estremamente virali nel giro di poche ore. I follower vengono accumulati molto più rapidamente rispetto ad altre piattaforme, quindi avere decine di migliaia di essi è relativamente standard per chiunque abbia avuto anche un piccolo successo.
I rapporti investigativi hanno rivelato altri fattori che potrebbero essere stati precedentemente in gioco all’interno del feed – fattori che non sono stati affrontati nel recente post sul blog di TikTok.

All’inizio di quest’anno, l’Intercept ha ottenuto documenti politici interni che incoraggiavano i moderatori di contenuti a limitare i video che compaiono nel feed “For You” che erano considerati “indesiderabili”, inclusi quelli con persone con una “forma corporea anormale” e “brutti sguardi facciali”. Secondo quanto riferito, TikTok ha anche contattato alcuni utenti di alto profilo della sua app per aggiornarli sul cambiamento delle regole e la società ha censurato il discorso politico sulla sua funzione di livestream.

Allo stesso modo, i moderatori di contenuti di TikTok con sede negli Stati Uniti hanno riferito al Washington Post di essere stati incaricati dallo staff TikTok di Pechino di censurare i discorsi politici e i contenuti considerati “volgari”. Questi rapporti hanno fatto eco ai documenti sulla moderazione dei contenuti acquisiti dal Guardian nel 2019, nonché ai precedenti rapporti dal sito tedesco Netzpolitik secondo cui TikTok aveva discriminato le persone con disabilità, nonché LBGTQ e le persone grasse.

Le linee guida a cui si fa riferimento erano un tentativo fuorviato di ridurre il cyberbullismo, redatto per l’uso in paesi limitati, ed erano ormai fuori uso da quando l’articolo è stato pubblicato”, ha detto a Recode un portavoce di TikTok.

Oggi adottiamo un approccio sfumato alla moderazione, incluso la creazione di un team globale con una profonda esperienza nel settore e la collaborazione con un consiglio consultivo di contenuti esterni di esperti in materia.”

TikTok ha annunciato all’inizio di quest’anno che avrebbe smesso di usare moderatori di contenuti con sede in Cina per proiettare contenuti al di fuori di quel paese. (A partire da lunedì, ha pubblicato annunci di lavoro per il personale di moderazione dei contenuti in città tra cui San Paolo, Brasile e Seul, Corea del Sud.)

A maggio, gli utenti di TikTok hanno partecipato a una campagna che intendeva mettere in evidenza il lavoro degli utenti di colore e aumentare la consapevolezza della censura sulla piattaforma. TikTok ha rilasciato una dichiarazione a giugno, riconoscendo la campagna e impegnandosi a investire in “strategie di moderazione per gestire meglio i contenuti potenzialmente violativi”, impegnandosi a “assicurarsi che [le sue politiche e pratiche] non limitino inavvertitamente l’esposizione per i creatori in base a chi sono “.

Anche TikTok ha un problema di trasparenza, ma non è solo

TikTok ha anche lavorato per reprimere le critiche sul fatto che la sua piattaforma non è trasparente. La società ha pubblicato il suo primo rapporto sulla trasparenza nel 2019, specificando le richieste del governo per la rimozione di dati e contenuti. In particolare, la Cina non era nella lista. TikTok ha anche annunciato quest’anno che avrebbe lanciato a Los Angeles un centro di trasparenza incentrato su “moderazione e pratiche relative ai dati”. Il recente post sul blog della società sull’algoritmo For You ha affermato che gli esperti che visitano quel centro saranno finalmente in grado di saperne di più su come funzionano i suoi algoritmi e rivedere il codice sorgente della società.

Ma il suo recente post sul blog non si aggiunge alla completa trasparenza. Kayser-Bril di Algorithm Watch ha affermato che “tali dichiarazioni sono solo una dichiarazione di intenti” e che lo standard di trasparenza dovrebbe essere un audit indipendente, in cui i ricercatori hanno accesso ai server e ai database di produzione. Kayser-Bril ha osservato che la menzione della società di fornire l’accesso al codice sorgente è stata “un passo nella giusta direzione”, ma non è ancora sufficiente.

In particolare, TikTok non direbbe chi sono o saranno quei ricercatori o se avrebbero fornito dati oltre il codice sorgente dell’azienda.

Faddoul, il ricercatore di Berkeley, ha suggerito che TikTok dovrebbe fornire stime di quanti fattori di impatto come il conteggio delle visualizzazioni hanno nell’algoritmo For You, nonché linee guida esplicite che i moderatori considerano, incluso il peso che le decisioni dei moderatori hanno sull’algoritmo. TikTok non ha pubblicato statistiche sull’applicazione della moderazione dei contenuti, che includeranno dati concreti sulla quantità di contenuti eliminati e per quali motivi (Facebook lo fa nei suoi rapporti sull’applicazione degli standard della comunità).

Faddoul ha aggiunto che i dettagli nei documenti di moderazione del contenuto interno contrassegnati dall’Intercept includono quelli che TikTok stesso dovrebbe divulgare pubblicamente. Mentre TikTok stabilisce le linee guida della propria comunità, la società non sembra rilasciare un rapporto sull’applicazione dei contenuti (lo fa Facebook).

Mentre TikTok riconosce il funzionamento generale del feed For You, la piattaforma non discute l’impatto che il feed ha effettivamente avuto sugli utenti. I creatori neri hanno sollevato preoccupazioni sulla censura, ad esempio, e domande sulla vera influenza dei moderatori di contenuti, nonché sul numero totale di fattori che possono effettivamente influenzare ciò che viene mostrato nel feed For You senza risposta.

Alla fine, ha detto Cotter, per capire davvero come funziona un algoritmo, è necessaria un’analisi empirica – uno studio su come il sistema ha un impatto sugli utenti – per vedere cosa sta facendo e come ciò influisce sugli utenti. Questo tipo di ricerca è talvolta condotto dalle piattaforme stesse e non rilasciato al pubblico. Ma anche se TikTok stesse effettuando analisi empiriche, non è chiaro se la società avrebbe agito su di esso. All’inizio di quest’anno, il Wall Street Journal ha riferito che Facebook non ha agito sulla ricerca interna scoprendo che il sito stava rendendo le persone più divisive e polarizzanti.

Le società di social media non sono necessariamente obbligate a rispondere a ricercatori esterni. Un recente audit dell’algoritmo di Instagram ha rilevato che le foto che presentavano una pelle più nuda avevano maggiori probabilità di essere potenziate sulla piattaforma. Facebook non ha risposto alle domande dei ricercatori, che sono state inviate circa un mese prima che lo studio fosse pubblicato da AlgorithmWatch. Un giorno dopo la pubblicazione, Facebook ha criticato lo studio e ha spiegato che la piattaforma presenta “post basati su interessi, tempestività dei post e altri fattori per aiutare le persone a scoprire i contenuti”.

Allora, qual è il punto di TikTok, Facebook o qualsiasi gigante dei social media che annuncia pubblicamente alcuni vaghi dettagli su come funziona il loro algoritmo?

“Sono promemoria PR”, afferma Cotter. “Stanno cercando di presentare questi sistemi nel modo in cui vogliono che vengano presentati e stabilire la rubrica per come dovrebbero essere valutati“.

Correzione: una versione precedente di questo post affermava che TikTok ha smesso di usare moderatori di contenuti in Cina all’inizio di questo mese. In effetti, la pratica si è fermata all’inizio di quest’anno. Il post è stato aggiornato per chiarire i tempi e l’ambito della modifica.

Open Sourced è reso possibile da Omidyar Network. Tutti i contenuti di Open Sourced sono editorialmente indipendenti e prodotti dai nostri giornalisti.