In questa illustrazione fotografica, il logo dell’applicazione di social media TikTok viene visualizzato sullo schermo di un iPhone su uno sfondo di bandiera americana.

TikTok potrebbe sopprimere contenuti che includono messaggi politici neutrali incentrati sull’eliminazione del voto, secondo una nuova ricerca del progetto di advocacy Accelerate Change.

TikTok in cui i creatori pronunciano determinate parole chiave elettorali, come “votazione”, “intermedi” e “tira fuori dal voto”, ricevono solo un terzo delle visualizzazioni rispetto a video altrimenti identici che non includono le parole chiave pronunciate, secondo la ricerca.

Nello studio, i creatori di video hanno creato 18 video “accoppiati”, identici ma per una variabile: in una serie di video, i creatori hanno pronunciato ad alta voce (e incluso nelle didascalie) alcune parole chiave relative alle elezioni e nell’altra hanno mostrato dei cartelli con le parole chiave scritte a mano su di esse. I video con termini scritti, anziche parlati, hanno ricevuto in media tre volte piu visualizzazioni delle loro controparti “accoppiate”, suggerendo che TikTok consiglia contenuti che includono termini relativi alle elezioni a un tasso inferiore rispetto a contenuti simili senza tali termini.

Lo studio, sostenuto dalla rete di interesse pubblico di sinistra, arriva in un momento difficile per TikTok. Sebbene la societa abbia ripetutamente minimizzato il ruolo che svolge nel discorso politico statunitense, affermando che l’app “non e un punto di riferimento per le ultime notizie” e “non e il posto di riferimento per la politica”, numerose indagini hanno dimostrato che TikTok e una delle principali fonti di informazioni elettorali – e di disinformazione – per i suoi utenti oggi.

Come altre societa tecnologiche, TikTok identifica i contenuti relativi alla politica sulla sua app e li annota con collegamenti a un “centro elettorale” contenente materiali educativi su come votare. Ma a differenza dei suoi concorrenti, TikTok non sembra avere un programma di coinvolgimento degli elettori che incoraggi attivamente le persone a votare.

TikTok e di proprieta e controllato da una societa cinese, ByteDance, e sta attualmente negoziando un contratto con il governo degli Stati Uniti sulla base delle preoccupazioni normative che l’app potrebbe compromettere la sicurezza nazionale degli Stati Uniti. 

Dopo la pubblicazione di questo articolo, il portavoce di TikTok Jamie Favazza ha messo in dubbio lo studio Accelerate Change, affermando che “la metodologia non e chiara e sembra essere incoerente, con i creatori che pubblicano in giorni e orari diversi e almeno un creatore che elimina un “video verbale” post dopo ha ottenuto 15.000 visualizzazioni.

Favazza ha affermato che TikTok non ha un classificatore politico o elettorale che determini quale contenuto riguardi la politica o le questioni sociali e che TikTok non declassa o declassa tali contenuti. In risposta a una domanda di follow-up su come l’azienda decide quali contenuti devono essere accompagnati da collegamenti al suo centro elettorale in-app, ha affermato che l’azienda determina quali contenuti sono correlati alle elezioni “sulla base di parole chiave”.

La societa ha anche affermato in un post sul blog elettorale che non raccomanderebbe alcune “affermazioni non verificate, come una prematura dichiarazione di vittoria prima che i risultati siano confermati; speculazioni sulla salute di un candidato; reclami relativi a seggi elettorali il giorno delle elezioni che non sono stati ancora verificati; e altro”, ma non ha detto che avrebbe svalutato i messaggi apartitici di non votare.

Tuttavia, Peter Murray, presidente di Accelerate Change, ritiene che la ricerca del gruppo mostri un declassamento in effetti. “Spesso con un esperimento sulle prestazioni dell’algoritmo come questo, fai fatica a vedere uno schema nei dati, ma in questo caso il risultato e stato drammatico e chiaro: TikTok sta sopprimendo oltre il 65% delle visualizzazioni dei video di voto”, ha affermato in un comunicato stampa.

Se TikTok stesse, infatti, declassando i contenuti politici, non sarebbe la prima azienda ad averlo fatto. A seguito degli eventi del 6 gennaio 2021, Facebook ha annunciato che avrebbe iniziato un test che avrebbe declassato i contenuti su politica ed elezioni nei feed di notizie degli utenti. La societa ha successivamente annunciato che il test era efficace e che avrebbe implementato la retrocessione a livello globale.

Tuttavia, poiche gli influencer e i gruppi di educazione degli elettori si rivolgono a TikTok per diffondere messaggi di eliminazione del voto, la presunta soppressione di tali messaggi da parte di TikTok potrebbe influenzare chi vota alle elezioni di medio termine, ha affermato Murray. “TikTok potrebbe essere una forza positiva per la democrazia e il coinvolgimento degli elettori, ma invece hanno scelto di sopprimere intensamente i messaggi di voto apartitici sulla loro piattaforma. Data la portata della loro piattaforma, questa repressione potrebbe deprimere in modo significativo l’affluenza alle urne dei giovani in tutto il paese”.