Nuovi modi per promuovere sicurezza e gentilezza su TikTok

In TikTok, crediamo che la nostra community debba essere fondata su rispetto, gentilezza e comprensione. Per aiutare le persone a mantenere relazioni digitali positive in linea con le nostre regole per un comportamento appropriato sulla piattaforma, ci impegniamo a mettere a disposizione della nostra community gli strumenti per mantenere il controllo delle interazioni con altri utenti.

Ecco perché oggi annunciamo nuovi aggiornamenti mirati a sostenere la sicurezza della nostra community e promuovere la gentilezza su TikTok, oltre a condividere una nuova edizione del nostro Rapporto sull’Applicazione delle Linee Guida della Community.

 

Promuoviamo un coinvolgimento autentico nei commenti

Accanto al nostro lavoro proattivo volto a rimuovere i contenuti e i comportamenti d’odio e di abuso che non rispettano le nostre Linee Guida, continuiamo a esplorare nuovi modi di aiutare la nostra community a tenere sotto controllo i commenti.

In particolare, abbiamo iniziato a testare una modalità che consente alle persone di individuare i commenti che ritengono irrilevanti o inappropriati. Il riscontro della community su questo strumento si aggiungerà così ai già numerosi elementi che utilizziamo per aiutare a mantenere la sezione dei commenti sempre pertinente e caratterizzata da un coinvolgimento autentico. Per non stimolare sentimenti negativi tra le persone all’interno della community o demoralizzare i creator, solo la persona che ha cliccato per indicare Non Mi Piace a un commento sarà in grado di vederlo.

 

Nuovi promemoria di sicurezza per i creator

Per rendere più semplici la ricerca e l’utilizzo degli strumenti offerti dalla piattaforma, stiamo sperimentando dei promemoria che guideranno i creator verso le opzioni di filtro, blocco multiplo e cancellazione dei commenti. I promemoria verranno visualizzati dai creator i cui video sembrano ricevere un’elevata attenzione negativa. Continueremo a rimuovere i commenti che non rispettano le nostre Linee Guida della Community e i creator protranno continuare a segnalarci uno o più commenti o account.

Nelle prossime settimane vi aggiorneremo sugli esiti di questi test e sulle date di progressiva introduzione delle funzioni, che andranno ad aggiungersi ai numerosi strumenti già disponibili. Per esempio, gli utenti possono filtrare i commenti rivedendoli tutti manualmente, oppure filtrandoli selezionando delle chiavi di ricerca. I creator possono anche decidere chi può commentare i loro contenuti fra Tutti, Amici (i follower che a loro volta seguono) o Nessuno. L’impostazione Tutti non è disponibile per i minori di 16 anni.

 

Applichiamo le Linee Guida della Community

Per proteggere la sicurezza della nostra community è importate rimuovere i contenuti che non rispettano le nostre Linee Guida. A questo proposito, oggi condividiamo il nostro Rapporto sull’Applicazione delle Linee Guida della Community per il quarto trimestre 2021, che rispecchia il nostro costante impegno a meritarci la fiducia dei nostri utenti assumendoci la responsabilità di mantenere sicura e accogliente la nostra piattaforma.

Continuiamo, inoltre, ad aggiungere nuove informazioni a ogni edizione del rapporto e, dall’inizio del 2021, abbiamo integrato dati dettagliati sulla quantità di contenuti rimossi con zero visualizzazioni, degli account rimossi perché probabilmente appartenenti a minori di 13 anni e delle attività di coinvolgimento ingannevoli. A partire da questa edizione, condividiamo informazioni sulle rimozioni di contenuti in più mercati e riguardo i costanti miglioramenti dei nostri sistemi al fine di individuare, contrassegnare e, in alcuni casi, rimuovere i contenuti non in linea. Questi investimenti hanno significativamente contribuito a rendere ancora più rapida l’individuazione e rimozione delle violazioni, in particolare di quelle alle policy sulle molestie, il bullismo e i comportamenti d’odio.

Dal primo rapporto nel 2021 a quest’ultima edizione abbiamo conseguito continui miglioramenti nella rimozione delle violazioni prima che i contenuti siano visualizzati anche una sola volta. Dal primo al quarto trimestre 2021, per esempio, le rimozioni di contenuti con zero visualizzazioni sono cresciute del 14,7% per molestie e bullismo, del 10,9% per i comportamenti d’odio, del 16,2% per l’estremismo violento e del 7,7% per il suicidio, l’autolesionismo e le azioni pericolose.

Proteggere le persone è un lavoro che non si ferma mai: i miglioramenti ai rapporti e agli strumenti di sicurezza riflettono il nostro costante impegno per la sicurezza e il benessere della nostra community. Non vediamo l’ora di condividere con voi le prossime novità sulla sicurezza della piattaforma.