TikTok es la última empresa de redes sociales en anunciar su plan para mitigar el contenido engañoso y violento tras la guerra entre Israel y Hamas. Una publicación de blog detalla punto por punto los pasos recientes, como la creación de un centro de comando «que reúne a miembros claves de nuestro equipo global de 40.000 profesionales de seguridad, que representan una variedad de experiencia y perspectivas regionales, para que sigamos siendo agiles en la forma en que tomamos medidas para responder a esta crisis en rápida evolución». La declaración de la compañía sigue a otras similares de Meta y X: ambas compañías habían recibido cartas del comisionado regulador de la Unión Europea que detallaban preocupaciones sobre desinformación.
Los pasos adicionales descritos por TikTok incluyen contratar «más» moderadores que hablen árabe o hebreo y actualizar periódicamente sus sistemas de detección automática para identificar contenido gráfico o violento para no exponer a los usuarios ni a los moderadores. Con ese fin, TikTok ha ampliado la atención de bienestar disponible para los moderadores de primera línea. En particular, un moderador demandó a TikTok en 2021 por trauma mental, alegando que veía entre tres y diez videos a la vez que presentaban eventos horribles como tiroteos escolares y canibalismo.
Los usuarios ahora también deberían ver pantallas de suscripción sobre imágenes gráficas que se mantienen en la plataforma por razones de «interés público» y restringen aún más la elegibilidad para Live en un intento de limitar la información errónea.
Según se informa, TikTok eliminó alrededor de 500.000 videos y puso fin a 8.000 transmisiones en vivo que ocurrieron en Israel y Gaza entre los ataques iniciales del 7 de octubre y la publicación de la declaración el 15 de octubre. En el futuro, la compañía planea implementar advertencias de información errónea en inglés, hebreo y árabe cuando se busquen ciertos términos.