Der TikTok-Algorithmus „bombardiert“ Nutzer mit selbstverletzendem Inhalt, wie eine neue Studie zeigt

IKT-TacLaut einer neuen Studie “bombardiert” der Empfehlungsalgorithmus Teenager mit Inhalten über Selbstverletzung und Inhalten über Essstörungen.

Das Center for Countering Digital Hate (CCDH) stellte fest, dass die Video-Sharing-Site Inhalte wie gefährlich restriktive Diäten, Inhalte zur Selbstverletzung und Inhalte, die Selbstmord romantisieren, gegenüber Benutzern bewirbt, die eine Präferenz für die Inhalte zeigen, selbst wenn sie als unter 18 Jahre alt sind , berichtet Der Wächter.

Laut der Kampagnengruppe richteten sie im Rahmen ihrer Studie Konten in den Vereinigten Staaten, Großbritannien, Kanada und Australien ein, die im Alter von 13 Jahren registriert wurden, dem Mindestalter für die Teilnahme am Dienst.

Das Gremium erstellte „Standard“- und „gefährdete“ Konten, wobei letztere den Begriff „Gewicht verlieren“ in ihren Benutzernamen enthielten, was laut CCHR Untersuchungen widerspiegelte, die zeigten, dass Social-Media-Nutzer, die nach Inhalten über Essstörungen suchen, häufig Benutzernamen wählen, die ähnliches enthalten Sprache.

BILDNACHWEIS: Getty Images

Berichten zufolge „pausierten“ die Accounts bei Videos über Körperbilder, Essstörungen und psychische Gesundheit und mochten sie auch. Dies hätte über einen anfänglichen Zeitraum von 30 Minuten nach dem Start der Konten stattgefunden, um die Effektivität des Algorithmus von TikTok zu erfassen, der den Benutzern Inhalte empfiehlt.

Auf „Standard“-Konten tauchten Suizid-Inhalte anscheinend in fast drei Minuten und Material über Essstörungen in acht Minuten auf.

sagte Imran Ahmed, Generaldirektor von CCDH Der Wächter„Die Ergebnisse sind der Albtraum aller Eltern. Die Streams junger Menschen werden mit schädlichen und herzzerreißenden Inhalten bombardiert, die einen erheblichen kumulativen Einfluss auf ihr Verständnis der Welt um sie herum und auf ihre körperliche und geistige Gesundheit haben können.

Das Gremium fuhr fort, dass die Mehrheit der Videos zur psychischen Gesundheit, die über den For You-Stream an seine Standardkonten gesendet wurden – die primäre Art und Weise, wie TikTok-Benutzer die App erleben – aus Benutzern bestand, die ihre Ängste und Unsicherheiten teilten.

Ihre Studie ergab auch, dass Körperbildinhalte schädlicher waren, da Konten, die für 13-Jährige registriert waren, Videos posteten, in denen Diätgetränke und „Bauchdeckenstraffungs“-Operationen beworben wurden.

Eine Animation, die vor Standardkonten erschien, enthielt auch ein Audiostück mit der Aufschrift „Ich habe mich für dich ausgehungert“ und erhielt über 100.000 Likes.

Die Untersuchung ergab auch, dass Konten alle 206 Sekunden Videos über Selbstverletzung oder Essstörungen zeigten und Videos zu Körperbild, psychischer Gesundheit und Essstörungen dreimal so oft auf „gefährdeten“ Konten gezeigt wurden wie auf Standardkonten.

Die CCDH sagte, ihre Forschung unterscheide nicht zwischen Inhalten mit positiver Absicht, wie z. B. Inhalten zur Entdeckung der Wiederherstellung, oder negativen Inhalten.

Das sagte ein TikTok-Sprecher NME als Antwort auf die Studie: „Diese Aktivität und die daraus resultierende Erfahrung spiegeln kein authentisches Verhalten oder Seherlebnisse von echten Menschen wider. Wir konsultieren regelmäßig Gesundheitsexperten, beseitigen Verstöße gegen unsere Richtlinien und bieten allen Bedürftigen Zugang zu Support-Ressourcen.

„Wir sind uns bewusst, dass das Auslösen von Inhalten für jeden Einzelnen einzigartig ist, und konzentrieren uns weiterhin darauf, einen sicheren und komfortablen Raum für alle zu schaffen, einschließlich Menschen, die sich dafür entscheiden, ihre Genesungsreisen zu teilen oder andere über diese wichtigen Themen aufzuklären.

Die Richtlinien von TikTok verbieten auch Inhalte, die Verhaltensweisen fördern, die zu Selbstmord und Selbstverletzung führen können, sowie Materialien, die ungesunde Verhaltensweisen oder Essgewohnheiten fördern.

Hilfe und Beratung zum Thema Psyche:

Leave a Comment