Techbolagen: Det gör vi för att skydda unga i sociala medier
- AvLou Mikko
- FotografTT/press
Vad gör de stora plattformarna för att skydda ungdomarna som använder dem?
Sociala medier har blivit en självklar del av våra liv och på många sätt gjort det bättre: Vi kan lättare hålla kontakten med nära och kära, hitta sammanhang och ta del av nyheter och underhållning.
Men det finns också en baksida.
Studier visar att unga, och särskilt flickor, som spenderar mycket tid i sociala medier påverkas negativt av innehållet de tar del av. Skönhetsideal och kroppshets på plattformarna bidrar till negativ självkänsla och ångest, och i värsta fall depression och ätstörningar.
För att skydda unga har man i vissa länder valt att införa en åldersgräns för sociala medier. I Australien måste man snart vara 16 år gammal för att skapa konton på exempelvis Tiktok, Snapchat och Instagram. Här i Sverige vill regeringen undersöka om det är möjligt att införa en liknande åldersgräns, men redan nu pratar kritiker om hur svårt det kan vara att genomföra i praktiken.
Samtidigt ställs det krav på att företagen bakom de populära medierna tar ansvar och skyddar unga mot skadligt innehåll.
Femina granskar Smalgoritmen
I reportageserien Smalgoritmen undersöker vi smalhetsen på sociala medier och hur kvinnor i generationer kämpat mot ouppnåeliga ideal.
Genomlysningen är ett samarbete mellan Femina.se, Femina.dk och KK.no.
Här kan du ta del av hela granskningen.
Så jobbar sociala medie-plattformarna för att skydda unga
Videoplattformen Youtube har över två miljarder användare varje månad globalt, och är särskilt populär bland unga män. De har gjort ändringar i sin algoritm för att begränsa hur ofta barn och tonåringar får klipp som bidrar till osunda kroppsideal rekommenderade till sig. Exakt vad det innebär rent konkret är oklart, men enligt experter är begränsningarna lätta att komma runt och kräver att föräldrar tar ett väldigt stort ansvar.
Anna Wikland, nordisk chef för Google som äger Youtube, säger att företaget arbetar för ungas välmående genom att se till så att hjälpforum och organisationer hamnar högt upp i Googles sökfält.
– Ser vi mönster eller beteende, som visar tecken på skada eller att någon inte mår bra, så jobbar vi med att pusha upp länkar till hjälpforum och sådär, för att få människor i rätt riktning.
På Instagram finns sedan en tid tillbaka särskilda konton för tonåringar som innebär att de inte ska kunna ta del av innehåll med exempelvis droger eller farligt beteende. Meta, som äger appen, har tidigare lovat att inte visa inlägg om självskadebeteende eller ätstörningar för unga personer, men det finns begränsad information om hur det funkar i praktiken.
Tiktok: Så mycket innehåll raderas
Tiktok menar också att innehåll som uppmuntrar till ohälsosamma kroppsideal inte ska synas för användare under 18 år. Hur väl dessa ”ungdomsfilter” fungerar är svårt att säga.
Efter kritik från EU valde Tiktok tidigare i år att blockera taggen #skinnytok som kopplats till smalhets och viktminskningstips. Om man söker på taggen i dag får man istället upp en hjälpruta med telefonnummer till hjälporganisationen Frisk & Fri.
Enligt Lukasz Lindell, kommunikationsansvarig för Tiktok i Norden, ser man regelbundet över sina säkerhetsåtgärder för att hantera nya risker.
– Vi tar även bort felstavningar som ligger nära, och fortsätter utöver det moderera innehåll som bryter mot våra regler, oavsett vilka taggar det har kopplat till sig, säger Lukasz i en kommentar till Femina.
Han menar att 85,5 procent av alla klipp som bryter mot reglerna raderas proaktivt, alltså innan någon har anmält dem, och säger att plattformen regelbundet ser över sina säkerhetsåtgärder för att hantera nya risker.
– Vår moderering bygger på automatiska system, moderatorer och användare som flaggar innehåll till oss.
