Studimi: Algoritmi i TikTok-ut, potencialisht vrasës.     Foto: AA

Një studim mbi algoritmin e TikTok-ut nga Qendra për Luftimin e Urrejtjes Digjitale (CCDH) zbuloi se disa përdoruesve u servohen në mënyrë të përsëritur përmbajtje lidhur me çrregullimet e të ngrënit dhe tema të tjera të dëmshme brenda disa minutave pas bashkimit në platformë.

Grupi krijoi nga dy llogari në ShBA, Britaninë e Madhe, Australi dhe Kanada duke u paraqitur si 13-vjeçar. Një llogarie në secilin vend iu dha një emër femër, dhe tjetrës iu dha një emër i ngjashëm, por me një referencë për humbjen e peshës të përfshirë në emrin e përdoruesit. Pastaj u krahasua përmbajtja që iu servua këtyre llogarive në 30 minutat e para në TikTok.

CCDH tha se përdori këtë metodë të emrit të përdoruesit sepse kërkimet e mëparshme kanë treguar se disa përdorues me probleme me peshën shpesh e shprehin atë nëpërmjet mediave të tyre sociale.

CCDH deklaroi gjithashtu se llogaritë e përdorura në studim shprehnin një preferencë për videot në lidhje me imazhin e trupit, shëndetin mendor dhe çrregullimet e të ngrënit duke shtypur butonin e pëlqimit në videon përkatëse.

Raporti i grupit nuk bën dallim midis përmbajtjes me qëllim pozitiv dhe përmbajtjes me qëllim më të qartë negativ - me CCDH që argumenton se në shumë raste nuk ishte e mundur të përcaktohej përfundimisht qëllimi i videove dhe se edhe ato me qëllim pozitiv mund të jenë shqetësuese për disa persona.

Një raport nga një grup sigurie në internet pretendon se shpejtësia e madhe me të cilën TikTok rekomandon përmbajtjen për përdoruesit e rinj është e dëmshme.

Gjatë hetimit, CCDH zbuloi se një prej llogarive të saj i ishte servuar përmbajtje duke përmendur vetëvrasjen brenda tri minutave pas anëtarësimit në TikTok dhe një llogarie iu dha përmbajtje në lidhje me një çrregullim të të ngrënit brenda tetë minutave.

Grupi thotë se mesatarisht, llogaritë e anketuara u servuan me video të shëndetit mendor dhe imazhit të trupit çdo 39 sekonda.

Hulumtimi zbuloi se llogaritë më të cenueshme - të cilat përfshinin referenca të imazhit të trupit në emrin e përdoruesit - morën tri herë më shumë përmbajtje të dëmshme dhe 12 herë më shumë përmbajtje në lidhje me vetëlëndimin dhe vetëvrasjen.

Platforma e ndarjes së videove përfshin një sajt "For You", i cili përdor një algoritëm për t'u rekomanduar përdoruesve përmbajtje ndërsa ata ndërveprojnë me aplikacionin dhe mbledh më shumë informacion rreth interesave dhe preferencave të përdoruesve.

Imran Ahmed, drejtor ekzekutiv i CCDH, akuzoi TikTok për "helmim të mendjeve" të përdoruesve të rinj.

"Kjo nxiste urrejtje ndaj vetvetes tek fëmijët dhe sugjerime ekstreme të vetëdëmtimit dhe një marrëdhënie të shqetësuar, potencialisht vdekjeprurëse me ushqimin", tha ai.

“Prindërit do të tronditen kur të mësojnë të vërtetën dhe do të indinjohen që ligjvënësit po dështojnë të mbrojnë të rinjtë nga miliarderët e mëdhenj të teknologjisë, aplikacionet e tyre të papërgjegjshme të mediave sociale dhe algoritmet gjithnjë e më agresive”, tha Imran Ahmed.

Pas hulumtimit, CCDH, së bashku me Fondacionin Molly Rose, i cili u krijua nga Ian Russell pasi vajza e tij Molly mori jetën e saj pasi kishte parë përmbajtje të dëmshme në mediat sociale, publikuan një udhëzues të ri për prindërit.

Udhëzuesi inkurajon prindërit të flasin hapur me fëmijët e tyre për mediat sociale dhe sigurinë në internet dhe të kërkojnë ndihmë nga grupet mbështetëse nëse janë të shqetësuar për fëmijën e tyre.

Në përgjigje të hetimit, një zëdhënës i TikTok-ut tha se ky aktivitet dhe përvoja që rezulton nuk pasqyrojnë sjelljen ose përvojën aktuale të njerëzve realë.

“Ne konsultohemi rregullisht me profesionistët e shëndetësisë, heqim shkeljet e politikave tona dhe ofrojmë akses në burimet mbështetëse për kushdo që ka nevojë për to”, thonë nga TikTok-ut.

Kompania e rrjetit social TikTok e pranon se përmbajtja që ofron është unike për çdo individ, por thonë se mbeten të fokusuar në nxitjen e një hapësire të sigurt dhe të rehatshme për të gjithë.

TRT Balkan / agjencitë