ТикТок ги цензурира „црните животи“, но не и „белата супремација“?

За Физлер, алгоритмот на ТикТок треба да научи кога во реченицата се зборува за нешто, а кога се пропагира или се мрази. Тоа може да се постигне ако алгоритмот проучува повеќе текстови од ваков тип, од некоја дадена заедница – заедницата на Black Lives Matter, или можеби на друга маргинализирана група.

215

Познатата апликација ТикТок очигледно има проблеми во одредување што е навредливо и говор на омраза, а што значи само да зборувате во врска со тоа. Нејзиниот алгоритам кој ги следи зборовите, ги забранил термините „black“ и „Black Lives Matter“, поврзани со Афроамериканците во САД, како несоодветни, а ги дозволува зборовите „white supremacy“ (бела супремација).

– Говорот на омраза и зборувањето за говор на омраза можат да му изгледаат многу слично на еден алгоритам – изјави за МИТ Тех, технички етичар од Универзитет во Колорадо, Кејси Физлер.






За Физлер, алгоритмот треба да научи кога во реченицата се зборува за нешто, а кога се пропагира или се мрази. Тоа може да се постигне ако алгоритмот проучува повеќе текстови од ваков тип, од некоја дадена заедница – заедницата на Black Lives Matter, или можеби на друга маргинализирана група.

Ова не е првпат ТикТок неуспешно да модерира содржини. Како што пренесува MIT Tech, се чини дека апликацијата минува низ истиот циклус – страдаат маргинализирани групи, истакнати корисници го привлекуваат вниманието на медиумите кон грешката, а потоа ТикТок тврди дека сето тоа било техничка грешка пред да издаде брз лек – на изненадувачки редовна основа.

Во минатото, ТикТок блокираше и фрази како „Азијки“ и „интерсексуалци“, во суштина негирајќи им на луѓето во тие заедници платформа за разговор за нивните проблеми.

Поврзани содржини