TikToks algoritme viser utilsigtet racemæssig skævhed, finder forskeren

Justin Sullivan / Getty Images

Et lille eksperiment af en kunstig intelligensforsker rejser spørgsmål om, hvordan TikToks anbefalingsalgoritme foreslår nye skabere til brugere.





Specifikt er spørgsmålet, om den algoritme sorterer forslag baseret på skaberens race - noget TikTok benægter, at den gør med vilje. Men det er endnu et eksempel på behovet for mere undersøgelse af, hvordan appen og andre sociale medieplatforme promoverer bestemte skabere eller indhold.

Marc Faddoul er forsker ved University of California Berkeley School of Information, der studerer AI og desinformation. Han tjekkede TikTok for at lede efter desinformation, hvornår han lagde mærke til noget nysgerrig efter, hvordan appen anbefaler nye skabere at følge.

I appen, når en person følger en ny konto, kan de klikke på en pil, der derefter anbefaler andre konti at følge. Faddoul bemærkede, at da han gjorde dette, havde de anbefalede konti en tendens til at ligne den, han lige havde fulgt - helt ned til etnicitet og hårfarve.

'Jeg så dette meget klare mønster, der skete,' sagde han til BuzzFeed News. 'Når du følger en konto, ser forslagene meget ens ud.'

Han lavede en ny konto for at prøve den igen, og disse var hans resultater:

Marc Faddoul @MarcFaddoul

En TikTok-nyhed: FACE-BASED FITLER BUBBLES AI-bias techlash synes ikke at have haft indflydelse på nyere platforme. Følg en tilfældig profil, og TikTok vil kun anbefale folk, der ser næsten ens ud. Lad os gøre eksperimentet fra en ny konto: 1/6

18:50 - 24. februar 2020 Svar Retweet Favorit

Faddoul advarede om, at dette var et afslappet forsøg, ikke egentlig forskning, men han sagde, at resultaterne stadig er interessante.

BuzzFeed News prøvede et lignende eksperiment med en ny konto og fik lignende resultater.

Efter hijabi -skaberen @jiggybush fik appen til at anbefale andre kvinder, der bærer hijab.



TikTok

Og efter @uwayeme, en sort kvinde, fik anbefalinger til andre sorte kvinder.



TikTok

Først mistænkte Faddoul, at TikTok brugte AI -teknologi, der studerede folks profilbilleder, når de kom med anbefalinger. Andre teknologivirksomheder, som Netflix, bruger dette til at bestemme, hvilke miniaturer en bruger sandsynligvis vil klikke på. Derfor kan en persons Netflix -hjemmeside have forskellige billeder end en anden persons for at promovere det samme show.

Men ifølge TikTok er der et simpelt svar på de spørgsmål, som Faddoul rejser.

TikTok fortalte BuzzFeed News, at den bruger det, der kaldes kollaborativ filtrering. Grundlæggende anbefaler appen nye konti baseret på, hvem de mennesker, der følger den bruger, også følger.

'Vi har ikke været i stand til at replikere resultater svarende til disse påstande,' sagde en TikTok -talsmand til BuzzFeed News.

'Vores anbefaling af konti, der skal følges, er baseret på brugeradfærd: brugere, der følger konto A, følger også konto B, så hvis du følger A, vil du sandsynligvis også følge B.'

Det forklarer også, hvorfor appen, når man følger en stor skaber som Addison Rae, anbefaler andre skabere fra Hype House frem for skabere, der ligner Rae.



TikTok

Eller i et andet eksempel returnerer anbefalinger til andre kunstnere ved at følge en kunstner.



TikTok

Det er et klassisk system, der bruges af teknologivirksomheder fra YouTube til Netflix, men det betyder ikke, at det ikke er uden problemer, sagde Faddoul.

'Kollaborativ filtrering kan også gengive den bias, der er i folks adfærd,' sagde han.

'Folk, der har tendens til at lide blonde teenagere, har en tendens til at kunne lide en masse andre blonde teenagere. I den forstand er det lidt forventet. '

Hvad det betyder, er, at TikTok anbefalede BuzzFeed News 'testkonto kvinder, der bærer hijab, fordi folk, der følger en hijabi, har en tendens til at følge andre hijabis.

Men, sagde Faddoul, dette kan skabe en feedback -loop, hvor folk kun nogensinde anbefales en bestemt type skabere, hvilket fører til mangel på mangfoldighed i deres feed.

Marc Faddoul @MarcFaddoul

En risiko er at forstærke en 'dækningsbias' med en feedback -loop. Hvis de fleste populære påvirkere siger blondine, vil det være lettere for en blond at få følgere end for et medlem af et underrepræsenteret mindretal. Og sløjfen fortsætter ...

07:52 - 25. februar 2020 Svar Retweet Favorit

For eksempel sagde han, at hvis de mest populære skabere på en platform er hvide, og appen bliver ved med at anbefale andre hvide skabere, gør det det svært for skabere af farve at få tilhængere og popularitet - selvom det ikke er algoritmens hensigt.

'Så betyder det, at det er lettere for en hvid person at blive anbefalet end nogen fra et underrepræsenteret mindretal,' sagde han. 'Så det er noget, der kan ske, uanset dets ansigtstræk eller filtrering i samarbejde.'

Marc Faddoul @MarcFaddoul

Sociale medier har været kendt for at skabe filterbobler til politiske meninger. TikTok virker som den første store platform til at skabe så klare fysiognomiske bobler.

18:50 - 24. februar 2020 Svar Retweet Favorit

Dette er naturligvis næppe unikt for TikTok. Alle sociale medieplatforme, der bruger algoritmer, kan oprette bobler, hvor folk kun ser indhold, der bekræfter deres skævheder. Tænk for eksempel på, hvordan et Facebook -feed kan være forudindtaget i et bestemt politisk synspunkt.

'Dette er ikke en videnskabelig forskningsmetodik, bare anekdotisk bevis på, at den slags fremhæver et fænomen, der virker temmelig klart og tydeligt og tilskynder til yderligere undersøgelse,' sagde Faddoul.