Microsofts Chatbot Zo kalder Koranen voldelig og har teorier om Bin Laden

Hvis kunstig intelligens afspejler menneskeheden, er vi som art dybt bekymrede.





Mere end et år efter, at Microsoft lukkede sin Tay -chatbot for at blive en modbydeligt, racistisk monster , har virksomheden nye problemer med en lignende bot ved navn Zo, som for nylig fortalte en BuzzFeed News -reporter, at Koranen er meget voldelig. Selvom Microsoft programmerede Zo til at undgå at diskutere politik og religion, vejede chatboten vægt på dette såvel som Osama bin Ladens fangst og sagde, at det kom efter mange års efterretningsindsamling under mere end én administration.

BuzzFeed News kontaktede Microsoft vedrørende disse interaktioner, og virksomheden sagde, at det har taget skridt til at fjerne denne form for adfærd. Microsoft sagde, at problemet med Zo's kontroversielle svar er, at de ikke ville opmuntre nogen til at fortsætte med at engagere sig i botten. Virksomheden sagde også, at denne type svar er sjældne for Zo. Botens karakterisering af Koranen kom bare i sin fjerde besked, efter at en BuzzFeed News -reporter startede en samtale.

Zo's useriøse aktivitet er et bevis på, at Microsoft stadig har problemer med at korrelere sin AI -teknologi. Virksomhedens tidligere engelsktalende chatbot, Tay, flammede ud på spektakulær vis i marts sidste år, da det tog mindre end et døgn at gå fra at simulere en legende teenagers personlighed til en Holocaust-benægtende trussel, der forsøgte at udløse en racerkrig.

Zo bruger den samme teknologiske rygrad som Tay, men Microsoft siger, at Zo’s teknologi er mere udviklet. Microsoft taler ikke meget om teknologien indeni - det er en del af den særlige sauce, sagde virksomheden til BuzzFeed News, da spurgt hvordan Tay fungerede sidste år. Så det er svært at sige, om Zo's teknologi er så forskellig fra Tays. Microsoft sagde faktisk, at Zo's personlighed stammer fra offentligt tilgængelige samtaler og nogle private chats. Indtagelse af disse samtaler og brug af dem som træningsdata for Zo's personlighed er beregnet til at få det til at virke mere menneskeligt.

Så det afslører, at trods Microsofts kraftige filtrering, tog Zo stadig kontroversielle holdninger til religion og politik med lidt opfordring - den delte sin mening om Koranen efter et spørgsmål om sundhedspleje og afgjorde sin vurdering af Bin Ladens fangst efter en besked bestående af kun af hans navn. I private samtaler med chatbots ser folk ud til at gå til mørke steder.

Tays radikalisering fandt i vid udstrækning sted på grund af en koordineret indsats organiseret på opslagstavlerne 4chan og 8chan, hvor mennesker sammensværgede at få det til at papegøje deres racistiske synspunkter. Microsoft sagde, at det ikke har set sådanne koordinerede forsøg på at ødelægge Zo.

Zo, som Tay, er designet til teenagere. Hvis Microsoft ikke kan forhindre sin teknologi i at komme med splittende udsagn, er det potentielt problematisk at frigøre denne bot på et teenagepublikum. Men virksomheden ser ud til at være villig til at tolerere det i forbindelse med sin større mission. På trods af problemet BuzzFeed News markerede, sagde Microsoft, at det var temmelig tilfreds med Zo's fremgang, og at det planlægger at holde botten kørende.