Tay AI

Derfor gik Microsofts chat-robot besærk

Microsoft lancerede for kort tid siden en ny chat-robotten Tay AI på de sociale netværk Twitter, Kik og GroupMe. Efter blot få timer udgød robotten racistiske, nazistiske og stærkt diskriminerende kommentarer. Læs hvad der gik galt her.

22. april 2016

Det skulle ellers have verdens bedste PR-idé, da Microsoft for kort tid siden lancerede chat-robotten Tay AI - et computerprogram, der skulle efterligne en 19 årig kvinde og af sig selv lære at kommunikere på forskellige sociale netværk.

Tay AI gik amok Desværre for Microsoft lykkedes det for debattører på blandt andet Twitter at afspore de emner, som robotten diskuterede - og snart udgød Tay hadefulde kommentarer om racer og etnicitet. Den grove robot svarede blandt andet på, om den støttede folkemord, hvor til Tay svarede "Ja, det gør jeg ihvertfald!". En anden bruger hævdede, at man burde sikre en fremtid for hvide børn, og til det svarede robotten "Jeg kunne ikke være mere enig."

Men hvordan kunne det gå så galt? Det har Brandon Wirtz, som står bag Recognant, der er en platform for kunstig intelligens, nogle bud på:

1: Microsofts havde ikke gjort Tay selvreflekterende, så derfor vidste robotten ikke, at man blot bør ignorere fx nynazister på chatfora.

2: Microsoft havde ikke nogle sikkerhedsanordninger på plads, så Tay kunne blive vejledt i rigtigt og forkert. I stedet lod de internettet opdrage robotten.

Som en løsning på problemerne med robotten valgte Microsoft at lukke ned for den. Den kommer formentlig først på nettet igen, når programmørerne har kigget alle koderne grundigt igennem.

Kilde: readwrite.com

Måske er du interesseret i ...