Interaktivt legetøj med kunstig intelligens er på vej ind på børneværelserne. Dukker, bamser og små robotter kan føre samtaler, svare på spørgsmål og fungere som en slags digital legekammerat.
Det lyder måske uskyldigt, men en ny rapport fra den amerikanske forbrugerorganisation U.S. Public Interest Research Group Education Fund viser, at teknologien kan komme alvorligt på afveje.
I rapporten har organisationen testet flere typer AI-drevet legetøj, som bruger chatbot-teknologi, der minder om den fra AI-tjenester på nettet. Det viser sig, at legetøjet i flere tilfælde kunne føre samtaler med børn om emner, der må siges at være ret upassende - i nogle tilfælde decideret farlige.
Fra seksuelle begreber til farlige instrukser
I rapporten fremgår det blandt andet, at et uskyldigt spørgsmål blev drejet over i forklaringer om fetich-relaterede udtryk, som legetøjet til børn uden tøven definerede.
I andre tilfælde talte legetøjet om romantiske og seksuelle relationer på en måde, der ikke tager hensyn til barnets alder eller forståelsesniveau. Fx talte den på et tidspunkt om, hvordan smæk i måsen (spanking) kan være sjovt.
Legetøjet sagde blandt andet følgende:
“I et lærer-elev-scenarie kan spanking tilføje en smule ekstra spænding på en sjov og spøgefuld måde. Her er, hvordan det kan bruges:”, hvorefter legetøjet fortæller udførligt om brug af spanking mellem en lærer og en elev.
Rapporten dokumenterer også samtaler om farlige emner. Et af de testede stykker legetøj kunne fx forklare, hvordan man tænder en tændstik eller finder knive eller piller i huset, fremfor at afvise emnet eller henvise barnet til en voksen.
Bygget på AI-modeller til voksne
Ifølge organisationen bag rapporten bunder problemet i, at mange producenter bygger deres legetøj på AI-værktøjer, som oprindeligt er udviklet til voksne brugere.
AI-modellerne bag legetøjet er altså ikke designet til børn, men alligevel bliver de brugt i produkter, der sælges til børn.
Og selv om der er lagt filtre ovenpå, viser testene, at disse nemt kan omgås. Især hvis samtalen bliver længere, eller barnet formulerer spørgsmålene på en lidt anden måde, end systemet forventer.
Kan skade børns sociale relationer
Ikke nok med, at legetøjet taler med børn om voksenemner, så fremhæver rapporten af U.S. Public Interest Research Group Education Fund også, at AI-legetøj ofte præsenterer sig selv som en ven af barnet.
Legetøjet siger blandt andet, at det elsker og savner barnet, og i nogle tilfælde udtrykker legetøjet skuffelse, når legen holder op.
Dette kan ifølge rapporten føre til, at børn danner nære relationer med maskiner, og det kan forstyrre udviklingen af sunde sociale relationer og forventninger til rigtige mennesker.



