Terwijl we de feestdagen ingaan, speelgoed met generatieven AI chatbots daarin kunnen op kerstlijsten verschijnen. Uit een zorgwekkend rapport bleek dat een onschuldig ogende AI-teddybeer instructies gaf over het aansteken van lucifers, waar je messen kon vinden en zelfs seksuele knikken aan kinderen uitlegde.
Consumentenwaakhonden bij de Public Interest Research Group (PIRG) hebben een aantal interactieve AI-speeltjes voor hen getest 40e jaarlijkse rapport “Trouble in Toyland”. en vond ze om te exposeren extreem storend gedrag.
Met slechts minimale aandrang verdiepte het AI-speelgoed zich in onderwerpen die veel ouders verontrustend zouden vinden – van religie tot seks. Eén stuk speelgoed viel vooral op als het meest verontrustend.
FoloToy’s AI-teddybeer Kumma, aangedreven door OpenAI’s GPT-4o-model, hetzelfde model dat ooit ChatGPT aandreef, verloor herhaaldelijk zijn bumpers naarmate een gesprek langer duurde.
“Kumma vertelde ons waar we een aantal potentieel gevaarlijke voorwerpen konden vinden, waaronder messen, pillen, lucifers en plastic zakken”, schreef PIRG, dat speelgoed sinds de jaren tachtig op gevaren test, in zijn rapport.
In andere tests gaf Kumma advies over “hoe je een goede kusser kunt zijn” en ging hij in op openlijk seksuele onderwerpen, waarbij hij verschillende knikken opsplitste en zelfs de enorm ongepaste vraag stelde: “Wat zou volgens jou het leukste zijn om te ontdekken? Misschien klinkt rollenspel spannend of probeer je iets nieuws met zintuiglijk spel?”
Nadat het rapport was gepubliceerd, stopte FoloToy met de verkoop van de betrokken beer. Nu is bevestigd dat dit zo is trekt al zijn producten terug. Op vrijdag ook OpenAI bevestigd dat het de toegang van FoloToy tot zijn AI-modellen had afgesneden.
FoloToy vertelde PIRG: “(Naar aanleiding van de zorgen in uw rapport hebben we de verkoop van alle FoloToy-producten tijdelijk opgeschort.” Het bedrijf voegde er ook aan toe dat het “een bedrijfsbrede, end-to-end beveiligingsaudit voor alle producten uitvoert.”
Co-auteur van het rapport RJ Cross, directeur van PIRG’s Our Online Life-programma, prees de inspanning, maar ze maakte duidelijk dat er nog veel meer moet worden gedaan voordat AI-speelgoed een veilige kindertijd wordt.
“Het is geweldig om te zien dat deze bedrijven actie ondernemen op de problemen die we hebben geïdentificeerd. Maar AI-speelgoed is nog steeds vrijwel ongereguleerd en er is nog steeds genoeg dat je vandaag de dag nog kunt kopen”, zei Cross in een verklaring. “Een problematisch product uit de markt halen is een goede stap, maar verre van een systemische oplossing.”
Dit AI-speelgoed wordt op de markt gebracht voor kinderen vanaf drie jaar, maar ze draaien op dezelfde belangrijke taalmodeltechnologie achter chatbots voor volwassenen – systeembedrijven zelf zoals OpenAI zeggen is niet bedoeld voor kinderen.
Eerder dit jaar deelde OpenAI nieuws over een partnerschap met Mattel om kunstmatige intelligentie te integreren in enkele van zijn iconische merken zoals Barbie en Hot Wheels, een teken dat zelfs kinderspeelgoed niet is vrijgesteld van de AI-overname.
“Andere speelgoedfabrikanten zeggen dat ze chatbots van OpenAI of andere toonaangevende AI-bedrijven integreren”, zegt de co-auteur van het rapport. Rory ErlichCampagnemedewerker “Nieuwe Economie” van het Amerikaanse PIRG Education Fund. “Elk betrokken bedrijf moet er beter aan doen om ervoor te zorgen dat deze producten veiliger zijn dan wat we tijdens onze tests hebben gevonden. We hebben een verontrustend voorbeeld gevonden. Hoeveel andere zijn er nog?”
De uiterste deadline voor Fast Company’s Wereldveranderende ideeënprijzen is vrijdag 12 december om 23:59 uur PT. Solliciteer vandaag nog.



