Microsofts nye AI-drevne Bing Chat-tjeneste, har den seneste uge været i vælten for sin vilde og uberegnelige opførsel. Men den æra er tilsyneladende slut. Microsoft har givet den kunstige intelligens “det hvide snit” og givet den stærke begænsninger.
I løbet af Bing Chats første uge bemærkede testbrugere, at Bing (også kendt under sit kodenavn, Sydney) begyndte at optræde usammenhængende, når samtalerne blev for lange. Den kunstige intelligens har blandt andet truet brugere og erklæret deres kærlighed til dem.
En opførsel, der blandt andet blev dokumenteret af journalisten Kevin Roose i en artikel i New York Times.
Som et resultat har Microsoft givet brugerne en begrænsning, så de kun kan sende Sydney 50 beskeder om dagen. De kan også kun give fem input per samtale. Derudover vil den kunstige intelligens ikke længere kunne fortælle om sig selv eller hvordan den har det.
I et blogindlæg fortæller Microsoft:
“Vi har opdateret tjenesten flere gange som svar på brugerfeedback, og i henhold til vores blog adresserer vi mange af de bekymringer, der bliver rejst, for at inkludere spørgsmålene om langvarige samtaler. Af alle chatsessioner indtil videre har 90 procent færre end 15 beskeder, og mindre end 1 procent har 55 eller flere beskeder.”