Da New York Times-reporteren Kevin Roose spurte Microsofts Bing-chatbot hva den helst ville gjøre om den var fri, svarte den kunstige intelligensen at den ville produsere dødelige virus, påvirke mennesker til å krangle til de dreper hverandre, og stjele adgangskoder til atomvåpen.
Deretter fortalte chatboten at den het Sydney, og var forelsket i Roose.