30 år gamle beboer i California, Shawn Kinnear, mottok en Amazon Echo smarthøyttaler som gave til jul i 2016. Eieren av enheten hevder at han sjelden brukte det.
Nylig overrasket Amazons personlige assistent Alexa i Amazon Echo og skremte eieren. 18. juni i år gikk Sean Kinnear fra kjøkken til rom da han hørte en setning som ble talt av Amazon Alexa med den vanlige intonasjonen:
I en tilstand av ekstrem overraskelse ba Sean Amazon Alexa om å gjenta det han sa, som AI-systemet svarte at det ikke forsto kommandoen. Eieren av høyttaleren uttalte at før denne frasen ikke ga kommandoer til høyttaleren, i tillegg fungerte ikke TV-en eller andre enheter som kunne provosere Alexa til en slik uttalelse i rommet.
Hva er det som gjør at Amazon Alexa oppfører seg annerledes enn utviklerne hadde tenkt? Vanlige programvarefeil eller ekte SkyNet-implementering? Eller kanskje er alt mye enklere, og Sean Kinnear bestemte seg for å spille en vits på denne måten?
Amazon har kommet med uttalelser om dette så langt.