Microsoft undskylder for AI-chatbots nazi-udtalelser
Efter at have lanceret maskinlærings-systemet 'Tay', har Microsoft måttet trække stikket efter et døgn. Selskabet åbnede op for Tay på Twitter med det formål at give det læring og forbedring af dets kunstige intelligens. Det skulle ske ved at interagere med 18 til 24-årige amerikanske brugere.
Men dette resulterede i noget, Microsoft kalder en koordineret indsats fra twitterbrugere i håb om at misbruge Tays evner til at kommunikere. I praksis lykkedes dette, da Tay begyndte at benægte holocaust, udvise støtte for nazismen samt komme med antifeministiske kommentarer.
Microsoft lukkede derfor for Tay og vil nu justere på systemet.