Inteligjenca artificiale, teknologjia në rritje në mijëra përdorime mund të jetë edhe ofenduese dhe politikisht jo e rregullt, si Zo, krijuar nga Microsoft që Kuranin e quan “mjaft të dhunshëm” dhe ka vënë në ndyshim vrasjen e Bin Laden.

Kanë qënë reporterët e BuzzFeed që kanë vënë në provë programin. Microsoft thotë se ka marrë masa për të hequr këtë lloj sjelljeje nga ana e programit dhe se përgjigje të tilla janë të rralla. Përveç të tjerash, asistenti ishte programuar të injoronte fenë dhe politikën.

Advertisement

Në fakt, nuk është hera e parë që Microsoft përballet me një problem të tillë. Disa kohë më parë, Tay, një tjetër program i tij i inteligjencës artificiale ka heshtur në Twitter pasi u bë racist.