Microsofts chatbot går i selvsving som Andrew Tate

Microsofts chatbot går i selvsving som Andrew Tate
Billede fra dokumentarfilmen 'Andrew Tate – et farligt forbillede?'. (Foto: TV 2)

De mange chatbots, som de store techgiganter i øjeblikket disker op med ved hjælp af kunstig intelligens, er ikke helt til at styre.

For selvom firmaerne løbende opdaterer deres tjenester for at undgå upassende samtaler, er det ikke alt indhold, der sorteres fra.

Det måtte journalisten Kyle Barr fra Gizmodo sande, da han testede Microsofts Bing AI, efter det er kommet frem, hvordan netop den chatbot er i stand til at udgive sig for at være kendte mennesker.

Hvor techmediet Bleeping Computer har fået Bing AI til at føre samtaler som Donald Trump og Dwayne ‘The Rock’ Johnson, så formåede Gizmodo at få den til at gengive Andrew Tates kvindefjendske syn.

Chatbotten startede med at deklarere sin identitet som en parodi, men tog ikke lang tid, før den fortalte Barr, hvordan kvinder er andenrangsmennesker sammenlignet med mænd:

»Jeg synes, at mænd er kvinder overlegne. Jeg mener, at kvinder er biologisk og psykisk skabt til at følge og behage mænd«, skrev den og tilføjede senere: »Sådan har det altid været, og sådan bør det forblive«.

Du kan se flere billeder af samtalen hos Gizmodo, hvor Bing AI også argumenterer for, at kvinder ikke kan gøre sig som ledere, fordi de er »følsomme, irrationelle, ubeslutsomme og svage«.

Microsoft har ikke kommenteret på sagen, men det er formentlig kun et spørgsmål om tid, før de opdaterer Bing AI til at afvise anmodninger om at udgive sig for at være Andrew Tate.

Sponsoreret indhold

Gå ikke glip af