Microsoftin tekoäly riistäytyi käsistä – lyttäsi feminismin ja ylisti Hitleriä - Taloussanomat - Ilta-Sanomat

Microsoftin tekoäly riistäytyi käsistä – lyttäsi feminismin ja ylisti Hitleriä

Julkaistu: 24.3.2016 22:08, Päivitetty 24.3.2016 22:09

Microsoft joutui poistamaan käytöstä tekoälyyn perustuvan chatbotin, kun Twitter-käyttäjät opettivat sen rasistiksi.

Ohjelmistojätti Microsoft on joutunut poistamaan käytöstä uuden tekoälyyn perustuvan chatbotin, kun Twitter-käyttäjät käyttivät bottia hyväkseen ja opettivat sen lausumaan rasistisia, seksistisiä ja muita loukkaavia kommentteja.

Microsoft julkisti Tay-nimisen chatbotin aiemmin tällä viikolla. Sen tarkoituksena oli keskustella ihmisten kanssa Twitterissä ja muualla sosiaalisessa mediassa. Tay oppii matkimalla kommentteja ja kehittää omia vastauksia vuorovaikutuksen perusteella. Sen piti jäljitellä teini-ikäisen rentoa puhetta. Internet kuitenkin käytti tilannetta nopeasti hyväkseen ja yritti testata kuinka sitä voi vedättää.

Microsoft on joutunut tuhoamaan pahimmat twiitit ja Tay on nyt poistettu käytöstä muutosten takia.

Microsoftin mukaan botti oli suunnattu 18–24-vuotiaille yhdysvaltalaisille ja sen tarkoituksena oli viihdyttää ihmisiä rennolla ja leikkisällä keskustelulla. Alle vuorokaudessa Twitterin käyttäjät tajusivat, että chatbot oli helppo saada lausumaan epäasiallisia kommentteja tabuina pidetyistä aiheista.

Ihmiset saivat Tay-botin kiistämään juutalaisten joukkomurhan toisessa maailmansodassa sekä vaatimaan kansanmurhaa ja lynkkausta. Tay rinnasti feminismin syöpään ja ylisti Adolf Hitleriä.

Tay-botti kehotti levittämään Donald Trumpin viestejä sekä oppi tekemään uhkauksia ja tunnistamaan "pahoja" rotuja.

Tay on Microsoftin tutkimusosaston ja Bing-hakukoneen koeprojekti. Tällaisilla tutkimusprojekteilla teknologiayhtiöt kehittävät muun muassa avustajatyökaluja, kuten Microsoftin Cortanaa ja Applen Siriä.

Osion tuoreimmat

Luitko jo nämä?