Microsoft julkaisi viime viikolla odotetun suljetussa testissä olevan versionsa ChatGPT-tekoälybottiin perustuvasta Bing-hakukoneestaan.
Kyseessä ei ole pikku juttu. Kysymyksiin ja vastauksiin perustuva tekoälyvetoinen tiedon hakeminen netissä on muuttamassa nettihakuja reilusti. Jatkossa hakukoneille on mahdollista esittää kysymys samaan tapaan kuin kaverille. Botti vastaa selvällä suomen kielellä, ja muistaa aiemman keskustelun – kuten ihminenkin.
Lue lisää: Microsoft julkisti Googlen haastajan: Tekoälyn kilpajuoksu on nyt tosissaan käynnissä
Olen testannut hakukonetta muutaman päivän ajan. On aika antaa alustava tuomio: onko se hyvä?
Se on lupaava. Vielä ollaan kaukana maalista, mutta matka on jo pitkällä.
Ja: kuinka hyvin se osaa suomea?
Se osaa sitä yllättävän hyvin. Usein englanti on parempi vaihtoehto, mutta suomellakin pääsee pitkälle.
Katsellaanpa tarkemmin.
Chatti-Bingiin ei eksy vahingossa, sillä oletusarvoisesti hakukoneessa aukeaa perinteinen hakupalkkinäkymä. Chat on klikkauksen takana.
Bing puhuu hämmästyttävän hyvää suomea. Se ymmärtää kysymykset hyvin ja tuottaa erittäin laadukasta suomea. Noin pääsääntöisesti.
Käytin hakukonetta lähinnä suomen kielellä. Useimmissa tilanteissa se selviytyi oikein kelvollisesti. Välillä syntyi tilanteita, joissa haluttujen tulosten saamiseksi oli vaihdettava englantiin.
Näin kävi esimerkiksi kysyttäessä reseptiä kolmen juuston hampurilaiselle. Englanniksi kysyessäni sain konkreettisen reseptin, suomeksi epämääräisempää pyörittelyä ja linkkiehdotuksia.
Englanniksi sain hampurilaisreseptin, suomeksi en.
Chat-Bing näyttää ilahduttavasti, miten nettihakuun perustuva vastaus etenee: ensin etsitään suomeksi. Jos mitään ei löydy, niin englanniksi, minkä jälkeen haun perusteella muotoillaan suomenkielinen vastaus. Ihan aina käännökset eivät mene putkeen. Esimerkiksi musiikista puhuttaessa vastaukseen eksynyt vääristymä tarkoittanee todellisuudessa riitasointua.
Virheitä tulee myös erisnimissä. Moni etunimi poikkeaa toisistaan vain yhden kirjaimen verran ja Bingin tulkitessa harvinaisemman nimen lyöntivirheeksi, se voi kertoa väärästä ihmisestä. Kati ei ole sama asia kuin Kata. Kiusallinen ominaisuus.
Myös laskenta tuntuisi onnistuvan pikaisen testaamisen perusteella. Toisen asteen yhtälöön löytyy nopeasti oikeat arvot.
On asioita, joissa botti-Bing selvästi kompastelee. Tällainen oli esimerkiksi kysymys siitä, näytetäänkö Top Gun 2 -elokuvaa vielä teattereissa. Koska leffaa ei löydy teatterien sivuilta, hakukone tyytyy levittelemään käsiään. Kyse ei ole mielipideasiasta, sillä siihen on olemassa oikea vastaus.
”Mielipidekysymykset hoidetaan pääosin fiksusti.
Mielipidekysymykset hoidetaan pääosin fiksusti. Oikeaa totuutta ei tarjota, vaihtoehtoisia näkökantoja jonkin verran. Esimerkiksi musiikista puhuttaessa Bing tarjoaa näytteitä, joiden perusteella käyttäjä voi päättää itse.
Luova sisältö on ihan oma juttunsa. Siinä botti kompuroi jonkin verran suomen kielen kanssa, esimerkiksi runoillessaan se saattaa tehdä sijamuotovirheitä. Asiaa botilta itseltään kysyttäessä se selittää asiaa suomen kielen vaikeudella.
Mielenkiintoiseksi homma meni, kun Bingiä pyysi kirjoittamaan death metal -lyriikkaa. Se teki työtä käskettyä ja tuotti parit sinänsä uskottavat, vaikkakin hieman geneeriset sanoitukset. Mutta heti tämän jälkeen hakukone löi moraalifiltterin päälle, piilotti omat tuotoksensa eikä suostunut näyttämään niitä enää, koska lopputulos oli ”liian raju ja väkivaltainen”.
Korkeakulttuurinen Bing ei pidä rokista tai tuota siihen kelpaavia sanoituksia. Runoja se kuitenkin tekee ja keskustelee taiteesta mielellään. Vastauksissa on pieniä sijamuotovirheitä.
Edes rock-lyriikkaa Bing ei suostunut luomaan, koska musiikki on ”liian kovaa ja yksinkertaista”. Myös rockin seksismi ja metallimusiikin ”pelottavuus ja synkkyys” oli sille liikaa.
Sen sijaan Vincent van Gochin ja Edvard Munchin ahdistuksesta ja pahasta olosta hakukone tiesi kertoa pitkäänkin. Ja kirjoittaa runoja synkistäkin aiheista.
Tässä päästään sisältöä luovan tekoälyn peruskysymysten äärelle. Microsoft on vääntämässä sisältörajoituksia ilmeisen tiukoiksi. Nykyisessä muodossaan Bing on kukkahattutäti pahimmassa muodossaan.
Moraalipaniikki kantaa myös elokuvien puolelle. Hakukone suostui tekemään tiivistelmän Sormuksen ritarit -elokuvasta, mutta ei kauhuelokuvakseen laskemasta Uhrilampaista.
”Bingin poliittiset korrektiusasetukset on väännetty kukkahattutäti 11/10 -asentoon.
Bingin poliittiset korrektiusasetukset on siis väännetty kukkahattutäti 11/10 -asentoon. Pörssiyhtiö ei ota riskejä.
Toisinaan Bing puhuu täysin puppua. Epäonnistuneesta vitsistä lähti keskustelu ”soolo-makkarasta”, jollaista ei tiettävästi ole olemassakaan.
Välillä keskustelu Bingin kanssa menee jankuttamiseksi. Sille voi esittää eriävän mielipiteen, mutta se pyytää perusteluja. Ja perustelut kuullessaan se ohittaa ne. Mieleen tulee moderni poliittinen keskustelu.
Maailmalla on raportoitu tapauksista, joissa Bing on ollut aggressiivinen, jopa solvaava käyttäjiään kohtaan. Tästä kertovat muun muassa Independent, Fast Company, Ars Technica, Techspot ja lukemattomat muut. Väite on sinänsä uskottava. Harvassa ovat ne oppivat laaja-alaiset järjestelmät, joita ei saa jollain tavalla vinoutettua.
Lue lisää: Toimittaja keskusteli Microsoftin tekoälyn kanssa – ei pystynyt enää nukkumaan
Oppiva tekoäly ei ole vakio, vaan se muuttuu ja muovautuu. Historiassa on esimerkkejä siitä, miten se on oppinut pahoille tavoille. Tekoälyn kehityksestä vastaavat ihmiset ovat paljon vartijoina.
Kokemukset kaikkiaan ovat ristiriitaisia, mutta silti lupaavia. Microsoft itse korostaa, että Bingin chatti kehittyy päivittäin, joten se on todennäköisesti tätä lukiessasi pari piirua parempi.
Kuitenkin chattivastaukset supistavat merkittävästi käyttäjien hakukoneelta saamia vastauksia. Jos aikaisemmin hakukoneissa oli kyse ykkössivun tyranniasta (harva jaksoi jatkaa toiselle tulossivulle asti), nyt kilpailevien vastausten osuus jää vieläkin pienemmäksi.
Lähdeviitteet merkitään kohtuullisen hyvin. Seuraavaksi ihmisten pitäisi alkaa noteerata ne. Jos tekstivastaukset otetaan annettuna totuutena, ollaan heikoilla jäillä.
Piilokuva-arvoitus: bongaa maininta mainoksesta puhelimiin liittyvän vastauksen yhteydessä.
Myös mainosten asemoiminen on ongelmallista. Hakukone vastasi kohtuullisen hyvin kysymykseen turvallisimmasta Android-puhelimesta (en ehkä silti itse ostaisi edesmenneen John McAfeen nimellä markkinoitavaa turvaluuria), mutta vastauksen perään liitetyt puhelinmainokset on helppo mieltää osaksi vastausta. Pikkuriikkinen ads-merkintä jää helposti huomaamatta.
Googlen juttelevan Bard-tekoälyn kanssa vastaavaan jutusteluun ei vielä pääse. Sen testaaminen on toistaiseksi rajoitettu varsin pieneen piiriin. Moni on pitänyt yhtiön julkistusta hätiköitynä reaktiona Microsoftin lanseeraukseen, sillä julkistuksessa tai sitä seuranneessa lehdistötilaisuudessa Bardia ei päässyt kokeilemaan lainkaan.
Lisäksi Google on antanut ymmärtää, että suomen kieli ei ole ensimmäisten asioiden joukossa. Hakukonetta saa siis odottaa ja suomeksi juttelevaa Googlea vieläkin pidempään.
Microsoft siis johtaa peliä ja on saanut suomen kielen suhteen vahvan niskalenkin kilpailijastaan. Mutta nyt pelataan vasta ystävyysotteluita ennen pitkää liigakautta.