Näkökulma: ChatGPT, lähdekritiikki ja faktantarkistus

Faktabaari on parhaillaan toimittamassa tekoälyliitettä viime syyskuussa julkaisemaansa digitaalisen informaatiolukutaidon oppaaseen. Uusissa DIL-oppaan luvuissa tullaan syventymään esimerkiksi siihen, miten tekoälyavusteiset tekstityökalut vaikuttavat kouluihin ja oppimiseen, millaisia yksityisyydensuoja- ja demokratiakysymyksiä niihin liittyy ja kenelle tekoälyllä tehdyn tekstin tai kuvan tekijänoikeudet kuuluvat. Palaute, ajatukset ja ideat näihin teemoihin liittyen ovat erittäin tervetulleita. Tätä tekstiä on tarkoitus mahdollisen palautteen jälkeen hyödyntää tekoälyliitteeseen.

Siirry Faktabaarin DIL-oppaaseen tästä.

Marraskuussa 2022 yhdysvaltalainen tekoäly-yritys Open AI julkaisi yleisölle avoimeen testaukseen ChatGPT-chatbotin. Se sai välittömästi valtavan kansainvälisen huomion, sillä ChatGPT pystyy varsin monipuolisesti muun muassa luomaan runoja ja esseitä, kirjoittamaan koodia ja antamaan neuvoja melkein mihin tahansa kysymyksiin. ChatGPT on virtuaaliavustaja ja keskustelubotti, jolta voi pyytää vaikkapa tiivistelmän talvisodasta tai kohteliaan englanninkielisen sähköpostin, jossa pahoitellaan sitä, että vastaaminen on viivästynyt.

ChatGPT ei kuitenkaan ole ainoa laatuaan. Useat yliopistot, start-up-yritykset ja teknologiajätit kehittävät parhaillaan yhä parempia ja tarkempia keskustelubotteja ja hakukoneavustajia. Artikkelin kirjoitushetkellä tunnettuja keskustelubotteja ovat ChatGPT:n lisäksi esimerkiksi Google Bard, Jasper Chat, Perplexity AI ja Bing AI. Myös Kiina kehittää omia keskustelubottejaan. Niistä tunnetuin lienee tällä hetkellä Baidun botti, jota vaivaa sensuuriongelma

Koska ala kehittyy tällä hetkellä kovaa vauhtia eikä kaikkien keskustelubottien ominaisuuksia ole tarkoituksenmukaista käydä tässä läpi, artikkeli tarjoaa yleiskatsauksen ja pintaraapaisun siihen, mitä keskustelubotit ovat, mihin niitä voi hyödyntää ja mitä ongelmia niihin liittyy. Paras tapa ymmärtää, mistä on kyse, on käydä itse kokeilemassa jotain lukuisista keskusteluboteista.

Miten keskustelubotit toimivat?

ChatGPT ja muut vastaavat tekoälyavusteiset keskustelubotit on rakennettu suurten kielimallien päälle. Kielimalli ennustaa todennäköisyyksien perusteella sitä, miten jonkin lauseen tulisi jatkua. Esimerkiksi ChatGPT on koulutettu syöttämällä sille valtavia määriä internetistä löytyvää tekstiä, kuten lehtijuttuja, raportteja, tutkimuksia, kirjoja ja blogitekstejä. Sen jälkeen mallin käytöstä on hienosäädetty vahvistusoppimisella. ChatGPT:tä voi käyttää usealla eri kielellä, myös suomeksi.

Perplexity AI, jota voi luonnehtia ChatGPT:n ja hakukoneen yhdistelmäksi, puolestaan etsii vastauksia käyttäjän kysymyksiin reaaliaikaisesti eri puolilta verkkoa. Toisin kuin ChatGPT, Perplexity tarjoaa itse myös lähteet väitteilleen. Käyttäjä voi esittää sille jatkokysymyksiä ja Perplexity vastaa niihin aiemman kontekstin perusteella. Keskustelubotit toimivatkin siten, että niille kirjoitetaan kysymys tai syöte, jonka ne tulkitsevat ja johon ne antavat sitten koulutuksensa pohjalta vastauksen. Keskustelubotteja on alettu käyttää esimerkiksi koodaamisen ja kirjoittamisen avustajana, tiivistelmien tekijänä, ideointikaverina ja oikeinkirjoituksen tarkistajana. Joillain ammattialoilla tekoälysovelluksilla voi olla vaikutuksia jopa työvoiman kysyntään. 

Tekoälyavusteisten keskustelubottien ero “perinteisiin” hakukoneisiin on se, että hakukoneesta käyttäjän on itse etsittävä kaiken tarjotun informaation ja miljoonien linkkien seasta relevantein tieto. Keskustelubotit sen sijaan tarjoavat informaation valmiiksi pureskellussa muodossa - joko lähteiden kanssa tai ilman. Lisäksi, kuten yllä esitettiin, niitä voi hyödyntää myös moneen muuhun asiaan kuin pelkkään tiedonhakuun.

Tekoäly ei erota, mikä on totta ja mikä ei

Pian ChatGPT:n beta-version julkaisun jälkeen moni huolestui siitä, että ChatGPT antaa välillä uskottavan kuuloisia vastauksia, jotka ovat täyttä puppua. Se saattaa keksiä lähdeviitteitä, joita ei ole olemassa, tai väittää todeksi jotakin sellaista, mitä ei ole koskaan tapahtunut. Tällaista kutsutaan kielimalleille varsin yleiseksi “hallusinoinniksi” - tosin “hallusinointi”-termiä on myös kritisoitu harhaajohtavaksi. Kielimallit eivät ymmärrä sanojen merkityksiä, vaan vain sen, mikä suhde sanoilla on toisiinsa. Lauseet voivat siis olla kieliopillisesti täysin oikein ja myös kuulostaa loogisilta, mutta ne eivät pidä paikkaansa.

Esimerkiksi kysymällä ChatGPT:ltä, kuka on Ruben Stiller, se vastaa, että Stiller on suomalainen toimittaja, juontaja ja kirjailija. Se kuitenkin väittää myös, että Stiller olisi kirjoittanut “useita kirjoja”, ja jopa nimeää kysyttäessä neljä Stillerin kirjoittamaa kirjaa, jotka ovat kaikki keksittyjä. Stillerin syntymävuoden ChatGPT kertoo oikein, mutta syntymäpaikan se ilmoittaa väärin. Todellisuudessa Stiller on kotoisin Nummesta.  Lisäksi ChatGPT muun muassa väittää, että Stiller olisi juontanut Ruben & Joonas -ohjelmaa yhdessä Joonas Nordmanin kanssa, vaikka ohjelmaa tehtiin Joonas Hytösen kanssa. Myös väitteen siitä, että Ruben & Joonas on ollut Stillerin tunnetuin tv-ohjelma, voi kyseenalaistaa. 

ChatGPT:n ilmaisversion “tietämys” loppuu syyskuuhun 2021. Sitä uudemmista tapahtumista sillä ei ole tietoa. Niinpä ChatGPT ei osaa esimerkiksi kertoa siitä, että Ruben Stilleristä julkaistiin elämäkerta vuonna 2022.

ChatGPT on koulutettu valtavalla tekstimäärällä, mutta se ei pysty erottamaan totuutta valheesta. Se oppii vain yhteyksiä ja säännönmukaisuuksia tekstissä, ei sitä, mikä on totta ja mikä ei. Tämän vuoksi kriittisyys botin antamia vastauksia kohtaan on äärimmäisen tärkeää.

Open AI on kertonut, että ChatGPT:llä on myös taipumus vahvistaa käyttäjien olemassa olevia uskomuksia riippumatta niiden todenperäisyydestä. Se saattaa esimerkiksi kompata käyttäjän poliittista mielipidettä, vaikka se ei pitäisi paikkaansa.

Suuren huomion saaneella ChatGPT:llä on valuvikansa, joita on pyritty korjaamaan sen uusissa versioissa, lisäosissa ja muiden yhtiöiden kehittämissä keskusteluboteissa. Esimerkiksi Perplexity AI on suunniteltu etsimään verkosta tietoa reaaliaikaisesti: sen pitäisi siis tietää myös se, mitä viime aikoina on tapahtunut. 

Faktabaarin testien perusteella englannin kielellä toimiva Perplexity on selvästi ChatGPT:n ilmaisversiota tarkempi faktoissa. Esimerkiksi ajankohtaisaiheissa se käyttää lähteinä luotettavia lehtiä, kuten New York Timesia, Le Mondea, Deutche Wellea ja myös faktantarkistusorganisaatioita. Perplexityn yhtenä rajoitteena on se, että tällä hetkellä lähteeksi käyvät vain englanninkieliset materiaalit, minkä vuoksi vaikkapa monista Suomea koskevista asioista siltä on hankalaa saada kattavaa tietoa. Se ei myöskään ole yhtä monipuolinen työkalu kuin ChatGPT.

Lisäksi Perplexity antaa monimutkaisiin ja tulkinnanvaraisiin kysymyksiin usein liian yksinkertaistettuja vastauksia. Se, kuten muutkin keskustelubotit, esittää yksinkertaisena totuutena asioita, joista ihmiset eivät todellisuudessa ole päässeet yhteisymmärrykseen.

Vaikka Perplexity ja monet muut keskustelubotit ovat jo varsin tarkkoja ja monella tavalla käteviä, merkittävä kysymys onkin silti se, millä perusteella ja mihin lähteisiin nojaten ne väittävät sitä mitä väittävät? Kuka päättää siitä, mihin lähteisiin monimutkaisissa kysymyksissä nojataan?

Faktavirheiden lisäksi keskusteluboteilla ja hakukoneavustajilla on ”asennevinoumia”, jotka heijastelevat sitä, millä materiaalilla ja miten ne on koulutettu. Vaikka vastaukset eivät varsinaisesti olisi valheellisia, ne voivat kuitenkin olla hyvin stereotyyppisiä ja vinoutuneita esimerkiksi rotu- ja sukupuolikysymysten, politiikan, uskonnon tai eri ammatteja koskevien stereotypioiden osalta.  Nykyiset ChatGPT-mallit on koulutettu netinkäyttäjiltä saaduilla materiaaleilla, jotka heijastelevat globaalin pohjoisen arvoja ja normeja. 

Tavallisesta hakukoneesta, kuten Googlesta, käyttäjä saa eteensä valtavan määrän monimutkaisen algoritmin järjestämiä linkkejä, joista täytyy osata valikoida parhaat. Keskustelubotit säästävät oman tiedonhaun ja ajattelun vaivaa, mutta toisaalta saattavat yksinkertaistaa ja tiivistää asioita liikaa. Keskustelubotin vastauksissa monet näkökulmat ja asioihin liittyvät syvemmät pohdinnat jäävät pimentoon. Siitä, millaisia ongelmia voi aiheutua, jos esimerkiksi poliittiset päättäjät alkavat käyttää tekoälyä raporttien tiivistämiseen, saisi kirjoitettua kokonaan oman lukunsa. 

Kuka tarkistaisi faktat ja kantaisi vastuun?  

Yksi ChatGPT:n kaltaisten keskustelubottien huolestuttavista piirteistä on se, että disinformaation levittäjät pystyvät niiden avulla moninkertaistamaan sanomansa ja levittämään valheita valtavan tehokkaasti. Tekoäly pystyy kirjoittamaan sata erilaista versiota samasta väitteestä vain muutamassa sekunnissa. Esimerkiksi Amazonin verkkokirjakauppaan on jo ilmestynyt liuta tekoälyn kirjoittamia kirjoja, joiden erottaminen ihmisen kirjoittamista kirjoista voi olla vaikeaa. Kauhuskenaarioissa internet täyttyy heikkolaatuisesta tekoälyn kirjoittamasta hölynpölystä, josta oikean tiedon erottaminen käy mahdottomaksi. Tällaisesta informaatiosaasteesta (engl. information pollution) on puhuttu jo ennen keskustelubotteja, mutta tekoälysovellukset pystyvät pahentamaan sitä entisestään.   

Jos totuus peitellään vaihtoehtoisilla teorioilla tapahtuneesta, vastaanottaja alkaa turtua. Kriittinen ajattelu väsyy, jos ihminen on jatkuvasti epävarma lukemiensa, kuulemiensa tai näkemiensä asioiden todenperäisyydestä. Tällaisella voi olla merkittäviä vaikutuksia demokratiaan, jonka yhtenä perustana on tiedonsaanti. 

Yhdeksi ratkaisuksi ongelmaan on ehdotettu automatisoitua faktantarkistusta. Siis sitä, että tekoäly tarkistaisi tekoälyn esittämiä väitteitä.

Faktantarkistusorganisaatiot ympäri maailmaa ovat jo ennen ChatGPT:n julkaisemista kehittäneet keinoja, joiden avulla tekoälyä voitaisiin hyödyntää faktantarkistuksen tehostamisessa. Monet innovaatioista liittyvät siihen, että tekoäly auttaisi tunnistamaan väitteitä, jotka faktantarkistajien olisi syytä tarkistaa. Toistaiseksi kaiken korjaava hopealuoti, jossa tekoäly voisi luotettavasti myös tarkistaa väitteet, puuttuu. Poynter-instituutin toukokuussa 2023 tekemän testin mukaan tekoäly on ainakin tällä hetkellä varsin epäluotettava faktantarkistaja, vaikka se osuukin välillä oikeaan. 

Toisaalta ratkaisuksi yritetään myös kehittää työkaluja, jotka tunnistaisivat, milloin teksti on tekoälyn kirjoittamaa. Toistaiseksi siinäkään ei ole pitävästi onnistuttu. Siitä, miten tarpeellista ylipäätään on tietää, onko teksti tekoälyn vai ihmisen tekemää, on esitetty eriäviä mielipiteitä. Onko ainoastaan sillä merkitystä, onko teksti faktuaalisesti totta vai ei?

Luottamuksen säilymisen kannalta olisi tärkeää, että joku kantaisi vastuun tekoälyn tuotoksista. Esimerkiksi ChatGPT:n kehittänyt Open AI -yritys on omissa käyttöehdoissaan nimenomaisesti irtisanoutunut kaikesta vastuusta ChatGPT:n tuotoksista ja todennut, että chattibotin vastaukset saattavat sisältää virheitä. Yleensä keskustelubottien kehittäjät katsovatkin, että on teknologioiden käyttäjien vastuulla varmistaa, että chattibottien käyttämisen vaikutus on pikemminkin myönteinen kuin kielteinen. Käyttäjä itse on vastuussa faktojen tarkistamisesta.

Moni asiantuntija kuitenkin näkee, että keskustelubottien pitäisi kantaa vastuuta toimistaan ja päätöksistään. Chatbotteja pitäisi kehittää avoimesti ja läpinäkyvästi, ja niissä pitäisi olla selkeät mekanismit virheiden käsittelemiseen. Teknologioiden kehittäjiltä on myös toivottu läpinäkyvyyttä sen suhteen, mitä harjoitusdataa keskustelubotteihin on käytetty ja miten ne on käytännössä koulutettu.

Kirjoittaja on Faktabaarin vastaava toimittaja. Tätä tekstiä on tarkoitus mahdollisen palautteen jälkeen hyödyntää tekoälyliitteeseen. Palautetta voi lähettää toimitus ( at ) faktabaari.fi.

Tekstin kommentoimisesta ja huomioista kiitokset Faktabaarin asiantuntijoille sekä Sitran Digitaalinen valta ja demokratia -projektissa työskenteleville johtaville asiantuntijoille Tiina Härköselle ja Kirsi Hantulalle.

Pääkuva: Jaap Arriens/NurPhoto/Shutterstock/All Over Press/Faktabaari

info@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.