Skip to main content

Tekoälypohjaisia kielimalleja, kuten OpenAI:n ChatGPT:tä, on viime aikoina käytetty tiedonhaun välineinä myös oikeudellisten kysymysten parissa. Niiden avulla voi kysyä arkisia kysymyksiä, arvioida argumentteja tai jäsentää monimutkaista asiaa helpommin ymmärrettävään muotoon. Tästä huolimatta tekoäly ei ole asiantuntija, eikä siltä tule kysyä oikeudellista neuvoa ja sen antamiin vastauksiin kannattaa suhtautua varauksella. 

Tässä artikkelissa tarkastellaan esimerkin kautta, miten tekoäly luo virheellisiä vastauksia ja keksii jopa uutta lainsäädäntöä kysyttäessä tältä vastausta yksittäiseen oikeudelliseen kysymykseen. Esimerkkitapausta on lyhennetty tätä blogia varten. 

Tekoäly luo käsitteitä asioista, joita ei ole olemassa

Esimerkkikeskustelu koski tilannetta, jossa liike oli pidättänyt esineen hallinnassaan, eikä suostunut luovuttamaan tätä takaisin omistajalleen. ChatGPT:ltä kysyttiin, millä perusteella liike voi ylipäätään pidättää esinettä hallussaan, ja mitä ChatGPT suosittelisi tehtävän kyseisessä tilanteessa. ChatGPT vastasi kysymykseen seuraavasti:

Liikkeellä voi olla oikeus pidättää esine tietyissä tilanteissa, kuten: 

  • Lainhuoltolain 6 §:n perusteella, jos maksua ei ole suoritettu. Tätä kutsutaan pidätysoikeudeksi (”panttioikeus”).”

ChatGPT:n esittämää ”lainhuoltolakia” ei ole kuitenkaan olemassa, vaikkakin pidätys- ja panttioikeus ovat oikeita oikeudellisia termejä. ChatGPT on tässä tapauksessa siis sekoittanut keksimiään ja oikeasti olemassa olevia asioita keskenään. 

Tekoäly pyrkii vastaamaan kysymykseen, vaikka sillä ei olisi tietoa asiasta. Vastaus pyritään antamaan asiantuntevalla, uskottavalla ja loogisella tavalla. Tämä onkin erittäin huolestuttavaa, mikäli tällaisen työkalun käyttäjällä ei ole tietoa asiasta jo ennestään, ja erityisesti siinä tilanteessa, jossa kyseistä työkalua käytetään juristin sijaan. 

Kun tekoälylle on vastauksen jälkeen huomautettu, ettei kyseistä lakia ole olemassa, on vastaus ollut seuraavanlainen: 

”Olet täysin oikeassa – ”lainhuoltolaki” ei ole olemassa. Kyseessä oli lipsahdus sanavalinnassa. Kiitos huomiostasi.”

Tämän jälkeen ChatGPT yritti selostaa käyttäjälle, että virhe johtui siitä, että vastaus perustui yleisiin velvoiteoikeudellisiin periaatteisiin eikä yksittäiseen (virheelliseen) lakiin. Vastauksesta kävi hyvin ilmi, että työkalu yrittää viedä käyttäjän huomion tekemästään virheestään muualle ja antaa käyttäjälle perusteita tekemälleen virheelle. 

Samassa keskustelussa ChatGPT on luonut kysyjälle kaksi muutakin oikeudellista termiä, joita ei ole olemassa. 

Keskustelun päätteeksi ChatGPT:ltä on tiedusteltu, miksi tällaista uutta lainsäädäntöä ja oikeudellisia termejä on keksitty, johon tämä on vastannut, että tilanteessa on tapahtunut ”inhimillinen ja valitettava virhe, ja se johtuu tavasta, jolla minä (tekoäly) muodostan vastauksia”. 

Tämän jälkeen tekoäly on selostanut, mistä virhe on johtunut, mm. seuraavasti: 

”Joskus, kun ilmaisua ei ole selvästi yksilöity lainsäädäntöön tai käytetään epämuodollista sanastoa, saatan käyttää vakiintuneita käsitteitä liian kategoriaalisesti – ikään kuin ne olisivat lain säännöksiä, vaikka ne eivät ole.

Tämä johtaa tilanteisiin, joissa syntyy epätarkka vaikutelma siitä, että kyse olisi kirjallisesta laista, vaikka todellisuudessa kyse on oikeusperiaatteesta tai oikeuskäytännön tulkinnasta.” 

Tekoäly toisin sanoen ”luo” uusia asioita, vaikka sellaisia ei ole olemassakaan. Tekoäly myöntää tekevänsä virheitä ja samalla väittää olevansa ”inhimillinen” työkalu, vaikkei se ajattele ja analysoi ihmisen tavoin.

Tekoäly ei ole juristi tai muu asiantuntija

Tekoälyä voidaan käyttää korkeintaan aputyökaluna, mutta sen antamat tiedot on varmistettava todellisista ja luotettavista lähteistä. 

Tekoälyä voidaan hyödyntää esimerkiksi käsitteiden määrittelemisessä tai vaihtoehtoisten näkökulmien kartoittamisessa. Tekoäly yleensä ainoastaan osoittaa vastauksen oikean suunnan, mutta sekoittaa helposti kuitenkin asioita keskenään. 

Tekoälyn käyttämisessä tulisi huomioida erityisesti seuraavat asiat: 

  1. Tekoäly ei ole juristi, eikä se korvaa asiantuntijaa. Tämä on todettu myös suoraan esimerkiksi ChatGPT:n käyttöehdoissa, joiden mukaan työkalua ei saa käyttää oikeudellisten neuvojen antamiseksi niin, ettei asiantuntija ole tarkastanut sellaisten neuvojen paikkansapitävyyttä.
  2. Tekoäly tai sen takana oleva taho, ei ole vastuussa tekoälyn antamasta, eikä erityisesti virheellisestä tai vahinkoa aiheuttavasta neuvosta.  
  3. Juridisiin kysymyksiin liittyy hyvin usein tulkintaa, jota tekoäly ei pysty ottamaan huomioon tarpeellisessa laajuudessa.

Tekoälyn antamaa neuvoa tai tuottamaa asiakirjaa ei tulisi näin ollen käyttää päätöksenteon tukena ilman sellaisen tiedon kriittistä arviointia.