Vain 26 % tarkkuus: siksi tekoälytekstin tunnistus lopetettiin kokonaan
Kuvittele maailma, jossa kone kirjoittaa esseen puolestasi, mutta kukaan ei osaa enää sanoa, kuka – ihminen vai algoritmi – on oikeasti näppäillyt sanat ruudulle. No, tervetuloa nykypäivään! Nyt OpenAI on päättänyt heittää pyyhkeen kehään työkalun kanssa, jonka piti ratkaista tämä arvoitus. Mitä tapahtui ja miksi tekoälytekstin tunnistus on niin vaikeaa?
OpenAI:n riskialtis veto: miksi kehitys pysähtyi?
Heinäkuun 20. päivänä OpenAI, tunnettu ratkaisuistaan kuten Chat GPT, päätti lopettaa tekoälyn ja ihmisen kirjoittamien tekstien tunnistuksen työkalun kehityksen. Syy? Karu tarkkuus – vain 26 prosenttia. Tulos ei juuri säväyttänyt, eikä tätä voi oikein rinnastaa Ponssen koneen täsmällisyyteen metsässä.
Tiivistettynä:
- OpenAI käynnisti Chat GPT:n marraskuussa 2022, mikä mullisti keskustelun tekoälyn ympärillä.
- Akateemikot, viranomaiset ja koululaitos ovat tuoneet huoliaan esille, miten regulaatio sekä käyttö saadaan pysymään aisoissa.
- Tammikuussa 2023 OpenAI julkaisi AI Text Classifier -työkalun. Sen tarkoitus oli erottaa ihmisen käsialan tekoälystä.
Mutta valitettavasti tämä ”classifier” ei kyennyt kuin 26 prosentin tarkkuuteen. OpenAI kuitenkin puolusti, että yhdistettynä muihin menetelmiin voisi päästä hieman fiksumpiin tuloksiin. Optimisti löytää tästä ehkä toivon pilkkeen – tai sitten kyse on siitä kuuluisasta sisusta, jota olisi kaivattu lisää.
Teknologian rajat vai resurssien puute?
OpenAI:n mukaan työkalu ei perustunut vedenpitävään logiikkaan, vaan antoi vastaukseksi todennäköisyyksiä tyyliin: ”erittäin epätodennäköinen”, ”epätodennäköinen”, ”epävarma”, ”mahdollinen” tai ”todennäköinen”. Ei siis suoranaista salapoliisityötä, vaan arvausleikkiä.
Eräs suurimmista kompastuskivistä oli väärä merkintä: työkalu saattoi leimata aidon ihmisen tekstin tekoälyn tuotokseksi. Todellinen sudenkuoppa oli kuitenkin jatkuvasti surkea tarkkuus. Parannusta ei saatu aikaiseksi, joten OpenAI pisti projektin säppiin.
- Väärät tulokset: ihmisetkin leimattiin koneeksi
- Parannusyrityksistä huolimatta tarkkuutta ei saatu nostettua riittävästi
OpenAI itse kommentoi vielä, että he yrittävät ottaa palautetta vastaan ja etsivät tehokkaampia keinoja tekstin alkuperän tunnistukseen. Lisäksi yhtiö aikoo kehittää mekanismeja, jotka auttavat käyttäjiä ymmärtämään, onko audiota tai kuvaa generoitu tekoälyllä.
Sääntelyn tuskaa – kuka ohjaa tekoälyä?
OpenAI:n ratkaisujen lisäksi muutkin teknologiayhtiöt, kuten Google Gemini, ovat tulleet markkinoille. Vaikka tekoälyn kirjoituskyvyt ovat herättäneet viranomaisten ja koulumaailman huolen, säännöstely on yhä vaiheessa.
Maailma siis pohtii yhä, kuinka tekoälyn käyttöä säädellään ja pidetään kurissa. Vaikuttaa siltä, että edes yritys, joka toi nämä keinot yhteiskuntaan, ei vielä pysty tarjoamaan välineitä niiden hallintaan. Se jättää sekä käyttäjät että valvojat ihmettelemään, onko teknologian kehityksen kyyti sittenkin liian nopeaa.
- Kansainväliset tahot epävarmoja, miten kontrolloida tekoälyä
- Toistaiseksi kehittäjätkään eivät tarjoa toimivia välineitä hallintaan
Loppusanat: kirjallisen maailman villi länsi?
Teknologian kehitys on salaman nopeaa – mutta OpenAI:n tapaus osoittaa, että ihan kaikkea ei noin vain ratkaista. Ihmisen ja koneen tekstin erottaminen on osoittautunut vaikeammaksi kuin moni kuvitteli. Tämä herättää kysymyksiä siitä, mihin teknologia on menossa – ja miten hyvin pystymme sitä ohjaamaan. Tällä hetkellä voimme vain seurata tilannetta, esittää hyviä kysymyksiä (ja ehkä arvuutella kenen kynästä seuraava luku on lähtöisin).
Ehkäpä aito käsiala tunnetaan vielä hetken – tai sitten olemme jo kaikki pikkuhiljaa tekoälyn jatkeita.
