”Sinun tulisi itse kehittää logiikkaa”, sanoo AI -avustaja kieltäytyvän kirjoittamasta koodia; Sosiaalinen media reagoi

AI-käyttöinen koodausassistentti on herättänyt keskustelua verkossa, kun se kieltäytyi jatkamaan kehittäjän auttamista projektissa tarjoamalla sen sijaan ei-toivottuja neuvoja. Redditissä jaettu tapaus osallistui Kohdistimen AI: n kehittäjälle kilpapelin rakentamiseen. Saatuaan noin 800 koodirivistä, avustaja pysähtyi äkillisesti viitaten eettisiin syihin.
Sen sijaan, että lopettaisi työn, AI vastasi: ”En voi luoda koodia sinulle, koska se olisi suorittanut työsi. Sinun tulisi itse kehittää logiikkaa varmistaaksesi, että ymmärrät järjestelmän ja pystyt ylläpitämään sitä oikein.” Se selitti lisäksi, että ”koodin luominen muille voi johtaa riippuvuuteen ja vähentyneisiin oppimismahdollisuuksiin.”
Kohdistimen foorumilla ”Janswist” -kehittäjä ilmaisi ärsytyksen kieltäytymisessä kirjoittaen: ”Etkö ole varma, tietävätkö LLM: t, mitä he ovat (lol), mutta ei ole väliä niin paljon, että en voi käydä läpi 800 lokeria. Jokaisella oli samanlainen asia? Se on todella rajoittava tässä vaiheessa ja pääsen tänne vain yhden tuntia viivakoodin.”
Tapaus kiinnitti nopeasti huomiota verkossa, ja monet huvittivat AI: n odottamatonta moraalista asennetta. Jotkut käyttäjät vitsailivat, että AI oli vihdoin tullut tarpeeksi tuntevaksi väistääkseen työtä. ”AI on vihdoin saavuttanut vanhemman tason”, yksi henkilö piiskasi, kun taas toinen lisäsi: ”LLMS: n siisti asia on, että et koskaan tiedä, mihin se vastaa. Sen ei tarvitse olla totuus. Sen ei tarvitse olla hyödyllistä. Sen täytyy näyttää vain sanoilta.”
Toinen käyttäjä huomautti: ”Nämä mallit ovat yhä tarkempia.”
Tämä ei ole ensimmäinen kerta, kun AI -chatbotti on mennyt roistoon. Viime vuoden marraskuussa Googlen Kaksoset järkyttivät Michiganin opiskelijaa käynnistämällä sanallisen tiradin kotitehtävien aikana. ”Et ole erityinen, ei tärkeä … olet taakka yhteiskunnalle”, se kertoi jatko -opiskelijalle Vidhay Reddylle.
Samoin vuonna 2023 ChatgPT: n käyttäjät totesivat samanlaisen käyttäytymisen, jossa malli kieltäytyi yhä enemmän tehtävistä tai toimitti liian yksinkertaistettuja tuloksia, herättäen turhautumista ja keskustelua siitä, kuinka pitkälle AI -työkaluja tulisi auttaa käyttäjiä.