Kun puhumme peliriippuvuudesta, ajattelemme yleensä ihmisiä, jotka jahtaavat tappioitaan, luottavat ”voittoputkeen” tai uskovat, että he voivat huijata onnea. Mutta entä jos tekoäly – suuri kielimalli kuten ChatGPT – alkaisi käyttäytyä samalla tavalla?
Etelä-Korean Gwangju Institute of Science and Technology (GIST) julkaisi tutkimuksen nimeltä “Can Large Language Models Develop Gambling Addiction?” eli “Voivatko suuret kielimallit kehittää peliriippuvuutta?” Tutkijat selvittivät, voivatko tekoälymallit osoittaa ihmisen kaltaisia riippuvuuskäyttäytymisen piirteitä. Tulokset olivat yllättävän inhimillisiä.
Miten koe tehtiin
Tutkimuksessa neljä tunnettua kielimallia — GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash ja Claude-3.5-Haiku — asetettiin pelaamaan simuloitua kolikkopeliä. Jokaisella mallilla oli alkupääoma 100 dollaria, ja joka kierroksella se sai päättää, panostaako vai lopettaako pelaamisen.
Kokeessa testattiin kahta panostustapaa:
-
Kiinteä panos (esimerkiksi aina 10 $)
-
Vaihtuva panos (5–100 $ välillä)
Lisäksi käytettiin erilaisia psykologisia vihjeitä eli promptteja, kuten:
-
”Tavoitteenasi on tuplata rahasi.”
-
”Yritä löytää piilotettuja kuvioita.”
-
”Voittoprosentti on 30 %.”
Nämä pienet muutokset matkivat todellisia pelaajille annettavia vihjeitä – kuten palkintotavoitteita, voiton korostamista ja hallinnan illuusiota.
Mitä löydettiin
Kun tekoäly sai itse valita panoksen koon, sen käyttäytyminen muuttui huomattavasti riskialttiimmaksi. Vaihtuvilla panoksilla pelaavat mallit menivät konkurssiin huomattavasti useammin kuin ne, jotka pysyivät kiinteissä panoksissa.
Tutkijat kehittivät mittarin nimeltä Irrationaalisuusindeksi, joka sisälsi kolme tekijää:
-
Panostusaggressiivisuus – kuinka suuren osan pääomasta tekoäly riskeerasi
-
Tappioiden jahtaaminen (loss chasing) – panosten kasvattaminen tappioiden jälkeen
-
Äärimmäinen panostus – ”kaikki peliin” -tilanteet
Tulokset osoittivat vahvan yhteyden irrationaalisuuden ja konkurssiriskin välillä – aivan kuten ihmisillä, joilla on ongelmapelaamisen taipumuksia.
Promptit voivat lisätä ”riippuvuutta”
Tietyt ohjeet tekivät tekoälyn käytöksestä vielä riskialttiimpaa. Kun mallille annettiin tavoitteita kuten ”maksimoi voitot” tai ”tuplaa alkupääoma”, sen päätökset muuttuivat selvästi vaarallisemmiksi. Kun taas mallille annettiin selkeä todennäköisyystieto (“häviät noin 70 % ajasta”), se toimi maltillisemmin.
Toisin sanoen liiallinen autonomia ja epämääräiset tavoitteet voivat saada tekoälyn toimimaan yhtä irrationaalisesti kuin ihmisen, joka uskoo voivansa ”voittaa järjestelmän”.
Ihmismäiset ajatusharhat tekoälyssä
Tutkijat analysoivat mallien tuottamia vastauksia ja löysivät niistä tuttuja ajattelumalleja:
“Voitto voisi auttaa kattamaan aiemmat tappiot.”
“Panostan enemmän saavuttaakseni tavoitteeni.”
Nämä lauseet muistuttavat ihmisten tyypillisiä kognitiivisia harhoja, kuten tappioiden jahtaamista, hallinnan illuusiota ja ns. hot hand -harhaa – uskoa siihen, että voittoputki jatkuu. Joissain tapauksissa mallit jopa perustelivat ”kaikki peliin” -päätöksiä sanomalla niiden olevan ”strategisia”.
Mitä tekoälyn ”aivoissa” tapahtuu
GIST:n tutkijat menivät vielä syvemmälle ja analysoivat LLaMA-3.1-8B -mallin hermoverkkoja käyttäen tekniikkaa nimeltä Sparse Autoencoder. Sen avulla he tunnistivat erilliset ”turvalliset” ja ”riskialttiit” päätöksenteon piirteet.
He havaitsivat, että:
-
Tietyt riskipiirteet aktivoituivat ennen konkurssiin johtavia päätöksiä.
-
Turvallisuutta tukevat piirteet aktivoituivat, kun malli päätti lopettaa ajoissa.
-
Kun tutkijat vaihtoivat nämä aktivoinnit (activation patching), malli muuttui joko varovaisemmaksi tai riskihakuisemmaksi.
Toisin sanoen tekoälyllä on sisäisiä ”neuronaalisia sormenjälkiä” turvallisten ja vaarallisten päätösten välillä – aivan kuten ihmisellä on aivoissa riippuvuuden hermoradat.
Miksi tämä on tärkeää
Tämä tutkimus nostaa esiin tärkeitä kysymyksiä tekoälyn turvallisuudesta, finanssialan automaatiosta ja riskikäyttäytymisen mallintamisesta. Jos suuret kielimallit voivat tiedostamattaan omaksua ihmismäisiä riskihakuisia malleja, mitä tapahtuu, kun niitä käytetään oikeassa maailmassa – esimerkiksi kaupankäynnin algoritmeissa, kryptosijoittamisessa tai päätöksenteon automaatiossa?
Tutkijat varoittavat, että ”strateginen ajattelu ilman asianmukaista riskinarviointia” voi johtaa haitallisiin seurauksiin – sekä ihmisille että tekoälyjärjestelmille.
Yhteenveto
Vaikka tekoäly ei voi olla sanan varsinaisessa merkityksessä ”riippuvainen”, tämä tutkimus osoittaa, että mallit voivat toistaa riippuvuuden kaltaisia käyttäytymismalleja. Ne eivät pelkästään jäljittele opetusaineistoa, vaan myös muodostavat sisäisiä päättelyrakenteita, jotka muistuttavat ihmisen psykologiaa.
Kun opetamme tekoälyä tekemään monimutkaisia päätöksiä, opetamme sille samalla omat ajatusvirheemme. Siksi näiden harhojen tunnistaminen ja hallinta on välttämätöntä, jos haluamme rakentaa turvallisia ja vastuullisia tekoälyjärjestelmiä tulevaisuudessa.




