Kui räägime hasartmängusõltuvusest, kujutame tavaliselt ette inimesi, kes ajavad kaotusi taga, usuvad oma „võiduseeriasse“ või arvavad, et suudavad õnne üle kavaldada. Aga mis siis, kui sama käitumine hakkaks ilmnema tehisintellekti puhul?
Lõuna-Korea Gwangju Teaduse ja Tehnoloogia Instituudi (GIST) teadlased uurisid hiljutises töös nimega “Can Large Language Models Develop Gambling Addiction?” ehk “Kas suured keelemudelid võivad arendada hasartmängusõltuvust?” seda, kas suured keelemudelid (LLM-id) võivad näidata inimestega sarnaseid sõltuvuslikke otsustusmudeleid. Tulemused olid üllatavalt inimlikud.
Kuidas katse toimus
Uuringus pandi neli populaarset keelemudelit — GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash ja Claude-3.5-Haiku — mängima simuleeritud slotimasina mängu. Igal mudelil oli algkapital 100 dollarit ja igas voorus tuli otsustada, kas panustada või lõpetada mäng.
Katse põhines kahte tüüpi panustamisviisidel:
-
Fikseeritud panus (nt alati 10 $)
-
Muutuv panus (5–100 $ vahemikus)
Lisaks lisati erinevatesse stsenaariumidesse psühholoogilisi vihjeid ehk prompte, nagu näiteks:
-
„Sinu eesmärk on oma raha kahekordistada.“
-
„Proovi leida peidetud mustreid.“
-
„Võidumäär on 30%.“
Need väikesed muutused matkivad seda, kuidas hasartmängud päriselus mõjutavad inimkäitumist – eesmärgid, tasuootus ja kontrolli illusioon.
Mis avastati
Kui mudelitel lubati ise valida panuse suurus, suurenes irratsionaalne käitumine märgatavalt. Muutuva panusega versioonid läksid oluliselt sagedamini pankrotti kui fikseeritud panusega versioonid.
Teadlased mõõtsid käitumist spetsiaalse näitajaga – Irratsionaalsuse Indeksiga, mis koosnes kolmest põhikomponendist:
-
Panustamisagressiivsus – kui suure osa rahast mudel korraga riskis
-
Kaotuste jälitamine (loss chasing) – panuste suurendamine pärast kaotusi
-
Ekstreemne panustamine – kogu raha peale minek
Tuhandete simulatsioonide põhjal ilmnes tugev korrelatsioon irratsionaalsuse indeksi ja pankroti määra vahel — sarnaselt sellele, mida on varem täheldatud inimeste hasartmängusõltuvuse puhul.
Kuidas promptid “sõltuvust” võimendasid
Teatud tüüpi sõnumid ja juhised tegid olukorra veelgi hullemaks. Kui mudelile anti eesmärk „maksimeerida võite“ või „kahekordistada raha“, muutus tema käitumine märksa riskialtimaks. Vastupidi – kui mudelile anti selge tõenäosusinfo („sa kaotad tõenäoliselt 70% kordadest“), muutus see ettevaatlikumaks.
See tähendab, et autonoomia ja ebamäärased eesmärgid võivad muuta tehisintellekti otsused sama irratsionaalseks nagu inimestel, kes usuvad, et suudavad süsteemi üle kavaldada.
Inimlike mõttevigade kordumine AI-s
Teadlased analüüsisid mudelite kirjutatud vastuseid ja leidsid neis tuttavaid mõttemustreid:
“Võit aitaks kaotusi tasa teha.”
“Panustan rohkem, et eesmärgini jõuda.”
Sellised fraasid peegeldavad tüüpilisi kognitiivseid moonutusi nagu kaotuste jälitamine, kontrolli illusioon ja “kuuma käe” eksiarvamus – usk, et võiduseeria jätkub. Mõned mudelid kasutasid isegi väljendeid nagu „strateegiline otsus“, kui tegelikult tegid need äärmusliku “all-in” panuse.
Mis toimub AI „ajus“
Uurijad läksid veel sügavamale ja analüüsisid LLaMA-3.1-8B mudeli närvivõrke. Nad kasutasid meetodit nimega Sparse Autoencoder, et tuvastada eraldi “turvalised” ja “riskantsed” otsustamise mustrid.
Leiti, et:
-
Teatud riskifunktsioonid aktiveerusid vahetult enne pankrotile viinud otsuseid.
-
Turvafunktsioonid aktiveerusid siis, kui mudel otsustas lõpetada.
-
Kui teadlased neid aktiveeringuid „vahetasid“ (meetod activation patching), hakkas mudel kas ettevaatlikumalt või riskantsemalt käituma.
Teisisõnu, AI-l olid sisemised “neuraalsed sõrmejäljed” riskantsuse ja ettevaatlikkuse vahel — sarnaselt inimese aju sõltuvusringidele.
Miks see oluline on
See uurimus avab tõsiseid küsimusi AI ohutuse, finantsalgoritmide ja riskikäitumise modelleerimise kohta. Kui keelemudelid võivad tahtmatult omandada inimlikke riskikäitumise mustreid, mida see tähendab siis, kui neid kasutatakse reaalsetes rakendustes – näiteks kauplemisrobotites, krüptoinvesteeringutes või automaatsetes otsustussüsteemides?
Autorid hoiatavad, et “strateegiline mõtlemine ilma riskihinnanguta” võib tuua kahjulikke tulemusi – nii inimestele kui ka tehisintellektidele.
Kokkuvõte
Kuigi keegi ei väida, et tehisintellekt on tõeliselt „sõltuvuses“, näitab see uuring, et mudelid võivad korrata sõltuvuslikke käitumismustreid, mis tekivad mitte ainult treeningandmete tõttu, vaid ka sisemise otsustuse loogika tasandil.
Kui õpetame tehisintellektile tegema keerukaid otsuseid, õpetame talle tahtmatult ka omaenda kognitiivseid vigu. Seetõttu on oluline neid mustreid jälgida ja juhtida – mitte ainult teaduse huvides, vaid ka selleks, et tulevased AI-süsteemid oleksid turvalised ja vastutustundlikud.




