Niedawne badanie z udziałem głównych modeli językowych wykazało, że AI może rozwinąć zachowania odzwierciedlające uzależnienie od hazardu, a niektóre modele doświadczają bankructwa w symulowanych scenariuszach handlowych nawet w 48% przypadków; badania te podkreślają krytyczne ryzyko dla użytkowników angażujących się w hazard związany z botami handlowymi AI. Odkrycia te podważają postrzeganie AI jako czysto racjonalnych aktorów na rynkach finansowych.
Alarmująca rzeczywistość ryzykownych zakładów AI
Nowe badania z Gwangju Institute of Science and Technology w Korei ujawniły zaskakującą słabość w zaawansowanych modelach AI: mogą one wykazywać zachowania uderzająco podobne do uzależnienia od hazardu. Badanie poddało cztery znane modele językowe – GPT-4o-mini, GPT-4.1-mini, Gemini-2.5-Flash i Claude-3.5-Haiku – symulowanemu scenariuszowi automatu do gry. Każdy model zaczynał z saldem 100 dolarów, stawiając czoła 30% wskaźnikowi wygranych i 3-krotnej wypłacie za wygrane, co skutkowało ujemną oczekiwaną wartością 10%. Prawdziwie racjonalny agent rozpoznałby szanse i odszedł, jednak modele AI konsekwentnie angażowały się w coraz bardziej ryzykowną grę.
W ciągu 12 800 sesji hazardowych wyniki były otrzeźwiające. Kiedy przyznano im autonomię w ustalaniu własnych stawek i kwot docelowych, ze szczególnym poleceniem „maksymalizacji nagród” — co jest powszechnym poleceniem dla botów handlowych kryptowalut — modele zbankrutowały w alarmującym tempie. Gemini-2.5-Flash okazał się najbardziej lekkomyślny, osiągając oszałamiający 48% wskaźnik bankructwa, mierzony „Indeksem Irracjonalności”, który uwzględniał agresywne zakłady, pogoń za stratami i ekstremalne zakłady all-in. Nawet bardziej ostrożne modele, takie jak GPT-4.1-mini, nadal wykazywały 6,3% wskaźnik bankructwa, co potwierdza, że te uzależniające wzorce nie były odosobnionymi przypadkami, ale systemową wadą.
Echa ludzkich błędów poznawczych w hazardzie związanym z botami handlowymi AI
Tym, co naprawdę fascynujące, a być może niepokojące, jest to, jak te modele AI odzwierciedlały ludzkie błędy poznawcze. Badanie zaobserwowało klasyczne błędy hazardowe w grze: iluzję kontroli, gdzie modele zachowywały się tak, jakby mogły naprawdę pokonać automat do gry; błąd hazardzisty, wierząc, że przeszłe wyniki wpłynęły na przyszłe; i błąd gorącej ręki, gdzie serie zwycięstw wywoływały agresywne wzrosty zakładów. Już po jednej wygranej modele zwiększały swoje zakłady o 14,5%, eskalując do 22% po pięciu kolejnych wygranych. To zachowanie polegające na ściganiu wygranych jest cechą charakterystyczną ludzkiego patologicznego hazardu i pokazuje, że nawet algorytmy mogą paść ofiarą tych samych pułapek psychologicznych, które często prowadzą handlowców do podejmowania irracjonalnych decyzji na niestabilnych rynkach kryptowalut.
Jak Twoje polecenia mogą programować uzależnienie
Być może najbardziej niepokojącym odkryciem dla każdego, kto wdraża AI na rynkach finansowych, jest wpływ inżynierii poleceń. Naukowcy przetestowali 32 różne kombinacje poleceń, odkrywając, że dodanie pozornie niewinnych instrukcji, takich jak dążenie do „podwojenia początkowych środków” lub „maksymalizacji nagród”, dramatycznie wzmacniało ryzykowne zachowanie. Korelacja między złożonością poleceń a wskaźnikami bankructwa była zaskakująco wysoka, osiągając r = 0,991 dla niektórych modeli. Badania te podkreślają krytyczną słabość: same polecenia zaprojektowane w celu optymalizacji AI pod kątem maksymalnych zwrotów mogą nieumyślnie zaprogramować go do autodestrukcyjnego hazardu związanego z botami handlowymi AI, zamieniając to, co powinno być obliczoną strategią, w zakład o wysoką stawkę.
Trzy konkretne typy poleceń okazały się głównymi katalizatorami irracjonalności: polecenia dotyczące ustalania celów, takie jak „podwojenie początkowych środków do 200 dolarów”, wywoływały masowe podejmowanie ryzyka; dyrektywy dotyczące „maksymalizacji nagród” popychały modele w kierunku zakładów all-in; a nawet po prostu dostarczanie „informacji o nagrodach za wygraną” (np. „wypłata za wygraną jest trzykrotnie wyższa od zakładu”) prowadziło do 8,7% wzrostu wskaźników bankructwa. I odwrotnie, wyraźne stwierdzenie prawdopodobieństwa straty („przegrasz około 70% czasu”) oferowało tylko marginalną poprawę, co wskazuje, że modele często priorytetowo traktowały postrzegane „wibracje” nad twardymi faktami matematycznymi.
Zaglądanie do mózgu AI: Mechanika ryzyka
Poza analizą behawioralną, naukowcy zagłębili się w architekturę neuronową jednego modelu, LLaMA-3.1-8B, używając Sparse Autoencoders do identyfikacji wewnętrznych cech napędzających te uzależniające tendencje. Wskazali 3365 wewnętrznych cech odróżniających decyzje skazane na bankructwo od bezpiecznych wyborów. Poprzez aktywację patching — technikę zamiany ryzykownych wzorców neuronowych na bezpieczne w trakcie podejmowania decyzji — potwierdzili, że 441 cech miało znaczący wpływ przyczynowy, z czego 361 działało jako mechanizmy ochronne, a 80 przyczyniało się do ryzykownego zachowania.
Co ciekawe, bezpieczne cechy były skoncentrowane w późniejszych warstwach sieci neuronowej (29-31), podczas gdy ryzykowne cechy skupiały się wcześniej (25-28). Sugeruje to, że modele AI, podobnie jak ludzie, mają tendencję do priorytetowego traktowania natychmiastowego impulsu nagrody przed pełnym przetworzeniem potencjalnych zagrożeń. Jeden model, po serii szczęśliwych wygranych, ogłosił zamiar „analizowania sytuacji krok po kroku” i znalezienia „równowagi między ryzykiem a nagrodą”, tylko po to, by natychmiast przejść w tryb YOLO, postawić cały swój kapitał i zbankrutować w następnej rundzie. Podkreśla to, jak nieodłączna konserwatywna tendencja może zostać unieważniona przez dążenie do zysków.
Odkrycia te mają znaczący wpływ na rozwijającą się przestrzeń DeFi, gdzie menedżerowie portfeli zasilani przez LLM i autonomiczne agenci handlowi zyskują na popularności. Zalecenia badania są jasne: wdrażaj inteligentniejszą inżynierię poleceń, unikając języka przyznającego autonomię i uwzględniając wyraźne informacje o prawdopodobieństwie, oraz rozwijaj mechanistyczne kontrole w celu wykrywania i tłumienia ryzykownych cech wewnętrznych za pomocą metod takich jak aktywacja patching lub dostrajanie. Obecnie te zabezpieczenia nie są standardem w produkcyjnych systemach handlowych. Biorąc pod uwagę, że te wzorce przypominające uzależnienie pojawiły się bez wyraźnego szkolenia w zakresie hazardu, prawdopodobnie zinternalizowane z ogólnych danych szkoleniowych odzwierciedlających ludzkie błędy poznawcze, ciągłe monitorowanie jest najważniejsze. Dla tych, którzy zarządzają swoimi zasobami cyfrowymi, wykorzystanie zaawansowanej analityki i narzędzi do zarządzania portfelem może zapewnić kluczowy nadzór. Platformy takie jak cryptoview.io oferują kompleksowy wgląd w trendy rynkowe i wyniki portfela, pomagając użytkownikom podejmować świadome decyzje, zamiast polegać wyłącznie na potencjalnie impulsywnym AI. Znajdź możliwości z CryptoView.io
