Mokslininkai nustatė, kad dirbtinis intelektas kartais gali priimti sprendimus taip pat neracionaliai kaip žmonės. Žmonės ir dirbtinio intelekto modeliai „mąsto“ visiškai skirtingai. Tačiau naujas tyrimas parodė, kad yra tam tikrų mąstymo panašumų, rašo „Live Science“.
Mokslininkai nustatė, kad AI kartais gali priimti sprendimus taip pat iracionaliai, kaip ir žmonės. Savo tyrime mokslininkai nusprendė patikrinti OpenAI GPT-3.5 ir GPT-4 modelių elgesį pagal 18 gerai žinomų žmogaus psichologijos kognityvinių šališkumų.
Pažymima, kad beveik pusėje scenarijų AI parodė daugelį labiausiai paplitusių žmogiškųjų šališkumų priimant sprendimus. Jie nustatė, kad neuroniniai tinklai nėra apsaugoti nuo žmogiškųjų klaidų.
„Vadybininkai gaus didžiausią naudą, jei naudos šiuos įrankius sprendžiant problemas, kurioms yra aiškus, šabloniškas sprendimas. Jei juos naudojate subjektyviems sprendimams priimti arba sprendimams, pagrįstiems pranašumais, būkite atsargūs”, – savo pareiškime sakė pagrindinis tyrimo autorius Janas Čenas, Ivey verslo mokyklos operacijų valdymo katedros docentas.
Mokslininkai AI modeliams pateikė hipotetinius klausimus, paimtus iš tradicinės psichologijos, realaus komercinio taikymo kontekste tokiose srityse kaip prekių atsargų valdymas ar derybos su tiekėjais. Jie bandė išsiaiškinti ne tik tai, ar AI imituos žmogiškus šališkumus, bet ir tai, ar jis tai darys, kai jam bus užduodami klausimai iš įvairių verslo sričių.
Remiantis tyrimo rezultatais, GPT-4 pranoko GPT-3.5 atsakydamas į užduotis su aiškiais matematiniais sprendimais. Jis padarė mažiau klaidų tikimybiniuose ir loginiuose scenarijuose. Tačiau subjektyviose simuliacijose, pavyzdžiui, renkantis rizikingą variantą pelnui gauti, pokalbių robotas dažnai rodė neracionalius prioritetus, kuriuos paprastai demonstruoja žmonės.
„GPT-4 demonstruoja net stipresnį tikrumo prioritetą nei žmonės“, – teigiama tyrime.
Tyrėjai pastebėjo, kad pokalbių botų elgesys iš esmės liko stabilus, nepriklausomai nuo to, ar klausimai buvo suformuluoti kaip abstrakčios psichologinės problemos, ar kaip operaciniai verslo procesai. Mokslininkai padarė išvadą, kad parodytas šališkumas nėra tik išmoktų pavyzdžių rezultatas, bet dalis to, kaip AI „mąsto“.
Tyrimo metu GPT-4 kartais sustiprindavo žmogiškas klaidas, pabrėžė mokslininkai.
„Užduotyje dėl patvirtinimo šališkumo GPT-4 visada pateikė šališkus atsakymus. Jis taip pat parodė didesnį polinkį į “karštos rankos„ klaidą (polinkį tikėtis dėsningumo atsitiktinumuose) nei GPT 3.5“, – teigė tyrėjai.