OpenAI je u GPT-5.5 model ugradio posebne instrukcije za izbegavanje fantastičnih bića, što je dovelo do neobičnih odgovora u Codex aplikaciji
OpenAI je prošle nedelje lansirao najnoviju verziju svog jezičkog modela, GPT-5.5, a ubrzo nakon toga korisnici su primetili zanimljivo ponašanje u Codex aplikaciji za kodiranje na Mac platformi. Naime, kompanija je u sistemsku poruku modelu unela instrukciju da izbegava spominjanje goblina, gremlina, rakuna, trolova, ogra, golubova i sličnih bića, osim ako to nije izričito relevantno za korisnički upit. Ova intervencija imala je za cilj da model bude „više nerdovski“, ali je zapravo izazvala talas šaljivih reakcija među korisnicima koji su primetili kako ChatGPT na neobičan način izbegava ili reaguje na pomenute pojmove.
Koristeći Codex kodersku aplikaciju, korisnici su mogli da vide sistemsku poruku koja eksplicitno zabranjuje modelu da pominje određene likove i životinje, osim u jasnim kontekstima. Kada bi korisnici pokušali da model provociraju pitanjima iz sveta fantastike, ChatGPT bi često pravio neočekivane digresije ili davao šaljive odgovore, što je ubrzo postalo viralno na društvenim mrežama. Ovakvo ponašanje istaklo je kako „prompt engineering“ može imati nepredviđene posledice, čak i kod sofisticiranih LLM (Large Language Model) sistema.
OpenAI nije zvanično komentarisao zašto su baš ova bića bila na listi za izbegavanje u Codex aplikaciji, ali je jasno da su eksperimenti sa sistemskim promptovima postali standardna praksa u razvoju naprednih AI modela. Analitičari iz industrije ističu da ovakvi sistemi mogu razviti specifične obrasce ponašanja u zavisnosti od uputstava i ograničenja koja im se zadaju. U slučaju GPT-5.5, pokušaj da se model usmeri ka „nerdovskoj“ tematici doveo je do neočekivane opsednutosti – ili barem preteranog opreza – prema temama vezanim za gobline i slične likove.
Ovaj slučaj još jednom otvara pitanje transparentnosti i kontrole u razvoju velikih jezičkih modela, posebno kada su u pitanju sistemske instrukcije koje mogu direktno uticati na korisničko iskustvo. Stručnjaci naglašavaju da bi slični eksperimenti mogli postati još češći kako AI sistemi postaju sve sofisticiraniji, a prompt engineering sve važniji deo industrijskog razvoja.









