Najnovije istraživanje kompanije OpenAI otkriva zabrinjavajući trend: njihovi napredni AI modeli, uključujući GPT-o3 i o4-mini, pokazuju povećanu sklonost ka generisanju „halucinacija“ – netačnih ili potpuno izmišljenih informacija. Dok se ovi modeli reklamiraju da oponašaju ljudsku logiku i „razmišljaju korak po korak“, podaci ukazuju na ozbiljan problem pouzdanosti.
Istraživanje je pokazalo da je GPT-o3 halucinirao u trećini zadataka na testu o javnim ličnostima, što je dvostruko više u odnosu na prethodni model. Još kompaktniji o4-mini bio je još gori, sa 48% halucinacija. Kada su testirani sa opštim pitanjima, udeo halucinacija je skočio na 51% za o3 i čak 79% za o4-mini.
Ova pojava se tumači teorijom da što model više „misli“ i povezuje činjenice, to ima više prostora za greške i improvizaciju, koja često rezultira izmišljanjem. OpenAI, međutim, sugeriše da bi povećan broj halucinacija mogao biti posledica ekspanzivnijih i „slobodnijih“ odgovora modela.
Problem „halucinacija“ postaje sve veći izazov kako se AI sve više integriše u svakodnevni život, od učionica do bolnica. Nazivanje AI četbotova „pomoćnicima“ gubi smisao ako korisnici moraju da troše isto toliko vremena proveravajući tačnost generisanih informacija. Dok se ovi problemi ne reše, savetuje se ogromna doza skepticizma pri korišćenju AI modela, jer iluzija pouzdanosti može lako da se rasprši kada AI počne da izmišlja činjenice.

Šta vi mislite?
Još nema komentara. Budite prvi koji će otvoriti diskusiju.