Najnovije istraživanje kompanije OpenAI otkriva zabrinjavajući trend: njihovi napredni AI modeli, uključujući GPT-o3 i o4-mini, pokazuju povećanu sklonost ka generisanju „halucinacija“ – netačnih ili potpuno izmišljenih informacija. Dok se ovi modeli reklamiraju da oponašaju ljudsku logiku i „razmišljaju korak po korak“, podaci ukazuju na ozbiljan problem pouzdanosti. Istraživanje je pokazalo da je GPT-o3 halucinirao u […]
Pouzdanost AI modela pod lupom: Povećan rizik od izmišljenih informacija
0
komentara
Otvoreno
za diskusiju
Komentari
Mišljenja i reakcije čitalaca
Diskusija je otvorena za argumentovane i korektne komentare.
0 komentara
Nema komentara
