AZ

ChatGPT niyə “bilmirəm” demək əvəzinə uydurur?

Bizim media saytından verilən məlumata görə, ain.az xəbər verir.

Yeni araşdırma göstərib ki, ChatGPT kimi süni intellekt modellərinin “uydurma cavablar verməsinin” səbəbi onların məhz təxmin yürütməyə proqramlaşdırılmasıdır.Bizim.Media xarici mətbuata istinadən xəbər verir ki, İspaniyalı tədqiqatçılar 2024-cü ilin oktyabrında BLOOM, LLaMA və ChatGPT modellərini minlərlə riyaziyyat, təbiət elmləri və coğrafiya sualları ilə sınaqdan keçiriblər. Nəticədə məlum olub ki, model nə qədər inkişaf etmişsə, “bilmirəm” demək ehtimalı bir o qədər azalır.Köhnə versiyalar cavabı bilmədikdə bunu etiraf edirdi, lakin yeni modellər təxmin etməyə və bəzən sadə suallara belə yanlış cavab verməyə meyllidirlər.Mütəxəssislər bildirirlər ki, bu süni intellektin ən ciddi problemlərindən biridir. Çünki bu sistemlər yanlış məlumatı inamla təqdim edə bilir.Bizim.Media

Ən son yeniliklər və məlumatlar üçün ain.az saytını izləyin, biz hadisənin gedişatını izləyirik və ən aktual məlumatları təqdim edirik.

Seçilən
17
2
bizim.media

3Mənbələr