RU

Süni intellekt real xəstələr qarşısında niyə uğursuz olur?

Qaynarinfo saytından alınan məlumata görə, ain.az bildirir.

Xəstəlik əlamətləri hiss etdikdə ilk iş olaraq internetə üz tutmaq artıq adi bir vərdişə çevrilib. 

Valyuta.az xəbər verir ki, son dövrlərdə həyatımıza daxil olan süni intellekt söhbət robotları, hər suala özündən əmin cavablar verdiyi üçün bir çox insan üçün etibarlı "rəqəmsal həkim” təsiri yaradır.

Lakin yeni aparılmış genişmiqyaslı araşdırma göstərir ki, bu robotların tibbdəki "ekspertliyi” real vəziyyət qarşısında tezliklə çökməyə məhkumdur. Nəticələr olduqca qəti və narahatedicidir: süni intellekt tək başına uğurlu görünsə də, real xəstələr və insan faktoru işə qarışanda ciddi çatışmazlıqlar ortaya çıxır.

Populyar modellər – "ChatGPT-4o", "Llama 3" və "Command R+" – ilkin kontrollü testlərdə tibb ssenarilərini 94% dəqiqliklə doğru diaqnoz edə bilib. Lakin doğru müalicə tövsiyəsi verməyə gəldikdə bu göstərici 56%-a qədər düşüb. Daha dramatik nəticələr isə real istifadəçilər üzərində aparılan təcrübələrdə müşahidə olunub. 1298 iştirakçı ilə keçirilən eksperimentdə, bəzi insanlar tibbi vəziyyətlərini süni intellekt vasitəsilə həll etməyə çalışarkən, nəzarət qrupu yalnız ənənəvi üsullarla araşdırma aparıb. Nəticədə, süni intellektdən istifadə etməyən qrup, xüsusilə həyati təhlükə yaradan "qırmızı bayraq” ssenarilərində süni intellekt istifadə edənlərdən daha uğurlu olub.

Süni intellekt niyə səhv edir?

Bir süni intellekt modelinin tibbi imtahanlardan keçməsi, onun real xəstəyə nə edəcəyini bildiyi anlamına gəlmir. Araşdırma göstərir ki, sistemin uğursuzluğuna bir neçə əsas səbəb var:

* İstifadəçilər həkimlərin soruşduğu kritik detal sualları bilmir və süni intellektə natamam məlumat verirlər.

* Robotlar həkim kimi əskik məlumatları sorğulamaq əvəzinə mövcud məhdud verilənlər üzərində ehtimal hesablayır.

* Bəzən istifadəçiləri yanlış yönləndirə bilirlər: məsələn, İngiltərədəki bir istifadəçiyə Avstraliyanın təcili yardım nömrəsini vermək və ya eyni əlamətlərə malik fərqli bir istifadəçiyə "qaranlıq bir otaqda uzan” tövsiyəsi vermək.

Problemin yalnız adi istifadəçilərlə məhdudlaşmadığı da qeyd olunur. Tibbdə çalışan peşəkarlar da bu alətlərdən istifadə etməyə başlayıb ki, bu 2026-cı ilin ən böyük səhiyyə texnologiyası risklərindən birinə çevrilib. Tibb təhlükəsizliyi üzrə ekspert təşkilatı ECRI, süni intellektin yanlış istifadəsini ilin ən böyük təhlükəsi elan edib.

Mütəxəssislər vurğulayır ki, bu modellərin "düşünmə” qabiliyyəti yoxdur, yalnız böyük verilənlər dəstinə əsaslanaraq növbəti sözü təxmin edirlər. Hətta "Google"un tibbi məqsədlə hazırladığı "Med-Gemini" modelinin iki fərqli orqan adını birləşdirərək mövcud olmayan bir bədən hissəsi "uydurduğu” müşahidə olunub. Süni intellekt bu yanlış məlumatları o qədər əmin və avtoritar tonda təqdim edir ki, bəzən həkimlər də bunu kritik süzgəcdən keçirmədən qəbul edə bilirlər.

Şirkətlər bu alətləri böyük reklam kampaniyaları ilə satmağa davam etsə də, tibbdə səhvə yer olmadığını nəzərə alaraq süni intellektə tam etibar etmək böyük riskdir. Hazırda sağlamlıq qərarlarında real həkimə müraciət ən təhlükəsiz yol olaraq qalır.

Aydın

Hadisənin gedişatını izləmək üçün ain.az saytında ən son yeniliklərə baxın.

Избранный
17
1
qaynarinfo.az

2Источники