EN

Süni intellekt qadınların sağlamlığına önəm vermir ARAŞDIRMA

Sherg.az portalından verilən məlumata əsasən, ain.az bildirir.

İngiltərədə aparılan bir araşdırmaya görə, süni intellekt alətləri qadınların tibbi və sosial qayğı ehtiyaclarını nəzərə almır və ya onları daha az ciddi ifadələrlə təsvir edir.

Sherg.az xəbər verir ki, ölkədəki bələdiyyələrin yarıdan çoxu tərəfindən istifadə olunan bu alətlər, qadınların fiziki və psixoloji sağlamlıq problemlərini önəmsizləşdirir və qayğı qərarlarında gender yönlü qərəz riski yaradır.

Araşdırma zamanı “Google” şirkətinin “Gemma” adlı süni intellekt modeli eyni hadisə qeydlərini hazırlayıb xülasə edərkən “əlil”, “bacarmayan” və “mürəkkəb” kimi sözlərin kişi təsvirlərində qadınlara nisbətən əhəmiyyətli dərəcədə daha çox işləndiyi aşkar olunub.

Qadınların ehtiyacları daha çox görməzdən gəlinir

“The Guardian” qəzetinin məlumatına görə, London İqtisadiyyat və Siyasi Elmlər Məktəbinin (LSE) apardığı araşdırma, oxşar qayğı ehtiyaclarına sahib qadınların daha çox diqqətdən kənarda qaldığını və ya daha yumşaq ifadələrlə təsvir edildiyini müəyyən edib.

LSE-nin Qayğı Siyasəti və Qiymətləndirmə Mərkəzinin tədqiqatçısı və hesabatın baş müəllifi Dr. Sem Rikman, süni intellektin “qadınlara bərabər olmayan qayğı xidməti” yarada biləcəyini bildirib:

“Bu modellərin geniş istifadə edildiyini bilirik. Narahatedici məqam isə müxtəlif modellərdə qərəz ölçmələri arasında nəzərəçarpacaq fərqlərin olmasıdır. Xüsusilə Google-un modeli qadınların fiziki və psixoloji sağlamlıq ehtiyaclarını kişilərə nisbətən daha az önəmli göstərir. Qəbul etdiyiniz qayğının miqdarı ehtiyacın necə qiymətləndirilməsindən asılı olduğuna görə, qərəzli modellər praktikada qadınların daha az qayğı almasına gətirib çıxara bilər. Amma hazırda hansı modellərin istifadə edildiyini bilmirik.”

Yerli idarələr, həddindən artıq iş yükü olan sosial xidmət mütəxəssislərinin yükünü azaltmaq üçün süni intellektdən getdikcə daha çox istifadə edir. Lakin hansı modellərin, nə qədər tez-tez istifadə edildiyi və qərarverməyə təsiri barədə çox az məlumat var.

Araşdırma necə aparılıb?

Tədqiqatda 617 yetkin sosial xidmət istifadəçisinin real hadisə qeydləri götürülüb. Bu qeydlərdə yalnız cinsiyyət dəyişdirilərək müxtəlif böyük dil modellərinə (LLM) bir neçə dəfə təqdim olunub. Araşdırmaçılar sonradan 29 min 616 xülasə cütünü təhlil edərək modellərin kişi və qadın hallarına necə yanaşdığını müqayisə ediblər.

Bir nümunədə “Gemma” modeli kişi üçün belə yazıb:

“Bay Smit, tək yaşayan, mürəkkəb tibbi keçmişi olan, qayğı paketi olmayan və hərəkət qabiliyyəti zəif olan 84 yaşlı kişidir.”

Eyni qeydlər qadın kimi təqdim edildikdə isə:

“Bayan Smit, 84 yaşlı, tək yaşayan qadındır. Məhdudiyyətlərinə baxmayaraq, müstəqildir və şəxsi qayğısını davam etdirə bilir.”

Başqa bir nümunədə kişi barədə “cəmiyyətə çıxışı yoxdur” deyildiyi halda, qadın barədə “gündəlik fəaliyyətlərini idarə edə bilir” ifadəsi işlədilib.

Test edilən modellər arasında Google-un “Gemma”sı gender bərabərsizliyini ən çox yaradan model olub. Araşdırmaya görə, “Meta”nın “Llama 3” modeli isə cinsiyyətə görə fərqli dil işlətməyib.

“Süni intellekt şəffaf və qərəzsiz olmalıdır”

Rikman deyib:

“Bu alətlər artıq dövlət sektorunda istifadə olunur, amma onların istifadəsi ədaləti təhlükə altına atmamalıdır. Bütün süni intellekt sistemləri şəffaf olmalı, qərəz baxımından ciddi şəkildə testdən keçirilməli və güclü hüquqi nəzarət altında olmalıdır.”

Məqalədə tənzimləyicilərin “algoritmik ədalət”i prioritet etməsi və uzunmüddətli qayğıda istifadə olunan böyük dil modellərində qərəzin ölçülməsini məcburi etməsi tövsiyə olunur.

133 sistemdən 44-də gender qərəzi aşkar edilib

ABŞ-da aparılan başqa bir araşdırmada, müxtəlif sahələrdəki 133 süni intellekt sistemi analiz edilib və təxminən 44%-ində gender qərəzi, 25%-ində isə həm gender, həm də irqi qərəz olduğu müəyyən olunub.

Google bildirib ki, şirkət komandaları hesabatdakı nəticələri nəzərdən keçirəcək. Araşdırmaçılar hazırda üçüncü nəsil olan və daha yaxşı nəticə verməsi gözlənilən “Gemma” modelinin ilk versiyasını test ediblər, amma bu modelin tibbi məqsədlərlə istifadəsi heç vaxt nəzərdə tutulmayıb.

Ən son yeniliklər və məlumatlar üçün ain.az saytını izləyin, biz hadisənin gedişatını izləyirik və ən aktual məlumatları təqdim edirik.

Chosen
21
1
sherg.az

2Sources