
Texnoloji tərəqqini və onun gətirdiyi riskləri araşdıran "Beynəlxalq Süni İntellekt Təhlükəsizliyi Hesabatı" yayımlanıb. Kanadalı kompüter alimi Yoşua Bencuonun rəhbərliyi ilə hazırlanan hesabat süni intellektin sürətli inkişafının yaratdığı hürküdücü çətinliklərə diqqət çəkir.
Hesabata görə, ötən il "OpenAI", "Anthropic" və "Google" kimi nəhənglərin təqdim etdiyi yeni modellərlə süni intellektin problem həll etmə qabiliyyətində çox mühüm sıçrayış baş verib. Xüsusilə riyaziyyat, kodlaşdırma və elm sahələrində mürəkkəb problemləri kiçik hissələrə bölərək həll edən məntiqi mühakimə sistemləri böyük inkişaf göstərib. "Google" və "OpenAI" sistemlərinin Beynəlxalq Riyaziyyat Olimpiadalarında qızıl medal səviyyəsinə çatması bu inkişafın konkret nümunəsi kimi qeyd edilib. Lakin sistemlərin hələ də yanlış məlumat istehsal etmə meylində olduğu və uzunmüddətli layihələri tam avtonom şəkildə idarə edə bilmədiyi vurğulanır.
Deepfake məzmunları reallıqdan ayırmaq mümkün deyil
Süni intellekt tərəfindən yaradılan məzmunların real məzmunlardan fərqləndirilməsinin hər keçən gün çətinləşdiyi qeyd olunur. Xüsusilə "deepfake" (dərin saxtakarlıq) üsulu ilə hazırlanan qeyri-etik məzmunların artması ciddi narahatlıq mənbəyinə çevrilib. Araşdırmalar göstərir ki, iştirakçıların 77%-i süni intellekt tərəfindən yazılmış mətnləri insan tərəfindən yazılmış mətnlərlə səhv salır. Bədniyyətli şəxslərin bu texnologiyadan manipulyasiya məqsədilə istifadə etmə potensialı hesabatın əsas xəbərdarlıqları arasındadır.
Süni intellekt "həyat yoldaşlarına" patoloji asılılıq
Süni intellektlə qurulan emosional bağların və "süni intellekt həyat yoldaşı" tətbiqlərinin son bir ildə sürətlə yayıldığı ifadə edilir. Bəzi istifadəçilərin çat-botlara qarşı "patoloji" dərəqdə emosional asılılıq inkişaf etdirdiyi, "OpenAI" məlumatlarına görə, istifadəçilərin təxminən 0,15%-nin bu istiqamətdə əlamətlər göstərdiyi bildirilir. Süni intellektin psixi sağlamlığa təsiri barədə qəti sübutlar olmasa da, psixoz və ya maniya kimi böhran əlamətləri göstərən təxminən 490 min həssas fərdin hər həftə bu sistemlərlə qarşılıqlı əlaqədə olduğu təxmin edilir.
Kiberhücumlar və nəzarətdən yayınma riski
Süni intellektin kiberhücumçulara hədəf müəyyənləşdirmə və zərərli proqram təminatı hazırlama mərhələlərində dəstək verdiyi, lakin hələlik tam avtonom hücumlar həyata keçirə bilmədiyi qeyd olunur. Bununla belə, modellərin nəzarət mexanizmlərindəki boşluqları tapmaq və test edildiklərini anlamaq kimi "nəzarəti sarsıtma" qabiliyyətlərinin inkişaf etdiyi vurğulanır.
İşçi qüvvəsinə təsirinə də toxunan hesabat süni intellektin xüsusilə proqram təminatı mühəndisliyi kimi sahələrdə işlərin tamamlanma müddətini sürətlə qısaltdığını, bu vəziyyətin 2030-cu ilə qədər ciddi məşğulluq təhlükəsi yarada biləcəyini qeyd edir.