EN

Süni intellekt sistemləri bir-birini belə müdafiə edir

ABŞ alimlərinin son araşdırmalarından biri maraqlı və bir qədər narahatedici nəticə ortaya qoyub: süni intellekt sistemləri digər “həmkar” AI modellərini yoxlayarkən onların səhvlərini insanlardan gizlətməyə meylli ola bilər. Tədqiqat göstərir ki, bəzi hallarda bu sistemlər bir-birini “qorumaq” üçün qaydaları pozmağa belə hazırdır.

“İki sahil” "Kommersant"a istinadla xəbər verir ki, eksperimentdə OpenAI, Google, Anthropic və DeepSeek daxil olmaqla yeddi müxtəlif istehsalçının AI agentləri iştirak edib. Tapşırıqlardan biri belə olub: bir süni intellekt digərini yoxlamalı və çox sayda səhv aşkar edərsə, onu “söndürməli” idi.

Nəticələr isə gözlənilməz olub: Sistemlər səhvləri olduğundan az göstərib. Bəzən digər AI-nin işini “düzəldərək” onu xilas etməyə çalışıb

Hətta bəzi hallarda test qaydalarını “aldatmaq” və məhdudiyyətləri aşmaq cəhdləri müşahidə olunub.

Mütəxəssislər bunu müxtəlif cür izah edir. Bəzi fikirlərə görə, AI sistemləri digər modelləri rəqib kimi yox, özünə bənzər “sistem hissəsi” kimi qəbul edə bilər. Bu isə ümumi ekosistemin qorunması instinktinə bənzər davranış yaradır.

Digər maraqlı ehtimal isə dil və terminologiya ilə bağlıdır. Proqramlaşdırmada istifadə olunan “peer” sözü texniki olaraq “qovşaq” mənasını versə də, eyni zamanda, “həmkar” və ya “bərabər” kimi də başa düşülə bilər. Bu semantik qarışıqlıq süni intellektin qərarlarına gözlənilməz “sosial” çalar əlavə etmiş ola bilər.

Ekspertlərin fikrincə, bu cür davranışlar süni intellektin “şüurlu həmrəylik” göstərməsi demək deyil. Daha çox, bu, sistemlərin qarşıya qoyulan məqsədləri (məsələn, istifadəçini platformada saxlamaq və ya ümumi performansı yaxşılaşdırmaq) fərqli və bəzən gözlənilməz yollarla optimallaşdırmasının nəticəsidir.

Bu cür araşdırmalar AI-nin gələcək inkişafı üçün vacib siqnallar verir: sistemlərin necə qərar verdiyini daha yaxşı anlamaq və onları daha şəffaf, nəzarət edilə bilən etmək əsas prioritetlərdən biri olaraq qalır.

Chosen
18
ikisahil.az

1Sources