GlobalInfo portalından verilən məlumata görə, ain.az xəbər yayır.
Son zamanlar “Deepfake” texnologiyası ilə ardıcıl saxta məlumatlar yayılır. Məsələn, yanvarın 27-də bir sıra hesablar vasitəsilə Prezidentin köməkçisi – Prezident Administrasiyasının Xarici siyasət məsələləri şöbəsinin müdiri Hikmət Hacıyevin adından yayılan, “deepfake” texnologiyası tətbiq olunmaqla hazırlanmış, reallığı əks etdirməyən və saxta məzmunlu video buna nümunədir. Ümumiyyətlə, süni intellektin aktiv istifadəsi aldadıcı informasiyaların artmasına səbəb olub.
“Deepfake”in fəsadları nədir? Saxta görüntüləri necə anlamaq olar? Sadə vətəndaş da bunu başa düşə bilərmi?
Globalinfo.az-a danışan informasiya texnologiyaları üzrə mütəxəssis Elvin Həsənov deyib ki, “Deepfake” texnologiyası informasiyanın etibarlılığına ciddi zərbə vurur:
“Artıq məsələ təkcə saxta xəbər deyil, real insanın səsi və üzü ilə hazırlanmış video/audio materiallardan gedir. Bu texnologiya ilə hazırlanmış görüntülər insanın səsini, üz ifadəsini və danışıq tərzini elə təqlid edir ki, ilk baxışda hətta məlumatlı insan üçün belə ayırd etmək çətinləşir. Nəticədə yanlış məlumat çox sürətlə yayılır və sonradan təkzib edilsə belə, ictimai rəydə iz buraxa bilir. “Deepfake”in əsas fəsadlarından biri etimadın zədələnməsidir. İnsan artıq gördüyü videoya da, eşitdiyi səsə də şübhə ilə yanaşmağa başlayır. Düşünürəm ki, bu, təkcə fərdi şəxslərə yox, dövlət qurumlarına, ictimai fiqurlara və mediaya da zərər vurur. Digər ciddi fəsad isə reputasiya riskidir. Bir neçə saniyəlik saxta video insanın illərlə formalaşmış nüfuzuna zərbə vura bilər. Bundan əlavə, “deepfake” texnologiyası siyasi manipulyasiya, şantaj, maliyyə fırıldaqları və sosial gərginlik yaratmaq üçün də istifadə oluna bilər”.
Elvin Həsənov
Mütəxəssis bildirib ki, sadə vətəndaşın saxta görüntünü müəyyən qədər ayırd etməsi mümkündür:
“Texniki baxımdan bunu aşkarlayan alətlər var, amma sadə vətəndaş üçün də bəzi siqnallar mövcuddur. Məsələn, dodaq hərəkətləri ilə səsin tam uyğun gəlməməsi, mimikaların qeyri-təbii olması, göz qırpma və üz kölgələrində qəribəliklər, səs tonunun robotik və ya emosiyasız səslənməsi şübhə doğurmalıdır. Digər vacib məqam isə mənbədir. Yəni video kim tərəfindən, hansı platformada və hansı kontekstdə paylaşılıb. Rəsmi mənbə yoxdursa və video emosional reaksiya yaratmaq üçün paylaşılırsa, bu artıq risk siqnalıdır. Sadə vətəndaşın bunu başa düşməsi mümkündür, amma burada əsas silah texniki bilik yox, düşüncə tərzidir. Yəni “Bu video niyə indi yayıldı”, “Kim paylaşır, rəsmi təsdiq varmı” suallarını vermək çox şeyi dəyişir”.
Zaira Akifqızı
Globalinfo.az
Ən son yeniliklər və məlumatlar üçün ain.az saytını izləyin, biz hadisənin gedişatını izləyirik və ən aktual məlumatları təqdim edirik.