Bizimyol portalından əldə olunan məlumata əsasən, ain.az xəbər verir.
"Süni intellektə ötürülən şəxsi məlumatlar hər an yayıla bilər". Bu sözləri "İctimai proseslər media müstəvisində" mövzusunda 3-cü forumda çıxış edən Rəqəmsal İnkişaf və Nəqliyyat Nazirliyi yanında Elektron Təhlükəsizlik Xidmətinin Maarifləndirmə və təhqiqat sektorunun müdiri Esmira Qasımova deyib: "Süni intellekt insanı əvəz edə bilməyəcək. Amma biz ondan düzgün istifadə etsək, risklərin qarşısını ala bilərik. Vətəndaşlar "ChatGPT"yə bütün şəxsi məlumatlarını ötürürlər. O platformaya hücum olsa, hər kəsin şəxsi məlumatları yayılacaq. Şəkilləri süni intellekt proqramları ilə hazırlayırlar, dizayn edirlər, paylaşırlar. Ancaq anlamaq lazımdır ki, sizin şəkliniz artıq internetə düşə biləcək riskdədir.
Statistikaları, fərdi və şəxsi məlumatları, CV-ləri süni intellektə ötürmək olmaz. Biz düşünürük ki, instaqramdan, feysbukdan sildiyimiz şəkillər artıq yoxdur, amma elə deyil. Onlar hər an üzə çıxa bilər.
Valideynlər övladlarının körpəlikdən şəkillərini, videolarını paylaşırlar. Anlamırlar ki, o körpə böyüyəndə bəlkə də heç internetdə şəkli olsun istəməyəcək və silinən fotolar da tam olaraq silinmir. Hər an hücum olduqda, o paylaşımlar üzə çıxacaq".
ChatGPT-yə şəxsi məlumatların ötürülməsi təhlükəsizlik baxımından hansı riskləri daşıyır?Şəxsi məlumatların təhlükəsizliyini necə təmin etmək olar?
Bu barədə Bizimyol.info xəbər portalına İKT mütəxəssisi Əfsanə Mustafazadə bildirib ki, bu danışıqlar şişirdilmiş və dəqiq olmayan informasiyadır: “Süni intellekt platformalarına şəxsi məlumatların ötürülməsi müəyyən risklər daşıyır, lakin bu risklər çox vaxt şişirdilmiş formada təqdim olunur. Əsas təhlükə istifadəçilərin özlərinin həddindən artıq və nəzarətsiz məlumat paylaşmasıdır. Ən böyük problem həssas məlumatların filtrsiz şəkildə paylaşılmasıdır.
Süni intellekt platformalarında məlumatlar saxlanıla və emal oluna bilər, bu da potensial olaraq sızma və ya üçüncü tərəflərə çıxış riskini yaradır. Xüsusilə CV, şəxsi məlumatlar, biometrik məlumatlar və ya şirkət daxili informasiyanın paylaşılması təhlükə yarada bilər”.
Əfsanə Mustafazadə həmçinin qeyd edib ki, API inteqrasiyaları və necə emal olunması hər zaman şəffaf olmaya bilər: “Birincisi, istifadəçi tərəfindən daxil edilən məlumatlar bəzi hallarda server tərəfdə loglanır və modelin təkmilləşdirilməsi üçün istifadə oluna bilər. Bu isə “data retention” və “data governance” baxımından risk yaradır. Hər hansı bir sistem zəifliyi və ya “breach” zamanı bu məlumatların sızma ehtimalı nəzəri olaraq mövcuddur.
İkincisi, AI sistemlərinə ötürülən məlumatlar üzərində tam nəzarət istifadəçidə olmur. Məlumatın hansı regionda saxlanması, hansı üçüncü tərəf servislərlə işlənməsi məsələn, API inteqrasiyaları və necə emal olunması hər zaman şəffaf olmaya bilər. Bu da “supply chain” və “third-party” risklərini artırır”.
Əfsanə Mustafazadə əlavə edib: “Müasir AI platformaları şifrələmə, giriş nəzarəti (access control) və digər təhlükəsizlik mexanizmləri ilə qorunur. Buna görə əsas risk texnologiyanın özündən çox, istifadəçi davranışından irəli gəlir.”
Günel Həsənova, Bizimyol.info
Daha ətraflı məlumat və yeniliklər üçün ain.az saytını izləyin.