RU

Süni intellekt platformalarında kibertəhlükəsizlik: gələcəyin gücü və riski bir yerdə

Süni intellekt və maşın öyrənməsi platforması olan “Red Hat OpenShift AI”da boşluq (CVE-2025-10725) aşkar edilib. Elektron Təhlükəsizlik Xidmətindən (ETX) verilən məlumata görə, platformada istifadəçi rollarının idarəedilməsi komponentində imtiyaz yüksəltmə boşluğu tapılıb. Bu, o deməkdir ki, adi istifadəçi səviyyəsində imtiyaz əldə etmiş kiberdələduz, sistemdə administrator səlahiyyətlərini ələ keçirə və yüksək səviyyəli tapşırıqları icra edə bilər. Bu xəbər texnologiya dünyasında bir daha göstərdi ki, süni intellekt yalnız gələcəyin fürsəti deyil, həm də gələcəyin ən böyük təhlükəsizlik çağırışıdır.

Süni intellekt sistemləri artıq təkcə məlumat emalı və analiz vasitəsi deyil, həyatın bütün sahələrinə nüfuz edən idarəetmə mexanizmlərinə çevrilib. Maliyyə əməliyyatlarından tutmuş səhiyyəyə, hərbi texnologiyalardan avtomatlaşdırılmış istehsala qədər hər bir kritik sahə bu sistemlərdən asılı vəziyyətə gəlir. Lakin bu asılılıq paralel şəkildə risklərin də böyüməsinə gətirib çıxarır. “Red Hat OpenShift AI”da aşkarlanan boşluq, əslində, süni intellekt ekosistemlərinin əsas zəif nöqtələrini göstərən klassik nümunədir – sistemin insan tərəfindən idarə olunan hissəsində yaranan kiçik bir səhv bütün infrastrukturu təhlükəyə ata bilər.

İmtiyaz yüksəltmə kimi boşluqlar texnologiya təhlükəsizliyində ən riskli hallardan biridir. Çünki bu tip boşluqlar kiberdələduzlara sistemin dərin qatlarına müdaxilə etməyə, gizli məlumatlara çıxış əldə etməyə, prosessləri dəyişməyə və hətta təhlükəsizlik loglarını silməyə imkan verir. Süni intellekt platformaları bu baxımdan xüsusilə həssasdır, çünki onlar çoxsaylı modullardan ibarət kompleks strukturlardır. Hər bir modulun daxilində yüzlərlə sətir kod və minlərlə konfiqurasiya parametri olur. Yalnız bir zəif bağlantı bütün sistemin təhlükəsizliyini poza bilər.

Bu hadisə həm də süni intellekt sahəsində etimad məsələsini gündəmə gətirir. İnsanlar və şirkətlər bu texnologiyalara böyük miqdarda məlumat ötürür, qərarların bir hissəsini avtomatlaşdırır və sistemlərin dürüstlüyünə etibar edir. Əgər bu sistemlərdə boşluqlar aşkar edilirsə, bu, həm texniki, həm də etik etimadı zədələyir. Süni intellektin təhlükəsizliyi sadəcə proqram təminatı problemi deyil, həm də ictimai məsələdir. Çünki bir sistemin pozulması yalnız texniki məlumatların itirilməsi deyil, həm də insanların həyatına, maliyyə sabitliyinə və bəzən milli təhlükəsizliyə təsir göstərə bilər.

Belə halların qarşısını almaq üçün dünyada kibertəhlükəsizlik strategiyaları tədricən süni intellekt mərkəzli yanaşmaya keçid edir. Artıq bir çox beynəlxalq şirkətlər — “Google”, “Microsoft”, “IBM”, “Red Hat” kimi nəhənglər — “AI security governance” (Süni intellekt təhlükəsizliyi idarəetməsi) adlı ayrıca bölmələr yaradıblar. Burada məqsəd yalnız kodları qorumaq deyil, həm də süni intellektin qərarvermə prosesini izləmək, avtomatik təhlil etmək və potensial riskləri proqnozlaşdırmaqdır. Yəni kibertəhlükəsizlik də artıq süni intellekt tərəfindən qorunur.

Azərbaycanın Elektron Təhlükəsizlik Xidmətinin bu məsələ ilə bağlı xəbərdarlığı, əslində, ölkəmizdə də rəqəmsal təhlükəsizlik mədəniyyətinin dərinləşdiyini göstərir. Bu gün süni intellekt təkcə texnoloji innovasiya deyil, həm də informasiya müharibəsinin əsas sahəsinə çevrilib. Dövlət qurumlarının və özəl sektorun bu riskləri vaxtında müəyyənləşdirməsi və cavab tədbirləri görməsi milli təhlükəsizlik üçün həyati əhəmiyyət daşıyır.

Избранный
16
50
aznews.az

10Источники