BAKI,AzerVoice Analitik Təhlil Mərkəzi
1945-ci ilin iyul ayında günlərin birində sübh çağı, bütün dünya nəfəsini tutmuş halda izləyirdi: Nyu-Meksiko səhrasının səmasında min günəşdən daha parlaq bir işıq saçdı.
Həmin an yalnız atom silahı doğulmadı, həm də ikiüzlü bir güclə idarə olunan yeni bir dövr açıldı: bir üzü tükənməz enerji vəd edirdi, şəhərlərimizi işıqlandıra biləcək gücü, digər üzü isə onları tamamilə məhv etməklə hədələyirdi.
Bu, XX əsrdə Prometey dilemmasının təcəssümü idi: atomun şifrəsinin açılması bəşəriyyətə “ilahi od” bəxş etdi, lakin onun dağıdıcı alovuna nəzarət yükünü də insanlığın çiyninə qoydu.
Bu gün də oxşar bir tarixi astanada dayanmışıq. Lakin bu dəfə məkan səhra deyil, bizi əhatə edən rəqəmsal məkandır. Süni intellekt bizim dövrümüzün Prometey odudur: təxəyyülümüzü aşan vədlər daşıyır, eyni zamanda nüvə təhlükəsi qədər böyük risklər də gizlədir.
Necə ki, nüvə parçalanması enerji şəbəkələrini də işıqlandıra bilər, nüvə başlıqlarını da qidalandıra bilər, süni intellekt sistemləri də eyni ikili xarakter daşıyır. Möhtəşəm nailiyyətlər – şahmatda insanın ağlına gəlməyən strategiyaları yaratmaq, bir neçə gün ərzində yeni antibiotik kəşf etmək və ya insan dialoqunu mükəmməl şəkildə simulyasiya etmək – bunlar onun işıqlı, ümidverici tərəfləridir. Bu, sürətləndirilmiş elmi kəşflərin, misilsiz səmərəliliyin və insan bacarıqlarının artdığı yeni bir dövrün müjdəsidir.
Amma bu vədlərin kölgəsində ciddi təhlükələr də yatır. Eyni sistemlər ki, xəstəlikləri diaqnoz edə bilər, silahlar da dizayn edə bilər. Şəhərlərimizdə nəqliyyatı təşkil edən şəbəkələr kütləvi nəzarət alətlərinə çevrilə bilər. Mükəmməl şəkildə yaradılan dil isə ən güclü dezinformasiya vasitəsinə, ictimai etimadı sarsıdan təhlükəyə dönə bilər. Burada təhlükə təkcə fiziki məhvetmə deyil, həm də mənanın, həqiqətin və azad iradənin məhv edilməsidir.
Bu dilemmada biz artıq yaşayırıq. 7 oktyabr hadisələrindən və onun ardınca İsrail ordusunun Qəzzada həyata keçirdiyi dağıdıcı bombardmanlardan sonra ipucları ortaya çıxdı və göstərdi ki, bu soyqırımda süni intellektin də əli var.
2025-ci il avqustun 6-da The Guardian qəzeti bir məqalə dərc etdi. Məqalədə göstərilirdi ki, ABŞ-ın kompüter nəhəngi Microsoft şirkətinə məxsus bulud xidməti Azure, İsrail ordusunun 8200 saylı bölməsi ilə birlikdə Qəzza sakinlərinin milyonlarla telefon danışıqlarını izləyib və bazalaşdırıb. Bu, müharibədən əvvəl, yəni Qəzzada yaşayan 2,3 milyon nəfərin hər birinə aid edilmiş zənglərin toplanması demək idi.
Hesabata görə, bu zənglər İsrail ordusu tərəfindən aparılan genişmiqyaslı informasiya izləmə əməliyyatının bir hissəsi idi. Qəzza bölgəsində yaşayanların hamısı “potensial təhlükə” və “şübhəli şəxs” kimi qəbul edilirdi.
Məqalə əvvəlki məlumatları da təsdiqləyirdi: yəni İsrail ordusu xüsusi hərbi məqsədlər üçün hazırlanmış süni intellekt proqramlarından istifadə edirdi. Görünür ki, süni intellekt sistemi hazırlamaq və onu məlumatla təmin etmək prosesi artıq 2021-ci ildən planlaşdırılmışdı.
İsrail ordusu beləliklə “ölüm üçlüyünü” yaratdı. Bu üçlü belə sistemlərdən ibarət idi:
Lavender – Qəzza sakinlərini təsnif edən və siyahıya alan süni intellekt sistemi;
Where’s Daddy? (Atam haradadır?) – siqnalları izləyən, hərəkəti təyin edən və təsnif edən izləmə sistemi;
The Gospel (İncil) – fərdlər yox, obyektlər üçün “Lavender”ə bənzər bir təsnifat sistemi.
Beləliklə, süni intellekt vasitəsilə avtomatlaşdırılmış bir mühit yaradıldı. Bu sistemlər kütləvi şəkildə məlumatları təhlil edir, nəticələr çıxarır və hava zərbələri ilə bağlı qərarlar qəbul edir. Burada insan müdaxiləsi minimum səviyyədədir.
Bu ideya ilk baxışdan “ağıllı” görünə bilər – şübhəliləri izləmək, təhlükəni sürətlə aradan qaldırmaq və insan faktorunu azaltmaq. İsrailin dünyaya göstərmək istədiyi də məhz budur. Lakin bu sistemlərin daxili işləmə mexanizmləri, xüsusilə də Lavender, ciddi mübahisələr doğurur.
Süni intellektin “yanacağı” - məlumat bazası
Əvvəlcə bir həqiqəti vurğulayaq: statistika və süni intellekt sahəsində çalışan bütün mütəxəssislər razıdır ki, məlumat – hər bir süni intellekt sisteminin əsas “yanacağıdır”. İstifadə olunan məlumat nə qədər çox olarsa, sistemin səmərəliliyi də bir o qədər yüksəlir. Ancaq təkcə miqdar deyil, məlumatın keyfiyyəti də böyük rol oynayır. Çünki məlumatın keyfiyyəti süni intellektin öyrəndiyi davranış və nümunələri formalaşdırır. Sonra isə bu sistem əvvəlcədən öyrədilmədiyi məlumatlarda da həmin nümunələri tapıb proqnoz edə bilir.
Əgər biz Qəzza əhalisinin məlumatlarını toplayaraq “Lavender”ə bənzər bir sistem qurmaq istəsək, o zaman hər bir fərd haqqında nəhəng həcmdə məlumat toplamalı olardıq. Bu məlumatlara aşağıdakılar daxil ola bilərdi: gündəlik telefon zənglərinin sayı, zəng edilən şəxslərin kimliyi və onların Qəzzada, yoxsa xaricdə olması, sosial şəbəkə fəaliyyəti, axtarılan və ya şübhəli şəxslərlə əlaqəsi.
Bundan əlavə, məlumatlar aşağıdakıları da əhatə edə bilərdi: tez-tez telefon nömrəsini və ya ünvanını dəyişmək, şəxsin görünüşü, hətta telefonunda saxladığı nömrələr.
Bu məlumatlar digər mənbələrlə müqayisə edilirdi. The Guardianın yaydığı məlumata əsaslansaq, 8200 saylı bölmə bu qədər nəhəng həcmi saxlamaq üçün bulud xidmətlərindən istifadə etməyə başlamış və Microsoftun mütəxəssislərini bəzi proqramların hazırlanmasına cəlb etmişdi.
Hesabatlara görə, süni intellektə bağlı bu sistemlər toplanmış məlumatlardan istifadə edərək hava zərbələrinin hədəfini və vaxtını müəyyən edirdi. Daha da dəhşətlisi, bu sistemlərdən çıxan qərarlar sanki insanın verdiyi qərarlar kimi qəbul olunurdu.
Yuxarıda deyilənlər bizi mühüm bir suala gətirir: bu proqramların tətbiqi ilə müharibənin əvvəlindən etibarən nə qədər mülki şəxs öldürülmüş ola bilər?
Bu suala cavab tapmaq üçün əvvəlcə İsrailin bu proqramlarla bağlı təqdim etdiyi ssenarini araşdırmaq lazımdır. “Lavender” xüsusi olaraq HƏMAS-la əməkdaşlıqda şübhəli bilinən şəxsləri müəyyən etmək üçün dizayn edilmişdir. Bu, yuxarıda sadalanan məlumatlar əsasında işləyir və süni intellekt alqoritmlərindən istifadə edərək insanları təsnif edir.
Sistem əvvəlcə HƏMAS üzvləri kimi tanınan və ya həbs edilmiş şəxslərin məlumatlarını analiz edir, müəyyən nümunələr çıxarır. Daha sonra həmin nümunələri Qəzza əhalisinin məlumatları ilə müqayisə edir. Əgər hansısa şəxsin davranışı və əlaqələri oxşarlıq göstərirsə, o, şübhəli hesab olunur.
Buna əsasən, hər bir adama 0-dan 100-ə qədər bal verilir. Hətta əgər sistem kimsəni cəmi “1 bal” ilə qiymətləndirsə belə, həmin şəxs “şübhəli” sayılır və buna görə də öldürülməli hədəf elan olunur.
İlkin hesabatlarda bildirilirdi ki, İsrail ordusu sistemə tam azadlıq verib və “Lavender”in yaratdığı proqnozların dəqiqliyi 90%-ə çatır. Amma eyni zamanda, həmin hesabatlarda qeyd olunurdu ki, bu cür əməliyyatlarda hər bir hədəfin aradan qaldırılması zamanı 15–20 mülki şəxs də öldürülə bilər.
Əgər sistemdə “şübhəli” yüksək bal toplayırdısa, mülki qurbanların sayı 100 nəfərə qədər yüksəlirdi. Çünki İsrail ordusu əsasən yönləndirilməmiş bombalardan (dummy bomb) istifadə edirdi.
Bu, bəzi Qərb mütəxəssislərinə “rasional” və “qəbul edilə bilən” görünə bilər. Amma bütün faciə təfərrüatlarda gizlidir.
Süni intellektin ssenarisindəki ziddiyyətlər
Süni intellekt üzrə ekspertlər isə bu ssenarinin özündə ciddi ziddiyyətlər gördülər. Çünki məlumdur ki, əgər süni intellekt proqramı məhdud sayda məlumat üzərində öyrədilibsə, o zaman daha geniş həcmli məlumatlarda oxşarlıqları müəyyən edə bilməz.
Əgər həqiqətən 8200 saylı bölmənin əlində yalnız həbs edilmiş və HƏMAS-la əlaqəsi sübut olunmuş şəxslərin məlumatları var idisə – bu, Qəzzada yaşayan 2 milyondan çox insanın arasında çox kiçik bir faiz deməkdir. Belə olduqda sistemin necə “90% dəqiqliklə” işlədiyi sual altına düşür.
Digər suallar da ortaya çıxır: əsas faktor kimi hansı meyar götürülüb? Gündəlik zənglərin sayı? Yaxud müəyyən ərazilərə yaxınlıq? Əgər belədirsə, bu parametrlərə görə minlərlə günahsız insan da şübhəli kateqoriyasına düşə bilərdi.
Buradan mühüm suallar yaranır: 90% dəqiqlik iddiası nəyi ifadə edir? Bu rəqəm həqiqətən döyüş əməliyyatlarında tətbiq edilən nəticələrəmi əsaslanır?
Yoxsa sadəcə olaraq, əvvəlcədən hazırlanmış test məlumatlarında göstərilən “yalançı uğurlar” idi?
Microsoft nümunəsi
Bu məsələdə “Microsoft”un yaşadığı qalmaqal yada düşür. Şirkət süni intellekt modeli Phi-3-ü təqdim edərkən onun MATH, GSM8k və digər testlərdə “möhtəşəm nəticələr” göstərdiyini elan etmişdi. Sonradan məlum oldu ki, model həmin testlərin məlumat nümunələri ilə əvvəlcədən tanış idi. Yəni sistem real analiz aparmamış, sadəcə yadda saxladığı cavabları təkrar etmişdi.Belə olduğu halda, “Lavender”in 90% dəqiqlik iddiası da eyni cür saxta ola bilər.
10%-lik səhv marjası – və ölüm hökmü
Hətta əgər sistemin dəqiqliyi 90% olsa belə, bu, hər 10 nəfərdən 1-nin səhv təsnif olunması deməkdir. Hər yanlış təsnifat isə bir insanın və onunla birlikdə onlarla mülki şəxsin ölümünə gətirib çıxarır.
Beləliklə, sual ortaya çıxır: təkcə “Lavender”in qərarı ilə nə qədər mülki insan həyatını itirib?
İlkin hesabatlara görə, 7 oktyabrdan sonra “Lavender”də dəyişiklik edilərək təxminən 37 min nəfər şübhəli kimi təsnif edilib və onların hamısı hədəf siyahısına salınıb.
Əgər bu 37 min nəfərin hamısı ən aşağı bal toplayan şübhəlilər olsaydı belə, sistemə görə hər biri ilə birlikdə ən azı 15 mülki şəxs öldürüləcəkdi. Bu isə 37 min × 15 = təxminən yarım milyon mülki qurban deməkdir.
Beləliklə, sistemin yaratdığı ehtimal qurban sayı Hiroşima və Naqasakidəki atom bombalarının birlikdə yaratdığı ölü sayını keçə bilər.
İsrail ordusu isə görünür, bu rəqəmləri də üstələmək niyyətindədir. Çünki artıq Qəzzada həyata keçirilən hava zərbələri nəticəsində 60 mindən çox insan həyatını itirib. Rəqəmlərə dağıntılar altında qalanlar, itkin düşənlər və aclıqdan ölənlər daxil deyil.
Süni intellektin qurbanları
Bu proqramların tabutundakı son “mənəvi mıx” onların tam avtomatlaşdırılmasıdır. Yəni insan nəzarəti minimuma endirilmişdi. Hesabatlara görə, hava zərbəsi barədə qərarlar insan tərəfindən cəmi 20 saniyə ərzində gözdən keçirilirdi. Bu isə o deməkdir ki, süni intellektin yanlış və qeyri-dəqiq proqnozları demək olar ki, heç bir insan nəzarəti olmadan həyata keçirilirdi.
Burada vacib sual yaranır: bütün bu çatışmazlıqlara baxmayaraq niyə belə proqramlar tətbiq edilir? Əgər bunlar sadəcə “təsadüfi səhvlər”dirsə, onda niyə süni intellekt və avtomatlaşdırma üzrə mütəxəssislərin uzun illərdir bildiyi qadağalar nəzərə alınmayıb?
Buraya aşağıdakılar daxildir: ümumiləşdirmə səhvləri (generalization error), az sayda məlumat nümunəsinə əsaslanan öyrənmə səhvləri (training error), avtomatlaşdırma qərəzi (automation bias).
Bütün bu səhvlər “Lavender”də və digər sistemlərdə mövcud idi.
Daha bir sual isə məsuliyyətlə bağlıdır: bu səhvlərə görə kim cavabdehdir? Günahsız mülki şəxslərmi? Yoxsa əslində bu proqramlar elə qətliam üçün dizayn olunub və ona görə də heç bir etiraz və nəzarət mexanizmi qoyulmayıb?
Bəzi mütəxəssislər belə nəticəyə gəlirlər ki, Qəzzada baş verənlər əslində bu proqramların sınaq mərhələsidir. Burada toplanan “təcrübə” sonradan dünyaya təqdim ediləcək: guya bu tip süni intellekt “terrorla mübarizə üçün” nəzərdə tutulub.Əslində isə bu, tarixdə ilk dəfə süni intellekt vasitəsilə mülki əhalinin qətli kimi təqdim olunacaq – guya alqoritmlərin təkmilləşdirilməsi və düzəldilməsi üçün həyata keçirilmiş bir eksperiment.