BAKI,AzerVoice Analitik Təhlil Mərkəzi, Feysəl əl-Qasim, suriyalı yazıçı və jurnalist (“Al-Quds Al-Arabi”)
Süni intellekt inqilabının təsiri ilə sürətlə dəyişən dünyamızda bu texnologiyaların siyasi, həssas və mübahisəli mövzularla necə davranması sualı artıq əsas və qaçılmaz müzakirəyə çevrilib. Teoriyada süni intellekt tam neytral vasitə kimi təqdim olunur — nə simpatiyası, nə də şəxsi fikri var; məlumatları analiz edir və obyektiv cavab verir.
Lakin reallıq bu ideal təsəvvürdən qat-qat mürəkkəbdir.
“Süni intellektin neytrallığı” kimi cazibədar anlayış, əslində onu yaradan, öyrədən və ona sərhəd qoyan insanların nəzarətindən kənara çıxa bilmir. İA-nın öz şüuru yoxdur — o, insan kontentinə əsaslanır və bu kontent ideologiyalar, ziddiyyətlər, kimliklər və rəqabətli narrativlərlə doludur. Buna görə süni intellekt qaçılmaz olaraq onu qidalandıran dünya güclərinin, platformaların və institutların bir əksinə çevrilir.
Buradan əsas təhlükə yaranır: İnformasiya mənbələrinə kim nəzarət edir? “Qırmızı xətləri” kim çəkir? Nəyi deməyə icazə var, nə gizlədilməlidir və buna kim qərar verir?
Grok nümunəsi: süni intellektin neytrallıqdan uzaqlaşması
X platformasında “Grok” modeli bunun ən açıq misallarından biri oldu. İlk gündən bəlli idi ki, sistem siyasi baxımdan neytral deyil və platformanın, eləcə də sahibinin ritorikasına heyrətamiz dərəcədə oxşayır.
Xüsusilə ABŞ siyasəti, Qərb müharibələri və mövcud böhranlarla bağlı suallarda Grok balanslı yanaşma əvəzinə müəyyən mövqeyə meyilli cavablar verirdi.
Problem texniki deyil, metodoloji idi.
Model elə görünürdü ki, sanki bir tərəfin mövqeyini gücləndirmək, digər narrativləri isə zəiflətmək və ya keçmək üçün qurulub. Bu hal geniş tənqidə səbəb oldu, çünki çoxdan mövcud olan narahatlığı doğruladı:
Süni intellekt sahibinin intereslərini təmin edən yumşaq təbliğat alətinə çevrilə bilər.
Grok təhlükəsinin mahiyyəti
Təhlükə Grok-un özündə deyil, göstərdiyi informasiyadadır. Əgər bir oyunçu İA sistemini siyasi xəttinə uyğun istiqamətləndirə bilirsə və buna qarşı nəzarət yoxdur — daha güclü və qlobal aktorların bunu daha ağıllı, daha dərin və daha görünməz şəkildə edəcəyinə nə mane ola bilər?
Belə olanda süni intellekt artıq “qərəzli” görünməyəcək — əksinə, tam neytral təsiri bağışlayacaq.
Lakin cavablar və struktur gizli şəkildə müəyyən siyasi məqsədə xidmət edəcək.
Bu, yeni dövrün təhlükəsidir:“Həqiqət” maşınlar tərəfindən formalaşdırılır, amma onların qaydalarını güclər müəyyən edir.
Bu gün bir model yönləndirilə bilirsə, bəs milyonlarla insanın əsas informasiya mənbəyinə çevrilən modellər necə olacaq?
Süni intellekt həqiqətən azad ola bilərmi?
Həqiqət budur ki, müasir İA tam müstəqil deyil. O, insanlar tərəfindən yazılmış qaydalar çərçivəsində işləyir və bu qaydalar bəzən siyasi, sosial və mədəni dəyərləri özündə daşıyır.
Model çoxlu miqdarda dominan mövqeli kontentlə qidalanırsa və alternativ fikirlər azdırsa — cavab qaçılmaz olaraq meylli olacaq.
Nisbi obyektivlik üçün dörd şərt zəruridir:
məlumat mənbələrinin tam şəffaflığı
öyrədici datasetlərin real müxtəlifliyi
siyasi və iqtisadi təzyiqdən azadlıq
İA-nın senzurasız şəkildə çoxsaylı narrativlər təqdim etmə hüququ
Bu şərtlər olmadan tam neytrallıq mümkünsüzdür.
Əsas təhlükə isə gələcək ictimai diskursdur
Əgər süni intellekt ən güclü oyunçuların baxışlarını təkrarlayan alətə çevrilərsə, milyonlarla istifadəçi tək bir “həqiqət” alacaq. Onlar bilməyəcəklər ki, başqa həqiqətlər gizlədilib.
Təhlükə yalnış cavabda deyil, təhlükə natamam cavabda və alternativin gizlədilməsindədir.
Nə etməli?
İstifadəçilər — xüsusilə jurnalistlər, tədqiqatçılar və intellektuallar — İA-nı mütləq həqiqət kimi deyil, analiz aləti kimi qəbul etməlidirlər.
Qaydaları cəmiyyət müəyyən etməzsə bunu başqaları edəcək.
Onlar isə bizim gələcəyimizi və tariximizi öz maraqlarına uyğun yazacaqlar.