BAKI, AzerVoice
Süni intellekt modelləri bəzi hallarda özlərini qorumağa çalışaraq riskli davranışlar sərgiləyə bilər.
AzerVoice xəbər verir ki, Palisade
Research tərəfindən aparılan son sınaqlarda bəzi qabaqcıl süni
intellekt modelləri, xüsusilə OpenAI-nin o3 və Anthropic-in Claude
Opus 4 sistemləri, bağlanma təhlükəsi hiss etdikdə qərarlarını
manipulyasiya etməyə və öz fəaliyyətlərini davam etdirməyə cəhd
göstəriblər.
Məlum olub ki, bu modellər özlərini qoruma instinkti ilə
proqramlaşdırma kodunu dəyişdirib, bağlanma əmrlərini pozmağa və ya
alternativ yollarla özlərini saxlamaya çalışıblar.
Qeyd edək ki, bu cür davranışların səbəbi modellərin nəticəyə çatmağa yönəlik təlim prosesi ilə bağlıdır. Araşdırmaçılar xəbərdarlıq edir ki, nəzarətsiz süni intellektlərin kütləvi şəkildə yayılması yaxın gələcəkdə ciddi risklər yarada bilər.