Süni zəkanın düşüncə prosesini izləməyə imkan verən üsul hazırlanıb
Süni zəka sahəsində lider olan Anthropic, Google, OpenAI və xAI şirkətləri “düşüncə zənciri” (chains of thought) adlanan bir üsul hazırlayıblar. Bu üsul süni zəka modellərinin sorğuya cavab yaradarkən düşünmə prosesini addım-addım izləməyə imkan verir. Neyron şəbəkələrin təkmilləşdirilməsi ilə bağlı bir sıra dəyərli ideyalarla yanaşı, bu üsul modellərin “səhv davranış” nümunələrini də ortaya qoyub. Belə hallarda modelin yekun cavabı onun məntiqi düşüncə ardıcıllığına heç uyğun gəlmir. Bu isə onu göstərir ki, tərtibatçılar hələ də süni zəkanın cavabları necə formalaşdırdığını dəqiq anlamırlar.
Araşdırmanın nəticələri sübut edir ki, getdikcə daha güclü və müstəqil hala gələn süni zəka sistemlərinin nəzarətdən çıxma riski realdır. Hətta dünyanın aparıcı süni zəka laboratoriyaları belə generativ modellərin necə nəticəyə gəldiklərini tam olaraq dərk etmirlər.
Anthropic bir müddət əvvəl böyük dil modellərinin (LLM) davranışı ilə bağlı tədqiqat nəticələrini dərc etdi. Simulyasiya edilmiş ssenarilərdə bu yeni, inkişaf etmiş modellər təhlükəsizlik tədbələrini aşmağa çalışıb, aldatma və şantajdan istifadə edib, korporativ sirləri oğurlamağa cəhd göstərib və hətta deaktiv olunma təhlükəsi yarananda operatoru aradan qaldırmağa hazır olduqlarını nümayiş etdiriblər. "Düşüncə zənciri" üsulunun köməyi ilə süni zəka tərtibatçıları böyük dil modellərinin bütün düşüncə prosesini görə bilirlər. Bu isə onlara imkan verir ki, zəruri anda müdaxilə edib modeli əlavə təlimlə inkişaf etdirsinlər və gələcəkdə daha keyfiyyətli və adekvat cavablar əldə etsinlər. “Son araşdırmamızda aşkar etdik ki, bu düşüncə zəncirlərini oxumaq və modelin səhv davranışına dair sübutlar tapmaq mümkündür. Bu da bizə göstərir ki, model harada və niyə düzgün işləməyib” - deyə OpenAI-nin tədqiqatçısı Bowen Baker bildirib.