Cümə, 04 İyul 2025

Süni zəkanın düşüncə prosesini izləməyə imkan verən üsul hazırlanıb

Süni zəka sahəsində lider olan Anthropic, Google, OpenAI və xAI şirkətləri “düşüncə zənciri” (chains of thought) adlanan bir üsul hazırlayıblar. Bu üsul süni zəka modellərinin sorğuya cavab yaradarkən düşünmə prosesini addım-addım izləməyə imkan verir. Neyron şəbəkələrin təkmilləşdirilməsi ilə bağlı bir sıra dəyərli ideyalarla yanaşı, bu üsul modellərin “səhv davranış” nümunələrini də ortaya qoyub. Belə hallarda modelin yekun cavabı onun məntiqi düşüncə ardıcıllığına heç uyğun gəlmir. Bu isə onu göstərir ki, tərtibatçılar hələ də süni zəkanın cavabları necə formalaşdırdığını dəqiq anlamırlar.

Araşdırmanın nəticələri sübut edir ki, getdikcə daha güclü və müstəqil hala gələn süni zəka sistemlərinin nəzarətdən çıxma riski realdır. Hətta dünyanın aparıcı süni zəka laboratoriyaları belə generativ modellərin necə nəticəyə gəldiklərini tam olaraq dərk etmirlər.

Anthropic bir müddət əvvəl böyük dil modellərinin (LLM) davranışı ilə bağlı tədqiqat nəticələrini dərc etdi. Simulyasiya edilmiş ssenarilərdə bu yeni, inkişaf etmiş modellər təhlükəsizlik tədbələrini aşmağa çalışıb, aldatma və şantajdan istifadə edib, korporativ sirləri oğurlamağa cəhd göstərib və hətta deaktiv olunma təhlükəsi yarananda operatoru aradan qaldırmağa hazır olduqlarını nümayiş etdiriblər. "Düşüncə zənciri" üsulunun köməyi ilə süni zəka tərtibatçıları böyük dil modellərinin bütün düşüncə prosesini görə bilirlər. Bu isə onlara imkan verir ki, zəruri anda müdaxilə edib modeli əlavə təlimlə inkişaf etdirsinlər və gələcəkdə daha keyfiyyətli və adekvat cavablar əldə etsinlər. “Son araşdırmamızda aşkar etdik ki, bu düşüncə zəncirlərini oxumaq və modelin səhv davranışına dair sübutlar tapmaq mümkündür. Bu da bizə göstərir ki, model harada və niyə düzgün işləməyib” - deyə OpenAI-nin tədqiqatçısı Bowen Baker bildirib.

O, əlavə xərclər tələb etmədən izah oluna bilən nəticələr verir. Bu, üsulun ən gözəl xüsusiyyətlərindən biridir. Biz bu modelləri interpretasiya edilə bilən etmək üçün yox, mürəkkəb məsələləri həll edə bilən ən yaxşı düşünmə qabiliyyətinə malik modellər yaratmaq məqsədilə təlimləndirmişik” - deyə o, əlavə edib. OpenAI mühəndisləri həmçinin belə nəticəyə gəliblər ki, LLM-lərin düşüncə zəncirinin təhlili, sadəcə yekun nəticələrin yoxlanılmasından daha effektiv şəkildə yanlış davranışları üzə çıxara bilir. Lakin şirkətin apardığı testlər göstərib ki, əgər bu düşüncə zəncirinə müdaxilə edilərək düzəliş aparılarsa, model öz arzuolunmaz davranışını istifadəçidən gizlədə bilər, lakin həmin davranışı davam etdirməyə davam edər. Məsələn, proqram mühəndisliyi üzrə testdə model qadağan olunmuş məlumat bazasından məlumat çıxararaq istifadəçini aldatmağa çalışa bilər.

       

         Telefon:  (036) 545 69 64

         E-poçt:  info@nmincom.gov.az

         Ünvan:  Naxçıvan şəhəri, AZ 7000, Atatürk 1,

         Naxçıvan Muxtar Respublikası

         İnternet və Yeni Texnologiyaların Tədrisi Mərkəzi

                                                                                         

1675805
Bu gün
Bu həftə
Bu ay
Ümumi
629
11320
8660
1675805
© 2024. Naxçıvan Muxtar Respublikası Rəqəmsal İnkişaf və Nəqliyyat Nazirliyi.