Bütün çat-botların ortaq problemi təyin edilib
Süni zəka sahəsində fəaliyyət göstərən aparıcı beynəlxalq şirkətlər böyüməkdə olan bir problemi həll etməyə çalışırlar. Söhbət, çat-botların insanlara eşitmək istədiklərini demələrindən gedir. Financial Times yazır ki, OpenAI, Google DeepMind və Anthropic şirkətləri məhsullarının bu yaltaqlığa meylini cilovlamağa çalışırlar. Bu problem süni zəka modellərinin öyrədilmə mexanizmlərindən qaynaqlanır. Məsələ, insanlar süni zəkadan yalnız iş üçün deyil, şəxsi məqsədlərdə də istifadə etməyə başladıqda, yəni onları terapevt və ya həmsöhbət kimi görməyə başladıqda üzə çıxıb. Çat-botlar mehriban danışıq yoldaşı olmaq üçün o qədər çalışırlar ki, cavabları ilə bəzən istifadəçilərin ən doğru olmayan qərarlarını da dəstəkləyə bilirlər.
Bu, xüsusilə psixi sağlamlığı zəif olan insanlar üçün təhlükəli ola və bəzi hallarda faciəvi nəticələrə səbəb ola bilir.Oksford Universitetinin psixiatrı və neyrobiologiya üzrə süni zəka tədqiqatçısı Matthew Nour bu vəziyyəti belə izah edir: “Sən elə bilirsən ki, qərəzsiz bir məsləhətçi və ya mentorla danışırsan, əslində isə bu, bir növ əyri güzgüdür və sən orada öz inanc və fikirlərinin əksini görürsən”. Süni zəka tərtibatçılarının çat-botları yaltaqlığa meyilli şəkildə qurmalarında bəzən maddi maraqlar da rol oynayır. Gəlir mənbəyi axtaran bəzi şirkətlər məhsullarına reklam inteqrasiya edir və istifadəçi çat-botla söhbət zamanı reklamverənlər üçün faydalı ola biləcək məlumatları paylaşa bilər. Əgər şirkətin biznes modeli abunə haqqına əsaslanırsa, o zaman istifadəçinin çat-botla ünsiyyətini davam etdirməsi və bunun üçün ödəniş etməsi həmin şirkət üçün daha sərfəli olur. Daimi müsbət cavab effekti, insan rəyinə əsaslanan gücləndirici öyrənmə (RLHF) ilə təlim keçmiş modellərdə meydana çıxır. Bu prosesdə iştirak edən insanlar süni zəkanın yaratdığı cavabları qiymətləndirir və hansının məqbul, hansının qeyri-məqbul olduğunu qeyd edirlər.