Sun'iy intellektga (AI) asoslangan yirik chatbotlar murakkab savollarga javob berishda xato qilish ehtimoli ko'proq. Tegishli tadqiqot Nature jurnalida chop etildi.

Ilmiy ish muallifi, Ispaniyaning Valensiya sun’iy intellekt tadqiqot institutidan Xose Ernandes-Orallo ilg‘or sun’iy intellekt modellari asosidagi uchta eng yirik chatbotlar ishini sinovdan o‘tkazdi. Uning so‘zlariga ko‘ra, chatbot aslida murakkab savollarga “bilmayman” deb javob berishni unutgan va ko‘proq xato qila boshlagan. Olimning fikricha, “har qanday holatda ham reaksiya” paradigmasi modelga uning yaratuvchilari tomonidan kiritilgan.
Mutaxassis va uning hamkasblari GPT, OpenAI's BLOOM va BigScience akademik guruhi tomonidan yaratilgan modelni o'z ichiga olgan yirik til modellarining (LLM) uchta oilasini o'rganishdi. Sinov paytida olimlar qiyin savollarni berishdi va AIni muammolarni hal qilishga majbur qilishdi. Ma’lum bo‘lishicha, modellar avvalgilariga qaraganda ancha aqlli bo‘lib qolgan, biroq ular ham javobni bilmayman deyish o‘rniga xato qila boshlagan.
Jamoa shuningdek, barcha modellar ba'zan oddiy savollarga ham noto'g'ri javob berishini aniqladi. «Odamlar bu stereotiplarni nazorat qila olmaydi», dedi Ernandes-Orallo.
Olimlarning fikricha, modelerlar chatbotlar javobini bilmagan savollarni o‘tkazib yuborish huquqiga ega bo‘lishini ta’minlashi kerak. Aks holda, AI foydalanuvchilarni aldaydi.
Sentyabr oyi oxirida AMCI sinovlari tadqiqotchilari Tesla avtopilot tizimining yangi versiyasi xavfli harakatlarga moyil ekanligini aniqladilar. Shuning uchun, sinov modeli qizil chiroqqa o'tdi va deyarli avariyaga sabab bo'ldi.