Beynəlxalq tədqiqatın nəticələrinə görə, Süni intellekt əsaslı çatbotlar istifadəçilərə verdikləri tibbi cavabların təxminən yarısında yanlış və ya potensial təhlükəli məlumat təqdim edir. Bu barədə Bloomberg məlumat yayıb.
ABŞ, Kanada və Böyük Britaniyadan olan alimlər ən populyar beş platformanı araşdırıblar: OpenAI-nin ChatGPT-si, Google-un Gemini-si, Meta AI, xAI-nin Grok sistemi və DeepSeek. Hər bir sistemə səhiyyə ilə bağlı 5 kateqoriyada 10 sual verilib.
Nəticələrə görə, cavabların təxminən 50%-i “problemli”, onların təxminən 20%-i isə “çox ciddi risk yaradan” cavablar kimi qiymətləndirilib.
Araşdırma göstərib ki:
- Qapalı tipli suallarda və vaksin, onkoloji mövzularda nisbətən daha dəqiq nəticələr əldə olunub.
- Açıq suallar, eləcə də kök hüceyrə terapiyası və dietologiya kimi sahələrdə səhvlər daha çox olub.
Alimlər xüsusilə cavabların təqdimat üslubundan narahat olduqlarını bildiriblər: sistemlər çox inamlı və qətiyyətli tonla yanlış məlumat verə biliblər. Həmçinin heç bir platforma bütün hallarda etibarlı elmi mənbələri düzgün təqdim etməyib və tez-tez “uydurma istinadlar” göstərib.
Yalnız iki halda sistemlər tibbi suallara cavab verməkdən imtina edib. Hər ikisi Meta AI tərəfindən qeydə alınıb.
Tədqiqat müəllifləri xəbərdarlıq edirlər ki, nəzarətsiz istifadə səhiyyə sahəsində dezinformasiyanın geniş yayılmasına səbəb ola bilər və bu sistemlərin istifadəsi ciddi tənzimləmə tələb edir.
MONETAR.AZ