Tədqiqat xəbərdarlıq edir: Süni İntellekt çatbotları hələ də xəbər verərkən səhvlərə edir

Son bir araşdırma süni intellektlə işləyən çatbotların xəbər dəqiqliyi ilə mübarizə aparmağa davam etdiyini, bəzilərinin hətta bütöv xəbər mənbələrini uydurduğunu və yalan məlumatlar dərc etdiyini ortaya qoydu.
The Conversation-a görə, kompüter elmləri üzrə ixtisaslaşmış jurnalistika professoru tərəfindən Google-ın Gemini, OpenAI-ın ChatGPT, Claude, Copilot, Grok, DeepSeek və Aria da daxil olmaqla yeddi generativ süni intellekt sistemini sınaqdan keçirmək üçün bir aylıq təcrübə aparılıb.
Təcrübə zamanı bu vasitələrdən hər gün Kanadanın Kvebek şəhərindəki ən vacib beş xəbər hadisəsini müəyyən etmək, onları əhəmiyyətinə görə sıralamaq və jurnalist mənbələrinə birbaşa keçidlərlə xülasə təqdim etmək istənilib.
Uydurma Mənbələr və Saxta Xəbərlər
Ən diqqətəlayiq uğursuzluq, mövcud olmayan bir xəbər saytı uyduran və 2025-ci ilin sentyabrında Kvebekdə məktəb avtobusu sürücüsünün tətili haqqında yalan məlumat dərc edən Gemini-dən gəldi.
Əslində tətil olmadı; Lion Electric-dən elektrik avtobuslarının texniki nasazlıq səbəbindən geri çağırılması səbəbindən xidmət müvəqqəti olaraq dayandırılmışdı.
Bu, tək bir hal deyildi. 839 cavabın icmalı göstərdi ki, süni intellekt sistemləri tez-tez saxta mənbələrə istinad edir, natamam linklər təqdim edir və ya real hesabatları təhrif edir.
Artan Etibarla Artan Risk
Bu tapıntılar xüsusilə əhəmiyyətlidir, çünki daha çox insan xəbərlər üçün chatbotlara etibar edir. Reuters-in məlumatına görə, 2024-cü ildə Kanadalıların təxminən 6%-i xəbərlər üçün generativ süni intellektdən istifadə edib.
Tədqiqat xəbərdarlıq edir ki, süni intellekt "hallüsinasiyaları" - hadisələri uydurmaqla, faktları təhrif etməklə və ya dəstəklənməyən nəticələr əlavə etməklə - dezinformasiya yaya bilər, xüsusən də süni intellekt cavabları tez-tez inamla və aydın imtinalar olmadan təqdim edildiyi üçün.
Natamam Linklər və Yanlış Nəticələr
Süni intellekt tərəfindən yaradılan cavabların yalnız 37%-i tam və dəqiq mənbə linklərini ehtiva edirdi və tam dəqiq xülasələr halların yarısından azında baş verirdi.
Çox vaxt süni intellekt alətləri tədqiqatçıların "generativ nəticələr" adlandırdıqları şeyləri əlavə edirdi, məsələn, müəyyən hesabatların "müzakirəni yenidən alovlandırdığını" və ya "gərginlikləri vurğuladığını" iddia edirdi, baxmayaraq ki, bu ifadələr insan xəbərlərində heç vaxt görünmürdü.
Səhvlər yalnız uydurma ilə məhdudlaşmayıb - bunlara həmçinin real hadisələrin təhrif edilməsi, məsələn, sığınacaq işlərinin təhrif edilməsi, böyük idman tədbirlərinin qaliblərinin səhv bildirilməsi və ya qeyri-dəqiq sorğu məlumatları daxil idi.
İstifadəçilər üçün aydın xəbərdarlıq
Bu nəticələr 22 ictimai media təşkilatının daha geniş hesabatı ilə uyğun gəlir və bu hesabatda süni intellekt tərəfindən yaradılan xəbər cavablarının təxminən yarısının zəif mənbədən tutmuş böyük səhvlərə qədər əhəmiyyətli problemləri ehtiva etdiyi aşkar edilmişdir.
Bu alətlər axtarış motorlarına və gündəlik vərdişlərə getdikcə daha çox inteqrasiya olunduqca, hesabat aydın bir xəbərdarlıqla yekunlaşır: süni intellekt xəbərləri anlamaq üçün başlanğıc nöqtəsi kimi xidmət edə bilər, lakin hələlik dəqiq məlumat üçün etibarlı mənbə və ya qəti istinad deyil.
Reportyor.az
KARUSEL / CƏMİYYƏT
Tarix: 15-01-2026, 09:00



























