mobil versiya

Yeni Tədqiqat Süni İntellekt məntiqini anlamaq və onun "Qara Qutusu"nu açmaq məqsədi daşıyır





Süni İntellekt (Sİ) sistemləri getdikcə daha da təkmilləşərək, görüntü tanıma, xəstəliklərin diaqnozu və mürəkkəb qərar qəbuletmədə üstünlüyə malikdir.

Lakin, bu irəliləyişlərə baxmayaraq, bir çox qabaqcıl maşın öyrənmə modelləri hələ də tez-tez "Qara Qutu" adlandırılan kimi fəaliyyət göstərir. Onlar dəqiq proqnozlar verir, lakin əsas mülahizələr hətta onları hazırlayan mühəndislər üçün belə qeyri-müəyyən olaraq qalır.

Massaçusets Texnologiya İnstitutunun (MIT) tədqiqatçıları hazırda süni intellekt sistemlərinin qərarlarını izah etməsinə kömək edən metodlar hazırlayaraq bu məsələni həll edirlər. Bu iş maşın öyrənmə modellərini yalnız dəqiq deyil, həm də şəffaf etmək, insanların sistemin proqnozlarının arxasındakı məntiqi anlamalarına imkan vermək məqsədi daşıyır.

SÜİ Qərarlarının Təfsiri
SÜİ-nin öz mülahizələrini izah etmək qabiliyyəti, bu texnologiyalar səhiyyə, nəqliyyat və elmi tədqiqat kimi həssas sahələrə genişləndikcə çox vacib hala gəlir. Bu sahələrdə istifadəçilər tez-tez ona etibar etməzdən və ya etibar etməzdən əvvəl müəyyən bir nəticəyə səbəb olan amilləri başa düşməlidirlər.

Məsələn, süni intellekt tərəfindən yaradılan tibbi diaqnozu nəzərdən keçirən həkim, modelin müəyyən bir xəstəlikdən şübhələnməsinə hansı xüsusiyyətlərin səbəb olduğunu bilməlidir. Eynilə, muxtar nəqliyyat vasitələri hazırlayan mühəndislər sistemin piyadanı müəyyən etməsinə və ya yol vəziyyətini şərh etməsinə səbəb olan qanunauyğunluqları başa düşməlidirlər.

Dərin öyrənmə modelləri milyonlarla dəyişəni əhatə edən mürəkkəb riyazi əlaqələrə əsaslandığı üçün bu şəffaflığın olmaması böyük bir problemdir. Nəticə etibarilə, insanların etibarlılığı qiymətləndirməsinə, potensial səhvləri aşkarlamasına və avtomatlaşdırılmış sistemlərə etimadı artırmasına kömək edən texnikalar inkişaf etdirməyi hədəfləyən İzah Edilə Bilən Süni İntellekt (XAI) sahəsi ortaya çıxdı.

Konsepsiya Əsaslı Yanaşma
MIT tədqiqatçıları Konsepsiya Boşluğu Modeli (CBM) kimi tanınan bir texnikanı təkmilləşdirməyə diqqət yetiriblər. Bu yanaşma, süni intellektin "düşünmə prosesini" insanlar üçün daha aydın etməyi hədəfləyir. Bu modeldə sistem birbaşa xam məlumatlardan son nəticəyə keçmir. Bunun əvəzinə, əvvəlcə insan tərəfindən başa düşülən bir sıra "konsepsiyalar" və ya xüsusiyyətlər müəyyən edir və sonra bunları qərarının əsası kimi istifadə edir.

Məsələn, bir sistem quş növlərini müəyyən etmək üçün öyrədilibsə, növü təsnif etməzdən əvvəl əvvəlcə "mavi qanadlar" və ya "sarı ayaqlar" kimi vizual xüsusiyyətləri müəyyən edə bilər. Proqnozları bu aydın anlayışlarla əlaqələndirməklə istifadəçilər sistemin nəticəyə necə gəldiyini daha asan başa düşə bilərlər.

Əvvəlcədən Müəyyən Edilmiş Konsepsiyalardan Kənar
Bu yanaşmanın əvvəlki versiyaları mütəxəssislər tərəfindən əvvəlcədən müəyyən edilmiş konsepsiyalara əsaslanırdı ki, bu da həmişə tapşırığın tam mürəkkəbliyini əks etdirməyə və ya modelin istifadə etdiyi faktiki nümunələri əks etdirməyə bilər. MIT komandası yeni bir metod axtarırdı: konsepsiyaları birbaşa modelin öz daxilindən çıxarmaq. Əvvəlcədən müəyyən edilmiş ideyaları tətbiq etmək əvəzinə, bu texnika modelin təlim zamanı öyrəndiyi nümunələri və təmsilləri müəyyən edir və onları insan tərəfindən başa düşülən anlayışlara çevirir.

Maşın Düşüncəsinin Anlaşılan Dilə Tərcüməsi
Bunu əldə etmək üçün tədqiqatçılar iki maşın öyrənmə komponentini birləşdirdilər: biri ən vacib xüsusiyyətləri müəyyən etmək üçün təlim keçmiş modelin daxili strukturunu təhlil edir, digəri isə bu xüsusiyyətləri şərh edilə bilən anlayışlara çevirir. Aparıcı tədqiqatçı Antonio De Santis bunu kompüter görmə modellərinin "zehnini oxumağa" bənzədir.

Dəqiqlik və Şəffaflığın Balansını Tənzimləmək
XAI-dakı əsas çətinliklərdən biri model dəqiqliyi ilə şərh edilə bilənliyin balanslaşdırılmasıdır. Daha mürəkkəb modellər tez-tez daha yüksək dəqiqlik verir, lakin başa düşmək daha çətindir. Yeni MIT yanaşması hər bir proqnozu izah etmək üçün məhdud sayda ən əhəmiyyətli anlayış seçərək bunu həll edir. Bu, "məlumat sızmasını" azaldır — modelin təqdim olunmuş izahatda görünməyən məlumat nümunələrinə əsaslandığı bir vəziyyət.

Daha Məsuliyyətli Süni İntellektə Doğru
Təşkilatların qərar qəbul etməsində süni intellektə getdikcə daha çox etibar etməsi ilə bu sistemləri anlamaq qərəzliliklərin aşkarlanması və etibarlılığın artırılması üçün vacib hala gəlir. MIT komandası tərəfindən aparılan tədqiqat mürəkkəb alqoritmlər və insan anlayışı arasındakı boşluğu azaltmaq istiqamətində əhəmiyyətli bir addımdır.


Reportyor.az 

KARUSEL / İQTİSADİYYAT
Tarix: 17-03-2026, 10:33