Skip to main content

HALÛSÎNASYONA ÇÊKIRÎ (ARTIFICIAL HALLUCINATION)

Destpêk

Geşedana Hişê Çêkirî – HÇ (Artificial Intelligence — AI) di salên dawî de yek ji veguhertinên herî mezin ên dîroka teknolojiyê ye. Di nav vê geşedanê de, serîlêdanên HÇya Afirîner (Generative AI) cihekî taybetî digirin, ji ber ku ew dikarin nivîsar, wêne û deng bi xweserî hilberînin. Robotên Sohbetê (Chatbots) wekî ChatGPT, Gemini û Claude ji van serîlêdanan in û bi mîlyonan mirov rojane wan bikar tînin.

Modelên Zimanê Mezin – MZM (Large Language Models — LLM) bingeha van Robotên Sohbeta pêk tîne. Van modelan di dema perwerdehiyê de ji mîlyaran rûpelên nivîsarê fêr bûne û hêza çêkirina bersivên maqûl û xweşnivîs hene. Lê ev jêhatîbûn bê kêmasî nîne: MZM (LLM) carinan agahiyên xelet, takekesên xeyalî an çavkaniyên ku tune ne diafirînin. Ev diyarde wekî halûsînasyon çêkirî tê binavkirin û îro yek ji pirs û girêkên sereke yên zanista HÇê (Hişê Çêkirî) ye.

Robotên Sohbetê bi şêweyekî hatine sêwirandin ku di her gavê de tenê yek peyv hilberînin û bi şopandina rêza diyalogê pêşbîniyan çêbikin. Sedema ku xuya dikin wekî her tiştî dizanin ev e ku di dema perwerdehiyê de li ser şîmanên (probabilities) bilind ên peyvên rast û şîmanên kêm ên peyvên şaş hatine xebitandin. Bi gotineke din, model her tim hewl dide ku peyvên herî 'mihtemel ên rast' berhev bike, ne ku agahiyên rastîn ji bîra xwe vegerîne.

Di vê nivîsê de em ê halûsînasyona çêkirî ji çend aliyan ve tê vekolîn: pênasekirin, mînak, sedem, rêbazên pîvandinê û çareyên pêşniyarkirî. Mebest ew e ku xwendevan bi çavekî rexnegir û agahdar nêzikî van amûrên nûjen bibe.

Pênase û Têgihîştina Halûsînasyona Çêkirî

Di warê Hişê Çêkirî de, halûsînasyon tê wê wateyê ku model encamekê hilberîne ku ji rastiyê dûr e, lê bi baweriyeke bilind û bi zimanekî hêsan wisa pêşkêş dike ku rastiya wê nekeve ber şik û gumanê. Ev yek ji mirovan re diyar e ku di derûnnasiyê de halûsînasyon wateya dîtin an bihîstina tiştên ku tune ne dide; di HÇê de jî mana wiha ye.

Rawte û hevalên xwe (2024) halûsînasyonan di bin şeş sernavên cihêreng de dabeş dikin: halûsînasyona rastnivîsê (orthographic hallucination), halûsînasyona semantîk (semantic hallucination), halûsînasyona ravekirinê (interpretive hallucination), halûsînasyona rastiyê (factual hallucination), halûsînasyona mantiqî (logical hallucination) û halûsînasyona çavkaniyê (source hallucination). Ji van celeban ên herî zêde tên dîtin, halûsînasyona rastiyê û ya çavkaniyê ye: model bi pêbawerî dibêje ku 'ev agahî di wê çavkaniyê de ye', lê çavkanî tune ye an agahî tê de nîne.

Hin lêkoler termên alternatîf jî pêşniyar dikin. Mînak, şapînoz (confabulation) termeke ku ji norozanistê (noroscience) hatiye û tê wê wateyê ku mêjî bi xweserî valahiyên bîranînê bi agahiyên çêkirî dagire. Çêkirina çîrokê (story fabrication) jî terminolojiyeke din e ku hin zanyar tercîh dikin, ji ber ku ew baştir nîşan dide ka model di rastiyê de ne 'xelet difikire', lê 'çîrokekê vedibêje'.

Çavkaniyên Halûsînasyona Çêkirî

Avahiya Modelê

Yek ji sedemên bingehîn ew e ku Modelên Zimanê Mezin (LLM) zaniyariyê bi şêweyeke zextkirî hildiberînin. Van serîlêdanên ku bi Torên Sinaptîkê (Neural Networks) têne modelkirin, di dema perwerdehiyê de bi hezaran têkiliyên di navbera mîlyonan noronên çêkirî de kodkirine. Dîsa jî LLM bi rêjeya bilind — mîna %98 — agahiyên ku di dema perwerdehiyê de hatine dayîn hilber dikin. Di %2ê mayî de ji rastiyê dûr dikevin. Ev rêje di pratîkê de gelek mezin e, ji ber ku model rojane bi mîlyaran bersivan didin.

Pirsgirêkeke din ew e ku LLM di eslê xwe de amûrên pêşbîniyê ne, ne amûrên lêgerîna rastiyê. Dema ku mirov bipirse 'paytexta Kurdistanê çi ye?', model ne di danabazeke rastnivîskirî de digere, lê li gorî peyvên ku di perwerdehiyê de bi hev re pirî caran hatine, bersivê pêşbînî dike. Di pirraniya rewşan de ev rêbaz kar dike; lê dema pirsa kêm-naskirî an tevlihev be, xeterî zêde dibe.

Daneyên Perwerdehiyê

Qalîteya daneyên perwerdehiyê jî bandorek mezin li ser halûsînasyonan dike. Ger daneyên perwerdehiyê agahiyên şaş, neyeksan an kevnar hebin, model dê wan fêr bibe û dûv re jî bide. Wekî din, ger mijarek kêm-nûnerî be di daneyên perwerdehiyê de — mînak zimanên biçûk, çandên kêmtir belgekirî an qadên zanistê yên nû — model dê li ser wan mijaran kêmtir pêbawer be û rêjeya halûsînasyonê bilindtir be.

Mînak, Robotên Sohbetê (Chatbot) Bard a ku Google di sala 2023an de berdan got ku dê dikare wêneyên yekem ên gerstêrkek li derveyî Pergala Tavê (Solar System) ji hêla Teleskopa Fezayê ya James Webb (James Webb Space Telescope — JWST) ve were kişandin. Lê ev agahî ne rast bû. Teleskopa yekem ku serketî bû ku wêneyên gerstêrkekê bikişîne Teleskopa Pir Mezin a Şîlî (Very Large Telescope — VLT) bû. Ev xeta Google di demeke krîtîk de bû û bû sedema ku nirxa sehma Google bi milyaran dolaran kêm bibe.

Rêbazên Perwerdehiyê

Rêbaza perwerdehiyê ya fêrbûna bi qeyîmkirinê ya bi vegeriya mirovî (Reinforcement Learning from Human Feedback — RLHF) hin halûsînasyonan kêm dike, lê di heman demê de dibe sedema celebekî din ê halûsînasyonan jî. Ji ber ku di vê rêbazê de model han û teşwîq dibe ku bersivên ku nirxanderên mirovan jê xweş in hilberîne û mirovan gelek caran bersivên berfireh û bi pêbawer tercîh dikin, model fêr dibe ku bi awakî pir bawer bersiv bide, heta dema agahiyê rast nizane jî. Lêkolîn destnîşan dikin ku modelên nûtir meyltir in ku li ser mijarên ku nizanin jî texmînan bikin (Suzgun û hev., 2024).

Pîvandina Halûsînasyona Çêkirî

Pîvandina halûsînasyonê karekî zehmet e ji ber ku pênaseyeke yekgirtî tune ye û cudakirina 'bersiva şaş' ji 'halûsînasyona rastîn' her tim hêsan nîne. Lê di salên dawî de çend nêzîkatiyên sistematîk hatine pêşxistin.

Rawte û hevalên xwe (2024) Îndeksa Halûsînasyonê (Hallucination Index) pêşxist û ji bo destnîşankirina giraniyê sê dereceyên cihê bikar anî: sivik (minor), navîn (moderate) û giran (severe). Lêkolerên din jî rêzikbandiyeke seroktiya halûsînasyonê (hallucination leaderboard) pêşxist û li ser platformê HuggingFace weşand ku lêkoler dikarin modelên cihêreng bidin ber hev.

Platforma Vectara jî rêzikbandiyeke seroktiya halûsînasyonê diparêze. Li gorî daneyan, modela finix_s1_32b ya Antgroup bi rêjeya %1.8 kêmtirîn halûsînasyon heye. Modela gemini-2.5-flash-lite ya Google bi rêjeya %3.3 di rêza duyemîn de ye. Rêjeya halûsînasyona modela gpt-4.1-2025-04-14 ya OpenAI %5.6 e. Ev rêje li gorî cureyê pirsan û qadê dikare biguhere, ji ber vê yekê ev jimare tenê wekî rêberî divê werin xwendin.

Farquhar û hevalên xwe (2024) rêbazeke nû ya kişfkirina halûsînasyonê pêşxist ku li ser entropiya semantîk (semantic entropy) xebitî. Di vê nêzîkatiyê de, eger model ji pirsa heman tiştî bi rêyên cihêreng bersivên pir ji hev cuda bide, ev nîşana baş e ku model ne pê bawer e û dibe ku halûsîne dike. Ev rêbaz ne hewce dike ku bersiv bi daneya rastî were girêdan ku ev fêdeyeke girîng e.

Rêbazên Astengkirina Halûsînasyona Çêkirî

Parametreyên Bêtir û Daneyên Paqijtir

Modelên ku ji parametreyên bêtir re derbas bûne kêmtir halûsînasyonan dibînin. Parametreyên zêde tê wê wateyê ku model dikare agahiyên bêtir û bi hûrgûlîtir di bîra xwe de bigire. Lê pêşxistina modelên mezintir biha ye — hem ji aliyê enerjiyê, hem jî ji aliyê kompûtasyonê ve. Ji ber vê yekê, ne her car çêtirîn çareserî zêdekirina parametreyan e.

Karanîna bingehên daneyên mezintir û paqijtir di dema perwerdehiyê de jî halûsînasyonan kêm dike. Ger daneyên perwerdehiyê ji çavkaniyên pêbawer, nûkirî û cihêreng werin berhevkirin, model dê agahiyên rasttir fêr bibe. Lê pêvajoya paqijkirina daneyan (data cleaning) keda mirovî û dema zêde dixwaze.

RAG — Hilberîna bi Zaniyariya Zengînkirî

Nêzîkatiyeke bikêr û pir bikaranîn bi kurtî wekî RAG tê binavkirin — hilberîna bi çêkirina zaniyariyê zengînkirî (Retrieval Augmented Generation). Di vê nêzîkatiyê de, pirsek dikeve ber Robotên Sohbetê re, têkurê belgeyeke têkildar jî tê nîşandayîn û robot bi daniyariyê ji çavkaniyek pêbawer bersivan amade dike. Bi vî awayî model ne mecbûr e ku agahiyên kêm-bawer ji 'bîra xwe' vegerîne; belkî rasterast ji belgeyê dixwîne û bersivan çêdike.

RAG di qadên ku agahiyên nûkirî û rast pêwist in de — wekî bijîşkî, hiqûq û darayî — bi taybetî bikêr e. Dezavantaja wê ew e ku qalîteya bersivê bi qalîteya belgeyên hatine dayîn ve girêdayî ye. Ger belge şaş an kevnar be, model jî dê bersiva şaş bide.

Verastkirina bi Lêgerîna Înternetê

Rêbazek din mêzegeriyek li ser înternetê dike ku agahiyên xelet kontrol bike. Mînak, di mîhengên (settings) Gemini ya Google de, agahiyên verrastkirî bi rengê kesk, agahiyên ku nayên verrastkirin bi rengê kahweyî nîşan têne dayîn. Ev rêbaz bikarhêner dibe alîkar ku agahiyên pêbawer û yên gumanbar ji hev cuda bike. Lê ev rêbaz hem biha ye ji aliyê kompûtasyonê ve, hem jî halûsînasyonan sifir nake.

Dahûrîna Avahiya Navxweyîn (Hundurîn)

Nêzîkatiyeke din dahûrînkirina çarçoveya navxweyî (internal architecture) ya Hişê Çêkirî ye da ku çewisahiyên di bersivan de diyar bibin. Zou û hevalên xwe (2024) rêbazeke bi navê Endezyariya Nûneriyê (Representation Engineering) pêşxist ku bi şopandina nûneriyên hundurîn ên modela HÇê (AI) dikare cihên ku modelên ne pê bawer e diyar bike. Ev nêzîkatî hê di qonaxa lêkolînê de ye, lê encamên destpêkê hêvîdar in.

Hevgirî û Baweriya Xwe ya Robotên Sohbeta

Pirsgirêkeke girîng û ji hêla pratîkî ve xeternak ev e ku Robotên Sohbetê, dema agahiyên şaş didin, gelek caran bi awayekî ji xwe bawer diaxivin. Bi gotineke din, zimanê bersivê û rast/şaş bûna agahiyê di pir rewşan de ji hev cuda ye. Robotên Sohbetê dikare bi heman asta baweriyê bibêje '2+2=4' û 'paytexta Kurdistanê Sydney e' — her çend ya duyemîn şaş be.

Hêsan nîne ku meriv ji nivîsarên hilberî têbigihîje ka agahî rast e an xelet. Suzgun û hevalên xwe (2024) di lêkolîna xwe ya bi navê 'Bawerbûn di Makîneyê de' (Belief in the Machine) de destnîşan dikin ku modelên LLM di gelek rewşan de ji agahiyên ku bi pêbawerî wan didin agahdar nînin ka wan rast in an na. Ev yek weke 'xaleka kor a epîstemolojîk' tê binavkirin.

Çend lêkoler amûrên pêşbînîkirina skora pêbaweriyê (reliability score) pêşxistine ku dikarin nîşan bidin ka bersivek çiqas ewle ye. Eger ev amûr were pêşxistin û di pratîkê de were bikaranîn, bikarhêner ê bikaribin agahiyên bi skora bilind û ya nizm ji hev cuda bikin û reftar û tevgerên xwe li gorî vê bikin.

Encam

Halûsînasyona Hişê Çêkirî pirsgirêkeke aloz û tevlihev e ku ji çend hêmanan çêdibe: avahiya modelê, qalîteya daneyên perwerdehiyê, rêbazên perwerdehiyê û sînorên bingehîn ên nêzîkatiya statîstîkî ya ku LLM pê kar dikin. Her çend ji holê rakirana halûsînasyonên tam ne mimkûn be jî kêmkirin bi çend rêbazan gengaz e: RAG, verastkirina bi înternetê, modelên mezintir û daneyên pajiztir û dahûrîna avahiya hundurîn.

Lêkoler dixwazin amûrên hejmarî pêşxînin da ku nîşan bidin ka bersivek çiqas pêbawer e. Di rewşên ku skora pêbaweriyê nizm be, divê Robotên Sohbetê ji dayina bersivê dûr biçin. Ger Robotên Sohbetê bikaribe dema bersivan dide diyar bike ka ew 'dizane an texmîn dike', ev ê pêşveçûneke girîng be û baweriya bikarhêneran li van amûran zêde bike.

Ya herî pratîkî ku niha were kirin ev e: bikarhêner divê hay ji wê rastiyê hebe ku Robotên Sohbetê her tim agahiyên rast nadin. Agahiyên girîng — bi taybetî yên di qadên bijîşkî, hiqûq, zanist û darayî de — divê her tim bi çavkaniyên pêbawer werin verrastkirin. Hişê Çêkirî amûrekî hêzdar e, lê wekî her amûrekî, zanîna sînorên wê di bikaranîna wê de girîng e.

 


Çavkanî

Agrawal, A., Macmillan-Scott, O., Bhatt, U., & Weller, A. (2024). Do language models know when they're hallucinating references? arXiv. https://arxiv.org/abs/2310.01405

Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. arXiv. https://arxiv.org/abs/2305.18248

Jones, N. (2025). AI: Making it up. Nature, 637, 778.

Rawte, V., Tonmoy, S. M. T. I., Chadha, A., Sheth, A., & Das, A. (2024). The troubling emergence of hallucinations in large language models: An extensive definition, quantification, and perspective remediations. arXiv. https://arxiv.org/abs/2410.21195

Suzgun, M., Melas-Kyriazi, L., & Jurafsky, D. (2024). Belief in the machine: Investigating epistemological blind spots of language models. Nature, 630, 625.

Zou, A., Phan, L., Wang, Z., Duenas, D., Lin, D., Lee, M., Müller, J. S., Sellitto, M., Bau, D., Park, J. C., Elhage, N., Steinhardt, J., Evans, O., & Hendrycks, D. (2024). Representation engineering: A top-down approach to AI transparency. arXiv. https://arxiv.org/abs/2310.07437

Comments

Popular posts from this blog

ŞÊX SEÎDÊ KAL Û DERÛNHÊZÎ

Destpêk Di dîroka neteweyên bindest de, serok û rêberên neteweyî xwedî roleke taybet û girîng in di avakirina hişmendiya neteweyî û geşkirina tevgerên rizgarîxwaz de. Di nav kurdan de jî serokên wekî Şêx Seîd, bi mêrxasî û dilsoziya xwe, bûne stêrkên geş ên dîroka kurd û Kurdistanê. Lêbelê, çîroka şêxê me tenê ne çîroka serkeftin û qehremaniyê ye, herwiha çîroka êş, xwefiroşî û nakokiyên navxweyî ye jî. Ev rewş, di derûniya civaka kurdî de birînên kûr û giran çêkirine ku heta îro jî bandora wan li ser civaka kurdî heye. Di vê nivîsê de, em ê hewl bidin ku ji hêla derûnî ve rewşa pîr û pêşengên kurd Şêx Seîdê kal li ser civakê binirxînin ku çawa wî di serdema xwe de li hember pergala serdest serî hildaye û di dawiyê de bûye semboleke berxwedanê di nav kurdan de. Herwiha em ê li ser wê yekê jî rawestin ku çawa civaka kurdî îro li hember vê mîrateya dîrokî û derûnî radiweste û çawa ev yek bandorê li ser siberoja kurdan dike. Di dîroka kurd û Kurdistanê de kesayetiyên hêja û girîng g...

Welatparêzê hêja, Apo (Osman Sebrî)

  Apo : Tu çi dixwazî bipirsî ez ê ji te ra bersivekê bidim. A. : Em ji xwe ra bipeyvin. Apo : Em bipeyvin, serçava.   Bi tevahî şîreta min ji hemî Kurdan ra ev e ku em şerê hev nekin. Tu carî nayê bîra min û nakeve 'eqlê min ku miletek gî li ser fikrekê here . Gava here, me'na xwe keriyek pez e, ne tiştekî din e . Divê em her kes bi fikra xwe xizmetê welatê xwe bikin. Rêya xizmetê welat ev e ku em şerê hev nekin. Yek dikare mîna te nefikire, tu jî dikarî mîna wî nefikirî. Ne şert e ku bibê: "Na, illa bila mîna min bifikire, ya bila mîna ê din bifikire". Bila mîna xwe bifikire, lê ji bo welatê xwe û ji zarokên xwe ra dîsa ez vê wesiyetê dikim: "Wek xwe bifikirin, bes xizmetê welatê xwe bikin, bi 'eqlê xwe û bi fikra xwe". Gava ez bînim merivekî mecbûr bikim ku were mîna me bifikire, ew fikra ne tiştekî rast e. Lê, mîna xwe bifikirin. Em dikarin bêjin: "Ji me ra baş be, xirabiya me meke, bira em birayê hev bin". Eva mumkun e. Lê, a keti...

DERÛNNASÎ (PSYCHOLOGY)

  Derûnnasî lêkolîna zanistî ya hiş (mind) û reftarê (behavior) ye. Mijarên wê tevger, reftar û diyardeyên hişmendî (conscious phenomena) û derhişî (unconscious phenomena) ên mirov û ajalan û pêvajoyên hiş (mental processes) ên weke ramandin (thoughts), hest (feelings), nihiçk (drive) û handanê (motives) vedihewîne. Derûnnasî dîsîplîneke akademîk a berfireh e ku sînorên wê sînorên zanistên xwezayî (natural sciences) û civakî (social sciences) derbas dike. Derûnnasên zindewerî (biological psychologists) hewl didin ku taybetmendiyên derketî yên mêjî fêm bikin û vê dîsîplînê bi zanista mêjî norozanistê (neuroscience) ve girê bidin. Weke zanyarên civakî (social scientists), armanca derûnnasan jî ew e ku tevger û reftarên takekesan (individuals) û koman fêm bikin. Pisporekî pîşeyî an jî lêkolerek ku di vê dîsîplînê de dixebite weke derûnnas (psychologist) tê binavkirin. Hin derûnnas dikarin weke zanyarên reftarî (behavioral scientists) an jî zanyarên venasînî (cognitive scientists) ...