Destpêk
Geşedana Hişê Çêkirî – HÇ (Artificial Intelligence — AI) di salên dawî de yek ji veguhertinên herî mezin ên dîroka teknolojiyê ye. Di nav vê geşedanê de, serîlêdanên HÇya Afirîner (Generative AI) cihekî taybetî digirin, ji ber ku ew dikarin nivîsar, wêne û deng bi xweserî hilberînin. Robotên Sohbetê (Chatbots) wekî ChatGPT, Gemini û Claude ji van serîlêdanan in û bi mîlyonan mirov rojane wan bikar tînin.
Modelên Zimanê Mezin – MZM (Large Language Models — LLM) bingeha van Robotên Sohbeta pêk tîne. Van modelan di dema perwerdehiyê de ji mîlyaran rûpelên nivîsarê fêr bûne û hêza çêkirina bersivên maqûl û xweşnivîs hene. Lê ev jêhatîbûn bê kêmasî nîne: MZM (LLM) carinan agahiyên xelet, takekesên xeyalî an çavkaniyên ku tune ne diafirînin. Ev diyarde wekî halûsînasyon çêkirî tê binavkirin û îro yek ji pirs û girêkên sereke yên zanista HÇê (Hişê Çêkirî) ye.
Robotên Sohbetê bi şêweyekî hatine sêwirandin ku di her gavê de tenê yek peyv hilberînin û bi şopandina rêza diyalogê pêşbîniyan çêbikin. Sedema ku xuya dikin wekî her tiştî dizanin ev e ku di dema perwerdehiyê de li ser şîmanên (probabilities) bilind ên peyvên rast û şîmanên kêm ên peyvên şaş hatine xebitandin. Bi gotineke din, model her tim hewl dide ku peyvên herî 'mihtemel ên rast' berhev bike, ne ku agahiyên rastîn ji bîra xwe vegerîne.
Di vê nivîsê de em ê halûsînasyona çêkirî ji çend aliyan ve tê vekolîn: pênasekirin, mînak, sedem, rêbazên pîvandinê û çareyên pêşniyarkirî. Mebest ew e ku xwendevan bi çavekî rexnegir û agahdar nêzikî van amûrên nûjen bibe.
Pênase û Têgihîştina Halûsînasyona Çêkirî
Di warê Hişê Çêkirî de, halûsînasyon tê wê wateyê ku model encamekê hilberîne ku ji rastiyê dûr e, lê bi baweriyeke bilind û bi zimanekî hêsan wisa pêşkêş dike ku rastiya wê nekeve ber şik û gumanê. Ev yek ji mirovan re diyar e ku di derûnnasiyê de halûsînasyon wateya dîtin an bihîstina tiştên ku tune ne dide; di HÇê de jî mana wiha ye.
Rawte û hevalên xwe (2024) halûsînasyonan di bin şeş sernavên cihêreng de dabeş dikin: halûsînasyona rastnivîsê (orthographic hallucination), halûsînasyona semantîk (semantic hallucination), halûsînasyona ravekirinê (interpretive hallucination), halûsînasyona rastiyê (factual hallucination), halûsînasyona mantiqî (logical hallucination) û halûsînasyona çavkaniyê (source hallucination). Ji van celeban ên herî zêde tên dîtin, halûsînasyona rastiyê û ya çavkaniyê ye: model bi pêbawerî dibêje ku 'ev agahî di wê çavkaniyê de ye', lê çavkanî tune ye an agahî tê de nîne.
Hin lêkoler termên alternatîf jî pêşniyar dikin. Mînak, şapînoz (confabulation) termeke ku ji norozanistê (noroscience) hatiye û tê wê wateyê ku mêjî bi xweserî valahiyên bîranînê bi agahiyên çêkirî dagire. Çêkirina çîrokê (story fabrication) jî terminolojiyeke din e ku hin zanyar tercîh dikin, ji ber ku ew baştir nîşan dide ka model di rastiyê de ne 'xelet difikire', lê 'çîrokekê vedibêje'.
Çavkaniyên Halûsînasyona Çêkirî
Avahiya Modelê
Yek ji sedemên bingehîn ew e ku Modelên Zimanê Mezin (LLM) zaniyariyê bi şêweyeke zextkirî hildiberînin. Van serîlêdanên ku bi Torên Sinaptîkê (Neural Networks) têne modelkirin, di dema perwerdehiyê de bi hezaran têkiliyên di navbera mîlyonan noronên çêkirî de kodkirine. Dîsa jî LLM bi rêjeya bilind — mîna %98 — agahiyên ku di dema perwerdehiyê de hatine dayîn hilber dikin. Di %2ê mayî de ji rastiyê dûr dikevin. Ev rêje di pratîkê de gelek mezin e, ji ber ku model rojane bi mîlyaran bersivan didin.
Pirsgirêkeke din ew e ku LLM di eslê xwe de amûrên pêşbîniyê ne, ne amûrên lêgerîna rastiyê. Dema ku mirov bipirse 'paytexta Kurdistanê çi ye?', model ne di danabazeke rastnivîskirî de digere, lê li gorî peyvên ku di perwerdehiyê de bi hev re pirî caran hatine, bersivê pêşbînî dike. Di pirraniya rewşan de ev rêbaz kar dike; lê dema pirsa kêm-naskirî an tevlihev be, xeterî zêde dibe.
Daneyên Perwerdehiyê
Qalîteya daneyên perwerdehiyê jî bandorek mezin li ser halûsînasyonan dike. Ger daneyên perwerdehiyê agahiyên şaş, neyeksan an kevnar hebin, model dê wan fêr bibe û dûv re jî bide. Wekî din, ger mijarek kêm-nûnerî be di daneyên perwerdehiyê de — mînak zimanên biçûk, çandên kêmtir belgekirî an qadên zanistê yên nû — model dê li ser wan mijaran kêmtir pêbawer be û rêjeya halûsînasyonê bilindtir be.
Mînak, Robotên Sohbetê (Chatbot) Bard a ku Google di sala 2023an de berdan got ku dê dikare wêneyên yekem ên gerstêrkek li derveyî Pergala Tavê (Solar System) ji hêla Teleskopa Fezayê ya James Webb (James Webb Space Telescope — JWST) ve were kişandin. Lê ev agahî ne rast bû. Teleskopa yekem ku serketî bû ku wêneyên gerstêrkekê bikişîne Teleskopa Pir Mezin a Şîlî (Very Large Telescope — VLT) bû. Ev xeta Google di demeke krîtîk de bû û bû sedema ku nirxa sehma Google bi milyaran dolaran kêm bibe.
Rêbazên Perwerdehiyê
Rêbaza perwerdehiyê ya fêrbûna bi qeyîmkirinê ya bi vegeriya mirovî (Reinforcement Learning from Human Feedback — RLHF) hin halûsînasyonan kêm dike, lê di heman demê de dibe sedema celebekî din ê halûsînasyonan jî. Ji ber ku di vê rêbazê de model han û teşwîq dibe ku bersivên ku nirxanderên mirovan jê xweş in hilberîne û mirovan gelek caran bersivên berfireh û bi pêbawer tercîh dikin, model fêr dibe ku bi awakî pir bawer bersiv bide, heta dema agahiyê rast nizane jî. Lêkolîn destnîşan dikin ku modelên nûtir meyltir in ku li ser mijarên ku nizanin jî texmînan bikin (Suzgun û hev., 2024).
Pîvandina Halûsînasyona Çêkirî
Pîvandina halûsînasyonê karekî zehmet e ji ber ku pênaseyeke yekgirtî tune ye û cudakirina 'bersiva şaş' ji 'halûsînasyona rastîn' her tim hêsan nîne. Lê di salên dawî de çend nêzîkatiyên sistematîk hatine pêşxistin.
Rawte û hevalên xwe (2024) Îndeksa Halûsînasyonê (Hallucination Index) pêşxist û ji bo destnîşankirina giraniyê sê dereceyên cihê bikar anî: sivik (minor), navîn (moderate) û giran (severe). Lêkolerên din jî rêzikbandiyeke seroktiya halûsînasyonê (hallucination leaderboard) pêşxist û li ser platformê HuggingFace weşand ku lêkoler dikarin modelên cihêreng bidin ber hev.
Platforma Vectara jî rêzikbandiyeke seroktiya halûsînasyonê diparêze. Li gorî daneyan, modela finix_s1_32b ya Antgroup bi rêjeya %1.8 kêmtirîn halûsînasyon heye. Modela gemini-2.5-flash-lite ya Google bi rêjeya %3.3 di rêza duyemîn de ye. Rêjeya halûsînasyona modela gpt-4.1-2025-04-14 ya OpenAI %5.6 e. Ev rêje li gorî cureyê pirsan û qadê dikare biguhere, ji ber vê yekê ev jimare tenê wekî rêberî divê werin xwendin.
Farquhar û hevalên xwe (2024) rêbazeke nû ya kişfkirina halûsînasyonê pêşxist ku li ser entropiya semantîk (semantic entropy) xebitî. Di vê nêzîkatiyê de, eger model ji pirsa heman tiştî bi rêyên cihêreng bersivên pir ji hev cuda bide, ev nîşana baş e ku model ne pê bawer e û dibe ku halûsîne dike. Ev rêbaz ne hewce dike ku bersiv bi daneya rastî were girêdan ku ev fêdeyeke girîng e.
Rêbazên Astengkirina Halûsînasyona Çêkirî
Parametreyên Bêtir û Daneyên Paqijtir
Modelên ku ji parametreyên bêtir re derbas bûne kêmtir halûsînasyonan dibînin. Parametreyên zêde tê wê wateyê ku model dikare agahiyên bêtir û bi hûrgûlîtir di bîra xwe de bigire. Lê pêşxistina modelên mezintir biha ye — hem ji aliyê enerjiyê, hem jî ji aliyê kompûtasyonê ve. Ji ber vê yekê, ne her car çêtirîn çareserî zêdekirina parametreyan e.
Karanîna bingehên daneyên mezintir û paqijtir di dema perwerdehiyê de jî halûsînasyonan kêm dike. Ger daneyên perwerdehiyê ji çavkaniyên pêbawer, nûkirî û cihêreng werin berhevkirin, model dê agahiyên rasttir fêr bibe. Lê pêvajoya paqijkirina daneyan (data cleaning) keda mirovî û dema zêde dixwaze.
RAG — Hilberîna bi Zaniyariya Zengînkirî
Nêzîkatiyeke bikêr û pir bikaranîn bi kurtî wekî RAG tê binavkirin — hilberîna bi çêkirina zaniyariyê zengînkirî (Retrieval Augmented Generation). Di vê nêzîkatiyê de, pirsek dikeve ber Robotên Sohbetê re, têkurê belgeyeke têkildar jî tê nîşandayîn û robot bi daniyariyê ji çavkaniyek pêbawer bersivan amade dike. Bi vî awayî model ne mecbûr e ku agahiyên kêm-bawer ji 'bîra xwe' vegerîne; belkî rasterast ji belgeyê dixwîne û bersivan çêdike.
RAG di qadên ku agahiyên nûkirî û rast pêwist in de — wekî bijîşkî, hiqûq û darayî — bi taybetî bikêr e. Dezavantaja wê ew e ku qalîteya bersivê bi qalîteya belgeyên hatine dayîn ve girêdayî ye. Ger belge şaş an kevnar be, model jî dê bersiva şaş bide.
Verastkirina bi Lêgerîna Înternetê
Rêbazek din mêzegeriyek li ser înternetê dike ku agahiyên xelet kontrol bike. Mînak, di mîhengên (settings) Gemini ya Google de, agahiyên verrastkirî bi rengê kesk, agahiyên ku nayên verrastkirin bi rengê kahweyî nîşan têne dayîn. Ev rêbaz bikarhêner dibe alîkar ku agahiyên pêbawer û yên gumanbar ji hev cuda bike. Lê ev rêbaz hem biha ye ji aliyê kompûtasyonê ve, hem jî halûsînasyonan sifir nake.
Dahûrîna Avahiya Navxweyîn (Hundurîn)
Nêzîkatiyeke din dahûrînkirina çarçoveya navxweyî (internal architecture) ya Hişê Çêkirî ye da ku çewisahiyên di bersivan de diyar bibin. Zou û hevalên xwe (2024) rêbazeke bi navê Endezyariya Nûneriyê (Representation Engineering) pêşxist ku bi şopandina nûneriyên hundurîn ên modela HÇê (AI) dikare cihên ku modelên ne pê bawer e diyar bike. Ev nêzîkatî hê di qonaxa lêkolînê de ye, lê encamên destpêkê hêvîdar in.
Hevgirî û Baweriya Xwe ya Robotên Sohbeta
Pirsgirêkeke girîng û ji hêla pratîkî ve xeternak ev e ku Robotên Sohbetê, dema agahiyên şaş didin, gelek caran bi awayekî ji xwe bawer diaxivin. Bi gotineke din, zimanê bersivê û rast/şaş bûna agahiyê di pir rewşan de ji hev cuda ye. Robotên Sohbetê dikare bi heman asta baweriyê bibêje '2+2=4' û 'paytexta Kurdistanê Sydney e' — her çend ya duyemîn şaş be.
Hêsan nîne ku meriv ji nivîsarên hilberî têbigihîje ka agahî rast e an xelet. Suzgun û hevalên xwe (2024) di lêkolîna xwe ya bi navê 'Bawerbûn di Makîneyê de' (Belief in the Machine) de destnîşan dikin ku modelên LLM di gelek rewşan de ji agahiyên ku bi pêbawerî wan didin agahdar nînin ka wan rast in an na. Ev yek weke 'xaleka kor a epîstemolojîk' tê binavkirin.
Çend lêkoler amûrên pêşbînîkirina skora pêbaweriyê (reliability score) pêşxistine ku dikarin nîşan bidin ka bersivek çiqas ewle ye. Eger ev amûr were pêşxistin û di pratîkê de were bikaranîn, bikarhêner ê bikaribin agahiyên bi skora bilind û ya nizm ji hev cuda bikin û reftar û tevgerên xwe li gorî vê bikin.
Encam
Halûsînasyona Hişê Çêkirî pirsgirêkeke aloz û tevlihev e ku ji çend hêmanan çêdibe: avahiya modelê, qalîteya daneyên perwerdehiyê, rêbazên perwerdehiyê û sînorên bingehîn ên nêzîkatiya statîstîkî ya ku LLM pê kar dikin. Her çend ji holê rakirana halûsînasyonên tam ne mimkûn be jî kêmkirin bi çend rêbazan gengaz e: RAG, verastkirina bi înternetê, modelên mezintir û daneyên pajiztir û dahûrîna avahiya hundurîn.
Lêkoler dixwazin amûrên hejmarî pêşxînin da ku nîşan bidin ka bersivek çiqas pêbawer e. Di rewşên ku skora pêbaweriyê nizm be, divê Robotên Sohbetê ji dayina bersivê dûr biçin. Ger Robotên Sohbetê bikaribe dema bersivan dide diyar bike ka ew 'dizane an texmîn dike', ev ê pêşveçûneke girîng be û baweriya bikarhêneran li van amûran zêde bike.
Ya herî pratîkî ku niha were kirin ev e: bikarhêner divê hay ji wê rastiyê hebe ku Robotên Sohbetê her tim agahiyên rast nadin. Agahiyên girîng — bi taybetî yên di qadên bijîşkî, hiqûq, zanist û darayî de — divê her tim bi çavkaniyên pêbawer werin verrastkirin. Hişê Çêkirî amûrekî hêzdar e, lê wekî her amûrekî, zanîna sînorên wê di bikaranîna wê de girîng e.
Çavkanî
Agrawal, A., Macmillan-Scott, O., Bhatt, U., & Weller, A. (2024). Do language models know when they're hallucinating references? arXiv. https://arxiv.org/abs/2310.01405
Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. arXiv. https://arxiv.org/abs/2305.18248
Jones, N. (2025). AI: Making it up. Nature, 637, 778.
Rawte, V., Tonmoy, S. M. T. I., Chadha, A., Sheth, A., & Das, A. (2024). The troubling emergence of hallucinations in large language models: An extensive definition, quantification, and perspective remediations. arXiv. https://arxiv.org/abs/2410.21195
Suzgun, M., Melas-Kyriazi, L., & Jurafsky, D. (2024). Belief in the machine: Investigating epistemological blind spots of language models. Nature, 630, 625.
Zou, A., Phan, L., Wang, Z., Duenas, D., Lin, D., Lee, M., Müller, J. S., Sellitto, M., Bau, D., Park, J. C., Elhage, N., Steinhardt, J., Evans, O., & Hendrycks, D. (2024). Representation engineering: A top-down approach to AI transparency. arXiv. https://arxiv.org/abs/2310.07437
Comments
Post a Comment