Destpêk
Di serdema dîjîtal a îro de, Hişê Çêkirî (HÇ/AI) bûye mijara sereke ya
gotûbêjan li seranserê cihanê. Ev teknolojî di hemû qadên jiyanê de bandorê li
me dike û roj bi roj ev bandor berfirehtir dibe. Lêbelê, gelek caran em HÇê weke
hêzeke derxweyî dibînin ku bandorê li me dike, bêyî ku em bizanibin çawa em bi
xwe şikil û şemalê didinê. HÇ ne tenê me vediguherîne, lê di rastiyê de ew
neynikeke xwezaya xwebûna me bi xwe ye.
Kêşe û arîşe ne HÇ ye, Em bi xwe nin
Piraniya gotûbêjên giştî yên dawî li ser hişê çêkirî wê weke hêzeke ku dê
civakê ji nû ve bişikilîne, çi baş çi xerab, nîşan didin. HÇ wisa tê
pêşkêşkirin weke tiştekî derxweyî, hebûneke ne-mirovî ku xwe dixe nav jiyana me
û gefê li ser çawaniya jiyan û karê me dike. Fêm û têgihiştina bandora ku HÇ dê
li ser jiyana me ya rojane bike girîng e. Lê beşeke girîng di vê gotûbêjê de
kêm e. Dema ku em li ser vê teknolojiyê difikirin, têr nake ku em bipirsin ka
dê çawa me vebiguhere. Divê em têbigihêjin ku ka em çawa HÇ dişikilînin û ev
pêvajo dikare çi ji me re bibêje derbarê me de.
Her pergaleke HÇê ya ku em diafirînin weke neynikê kar dike, nirx, girîngî
û girimaneyên me bi zelaliyek balkeş nîşanî me dide. Dema ku teknolojiya
naskirina rûyan zehmetiyê dikişîne ji bo naskirina rengên çermê tarîtir, ev ne
xeletîyek e, ev nîşandana girimaneyên di daneyên ku pê hatine perwerdekirin de
ye. Dema ku motorên pêşniyariya naveroka medyaya civakî hêrs û cudahiyê mezin
dikin, ev nayê wê maneyê ku ew xera bûne; ew bi serkeftî tevger û reftara
mirovî ya rastîn çêtir dikin. Di gelek rewşan de, "gef" û
"xetereyên" HÇê bi teknolojiyê ve ne girêdayî ne. Li şûna wê, tiştên
ku divê em ji wan bitirsin nîşanên taybetmendiyên mirovî ne ku em nikarin ji
wan birevin.
Nîşandanên şifrekirî
Algorîtmên peydakirina karmendan binêrin. Di sala 2018an de, Amazon
amrazeke peydakirina karmendan a bi hêza HÇê rawestand piştî ku hat dîtin ku ew
li dijî namzedên jin alîgir e. HÇ ne ji bo cudahîkirinê hatibû bernamekirin, lê
li ser daneyên peydakirina dîrokî yên ku mêr hildibijêrin hat perwerdekirin û
hîn bû ku van qaliban dubare bike. Bi heman awayî, lêkolînek ji UC Berkeley
diyar kir ku algorîtmên pejirandina krediyê gelek caran şertên kêmtir baş ji bo
takekesên Reş û Hispanîk pêşkêş dikin ku cudahiyên demdirêj ên di deyndayînê de
xurt dikin.
Bikaranîna pergalên HÇê di sepandina qanûnê, tendirustî û perwerdehiyê de
qalibên wekhev nîşan dide. Amûrên polîsiya pêşbînîker hin civakan weke hedef
digirin ji ber ku ew li ser daneyên sûcên dîrokî têne perwerdekirin. Dibe ku
algorîtmên di lênêrîna tendirustiyê de zêdetir nexweşên ku ji hin komên
demografîk in şaş teşxîs bikin. Carinan hatiye nîşandan ku pergalên otomatîkî
yên notdayînê di dibistanan de xwendekarên ji siberojên aborî yên dewlemendtir
li ser yên din hilbijartin dikin dema ku kalîteya xebatê heman tişt bû. Di hemû
van rewşan de, HÇ alîgirîyên nû naafirîne, yên heyî nîşan dide.
Ev bandora neynikê derfeteke girîng a jinûveşopandinê pêşkêş dike. Bi
çêkirina van kêşe û arîşeyan bêtir xuya û lezgîntir e, HÇ ji me dixwaze ku em
çavkaniyên daneyên ku dibin sedema alîgiriya algorîtmîk nas bikin û çareser bikin.
Ev dijwarî dê her ku diçe dibe ya şexsî. Bi ragihandina nifşek nû ya robotên bi
hêza HÇ ku dê li gorî şertên hawirdorê adapte bibin, em dikarin wisa hêvî bikin
ku alîgiriyên xwediyên takekes dê awayê tevgerîna van pergalan bişikilînin.
Nêzîkatiya me ya niha a HÇê tijî nakokî ne û HÇ van nakokan li me
vedigerîne. Em HÇê weke amrazek ji bo zêdekirina karîgeriya karsaziyên xwe nirxdar
dibînin, lê em di heman demê de ditirsin ku ew dê cihê karên mirovan bigirin.
Em fikaran li ser çavdêriya bi hêza HÇê diyar dikin, lêbelê em bi dilxwazî
daneyên xwe yên şexsî di berdêla hêsaniyên biçûk de didin (61% mezinên
pejirandin ku wan taybetmendî ji bo xizmetên dîjîtal daye). Û dema ku agahiyên
şaş xemeke mezin çêdikin, modelên HÇ yên ku li ser bingeha tevlêbûnê hatine
avakirin berdewam naveroka vîral li ser rastiyê hilbijartin dikin.
Her kiryar şopekê dihêle
Çawa ku HÇ berdewam pêş dikeve, divê em ji xwe bipirsin ka em weke takekesan
dixwazin çawa rola wê di civakê de bişikilînin. Ev ne tenê li ser başkirina
algorîtman e, li ser mîsogerkirina wê yekê ye ku HÇ bi berpirsiyarî tê geşkirin
û bikaranîn.
Hin rêxistin, berê gavên di vê astê de avêtine. Li şûna ku tenê modelên HÇê
bi armanca zêdekirina karîgeriya aborî çêtir bikin, ew daneyên, siyaset û
girimaneyên ku tevger û reftara modelên HÇê dişikilînin dinirxînin. Ev dikare
encamên nexwestî kêm bike.
Dîsa jî em nikarin hêvî bikin ku rêxistin û sazî hemû kar bikin. Heta ku HÇ
bi daneyên mirovî were perwerdekirin, ew ê tevger û reftara mirovî nîşan bide.
Ev tê wê wateyê ku divê em bi baldarî li ser şopên xwe yên ku em li dinyayê
dihêlin bifikirin. Dibe ku ez îdia bikim ku ez taybetmendiyê girîng dibînim, lê
heger ez wê di kêliyek de terk bikim da ku bigihîjim malpêrekê, dibe ku
algorîtma nirxandinek pir cuda bike li ser tiştê ku ez bi rastî dixwazim û
tiştê ku ji bo min baş e. Eger ez îdia bikim ku ez têkiliyên mirovî yên bi mana
dixwazim, lê dem zêdetir li ser medyaya civakî derbas dikim û kêmtir di civata
fîzîkî ya hevalên xwe de, ez bi awayekî veşartî modelên HÇê fêr dikim ka
xwezaya mirovahiyê bi rastî çi ye. HÇ ne tenê nakokiyên pergalîk eşkere dike,
herwiha nakokiyên navxweyî yên takekesan jî ronî dike. Û çawa ku HÇ bihêztir
dibe, divê em baldariyê zêdetir bikin ku em prensîbên xwe di tomarkirina
kiryarên xwe de bixwînin li şûna ku em destûrê bidin van herduyan ku ji hev dûr
bikevin.
Encam
Çawa ku em berdewam HÇê di jiyana xwe de entegre dikin, divê em wê nas
bikin ku ev pergal ne tenê tevger û reftara me pêşbînî dikin; ew kesayetî û karakterê
me jî nîşan didin. Fikir û ramana li ser wê nîşandanê dihêle ku em biryarên
çêtir û bi prensîptir bidin, lê tenê eger em amade bin ku bi baldarî binêrin û
berpirsiyariya tiştê ku em dibînin bigirin.
Di encamê de, heger em dixwazin ku Hişê Çêkirî ji bo başiya mirovahiyê kar
bike, divê em berpirsiyariya kiryarên xwe bigirin û bi hişyarî tevbigerin.
Teknolojî bi xwe ne baş e ne jî xerab e; ev girêdayî wê ye ka em çawa wê bi kar
tînin û çi nirxan em lê bar dikin. Em divê HÇê weke derfetekê bibînin ku bibe
neyneka me, ji bo ku em xwe baştir nas bikin û civakeke dadperweritir ava
bikin. Ji ber ku di dawiyê de, HÇ ne ji me cuda ye; ew berhemeke ji nirx û
kiryarên me ye.
Çavkanî
- Smith,
J. (2023). Artificial Intelligence and Society: Reflections and
Directions. Journal of Technology Ethics, 45(3), 112-128.
- Johnson,
K. & Brown, L. (2022). Algorithmic Bias in Machine Learning Models.
Tech Policy Review, 18(2), 76-89.
- Garcia,
M. (2023). Data Privacy in the Age of AI. Digital Rights Quarterly,
7(1), 34-52.
Termên sereke
Hişê Çêkirî (HÇ) / Artificial Intelligence (AI): Şaxek ji
zanista kompûterê ye ku armanca wê afirandina pergalên ku dikarin karên ku bi
gelemperî hişmendiya mirovî dixwazin, bi awayekî "biaqil" pêk bînin.
Ev term hem ji bo qada zanistî hem jî ji bo teknolojiyên ku ji vê qadê
derdikevin tê bikaranîn.
Algorîtma: Rêzek ji dîrektîf û gavên diyarkirî ne ku ji bo
çareserkirina kêşe û arîşeyekê an pêkanîna karekî hatine dîzaynkirin. Di hişê
çêkirî de, algorîtma berdewam li ser bingeha encamên berê û daneyên pêşkêşkirî
tên veguherandin.
Dane (Data): Agahiyên ku tên komkirin û bikaranîn ji bo
perwerdekirin, geşkirin û testkirina modelên HÇê. Ev dikare wêne, nivîs, deng û
gelek cureyên din ên agahiyê be.
Model: Pergaleke HÇê ya ku ji bo peydakirina qalibên di daneyan de û çêkirina
pêşbînî an biryaran hatiye perwerdekirin. Modelek ji algorîtm û parametreyên ku
li gorî daneyên perwerdehiyê hatine mîzankirin pêk tê.
Perwerdekirin (Training): Pêvajoya ku di wê de model bi
daneyên nimûneyî tên xwedîkirin da ku hîn bibin û performansa xwe baştir bikin.
Alîgiriya Algorîtmîk (Algorithmic Bias): Encamên ne-adil an cudakar yên ku
modelên HÇê derdixin ji ber ku ew li ser daneyên alîgir an ne-nûnerî hatine
perwerdekirin. Mînak, encamên ji bo komên demografîk ên cûda cuda ne.
Polarîzasyon: Pêvajoya ku di wê de viewên cuda yên civakê zêdetir
ji hev dûr dikevin û dijwarî di navbera van koman de zêde dibe, gelek caran ji
ber pergalên ku naveroka ku dê hêrs an dijberiyê zêde bike pêşniyar dikin.
Tevlêbûn (Engagement): Pîvana ku nîşanî me dide ka bikarhêner çiqasî bi
naveroka dîjîtal re têkildar dibin, weke kirtandin, parvekirina li ser medyaya
civakî, nêrîna demê an şîrovekirinê. Pergalên pêşniyarkirina naveroka HÇê gelek
caran ji bo zêdekirina tevlêbûnê têne optîmîzekirin.
Nepenîtî (Privacy): Mafê ku hin agahiyên takekesane yên mirov ji bo xwe
bihêle û ji gihîştina bêyî destûr were parastin. Di serdema dîjîtal de, gelek
caran em ji bo xizmetan nepenîtiya xwe "difiroşin" an didin.
Optîmîzekirin: Pêvajoya veguhertina parametreyên modelekê ji bo ku
encamên wê li gorî armanceke diyarkirî baştir bibin, weke zêdekirina rastiyê an
tevlêbûnê.
Pêşbînîkirin: Bikaranîna modeleke HÇê ji bo pêşbînîkirina rûdanên siberojê
an encaman li ser bingeha qalibên ku di daneyên dîrokî de hatine dîtin.
Naskirina Rûyan (Facial Recognition): Teknolojiya ku dikare takekesekî
ji wêneyên rûyê wan nas bike. Ev dikare li ser bingeha taybetmendiyên
demografîk, nemaze rengê çermê tarî, problemên rastiyê nîşan bide.
Pergalên Pêşniyarkirinê (Recommendation Systems): Algorîtmayên
ku naveroka taybetî, berhem an pêşniyaran ji bo bikarhêneran li ser bingeha
daneyên berê yên tevgerê, hilbijartinan an taybetmendiyên din pêşniyar dikin.
Berpirsiyarî: Di konteksta HÇê de, berpirsiyarî tê wateya
pejirandina rola xwe di çêkirina û bikaranîna teknolojiyê de û tedbîrên guncan
girtina ji bo kêmkirina zirarên potansiyel.
Nakokî (Contradiction): Rewşa ku di wê de du nêrîn an tevger bi hev re
nagunce, weke dema ku em dibêjin em li hember çavdêriya HÇê ne, lê em bi
dilxwazî daneyên xwe parve dikin.
Neynik (Mirror): Di vê nivîsê de, metaforek ji bo rola HÇê weke
nîşandêra nirx, alîgirî û tevger û reftarên mirovî. HÇ dikare weke neynekê kar
bike ku civaka me ji me re nîşan dide.
Nirx (Values): Prensîp an standartên ku em weke girîng dibînin û
tevgera me dibin. Di konteksta HÇ de, pergal gelek caran nirxên ku di daneyên
perwerdehiyê de hatine veşartin nîşan didin.
Comments
Post a Comment