Gabime “të çmendura” përkthimi nga IA-ja rrezikojnë rastet e azilit në ShBA.     /Foto: Reuters Archive

Emrat e përkthyer si muaj të vitit, kornizat kohore të pasakta dhe përemrat e ngatërruar – dështimet e përditshme të aplikacioneve të përkthimit të drejtuara nga Inteligjenca Artificiale po shkaktojnë kërdi në sistemin e azilit në ShBA, thonë kritikët.

“Ne kemi shembuj të panumërt të kësaj natyre”, tha Ariel Koren, themeluesja e Respond Crisis Translation, një kolektiv global që ka përkthyer më shumë se 13.000 kërkesa për azil, duke paralajmëruar se gabimet mund të çojnë në mohime të pabaza.

Në një rast, tha ajo, avokatët humbën një detaj thelbësor në rrëfimin e një gruaje për abuzimin në familje, sepse aplikacioni i përkthimit që ata përdornin vazhdonte të prishej dhe atyre u mbaronte koha.

“Vetë makinat nuk po funksionojnë me cilësinë që u nevojiten për të qenë në gjendje të bëjnë punë të rasteve që janë të pranueshme për dikë në një situatë me aksione të larta”, tha Koren, e cila dikur punonte për Google Translate.

Ajo i tha Fondacionit Thomson Reuters që një përkthyes me grupin kishte vlerësuar se 40 për qind e rasteve të azilit afgan që ai kishte punuar kishin hasur probleme për shkak të përkthimit me makinë. Rastet që përfshijnë folësit e gjuhës haitiane “kreole” janë përballur gjithashtu me probleme të rëndësishme, shtoi ajo.

Kontraktorët qeveritarë dhe organizatat e mëdha të ndihmës po përdorin gjithnjë e më shumë mjetet e përkthimit makinerik të Inteligjencës Artificiale për shkak të “motivit të madh për të ulur kostot”, tha Koren.

Shkalla në të cilën mjete të tilla po përdoren në përpunimin e imigracionit në ShBA është e paqartë, megjithatë, në mes të mungesës së gjerë të transparencës, tha Aliya Bhatia, një analiste e politikave mendimit të Qendrës për Demokraci dhe Teknologji.

“Ne e dimë se qeveritë dhe lobet e azilit në mbarë botën po lëvizin drejt përdorimit të teknologjisë së automatizuar”, tha Bhatia.

Një raport i vitit 2019 nga gazeta investigative ProPublica zbuloi se zyrtarët e imigracionit po udhëzoheshin të përdornin Google Translate për të ekzaminuar përdorimin e mediave sociale për aplikimet për refugjatë.

Departamenti Amerikan i Drejtësisë dhe Agjencia e Zbatimit të Emigracionit dhe Doganave nuk iu përgjigjën kërkesave për komentim nga Fondacioni Thomson Reuters, as Shtëpia e Bardhë, e cila kohët e fundit publikoi një “projekt” kombëtar mbi udhëzimet e IA-së.

I pyetur për shqetësimet në lidhje me përdorimin e përkthimit me makinë në rastet e azilit, një zëdhënës i kompanisë Google tha se mjeti i saj Google Translate iu nënshtrua kontrolleve të rrepta të cilësisë dhe vuri në dukje se ofrohej pa pagesë.

“Ne trajnojmë dhe testojmë me rigorozitet sistemet tona për të siguruar që secila nga 133 gjuhët që mbështesim përmbush një standard të lartë për cilësinë e përkthimit”, tha zëdhënësi.

Hendeku i trajnimit

Një mangësi e madhe e përdorimit të mjeteve të përkthimit në rastet e azilit buron nga vështirësia e krijimit të kontrolleve, tha Gabe Nicholas, një studiues me Qendrën për Demokraci dhe Teknologji dhe bashkautor me Bhatian në një punim të majit mbi modelet që përdoren për përkthimin me makinë.

“Për shkak se personi flet vetëm një gjuhë, potenciali që gabimet e lëshimet të mos mbahen mend është me të vërtetë shumë i lartë”, tha ai.

Përkthimi makinerik ka bërë përparim të rëndësishëm në vitet e fundit, sipas Nicholasit dhe Bhatias, por ende nuk është aq i mirë sa për t’u mbështetur në situata shpesh komplekse dhe me rrezikshmëri të lartë, siç është procesi i azilit.

Një problem thelbësor është se si aplikacionet janë trajnuar në radhë të parë – në tekst të digjitalizuar, për të cilin ka shumë të disponueshme për anglisht, por shumë më pak për gjuhë të tjera.

Kjo jo vetëm që rezulton në përkthime më pak të nuancuara ose thjesht të pasakta, por do të thotë gjithashtu se anglishtja ose disa gjuhë të tjera me burime të larta bëhen “ndërmjetëse nëpërmjet të cilave këto modele shohin botën,” tha Bhatia.

Rezultati është përkthime anglo-centrike që shpesh nuk arrijnë të kapin me saktësi detajet thelbësore rreth një fjale të caktuar.

Ashtu si shumë sektorë të tjerë, industria e përkthimit është përmirësuar muajt e fundit nga lëshimi në përdorim i mjeteve “gjeneruese” të IA-së, si ChatGPT.

“ChatGPT-ja dhe IA-ja janë tani në mendjet e të gjithëve,” tha Jill Kushner Bishop, themelues dhe shef ekzekutiv i Multilingual Connections, një kompani me seli në zonën e Çikagos.

“Ka raste për të dhe ato janë gjithnjë e më bindëse gjatë gjithë kohës. Por, nuk është ende gati në shumicën e rasteve për t’u përdorur pa trajnim dhe pa përfshirë faktorin njeri,” tha Bishop.

Kompania bën testime të rregullta të mjeteve dhe gjuhëve të ndryshme, tha drejtoresha e prodhimit Katie Baumann, por vazhdon të gjejë probleme me përkthimet e teksteve që përfshijnë, të themi, turqisht ose japonisht, ose transkriptime audio të drejtuara nga IA-ja me zhurmë në sfond.

“Ne kemi kryer teste të ekstrakteve të intervistave të zbatimit të ligjit, përpunimin dhe vendosjen e tyre nëpërmjet përkthimit me makinë – shumë prej tyre janë të pakuptimta. Nuk do t’ju kursente kohë, kështu që ne nuk do ta përdornim,” tha Baumann.

Pra, edhe pse Lidhjet Shumëgjuhëshe përdorin gjithnjë e më shumë përkthimin me makinë, faktori njeri është gjithmonë i përfshirë.

“Ju nuk dini atë që nuk dini. Pra, për dikë që nuk është folës i gjuhës, ju nuk e dini se ku do të jenë gabimet,” tha Bishop.

“Mendoni për rastet e azilit ... dhe çfarë mund të keqkuptohet pa verifikim njerëzor,” tha ajo. OpenAI, i cili zhvilloi ChatGPT-në, nuk pranoi të komentonte, por një zëdhënës vuri në dukje politikat që ndalojnë përdorimin për “vendimmarrje të qeverisë me rrezik të lartë”, duke përfshirë zbatimin e ligjit, drejtësinë penale, migrimin dhe azilin.

Rrëmujë e tmerrshme

Në Respond Crisis Translation, mangësitë e mjeteve të përkthimit të drejtuara nga IA-ja po krijojnë gjithashtu një shtresë shtesë pune për Korenin dhe kolegët e saj.

“Njerëzit që duhet të pastrojnë rrëmujën janë përkthyes-njerëz,” tha ajo.

Një nga përkthyeset e kolektivit, Samara Zuza, ka punuar tri vjet me një azilkërkues brazilian, letrat e azilit të të cilit ishin përkthyer dobët nga një aplikacion i IA-së ndërsa ai ishte në paraburgim imigracioni në Kaliforni, tha ajo.

Aplikacioni ishte “plot me gabime të çoroditura”, tha Zuza. “Emrat e qytetit dhe shtetit janë të gabuara. Dënimet janë kthyer – dhe ky është formulari që iu dërgua gjykatës.”

Ajo mendon se ishin këto pasaktësi që rezultuan në refuzimin e përpjekjeve fillestare për të siguruar lirimin e atij personi. Personi në fjalë, i cili kërkoi të identifikohej vetëm me pseudonimin Carlos, u lirua përfundimisht në maj 2020 pasi të dy filluan të punonin së bashku.

“Gjuha ishte aspekti më i keq për mua”, tha Carlos, 49 vjeç, për gjashtë muajt e tij në paraburgim për emigracionin, pasi ai iku nga aktiviteti i bandës në Brazil.

Ai foli me telefon nga Masaçusets, ku tani jeton teksa aplikon për rezidencë në ShBA.

Carlos, i cili është analfabet dhe flet portugalishten braziliane, tha se nuk kishte qenë në gjendje të komunikonte me zyrtarët e emigracionit ose me të burgosur të tjerë për muaj të tërë.

Për të plotësuar dokumentet e tij të azilit, ai u mbështet në regjistruesin e zërit të një kompjuteri së bashku me një aplikacion që përdorte përkthim makinerik.

“Shumë nga fjalët po përktheheshin gabimisht,” tha ai. “Dokumentet e mia të azilit ishin një rrëmujë e tmerrshme”.

Reuters