Gjigandi kinez i teknologjisë Huawei ka testuar një program të njohjes së fytyrës që mund të dërgojë “alarme ujgure” të automatizuara tek autoritetet shtetërore kur kamerat identifikojnë anëtarët e një grupi të pakicës muslimane të shtypur, sipas një dokumenti të brendshëm të parë nga The Washington Post (WP).
Gazeta amerikane tregon se dokumenti ofron më shumë detaje rreth regjimit kinez të mbikëqyrjes dhe se dokumenti u nënshkrua nga përfaqësuesit e Huawei-t. Theksohet se ky gjigand i telekomunikacionit ka punuar me kompaninë fillestare Megvii në 2018 për të testuar sisteme kamerash me inteligjencë artificiale që mund të skanojnë fytyrat në turmë dhe të vlerësojnë moshën, gjininë dhe përkatësinë etnike të secilit person.
Nëse sistemi zbulon fytyrën e një anëtari të pakicës ujgure, thuhet në raportin e provës, ai do të aktivizonte “alarmin ujgur” dhe potencialisht do t’ia dërgonte atë informacion policisë së Kinës, një vend ku këta njerëz po mbahen masivisht si pjesë e një veprimi brutal të shtetit.
Dokumenti u hoq nga portali i Huawei-t pasi WP dhe organizata kërkimore IPVM kërkoi komentin e kompanisë.
Minoritetet e padëshiruara dhe të rrezikshme
Dokumenti thotë se Huawei mori pjesë në zhvillimin e këtij programi duke siguruar servera, kamera dhe gjëra të tjera të nevojshme për zhvillimin e sistemit. John Honovich i IPVM thotë se dokumenti zbulon shkallën e “tmerrit” dhe “normalitetit të plotë” të kësaj teknologjie diskriminuese.
“Kjo nuk është vetëm një kompani e izoluar, kjo është punë sistematike. Shumë ide dhe punë janë konsumuar për ta realizuar ‘alarmin ujgur’”, tha ai, sipas WP.
Huawei dhe Megvii kanë prezantuar tre sisteme mbikëqyrjeje në vitet e fundit dhe tani kanë konfirmuar që ky dokument është i vërtetë.
Zëdhënësi i Huawei-t, Glenn Schloss tha se raporti ishte “vetëm një provë dhe nuk është në përdorim aktual. Huawei ofron vetëm produkte të qëllimit të përgjithshëm për teste të tilla. Ne nuk ofrojmë algoritme ose aplikacione të veçanta”.
Nga Megwii, ata deklaruan se sistemet e tyre nuk ishin bërë për të shënjestruar ose shënjuar grupe etnike.
Aktivistët dhe ekspertët e të drejtave të njeriut në fushën e inteligjencës artificiale thonë se janë të shqetësuar se zhvillimi dhe normalizimi i kësaj teknologjie mund të çojë në përhapjen e saj në të gjithë botën, sepse shumë vende duan një mënyrë të shpejtë dhe të automatizuar për të zbuluar anëtarët e grupeve etnike që ata i konsiderojnë të padëshirueshme dhe të rrezikshme.
Kampet e riedukimit
Washington Post shprehet se këto sisteme, të “stërvitur” me ndihmën e një numri të madh fotografish të fytyrave, mund të fillojnë të zbulojnë modele të caktuara që mund, për shembull, të dallojnë fytyrat e anëtarëve të pakicës ujgure nga shumica e kinezëve Han. Sipas një dokumenti të vitit 2018 mbi karakteristikat e fytyrës dhe përkatësinë etnike, studiuesit nga Kina kanë zhvilluar algoritme që zbulojnë “karakteristikat e fytyrës” të ujgurëve, koreanëve dhe tibetianëve.
Mediat amerikane deklarojnë se dokumenti mbi “alarmin ujgur”, i quajtur “Raporti i Kontrollit të Ndërveprimit”, ofron informacion teknik se si autoritetet mund të lidhin sistemet Huawei-Megvii me programe të tjera të mbikëqyrjes publike.
Dokumenti nuk tregon se ku dhe sa është përdorur sistemi, por WP thotë se sisteme të ngjashme përdoren nga agjencitë policore në të gjithë Kinën.
Diskriminimi ndaj ujgurëve është një dukuri e zakonshme nga shumica e popullsisë Han në Kinë. Në rajonin Xinjiang të Kinës veriperëndimore, autoritetet kanë përdorur justifikime për “akte të mundshme terroriste” për të kryer veprime të dhunshme kundër pakicës muslimane që nga viti 2015.
Vlerësohet se më shumë se një milion ujgurë janë në kampe riedukimi, ku shumë pretendojnë tortura ndaj tyre. /tesheshi.com/