Ballafaqimi me paragjykimet (eng.bias) në inteligjencën artificiale

73

Ballafaqimi me paragjykim në inteligjencën artificiale. Tre gra me përvojë të gjerë në A.I. folën për temën dhe se si ta përballojmë atë.

Ky artikull është pjesë e seksionit tonë special për Gratë dhe lidershipin, i cili përqendrohet në qasjet e marra nga gratë, pakicat ose grupet e tjera të pafavorshme që sfidojnë mënyrat tradicionale të të menduarit.

Paragjykimi (eng. bias) është një tipar i pashmangshëm i jetës, rezultat i pamjes së kufizuar domosdoshmërisht të botës që çdo person ose grup i vetëm mund të arrijë. Por paragjykimet shoqërore mund të pasqyrohen dhe përforcohen nga inteligjenca artificiale në mënyra të rrezikshme, pavarësisht vendimit se kush merr një kredi bankare apo kush mbikëqyret.

New York Times foli me tre gra të shquara në A.I. për të dëgjuar se si ato i afrohen paragjykimeve në këtë teknologji të fuqishme. Daphne Koller është një bashkëthemeluese e kompanisë së arsimit në internet Coursera, dhe themeluese dhe shefe ekzekutive e Insitro, një kompani që përdor “machine learning” të zhvillojë ilaçe të reja. Dr. Koller, një profesoreshë dhe ndihmëse në departamentin e shkencave kompjuterike në Universitetin Stanford, foli për paragjykimet përmes thjerrëzave të modeleve të mësimit të makinerive.

Olga Russakovsky është një profesoreshë asistente në Departamentin e Shkencave Kompjuterike në Universitetin Princeton e cila është specializuar në vizionin e kompjuterit dhe një bashkëthemeluese e fondacionit AI4ALL punon për të rritur diversitetin dhe përfshirjen brenda A.I. Dr. Russakovsky është duke punuar për të zvogëluar paragjykimin në ImageNet, grupi i të dhënave që filloi bumin aktual të mësimit të makinerive. Timnit Gebru është një shkencëtare hulumtuese në Google mbi etikën e ekipit të A.I. dhe një bashkëthemeluese e Black in AI, i cili promovon njerëzit me ngjyra në këtë fushë. Dr. Gebru ka qenë ndihmëse për lëvizjen e një konference të madhe ndërkombëtare të A.I. , Konferenca Ndërkombëtare për Përfaqësimet Mësimore, në Etiopi vitin e ardhshëm pasi më shumë se gjysma e folësve Black in AI nuk mund të marrin viza në Kanada për një konferencë në vitin 2018. Ajo foli për origjinën themelore të paragjykimeve dhe sfidën më të madhe të ndryshimit të kulturës shkencore.

Komentet e tyre janë redaktuar dhe kondensuar.

Daphne Koller

Ju mund të nënkuptoni paragjykime në kuptimin e paragjykimit racor, paragjykimit gjinor. Për shembull, ju bëni një kërkim për C.E.O. në Google Images, dhe dalin 50 imazhe të meshkujve të bardhë dhe një imazh të C.E.O. Barbie. Ky është një aspekt i paragjykimit.

Një tjetër nocion i paragjykimit, ajo që është shumë e rëndësishme për punën time, janë raste në të cilat një algoritëm po bashkohet me diçka që është e pakuptimtë dhe potencialisht mund t’ju japë rezultate shumë të dobëta. Për shembull, imagjinoni që po përpiqeni të parashikoni thyerje nga imazhet me rreze X në të dhëna nga spitale të shumta. Nëse nuk jeni të kujdesshëm, algoritmi do të mësojë të njohë se cili spital gjeneroi imazhin. Disa aparate me rreze X kanë karakteristika të ndryshme në imazhin që prodhojnë sesa aparatet e tjera, dhe disa spitale kanë një përqindje shumë më të madhe të thyerjeve të eshtrave se të tjerët. Dhe kështu, ju në të vërtetë mund të mësonit të parashikonit thyerje eshtrash mjaft mirë në grupin e të dhënave që ju ishin dhënë thjesht duke njohur se cili spital e bëri skanimin, pa e parë ndonjëherë thyerjen në kockë. Algoritmi është duke bërë diçka që duket se është e mirë, por në të vërtetë po e bën atë për arsye të gabuara. Shkaqet janë të njëjta në kuptimin që të gjitha kanë të bëjnë me atë se si algoritmi bashkohet me gjërat që nuk duhet t’i lidhë në parashikimin e tij. Për të njohur dhe adresuar këto situata, duhet të siguroheni që ta testoni algoritmin në një regjim që është i ngjashëm me mënyrën e përdorimit të tij në botën reale. Pra, nëse algoritmi juaj i të mësuarit nga aparatet është ai që është i trajnuar në të dhënat nga një grup i caktuar spitalesh, dhe ju do ta përdorni vetëm në të njëjtin grup spitalesh, atëherë përgjimi në cilin spital ka bërë skanimin mund të jetë një qasje e arsyeshme . Efektivisht është duke e lejuar që algoritmi të përfshijë njohuri paraprake në lidhje me popullatën e pacientëve në spitale të ndryshme. Problemi lind me të vërtetë nëse do të përdorni atë algoritëm në kontekstin e një spitali tjetër që nuk ishte në grupin tuaj të të dhënave si nisje. Atëherë, ju po kërkoni algoritmin të përdorë këto paragjykime që i mësoi në spitalet ku trajnoi, në një spital ku paragjykimet mund të ishin plotësisht të gabuara.
Mbi të gjitha, nuk ka pothuajse aq sofistikim sa duhet të ekzistojë atje për nivelin e ashpërsisë që na nevojitet përsa i përket aplikimit të shkencës së të dhënave në të dhënat e botës reale, dhe veçanërisht të dhënat biomjekësore.

Olga Russakovsky

Unë besoj se ka tre shkaqe rrënjësore të paragjykimit në sistemet e inteligjencës artificiale. E para është paragjykimi në të dhëna. Njerëzit kanë filluar të studjojnë metodat për të zbuluar dhe zbutur paragjykimet në të dhëna. Për kategoritë si raca dhe gjinia, zgjidhja është të provoni shembuj të së mirës të tilla që të merrni një përfaqësim më të mirë në grupet e të dhënave. Por, ju mund të keni një përfaqësim të ekuilibruar dhe ende të dërgoni mesazhe shumë të ndryshme. Për shembull, programueset gra shpesh përshkruhen ulur pranë një burri para kompjuterit, ose me një burrë që shikon mbi shpatullën e saj. Unë mendoj për paragjykime shumë gjerësisht. Padyshim që gjinia dhe raca dhe mosha janë më të lehtat për t’u studiuar, por ka nga të gjitha llojet e këndeve. Bota jonë nuk është e drejtë. Nuk ka asnjë përfaqësim të ekuilibruar të botës dhe kështu të dhënat do të kenë gjithmonë shumë nga disa kategori dhe relativisht pak nga të tjerat. Duke vazhduar më tej, shkaku i dytë rrënjësor i paragjykimit është në vetë algoritmet. Algoritmet mund të përforcojnë paragjykimet në të dhëna, kështu që ju duhet të jeni të zhytur në mendime se si i ndërtoni në të vërtetë këto sisteme. Kjo më çon te shkaku i tretë: paragjykimi i njeriut. Studiuesit e A.I janë kryesisht njerëz që janë meshkuj, të cilët vijnë nga demografi të caktuara racore, të cilët u rritën në zona të larta socio-ekonomike, kryesisht njerëz pa aftësi të kufizuara. Ne jemi një popullsi mjaft homogjene, kështu që është një sfidë të mendojmë gjerësisht për çështjet botërore. Ka shumë mundësi për të diversifikuar këtë fushë, dhe ndërsa rritet diversiteti, Sistemet e vetë A.I do të bëhen më pak të njëanshme. Më lejoni të jap një shembull që ilustron të tre burimet. Grupi i të dhënave ImageNet u organizua në vitin 2009 për njohjen e objektit, që përmbante më shumë se 14 milion imazhe. Ka disa gjëra që ne po bëjmë me një sy drejt ribalancimit të këtyre të dhënave për të pasqyruar më mirë botën në përgjithësi. Deri më tani, kemi kaluar në 2,200 kategori për të hequr ato që mund të konsiderohen fyese. Ne po punojmë për krijimin e një program për t’i lënë komunitetit të shënjoj kategori ose imazhe shtesë si fyese, duke lejuar të gjithë të kenë një zë në këtë sistem. Ne po punojmë gjithashtu për të kuptuar ndikimin që do të kishin ndryshimet e tilla në modelet dhe algoritmet e vizionit në kompjuter.

Unë nuk mendoj se është e mundur të kemi një njeri të paanshëm, kështu që nuk shoh se si mund të ndërtojmë një sistem të paanshëm të A.I. Por ne sigurisht mund të bëjmë shumë më mirë sesa jemi duke bërë.

Timnit Gebru

Shumë herë, njerëzit flasin për paragjykime në kuptimin e barazimit të performancës nëpër grupe. Ata nuk po mendojnë për mbështetjen bazë, nëse në radhë të parë duhet të ekzistojë një detyrë, kush e krijon atë, kush do t’i vendosë në cilën popullatë, kush i posedon të dhënat dhe si përdoret? Rrënja e këtyre problemeve nuk është vetëm teknologjike. Është sociale. Përdorimi i teknologjisë me këtë mbështetje sociale bazë shpesh përparon gjërat më të këqija që mund të ndodhin. Në mënyrë që teknologjia të mos e bëjë këtë, duhet të punoni edhe në mbështetjen bazë. Ju nuk mund të mbyllni sytë dhe të thoni: “Oh, çfarëdo, fondacioni, unë jam një shkencëtar. Gjithë çfarë do të bëj është matematika. ”

Për mua, gjëja më e vështirë për të ndryshuar është qëndrimi kulturor i shkencëtarëve. Shkencëtarët janë disa nga njerëzit më të rrezikshëm në botë sepse ne kemi këtë iluzion të objektivitetit; ekziston ky iluzion i meritokracisë dhe ekziston ky iluzion i kërkimit të së vërtetës objektive. Shkenca duhet të vendoset në përpjekjen për të kuptuar dinamikën sociale të botës sepse shumica e ndryshimit rrënjësor ndodh në nivelin shoqëror.

Ne duhet të ndryshojmë mënyrën se si i edukojmë njerëzit për shkencën dhe teknologjinë. Shkenca aktualisht mësohet si një pamje objektive nga asgjëja (një term për të cilin mësova nga leximi i punimeve të studimeve të feministit), nga këndvështrimi i askujt. Por duhet të ketë një punë shumë më ndërdisiplinore dhe duhet të rishikohet sesi njerëzit u mësohen gjërave.
Njerëzit nga grupet e margjinalizuara kanë punuar me të vërtetë shumë për ta sjellë këtë në plan të parë dhe pastaj pasi të jetë sjellë në plan të parë njerëzit e tjerë nga grupe jo-margjinalizuara fillojnë të marrin të gjitha meritat dhe derdhin para në “iniciativa”. Ata nuk do të marrin llojet të rreziqeve siq marrin njerëzit në komunitetet e margjinalizuara, sepse nuk është se komuniteti i tyre po dëmtohet. Të gjitha këto institucione po sjellin njerëz të gabuar të flasin për ndikimet shoqërore të A.I., ose të jenë fytyrat e këtyre gjërave vetëm sepse ato janë të famshme dhe të privilegjuara dhe mund të sjellin më shumë para për të përfituar tashmë të privilegjuarit.

Ka disa gjëra që duhet të diskutohen në një skenë globale dhe duhet të ketë marrëveshje në të gjithë vendet. Dhe ka gjëra të tjera që thjesht duhet të diskutohen në vend. Ne duhet të kemi parime dhe standarde, dhe organe drejtuese dhe njerëz që votojnë gjëra dhe algoritme që kontrollohen, diçka e ngjashme me F.D.A. Pra, për mua nuk është aq e thjeshtë sa krijimi i një grupi të dhënash më të larmishëm dhe gjërat janë fikse. Ky është vetëm një komponent i ekuacionit.

Craig S. Smith është një korrespodent i The Times dhe tani udhëheq një podcast Eye në A.I.

Nga New York Times solli për gjuhën shqipe ekonomia-islame.com