Kung Paano Ang Pagkuha ng isang Maalalang Paglalapit sa AI ay Nag-cut Down sa Mga Biased na Sets ng Data

Mga Bias na Dataset at Etikal na AI

Ang mga solusyong pinapagana ng AI ay nangangailangan ng mga set ng data upang maging epektibo. At ang paglikha ng mga set ng data na iyon ay puno ng isang implicit na problema sa bias sa isang sistematikong antas. Ang lahat ng mga tao ay nagdurusa sa mga biases (parehong may malay at walang malay). Ang mga bias ay maaaring magkaroon ng anumang bilang ng mga anyo: heograpiko, linguistic, socio-economic, sexist, at racist. At ang mga sistematikong bias na iyon ay inilalagay sa data, na maaaring magresulta sa mga produkto ng AI na nagpapanatili at nagpapalaki ng bias. Ang mga organisasyon ay nangangailangan ng maingat na diskarte upang mabawasan ang pagkiling sa mga set ng data.

Mga Halimbawa na Naglalarawan sa Suliraning Bias

Isang kapansin-pansing halimbawa ng bias na set ng data na ito na nakakuha ng maraming negatibong press noong panahong iyon ay isang solusyon sa pagbabasa ng resume na pinapaboran ang mga kandidatong lalaki kaysa mga babae. Ito ay dahil ang mga data set ng recruitment tool ay binuo gamit ang mga resume mula sa nakalipas na dekada kung kailan ang karamihan ng mga aplikante ay lalaki. Ang data ay bias at ang mga resulta ay sumasalamin sa bias na iyon. 

Isa pang malawak na naiulat na halimbawa: Sa taunang Google I/O developer conference, nagbahagi ang Google ng preview ng isang AI-powered dermatology assist tool na tumutulong sa mga tao na maunawaan kung ano ang nangyayari sa mga isyung nauugnay sa kanilang balat, buhok, at mga kuko. Binibigyang diin ng katulong ng dermatology kung paano umuusbong ang AI upang makatulong sa pangangalaga ng kalusugan - ngunit naihatid din nito ang potensyal para sa bias na gumapang sa AI sa kalagayan ng pagpuna na ang tool ay hindi sapat para sa mga taong may kulay.

Noong inanunsyo ng Google ang tool, sinabi ng kumpanya:

Para matiyak na bubuo kami para sa lahat, isinasaalang-alang ng aming modelo ang mga salik tulad ng edad, kasarian, lahi, at mga uri ng balat — mula sa maputlang balat na hindi maputi hanggang kayumangging balat na bihirang masunog.

Ang Google, Paggamit ng AI upang makatulong na makahanap ng mga sagot sa mga karaniwang kondisyon ng balat

Ngunit sinabi ng isang artikulo sa Vice na nabigo ang Google na gumamit ng inclusive data set:

Upang magawa ang gawain, ang mga mananaliksik ay gumamit ng isang dataset ng pagsasanay ng 64,837 mga larawan ng 12,399 mga pasyente na matatagpuan sa dalawang estado. Ngunit sa libu-libong mga kondisyon ng balat na nakalarawan, 3.5 porsyento lamang ang nagmula sa mga pasyente na may mga uri ng balat na Fitzpatrick na V at VI-ang mga kumakatawan sa kayumanggi balat at maitim na kayumanggi o itim na balat, ayon sa pagkakabanggit. 90 porsiyento ng database ay binubuo ng mga taong may makatarungang balat, mas matingkad na puting balat, o mapusyaw na kayumangging balat, ayon sa pag-aaral. Bilang isang resulta ng bias na sampling, sinabi ng mga dermatologist na ang app ay maaaring magtapos sa labis o sa ilalim ng pag-diagnose ng mga tao na hindi maputi.

Vice, Ang Bagong Dermatology App ng Google ay Hindi Idinisenyo para sa Mga Taong Mas Maitim ang Balat

Tumugon ang Google sa pamamagitan ng pagsasabing mapipino nito ang tool bago ito pormal na ilabas:

Ang aming AI-powered dermatology assist tool ay ang kulminasyon ng higit sa tatlong taon ng pananaliksik. Dahil ang aming trabaho ay itinampok sa Nature Medicine, ipinagpatuloy namin ang pagbuo at pagpino sa aming teknolohiya sa pagsasama ng mga karagdagang dataset na kinabibilangan ng data na naibigay ng libu-libong tao, at milyon-milyong higit pang na-curate na mga larawan sa pag-aalala sa balat.

Ang Google, Paggamit ng AI upang makatulong na makahanap ng mga sagot sa mga karaniwang kondisyon ng balat

Hangga't maaari nating asahan na ang mga programa sa pag-aaral ng AI at machine ay maaaring itama para sa mga bias na ito, mananatili ang katotohanan: sila ay katulad din matalino dahil malinis ang kanilang mga set ng data. Sa isang update sa lumang programming adage basura sa loob/basura palabas, ang mga solusyon sa AI ay kasing lakas lamang ng kalidad ng kanilang mga set ng data mula sa simula. Kung walang pagwawasto mula sa mga programmer, ang mga data set na ito ay walang karanasan sa background upang ayusin ang kanilang mga sarili – dahil wala silang ibang frame of reference.

Ang pagbuo ng mga set ng data nang responsable ay nasa core ng lahat etikal na artificial intelligence. At ang mga tao ang nasa ubod ng solusyon. 

Ang Mindful AI ay Ethical AI

Ang bias ay hindi nangyayari sa isang vacuum. Ang mga hindi etikal o pinapanigang set ng data ay nagmumula sa maling diskarte sa yugto ng pagbuo. Ang paraan upang labanan ang mga error sa bias ay ang paggamit ng isang responsable, nakasentro sa tao, na diskarte na tinatawag ng marami sa industriya na Mindful AI. May tatlong kritikal na bahagi ang Mindful AI:

1. Ang Mindful AI ay Human-Centered

Mula sa pagsisimula ng proyekto ng AI, sa mga yugto ng pagpaplano, ang mga pangangailangan ng mga tao ay dapat na nasa gitna ng bawat desisyon. At nangangahulugang lahat ng tao - hindi lamang isang subset. Iyon ang dahilan kung bakit kailangang umasa ang mga developer sa isang magkakaibang pangkat ng mga taong nakabase sa buong mundo upang sanayin ang mga AI application na maging inclusive at walang bias.

Tinitiyak ng pag-crowdsourcing ng mga set ng data mula sa isang pandaigdigan, magkakaibang koponan na matutukoy ang mga bias at ma-filter nang maaga. Ang mga may iba't ibang etnisidad, pangkat ng edad, kasarian, antas ng edukasyon, sosyo-ekonomikong background, at lokasyon ay mas madaling makakita ng mga set ng data na pinapaboran ang isang hanay ng mga halaga kaysa sa isa pa, kaya maalis ang hindi sinasadyang bias.

Tingnan ang mga application ng boses. Kapag nag-aaplay ng maingat na diskarte sa AI, at ginagamit ang kapangyarihan ng isang pandaigdigang talent pool, maaaring isaalang-alang ng mga developer ang mga elemento ng linguistic gaya ng iba't ibang dialect at accent sa mga set ng data.

Ang pagtatatag ng balangkas ng disenyo na nakasentro sa tao mula sa simula ay kritikal. Malaki ang naitutulong nito sa pagtiyak na ang data na nabuo, na-curate, at may label ay nakakatugon sa inaasahan ng mga end user. Ngunit mahalaga din na panatilihin ang mga tao sa loop sa buong lifecycle ng pagbuo ng produkto. 

Ang mga tao sa loop ay maaari ring makatulong sa mga makina na lumikha ng isang mas mahusay na karanasan sa AI para sa bawat tukoy na madla. Sa Pactera EDGE, ang aming mga AI data project team, na matatagpuan sa buong mundo, ay nauunawaan kung paano maaaring makaapekto ang iba't ibang kultura at konteksto sa pagkolekta at pag-curate ng maaasahang data ng pagsasanay sa AI. Mayroon silang mga kinakailangang tool na kailangan nila upang i-flag ang mga problema, subaybayan ang mga ito, at ayusin ang mga ito bago maging live ang isang solusyon na nakabatay sa AI.

Ang Human-in-the-loop AI ay isang proyektong "safety net" na pinagsasama ang lakas ng mga tao - at ang kanilang magkakaibang background sa mabilis na kapangyarihan ng mga makina. Ang pagtutulungan ng tao at AI na ito ay kailangang maitatag mula sa simula ng mga programa upang ang bias na data ay hindi makabuo ng pundasyon sa proyekto. 

2. Ang Mindful AI ay Responsable

Ang pagiging responsable ay upang matiyak na ang mga AI system na walang mga bias at na ang mga ito ay batay sa etika. Ito ay tungkol sa pagiging maalalahanin kung paano, bakit, at saan nilikha ang data, kung paano ito na-synthesize ng mga AI system, at kung paano ito ginagamit sa paggawa ng desisyon, mga desisyon na maaaring magkaroon ng etikal na implikasyon. Ang isang paraan para magawa ito ng isang negosyo ay ang makipagtulungan sa mga pamilyang hindi gaanong kinatawan upang maging mas kasama at hindi gaanong makampi. Sa larangan ng mga annotation ng data, itinatampok ng bagong pananaliksik kung paano makakatulong ang isang multi-annotator na multi-task na modelo na tinatrato ang mga label ng bawat annotator bilang hiwalay na subtask na mapawi ang mga potensyal na isyu na likas sa mga karaniwang pamamaraan ng katotohanan kung saan ang mga hindi pagkakasundo ng annotator ay maaaring dahil sa hindi pagkakatawan at maaaring hindi papansinin sa pagsasama-sama ng mga anotasyon sa iisang katotohanan. 

3. Mapagkakatiwalaan

Ang pagiging mapagkakatiwalaan ay nagmumula sa isang negosyo na transparent at naipapaliwanag kung paano sinanay ang modelo ng AI, kung paano ito gumagana, at kung bakit nila inirerekomenda ang mga resulta. Ang isang negosyo ay nangangailangan ng kadalubhasaan sa AI localization upang gawing posible para sa mga kliyente nito na gawing mas inklusibo at personalized ang kanilang mga AI application, na iginagalang ang mga kritikal na nuances sa lokal na wika at mga karanasan ng user na maaaring gumawa o masira ang kredibilidad ng isang AI solution mula sa isang bansa patungo sa susunod. . Halimbawa, dapat idisenyo ng isang negosyo ang mga application nito para sa mga personalized at localized na konteksto, kabilang ang mga wika, dialect, at accent sa mga application na batay sa boses. Sa ganoong paraan, ang isang app ay nagdadala ng parehong antas ng pagiging sopistikado ng karanasan sa boses sa bawat wika, mula sa Ingles hanggang sa mga hindi kinakatawan na mga wika.

Pagkamakatarungan at Pagkakaiba-iba

Sa huli, tinitiyak ng Ai na tinitiyak ang mga solusyon ay binuo sa patas at magkakaibang mga hanay ng data kung saan ang mga kahihinatnan at epekto ng mga partikular na kinalabasan ay sinusubaybayan at sinusuri bago ang solusyon ay pumunta sa merkado. Sa pamamagitan ng pagiging maalalahanin at pagsasama ng mga tao sa bawat bahagi ng pagbuo ng solusyon, tinutulungan namin na matiyak na ang mga modelo ng AI ay mananatiling malinis, minimally bias, at etikal hangga't maaari.

Ano sa tingin ninyo?

Ang site na ito ay gumagamit ng Akismet upang mabawasan ang spam. Alamin kung paano naproseso ang data ng iyong komento.