4 Mga paraan Ang iyong Mga Paghahanap sa Google At Social Media ay Nakakaapekto sa Iyong Pagkakataon Sa Buhay

4 Mga paraan Ang iyong Mga Paghahanap sa Google At Social Media ay Nakakaapekto sa Iyong Pagkakataon Sa Buhay
Shutterstock.

Kung nalaman mo man o hindi ito, ang malaking data ay maaaring makaapekto sa iyo at kung paano ka nakatira sa iyong buhay. Ang data na aming nilikha kapag gumagamit ng social media, nagba-browse sa internet at may suot na fitness trackers ay nakolekta, nakategorya at ginamit ng mga negosyo at ang estado upang lumikha ng mga profile sa amin. Pagkatapos ay ginagamit ang mga profile na ito upang mag-target ng mga advertisement para sa mga produkto at serbisyo sa mga malamang na bilhin ang mga ito, o upang ipaalam ang mga desisyon ng pamahalaan.

Pinapayagan ng malaking data ang mga estado at kumpanya na ma-access, pagsamahin at pag-aralan ang aming impormasyon at bumuo ng pagbubunyag - ngunit hindi kumpleto at potensyal hindi tumpak - Mga profile ng ating buhay. Ginagawa nila ito sa pamamagitan ng pagtukoy ng mga ugnayan at mga pattern sa data tungkol sa amin, at mga taong may katulad na mga profile sa amin, upang gumawa ng mga hula tungkol sa kung ano ang maaari naming gawin.

Ngunit dahil lamang sa malaking data analytics ay batay sa mga algorithm at istatistika, ay hindi nangangahulugan na sila ay tumpak, neutral o likas na layunin. At habang ang malaking data ay maaaring magbigay ng mga pananaw tungkol sa pag-uugali ng grupo, ang mga ito ay hindi kinakailangang isang maaasahang paraan upang matukoy ang indibidwal na pag-uugali. Sa katunayan, ang mga pamamaraan na ito ay maaari buksan ang pinto sa diskriminasyon at nagbabanta sa mga karapatang pantao ng mga tao - kahit na sila ay nagtatrabaho laban sa iyo. Narito ang apat na halimbawa kung saan ang malaking data analytics ay maaaring humantong sa kawalan ng katarungan.

1. Kinakalkula ang mga marka ng credit

Maaaring gamitin ang malaking data upang gumawa ng mga pagpapasya tungkol sa pagiging karapat-dapat sa kredito, nakakaapekto kung ikaw ay nabigyan ng isang mortgage, o kung gaano kataas ang iyong car insurance ang mga premium ay dapat. Ang mga desisyon ay maaaring ipaalam sa pamamagitan ng iyong mga post sa social media at data mula sa iba pang apps, na kinukuha upang ipahiwatig ang iyong antas ng panganib o pagiging maaasahan.

Ngunit ang data tulad ng iyong pang-edukasyon na background o kung saan ka nakatira ay maaaring hindi nauugnay o maaasahan para sa mga pagtasa. Ang ganitong uri ng data ay maaaring kumilos bilang isang proxy para sa lahi o socioeconomic status, at ang paggamit nito upang gumawa ng mga desisyon tungkol sa credit risk ay maaaring magresulta sa diskriminasyon.

2. Mga paghahanap ng trabaho

Maaaring gamitin ang malaking data upang matukoy na nakikita ang isang advertisement ng trabaho o nakuha shortlisted para sa isang pakikipanayam. Maaaring ma-target ang mga advertisement sa trabaho sa partikular na mga pangkat ng edad, tulad ng 25 hanggang 36-taong-gulang, na nagbubukod sa mas bata at mas matanda na manggagawa mula sa kahit na nakakakita ng ilang mga pag-post ng trabaho at nagtatanghal ng isang panganib ng diskriminasyon sa edad.

Ginagamit din ang pag-automate upang gawing mas mahusay ang pag-filter, pag-uuri at mga kandidatong ranggo. Ngunit ang proseso ng screening na ito ay maaaring magbukod ng mga tao batay sa mga tagapagpahiwatig tulad ng distansya ng kanilang magbawas. Maaaring ipagpalagay ng mga nagpapatrabaho na ang mga may mas matagal na pasahero ay mas malamang na manatili sa isang pang-matagalang trabaho, ngunit maaaring ito ay maaaring magpakita ng diskriminasyon laban sa mga taong naninirahan mula sa sentro ng lungsod dahil sa lokasyon ng abot-kayang pabahay.

3. Parole at piyansa pagpapasya

Sa US at sa UK, ang mga malaking data ng pagtatasa ng panganib ng data ay ginagamit upang matulungan ang mga opisyal na magpasiya kung ang mga tao ay ipinagkaloob parol o piyansa, o tinutukoy mga programang rehabilitasyon. Maaari rin itong gamitin upang masuri kung gaano kalaki ang isang panganib na inihahatid ng isang nagkasala sa lipunan, na isang bagay na maaaring isaalang-alang ng isang hukom kapag nagpasya ang haba ng isang pangungusap.

Hindi malinaw kung ano ang ginagamit ng data upang tulungan ang mga pagtasa na ito, ngunit bilang paglipat patungo digital na policing Tinitipon ang bilis, malamang na ang mga programang ito ay magkakaroon ng impormasyon sa open source tulad ng aktibidad ng medial na panlipunan - kung hindi nila ito ginagawa.

Ang mga pagtatasa na ito ay maaaring hindi lamang tumingin sa isang profile ng isang tao, ngunit kung paano ang kanilang mga paghahambing sa iba. May ilang pwersa ng pulisya kasaysayan over-policed ilang mga komunidad ng minorya, na humahantong sa isang hindi katimbang na bilang ng mga iniulat na kriminal na insidente. Kung ang data na ito ay fed sa isang algorithm, ito ay papangitin ang mga modelo ng pagtatasa ng panganib at magreresulta sa diskriminasyon na direktang nakakaapekto karapatan ng isang tao sa kalayaan.

4. Paglalagay ng mga application visa

Noong nakaraang taon, inihayag ng Immigration and Customs Enforcement Agency (ICE) ng Estados Unidos na nais nilang ipakilala ang isang awtomatikong "sobrang visa vetting"Programa. Ito ay awtomatikong at patuloy na i-scan ang mga social media account, upang masuri kung ang mga aplikante ay gumawa ng isang "positibong kontribusyon" sa Estados Unidos, at kung anumang mga isyu sa pambansang seguridad ay maaaring lumabas.

Pati na rin ang pagpapakita ng mga panganib sa kalayaan sa pag-iisip, opinyon, pagpapahayag at pagsasamahan, may mga makabuluhang panganib na ang program na ito ay magpapakita ng diskriminasyon laban sa mga tao ng ilang mga nasyonalidad o relihiyon. Mga Commentator nailalarawan ito bilang "Muslim ban by algorithm".

Ang programa ay kamakailan-lamang na nakuha, na inilahad batay sa "walang software na 'out-of-the-box' na maaaring maghatid ng kalidad ng pagsubaybay sa nais na ahensiya". Ngunit kabilang ang mga naturang layunin sa mga dokumento sa pagkuha ay maaaring lumikha ng mga masamang insentibo para sa tech industry upang bumuo ng mga programa na diskriminasyon ayon sa disenyo.

Ang pag-uusapWalang tanong na gumagana ang malaking analytics ng data sa mga paraan na makakaapekto sa mga pagkakataon ng indibidwal sa buhay. Ngunit ang kakulangan ng transparency tungkol sa kung gaano kalaki ang data na nakolekta, ginagamit at ibinahagi ay mahirap gawin para malaman ng mga tao kung anong impormasyon ang ginagamit, paano, at kung kailan. Ang sobrang data analytics ay sobrang kumplikado para sa mga indibidwal upang maprotektahan ang kanilang data mula sa hindi naaangkop na paggamit. Sa halip, ang mga estado at mga kumpanya ay dapat gumawa at sumunod - mga regulasyon upang matiyak na ang paggamit nila ng malaking data ay hindi humantong sa diskriminasyon.

Tungkol sa Ang May-akda

Lorna McGregor, Director, Human Rights Center, PI at Co-Director, ESRC Human Rights, Big Data at Teknolohiya Malaking Grant, University of Essex; Daragh Murray, Lektor sa International Human Rights Law sa Essex Law School, University of Essex, at Vivian Ng, Senior Researcher sa Human Rights, University of Essex

Ang artikulong ito ay orihinal na na-publish sa Ang pag-uusap. Basahin ang ang orihinal na artikulo.

Mga Aklat sa pamamagitan ng mga May-akda:

{amazonWS: searchindex = Books; keywords = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Books; keywords = Daragh Murray; maxresults = 2}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

sundin ang InnerSelf sa

facebook-icontwitter-iconrss-icon

Kumuha ng Pinakabagong Sa pamamagitan ng Email

{Emailcloak = off}