Ang Mga Algoritma ng YouTube ay Maaaring Maging Radicalize ng Mga Tao - Ngunit Ang Tunay na Problema Ay Wala Kami Mga ideya Paano Sila Nagtatrabaho Mr Tempter / Shutterstock

Lumilikha ba ang YouTube ng mga ekstremista? A kamakailang pag-aaral nagdulot ng mga argumento sa mga siyentipiko sa pamamagitan ng argumento na ang mga algorithm na kapangyarihan sa site ay hindi makakatulong sa mga radikal na tao sa pamamagitan ng pagrekomenda ng higit pang mga matinding video, tulad ng ay iminungkahi sa mga nakaraang taon.

Ang papel, na isinumite sa open-access journal Unang Lunes ngunit pa pormal na peer-susuriin, nasuri ang mga rekomendasyon sa video na natanggap ng iba't ibang uri ng mga channel. Inangkin nito na ang algorithm ng YouTube ay pinapaboran ang mga pangunahing channel ng media sa malayang nilalaman, pagtatapos na ang radicalization ay may higit na kinalaman sa mga taong lumikha ng nakakapinsalang nilalaman kaysa sa algorithm ng site.

Ang mga espesyalista sa larangan ay mabilis na pumasok pagtugon sa pag-aaral, kasama ang ilang pagpuna mga pamamaraan ng papel at iba pa na pinagtatalunan ang algorithm ay isa sa maraming mahahalagang salik at ang agham na data lamang hindi bibigyan kami ng sagot.

Ang problema sa talakayan na ito ay hindi namin talaga masagot ang tanong kung ano ang ginagampanan ng algorithm ng YouTube sa mga radikal na tao dahil hindi namin naiintindihan kung paano ito gumagana. At ito ay isang sintomas lamang ng isang mas malawak na problema. Ang mga algorithm na ito ay gumaganap ng isang pagtaas ng papel sa aming pang-araw-araw na buhay ngunit kulang sa anumang uri ng transparency.

Mahirap magtaltalan na ang YouTube ay hindi gumaganap ng papel sa radicalization. Ito ay unang itinuro ng sosyologo ng teknolohiya na si Zeynep Tufekci, na naglarawan kung paano inirerekomenda ang mga inirekumendang video na unti-unting humihimok sa mga gumagamit patungo sa mas matinding nilalaman. Sa mga sinabi ni Tufekci, ang mga video tungkol sa jogging ay humahantong sa mga video tungkol sa pagpapatakbo ng mga ultramarathons, ang mga video tungkol sa mga bakuna ay humantong sa mga teorya ng pagsasabwatan, at ang mga video tungkol sa politika ay humantong sa "Holocaust denial at iba pang nakakagambalang nilalaman".


innerself subscribe graphic


Nasulat din ito tungkol sa nang puspusan ni ex-YouTube empleyado na si Guillaume Chaslot na nagtrabaho sa rekomendasyon ng site ng site. Mula nang umalis sa kumpanya, si Chaslot ay patuloy na sinusubukan na gumawa ng mga rekomendasyong iyon mas transparent. Sinabi niya na ang mga rekomendasyon sa YouTube ay bias patungo mga teorya ng pagsasabwatan at sa katunayan ay hindi tumpak na mga video, gayunpaman makuha ang mga tao na gumugol ng mas maraming oras sa site.

Sa katunayan, pag-maximize ng oras ng panonood ay ang buong punto ng mga algorithm ng YouTube, at hinihikayat nito ang mga tagalikha ng video na labanan para sa pansin sa anumang paraan na posible. Ang sheer ng kumpanya kakulangan ng transparency tungkol sa eksaktong kung paano ito gumagana ginagawang halos imposible upang labanan ang radicalization sa site. Pagkatapos ng lahat, nang walang transparency, mahirap malaman kung ano ang maaaring mabago upang mapabuti ang sitwasyon.

Ang Mga Algoritma ng YouTube ay Maaaring Maging Radicalize ng Mga Tao - Ngunit Ang Tunay na Problema Ay Wala Kami Mga ideya Paano Sila Nagtatrabaho Kung paano gumagana ang algorithm ng YouTube ay nananatiling misteryo. Sino si Danny / Shutterstock

Ngunit ang YouTube ay hindi pangkaraniwan sa paggalang na ito. Ang isang kakulangan ng transparency tungkol sa kung paano gumagana ang mga algorithm ay karaniwang nangyayari tuwing ginagamit ito sa mga malalaking sistema, sa pamamagitan ng mga pribadong kumpanya o pampublikong katawan. Pati na rin ang pagpapasya kung anong video ang maipakita sa iyo, ang algorithm ng pagkatuto ng makina ay ginagamit na ngayon ilagay ang mga bata sa mga paaralan, magpasya mga pangungusap sa bilangguan, matukoy mga marka ng kredito at mga rate ng seguro, pati na rin ang kapalaran ng mga imigrante, mga kandidato sa trabaho at mga aplikante sa unibersidad. At kadalasan hindi natin naiintindihan kung paano ginagawa ng mga sistemang ito ang kanilang mga pagpapasya.

Natagpuan ng mga mananaliksik ang mga malikhaing paraan ng pagpapakita ng epekto ng mga algorithm na ito sa lipunan, kung sa pamamagitan ng pagsusuri sa pagtaas ng reaksyunaryong tama o ang pagkalat ng mga teorya ng pagsasabwatan sa YouTube, o sa pamamagitan ng pagpapakita kung paano ang mga search engine ay sumasalamin sa mga rasist biases ng mga taong lumikha sa kanila.

Ang mga sistema ng pag-aaral ng makina ay karaniwang malaki, kumplikado, at malabo. Nararapat, madalas silang inilarawan bilang itim na kahon, kung saan pumapasok ang impormasyon, at lumabas ang impormasyon o aksyon, ngunit walang makakakita kung ano ang nangyayari sa pagitan. Nangangahulugan ito na, dahil hindi namin alam nang eksakto kung paano gumagana ang mga algorithm tulad ng sistema ng rekomendasyon sa YouTube, sinusubukan na magtrabaho kung paano gumagana ang site ay tulad ng pagsubok na maunawaan ang isang kotse nang hindi binubuksan ang bonnet.

Kaugnay nito, nangangahulugan ito na ang pagsusumikap na magsulat ng mga batas upang ayusin ang dapat gawin o hindi dapat gawin ay nagiging isang bulag na proseso o pagsubok at error. Ito ang nangyayari sa YouTube at sa maraming iba pang mga algorithm sa pag-aaral ng machine. Sinusubukan naming magkaroon ng isang sasabihin sa kanilang mga kinalabasan, nang walang isang tunay na pag-unawa sa kung paano sila gumagana. Kailangan nating buksan ang mga patenteng teknolohiyang ito, o hindi bababa sa gawing malinaw ang mga ito upang maisaayos natin ang mga ito.

Paliwanag at pagsubok

Ang isang paraan upang gawin ito ay para sa mga algorithm na maibigay mga salungat na paliwanag kasama ang kanilang mga desisyon. Nangangahulugan ito na mag-ehersisyo ang minimum na mga kondisyon na kinakailangan para sa algorithm upang makagawa ng ibang desisyon, nang hindi naglalarawan ng buong lohika. Halimbawa, ang isang algorithm na nagpapasya tungkol sa mga pautang sa bangko ay maaaring gumawa ng isang output na nagsasabing "kung ikaw ay higit sa 18 at walang naunang utang, tatanggapin mo ang iyong pautang sa bangko." Ngunit maaaring mahirap gawin ito sa YouTube at iba pang mga site na gumagamit ng mga algorithm ng rekomendasyon, tulad ng teorya anumang video sa platform ay maaaring inirerekumenda sa anumang punto.

Ang isa pang makapangyarihang tool ay ang pagsubok sa algorithm at pag-awdit, na partikular na kapaki-pakinabang sa pag-diagnose ng mga bias na algorithm. Sa isang kamakailang kaso, natuklasan ng isang propesyonal na kumpanya ng resume-screening na ang algorithm nito unahin ang dalawang kadahilanan bilang pinakamahusay na prediktor ng pagganap ng trabaho: kung ang pangalan ng kandidato ay si Jared, at kung naglaro sila ng lacrosse sa high school. Ito ang mangyayari kapag ang machine ay napupunta hindi sinusuportahan.

Sa kasong ito, ang algorithm ng resume-screening ay napansin ang mga puting kalalakihan ay may mas mataas na posibilidad na umarkila, at natagpuan ang mga correlating proxy na mga katangian (tulad ng pagiging pinangalanan na Jared o paglalaro ng lacrosse) na naroroon sa mga kandidato na inuupahan. Sa pamamagitan ng YouTube, ang pag-audit ng algorithm ay maaaring makatulong na maunawaan kung anong mga uri ng mga video ang nauna nang inirerekomenda - at marahil ay makakatulong na husayin ang debate tungkol sa kung ang mga rekomendasyon sa YouTube ay nag-aambag sa radicalization o hindi.

Ang pagpapakilala ng mga counterfactual na paliwanag o paggamit ng pag-audit ng algorithm ay isang mahirap, magastos na proseso. Ngunit mahalaga, dahil ang kahalili ay mas masahol pa. Kung ang mga algorithm ay hindi napansin at hindi naayos, makakakita tayo ng isang unti-unting kilabot ng mga theorists ng pagsasabwatan at mga extremist sa aming media, at ang aming pansin ay kinokontrol ng sinumang makakapagbigay ng pinakinabangang nilalaman.Ang pag-uusap

Tungkol sa Author

Chico Q. Camargo, Postdoctoral Researcher sa Data Science, University of Oxford

Ang artikulong ito ay muling nai-publish mula sa Ang pag-uusap sa ilalim ng lisensya ng Creative Commons. Basahin ang ang orihinal na artikulo.