Ano ang mga Deepfake Video At Detecting They Blink Ng Isang Mata

Ang isang bagong paraan ng maling impormasyon ay nakakaapekto sa pagkalat sa pamamagitan ng mga online na komunidad habang ang mga kampanya ng halalan sa 2018 ay nagpapainit. Tinatawag na "deepfakes" pagkatapos ng pseudonymous online account na nagpapalaganap ng pamamaraan - na maaaring napili ang pangalan nito dahil ang proseso ay gumagamit ng isang teknikal na pamamaraan na tinatawag na "malalim na pag-aaral" - ang mga pekeng video na mukhang napaka makatotohanang.

Sa ngayon, ginagamit ng mga tao ang mga malalim na video sa bomba at uyam upang ipakita na ang mga sikat na tao ay gumagawa ng mga bagay na hindi nila normal.

Ngunit ito ay tiyak na tiyak Ang mga deepfake ay lilitaw sa panahon ng kampanya, na sinasabing ilarawan ang mga kandidato pagsasabi ng mga bagay o pagpunta lugar ang tunay na kandidato ay hindi.

Ito ay Barack Obama - o ito ba?

{youtube}cQ54GDm1eL0{/youtube}

Dahil ang mga pamamaraan na ito ay bago, ang mga tao ay nagkakaroon ng suliranin na nagsasabi ng pagkakaiba sa pagitan ng mga tunay na video at mga video ng malalim. Aking trabaho, kasama ang aking kasamahan na si Ming-Ching Chang at ang aming Ph.D. mag-aaral Yuezun Li, ay natagpuan ng isang paraan upang mapagkakatiwalaan sabihin ang mga tunay na video mula sa malalim na mga video. Ito ay hindi isang permanenteng solusyon, dahil ang teknolohiya ay magpapabuti. Ngunit ito ay isang panimula, at nag-aalok ng pag-asa na ang mga computer ay maaaring makatulong sa mga tao sabihin ang katotohanan mula sa fiction.


innerself subscribe graphic


Ano pa ang 'deepfake'?

Ang paggawa ng malalim na video ay tulad ng pagsalin sa pagitan ng mga wika. Mga serbisyo tulad ng Google translate gamitin ang pag-aaral ng machine - pagtatasa ng computer ng libu-libong mga teksto sa maramihang wika - sa makita ang mga pattern ng paggamit ng salita na ginagamit nila upang lumikha ng pagsasalin.

Gumagana ang mga algorithm ng deepfake sa parehong paraan: Gumagamit sila ng isang uri ng sistema ng pag-aaral ng makina na tinatawag na a malalim na neural network upang suriin ang mga paggalaw ng mukha ng isang tao. Pagkatapos ay tinutulak nila ang mga larawan ng mukha ng ibang tao na gumagawa ng mga analogong paggalaw. Ang paggawa nang gayon ay epektibong lumilikha ng isang video ng target na taong lumilitaw na gawin o sasabihin ang mga bagay na ginawa ng pinagmulan ng tao.

Gaano kalaki ang mga video.

{youtube}8LhI-e2B8Lg{/youtube}

Bago sila makapagtrabaho nang maayos, ang mga malalim na neural network ay nangangailangan ng maraming impormasyon sa pinagmulan, tulad ng mga larawan ng mga tao na pinagmumulan o target ng pagpapanggap. Ang mas maraming mga imahe na ginagamit upang sanayin ang isang deepfake algorithm, mas makatotohanang ang digital na pagpapanggap ay magiging.

Detecting blinking

Mayroon pa ring mga kakulangan sa bagong uri ng algorithm na ito. Ang isa sa mga ito ay may kinalaman sa kung paano ang simulate ang mga mukha blink - o hindi. Ang malulusog na mga adult na tao ay kumikislap sa isang lugar sa pagitan ng bawat segundo 2 at 10, at ang isang solong blink ay tumatagal sa pagitan ng isang-ikasampu at apat na-ikasampu ng isang segundo. Iyan ang magiging normal na makita sa isang video ng isang taong nagsasalita. Ngunit hindi ito ang nangyayari sa maraming malalim na video.

Ang isang tunay na taong blink habang nagsasalita.

{youtube}https://www.youtube.com/watch?v=-MMXXEA3UaM{/youtube}

Ang simulate na mukha ay hindi kumurap sa paraan ng isang tunay na tao.

{youtube}EttSA9-YIuI{/youtube}

Kapag ang isang deepfake algorithm ay sinanay sa mga imahe ng mukha ng isang tao, umaasa ito sa mga larawan na magagamit sa internet na maaaring magamit bilang data ng pagsasanay. Kahit na para sa mga taong madalas na nakuhanan ng larawan, ilang mga larawan ang magagamit sa online na nagpapakita ng kanilang mga mata sarado. Hindi lamang ang mga larawan tulad ng bihira na - dahil ang mga mata ng mga tao ay bukas sa halos lahat ng oras - ngunit hindi karaniwang inilalabas ng mga photographer ang mga larawan kung saan ang mga mata ng mga pangunahing paksa ay isinara.

Kung walang pagsasanay na mga larawan ng mga tao na kumikislap, ang malalim na mga algorithm ay mas malamang na lumikha ng mga mukha na normal na blink. Kapag namin kalkulahin ang kabuuang rate ng kumikislap, at ikinukumpara na sa natural na saklaw, natagpuan namin na ang mga character sa deepfake video blink ng maraming mas madalas sa paghahambing sa mga totoong tao. Ang aming pananaliksik ay gumagamit ng machine learning sa suriin ang pagbukas ng mata at pagsara sa mga video.

Nagbibigay ito sa amin ng isang inspirasyon upang makita ang mga malalim na video. Sa dakong huli, nagkakaroon kami ng paraan upang makita kung ang tao sa video ay kumikislap. Upang maging mas tiyak, ini-scan nito ang bawat frame ng isang video na pinag-uusapan, nakikita ang mga mukha nito at pagkatapos ay awtomatikong tinutukoy ang mga mata. Pagkatapos nito ay gumagamit ng isa pang malalim na neural network upang matukoy kung ang nakitang mata ay bukas o malapit, gamit ang hitsura ng mata, mga tampok na geometric at kilusan.

Alam namin na ang aming trabaho ay sinasamantala ng isang kapintasan sa uri ng data na magagamit upang sanayin ang mga algorithm ng deepfake. Upang maiwasan ang pagbagsak sa isang katulad na kapintasan, sinanay namin ang aming system sa isang malaking library ng mga larawan ng parehong mga bukas at saradong mata. Ang pamamaraan na ito ay tila gumagana nang maayos, at bilang isang resulta, nakamit namin ang isang paglipas ng 95 porsiyento detection rate.

Hindi ito ang pangwakas na salita sa tiktik ng mga deepfake, siyempre. Ang teknolohiya ay mabilis na pagpapabuti, at ang kumpetisyon sa pagitan ng pagbuo at pagtuklas ng mga pekeng video ay kahalintulad sa laro ng chess. Sa partikular, ang kumikislap ay maaaring idagdag sa malalim na mga video sa pamamagitan ng pagsasama ng mga imahe ng mukha na may mga closed eye o paggamit ng mga sequence ng video para sa pagsasanay. Ang mga taong gustong malito ang publiko ay magiging mas mahusay sa paggawa ng mga maling video - at kami at ang iba pa sa komunidad ng teknolohiya ay kailangang patuloy na maghanap ng mga paraan upang makita ang mga ito.Ang pag-uusap

Tungkol sa Ang May-akda

Siwei Lyu, Associate Professor ng Computer Science; Direktor, Computer Vision at Machine Learning Lab, University sa Albany, State University of New York

Ang artikulong ito ay orihinal na na-publish sa Ang pag-uusap. Basahin ang ang orihinal na artikulo.

Mga Kaugnay Books

at InnerSelf Market at Amazon