deepfake voice scam 7 18
 Ang pag-clone ng boses ng isang tao ay mas madali kaysa dati. D-Keine/iStock sa pamamagitan ng Getty Images

Kakauwi mo lang pagkatapos ng mahabang araw sa trabaho at uupo na sana para sa hapunan nang biglang tumunog ang iyong telepono. Sa kabilang dulo ay isang mahal sa buhay, marahil isang magulang, isang bata o isang kaibigan sa pagkabata, na nagmamakaawa sa iyo na magpadala sa kanila ng pera kaagad.

Nagtatanong ka sa kanila, sinusubukan mong maunawaan. May kakaiba sa kanilang mga sagot, na maaaring malabo o wala sa karakter, at kung minsan ay may kakaibang pagkaantala, halos parang sila ay nag-iisip nang kaunti. Gayunpaman, sigurado ka na tiyak na iyong mahal sa buhay ang nagsasalita: Iyan ang boses nila na iyong naririnig, at ipinapakita ng caller ID ang kanilang numero. Dahil sa kakaiba sa kanilang panic, masunurin mong ipinadala ang pera sa bank account na ibinibigay nila sa iyo.

Kinabukasan, tatawagan mo silang muli upang matiyak na maayos ang lahat. Ang iyong minamahal ay walang ideya kung ano ang iyong pinag-uusapan. Iyon ay dahil hindi ka nila tinawagan – nalinlang ka ng teknolohiya: isang voice deepfake. Libu-libong tao noon na-scam sa ganitong paraan noong 2022.

Ang kakayahang i-clone ang boses ng isang tao ay lalong maaabot ng sinumang may computer.


innerself subscribe graphic


 

As seguridad sa computer mananaliksik, nakikita namin na ang mga patuloy na pag-unlad sa mga algorithm sa malalim na pagkatuto, pag-edit ng audio at engineering, at pagbuo ng synthetic na boses ay nangangahulugang lalong posible na nakakumbinsi na gayahin ang boses ng isang tao.

Ang mas masahol pa, ang mga chatbot tulad ng ChatGPT ay nagsisimula nang bumuo ng mga makatotohanang script na may mga adaptive na real-time na tugon. Sa pamamagitan ng pagsasama-sama ng mga teknolohiyang ito sa pagbuo ng boses, ang isang deepfake ay napupunta mula sa pagiging isang static na pag-record tungo sa isang live, parang buhay na avatar na nakakakumbinsi na magkaroon ng isang pag-uusap sa telepono.

Pag-clone ng boses

Ang paggawa ng nakakahimok na de-kalidad na deepfake, video man o audio, ay hindi ang pinakamadaling gawin. Nangangailangan ito ng maraming masining at teknikal na kasanayan, malakas na hardware at medyo mabigat na sample ng target na boses.

Mayroong dumaraming bilang ng mga serbisyong nag-aalok sa gumawa ng katamtaman hanggang sa mataas na kalidad na voice clone para sa isang bayad, at ang ilang voice deepfake na tool ay nangangailangan ng sample ng isang minuto lang, o kahit na ilang segundo lang, para makagawa ng voice clone na maaaring sapat na kapani-paniwala para lokohin ang isang tao. Gayunpaman, upang kumbinsihin ang isang mahal sa buhay - halimbawa, na gumamit sa isang panggagaya na scam - malamang na kakailanganin ito ng mas malaking sample.

Nagawa ng mga mananaliksik na i-clone ang mga boses na may kasing liit na limang segundo ng pag-record.

 

Pagprotekta laban sa mga scam at disinformation

Sa lahat ng sinabi, kami sa DeFake Project ng Rochester Institute of Technology, ang Unibersidad ng Mississippi at Michigan State University, at iba pang mga mananaliksik ay nagsusumikap nang husto upang matukoy ang mga video at audio deepfake at limitahan ang pinsalang dulot ng mga ito. Mayroon ding mga prangka at pang-araw-araw na pagkilos na maaari mong gawin upang protektahan ang iyong sarili.

Para sa starters, voice phishing, o "vishing," ang mga scam tulad ng inilarawan sa itaas ay ang pinakamalamang na voice deepfakes na maaari mong maranasan sa pang-araw-araw na buhay, sa trabaho at sa bahay. Noong 2019, isang ang kumpanya ng enerhiya ay na-scam mula sa US$243,000 nang gayahin ng mga kriminal ang boses ng amo ng parent company nito para utusan ang isang empleyado na maglipat ng pondo sa isang supplier. Noong 2022, ang mga tao ay nadaya mula sa tinatayang $11 milyon sa pamamagitan ng mga kunwa na boses, kabilang ang malapit, personal na mga koneksyon.

Ano ang kaya mong gawin?

Mag-ingat sa mga hindi inaasahang tawag, kahit na mula sa mga taong lubos mong kilala. Hindi ito nangangahulugan na kailangan mong iiskedyul ang bawat tawag, ngunit nakakatulong ito na mag-email man lang o mag-text nang maaga. Gayundin, huwag umasa sa caller ID, dahil na maaaring pekeng, masyadong. Halimbawa, kung nakatanggap ka ng tawag mula sa isang taong nagsasabing kinakatawan mo ang iyong bangko, ibaba ang tawag at direktang tawagan ang bangko upang kumpirmahin ang pagiging lehitimo ng tawag. Tiyaking gamitin ang numerong isinulat mo, na-save sa iyong listahan ng mga contact o na mahahanap mo sa Google.

Bukod pa rito, mag-ingat sa iyong personal na impormasyon sa pagkakakilanlan, tulad ng iyong numero ng Social Security, address ng tahanan, petsa ng kapanganakan, numero ng telepono, gitnang pangalan at maging ang mga pangalan ng iyong mga anak at alagang hayop. Maaaring gamitin ng mga scammer ang impormasyong ito upang gayahin ka bilang mga bangko, rieltor at iba pa, pinapayaman ang kanilang mga sarili habang binabakrap ka o sinisira ang iyong kredito.

Narito ang isa pang payo: kilalanin ang iyong sarili. Sa partikular, alamin ang iyong intelektwal at emosyonal na mga bias at kahinaan. Ito ay magandang payo sa buhay sa pangkalahatan, ngunit ito ay susi upang maprotektahan ang iyong sarili mula sa pagiging manipulahin. Ang mga scammer ay karaniwang naghahangad na suss out at pagkatapos ay biktima sa iyong mga pinansiyal na pagkabalisa, ang iyong pampulitikang attachment o iba pang mga hilig, anuman iyon.

Ang pagiging alerto na ito ay isa ring disenteng depensa laban sa disinformation gamit ang voice deepfakes. Maaaring gamitin ang mga deepfakes para samantalahin ang iyong confirmation bias, o kung ano ang hilig mong paniwalaan tungkol sa isang tao.

Kung nakarinig ka ng isang mahalagang tao, mula sa iyong komunidad o gobyerno, na nagsasabi ng isang bagay na tila hindi karaniwan para sa kanila o nagpapatunay ng iyong pinakamasamang hinala sa kanila, matalino kang mag-ingat.Ang pag-uusap

Tungkol sa Ang May-akda

Mateo Wright, Propesor ng Computing Security, Rochester Institute of Technology at Christopher Schwartz, Postdoctoral Research Associate ng Computing Security, Rochester Institute of Technology

Ang artikulong ito ay muling nai-publish mula sa Ang pag-uusap sa ilalim ng lisensya ng Creative Commons. Basahin ang ang orihinal na artikulo.