nagtitiwala sa ai 7 20
 Ang AI chatbots ay nagiging mas malakas, ngunit paano mo malalaman kung gumagana ang mga ito para sa iyong pinakamahusay na interes? 

Kung tatanungin mo si Alexa, ang voice assistant AI system ng Amazon, kung ang Amazon ay isang monopolyo, ito ay tumugon sa pamamagitan ng sinasabing hindi nito alam. Hindi gaanong kailangan para magawa ito bastusin ang iba pang tech giants, ngunit tahimik ito tungkol sa mga pagkakamali ng sariling corporate parent.

Kapag tumugon si Alexa sa ganitong paraan, halatang inuuna nito ang mga interes ng developer nito kaysa sa iyo. Gayunpaman, kadalasan, hindi masyadong halata kung sino ang pinaglilingkuran ng AI system. Upang maiwasang mapagsamantalahan ng mga sistemang ito, kakailanganin ng mga tao na matutunang lapitan ang AI nang may pag-aalinlangan. Iyon ay nangangahulugang sadyang pagbuo ng input na ibibigay mo dito at pag-iisip nang kritikal tungkol sa output nito.

Ang mga bagong henerasyon ng mga modelo ng AI, kasama ang kanilang mas sopistikado at hindi gaanong nauulit na mga tugon, ay nagpapahirap sa pagsasabi kung sino ang nakikinabang kapag nagsasalita sila. Ang pagmamanipula ng mga kumpanya sa Internet sa kung ano ang nakikita mo upang pagsilbihan ang kanilang sariling mga interes ay hindi na bago. Ang mga resulta ng paghahanap ng Google at ang iyong Facebook feed ay puno ng mga bayad na entry. Facebook, TikTok at ang iba ay minamanipula ang iyong mga feed upang i-maximize ang oras na ginugugol mo sa platform, na nangangahulugang mas maraming panonood ng ad, sa iyong kapakanan.

Ang pinagkaiba ng mga AI system mula sa iba pang mga serbisyo sa internet na ito ay kung gaano sila interactive, at kung paano magiging parang mga relasyon ang mga pakikipag-ugnayang ito. Hindi nangangailangan ng maraming extrapolation mula sa mga teknolohiya ngayon upang makita ang mga AI na magpaplano ng mga biyahe para sa iyo, makipag-ayos sa iyong ngalan o magsisilbing mga therapist at tagapagsanay sa buhay.


innerself subscribe graphic


Malamang na makakasama ka nila 24/7, kilala ka ng malapitan, at mahulaan ang iyong mga pangangailangan. Ang ganitong uri ng pakikipag-usap na interface sa malawak na network ng mga serbisyo at mapagkukunan sa web ay nasa loob ng mga kakayahan ng mga umiiral nang generative AI tulad ng ChatGPT. Sila ay nasa landas upang maging mga personalized na digital assistant.

Bilang isang eksperto sa seguridad at siyentipiko ng data, naniniwala kami na ang mga taong umaasa sa mga AI na ito ay kailangang magtiwala sa kanila nang tahasan upang mag-navigate sa pang-araw-araw na buhay. Nangangahulugan iyon na kakailanganin nilang tiyakin na ang mga AI ay hindi lihim na gumagana para sa ibang tao. Sa buong internet, ang mga device at serbisyong mukhang gumagana para sa iyo ay lihim nang gumagana laban sa iyo. Mga Smart TV tiktikan ka. Mga app sa telepono kolektahin at ibenta ang iyong data. Maraming mga app at website manipulahin ka sa pamamagitan ng madilim na mga pattern, mga elemento ng disenyo na sadyang linlangin, pilitin o linlangin ang mga bisita sa website. Ito ay surveillance kapitalismo, at ang AI ay humuhubog upang maging bahagi nito. Ang AI ay gumaganap ng isang papel sa surveillance kapitalismo, na nagmumula sa pag-espiya sa iyo upang kumita ng pera mula sa iyo.

Sa dilim

Malamang, maaaring mas malala ito sa AI. Para maging tunay na kapaki-pakinabang ang AI digital assistant na iyon, kailangan talaga nitong makilala ka. Mas mahusay kaysa sa kilala ka ng iyong telepono. Mas mahusay kaysa sa paghahanap sa Google na kilala ka. Mas mabuti, marahil, kaysa sa kilala ka ng iyong malalapit na kaibigan, matalik na kasosyo at therapist.

Wala kang dahilan para magtiwala sa mga nangungunang generative AI tool ngayon. Iwanan ang guni-guni, ang mga ginawang "katotohanan" na ginagawa ng GPT at iba pang malalaking modelo ng wika. Inaasahan namin na ang mga iyon ay higit na malilinis habang bumubuti ang teknolohiya sa susunod na ilang taon.

Ngunit hindi mo alam kung paano na-configure ang mga AI: kung paano sila sinanay, anong impormasyon ang ibinigay sa kanila, at anong mga tagubilin ang iniutos sa kanila na sundin. Halimbawa, ang mga mananaliksik natuklasan ang mga lihim na tuntunin na namamahala sa pag-uugali ng Microsoft Bing chatbot. Sa pangkalahatan, ang mga ito ay benign ngunit maaaring magbago anumang oras.

Gumagawa ng pera

Marami sa mga AI na ito ay nilikha at sinanay sa napakalaking gastos ng ilan sa mga pinakamalaking monopolyo sa teknolohiya. Inaalok ang mga ito sa mga tao na gamitin nang walang bayad, o sa napakababang halaga. Kakailanganin ng mga kumpanyang ito na pagkakitaan sila kahit papaano. At, tulad ng iba pang bahagi ng internet, na kahit papaano ay malamang na kasama ang pagsubaybay at pagmamanipula.

Imagine asking your chatbot to plan your next vacation. Pumili ba ito ng partikular na airline o hotel chain o restaurant dahil ito ang pinakamahusay para sa iyo o dahil nakakuha ng kickback ang gumawa nito mula sa mga negosyo? Tulad ng mga bayad na resulta sa paghahanap sa Google, mga newsfeed ad sa Facebook at mga bayad na placement sa mga query sa Amazon, ang mga bayad na impluwensyang ito ay malamang na maging mas palihim sa paglipas ng panahon.

Kung humihingi ka sa iyong chatbot para sa pampulitikang impormasyon, ang mga resulta ba ay skewing ng pulitika ng korporasyong nagmamay-ari ng chatbot? O ang kandidatong nagbayad nito ng pinakamaraming pera? O kahit na ang mga pananaw ng demograpiko ng mga tao na ang data ay ginamit sa pagsasanay sa modelo? Lihim bang double agent ang iyong AI agent? Sa ngayon, walang paraan upang malaman.

Mapagkakatiwalaan sa batas

Naniniwala kami na ang mga tao ay dapat umasa ng higit pa mula sa teknolohiya at ang mga tech na kumpanya at AI ay maaaring maging mas mapagkakatiwalaan. Iminungkahi ng European Union AI Act nagsasagawa ng ilang mahahalagang hakbang, na nangangailangan ng transparency tungkol sa data na ginagamit upang sanayin ang mga modelo ng AI, pagpapagaan para sa potensyal na bias, pagsisiwalat ng mga nakikinita na mga panganib at pag-uulat sa mga pamantayang pagsubok sa industriya. Ang European Union ay nagpapatuloy sa regulasyon ng AI.

Karamihan sa mga umiiral na AI hindi sumunod kasama nitong umuusbong na utos ng Europa, at, sa kabila kamakailang pag-uudyok mula sa Senate Majority Leader na si Chuck Schumer, malayong-malayo ang US sa naturang regulasyon.

Ang mga AI ng hinaharap ay dapat na mapagkakatiwalaan. Maliban kung at hangga't hindi naghahatid ang gobyerno ng matatag na mga proteksyon ng consumer para sa mga produkto ng AI, ang mga tao ay mag-iisa na hulaan ang mga potensyal na panganib at bias ng AI, at upang pagaanin ang kanilang pinakamasamang epekto sa mga karanasan ng mga tao sa kanila.

Kaya kapag nakakuha ka ng rekomendasyon sa paglalakbay o pampulitikang impormasyon mula sa isang AI tool, lapitan ito na may parehong pag-aalinlangan na gagawin mo sa isang billboard ad o isang campaign volunteer. Para sa lahat ng teknolohikal na wizardry nito, ang AI tool ay maaaring higit pa sa pareho.Ang pag-uusap

Tungkol sa Ang May-akda

Bruce Schneier, Adjunct Lecturer sa Pampublikong Patakaran, Harvard Kennedy School at Nathan Sanders, Affiliate, Berkman Klein Center para sa Internet at Lipunan, Harvard University

Ang artikulong ito ay muling nai-publish mula sa Ang pag-uusap sa ilalim ng lisensya ng Creative Commons. Basahin ang ang orihinal na artikulo.