国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

AI系統(tǒng)如何不遭人恨

2020-01-08 02:27齊夫·卡蒙羅姆·施里弗特克勞斯·韋滕布羅赫楊海洋
商業(yè)評論 2020年12期
關(guān)鍵詞:顧客人工智能消費者

齊夫·卡蒙 羅姆·施里弗特 克勞斯·韋滕布羅赫 楊海洋

大數(shù)據(jù)分析、機器學(xué)習(xí)、人工智能的結(jié)合是如今全球經(jīng)濟中最耀眼的閃光點。但也有人不看好人工智能應(yīng)用,第一個原因就是侵犯數(shù)據(jù)隱私。人工智能是靠數(shù)據(jù)驅(qū)動的,人們不清楚自動化技術(shù)掌握了什么隱私信息,也不明白了解到的信息要派什么用場,由此產(chǎn)生了擔(dān)憂和不安。

第二個原因就是侵犯用戶的自主決定權(quán)。當(dāng)顧客認為服務(wù)供應(yīng)商能夠基于他們過去的選擇,預(yù)測其未來傾向時,他們通常會選擇次優(yōu)方案。也就是說,消費者會有意違背自己的偏好,做出有悖于預(yù)測的選擇,以重建個人自主權(quán)。

企業(yè)要想開發(fā)不會引起顧客仇視的人工智能技術(shù),需做到以下幾點。

保護顧客的個性特點 自主權(quán)的一個重要方面就是個性。當(dāng)人們遇到問題需要幫助時,他們渴望得到人工客服的關(guān)注,而不喜歡機器人提供千篇一律的解決方案。人們在生病的時候也更希望見到醫(yī)生或護士,而不是具備醫(yī)護功能的機器人,因為他們覺得自己的病情有獨特的地方,機器考慮不到這種細微的個體差異。

不過人工智能的機器人可以小步推進,讓每一次互動變得人性化。在一項隨機對照測試中,如果算法對拒絕顧客交易的原因做了簡單說明,那么顧客撥打服務(wù)中心電話的可能性就會低于沒有任何解釋說明的情況。

保護顧客不愿被預(yù)測的自由 自由的一個主要方面就是個人可以改變想法,放棄一貫的行為模式。消費者越是覺得公司期待他們按照過去的選擇走出下一步(比如商家根據(jù)其購買記錄或瀏覽歷史,有針對性推送商品),就越想擺脫這樣的選擇定式。

謹(jǐn)慎選用推送措辭會有所幫助。如果把消費者行為描述成“前后一致”(表達正面含義),而不是“可預(yù)測”(傳遞負面含義),那么在消費者心里,這種對自主決定權(quán)的威脅可能就沒那么大。例如,消費者在亞馬遜上買了《指環(huán)王》系列叢書中的一兩本,那么接下來他們會收到邀請來“繼續(xù)領(lǐng)略托爾金的作品魅力”或“全面了解本套叢書”。這種推薦方式會無形地鼓勵他們按原先選定的道路前行,而不會迫使他們做出改變來彰顯自己的獨立自主性。

保護顧客的隱私 去年,《紐約時報》報道稱,美國至少有75家公司從多達2億部移動設(shè)備中收集極其精確的位置信息。美國東北大學(xué)的研究者發(fā)現(xiàn),有9,000多個安卓應(yīng)用得到授權(quán),可以調(diào)用所安裝設(shè)備上的麥克風(fēng)與照相機。

利用算法來推導(dǎo)人的行為,有時會很愚蠢,令人氣憤甚至心碎。2018年,一位任職于《華盛頓郵報》的視頻編輯流產(chǎn)了,但線上的孕婦產(chǎn)品廣告還是源源不斷地推送給她,一次又一次撕開她內(nèi)心的傷口。因為有了社交媒體,這類嚴(yán)重侵犯個人隱私的事情很容易就被公之于眾。企業(yè)應(yīng)當(dāng)小心謹(jǐn)慎,避免過度利用相關(guān)數(shù)據(jù)。

齊夫·卡蒙 羅姆·施里弗特 克勞斯·韋滕布羅赫 楊海洋

大數(shù)據(jù)分析、機器學(xué)習(xí)、人工智能(AI)的結(jié)合是如今全球經(jīng)濟中最耀眼的閃光點。根據(jù)麥肯錫全球研究團隊(McKinsey Global Research)的估算,到2030年,人工智能的使用給全球經(jīng)濟的貢獻總量將高達13萬億美元。對人類而言,人工智能帶來的非經(jīng)濟利益也同樣可觀,它能夠讓世界更加安全(減少毀滅性的人工錯誤),提高人們的生活質(zhì)量(開車、購物等單調(diào)重復(fù)事務(wù)占用時間更少)。很多人擔(dān)心即將到來的自動駕駛會給勞動力市場帶來顛覆性影響。即便如此,我們的生活總體來說還是會變得更好。

但并不是所有人都接受這一點。不看好人工智能應(yīng)用的預(yù)測主要集中在兩大領(lǐng)域,彼此關(guān)聯(lián)但相對獨立。第一項事關(guān)數(shù)據(jù)隱私。不管怎么說,人工智能是靠數(shù)據(jù)驅(qū)動的,人們不清楚自動化技術(shù)掌握了什么隱私信息,也不明白了解到的信息要派什么用場,由此產(chǎn)生的惶惑不安是可以理解的。數(shù)字時代的隱私問題已經(jīng)有人做了廣泛的研究和論述。相關(guān)企業(yè)正越來越關(guān)注如何減輕顧客的擔(dān)憂情緒。

然而,有一點許多企業(yè)還沒有認真考慮過,那就是自主性。盡管自動技術(shù)應(yīng)用的范圍很廣,而且會越來越廣,但如果超過一定限度,就會威脅到用戶的自主權(quán)與自由意志,換句話說,用戶是否還擁有自由選擇生活方式的決定權(quán)。最近一項研究發(fā)現(xiàn),當(dāng)顧客認為服務(wù)供應(yīng)商能夠基于他們過去的選擇,預(yù)測其未來傾向時,他們通常會選擇次優(yōu)方案。也就是說,消費者會有意違背自己的偏好,做出有悖于預(yù)測的選擇,以重建個人自主權(quán)。

技術(shù)與自由意志之間的沖突關(guān)系久已有之。費奧多爾·陀思妥耶夫斯基(Fyodor Dostoevsky)在1864年創(chuàng)作的小說《地下室手記》(Notes From Underground)中,借與社會疏離的主人公“地下人”之口對此做了描述。這位主人公認為,即使在一個烏托邦社會,人類也會做出反抗,目的只是想證明“人仍然是人,而非鋼琴琴鍵”。

不幸的是,技術(shù)對人的威脅可能會隨著技術(shù)創(chuàng)新的加速,以及自動設(shè)備不斷進入顧客生活的全新領(lǐng)域而進一步加劇。我們是在最近對哲學(xué)、營銷、經(jīng)濟以及其他一些領(lǐng)域的不同觀點做了調(diào)研之后得出上述結(jié)論的。但好消息是我們經(jīng)過分析,還提出了幾條建議,幫助企業(yè)開發(fā)不會引起顧客仇視的人工智能技術(shù)。這些建議可以分成以下三類。

保護顧客的個性特點

自主權(quán)的一個重要方面就是個性,個性的意思就是我們每個人都有與眾不同的核心特點,人與人不可能相互取代。這一思想在西方發(fā)達社會尤為突出(當(dāng)然也并不局限于西方)。但現(xiàn)在我們生活在算法的時代,算法可以根據(jù)大眾數(shù)據(jù)對個人的偏好與行為做出準(zhǔn)確預(yù)計,這對消費者的個性意識構(gòu)成了挑戰(zhàn)。

舉例來說,現(xiàn)在企業(yè)越來越多地使用人工智能驅(qū)動的客戶服務(wù)機器人,對顧客遇到的問題或咨詢提供基本答案。對許多顧客而言,這些機器人使用起來更方便,相比呼叫中心的客服代表,機器人服務(wù)對象更多,同時耗時更少。然而,有些消費者對人機互動還是抱有抵制態(tài)度。當(dāng)人們遇到問題,需要幫助時,許多人渴望得到人工客服的關(guān)注。他們可能是受到了早期技術(shù)低級、體驗不佳的影響,比如呼叫中心可能只是安排他們走完一套標(biāo)準(zhǔn)化的選項菜單,從不讓他們與人工客服對話。從更廣的范圍來看,許多人不喜歡這種標(biāo)準(zhǔn)化的做法,仿佛他們的問題都大同小異,完全可以用機器人來提供千篇一律的解決方案。

最近一項研究發(fā)現(xiàn)人們在生病的時候還是更希望見到醫(yī)生或護士,而不是具備醫(yī)護功能的機器人(即使有人告訴他們機器人診斷更加準(zhǔn)確),因為他們覺得自己的病情有獨特的地方,機器考慮不到這種細微的個體差異。(的確,相比一般的消費行為,醫(yī)療決策關(guān)系重大,但適用原則并無二致)

一部分技術(shù)派人士認為這個問題可以自然得到解決,因為人工智能應(yīng)用很快就能進化到讓消費者看不出人機差別的程度。但這種靠技術(shù)完善來解決問題的策略有時也會事與愿違。谷歌曾經(jīng)推出的虛擬助手Duplex能夠模仿人類說話,精度之高,令人稱奇,但很快就遭到公眾的撻伐。

不過如果設(shè)計手段正確,企業(yè)或許都不需要做特別的說服工作。比如,AI機器人可以小步推進,讓每一次互動變得人性化,從而消除用戶對于自主決定權(quán)受到侵犯的擔(dān)憂。有時候雖然只是一點點人性化改進,收效卻很明顯。2016年的一項研究發(fā)現(xiàn),消費者在選購一些像咖啡、水筆等產(chǎn)品時,如果制作者(人工咖啡師或企業(yè)代表)能喊出顧客的名字,一下子就能提高顧客對產(chǎn)品的親切感。另一些正在進行的研究發(fā)現(xiàn),在隨機對照測試中,如果算法對拒絕顧客交易的原因做了簡單說明,那么顧客撥打服務(wù)中心電話的可能性就會低于沒有任何解釋說明的情況。

同樣,企業(yè)可以設(shè)計一些互動環(huán)節(jié)(和AI機器人互動也行),讓用戶感覺自己對過程有控制權(quán),從而保護他們的個性。著名的宜家效應(yīng)也是基于此理,顧客買來平板包裝的家具組件,自己動手組裝,他們與所購商品之間由此產(chǎn)生了一種更加緊密的聯(lián)系。如果企業(yè)努力把互動做得無比順暢便捷,那么消費者就沒有機會表達自己的個性和自主權(quán),也無法加深與相關(guān)產(chǎn)品和服務(wù)的聯(lián)系。如果人工智能可以讓用戶感覺到自己的使用體驗與眾不同,那么就容易得到顧客的青睞。

有些企業(yè)可能想用模擬互動的方式來走捷徑,達到同樣的效果。在一項研究中,某個牙醫(yī)診所告訴病人在感覺疼痛的時候,可以通過按某個按鈕告知醫(yī)生。研究發(fā)現(xiàn)病人就醫(yī)過程中其實很少撳下按鈕,但擁有自主權(quán)的感覺著實讓疼痛有所緩解。

我們從這個實驗中知道,代表選擇權(quán)的控制桿,即使是擺設(shè),也能夠滿足人們擁有對環(huán)境控制權(quán)的愿望。但是一旦這種把戲被揭穿,絕大多數(shù)顧客不會喜歡被騙的感覺,因此控制效果無論多小,還是要有一些,這好過完全弄虛作假。說到底,在請顧客參與這件事上,做不做與怎么做,前者肯定更重要。

保護顧客不愿被預(yù)測的自由

自由的一個主要方面就是個人可以改變想法,放棄一貫的行為模式,用哲學(xué)家的話來說,就是“另辟蹊徑的自由”。對于人工智能的開發(fā)者而言,這個問題如影隨形,因為即使是最精細的機器學(xué)習(xí)算法也難以預(yù)測人類的任性作為。消費者越是覺得公司期待他們按照過去的選擇走出下一步(比如商家根據(jù)其購買記錄或瀏覽歷史,有針對性推送商品),就越想擺脫這樣的選擇定式。

謹(jǐn)慎選用推送措辭會有所幫助。我們正在進行的一些研究表明,如果把消費者行為描述成“前后一致”(表達正面含義),而不是“可預(yù)測”(傳遞負面含義),那么在消費者心里,這種對自主決定權(quán)的威脅可能就沒那么大??紤]到這種差異,企業(yè)在推薦商品時,如果以邀請顧客完成某項任務(wù),或獲得更多深層知識的形式提出來,那就不大容易激起顧客的反感。例如,消費者在亞馬遜上買了《指環(huán)王》(Lord of the Rings)系列叢書中的一兩本,那么接下來他們會收到邀請來“繼續(xù)領(lǐng)略托爾金(Tolkien)的作品魅力”或“全面了解本套叢書”。這種推薦方式會無形地鼓勵他們按原先選定的道路前行,而不會迫使他們做出改變來彰顯自己的獨立自主性。

話雖這么說,有時跳出舊習(xí)窠臼對消費者是最有利的。舉例來說,有一位近來對身體狀況非常在意的消費者出于健康考慮,減少了含糖蘇打水的攝入??墒钱?dāng)他回到家,發(fā)現(xiàn)亞馬遜根據(jù)他之前的購買記錄,利用算法自動為他訂購了之前鐘愛的品牌飲料,這時他可能覺得技術(shù)在瓦解他的意志力。同樣,一位煙民如果通過App提示或郵件了解到電子煙促銷信息,他可能會很氣憤,感覺戒煙更困難了。

但人工智能是系鈴人,也是解鈴人,它可以幫助消費者擺脫不好的舊習(xí),提升他們的自主意識和消費忠誠度。的確,我們所做的研究認為,算法經(jīng)過訓(xùn)練可以找到那些計劃有所改變,讓自己更加積極健康,但落實到行動還需要一點點推動的人。這類消費者的購買行為特別能說明問題,研究者將其定義為“預(yù)承諾”。舉例來說,有些消費者擔(dān)心自己意志力不夠,抵御不住誘惑,于是他們會給自己做規(guī)矩,提高犯錯的難度和代價。比如,“預(yù)承諾”的消費者為了減少食用垃圾食品,不再購買那些性價比高的大包裝零食,而改選那些小包裝、單價高的同類商品。還可以再舉一個有代表性的例子,有些設(shè)定了高難度目標(biāo)的人會到stickK.com網(wǎng)站上尋求承諾兌現(xiàn)工具,提高因堅持不下去而付出的代價。

如果消費者傳遞出了“預(yù)承諾”信號,而公司想加以利用,那該怎么做?它們可以設(shè)計一種算法找到這部分消費者,用更加正規(guī)、嚴(yán)謹(jǐn)?shù)倪x項,幫助他們持續(xù)改善生活方式。同時對于下決心要有所改變的消費者,公司還可以助推一把,鼓勵他們將長期目標(biāo)和更高的生活愿望公之于眾。當(dāng)然,提建議要考慮用戶感受,要用明確的語言告訴用戶,這并非必選項,任何時候都可以禁用或刪除。當(dāng)人們開始使用這一產(chǎn)品或服務(wù)平臺時,人工智能還可以發(fā)現(xiàn)在哪些關(guān)鍵節(jié)點,消費者會更愿意嘗試相關(guān)選擇,從而與他們之前聲明的長期目標(biāo)保持一致。

研究顯示,當(dāng)人們審視自己的行為時,他們會更加趨近于自己內(nèi)心根深蒂固的偏好。一項針對美國選民的調(diào)查發(fā)現(xiàn),盡管許多選民認為“政策包含什么內(nèi)容”比“哪個政黨支持某項政策”更重要,更值得考慮,但在投票時,他們還是會選擇政黨。這時如果有人要求他們再仔細考慮究竟該把票投給“政策”還是“政黨”,他們又可能轉(zhuǎn)變?yōu)楦鶕?jù)政策內(nèi)容來做決定,因為這樣更符合他們真正的偏好。選民只需對自己的投票行為多些反思,就會更理解自己做選擇的方式。一個根據(jù)消費者過去習(xí)慣訓(xùn)練而成的算法是發(fā)現(xiàn)不了這種可能性的。因此,人工智能除了要讓消費者意識到并表達“另辟蹊徑”的自由,幫助他們將種種選擇變得簡單明了,還要給消費者更多機會宣示他們的抱負,或者說“底層偏好”,從而造福他們。

保護顧客的隱私

隱私和自主權(quán)是相對獨立但又彼此重疊的關(guān)聯(lián)概念。在人們想做一些事情,又不希望別人知道的時候,如果必要的保密做不到,那么當(dāng)事人的決定肯定會受到影響。沒有一定程度的隱私,獨立自主的人就會感到不安全。臉書、谷歌以及其他互聯(lián)網(wǎng)公司都提供了隱私設(shè)置,算是對隱私有了一丁點兒保護,當(dāng)然前提是用戶知道如何操作這一設(shè)置。

從更普遍的意義而言,互聯(lián)網(wǎng)模糊了個人公共歸屬和私人領(lǐng)域的界限。我們拿著數(shù)字設(shè)備工作的同時,一些個人信息自動傳遞了出去,包括谷歌搜索、約會軟件Tinder配對、YouTube瀏覽、Siri問詢、Alexa請求,以及我們在線做的一切,所有這些都有可能被攔截、被利用,給我們造成不利影響。盡管如此,我們還是心無掛礙地向手里的設(shè)備吐露心聲。這一方面證明了當(dāng)今工程師、設(shè)計師善于誘惑人心,另一方面也表明人類容易對一些問題熟視無睹,哪怕它們越來越觸目驚心,直到臨界點的出現(xiàn)。

現(xiàn)在我們已經(jīng)過了這個臨界點,因為人們越來越意識到,個人網(wǎng)上隱私所面臨的威脅不僅僅來自那些網(wǎng)絡(luò)罪犯。去年,《紐約時報》(The New York Times)報道稱,美國至少有75家公司從多達2億部移動設(shè)備中收集極其精確的位置信息,個人用戶每天被追蹤的次數(shù)多達1.4萬次。美國東北大學(xué)(Northeastern University)的研究者發(fā)現(xiàn),有9,000多個安卓應(yīng)用得到授權(quán),可以調(diào)用所安裝設(shè)備上的麥克風(fēng)與照相機。研究人員還發(fā)現(xiàn)有些應(yīng)用程序可以隨意獲取用戶的個人活動數(shù)據(jù),并且把這部分?jǐn)?shù)據(jù)傳輸給第三方。

最近美國聯(lián)邦貿(mào)易委員會(U.S. Federal Trade Commission)對YouTube處以1.7億美元的罰款,因為后者收集了不滿13歲的兒童個人信息,用于優(yōu)化在線廣告的推送。

利用算法來推導(dǎo)人的行為,有時會很愚蠢,令人氣憤甚至心碎。2018年,一位任職于《華盛頓郵報》(The Washington Post)的視頻編輯流產(chǎn)了,但線上的孕婦產(chǎn)品廣告還是源源不斷地推送給她,一次又一次撕開她內(nèi)心的傷口。

因為有了社交媒體,這類嚴(yán)重侵犯個人隱私的事情很容易就被公之于眾。如果哪家公司的人工智能解決方案最終給消費者造成了情感上的傷害,那么它也會反受其害。

由于對數(shù)字化隱私的關(guān)切已經(jīng)到了臨界點,力量的天平正在從科技公司向用戶傾斜。歐盟的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation, GDPR)就是一個很好的例子。我們的建議是,面對趨勢轉(zhuǎn)變,公司不應(yīng)該抗拒,而應(yīng)該積極擁抱變化,主動尋找辦法讓用戶對于個人數(shù)據(jù)的使用擁有更大的掌控權(quán)。蘋果公司(Apple)CEO蒂姆·庫克(Tim Cook)已經(jīng)把妥善處理顧客隱私作為品牌差異化的重要手段。如果措施得當(dāng),更平等、更透明的隱私政策將讓所有人受益。

保護好隱私和自主權(quán),需要人們重新思考敏感信息如何得來,最終用途何在。盡管發(fā)生了幾樁臭名昭著的侵權(quán)事件,但算法在互聯(lián)網(wǎng)搜索、社交媒體點贊等信息輸入的基礎(chǔ)上,將會越來越準(zhǔn)確地預(yù)測出用戶所需。企業(yè)應(yīng)當(dāng)小心謹(jǐn)慎,避免過度利用相關(guān)數(shù)據(jù),它們還是要繼續(xù)讓用戶感到喜歡什么是自己的事,而且別人不會知道。

一項正在進行的研究項目顯示,消費者如果覺得自己在做決定時,一直受到監(jiān)視,他就會認為他的自主決定權(quán)受到了嚴(yán)重威脅。相比之下,已決定好的事情,別人把它透露出去,這給當(dāng)事人帶來的影響則要輕微一些。有鑒于此,當(dāng)給顧客推薦商品時,說“根據(jù)您之前的購買記錄”要比“根據(jù)您之前的瀏覽歷史”好一些,前者對消費者自主意識的威脅要小。我們的研究發(fā)現(xiàn),對消費者而言,跟蹤已經(jīng)完成的購買(相當(dāng)于公開表達對某些產(chǎn)品和服務(wù)的需求)相對公平,而界定模糊的在線監(jiān)控則有失公平。

安撫“地下人”

讓我們把話說明白:我們并不認為基于算法的創(chuàng)新應(yīng)該停止前進,或放慢腳步。相反,我們的觀點是,有了這些新技術(shù),人們的生活與經(jīng)濟發(fā)展才不斷得以改善,其影響之深遠,已超出人們的想象。

但是,公眾對技術(shù)越來越心存恐懼和顧慮,互聯(lián)網(wǎng)企業(yè)不能對此再不聞不問。人類需要自主決定權(quán),但技術(shù)對此構(gòu)成了威脅。如果科技行業(yè)解決不了這個問題,就可能會激起消費者的持續(xù)憤怒,并招致后續(xù)的嚴(yán)格監(jiān)管。例如,現(xiàn)在越來越多的政府官員要求算法有更高的透明度,這將是對創(chuàng)新的強大約束。相比之下,我們在本文中提出的幾項用于保護自主決定權(quán)的措施則要溫和得多。

激進的變革并無必要。但如果只是把一兩件小事的控制權(quán)交到消費者手里,那也明顯不夠。借用陀思妥耶夫斯基的話來說,要真正將“地下人”安撫好,我們要避免有任何舉動威脅到人們對自主決定權(quán)的需求,同時把一些旨在幫助用戶重獲自我意識的應(yīng)用特點與功能整合起來,避免使人淪為鋼琴琴鍵。

猜你喜歡
顧客人工智能消費者
“一站式”服務(wù)滿足顧客
消費者網(wǎng)上購物六注意
人工智能與就業(yè)
知識付費消費者
悄悄偷走消費者的創(chuàng)意
悄悄偷走消費者的創(chuàng)意
以顧客為關(guān)注焦點
顧客是我們的上帝品質(zhì)是顧客的需求
永安市| 西充县| 松桃| 拉孜县| 巴东县| 西峡县| 绍兴县| 黄陵县| 万安县| 格尔木市| 从江县| 关岭| 囊谦县| 绥中县| 开平市| 武鸣县| 玉溪市| 苍溪县| 榆中县| 甘谷县| 古蔺县| 兰考县| 正镶白旗| 孝义市| 朝阳区| 衡山县| 保德县| 望谟县| 云和县| 呈贡县| 昌黎县| 九江市| 老河口市| 邢台县| 滁州市| 东阿县| 屏山县| 贵港市| 奉节县| 蓝山县| 周口市|