劉德寰
人工智能就像一個科學怪人,你可以從技術的角度說它是一個天才,但也可以從人性的角度說它是一個毀滅人性的東西。智能到底能帶來什么?
實際上我們已經大規(guī)模地開始了信息搜集,但是好在目前基本都是奔著商業(yè)去的,還沒有把社會學、心理學、生命科學、政治學、法學這些專家的觀點都放進去。我自己做過幾個大數據的研究,發(fā)現每嵌入一個學科的思想時,模型的展現方式是完全不同的。
最可怕的是模擬人性,這不是技術問題,是道德問題。就如克隆出一個人,在技術上沒問題,但在道德上有巨大的風險。
現在可看到的最可怕的機器人能模擬女性思維。我們知道任何一個女性都是一個大數據分析終端,可以迅速把幾個感知點連在一起做出決策,她的特點是情感導向、多信息、非線性、快速決策,而且有更多的感覺。如果把這些放到機器上,大家可以想象后果是什么。
我有一個非常杞人憂天的考慮:如果我們根據腦科學、生命科學、心理學、社會學、傳播學等等這些理論模型,探討出人類思考的密碼,人類估計就會走向毀滅,因為這本身太可怕了??墒?,以現在的速度、計算能力和人類自古以來的好奇心,這事還真有可能出來。
有一本書《過度互聯(lián)》給我很大的啟發(fā):過度互聯(lián)本身會帶來過度風險。一旦我們的生活跟這些所有的東西聯(lián)結在一起,也就是所謂物聯(lián)網,這個網絡就綁架我們的一切,帶來整體性安全事件的可能性就會比較大。我們知道紐約大停電造成的影響,也知道日本核電站。論證的時候,誰不說是安全的?所以大家記住,這不是一個人類能夠判斷的問題。一旦形成這種過度的東西,它帶來的風險是非常大的。
過度互聯(lián)帶來的另外一個問題,是讓我們喪失與生俱來的能力,我們會被機器裹脅,手的病、胳膊的病……很多病會增加,會帶來社會成本的上升。
在過度互聯(lián)中,實際上出現了一個純社會性話題,也就是所謂的社會風險。你會發(fā)現,現在在輿論場上能獨立思考的人越來越少,很多人判斷問題都是直線思維,泄憤、侵犯隱私……生活在網絡上時間長了,精神上可能會出現問題,因為你看到的都是不好的事兒,最可怕的是謠言的危害,而現在利用謠言來牟利已成為常態(tài)。
人類真的無法避免這件事情嗎?我覺得,人們在規(guī)避它,人不可能線性化地去順應這個趨勢?,F在非常常見的一種說法是:“離開設備,讓時間靜止一會兒?!蔽磥砘ヂ?lián)到一定程度的時候,會有越來越多多的人想讓時間靜止一會兒。就像在人類發(fā)展過程中出現的都市化和反都市化,是一致的。人類一定會從一些角度去順應互聯(lián)時代的一些基本特征,讓那些美麗的商業(yè)模型和不被“記錄”的人性并存。
還有一點,現在中國的數據和世界的數據一樣,都號稱“全”,實際上都是“孤島”。騰訊只有騰訊的數據,騰訊會有阿里的數據嗎,會有百度的數據嗎?所以,任何一個數據都是“孤島”,你就無法模擬完整的軌跡。數據產業(yè)是一個非常尷尬的產業(yè)。我做過900萬用戶、半年的移動互聯(lián)網的行為,夠多了,夠大了,但是它是短時間。別忘了,從人性的角度來講,我們做任何一個判斷,實際上是一個長時效果——根據我們自己腦袋里信息的沉積做出判斷。而數據的尷尬恰恰使得未來出現的模擬人性的這種機器,可能就是幾歲孩子的智商,很難模擬出一個愛因斯坦。
所以,要發(fā)揮人工智能的所有能力,讓我們的生活更好,就要控制這個科學怪人的心思,如果不控制涉及人性的部分,人類的風險是非常高的。謝謝。