陳傳智(北京大學信息科學技術學院 北京 100000)
在網絡游戲中,PVP最重要的形式之一就是1v1競技場(以下簡稱競技場)。競技場系統(tǒng)中玩家的實力各不相同,實力強的玩家遇到實力弱的玩家時有著更高的獲勝概率,因此往往由系統(tǒng)匹配實力相近的玩家進行游戲。
從玩家的參與方式角度,可以大體將競技場系統(tǒng)分為兩種:
(1)在線PVP,多見于強調競技性的游戲,需要在雙方玩家都在線的情況下讓雙方玩家進行競技對戰(zhàn)。在勝者獲得積分的同時,敗者也將失去積分。
(2)離線PVP,多見于頁游和不強調競技性的游戲,由一方玩家單方面發(fā)起挑戰(zhàn),另一方玩家無法直接參與到對戰(zhàn)之中。只有挑戰(zhàn)者會獲得或失去積分,系統(tǒng)會對玩家一段時間內發(fā)起挑戰(zhàn)的次數(shù)進行限制。
接下來以離線PVP為例子進行討論。
根據(jù)上一部分中的內容,可以寫出競技場模擬系統(tǒng)的程序。假設每個玩家對別的玩家發(fā)起挑戰(zhàn)的總次數(shù)都是M,玩家總數(shù)為N,數(shù)據(jù)存儲方式為鏈表,則該程序的時間復雜度為O(N^2*M),空間復雜度為O(N)。由于篇幅等原因,這里不給出程序代碼。
為了判斷PVP系統(tǒng)的合理性,引入“玩家排名方差”這一概念,計算每個玩家的(實力排名-最終排名)的平方之和,在開平方根之后除以玩家總數(shù)。在玩家總數(shù)不變的情況下,這個值越小,就代表著每個人的最終排名和其實際實力越相符。
在模擬系統(tǒng)中,計算勝利概率和計算積分變化的函數(shù)根據(jù)實際需求而定。關于這方面,在雙方條件基本對等的PVP對戰(zhàn)中可以使用Elo Rating System,這里不再詳述。不過,由于該系統(tǒng)成立的前提是雙方條件對等,所以并不適用于含有角色培養(yǎng)等要素的游戲,下面的部分將對不適用Elo系統(tǒng)的一些競技場系統(tǒng)進行模擬。
假設有以下情境:一個有著離線PVP競技場的游戲的玩家共1000人,實力為1000~1。系統(tǒng)每次匹配兩個排名差距不超過100的玩家進行對戰(zhàn),實力高的玩家獲勝的概率為50%+實力差*0.2%,勝利積分+100,失敗 -100。
3.1 PVP場次的設計。假設每個玩家一共進行X次PVP,則可以通過程序模擬的手段找出X的值和玩家排名方差的關系曲線。每個X進行十次模擬,計算玩家排名方差的平均值,得出的部分結果為:
X 40 50 60 70 80 90 100方差2.40 2.28 2.11 2.01 1.92 1.91 1.83
可以看出,從X=70~80左右開始,X的值每增加10%,方差降低的數(shù)值已經小于其本身的5%了,可以認為75場左右的PVP就已經有非常高的準確度來分辨一個玩家的實力程度了。
3.2PVP積分規(guī)則的設計。為了游戲的公平,可以令勝者獲得的積分不是固定值,而是戰(zhàn)勝越強的對手積分越多。假設在A對B的對戰(zhàn)中,A能夠獲得的積分公式為Sa=對戰(zhàn)結果*[100+(A的排名-B的排名)*k],也就是基礎獲得100積分,A勝利時對戰(zhàn)結果取1,失敗?。?。如此改變模擬系統(tǒng)中的分數(shù)計算公式,對局數(shù)設定為80,每個k進行20次模擬,計算玩家排名方差的平均值,得出的部分結果為:
k 0 0.05 0.1 0.15 0.2 0.25 0.3方差1.94 1.94 1.91 1.91 1.95 1.95 2.00
由數(shù)據(jù)可以看出兩點:
從Culpeper的不禮貌框架考量,大可媽媽直截了當?shù)拿孀油{行為,很好地呈現(xiàn)了直接不禮貌策略。大可媽媽對于羅佳不恰當?shù)纳矸輼俗R(“小東西”)的使用則是體現(xiàn)了積極的不禮貌策略。多種不禮貌策略的同時使用,在某些語境下,涉及到積極面子和消極面子的需求。以上對話中,說話人大可媽媽使用了該策略攻擊聽話人羅佳的積極面子,忽略了聽話人羅佳所需要的承認和喜愛,故意傳達給對方不合作、不喜歡的信號。
(1)k的值存在一個大于0的最優(yōu)取值,在本情境中的最佳k值大概為0.1~0.15左右。
(2)k的變化對分辨玩家實力的準確程度的貢獻沒有場次那么明顯。
3.3特殊要素對勝率的影響。在實際情況中,玩家對戰(zhàn)的勝率期望值并不是只與雙方實力有關的??梢约僭O有一小部分玩家發(fā)現(xiàn)了一種新的游戲技巧,可以有25%的概率直接獲勝,25%的概率直接輸?shù)簦詈笫O碌?0%概率則是對勝率沒有影響。那么這對排名會產生什么影響?
設實力第100、200、300……900的玩家使用了這個技巧,積分公式系數(shù)k取0.1,進行20次模擬,計算這些玩家最終排名的平均值,得到的結果為:
實力100 200 300 400 500 600 700 800 900排名145 210 321 365 519 568 665 782 868
可見,實際排名大體上符合以下規(guī)律:實力靠前的玩家,最終實際排名比真實實力更低;實力靠后的玩家,最終實際排名比真實實力更高。
上面的部分給出了競技場模擬系統(tǒng)的簡單案例,不過這些討論都偏向于理想情況。在實際應用中情況是極為復雜的。影響勝負的要素,除了雙方的理論實力以外,還和雙方的打法或者陣容之類有著非常重要的關系。
這時候可以考慮引入機器學習這一概念,機器學習是當代人工智能領域最重要的技術之一,是人工智能的核心。通過遺傳算法、神經網絡算法等,它可以在一次次的嘗試中逐漸自我進化,從而越來越接近最優(yōu)解。具體原理此處不再闡述。
以假設中的情景為例,在競技場模擬系統(tǒng)中引入機器學習算法,由程序模擬雙方玩家的操作來進行對戰(zhàn)判斷勝負,則隨著模擬對戰(zhàn)次數(shù)的增多,“玩家”們發(fā)現(xiàn)其中的一些陣容能夠在大多數(shù)時候克制住其他陣容,從而發(fā)揮出超過紙面戰(zhàn)斗力的實力。因此,越來越多的“玩家”會選擇那些更為強勢的陣容,則模擬出來的情況就可以作為實際情況的重要參考。
根據(jù)《2017中國游戲產業(yè)報告》顯示,2017年自主研發(fā)網絡游戲市場實際銷售收入達到1386.1億元,而人工智能技術則是21世紀的核心技術之一,網絡游戲競技場模擬系統(tǒng)就是能夠將二者結合從而推進網絡游戲發(fā)展的一個簡單的例子。