P2E的下一個時代:遊戲、AI 代理和加密貨幣的融合
作者|Sid @IOSG
Web3 遊戲的現狀
隨着更新穎更具注意力的敘事方式的出現,Web3 遊戲作為一個行業在一級和公开市場的敘事都退居其次。根據Delphi2024 年關於遊戲產業的報告,Web3 遊戲在一級市場的累計融資額不足 10 億美元。這並不一定是壞事,這恰恰表明泡沫已經消退,現在的資本可能正在向更高質量的遊戲兼容。下圖就是一個明顯的指標:
在整個 2024 年,Ronin 等遊戲生態系統的用戶數量大幅飆升,而且由於 Fableborn 等高品質新遊戲的出現,幾乎媲美 2021 年 Axie 的輝煌時期。
遊戲生態系統(L1s、L2s、RaaS)正越來越像 Web3 的 Steam,它們掌控着生態系統內的分發,這也成為遊戲开發商在這些生態系統中开發遊戲的動力,因為這可以幫助他們獲取玩家。根據他們之前的報告,Web3 遊戲的用戶獲取成本比 Web2 遊戲高出約 70%。
玩家粘性
留住玩家與吸引玩家同樣重要,甚至更重要。雖然缺乏 Web3 遊戲玩家留存率的數據,但玩家留存率與“Flow”的概念(匈牙利心理學家Mihaly Csikszentmihalyi提出的術語)密切相關。
“流狀態”是一種心理學概念,在這種狀態下,玩家在挑战和技能水平之間達到了完美的平衡。這就像 “進入狀態”——時間似乎過得飛快,你完全沉浸在遊戲中。
持續創造流狀態的遊戲往往具有更高的留存率,原因在於以下機制:
#進階設計
遊戲初期:簡單挑战,建立信心
遊戲中期:逐漸增加難度
遊戲後期:復雜挑战,精通遊戲
隨着玩家技能的提高,這種細致的難度調整可讓他們保持在自己的節奏範圍內
#參與循環
短期:即時反饋(擊殺、積分、獎勵)
中期:關卡完成、每日任務
長期:角色發展、排名
這些嵌套循環可在不同時間範圍內維持玩家的興趣
#破壞流狀態的因素則為:
1. 難度/復雜度設置不當:這可能是由於糟糕的遊戲設計,或者甚至可能是由於玩家數量不足而導致的匹配失衡
2. 目標不明確:遊戲設計因素
3. 反饋延遲:遊戲設計和技術問題因
4. 侵入式貨幣化:遊戲設計+產品
5. 技術問題/滯後
遊戲與 AI 的共生
AI agents 可以幫助玩家獲得這種流狀態。在探討如何實現這一目標之前,讓我們先來了解一下什么樣的代理適合運用到遊戲領域:
LLM 與強化學習
遊戲 AI 的關鍵在於:速度和規模。在遊戲中使用 LLM 驅動的代理時,每個決策都需要調用一個龐大的語言模型。這就好比在邁出每一步之前都要有一個中間人。中間人很聰明,但等待他的回應會讓一切變得緩慢痛苦。現在想象一下,在遊戲中為數百個角色做這樣的工作,不僅速度慢,而且成本很高。這就是我們尚未在遊戲中看到大規模 LLM 代理的主要原因。我們目前看到的最大實驗是在 Minecraft 上开發的 1000 個代理的文明。如果在不同的地圖上有 10 萬個並發代理,這將會非常昂貴。由於每添加一個新代理都會導致延遲,玩家也會受到流量中斷的影響。這就破壞了流狀態。
強化學習(RL)是一種不同的方式。我們把它想象成訓練一個舞者,而不是通過耳麥給對方手把手的指導。通過強化學習,你需要在前期花時間教 AI 如何 “跳舞”,以及如何應對遊戲中的不同情況。一旦訓練有素,AI 就會自然流暢,在幾毫秒內做出決定,而無需向上請求。你可以讓數百個這樣訓練有素的代理在你的遊戲中運行,每個代理都能根據自己的所見所聞獨立做出決定。他們不像 LLM 代理那樣能說會道或靈活機動,但他們做事快速高效。
當你需要這些代理協同工作時,RL 的真正魔力就顯現出來了。LLM 代理需要冗長的 “對話 ”來協調,而 RL 代理則可以在訓練中形成一種隱性的默契——就像一支一起訓練了數月的橄欖球隊。他們學會預測對方的動作,自然而然地進行協調。當這並不完美,有時它們會犯一些 LLM 不會犯的錯誤,但它們可以在 LLM 無法比擬的規模上運作。對於遊戲應用來說,這種權衡總是有意義的。
代理和 NPC
作為 NPC 的代理將解決當今許多遊戲面臨的第一個核心問題:玩家流動性。P2E 是第一個使用密碼經濟學解決玩家流動性問題的實驗,我們都知道結果如何。
預先訓練好的代理有兩個作用:
- 填充多人遊戲中的世界
- 維持世界中一組玩家的難度水平,使他們處於流狀態
雖然這看起來非常明顯,但構建起來卻很困難。獨立遊戲和早期的 Web3 遊戲沒有足夠的財力聘請人工智能團隊,這為任何以 RL 為核心的代理框架服務商提供了機會。
遊戲可以在試玩和測試期間與這些服務提供商合作,為遊戲發布時的玩家流動性奠定基礎。
如此一來,遊戲开發者就可以把主要精力放在遊戲機制上,使他們的遊戲更加有趣。盡管我們喜歡將代幣融入遊戲,但遊戲終究是遊戲,遊戲應該是有趣的。
代理玩家
世界上玩家最多的遊戲之一《英雄聯盟》有一個黑市,玩家在黑市上用最好的屬性訓練自己的人物,而遊戲禁止他們這樣做。
這有助於形成遊戲角色和屬性作為 NFT 的基礎,從而創建一個市場來實現這一點。
如果出現一個新的 “玩家 ”子集,作為這些人工智能代理的教練呢?玩家可以指導這些人工智能代理,並以不同的形式將其貨幣化,例如贏得比賽,還可以充當電競選手或激情玩家的 “訓練夥伴”。
元宇宙的回歸?
元宇宙的早期版本可能只是創造了另一種現實,而不是理想的現實,因此沒有達到目標。AI agents 幫助元宇宙居民創造一個理想世界 —— 逃離。
在我看來,這正是基於 LLM 的代理可以大顯身手的地方。也許有人可以在自己的世界中加入預先訓練好的代理,這些代理都是領域專家,可以就他們喜歡的事物進行對話。如果我創建了一個經過 1000 小時 Elon Musk 訪談訓練的代理,而用戶希望在他們的世界中使用這個代理的實例,那么我就可以為此獲得獎勵。這樣就能創造新的經濟。
有了 Nifty Island 這樣的元宇宙遊戲,這就可以成為現實。
在 Today: The Game 中,團隊已經創建了一個基於 LLM 的 AI agent,名為 “Limbo”(發布了投機性代幣),其愿景是多個代理在這個世界中自主互動,同時我們可以觀看 24x7 的直播流。
Crypto 如何與之融合?
Crypto 可以通過不同方式幫助解決這些問題:
- 玩家貢獻自己的遊戲數據,以改進模型,獲得更好的體驗,並因此獲得獎勵
- 協調角色設計師、訓練師等多方利益相關者,創建最好的遊戲內代理
- 創建一個擁有遊戲內代理所有權的市場,並將其貨幣化
有一個團隊正在做這些事情,而且做得更多:ARC Agents。他們正在解決上面提到的所有問題。
他們擁有 ARC SDK,允許遊戲开發人員根據遊戲參數創建類似人類的人工智能代理。通過非常簡單的集成,它就能解決玩家流動性問題,清理遊戲數據並將其轉化為見解,還能通過調整難度級別幫助玩家在遊戲中保持流狀態。為此,他們使用了強化學習(Reinforcement Learning)技術。
他們最初开發了一款名為 “AI 競技場”(AI Arena)的遊戲,在這款遊戲中,基本上是在訓練你的 AI 角色進行战鬥。這幫助他們形成了一個基准學習模型,該模型構成了 ARC SDK 的基礎。這就形成了某種類似 DePIN 的飛輪:
所有這一切都以他們的生態系統代幣 $NRN 作為協調。Chain of Thought團隊在他們關於 ARC 代理的文章中對此做了很好的解釋:
像Bounty這樣的遊戲正採取 agent-first 的方法,在一個狂野的西部世界中從頭开始建立代理。
結語
AI agents、遊戲設計和 Crypto 的融合不僅僅是另一種技術趨勢,它還有可能解決困擾獨立遊戲的各種問題。AI agents 在遊戲領域的妙處在於,它們增強了遊戲的樂趣所在——良好的競爭、豐富的互動,以及讓人流連忘返的挑战。隨着 ARC 代理等框架的成熟和更多遊戲集成 AI agents,我們很可能會看到全新的遊戲體驗出現。想象一下,世界之所以充滿活力,並不是因為裏面有其他玩家,而是因為裏面的代理能夠與社區一起學習和進化。
我們正在從一個“play-to-earn”轉向一個更令人興奮的時代:既富含真正的樂趣,又可無限擴展的遊戲。對於關注這一領域的开發者、玩家和投資者來說,未來幾年將非常精彩。2025 年及以後的遊戲不僅在技術上更加先進,而且從根本上講,它們將比我們以前看到的任何遊戲都更吸引人、更易參與、更有生命力。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
川普行情退潮!比特幣跌破8.2萬鎂,加密貨幣交易量「從選後高峯暴跌70%」
隨 著川普政府的對等關稅措施將在 4 月 2 日上路,引爆貿易戰繼續升溫的疑慮,再加上美國 2 月...
動區週報》比特幣二度下探、川普解放日關稅炸彈將臨、機構持續買BTC…
?本週(3/23-3/29)重要大事速覽 本週市場在多空訊息交織下震盪,由於川普下週將公佈的對等關...
下周必關注|市場密切觀望4月2日的美國關稅聲明;Terra开放債權人索賠通道(3.31-4.6)
下周重點預告 3 月 31 日 Terraform Labs: 3 月 31 日啓動債權人索賠門戶...
評論