a16z 創始合夥人:為什么 AI 會拯救世界?
撰寫:MARC ANDREESSEN
編譯:深潮 TechFlow
AI時代帶來了驚喜和恐慌,但好消息是 AI 不會毀滅世界,反而可能拯救世界。
a16z的創始合夥人MARC ANDREESSEN 認為,AI提供了增強人類智慧的機會,使我們在各個領域取得更好的結果。每個人都能擁有一位 AI 導師、助手或合作夥伴,幫助我們最大化潛力。AI還能推動經濟增長、科學突破和藝術創作,改善決策和減少战爭傷亡。然而,AI的發展也存在風險,而當前的道德恐慌可能誇大了問題,其中一些行動者可能是為了自身利益。
如何理性看待AI,又應該從哪些視角來看待AI? 這篇文章為我們提供了一個可行、可信與可深入的探討範例。
以下是全文內容:
AI 時代已經到來,驚喜之余也帶來許多驚慌。幸運的是,我在這裏帶來好消息:AI 不會毀滅世界,事實上可能拯救世界。
首先,簡要介紹一下什么是 AI:將數學和軟件代碼應用於教授計算機如何理解、綜合和生成知識,就像人類所做的一樣。AI 像任何其他計算機程序一樣——運行、接受輸入、處理和生成輸出。AI 的輸出在很多領域內都很有用,從編碼到醫學、法律、創意藝術等。它由人擁有和控制,就像任何其他技術一樣。
AI 不是殺手和機器人,會啓動並決定謀殺人類或以其他方式破壞一切,就像你在電影中看到的那樣。而 AI 可能成為使我們關心的一切變得更好的方法。
為什么 AI 可以使我們關心的一切變得更好?
社會科學多年來進行了數千項研究,最具有可靠性的核心結論是:人類的智慧可以改善生活結果。聰明人在幾乎所有活動領域都有更好的結果:學業成就、工作表現、職業地位、收入、創造力、身體健康、壽命、學習新技能、管理復雜任務、領導才能、創業成功、衝突解決、閱讀理解、金融決策、理解他人的觀點、創意藝術、育兒結果和生活滿意度。
此外,人類的智慧是千年來我們用來創造今天生活世界的槓杆:科學、技術、數學、物理、化學、醫學、能源、建築、交通、通信、藝術、音樂、文化、哲學、倫理和道德。如果沒有在所有這些領域應用智慧,我們仍將生活在泥沼中,勉強維持基本的農業生計。相反,我們已經利用我們的智慧,在過去 4000 年裏將我們的生活水平提高了約 10000 倍。
AI 為我們提供了一個增強人類智慧的機會,使得所有智慧成果——從創造新藥到解決氣候變化到星際旅行等——都可以從這裏开始變得更好。
AI 對人類智慧的增強已經开始——AI 已經以各種形式出現在我們周圍,例如許多種類型的計算機控制系統,現在通過像 ChatGPT 這樣的大型語言模型迅速升級,並且將從此處快速加速發展——如果我們允許的話。
在我們這個 AI 的新時代中:
- 每個孩子都將擁有一位無限耐心、無限同情、無限知識和無限幫助的 AI 導師。AI 導師將在每個孩子的成長過程中陪伴他們,以無限愛幫助他們最大化潛力。
- 每個人都將擁有一位無限耐心、無限同情、無限知識和無限幫助的 AI 助手/教練/導師/訓練師/顧問/治療師。AI 助手將在生活的所有機會和挑战中陪伴每個人,最大程度地提高每個人的成果。
- 每個科學家都將擁有一個 AI 助手/合作夥伴/夥伴,極大地擴展了他們的科學研究和成就範圍。每個藝術家、工程師、商人、醫生和護理人員在他們的領域也擁有同樣的 AI 助手。
- 每個人民領袖——首席執行官、政府官員、非營利組織主席、運動教練、教師——也是如此。領導者對其領導對象做出更好決策的增幅效應是巨大的,因此這種智力增強是最重要的。
- 整個經濟的生產率增長將顯著加速,推動經濟增長、新行業的創造、新工作的創造和工資增長,並導致全球高度物質繁榮的新時代。
- 科學突破、新技術和藥物的出現將顯著擴展,因為 AI 幫助我們進一步解碼自然法則。
- 藝術創作將進入黃金時代,AI 增強的藝術家、音樂家、作家和電影制片人將能夠以比以往任何時候都更快、更大規模地實現他們的愿景。
- 我甚至認為,當战爭不可避免時,AI 將通過大幅減少战時死亡率來改善战爭。每場战爭都以由受限制的人類領袖在極度壓力和極度有限的信息下做出可怕的決策為特徵。現在,軍事指揮官和政治領袖將擁有 AI 顧問,幫助他們做出更好的战略和战術決策,最小化風險、錯誤和不必要的流血。
- 簡而言之,人們今天用自己的自然智能所做的任何事情都可以通過 AI 更好地完成,從治愈所有疾病到實現星際旅行。
- 這不僅僅是智力的問題!也許 AI 最被低估的品質是它如何人性化。AI 藝術賦予那些否則缺乏技術技能的人自由創造和分享他們的藝術想法。與一個有同情心的 AI 朋友交談確實提高了他們處理逆境的能力。AI 醫療聊天機器人已經比他們的人類同事更具同情心。無限耐心和同情的 AI 將使世界變得更溫暖、更友善,而不是使世界變得更加苛刻和機械化。
然而,這裏的風險很高。 AI 可能是我們文明創造的最重要、最好的東西,與電力和微芯片相當,甚至可能更超越它們。
AI 的發展和普及——遠非我們應該害怕的風險——是我們對自己、我們的孩子和我們的未來的道德義務。有了 AI,我們應該生活在一個更美好的世界裏。
那么為什么會出現恐慌呢?
與這種積極的觀點形成鮮明對比的是,關於 AI 的公共話題充滿了恐懼和偏執。
我們聽到各種聲音稱 AI 將殺死我們所有人,毀壞我們的社會,奪走所有的工作,引起嚴重的不平等。如何解釋這種從近乎烏托邦到反烏托邦結果的差異如此之大?
歷史上,每一項重要的新技術,從電燈到汽車,從收音機到互聯網,都引發了恐慌 ——一種社會傳染病,使人們相信新技術將毀滅世界、毀滅社會或兩者兼而有之。悲觀主義者檔案館的優秀工作記錄了幾十年來由技術驅動的這些道德恐慌;他們的歷史使模式變得非常清晰。事實證明,現在這種恐慌之前也有過。
當然,許多新技術確實導致了不良後果——通常是那些在其他方面對我們非常有益的技術。因此,僅僅存在一種道德恐慌並不意味着沒有什么需要關注的問題。
然而,道德恐慌本質上是非理性的——它將可能是合理關注的問題誇大成一種歇斯底裏的程度,使真正嚴重的問題被忽略。
現在我們已經出現了 AI 道德恐慌。
這種道德恐慌已經被各種行為者用作推動政策行動的動力——新的 AI 限制、法規和法律。這些行為者對 AI 危險性進行了極其戲劇化的公开聲明——滿足並進一步加劇道德恐慌——所有這些人都自詡為無私的公共利益捍衛者。
但他們是嗎?
他們是對還是錯?
經濟學家已經觀察到這種改革運動中的一個長期存在的模式。此類運動內部的行為者分為兩類——“洗禮者”和“走私者”——借鑑了 20 世紀 20 年代美國禁酒令的例子:
“洗禮者”是真正的信徒社會改革者,他們認為情感上,即使不是理性上——需要新的限制、法規和法律來防止社會災難。
對於酒禁,這些行為者通常是真正虔誠的基督教徒,他們認為酒精正在摧毀社會的道德基礎。對於 AI 風險,這些行動者相信 AI 可能會產生某種存亡風險——如果給他們一個測謊儀,他們真的是這么想的。
“走私者”是自我利益的機會主義者,他們可以通過實施新的限制、法規和法律從中獲得財務利益,使自己免受競爭對手的影響。對於酒禁,這些人通過出售非法酒精賺取財富。
在 AI 風險中,這些人是 CEO,如果建立監管壁壘,這些 CEO 將賺更多的錢,因為政府保護它們免受新創業公司和开源競爭的影響。
一些人會認為,有一些人表面上的“洗禮者”,同時也是“走私者”——特別是那些受到大學、智庫、活動組織和媒體機構付錢攻擊 AI 的人。如果你收到工資或獲得撥款來培養 AI 恐慌……你很可能是“走私者”。
“走私者”的問題在於他們勝利了。 “洗禮者”是天真的意識形態者,“走私者”是憤青的操作者,所以這類改革運動的結果通常是“走私者”得到了他們想要的——監管、對競爭的保護——而“洗禮者”則疑惑着他們的社會改進驅動力哪裏錯了。
我們剛剛經歷了一個驚人的例子——2008 年全球金融危機後的銀行改革。 “洗禮者”告訴我們,我們需要新的法律和法規來打破“大而不倒”的銀行,防止這樣的危機再次發生。因此,國會通過了 2010 年的多德-弗蘭克法案,該法案被宣傳為滿足“洗禮者”的目標,但實際上被“走私者”——大型銀行所控制。結果是,2008 年“大而不倒”的銀行現在更加龐大。
因此,在實踐中,即使“洗禮者”是真誠的——即使“洗禮者”是正確的——他們也會被狡猾和貪婪的“走私者”利用來獲益。
目前,在推動 AI 監管方面也發生了這種情況,僅僅確定行動者並懷疑他們的動機是不夠的。我們應該就“洗禮者”和“走私者”的觀點進行評估。
AI 風險#1:AI 會殺死我們所有人嗎?
最初和最原始的 AI 風險是 AI 將決定殺死人類。
由我們自己創造的技術將起義並摧毀我們的恐懼深深編碼在我們的文化中。希臘人通過普羅米修斯神話來表達這種恐懼——普羅米修斯為人類帶來了破壞性的火焰力量,更普遍地說是技術("techne"),因此被衆神判處永久受苦。後來,瑪麗·雪萊在她的小說《弗蘭肯斯坦》或者又名《現代普羅米修斯》中給了我們現代人自己版本的這個神話,我們开發了實現永生的技術,然後這項技術起義並試圖摧毀我們。
這個神話的假設進化目的是激勵我們認真考慮新技術的潛在風險——畢竟,火確實可以用來燒毀整個城市。但正如火也是現代文明的基礎一樣,可以用來使我們在寒冷而充滿敵意的世界中保持溫暖和安全,這種神話忽略了大多數(全部?) 新技術的利遠大於不利方面,並在實踐中引起了破壞性情緒而非理性分析。 僅因為史前人類會像這樣崩潰並不意味着我們必須這樣做;我們可以運用理智。
我認為,AI 會決定直接殺死人類的想法是一個深刻的範疇錯誤。AI 不是一個通過數十億年演化被激發參與適者生存之战的生物,就像動物和我們一樣。它是由人們建造、擁有、使用和控制的代碼——計算機。它在某個時候會發展出自己的思維,然後決定它有動機去試圖殺死我們的想法是一種迷信的刻板印象。
簡而言之,AI 沒有意愿,沒有目標,不想殺死你,因為它不是活着的。
現在,顯然,有些人確信 AI 會殺死人類——“洗禮者”——他們因其可怕的警告而獲得了大量的媒體關注,其中一些人聲稱已經研究這個主題數十年,並表示他們現在被他們所了解的知識嚇壞了。其中一些真正的技術創新者甚至都是這樣。這些行動者主張對 AI 實施各種奇怪和極端的限制,從禁止 AI 發展到對數據中心的軍事空襲和核战爭。他們認為,由於像我這樣的人無法排除 AI 未來的災難性後果,我們必須採取謹慎的立場,以防止潛在的存在風險。
我的回應是,他們的立場是非科學的——有什么可測試的假設?什么可以證明這一假設不成立?我們如何知道我們正在進入一個危險區域?這些問題大多沒有得到回答,除了“你無法證明它不會發生!”事實上,這些“洗禮者”的立場非常非科學和極端——關於數學和代碼的陰謀論——並且已經呼籲採取身體暴力,所以我將做一些我通常不會做的事情,並質疑他們的動機。
具體來說,我認為有三件事情正在發生:
首先,回想一下,約翰·馮·諾伊曼對羅伯特·奧本海默有關他在創造核武器方面的作用——這有助於結束了二战並防止了第三次世界大战——的回應是:“有些人會承認罪行以獲得榮譽。”怎樣才能以最引人注目的方式聲稱自己工作的重要性,而不顯得過分自誇呢?這解釋了實際上 正在建造和資助 AI 的洗禮者的言辭和行動之間的不匹配 ——看他們的行動而不是他們的話。
其次,一些洗禮者實際上是走私者。有整個專業領域的“AI 安全專家”、“AI 倫理學家”、“AI 風險研究員”。他們被僱傭成為末日論者。
第三,在加利福尼亞州,我們因成千上萬的異端組織而名聲大噪,從 EST 到人民神廟,從天堂之門到曼森家族都有。其中許多,雖然不是全部,這些異端組織是無害的,甚至可能為在其中找到家園的疏離人群服務。但是,有些確實非常危險,而且邪教通常很難跨越導致暴力和死亡的界线。
現實是,對於舊金山灣區的所有人來說,顯而易見,即“AI 風險”已經演變成了一個邪教,並突然出現在全球媒體的關注和公共談話中。這個邪教不僅吸引了邊緣人物,還吸引了一些真正的行業專家和不少富豪,包括直到最近的 Sam Bankman-Fried。
正是因為這個邪教存在,才會有一些聽起來非常極端的 AI 末日論者——並不是說他們實際上具有使其極端化合理的祕密知識,而是他們自己把自己激動到了狂熱狀態,確實是……非常極端。
這種類型的邪教並不新鮮——在西方,長期以來一直存在着千禧主義傳統,它產生了啓示錄邪教。AI 風險邪教具有所有千禧主義末世邪教的特徵。引用維基百科(我添加了一些內容):
“千禧主義是指一個團體或運動(AI 風險末日論者)相信社會將發生根本性的變革(AI 的到來),此後一切都將改變(AI 烏托邦、反烏托邦或者世界末日)。只有戲劇性的事件(禁止 AI、對數據中心進行空襲、對未受監管的 AI 進行核打擊)才能改變世界(防止 AI),並且這種變革預計將由一群虔誠和專注的人帶來或幸存下來。在大多數千禧主義情況下,即將到來的災難或战鬥(AI 啓示或其預防)將被一個新的、淨化的世界(AI 禁令)所跟隨,在這個世界中,信徒將獲得回報(或至少被證明一直正確)。”
這種邪教模式是如此明顯,以至於我很驚訝為什么更多的人沒有看到它。
不要誤會,邪教聽起來很有趣,他們的寫作材料通常很有創意和迷人,他們的成員在晚宴和電視上也很引人入勝。但是,他們極端的信仰不應該決定法律和社會的未來——這顯然是不可取的。
AI 風險 #2:AI 會毀了我們的社會嗎?
第二個廣泛討論的 AI 風險是,AI 將毀掉我們的社會,因為它產生的輸出將是如此“有害”的,以這種邪教者的術語來說,即使我們沒有被直接殺死,也會對人類造成深刻的傷害。
簡而言之:如果機器人沒有殺死我們,錯誤信息就會毀掉我們的社會。
這是一個相對較新的末日論者擔憂,分支出來並在一定程度上接管了我上面描述的“AI 風險”運動。事實上,最近 AI 風險術語從“AI 安全”變成了“AI 對齊”(用於擔心社會“危險”人士使用 AI)。最初的 AI 安全人士對這種轉變感到沮喪,盡管他們不知道該如何將其放回原處——他們現在主張將實際的 AI 風險主題重命名為“AI 不殺每個人主義”,雖然還沒有被廣泛採納,但至少這是明確的。
AI 社會風險聲明的特點是其自己的術語“AI 對齊”。與什么對齊?人類價值觀。誰的人類價值觀?哦,這就是事情變得棘手的地方。
恰好,我曾親眼目睹了一個相似的情況——社交媒體的“信任和安全”之战。正如現在顯而易見的那樣,多年來社交媒體服務一直受到政府和活動家們的巨大壓力,要求封禁、限制、審查和其他方式壓制各種內容。同樣關於“仇恨言論”(及其數學對應物“算法偏見”)和“錯誤信息”的擔憂也被直接轉移從社交媒體領域到“AI 對齊”這個新領域。
我從社交媒體战爭中學到的主要經驗是:
一方面,沒有絕對自由言論的立場。首先,包括美國在內的每個國家都會將某些內容視為違法。其次,有某些類型的內容,如兒童色情和煽動暴力,幾乎被所有社會普遍認為是無法容忍的——無論是否合法。因此,任何促進或產生內容(言論)的技術平臺都將有一些限制。
另一方面,一旦限制內容的框架建立起來——例如針對“仇恨言論”、特定傷害性詞語或虛假信息的限制——一系列政府機構、活動家壓力團體和非政府實體將开始加速行動,並要求越來越多的審查和打壓他們認為對社會和/或自己個人喜好構成威脅的言論。他們甚至會採取公然的重罪犯罪手段。在社交媒體領域,這種循環看起來可能永無止境,並得到我們精英權力結構的熱情支持。這已經在社交媒體上持續了十年,只有某些特殊情況除外,而且越來越熱烈。
因此,這就是現在圍繞“AI 對齊”形成的動態。其擁護者聲稱有智慧來設計對社會有益的 AI 生成的言論和思想,並禁止對社會有害的 AI 生成的言論和思想。反對者認為,思想警察們極其傲慢和自負——在美國至少往往是明目張膽的犯罪。
由於“信任和安全”和“AI 對齊”的擁護者都聚集在全球人口非常狹窄的美國沿海精英階層中,包括許多從事技術行業和寫作的人士。我現在不會試圖說服你們放棄這種想法,我只是要說明這是需求的本質,而且大多數世界上的人既不贊同你的意識形態,也不希望看到你獲勝。
派系道德標准所施加的社交媒體和 AI 的支配性正在加強,如果您不同意這種道德標准,那么您還應該意識到,對於 AI 被允許說/生成什么的爭奪將比社交媒體審查的爭奪更加重要。 AI 極有可能成為全球一切事物的控制層。
簡而言之, 不要讓思想警察壓制 AI。
AI 風險 #3: AI 會奪走我們所有的工作嗎?
由於機械化、自動化、計算機化或 AI 而失去工作的恐懼已經是數百年來一直存在的恐慌,自機械織布機這樣的機械設備問世以來就如此。盡管歷史上每一次新的主要技術革命都帶來了更多的高薪工作崗位,但每次這種恐慌浪潮總伴隨着“這一次不同”的說法——這次它將最終發生,這項技術將給人類便宜勞動力帶來致命打擊。然而,這從未發生過。
在近期的過去,我們經歷了兩次技術驅動的失業恐慌周期——2000 年代的外包恐慌和 2010 年代的自動化恐慌。盡管許多評論家、專家甚至科技行業高管在這兩個十年中不斷地敲打桌子,聲稱大規模失業即將到來,但截至 2019 年底——就在 COVID 疫情爆發之前——世界上的工作崗位比歷史上任何時候都要多,而且工資也更高了。
盡管如此,這個錯誤的觀念卻不會消失。
而且,它又回來了。
這一次,我們終於擁有了一個將奪走所有工作崗位並使人類勞動力變得無關緊要的技術—— AI。這一次歷史不會重演,AI 將導致大規模失業——而不是經濟、就業和工資的快速增長——對嗎?
不,不會發生這種情況——實際上,如果允許 AI 在整個經濟中得到發展和普及,它可能會引發史上最顯著和持久的經濟繁榮,伴隨着相應的創紀錄的就業和工資增長。以下是原因。
自動化導致失業的言論者一直犯的核心錯誤被稱為“勞動力謬誤”。這種謬誤是錯誤的觀念,即在任何特定時刻經濟中有一定數量的勞動力要完成,要么機器完成,要么人類完成——如果由機器完成,則將沒有工作可供人類完成。
勞動總量謬誤從幼稚的直覺中自然而然地產生,但是這種幼稚的直覺是錯誤的。當技術應用於生產時,我們獲得了生產力增長——通過減少投入而產生輸出的增加。結果是商品和服務價格降低。隨着商品和服務價格的下降,我們花費在它們上面的費用更少,意味着我們現在擁有額外的消費能力以購买其他物品。這增加了經濟中的需求,推動了新的生產——包括新產品和新產業——的創建,進而為那些在先前的工作中被機器取代的人創造新的工作崗位。結果是一個更大的經濟,更高的物質繁榮,更多的產業、產品和工作機會。
但好消息並不止於此。我們還會得到更高的工資。這是因為,在個體工人層面上,市場將補償設置為工人的邊際生產率函數。與傳統企業中的工人相比,技術注入業務中的工人將更具生產力。僱主要么會因為他現在更有生產力而支付給該工人更多的工資,要么另一個僱主會出於自身利益這樣做。結果是,通常情況下,引入技術到一個行業不僅會增加該行業的就業數量,還會提高工資。
總之,技術使人們更具生產力。這導致現有商品和服務的價格下降,工資上漲。這反過來又促進了經濟增長和就業增長,同時激勵創造新的工作崗位和新的產業。如果市場經濟得以正常運轉,如果技術得以自由引入,那么這是一個永無止境的持續向上的循環。因為,正如彌爾頓·弗裏德曼所觀察到的,“人類的欲望和需求是無窮無盡的”。技術注入的市場經濟是我們接近實現每個人能夠想象的一切東西的方式,但永遠無法完全實現。這就是為什么技術不會摧毀就業的原因。
這些對於沒有接觸過這些想法的人來說是如此震撼,以至於您可能需要一些時間才能理解它們。但我保證我沒有編造它們——實際上,您可以在標准經濟學教科書中閱讀有關它們的所有內容。
但這一次不同,您會認為。因為這一次,有了 AI,我們擁有可以替代所有人類勞動力的技術。
但是,使用我上面描述的原則,想象一下如果所有現有的人類勞動力都被機器替換會意味着什么?
這將意味着經濟生產率增長的起飛速度將是絕對天文數字,遠遠超出任何歷史先例。現有商品和服務的價格將全面降至接近零。消費者福利將飆升。消費者支出能力將飆升。經濟中的新需求將爆炸性增長。企業家將創造令人眼花繚亂的新產業、產品和服務,並盡可能快地僱用盡可能多的人和 AI 來滿足所有新需求。
假設 AI 再次取代了這些勞動力?循環會重復,推動消費者福利、經濟增長以及就業和工資增長更高。這將是一個直线向上的螺旋,達到亞當·斯密或卡爾·馬克思從未敢想象的物質烏托邦。
我們應該感到幸運。
AI 風險#4: AI 會導致嚴重的不平等嗎?
對 AI 奪走工作崗位的擔憂直接過渡到下一個 AI 風險,假設 AI 確實奪走所有工作崗位。那么,難道這不會導致大規模和嚴重的財富不平等嗎?AI 所有者將獲得所有經濟回報,而普通人一無所有。
這個理論的缺陷在於,作為技術的所有者,將其保留給自己並不符合您的利益——相反,將其銷售給盡可能多的客戶符合您的利益。任何產品在全球範圍內的最大市場是整個世界,80 億人。因此,在現實中,每種新技術——即使开始時只在大公司或富有的消費者中銷售——也會快速擴散,直至落入最大可能的大衆市場手中,最終覆蓋到全球所有人。
一個經典的例子是馬斯克在 2006 年公开發布的所謂“祕密計劃”:
- 第一步,制造[昂貴的]跑車。
- 第二步,利用這筆錢制造一輛價格更實惠的汽車。
- 第三步,利用這筆錢制造更加實惠的汽車。
...當然,這正是他現在所做的,也因此成為了世界上最富有的人。
關鍵在於最後那個觀點。如果馬斯克今天只賣給富人汽車,他會變得更富嗎?不會。如果他只為自己制造汽車,他會比現在更富嗎?當然不會。他通過將汽車銷售給全球最大的市場——全世界——來最大化自己的利潤。
簡而言之,每個人都可以獲得此類產品——正如我們過去看到的不僅是汽車,還包括電力、收音機、計算機、互聯網、手機和搜索引擎。這些技術制造商的動機非常強烈,他們將盡可能地推動價格下降,使全球所有人都能夠負擔得起。這正是目前在 AI 領域已經發生的事情——這就是為什么您現在可以使用最先進的生成式 AI,而且甚至可以免費使用 Microsoft Bing 和 Google Bard 的原因——這也是未來將繼續發生的事情。不是因為這些供應商慷慨,而恰恰是因為他們貪心——他們想要擴大市場規模,從而最大化利潤。
因此,發生的情況恰恰相反, 技術並沒有推動財富的中央集權化,而是賦予了技術的個體客戶——最終包括全球所有人——更多的權力,並佔據了大部分產生的價值 。就像以前的技術一樣,建立 AI 的公司——假設它們必須在自由市場中運作——將競爭激烈地使這種情況發生。
這並不意味着不平等在我們社會中不是一個問題。它確實存在,只是它不是由技術推動的,而是相反,它是由經濟領域中最抵制新技術、政府幹預最多以阻止採用新技術(特別是住房、教育和醫療保健)的部門所推動的。 AI 和不平等的實際風險不是 AI 將導致更多的不平等,而是我們不允許利用 AI 來減少不平等。
AI 風險#5: AI 會導致壞人做壞事嗎?
到目前為止,我已經解釋了四個最常被提出的 AI 風險,現在讓我們來談論第五個問題,也是我真正同意的問題: AI 將使壞人更容易做壞事。
從某種意義上說,技術是一種工具。從火和石頭开始,工具可以用於做好事——烹飪食物和建造房屋——也可以用於做壞事——燒人和毆打人。任何技術都可以用於好或壞。沒錯。而 AI 將使罪犯、恐怖分子和敵對政府更容易做壞事,這是毫無疑問的。
這導致一些人提議,在這種情況下禁止使用 AI。不幸的是, AI 不是一種難以獲得的某種神祕物質。相反,它是世界上最容易獲得的材料——數學和代碼。
顯然, AI 已經廣泛應用。你可以從成千上萬的免費在线課程、書籍、論文和視頻中學習如何構建 AI,而且每天都有優秀的开源實現在擴散。 AI 就像空氣——它將無處不在。要阻止這種情況,需要採取的專制壓迫措施將是如此的苛刻——一個監視和控制所有計算機的世界政府?戴着黑色直升機的武裝警察抓捕不聽命令的 GPU?
因此,我們有兩種非常簡單的方法來應對壞人利用 AI 做壞事的風險,這正是我們應該關注的。
首先,我們已經制定了法律,以使幾乎任何人使用 AI 做壞事都成為犯罪。黑入五角大樓?那是犯罪。從銀行盜竊錢款?那也是犯罪。制造生物武器?那也是犯罪。實施恐怖襲擊?那也是犯罪。我們可以簡單地專注於在能夠防止這些犯罪時進行預防,並在不能防止時進行起訴。我們甚至不需要新的法律——我不知道有哪一個已經被提議的 AI 的實際不良使用還不是非法的。如果發現新的不良用途,我們將禁止該用途。
但是你會注意到我在那裏漏掉了什么——我說我們應該首先關注在人工智能預防他們——這樣的預防難道不意味着禁止人工智能嗎?嗯,還有另一種方法可以預防這類行為,那就是將 AI 用作防御工具。使 AI 在好人手中變得強大,特別是那些防止壞事發生的好人。
例如,如果您擔心 AI 產生虛假的人和虛假的視頻,答案是構建新系統,使人們可以通過加密籤名驗證自己和真實內容。在 AI 之前,數字化創建和修改真實和虛假的內容已經存在;解決問題的答案不是禁止文字處理器、Photoshop 或 AI,而是利用技術構建真正解決問題的系統。
因此,第二點,讓我們採取重大措施將 AI 用於善良、合法、防御性的目的。讓我們把 AI 應用於網絡防御、生物防御、打擊恐怖主義以及我們所做的所有其他事情,以保護我們自己、我們的社區和我們的國家安全。
當然,世界上已經有許多聰明人正在做這件事——但如果我們把目前所有沉迷於禁止 AI 的努力和智慧應用於利用 AI 防範壞人做壞事,我認為毫無疑問,有 AI 的世界將比我們今天生活的世界更加安全。
應該採取什么行動?
我提出了一個簡單的計劃:
- 大型 AI 公司應該被允許盡可能快地、積極地構建 AI,但不應該被允許實現監管俘虜,也不應該建立因錯誤的 AI 風險聲明而與市場競爭隔離。這將最大化這些公司驚人能力的技術和社會回報,它們是現代資本主義的珠寶。
- 初創 AI 公司應該被允許盡可能快地、積極地構建 AI。他們既不應該面對大公司獲得的政府保護,也不應該得到政府的援助。他們應該被允許自由競爭。如果初創公司沒有成功,他們在市場上的存在也將不斷激勵大公司做出最好的表現——無論如何,我們的經濟和社會都會從中獲益。
- 开源 AI 應該被允許自由擴散,並與大型 AI 公司和初創公司競爭。开源應該沒有任何監管壁壘。即使开源沒有擊敗公司,其廣泛的可用性對全世界想要學習如何構建和使用 AI 以成為技術未來一部分的學生來說也是一個福音,它將確保 AI 可供任何可以從中獲益的人使用,無論他們是誰或擁有多少錢。
- 為了抵消壞人使用 AI 做壞事的風險,政府與私營部門合作應該積極參與每個潛在風險領域,利用 AI 最大化社會的防御能力。這不應該僅限於啓用 AI 的風險,而是更一般的問題,如營養不良、疾病和氣候。 AI 可以成為解決問題的極為強大的工具,我們應該將其視為如此。
這就是我們如何使用 AI 拯救世界。
我用兩個簡單的陳述結束本文。
AI 的發展始於 20 世紀 40 年代,同時也是計算機的發明。第一篇關於神經網絡——我們今天所擁有的 AI 架構——的科學論文發表於 1943 年。在過去 80 年裏,整整一代人的 AI 科學家出生、上學、工作,並在許多情況下離世,而沒有看到我們現在正在收獲的回報。他們每個人都是傳奇。
今天,越來越多的工程師——其中許多人很年輕,可能有祖父母甚至曾祖父母參與了 AI 背後的思想創造——正在努力使 AI 成為現實。他們都是英雄,每一個人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
觀點》Memecoin 是史上最瘋狂的賺錢機器嗎?
我 們要去邁阿密!我們要買藍寶堅尼!來自倫敦的 16 歲大學生 Oliver Szmul 聲音嘶啞...
鮑爾放鷹「不急降息」比特幣下殺 $86,600、美股全倒,10月PPI顯示通膨仍具黏性
美 國聯準會主席鮑爾在臺灣時間今(15)日清晨於達拉斯的一場活動上釋出鷹派言論,他表示近期美國經濟...
Upbit 加密貨幣交易量遠超韓國股市,市場過熱跡象再現?
自 川普在本月初強勢贏下美國總統大選後,美股和加密貨幣市場紛紛迎來慶祝行情,標普 500 指數一度...
Gary Gensler發表“離別演講”,特朗普2.0下的SEC將採取什么加密監管政策?
來源:WilmerHale 原標題:Trump Administration 2.0: How t...
吳說播客:ACT 喜與悲,有人意外爆賺 200 萬,有人爆發前一天割肉
編輯:吳說區塊鏈 本期播客從 AI Memecoin 投資熱點及近日 ACT 暴漲事件展开,def...
深潮TechFlow
文章數量
186粉絲數
0