近日,「AI教父」Geoffrey Hinton在一次采訪中再發預警:「殺手機器人」「無人機」等致命自主武器的興起,正在讓戰爭變得更易發動。Hinton認為OpenAI、Anthropic等許多AI公司在AI安全方面做得都不夠。他還談到了貪婪、自負等人性弱點,對AI研究可能帶來的潛在風險。
Couric:如果你能把奧特曼和馬斯克請到同一張桌子上,你會對他們說什么?
Hinton:我會說:你們很清楚,你們正在開發的東西,很可能把人類毀滅掉。
近期,「AI教父」Geoffrey Hinton,在與《Next Question》主持人Katie Couric對話時,直言不諱地說出了內心對AI安全的憂慮。

Geoffrey Hinton與《Next Question》主持人Katie Couric對話
實際上,這已經不是他第一次為預警AI風險而發聲。
2023年5月,時任谷歌首席AI科學家的Hinton從谷歌辭職,扮演起「AI吹哨人」的角色。
自此,他一直在關注和呼吁人類要警惕AI過快發展帶來的風險,還表示后悔自己未能更早地考慮AI的安全問題。
近日,Hinton再次發出警告——AI正在改變戰爭方式,讓戰爭變得更容易:
自主武器,意味著「死掉的機器人」,而不是「裹尸袋」。


Geoffrey Hinton稱,殺手機器和無人機正在降低戰爭的人道成本
Hinton表示,「殺手機器人」「無人機」等致命自主武器的興起,正在讓發動戰爭變得更容易。
AI讓發動戰爭變得更容易
「殺手機器人」參與戰爭,將會代替許多原本可能在戰場中死掉的人。
這本應該是件好事,但恰恰也是最讓這位「AI教父」恐懼的事情。
這樣一來,發動一場戰爭的成本會更低,戰爭就更容易爆發了。
Hinton表示,「殺手機器人」的興起不會讓戰爭更安全,相反它會通過降低作戰的人力與政治成本,使戰爭更容易爆發。
這使得一個富國想入侵一個窮國,變得更容易了。
因為原來能夠阻戰爭發生的,就是這些富國的公民在戰場上被裝進裹尸袋。
但是,AI改變了這一點,「如果有致命自主武器,回來就不是死人,而是死掉的機器人。」
在Hinton看來,這種轉變,可能會慫恿政府發動戰爭,同時也會讓軍火商大發其財。
「這對軍火商來說簡直太棒了,因為這些機器人更換起來很昂貴」。
除了降低戰爭成本,Hinton認為AI已經在重塑戰場,改變戰爭的方式。
比如,在現實戰爭中,已經通過AI驅動的無人機、無人系統改變了戰場,顛覆了傳統戰爭形態和戰爭手段。
甚至有人說,未來戰爭中,數據的作用將超越彈藥。
以現實戰爭舉例,現在一架500美元的無人機,就可以摧毀一輛價值數百萬美元的坦克。
而且,AI技術也讓傳統硬件逐漸顯得過時,比如它使載人戰斗機變成一個愚蠢的主意:
「如果你能在戰機里裝上AI,AI可以承受更高的過載——而且不用過多擔心人員傷亡。」
AI接管將是人類最大的擔憂
與AI對未來戰爭帶來的影響相比,Hinton更擔心人類被AI接管的風險。
2024年,Hinton在獲得諾貝爾物理學獎時表示,希望人們可以更認真地看待他關于AI以及其未來角色的觀點。
而經過這些年,Hinton也逐漸把他有關AI擔憂的思考,更廣泛地傳開了。
當談到當下AI的風險,Hinton表示:
我的主要擔憂,并不是惡意行為者在短期內濫用AI的風險(那當然也非常嚴重),而是更長期的風險——AI本身接管。
這種風險,主要來自科學家們對AI將大幅超越人類智力的預測。
Hinton談到了要避免被AI接管的唯一方法,就是讓我們構建的那些超級智能AI,根本「不想」接管。而實現這一點的技術,和讓AI更聰明的技術有些不同。
在這個問題上,更容易取得國際間的合作。因為各國不會分享如何做出最聰明AI的辦法,但卻會在「如何讓它不想取代人類」這件事上合作。
AI會取代我們的工作嗎?
除了戰爭,Hinton關于AI的另一個警告,是它幾乎可能在所有領域,取代大量的工作崗位。
這個問題所帶來的挑戰,并非在技術,而是在社會治理上:
「如果我們的政治體系足夠公平,當AI大幅提升生產率時,本應當使每個人都能得到更多商品和服務。」
當談到大學生未來的職業選擇,Hinton認為AI會很快替換掉呼叫中心這類低薪、培訓差的工作。
此外,還有律師助理、程序員等白領崗位上的一些初級崗位工作也可能被替代(一些能設計復雜系統的頂尖程序員仍然會吃香)。
與這些崗位相比,相反一些需要人手靈巧度的工作,比如水管工更不容易取代(當然,最終機器也會變得靈巧,所以十年、二十年后,連這個可能也不安全了)。
Hinton認為相比較律師、會計等知識型崗位,水管工的風險要小得多
令人有點沮喪的是,Hinton還提到,AI甚至也在替代一些需要高情商和人際溝通的工作,比如護士、醫生,原因是AI會比人類更具同理心:
「如果讓人們分別和醫生以及一個AI互動,再問他們誰更有同理心,AI的評分更高。」
在訪談中,Kittie Couric還談到了「全民基本收入」(UBI),是否有助于應對大規模工作被AI取代的問題。
UBI是近幾年一些國家公共政策討論中的熱點議題,是為社會中的每個人,提供兜底的收入保障。
Hinton認為它雖然治標不治本,但是一個很好的「創可貼」。
UBI可以讓人不至于挨餓、付得起房租,但它解決不了價值觀喪失的問題。
因為對于很多人來說,自我價值感和他們的工作緊密相關。一旦失業,這種價值感就會喪失。
AI常見的一個應用場景,是在醫療科技領域。Hinton也提到了AI在醫療和疾病領域相關的科學突破。
比如,AI可以通過解讀眼底圖像,預測心梗發病幾率,這在以往是做不到的。
此外,AI還可以在新藥設計上發揮很強的關鍵作用。
Hinton談到DeepMind團隊提出了從蛋白質序列預測其折疊結構的方法,還分拆出了一家專做新藥設計的公司。
他認為,未來一兩年,或許更長一點時間內,我們會迎來一系列更好的藥。
對AI未來的樂觀展望
Hinton始終提醒人類,要注意防范被自己所創造出來的、更聰明的AI接管的風險。
以OpenAI、谷歌為代表的AI公司,是AI技術發展背后的重要推手,但在Hinton看來,沒有哪家公司在這一問題上是做得足夠的:
「Anthropic是一些離開OpenAI的人創辦的,因為他們認為后者在安全研究上的投入太少。但Anthropic還是可以做得更多;盡管OpenAI強調是以安全發展AI為目標,但他們越來越關心讓AI更聰明,而不是如何讓它更安全。
Hinton揭示了這些AI公司在安全問題上滑稽、矛盾的一面:
奧特曼在很大程度上轉向了「快點發展,別太注意安全」;馬斯克在起訴奧特曼,說他忘了「安全發展AI的初心」。但馬斯克在發展AI上,對安全也并不上心。
Kittie Couric還問了Hinton一個非常有意思的問題。
Kittie Couric:如果你能把奧特曼和馬斯克請到同一張桌子上,你會對他們說什么?
Hinton:我會說:你們很清楚,自己開發的東西有很大概率把人類滅掉。你們私下也承認這點。你們應該投入更多精力,用能確保安全的方式來開發。
Kittie Couric:你覺得是什么阻止了他們?是貪婪嗎?
Hinton:基本上是的。他們想靠AI賺大錢,還有「做出比人類更聰明的東西」的興奮感。但這非常危險。
對話談還到了貪婪、自負等人性弱點,對AI研究可能帶來的潛在風險。
Hinton認為年輕的AI研究者,比年長者更能理解AI的力量和潛在的負面效應,他們也更能意識到AI接管可能帶來的風險。
一個積極的信號是:當談到對AI未來的展望時,Hinton表示他比幾周前更樂觀了。
Hinton提出為AI植入「母性本能」,這是他最近看到人類與AI共存的一絲希望
這一轉變,主要是因為他關于「AI母親」的思考,一種嘗試AI植入類似「母性本能」的新思路:
嬰兒之所以能控制母親,是因為很多東西被「進化寫進了」母親身上,母親真心希望孩子成功,會盡一切可能確保孩子成功。我們希望AI也會如此。
「AI母親」這一思考,重塑了人類如何與AI共存的思路,不是想著支配它們,而是為它們植入「母親本能」。
這一設想,也顛覆了大多數人的想象:
在AI面前,我們不再是「智慧頂點」(母親),而是嬰兒。