4月18日消息,霍金再發警告:人工智能時代即將來臨,人類將被機器代替?霍金作為本世紀最杰出的科學家和天文學家,他在人工智能方面也是很有建樹的,霍金不僅一次發聲,聲明人工智能將給人類帶來危害,可是隨著時間一點點的流逝,留給人類的事件不多了。近日,霍金再發警告,告誡人類即將被人工智能替代,如果沒有有效的防范機制,對人類來說將會發生重大災難。
英國著名物理學家霍金(StephenHawking)再次就人工智能(AI)發聲,他認為:“對于人類來說,強大AI的出現可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結局會怎樣。”
英國當地時間10月19日,劍橋大學“萊弗休姆的未來智能中心(LCFI)”正是投入使用。霍金在慶祝典禮上發表了演講。LCFI的一項重要使命是要化解AI風險,破解AI難題。
“我們花了大量的時間來學習歷史。”霍金說,“讓我們面對現實,大部分的歷史是愚蠢的。所以對于那些學習未來智能的人應該表示歡迎。”
目前,人工智能在全球領域得到了各國政府的重視。但霍金一直對外稱應該對AI持謹慎態度,提高警惕,因為人類有可能會因為自己建立的智能而滅亡。
霍金在演講中批評了人工智能的無節制發展,他認為,人工智能技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。
“我們生活的每一個方面都會改變。總之,創造AI的成功可能是我們文明歷史上最大的事件。”霍金說。
劍橋LCFI中心的學術總監HuwPrice在接受《衛報》采訪時稱,中心的研究重點非常集中。“我們一直在嘗試組織出現終結者這樣的基因,但就像它的名字一樣,它會不斷的來來回回。”
其實,這并不是霍金第一次就人工智能發出警告。在今年6月份,霍金在《拉里·金現場秀》視頻訪談節目中,談到了他對人類未來的擔憂。
他說:“我不認為人工智能的進步一定會是良性的。一旦機器到達能夠自我進化的臨界階段,我們就無法預測它們的目標是否會與我們的一致。人工智能有可能比人類進化得快。我們需要確保人工智能的設計符合倫理,要有切實的安全措施。”
這位物理學家一直對人工智能的風險安全問題直言不諱。更早前,他在接受英國廣播公司采訪也延續了一貫的理念:“全人工智能的出現可能給人類帶來滅頂之災。”
除了霍金外,人工智能領域里的許多先驅都提出了人工智能的風險問題。硅谷“鋼鐵俠”馬斯克也表達了對人工智能的擔憂。他曾與霍金一起,建立了人工智能防范聯盟。
摩爾定律認為全世界的電腦運算能力每兩年就翻一倍,這一定律有歷史數據所支持,這同樣表明電腦硬件的發展和人類發展一樣是指數級別的。我們用這個定律來衡量1000美元什么時候能買到1億億cps。現在1000美元能買到10萬億cps,和摩爾定律的歷史預測相符合。
也就是說現在1000美元能買到的電腦已經強過了老鼠,并且達到了人腦千分之一的水平。聽起來還是弱爆了,但是,讓我們考慮一下,1985年的時候,同樣的錢只能買到人腦萬億分之一的cps,1995年變成了十億分之一,2005年是百萬分之一,而2015年已經是千分之一了。按照這個速度,我們到2025年就能花1000美元買到可以和人腦運算速度抗衡的電腦了。
(審核編輯: 林靜)
分享