備受關注的“人機大戰”——柯潔VSAlphaGo2.0已經結束了,但人工智能的黑箱之惑還沒有得到有效解決。某種程度上,人們對于AI黑箱問題的探索十分類似于人類對于自身大腦運作機制的探索。我們可以本能地相信大腦做出的決定,但是我們能不假思索地信任AI的判斷嗎?
備受關注的“人機大戰”——柯潔VSAlphaGo2.0已經結束將近十天了,人們對這場歷史性對決的討論仍在繼續。面對人工智能3比0完勝人類的比賽結果,有些人提出了這樣的觀點:這場比賽無論哪一方獲勝,其實都是人類的勝利,因為人工智能也是人類的發明創造。這一說法當然有其合理性,但是在人工智能黑箱問題尚未得到解決的今天,這說法還是無可避免地帶著一絲自我安慰的色彩。
困擾學界多年的AI黑箱之惑
人工智能黑箱問題并不是在近幾年圍棋程序屢勝人類之后才浮出水面,事實上,它已經困擾學界多年了。
美國卡內基梅隆大學機器人學兼職教師的Pomerleau早在26年前就開始了對黑箱問題的研究,那時他還是卡內基梅隆大學機器人技術研究生。他在悍馬里安裝了一臺編程過的計算機,可以通過攝像機記錄的信息解讀路況,并儲存他對各種路況作出的反應。Pomerleau希望這臺機器能夠獲得更多關聯獨立控制駕駛。每一次的實驗中,Pomerleau都會運行系統幾分鐘,然后讓汽車自行駕駛,一切都很順利。但是,有一次悍馬靠近一座橋時突然向一邊急轉彎。Pomerleau趕緊抓住方向盤才得以避免這場車禍。經過分析,Pomerleau弄清了原因:復雜如神經網絡般的電腦程序一直把長滿草的路邊當向導,所以突然出現的大橋迷惑了它。而二十六年之后的今天,人工智能應用愈加發達和普遍,黑箱問題的破解難度也增加了許多,緊迫性也日益凸顯。
學界目前對AI黑箱問題的幾個解決辦法
AI黑箱問題這么多年都沒有解決,是不是意味著人類對其束手無策呢?也不盡然。目前,學界已經提出了幾種解決辦法。
創業公司OptimizingMind發明了一項能觀察智能機器決策過程的技術。該算法的目的是創造“透明訪問”系統以呈現機器學習是如何做出預期的。該系統以人腦的神經模型為基礎,能把任何深度網絡轉化為該系統的模式。其目的是探索人工智能行為的潛在預期,并且找出人工智能思維模式的哪個方面對決策影響最大。它可以為工程師大幅減少機器開發的時間,幫企業節省資源。
斯坦福大學的科學家則開發了一種神經網絡錯誤檢查工具Reluplex。這個新工具的用戶可以詢問應用了這個神經網絡的系統,有關其屬性的具體問題。但是它仍然無法測試有數百萬個節點的網絡。而Reluplex本身仍然需要獨立驗證。盡管如此,研究人員預期會有許多可能的用途。
某種程度上,人們對于AI黑箱問題的探索十分類似于人類對于自身大腦運作機制的探索,這大概是由于人類在開發人工智能時借鑒和模擬了人類的大腦和神經系統。目前這兩個領域對各自的研究對象都還是知之甚少。我們不甚了解自己的大腦是如何運作的,但我們本能地相信它。同樣地,我們也不甚了解AI是如何做出各種決定的,但是我們能不假思索地相信它嗎(雖然大多數時候這些決定是合理的)?恐怕很難。因此,在大規模開發和利用人工智能之前,黑箱之惑是個需要盡早攻克的難題。這一問題得不到有效解決,AI普及推廣之路上的疑云便會持久存在。
(審核編輯: 智匯張瑜)
分享