大數(shù)據(jù)時代、機器人時代、自動化時代,會讓人類的未來變得更好,還是更糟?
科技或弱化人類技能 警惕盲目自動化
不同的專家權(quán)威給出了不同的解讀。與其說他們的觀點各自對立,倒不如說是高度互補的。奇點大學執(zhí)行主席彼得·戴曼迪斯在《富足》一書中就技術(shù)帶來美好未來的樂觀解答,以及具體的行動路線圖;科普作家馬特·里德利的《理性樂觀派》回顧了科技史和經(jīng)濟史,相當鼓舞人心。
美國著名思想家、《哈佛商業(yè)評論》前主編尼古拉斯·卡爾則要悲觀得多。他的《淺薄:互聯(lián)網(wǎng)如何毒化了我們的大腦》、《Google讓我們變愚蠢》等作品已成為互聯(lián)網(wǎng)、新科技時代的“警世恒言”,強調(diào)人類絕不能因為新科技、互聯(lián)網(wǎng)、智能化、自動化而丟棄主體性。某種意義可以認為,因為尼古拉斯·卡爾這樣的人存在,以其影響力促使公共管理部門、公眾以及互聯(lián)網(wǎng)行業(yè)發(fā)生轉(zhuǎn)向,從盲目樂觀,變得更加注重新科技應用的安全,以及是否合乎倫理原則,技術(shù)的用戶因而獲得了更為安全、放心的體驗。
這本《玻璃籠子》,是尼古拉斯·卡爾的新作。這本書延續(xù)了尼古拉斯·卡爾的一貫立場,揭示了自動化、智能化趨勢潮流下,技術(shù)崇拜帶來的應用偏差,而這種偏差正在傷害人類自身。
我國醫(yī)療衛(wèi)生系統(tǒng)正在推進電子病歷、數(shù)字化的國民醫(yī)療檔案的普及。這被認為在不損害患者隱私的情況下,可以通過數(shù)據(jù)的發(fā)掘利用,有效提高診療水平和響應速度。尼古拉斯·卡爾卻在書中舉出了截然相反的例子:從小布什任內(nèi),到2009年初上任的奧巴馬,美國政府十多年來積極推進電子病歷普及,為此花費了多達數(shù)百億美元的投入。但在奧巴馬的第二任任期開始后,醫(yī)療界卻不斷曝出這項自動化新技術(shù)的弊端。
首先是電子病歷的應用,促使醫(yī)生進行更多的不必要檢查,導致醫(yī)療成本增加。這是因為電子病歷數(shù)據(jù)系統(tǒng)會自動推薦許多診斷檢查項目,系統(tǒng)默認設置為選取檢查,如果醫(yī)生要選擇不檢查,則要進行一番手動操作。第二項弊端是造成病歷檔案的隨意篡改,盡管這本可以通過系統(tǒng)設置來杜絕,但醫(yī)院和系統(tǒng)維護企業(yè)通常默許醫(yī)生所為。第三項弊端是弱化了醫(yī)生技能。醫(yī)生不再手寫病歷,而是大量通過剪切 粘貼的操作完成病歷描述,這確實提高了效率,卻誘使醫(yī)生忽略病人、類似病情之間的差異,診斷的專屬性和準確性降低了。與之同時,不再手寫病歷,加快了診療效率,卻因此減少了醫(yī)患溝通。此外,電子病歷系統(tǒng)還會事無巨細地提示診斷錯誤、處方配伍問題等,醫(yī)生通常煩不勝煩,會關(guān)閉問題提示,而這恰恰會誘發(fā)診斷和處方錯誤。
電子病歷系統(tǒng)的以上特征,實際上是在加速實現(xiàn)醫(yī)生診療過程的智能化和自動化,方向當然是創(chuàng)造出完全智能化的機器人醫(yī)生。智能化、自動化、機器化替代人的進程,實際上始于20世紀中期,最早出現(xiàn)在軍事領域,然后是制造業(yè),最近十多年來在金融業(yè)、新聞業(yè)、法律服務業(yè)等更多行業(yè)獲得了廣泛應用。尼古拉斯·卡爾指出,機器具有學習能力,可以不斷規(guī)范現(xiàn)象間復雜的統(tǒng)計關(guān)系,反饋能力不斷提高,變得相比過去更為準確。醫(yī)療領域而今已經(jīng)悄無聲息地實現(xiàn)了大部分的智能化和自動化,醫(yī)生而今扮演的角色其實只是一個人類傳感器,負責整合多項醫(yī)療設備和儀器的判斷,什么時候機器可以替代扮演人類傳感器的角色,人類醫(yī)生很可能就失去了就業(yè)市場。
當然,醫(yī)生們可以感到稍許安慰的是,迄今為止,不管是何等精妙和智能化的機器,還沒有掌握人的直覺,面對概率性問題的判斷也常常面臨局限,數(shù)據(jù)出現(xiàn)失真。機器人醫(yī)生很可能會在不久的將來出現(xiàn),但如果離開人類醫(yī)生的把關(guān),很可能會在連續(xù)運轉(zhuǎn)下產(chǎn)生致命的計算錯誤,并因此為人類醫(yī)生保留就業(yè)崗位創(chuàng)造機會。
《玻璃籠子》一書用了大量的篇幅來談論各類領域內(nèi),自動化、智能化、機器化的新科技應用所無法避免的局限性。例如GPS的廣泛使用,讓曾經(jīng)是北極圈內(nèi)的天才向?qū)б蚣~特人失去了探路能力,事故相反頻發(fā)。又如自動飛行系統(tǒng)投入使用后,相反使得飛行員的技能被弱化,進而降低了應對突發(fā)危險情況的判斷能力,如果危急時刻存在兩難選擇的情況,自動化系統(tǒng)也給不出很好的解答——對于飛行員來說,安裝了自動飛行系統(tǒng)的飛機,實際上已經(jīng)變成具有更大危險性的“玻璃籠子”。
歸結(jié)起來,尼古拉斯·卡爾強調(diào)的自動化弊端,主要包括兩大方面:一是數(shù)據(jù)挖掘分析、算法本身存在的缺陷,無法做到盡善盡美,概率上百萬分之一、千萬分之一的差錯會以更高頻度出現(xiàn),給應用了自動化系統(tǒng)的設備、系統(tǒng)帶來致命危機;二是自動化的應用,讓人產(chǎn)生過度依賴和偏好,從而降低了技能,也容易分散注意力和意識,無法做到安全可靠的應對突發(fā)風險。
尼古拉斯·卡爾不反對自動化的使用,但非常警惕盲目、過度而不設保障的自動化應用。他希望自動化、智能化、機器化潮流下,設計者、發(fā)明家、創(chuàng)新企業(yè)家能夠拋棄技術(shù)優(yōu)先的策略,真正回到以人類為中心的自動化的懷抱,回歸人類工程學的人本主義原則。畢竟,只有切實的參與和勞動,才讓人在這個世界上產(chǎn)生存在感。
(審核編輯: 智慧羽毛)
分享