關(guān)于人工智能的變革威力,人們提出了很多大膽的設(shè)想。但我們也有必要聽(tīng)聽(tīng)一些嚴(yán)重警告。上月,微軟研究院(Microsoft Research)首席研究員凱特?克勞福德(Kate Crawford)警告稱,如果被威權(quán)政府濫用,威力與日俱增的人工智能可能會(huì)釀成一場(chǎng)“法西斯夢(mèng)”。
克勞福德在SXSW科技大會(huì)上表示:“就在我們看到人工智能的發(fā)展速度呈階梯型上升時(shí),其他一些事情也在發(fā)生:極端民族主義、右翼威權(quán)主義和法西斯主義崛起。”
她表示,人工智能可能帶來(lái)龐大的數(shù)據(jù)登記冊(cè)、針對(duì)特定人口群體、濫用預(yù)測(cè)型警務(wù)以及操縱政治信仰。
克勞福德并不是唯一對(duì)強(qiáng)大的新技術(shù)被錯(cuò)誤使用(有時(shí)以意想不到的方式)感到擔(dān)憂的人。英國(guó)政府首席科學(xué)顧問(wèn)馬克?沃爾波特(Mark Walport)警告稱,在醫(yī)學(xué)和法律等涉及細(xì)膩人類(lèi)判斷的領(lǐng)域不假思索地使用人工智能,可能帶來(lái)破壞性結(jié)果,并侵蝕公眾對(duì)這項(xiàng)技術(shù)的信任。
盡管人工智能有增強(qiáng)人類(lèi)判斷的潛力,但它也可能帶來(lái)有害的偏見(jiàn),并產(chǎn)生一種錯(cuò)誤的客觀感覺(jué)。他在《連線》(Wired)雜志的一篇文章中寫(xiě)道:“機(jī)器學(xué)習(xí)可能會(huì)內(nèi)部化在量刑或醫(yī)療歷史中存在的所有隱性偏見(jiàn),并通過(guò)它們的算法外部化。”
就像一直以來(lái)的情況那樣,識(shí)別危險(xiǎn)仍然要比化解危險(xiǎn)容易得多。沒(méi)有底線的政權(quán)永遠(yuǎn)不會(huì)遵守限制人工智能使用的規(guī)定。然而,即便在正常運(yùn)轉(zhuǎn)的基于法律的民主國(guó)家,框定適當(dāng)?shù)幕貞?yīng)也很棘手。將人工智能可以做出的積極貢獻(xiàn)最大化,同時(shí)將其有害后果降至最低,將是我們這個(gè)時(shí)代最艱巨的公共政策挑戰(zhàn)之一。
首先,人工智能技術(shù)很難理解,其用途往往帶有神秘色彩。找到尚未被行業(yè)挖走、且不存在其他利益沖突的獨(dú)立專家也變得越來(lái)越難。
受到該領(lǐng)域類(lèi)似商業(yè)軍備競(jìng)賽的競(jìng)爭(zhēng)的推動(dòng),大型科技公司一直在爭(zhēng)奪人工智能領(lǐng)域很多最優(yōu)秀的學(xué)術(shù)專家。因此,很多領(lǐng)先研究位于私營(yíng)部門(mén),而非公共部門(mén)。
值得肯定的是,一些領(lǐng)先科技公司認(rèn)識(shí)到了透明的必要性,盡管有些姍姍來(lái)遲。還有一連串倡議鼓勵(lì)對(duì)人工智能展開(kāi)更多政策研究和公開(kāi)辯論。
特斯拉汽車(chē)(Tesla Motors)創(chuàng)始人埃隆?馬斯克(Elon Musk)幫助創(chuàng)建了非盈利研究機(jī)構(gòu)OpenAI,致力于以安全方式開(kāi)發(fā)人工智能。
亞馬遜(Amazon)、Facebook、谷歌(Google) DeepMind、IBM、微軟(Microsoft)和蘋(píng)果(Apple)也聯(lián)合發(fā)起Partnership on AI,以啟動(dòng)更多有關(guān)該技術(shù)實(shí)際應(yīng)用的公開(kāi)討論。
谷歌DeepMind聯(lián)合創(chuàng)始人、Partnership on AI聯(lián)合主席穆斯塔法?蘇萊曼(Mustafa Suleyman)表示,人工智能可以在應(yīng)對(duì)我們這個(gè)時(shí)代一些最大挑戰(zhàn)方面發(fā)揮變革性作用。但他認(rèn)為,人工智能的發(fā)展速度超過(guò)我們理解和控制這些系統(tǒng)的集體能力。因此,領(lǐng)先人工智能公司必須在對(duì)自己?jiǎn)栘?zé)方面發(fā)揮更具創(chuàng)新和更主動(dòng)的作用。為此,這家總部位于倫敦的公司正在嘗試可驗(yàn)證的數(shù)據(jù)審計(jì),并將很快宣布一個(gè)道德委員會(huì)的構(gòu)成,該委員會(huì)將審查該公司的所有活動(dòng)。
但蘇萊曼指出,我們的社會(huì)還必須設(shè)計(jì)更好的框架,指導(dǎo)這些技術(shù)為集體利益服務(wù)。他在接受英國(guó)《金融時(shí)報(bào)》Tech Tonic播客的采訪時(shí)表示:“我們必須能夠控制這些系統(tǒng),使他們?cè)谖覀兿M臅r(shí)間做我們想做的事,而不會(huì)自說(shuō)自話。”
一些觀察人士表示,做到這點(diǎn)的最佳方法是調(diào)整我們的法律制度,確保人工智能系統(tǒng)可以向公眾“解釋”。從原則上說(shuō),這聽(tīng)上去很簡(jiǎn)單,但實(shí)際做起來(lái)可能極為復(fù)雜。
布魯塞爾自由大學(xué)(Free University of Brussels)法律和科技學(xué)教授米雷列?希爾德布蘭特(Mireille Hildebrandt)表示,人工智能的危險(xiǎn)之一是我們變得過(guò)度依賴我們并不完全理解的“不用腦子的智慧”。她認(rèn)為,這些算法的目的和影響必須是可測(cè)試而且在法庭上是可爭(zhēng)論的。她表示:“如果你無(wú)法有意義地解釋你的系統(tǒng)的決定,那么你就不能制造它們。”
我們將需要更多的人類(lèi)智慧來(lái)應(yīng)對(duì)人工智能挑戰(zhàn)。
(審核編輯: 林靜)
分享