在每一個新階段,科技的進步都會讓許多事情被徹底顛覆,使人類與世界的關(guān)系重新被定義。不過,人類存在的意識優(yōu)勢,會使我們處于“創(chuàng)造”食物鏈的頂端,而AI在其中被認(rèn)為是起到了輔助的作用。
然而,事情的發(fā)展有時并非人類所能控制,就像現(xiàn)在,人工智能的發(fā)展速度已然引起一些擔(dān)憂。就連埃隆·馬斯克和斯蒂芬·霍金都警告人們AI可能會統(tǒng)治世界。先不說這種擔(dān)憂會否實現(xiàn),從某種程度上來說,它對于提醒人類關(guān)注和控制AI的發(fā)展方向和速度確實具有一定的價值。
從現(xiàn)實的角度來看,AI的發(fā)展確實造成了諸如失業(yè)等問題。從更為長遠的方向來看,AI如果過度發(fā)展還可能使其被濫用,從而對人類造成更為嚴(yán)重的威脅。
面對可能會出現(xiàn)甚至已經(jīng)初露端倪的問題,人類確實需要好好管一管AI了。不過,以AI目前的發(fā)展水平來說,過度恐慌是沒有必要的。弱人工智能階段要過渡到強人工智能階段尚需時間,且人工智能在多數(shù)時間和多數(shù)領(lǐng)域依然是以造福人類為主的。所以,人類對于AI的適度監(jiān)管十分必要,但過分擔(dān)憂則沒有必要。
一、AI發(fā)展有時超出人類預(yù)估,適度監(jiān)管防止濫用
人工智能已經(jīng)在使世界做出一些轉(zhuǎn)變,AlphaGo的話題已經(jīng)被反復(fù)討論,馬斯克的OpenAI在DOTA 2上擊敗了世界頂尖的電子競技選手,其發(fā)展速度之快,已經(jīng)引發(fā)了業(yè)內(nèi)專家及大佬的擔(dān)憂。
一向崇尚自由主義的Elon Musk在人工智能問題上卻強調(diào)主動監(jiān)管。Musk在兩個月前的美國州長協(xié)會中表示:“我接觸過最先進的人工智能,我認(rèn)為人類的確應(yīng)該對它感到擔(dān)心”,并將人工智能稱為“人類文明面臨的最大風(fēng)險”。
同樣,在前不久召開的大數(shù)據(jù)峰會上,馬云也表示了對人工智能的擔(dān)憂。也許是曾經(jīng)做過教師的緣故,馬云對教育比較關(guān)注。他認(rèn)為,未來三十年是重新定義的變革時代,如若繼續(xù)以前的教學(xué)方法:“我可以保證,三十年后孩子們找不到工作。”
這句話或許有夸張的成分,但人工智能的發(fā)展速度及方向的確需要受到人們的重視。流水線上的機器人誤傷工人,俄羅斯的機器人自動“出逃”,似乎都預(yù)示著人工智能可能給人類帶來麻煩,甚至像大家所擔(dān)憂的那樣失去控制。因此,許多公司和機構(gòu)都開始在人工智能監(jiān)管層面進行深耕,分析現(xiàn)有的及可能出現(xiàn)的影響。
例如由SRI International領(lǐng)導(dǎo)的“人工智能指數(shù)”程序。SRI International是一間非營利性的實驗室,試圖追蹤研究人員感興趣的AI形式,以及各AI公司的工程師數(shù)量及資金數(shù)額。SRI International的目標(biāo)是通過一系列相關(guān)的努力,在今年年末之前發(fā)布有關(guān)AI發(fā)展?fàn)顩r的綜合性報告。
無獨有偶,另一個由EFF(電子前沿基金會)領(lǐng)導(dǎo)的公司正在搜集AI相關(guān)的研究數(shù)據(jù),用以整合開源的進展資料。EFF首席計算機科學(xué)家Peter Eckersley表示:“我們想知道,人工智能的真正版本有什么緊迫和長期的政策影響,而不是人們過于興奮的推測版本”。
雖然目前人們不清楚或?qū)Υ祟悢?shù)據(jù)的價值不明晰,但隨著時代的發(fā)展,它們的用途將逐步得以顯現(xiàn)。例如,追蹤能夠提供證明AI是否會搶走人類飯碗的可靠數(shù)據(jù)。并且目前,相關(guān)研究人員已經(jīng)意識到了這類監(jiān)控的重要性。而當(dāng)前收集的數(shù)據(jù)反應(yīng)出了AI系統(tǒng)在安全性方面是相關(guān)的、甚至是迫切程度極高的研究領(lǐng)域。
今年,關(guān)于AI的負(fù)面新聞逐漸增加,說的都是AI如何搶人的飯碗、傷到人類,甚至在影視中出現(xiàn)AI直接統(tǒng)治地球消滅人類的場景。一些極端主義者甚至將AI比作魔鬼,希望它徹底消失。
不可否認(rèn),AI可能成為人類歷史上最偉大的成就之一。但與此同時,風(fēng)險和隱患也著實存在。AI技術(shù)可能被用于制造對人類造成威脅的東西,如俄羅斯武器制造商打算開發(fā)內(nèi)置AI的新一代武器,這類武器能夠自行選擇目標(biāo),這就意味著戰(zhàn)爭可能被提升至前所未有的危險高度。
由此可見,人工智能的發(fā)展必須有相關(guān)的監(jiān)管,起碼人類對AI要有相對清晰的認(rèn)識和限定的范圍,以保證AI不會失控,不會對人類造成傷害。但從另一個層面來看,人工智能也許并不值得人們?nèi)绱藫?dān)憂,總體來說,AI對人類的作用還是利大于弊的。
二、AI更具造福人類傾向性,保證安全性與穩(wěn)定性是關(guān)鍵
任何一樣新事物的出現(xiàn),總會使人類產(chǎn)生恐懼感。從以前的機器到電腦、手機,再到今天的人工智能,這種擔(dān)憂從未停止。不過,以往種種的擔(dān)憂已經(jīng)得到解釋。
Joseph Schumpeter等經(jīng)濟學(xué)家認(rèn)為:“創(chuàng)造的行為必然包括破壞舊的、通常過時的、低效的、生活和生產(chǎn)的方法。但是這種破壞帶來了新的生活:新的機會、商品和服務(wù),以及新的生活方式,沒有這些我們將無法生活。”
就經(jīng)濟層面而言,新穎的、顛覆性的技術(shù)帶來的工作數(shù)量和質(zhì)量遠超傳統(tǒng)模式。就文化層面而言,新技術(shù)在發(fā)展過程中經(jīng)受住了質(zhì)疑和考驗,豐富了人類的精神生活。
然而一說到AI,似乎人們又開始變得焦慮,因為其技術(shù)變革的腳步愈加迅速,而智能機器人的高度類人化也是引起人類恐慌的重要原因。所以人類的擔(dān)憂更勝從前,并且已經(jīng)蔓延到學(xué)術(shù)和法律層面。
但實際情況是,以目前的發(fā)展水平來看,人類并不用太過擔(dān)憂。因為AI的發(fā)展仍處于弱人工智能階段,至于殺手機器人和統(tǒng)治人類這種設(shè)定,多半出現(xiàn)于科幻小說和影視作品中,想要在現(xiàn)實中得以實現(xiàn)也并非易事。相反的,在現(xiàn)實生活中,AI對于人類的作用多是正面和積極的。
比如在制造業(yè)層面,許多人擔(dān)心AI給傳統(tǒng)工作帶來失業(yè)的風(fēng)險,但實際情況是,受影響的人會找到更好的工作,而留下的工人也能和AI“和平共處”,因為自動化會提升其工作質(zhì)量。不過根據(jù)McKinsey的調(diào)查數(shù)據(jù)顯示,AI可能會讓制造業(yè)在2025年創(chuàng)造1.4萬億美元的價值,但也可能會導(dǎo)致貧富差距的進一步擴大。
在醫(yī)療方面,醫(yī)生們已經(jīng)開始采用AI技術(shù)診斷疾病、跟蹤病人狀況,甚至進行更為精確的手術(shù)。這一系列技術(shù)切實地挽救了生命,并且在未來10年中,它將大幅降低醫(yī)療行業(yè)的成本,這一數(shù)額可能高達上千億美元。
值得注意的是,傳統(tǒng)觀念中對于AI的擔(dān)憂(勞動力市場和收入效應(yīng))正被存在風(fēng)險和社會歧視所取代。在學(xué)術(shù)界,分歧一直存在。對普通人而言,可能更關(guān)注AI對社會所造成的影響。例如,被人工智能介入的社會可能會悄然出現(xiàn)分層,從而進一步加劇兩級分化,形成社會歧視。
這些擔(dān)憂并非沒有道理,但如果人類及時察覺到了這些問題,并提前立法,那么就能夠在大方向上保證AI的有序性。
但在監(jiān)管方面也需要注意尺度,過度監(jiān)管不僅無益于AI的進一步發(fā)展,還可能損失數(shù)萬億美元的經(jīng)濟增長和成本。但如果監(jiān)管體制過于松散,也會導(dǎo)致AI發(fā)展降溫,最終達不到理想的效果。因為我們的AI變得愈發(fā)智能,所以相應(yīng)的命令與行為模式也該與時俱進,尤其是監(jiān)管方面,必須做出更為明智的選擇。
因此,制定監(jiān)管的人應(yīng)該學(xué)會多多聽取意見、與學(xué)術(shù)界、創(chuàng)新者合作,并深入了解AI。而存在大問題的地方,則需要多加注意。但在常態(tài)下,交流與責(zé)任工具就足以保證AI正常運轉(zhuǎn)。
所以,AI確實有可能會威脅到人類,但更多的是給人類帶來巨大的好處,我們只需通過相關(guān)的監(jiān)管措施保證其運行過程的安全性與穩(wěn)定性即可,而沒必要對其過分擔(dān)憂。
{{item.content}}