在所有關于殺手機器人的高調(diào)宣傳下,2017年在人工智能方面取得了一些顯著的進步。例如,今年初名為Libratus(冷撲大師)的人工智能系統(tǒng)可能會使頂尖德州撲克選手陷入尷尬的境地;更有名氣點的AlphaGo,數(shù)次讓圍棋冠軍折戟。而在現(xiàn)實世界中,機器學習正在用于改善農(nóng)業(yè),擴大醫(yī)療保健的覆蓋面。
但是你*近和Siri或者Alexa談過了嗎?那么你會知道,盡管炒作、信心百倍的億萬富翁,可還有很多事情,人工智能仍然不能做或無法理解。人工智能還面臨著五大棘手問題,明年專家們得絞盡腦汁了。
理解語言
機器在使用文本和語言方面比以往任何時候都更好。Facebook可以讀出對視障人士的圖像描述。谷歌更是做了一個高級的工作,在回復電子郵件時給出簡短建議。然而,軟件仍然不能真正理解我們話語中的意思,以及我們分享給它們的想法。波特蘭州立大學教授梅蘭妮·米切爾(MelanieMitchell)表示:“我們能夠把我們學到的概念以不同的方式結(jié)合起來,并在新的情況下應用。”“而AI和機器學習系統(tǒng)卻做不到。”
米切爾將今天的軟件描述為數(shù)學家GianCarlo-Rota所說的“意義障礙”。一些領先的AI研究團隊正試圖找出如何去解決的方法。
這項工作有的旨在為機器提供一種常識基礎,以及支撐我們自己思維的物質(zhì)世界。例如,F(xiàn)acebook研究人員正試圖通過觀看視頻來教軟件來理解現(xiàn)實。還有的模擬我們用與世界相關的知識可以來做什么。谷歌一直試圖創(chuàng)造出能學習隱喻的軟件。米切爾已經(jīng)嘗試過使用類比和關于世界的概念來系統(tǒng)解釋照片中發(fā)生的事情。
阻礙機器人革命的“現(xiàn)實鴻溝”
機器人硬件已經(jīng)相當不錯了。你只需花500美元就可以買到手掌大小的無人機,還配有高清攝像頭。搬運箱子和兩條腿走路的機器也有所改進。為什么我們沒有被機械助手包圍住呢?因為今天的機器人缺乏匹配它們先進肌肉的大腦。
讓機器人做任何事情都需要針對特定??的任務進行特定的編程。它們可以學習操作,如抓取物體的重復試驗(和試錯)。但是這個過程相對較慢。一個有希望的捷徑是讓機器人在虛擬、模擬的世界中訓練,然后把那些來之不易的知識下載到物理機器人體內(nèi)。然而,這種方法受到了“現(xiàn)實鴻溝”的困擾?,F(xiàn)實鴻溝這個短語描述了機器人在模擬過程中學到的技能在轉(zhuǎn)移到物理世界中時并不總是有效。
不過,“現(xiàn)實鴻溝”正在縮小。10月份,谷歌對虛擬和現(xiàn)實機器人進行實驗,用手臂學會拾取包括膠帶座、玩具和梳子在內(nèi)的各種物體,得到了有希望的結(jié)果。
進一步的發(fā)展也給自動駕駛汽車工作者帶來曙光。無人駕駛競賽中的公司們在虛擬街道上部署虛擬車輛,以減少在實際交通和道路條件下測試所花費的時間和金錢。無人駕駛創(chuàng)業(yè)公司Aurora首席執(zhí)行官ChrisUrmson說,讓虛擬測試更適用于真實車輛是他團隊的優(yōu)先考慮項之一。之前領導谷歌母公司Alphabet自主汽車項目的Urmson說:“明年以后我們可以很好地利用它來加快學習。”
防范AI黑客攻擊
運行著我們的電網(wǎng)、安全攝像頭和手機的軟件受到安全漏洞的困擾。我們不應該期望無人車和家用機器人的軟件有什么不同。事實上,這可能會更糟糕:有證據(jù)表明,機器學習軟件的復雜性引入了新的攻擊途徑。
研究人員今年表示,你可以在機器學習系統(tǒng)內(nèi)隱藏一個秘密觸發(fā)器,導致它在看到一個特定的信號時變身“邪惡”模式。紐約大學研究小組設計了一個街道識別系統(tǒng),通常情況下它能正常工作,除非它看到黃色便簽。將一張黃色便簽粘貼到布魯克林的停車標志上,導致系統(tǒng)將該標志報告為限速。這些騙術可能會對自動駕駛汽車造成潛在問題。
這種威脅被認為是非常嚴重的,世界上*重要的機器學習會議的研究人員,在本月早些時候召開了一個關于機器欺騙威脅的研討會。研究人員討論了一些惡魔般的技巧,比如如何生成看起來與人類一樣看似正常的手寫數(shù)字,但軟件看起來卻不同。例如,你所看到的是數(shù)字2,機器視覺系統(tǒng)看就是3。研究人員還討論了這種攻擊的可能防御方法,并且擔心人工智能被用來愚弄人類。
組織研討會的TimHwang預測,隨著機器學習變得更容易部署,功能更強大,使用該技術操縱人是不可避免的。他說:“你不再需要滿滿一屋子的博士來研究機器學習。”Hwang指出,在2016年總統(tǒng)選舉期間,俄羅斯的虛假宣傳運動是AI增強信息戰(zhàn)的潛在先行者。他說:“為什么不在這些活動中看到機器學習領域的技術呢?Hwang預測了一個可能使機器學習產(chǎn)生虛假視頻和音頻的騙術。
不止桌游
Alphabet的圍棋冠軍軟件在2017年迅速發(fā)展。5月份,AlphaGo一個更強大的版本擊敗了中國圍棋冠軍柯潔。AlphaGo的創(chuàng)造者是研究部門DeepMind,隨后構(gòu)建了一個版本,AlphaGoZero,通過自我學習而打敗人類。12月,AlphaZero又一次升級,它可以學習下棋和日本棋類游戲?qū)⑵濉?/span>
這一系列結(jié)果令人印象十分深刻,同時也提醒人們AI軟件的局限性。國際象棋、將棋和圍棋都很復雜,但所有對手都有相對簡單的規(guī)則和游戲玩法。它們是對計算機快速篩選未來許多可能的一種良好匹配。但生活中的大多數(shù)情況和問題都不是那么整齊有序。
這就是為什么DeepMind和Facebook都在2017年開始制作多人游戲《星際爭霸》的原因。不過,兩者都還沒有取得太大進展?,F(xiàn)在,由業(yè)余愛好者打造的*好的機器人,甚至都比不上那些技術高超的玩家。DeepMind的研究人員OriolVinyals今年早些時候?qū)IRE說,他的軟件現(xiàn)在缺乏必要的規(guī)劃和記憶能力,需要仔細地收集和指揮一支軍隊,同時對對手的行動進行預測和反應。并非巧合的是,這些技能也會讓軟件在幫助諸如辦公室工作或真正的軍事行動等真實任務方面做得更好。2018年星際爭霸或類似游戲的重大進展可能預示著人工智能的強大新應用。
教AI辨別是非
即使在上述領域沒有取得新的進展,如果現(xiàn)有的AI技術被廣泛采用,經(jīng)濟和社會的許多方面也會發(fā)生很大的變化。當企業(yè)和政府急于這樣做時,有人擔心人工智能和機器學習造成的意外和故意傷害。
在本月的NIPS機器學習大會上,如何讓技術保持在安全和道德的范圍內(nèi)是一個突出討論的話題。研究人員發(fā)現(xiàn),機器學習系統(tǒng)在接受來自“完美世界”的數(shù)據(jù)訓練時,可以挑選出令人討厭的或不想要的行為,比如永久的性別刻板印象?,F(xiàn)在,一些人正在研究可以用于審計內(nèi)部工作的人工智能系統(tǒng)技術,并確保它們在從事金融或醫(yī)療等行業(yè)工作時做出公平的決策。
明年應該能看到科技公司提出如何讓人工智能站邊人性的想法。谷歌,F(xiàn)acebook,微軟和其他人已經(jīng)開始討論這個問題,并且成立一個新的非營利組織PartnershiponAI,該組織將研究和嘗試塑造人工智能的社會影響。同時還有來自許多獨立組織的壓力。一個名為“人工智能基金倫理與治理”的慈善項目正在支持麻省理工學院,哈佛大學等其他人研究人工智能和公共利益。紐約大學的一個新研究機構(gòu)AINow也有類似的任務。在*近的一份報告中,它呼吁各國政府發(fā)誓放棄在刑事司法或福利等領域使用沒有公開檢查的“黑匣子”算法。