7月6日信息,據(jù)媒體報道,著名物理學家斯蒂芬?霍金出席了美國HBO頻道的“LastWeekTonight”節(jié)目,并與主持人約翰?奧利弗展開了深刻而有意義的對話,并認為機器人可能“比我們聰明”。
人工智能其實是無限接近人類,具有極強的決定能力,可對周圍的態(tài)勢做出判斷并且分析下一步的趨勢,這就像無人機的編程那樣,通過機載傳感器獲得周圍的環(huán)境情況,然后通過復雜的算法控制無人機在空中的動作,自主決定是否空中懸停還是對目標采取行動。
人工智能機器人會無情地追求自己的目標,從人類的角度看可稱之為失控,對于智能機器人而言,它只不過將算法所賦予的能力發(fā)揮到極點,而那些失去理性的智能機器人很有可能變成人類的殺手,與我們戰(zhàn)斗到死。
霍金:機器人可能比我們聰明
7月6日信息,據(jù)媒體報道,著名物理學家斯蒂芬霍金出席了美國HBO頻道的LastWeekTonight節(jié)目,并與主持人約翰奧利弗展開了深刻而有意義的對話,并認為機器人可能比我們聰明。
當奧利弗問及霍金他最希望人們能夠理解什么事情時,霍金回答說:虛時間(imaginarytime)。他說道:虛時間就像是宇宙空間中的另一個方向,這是我的作品中還未被科幻小說家使用過的一則假說。
說實話,盡管所有的科幻小說只是在科學家的作品中加入了血和性等元素,那為什么沒有科幻小說作家在虛時間的基礎(chǔ)上創(chuàng)作故事呢?霍金說道:他們不理解虛時間。
當然,筆者也不能假裝理解什么是虛時間。無論如何,它是一種與時間有關(guān)的東西,與每天侵蝕我們的時間朝著不同的方向運行。
不過,奧利弗最希望了解的是人工智能。與眾多人工制成品一樣,人工智能對人類而言也可能是有害,甚至是致命的。
霍金對此非常肯定:人工智能在并不遙遠的未來可能會成為一個真正的危險。但肯定不是在谷歌那群好男孩的掌握之下嗎?霍金認為,這或許將與谷歌那些好男孩的想法無關(guān)。因為一般的機器人可以進行設(shè)計改進它自己,使得它們自己比我們所有人都更聰明。
奧利弗繼續(xù)問道:那為什么我不應該為能夠與機器人戰(zhàn)斗而感到興奮呢?霍金給出的回答很干脆:你會輸?shù)簟?p> 奧利弗開始擔心之前根本不是霍金在與他談話,而有可能是一個充滿智慧的計算機在同他問答。霍金回答說:你是個白癡。
但這難道不是人類的本質(zhì)嗎?盡管我們認為我們什么都知道,至少當我們對自己誠實時,我們最清楚的一件事就是我們都是傻瓜。我們所不知道的要遠遠超過我們所做到的。
事實上,考慮到世界上可能有很多平行宇宙,奧利弗懷疑是不是在某個平行宇宙里,他可能會比霍金聰明。是的,霍金回答道,而且還有一個宇宙,在那里你很有趣。
殺人機器人很快會出現(xiàn)
國際人權(quán)組織人權(quán)觀察就是其中之一,2012年11月他們聯(lián)合美國哈佛大學發(fā)表了一份報告,呼吁國際間禁止研發(fā)全自動武器系統(tǒng)。這種可以在不受人類操縱的情況下對目標自行發(fā)動攻擊的武器,也被稱作殺人機器人。
巧合的是,就在這份報告發(fā)布3日后,美國國防部發(fā)布了一份關(guān)于全自動武器系統(tǒng)的指令,據(jù)英國《衛(wèi)報》12月3日報道,指令指出,這種系統(tǒng)一旦激活,即可自行選擇和處理目標而不需要任何人的操控。同時將建立相關(guān)政策,分配開發(fā)和使用自動或半自動武器系統(tǒng)的人的責任。
事實上,這已經(jīng)不是美軍第一次討論這種武器的可能性,早在2004年美國國防部就已經(jīng)給研發(fā)者亮了綠燈。總的來說,美國國防部希望的是最徹底的實驗,從研發(fā)到使用到操作者的培訓,并確保適用法律的配套,而且確保有人類電腦終端能結(jié)束錯誤任務。當然他們也反復強調(diào)了建立有關(guān)政策防止任何可能出現(xiàn)的錯誤而導致系統(tǒng)的失控。
人工智能會否成為殺人武器
全自動武器系統(tǒng)若要有一定的自行判斷能力,就要以人工智能為基礎(chǔ)。但隨著人工智能的發(fā)展,出現(xiàn)殺人機器人的擔憂會越來越多,甚至人們也會擔心用于其他地方的服務型機器人也可能因為某些錯誤的出現(xiàn)而導致安全問題。尤其是當人工智能越來越接近人類的智力,甚至擁有了類人的情感。
在專業(yè)領(lǐng)域內(nèi),一些專家將機器人學和人工智能看做是兩個獨立的學科。美國計算機科學教材系列《人工智能》作者提姆瓊斯(TimJones)認為,機器人學和人工智能是兩個獨立的領(lǐng)域,但卻是相互補充的。機器人為人工智能提供了其他事物所不能提供的物理表現(xiàn)形式。
他對記者說:雖然可以通過機器人模擬,了解人工智能應用在機器人上時可能產(chǎn)生的問題,但是模擬容易掩蓋一些需要解決的問題。因為,模擬本身是人工控制環(huán)境的,而機器人本身和自然環(huán)境卻是復雜和凌亂的。
因此,瓊斯在他編寫的教材中,將機器人學和人工智能分離為兩個學科。機器人學能為人工智能研究帶來好處。雖然我們可以制造一個完全不結(jié)合人工智能的機器人,這種機器人系統(tǒng)只是按預定程序辦事,但它的重要性絕不能與建立一個擁有智能的機器人系統(tǒng)相比。
當人工智能越來越高級,擁有人工情感、類人情感就成為一個必然的方向。瓊斯也告訴《中國科學報》記者,沒有情緒的機器就不能稱之為擁有真正的人工智能,但不是所有的情緒對機器都是有利的。如果一個機器能夠展現(xiàn)憤怒或嫉妒這樣的情緒那就隱藏著危險。他說:擁有情感能讓機器感知用戶的情感。能表達和能感知情緒都是有必要的,但是這也會導致新的問題。