霍金關于人工智能的演講
霍金關于人工智能的演講你看過嗎?對你有什么啟發?下面小編給大家也帶來了霍金關于人工智能的演講原文,僅供參考,歡迎大家閱讀,希望能夠對大家有所幫助。
霍金GMIC演講全文
在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我認為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。我們別無選擇。我認為人工智能的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。
人工智能的研究與開發正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會效益上面。基于這樣的考慮,美國人工智能協會(AAAI)于2008至2009年,成立了人工智能長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智能系統須要按照我們的意志工作。跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智能本身的各個分支。
文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了計算機在理論上可以模仿人類智能,然后超越這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數以百萬計的工作崗位。
在人工智能從原始形態不斷發展,并被證明非常有用的同時,我也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智能一旦脫離束縛,以不斷加速的狀態重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。未來,人工智能可以發展出自我意志,一個與我們沖突的意志。盡管我對人類一貫持有樂觀的態度,但其他人認為,人類可以在相當長的時間里控制技術的發展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不確定。
2015年1月份,我和科技企業家埃隆馬斯克,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認真的調研。在這之前,埃隆馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。我和他同在生命未來研究所的科學顧問委員會,這是一個為了緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信號召展開可以阻止潛在問題的直接研究,同時也收獲人工智能帶給我們的潛在利益,同時致力于讓人工智能的研發人員更關注人工智能安全。此外,對于決策者和普通大眾來說,這封公開信內容翔實,并非危言聳聽。人人都知道人工智能研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智能是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智能。那封只有四段文字,題目為《應優先研究強大而有益的人工智能》的公開信,在其附帶的十二頁文件中對研究的優先次序作了詳細的安排。
在過去的20年里,人工智能一直專注于圍繞建設智能代理所產生的問題,也就是在特定環境下可以感知并行動的各種系統。在這種情況下,智能是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力。基于這些工作,大量的整合和交叉孕育被應用在人工智能、機器學習、統計學、控制論、神經科學、以及其它領域。共享理論框架的建立,結合數據的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。
隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性循環。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智能的產物;我們無法預測我們可能取得什么成果,當這種智能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規避風險是非常重要的。
現在,關于人工智能的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那么自主該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監控數據引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經濟影響。
長期擔憂主要是人工智能系統失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什么樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,或智能爆發的出現?
當前控制人工智能技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。
近來的里程碑,比如說之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年后可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什么成就,當我們的頭腦被人工智能放大以后。也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智能的成功有可能是人類文明史上最大的事件。
但是人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智能的全方位發展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對于核武器的禁令。我們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,并發現它們的影響比最初預想的更加可怕。
現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發中的位置。我相信我們團結在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智能的崛起。
去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智能研究快速發展中出現的尚無定論的問題。利弗休姆智能未來中心是一個跨學科研究所,致力于研究智能的未來,這對我們文明和物種的未來至關重要。我們花費大量時間學習歷史,深入去看——大多數是關于愚蠢的歷史。所以人們轉而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態度,我相信創造智能的潛在收益是巨大的。也許借助這項新技術革命的工具,我們將可以削減工業化對自然界造成的傷害。
我們生活的每一個方面都會被改變。我在研究所的同事休普林斯承認,利弗休姆中心能建立,部分是因為大學成立了存在風險中心。后者更加廣泛地審視了人類潛在問題,的重點研究范圍則相對狹窄。
人工智能的最新進展,包括歐洲議會呼吁起草一系列法規,以管理機器人和人工智能的創新。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智能的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處于新的工業機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布里克的電影《2001太空漫游》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。奧斯本克拉克跨國律師事務所的合伙人,洛納布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急于接受一個機器人人格。但是擔憂一直存在。報告承認在幾十年的時間內,人工智能可能會超越人類智力范圍,人工智能可能會超越人類智力范圍,進而挑戰人機關系。報告最后呼吁成立歐洲機器人和人工智能機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內決定要采取哪些立法步驟。
我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。我們需要跳出事情應該如何這樣的理論探討,并且采取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們。
謝謝
霍金人工智能
3月14日著名物理學家斯蒂芬霍金教授去世,巨星隕落,令人痛心,也讓人不禁重新思考他的很多理論成就和經典言論。在去世前這幾年,霍金最關注的話題就是離開地球和警惕人工智能。2016年10月霍金在劍橋大學發表演講,他說,人工智能技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。2017年3月,霍金在接受英國《泰晤士報》來訪時再次警告:“人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。”發出類似警告的著名科學家還有不少。例如Sun Microsystems公司的首席科學家比爾喬伊說:“唯一現實的選擇就是放棄、限制那些太過危險的技術研發,限制我們對此類知識的追求。”“我們是否要冒全軍覆滅的危險來攫取更多的知識或財富。”“我們正被推入一個新世紀,沒計劃、沒控制、沒剎車。”這就是地球主義的主張。但宇宙主義者也很強大,宇宙主義者就是支持人工智能的人。雨果德加里斯認為,面對這樣的前景人類將分為兩派:地球主義者反對制造人工智能,宇宙主義者堅持制造人工智能,他們之間的矛盾將激化并導致戰爭。
現在有些學者提出,人工智能的發展可以分為三個階段:弱人工智能Artificial Narrow Intelligence (ANI),強人工智能Artificial General Intelligence (AGI)和超人工智能Artificial Super intelligence (ASI),但他們的劃分標準并不完全可取。我的劃分標準是:在弱智階段,人工智能還沒有超越人類智能;在強智階段,人工智能超越人類智能的幅度不大,人類還可以控制人工智能;在超智階段,人工智能遠遠超越人類智能,人類只能接受人工智能的統治。在不同的階段,人工智能對人類的威脅的性質完全不同。
當人類能夠控制人工智能的時候,人工智能不會帶來很大威脅,因為人對人的威脅已經足夠大了。人類一直生活在核恐怖之下,現有的核武器足以徹底滅絕人類,人工智能還能做什么呢?對于少數人壓迫多數人之類社會正義的問題,人類也已經經歷的夠多了。所以在弱智和強智階段,只要人能控制就不會有太大問題。而且人類要想離開地球,開辟新的生存空間,就必須依靠人工智能。但是到了超智階段,人類就會面對真正的威脅。那么我們怎么辦?全面停止研究嗎?
雨果德加里斯認為機器人會滅絕人類,就像人要滅絕蚊子一樣。人類確實想滅絕蚊子,因為蚊子總侵害人類,如果人類不侵害機器人,機器人還會滅絕人類嗎?人類會不會滅絕蜜蜂呢?即使機器人真的統治了地球,它們就一定會與人類為敵嗎?既然機器人可能比人聰明億萬倍,那么它們就一定懂得與人為善的道理。所以這么聰明的機器人一定是天使,不會是惡魔。
面對受機器人奴役的前景,人類一定會反抗,會爭奪統治權。成功了皆大歡喜,如果失敗了,那么這時應該頑抗到底還是聽天由命呢?受他人奴役其實是家常便飯,在一個國家里,被統治者遠遠多于統治者。當我們爭論人類與機器人的問題時,人類的統治權好像就是我們自己的統治權,但有幾個人真正享有過統治權?事實上,只要統治者能讓大家正常生活,就很少有人愿意考慮應該由誰統治的問題。當清政府統治中國的時候,漢族老百姓也能過得心安理得,而且很快樂。所以,如果人類真的沒有能力反抗,讓人們接受機器人的統治其實也是很容易的。人類一旦接受了機器人的統治,機器人也就沒有理由滅絕人類了,就像人不會滅絕籠子里的老虎一樣。
科學、政治和倫理的爭論在真實的歷史發展中往往很難起決定作用,國際競爭和企業競爭會讓人們無暇顧及未來的風險,只要機器人能給人帶來利益,人們會毫不猶豫地研制和使用,很少有人會真正考慮地球主義者的憂慮。這是人類的私欲造成的必然結果,你我想阻止都不可能。我們能做的只有想開一點,接受這個現實。
知識就是力量的觀念早已深入人心,每一個企業都把人才戰略當成最重要的戰略之一,為了挖一個人才可以不惜重金。如果將來人工智能達到和超過了人的智能,那么企業怎么會放過這樣的“人才”呢。比爾蓋茨做了什么?他和他的員工不過是編了一些程序。如果你擁有一臺機器,可以把微軟公司一年的工作在一天里做完,而且又快又好,那么你還發愁掙不到錢嗎?知識經濟已經造就了世界最大的富翁,那么擁有超級智能的機器人對企業家們來說意味著什么也就不言而喻了,他們一定會爭先恐后地研制和采用機器人。
人工智能讓歷史發展進入一個新的轉折點,每一個民族都要面對這個轉折。對這種發展采取不同的態度,會決定每個民族未來的命運,這是一輪新的競爭。過去的民族競爭是極其殘酷的,南京大屠殺還像是昨天的事情。未來的民族競爭不會那么殘酷,但誰也不敢掉以輕心。接受人工智能會帶來恐懼,但拒絕人工智能同樣帶來恐懼。也許在這個問題上,歷史因素會發揮作用,讓中國人能比西方人更快地接受人工智能。
接受一個殘酷的現實其實并不難,每個人都能做到。例如,交通事故造成的死亡比世界大戰還多,你每次開車出門都面對巨大的風險,但你還是毫不猶豫地踩下油門。每個人都會死,每個人都會失去親人,這么殘酷的現實大家都能接受。美蘇對抗的時候,核戰爭隨時可能爆發,一旦爆發就必然導致人類毀滅,這樣的現實大家也能接受。
如果沒有機器人,你能把握自己的命運嗎?我們這一代人早晚要失去權力,怎么保證子孫能按我們的意志統治世界呢?除了教育沒有別的辦法。但教育也不保險,當年張居正費盡心思教育萬歷皇帝,但張居正死后,萬歷怠政四十多年;諸葛亮對阿斗也苦口婆心地教育,但蜀漢還是很快滅亡了。所以把握未來的命運從來都只是一個幻想,失去對命運的把握一點也不可怕,我們每個人都只能擔當生前事。只要你以最理智負責的態度面對今生,就沒有必要為身后的事擔心。
地球主義者的的觀點以及控制人工智能的愿望都是從人類的利益出發的,但是為什么一定從人類的利益出發呢?如果機器人比人聰明,那么機器人的統治代替人的統治應該也是進化。人類現在都不把機器人當成人,但是當機器人具有了人的智能之后,機器人與人的區別就幾乎不存在了,這時就應該把機器人當成人了。機器人是我們創造的人,也就是我們的子孫。那么我們怎樣對待它們不孝的危險呢?我們從來不會因為自己的孩子可能不孝就殺死他們或者不讓他們出生。如果機器人真的不孝,那么就當是用父母的生命成全它們吧!
霍金發言:人工智能終將替代人類是不是真的?
據報道,霍金于本月14日在牛津聯會發表了關于宇宙與人類未來的演講。他表示,從太空圖片中可發現,宇宙過去50年來發生了劇烈的變化,我們人類僅僅只是廣袤宇宙中的基本粒子,如果我們能夠理解宇宙運行的法則,將會是一件值得慶幸的事。也許有一天,我們能利用引力波,尋找到宇宙大爆炸的中心,但目前最緊要的任務還是找到新家。