<pre id="co8k0"><cite id="co8k0"></cite></pre><strike id="co8k0"></strike>
  • <acronym id="co8k0"><cite id="co8k0"></cite></acronym>
  • <nav id="co8k0"></nav>
    <input id="co8k0"><em id="co8k0"></em></input>
  • 關于人工智能威脅論,看著名企業家與人工智能學家是如何激烈對抗的

    【IT時代網、IT時代周刊編者按】本文是"人工智能學家"舉辦2015世界人工智能系統智商測試排名活動的第一篇文章。闡述了人工智能威脅論產生的起源,和辯論雙方的詳細意見。應該說兩個陣營里都有重量級人物,但有趣的是,認同人工智能威脅論的大部分是企業家,外專業科學家,反對人工智能威脅論的多是人工智能和計算機領域的科學家,為什么出現這種情況,值得我們關注和思考。

    關于人工智能的定義,美國斯坦福大學人工智能研究中心尼爾遜教授提出“人工智能是關于知識的學科――怎樣表示知識以及怎樣獲得知識并使用知識的科學。”,而另一個美國麻省理工學院的溫斯頓教授認為:“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。”


    達特茅斯學院

    1956年夏季,在美國達特茅斯學院(Dartmouth College)舉行一次重要的會議,會議上以麥卡賽、明斯基、羅切斯特和申農等為首的科學家共同研究和探討用機器模擬智能的一系列有關問題,首次提出了“人工智能”這一術語,它標志著“人工智能”這門新興學科的正式誕生。此后在人工智能的發展歷史上經歷了多次高潮-低潮的階段,從歷史上看,在人工智能發展快速的時期往往會出現大量樂觀觀點,但最近這一次人工智能熱潮中,樂觀情緒卻轉變成人工智能威脅論。

    谷歌技術總監雷·《奇點臨近》作者庫茲韋爾(Ray Kurzweil)預言人工智能將超過人類智慧。他在書中寫道”由于技術發展呈現指數式的增長,機器能模擬大腦的新皮質。到2029年,機器將達到人類的智能水平;到2045年,人與機器將深度融合,那將標志著奇點時刻的到來[4]。”除此以外,支持人工智能威脅論的代表人物包括著名的物理學家霍金,微軟創始人比爾蓋茨,特斯拉CEO馬斯克等。


    著名物理學家霍金患有肌萎縮側索硬化癥(ALS),使用英特爾公司開發的一套通信系統和外界交流。這套系統涉及基本的人工智能技術,可以接收霍金的想法,從而提出詞語供他選用。當被問到如何改進這套系統的時候,霍金提出了人工智能可以毀滅人類的想法。

    他2014年12月2日在接受BBS采訪時表示,運用人工智能技術制造能夠獨立思考的機器威脅人類的生存。霍金說:“人工智能的全面發展可能導致人類的滅絕。”。霍金表示,截至目前,基礎性的人工智能技術已經取得一定成果,很有實用價值。不過,霍金擔心,人工智能也許會在將來的某一天趕上甚至超過人類。霍金說:“它自己就動起來了,還能以前所未有的超快速度重新設計自己。人類呢,就要受到緩慢的生物進化的限制,根本沒有競爭力,會被超越的[5]。”,應該提醒讀者的是霍金是著名的物理學家,但并不是人工智能專業領域的專家。

    特斯拉CEO馬斯克對待人工智能的態度更為極端,2014年8月,他在twitter推薦尼克-伯斯特羅姆的著作《超級智能:方法、危險和策略》時寫到:“我們需要超級關注人工智能。它的潛在危險性超過核武器“。

    比爾·蓋茨2015年1月29日在Reddit的“Ask MeAnything”論壇上表示人類應該敬畏人工智能的崛起,它可能將最終構成一個現實性的威脅,但它在此之前會使我們的生活更輕松。他的原話是“我正在關注超級智能。首先,在開始的時候機器會為我們做很多工作,這些機器并不是超級智能。如果我們處理得很好的話,這應該是具有積極意義的。那之后的幾十年,人工智能會強大到足以引起人們的關注。我同意伊隆·馬斯克和其他一些人的說法,不明白為什么有些人并不關心[6]。”

    在人工智能威脅論熱度日益高漲的情況下,人工智能領域科學家對人工智能威脅論也提出了反駁意見。Facebook人工智能實驗室主任,NYU計算機科學教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采訪時發表了對人工智能威脅論的看法,他認為人工智能研究者在之前很長的一段時間都低估了制造智能機器的難度。人工智能的每一個新浪潮,都會帶來這么一段從盲目樂觀到不理智最后到沮喪的階段。


    Yann LeCun預測的人工智能發展曲線圖

    Yann LeCun 提出了與威脅論支持者不同的人工智能未來發展路徑,他提到大部分人覺得人工智能的進展是個指數曲線,其實它是個S型曲線,如圖1.1所示。S型曲線剛開始的時候跟指數曲線很像,而且奇點理論比指數曲線還夸張,它假設的是漸進曲線。線性、多項式、指數和漸進以及S曲線的動態演變,都跟阻尼和摩擦因子有關系。而未來學家卻假設這些因子是不存在的。未來學家生來就愿意做出盲目的預測,尤其是他們特別渴望這個預測成真的時候,可能是為了實現個人抱負[7]。

    除了Facebook人工智能實驗室主任Yann LeCun,百度首席科學家,斯坦福大學計算機科學系和電子工程系副教授吳恩達,中國科學院自動化所教授,人工智能領域專家王飛躍等也在不同場合對人工智能威脅論提出了反對意見。


    科學院院士譚鐵牛在 2015中國人工智能大會上表示“水能載舟,亦能覆舟,甚至有的時候是魔鬼,走的好把握的好了魔鬼就不會出現。所以這個我認為非常重要。所以盡管在我看到的未來人工智能還難以超越人類,但是它對人類社會影響反響很大。這是大的科技革命。”

    中科院自動化研究所復雜系統管理與控制國家重點實驗室主任王飛躍教授在“人工智能九文九答”一問中提到“我尊重任何人發表任何觀點的權利,但對“人工智能威脅論”、“奇點理論”之類的論調,我的態度是堅決反對。的確,有錢有勢就是任性,什么話吸引眼球就講什么,我對這些議論和觀點最好的評價只能是:無知者無畏。人工智能其實還非常初等,“威脅論”、“超越奇點”怕是在夢里都做不到。不過,我個人覺得這些言論對人工智能的發展還不能造成實質性的傷害,反到能夠引起大眾的更多關注。 ”

    百度首席科學家,斯坦福大學人工智能專家吳恩達表示:“擔心人工智能過于強大就好像擔心人類會在火星過度殖民導致火星人口爆炸一樣。我很希望數百年后我們能在火星生活,但目前甚至都還沒有人類登上過火星,我們為何要擔心在火星過度殖民的問題呢?”

    地平線科技創始人,人工智能專家余凱相信:“即使到2029年,人工智能的進展也不會對人類產生威脅。因為那時的機器還沒有好奇心,沒有情感,沒有自我意識。它們是智能的機器人,但不是智慧的機器人。智能是偏工具性的,而智慧會創造。”

    應該說人工智能威脅論引發爭論背后,本質上是人工智能的智力發展水平能不能定量評測的問題。這個問題為什么長期沒有得到解決,我們將在下一篇文章中闡述。【責任編輯/李響】

    本文來源:人工智能學家。

    來源:人工智能學家

    IT時代網(關注微信公眾號ITtime2000,定時推送,互動有福利驚喜)所有原創文章版權所有,未經授權,轉載必究。
    創客100創投基金成立于2015年,直通硅谷,專注于TMT領域早期項目投資。LP均來自政府、互聯網IT、傳媒知名企業和個人。創客100創投基金對IT、通信、互聯網、IP等有著自己獨特眼光和豐富的資源。決策快、投資快是創客100基金最顯著的特點。

    相關文章
    關于人工智能威脅論,看著名企業家與人工智能學家是如何激烈對抗的

    精彩評論