您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

解決人工智能超越人類智慧面臨的四個困難

2015-10-03 19:23 性質(zhì):轉(zhuǎn)載 作者:物聯(lián)網(wǎng)智庫 來源:物聯(lián)網(wǎng)智庫
免責聲明:中叉網(wǎng)(www.zulingongsi.com.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷?。?/div>
摘要: 隨著大數(shù)據(jù)和信息的爆發(fā)式增長,人工智能進入一個快速發(fā)展的時期,同時也帶來了人工智能威脅論的爭議,對于人工智能能否超越...

摘要:

  隨著大數(shù)據(jù)和信息的爆發(fā)式增長,人工智能進入一個快速發(fā)展的時期,同時也帶來了人工智能威脅論的爭議,對于人工智能能否超越人類智慧,以及神秘的圖靈測試的先天不足,在本文中進行了詳細闡述。文章高能燒腦邏輯性強,心煩意亂者慎讀。

  本世紀以來,隨著互聯(lián)網(wǎng)大數(shù)據(jù)的興起,信息的爆炸式增長,深度學(xué)習(xí)等機器學(xué)習(xí)算法在互聯(lián)網(wǎng)領(lǐng)域的廣泛應(yīng)用,人工智能再次進入快速發(fā)展的時期。與此同時,不同領(lǐng)域的科學(xué)家,企業(yè)家如物理學(xué)家霍金,微軟創(chuàng)始人比爾蓋茨等人,紛紛對人工智能的未來表達了擔心,提出人工智能的快速發(fā)展可能對人類本身產(chǎn)生威脅。

人工智能威脅論的支持者們說

霍金在去年12月接受BBS采訪時說:

  “人工智能的全面發(fā)展可能導(dǎo)致人類的滅絕。它自己就動起來了,還能以前所未有的超快速度重新設(shè)計自己。人類呢,就要受到緩慢的生物進化的限制,根本沒有競爭力,會被超越的?!?BR>

特斯拉CEO馬斯克對待人工智能的態(tài)度更為極端:

  “我們需要超級關(guān)注人工智能。它的潛在危險性超過核武器”。

比爾·蓋茨2015年1月29日在Reddit的“Ask MeAnything”論壇上表示:

  “我正在關(guān)注超級智能。首先,在開始的時候機器會為我們做很多工作,這些機器并不是超級智能。如果我們處理得很好的話,這應(yīng)該是具有積極意義的。那之后的幾十年,人工智能會強大到足以引起人們的關(guān)注。我同意伊隆·馬斯克和其他一些人的說法,不明白為什么有些人并不關(guān)心?!?BR>

  由于這些科學(xué)家,企業(yè)家具有很強的影響力,人工智能威脅論因此得到廣泛傳播。而同時,在人工智能威脅論熱度日益高漲的情況下,人工智能領(lǐng)域科學(xué)家對人工智能威脅論也提出了反駁意見。這其中就包括Facebook人工智能實驗室主任,NYU計算機科學(xué)教授Yann LeCun,百度首席科學(xué)家,斯坦福大學(xué)計算機科學(xué)系和電子工程系副教授吳恩達,中國科學(xué)院自動化所教授,人工智能領(lǐng)域?qū)<彝躏w躍等。

上一頁1234567

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機掃碼看新聞