霍金警告人工智能危險(xiǎn)性 稱其若失控很難被阻止
編輯: 母曼曄 | 時(shí)間: 2016-06-29 15:47:22 | 來源: 中國(guó)新聞網(wǎng) |
資料圖:著名天體物理學(xué)家霍金。記者 張子揚(yáng) 攝
據(jù)外媒報(bào)道,著名天體物理學(xué)家史蒂芬·霍金認(rèn)為,人工智能應(yīng)該在符合倫理道德和安全措施要求的情況下開發(fā),因?yàn)槊撾x人類控制之下的機(jī)器很難被阻止住。
美國(guó)知名記者拉里·金對(duì)霍金進(jìn)行了采訪?;艚鹪诓稍L中承認(rèn),他不認(rèn)為發(fā)展人工智能一定能讓人類朝好的方向發(fā)展。
霍金表示:“當(dāng)機(jī)器發(fā)展到能自己演化的重要階段之時(shí),它們的目標(biāo)與人類愿望之間的相符程度就很難預(yù)料了。”
他指出,人工智能可以比人類的智慧發(fā)展得更快。
資料圖:著名天體物理學(xué)家霍金。
他說:“有益的人工智能可以與人類共存,并擴(kuò)大人類的可能性。但失控的人工智能很難被阻止。在開發(fā)人工智能時(shí)必須保證符合道德倫理與安全措施的要求。”
他認(rèn)為,有益的人工智能將出現(xiàn)在人類生活的各方面。
霍金說:“想象一下那些可以對(duì)科學(xué)家想法迅速作出評(píng)價(jià)、更早地查出癌癥、并預(yù)測(cè)證券市場(chǎng)走勢(shì)的人工智能!它們將影響到我們的經(jīng)濟(jì),影響到我們的決策,并在整體上影響我們的生活。”
新聞推薦
- 東部戰(zhàn)區(qū)位臺(tái)島周邊開展聯(lián)合演訓(xùn)!2025-04-01
- 國(guó)臺(tái)辦:解放軍聯(lián)合演訓(xùn)是對(duì)賴清德當(dāng)局猖狂謀“獨(dú)”挑釁的堅(jiān)決懲戒2025-04-01
- 海警艦艇編隊(duì)按一個(gè)中國(guó)原則環(huán)臺(tái)島執(zhí)法管控2025-04-01
- 臺(tái)灣舉辦恭拜軒轅黃帝大典2025-04-01
- 福馬“小三通”一季度客流量同比增長(zhǎng)近50%2025-04-01
- “一簽多行”實(shí)施已3個(gè)月 琴澳“雙城生活”便利度UP!2025-03-31