據(jù)俄羅斯衛(wèi)星新聞通訊社消息,著名天體物理學(xué)家史蒂芬·霍金認為,人工智能應(yīng)該在符合倫理道德和安全措施要求的情況下開發(fā),因為脫離人類控制之下的機器很難被阻止住。
在RT美國臺(RT America)播出的節(jié)目中美國知名記者拉里·金對霍金進行了采訪;艚鹪诓稍L中承認,他不認為發(fā)展人工智能一定能讓人類朝好的方向發(fā)展。
霍金表示:“當機器發(fā)展到能自己演化的重要階段之時,它們的目標與人類愿望之間的相符程度就很難預(yù)料了!
他指出,人工智能可以比人類的智慧發(fā)展得更快。
他說:“有益的人工智能可以與人類共存,并擴大人類的可能性。但失控的人工智能很難被阻止。在開發(fā)人工智能時必須保證符合道德倫理與安全措施的要求!
他認為,有益的人工智能將出現(xiàn)在人類生活的各方面。
霍金說:“想象一下那些可以對科學(xué)家想法迅速作出評價、更早地查出癌癥、并預(yù)測證券市場走勢的人工智能!它們將影響到我們的經(jīng)濟,影響到我們的決策,并在整體上影響我們的生活。”
右腦記憶論壇 | 快速記憶法 | 記憶力培訓(xùn) | 速讀培訓(xùn) | 速讀軟件 | 右腦培訓(xùn) | 站內(nèi)搜索 | 網(wǎng)站地圖
Copyright(C) 逍遙右腦 All Rights Reserved