據(jù)每日郵報報道,英國大科學(xué)家史蒂芬·霍金(Stephen Hawking)與美國連續(xù)創(chuàng)業(yè)家伊隆·馬斯克(Elon Musk)都曾警告稱,AI(人工智能)變得太聰明非常危險,甚至導(dǎo)致人類滅絕。現(xiàn)在,谷歌團隊又向這個噩夢般的假設(shè)邁近了一步,正教授其神經(jīng)網(wǎng)絡(luò)系統(tǒng)如何保密。計算機系統(tǒng)已經(jīng)學(xué)會如何保護自己的信息,以躲避人類窺探。
責(zé)任編輯:editor005
作者:小小
2016-10-28 21:02:08
摘自:網(wǎng)易科技
據(jù)每日郵報報道,英國大科學(xué)家史蒂芬·霍金(Stephen Hawking)與美國連續(xù)創(chuàng)業(yè)家伊隆·馬斯克(Elon Musk)都曾警告稱,AI(人工智能)變得太聰明非常危險,甚至導(dǎo)致人類滅絕。現(xiàn)在,谷歌團隊又向這個噩夢般的假設(shè)邁近了一步,正教授其神經(jīng)網(wǎng)絡(luò)系統(tǒng)如何保密。
據(jù)每日郵報報道,英國大科學(xué)家史蒂芬·霍金(Stephen Hawking)與美國連續(xù)創(chuàng)業(yè)家伊隆·馬斯克(Elon Musk)都曾警告稱,AI(人工智能)變得太聰明非常危險,甚至導(dǎo)致人類滅絕。現(xiàn)在,谷歌團隊又向這個噩夢般的假設(shè)邁近了一步,正教授其神經(jīng)網(wǎng)絡(luò)系統(tǒng)如何保密。計算機系統(tǒng)已經(jīng)學(xué)會如何保護自己的信息,以躲避人類窺探。
熱文推薦
企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號