<strike id="qweww"><input id="qweww"></input></strike>
  • <code id="qweww"><delect id="qweww"></delect></code><abbr id="qweww"></abbr>
    <rt id="qweww"></rt>
    <li id="qweww"><dl id="qweww"></dl></li>
  • 避雷器 | 
    打鈴儀 |  警示燈 |  電笛 |  電鈴 | 
    航空插頭 |  插頭 |  排插板 | 
    連接片 | 
    新聞中心

    人工智能毀滅人類(lèi)的能力是什么?

    DQZHAN訊:人工智能毀滅人類(lèi)的能力是什么?
    近日,“人工智能可能比核武器還要危險(xiǎn)。”特斯拉老板埃倫•馬斯克在**上發(fā)文預(yù)警,他認(rèn)為,超級(jí)智能計(jì)算機(jī)將很有可能消滅人類(lèi)。

    什么樣的機(jī)器人才是有危險(xiǎn)的人工智能?英國(guó)代碼破譯者、計(jì)算機(jī)先驅(qū)阿蘭•圖靈設(shè)計(jì)了一個(gè)甄別實(shí)驗(yàn):一臺(tái)計(jì)算機(jī)和一個(gè)人做競(jìng)賽,說(shuō)服一個(gè)看不到它們的觀察者,使其相信自己才是真正的人類(lèi)。當(dāng)機(jī)器人至少把半數(shù)觀察者蒙騙了,才算通過(guò)了測(cè)試。目前,尚無(wú)一臺(tái)計(jì)算機(jī)接近于通過(guò)測(cè)試。但圖靈也指出,當(dāng)超級(jí)智能通過(guò)圖靈測(cè)試時(shí),人類(lèi)的報(bào)應(yīng)就來(lái)到了。

    根據(jù)維基百科中的解釋?zhuān)祟?lèi)所擔(dān)心的智能機(jī)器人是能夠像人一樣思考、行動(dòng)、理性地思考和理性地行動(dòng)。這里行動(dòng)應(yīng)廣義地理解為采取行動(dòng),或制定行動(dòng)的決策,而不是肢體動(dòng)作。而且它們具有有知覺(jué)和自我意識(shí)。

    人工智能對(duì)人類(lèi)的毀滅能力是什么?牛津大學(xué)人類(lèi)未來(lái)研究所的研究人員給出了解釋?zhuān)斯ぶ悄懿皇窍窈宋淦饕粯酉麥缛祟?lèi),而是會(huì)逐步取代人類(lèi),真正可怕的是它們的智力。它們將比人類(lèi)更聰明、更擅長(zhǎng)社交、更有工作能力,假如一個(gè)超級(jí)機(jī)器人走進(jìn)一個(gè)酒吧,它比人類(lèi)更能吸引男人、女人,那時(shí)它們才真的可怕。

    首先在技術(shù)上,具有人工智能的機(jī)器人將使得人類(lèi)全部失業(yè)。只要對(duì)某技能的人復(fù)制一百次,就能復(fù)制出一百個(gè)具有此能力的機(jī)器人,那么在一百個(gè)行業(yè)里就會(huì)擁有一萬(wàn)名**員工,這也許一個(gè)星期就能訓(xùn)練完成,只要愿意還可以復(fù)制得更多,成千上萬(wàn)……如果它們真的是超人,性能肯定比描述的更強(qiáng)。這樣一來(lái),人工智能幾乎可以代替任何人,包括各類(lèi)專(zhuān)業(yè)人員。

    人工智能毀滅人類(lèi)的能力是什么?

    牛津大學(xué)哲學(xué)教授尼克•博斯特倫(Nick Bostrom)與詹姆斯•巴拉特(James Barrat)。

    《超級(jí)智能:方法、危險(xiǎn)、戰(zhàn)略》和《我們*后的發(fā)明:人工智能及人類(lèi)時(shí)代的終結(jié)》兩本書(shū)的作者牛津大學(xué)哲學(xué)教授尼克•博斯特倫(Nick Bostrom)與詹姆斯•巴拉特(James Barrat)認(rèn)為,“現(xiàn)在我們?nèi)祟?lèi)就像一群擺弄著一顆危險(xiǎn)炸彈的無(wú)知孩童。”即便是出于好意而創(chuàng)造的人工智能,它仍有犯下種族滅絕罪行的傾向。

    詹姆斯•巴拉特認(rèn)為:“如果沒(méi)有小心謹(jǐn)慎的制衡指令,一個(gè)有著自我意識(shí)、不斷自我完善并追尋目標(biāo)的系統(tǒng)將發(fā)展到在我們看來(lái)非常荒謬的程度,以完成它的目標(biāo)。”

    不論如何,未來(lái)對(duì)于人工智能的制造,一定要將不得傷害人類(lèi)設(shè)定為其*重要的行事規(guī)則。美國(guó)科幻小說(shuō)家艾薩克•阿西莫夫(Isaac Asimov)在他的機(jī)器人相關(guān)小說(shuō)中為機(jī)器人設(shè)定了行為準(zhǔn)則,也就是機(jī)器人三定律(Three Laws of Robotics)——

    法則一,也是*為重要的一條法則:機(jī)器人不得傷害人類(lèi),也不得因不作為而使人類(lèi)受到傷害;

    法則二,機(jī)器人必須服從人類(lèi)的命令,除非違背**法則;

    法則三,在不違背**及**法則的前提下,機(jī)器人必須保護(hù)自己。

    執(zhí)教于印第安納大學(xué)等學(xué)術(shù)機(jī)構(gòu)的認(rèn)知科學(xué)教授道格拉斯•郝夫斯臺(tái)特(Douglas Hofstadter)在其《哥德?tīng)枴釥枴秃?mdash;—集異璧之大成 》一書(shū)中稱(chēng),在獲取知識(shí)的過(guò)程中,計(jì)算機(jī)必須以和人類(lèi)差不多的方式整合知識(shí)。

    不管這個(gè)愿望在人類(lèi)追逐利益的沖動(dòng)面前是多么無(wú)力,但對(duì)人工智能的擔(dān)心是顯然的。

    人工智能毀滅人類(lèi)的能力是什么?
    谷歌公司的工程總監(jiān)雷•庫(kù)茲威爾(Ray Kurzwell)。




    那么,這**何時(shí)到來(lái),谷歌公司的工程總監(jiān)雷•庫(kù)茲威爾(Ray Kurzwell)認(rèn)為,到2029年時(shí),計(jì)算機(jī)將變得比人類(lèi)更智能。不過(guò),稍微令人安慰的是,他在《靈魂機(jī)器時(shí)代》(The Age of Spiritual Machines)中稱(chēng),人工智能還是會(huì)受制于人類(lèi)。

    百度CEO李彥宏對(duì)人工智能的發(fā)展速度同樣樂(lè)觀,他在今年上半年透露,“百度內(nèi)部有一個(gè)項(xiàng)目叫做‘百度大腦’,它現(xiàn)在的智力水平相當(dāng)于兩到三歲孩子的水平。隨著計(jì)算成本的飛速下降和計(jì)算能力的飛速提升,我們完全可以想象有**電腦可以越來(lái)越接近人腦的智力。”

    滬公網(wǎng)安備 31010102004818號(hào)

    久久精品99无色码中文字幕| 久久乐国产精品亚洲综合| 国产精品久久久亚洲| 久久婷婷成人综合色综合| 久久亚洲精品无码| 精品久久久久久无码人妻| 久久久久久久99视频| 一本色道久久鬼综合88| 久久精品国产乱子伦| 久久亚洲国产精品一区二区| 亚洲伊人久久综合中文成人网| 91精品国产高清久久久久久| 亚洲午夜久久久影院伊人| 日本久久久久久久久久| 久久一区二区三区精品| 久久亚洲中文字幕精品一区四| 亚洲欧美成人综合久久久| 一本久久a久久精品综合夜夜 | 久久久99精品成人片| 人人狠狠综合久久88成人| 国产精品一久久香蕉国产线看观看| 国产亚洲精品成人久久网站| AV无码久久久久不卡蜜桃| 日产精品久久久一区二区| 久久精品国产99精品国产亚洲性色| 国内精品久久久久久久涩爱| 伊人久久成人成综合网222| 精品性高朝久久久久久久| 99久久免费国产精品特黄| 久久久久久久女国产乱让韩| 婷婷久久香蕉五月综合加勒比 | 久久综合香蕉国产蜜臀AV| 久久精品国产精品| 久久国产精品-久久精品| 韩国三级中文字幕hd久久精品 | 久久综合给合久久国产免费 | 国内精品久久九九国产精品| 亚洲国产精品嫩草影院久久| 国产精品久久精品视| 九九99久久精品国产| 欧美成人秋霞久久AA片|