599706197
064-28399860
导航

人工智能超级计算机将很有可能毁灭人类

发布日期:2022-01-01 01:45

本文摘要:特斯拉汽车(TeslaMotors)和SpaceX两家公司的老板埃伦穆斯克(ElonMusk)预测:超级智能计算机将很有可能歼灭人类。 科技创业者埃伦穆斯克在8月3日发的两条引文中对人类的覆灭收到警告,他在夏季读者的内容谈及了来自人工智能的隐约显露的威胁。 我们必须对人工智能超级小心,他在其中一条引文中说,人工智能有可能比核武器还要危险性。 另一条推文则称之为:期望我们不要在生物学上沦为数字超级智能的启动读取程序。意外的是,这种可能性更加大。

乐鱼体育官网登录

特斯拉汽车(TeslaMotors)和SpaceX两家公司的老板埃伦穆斯克(ElonMusk)预测:超级智能计算机将很有可能歼灭人类。  科技创业者埃伦穆斯克在8月3日发的两条引文中对人类的覆灭收到警告,他在夏季读者的内容谈及了来自人工智能的隐约显露的威胁。  我们必须对人工智能超级小心,他在其中一条引文中说,人工智能有可能比核武器还要危险性。

  另一条推文则称之为:期望我们不要在生物学上沦为数字超级智能的启动读取程序。意外的是,这种可能性更加大。  穆斯克此番令人惊讶的科技恐惧症评论,是在看完《超级智能:方法、危险性、战略》(Superintelligence:Paths,Dangers,Strategies)以及《我们最后的发明者:人工智能及人类时代的落幕》(OurFinalInvention:ArtificialIntelligenceandtheEndoftheHumanEra)两本书之后有感而发。

这两本书的作者分别是牛津大学哲学教授尼克博斯特伦(NickBostrom)以及詹姆斯巴拉特(JamesBarrat)。  人类未来研究院(FutureofHumanityInstitute)的创始人兼任主任博斯特伦教授指出,第一个享有超级智能的实体不会歼灭人类。

乐鱼平台

现在我们人类就像一群摆弄着一颗危险性炸弹的幼稚孩童。他写到。  巴拉特先生指出,即便超级智能是出于心意而被建构出来,但它仍有犯有种族灭绝罪行的偏向。

  他写到:如果没小心谨慎的抗衡指令,一个具有自我意识、大大自我完善并找寻目标的系统将发展到在我们显然十分可笑的程度,以已完成它的目标。  人类灾祸来临的第一步终将是使超级智能通过图灵测试,英国代码破解者、计算机先驱阿兰图灵(AlanTuring)说。  在该测试中,一台计算机和一个人必需竞相劝说一个看到它们的观察者,使其坚信自己才是确实的人类。

只有最少在半数观察者那里蒙混过关,该计算机才算通过了测试。  埃伦穆斯克警告人工智能有可能歼灭人类目前,尚不一台计算机相似于通过测试。  我们生产的机器将不会叛乱并杀掉我们,或者最少统治者我们,这类不安是永恒的科幻主题,不仅仅限于奥利安电影公司(OrionPictures)出品、由阿诺施瓦辛格主演的《终结者》(Terminator)系列影片。

乐鱼平台

  为了抗衡这种情况,上世纪50年代美国科幻小说家艾萨克阿西莫夫(IsaacAsimov)在他的机器人涉及小说中为机器人原作了行为准则,也就是机器人三定律(ThreeLawsofRobotics)。  法则一,也是尤为最重要的一条法则:机器人不得损害人类,也不得因不作为而使人类受到损害;  法则二:机器人必需遵从人类的命令,除非违反第一法则;  法则三:在不违反第一及第二法则的前提下,机器人必需维护自己。  去年去世的科幻作者伊恩M.班克斯(IainMBanks)在其《文明》(Culture)系列小说中,频密刻画了具备自我意识的计算机,其中有些不具备超级智能,但它们全都受到道德感的约束。

  任教于印第安纳大学等学术机构的认知科学教授道格拉斯郝夫斯台特(DouglasHofstadter)在其《哥德尔、艾舍尔、巴赫集异璧之中兴》(Gdel,Escher,Bach:anEternalGoldenBraid,1979年获得普利策奖)一书中称之为,为了取得确实的智能,计算机必需以和人类差不多的方式统合科学知识。  谷歌公司(Google)工程总监雷库兹威尔(RayKurzwell)指出,到2029年时,计算机将显得比人类更加智能,这样的一个点被未来学家们称作奇点。但他在《灵魂机器时代》(TheAgeofSpiritualMachines)中称之为,人工智能将屈服于人类。


本文关键词:乐鱼体育官网登录,人工智能,超级,计算机,将,很有可能,毁灭

本文来源:乐鱼平台-www.hnwaji.com