抗击疫情的美国作家有谁,美国抗击疫情失败的原因有哪些

 admin   2025-05-31 04:35   74 人阅读  0 条评论

很多人想知道抗击疫情的美国作家有谁的题,关于美国抗击疫情失败的原因有哪些这类题,小编为你详细的介绍一下吧!


“目前,我并不担心‘AGI风险’。从短期来看,我担心的是‘MAI风险’,即不可靠但广泛部署的平庸人工智能。”

连日来,人工智能的风险引起了众多科技领袖的深度担忧。

第一个是被称为“人工智能教父”的杰弗里辛顿(JeffreyHinton),他上周对哥伦比亚广播公司(CBS)表示,人工智能可能发展到对人类构成威胁的地步“并非不可想象”。

随后,3月27日,AI“大牛”GaryMarcus发推回应Hinton,并于3月28日发表了一篇题为“RisksofArtificialIntelligenceRisksofArtificialIntelligenceinGeneral”的文章,我们将阐述超级智能是否可能或者不可能。虽然立竿见影,但短期内我们需要担心“MAI风险”。

27日,Twitter首席执行官埃隆马斯克也加入进来,表达了对辛顿和马库斯的支持。

马斯克在社交网络上与杰弗里辛顿和加里马库斯互动。

29日,生命未来研究所发表公开信,呼吁所有AI实验室立即停止对比GPT-4更强大的AI系统进行训练至少六个月。辛顿、马库斯和马斯克都签署了公开信。

“加快发展强大的人工智能治理体系”

未来生命研究院题为《取消巨型AI实验公开信》的公开信于29日公开。

生命未来研究所的公开信有1,079人签名。

信中写道大量研究表明,具有与人类竞争智能的人工智能系统会给社会和人类带来严重风险,这一观点得到了顶级人工智能研究机构的认可。正如广泛认可的人工智能阿西洛玛原理中所述,先进的人工智能有潜力给地生命历史带来深刻的变化,并且在适当的照顾和资源的情况下,必须进行规划和管理。不幸的是,这种级别的规划和控制并没有发生。尽管近几个月来,人工智能实验室一直在竞相开发和部署更强大的数字思维,但没有人,甚至是其创造者,能够理解这些数字思维。它是不可预测的、不可预测的,并且无法可靠地控制。

“随着现代人工智能系统在常见任务中与人类的竞争日益激烈,我们必须自己我们是否允许机器用宣传和谎言充斥我们的信息渠道?我们是否应该将所有工作自动化,即使是那些令人不满意的工作?“人类的思想最终将超过我们,比我们聪明,变得过时,对我们来说也过时。”我们应该冒失去对我们文明的控制的风险吗?”OpenAI最近关于人工智能的总体声明指出,“在某些时候,在人工智能之前进行独立审查可能很重要。开创人工智能。”“为了训练未来的系统和前沿研究,我们必须同意用于创建新模型的计算量的增加。”我们同意。有一天,就是现在。”

信中呼吁所有人工智能实验室立即停止对比GPT-4更强大的人工智能系统进行训练至少六个月。这次中断必须是公开的、可验证的,并且包括所有关键利益相关者。如果这种暂停不能迅速实施,政府应该干预并强制实施。AI实验室和独立专家将利用这段暂停时间,开发一套用于高级AI设计和开发的共享安全协议,并接受独立外部专家的严格审核和监督,并且我们需要共同努力来实施它。这些协议必须确保遵守它们的系统是安全且毫无疑的。这并不意味着人工智能发展总体上的暂停,只是从危险的竞赛中紧急撤退,走向大规模、不可预测的黑盒模型。

同时,信中指出,人工智能开发者必须与政策制定者合作,显着加快强大的人工智能治理系统的开发。至少,建立一个有能力的新监管机构,重点关注人工智能,监督和跟踪高性能人工智能系统和大量计算能力,并推出来源归属和水印系统,以帮助区分真假合成的。应包括在内。跟踪模型违规行为;强大的审计和认证生态系统;明确人工智能造成的危害的责任;为人工智能技术的安全研究提供强大的公共资金;拥有足够资源来应对经济和政治动荡的机构。

信中指出,“人类可以享受人工智能带来的繁荣未来。在成功创建强大的人工智能系统后,我们现在可以享受‘人工智能之夏’,获得回报,为所有人带来好处。”这些系统可以被设计为为社会带来利益并提供机会。””

FutureofLifeInstitute成立于2014年,是一家非营利组织,由多元化的个人和组织团体资助,其使命是引导创新技术远离极端风险,造福生活。它是一个团体。

截至撰写本文时,这封信已由1,079名技术领袖和研究人员签署,其中包括马斯克、辛顿和马库斯,以及图灵得主约书亚本吉奥(JoshuaBengio)、《人工智能现代时代》(ArtificialIntelligence:ModernTimes)的作者。作者斯图尔特拉塞尔(StuartRussell),苹果公司)-创始人SteveWozniak、StabilityAI首席执行官EmadMostak以及其他技术行业领导者。

“这可能导致核战争或更严重的流行病。”

28日,马库斯在写作Substack上写道,一位同事给他发了一封信,询“这封信是否会引起对未来AGI和超级智能等事物的毫无根据的恐惧?”

加里马库斯,美国作家、纽约大学教授。

马库斯说,“我仍然认为大规模语言模型与超级智能或通用人工智能没有什么关系。像杨立坤一样,大规模语言模型是通用人工智能道路上的‘出口点’。我仍然认为“末日的愿景可能与辛顿和马斯克的不同,但他们的愿景集中在如果计算机快速、彻底地改进自己会发生什么。这似乎是可能的,但我认为这不可能立即实现。”

人工智能风险和一般人工智能风险。

然而,尽管许多文献将人工智能的风险与超级智能或通用人工智能的风险等同起来,但超级智能并不一定会带来重大题。“目前我不担心‘AGI风险’,但短期内我担心‘MAI风险’。——平庸的AI不可靠,但部署广泛。——使用它的人数和规模用户数量。”

马库斯认为,虽然许多普通人可能拥有高于平均水平的智力,但他们不一定是天才,这在历史上造成了各种各样的题。从很多方面来说,发挥重要作用的是力量,而不是智力。一个拥有核密码的白痴只需中等智力和未经授权的访就可以摧毁世界。当人工智能工具受到犯罪分子的刺激并越来越多地渗透到人类世界时,它们有可能造成更大的危害。

27日,欧洲刑警组织发布了一份报告,讨论了ChatGPT工具被用于犯罪的可能性,令人震惊。“大规模语言模型检测和重现语言模式的能力不仅有助于网络钓鱼和在线欺诈,而且还经常被用来模仿特定的人或群体的说话方式。”该功能可以大规模利用可能会误导人们。”受害者将信任托付给了犯罪分子。“除了上述犯罪活动外,ChatGPT的功能还有助于解决恐怖主义、政治宣传和虚假信息领域的许多潜在滥用案件。因此,该模型经常被用来收集可能促进恐怖活动的额外信息,例如例如恐怖主义融资或匿名文件共享。”

马库斯表示,由大规模语言模型驱动的恐怖主义,再加上大规模人工智能生成的宣传,可能会导致核战争或比COVID-19更严重的病原体的故意传播。我相信。许多人可能会死去,文明可能会被彻底摧毁。人类可能不会真正“抹去地表面”,但情况实际上可能会变得非常糟糕。

“人工智能教父”杰弗里辛顿在接受哥伦比亚广播公司采访时表示,人工智能可能发展到对人类构成威胁的地步“并非不可想象”。

“我不认为这是不可思议的,这就是我所能说的,”“人工智能教父”辛顿上周在接受哥伦比亚广播公司采访时被及人工智能可能“消灭人类”的可能性时说道。

马库斯说,辛顿和马斯克不担心天网和机器人接管世界,而是担心眼前的风险,包括恐怖分子在内的犯罪分子会对大规模语言模型做什么,以及他如何指出我们应该更多地思考关于防止这种情况的方法。


本篇讲解关于抗击疫情的美国作家有谁的这类话题,和一些美国抗击疫情失败的原因有哪些相关信息,希望能帮助到各大网友。

本文地址:http://xzhcn.com/post/1328.html
版权声明:本文为原创文章,版权归 admin 所有,欢迎分享本文,转载请保留出处!

评论已关闭!