第16版:时局
3    4   
PDF 版
· 果然,韩国就这样被日本打脸了
4参见第****处理标记:[Article]时, 字段 [URLOtherPageNo] 在数据源中没有找到! ****版--****处理标记:[Article]时, 字段 [URLOtherPageName] 在数据源中没有找到! ****
· 呼吁暂停训练比GPT-4更强大的AI系统
4参见第****处理标记:[Article]时, 字段 [URLOtherPageNo] 在数据源中没有找到! ****版--****处理标记:[Article]时, 字段 [URLOtherPageName] 在数据源中没有找到! ****
     鲁中晨报
返回主页 | 版面导航 | 标题导航
上一期 下一期 本版上一期 本版下一期 日历
鲁中晨报 主办      ;
第16版:时局
3    4   
PDF 版
3上一篇:果然,韩国就这样被日本打脸了  
4下一篇:****处理标记:[Article]时,数据源为空。 ****  
4参见第****处理标记:[Article]时, 字段 [URLOtherPageNo] 在数据源中没有找到! ****版--****处理标记:[Article]时, 字段 [URLOtherPageName] 在数据源中没有找到! ****  
2023/03/31
朗读
可能导致核战争和更严重疫情 马斯克等千名大佬联名
呼吁暂停训练比GPT-4更强大的AI系统



  马斯克

  “高级AI可能造成地球生命史上的深刻变化。”这是非盈利机构未来生命研究所3月29日发布的一封公开信里的警告。这封公开信呼吁人类暂停开发比目前GPT模型更强大的人工智能,为时至少6个月。相关网页显示,已有上千名重量级大佬签名联署,包括特斯拉创始人马斯克、苹果联合创始人沃兹尼亚克等。
  被称为“人工智能教父”的杰弗里·辛顿,他上周在接受哥伦比亚广播公司采访时表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。
  随后,AI“大牛”盖瑞·马库斯3月27日发推响应辛顿,28日又发表题为“人工智能风险≠通用人工智能风险”的文章,称超级智能可能会也可能不会迫在眉睫,但在短期内,需要担心“MAI(平庸人工智能)风险”。
  27日,推特CEO伊隆·马斯克也加入进来,表达对辛顿和马库斯的赞同。
  不过,截至发稿,最受瞩目的OpenAI公司创始人阿尔特曼还没有正式回应这封公开信。

“加快开发强大的
AI治理系统”

  未来生命研究所的这封公开信题为“暂停巨型AI实验:一封公开信”,于29日解封。数据显示,公开信已有1079人签署。
  信中写道:广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。
  “当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该发展最终可能比我们更多、更聪明,淘汰并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?”这封信写道,“只有当我们确信它们的影响是积极的并且风险是可控的时候,才应该开发强大的人工智能系统。这种信心必须有充分的理由,并随着系统潜在影响的规模而增加。     
  这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,并且无可置疑。这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。
  与此同时,信中指出,AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。至少应包括:建立专门负责AI的有能力的新监管机构;监督和跟踪高性能人工智能系统和大量计算能力;推出标明来源系统和水印系统,以帮助区分真实与合成,并跟踪模型泄漏;强大的审计和认证生态系统;界定人工智能造成的伤害的责任;为人工智能技术安全研究提供强大的公共资金;以资源充足的机构来应对人工智能将造成的巨大经济和政治破坏(尤其是对民主的破坏)。
  这封信最后写道,“人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受‘AI之夏’,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。我们可以在这个领域也这样做。让我们享受一个漫长的AI之夏,而不是毫无准备地陷入秋天。”
  未来生命研究所建立于2014年,是一个非营利组织,由一系列个人和组织资助,使命是引导变革性技术远离极端、大规模的风险,转向造福生活。
  截至发稿,这封信已有1079名科技领袖和研究人员签名,除马斯克、辛顿和马库斯外,还包括图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、苹果公司联合创始人史蒂夫·沃兹尼亚克、Stability AI首席执行官埃马德·莫斯塔克等科技界领袖人物。

“可能导致核战争
和更严重的疫情”

  28日,签署这封信的纽约大学教授盖瑞·马库斯在写作平台Substack上写道,一位同事写信给他问道:“这封(公开)信不会造成对即将到来的AGI(通用人工智能)、超级智能等的无端恐惧吗?”
  马库斯解释道,“我仍然认为大型语言模型与超级智能或通用人工智能没有太大关系;我仍然认为,与杨立昆(Yann LeCun)一样,大型语言模型是通向通用人工智能道路上的一个‘出口’。我对厄运的设想可能与辛顿或马斯克不同;他们的(据我所知)似乎主要围绕着如果计算机快速而彻底地自我改进会发生什么,我认为这不是一个直接的可能性。”
  但是,尽管许多文献将人工智能风险等同于超级智能或通用人工智能风险,但不一定非要超级智能才能造成严重问题。“我现在并不担心‘AGI风险’(我们无法控制的超级智能机器的风险),在短期内我担心的是‘MAI风险’——平庸人工智能(Mediocre AI)是不可靠的(比如必应和GPT-4)但被广泛部署——无论是就使用它的人数而言,还是就世界对软件的访问而言……”
  马库斯认为,许多普通人也许智力高于平均水平,但不一定是天才,在整个历史中也制造过各种各样的问题。在许多方面,起关键作用的不是智力而是权力。一个拥有核代码的白痴就可以摧毁世界,只需要适度的情报和不应该得到的访问权限。现在,AI工具已经引起了犯罪分子的兴趣,越来越多地被允许进入人类世界,它们可能造成更大的破坏。
  欧洲刑警组织3月27日发布一份报告,对采用ChatGPT类工具进行犯罪的可能性进行了讨论,令人警醒。“大型语言模型检测和重现语言模式的能力不仅有助于网络钓鱼和在线欺诈,而且通常还可以用来冒充特定个人或群体的讲话风格。这种能力可能会被大规模滥用,以误导潜在受害者将他们的信任交给犯罪分子。”这份报告写道,“除了上述犯罪活动外,ChatGPT的功能还有助于处理恐怖主义、政治宣传和虚假信息领域的许多潜在滥用案件。因此,该模型通常可用于收集更多可能促进恐怖活动的信息,例如恐怖主义融资或匿名文件共享。”
  马库斯认为,再加上人工智能生成的大规模宣传,被大型语言模型增强的恐怖主义可能导致核战争,或者导致比新冠病毒更糟糕的病原体的故意传播等。许多人可能会死亡,文明可能会被彻底破坏。也许人类不会真的“从地球上消失”,但事情确实会变得非常糟糕。
  “人工智能教父”杰弗里·辛顿在接受哥伦比亚广播公司采访时表示,人工智能可能发展到对人类构成威胁“并非不可想象”的地步。 本报综合


发表评论   上一页 下一页


3上一篇   下一篇4   2023/03/31
相关文章: