查看原文
其他

今天大佬说了啥|Sam Altman出席听证会,保证未来6个月内不会训练GPT-5

张司钰 新皮层NewNewThing 2023-08-02

「这些意见领袖对智能的观点值得听,因为他们影响AI的成长方向」

撰写:张司钰

编辑:王杰夫


Key Person

Sam Altman:OpenAI首席执行官,但并不持有OpenAI股权。此前,他曾担任Y Combinator的总裁,并短暂任Reddit的首席执行官。


北京时间5月17日凌晨,OpenAI创始人兼CEO Sam Altman(山姆·奥特曼)在美国参议院就AI技术的潜在危险作证。除Sam Altman外,IBM副总裁兼首席隐私官Christina Montgomery(克里斯蒂娜·蒙哥马利),以及纽约大学教授Gary Marcus(盖瑞·马库斯)也出席了本次听证会。

这场听证会围绕版权侵害、虚假内容、影响选举、数据安全、大公司垄断、政府监管途径等议题展开,持续了近3个小时。与过去与Google、Meta、TikTok等技术公司首席执行官参加的听证会不同,参议员们提出的问题大多并不尖锐,更多时候,他们只是向Altman和其他证人就ChatGPT等生成式人工智能工具未来规则的制定寻求意见。

面对美国国会,Sam Altman再次保证在未来6个月内,OpenAI不会训练GPT-5。同时,他发出AI可能危害世界的警告,并表示政府干预对缓解日益强大的AI系统的风险至关重要。

以下是听证会的部分要点整理,听证会视频回放整理可参考此链接:

https://www.youtube.com/watch?v=TO0J2Yw7usM


01 

AI监管问题

三点建议

Sam Altman第一,成立一个新的政府机构,负责大型AI模型许可证的颁发与管理,国会可以“定义能力阈值”,免除小型公司和研究人员可能遇到的监管负担,鼓励创新,比如帮助创造新型生物制剂的AI模型可能需要获得监管许可;

第二,为AI模型创建一套安全标准,包括对其危险能力的评估。例如,模型必须通过一定的安全测试;

第三,应由独立专家在各种指标上对模型的表现独立审计。

值得注意的是,Sam Altman的建议中并未要求公司公开AI模型训练数据来源,以及禁止使用受知识产权保护的作品训练模型,而这正是证人之一Gary Marcus与参议员Marsha Blackburn(玛莎·布莱克本)建议的内容。

OpenAI不是社交媒体,但不保证没有广告

Sam Altman:OpenAI没有建立起基于广告的商业模式,所以并不会建立详细的用户画像以吸引用户使用。实际上,我们并不希望用户用得越多越好,因为我们的GPU不够了。但OpenAI不会永远不考虑接受广告投放。

AI生成内容或将影响选举结果

Sam Altman:我非常担心选举会受到AI生成内容的影响,这些模型具备操纵、说服、提供一对一交互式虚假信息的能力,因此在这方面需要足够的监管。我认为,如果这项技术出了问题,它可能会大错特错,我们希望与政府合作,防止这种情况发生。

规范AI需要一部新的法律

Sam Altman我不认为第230条可以同样适用于AI公司。

背景:1996年国会通过了《通讯规范法案》第230条款,该条款规定,互联网服务供应商无需为第三方使用者的言行负法律责任,同时保护互联网服务供应商出于善意考虑,限制部分冒犯性内容。这一条款的通过促进了社交媒体的崛起。

支持国际组织为AI制定标准

Sam Altman:正如全球各国政府关于如何监管核武器是有先例的,美国应该带头规范AI,可以让一个类似于国际原子能机构的机构来为AI行业制定全球规则。美国有办法制定一些国际标准,其他国家需要与之合作并成为其中的一部分,这些标准实际上是可行的,尽管这听起来像是一个不切实际的想法,我认为这将是伟大的世界。


02 

大模型研究暂缓与否问题

AI创造更多工作机会

Sam Altman:GPT-4是一个工具,而不是一个生物,能帮人完成具体任务而不是整个工作,认识到这点很重要。GPT-4目前仍然可以很好地为人们所控制和使用,尽管它可以让一些工作自动化,甚至被替代掉,但人类利用AI大模型可以拥有更多能力、更多时间追求自己喜欢的事物,这将创造出更多工作机会。

对此,Christina Montgomery表示赞同,Gary Marcus则持相反意见

Christina Montgomery:AI大模型将会改变每一项工作,如今的工作重点应该是做好新老工作的过渡。到2030年,IBM将培训3000万个人掌握当今社会所需的技能。

Gary Marcus:尽管通用人工智能(AGI)时代还没有到来,但我们只拥有一小部分样本,人们不应该小看AI给就业带来的影响。

技术开源不是最佳解法

Sam Altman:开源有好处也有危险。即使开源能破除大公司垄断,但现阶段能提供足与大公司相抗衡的模型能力的开源社区依然较少,技术的开源也会增大AI风险的扩散范围,因此现阶段由少数公司掌握技术能够提高AI的可控性。

此前,议员们以Web3.0的例子类比,指出:去中心化技术却由少量公司为中心掌握着,AI技术垄断可能带来意识形态风险。

暂停研究意义不大

Sam Altman:仅仅是暂停研究可能用处不大,相比限制研究,更应关注落地应用、面向公众开放前的审核、评估等环节。OpenAI在开发完GPT-4之后,等了超过半年才推进落地应用,目前也并没有GPT-5的研究计划。如果我们在训练过程中遇到了不能理解的情况,那需要停下,但如今还没有看到这样的趋势。



-END-


若想了解更多当日资讯,请点击阅读往期智能晚报:

智能晚报|达摩院自动驾驶部分并入菜鸟;OpenAI计划推出开源模型;Midjourney中文版发布内测...

新皮层New New Thing 


Hello!

我们是一个诞生于GPT浪潮、由《第一财经》YiMagazine孵化的全新内容IP。


和每一位关心技术、关照人的命运的读者一样,我们希望在这个有史以来不确定性最高的时代,更好地理解快速变化的科技世界,也更好地理解生而为“高级智能”的我们自己。在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与“智能”相关的议题。请注意,我们说的是智能,不只是AI。



与记者交流,可添加微信(请备注公司名称和姓名):

王杰夫 微信号: wjfsty

张司钰 微信号: helianthus351

吴洋洋 微信号: qitianjiuye

 


再次,喜欢就关注我们吧,记得“设为星标



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存