配资券商-券商配资开户

配资券商-券商配资开户

202407月26日

最大最正规股票配资 AI安全治理刻不容缓

发布日期:2024-07-26 19:06    点击次数:122

最大最正规股票配资 AI安全治理刻不容缓

AmeriVet Securities的利率策略主管Gregory Faranello:

  5月中旬,OpenAI联合创始人、首席科学家伊利亚·苏茨克弗(Ilya Sutskever)离职。这并不令业界感到意外,早在2023年11月OpenAI短暂罢免CEO山姆·奥特曼的“宫斗”风波中,外界已预料到可能会有这一天。在社交媒体上,苏茨克弗的离职维持了成年人的体面,他发布一张与OpenAI高管团队的亲密合影,而CEO奥特曼则对他表示了感谢与赞扬。

  与苏茨克弗前后脚离开的还有OpenAI的多名高管,其中“超级对齐”(Superalignment)团队的主管Jan Leike在离职的同时还发出了“小作文”,指责OpenAI领导层已高度忽视了大模型的安全准则,高速推出“吸引眼球”的产品,将核心放在了盈利与获取计算资源上。对此,OpenAI方面回应,已提高了对AI风险的认知,未来将不断提升安全工作以应对每款新模型的利害关系。

  超级对齐团队是OpenAI于2023年7月在内部设立的,任务在于确保那些具备“超级智能”“比人类还聪明”的AI系统能够遵循人类的意图。这里需要交代下超级对齐团队设立的背景:2023年3月,OpenAI推出了多模态预训练大模型GPT-4,之后不久,特斯拉CEO埃隆·马斯克联合知名企业家、学者联合签署《暂停巨型AI实验》公开信,“呼吁所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月”。根据Jan Leike的爆料,OpenAI当时承诺在未来4年内投入20%的计算能力来保证AI模型的安全性,但实际执行上打了很大折扣,随着核心人物的离职,超级对齐团队基本等于解散。从去年3月到今年5月,OpenAI接连进行了GPT大模型的数次更新迭代,算力成本持续下降。

  回看过去一年,超级对齐团队似乎从一开始就像是“权宜之计”,OpenAI在不同环境多个场合屡次强调对模型安全的重视,多举措“安抚”监管部门、业界及公众对于AI高速发展的安全风险担忧。事实上,OpenAI的超级对齐团队从设立到“解散”的背后,在一定程度上也是市场地位变化的一个反映。从ChatGPT引爆大模型热潮,到之后GPT-4、GPT-Turbo,再到今年2月的Sora和5月最新推出的GPT-4o,OpenAI作为AI大模型的开创者,在一定时期内“一枝独秀”,公众对于AI安全风险的担忧投射的是对于OpenAI的一种质疑与拷问。而随着Meta、谷歌、亚马逊等科技巨头,以及Anthropic、Mistral AI以及中国的大模型企业发力追赶,OpenAI扮演的角色从“一枝独秀”转变为“主要竞争者之一”,OpenAI的大模型进入了相对平稳迭代的阶段,尽管它仍惊艳业界,但对AI大模型狂飙突进需要把控好“方向盘”的任务绝不只是OpenAI一家企业的责任。更为重要的是,当市场竞争日益白热化、算力资源日益紧俏的情况下,OpenAI将更多的资源倾斜至产品迭代升级,而非“超级对齐”任务上,也就不难理解了。

  AI大模型的狂飙突进故事仍在续写,市场竞争愈演愈烈,科技巨头与AI新秀都在铆足全力,共同推动大模型的使用门槛不断下降,在中国市场还上演了一场热闹的价格战。在这种情况下,AI安全治理还重要吗?人类发展AI还需要“超级对齐”吗?

  答案显然是肯定的。当前,全球人工智能的国际竞争已经从技术领域延伸至规则制定方面,这既是国际社会对人工智能安全发展的共同利益,背后也是大国在AI治理话语权方面的竞争。于是,我们看到,欧盟理事会在5月21日正式批准了《人工智能法案》(AI Act),抢占立法高地,在其《通用数据保护条例》(GDPR)成功的基础上延续“布鲁塞尔效应”;中国在5月8日公布的《全国人大常委会2024年度立法工作计划》中,将网络治理和人工智能健康发展纳入“预备审议项目”中;美国同样陆续出台一系列与人工智能相关的法律法规;中国与法国达成《关于人工智能和全球治理的联合声明》、与俄罗斯全面深化在包括人工智能在内的多领域合作……由此可见,人工智能的安全发展与治理已引起各个国家和地区的重视,国际的发展合作与治理协作也日益频繁。

  而对于OpenAI这些AI大模型的主导企业来说,也越来越多地参与到国际的框架合作与联合承诺中。从2023年11月首届人工智能安全峰会上,28国和欧盟联合签署了《布莱切利宣言》,坚持“以人为本,值得信赖和负责任”的人工智能发展准则,到今年5月21日在韩国首尔举行的第二届人工智能安全峰会上,OpenAI、Anthropic、亚马逊、谷歌、微软、Meta、Mistral AI、xAI、智谱AI等来自北美、亚洲、欧洲和中东地区的15家主流人工智能公司就AI开发安全承诺达成一致,签署了前沿人工智能安全承诺,主要包括:确保前沿人工智能安全的负责任治理结构和透明度;基于人工智能安全框架,负责任地说明将如何衡量前沿人工智能模型的风险;建立前沿人工智能安全模型风险缓解机制的明确流程。正如智谱AI首席执行官张鹏所说:“伴随着先进技术而来的是要确保AI安全的重要责任。”

  综合以上,尽管OpenAI的超级对齐团队在公司内部“降级”甚至解散,但这并不代表AI发展不再需要与人类共同利益的超级对齐,相反在国际层面和国家监管治理方面,作为市场主导者和参与者的大模型企业都需要将安全治理贯穿到业务发展链条中,接受更为严格的监管与制约。AI大模型的时代方兴未艾最大最正规股票配资,在国际社会的共同努力下为人工智能的发展把好方向盘,显然是未来与技术狂奔向前相伴的另一个主旋律。



TOP

Powered by 配资券商-券商配资开户 @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2009-2029 联华证券 版权所有