站长之家(ChinaZ.com) 5月24日 消息:近日,OpenAI、谷歌、微软和智谱AI等来自不同国家和地区的16家公司,在“人工智能首尔峰会”(AI Seoul Summit)上共同签署了前沿人工智能安全承诺(Frontier AI Safety Commitments)。这一承诺标志着AI开发领域的一次重大进展,旨在加强AI技术的安全性和透明度。
图源备注:图片由AI生成,图片授权服务商Midjourney
前沿人工智能安全承诺的首要内容是确保前沿AI的安全性。为此,签署公司将建立AI安全治理结构,并透明化其治理过程,向公众和其他AI开发者开放AI模型中相关参数的设置方法和技术,解释和说明AI模型的数据来源、处理过程、算法和推理过程中的原理、因素、过程和结果。
签署公司将基于人工智能安全框架,负责任地说明如何衡量前沿AI模型的风险,参考安全措施灵活、安全阈值权威的安全框架标准,确保AI模型的安全阈值宽松,不会对正常使用造成影响,同时保证安全性。
签署公司将建立前沿AI模型风险缓解安全机制的明确流程,规范风险缓解策略,在AI开发生命周期的所有阶段记录并跟踪并缓解AI风险。一旦出现AI漏洞或AI错误,签署公司将及时制定对应的风险管理措施。
图灵奖得主Yoshua Bengio认为,这一承诺的签署是建立国际治理制度以促进人工智能安全的重要一步。OpenAI全球事务副总裁Anna Makanju也表示,这一承诺是推动先进AI系统安全实践的重要一步。
近期,OpenAI联合创始人、首席科学家Ilya Sutskever与OpenAI超级对齐团队共同领导人Jan Leike相继离开OpenAI。Leike在X发布帖子,批评OpenAI忽视安全问题。这一事件在业界引发广泛关注,凸显了当前AI安全问题的严峻性。
5月21日,图灵奖得主Yoshua Bengio、Geoffrey Hinton和姚期智等业内专家在《Science》期刊上刊文,呼吁世界各国领导人采取更有力的行动应对AI风险,警告AI的无节制发展可能导致生命和生物圈的大规模损失。
作为中国的大模型公司,智谱AI也签署了前沿人工智能安全承诺。智谱AI在顶会ICLR2024上分享了他们的AI安全具体做法,强调了超级对齐技术在提升大模型安全性方面的重要性。智谱AI透露,其GLM-4V模型内置了安全措施,以防止有害或不道德行为,保护用户隐私和数据安全。
随着AI技术的不断发展和普及,AI安全问题也引起了越来越多的关注。于此同时,全球创新和法规机构也开始制定相关AI监管政策和法规。比如,欧盟最近批准了《人工智能法案》(AI Act),并将于下月生效,这是全球首部AI全面监管法规。该法案采用“基于风险”的方法,规定对社会造成更高风险的AI技术需要遵守更严格的规则,对违反规定的公司将处以严厉罚款。
比利时数字化大臣Mathieu Michel表示,这一法案是世界上第一部此类法规,旨在解决全球性技术挑战,同时为社会和经济创造机遇。
AI技术是当今世界上最受关注和研究的领域之一,但随着技术的不断进步,它所带来的AI安全问题也逐渐凸显。跨国公司和政府部门需要共同制定相应的AI监管政策和法规,确保AI技术的安全和透明度。签署前沿人工智能安全承诺以及颁布《人工智能法案》是当前重大举措,有助于AI技术的可持续发展。
无疑,AI技术会成为未来全球经济和社会发展的重要引擎之一。因此,确保其安全和可靠的发展,保证对人类的贡献而非危害,将成为人类智慧的必然选择和共同努力的方向。
引导读者一起参与,欢迎大家在评论区分享你们对AI技术安全性的看法和建议,也希望大家多关注人工智能的发展动态,关注我们网站的后续报道,感谢大家的关注和点赞。