在首尔举行的 AI 安全峰会上,微软、亚马逊和 IBM 等领先科技公司共同承诺,在开发基础模型时将公布他们所采取的安全措施。这些公司都同意,如果无法控制或减轻 AI 模型所带来的风险,将不会开发或部署该模型。这一承诺适用于基础或“前沿”模型,通常是能够处理图像、文本和其他输入的多模态系统。
图片来源:Unsplash API
签署该承诺的公司将公开概述他们的基础模型所带来的风险水平,并说明他们计划采取哪些措施来确保这些模型的安全性。每个签署者必须在2025年前发布他们的研究结果。
这个承诺不仅仅是对 AI 的基础应用负责,更是对风险控制和风险责任的承诺。签署该承诺的企业和机构将为制定一套全球统一、透明、负责任的 AI 信任框架贡献自己的力量。
英国首相里希・苏纳克也对此发表了看法,他表示这些承诺确保了世界领先的 AI 公司将就其开发安全 AI 的计划提供透明度和问责制。这些承诺旨在进一步完善去年首届 AI 安全峰会上签署的 Bletchley 协议,该协议对 AI 风险进行了分类和归类。
在此次AI安全峰会上,包括Meta、三星、Claude 开发商 Anthropic、埃隆・马斯克的初创企业xAI等在内的众多企业都签署了前沿AI安全承诺。
ChatGPT制造商OpenAI、总部位于迪拜的科技创新研究所以及韩国互联网供应商Naver也签署了该承诺。中国公司智谱AI也是签署该承诺的公司之一。该承诺由英国和韩国政府共同制定。
对于 AI 领域,我们是否需要更加严格的政策规范和行业标准?我们能否制定出全球范围内的 AI 信任框架,并得到广泛认可?
在 AI 发展的道路上前进,我们需要思考 AI 的生态系统,包括模型、数据、算法、技术和道德等方面,并考虑到这一生态系统对社会和环境的影响。
随着 AI 技术的不断进步,关注AI安全问题的重要性愈发凸显。开发和使用可靠、安全的 AI 技术对于确保人工智能技术的发展以及对社会的持续贡献具有至关重要的意义。我们应该以负责任和可持续的方式推进 AI 技术的应用和发展。
感谢您阅读本文,如果您对此有相关评论或建议,欢迎在下方评论区留言。同时,欢迎您关注本站并点赞支持。