桑达尔·皮查伊(Sundar Pichai) 视觉中国 资料图
“我一直认为 AI (人工智能)是人类正在研究的最深刻的技术,比火、电或我们过去所做的任何事情都要深刻。”当地时间4月16日,在哥伦比亚广播公司(CBS)的采访节目《60分钟》里,谷歌及其母公司Alphabet的首席执行官桑达尔·皮查伊(Sundar Pichai)表达了他对人工智能的快速发展及其对社会潜在威胁的担忧。
皮查伊认为,社会需要适应新技术,各行各业或许都会受到影响,作家、会计师、建筑师,以及软件工程师在内的“知识工作者”或将被人工智能颠覆。
“新技术将影响每家公司的每一种产品。”皮查伊举例,假如你是一名放射科医生,想象一下从现在起的五年到十年,会有一个人工智能与你共同工作,当你早上起来面对上百件待处理任务时,它能够告诉你哪些是需要优先处理的最严重的事件。
对于新技术带来的安全问题,皮查伊表示,虚假信息、假新闻和图像方面有很大问题,他强调生成式人工智能的风险之一是深度伪造视频(deep fake videos),在这些视频中,一个人的行为可能会被伪造,例如发布从未说过的某种言论。
“这些陷阱说明了监管的必要性。”他说道,“制作这些深度伪造视频的人必须承担后果。任何与人工智能合作过的人都会意识到,这是如此不同、如此深刻的东西,以至于我们需要社会法规来思考如何适应。”
因此他强调必须有监管存在,“我们周围已经发生的技术,将比我们以前见过的任何东西更有能力。”
在采访中皮查伊表示,让他夜不能寐的一件事是谷歌的AI技术被以有害的方式利用。
在OpenAI推出ChatGPT后,谷歌开始部署自己的聊天机器人Bard。目前,谷歌一直对Bard采取谨慎的态度,强调这只是“实验性”产品。
据介绍,Bard内置安全过滤器,以帮助抵御恶意用户的威胁。皮查伊表示,公司需要不断更新系统的算法,以打击虚假信息活动并检测深度造假行为,比如检测计算机生成的看似真实的图像。
此前,谷歌发布了一份关于“监管人工智能建议”的文件。皮查伊表示,社会必须迅速适应监管滥用行为的法律和条约,以确保人工智能对世界的影响。
皮查伊强调,“这不是一家公司可以决定的。这也是为什么我认为新技术的发展不仅需要工程师的努力,还需要社会科学家、伦理学家、哲学家等共同参与。”
当被问及社会是否为像Bard这样的人工智能技术做好准备时,皮查伊回答说,“一方面,我觉得没有,因为我们的思考和适应的速度赶不上技术发展的速度。”
不过,他补充说自己很乐观,因为与过去的其他技术相比,“开始担心其影响的人”很早就有所准备了。