近日,一群前OpenAI和Google DeepMind员工发起了一封公开信,呼吁人工智能公司重视AI的风险,并允许员工提出对AI风险的担忧。
这些员工认为,虽然人工智能的发展为我们带来了很多便利,但它也可能加剧社会不平等、操纵信息,甚至导致人类的灭绝。因此,员工们要求AI公司遵守四项原则:
公开信要求AI公司不禁止批评、提供匿名渠道、支持批评文化以及不报复分享风险信息的员工。这些原则的确是非常重要的,因为只有员工们在公司内部不能通过公开途径提出自己的担忧,才会让一些问题逐渐潜藏,并最终导致不可挽回的后果。
不过,AI可能带来的具体危害仍存在分歧。一些专家质疑AI对人类生存构成风险的说法,认为这转移了人们对当前AI危害的注意力。
但是,公开信中提到的不平等、信息操纵等问题也正是当前AI领域亟需解决的难题。只有让员工发声,才有可能更加全面地了解和解决这些问题。
前谷歌AI伦理研究员Margaret Mitchell博士指出,目前的法律以牺牲工人为代价来支持大公司,使得举报人面临职业和心理健康风险。因此,她呼吁对法律进行重大修改,以更好地保护揭露问题的员工。
可以预见,以后将会有越来越多的人开始关注AI对人类社会的影响,这不仅仅是工作者们的目光,还将会引起更广泛的社会关注。只有通过共同努力,才能最大限度地发挥人工智能的作用,同时缓解其带来的负面影响。
如果您对这篇文章有什么看法,欢迎在评论区留言,同时也别忘了关注、点赞和感谢观看哦。