去年11月以来,一款名为“ChatGPT”的聊天机器人程序开始在海外爆火,到今年2月份,ChatGPT更成为几乎每天都能见到相关热搜的“顶流”。
热烈的讨论声中,很多人惊呼:“《流浪地球2》里那个不断自我学习,最终演化出自主思维的‘MOSS’,或许离我们已经不远。”
也有人认为,ChatGPT与Siri、小爱同学、小度等人们熟悉的智能助手没有本质区别,不值得过多关注。
网友让它写诗、写小说、写工作简报、写朋友圈文案,甚至用它写代码、写论文……ChatGPT究竟是一款怎样的产品?它缘何突然爆火?它能做到哪些事情?会有人因此被“抢饭碗”吗?未来发展将走向何方?我们采访到业界专家和多位ChatGPT使用者,试图解答这些问题。
“不是新东西”的ChatGPT
突然就火了?
ChatGPT,全称是“Chat Generative Pre-trained Transformer”,可直译为“作交谈用的生成式预先训练变换器”。它是美国公司OpenAI研发的聊天机器人程序,能用于问答、文本摘要生成、机器翻译、分类、代码生成和对话AI。
到今年1月,ChatGPT仅用不到两个月时间,就累计了超过1亿用户,打破了此前Tik Tok用九个月时间将用户数累计到1亿的速度。
南开大学计算机学院、网络空间安全学院副院长刘晓光表示,虽然ChatGPT进入大众视野的时间并不长,但OpenAI的GPT产品几年前就已在从业者中产生巨大影响。从技术层面来说,ChatGPT并不是个新东西。
“2016—2020年,OpenAI陆续发布了GPT的1.0、2.0、3.0版本,去年11月底发布的ChatGPT可以视作GPT-3.5。虽然大多数普通人是最近才知道‘GPT’这种利用大数据的预训练大模型,但更早的GPT-3已经在计算机学界和业界产生很大的影响。国内一些互联网公司早在这波热潮前,就拥有自己的预训练大模型项目。”
刘晓光认为,ChatGPT之所以能够突然爆火,可能有这样几个原因:“一是此前几代GPT更多是面向商界提供技术支持,而ChatGPT则是直接面向大众,谁都可以提问,回答也只需等几秒,更多的人能简单而直观地了解它的作用;二是它发布时正值国外的大学考试季,很多学生拿它写论文、交作业,而ChatGPT能给出相对完整的回答,解决了学生的实际问题,由此迎来用户快速增长。当然,它火热到一定程度后,也不排除有科技巨头企业、科技媒体的过度关注和一些炒作现象。”
“好得吓人”?
ChatGPT突破了怎样的难点?
去年12月,埃隆·马斯克曾公开表示ChatGPT“好得吓人”(scary good),并认为强大到危险的人工智能已经离我们不远。微软联合创始人比尔·盖茨接受媒体采访时表示:“ChatGPT将改变我们的世界。”近日,京东集团副总裁何晓冬接受媒体采访时表示:“ChatGPT是第一款真正意义上的人工智能原生的产品,就像第一款iPhone,一出来就展现出高完整度,高体验性,高平台性。”
埃隆·马斯克称ChatGPT“好得吓人”
行业巨头为何如此高度评价ChatGPT?很多人表示不解。有网友在互联网中提问:“能与人对话的Siri、小爱同学、小度等智能助手已然不少,若论及AI技术,几年前的阿尔法围棋(AlphaGo)也曾引发极大关注,ChatGPT究竟特殊在哪里?”
刘晓光表示,在不少计算机领域业内人士看来,ChatGPT的横空出世,给AI领域带来的冲击,更甚于七年前的AlphaGo与围棋世界冠军、职业九段棋手李世石进行并获胜的那场围棋人机大战。
“从30年前IBM开发的国际象棋电脑‘深蓝’战胜世界冠军卡斯帕罗夫,到几年前AlphaGo战胜人类围棋冠军,其间虽有算法、算力的巨大差异,但本质上仍没有跳出‘让计算机在固定场景下干固定的事’这个范畴,而这恰好是计算机最擅长做的事。”刘晓光介绍道,“而ChatGPT面对的是一个‘open world’——上亿用户要问它什么问题,完全是不可预知的。ChatGPT需要根据具体场景,自行组织各种回答。这恰恰是AI开发的难点,而ChatGPT在很多时候表现得很好。”
关于“open world”场景下AI运作之难,刘晓光做了一个简单类比:“如今的智能驾驶技术大多仍应用于矿山、港口和室内工厂等特定的封闭环境,这种‘close world’不会让AI遇到太复杂的问题。相对的,公共道路上的智能驾驶则难实现得多。其中一个原因,就是AI面对开放的、不可预知的环境时,其运作难度指数级上升。”
刘晓光认为,从核心概念来看,ChatGPT相比于Siri、小爱同学、小度等智能助手,其本质仍是语言模型,核心技术并没有颠覆性创新。区别在于,ChatGPT的模型足够大、有更多的数据以供训练、处理数据的软硬件能力更强,而Siri、小爱同学等软件的学习能力、数据量都要差很多,甚至可以说是质的差别。
“ChatGPT在学习能力、数据处理量上的优势,让它所能处理问题的边界大大拓宽,甚至可以说,它是一款完全不同的产品。有研究者的观察分析表明,ChatGPT已展现出一个接受过大学教育的普通本科生的知识水平。这与此前同类产品有着云泥之别,也是让业界震惊的地方。”
一场“调戏”ChatGPT的狂欢
围观机器人“一本正经地胡说八道”
值得注意的是,ChatGPT在中文互联网爆火后,很快引发了一场意料之外的狂欢——用户们争先恐后地“调戏”它。
与苹果的智能语音助手Siri遇到复杂问题时动辄回答“对不起,我好像不太明白”不同,ChatGPT展现着一种尽可能用自身逻辑组织语言、回答问题的倾向。甚至对很多人们一眼看上去像是在搞怪的问题,它也会给出答案。这种“一本正经地强答”,让用户产生了极大兴趣。
一些“强答”反映了ChatGPT有时并不能完全理解自己所回答的问题。例如,当问及“为什么房子不盖成实心的”时,ChatGPT会“不厌其烦”地从空气无法流动、没有通风系统等方面论述这样的房子对健康不利,但似乎没有“意识”到这样的房子本就无法住人。
网友“调戏”ChatGPT的问题(图片来自网络)
涉及专业知识类的问答,同样闹出了不少笑话。B站一位历史区up主询问ChatGPT几个问题后得到的答案显示,ChatGPT会混淆春秋战国时期七雄之一的魏国、三国时期割据政权之一的曹魏,以及十六国时期鲜卑拓跋氏建立的北魏。无独有偶,ChatGPT还会将“南朝宋”与“南宋”张冠李戴。
ChatGPT“一本正经地胡说八道”(图片来源:b站up主“稚嫩的魔法师”)
由此导致的结果,往往是乱答一通。一位历史学博士告诉记者,这些“一本正经地胡说八道”的答案固然好笑,但奇怪的是,它的回答在逻辑表达上却似模似样,不像是随意从网上抄来的,“我看到有人使用ChatGPT问一些学术问题,它给出的答案甚至包含了引用论文、论文号等等细节,结果一查,这些‘参考文献’全是chatGPT自己编的,让人啼笑皆非。真不知道它是怎么得出这种答案的。”
“要讨论ChatGPT‘胡说八道’的缘由,就不得不提到此类产品目前的一个缺陷,就是可解释性很差——预训练大模型中的神经网络存在成千上万层,AI通过深度学习,自行构造出一个复杂规则。人们能看到的,往往只是它针对问题所输出的一个结果。因此,无论答案是正确还是错误,人们都很难对AI为何得出该答案进行解释。”刘晓光说道。
多位使用过ChatGPT的用户告诉记者,ChatGPT的回答很少出现“句不成句”式的表述硬伤,但却不时出现逻辑与事实错误。越冷门、越小众的领域,这种错误就越明显。
出现这种现象,或与ChatGPT所学习、训练的数据构成有关。“众所周知,一个产品用得人越多,往往就变得越来越好用,这是因为用户的使用行为本身就是一种反馈机制,能够帮产品自我改进。ChatGPT也是如此,在问题集中的领域,它有更多的样本去学习、训练、自纠;而偏门的知识领域,ChatGPT就缺乏足够数据来深度学习,于是就会‘胡说一番’。”刘晓光表示,最近他使用ChatGPT的过程中,当询问常见问题、新闻事件等,往往能获得比较准确的答案,而一旦询问相对偏门的知识,ChatGPT就开始明显地“放飞自我”。
由此衍生的另一个话题,就是ChatGPT输出答案的可靠性——它给出的结果是否正确,将由谁来判断?如果无法判断,也就无法进行正确的反馈。而众所周知,正确的反馈对产品迭代十分重要。
另一方面,大量“胡说八道”式的垃圾内容被ChatGPT生产出来,似是而非、经不起二次校正的不可信内容广泛出现,会削弱整个内容平台的公信力,让人们对ChatGPT或同类产品的可靠性产生质疑。
毕竟,在当下这个充斥海量信息的社会中,相比于“信息密度”,人们往往更渴求的是“信息精度”。
“饭碗不保”?
人们该担忧吗?
ChatGPT横空出世所引发的另一个争论,则相对更加严肃现实:会有人的工作岗位被ChatGPT取代吗?
自有AI技术诞生以来,类似的话题就不绝于耳。但要回答这个问题,就要跳出对AI技术的盲目崇拜与“调戏”式的玩闹心态,严肃地正视一个问题:ChatGPT目前究竟能干什么,或者即将能干什么?
对这个问题,ChatGPT自己给出了聊天机器人、自动文本生成、自动翻译、情感分析、内容摘要、数据分析、虚拟助理等具体应用的场景。事实上,在这些领域中,ChatGPT已证明了自己比此前所有产品都要做得好,而且好得多。
刘晓光认为,长远来看,技术进步带来业态调整是必然结果。但一项新技术是否将带来就业冲击,以及具体将带来何种冲击,归根结底还是要看技术落地的顺利程度。
“目前来看,ChatGPT对图片制作、文字生成、媒体内容生产、虚拟人服务、工作汇报、翻译、编程、搜索引擎等领域会造成较大冲击。就在2月7日,微软已宣布推出有ChatGPT支持的最新版本人工智能搜索引擎必应(Bing)和Edge浏览器,这已然极大地改变了搜索引擎的竞争格局——毫无疑问地,从‘逐条抓取数据’到‘直接给用户呈现答案’,这必然是更符合用户需求的方向。可以看到,新技术的更迭如火如荼,有时人们说巨大变革就在眼前,并非夸大其词。”刘晓光介绍道。
内嵌了ChatGPT的Bing搜索,直接制订了提问者想要的训练计划
但刘晓光同时表示,正如前面所指出ChatGPT尚存在缺陷,其回答仍时常表现出不可靠性:“就拿ChatGPT所呈现的文字表达来说,要将它应用于实际场景,还离不开人的指导、检查与验证。”
从社会分工的角度来说,面对ChatGPT的冲击,首当其冲的是重复性劳动较多的、不需要太多创造力的工作。而创造力,正是当前如何拼算力、烧财力,也无法让AI轻易跨越的一道鸿沟。
“人为什么会拥有创造力?迄今为止,这个问题连人类自己都无法说清,更遑论把创造力教给机器了。到目前为止,AI最擅长的仍然是‘照章办事’,本质上还突破不了‘创造力’这一关,ChatGPT也不例外。”刘晓光说道,“如果哪天AI突破了创造力这一关,那么人们要担心的,也不仅仅是某几个行业的就业岗位问题了——届时整个人类社会都会面临翻天覆地的变化。”
预训练大模型
未来将走向何方?
早在2015年奥特曼、彼得·泰尔、里德·霍夫曼和埃隆·马斯克等一群科技领袖创立OpenAI时,OpenAI还是一家非营利企业。公司创始人们认为,要避免人工智能技术垄断在少数巨头手中,要通过开源促进技术开放。
但随着项目进展,训练机器学习模型所需的资金越来越庞大,OpenAI开始成立一家营利性分支机构。2019年,风险投资人微软入局。时至今日,微软和OpenAI 之间的财务命运和技术变得越来越融合,今年1月份,随着ChatGPT的爆火,微软又向OpenAI追加了100亿美元的投资。
当前,ChatGPT仍处于免费试用状态,但不断有消息称其将很快推出收费版本。同时,Bing搜索已内嵌ChatGPT,更有消息称微软或将把ChatGPT嵌入Office办公软件中,这不啻将是对办公生态的又一次革新。
内嵌了ChatGPT的Bing搜索在写诗
“预训练大模型”类软件将走向何方?在业内人士看来,虽然ChatGPT的核心理论已不算新鲜,但开发同类产品所需的资金和人力,某种程度上已构成了新的门槛。
“早在前一代GPT中,模型训练一次的花费就高达千万乃至上亿美元,非常昂贵。OpenAI预计将在今年内发布GPT-4,那将是万众期待的进一步升级,同时也意味着它需要更多数据和更高计算力,这些都需要大量资金和人力。因此,开发同类产品的门槛在不断变高。”刘晓光说道。
大势之下,国内计算机业界有哪些机遇和挑战?刘晓光认为,当前国内外公司在开发预训练大模型产品的核心理论上,存在的差距并不算很大,但在数据采集、数据分析处理的能力上,“后来者”们仍有要追赶的距离。
“如果把机器赖以训练、学习的数据比作食材,那这种食材就需要通过收集、处理变成适合吸收的样子,这不是一项简单的工作。无论文字还是图片、视频,它们一般都需要进行人工标注,这不是短时间投入大量资金就能立刻见效的事,而是需要很多人力和时间的积累。因此业内也有说法称,数据才是互联网企业最重要的资产,甚至有人将数据比作企业的‘护城河’。”刘晓光说道。
“预训练大模型”类软件未来将如何发展?刘晓光认为或许将指向三个特征:“一是数据量越来越大,计算力越来越强,包罗万象;二是向专业化领域进军,在某一细分领域把信息精度做向极致,如医疗、法律、体育、编程等垂直分类;三是与具体应用场景深度结合,不仅仅停留在‘chat’,而是与虚拟人表演、电商营销、售后客服、陪护老幼人群、文艺创作等场景相结合。ChatGPT所展现的潜力,预示着它有能力在这些领域大有作为。”
来源: 天津日报