cha

ChatGPT刷屏中场:觉远和尚(暂时)成不了王语嫣

  来解释一下标题:

  无需过多赘述去年11月底面世的ChatGPT风靡全球的现象。

  随着各方言论不断流出,人们从最初的新奇,到了几乎覆盖全行业、撬动所有利益攸关方的讨论。就像一颗兴奋的火种,ChatGPT正在中国科技公司急速蔓延。

  2-3月交替之际,虽然专业社群的热度不断,但ChatGPT在更广泛的大众舆论场的刷屏势头似有放缓。在此期间,北京西二旗的科技园里,百度的算法工程师们迎来一个个封闭开发的不眠夜。3月第1天,百度发布预告称,将于本月16日就其「类ChatGPT」项目「文心一言」召开新闻发布会,隔天显示注册多个商标。据不完全统计,国内已经有400多家媒体、互联网、金融、保险、汽车、企业软件等行业企业宣布接入「文心一言」,成为生态合作伙伴。

  在正式揭晓「文心一言」能否迅速跟上ChatGPT节奏之前的当下,权且称作一个「中场」,容看客多想一层,就比如:微软现任CEO纳德拉一早就把ChatGPT吹上台,没多久集成ChatGPT的微软Bing就上线。事实上,2年前把元宇宙捧上天的,也是「纳德拉们」。

  「超级大脑」是对人工智能最直白的描述之一。金庸先生笔下,有2个「类超级大脑」式的人物,即本文副标题中的两个主角:

  觉远,少林寺藏经阁管理书籍的和尚,靠一番「管理图书」的技能成为「饱学宿儒、经术名家」。虽为少林、武当、峨眉三派各自九阳神功的布道者,内功极强,但重在防御,少谈攻击。

  另一位,「神仙姐姐」王语嫣,熟记世间所有武功秘籍,掌握「过目不忘」的「异术」,同时掌握实战运用技巧,到了随口点拨、便可使人武学技艺大增、反败为胜的境界。

  两相对比,觉远和尚和王语嫣相差的,便是这融会贯通、进而可以破解和预判武学招式的后半部分。

  暂且以此来概括ChatGPT背后计算资源的强大,和因受制于模型训练方式,出现了事实性错误、知识盲区和常识偏差等诸多问题。这引发了另一层对学科之于时间的思考。金庸先生大半个世纪前创造觉远和尚和王语嫣这两个人物时,自然不会想到如今这会用来形容科技发展。谁敢说ChatGPT在同样长的时间跨度后,是否还会启发于别的新兴事物?

  有分析指出,在科学训练中,哲学和社会学都是缺失的。简单翻译,是建模和框架。因为,计算是对权威科学模式的服从,但对于人文社科来说,入门课便是学会怀疑。换句话说,这或许是科学无法真正解释「人性」的那一部分。

  引用一句话来率先摆明本文的立场:法国插画家让-雅克·桑贝说过,「如果不欣赏人性的光辉,我就会变得很悲伤」。

  技术追求去中心化,但权力相反

  从原理上来讲,ChatGPT并不是新事物。它背后的基础,是母公司OpenAI在几年前发布的自然语言模型GPT,OpenAI于2018年发布了GPT-1,首次让人工智能能够让人类一样理解文字、写出文字。随后几年里,OpenAI 陆续推出了GPT-2、GPT-3,目前GPT-3已经用在了包括撰写新闻等多种场景。ChatGPT,就是在GPT-3的升级版GPT-3.5的基础上所做出来的产品。

  以往的聊天机器人只能解决单一的领域问题,而ChatGPT之所以能够走向应用多元、通用的场景需求,主要原因是其在技术路径上采用了「大数据+大算力+强算法=大模型」的路线,这也是其在之前开放免费公测后,短时间内就引发了不同圈层的反馈。

  Meta 首席科学家、图灵奖获得者杨立昆也提到,就底层技术而言,ChatGPT 并没有特别的创新。之所以被公众被视为「革命性产品」,他认为主要是在产品层面设计得很好、组合得很好。

  类似地,虽然很多人还是无法第一时间解释出什么是「深度学习」,但距离获得图灵奖的人工智能科学家杰夫·辛顿2012年和他的两位学生凭借神经网络AlexNet拿下ImageNet冠军,向世界证明神经网络能够以超越其他任何技术的精度识别常见的物体,已经过去了整整10年。此后,通过一场秘密竞拍,辛顿将神经网络推向科技行业的中心,进一步加速了人工智能的进步。

  当时,参与竞拍的不只有广泛被看好将通过搜索引擎有望成为ChatGPT头号玩家的微软、迎着前者推出竞品Bard随后翻车的谷歌,还有国内的百度。辛顿当初有一位同时创业深度神经网络(DNN)的伙伴,伊利亚·萨特斯基弗,后者是OpenAI的创始成员兼首席科学家。

  「创新」的圈子,说小不小,说大也不大。OpenAI耐得住寂寞,敢于去磨、去做创新研究的坚韧特质,最终让其「大模型」得到了今天的广泛关注。

  可以说,ChatGPT的出现,的确是理想主义者深耕多年后的成功。但是到最后,却又免不了会落到垄断寡头的手中。

  OpenAI出世之时,便有马斯克等几位硅谷大佬承诺出资10亿美元。ChatGPT发布前,微软就已经在2021年悄悄向OpenAI投资了20亿美元。因此,暂不论算力和算法的差距,钱已经变成了ChatGPT如今难以在短时间内被复制的第一道门槛。

  由此可见,不论是ChatGPT,还是由其引爆的AIGC,其实是传统力量的延伸,是互联网中心化垄断模式的进一步强化。在国内,即便「成为下一个ChatGPT」正在成为很多创业者的梦想,但在钱和技术积累上,显然大公司更胜一筹,真正在东线加入战场的还是百度、阿里、京东这些大厂。

  技术追求去中心化的,但权力则正相反。有人担忧,区块链技术本是希望打破技术垄断,让普通人重新拥有自己的数据「主权」,但随着不断发展,却出现了完全无视用户「主权」的ChatGPT和AIGC,你的每一次与它对话,都将转化为它无所顾忌的训练数据,最终面对它的「超级大脑」,人们陷入将会流失话语权的担忧,似乎强者愈强、弱者愈弱的马太效应是难以逃脱的未来。

  但是,换个角度看,正是因为权利诉求与技术发展的内核是相反的,因此,创造出ChatGPT的人,是否会允许技术真正成为「社会疆域」的主人,任其创立规则、颠覆游戏法则?答案并不尽然。否则,「AI会否替代记者」的话题不会至今仍未有答案。

  未来,决战应用场景

  回到国内。百度已然成为领头羊,阿里、京东、网易、小米等一线大厂也紧随其后,纷纷承诺了对ChatGPT的投入和开发。大厂们的态度十分鲜明:ChatGPT已经是既定的未来,这场新的科技竞技赛哨声响起,谁都不甘落于下风。

  然而,这更像是一场仓促应战。

  小冰CEO李笛举了一个例子:若用ChatGPT的方法,以小冰框架当前支撑的对话交互量计算,每天成本将高达3亿元,一年成本超过1000亿元。此外,自去年英伟达高端GPU芯片对中国供应受限后,国内算力受到严重影响。尽管国内芯片企业始终在奋力追赶,但是目前国内尚未出现可以对标的硬件产品。

  不论是算力算法还是高昂的落地成本,时间给国内科技追逐者们制造的壁垒,不止一点点。李笛也补充说,「人工智能正处于快速发展迭代的阶段,效果越好往往意味着越先进的技术,相应地成本也就越贵。假如不考虑优化成本,只追求效果,是很难长久落地、大规模铺开的。」

  美国高德纳咨询公司曾预测,到2025年AIGC产生的数据将占所有数据的10%,而2021年该比例不足1%。ChatGPT将来或成AIGC主力。但它的落地,注定是个长期过程,就像曾经红极一时的元宇宙那样。围绕元宇宙的泡沫很多,但元宇宙本身不是泡沫。只不过,距离落地还有很长的距离要走,比如它必须依托于大规模的基础设施(如算力设施、网络设施)的革新、接入平台的切换(从现在的电脑、手机转向VR、AR、MR设备)等。

  ChatGPT也一样,除了其因存在作弊和作假等弊端而被国内外多所高校相继「封杀」外,ChatGPT也并非知识获取的通路。毕竟,它并不是一个认真严肃的知识体系。ChatGPT更像是某种类型的行为模式优化系统,而不是在追求提供准确的「知识」。

  此前,舆论猜测微软Bing可能会彻底颠覆搜索引擎,引领搜索体验的代际变革。3月1日,ChatGPT开发商OpenAI宣布开放API(应用程序接口),允许第三方开发者通过API将ChatGPT集成至他们的应用程序和服务中,一些科技领域专业人士直呼「革命」。两者的共通点,都指向落地和应用,以及必须建立在前者基础之上的商业变现。

  在创新工场董事长李开复看来,「ChatGPT未来将成为一个基础设施,所有跟数字技术相关的产业都需要接入,最后会变成一个底层的超级API。」

  因此,或许ChatGPT的应用场景,才是现阶段大多数互联网和科技公司真正要争夺的。一项新技术或应用,取得技术上变革性突破,并不必然带来变革性社会影响,它必须具备一定的社会应用广度与深度。

  国内已经有公司开始积极尝试。比如京东。根据公开报道,京东预计推出的产业版ChatGPT,将会聚焦垂直电商场景,专注零售和金融,预计参数量达千亿级。

  科技是现象,但科学是精神

  人工智能的追求目标,从1980年起在学术界分出两种概念:

  一类是为人类研发出更好的工具,在解决某种问题时表现出的智能行为,这是「弱人工智能」;另一类则想让机器模仿人类的思维,研发出各方面都比肩甚至超越人类的智能体,被称为「强人工智能」。

  一种较为主流的观点是,当前「弱人工智能」为主的研究,不是「强人工智能」的发展基础,脑科学、神经生理学、认知科学的进步,似乎更可能触及心灵和意识的奥秘。

  这显示出,对于任何技术迭代,最终落到商业、道德和法规层面,不论是信任问题或是有关创造力的讨论,人们或许最疑问和焦虑的,都会指向,技术会不会产生自己的意识。

  1995年,改编自日本漫画家士郎正宗的动画电影《攻壳机动队》上映。电影讲述了在「平行世界」的2029年,一个就像今天的ChatGPT一样、负责收集和分析信息的军用AI觉醒了自我意识,它被称为「傀儡师」。高潮部分,傀儡师与黑客「素子」的电子脑相互连接,变得无法区分彼此。

  2004年,「素子」在以2032年为时代背景的续作《攻壳机动队2:无罪》中再次登场——曾经的搭档认出了她,但工厂里的这个「素子」,身体是「借」来的,「意识」也只有下载了的一部分。已无从考量,这具体内的存储数据,是来自「素子」的多还是来自「傀儡师」的多。

  自然,当不远处的2029和2032真得到来时,上述情景并不是我们希望看到的。当我们的造物如此接近于我们,当人工智能和人不再那么泾渭分明,人还剩什么呢?

  事实上,现实生活中,虽然ChatGPT的「聪明」令人吃惊又恐慌,但目前的ChatGPT并没有通过图灵测试——这被认为是决定人工智能自我意识发展程度的关键。ChatGPT在回答中的事实错误、虚假陈述和错误数据遭到广泛吐槽。对于自己是否有意识这一问题,ChatGPT的回答则相对让人类安心,它说自己没有意识也不具备感知、思考、自我意识或感情的能力。

  每当「AI是否可能取代人」这类问题出现在公共讨论中,人文学者似乎总是最不甘示弱的。《降临》作者特德·姜认为,ChatGPT是网上所有文本的模糊图像,它用类似压缩的方式保留了网上大部分信息,丢弃大多数原始文本,并在需要时用算法重建丢失的「像素」。

  这或许可以解释,为什么比起创作一篇小说或写一篇原创散文,人工智能更容易成为一个「诗人」,这是因为诗歌在形式上更加抽象,也更容易通过组合不同词语实现模仿。

  以对话方式进行交互是ChatGPT作为一个语言模型系统的关键,但它的对话内容常常会丢掉独特的细节,留下共性,亦徒剩空洞。换个角度解释,为什么传记文学经久不衰,因为人类始终在模仿英雄,我们也始终基于生存美学,思考我们应该如何过这一生。

  自然科学无法包打天下,我们始终需要社会科学和人文科学去解释更加复杂多变的现象。积极的案例,科技对人性的挖掘想要盈利,大多要落于有人情味的互动服务上。也有消极的案例,人性在与技术结合之后,当然可能会走样。就像互联网本来是助力全球化的,可带来最终结果是逆全球化。决策权还是掌握在人自己的手上。

  亦或者,「我们」又何尝不是由不同的「技术」所构成的呢?因此,就像金庸先生并没有让觉远和尚成为王语嫣那样,ChatGPT令一些人担忧,但人可以充分地适应和拓展,迎接变化——即便化为我们一部分的东西曾是我们所害怕的。

  未来的目标,就是尽量别做「工具人」吧。毕竟,那是最容易被「工具」替代的。

  所有以上,仅仅是今天的答案。但是,这是我理解的更像是一种精神的「科学」,我们始终在探索,自己是在什么意义上谈论科学和发展技术。


您可能还会对下面的文章感兴趣:

登录 注册 退出