作者:陈宇翔
IBM杰出工程师、大中华区客户成功架构师、大中华区金融行业首席架构师
ChatGPT火爆出圈
最近几周,AI业界最大的新闻无疑是ChatGPT横空出世,从而引发的业界震动。市场上有大量的评论文章,有把它描述成无所不能的,大有代替人类职业之势;也有提出担扰,某些顶级学术杂志和知名高校已经明确限制AI作者发表论文和科研成果。
出于好奇,笔者也试用了ChatGPT。整体感觉对于一般的开放性问题,ChatGPT生成的回答文法结构完整,语言风格自然,比之前的聊天机器人有明显的进步。内容的准确性和完整性,往往能超过正常交流时大多数人的“第一反应”,更像是经过了一番思考并整理后的结果,条理清晰,很有启发。但对于专业性问题,尤其是需要逻辑推理的知识,ChatGPT并没有像网上文章说的那么出色,经常“张冠李戴”或者形式上像模像样但内容上却不知所云。
为什么会这样呢?我们可以问一问ChatGPT自己。
“ChatGPT是由OpenAI公司开发的一款预训练语言模型,旨在生成人类可读的文本。它通过读取大量的文本数据,学习了如何生成与语言相关的内容,并在输入一段文本时生成一段有关的文本输出……”
ChatGPT中的GPT的全称是的“Generative Pre-trained Transformer -即生成性预训练变换模型“。借用一位名叫#硅谷学霸Jolin 的技术教育博主对GPT模型的浅显解释,她说,以ChatGPT为代表的”生成性AI”是一项技术突破,之前AI学习大多聚焦于观测、分类和分析内容,而生成性AI则不限于分析现有数据,它可以生成新内容,可以根据需要生成新的代码、诗歌、文章和艺术品。ChatGPT是专注于文本内容的生成性AI。所谓“预训练”是指该模型已经在某些有限的数据集上进行了训练,事实上,ChatGPT已经学习了2021年6月以前人类编写和发布在互联网上的海量信息,而且是通过“监督学习”和“人类反馈强化学习”这两种技术进行的学习。Transformer是一个非常底层的AI机器学习的算法架构,是一种深度神经网络。从GPT-1到今天的GPT-3.5都是采用Transformer架构,而GPT模型的进化有赖于底层硬件超级算力的效率提升,以支持AI对更多、更大数据集的训练和学习[i]。
也就是说,ChatGPT是通过海量(约45TB[ii])语料训练而掌握了语法和语义结构的成熟的大型语言模型(Large Language Model, LLM),其特色是文本生成能力很强,产生的文字风格和内容很像之前的输入,即人类语言。由于训练语料涉及面广,所以ChatGPT对各行各业的信息都有涉猎,总能略知一二,有时甚至回答得头头是道。对某些专业领域,比如编程,甚至可以产生准确的代码并直接运行。然而,若仔细观察,这些代码往往都是解决特定的小任务,代码风格似曾相识。若要完成一个创新的算法,或者复杂问题的编程,ChatGPT就无能为力了。
总体而言,这类通过学习语料来生成文本的AI模型,都是在学习过去,其目标是模仿过去,生成出几可乱真的作品,并不是真正意义下的创造未来。ChatGPT也不例外。作为助手,对思考的广度往往有帮助,对思考的深度却不尽然。
从聊天到业务助手
ChatGPT让我们看到了大型语言模型的未来。然而,在企业应用中,为了创造业务价值,这类对话形式的应用(ChatBot)则更多用于对外的“客户服务”或对内的“业务助手”方面。这就对此类模型提出更高的要求——
第一, 准确性和专业性
企业往往要求回答准确且专业,如果对答案没有把握,回答“不知道”也好过生成一大段丰富而无用的文字。
ChatGPT是一种“开放领域系统”(Open-domain system),类似的还有Google的Bard,它们都需要海量的信息输入和长时间的训练,能应付所有领域的对话,回答内容相关度高,对答自知,语法自然。
而企业级的ChatBot是一种“封闭领域系统”(Close-domain system),往往不是需要一个乖巧的“百事通”,而是需要专业领域可靠的“知识助手”。它的训练语料是有限的,包含企业内部文档和资料、专业领域知识库、外部该领域的相关文章等等,大量的资料都是不公开的。ChatBot能回答的问题也限定在专业领域的场景语境中。不必面面俱到,但求简练、精准、专业。
第二,主动式对话
碰到提问模棱两可的时候,企业应用往往要求通过主动引导式对话,甚至反问的办法,迅速澄清意图。然后,再给出明确的答案。这一点ChatGPT目前尚未做到,当问题模糊时,回答也模糊,提问者发现后,换一种问法,或者在对话中缩小范围,可逐步得到想要的结果。整个过程中,ChatGPT每次都是被动回答。
第三,后台集成能力
ChatBot往往作为企业对话的渠道入口,在提供服务时需要和企业大量的后台系统集成。比如:在识别意图后可以从数据库或大数据平台中自动收集相关数据,并进行分析和推理,得到客户所需的明确答案;或者启动一条指令或一个后台流程,帮助客户完成相关操作。
IBM Watson服务企业级AI应用
OpenAI从2018年以来长期坚持研发大型语言模型,通过不断迭代,从最初的GPT-1到目前的GPT-3,且今年会发行GPT-4。目前,在开源社区找到GPT-3模型,也为企业开展此类研究提供了范本。
ChatGPT对企业的吸引力是毋庸置疑的,多数企业都有意愿拥有一个自己的ChatGPT。然而,当前ChatGPT采用最新的GPT-3.5模型,含有千亿级参数,一次训练就要花费数百万美元[iii]。大多数企业不具备如此大的算力,但如果为了获得对话模型,把企业内部数据都上传到网上,利用公有云训练也会有安全顾虑。所以,企业主导训练一个定制版ChatGPT,无论从财力还是合规方面都会有障碍。
IBM Watson,也就是IBM企业级的人工智能,经过十多年的发展,从研究到实验,至今已经发展成为一套可以在红帽 OpenShift上任意运行的AI能力,以产品化的方式提供给用户,帮助企业整合和分析混合环境下分散而复杂的企业数据,从而实现数据驱动的预测性决策、智能自动化和基于企业内外适时数据和洞察的安全策略与响应。
今天IBM Watson已经应用于全球四万多企业用户的业务场景当中,为具有不同水平AI技能的用户提供尖端的AI能力,无论是缺乏AI技能却想通过AI重获时间效率的商务及专业人士(例如人力资源、财务、网络安全管理人员等),还是具备一定AI技能并且正在大规模使用AI的数据科学家、IT专业人员等。
IBM Watson提供了许多不同的工具和服务,用于解决多种问题。它涵盖了语言处理,解释、回答和生成文本等多种功能,以帮助客户解决商业问题。同时,它也提供了语音识别、图像识别等其它功能,使之成为一个非常强大和全面的人工智能平台。
长期以来,IBM Watson面向企业级AI应用,特别为企业定制“业务助手”类的对话式应用。基本上,Watson有语音文字转换、意图识别、对话流设计、文本分析、知识整理、情感分析等功能。使得Watson可以在通用的语言模型上叠加专业领域知识,并有意识地设计和引导对话方向。
Watson通过后台的机器学习、自然语言处理、文本生成、语音识别与合成、对话系统、知识图谱技术,可以分解文本结构,精准定位观点、事实、论据、逻辑关系等,早在数年前,采用IBM Watson技术的IBM人工智能辩手(Project Debater)[iv]就曾以它的机智幽默和高情商而惊艳业界,它可以针对任何一个预设话题,比如“国家应该为每个人提供基本收入”,临时选择正方或反方,与人类的辩论冠军选手进行对辩。今天的ChatGPT也可以达到这个效果。应该承认,其通用语言模型和文本生成技术所呈现的体验感受甚至可以超过Watson,令人惊艳,其开放的用户界面更是让大众能够亲身体验这种惊艳,然而Watson的专业性、可设计性、集成性则更适合企业级的业务定位。IBM把这种普适性的大型基础模型称为基础模型(Foundation model)[v],它利用迁移学习(Transfer learning)经过少量的专业训练,就能进入一个知识领域,并且得到新的启发,这一点非常像人类的学习过程,有广阔的应用前景,也是IBM今后研究的重点。
我设想,对于企业已有的Watson对话模型,也可以利用ChatGPT得到增强。可以是协同模式:当发现是专业领域的封闭式问题,可用原有Watson模型回答,当发现是开放式问题,可用ChatGPT回答。也可以通过竞争模式:一次生成多个答案,由人类做裁判,相互学习,共同提高。
总言之,ChatGPT将人机对话的体验提高了一个档次,利用强大的搜索和知识整理的能力,在问题回答的广度上往往很有启发,但深度不足。目前只能学习(Learn)人类语言和知识,还做不到思考(Think)推理,也难以驾驭高度创新和深度思考的任务。我认为,对于企业级的应用,融合ChatGPT与IBM Watson之所长,不乏为快速高效地应用AI 提升体验、创造价值之选。
参考资料:
[1] OpenAI公司在GitHub上开源的GPT-3模型,https://github.com/openai/gpt-3
[2] IBM致力于基础模型研究 https://research.ibm.com/blog/what-are-foundation-models
https://research.ibm.com/blog/molecular-transformer-discovery
本文作者简介:
陈宇翔先生现任IBM大中华区客户成功架构师,他是IBM杰出工程师(Distinguish Engineer), 也是IBM大中华区金融行业首席架构师。在近25年的IT 从业经历中,他主持了许多大型项目的解决方案设计和IT 架构设计,熟悉银行领域相关业务,是行业高级顾问。陈宇翔先生也是软件和技术专家,长期致力于软件推广工作。同时拥有IBM 高级工程师和资深架构师认证。
陈宇翔先生长期致力于“人工智能、云计算、物联网、量子计算”的技术推广,结合金融行业创新应用,是金融行业创新解决方案设计的领导者和实践者。
[ii] 东吴证券研报分析认为,ChatGPT的模型经历从GPT-1到GPT-3的升级,优化主要来自算力增加。GPT-1、GPT-2和GPT-3在算法模型并没有太大改变,但参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。虽然训练数据量和算力大幅增加使GPT-3有显著优化,但高额投入也使其只能走B端变现。信息源:第一财经2022年12月7日报道:《拳打谷歌ChatGPT火出圈!投资人称更需警惕投资泡沫化跟风》。信息源:https://www.yicai.com/news/101616572.html
[iii] 东吴证券研报分析认为,ChatGPT的模型经历从GPT-1到GPT-3的升级,优化主要来自算力增加。GPT-1、GPT-2和GPT-3在算法模型并没有太大改变,但参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。虽然训练数据量和算力大幅增加使GPT-3有显著优化,但高额投入也使其只能走B端变现。信息源:第一财经2022年12月7日报道:《拳打谷歌ChatGPT火出圈!投资人称更需警惕投资泡沫化跟风》,https://www.yicai.com/news/101616572.html
[iv] 新浪新闻 2019年5月20日文章:《AI下棋还在喧嚣,AI辩论早已启航》链接:http://client.sina.com.cn/news/2019-05-20/doc-ihvhiqax9982923.shtml
好文章,需要你的鼓励
即刻报名参加2024 AI创新者大会暨PEC·提示工程峰会,与百位AI创新者一起围观“AI企业”如何解“企业AI”落地难题。
即刻报名参加2024 AI创新者大会暨PEC·提示工程峰会,与百位AI创新者一起预见“AI超级个体”。
即刻报名参加2024 AI创新者大会暨PEC·提示工程峰会,与百位AI创新者现场“预见2025”。
戴尔负责边缘计算、战略和执行的高级副总裁Gil Shneorson对CRN表示:“因此,我们已经开始着手有效创建边缘云的工作。”“它仍然是唯一一款能将所有一切结合在一起的边缘运营软件。目前还没有其他类似的软件。”