购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

五、ChatGPT未来的优化方向

针对ChatGPT目前的众多局限性,有如下一些需要优化或提升性能的未来发展方向。

1.减少人类反馈的RLAIF

2020年年底,OpenAI前研究副总裁创办了一个人工智能公司,其中约10名成员曾效力于OpenAI,他们都曾是GPT-3、多模态神经元、人类反馈强化学习等方面研究和实际操作的核心员工。

该公司自行开发的一种被称为CAI(Constitutional AI)的机制很有特色。虽然也是建立在人类反馈强化学习的基础之上,但是CAI的不同之处在于,它使用非人类的模型对所有生成的输出结果进行初始排序,也就是说CAI用人工智能反馈来代替人类对表达无害性的偏好(RLAIF的重要功能),由人工智能根据一套Constitution原则来评价回复内容。 于是,我们看到了类似ChatGPT的应用在未来可能减少对RLHF依赖的希望,这样可以大大降低训练难度和费用。

2.对模型指示泛化、纠错等能力的提升

对于ChatGPT及其兄弟模型InstrcutGPT来说,指示学习(Instruct Learning)的目的是挖掘语言模型本身具备的知识。这里的指示(Instruct)能够激发语言模型的理解能力,通过给出更明显的指令,让模型做出正确的行动,例如根据上半句生成下半句,或是进行完形填空等。指示作为ChatGPT模型产生输出的唯一线索,ChatGPT对其的依赖是非常严重的,提升模型对指示的泛化能力及对错误指示的纠错能力是一项非常重要的工作。这可以让模型更智能,同时拥有更广泛的应用场景。

3.补足数理短板

ChatGPT虽然在与人对话等功能上非常强大,但是在数理计算等方面容易出现一本正经地“胡说八道”的情况。计算机学家史蒂芬·沃尔弗拉姆(Stephen Wolfram)为这一问题提出了解决方案。他创造的Wolfram语言和计算知识搜索引擎Wolfram|Alpha,其后台通过Mathematica的处理让上述问题的解决得以实现。过去,学术界在ChatGPT使用的这类“统计方法”和Wolfram|Alpha的“符号方法”上一直存在路线分歧,但是,如今ChatGPT和Wolfram|Alpha在功能上实现了互补,这给NLP领域提供了更上一层楼的可能。

4.避免通用任务性能的下降

模型对很多问题的解决可以通过提供更多标注的数据来实现,但是这样会导致更严重的通用NLP任务性能下降,所以需要解决如何使其生成结果和通用NLP任务性能达到平衡的问题,可能需要设计一个更合理的人类反馈使用方案或是更前沿的模型结构。

5.ChatGPT的小型化

虽然ChatGPT很强大,但其模型大小和使用成本却让人望而生畏。根据华为系自然语言处理企业首席科学家陈巍博士介绍,有三类模型压缩方法可以降低ChatGPT等模型的大小和成本。

一是量化法,即降低单个权重的数值表示的精度。比如,Tansformer从FP32降到INT8,对其精度影响不大。二是剪枝法,即删除从单个权重(非结构化剪枝)到更大粒度组件(如权重矩阵的通道等)的网络元素。这种方法在视觉和较小规模的语言模型中有效。三是稀疏化。比如,奥地利科学技术研究所(ISTA)提出的SparseGPT可以将GPT系列模型单次剪枝到50%的稀疏性,而无须任何重新训练。对GPT-175B模型,只需要使用单个GPU在几个小时内就能实现这种剪枝。

6.算力的节省

ChatGPT在自然语言等领域表现出来的强大能力,是需要大量算力来支撑的。一是,ChatGPT的预训练模型在进行大量语料数据训练的过程中消耗的算力太过庞大,这不必多说;二是,ChatGPT在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的;三是,面向真实搜索引擎中那些数以亿计的用户需求,如采取目前通行的免费策略,成本是任何企业都难以承受的。

未来,如何做到节省ChatGPT的算力,这是有待优化的重要内容。 JXgC93XYw5PFn6HimwPRVGodIWgXFCAAvdnNig3UwWryCMIvxicBZ7aXzroPDTmt

点击中间区域
呼出菜单
上一章
目录
下一章
×