今天,给大家普及一下ChatGPT的技术起源和这款AI聊天机器人背后的核心技术。

首先,让我们以一种易于理解的方式去拆解一下GPT这三个字。GPT的全称是Generative Pre- trained Transformer,中文翻译是“生成性预训练变换模型”。

那我们一个一个字母来看,GPT的第一个字母G是Generative的首字母,翻译过来就是”生成性”,所以我们称Chat GPT是生成性人工智能,也就是所谓的生成性AI。在此之前的人工智能机器学习,在很大程度上都是局限于观察、分析和分类内容。一个经典的机器学习的问题,就是图像识别,比如说让机器去识别一只猫,程序会仔细的去搜索和分析大量的图像以寻找与猫相匹配的图像,而以GPT为代表的生成性AI是一项技术上的突破,它是可以去生成新内容,而不是仅限于分析现有的数据的一种AI。比如,它可以根据我们的需要去创建一个猫的图像或者文本的描述。生成性AI模型,也可以用于去生成程序、代码、诗歌、文章和艺术品等等。最新发布的chat gpt,是专注于文本内容的生成,未来也会有图像、艺术等各种形式的生成性AI。尽管应有领域不同,但是它的技术核心是类似的,也就是生成性的人工智能。

那GPT的第二个字母是P,是Pre-trained首字母,翻译过来是“预训练”,它表示这个模型已经在某些有限的数据集上进行了训练,就像我们在被要求回答某个问题之前,我们会事先去阅读一些相关的书籍一样,ChatGPT之所以能够听起来,像人一样来回答我们的问题,就是因为他已经接受过大量数据的训练,而这些数据,是由我们真实的人来编写的,也就是我们人类发布在互联网上的2022年以前的互联网上的内容。

那么怎么去进行预训练?它使用的是两项技术,一个叫“监督学习”,一个叫“通过人类反馈强化学习”。这个听起来比较专业。我举个通俗的例子来帮助大家理解。请你想象一个场景,老师要教学生写一篇文章,监督学习相当于老师在让学生写文章之前,先给学生成千上万篇文章让他们阅读,这个目标是让学生通过学习大量论文的语气、词汇和结构来学习如何写一篇论文,这也就是预训练里面的监督学习。但是那些文章会有好有坏,学生如果参考不好的范文,仍然有可能去写出不符合老师要求的文章。所以这个时候就用到第二项技术,就是通过人类反馈强化学习,也就是说,老师还会经常给学生去布置一些论文的作业,然后根据学生交上来的作业去进行反馈,告诉学生哪些地方做的好,哪些地方需要改进,那么在这个反馈的过程中,去进一步强化学生的写作水平。所以在GPT发布之前,已经用类似的方法进行了大量的“监督学习”和“通过人类反馈强化学习”。我们在使用它的时候,这个模型它能非常准确快速的去生成连贯,而且是引人入胜的,听起来像人类一样的一个响应。这就像是一个饱读诗书,功力深厚的学者,被要求现场写文章,它能够一气呵成去完成一样。

那GPT的第三个字母,T是Transformer,如果你直接翻译过来,就是转换器或者是变形金刚,有一部电影变形金刚就叫transformer,但是如果你把这个transformer翻译成转换器或者变形金刚,那就不对,Transformer它真正的含义,是一个非常底层的人工智能,机器学习的一个算法架构,它是一种深度神经网络。最初这个架构是在2017年,有谷歌的一个人工智能的团队叫Google Brain,就是谷歌大脑研发发布的,这个模型它是使用一种叫自注意力的机制,就是Self-attention Mechanism,它允许模型在进行预测的时候,可以根据语言序列的任何位置,为输入数据的不同部分赋予不同的权重并支持处理更大的数据集。现在所有的GPT模型都是采用了这种transformer的架构,他们会有一个编码器来处理输入的序列,然后会有一个解码器来生成输出的序列,所以你可以问他一个问题,ChatGPT会用对话的方式来提供给你答案,而不是像传统的搜索引擎那样,推给你一堆的信息源,让你自己去筛选。

那这三个字母拼在一起,就是GPT模型最初是在2018年由Open AI作为GPT-1首次推出这些模型,在2019年的时候,继续发展为 GPT-2,2020年的时候发展为GPT-3,那最近是在2022年,也就是去年进一步发展为InstructGPT和Chat-GPT。GPT模型进化的另外一个进步还来自于底层硬件计算效率的提高,这使得GPT-3能够接受比GPT-2多的多的数据训练,从而赋予它更多样化的知识库和执行更广泛任务的能力。

看了这么多,你是不是还是一头雾水?这很正常,其实在认知里面最可怕的就是不知道我们不知道什么,所以知道我们不知道什么,其实本身就已经是一种成长,一种进步了。对于尖端科技,我们要心存敬畏,但也要敢于面对敢于学习,随着使用的深入,我们的认知和了解将逐步深入。