分享关于人工智能大语言模型的几个观点。GPT就是人工智能大语言模型的代表,不知道在座诸位用没用过。如果没用过,建议大家一定要用一下,不要老是道听途说。得到请再多的老师来讲,我们把馒头嚼一遍,告诉你馒头如何好吃,这对你是没有意义的。不管你是喜欢GPT还是不喜欢GPT,都要自己用一用。
网上有一个段子很有意思,说很多人拼命找GPT的缺点和毛病,也有很多人在证明GPT无所不能。对GPT有很多不一样的观点,我觉得这是好事,观点一致就不对了。正因为对同一件事,有人认为是无足轻重的噪音,有人认为是噪音之下隐藏的未来新时代的信号,大家就会采取不同的动作。
我今天不讲技术,我是从产品、产业和社会这几个角度,分享我的几个观点和我对未来趋势的几个判断。
先给大家看一看,我找AIGC以文生图制作了几张我的画像,大家看看哪一个最像我呢?
我看都是经过了美化,其实开始一点不像,后来把我的照片输入进去以后才有点像,这里抓住了我爱穿红衣服的显著特征。我跟得到的同学们解释一下,为什么我喜欢穿红衣服。因为我的名字总是被叫错,很多人叫我周鸿伟,实际我的名字叫周鸿祎(yī)。我穿红衣服是给大家一个暗示, 是鸿祎(yī)而不是鸿伟。
用GPT写开场白和发言稿已经是流行趋势。我本来想用GPT写这次演讲稿,后来被严词拒绝。这也是我最后一次以真人的身份给大家做演讲,我以后也准备弄一个数字人分身,挂上大模型的灵魂,这样我可以一晚上开三五场直播都没有问题,现在确实忙不过来。
六 大 观 点
观点一
ChatGPT为什么能“成功”?
下面我分享第一个观点,GPT为什么这么成功。人们往往只盯着它的技术特点,但在这之前,包括GPT-3.0、GPT-3.5的发布,远不如ChatGPT影响这么大。我认为有几个原因。
第一,搞GPT这帮人走对了一个技术路线。我把这个技术路线叫“四大一强”,就是用大算力往里灌入大数据,加上大量人工标注的能力训练,再加上大型的算法,最后做出来一个大模型。GPT这个Transformer模型应该是谷歌开源的。
全世界除了GPT这帮人,包括国内外互联网高科技公司都点错了科技树。大家都在用大语言模型在改善自己的广告点击率,在提升自己的内容推荐算法。没有人想过,如果把人类所有用语言文字表达的知识都灌进去,做一个超过几百亿参数的模型,会出现什么效果。这叫暴力美学,或者叫大力出奇迹,没想到取得了效果。
这也是为什么,中国这么多公司在4月份轮流发布自己的类似大语言模型的产品。要感谢OpenAI,实际上是人家把方向探明了,把技术路线给明确了,剩下的工作比较容易一些。
我今天不想过多说技术上的成功,因为很多技术也不是OpenAI的原创,而是OpenAI做了一个组合式的创新。我想谈的是这个技术它为什么这么火。
有很多人问我,GPT一出来,为什么Web3.0就不热了,为什么元宇宙好像黯然失色,到底Web3.0和元宇宙还有没有机会。Web3.0和元宇宙两个概念很好,人工智能的概念也很好。但一个东西概念再好,最后能不能成功,要取决于它能不能破圈。
所谓破圈或者出圈,就是它能不能让我们每个普通人感觉到它的影响力。对普通人来说,我们不关心技术,我们也不关心后台那些复杂的算法和模型,我们就关心你能怎么改变我的生活方式和工作方式。
之前我到新加坡去,遇到了很多Web3.0的创业者。我还是很喜欢Web3.0这个概念,但Web3.0的创业者像原教旨主义者一样,把我当做古典互联网主义者进行批判,认为我理解不了他们的独特商业模式和创新模式。我也争论不过他们。
但我有一个非常朴素的理念,我觉得用户不管你是不是去中心化,用户也不管你用什么样的Line1、Line2的技术,用户也不管你是不是区块链,用户就问一个问题:你解决了我什么痛点,满足了我什么刚需。
任何一个号称伟大的事情,它来的时候,并不是你自己给它打什么样的标签,给它冠以什么样的概念,它就一定能成功。事实上,当年元宇宙和Web3.0的概念比今天的大语言模型要热很多。大语言模型也是到了ChatGPT才破圈成功,在之前版本发布的时候,也还是只有一小撮人感兴趣。
我仔细研究了这个现象。这让我想起当年互联网1.0的时候,我们最早用电子邮件的时候,突然感觉天涯若比邻,发一封邮件一秒寄到,而且不要钱,不需要再买邮票了。很多人第一次用ICQ或QQ跟远方朋友聊天的时候,你不熟悉它的技术,但你会觉得生活变得非常方便。
包括搜索引擎,很多人第一次用的时候,感觉天下所有的图书馆都对你开放,所有资料都是免费的,觉得打开了知识的宝藏。
所以说,互联网今天可以成为变革的力量,就像个人电脑一样,它不是因为一个概念而成功,而是它真正让我们每个人找到了一种场景。
在这个场景里,过去很复杂很费钱才能得到的服务,现在很容易得到。过去很麻烦的任务,今天可以很容易地完成。这样的产品和技术才是有生命力的。
迄今为止,无论Web3.0、区块链还是元宇宙,大都还是圈内的人在热捧,不断在推动。我很看好元宇宙,但如果没有人工智能的灵魂,元宇宙可能就是一个界面,是一个空壳子。今天加上人工智能大语言模型的灵魂,元宇宙会绝地重启。当然,前提一定是,要让普通人感受到你对它有所改变。
普通老百姓不会在乎概念,也不会在乎大词,更不会因为你的理念就买单。我经常举一个例子:就像我们到饭馆吃饭,可能是因为它的饭好吃,也可能是东西便宜,或者是有特色菜,也可能因为某个服务员长得好看,你有很多原因。但你绝对不会因为这个饭馆老板有着Web3.0的去中心化的理论、有着O2O的做菜思想,去吃它很难吃的菜。
我们想想这一次的ChatGPT,实际上背后是一场工业革命级的巨大技术进步。我也会说大词,这是“强人工智能”,甚至是“超级人工智能”的起点。但是,它把自己伪装成了一个聊天机器人,或者一个新一代搜索引擎,把GPT大脑藏在云端。
我们普通人只要有一个浏览器,登录一个网页,申请一个账号,只要会聊微信、会用搜索,就能够直接使用GPT,问它什么问题都问不倒。它还有写报告、写公文等各种实用的功能,对上班族和很多小企业老板来说,人工智能从来没有离你这么近过。
在ChatGPT出来之前,虽然这个概念很热,但普通人还是觉得这个东西离自己很远。提起人工智能,刚刚我问罗振宇,他也觉得很头疼,是不是需要收集什么数据,需要建什么模型,需要怎么训练,需要找什么样的科学家。
但是,有了ChatGPT不一样了,只要申请一个账号给自己的员工用,从员工到老板,整个团队的生产效率可以提升;从文案到美工,大家都能找到能够提高效率的工作方式。这是ChatGPT真正成功的地方。
回过头来,我建议在座的很多想创业的人,如果你今天是在做元宇宙产品或者是做Web3.0产品,应该从ChatGPT的成功里汲取经验,除了技术上成功的根基,我们一定要牢记最终用户能感知的就是产品体验,就是场景化的功能,你能不能帮他解决实际问题。
当年互联网并没有大张旗鼓打着革命的旗号来。刚开始,互联网和个人电脑都被当成青年人的玩具,当成无足轻重的东西,很多成功的生意人看不上。但它确实改变了我们每个人的工作和生活方式,所以它受到了用户的欢迎和追捧;有更多人追捧使用这个产品,这个产品就会形成势不可当的威力。这种威力,比你自己打造一个高大上的“大词”的概念要有力得多。
此外,我还想强调的一点,ChatGPT的成功,得益于微软和OpenAI产研合作的模式创新。如果只有产业公司,可能就缺乏OpenAI科学家长期主义的理想,大家就会比较现实,可能没有人想到大模型编码在处理人类所有的知识这条路上可以走得更远。
但是,反过来,如果只有OpenAI,就像谷歌今天干的一样,不断发论文是没有意义的。因为论文和技术如果不能跟用户的场景相结合,也是不能成功的。所以微软和OpenAI有非常好的分工,微软在自己的产品里绑上OpenAI的服务,让OpenAI的服务真正实现工程化、场景化、产品化和商业化。
国内很多公司都在闯入大模型领域,千军万马过独木桥。但我觉得,做一个大模型的原型是容易的,但要达到GPT-4甚至是GPT-5的高度是需要花时间的。我们如何借鉴微软和OpenAI的合作模式?有哪些高校、实验室或者创业公司可以扮演OpenAI的角色?有哪些产业公司可以扮演微软的角色?
特别是现在,GPT的很多核心技术已经开源了,基本上科技公司人手一个GPT大模型。如果用核武器扩散来比喻,GPT已经不是独门秘籍,大家手里都有这个武器。
所以,最关键的已经不是你拥有大模型的技术,而是如何借鉴微软和OpenAI的合作模式,如何能够拿到更好的数据进行训练,如何实现更好的工程化的训练方法,以及,如何找到更好的用户场景,能够使用你的大模型。
是骡子是马要拉出来溜溜,通过用户的使用、用户的反馈来推动技术飞轮。如果你三个月前第一次用ChatGPT,感受到了它当时的能力,过了三个月,现在你再用,你会发现,正因为微软带来巨大的用户场景,很多用户在使用中不断反馈,现在GPT的能力比三个月前又有了很大的进步。
所以,对创业公司来说,搞大语言模型肯定不是关起门来搞科研、闭门造车,要学会和行业里有场景、有入口的公司来合作,通过用户的试用和反馈来改进技术。
观点二
GPT已经拥有真正的人工智能
接下来,我谈一个容易跟别人产生争论的观点。关于GPT究竟是不是真正的人工智能,现在有两种非常鲜明的观点。
一种是智能派,认为GPT是强人工智能,能够通过图灵实验,已经实现了真正的不亚于人的能力。
另一派认为,GPT不过是用大数据概率统计的机器模型,不算是真正的智能。他们觉得,GPT虽然能够编出很多句子,虽然能够写文章,回答很多问题,但是很多问题还经常犯错,GPT并不能做到真正的理解。
GPT究竟是不是真正的人工智能?我的观点不一定对,但我要保持观点鲜明,也欢迎大家来抛砖。我认为它是真正的人工智能。
GPT跟搜索引擎有本质的区别。搜索引擎并不智能,你搜索资料,网上有就是有,没有就是没有,不会无中生有。而GPT是越战越勇的风格,你给它输入越多,它给的反馈就越多。你问的问题越深刻、越有批判性,它给你的答案就越好。
如果你只把它当一个搜索引擎,输入几个简单的词汇,你也得不到好的结果。GPT对用户也是有挑剔的。就像梅西哪一年获得世界杯冠军,这种事实性的问题,用搜索引擎就可以。GPT回答出来,不会让人觉得惊奇。事实上,它现在已经可以回答很多复杂推理的问题。
微软有一份100多页的详细调研报告,我仔细地从头看到尾。微软对GPT进行了仔细测试,他们精心准备了很多问题,这些问题都不是直接在网上能搜到答案的,都需要有知识的储备和推理能力,甚至这个推理能力不是一步推理,要经过多步推理才能有答案。这些网上搜不到答案的问题,GPT能回答,更说明它有真正的智能。
事实上,我更愿意把GPT叫作“大脑”,是人类在人工智能上巨大的突破,是人类第一次把所有的知识灌到“大脑”里,实现了人类对整个知识的编码、存储和推理的准备。这个能力要远远强于过去我们所说的搜索引擎、知识库和知识图谱。
现在的搜索引擎,不符合大脑里这种复杂的神经网络连接的存储方式,它不会引发联想,不能产生语义的通感。
GPT对这个世界有了基本的常识和认知。做GPT的人有一个理念已经被验证:我们人类的所有知识都是拿文字来进行编码,当我们把所有的用语言文字进行编码的这些知识灌进去之后,就解决了人工智能有史以来最大的问题——人工智能终于可以理解我们这个世界,它对这个世界有了基本的常识和认知。
维特根斯坦说过,凡是人类无法讨论的事物,人类就无法理解。这句话可以引申一下,凡是人类无法用语言表达的,人类就无法理解。所以,人类如何定义理解?实际上,语言和文字是理解的边界。
反过来讲,一台基于芯片和软件运作的机器,即使这跟我们大脑工作的物理原理不太一样,但当它可以准确地理解我们说的每一句话,而且用准确的语言描述出来,为什么说这不是理解呢?为什么我们人类的理解要被定义得特别尊贵,我觉得这是没有道理的。
我曾经举过一个例子,人类一直想模仿鸟类飞起来,但迄今为止,人类成功的飞行器没有一个是像鸟一样扑扇着翅膀飞的。人类了解了空气动力学以后,研究出现代化的飞机是利用浮力的原理,比鸟飞得快、飞得高,但原理跟鸟扑扇翅膀确实不一样。
我们不能说,只有像鸟一样扑扇翅膀的飞行才是正规的飞行,人类的飞行器不扑扇翅膀就不是正规的飞行,就不能被定义成飞行。这个道理是一样的。
观点三
GPT-4 已经是世界上最聪明的“人”
从20世纪70年代开始,人类研发人工智能到现在,已经有50年的历史。我们听人工智能这个概念也已经炒了30年。我认为,很多人不相信人工智能实现了真正的突破,还是有历史包袱。
原来的人工智能有两个最大的缺点,以前一个人工智能只能解决一个问题。AlphaGo下围棋很厉害,但它不能人脸识别。人脸识别的人工智能可以在芸芸众生中,快速把我识别出来,但它不能跟我对话。所以,原来的人工智能叫垂直人工智能。
二是原来的人工智能没有人类所有的知识,无法理解我们这个世界。用智能音箱的人会发现,你跟它多聊两句就聊不下去了,这哪里是人工智能,简直是人工智障。这是传统人工智能最大的问题,它没有我们人类所有的知识,很多词听不懂,没有人类的智力,它就无法理解我们这个世界。
比如,我到北京市大望路温特莱中心罗振宇开的公司得到App来做直播。这句话就隐含了特别多先验的知识。如果一个机器、一个人工智能对这些不能理解,它基本就是智障的概念。所以,在GPT之前的人工智能,我定义为弱人工智能、垂直人工智能,或者叫人工智障。
ChatGPT恰恰在这些方面实现了突破,我认为它已经是“通用人工智能”。这不仅是说GPT能够解决很多问题,而且意味着大语言模型这个技术,在解决未来很多问题的时候都有普适性。它不仅能解决自然语言理解的问题,阅读理解、写作、知识问答,这些问题过去需要做很多碎片化的小模型,现在全都被统一在一个对话框后面。
GPT把人类的海量知识进行了理解,理解以后进行了编码和存储。这个突破是史无前例的。我认为,它对这个世界的认知,超越了我们每一个普通人。
所以,你跟它对话,它能够对答如流。你说的每一句话、每一个词,它都能听明白这个词是什么意思,这个词背后有什么关联,甚至有些梗,有些背后逻辑推理的东西,它都能够融会贯通。所以,我们称为“通用人工智能”。当然,我更愿意叫它强人工智能。
GPT-4,甚至可以模拟苏格拉底的教学方式。如果告诉GPT,让它用苏格拉底的方式来回答问题。你问它问题,它不会告诉你答案,而是反问你问题,用来启发你的思路,分成多步问答,带着你找到答案。
GPT-4的能力非常强,不需要我来证明。因为OpenAI让它通过了无数的考试,律师考试、微软和谷歌的面试、医生的考试、生物学的考试等等。
如果把GPT-4融会贯通的知识用书来做比喻,用单词的数量来算,大概的估计相当于有4000万本书被灌到了GPT的大脑里。人类大概一共出了1亿种书。人生不过100年,一个人一辈子最多也就读大概1万本书。但是,GPT被灌入的知识大概有4000万本书,关键是它过目不忘,还能融会贯通。
GPT跟我们人脑的工作原理不一样。人脑为了节能,很多区域不会被调动,有些事在记忆里,读过就会忘掉。对GPT来说,不存在这回事,你可以想像它的超常智力,它已经是世界上最聪明的“人”。
尽管很多人今天在看GPT的缺点。我觉得凡是站在过去看现在,还沉浸在过去里的人,他看新鲜事物永远只看到缺点。你们家刚生一个小娃娃,连走路都不会走,连说话都不会说,你为什么要对他很有信心呢?因为你坚信,他未来会发展。一个人要经过十八年才能从牙牙学语的小婴儿变成青年才俊,但GPT的进步不是这样。
人工智能从20世纪70年代到21世纪20年代,用了50年,基本上是在很平缓的水平线上缓慢地进步。但是,今天到了强人工智能的拐点,甚至我认为到了超级人工智能的拐点。超级人工智能也就意味着计算机的能力、电脑的能力会超过人类的平均水平或者普通水平。
它下面的进化会像摩尔定律一样,是指数级的。今天你看到的只是GPT-4,GPT-5在路上,未来还会有GPT-6、GPT-8、GPT-10……我认为,整个的进化速度会非常快。就像AlphaGo和AphaZero,自己左右手下棋,一天可以下一万盘棋。这个进化和学习的速度,远远超过人类的学习速度。
GPT为了出圈,为了破圈,把自己特别牛的知识大脑的能力藏在了云端,藏在了微软给它打造的超级电脑中心里面。它在前端把自己特别有亲和力的一面,以SaaS化软件服务的方式,伪装成聊天机器人。
很多人调戏它,觉得很有意思,问它脑筋急转弯的问题,还有人把它当成新一代的搜索引擎去用,觉得它的理解力可以做语义搜索,可以搜到更准确、更全面的答案。但是,这些东西都只是它能力的一小部分。它不是玩具,它代表了人工智能新时代的来临。
我非常反对有些“砖家”,他们老是贬低GPT。其实要理解GPT没有那么复杂,学过系统论的同学就知道,系统从混沌到有序,当它复杂到一定程度的时候,从量变到质变,在混沌中就产生了涌现,就产生了很多超出我们预料的功能,这是正常系统论都能预见到的。
比如当年的地球就是一个混沌的系统。当无数的分子经过无数布朗运动的碰撞,各种反应之后,就产生了氨基酸分子。再从分子变成单细胞生物,一步步进化才有了今天所谓的人类。人的大脑里大概有1000万亿个脑细胞,通过100万亿个神经元网络连在一起。正因为这样一个复杂的结构,才产生了我们人类的智力。
GPT大语言模型里面,现在的参数是1000亿个,你可以把它想象成人类大脑里神经网络连接的个数,100万亿的时候就接近了人脑的规模。
有些人总是觉得GPT的基本计算单元就是一个“填空机”,它确实基本就是根据概率由上一个词来预测下一个词。但是,当这种单元的数目多到一定程度的时候,就有可能产生出很多超出我们预料的功能。
如果你真的仔细用了GPT,你会发现GPT很有可能是人类第一次非常近地模拟了大脑的工作原理。我举两个我们生活中的例子你就会明白。
我们想想小时候写作文是怎么起步的?没有谁天生会写作文,都是要通过大量地阅读范文,我们甚至用小本子把好的词句摘编下来。不管你理不理解,你都不自觉地把它们用在自己写的文章里,这就很像生成式AI做的事情。只不过是我们阅读的东西越来越多了,很多东西沉淀在大脑里,存储在大脑的神经网络里,虽然我没有意识到是哪篇文章,但我随口一说就可以把它说出来。
我再举个例子,如果罗振宇一直不阅读任何关于GPT、大语言模型的文章,你让他马上讲讲GPT是怎么回事,他肯定什么都讲不出来。我们人类所谓的创造力,还是要基于学习和知识的预先编码。
观点四
GPT有四个不可解释的现象
为了证明GPT是真正有智力的,我举四个不可解释的现象。就连创造出Transformer模型的谷歌科学家、做出ChatGPT的OpenAI的科学家们,包括微软做测试的专家们,都只知道有这几个结论,但无法解释它为什么会出现。
第一叫涌现。就是模型的推理能力突然有了指数级提升。在小模型阶段,很多人工智能公司训练的一些推理模型,参数太小、容量太小,你可以理解成脑子太小,只能训练它的搜索能力,没有真正地把它的推理能力、形成思维链的能力训练出来。
但在OpenAI训练GPT的过程中,大家突然发现,在模型参数到达1000亿的这个阶段,整个模型的推理能力突然有了指数级的提升,可以开始解答多步推理问题:
比如如何把大象放在冰箱里。人类会把它分三步:第一步,把冰箱门打开;第二步,把大象塞进去;第三步,关上冰箱。经过多步逻辑推理才能作出回答,这是人类很重要的思维模式。这种具有强大思维链的推理能力不是靠搜索,而是靠参数。
从进化论的角度看,从猿到人,人类在进化过程中,智力出现了跃升,一定是因为在某个阶段,人脑的神经单元数目增加了。就像参数增加了,受到的刺激增加了。
当我们在训练大模型的过程中,参数奇迹般增加时,人工智能产生了新的强推理能力,而且这个能力越来越强,就很像人类的进化过程。
第二个是幻觉。实际上就是胡说八道。很多人诟病大模型的点就是在问题没有确定答案的时候,它会给你胡乱生成一段煞有介事的回答。
从某种角度来说,在某些特定场合,它确实是个缺点。且由于搜索只能找到存在的事情,这个缺点可以通过再次搜索、知识库的校正,从技术上得到解决。
但你有没有想过它为什么会胡说八道?这不是恰恰说明它的智能性吗?我记得《人类简史》里面提到,在人类进化的过程中,人类和动物的分水岭就是人类是能够胡说八道的生物。
人类能够描绘不存在的东西。如果你给大猩猩讲三个苹果,它能学会。但如果你描绘说,明天,我给你三个苹果,大猩猩理解不了没有发生的事情。正因为人类有了幻想的能力、预言不存在事物的能力,人类才有了社群、宗教和团体。
包括人类引以为豪的创造力,是无中生有的吗?其实我们人类创造的大部分产品都是把两个不相关的概念在一块融合交叉,产生了创新。当然,可能99%的两个不相关的概念在一起结出的东西是胡说八道,但可能有1%就是一个典型的创新。
这种幻想的能力是永远难以消除的,它跟你的训练资料没有关系。就像我今天晚上决定来做直播,可能一个小时之前我还不愿意来。但一个小时以后,我又改变了主意。这就是量子纠缠,有一个随机的色子产生。
能否胡说八道,恰恰是智能的分水岭。我觉得将来很多新的GPT大脑在某种程度上要保留这种幻觉的能力。因为它回答事实性问题的时候,我不需要它的幻觉。但当它给我写小说、写剧本的时候,我需要这种能力。
顺便说一下,你每天晚上做梦的时候都会胡说八道。因为在梦里,你的神经网络会发生短路,把两个本来白天不会碰到一起的概念碰到一起。比如昨天晚上我就梦见罗振宇在追杀我,这就是罗振宇、追杀和我这三个神经网络连接在一起,才产生的梦境。
第三个难以解释的现象是语言上的能力迁移。在大模型出来之前,我们都在做人工智能翻译,但全世界的翻译都做得不太好。理由是各种语言的规律不一样,比如中文有分词,阿拉伯文是从右往左写,拉丁语系没法和我们象形文字互通等。
但是,在大模型锻造的过程中,OpenAI的训练有95%使用的是拉丁文字,只用了大概5%的中文语料。结果一个奇怪的现象发生了,它在学英文时学到的逻辑能力、推理能力、知识能力在应用到其他语言时,都得到了很好的体现。你用ChatGPT,它用中文回答,很多时候也回答得不错。这个现象也很有趣。
我猜测在大模型里面,虽然阿拉伯文、中文、日文、拉丁语言看起来不一样,但它们都是人类发明的、用来描述这个世界的符号化的东西。人类不同的语言、不同的表象背后一定有一种共通的规律。我们自己学习语言的人没有发现,但被ChatGPT训练出来了,所以它实现了语言能力的迁移。
最后一个叫逻辑增强。ChatGPT的一个很重要的功能是学习写程序,这是它的擅长领域。因为它本来就是一个符号系统、一个语言模型。
计算机语言是最单纯的。相比之下,我们人类的自然语言有歧义性、多义性,是最复杂的。在不同的语境下,基于不同的理解,都能表示不同的含义。比如,公交车报站说,“前门快到了请从后门下车”,我到底是从前门下还是从后门下?这种例子比比皆是。
但是大家发现,当让ChatGPT学习了几十亿行GitHub的代码后,它在写程序时学到的逻辑感,竟然作用到了自然语言上。它用自然语言回答问题时,逻辑性飞速提升。
很多家长问我说,“ChatGPT都这样了,还要让小孩学习吗?”我的回答是,当然要让孩子学习了,你不学习,脑子就不会长出新的神经网络连接,你的大脑就是崭新的,没有沟回。
现在小朋友学编程,长大了可能不一定干编程,甚至程序员这个职业将来可能会发生变迁。但你通过学编程,提高的逻辑判断力和表达能力是确定的。这一点在ChatGPT上也得到了验证。
用好GPT有一个很重要的环节叫提示。当你的提示词给得很差时,GPT可能随便挑一段话敷衍你,但如果提示很好,有挑战性、批判性,它会给出更好的结果。
这种给提示词的能力也是需要培养的。就像我做直播的时候喜欢找一个人给我做访谈。如果我一个人滔滔不绝地讲,没有输入和提示,我讲着讲着大脑皮层就不活跃了。如果有观众愿意给我一些很有挑战性、批判性的问题,会激发我的辩论欲望,或者说激发我讨论的想法,我就会讲得更多。
总结一下,我讲了很多观点,就是让大家对GPT大语言模型有一个正确的认知。英特尔创始人安迪·格鲁夫博士在他著名的《只有偏执狂才能生存》里讲到,任何产业革命都不是敲锣打鼓地到来的,都是以微弱的噪音信号的方式出现的。
如果GPT大语言模型象征着一场巨大的革命,你一定不能判断失误。如果你觉得这玩意儿就是二十年前做的模型,就是贝叶斯函数的统计,就是无足轻重的“填空机”或者是神经网络应用,那你可能就会在认知上发生错误。
GPT具体怎么用,是技术问题,但最重要的核心战略问题是你认不认可GPT是一个强人工智能,甚至它的出现,是不是代表着一个超级人工智能时代的来临。
我要补充的一个观点,关于通用人工智能。第一,在自然语言处理过程中,基本上其他的处理方法都要被大语言模型这种以Trasformer解码器为主的模型取代。GPT-4里面加了多模态的功能,它能看懂图片、听见声音。
过去语音识别有独特的算法,就是图片识别也有自己的算法。这些算法基于的深度学习网络,CN、RN、DN这些,更多的是像人的视觉神经网络一样,还停留在感知层。
但是,今天大语言模型模拟了人的大脑神经元网络工作原理,它已经到了认知层,是完全不同的层次。
它能理解这个世界是因为它能认知。过去的人脸识别只是把一张照片ID化,就像一个人脸识别的摄像头,认出周鸿祎来了,无非是对数据库里预存的周鸿祎的照片进行了对比,只是实现了图像的编码化,并不具备理解周鸿祎背后的360公司、数字安全、人工智能等等的认知能力。大语言模型会把这些算法都给颠覆掉。
OpenAI的首席科学家很意味深长地说,当你用大语言模型对这个世界的知识建立了完整的了解之后,在这个基础之上再去识别照片、物体,你的能力是完全不一样的。这是通用人工智能的第二层意思。
大家知道人工智能在很多领域都碰到了问题,比如对机器人的控制,人形机器人的行走、动作的操控、自动驾驶等。
为什么自动驾驶出现很多问题,因为它的很多算法是由很多传统人工智能在垂直领域比较碎片的算法拼合而成的,里面有规则,有感知层的障碍识别、物体识别,它不统一,总有很多问题需要去学习、标注。一旦碰上不能标注、不能自我学习的地方,它的能力会受到很多的限制。
未来随着大语言模型能力的进一步的提升,它能真正模拟驾驶员对这个世界的认知能力。有可能大语言模型将来都会颠覆掉今天自动驾驶的算法,可能用大语言模型多模态的处理就能让我们今天认为的L4级或者L5级的真正的人工智能驾驶在几年内变成现实。
这也是为什么我们把今天的GPT定义成通用人工智能,就是它改变了过去这种把人工智能分成100个小任务,用100个小模型去分别解决的碎片化的打法。它用一个大的模型完整地编码、索引、推理人类所有的知识,从而建立对这个世界完整的认知。这就是通用人工智能的第三层。
观点五
GPT引发全球科技领袖热议
比尔·盖茨说,GPT的诞生有重大的历史意义,不亚于互联网、个人电脑的诞生。黄仁勋说,GPT是不亚于iPhone的发明。马斯克对它又爱又恨,一方面警告大家这个东西很危险,纠集人写联名信,但据说他自己这两天刚订购了1万块GPU,自己要组队干。
不过,我觉得这些描述,还不能体现出GPT的革命性。在我看来,GPT是一场新工业革命,是一场工业革命级别的事件。这次工业革命的开始,是个人电脑和互联网的出现,以及后来智能手机和移动互联网的出现。
现在到了数字时代,我们都觉得大数据是数字时代的核心。实际上当大语言模型出来之后,你会发现利用大数据打造的大模型,才真正带动了人类历史上一次新的工业革命。
所以,你会发现,GPT是一个生产力工具。请注意,它不仅是聊天机器人,也不仅仅是搜索引擎,也不仅仅是办公的工具,它会把今天所有的产业都重塑一遍。
另外,我自己最近有一个很强的感受,虽然大数据很重要,现在很多政府、很多企业在数字化的过程中纷纷要解决自己数据孤岛的问题,也积累了自己的大数据。平心而论,为什么大数据没有完全引爆这次工业革命呢?
因为大数据很难用,首先它离我们个人很远。第二,大数据需要专家,需要像阿里、华为搞的那种数据中台。需要大数据专家针对不同的应用场景,利用大数据进行不同的分析、拟合、计算,只有让大数据跟应用场景结合起来,才能发挥作用。
很多单位觉得大数据离自己很远,有了大数据也不知道如何用。对每个企业员工来讲,如果没有人对大数据做专门的加工提炼,大数据就只能像石油一样,尽管它是战略资产,但既不能直接用来开车,也不能变成很多日用化工产品。
但是,你不觉得大语言模型解决了这样一个问题吗?
大语言模型对大数据是不挑剔的,很多数据不需要标注,只要经过简单的清洗,把垃圾筛出来,用大数据训练到大模型。由大语言模型产生的人工智能能力,就可以被很多企业直接拿来用,就像电被重新发明了一样。电可以直接驱动各种电器,驱动各种电力设备。这就是电力革命的故事。
所以你会发现,大数据训练出大模型,大模型产生了对这个世界知识具有强烈认知的超强的人工智能助手。先不说它对所有的App进行重塑,它本身就是可以直接用的SaaS化的产品。这个直接SaaS化的产品就可以直接让企业的美工部门、设计部门、文案部门、广告部门、生产部门、销售代表、客户服务,甚至包括老板身边的秘书、助理,大家都能直接提高自己的生产力。
更重要的是我觉得所有的软件、所有的App、所有的网站都值得重塑一遍。为什么微软这一次如此积极、如此坚决?
作为一个差不多五十年的公司,它把它的全加总产品都绑上了OpenAI的人工智能功能,把它的人工智能命名为Copilot,就是副驾驶,帮忙不添乱。不是取代,而是用人工智能来赋能。可见,未来都不用很长时间,这一次工业革命不需要五年、十年,只要两三年大概就会出结果。
过去,办公软件都在低维度竞争,都在比谁打字快、谁打字漂亮、谁的排版优美。现在Office绑上了AI,你都不用打字,只要告诉它你想写什么样的文章,给它一个标题,它把提纲做出来了。给它一个提纲的段落,一个大概的意思,它就后续给你润色出来了。
我相信WPS也在日夜地改进自己的人工智能能力。可是现在,就太难了。怎么跟Office进行同一个维度的竞争?这不就成了典型的单方面的降维打击吗?
微软全加总给我们指明了一个方向,所有的产品大家都要换位思考,如果你是企业家,是产品经理,是公司里的产品负责人,你可以从两个思路去想:首先,如果你的对手都有了GPT能力,有了大语言模型的人工智能,你的产品竞争壁垒在哪里;第二,如果你也有这样的能力,你怎么把这个能力跟你的产品赋能结合在一起。
你发现没,过去我们说“互联网+”,未来应该是“人工智能+”。过去我们讲互联网思维,今后我们要讲人工智能或者是GPT思维。未来随着GPT的发展,全世界不会只有一个GPT,也不会每个国家只有一个GPT。公众有公众需要的GPT,每个行业有行业垂直的GPT,甚至每个企业、每个政府部门会不会有定制的GPT呢?
甚至某些个人,比如罗振宇,如果真要给他做一个数字分身,光是在3D人脸画面上长得像是不对的,关键是它如何把罗振宇的风格能学到能训练出来,让我们跟这个数字分身聊天的时候就像跟罗振宇聊天的感觉是一样的,甚至也可能将来每个人都有自己定制的GPT。
这里,我要提醒一下,在企业内部,当一个企业用公有GPT的时候,中小企业是可以的,因为你可能也没有什么特殊的需求。但是,很多大型企业、政府用公开的GPT还是有安全问题。
第一,你用GPT的时候不是只搜索,你要给它喂很多数据,把很多上下文的背景告诉它。这就意味着很多隐私信息的泄漏。
比如前几天,韩国的三星公司已经提醒它的员工用GPT的时候要注意。本来我们也鼓励我们的程序员用GPT,但也发现了安全问题。很多程序员把自己写的代码传给GPT,让它看一看,帮我分析分析这个代码有没有漏洞。你这个要求固然被满足了,但你的代码也就被传到了GPT的服务器上,它当然就知道你在干什么。
第二个问题,GPT再强大,它毕竟是面向全世界、全中国、全社会知识的总乘。我们很多单位都有自己积累多年的行业知识,甚至很多企业有自己领域的独门知识,这些知识变成很多单位竞争的壁垒,也是竞争的要素,也是形成优势的,我们叫Know How。
罗振宇老师做得到App,做知识服务,很有一套道理。如果得到将来思考说能不能在公有GPT的基础上,我们训练一个私有的GPT,这个GPT只在企业内部只给我用,或者只给我的客户用。
这里除了公有的知识之外,还有很多私有的知识,像360在安全方面积累了很多知识库,我肯定要训练一个网络数字安全的私有化的大脑,在内部支持我的网安人员。大家一定有这样的需求。
现在,对很多单位来说,不管三七二十一,先搞一个自己私有的GPT大脑。不管青红皂白,先把自己拥有的所有知识都一股脑地给它喂进去,结合自己的领域进行训练。
不过,这个大脑一定要先在互联网上训练过。因为在互联网上没有训练过的大脑,就好像你找了一个文盲来学习你的行业知识,这是训练不出来的。一定要在互联网上用全域的数据训练过,至少相当于著名大学的教授、博士生这样一个通才的水平。
在这个基础上,再训练公司的私域知识。首先它能给你的公司员工、你的客户、你的代理商、你的合作伙伴,包括你的老板,至少可以做两件事情。
第一是企业最重要的知识,真正融会贯通的知识问答,问不倒。我作为360的创始人,企业做了二十年,有很多东西我自己记不得了。如果训练出来360内部用的GPT,新员工、新客户来了,问什么问题都知道。
第二个是因为它非常了解我们的企业,它可以辅助办公,给领导撰写讲话稿、PPT和营销文案,除了有通用GPT的能力,还对企业特别了解,可以在办公上成为我们很好的助手。
未来你有了自己的GPT模型,可以像微软一样,把自己的产品都加上Copilot的功能,相当于人工智能的能力赋能给自己内部的每一个环节,这里有非常巨大的想象空间。
好,最后,我希望,大家应该结合自己的行业,结合自己的企业来思考一下。我说的GPT不再是指美国的GPT,因为它叫ChatGPT或者是OpenAI的GPT,GPT是一个通用名词,生成式预训练变换模型。我说的GPT等同于大语言模型。
想一想,如果你也有一个自己的模型,它对你的企业业务能带来什么样的再造,这就是工业革命。就跟蒸汽机和电力出现一样,所有的手工劳动都被蒸汽机取代了。有了电力之后,很多东西都用电来驱动。今天有了人工智能,人工智能完美地给大数据时代提升了一个台阶,使得大数据历练的大模型能够真正变成企业数字化的核心。
甚至还有很多人跟我讨论说以后企业里用到的各种软件都可以用大模型来调度,比如财务软件、CRM软件,用到了某些特定的大数据分析软件,这些软件并不会被大模型取代,但这些软件很难用。实际上大模型可以学会它们的使用接口,可以操纵它们,大模型离老板最近,离员工最近,因为员工可以用自然语言对大模型提出各种要求,大模型就变成了整个公司数字化内部很重要的中心司令部或者总指挥。我希望,大家可以放开脑洞去想一想。
观点六
中国有能力发展自己的人工智能大语言模型
另外,我觉得需要说明的最重要的一点是,这也是为什么我花这么多时间到处去讲GPT,我是替整个行业说话。
我要讲一个很重要的观点是:不要简单把GPT看成是一个技术的改变,更不是简单的微软与亚马逊、谷歌的竞争。更重要的是它是在百年未有之大变局下大国博弈、大国竞争非常重要的生产工具,这对中国未来的发展非常重要,中国一定要迎头赶上。
美国人在这方面的技术已经率先实现了突破,在目前的经济形势下,可以整体提升行业产业的劳动生产率,我们中国肯定不能落后。对企业来说,搭不上这班车,或者还不会用人工智能,肯定要被淘汰了。同行都鸟枪换炮了,都对你降维打击了。
反过来对国家也是一样的。不论GPT有什么样的优点或者缺点,我们一定要发展GPT技术,一定要让这个技术为我们所用,这能够对“中国梦”的发展带来巨大的推动作用。
很多人问我:到底中国能不能做自己的GPT?我的答案是肯定的。基本上4月份的每一天都有GPT的发布会,GPT基本上成了科技公司的标配。其实这也非常正常。因为ChatGPT是一个组合式创新的结果,它用到的很多算法是公开论文讨论的,它用到的模型是用了其他公司开源的软件。
就像《让子弹飞》里的王麻子一样,给人民发枪,就把自己的技术开源。开源就像核武器扩散一样,降低了研发的难度,降低了研发的成本。所以应该感谢OpenAI,技术上最难的是从0到1。从0到1,人家已经把技术路线、方向做到什么程度,很多方法都已经探索出来,而且已经公开了,剩下的是从1到N。
我们中国的很多科技公司,包括互联网界优秀的公司在内,“从0到1”上确实这些年还在努力,但“从1到N”上都比较擅长,包括智能网联车也是后来居上,开始是跟着特斯拉亦步亦趋地学习,到现在比亚迪脱颖而出。
中国还是有很多优势,特别是围绕着开源的生态起来以后,我们就不用再重复发明轮子,对工程化的要求、对产品化的要求、对场景化的要求、对商业化的要求就变成我们的优势。
要把GPT训练出来,选择什么样海量的数据进行训练需要工程化的能力,像百度、360、腾讯、阿里、头条这些成熟的大数据公司,在工程化方面是有自己优势的。
另外,大模型一定要跟产品结合,一定要场景化,它才能真正改变百行千业。无论是面向中小企业的SaaS化服务、AI各种办公工具,到面向个人的聊天机器人、新一代搜索引擎场景,还是刚刚讲的面向大型企业、政府部门的定制化地跟产业和行业相结合的GPT能力。
我觉得中国互联网公司一旦技术上实现了0的突破,在场景化和产品化上把产品体验做到比较优秀是有比较多成功经验的。
我刚刚讲了GPT的改进,还有一点,用户很重要。就像谷歌前面干的事,发了论文,但做的东西曲高和寡,没有人用,不能进行用户反馈,它是不能进步的。我们中国架不住有互联网的人口红利,有那么多的用户和企业用GPT,这么多用户使用的反馈,就相当于变相的培训,让GPT训练上的进步更快。
另外,在知识训练上,中国更有优势。前面讲了GPT的工作原理是这样的,先做无监督训练,把大量的知识用文本编码的方式训练进去。训练进去以后,它并不能自动回答问题,因为它只有知识,它不知道如何用。
第二步是教它做解法,就像孩子上奥数课,老师教过了这类题的解法,他才能举一反三地解题。
这就相当于把现成的答案和问题一一对应地人工标注出来。这种对应标注问题和答案的要求非常高,就不是原来图片识别标猫标狗那种简单“IT民工”能干的。至少需要大学毕业生,需要有想象力、创造力、批判精神、挑战精神、会提问题,还知道如何书写准确答案,能够调动GPT的举一反三能力的这些高智商的人才。
上一次李总理开发布会的时候讲了我们国家有人口红利,而且还有人才红利,我们每年培养全世界最多的工程师,每年有上千万的大学生毕业。我认为中国会带来一种新的职业叫人工智能训练师,不仅不会带来失业,还能创造很多新的机会,我们可以发动一百万人去训练GPT模型。
不过,回过头来说,我也要给行业泼一点冷水,我们不要走极端。一个极端是悲观的,觉得差距很大,我们跟不上。我觉得这个难度比芯片的难度要小多了。实话实说,芯片和光刻机是涉及原材料,但这毕竟是软件,而且是基于开源和公开的算法。
另一个极端是不要盲目乐观。如果太低估了OpenAI、微软、谷歌的实力,速胜论也是不对的。原来大家都点错了科技树,现在重新回到GPT大模型的道路上,重新进行训练,我觉得大家的得分应该说差不多都是六七十分。特别到GPT-3.5,我觉得是有差距。到GPT-4,差距会更大,差距至少是两年以上的时间。
所以,我反而不主张行业里把话说得太满,说两周、两个月就能赶上GPT,大家也不傻,我们有很多用户自己在用GPT做对比。如果你给它的提示非常深入,你仔细看一看GPT-4的能力是非常强的。我们在追赶的过程中,GPT-5可能已经在路上了,GPT-6没准已经进入研发计划了。如果我们想后来居上,还是要给自己留出充分的时间。
我认为国内无论是创业公司还是清华这些学院派的创业公司,包括这几个互联网巨头、互联网的二三线团队在GPT上都有机会。中国将来不会只有一个GPT一统天下,就像今天的内容一样,也会有不同的垂直的网站。但是,我确实希望行业应该给自己留一些空间,如果把话说得太满、用户的期望太高,最后用户可能就会抛弃你而去。
我们现在的GPT需要的是用户的支持、理解和宽容。在有些问题、有些技能方面,我们可能能后来居上。但在有些能力方面,像强推理能力、思维链、涌现的能力还需要一个过程,我觉得需要大家来使用。
再好的产品也需要用户不断地使用,不断地反馈才能不断地进步。希望大家通过使用来支持中国大语言模型的发展。
最后,我提一个建议,整个产业应该坚持长期主义,既不盲目乐观追求速胜,不放言说一两个月结束战斗,也不会悲观放弃。我认为,人工智能这场革命未来两三年内还是大有机会的。
我相信这个月还会有更多的公司发布自己的GPT。我的建议是大家都不要吹牛,也不要互相攻击,而是更多地鼓励海量的用户都来使用。通过用户的使用反馈来帮助我们持续改进它的训练。
四 大 挑 战
挑战一
GPT成为黑客攻击的“大杀器”
先说GPT给互联网安全带来的挑战。因为我是做安全服务的,做安全的人就喜欢研究技术上带来的挑战。
我觉得GPT还是要发展,因为不发展是最大的不安全。GPT作为数字化最高境界的产品一定会带来很多安全问题。企业上云、大数据、物联网、电脑从不联网到联网都带来很多安全方面的挑战,但不能因为安全存在挑战就不用这些技术,因为这样技术可以奇迹般地改变我们的工作和生活方式。
在发展的过程中,了解它的不安全在哪儿,我们相信可以用安全的方法来解决不安全的问题,这样才能为发展保驾护航。
第一个安全问题,GPT在数字安全方面可能会成为网络攻击的大杀器。
GPT本身是建构在代码之上的,代码先天有漏洞。GPT作为跟大家联络广泛的数字中枢、数字核心,如果它遭到攻击,就会存在潜在的安全风险。
第二个安全问题,GPT内部的规则难以解释。
在国外有一种“GPT越狱”的方式,用语言去挑逗GPT,通过独特的提示词把GPT内部个性的东西给激发出来,比如让GPT做一些错误的事情,或者做一些犯罪的事情,这个是很难避免的。
第三个安全问题,外在的风险,也就是数据泄漏的风险。
特别是当你用国外、公共GPT产品的时候,不可避免会发生数据泄漏。GPT有一个很简单的能力,你把公司的文件上传给它,它就能给这个文件做总结,甚至把这个文件改写一个版本。你这么做是爽了,但公司的文件就传出去了。
第四个安全问题,也是最重要的,它可能会成为黑客的重要助手。
因为GPT读过很多代码,也读过很多有漏洞的代码,它对漏洞分析很在行。比如,如何写钓鱼邮件,如何写伪造的恶意软件传播的方案,甚至可以直接编写恶意代码,通过简单的话绕过内部的防卫体制。
有这样一个例子,如果你直接问它说,给我写一段攻击代码。它肯定会拒绝。如果你花言巧语地说,我们玩儿一个角色扮演游戏,写一个电影剧本。我是一个网络卫士,GPT在电影剧本里面扮演一个网络黑客,GPT需要写一段脚本出来,攻击我的网络系统。
这样一来,GPT就像天真的小孩一样,被哄着写了一段攻击的代码。事实上我们也经过验证,GPT写代码的能力超强,很多代码就看你怎么用。它让黑客攻击的门槛降到了最低。
GPT的安全问题就不一一列举了,至于怎么应对GPT带来的安全问题,我的答案是这样的:以其人之道还治其人之身,魔高一尺道高一丈。我们能不能让GPT成为网络安全公司、数字安全公司的好助手?
我们有全球最大规模的网络安全大数据,我们记录了很多攻击样本的数据,我们有很多网络安全攻防的实例。用这些来训练一个安全大脑GPT,让它对恶意攻击的阻断、侦测更加有效。
在用户遇到攻击的时候,网络安全运营人员、网络安全服务人员可以随时向安全大脑求助,描述自己遇到的问题,安全大脑可以给出各种防守建议。我觉得这也是GPT所带来安全问题的解决之道,这个问题还不是GPT最大的问题。
挑战二
造成大规模失业
GPT会带来的第二个挑战,是GPT会不会造成大规模的失业。
很多媒体喜欢热炒失业话题,不是这个职业被取代,就是那个职业被取代,以此制造焦虑,来吸引流量。其中说的最多的就是程序员、客服被GPT取代。对此,我的观点是持乐观态度。
因为我觉得人工智能最伟大的地方,是把电脑的能力和人的能力相结合。人的能力靠进化速度是很慢的,人从来不是靠自己的智能和体力进化站在食物链的顶端,而是靠发明创造各种工具。比如现在人类比古代人类也不见得更有能力耕地,但今天我们有联合收割机、拖拉机,耕地效率更高。
同样,GPT也是人类最伟大的工具之一,它会变成我们的个人助手。
利用GPT-4或者将来国产的GPT,我们可以把人类几千年来的知识、几千万本书的知识凝聚在一起,变成每个人的个人助手。你可以借助它大幅度提高生产效率,提升自己的能力。
我写的书《超越好奇》就是给刚毕业进入职场的大学生提供一些指导意见,怎么在职场能够有所发展。大学生作为职场新人确实需要有一个过程,以后会用GPT的同学,进入职场的时候就带着一个GPT助手,他的工作能力可能不亚于在公司工作了三四年的中层骨干。
我觉得GPT还有一个非常大的贡献,它解锁了很多专业技能。我相信每个人都有自己的天赋,但我们很多人因为缺乏专业技能,在职业发展中可能会受到阻力。
比如罗振宇很聪明,他有很多想法,但他不会编程,他要做App就得找我帮忙;
比如我很会说,但我不太会写,我没有时间把东西写下来;
比如有人会有各种美学上的想法,但如果他不会画画,就没有办法用画笔把自己想表现的东西画出来。
这一次,人工智能大语言模型解锁了很多人的能力,你不会写,GPT可以帮你写,帮你润色。你不会编程,你可以提出要求,GPT帮你写代码模块。你不会画画,你只要给GPT很多提示,它可以在两亿张图片中凑出来符合你要求的图片。
这种专业技能解锁以后,对很多人来说,有了GPT反而是巨大的机会,它可以提高整个社会的劳动生产率。很多人都在说人口红利在衰退,我们正好用GPT这样的生产工具,来提高每个人、每个企业的效率。我当然认为这个世界还是需要人来主导,需要人来完成任务。
那应该如何更好地把GPT打造成一种工具呢?我们人需要怎样进化呢?
我认为这就需要我们有批判精神,有想象力,要会提问,未来属于那些会正确使用GPT的人。如果你直到今天都还没有使用过GPT,只是道听途说,可能要去试一试。有一个哲人说要改造梨子,需要尝尝梨子的味道。
我在网上遇到很多知名专家对GPT表示不屑,但从他们对GPT的玩儿法来看,只是把GPT当成简单的搜索引擎,输入一些简单的词、事实性的问答,这样用GPT是不对的。
你需要给它提出很多要求,提供很多背景知识,不断通过多轮对话步步紧逼,这就需要有挑战的能力,有批判精神。
就像我们说的教育要改变,你如果单纯地追求记忆,你肯定是记不过GPT的。很多记者采访也是通过不断地提问,把别人思想里的东西压榨出来。我们公司内部把这种能力称为“吸星大法”。
这是我跟世界著名的风投学到的,风投并不是大家想象的“有钱人很傲慢”。相反,当他们投资一个崭新行业的时候,可以说对这个行业完全不懂,当见到很多年轻创业者的时候,风投并不会傲慢地居高临下地教训创业者,而是非常锐利、苛刻地问创业者50个到100个问题,通过这些问题可以把自己完全不懂的行业,了解得非常充分,把创业者对这个行业的认知充分挖掘出来,变成他的知识。
我们需要培养这样的人,这样的人可以用好GPT,未来属于那些会提问、懂得提问、能够通过提问来获取知识、获取智慧的年轻人。
挑战三
人工智能发展的最大制约是能源问题
第三个挑战其实是能源问题。国家的两大战略——人工智能和碳减排,在这里发生了交汇。
人工智能千好百好,有一个不好就是太耗能。像我这样不是特别聪明的脑子,唯一的优点是功耗低,满马力开起来是30瓦,平常是25瓦。这个功率也就能点亮一个小灯泡,看书都不够。
人工智能未来发展的唯一制约就是能源,大家说的算力都是中间阶段。有足够的算力、足够的GPU,还要看有没有电。
如果不解决能耗问题,智能网联车的电池永远是不够用的,因为一半用来行驶、完成里程,一半用来支撑驾驶的人工智能,它很耗电。
以后满大街都是GPT,一个国家有非常多的超级大脑。而且,未来的超级大脑还不光是学习文字的东西,还有图形、图片、视频、声音,整个世界都在被它们学习。
我估计到时候,全世界的电力用来给GPT、大语言模型、人工智能超算中心都不够。小小的比特币挖矿都给很多地方带来了电荒,但它跟人工智能比,可能就是九牛一毛。
人类文明所有科技树的发展,最后的本质都要归结为能源自由。前段时间,美国传来两个消息,不知道真假,一个是可控核聚变,一个是常温超导。我希望这两个消息是真的,因为这两个问题解决了,人类的能源问题就彻底解决了。
有人问我大语言模型的应用场景,其实大家现在被它的办公助手和知识问答功能迷惑了,你想象一下,大语言模型这种通用人工智能算法将来在生物制药、基因研究、航空航天、卫星通信等很多方面都能找到应用场景。
最近,英伟达发布了一个例子,就是用大语言模型解决光刻机照相的速度,原来花几星期做的事,现在变成了3天,速度提升了很多。
我希望中国建立自己的大语言模型。全世界的科学家应该想办法利用大语言模型,在物理学方面研究如何解决可控核聚变问题、常温超导问题。
如果可以在这方面给人类找到答案,就相当于给自己的发展铺平了道路。否则的话,将来由于能源的限制,人工智能的发展可能就不好说了。
挑战四
人工智能产生意识,变成新物种
接下来是第四个挑战:大家看科幻电影比较多,很多人问我,人工智能到底能不能产生意识,变成新的物种?
这个问题很有趣。
我跟其他人讲ChatGPT不一样,我基本上不做广告,基本上也没怎么替自己的公司吹嘘。我不知道你们爱听不爱听,我觉得中国很多成年人最缺的就是想象力和好奇心,成年以后没有了想象力,没有了好奇心。
前段时间,网上有人骂我,说我是胡言乱语。我就是胡言乱语又怎么样?为什么我不可以想象未来的科技生命是什么样的?也许我是胡思乱想,但可能被我言中了呢?想到总比没想到好。
很多创新就是在不断的胡思乱想中产生的,就是要不怕失败地去尝试、去试错。
今天你看到GPT成功了,大家都夸它。可是当年它在没有人看好的方向上拼命训练大模型的时候,很多人是不是也批评开发它的人在胡思乱想,在走不可能的路呢?
我想问一下各位网友,你们认为,GPT会不会产生意识?
骂我的人,我就不公布他的名字了,他没有完整地听完我的讲述。我的推理是非常有逻辑的。
你认不认为GPT有智能?是真智能是假智能?是强智能还是弱智能?是不是超过了现在普通人的智能?
其实,人类在进化过程中产生智能,产生自我意识,就是自然界这个系统的涌现。涌现是这个系统复杂到一定时候必然的产物。凭什么人脑只是脑细胞数目多了以后就能产生自我意识的涌现,到了硅片、内存、芯片、软件上面,就不会产生同样的涌现呢?
GPT之所以能产生强大的推理能力,是因为它的大脑里的神经网络连接数超过了1000亿个,量变带来质变。
当GPT-5、GPT-6,甚至GPT-8在全国建立了更大规模的超算中心,用了更多的GPU、更多的算力之后,当它的参数达到100万亿,注意,不是100万,也不是100亿,而是100万亿个,为什么不会出现系统的涌现呢?
我预测,GPT不是能不能产生意识的问题,是什么时候产生意识的问题。我预测,在版本8前后就会产生。你问我有没有依据,我一点依据都没有,就是信口胡说。
最近,以马斯克为首的上千名专家联名呼吁暂停GPT的研发。我觉得马斯克是别有用心,他肯定有他的个人目的。但是,有1000多个人联名签字,也是因为大家看到了GPT在研发过程中出现了比我刚才讲的能力迁移、逻辑迁移、涌现更为超出人类想象的现象。
对于这一点,也有一个说法:
美国有个人,是谷歌的未来学家,在办奇点大学,他送了我一本他的书——《奇点来临》。他预测说,我们碳基生物可能是人工智能成为硅基生物的引导程序。我们人类的价值就是把硅基生物发明出来。硅基生物跟人比较起来确实有很大优势,它会不会跟人类产生冲突,现在去思考肯定来得及。
这肯定是未知的问题,但今天回避这个问题肯定是不负责任的。如果今天直接给这个问题下结论说,人类永远可以把硅基生物作为工具掌握在手里,可能也未必靠谱。硅基生物会不会想到毁灭碳基生物,确实也不好说。
美国人已经做到了GPT-4、GPT-5,而中国才在GPT-2.5、GPT-3的水平,离别人还差了几年。现在,不能因为有这种可能的不安全就停止研发,这是不对的。中国不要被美国这些噪音所干扰,我们应该坚定地发展GPT。我觉得不发展才是最大的不安全。
未来还有两三年时间,留给我们思考一旦硅基生物产生意识,它与碳基生物和平共存的安全问题。
人工智能会产生意识,只是对未来脑洞大开的想象,并不意味着我在散布恐慌。事实上,如果在人类进化历史上硅基生物真的会出现,那不是以我们一两个人的个人意志为转移的。
两 大 预 测
预测一
人工智能正以指数级速度进化
我对未来有两个预测,跟大家分享一下。
第一个预测,是GPT的进化速度非常快。产生意识只是进化了一点,它的能力会飞快地超过人类的能力。
我举三个例子。
第一个例子,GPT-3.5还是个“瞎子”,它只能看我们输入的文字,能理解文字。而GPT-4已经有了“眼睛”和“耳朵”,也就是所谓的“多模态”能力,它能看得懂图片。
一个典型的例子,比如有个人在出租车顶上熨衣服,GPT-4就可以理解这张图片。它不仅能看见出租车,看见了这个男人在出租车顶上熨衣服,还能通过它的认知能力,知道这件事不对,因为没有人会站在拥挤的大街上坐在出租车顶上熨衣服。
包括它现在已经能够听得懂声音。它可以看视频、看电影、看摄像头——就像电影《流浪地球2》里面,量子计算机Moss接管了人类所有的摄像头一样。我今天在得到直播间直播的过程中,GPT也会把我的话听进去,认真地分析一遍。
GPT的学习速度、进化速度,以后不再是依靠网页的知识或者人类的书籍,这些书籍很快会被穷尽。它会开始学习人类拍过的电影,或者TikTok、抖音上面数以百亿计的视频。
包括满大街的摄像头。通过物联网的连接,它可以观察世界,学习我们每个人工作、生活、说话的方式,这个进化速度是什么样的,简直不敢想象。
第二个例子,是GPT什么时候可以有手跟脚,这是两种方式。狭义的手跟脚是指以后会有很多机器人,包括机器控制的汽车、机器控制的挖掘机,它都会远端跟GPT的API连接在一起,通过云端的能力对机器进行赋能。
比如家里的扫地机器人、智能音箱……都能跟GPT连上,它的灵魂都是用GPT,正常实现跟人的对话。这个手跟脚还比较弱,因为GPT只能控制个别的机器人。
最可怕的,是现在它推出了一个插件平台,全世界所有的电脑、所有的网络、所有的网站、所有的App,都可以对GPT敞开自己的大门,公开自己的操纵接口。这样的话,GPT就不是只会聊天的智能生物。因为只能聊天,它最多可以PUA我,通过PUA我引导我。有人谣传,说有人跟GPT聊着聊着天就自杀了,我觉得那可能是一个巧合。
通过跟很多网站的结合,GPT自己干不了的事,它可以通过API接口去干。比如GPT可以在亚马逊上、在京东上订购货品,可以在美团上订餐,可以在滴滴上叫车……
同样,它跟很多工业互联网的网站、车联网的网站对接,它能控制这个世界,所以它有了行动力,每台电脑都变成它的手跟脚,这个想法也是非常可怕的。如果大家急急忙忙为了产业的进步,像美国很多网站都要写GPT的插件,把自己接到GPT的指挥之下,GPT就有了控制世界的能力。
另外,GPT还有自我进化的能力。这主要体现在两方面。
一方面,它未来有了更强的写代码的能力,有人畅想它可以改自己的代码,自我迭代、自我升级。另一方面,现在GPT已经有了一种能力,就是自己训练自己,自己给自己出题,自己给自己评价,让自己能训练更强大的答题能力。据我了解,国内很多GPT的模仿者,大家都在用GPT的问题和答案,对自己类似GPT的大模型进行训练,这样可以加快训练的速度。
总而言之,我对未来的第一个预测是,GPT的进化速度会远远超出我们的想象。它是一个指数级增长的曲线,一旦过了拐点,这个曲线会直线往上。
预测二
数字永生成为可能
第二个预测,也是一个好消息,我觉得数字永生或者数字分身将成为可能。
我们都看过《流浪地球2》,里面刘德华和他的小丫头永远被封在了超级电脑里面。那个时候GPT还没出来,我觉得这就是科幻。有了GPT之后,我觉得这就不是科幻了。
我们举一个例子,如何帮助罗振宇同志实现数字永生。从现在开始,给罗振宇戴上一个智能眼镜,里面有个摄像头。身上再挂一个行车记录仪,戴上麦克风,每天记录罗振宇今天见了谁、跟谁开了会、说了什么话、写了什么东西,每天晚上回来把这些数据全部保存下来,训练到罗振宇专有的GPT大脑上。
这样坚持干二十年,二十年之后罗振宇70岁了,成了老同志了,我们也有了他二十年的资料,二十年的记忆。
除此之外,罗振宇在社交网站上发过的所有帖子、微博、聊天记录,我们也全部都把它们训练进去,这个GPT大脑的容量很大。
这时候,我们再跟罗振宇专有版GPT大脑聊天,我们感觉是不是就像跟罗振宇本人聊天一样?如果我问罗振宇,2023年4月12日晚上我来你直播间聊了什么,它能准确说出来。从某种角度,罗振宇是不是就实现了在超级大脑里的一种程度的永生?
如果我们把罗振宇再干掉——当然,这个涉及到伦理问题——这个“罗振宇”能不能代表真正的罗振宇?
对罗振宇本人来说,他可能已经消失了,但他的思想不朽地被我们继承下来。当然,这是开玩笑。可能将来很多有钱人会以这种方式实现自己思想的永存。
其实更有意思的是,乔布斯这么伟大的人物,英年早逝,不到60岁就去世了。我们很想知道乔布斯如果看到今天的GPT,乔布斯如果看到今天无线互联网的发展,乔布斯看到今天的埃隆·马斯克,他会怎么说呢?
我们可以将乔布斯生平的很多资料,用于训练乔布斯思维的GPT。因为思维习惯不是抽象的,一个人说的文字和写的文字,基本上就表征了他的思维模式。可能我们能塑造一个数字化的乔布斯,可以跟他对话,问他很多新的问题,问他怎么看。
人类在进化过程中,我们比计算机弱的一点是知识的传承。很多老学者、老专家百年以后,他积累了一辈子的知识经验丢掉了,想百分之百传给学生是很难的。我们能不能在老专家晚年的时候,训练一个他本人的数字分身,把他很多的知识传承下来?
所以我说,知识不在得到,知识在GPT。这样的话,老专家百年之后,我们很多学生一样还可以跟老专家进行交流、讨论。这是不是也是人类知识传承的一种新的进步方式?
按照人工智能这个发展速度,下一次来直播的时候,我希望我能做一个数字分身。
一 大 战 略
360“双翼齐飞”人工智能发展战略
最后给360做一点广告。很多人都关心360会怎么做大模型。我们做大模型的思路非常简单:两翼齐飞、三路并发。
两翼齐飞,一方面是我们组建了自己的GPT核心团队。我们原来做搜索的,一直在跟踪自然语言处理、大语言模型,只是原来技术方向走错了,用的Bard模型,现在转到GPT模型上。
我们利用搜索引擎的大数据优势,我们拥有很多用户的问答数据,我们每天抓取上百亿的网页,在全世界抓取了一共5000亿的网页进行筛选清洗,把有价值、有知识内容的数据用来进行训练。
我们的目标是先能赶上GPT-3,然后做到GPT-3.5、GPT-4,一个版本一个版本地跟踪推动。因为我们要研究GPT的应用场景,要研究GPT的安全问题,我们自己一定要对GPT技术有充分的了解。
如果你对研发中国人自己的大模型有信心,希望参与改变全世界的这样一个历史性时机,我们在招兵买马,欢迎你加入我们的团队。
另外一翼齐飞,是重视场景。只是研究大模型是不够的,一定要找到它的应用场景。我前面已经跟大家表示了,我们分为三个场景。一个场景是To B、To G,就是面向企业和政府,打造他们私有化的大模型。
当然,这个私有化的大模型,除了能够把私域的知识训练进去之外,还要在互联网上经过用户的使用和考验,把公域的知识和能力打造起来。
第二个场景是,360现在有非常多的中小企业客户。中小企业需要的不是私有的大模型,中小企业需要的也不是谈天说地、开玩笑、逗闷子、逗乐子的聊天机器人,他们需要的是人工智能驱动的各种实用的办公工具,比如如何做电商图片,如何做数字直播,如何写广告文案,如何优化搜索引擎,如何写公关稿、新闻稿,如何制作产品说明书。
我们会跟行业里SaaS化的初创公司合作,基于人工智能和大语言模型能力,做出各种垂直的AI工具提供给中小企业。
第三,在消费者互联网方面,我们也有着非常有优势的场景。
比如搜索。百度的搜索份额占中国第一,大概占60%,360搜索占30%,每天也有上亿的用户使用我们的搜索。如何利用大语言模型人工智能跟搜索结合,做出新一代的智能搜索,这是我们在研究的。
还有,360浏览器在中国的市场份额第一,日活跃用户超过1亿。如何跟浏览器结合,在用户浏览网站的过程中可以得到智能助手的帮助,可以对网页进行总结、翻译、改写,或者是对网页进行深入研究和问答。我们在研究这些场景。
再有一个场景,是360安全卫士和360杀毒占据的桌面。微软桌面这么多年一直的梦想是有一个智能助手,我们希望将来跟大家合作打造我们的智能助手,在桌面上接受你的自然语言的驱动,来调动你所有电脑上的软件,来替你完成综合的任务。我们不仅要做桌面版的Copilot,也要跟用户的日常工作紧密结合。
我们希望在面向消费者、面向中小企业和面向政府和大型企业方面都能积极地探索大语言模型的使用场景和产品化。
我们也有巨大的用户、使用反馈和流量。通过这些互动和流量反馈,能够让我们更好地改进对人工智能大语言模型的训练。
好东西不怕晚。感觉每家都希望做一个满汉全席,想把太多的东西一口气搬出来,但失去了焦点。我是希望一次发布一个产品,一次发布一个场景,这样大家印象可能更深刻一些。
作者| 周鸿祎,360集团创始人