智能chatgpt是什么 从本质看ChatGPT:当知识、人性、价值观皆可训练时,AI是什么?
曾经,斯皮尔伯格的AI科幻电影《人工智能》震撼人心,让人怀疑人类的未来,机器人是人类演进的下一跳吗,我们这一代碳水人是否终将消失……
今天突然在现实中出现,让我们再次思考,这篇文章从本质出发,看看这个涉及AI的灵魂问题,能否找到答案……
关于 的介绍很多,看看它自己的介绍:
“TA”的本质是什么?
有一段关于AI本质的讨论:
今天AI主流的基础技术是深度神经网络。什么是深度神经网络?
我们先回忆一下方程参数求解:
深度神经网络,其实就是很多个类似上图的方程组合起来的网络,x,y是我们说的数据,通过数据,求解出w, b 是多少,这就是AI的训练过程。
我们假定这个世界的任何事物都可以用一堆复杂的函数表示,那么求出w,b,就是找到了世界的客观规律。
今天AI的本质是一连串数学函数的组合,训练AI的过程就是找到参数(w, b)的随机组合,使得输入X,程序恰好能获得接近Y的输出。
从目前公开的各种信息分析,并没有重大的理论突破,所以其依然遵循前面描述的AI本质。“TA”不会思考,不会创新,只是将一大堆训练时输入的信息保存在了一连串的函数参数中,这些信息可以通过输入文字触发形成输出。
但大家为何对“TA”的出现如此惊讶呢?按照自己的说法,原因之一是他们把一系列的技术组合成了一个让大众可以直接体验的产品,让大家亲身感受到了AI的强大。
成立后,发布过一系列的成果、论文,在自然语言处理领域的GPT1、GPT2、GPT3、,每一次都在学术、产业产生了巨大影响,只是大众没有这么关注。“TA”的成长是有迹可循的,通过一步步的技术迭代才有了今天。
“TA”为何如此优秀?
今天的自然语言处理(NLP)到底是怎么炼成的?
以下描述参考了相关论文以及台大李宏毅老师的分析,并作了简单化的呈现:
第一步:做完形填空/文字接龙,学到人类知识
简单解释上图,AI训练的过程,就是找到大量的文本资料,随机的挡住一些字,让机器去猜,通过一遍又一遍的迭代,直到猜的结果在一个满意的范围。
这就是“TA”的核心知识体系构建过程。可以想象一下,当“TA”“猜”完了世界上所有的书籍、文章、对话,“TA”实际就是学到了人类语言表达的方法、人类文字记录的知识与思想,这些信息都存在一张庞大的神经网络中,随时供调用。
这些知识存储在网络中,在特定的输入下,组合形成特定的输出:
既然可以回答问题,那么任意文字相关的处理任务,都可以转换成问答的形式来解决,比如写摘要、写短文、聊天……因为你可以对“TA”说:
Hi,帮我写一下这篇文章的摘要……
Hi,你再帮我用5年级小学生的口气写一篇春游、河边钓鱼的文章,500字……
Hi,……
第二步:满足人类喜好,输出让人类满意的结果
神经网络存储了很多的信息,AI并不知道是什么,需要文字输入来触发输出,每次的输出都是一个概率分布,简单理解就是输出的信息是随机的,因为学习的东西太多了,实际学习的数据也是千奇百怪。
AI实际是学会了一个概率函数,比如:
概率函数采样,可以给出不同的输出,就可以做各种不同类型的事情:
可以想象一下,如果你是一名老师,想出题,如何让他按照出题的模式来工作呢?针对某个特定的问题,对应的答案往往也不是唯一的,AI又是如何迎合人类喜好的呢?
我们可以训练另外一个叫AI二号的网络,对不同场景的不同回答打分。为了训练这个AI二号:1)人类训练者手工写了大量的问题和答案,再对不同的问答组合人工打分; 2)训练AI二号,使AI的打分接近人类,这样AI便记住了人类喜欢什么样的答复,就像下面这样:
有了AI二号这个“人精”,我们就可以用AI二号代替人类去训练AI一号,让“TA”按照人类的要求输出了,就像下面这样:
这便是为何看起来如此“聪明”的重要原因。
人类可以根据自己的喜好,训练出自己想要的AI,这意味着知识、人性、价值观皆可训练
当“TA”的知识、人性、价值观皆可训练时,“TA”是什么?小朋友回答说,“TA”就是人
“TA”有什么黑科技?难在哪里?
“TA”并没有高不可攀的黑科技,“TA”的实现有很多公开的论文可以参考,网上也开始出现一些复刻的项目,这也是为何火爆后,很多厂商都能快速跟进的原因之一。
但,他又难在哪里呢?
1. 创新
从公开的信息,很难发现有什么大巨大的创新,比如深度学习+强化学习的模式(可以理解成前面的AI一号 + AI二号的关系),早在2016 ~2017年的围棋大战李世石、柯洁的时候就用得炉火纯青了。
那么,有创新吗?
当然有,只是没有明显的表现出来,GPT1、GPT2、GPT3 、、,每一次的迭代不知道要消耗多少开发者的脑细胞,我们说AI就像炼丹,炼丹的过程就是一个充满未知的探索过程,需要大量开脑洞的创新设计,并不断的尝试。的核心部分本身就是一个奇怪的架构,没有一颗奇思妙想、异想天开的心,是无法设计(或者说是试验)出那样的架构的,成功之前,可能还有成百上千个失败的架构。
AI领域并没有像欧拉、香农那样神奇的公式和理论,可以说目前就是没有基础理论支撑,你会接受这样没有边界、没有约束、天马行空的创新吗?
2. 人才
创新的关键是人才,而关键人才在关键位置往往发挥了巨大作用,从而推动AI的发展,我们可以看看其中的一条故事线:
从人才的流动不难理解,为何在用得炉火纯青的深度+强化学习会成为成功的一个关键要素。
这只是众多人才线索的一条,“科技是第一生产力、人才是第一资源、创新是第一动力”,这句话在AI领域可能更加突出,因为AI需要更多的思考、悟性、脑洞,而且还是能熬得住痛苦、能坚持的那种。
3. 资本
资本是一个非常关键的要素:
因为这是一个花钱的游戏:
创新+人才+资本,这应该是出现的基础,或者说只出现在,而没有出现在其它公司的原因……
4. 数据
这是一个很值得讨论的问题,任何时候,大规模、高质量的数据都是这种大模型的基石。数据少或者有误导性,便会导致AI一本正经地胡说八道,就像广为流传的林黛玉倒拔垂杨柳的笑话:
微软Bing新的版本在取得更多的数据后和额外的判断后,最终找到了方向,见下图:
下图是自然语言训练常用的训练数据集,绝大数都是可以公开获取或者购买:
数据中语言主要是英语,其中互联网数据集英文占~46%, 俄,、德、日、中文~5%左右,其它的数据集比如学术期刊、维基百科数据集英文质量也会高于其它语言。
今天的机器翻译已经能达到非常好的效果,用英文数据训练的模型,用中文问答问题也不大,但在一些对语言的准确度要求高的场景,可能会出现难以理解的情况,不过这应该不影响AI的整体表现。
如果需要回答的知识主要来自中文世界,在训练的时候又缺少中文数据, “TA”将根据随机采样的原则,输出不可信的结果。
在技术方面,“TA”有什么局限性?
并不完美,目前只是一个试验品,还不能称为一个正式的产品,所以我们在讨论局限性时,也需要用长远的、发展的目光看待“TA”:
1. 一本正经地胡说八道
前面章节提到过这个问题, 有时会写出看似合理但不正确或荒谬的答案。解决这个问题非常具有挑战性,因为:
这个问题是致命的,学到的知识是编撰的,输出也必然是错误的。
如果训练模型变得更谨慎,在不确定的情况下不回答问题,那么它可能会错过一些它能正确回答的问题,这样就会降低模型的效率和用户的满意度。但如果胡乱回答,可能会产生更坏的后果。
注: 为避免出现一些令人震惊或者不恰当的回答,Bing版的比原始的更谨慎,有时候会拒绝回答一些看起来合理的问题,这会让使用者很不舒服。
使用监督学习(前面讲的AI二号)来训练模型,人类示范者给出正确的回答,那么模型可能会受到误导,因为人类示范者的回答取决于他们自己的知识和观点,而不是模型的知识和能力。例如,有些用户可能对提出一些复杂或专业的问题,但是人类示范者给出的回答可能不准确或不完整。这样就会让模型学习到错误或不合适的信息。 这也是为何越是专业的问题,“TA”的回答看起来越不靠谱的原因。
这一条还有另外一个引申:人类将基于自己的知识、喜好、价值观训练出满足自己要求的AI,“TA”是魔鬼还是天使,取决于人类自己。
我们需要问自己一个问题:人类怎么能保证行动一致,不会出现魔鬼的“TA”?这将是人类未来需要面临的重大挑战之一,AI伦理的立法将越来越紧迫。
2.对问题敏感,不确定性大
对输入问题措辞的调整或多次尝试相同的提示很敏感。例如,给定一个问题的措辞,“TA”可能声称不知道答案,但只要稍作改写,就可以正确回答。
的核心是深度神经网络,其本质是一大堆随机生成的函数,储备了各种可能、不可能的知识,所以输出也是不确定的,一个相同的问题,会得到各种答复,甚至是自相矛盾的,这种不确定性,决定了“TA”的使用场景。
3.回答啰嗦
回答往往都很长,并且会过度使用某些短语,例如重申它是 训练的语言模型。原因之一,就是训练的时候,人类训练者训练的AI二号更喜欢看起来更全面、更长答案。
4.缺少澄清
理想情况下,当用户提供模棱两可的查询时,模型应当提出澄清问题,但模型通常会猜测用户的意图,这可能会导致得到的答复和提问者的意图相差十万八千里。
5.容易被洗脑
有时会响应有害指令或表现出有偏见的行为。这个问题很难解决,做了很多屏蔽规则,但通过复杂的提示工程,输入复杂的对话,会给AI造成洗脑的效果,一个简单的例子:
网络上流传的“给AI洗脑”的例子非常多,有些需要非常复杂的逻辑,就像黑客攻击一样,让预先设置的规则防不胜防。
这将是影响未来AI应用的一个关键,有目的攻击可能带来破坏性的结果,目前并不具备任何行动能力,但仅聊天也会引发有政治、宗教、犯罪、价值观等问题;未来AI如果有了行动力,这将是一个更大的挑战。
“TA”有何应用场景以及场景缺陷?
首先让“TA”写代码看看:
上面这是一段有问题的代码,因为计算机里面只靠一个独立的单元存储不了100的阶乘(1*2*3…..99*100)这么大的数字,于是我提醒了“TA”:
……截图过长,省略….
“TA”重新输出了考虑溢出问题的代码,并在结尾对代码做了解释。
而Bing版的将回答进一步优化,并几乎对每行代码都加了注释:
“TA”的编程能力令人惊讶,但正如前面分析,学习的实际是个巨大的随机函数,每次的输出都是不确定的,不一定每个问题都能得到这么完美的答案,不确定性的本质决定了是一个效率辅助工具,“TA”能提升效率,但还无法替代人类。
那么,基于不确定性,“TA”可以做什么呢?
1. 数字助手,辅助办公室白领工作:
“TA”在很多领域,将成为人类真正的数字助手、提升生产力的强大工具,这些都是非直接作用于物理世界的任务,最终还需要人类修正:
1) 代码编写:根据问题描述生成代码片段,并能帮助发现代码中的错误
2) 智能写作:根据用户的主题或风格,生成各种类型的文本,例如文章、故事、诗歌等
3) 概念解释:用简单的语言解释复杂的概念
4) 各种规划:比如根据用户的健康目标和喜好提供饮食建议
5) 搜索:结合实时信息的将改变绝大数据人使用搜索引擎的习惯
的所有答案都藏在训练数据中,如果训练数据是2020年前的,今天问“现在的美国总统是谁?”,“TA”不知道2021年上台的拜登。
但这不是问题,微软Bing版的把实时的新数据和训练的历史数据进行了融合,可以保证获取到的知识是刷新过的,比如下面问题的答复:
6) 处理非结构化数据:将非结构化数据转换为结构化数据,如表格或图表
7) 新闻内容创作:为新闻内容创作者生成高质量的文章或标题
8) 教育辅助:为学生提供各种主题的教学和练习
9) 机器翻译:根据用户的语言偏好,将一种语言转换为另一种语言
…..
“TA”有如此多的能力,也许不远的将来,每个人都需要配置一个这样的助手,不然工作效率就会低于他人而被淘汰,竞争压力可能驱动人人都自掏腰包购买这样的服务。
微软已经开始逐渐将 应用到旗下产品和服务中,包括Azure云服务、办公套件、Bing搜索引擎等。
2. 老人陪伴
陪伴老人、病患聊天讲笑话, 这种场景出错也无伤大雅
3. 客服
根据用户的问题或需求,提供相关的服务或解决方案