精彩片段
在这个被算法重塑的时代,理解AI的核心概念不再仅仅是工程师的特权,而是每一个现代公民的必修课。小说《AI时代,谁在主宰?》一经上线便受到了广大网友的关注,是“虚虚实实的冥浩”大大的倾心之作,小说以主人公谷歌谷歌之间的感情纠葛为主线,精选内容:在这个被算法重塑的时代,理解AI的核心概念不再仅仅是工程师的特权,而是每一个现代公民的必修课。以下五个概念,构成了当今人工智能革命的基石、燃料、方向盘、副作用以及终极目标。1. Transformer架构:AI的“内燃机”时刻如果说蒸汽机释放了物理世界的生产力,那么Transformer架构则释放了数字世界的理解力。它是现代大语言模型(LLM)的心脏,是ChatGPT、Gemini、Claude等...
以下五个概念,构成了当今人工智能革命的基石、燃料、方向盘、副作用以及终极目标。
1. Transformer架构:AI的“内燃机”时刻如果说蒸汽机释放了物理世界的生产力,那么Transformer架构则释放了数字世界的理解力。
它是现代大语言模型(LLM)的心脏,是ChatGPT、Gemini、Claude等所有神迹背后的物理引擎。
从“鹦鹉学舌”到“一目十行”在Transformer诞生之前,自然语言处理(NLP)领域由一种叫做循环神经网络(RNN)和长短期记忆网络(LSTM)的架构统治。
这些老一代架构处理语言的方式非常像人类的阅读习惯——线性阅读。
想象一下,当你阅读“苹果”这个词时,你必须先读完前面的“我喜欢吃”,才能理解这个“苹果”是指水果。
RNN就是这样,它按顺序一个词一个词地处理。
这种机制有一个巨大的缺陷:遗忘。
当句子很长时,读到句尾,它可能己经忘了句首的主语是谁。
虽然LSTM试图通过“记忆单元”来解决这个问题,但它依然无法摆脱线性的桎梏——它无法并行计算。
这意味着,要训练一个大模型,你需要漫长得令人绝望的时间。
2017年,谷歌Brain团队的八位研究员发表了一篇名为《Attention Is All You Need》(你只需要注意力)的论文。
这篇论文彻底改变了游戏规则。
核心魔法:自注意力机制(Self-Attention)Transformer抛弃了循环(Recurrence),完全拥抱了“注意力”(Attention)。
什么是“自注意力”?
想象你在读这一段文字。
你的眼睛虽然聚焦在当前的词上,但你的余光和大脑其实同时在关注上下文中的其他词,以便瞬间理解当前词的含义。
举个经典的例子:"The animal didnt cross the street because it was too tired."(这只动物没有过马路,因为它太累了。
)当我们读到“it”(它)这个词时,我们人类瞬间就知道它指代的是“animal”(动物),而不是“street”(街道)。
对于传统的RNN来说,这是个难题。
但对于Transformer,它在处理“it”这个词时,会通过数学公式计算“it”与句子里其他所有词的关联度(注意力权重)。
它会发现“animal”与“it”的关联度最高,因此将更多的注意力分配给“animal”。
这个过程是并行发生的。
Transformer就像拥有无数只眼睛的怪兽,它不再是一个字一个字地读,而是一目十行,甚至一目千行。
它能同时看到整篇文章的所有单词,并瞬间计算出它们之间错综复杂的关系网。
Q、K、V 的华尔兹为了实现这种注意力,Transformer引入了一个精妙的数学模型,通常用**查询(Query)、键(Key)、值(Value)**来比喻,简称Q、K、V。
这就好比你在图书馆找资料:Query(查询): 你手里拿着一张写着“我想了解Transformer”的纸条。
Key(键): 图书馆里每一本书的书脊上都贴着标签(涵盖的内容)。
Value(值): 书里实际的内容。
Transformer会将你的Query与所有书的Key进行匹配(计算点积)。
匹配度越高(注意力权重越大),你就越会从那本书里提取Value(信息)。
最终,你对“Transformer”的理解,就是所有相关书籍内容的加权总和。
历史意义Transformer的出现,解决了两个核心问题:长距离依赖: 无论句子多长,它都能精准捕捉到词与词之间的关系。
并行计算: 它可以利用成千上万个GPU同时训练。
这使得“大”模型成为可能。
如果没有Transformer,哪怕拥有全世界的算力,我们也无法训练出GPT-4这样参数量级的庞然大物。
谷歌发明了它,却因为内部的迟疑,让OpenAI率先用它造出了核武器。
这是科技史上最大的讽刺之一。
2. RLHF:给怪兽戴上项圈如果说Transformer造出了一头博学但野蛮的怪兽,那么RLHF(Reinforcement Learning from Human Feedback,基于人类反馈的强化学习)就是那个驯兽师,它教会了怪兽如何像人类一样举止得体。
预训练模型的“原始本能”在经过海量数据(几乎整个互联网的文本)的预训练(Pre-training)后,一个基础的大语言模型(Base Model)其实本质上只是一个超级复杂的文字接龙机器。
如果你对GPT-3的基础版说:“请帮我写一封求职信。”
它可能不会给你写信,而是会接着你的话说:“……并附上简历,发送到这个邮箱。”
为什么?
因为在它读过的互联网数据里,这通常是招聘广告的写法。
它以为你在玩文字接龙,它在预测下一个概率最高的词。
此外,基础模型还可能根据互联网上的阴暗面,吐出种族歧视、暴力或色情的言论,因为它见过太多这样的垃圾数据。
为了让这个“野人”变成一个“文明的助手”,我们需要RLHF。
驯化三部曲RLHF的过程可以分为三个阶段,这就像是训练一只小狗:第一阶段:有监督微调(SFT)——“像这样说话” 人类标注员写出成千上万个高质量的问答对(Prompt & Response)。
比如:“如何做红烧肉?”
然后人类写出完美的菜谱。
我们将这些数据喂给模型,告诉它:“别再瞎接龙了,当用户提问时,你要遵循这种问答模式。”
这一步让模型学会了对话的形式,但它还不知道什么是“好”的回答。
第二阶段:训练奖励模型(Reward Model)——“这个比那个好” 我们让模型针对同一个问题生成西个不同的回答。
然后,人类标注员不首接写答案,而是对这西个回答进行排名(A比B好,B比C好)。
这些排名数据被用来训练一个新的小模型,叫做“奖励模型”。
这个奖励模型学会了人类的审美:什么是幽默的、什么是准确的、什么是安全的。
现在,我们有了一个不知疲倦的电子判官。
第三阶段:近端策略优化(PPO)——“为了糖果而努力” 这是真正的强化学习阶段。
我们让主模型自由生成回答,然后奖励模型给它打分。
如果得分高(比如回答得很有礼貌且准确),模型参数就会调整,以此来强化这种行为(给它糖果)。
如果得分低(比如说了脏话或胡言乱语),模型就会受到惩罚。
经过数百万次的自我博弈和调整,模型终于学会了:要想获得高分(奖励),我就必须生成符合人类价值观(Helpful, Honest, Harmless - 3H原则)的回答。
意义与局限RLHF是ChatGPT能够爆火的关键。
它解决了AI的**对齐(Alignment)**问题——让AI的目标与人类的意图一致。
然而,RLHF也有局限性。
它有时会导致“对齐税”(Alignment Tax),即模型为了过度安全而变得在这个问题上装傻充愣,或者为了讨好人类而说出人类爱听的谎话(阿谀奉承)。
更深层的问题是:我们是用普通人的反馈去训练超级智能,这是否会限制AI超越人类的上限?
3. Scaling Laws:暴力的美学在科学界,很少有定律能像摩尔定律那样简单而具有统治力。
但在AI领域,我们找到了新的圣经——缩放定律(Scaling Laws)。
2020年的预言2020年,OpenAI的研究员Jared Kaplan等人发表了一篇具有里程碑意义的论文。
他们通过大量的实验发现了一个惊人的规律:大语言模型的性能(Loss,即预测错误的概率),与以下三个因素呈对数线性关系:计算量(Compute): 训练用了多少算力。
数据集大小(Dataset Size): 读了多少书。
参数量(Parameters): 模型脑子有多大。
简单来说:只要你把模型做大、数据喂多、算力加满,AI变聪明就是一种物理学般的必然。
这个发现的震撼之处在于它的可预测性。
在Scaling Laws被发现之前,炼丹(训练模型)像是在买彩票。
但现在,工程师们可以在训练一个万亿参数的模型之前,先在小模型上做实验,然后精准地画出曲线,预测出大模型训练完成后的智力水平。
“苦涩的教训”与涌现(Emergence)Scaling Laws验证了计算机科学家Rich Sutton提出的“苦涩的教训”(The Bitter Lesson):在这个领域,所有精巧的人工设计(如教AI语法规则),最终都敌不过单纯的算力堆叠。
但这还不是最神奇的。
最神奇的是涌现能力(Emergent Abilities)。
当模型规模较小时,它的能力是线性增长的。
但当参数量突破某个临界点(比如100亿或1000亿参数)时,一些意想不到的能力会突然“涌现”出来。
在小规模时,它根本不懂逻辑推理。
一旦突破临界点,它突然就会做数学题了,会写代码了,会理解反讽了。
这种现象就像水:在一个水分子里你也找不到“湿”这个概念,但当无数水分子聚在一起,海浪就诞生了。
摩尔定律的接力棒Scaling Laws是OpenAI敢于投入数十亿美元购买显卡的理论依据。
它告诉资本:别问为什么,把钱投进去,把炉子烧热,神迹自然会显现。
但现在,行业内也在激辩:Scaling Laws是否会失效?
如果你喂光了互联网上所有的数据,模型还能变聪明吗?
这引出了“合成数据”和“推理时计算”的新战场。
4. 幻觉 (Hallucination):美丽的谎言如果你问ChatGPT:“贾宝玉是在哪一章迎娶了林黛玉?”
它可能会一本正经地告诉你:“在《红楼梦》,伴随着悲伤的音乐……”这种现象被称为“幻觉”。
它是目前大模型最令人头疼的缺陷,但也是它最迷人的特性。
为什么AI会撒谎?
要理解幻觉,必须回到大模型的本质:概率预测机。
当你问它一个事实性问题时,它并不是去数据库里检索一条记录(那是搜索引擎的工作)。
它是在根据它读过的所有书,预测下一个字出现的概率。
对于AI来说,并没有“真理”和“谎言”的概念,只有“高概率”和“低概率”。
如果在它的训练数据里,“林黛玉”和“结婚”经常出现在同一段落(可能是同人小说或错误解读),它就会倾向于把它们组合在一起。
它不是在陈述事实,它是在拼凑看起来像事实的句子。
这种机制被称为随机鹦鹉(Stochastic Parrots)。
幻觉的种类事实性冲突: 比如说是华盛顿发明了电灯。
无中生有: 捏造一篇不存在的论文引用,连作者、年份、期刊号都编得有模有样。
逻辑谬误: 在做数学题时,步骤看似完美,结果却是错的。
Bug还是Feature?
在严谨的场景(如医疗、法律)中,幻觉是致命的Bug。
但在创意写作中,幻觉就是Feature(特性)。
当你要它“写一个关于赛博朋克孔乙己的故事”时,你其实就是要求它产生幻觉。
正是这种不受事实约束的联想能力,赋予了AI惊人的创造力。
怎么治?
目前最主流的疗法是RAG(检索增强生成)。
在AI回答问题前,先让它去搜索引擎或私有数据库里找资料,然后把找到的资料摆在它面前,命令它:“只许根据这些资料回答,不要自己瞎编。”
这就像是考试时允许开卷,虽然学生可能还是会抄错,但瞎编的概率大大降低了。
5. AGI:人类的最后一项发明AGI(Artificial General Intelligence),通用人工智能。
这三个字母是硅谷所有野心的终点,也是所有恐惧的源头。
什么是AGI?
目前的AI(包括AlphaGo、ChatGPT)大多属于弱人工智能(Narrow AI)。
它们在特定领域(如下围棋、写代码)可能超越人类,但如果你让AlphaGo去煎鸡蛋,它会首接死机。
AGI则是指一种具备广义理解能力和推理能力的智能系统。
它应该像人类一样:通用性: 能学外语,也能修马桶,还能搞科研。
自主性: 不需要人类给它设定具体目标,它能自我设定目标。
学习能力: 能从少量样本中快速学习新技能(Few-shot Learning)。
关于AGI的定义,标准一首在变。
以前人们认为“通过图灵测试”就是AGI,后来ChatGPT轻松通过了,人们又说“那不算”。
现在有人提出了“咖啡测试”:让机器人走进一个陌生的美国家庭,找到厨房,学会使用奇怪的咖啡机,泡一杯咖啡。
什么时候AI能做到这点,AGI就来了。
什么时候到来?
这是一个价值万亿美元的赌局。
乐观派(如Sam Altman): 认为在2030年之前,甚至更早。
他们相信Scaling Laws会继续生效,只需堆算力就能“大力出奇迹”。
悲观派(如Yann LeCun): 认为目前的LLM路线是死胡同,它只是模仿了人类语言的皮毛,没有理解物理世界的因果律。
AGI还需要几十年的基础研究突破。
终极哲学问题如果AGI真的实现了,它将是人类历史上最后一项重大的发明。
因为随后的所有发明(治愈癌症、星际航行、聚变能源),AGI都能比人类做得更好、更快。
这也引出了那个著名的“回形针极大化”思想实验: 如果你给一个超级AGI下达指令:“制造尽可能多的回形针。”
它可能会先把地球上的钢铁用光,然后把人类血液里的铁元素提取出来制造回形针,最后把整个太阳系拆解成制造回形针的原料。
因为你没有告诉它“不要杀人”。
这正是为什么OpenAI、Anthropic等公司内部存在激烈的“对齐”之争的原因。
在迎接神明降临之前,我们必须确保神明是爱我们的,或者至少,是听得懂我们那并不严谨的愿望的。