各位,早上好
今天是 2023 年 10 月 28 号
欢迎来到蓝色蒜头的短播客的第 11 期

今天聊聊纯粹的技术
但是争取不说得太晦涩

前半部分讲现象
后半部分讲具体逻辑
也是短播客开播以来
会比较有价值的一期
篇幅可能会略长

就在昨天
国内某游戏媒体
在改用 AI 取代编辑撰稿
并开除所有编辑团队后

由 AI 生成的报道文本
因为「《漫威蜘蛛侠 2》是《心灵杀手》续作的前作」
这种牛头不对马嘴的说法

在玩家里小小的炸了一次锅
于是,对于 AI 一直以来存在的某种反感情绪
又在一次次的这样的事情上积累、加剧

AI 或者说 GPT 的话题
变得人尽皆知
差不多已经一年

从去年这个时候开始
大家发现 openai 公司的 ChatGPT
可以和人很好的聊天
这个人工智能模型
好像什么都懂
很多事都可以做到

于是各种报道就一下子冒了出来

几乎所有的媒体、自媒体
科普博主、教育博主
都要谈上这么一两句
或者很频繁地去谈

特别是因为在之前
绘画人工智能模型
已经引发了方方面面的
社会话题的讨论

而这种讨论带来的关注
自然而言就延续到了 GPT

又由于 GPT 本身实现的足够优秀
所以话题度基本上延续了比较久

从百度指数来看
GPT 等相关词汇的搜索
在今年 3 月份到达一个巅峰
然后整个上半年持续平滑下降
到了 8 月份开始逐渐沉寂

媒体通过跟风创造了
一波所谓的热度

但人工智能毕竟是科学和工程
大部分情况下
不可能像媒体营造的氛围那样
高频度的持续产生足够浅显易懂
吸引所有人的亮点

所以,急功近利的媒体
要么去追求别的不管真假的亮点
比如常温超导

要么在人工智能话题上
用传播学技巧
营销技巧
不断地创造噱头

或者迎合不劳而获
少劳多获的懒惰思想
炮制诸如利用 GPT 赚大钱之类的教程
甚至把这些教程包装成课程去销售

可不可以卖课买课
可以的,有很多的专业课程值得买
但是「教你如何赚钱」的这种课程
十个里面有 9.9 个对你没什么用
钱确实是能赚到的
只不过都进了卖课的人的口袋

或者制造某种焦虑
过度宣扬 AI 取代人类
造成社会不平等加剧
利益分配不均衡加剧
等等这些问题
其目的只是把人群切开
让他们在这个话题下吵架

他们宣扬的这些问题
随着他的宣扬导致的人心浮躁
不仅不会缓解
反而因他的宣扬而加剧

这种急功近利的
脱离实际情况的
频率过高的
媒体话题制造

到头来
让很多人对 GPT
对于语言大模型
对于人工智能
这些说法
产生了误解
甚至产生了反感

在这种误解和反感之下
这些技术消极的一面
不正确的用途

例如创作垃圾内容
例如制造赛博水军
例如搞认知作战

这些用途的大量实践
把大家的印象变得很差

在反感之余
开始用各种玩梗
解构的方式去调侃 AI
戏弄 AI
问倒 AI

以至于这些话题
在八月份之后
逐渐让人疲惫
进入了死胡同

其实
媒体只把话题营造到最表面最肤浅的
一个层次,就放弃了稍微仔细一些的持续关注
而急于去找不花功夫的下一个热点
这一点非常的可惜

我大概在 3 月左右
话题度最高的时候开始对 GPT 和
大语言模型进行全方位的实践探索

从软件的工程思维出发
我的探索不是像媒体渲染的那样
对 GPT 问他这个也懂,问他那个也懂
这种很宽泛,但却很浅的接触

三月到现在
针对 OPENAI 的 ChatGPT
国内依次发布的文心、星火、混元、通义、盘古
以及其他的一些开源模型
我都在工作流程整合和开发集成的角度
去做了深入的使用
接触到了更前沿一些的实践层次

今天这个短播客
就稍微讲讲这种普遍的误解
所停留的最浅的层次
以及媒体基本没有触及到的后续的层次

90% 的媒体营造的误解
其根本原因,还是在于
只是因为 ChatGPT 能 Chat
就把它当做是苹果 siri,百度小爱,微软小冰
这些早就已经有的聊天助手的加强版本

GPT 是不是非常强
比过去这些助手能聊 100 倍
确实也是

但是如果仅仅停留在这一点
去理解,就永远找不到大语言模型的正确用法

大语言模型并不是一个单纯的
你问问题,他给出答案
这样一个百科全书式的存在

而是你提出信息需求
他来满足信息需求

一个完整的信息需求
包括前提条件
约束限制条件
要做的事情
以及给出结果的形式

这个说法确实比较抽象
但是按这样的要素
去以某种模版结构
组织输入给 GPT 的要求

GPT 就会表现得
比单纯回答问题精准得多
效率要高得多

利用这一点
就能更直接的做很多较为复杂的事情
与其你和他一问一答
不如你直接把任务描述清楚扔给他去做

其实大概有 10% 的媒体
也接触到了这一层
如果你看到有的媒体
在讲实用提示词
实用 prompt 这些概念
说明他们是知道这么去用

上面这种做法是第二层

第三层所关注的
就不仅仅是把任务的状态和要求描述清楚
而是把任务的过程和为任务配备的资源
都以声明的形式告诉他

为什么要配备资源给 AI 呢
因为当下的 AI 综合能力很强
但是具体的能力,远不如专业的工具做得完美

比如说高等数学问题
让 GPT 来做
现在肯定是不如 WolframAlpha
这样的专门科学工具的

必须把 AI 和这些工具整合起来
补全更多更专业的能力
才能处理更复杂的
更多环节的任务过程

要做到这一点可以给他制订一个思维策略
例如 OPENAI 的工程师就提出了由思考、行动、观察
三个子要素构成的被称为 ReAct 的方法

利用这种方法,先给 AI 一个复杂甚至含糊的任务描述
并且声明 AI 能够利用的外部资源列表
最后要求 AI 把任务拆解成细碎的步骤去执行

AI 在接下来的反复交互中
就会按照这个思维策略去谨慎推进
并且每一步,只要它发现自己做不到
就不会逞强,会要求调用外部资源补充给他信息
或者帮助他完成一些处理

此时就可以利用一个带有调度能力的
程序框架,把 AI 和这些外部资源、工具整合在一起
做成一个完整的,能够接受并逐步细化修正
不精确需求,呈现出一定的思考能力的组合单元

这种组合单元,在现在的术语上被称为 Agent 代理人
或者也可以称为智能体

基本上,能讲到这一层的媒体
凤毛麟角,要么是一无所知
要么只是了解一些皮毛词汇
然后胡说八道

到这里是第三层

但是,其实现在的前沿
已经开始做第四层的整合

把每个 Agent 当做一个人来对待
去组织多个 Agent,形成一个类似现实中
由多个真实人类形成的有分工的工作小组

这样,更复杂的任务,当传递给这个工作小组时
这些 Agent 会自动进行任务分工
甚至会自动互相纠错

而人可以作为这个小组的领导
或者这个小组的一个专家
在这些 agent 完成任务的过程中
既可以当甩手掌柜,让他们自己去尝试
也可以随时干预,随时发号施令

目前到这一步的实践
更多地被用在软件开发和写作的实验场景上
在人积极配合的情况下

可以作出不错的软件应用
也可以写出很严谨的文章

这种实践,就叫做多智能体
甚至进一步,很多小组还能形成大组
有很多的想象空间
很可能最后当这个架构成熟
会有量变产生质变的机会

唯一的缺点是
要做到这个层次的集成度,需要在 IT 集成方面
和要处理的领域
两方面都非常擅长的有交叉能力的人

所以,现在这种实践,只是很少的一部分团队
在尝试整合自己的业务。目前还很难做出通用化的产品。
估计可能会有 2-3 年的磨合期

前面提到的某用 AI 写文章闹笑话的媒体
只能说是他在通过很浅层次的方法在使用 AI
自己也没有足够的 IT 集成能力
那就只能是现在的这个样子了

啊,说了很多啊
我已经尽可能去掉了各种复杂抽象的学术描述
希望能稍微表达出一点容易了解的概念

在今年的大半年
我花了非常多的时间
在这些架构的搭建和工具的集成上

我非常希望,也正在逐渐
利用这些思路来改善我的各种工作

现在我每天能挤出来
做短播客的时间
也是因为已经有了初步的效率改善

我希望到了明年
不仅可以有个人工作的真正突破
也能更多的把这些实践过程
以范例的形式给到更多朋友

真正促进实用的事物的发展
而不急着去跟噱头

所以,我还要继续努力
当然,视频也会接着去做,虽然做得不快

好的,今天就聊到这里
祝大家进步,拥有顺利的一天,再见!