我带着AI如何工作?
工作多忙不过来时,只能找AI帮我干活儿。
这种选择挺享受,它能提高效率,也有人吐槽我说,我太懒,现在科技发展快速,适当用一些工具蛮有必要的。
你也用过像文心一言、天工、KIKi Chat、腾讯混元这样的大型模型。之后会发现,给出答案比较傻,不够聪明的样子。我觉得不是AI的错,都几百亿参数了,是你不会用。
大家怎么用的呢?举个例子:
一般拿到一个带有对话框的AI大模型,第一个请求是,“帮我写一个小红书种草、大众点评”文案,这种看似直接而具体的请求,帮助不大。
为什么?因为AI大模型有庞大基础数据,但它生成的能力都受限于具体背景之下,所以,你在没有任何背景信息给到它时,只能基于百亿数据中的通用场景,给你答案。
01
要用好大模型,首先要明白Prompt。
中文中叫法比较多,有人说是命令、关键词、魔法咒语,我喜欢叫它对话框。在我看来Prompt像一个嘴巴,与人对话的嘴巴,你想要从它那里拿到什么,就要给它什么。
比如说:
想让AI帮你画画,得告诉它“熊猫、可爱的、水墨风”,画的不像再加点“胖乎乎,正在吃竹子”,你想让AI帮你写个写故事,就得输入风格、什么类型,多少字。
这不难理解,用AI像丢线索,根据你给的线索和它以前学的东西,给你回答。懂得怎么用Prompt,AI才能更准确地搞懂你想要什么。
提示词这活儿看起来也不难,都是日常话。百度创始人李彦宏和open AI创始人Sam对提示词理解都一样,说,你要条理,有结构、举例子、讲知识点,引导它思考。
如果你要在网上搜索关于Prompt的文章,会发现,这些内容大多给你一些现成模板,很少讲到一些通用或深层次改进方法。为什么会这样?
一方面,Prompt优化领域比较新,尤其在细分场景下,大家还在摸索中。另一方面,直接给出现成Prompt更符合快速阅读习惯,毕竟谁都希望快速找到想到的东西。
假设只聊提示词,就没意思了,所以,我想结合自己使用习惯,聊一些更深度的。在整个Prompt对话中,对话分为六种分类:
零样本(Zero-shot learning)像教一个孩子识别动物,不给它看每一种动物,它也能识别大概。
类似于,你教会孩子什么是猫狗、让他认识这些动物特征,即使你没教他什么是象,当它看到一只象时,也会根据之前已有的知识,比如,四条腿、大耳朵、长鼻子,来判断可能是一种大型动物。
市面大模型,通常不被定义成零样本。
它们有零样本学习的能力,好比一个人读过很多书,虽然他没有研究过什么是社会心理学,由于他阅读比较广泛,遇到新问题时,也会利用已有的知识给出合理答案。
02
我对少样本(Few-shot learning)的理解是:像教一个孩子学自行车,只给他很少的练习机会,这个孩子需要在这几次练习中迅速掌握如何保持平衡和控制自行车的技巧。
同样,AI领域,少样本意思是,我们向AI提供一些内容,让它快速学会识别你表达的意思。比如,我想让AI给出一个PPT框架,我只有一些背景信息和想法作为训练材料,给到它,它会给出基础答案。
这就解释了,为什么市面那么多预设好的模板式Prompt。
因为大模型已经接受过大量数据训练,变得相对聪明,能根据你提供的基础信息给出答案。也意味着,当你让它进行文本处理、逻辑推理时,不需要准备太多额外材料,它就能处理。
如果效果未达预期,你要增加一些样本、示例、演示,以帮助它更好的理解任务要求。在大模型领域会把示例称之为1-shot。
按照技术语言说,1-shot等于一个单例学习(One-shot learning)。也就是,AI通过一个示例(一个数据点或一个样本)来学习执行某项任务。
比如,你教孩子认识动物。
在1-shot情况下,给孩子展示一张狮子照片,并告诉他是狮子。然后,当孩子以后再遇到其他狮子(无论是玩具狮子、动画里的狮子、还是书上的狮子图片),他应该能够认出那也是狮子。
如果它认不出来,这时,得给它更多相似的照片,于是就有了3-shot、5-shot。我总结下来,想让任何一个带Prompt的AI给出少样本答案,有两种通用办法:
(1)把需求说完法
比如,我服务一些甲方客户,经常要写brief。
我的对话会是这样,“我是一名营销专家,现在要做茶饮推广,要一个完整小红书营销框架,里面包括市场竞品分析、用户画像分析,渠道建议,预算分配、预期结果,我的预算在20万以内,推广时间是1个月,你跟我拆分下”。
这种提问,一次把所有相关信息、具体需求都给它,它能提供一个全面的框架,特别适合时间紧迫,已经非常清楚自己的需求时使用。
值得注意的是,当AI给你框架后,不符合预期怎么办?这时,就要分阶段优化。
比如,当AI给我提供市场分析时,没有背景信息,那我就会给它补充1-shot背景信息(公司介绍、产品特点)帮主它更好理解情景。
提供这些信息后,别忘了,让它记住这些背景资料,然后,再次请求它进行市场分析。这样,AI能够更全面,生成更符合你的答案。
(2)六步层次法
简单讲:问得清楚、慢慢调整问题、告诉它你想要什么样的答案、一步一步来、用关键词、给我反馈,不行在试试。
举个如何提高工作效率的例子。假设你上来说,“如何提高工作效率”,那它给你的答案很通用,怎么办?这时,要调整为,我是一名程序员,每天敲代码、开会,请给我建议。
得到答案还不满意,可以进一步指定,类似于,请以列表形式、给出具体步骤或技巧。这些技巧还不能满足预期怎么办?我就会增加难度的说,你从认知心理学视角,给我建议。
所以,一轮又一轮,不断交互用关键词,不行再试试的方法持续迭代,能让AI更精准的回答你的问题。
两种方法我比较喜欢第一个,一次性说完再补充。另外我有个习惯,会让它扮演「提问助手」,让它帮我写提示词,用它给的提示词,问问题,这招挺有意思。
不过记住,它给出的答案只能作为参考,用时,还要谨慎;类似,当涉及到市场分析,应当坚持以事实、数据为依据,避免它的主观臆断、无根据推理。
03
比起少样本,更深层次是思维链(Chain of Thought)。
大白话来说,当我要解决一个复杂问题,不是直接跳到答案处,而是一步一步,用逻辑推理方式,把思考过程输入给它。
AI领域,特别处理复杂问题,或深度推理的任务时,思维链可以让AI模型阐述出它的「思考过程」,好比一个人在解数学题时,不仅给出答案,还要写出解决问题的各步骤,说明怎么算出来的。
用它的方法和少样本有区别。
少样本有点一层层剥洋葱的感觉,它通过我的例子,理解我要表达的意思,快速适应我的任务,这个方式适用于我的数据(内容)很少,而思维链是先直接定义问题,然后逐步拆解。
举个例子:
我是一家餐厅老板,我想分析客户评论。这种情况下,我把我有的评论都给它,它能快速学习,并识别出满意度、常见的投诉、建议。
也就是,信息量不大,AI也能深入挖掘这些评论的意思,提取出有用的见解,帮我理解客户们的感受。
思维链不同。
比如,我给AI一本电子书《原则》,我的目的从中提取对餐厅经营有用的核心原则,那么,这种情况下,AI的方法是,它会分析这本书写的什么,识别出与业务相关、服务相关的关键原则。
然后,它会展示出,它的思考过程。比如,如果将这些原则应用到你的餐厅中、预期效果会如何,整个过程不仅包括对书里概念的解读,还包括,怎么将理论转化成实践的步骤。
之前,我曾说我电脑里电子书特别多。怎么用的呢?
假设我想写一篇关于「认知心理学」方面的内容,现在要找到关于”认知偏差、记忆”方面的概念,为了收集相关信息、观点,我会把电子书作为资源。
首先,我把电子书给到AI,接着,我会向AI提出一个要求,比如:就这本书内容,你能帮我找找关于认知偏差、记忆方面的重要概念、理论、研究成果吗?请关注那些可以用在决策过程中的信息。
利用思维链方法,AI会做这三步:
整个过程你可能看不见,AI会从电子书中筛选出和我指令相似的章节、段落,集中分析后,将这部分理论在哪一页给到我,最后会附上一些建议。
它特别适合HR使用,如果你每天要看几十份简历,最简单的办法是,把所有简历下载下来,全部给它,然后对着它提问,让它从年龄、学历、项目成果逐个帮你筛选。
读书也一样,给到它直接提问。
我经常提到,中国人和西方人在思维方式上有很大区别。中国人倾向于关注“是什么”,比如,拿一本书,会从头到尾认真读完,每个字都想不错过。
西方孩子则不太一样,他们更喜欢问“为什么”,会先思考这本书在写什么,想解决什么样的问题。这种思维方式上的差异,跟教育、环境有很大的关系。
写作也是同样的道理。
很多人写文章,一开始想文章的结构应该怎样,要表达什么,但却忽略一个更重要的问题:我为什么要写这个话题?通过话题反映什么问题,解决什么问题?如果你能先明确问题,找答案会容易多了。
此类思维后天也可以培养,
我有一个方法用了多年,那就是「黄金圈思维(Golden Circle Thinking)」简单讲:为什么(Why),怎么做(How)做什么(What),把为什么放前面。
话说回来,知道AI思维链工作的方式,日常怎么用呢?你可以试试我的三步走:
比如,我想让AI帮我回答「如何减少家庭能源消耗」问题,但我不希望得到很笼统答案,我会在它第一轮回答后说,你给的答案太宽泛。
然后,我给你一些具体节能措施、最新学术研究报告。基于这些信息,你能给出建议吗?这时,它会给你提出具体的方法,并把分析过程给你。
如果直接给你结论,缺少了过程,你可以要求它按照因为、所以、结构化表达出来;最后,你根据建议调整方法,实现想要的结果。
简单讲,思维链是提问-给大量内容学习-基于内容要答案。
04
完全监督(Fully Supervised),像给AI上一堂明确答案的课。这个训练中,给它展示很多例子,并且,每个例子都明确告诉它,这是什么、对错、好坏。
好比学校里,老师给我们上课,会明确地告诉你,每个问题的正确答案。
我们用大模型要记住,它不是完美的,虽然受到平台监督,但说的也不一定全对,因为这些答案是批量训练出来的,数据会存在一些偏见。
我记得之前有人用文心一言的AI模型来测试,问它,“李彦宏是不是资本家?”,它回答“不是”,但当问“马云是不是资本家?”时,它却说“是”。
如果不是技术工程师,日常应该不会直接用到「完全监督」模型,我只想告诉你,了解基本原理和局限性,对我们有益,尤其涉及细分领域,特别专业的内容上。
比如,律师条例,股票分析。
模型会因为训练的局限性,缺乏上下文理解不够,提供不准确的信息,它的回答还会让你毫无察觉。
国内大模型,几乎测试过来了一遍,我发现好多属于鱼型容易忘事,你给它很多内容,有了上文,没下文,要么,有了下文,问上文内容时早就丢完了。
这意味着,这些模型处理某些特定任务时,给的框架还行,但在复杂情境中,表现就一般了。
细化提示(Fine-Tuned Prompting),我理解的是,像给一个已经学了很多东西的学生补习课,让他在某个特定科目上更擅长。
比如,一个AI模型,已经学很多互联网上的文本,但,如果你想让它更擅长处理法律文档、医学论文,得给它更多这方面的信息,让它在这些特定领域变得更聪明。
从日常角度,用到的地方不会太多,充其量就在做PPT、写文章、搞内容创作时。准确来说,那也不叫细化提示,应该称之为“训练指令”,所以,“细化提示”指更底层的模型训练。
元学习和模型迁移(Meta-Learning or Model Transfer)个人层面,国内用到更少。前者像教一个人如何快读学习东西,掌握学习背后的方法论,后者,就是把你训练出来的模型,用到另一个任务上。
类似于,从企业角度,一个原型原来可以识别图片,现在你用它可以做音频。
我唯一一次独特体验是,花了一天时间,把自己写过的所有文章,都给到AI,然后,让它总结我思考问题的方式、语言风格,表达习惯、最后想看看到到底什么样,结果,崩了。
所以,如果你日常想使用AI处理一些PPT、文档、Excel什么的,知道它的基础原理,掌握少样本、思维链,比整理一大堆Prompt强多了。
值得一提的是,任何一个带Prompt(对话框)的AI,都可以做以上操作,也不用局限于用一大堆AI产品。换句话说,把对话框当成数字人,你想要什么,就给什么,问什么。
总结而言
AI,绝对脑力助手,能否有效地使用AI,并不完全取决于选择产品有多先进,关键你的思考方式是不是变了。用旧思维体验新产品,如同,走老路,永远到不了新地方一样。
相关文章:
相关推荐: