一. 让AI选定角色后再回答
我们都知道,给AI设定具体的角色,是有用的。
在对要提问的问题非常清楚的情况下,可以直接设定角色,而且这个角色越具体越真实,其实效果就越好,这个我们已经见过很多很多了。
比如你设定乔布斯的角色,很多时候,就比一个10年的产品经理这种角色,来的更加有奇效。
但,很多时候,其实你根本不知道,给你要提问的问题,设定什么样的角色更适合,这时候,你也没必要自己憋,直接让AI给你选嘛。
也就是这个心法,让AI选定具体角色以后,再进行回答。
这个Prompt,我随手写了一个模板,大家也可以直接拿去用。
Prompt:
我想探讨【领域】里的【问题类型/场景】。
先别回答。
请你先选一位最适合的领域顶尖名人专家来思考它。
可以是活人或历史人物,名字可以小众,但必须在该细分领域很专业。
如果你不确定该选谁,可以先反问我2个定位问题再选。
二. 给答案前先让AI追问
这个心法也叫苏格拉底式追问。
我们日常生活中,如果你让朋友或者让老师,帮你进行一些决策,在你说完第一轮信息之后,他们一定都会再追问你一些更细节的信息,从而能给你更棒的回答。
但是如果我们请求AI去做一个事或者回答一个问题,它其实并不会这样,你给什么样的信息,它就会生产什么样的回答,核心原因其实还是上下文和你的背景信息给的不够。
但是我们很多时候,并没有那个意识,甚至我们自己都忘了要给这一趴。
所以这个时候,其实完全也可以靠AI来帮忙。
Prompt:
【你的问题/需求】
请你在回答前,先问我问题。
要求:
一次只问一个问题。
根据我的回答,继续追问。
直到你有95%的信心理解我的真实需求和目标。
然后才给出方案
三. 与AI辩论
这条心法的核心,其实就是让AI不要那么的舔狗。
因为AI的谄媚效应实在太强了,在你没有刻意引导的情况下,会经常顺着你说,导致很多的问题,你没有办法对自己进行客观的判断。
我当时是要去做一个分享,有一个自己的观点,我怕我思考的不完善,会闹笑话,于是希望AI来跟我辩论,帮我进行补全。
我当时的Prompt攻击性还挺强的,是这样的:
Prompt:
我马上要参加一场辩论赛,会有很多人来挑战我的观点。
我的观点是【观点】
我希望这个理论必须变得无懈可击。
如果你是一个学者,你需要用尽一切论据、细节和逻辑,来挑战我、反驳我。
你的唯一目标,就是证明我是错的。
你会怎么反驳呢?
当然思路都差不多,这玩意不需要背下来,简化版的也行。
Prompt:
【我的想法/观点】
请你现在扮演一个”反对者角色”,从不同角度攻击我的想法,帮我完善我的观点。
要求:不用客气,直接指出漏洞。
四. 让AI提前预演失败
我们人做计划的时候就很容易热血,AI做计划的时候也容易乐观。
这俩凑一块,经常会很容易搞出那种听起来很燃但是落地全靠命的方案。
所以呢,我自己很喜欢在一些计划或者方案开始前,先做一次“预演失败”。
其实有点像影视行业的Previz,在正式开拍前先搞个预演踩踩坑。
我自己的Prompt模板也挺简单的:
【我的项目/想法】
请假设这个项目到时候失败了拉了大跨。
然后回答:
什么时间点开始出现衰退信号?
最致命的决策错误是什么?
你忽视的核心风险是什么?
如果能重来,第一个应该改的是什么?
要求:写一篇”失败复盘文章”,要基于真实的类似项目失败案例。
五. 反向提示
这个就比较简单了。
就是有些时候,你根本不知道怎么问,你只知道你想要什么样的结果。
比如你看到一篇很牛的文案,或者很牛逼的图,你想要同样的结构和节奏,可你说不出来。
那就把成品给它,让它倒推提示词。
很多人也都分享过这样的技巧。
现在模型都是多模态,思考链也比较牛逼,所以这种反向提示的Prompt,其实也可以写的非常简单。
我最常用的就是一句大道至简的话。
Prompt:
这是我想要的成品范例。
请你倒推一个提示词,让我用它能稳定生成同风格的内容。
六. 双层解释法
双层解释法,是我日常学习过程中也用的蛮多的一个方法。
就是我们平时用AI了解一些我们不熟悉的领域,或者不太懂的名词,很多时候,大家都会用我是一个六年级小学生,请用我听得懂的方式来给我解释。
这个方法当然有用,能让你最快速度了解大概是个啥,但是其实并不是特别利于后续的学习。
所以我一般,会让他直接出两个版本,一个版本就是初学者版本,能用最快的类比,让没有基础的我也能通俗易懂的理解。
另一个版本就是更为专业的版本,跟初学者版本进行对照学习,如果中间有不懂的地方,继续用双层解释法向下挖掘。
Prompt模板也特别简单:
请帮我解释一下【你的问题】。
请用两种方式进行回答:
1. 初学者版本:面向对象是洗脚城的大爷,用大爷也能听得懂的话语为他进行详细解释。
2. 深度专业版本: 面向对象是专业人群,一定不能出现事实错误。