prompt如何不变成玄学?
让生成结果螺旋起飞的妙计!
第一误区:简短提示词
简短的提示词缺失的是前因后果。没有合理的因,结不出准确的果。我们想创作一个选题,就不能只让他创作选题,这件事是在什么人物身上发生的,是一件具体什么样的事,他有着什么样的社会认知,在这个切面下有什么现象背后的观点?
所有的内容都是一步步铺陈出来的,不是一句话就无因无果创作出来的,提示词工程的基本盘,是给到结果之前合理的推理铺垫。
妙计:做一个内容写几个步骤,每个步骤校对一次结果,在不断的校对中,切中你想要的那个最准确的判断。
第二误区:逻辑是复杂的
AI生成的内容逻辑一点都不复杂,我们的眼光总容易盯着复杂的逻辑觉得模型可能不擅长什么。但逻辑本身是可以通过交叉组合的方式,实现复杂的推导,如果我们让他看见逻辑可以拆成简单的推导过程,模型就会被带到你的轨道上。
妙计:挖掘出所有的可能性,让模型的推理变成堆积木,积木最顶上的内容就是结果,下面的内容全是阶梯。
第三误区:专有名词很好用
专有名词的确能让模型快速进入到某个词库,比如扮演XX专家,但实际上帮助是有限了,结果只能用来做参考。一个人是立体且复杂的,某个专家一定会有失偏颇。
妙计:干脆不要用专有名词,如果你能把这个专有名词,拆成很多标签,然后把标签组合成文字逻辑的文本,你的提示词就会变得更准确。
第四误区:两个极端词交汇
昨天有看到大家用弱智的博士生,或者高素质导师的智力低下学生。这很有趣,而且也只是很有趣。真实的有作用拆解,是给出符合金字塔原理的逻辑和符合由浅入深的语言规律。让我们兴奋的,是进入愿意学习状态的提示词,并不完全是那个结果。
妙计:拆解知识找到最擅长讲知识的那个人,利用他讲知识的逻辑,完成一次更加符合人理解的知识生成。
第五误区:严禁之后为什么还有?
因为模型有自己的程序要求,那个函数被锁定在了大词库中,用严禁是无法规避那个权重较高的大词库的。
妙计:让没有这些内容的文本成为参考,简单易用。减少多轮对话。或者直接上手能累着你啊?
下面给一个我修改后的“背单词”的提示词吧!
在回复中自取.....