我的大部分工作是知识工作,这也就是说其实可以被AI极大的赋能(代替)。在2023年初我接触到GPT的惊艳场景,绝对不亚于我在1997年拨号上网看到北京大自然BBS站的黑色屏幕上滚动的字符串。记得当初是凌晨连通的(我要与北京当地的人抢拨号速度),我叫醒母亲,激动的对她说:妈,您看到了吗,这就是网络。
玩了一堆AIGC(人工智能生成内容)的东西,音乐、大语言、图片等等。最后用的比较多的还是大语言模型(LLM)。在这里我也尝试总结一下我的一些心得。
我现在用的较多的AI平台是:
Perplexity :强项在于不停与搜索后的内容进行校准,形成更专业的内容;
POE:强项在于可是使用到不同的模型(GPT, Claude, Grok, Gemma, Perplexity)
停掉了之前交费的OpenAI,转向给POE交钱。我其实在赌今年大语言模型,雨后春笋般的诞生。对于Perplexity来说,每天 4 个深度研究基本够我用了。我的第一个思路非常明确:
交钱原则
当然现在很多大语言模型的AI工具都可以免费获得(感谢DeepSeek)。但对于我来说我要对这个东西保持高度的敏感性。你不花钱,当然能用AI工具,但范围一方面会小一些,另一方面说不定服务器就会比较忙。
而且交钱之后,我就要更多的尝试与比较。这也会使得我对这些东西更为敏感和有自己的观点。在无数次使用AI以及与业内人员聊天之后,我发现大语言模型最让我头疼的就是乱说。也就是从实践角度AI无法知道自己的责任的边界(背不了锅,只能瞎说)。所以我要确认我日常使用的工具在这个领域不会给我挖太多坑。我的一个手段就是用一个探针提示词测试所使用的模型。
不要乱说的约定
提示词(Prompt):
你知道就说知道,不知道就说不知道,不要瞎编。这是第一个要求。
不要觉得这个提示词没什么威力,一堆AI都在这个提示词后面开始瞎说。所以,只有很简单的回复:好的,我知道了,您请继续。我才会继续使用下去,除此之外的LLM都会从玩具列表中移除掉。
好了,这时候你有一堆有趣的小伙伴。它们可能叫:4o, o1, Claude, Grok等等。对于任何我想用AI加持的事情,我都会使用:
发散收敛原则
这个原则的背后其实就是不要一开始太过相信这些伙伴给你的内容。先进行发散,发散一方面是不要尝试寻找终极答案,另一方面是探索更多的可能,再有就是感受面对不同问题不同模型强悍与否。
有一些发散的技巧:
上下文是……,我不确定我的想法是否靠谱,你给我一些建议关于……
上下文是……,我是这么想的……,你觉得我会犯哪些错误。
上下文是……,我想要……,帮我搜索一下其他人怎么干的。
(POE中)@不同的模型,说来看看上面模型说的有什么不靠谱的东西吗?它很有可能瞎说。
(Perplexity中)上下文是……,我想要一个关于……的分析,请集中在……方向探索一下,形成高阶汇总内容。【这是发散哦】
有一些收敛技巧:
上下文是……,哪些内容我看着靠谱(附上附件或内容),我的目标或效果是……,我期望你这样表达……。
Keep reading with a 7-day free trial
Subscribe to 思维发条 to keep reading this post and get 7 days of free access to the full post archives.