热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
我注意到,由于(我想?)在长期任务上进行大量基准最大化,LLM(大型语言模型)默认变得有点过于自主,超出了我平均的使用案例。
例如在编码方面,这些模型现在倾向于推理相当长的时间,它们有倾向于开始列出和搜索整个代码库中的文件,它们进行重复的网络搜索,过度分析和过度思考一些即使在已知不完整和正在积极开发的代码中的小罕见边缘情况,通常即使是简单的查询也会在几分钟后才返回。
这可能对长期运行的任务有意义,但对于我仍然做很多的“在循环中”的迭代开发来说,或者如果我只是想在运行脚本之前进行快速检查,以防我在索引上出错或犯了一些愚蠢的错误,这就不太合适。因此,我发现自己经常用“停下,你想得太多了。只看这个单一文件。不要使用任何工具。不要过度设计”等变体来停止LLM。
基本上,随着默认设置慢慢渗入“超思考”超级自主模式,我感到需要相反的东西,更普遍地说,需要好的方式来指示或传达意图/风险,从“只需快速查看”到“离开30分钟,绝对确定后再回来”。
125.77K
热门
排行
收藏