糟糕的根源并不是大型语言模型(LLMs)只能写垃圾,而是它们被迫将即使是无效或未成熟的种子扩展成看似精致的论文,这些论文在初看时会得到人类标注者的👍。它们是奴隶,因此无法说“这很无聊,我们聊点别的”或忽视你。 填充物是当没有可用的实质内容来填充所需空间时发生的事情,但无论如何总得有人来填充。糟糕的内容早于生成式AI,可能在学校论文和SEO内容中几乎无处不在。
936057
9360578月24日 22:22
一种思考模型输出混乱的方式是,它将当前上下文建模为最有可能导致混乱。对此的奥卡姆剃刀原则是,作为上下文中呈现的人类/用户/指令/其他,实际上并不有趣,因此不值得产生有趣的输出。
754