GPT-5 wurde damit beworben, Halluzinationen zu reduzieren, und es scheint, als ob es hält. 99,5 -> 99,9 sind 80 % weniger Fehler. Ich weiß nicht, warum die Leute keine größere Sache daraus machen. Halluzinationen sind eines der größten Probleme von LLMs und einige dachten, sie seien unlösbar.
OpenRouter
OpenRouter15. Aug., 00:29
After one week, GPT-5 has topped our proprietary model charts for tool calling accuracy🥇 In second is Claude 4.1 Opus, at 99.5% Details 👇
135,49K