Een set echt mooie modellen voor de edge is deze week uitgebracht - Jan brengt een 4B-model uit dat geoptimaliseerd is voor het lokaal uitvoeren van agentische taken - overtreft Perplexity Pro op verschillende evaluaties - LiquidAI brengt multimodale modellen uit voor tekst+afbeelding met een 450M en een 1.6B versie, geoptimaliseerd voor lage latentie
👋 Jan
👋 Jan12 aug, 15:55
Introducing Jan-v1: 4B model for web search, an open-source alternative to Perplexity Pro. In our evals, Jan v1 delivers 91% SimpleQA accuracy, slightly outperforming Perplexity Pro while running fully locally. Use cases: - Web search - Deep Research Built on the new version of Qwen's Qwen3-4B-Thinking (up to 256k context length), fine-tuned for reasoning and tool use in Jan. You can run the model in Jan, llama.cpp, or vLLM. To enable search in Jan, go to Settings → Experimental Features → On, then Settings → MCP Servers → enable a search-related MCP such as Serper. Use the model: - Jan-v1-4B: - Jan-v1-4B-GGUF: Credit to the @Alibaba_Qwen team for Qwen3 4B Thinking & @ggerganov for llama.cpp.
10,86K