Un ensemble de modèles vraiment intéressants pour l'edge a été publié cette semaine - Jan sort un modèle de 4B optimisé pour exécuter des tâches agentiques localement - surpassant Perplexity Pro sur plusieurs évaluations - LiquidAI sort des modèles multimodaux pour texte+image avec des versions de 450M et 1,6B optimisées pour une faible latence
👋 Jan
👋 Jan12 août, 15:55
Introducing Jan-v1: 4B model for web search, an open-source alternative to Perplexity Pro. In our evals, Jan v1 delivers 91% SimpleQA accuracy, slightly outperforming Perplexity Pro while running fully locally. Use cases: - Web search - Deep Research Built on the new version of Qwen's Qwen3-4B-Thinking (up to 256k context length), fine-tuned for reasoning and tool use in Jan. You can run the model in Jan, llama.cpp, or vLLM. To enable search in Jan, go to Settings → Experimental Features → On, then Settings → MCP Servers → enable a search-related MCP such as Serper. Use the model: - Jan-v1-4B: - Jan-v1-4B-GGUF: Credit to the @Alibaba_Qwen team for Qwen3 4B Thinking & @ggerganov for llama.cpp.
10,86K