Sarja todella mukavia malleja reunalle julkaistiin tällä viikolla - Jan julkaisee 4B-mallin, joka on optimoitu agenttitehtävien suorittamiseen paikallisesti - päihittää Perplexity Pron useissa evaleissa. - LiquidAI julkaisee multimodaalisia malleja teksti+kuvalle 450M- ja 1.6B-versioilla, jotka on optimoitu matalalle latenssille
👋 Jan
👋 Jan12.8. klo 15.55
Esittelyssä Jan-v1: 4B-malli verkkohakuun, avoimen lähdekoodin vaihtoehto Perplexity Prolle. Evaleissamme Jan v1 tarjoaa 91 % SimpleQA-tarkkuuden, mikä on hieman parempi kuin Perplexity Pro toimiessaan täysin paikallisesti. Käyttötapaukset: - Web-haku - Syvällinen tutkimus Rakennettu Qwenin Qwen3-4B-Thinkingin uudelle versiolle (jopa 256k kontekstin pituus), hienosäädetty päättelyyn ja työkalujen käyttöön tammikuussa. Voit suorittaa mallin tammikuussa, llama.cpp tai vLLM:ssä. Ota haku käyttöön tammikuussa siirtymällä kohtaan Asetukset → Kokeelliset ominaisuudet → Päällä ja sitten Asetukset → MCP-palvelimet → ota käyttöön hakuun liittyvä MCP, kuten Serper. Käytä mallia: - Tammikuu v1-4B: - Jan-v1-4B-GGUF: Kiitos @Alibaba_Qwen tiimille Qwen3 4B Thinkingistä ja @ggerganov llama.cpp.
10,85K