トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
今週リリースされたエッジ用の本当に素敵なモデルのセット
- Jan は、エージェント タスクをローカルで実行するために最適化された 4B モデルをリリースしました - いくつかの評価で Perplexity Pro を上回るパフォーマンスを発揮します。
- LiquidAIが低遅延に最適化された450Mおよび1.6Bバージョンのテキスト+画像のマルチモーダルモデルをリリース

8月12日 15:55
Introducing Jan-v1: 4B model for web search, an open-source alternative to Perplexity Pro.
In our evals, Jan v1 delivers 91% SimpleQA accuracy, slightly outperforming Perplexity Pro while running fully locally.
Use cases:
- Web search
- Deep Research
Built on the new version of Qwen's Qwen3-4B-Thinking (up to 256k context length), fine-tuned for reasoning and tool use in Jan.
You can run the model in Jan, llama.cpp, or vLLM. To enable search in Jan, go to Settings → Experimental Features → On, then Settings → MCP Servers → enable a search-related MCP such as Serper.
Use the model:
- Jan-v1-4B:
- Jan-v1-4B-GGUF:
Credit to the @Alibaba_Qwen team for Qwen3 4B Thinking & @ggerganov for llama.cpp.
10.86K
トップ
ランキング
お気に入り