OpenAI がついに完全にオープンソース モデルである gpt-oss をドロップしてからわずか 19 時間強しか経っていません。 そして、人々はすでにクレイジーな創造性とそれによる結果を得ています。 10のワイルドな例:
1. gpt-oss Proモードの構築 基本的にはo3 Proですが、オープンソースです
Matt Shumer
Matt Shumer8月6日 01:59
「gpt-oss Pro Mode」のご紹介です! 基本的には o3 Pro ですが、新しい OpenAI オープンソース モデルの場合は :) Pro Mode は、新しい OpenAI GPT-OSS モデルの最大 10 個のインスタンスをチェーンし、1 つのインスタンスだけで作成できるよりも優れた回答を生成できます。 オープンソース、ここにリンク:
2. Macbook M4 Max で gpt-oss 120b を実行する
Emad
Emad8月6日 03:03
Macbook M4 Maxの場合 GPT-OSS 120bです。 高さ48 tok/s 35 tok/s ノーマル 23 tok/s の低消費電力 非常に優れた出力、選択された新しいモデル
4. gpt-ossを利用した音声エージェント
kwindla
kwindla8月6日 12:19
gpt-ossを利用した音声エージェント。MacBook でローカルで実行しています。WiFiをオフにしたWaymoで録画したデモ。 もちろん、私はまだ宇宙ゲームの音声 AI キックを続けています。以下のコードリンク。 会話型音声 AI の場合、gpt-oss 推論動作を「低」に設定する必要があります。(デフォルトは「medium」です。その方法に関するメモと使用できるjinjaテンプレートはリポジトリにあります。 デモビデオのLLMは、gpt-ossの大きな120Bバージョンです。もちろん、これには小型の 20B モデルを使用することもできます。しかし、OpenAI はここで、120B モデルを「わずか」80GB の VRAM で動作するように設計するという、本当に素晴らしいことをしました。また、llama.cpp mlxの推論は高速です:~250ms TTFT。 デバイス上で大きなモデルを実行すると、AI の未来へのタイムワープのように感じられます。
9. gpt-oss with thinking Chat アプリ
Akshay 🚀
Akshay 🚀8月6日 05:24
Thinking-UI を備えた OpenAI GPT-OSS チャット アプリ (100% ローカル):
このスレッドを楽しんだなら、 私をフォローしてください @minchoi そして、以下の最初の投稿をブックマーク、いいね、コメント、再投稿して、友達と共有してください。
Min Choi
Min Choi8月6日 22:28
OpenAI がついに完全にオープンソース モデルである gpt-oss をドロップしてからわずか 19 時間強しか経っていません。 そして、人々はすでにクレイジーな創造性とそれによる結果を得ています。 10のワイルドな例:
322.42K