無料 · macOS · Apple Silicon · オールインワン

MLX Studioで
なんでも作ろう。

チャット、コーディング、画像生成、推論 — すべてMacでローカル実行。完全な推論スタック、20以上のエージェンティックツール、Fluxローカル画像生成、音声/ビジョン/推論を備えた唯一のAIアプリ。vMLX Engineで駆動。

JANG_Q混合精度量子化対応の唯一のMLXエンジン — 230Bで2 bitsで74% MMLU (82.5 GB) vs MLX 4-bit 26.5% (119.8 GB)
永久無料 Apple Silicon クラウド不要 20+ツール 画像生成 Anthropic API モデルコンバーター 50+アーキテクチャ 音声 & ビジョン pip install vmlx
MLX Studio
MLX Studio agentic coding interface — building a Tetris game with AI
MLX Studio — Image Generation
MLX Studio local image generation with Flux Schnell on Apple Silicon

Local image generation with Flux Schnell — 1024×1024 in seconds on Apple Silicon

20+
エージェントツール
224×
100Kコンテキストで高速
50+
モデルアーキテクチャ
11
APIエンドポイント
機能

必要なものすべて。クラウド不要。

どんなモデルでもチャットし、Fluxで画像を生成し、20以上のエージェンティックツールでコーディングし、AnthropicまたはOpenAI APIを使用し、フォーマット間でモデルを変換 — すべてMacでローカル実行。APIキー不要、サブスクリプション不要、データ流出なし。シンプルなチャットアプリを求める初心者にも、KVキャッシュ量子化、プレフィックスキャッシュ、投機的デコーディング、14のツールパーサーを備えた完全な推論スタックが必要な上級ユーザーにも対応。

ストリーミングチャットUI

マルチターンストリーミング会話、インラインツール呼び出し表示、折りたたみ可能な推論ブロック、画像プレビュー、リアルタイムステータス表示。すべてのディテールが明確さのために設計されています。

画像生成 & 編集

ローカルで画像を生成・編集。5つの生成モデル(Flux Schnell、Dev、Klein)+ 4つの編集モデル(Qwen Image Edit、Flux Kontext、Flux Fill)。クラウド不要、APIキー不要。

音声チャット

すべての応答に内蔵テキスト音声変換。Mac ネイティブ音声合成を使用してハンズフリーでAI出力を聴けます。

ビジョン&マルチモーダル

画像をチャットにドラッグ&ドロップ。Qwen VLなどのビジョンモデルがローカルで視覚コンテンツを分析し、クリックで拡大できます。

推論ブロック

DeepSeek R1、Qwen 3、GLMなどのモデル用の折りたたみ可能な思考セクション。モデルの思考プロセスを確認できます。

Anthropic + OpenAI API

ネイティブAnthropic Messages APIエンドポイントとOpenAI ChatおよびResponses API。Claude Code、Anthropic SDK、または互換クライアントを使用できます。リモートエンドポイントにも接続可能。

モデル変換機

標準プロファイル(Balanced 4-bit、Quality 8-bit、Compact 3-bit)とJANG混合精度プロファイル(2S〜6M)を備えた内蔵GGUF-to-MLX変換機。コマンドラインなしであらゆるモデルを変換できます。

HuggingFaceブラウザ

アプリ内で直接MLXモデルを検索、閲覧、ダウンロード。ワンクリックで任意のモデルとチャットを開始できます。

5層キャッシングスタック

プリフィックスキャッシュ、ページドマルチコンテキストKV、KV量子化(q4/q8)、連続バッチング(256シーケンス)、永続ディスクキャッシュ。この5つすべてを組み合わせたローカルアプリは他にありません。

投機的デコーディング

設定可能なドラフトモデルで20–90%高速な生成。大規模モデルがドラフトトークンを並列で検証 — 同じ品質、少ないGPUパス。

50+アーキテクチャ&14パーサー

Llama、Qwen、DeepSeek、Gemma、Mistral、Phi、GLM、Nemotron、MiniMax、Jambaなどを自動検出。14のツール呼び出しパーサー、4つの推論パーサー — 手動設定不要。

CLI: pip install vmlx

オープンソースエンジン。pip install vmlxの後にvmlx serve modelで実行。ターミナルから変換、ベンチマーク、診断。Apache 2.0。

MCPネイティブサポート

内蔵MCP(Model Context Protocol)サーバー。20以上の内蔵ツールと共に外部MCPツールを接続。最大10回の反復までエージェントループを自動継続。

ハイブリッドSSM&Mamba

Nemotron-H、Jamba、GatedDeltaNetアーキテクチャ用の専用BatchMambaCache。ハイブリッドアテンション+SSMモデルを正しく実行する唯一のローカルアプリ。

エージェントツール

20以上の内蔵ツール。設定不要。

ネイティブMCPツール呼び出しを備えた唯一のローカルAIアプリ。モデルが読み取り、書き込み、検索、実行できます — すべてローカルで実行。oMLX、LM Studio、Inferencerには内蔵エージェントツールがありません。

MLX Studio — Agentic Tools
MLX Studio agentic coding tools interface showing file I/O, code search, shell execution, web search, git integration, and clipboard tools

ファイルI/O

read_file write_file edit_file list_dir copy move delete

コード検索

grep glob

Shell

execute_command

ウェブ検索

duckduckgo_search brave_search

URL Fetch

fetch_url

Git

git_status git_diff git_log git_show

ユーティリティ

clipboard_read clipboard_write current_datetime
画像生成 & 編集

Macでローカルに画像を生成・編集

5つの画像生成モデル(Flux Schnell、Dev、Z-Image Turbo、Klein 4B、Klein 9B)と4つの画像編集モデル(Qwen Image Edit、Flux Kontext、Flux Fill、Flux Klein Edit)。写真とテキストプロンプトでインペイント、変換、スタイル変更が可能。モデルは自動ダウンロード。クラウドAPI不要、サブスクリプション不要 — Apple Siliconで完全にローカル実行。

MLX Studio — 画像生成 & 編集
MLX Studio 画像生成・編集インターフェース - Flux Schnell、Dev、Z-Image Turbo、Klein、Qwen Image Edit、Flux Kontext、Flux Fill
チャット

推論&ビジョン付きストリーミングチャット

折りたたみ可能な推論ブロック、インラインコードハイライト、画像プレビュー、リアルタイムトークンストリーミングを備えたマルチターン会話。ビジョンモデル用の画像ドラッグ&ドロップ。チャットごとのtemperature、top-p、システムプロンプト、最大トークン設定。チャット履歴はSQLiteに保存されます。

MLX Studio — Chat
MLX Studio chat interface
モデル

ワンクリックでモデルを閲覧&ダウンロード

内蔵HuggingFaceモデルブラウザ。MLXモデルを検索し、テキストまたは画像でフィルタリングし、サイズとアーキテクチャを確認し、ワンクリックでダウンロード。

MLX Studio — Model Browser
MLX Studio HuggingFace model browser
常にアクセス可能

メニューバーコントロール

リアルタイムサーバーステータス、クイックモデル切り替え、セッションコントロール — メニューバーから常にワンクリックでアクセス可能。

MLX Studio menu bar
基盤エンジン · オープンソース
vMLX Engine

github.com/jjang-ai/vmlxでオープンソースとして公開 — pip install vmlxでインストール。Macで5層キャッシングスタックを備えた唯一のローカルAIエンジン:プリフィックスキャッシュ、ページドKV、KV量子化(q4/q8)、連続バッチング、永続ディスクキャッシュ。Anthropic Messages APIとOpenAI互換エンドポイントの両方を提供 — Claude Code、Anthropic SDK、または互換クライアントを使用。50+アーキテクチャ、14ツールパーサー、4推論パーサー、Mamba/SSMハイブリッド、投機的デコーディング。

2.5K context
vMLX 0.05s
Others 0.49s
9.7× faster
最初のトークンまでの時間
10K context
vMLX 0.08s
Others 6.12s
76× faster
最初のトークンまでの時間
100K context
vMLX 0.65s
Others 131s
224× faster
コールドプロンプト処理
プリフィックスキャッシング — 会話の繰り返し部分は一度だけ計算し再利用します
ページドKVキャッシュ — すべてのチャットがメモリに保持され、切り替え時に削除されません
キャッシュ量子化 — q4/q8でキャッシュメモリを4–8倍削減し、より長いコンテキストを可能にします
連続バッチング — 最大256の同時シーケンスを効率的に処理します
ディスクキャッシュ — プロンプト計算がアプリ再起動後も保持され、即座にウォームスタートできます
Apple Siliconネイティブ — llama.cppではなくMLX上に構築、ユニファイドメモリに最適化
APIリファレンス — Anthropic + OpenAI エンドポイント
MLX Studio — API Reference
MLX Studio API reference page showing Anthropic Messages API and OpenAI-compatible endpoints
モデルコンバーター — GGUF-to-MLX & JANGプロファイル
MLX Studio — Model Converter
MLX Studio GGUF-to-MLX model converter with standard and JANG quantization profiles
FAQ

よくある質問

MLX Studioは、AIチャットとエージェンティックコーディングのための無料macOSアプリです。Macでネイティブプリフィックスキャッシング、ページドKVキャッシュ、KV量子化、連続バッチング、ハイブリッドSSMサポート、完全なVLM統合を備えた唯一のローカルAIアプリです。ファイル編集、コード検索、シェル実行、ウェブ検索など20以上の内蔵ツールを含み — すべてApple Siliconでローカル実行されるvMLX Engineで駆動されます。
MLX Studioはアプリです — チャットUI、エージェントツール、モデルブラウザ、設定インターフェースです。vMLX Engineはそれを駆動する推論バックエンド — キャッシング、バッチング、モデルロード、APIレイヤーです。LM Studioとllama.cppの関係と同じと考えてください。
モデルの初回ダウンロード時のみ必要です。すべての推論はクラウド接続なし、APIキーなし、データ流出なしでMac上でローカル実行されます。
macOS 26(Tahoe)を実行するApple Silicon(M1以降)搭載のMacが必要です。最低8 GB RAM、16 GB以上推奨。リモートエンドポイントはmacOS 14以降で動作します。
はい。OpenAI、Anthropic、Groq、またはOpenAI互換エンドポイントに接続できます。Studioのエージェントツールはローカルとリモートの両方のモデルで動作します。
7カテゴリにわたる20以上のツール:ファイルI/O(読み取り、書き込み、編集、コピー、移動、削除)、コード検索(grep、glob)、シェル実行、ウェブ検索(DuckDuckGo、Brave)、URLフェッチ、git(status、diff、log)、ユーティリティ(クリップボード、日時)。
はい。すべての応答にTTS再生ボタンがあります。Qwen VLなどのビジョンモデルは、インラインプレビュー付きのドラッグ&ドロップで画像入力を受け付けます。
はい。完全無料で、コード署名および公証済みです。サブスクリプションなし、使用制限なし。
MLXのためのGGUF · オープンソース

JANG — あらゆるサイズでより高い品質

GGUFがllama.cppにK-quantsを提供しました。JANGはMLXに同じことをします — アテンションレイヤーを保護するスマートビット割り当て。 On Qwen3.5-122B at ~2 bits: 94% MMLU (JANG_4K, 69 GB) vs 90% for MLX 4-bit (64 GB). At 2 bits: 84% MMLU (38 GB) vs 46% for MLX mixed_2_6 (44 GB).

JANG_4K JANG_2S · 122B · 2.11bmiddot; 122B JANG_2S · 122B · 2.11bmiddot; 3.99b
94% MMLU 84% MMLU · 38 GBmiddot; 69 GB
+4 points vs MLX 4-bit (64 GB, 90%)
MLX 4-bit MLX mixed_2_6 · ~2.5bmiddot; 4.0b
90% MMLU 46% MMLU · 44 GBmiddot; 64 GB
MiniMax-M2.5 (230B) — JANG vs MLX
200-question MMLU
JANG_2L · 2.10 bits · 82.5 GB
74%
MLX 4-bit · 119.8 GB
26.5%
JANG 2 bitsがMLX 4 bitsの3倍のスコア、RAM 37 GB少なく使用。MLXはこのモデルで全ビットレベルで破綻。
科目別MMLU内訳を表示(10科目)
Subject JANG_2L 4-bit 3-bit 2-bit
Abstract Algebra10/203/202/205/20
Anatomy15/207/205/205/20
Astronomy20/207/206/204/20
College CS13/204/205/206/20
College Physics13/208/206/206/20
HS Biology18/204/205/206/20
HS Chemistry18/204/205/205/20
HS Mathematics8/206/206/203/20
Logical Fallacies18/205/204/205/20
World Religions15/205/205/205/20
Total148/200 (74%)53/200 (26.5%)49/200 (24.5%)50/200 (25%)

JANGが10科目すべて勝利。MLX 4/3/2-bitすべてランダムレベル(25%)。原因:MLXが回答の代わりにメタコメンタリーを生成。

jangq.ai GitHub

ローカルでチャットを始める

MLX Studioをダウンロードして、60秒以内にMacでAIを実行しましょう。