LM Studio は、生成 AI モデルをコンピューター上でローカルに実行するための最良のツールの 1 つであり、クラウド サービスを使用せずに、ChatGPT、Microsoft Copilot、または Google Gemini に匹敵する機能を提供します。 LM Studio 0.4.0 は、全面的に刷新されたインターフェイスとセルフホスト型サーバーの新しいオプションを備えて登場しました。
これまでに使用したことがない場合は、LM Studio は、さまざまな大規模言語モデル (LLM) を実行できる Windows、Mac、および Linux 用のデスクトップ アプリケーションです。 GPT-OSS、Meta Llama、Google Gemma などの必要なモデルをアプリ内からダウンロードするだけで、LM Studio はコンピューターの GPU または NPU を使用してそれを実行します。デフォルトのインターフェースはChatGPTのようなチャットウィンドウですが、OpenAIのAPIサービスのように動作するサーバーを起動することもできます。
LM Studio 0.4.0 では、コア アプリケーション コードがグラフィカル ユーザー インターフェイスから分離されているため、自己ホスト型サーバー上に LM Studio を簡単にセットアップしたり、デスクトップ上のターミナル内で使用したりすることができます。コア機能は「llmster」ツールに含まれており、デスクトップ アプリケーションはその上のグラフィカル レイヤーになっています。
発表のブログ投稿では、「ソフトウェアを再設計して、コア機能から GUI を分離し、llmster をスタンドアロン デーモンとして実行できるようにしました。これは、llmster をアプリから完全に独立して実行でき、Linux ボックス、クラウド サーバー、GPU リグ、さらには Google Colabs など、どこにでもデプロイできることを意味します。もちろん、ターミナル ベースのワークフローを好む人のために、GUI なしでもローカル マシン上で実行できます。」と説明しています。
LM Studio は使いやすく、必要に応じて設定や最適化に踏み込むオプションも提供しているため、デスクトップでは優れた選択肢となっています。サーバー上で生成 AI モデルを自己ホストするためのツール (Ollama など) がすでにいくつかありますが、新しい llmster ツールがデスクトップ上の LM Studio のようなものである場合、AI モデルを実行しようとしているほとんどの人にとって、それが最良の選択肢となる可能性があります。
ただし、LM Studio デスクトップ アプリケーションにはまだ興味深い変更がいくつかあります。インターフェイスは「より一貫性のある快適なエクスペリエンスを実現するために更新されており、ChatGPT や Google Gemini を使用したことのある人には引き続き馴染みがあるはずです。また、チャットを PDF、Markdown、またはプレーン テキスト ファイルにエクスポートできるようになりました。また、複数のチャットを同時に使用するための分割ビュー モードもあります。」
LM Studio は、LLM 推論にオープンソースの llama.cpp エンジンを使用しており、LM Studio 0.4.0 はそれを llama.cpp バージョン 2.0 にアップグレードします。これにより、同じモデルに対する同時推論リクエストのロックが解除され、同じモデルで複数のチャットを同時に実行できるようになります。
このリリースには他にもいくつかの改善点があります。組み込み API サーバーを使用する場合は、複数ステップのワークフローの会話からの応答 ID を保存できる新しい REST エンドポイントがあります。上で見たように、「lms chat」コマンドを使用して端末から対話型チャットを開始することもできます。これは新しい「llmster」バックエンドと同じものではなく、LM Studio 上で実行されることに注意してください。
LM Studio は、Windows、macOS、Linux 用の公式 Web サイトからダウンロードできます。 llmster バックエンドのインストール手順は、以下にリンクされている発表ブログ投稿に記載されています。
出典: LMスタジオ