LM StudioをMac M1で使ってみよう

IT

ここでは、Mac M1チップを搭載した端末でLM Studioを使ってローカル環境で大規模言語モデル(LLM)を動かす手順を解説します。

LM Studioとは?

LM Studioは、ローカル環境で様々なオープンソースLLM(例:Llama 2、Mistralなど)を簡単にダウンロードして実行できるデスクトップアプリケーションです。インターネット接続なしでもAIチャットやドキュメント検索などが可能になります。

事前準備

  • Mac M1、M2、M3、M4チップ搭載機(macOS 13.6以降)
  • 16GB以上のメモリ推奨
  • インターネット接続(初回ダウンロード時のみ)

インストール手順

  1. LM Studio公式サイトにアクセスします。
  2. 「Download for macOS」をクリックして、インストーラー(.dmgファイル)をダウンロードします。
  3. ダウンロードした.dmgファイルを開き、LM Studioアプリケーションを「Applications」フォルダにドラッグ&ドロップします。
  4. インストール後、LaunchpadまたはFinderからLM Studioを起動します。

初回起動と設定

  1. 初回起動時は、セキュリティ警告が表示される場合があります。「開く」を選択してください。
  2. LM Studioが起動したら、画面上部メニューから「Model Catalog」を選択します。
  3. 使用したいモデル(例:Llama 2、Mistralなど)を選び、「Download」をクリックします。
    • ここでは、Googleが開発したGemmaを使ってみます。
  4. ダウンロード完了後、「Chat」タブで選択したモデルを使ったチャットが可能になります。

便利な機能

  • ローカルAPIサーバー機能:OpenAI互換のAPIをローカルで提供できます。
  • ドキュメントQ&A機能:自分のファイルをインポートし、モデルに質問できます(RAG)。
  • SDK提供:PythonやTypeScriptでアプリ開発可能。

注意点

モデルサイズが大きい場合、より多くのRAMを消費します。メモリ不足が発生した場合は、より小さなモデル(例:7Bモデル)を選択すると良いでしょう。

まとめ

LM Studioを使えば、Mac M1上で簡単に高性能なLLMを動かし、プライバシーを守りながらAIを活用できます。

補足:

別のモデルをダウンロードして同じ質問をしてみると簡単に比較することができます。例えば、IBMのGraniteモデルを使って同じ質問をしてみた結果がこちらになります。

コメント

タイトルとURLをコピーしました