ローカルLLM

VSCodeのCopilot ChatでLMStudioで読み込んでいるローカルモデルを指定する

VSCodeのCopilot ChatでLMStudioで読み込んでいるローカルモデルを指定する

(2026/04/30 時点の話!!)

vscode chat

ここのモデル選択で、LMStudioを使って読み込んでいるローカルモデルを指定したいっていう話!!!

https://www.reddit.com/r/LocalLLaMA/comments/1se0c1r/i_made_a_small_app_to_use_copilot_chat_with_lm/

現時点ではinsider版のVSCodeを使用する必要があるみたいですね・・・

Version: 1.119.0-insider (user setup)

やってみた

alt text

モデル選択すると出てくる画面の右上の歯車マークを押す

alt text

Add modelsを選択

するとinsider版だとここに、Open AI Compatibleっていう項目が出てくるので、それを選択して、

確か・・・

なんかグループ名の指定みたいなもの:「LMStudio」

APIキーの指定:(特に指定しないでエンターを押す)

[
	{
		"name": "LMStudio",
		"vendor": "customoai",
		"models": [
			{
				"id": "gemma-4-e2b-it",
				"name": "gemma-4-e2b-it",
				"url": "http://localhost:1234/v1/chat/completions",
				"toolCalling": true,
				"vision": true,
				"maxInputTokens": 128000,
				"maxOutputTokens": 16000
			}
		]
	}
]

すると多分こんな感じのファイルが開かれるので、idとnameをいい感じに指定してあげる。

alt text

指定するidは、LMStudioのモデル管理画面?の右クリックとか、…の当たりをクリックすると出てくるDefault Identifierを指定してあげると良い感じかな??

alt text

とすると、モデルの選択画面から追加したモデルを選べるようになっているみたい!!!!

まとめ

今は、Insider版を使う必要がありそうですが・・・使えそうですね!!

ローカルで動かしているLLMを利用するために、Continueとかの拡張機能をもっと使い倒してみようかなぁと思っていたのですが、もうほぼ、VSCodeのアプリそのものに取り込まれている気がするこのチャット機能でローカルモデルを指定できて普通に動きそうなのであれば「これでいいかなぁ・・・」という気もしてきますよね。

まあ、ローカルのモデルを動かすって言ってもgithubアカウントにログインしていないといけないっぽいのが辛いですかね・・・それはそれで辛いよなぁ~~;;Continueの拡張機能でどこまでできるのかもやっぱりいつか見たいですね!!

続きを読む →