2025
01/30

話題のDeepSeek R1をインストールしてみた。

DeepSeek R1とは?

  • 中国DeepSeek社が開発した大規模言語モデル(LLM)
  • OpenAIのo1モデル並みの性能とされる
  • OpenAIのo1よりも低コスト
  • MITライセンスで商用利用も可能

ざっくりとした導入手順

私は詳しくないので参考記事を読んでもらいたいのですが、一応、ざっくりとした手順を記しておきます。

  1. Ollamaのインストール
  2. DeepSeek R1モデルの入手
  3. Open WebUIのインストール
  4. DeepSeek R1の実行

1. Ollamaのインストール

Ollamaは、ローカル環境で大規模言語モデル(LLM)を動作可能にするツール。 私はWindowsなのでインストーラーをダウンロードしてインストールしました、

2. DeepSeek R1モデルの入手

今回は、サイバーエージェントがサイバーエージェントが日本語で追加学習を行ったモデルggufフォーマットに変換したものを使用しました。

ollama run hf.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-14B-Japanese-gguf:Q4_K_M

これだけでダウンロード→コマンドプロンプトで実行まで、できるようになりました。

3. Open WebUIのインストール

Open WebUIは、OllamaやAPIベースのLLMをブラウザで操作できるWebインターフェース。 ChatGPTのようなチャット画面が提供されるので、使い勝手が良さそうです。

入れてみました。

調べたところ、DockerをインストールしてからOpen WebUIをインストールする手順の記事が多い印象でしたが、私はPythonのpipでインストールしました。

  1. 仮想環境を構築(した方が良さそうだったので、した)
  2. Open WebUIがサポートしているバージョンのPythonをインストール(すでに入っている場合は不要)
  3. pipでOpen WebUIをインストール
  4. Open WebUIを実行

open-webui · PyPIによると、Open WebUIはPython <3.13.0a1, >=3.11をサポートしているらしい(2025-01-30現在)ので、まずPython 3.11.9をインストールしました。

4. DeepSeek R1の実行

すでにコマンドプロンプトで実行できていたのですが、改めてOpen WebUIで実行してみました。

最初にアクセスするとアカウントの作成が求められるので、アカウントを作成して、サインイン。 あとは入力欄に聞きたいことを入力してエンターでOK。

Open WebUIの画面(サインイン後)

実行してみた

CPUなどの使用率

タスクマネージャーを見てると、実行した瞬間はグッと上がるものの、その後は、

  • CPU: 50%前後
  • メモリ: 50%前後
  • GPU: 25%前後

……って感じでした。

まだ余裕がありそうなので、設定をいじればもう少し早くなるかもしれないし、あまり変わらないかもしれない。

実行結果について

DeepSeekについて聞いてみると、情報が少ないからと推測に基づいて回答してくれました。 URLを提供してみましたが、やり方が悪かったのか、うまくいきませんでした。

DeepSeekにDeepSeekについて聞いてみた(考え中)

DeepSeekにDeepSeekについて聞いてみた(回答)

気を取り直してChatGPTについて聞いてみると、こちらは比較的スムーズに説明してくれました。

DeepSeekにChatGPTについて聞いてみた

どちらもどこまで正しいのかはわかりませんが、とりあえずChatGPTなどと同様の感覚で扱えることはわかりました。

体感

PCの性能に左右されるので、私の環境だと、WebでChatGPTを使った場合に比べると、かなり遅く感じます。 なので、通常使いとしては、当分はChatGPTなどを使うことになると思います。

おわりに

とりあえず、

  • 思った以上に簡単に導入できてびっくり
  • 自分のPCでChatGPTみたいなことができたことに感動
  • 全部タダなんてありがたい
  • 自分のPCだともっさりしていて残念

みたいな感じでした。

そのうちGPUを買い替えたいと考えているので、買い替えたらまた試そうと思います。

参考記事

RELATED POSTS

にーやん(niiyan)の雑記ブログです。

デザイン、プログラミング、動画など、興味のあることを書いてます。