「ChatGPTやClaudeを使いたいけど、社内データを外部サーバーに送るのはセキュリティ的に不安」
「自分のPCだけでAIを動かせる方法があると聞いたけど、難しそうで手が出ない」
そんな悩みを解決してくれるのが、ローカルLLMツール「Ollama」です。自分のPCにAIモデルをダウンロードして、インターネット接続なしで動かせます。データが外部に一切送信されないため、情報漏洩リスクがゼロになるのが最大の強みです。
この記事では、Ollamaのインストールから基本操作、業務で使えるプロンプト例、モデルの選び方までを、2026年4月時点の情報にもとづいて解説します。「ローカルLLMは難しい」という印象が変わるはずです。

Ollamaとは?自分のPCで動くAIツール
Ollamaは、オープンソースのLLM(大規模言語モデル)を自分のPC上で簡単に動かすためのツールです。ChatGPTのように質問に答えたり、文章を生成したり、コードを書いたりできますが、すべてがローカル環境で完結します。
ChatGPTやClaudeは「クラウド型」で、入力したデータがサーバーに送信されます。一方、Ollamaで動かすAIモデルは「ローカル型」で、PCの中だけで処理が完結します。この違いが、業務利用で大きな意味を持ちます。
・情報漏洩リスクがゼロ: データがPCの外に出ないため、社内の機密情報を扱える
・インターネット不要: オフライン環境でもAIを利用可能
・無料で使える: Ollama自体もAIモデルも無料。APIの従量課金が発生しない
・カスタマイズ自在: 用途に合わせてモデルを選んだり、独自の設定を追加できる
クラウド型AIとの違いを整理すると、以下のようになります。
| 比較項目 | Ollama(ローカル型) | ChatGPT / Claude(クラウド型) |
|---|---|---|
| データの送信先 | PC内で完結(外部送信なし) | OpenAI / Anthropicのサーバー |
| インターネット接続 | モデルのダウンロード時のみ必要 | 常時必要 |
| 費用 | 無料 | 無料プランあり(上位は月額20ドル〜) |
| 回答の精度 | モデルにより異なる(GPT-4oには劣る場合が多い) | 最新モデルは高精度 |
| 必要なPCスペック | メモリ8GB以上推奨(大型モデルは16GB以上) | ブラウザが動けばOK |
Ollamaが特に向いているのは、「社内データをAIに読ませたい」「APIの利用料を気にせず試したい」「オフラインでもAIを使いたい」といったケースです。一方、最高精度の回答が必要な場面では、GPT-4oやClaude Opusなどクラウド型の最新モデルに軍配が上がります。
Ollamaのインストールと初期設定(ステップバイステップ)
1. Ollamaをインストールする
Ollamaは主要なOS(macOS、Linux、Windows)に対応しています。
macOSの場合:
公式サイト(ollama.com)からインストーラーをダウンロードして実行します。
Linuxの場合:
ターミナルで以下のコマンドを実行します。
curl -fsSL https://ollama.com/install.sh | sh
Windowsの場合:
公式サイトからWindows用インストーラーをダウンロードして実行します。
Linux環境の構築方法については、姉妹サイトリナックスマスター.JPで詳しく解説しています。
2. 最初のAIモデルをダウンロードする
インストールが完了したら、AIモデルをダウンロードします。まずは軽量で高性能な「Llama 3.1」から試してみましょう。
ollama pull llama3.1
ダウンロードには数分かかります(モデルサイズは約4.7GB)。完了したら、以下のコマンドでモデル一覧を確認できます。
ollama list
ダウンロード済みのモデル名とサイズが表示されれば成功です。
3. AIと対話してみる
モデルのダウンロードが完了したら、すぐにAIと対話できます。
ollama run llama3.1
対話モードが起動したら、日本語で質問してみましょう。
>>> 社内向けの週次報告メールのテンプレートを作ってください。 項目は「今週の成果」「来週の予定」「課題・相談事項」の3つでお願いします。 # 出力例: # 件名: 【週次報告】○○部 ○○(氏名)2026/04/09 # # お疲れ様です。○○部の○○です。 # 今週の報告をお送りします。 # # ■ 今週の成果 # ・ # # ■ 来週の予定 # ・ # # ■ 課題・相談事項 # ・ # # 以上、よろしくお願いいたします。
対話を終了するには /bye と入力するか、Ctrl+D を押します。

用途別おすすめモデルの選び方
Ollamaでは、用途に合わせて複数のAIモデルを使い分けられます。2026年4月時点で利用できる主要モデルを整理しました。
| モデル名 | サイズ | 必要メモリ | 特徴 |
|---|---|---|---|
| llama3.1(8B) | 4.7GB | 8GB以上 | 軽量で高速。日常的な質問や文章作成に最適 |
| llama3.1(70B) | 40GB | 48GB以上 | 高精度。GPT-4に近い性能だがハイスペックPCが必要 |
| gemma2(9B) | 5.4GB | 8GB以上 | Googleが開発。日本語の自然さに定評あり |
| codellama(7B) | 3.8GB | 8GB以上 | プログラミング特化。コード生成・修正に強い |
| phi3(3.8B) | 2.3GB | 4GB以上 | Microsoftが開発。超軽量で古いPCでも動作可能 |
| qwen2.5(7B) | 4.4GB | 8GB以上 | Alibabaが開発。多言語対応に優れ日本語も得意 |
選び方のポイント:
・まず試すなら: llama3.1(8B)が万能。メモリ8GBのPCでも快適に動く
・日本語の精度を重視するなら: gemma2 または qwen2.5 がおすすめ
・コードを書かせたいなら: codellama が専門特化で優秀
・古いPCしかないなら: phi3 が最も軽量
複数のモデルを同時にインストールしておけるので、用途に応じて使い分けるのが実用的です。
# 複数モデルをダウンロード ollama pull gemma2 ollama pull codellama # モデルを切り替えて使う ollama run gemma2 ollama run codellama
実務での活用例(Before/After)
【活用例1】社内文書のドラフト作成
Before: 議事録や報告書を一から書くのに30分以上かかる。定型文を使い回しても、内容に合わせた調整が面倒。
After: 打ち合わせのメモをOllamaに渡して「議事録にまとめて」と指示。5分でドラフトが完成。社内データなので外部送信の心配もなし。
>>> 以下の打ち合わせメモを、社内共有用の議事録にまとめてください。 参加者、決定事項、次回までのアクションを明確にしてください。 メモ: - 4/9 マーケMTG 田中、佐藤、鈴木参加 - 新商品LP 4月中にリリース - 佐藤さんがワイヤーフレーム作成 4/15まで - 広告予算は月30万で承認 - 次回 4/16 14時
【活用例2】コードレビューの補助
Before: 他の人が書いたコードをレビューするのに時間がかかる。見落としも発生しがち。
After: コードをOllamaのcodellomaに読ませて「バグやセキュリティリスクがないか確認して」と依頼。レビューの前段階として使うことで、見落としを減らせる。
ollama run codellama >>> 以下のPythonコードにバグやセキュリティ上の問題がないかレビューしてください。 改善点があれば修正コードも提示してください。 def get_user(user_id): query = f"SELECT * FROM users WHERE id = {user_id}" result = db.execute(query) return result # 出力例: # SQLインジェクションの脆弱性があります。 # f-stringで直接値を埋め込んでいるため、悪意のある入力で # データベースが不正操作される可能性があります。 # # 修正版: # def get_user(user_id): # query = "SELECT * FROM users WHERE id = ?" # result = db.execute(query, (user_id,)) # return result
【活用例3】API経由でアプリケーションに組み込む
Before: 社内ツールにAI機能を追加したいが、OpenAI APIは従量課金で予算が読めない。社内データを外部に送るのも不安。
After: OllamaのローカルAPIを使えば、自社アプリにAI機能を無料で組み込める。データは社内ネットワークから出ない。
Ollamaは起動するとローカルのAPIサーバーとして動作します(デフォルトはhttp://localhost:11434)。以下のようにcurlやPythonから呼び出せます。
# curlでAPI呼び出し curl http://localhost:11434/api/generate -d '{ "model": "llama3.1", "prompt": "Pythonでファイルを読み込むコードを書いてください", "stream": false }'
Pythonから使う場合は、requestsライブラリで呼び出せます。
import requests response = requests.post("http://localhost:11434/api/generate", json={ "model": "llama3.1", "prompt": "売上データの分析レポートを作成してください", "stream": False }) print(response.json()["response"])
OpenAI互換のAPI形式にも対応しているため、既存のOpenAI APIを使ったコードをOllamaに切り替えるのも簡単です。
うまくいかない時の対処法
1. 動作が遅い・応答に時間がかかる
モデルのサイズがPCのスペックに対して大きすぎる可能性があります。
・メモリ不足: 8GBのPCで70Bモデルは動きません。llama3.1(8B)やphi3に切り替えてください
・GPU未活用: NVIDIA GPUを搭載しているなら、CUDAドライバーをインストールすると劇的に速くなります。GPU非搭載のPCではCPUのみで動作するため、応答に時間がかかるのは正常です
・他のアプリがメモリを消費: ブラウザのタブを閉じるなど、メモリを空けてから再実行してみてください
2. 日本語の回答が不自然な場合
モデルによって日本語の品質に差があります。llama3.1で日本語が不自然に感じたら、gemma2やqwen2.5を試してください。また、プロンプトに「日本語で回答してください」と明示するだけで改善するケースもあります。
3. Ollamaの限界を知っておく
ローカルLLMは万能ではありません。以下の点を理解した上で使い分けることが大切です。
・最新情報は持っていない: モデルの学習データには期限があります。最新ニュースや最新の技術仕様を聞いても正確な回答は期待できません
・クラウド型に精度で劣る場面がある: 特に複雑な推論や長文の分析では、GPT-4oやClaude Opusの方が優れています。用途に応じて使い分けましょう
・画像の入力は一部モデルのみ: llava等のマルチモーダルモデルを別途ダウンロードする必要があります
AIを業務に導入する全体戦略については、姉妹サイトDXマスターズ.TOKYOで詳しく解説しています。

本記事のまとめ
Ollamaは、自分のPCでAIモデルを動かせるローカルLLMツールです。データが外部に送信されないため、社内の機密情報を扱う業務でも安心して使えます。インストールはコマンド1つで完了し、すぐにAIとの対話を始められます。
| やりたいこと | おすすめモデル | 難易度 |
|---|---|---|
| 文章作成・要約 | llama3.1(8B)/ gemma2 | 低(初心者OK) |
| コード生成・レビュー | codellama | 低〜中 |
| 日本語の精度重視 | gemma2 / qwen2.5 | 低(初心者OK) |
| アプリへのAI組み込み | llama3.1 + API | 中 |
まずは ollama pull llama3.1 でモデルをダウンロードして、簡単な質問から試してみてください。クラウド型AIと使い分けることで、セキュリティとコストの両面で業務のAI活用が一段進みます。
情報漏洩を気にせずAIを業務に活かしたいと思いませんか?
OllamaのようなローカルLLMを導入すれば、セキュリティを保ちながらAI活用の幅が広がります。
生成AIを”使う側”から”使いこなす側”へステップアップしたい方へ、メルマガで実践的なAI活用ノウハウをお届けしています。


コメント