「AI画像生成ツールを使ってみたいけど、Midjourneyは月額費用がかかるし、生成枚数にも制限がある」「自分のPCで制限なく画像を作れると聞いたけど、非エンジニアには難しそうで手が出せない」
こんな悩みを持つ方に試してほしいのが、Stable Diffusion WebUI(AUTOMATIC1111)です。
この記事では、Stable Diffusion WebUIのインストール方法から実際に最初の画像を生成するまでの手順を、非エンジニアの方でも迷わず進められるようステップバイステップで解説します。NVIDIA製GPUを積んだWindowsパソコンがあれば、今日中に動かすことができます。

Stable Diffusion WebUIとは?無料・無制限の画像生成が可能な理由
Stable Diffusionは、Stability AIが開発したオープンソースの画像生成AIモデルです。このモデルをブラウザ画面から誰でも操作できる形にしたのが「WebUI(通称:AUTOMATIC1111)」で、GitHubで無料公開されています。
クラウド型の画像生成AIと異なり、自分のPCで動くため生成した画像はすべて手元に残り、外部サーバーにデータが送られることもありません。社内資料・SNS素材・商品画像を大量に内製したい場合に特に向いています。
1. 主要な画像生成AIとの比較(2026年5月時点)
| ツール | コスト | 生成枚数 | 動作環境 |
|---|---|---|---|
| Midjourney | 月額10ドル〜 | プランで制限あり | クラウド(Discord) |
| DALL-E 3(ChatGPT Plus) | 月額20ドル〜 | 制限あり | クラウド |
| Adobe Firefly | クレジット制(無料25枚/月) | クレジット内 | クラウド |
| Stable Diffusion WebUI | 無料(電気代のみ) | 制限なし | ローカルPC |
2. 動作環境の確認(重要)
Stable Diffusion WebUIはGPUのスペックによって動作速度が大きく変わります。インストール前に確認しておきましょう。
・OS: Windows 10/11(64bit)推奨。MacやLinuxでも動作可能
・GPU: NVIDIA製GPU(VRAM 4GB以上、6GB以上推奨)。CUDA対応が必須
・RAM: 16GB以上推奨
・ストレージ: 10GB以上の空き容量(モデルファイルが4〜7GB)
GPUなしでも起動しますが、1枚の画像生成に数分〜数十分かかるため実用的ではありません。GeForce RTX 3060以上があれば快適に使えます。
インストール手順:3ステップで環境を整える
1. PythonとGitのインストール
まずPythonをインストールします。AUTOMATIC1111はPython 3.10.6での動作が安定しているため、このバージョンを推奨します。
インストール時の注意点が1つあります。インストーラー起動後に表示される「Add Python to PATH」のチェックボックスを必ず有効にしてください。これを忘れると後の手順でエラーが発生します。
インストール後、コマンドプロンプトで以下を入力してバージョンを確認します。
python --version # 正常なら以下が表示されます Python 3.10.6
次にGitをインストールします。git-scm.comから最新版のWindowsインストーラーをダウンロードし、デフォルト設定のままインストールしてください。
2. AUTOMATIC1111のダウンロード
インストール先のフォルダ(例:C:\sd-webui)でコマンドプロンプトを開き、以下のコマンドを実行します。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
ダウンロードには数分かかります。完了するとstable-diffusion-webuiフォルダが作成されます。
3. モデルファイルの配置と初回起動
Stable Diffusionは「モデルファイル」(.safetensors形式)を読み込んで画像を生成します。無料で使えるモデルはHugging FaceやCivitaiで公開されています。初めての方には「Stable Diffusion v1.5」がおすすめです(軽量で動作が速い)。
ダウンロードしたモデルファイルは以下の場所に置きます:
・配置場所:stable-diffusion-webui/models/Stable-diffusion/
配置後、stable-diffusion-webuiフォルダ内のwebui-user.batをダブルクリックして起動します。初回は必要なライブラリを自動でダウンロードするため、10〜20分程度かかります。
起動が完了するとコマンドプロンプトに以下のURLが表示されます。
Running on local URL: http://127.0.0.1:7860
ブラウザでこのURLを開くと、WebUIの操作画面が表示されます。
最初の画像を生成してみる(txt2img)
WebUIの画面が開いたら、「txt2img」タブから画像を生成してみましょう。
1. プロンプトの基本的な書き方
プロンプトは英語で書くのが基本です。日本語でも動作しますが、英語のほうが精度が高くなります。「何が・どんな状態で・どんなスタイルで」を具体的に書くのがコツです。
a professional business person working on laptop in modern office, natural lighting, flat illustration style, corporate, clean white background, high quality
ugly, blurry, bad anatomy, watermark, text, low quality, deformed hands, extra fingers
ネガティブプロンプトは「NG要素のリスト」です。人物画像を生成するなら手指の崩れを防ぐためにdeformed hands, extra fingersを入れておくと品質が安定します。
2. 生成設定の調整ポイント
| 設定項目 | 推奨初期値 | 説明 |
|---|---|---|
| Sampling Steps | 20 | 生成の繰り返し回数。20で十分な品質が出る |
| CFG Scale | 7 | プロンプトへの忠実度。7〜12が標準 |
| Width / Height | 512×512 | v1.5モデルの場合512が最適。大きすぎると崩れる |
| Seed | -1(ランダム) | -1で毎回異なる画像。固定すると同じ構図で再生成可能 |
3. 生成ボタンを押して確認
プロンプトを入力したら「Generate」ボタンをクリックします。RTX 3060以上のGPUであれば、20〜40秒で1枚の画像が生成されます。
生成した画像はstable-diffusion-webui/outputs/txt2img-images/フォルダに日付ごとに自動保存されます。気に入った画像はSeedの値を記録しておくと、同じ構図を再現できます。
実務での活用例(Before/After)
活用例1:社内プレゼン資料のイメージ画像
Before:フリー素材サイトで「DX推進」「AI活用」と検索しても使い古された画像ばかりで、資料が他社と見た目が似てしまっていた。
After:abstract technology network, blue geometric pattern, corporate presentation style, no textというプロンプトで、毎回異なるオリジナル画像を数十秒で生成。資料のビジュアル品質が上がり、上長からのフィードバックが変わった。
活用例2:SNS投稿用アイキャッチ画像の内製化
Before:週3回のSNS投稿のたびにフリー素材を探したり、デザイナーに依頼したりで時間とコストがかかっていた。
After:ブランドトーン(清潔感・プロフェッショナル・テック系)に合わせたプロンプトテンプレートを作成し、毎日の投稿用画像を社内で内製化。外注コストの削減と投稿スピードの向上を同時に実現できた。
活用例3:商品紹介資料の背景素材
soft gradient background, pastel blue and white, clean minimal design, product photography backdropのようなプロンプトで、撮影なしで商品を引き立てる背景素材を量産できます。
姉妹サイトDXマスター.JPでは、AI画像生成を含む業務自動化のDX推進戦略についても詳しく解説しています。
うまくいかない時の対処法
起動時に「ModuleNotFoundError」が表示される
Pythonのバージョンが異なることが主な原因です。python --versionでバージョンを確認してください。複数のPythonバージョンがインストールされている場合は、webui-user.bat内のset PYTHON=の行にPython 3.10.6のフルパスを指定します。
画像が真っ黒または真っ白になる
モデルファイルが正しく読み込まれていない可能性があります。WebUI左上のドロップダウン(Stable Diffusion checkpoint)から、配置したモデルを明示的に選択してください。
生成が異常に遅い(1枚10分以上かかる)
GPUが認識されておらず、CPUで処理している状態です。NVIDIA GPUを搭載しているのに遅い場合は、NVIDIAの最新ドライバをインストールし直してください。タスクマネージャーの「GPU」タブで使用率が上がっているかを確認できます。
人物の手指がおかしく崩れる
Stable Diffusion v1.5は手指の生成が苦手です。ネガティブプロンプトにdeformed hands, extra fingers, mutated hands, bad handsを追加することで品質が改善します。
本記事のまとめ
Stable Diffusion WebUI(AUTOMATIC1111)は、NVIDIA GPUを搭載したWindowsパソコンがあれば、無料・無制限に画像を生成できるツールです。
| ステップ | やること | 目安時間 |
|---|---|---|
| 1 | Python 3.10.6とGitのインストール | 15分 |
| 2 | AUTOMATIC1111のダウンロードとモデル配置 | 20〜30分 |
| 3 | 初回起動(ライブラリ自動インストール) | 15〜20分 |
| 4 | txt2imgで最初の画像を生成 | 30秒〜2分/枚 |
月額費用ゼロで画像を量産できるため、コンテンツ制作・社内資料・SNS運用の効率化に直結します。まずは手元のPCのGPUスペックを確認するところから始めてみてください。
AI画像生成を仕事に組み込んで、制作コストを下げませんか?
Stable Diffusionで画像が作れるようになったら、次は「どう業務フローに組み込むか」がカギになります。
生成AIを”使う側”から”使いこなす側”へステップアップしたい方へ、メルマガで実践的なAI活用ノウハウをお届けしています。


コメント