
NovelAIで画像を生成していて、「この画像、どんなプロンプトで作ったんだろう?」「前に作った画像と同じような雰囲気で生成したいけど、プロンプトを忘れてしまった」といった経験はあると思います。
実は、画像からプロンプトを抽出・生成する(知る)方法があります。
プロンプトが分かれば、お気に入りの画像を再現したり、そのプロンプトを応用して新しい作品を作ることができるので、その方法を知っておいて損はないです。
この記事では、NovelAIのプロンプトを抽出・生成する3つの方法を解説します。基本的なメタデータ確認から、画像を見て推測する方法、さらには自動生成する方法まで、初心者にも分かりやすく説明します。
→seseはBOOTHにてプロンプト集を多数販売しています(R18商品多数注意!)
方法1:メタデータからプロンプトを抽出
最も確実な方法は、画像ファイルに埋め込まれたメタデータを確認することです。
メタデータとは
メタデータは、画像ファイルの中に保存されている「画像の作り方」の情報です。
具体的には以下の情報が含まれています:
- 使用したプロンプト(ポジティブ・ネガティブ)
- 画像サイズ
- ステップ数
- プロンプトガイダンス
- サンプラー
- 使用モデル
メタデータがあれば、元画像と同じ設定で画像を再現することができます。
NovelAIの画像生成画面で確認する
メタデータはNovelAIの画像生成画面で確認できます。
手順:
- NovelAIの画像生成画面を開く
- プロンプト入力欄の下にある「参照用画像を追加(任意)」ボタンをクリック
- 確認したい画像をアップロード
- 「メタデータをインポート」をクリック
- プロンプトと設定が自動的に読み込まれる
この方法が最も簡単で確実です。NovelAIで生成した画像なら、特に手を加えていなければメタデータが読み込まれます。
メタデータが残っていない場合
ただし、メタデータは以下の場合に消えてしまいます:
- XやInstagramなどのSNSにアップロードしたとき
- 画像編集ソフトで加工したとき
- スクリーンショットで保存したとき
- 他の人が共有したとき(意図的に削除している場合)
メタデータが消えている場合、NovelAIの画像生成画面では確認できません。その場合は、次の「方法2:手動分析」または「方法3:自動生成」を使う必要があります。
方法2:画像を見てプロンプトを推測(手動分析)
メタデータがない画像の場合、画像を見てプロンプトを推測する必要があります。
画像分析の基本的な流れ
画像からプロンプトを推測するには、順番に要素を分析していく必要があります。
なぜ順番なのか:
NovelAIのプロンプトには推奨される配置順序(品質タグ→画風→キャラクター→構図→背景の順)があります。順番通りに分析・記述することで、AIが情報を正しく理解し、意図した画像を生成しやすくなります。
※順番が変わると、同じタグを使っても結果がイマイチになることがあります。
ステップ1:画風・スタイルを判別する
画風は画像の印象を大きく左右する要素です。
なぜ画風を最初に判別するのか:
画風タグ(anime style、watercolorなど)はプロンプト全体の基礎となり、画像の質感や雰囲気を決定します。画風が間違っていると、他の要素(髪色、服装など)が正しくても全く違う印象の画像になってしまいます。そのため、最初に画風を見極める必要があります。
主な画風の種類:
- アニメ塗り(anime style, cel shading)
- 水彩風(watercolor, soft painting)
- 厚塗り(thick paint, oil painting style)
- リアル系(realistic, photorealistic)
- パステル調(pastel colors, soft tones)
判別のポイント:
- 線の太さと明瞭さ
- 色の境界がはっきりしているか
- 影の描き方(グラデーションか、くっきりか)
- 全体の色調(鮮やかか、淡いか)
ステップ2:構図を分析する
構図は画像の「どこからどう見ているか」を表します。
なぜ構図を早めに判別するのか:
構図タグ(full body、cowboy shotなど)は、画像サイズと密接に関連しています。例えば、全身構図は縦長サイズ(832×1216)で安定し、顔アップは正方形(1024×1024)が適しています。構図を間違えると、キャラクターが切れたり、不自然な余白ができたりします。また、構図によって背景の見え方も大きく変わります。
主な構図タグ:
- full body(全身)
- cowboy shot(腰から上)
- upper body(上半身)
- close-up(顔のアップ)
- from below(下から見上げる)
- from above(上から見下ろす)
判別のポイント:
- キャラクターのどこまで映っているか
- カメラの角度(水平、見上げ、見下ろし)
- 背景の見え方
ステップ3:主要な要素を列挙する
画像に含まれる要素を細かく分解します。
なぜ要素を細かく分解するのか:
NovelAIは具体的なタグが多いほど、意図した画像を生成しやすくなります。「女の子」だけでは不十分で、「金髪、ロングヘア、青い目、笑顔、制服」と詳しく指定することで、再現度が高まります。また、見落としがちな小物(アクセサリー、持ち物)やエフェクト(光、粒子)も、画像の印象を大きく左右するため、漏れなく抽出する必要があります。
キャラクター要素:
- 髪の色と長さ(blonde hair, long hair)
- 目の色(blue eyes, green eyes)
- 表情(smile, serious)
- 服装(school uniform, dress, armor)
背景要素:
- 場所(classroom, beach, forest)
- 時間帯(day, night, sunset)
- 天候(sunny, cloudy, rain)
その他の要素:
- 小物(holding weapon, umbrella)
- エフェクト(particles, glowing, magic)
- 照明(dramatic lighting, soft lighting)
ステップ4:プロンプトを組み立てる
分析した要素をNovelAIのプロンプト形式に組み立てます。
なぜ決まった順序で組み立てるのか:
NovelAIは、プロンプトの前半に書かれたタグを重視する傾向があります。そのため、品質タグ(masterpiece、best quality)を最初に配置し、次に画風、キャラクター、構図、背景の順で記述することで、AIが情報を正しく優先順位付けして処理します。順序がバラバラだと、意図しない要素が強調されたり、重要な要素が無視されたりすることがあります。
基本的な順序:
- 品質タグ(masterpiece, best quality)
- 画風タグ(anime style, watercolor)
- キャラクター要素
- 構図タグ
- 背景要素
例: masterpiece, best quality, anime style, 1girl, blonde hair, long hair, blue eyes, smile, school uniform, upper body, classroom, window, sunlight
ここまでの分析ができれば、基本的なプロンプトは完成です。ただし、この方法にはいくつかの限界があることも理解しておく必要があります。
手動分析の限界
手動分析には以下のような限界があります。
時間がかかる:
1枚の画像を正確に分析するには、30分以上かかることもあります。特に複雑な画像(複数キャラクター、詳細な背景、特殊なエフェクト)は、さらに時間がかかります。
経験が必要:
画風やタグの種類を知らないと、正確な分析ができません。初心者がゼロスタートから正確に分析できるようになるには、数ヶ月の経験が必要です。
完全な再現は難しい:
- 重み付けや強調({tag:1.3}など)は見ただけでは分からない
- ネガティブプロンプトは推測が難しい
- プロンプトガイダンスなどの細かな設定値は分からない
- 細かいディテールを見落とすことがある
似た雰囲気は作れても、完全に同じ画像を再現するのは困難です。
手動分析が向いている場合
それでも、手動分析が有効な場面もあります:
- 学習目的で分析力を鍛えたい
- 大まかな雰囲気だけ参考にしたい
- 時間に余裕がある
- 自分なりのアレンジを加えたい
例えば:「この画像の髪型だけ参考にして、服装は自分で考えたい」という場合、手動分析で必要な部分だけを抽出し、残りは自由に組み合わせることができます。
手動分析は、NovelAIの理解を深めるための練習としては有効です。ただし、効率的にプロンプトを知りたい場合は、次の「方法3:自動生成」が適しています。
方法3:画像からプロンプトを自動生成
画像をアップロードするだけでプロンプトを(ある程度)自動生成できる方法があります。これを「画像再現プロンプト生成フレームワーク」と呼んでいます。
画像再現プロンプト生成フレームワークとは
画像再現プロンプト生成フレームワークとは、投稿者seseが作成した、「画像からNovelAI(他の画像生成AI含む)用プロンプトを自動生成するツール」です。
方法2の「手動分析」は、正直言って非常に面倒です。画風を見極めて、構図を判別して、要素を一つ一つ列挙して、そこまでやって1枚に時間がかかる。しかも、重み付けや設定値は方法1のメタデータと違って、結局「勘」に頼るわけです。
seseは「そんな面倒なこと毎回やってられるか!」と思っていたので、このフレームワークを作りました。
※簡単にいうと楽にプロンプト抽出するために作ったわけです。
フレームワークの基本的な仕組みは以下の通り:
- 「Claude、ChatGPT、Gemini、Grok」といった言語生成AIにフレームワークをコピペ
- 分析したい画像をアップロード
- 最適なプロンプトと推奨設定が自動で生成される
これだけです。手動で分析すると相当な時間がかかる作業が、フレームワークを使うと数分で完了します。
フレームワークの特徴1: 7,000時間の検証データに基づく設計:
このフレームワークは、seseのNovelAIでの7,000時間を超える検証結果を基に設計されています。
フレームワークで実際に出される内容:
- プロンプトガイダンスの最適値(V4.5の実測データ)
- 画像サイズと構図の連動ルール
- 破綻対策ネガティブプロンプト
- 重み付けの推奨範囲
- 各種の設定値
これらは膨大な試行錯誤の末に導き出された技術仕様を、言語生成AIが適切に判断・提案できるよう組んだものです。
フレームワークの重要性:
初心者が手動で「プロンプト各種設定はどれが最適か」を見極めるには、何百回、何千回と生成を繰り返す必要があります。このフレームワークを使うと、7,000時間分の検証に基づく判断基準をワンアクションで活用できます。
フレームワークの特徴2: 4種類の言語生成AIに対応
使用するAIによって出力スタイルが異なります:
- Gemini版:技術的根拠を重視した詳細な解説付き
- Grok版:簡潔で即実行できる形式
- Claude版:初心者向けの丁寧な説明付き
- ChatGPT版:バランス型で万人向け
使用する言語生成AIによってフレームワークの性質を最適化していますが、各フレームワークは該当する名前のAI以外でも使用できます。
※例えば、Claudeユーザーが「Grok版の簡潔な出力が好み」という理由でGrok版を選ぶことも可能です。
フレームワークの特徴3: 2つのモードで柔軟に対応
フレームワークには、2つのモードが入っています。状況に応じて、好きなモードを選べます。
モード1(差分追加型):
あなたが既に持っている強力なプロンプトに、画像の特徴だけを追加生成します。あなたの基礎プロンプトを活かしたい場合に便利です。
モード2(完全自動型):
ゼロから完成プロンプトを生成します。ベースプロンプトがなくても、このツール(フレームワーク)単体で完結します。
フレームワークの特徴4: 様々なジャンルに活用可能
このフレームワークはジャンルを問わず、様々な画像タイプのプロンプト抽出に対応しています。
代表的な見本として、以下10ジャンル・50枚の実例を収録しています:
- ファンタジー戦士(複雑装飾・全身)
- 学園制服(日常・シンプル)
- 獣耳キャラ(ケモミミ)
- メカ・ロボット
- 和服・着物
- 現代私服(カジュアル)
- バトルシーン(戦闘・アクション)
- 魔法・エフェクト
- 水着・ビーチ
- ゴシック・ロリータ
これらはあくまで参考例です。フレームワークそのものは、どんなジャンルの画像にも対応できます。
フレームワークの限界
このフレームワークは非常に便利なツールですが、万能ではありません。
完全な再現を保証するものではない:
言語生成AIの特性上、出力されるプロンプトは「目安」に留まることが大半です。元画像と「完全に同じ画像」を再現するプロンプトや設定が生成されるわけではありません。
調整が必要な場合がある:
- プロンプト数や重み数値が多め、高めに提案されることがある
- 出力結果に納得できない場合は、何度もやり直すことが重要
- 時には出力内容に逆らうことも必要
補助ツールとしての位置づけ:
このフレームワークは「効率化ツール」です。手動で分析するよりも大幅に時間を短縮できますが、最終的な調整は人間が行う必要があります。
フレームワークが向いている場合
こんな方におすすめです:
- 自分で描いたイラストをさらに繊細に仕上げたい
- 自分で撮った写真をアニメ風に変換したい
- プロンプト作成の時間を大幅に短縮したい
- 様々なジャンルや絵柄の生成に対応したい
※詳しくはBOOTHの商品説明ページをご覧ください。また、フレームワークを使って他人の作品を無断再現することは、著作権侵害にあたる可能性がありますのでご注意ください。
よくある質問
Q1: メタデータが消えた画像からプロンプトを知ることはできますか?
A: 可能ですが、方法によって精度が異なります。
手動分析の場合、経験と時間があれば大まかなプロンプトを推測できます。ただし、重み付けや細かい設定値までは分かりません。
画像再現フレームワークを使うと、言語生成AIが画像を分析して最適なプロンプトを提案してくれます。ただし、これも完全な再現を保証するものではなく、「目安」として活用するツールです。
Q2: X や Instagram にアップロードした画像からプロンプトを抽出できますか?
A: 多くの場合はメタデータが消えているため、直接抽出することはできません。
ただし、以下の方法でプロンプトを推測することは可能です:
- 手動で画像を分析する(時間がかかる)
- 画像再現フレームワークを使う(効率的)
確実に抽出したい場合は、元の画像ファイル(メタデータ付き)を保存しておくことをおすすめします。
Q3: 他人が作った画像のプロンプトを知ることはできますか?
A: 技術的には可能ですが、他人の作品を無断で再現することは著作権侵害にあたる可能性があります。学習目的で構成を分析するのは有益ですが、特にフレームワークを使って実際に生成された画像やプロンプトをそのまま公開・投稿することは避けましょう。
Q4: プロンプトの重み付け({tag:1.3}など)は画像から分かりますか?
A: 見ただけでは分かりません。
手動分析では、どの要素が強調されているかは推測できますが、具体的な数値(1.2なのか1.5なのか)までは判断できません。
フレームワークでは最適な重み付けを提案しますが、これも「推奨値」であり、実際の生成結果を見ながら調整する必要はあります。
Q5: 手動分析と自動生成、どちらがおすすめですか?
A: 目的によって使い分けるのがおすすめです。
手動分析が向いている場合:
- 学習目的でスキルを磨きたい
- 時間に余裕がある
- 自分なりのアレンジを加えたい
自動生成(フレームワーク)が向いている場合:
- 効率的にプロンプトを知りたい
- 複数の画像を分析したい
- 自分なりのアレンジを加えたい
両方を組み合わせるのも良い方法です。自動生成で基本を作り、手動で微調整するという使い方もできます。
まとめ

この記事では、NovelAIのプロンプトを抽出・生成する3つの方法を紹介しました。
方法1:メタデータから抽出
- 最も確実で簡単
- NovelAIのImport機能を使う
- メタデータが残っている画像にのみ有効
方法2:手動で分析
- 画風、構図、要素を順番に分析
- 経験が必要で時間がかかる
- 完全な再現は非常に難しいが、学習には有効
方法3:自動生成
- ワンアクションで実行可能
- 7,000時間の検証データに基づく
- 自分で作った画像のみ使用可能
- 完璧ではないが、大幅に効率化できる
それぞれの方法に長所と短所があります。状況に応じて使い分けることで、効率的にプロンプトを知ることができます。
さらに効率的にプロンプトを作成したい方へ
手動分析は時間がかかり、完全な再現は困難です。そこで【画像再現プロンプト生成フレームワーク】(詳しくはBOOTHの商品ページをご覧ください。)が役に立ちます。
※フレームワークを使って他人の作品を無断再現すると、著作権侵害にあたる可能性がありますのでご注意ください。
また、基本的な画像生成をもっと効率化したい場合は、seseが7,000時間以上の検証を経て作成した、各種の「NovelAIプロンプト集」を使ってみましょう。
数千種類のプロンプトパターンを収録しており、初心者が数ヶ月かけて習得する内容を、辞典を引くだけで即座に実現できます。
BOOTHで販売中ですので、興味がある方はチェックしてみてください。
→seseはBOOTHにてプロンプト集を多数販売しています(R18商品多数注意!)