先月、AIで12ページの絵本を作ろうとしたんです。主人公はそばかすのある赤毛の女の子で、黄色いレインコートを着ている設定でした。1ページ目は完璧。でも3ページ目でそばかすが消え、7ページ目では髪が茶色に。最終ページにたどり着く頃には顔の輪郭まで変わっていて、あごは丸くなり、鼻も別人。同一人物というより、いとこみたいになっていました。
ストーリーを書く時間より、画像を再生成する時間の方がはるかに長かった。コミック、絵本、あるいは何かしらのビジュアルシリーズをAIで作ったことがある方なら、この苦しみは身に覚えがあるんじゃないでしょうか。キャラクターの一貫性 — 複数の画像にわたって同じ人物に見えるようにすること — これが今、AIアートの世界で一番大きな悩みの種です。
このガイドでは「実際に効果がある方法」をまとめました。理論だけの話でもなければ、ふわっとした概念の話でもありません。Midjourney、ComfyUI、Leonardo AI、そして専用の一貫性ツールを使って、この3年間で私が実際に検証した具体的なテクニック、パラメータの数値、ワークフローを紹介します。
なぜAIキャラクターは生成のたびに変わってしまうのか
結論から言うと、AI画像生成モデルには記憶がないんです。
画像を生成するたびに、ランダムなノイズからスタートします。拡散モデルはテキストプロンプトを手がかりに、そのノイズを徐々に取り除いて画像を形成していきます。でも出発点のノイズは毎回違う。つまり、まったく同じプロンプトでも、生成するたびに異なる画像になるわけです。
「茶色い髪の女の子」というプロンプトも、確率的に解釈されます。ある生成ではチェスナットブラウン、次はチョコレートブラウン、その次はマホガニー。モデルが手を抜いているわけでも壊れているわけでもなく、バリエーションを生み出すように設計された通りに動いているだけなんです。
しかもプロンプトの一語を変えただけで状況は悪化します。「公園に立っている」を「公園に座っている」に変えると、ポーズだけが変わるわけではありません。画像全体がゼロから再生成されます。顔の形、髪の質感、肌の色 — すべてが振り出しに戻ります。
これはバグではありません。拡散モデルの根本的な仕組みなんです。一貫性は偶然には生まれません。意図的なテクニックで強制する必要があるんです。
主なアプローチは3つあり、組み合わせて使うと最も効果的です。
方法1:リファレンス画像とキャラクターアンカリング
最も信頼性の高い単独テクニックです。考え方はシンプルで、キャラクターの決定版画像を1枚作り、以降のすべての生成でそれをリファレンスとして使います。
アンカー画像を作る
シーンの生成に入る前に、まず真実の源(ソース・オブ・トゥルース)となるリファレンス画像を1枚作りましょう。このアンカー画像は以下の条件を満たすのが理想的です:
- 全身またはバストショット — キャラクターのプロポーションがわかるくらい広く写す
- 正面向き — 真正面のアングル、極端なパースは避ける
- シンプルな背景 — 白一色などの無地。余計なものが映り込まない
- ニュートラルな表情 — 軽い微笑みか無表情。極端な感情表現は避ける
- しっかりした照明 — 均一なライティングで、特徴を隠す強い影がない
この1枚を納得いくまで作り込んでください。20回でも50回でも再生成する価値があります。この画像がすべての将来の生成の基準点になるので、ここでの品質は後から何時間もの節約につながります。
最も重要なルール:常にオリジナルのアンカー画像を参照してください。直前の生成結果を参照してはいけません。画像#5を#6のリファレンスに使い、画像#6を#7のリファレンスに使う…とやっていくと、エラーが蓄積します。画像#20まで来る頃には、キャラクターが元の面影もないほど変わっています。必ず原点に立ち返ってください。
ツール別ワークフロー
Midjourney:--cref(キャラクターリファレンス)パラメータを使います。アンカー画像をアップロードし、すべてのプロンプトに --cref [image_url] を含めます。--cw(キャラクターウェイト)と組み合わせて忠実度を調整しましょう。値は0から100で、100が最も強い一致になります。私は --cw 80 を出発点にして、そこから微調整しています。
Leonardo AI:Character Reference機能を使います。アンカー画像をアップロードして、強度をLow、Mid、Highから選びます。まずはMidから始めるのがおすすめです。Lowだとモデルに自由度を与えすぎてキャラクターが変わりやすくなり、Highだと出力が硬くなったりオーバーフィットしがちです。多くのユースケースでMidがちょうどいいバランスです。
ComfyUI + IP-Adapter:最も柔軟ですが、最も技術的な選択肢でもあります。IP-Adapter内部のCLIPビジョンモデルはリファレンス画像を224×224ピクセルにリサイズします。そのため、顔が画像の中央にしっかり写っている必要があります。正方形のクロップが最適です。主要な設定:
- IP-Adapterのウェイトは0.8以下に設定。高すぎるとアーティファクトが出たり、プロンプトへの忠実度が下がります
- サンプリングステップを増やす(デフォルトの20-30ではなく40-50に)。リファレンスとプロンプトを両立させるための処理時間を確保します
- 顔の一貫性が最重要なら、IPAdapter FaceID Plusバリアントを使いましょう。全体の構図ではなく、顔の特徴に特化しています
汎用のコツ:複数のリファレンス画像に対応しているツールの場合、正面、斜め45度、横顔の2〜3アングルを用意しましょう。アングルが増えるほど、モデルがキャラクターの顔を立体的に理解できるようになります。
方法2:キャラクター一貫性のためのプロンプトエンジニアリング
リファレンス画像だけでは、プロンプトがいい加減だと効果が半減します。テキスト側も同じくらい重要です。
キャラクターDNAブロックを作る
キャラクターのあらゆる視覚的ディテールを記述したテキストブロックを1つ作ります。これがあなたのキャラクターDNA — すべてのプロンプトに一字一句そのままコピー&ペーストする完全な仕様書です。
例を見てみましょう:
[Character: Mira] 25-year-old woman, oval face, warm brown skin,
dark brown almond-shaped eyes, black wavy shoulder-length hair with
side part, small nose, full lips, thin eyebrows. Wearing a navy blue
bomber jacket over white crew-neck t-shirt, dark indigo slim jeans,
white low-top sneakers. Athletic build, approximately 5'6" height.ポイントは一字一句そのまま使うこと。言い換えない。省略しない。同義語に置き換えない。アンカープロンプトで「navy blue bomber jacket」と書いたなら、後のプロンプトで「blue jacket」と短くしてはいけません。「navy blue bomber jacket」と「blue jacket」では、明らかに異なる結果が出ます。
最初の画像は丁寧に作るのに、その後の画像で描写を手抜きする人をよく見かけます。そこからドリフト(ずれ)が始まるんです。
アートスタイルを固定する
スタイルに関するキーワードは、すべてのプロンプトで同一にする必要があります。最初の画像で「digital illustration, soft lighting, Studio Ghibli inspired, muted color palette」を使ったなら、すべてのプロンプトにまったく同じ言葉を入れてください。3ページ目で「anime style, bright colors」に変えたりしないこと。小さなスタイルの変化でも、キャラクターの見た目に連鎖的な影響を及ぼします。
ネガティブプロンプトを戦略的に使う
ネガティブプロンプトは破綻した手足を避けるためだけのものではありません。一貫性を保つためのツールでもあるんです。ドリフトしやすい特徴を特定して、積極的にブロックしましょう:
- ショートヘアのキャラクター? → 「no long hair, no ponytail」を追加
- 茶色い目? → 「no blue eyes, no green eyes」を追加
- ヒゲなし? → 「no beard, no stubble, no facial hair」を追加
私はキャラクタープロジェクトごとに「ドリフト監視リスト」を作っています。モデルが変えたがる特徴のチェックリストです。髪の色と目の色が最も変わりやすく、次にアクセサリー(メガネ、イヤリング、帽子)が生成間で消えやすい傾向があります。
記述順序を統一する
些細に聞こえるかもしれませんが、これが意外と効きます。あるプロンプトで「brown hair, blue eyes, tall」と書き、次に「tall, blue eyes, brown hair」と書くと、不要なばらつきの原因になります。モデルはトークンの位置によって重みを変えます。プロンプトの先頭に近い単語ほど、より多くの注意を受ける傾向があります。順序を一度決めたら、それを守りましょう。
方法3:専用の一貫性ツール
上記のマニュアル手法は確実に効果があります。ただし手間と専門知識が必要です。ComfyUIのノードをいじったり、プロンプトのスプレッドシートを管理したくないなら、キャラクターの一貫性に特化したツールが増えてきています。
トレードオフを正直に整理するとこうなります:
| アプローチ | 強み | 弱み |
|---|---|---|
| マニュアルプロンプト + seed | 無料、どのツールでも使える | 時間がかかる、結果が不安定、専門知識が必要 |
| ComfyUI + IP-Adapter | 最大限のコントロールと柔軟性 | 技術的なセットアップが必要、GPUハードウェア必須、学習コストが高い |
| Midjourney --cref | 使いやすい、組み込み機能 | コントロールが限定的、クローズドなエコシステム、サブスク必須 |
| 専用プラットフォーム | 技術的ハードルが低い、一貫性が組み込み済み | マニュアルワークフローほどの細かい調整はできない |
SNSコンテンツやマーケティング用のビジュアルをサクッと作りたいなら、専用ツールかMidjourneyの --cref が正解でしょう。50ページのプロ仕様コミックでピクセルレベルのコントロールが必要なら、ComfyUIワークフローが最も柔軟です。キャラクターのプロトタイプを作ってアイデアを素早く試したいなら、一貫性を自動で処理してくれるキャラクター作成ツールを使えば、より速く反復できます。
最適な答えは、プロジェクトの規模、技術的な快適度、そしてセットアップと制作のどちらに時間をかけたいかによって変わります。私自身、プロジェクトによって異なるアプローチを使い分けています。唯一の正解はありません。
Consistent Character AIのようなツールは、リファレンス画像方式を自動化してくれます。キャラクターリファレンスを一度アップロードすれば、プロンプトやseed、アダプターのウェイトを手動で管理しなくても、そのキャラクターをさまざまなポーズ、衣装、シーンで生成できます。トレードオフは細かいコントロールが効きにくい点ですが、ほとんどのクリエイターにとっては十分な価値があるでしょう。
Seed値:見落とされがちな一貫性の要素
多くのチュートリアルがこの話題を飛ばしていますが、seed制御は重要です。
すべてのAI生成にはseed値が使われています。これは最初のランダムノイズのパターンを決定する数値です。同じseed + 同じプロンプト + 同じモデル = ほぼ同一の出力になります。
うまくいった生成のseed値は記録しておきましょう。同じキャラクターのバリエーションを作りたいときに、同じseedから始めることができます。これで顔が完全に同じになるわけではありません(プロンプトの変更は出力に影響します)が、似た特徴に寄せるバイアスがかかります。
連番seedを使うクリエイターもいます。シーン1にseed 42、シーン2にseed 43、シーン3にseed 44、という具合に。出力は同一にはなりませんが、根底にパターンの共通性が生まれ、一貫性の助けになります。
ただし注意点:seedだけでは不十分です。同じseedでもプロンプトの一語を変えただけで、まったく違う顔が生成されることがあります。seedは複数テクニックを重ねるスタックの一層として最も効果を発揮します。リファレンス画像と一貫したプロンプトと組み合わせることで、最良の結果が得られます。
応用編:複数キャラクターのシーンと動画
複数キャラクターのシーン
1人のキャラクターの一貫性を保つのも大変なのに、同じ画像内で2人以上のキャラクターをそれぞれ別人として、なおかつ一貫して描くとなると、難易度はさらに上がります。
最もよく見る失敗パターン:キャラクターを別々に生成してから合成しようとすること。ライティング、スケール、パースが完全に一致することはありません。可能な限り、すべてのキャラクターを一度の生成で描きましょう。
タグ付きポジション構造に対応しているツールでは、こんな感じで指定できます:
@Milo: 10-year-old boy, brown skin, short curly black hair, red hoodie
@Luna: white rabbit with floppy ears, pink nose, gray spots on back
Scene: Forest clearing, afternoon light.
@Milo stands on the left, pointing upward at a bird.
@Luna sits at his feet on the right, looking up at @Milo.3部構成のフォーミュラです:(1) 各キャラクターを定義、(2) 位置を設定、(3) 行動を記述。こうすることで、モデルが誰をどこに配置すべきか明確に理解できるようになります。
動画でのキャラクター一貫性
動画はまた別次元の難しさがあります。各フレームがドリフトの機会になるからです。顔が変形したり、特徴がモーション中にずれたりして、滑らかなアニメーションだったはずのものが、姿が変わり続ける悪夢になることもあります。
効果的な設定のポイント:
- モーション強度:0.3〜0.5に抑える。高い値は動きが派手になりますが、顔のモーフィングリスクが大幅に増加します
- 尺の長さ:3〜5秒のクリップが最も一貫性を保ちやすい。長いクリップほどドリフトが蓄積します
- 解像度:高解像度のほうがモーション中の顔のディテールをよく保持します
- モーションの分離:Motion Brushなどのツールで動きを特定の範囲に限定する。顔は比較的静止させつつ、体を動かすのがコツです
キャラクターアニメーションを生成するなら、まず納得のいく静止画を作り、テキストから動画を生成するのではなく、その画像からアニメーション化しましょう。画像→動画のほうが、テキスト→動画よりもはるかに多くのキャラクターディテールを維持できます。
一貫性を壊すよくあるミス
全部やらかしたことがあります。同じ轍を踏まないでください:
-
アンカー画像を作らない。 リファレンスなしでいきなりシーン生成に突入する。対策:1時間かかっても、まずアンカーを作る。
-
リファレンスを数珠つなぎにする。 生成#5を#6のリファレンスに、#6を#7のリファレンスに使う。ドリフトが雪だるま式に増える。対策:すべての生成は常にオリジナルのアンカーを参照する。
-
描写を言い換える。 「auburn wavy hair past shoulders」を「reddish wavy hair」に書き直す。対策:キャラクターDNAブロックをコピー&ペースト。毎回必ず。
-
seedを無視する。 毎回ツールにランダムなseedを選ばせる。対策:seedを記録して、同じキャラクターには再利用する。
-
ドリフトをチェックしない。 30枚生成して、31枚目でようやく12枚目からキャラクターが変わっていたことに気づく。対策:5〜10枚ごとにアンカーと並べて比較する。
-
動画のモーションを複雑にしすぎる。 「キャラクターが劇的にスピンしながら風が髪をなびかせる」みたいなプロンプト。対策:モーションはシンプルに。「キャラクターが頭を少し右に向ける」くらいがベストフレンドです。
-
テストなしで長い動画を作る。 10秒のクリップをいきなり生成してうまくいくことを祈る。対策:まず3秒のテストを生成。一貫性を確認してから延長する。
クイックスタート:5ステップ一貫性ワークフロー
すぐに始めたい方のための、最小限のワークフローです:
ステップ1:キャラクターDNAを書く。 ツールを開く前に、キャラクターのすべての身体的特徴、服装、スタイルキーワードを紙やドキュメントに書き出します。異常なほど具体的に。「薄い肌に鼻と頬にかけて薄いそばかす、銅色のストレートヘアを顎の長さで切りそろえ、前髪はぱっつん。」
ステップ2:アンカー画像を1枚生成する。 キャラクターDNAをプロンプトとして使います。正面向き、無地の背景、良い照明。心から満足できる1枚が出るまで再生成してください。この画像は永久保存です。
ステップ3:設定をロックする。 アンカーに使ったモデルのバージョン、seed値、スタイルキーワード、ネガティブプロンプトを記録します。これが今後すべての生成のベースラインになります。
ステップ4:一貫したインプットでシーンを生成する。 新しいシーンごとに、同じキャラクターDNAを貼り付け、同じリファレンス画像をアップロードし、同じスタイルキーワードを使います。変えるのはシーンの説明とポーズだけ。
ステップ5:定期的にアンカーと比較する。 5〜10回生成するたびに、新しい画像をアンカーの横に並べます。ドリフトが見られたら — 髪が暗くなっている、そばかすが薄くなっている、顔の形が変わっている — その生成は破棄してアンカーから再生成。ドリフトした画像からではなく。
この5ステップで毎回完璧な結果が出るわけではありません。しかし再生成率は80%以上削減でき、最初の画像から最後の画像まで同一人物として認識できるキャラクターを作れるようになります。
まずはここから始めて、必要に応じて応用テクニックを重ねていってください。テクニックを一つ追加するたびに、他のテクニックの効果も高まります。
キャラクターの一貫性について質問がある方、またはご自身のワークフローを共有したい方は、support@consistentcharacterai.org までお気軽にどうぞ。

