ついに来た「キャラクター固定」の革命
これまで、Midjourneyで「同じキャラクターを別の構図で描く」ことは、至難の業でした。Seed値を固定しても細部は変わり、結局はPhotoshopでの修正や、Stable DiffusionでのLoRA学習といった高度な(そして泥臭い)工程が必要でした。
しかし、新機能「Character Reference(キャラクター・リファレンス)」の登場により、状況は一変しました。パラメータ --cref を追加し、参照画像のURLを指定するだけで、キャラクターのアイデンティティを強力に維持できます。
本記事では、この機能の具体的な仕様、プロンプトへの組み込み方、そして開発者が陥りやすい「ハマりどころ」を実利主義で解説します。
基本仕様:–cref と –cw の関係
この機能の中核となるのは、2つのパラメータです。
- –cref [URL]: キャラクターの参照画像(Character Reference)を指定します。
- –cw [0-100]: キャラクターの重み(Character Weight)を調整します。デフォルトは100です。
–cw(Character Weight)の挙動
開発者にとって最も重要なのは、この --cw の使い分けです。
- –cw 100 (デフォルト): 顔、髪型、服装まで含めて維持しようとします。キャラクターのデザインをそのまま別シーンに配置したい場合に最適です。
- –cw 0: 顔(顔立ち)のみを維持し、服装や髪型はプロンプトの記述に従って変更させます。キャラクターを着せ替えさせたい場合に必須の設定です。
実践:一貫性のあるキャラクターを生成する手順
ここでは、Discord版Midjourneyでの具体的なワークフローを解説します。
1. 参照画像の準備とURL取得
まず、固定したいキャラクターの画像を生成またはアップロードします。Discord上で画像を拡大し、「ブラウザで開く」→URLをコピーするなどして、.jpg や .png で終わる画像アドレスを取得してください。
2. 基本プロンプトの構成
例えば、サイバーパンク風の女性キャラクターの画像URLが https://example.com/char.jpg だとします。彼女に「カフェでコーヒーを飲ませる」プロンプトは以下のようになります。
/imagine prompt: a woman drinking coffee in a cozy cafe --cref https://example.com/char.jpg --cw 100
これにより、元の画像の服装や雰囲気を保ったまま、カフェにいるシーンが生成されます。
3. 服装を変更する場合(着せ替え)
次に、同じキャラクターに「白いドレス」を着せたい場合は、--cw を下げて顔の特徴だけを引き継ぎます。
/imagine prompt: a woman wearing a white elegant dress, standing in a garden --cref https://example.com/char.jpg --cw 0
ポイント: --cw 0 に設定することで、AIは「参照画像の服を無視していい」と判断し、テキストプロンプト(white elegant dress)を優先します。これを忘れると、元の服と新しい服が混ざった奇妙な画像が出力されます。
開発者が知っておくべき「ハマりどころ」と回避策
実装や運用において、よくあるトラブルとその解決策をまとめました。
1. URLの有効期限と形式
Discord上の画像リンクは一定期間で無効になる場合があります。また、URLの末尾に ?width=... などのクエリパラメータがついていると認識されないことがあります。必ず .jpg や .png で終わるクリーンなURLを使用してください。
2. 複数の参照画像を使用する
キャラクターの精度を高めたい場合、複数の画像を参照させることができます。これはStable DiffusionのLoRA学習における「データセット」のような役割を果たします。
--cref [URL1] [URL2]
このようにスペース区切りで複数のURLを渡すことで、多角的な情報をAIに与えることが可能です。
3. Nijiモデルとの併用
--cref はアニメ調に特化した --niji 6 モデルでも動作します。日本のコンテンツ制作においては、Nijiモデルとの組み合わせが最も強力な武器になるでしょう。
Stable Diffusion との比較:どちらを選ぶべきか
「キャラクターの固定」という観点で、主要な競合であるStable Diffusion(ControlNet / LoRA)と比較しました。
| 項目 | Midjourney (–cref) | Stable Diffusion (LoRA / ControlNet) |
|---|---|---|
| 導入難易度 | 低 (URL指定のみ) | 高 (環境構築、モデル学習が必要) |
| 再現性・制御性 | 中〜高 (直感的だが微調整は運) | 極高 (ポーズ指定、構図制御まで完璧に可能) |
| 計算リソース | サーバー依存 (課金のみ) | ローカルGPUまたはクラウドGPUが必要 |
| 学習データ | 不要 (1枚から生成可能) | 必要 (通常10〜20枚以上の画像が必要) |
| 権利関係 | Midjourney規約に準拠 | モデルや学習元データに依存 (複雑) |
結論: スピード重視のラフ制作、絵コンテ、プレゼン資料作成にはMidjourneyが圧倒的に有利です。一方で、ゲーム素材として完全に同一の衣装デザインを360度展開するような厳密な用途では、依然としてStable Diffusion + ControlNetや3Dモデルの補助が必要になります。
日本市場・ビジネスへの影響
この機能は、日本のIP(知的財産)ビジネスにおいて重要な意味を持ちます。
漫画、Webtoon、ライトノベルの挿絵など、「同じキャラクターが物語を展開する」フォーマットにおいて、制作コストが劇的に下がる可能性があります。特に、--cw 0 を活用した「衣装バリエーションの量産」は、ソーシャルゲームやVTuberの衣装デザイン案出しにおいて即戦力となるでしょう。
ただし、他者の著作物を --cref に入れて生成する場合の法的リスク(依拠性の成立など)については、Apple「OpenELM」の記事でも触れたコンプライアンスの観点と同様に、慎重な運用が求められます。
よくある質問 (FAQ)
- Q. 実在の人物写真を使って、その人を再現できますか?
- A. 技術的には可能ですが、Midjourneyの規約により、許可のない著名人や他人の顔を生成することは制限される場合があります。また、写真からの再現度は「似ている雰囲気」レベルになることが多く、ディープフェイクのような完全な複製には向きません。
- Q. 生成した画像の顔が崩れるのですが。
- A.
--crefを使っても顔が崩れる場合、--style rawを追加してスタイル化を抑えたり、画像生成後に「Upscale (Subtle)」や「Vary (Region)」を使って部分的に修正(インペイント)を行うのが有効です。 - Q. 以前のバージョンのMidjourneyでも使えますか?
- A. いいえ、現在はV6およびNiji 6モデル以降でのみ動作します。プロンプトに
--v 6または--niji 6が含まれているか確認してください。


コメント