1回の生成に最大9枚の参照画像
HappyHorseは1〜9枚の参照画像を受け付けます——現在のAI動画モデルの中で最多です。各参照は別のキャラクタートークンに紐付けられるため、9人の異なる人物が登場するグループシーンも1回の生成で可能です。
マルチリファレンス生成では、複数のソース画像——キャラクターごとに1枚——を提供し、AIモデルが動画全体を通じて各人物の独自の外観を維持できるようにします。モデルは各参照をプロンプト内の名前付きトークン(例:[person1]、[person2])にマッピングし、顔の特徴・体型・衣服をそのトークンに紐付けます。これは、1人の同一性しか保てないシングルリファレンスモデルとは根本的に異なります。シングルリファレンスモデルでは、複数人のシーンで副次的なキャラクターをAIが生成してしまいます。
HappyHorseは1〜9枚の参照画像を受け付けます——現在のAI動画モデルの中で最多です。各参照は別のキャラクタートークンに紐付けられるため、9人の異なる人物が登場するグループシーンも1回の生成で可能です。
参照画像は[person1]〜[person9]のようなトークンに割り当てられます。これらのトークンをプロンプト内で使用して、各キャラクターを独立して配置・演出します:「[person1]がコーヒーカップを[person3]に手渡し、[person2]が背景で手を振っている。」
すべての参照が同一の生成パスで読み込まれるため、キャラクターが自然に相互作用できます——握手、会話、物の受け渡し。シングルリファレンスモデルでは、これを実現するために個別クリップの合成が必要です。
顔の特徴・肌のトーン・ヘアスタイル・衣服が、フレーム1からクリップ終端まで安定して維持されます。カメラアングルの変化や部分的なオクルージョンがあっても、クリップ途中での同一性のドリフトは発生しません。
参照はヘッドショット・全身写真・スタイライズドイラストレーションのいずれでも使用できます。HappyHorseはソース画像のフォーマットに関わらず同一性の特徴を抽出しますが、正面向きで自然な表情の写真が最も正確な結果をもたらします。
PonPon Videoにアクセスし、モデルドロップダウンからHappyHorseを選択します。
参照画像のアップロードエリアをクリックして、1〜9枚の画像を追加します。各画像には1人の顔が明確に写っている必要があります——正面向き・適切な照明・オクルージョン最小限が理想です。順番(person1、person2など)を記録しておいてください。
アップロードした各画像をトークンで参照します:[person1]、[person2]など。各キャラクターの具体的なアクションとともにシーンを描写します:*「[person1]はデスクに座ってタイピングしており、[person2]が後ろに立ってスクリーンを指差している。[person3]がフォルダを持ってドアから入ってくる。」*
クリップの長さとアスペクト比を選択します。マルチキャラクターシーンには、16:9のワイドスクリーンがキャラクターの配置に余裕を与えます。長めの尺(8〜10秒)でより複雑なインタラクションが可能です。
生成をクリックし、クリップ全体を通じて各キャラクターが参照と一致しているか確認します。1人のキャラクターがドリフトする場合は、より鮮明な照明や正面に近いアングルの参照写真を試してください。
個人クリエイター、エージェンシー、ブランドを問わず、すべてのモデルがあなたのワークフローに適応します。
[person1] and [person2] sit across from each other at a coffee shop table. [person1] gestures while speaking, [person2] nods and smiles. Warm afternoon light through the window. Shallow depth of field. 16:9, 8 seconds.
モデル: HappyHorse · リファレンス: 2枚 · 尺: 8秒 · アスペクト: 16:9
[person1], [person2], [person3], and [person4] stand in a row in a modern office lobby. Each waves at the camera in sequence from left to right. Clean white background, professional attire. 16:9, 10 seconds.
モデル: HappyHorse · リファレンス: 4枚 · 尺: 10秒 · アスペクト: 16:9
[person1] sits at the head of a dining table, [person2] and [person3] on either side, [person4] at the far end. [person1] raises a glass for a toast, others follow. Warm candlelight, rustic wooden table. 16:9, 10 seconds.
モデル: HappyHorse · リファレンス: 4枚 · 尺: 10秒 · アスペクト: 16:9
[person1] in a lab coat hands a product box to [person2] in business casual. [person2] inspects the box and nods approvingly. Clean studio background, soft key light. 16:9, 6 seconds.
モデル: HappyHorse · リファレンス: 2枚 · 尺: 6秒 · アスペクト: 16:9
定番のキャストが登場する短編映画・ウェブシリーズ・解説動画。一度キャラクターの参照をアップロードすれば、エピソードをまたいで一貫したシーンを生成できます——ショット間の連続性エラーも発生しません。
企業チームの写真をアニメーションの紹介動画に変換します。各チームメンバーのヘッドショットをアップロードし、彼らが相互作用するシーンを作成します——手を振る、握手する、一緒にプレゼンするなど。
祝日や記念日のための個人化された家族動画を生成します。家族の写真をアップロードし、家族ディナー・誕生日パーティー・公園での散歩など、各人物が認識できるシーンを作成します。
ファッション・ライフスタイルブランドは、複数の商品動画にわたって同じモデルの同一性を維持できます。モデルの参照をアップロードし、異なるシチュエーションで異なる衣装を着せた動画を生成します——再撮影を手配せずに。
| HappyHorse(リファレンス1〜9枚) | 他のモデル | |
|---|---|---|
| 最大リファレンス画像数 | 1回の生成に9枚——それぞれ別のキャラクタートークンに紐付け | Kling 3.0:リファレンス1枚。Veo 3.1:最大3アセット。Seedance 2.0:リファレンス1〜2枚 |
| 複数キャラクターのインタラクション | 全キャラクターを1回のパスでレンダリング——参照した人物同士の自然なインタラクション | シングルリファレンスモデルはキャラクターを個別に生成してコンポジットする必要がある |
| 同一性のバインド方法 | プロンプト内の名前付きトークン([person1]〜[person9])——キャラクターごとの明示的なコントロール | ほとんどのモデルはシングルの暗黙的なリファレンスを使用——複数の同一性を指定する方法がない |
| グループシーンのクオリティ | 各人物がリファレンスの同一性を維持——キャラクター間で顔が混合しない | リファレンス1枚のモデルでは、サブキャラクターの顔の特徴がメインキャラクターと混合しやすい |
| ユースケースの適合性 | 複数人物のナラティブ、チーム動画、家族コンテンツに最適 | シングル被写体のコンテンツに向いている:ポートレート、ソロ商品デモ、モノローグ |
同一性の抽出は、適切な照明の正面向きヘッドショットまたは腰までの写真で最も効果的です。横顔・サングラス・強い影はマッチング精度を低下させます。参照画像には1人だけ写るようにしてください。
参照が多いほど生成の複雑さが増します。まず2〜3キャラクターでプロンプト構成を検証してから、さらに追加してください。1シーンに5キャラクターを超えると、位置の制御が精確にしにくくなります。
複数のキャラクターがいる場合、曖昧な空間描写は混雑した・不明確な構図につながります。位置を明示してください:「[person1]は左、[person2]は中央、[person3]は右。」
HappyHorseは最大9枚の参照をサポートしますが、7〜9キャラクターのシーンでは1人あたりの視覚的スペースが少なくなります。同一性の精度は維持されますが、フレームが混雑するにつれて個々のキャラクターのディテールは減少します。
毎日PonPonを使っている何千ものクリエイター、エージェンシー、ブランドの仲間入りをしましょう。