「頭の中に浮かんだ情景を、そのまま動画にできたら…」
子どもの頃に抱いたそんな夢が、いま現実になろうとしています。
想像が、動画になる日
子どもの頃、自由帳に描いた空想の世界。
空を飛ぶ猫、喋る木、光る月の海。
誰にも見せていないけれど、心の中にしっかり残っているあの場面たち。
けれど、それを”動画”という形にするのは難しい。
絵は描けても、動きを作るには道具も知識も時間も必要。
そんなハードルが、いつも私たちの想像を”現実の外”に置いてきました。
ところが、2025年3月31日。
動画生成AIの先端を行くスタートアップ Runway が発表した新しいAIモデル「Gen-4」が、私たちの「想像は現実にならない」という常識を、優しく、でもはっきりと覆しました。
「言葉」だけで「想像」を「動画」にできる時代。
それは、誰もが”映像作家”になれるという、新しいクリエイティブの始まりです。
「Gen-4」──それは”映像を理解するAI”
Runway が開発した Gen-4 は、簡単に言えば”テキストから自然な動画を生み出すAI”です。
たとえば「夕焼けの浜辺を少女が走り抜ける。その背後には風になびく風船が浮かんでいる」といった短い描写を入力するだけで、まるで映画のワンシーンのような動画が生成されます。
その映像は、これまでのAI動画とは一線を画すほどのクオリティで、人物の動きも表情も、背景の光の揺らめきも、驚くほど自然でリアル。
まさに”映像を知っているAI”という印象を受けます。
特に目を見張るのは、一貫したキャラクター、ロケーション、オブジェクトをシーン間で生成できる点と「一貫した世界環境」を維持できる能力です。
さらに、シーン内の異なる視点や位置から要素を再生成することも可能になりました。
Runway によれば「Gen-4 はビジュアルリファレンスと指示を組み合わせて、一貫したスタイル、被写体、ロケーションなどを活用した新しい画像や動画を作成できます。これらはすべて、微調整や追加トレーニングを必要としません」とのことです。
また、ユーザーは参照画像を使用して様々な照明条件でも一貫したキャラクターを生成できます。
シーンを作成するために、ユーザーは被写体の画像を提供し、生成したいショットの構成を説明するだけで良いのです。
どうしてこんなことが可能なのか?
Gen-4 がここまで自然で豊かな動画を作れる理由は、AIが膨大な量の映像や画像データをもとに学習を積んでいるからです。
映画や実写映像の文法、感情の込められた演技、カメラワークのセオリー──そうした”映像の常識”を知識としてではなく、肌感覚で覚えているかのような学習方法によって、AIはまるで映像作家のような判断ができるようになっています。
Runway は「Gen-4 は非常にダイナミックな動画を生成する能力に優れており、リアルな動きだけでなく、被写体、オブジェクト、スタイルの一貫性も備え、プロンプトへの優れた対応と最高クラスの世界理解力を持っています」と主張しています。
さらに「Runway Gen-4 は、実世界の物理法則をシミュレートする視覚的生成モデルの能力において重要なマイルストーンを示しています」とも述べています。
しかし、Runway はこのモデルのトレーニングデータの出所については競争上の優位性を失うことを恐れて明らかにしていません。
このトレーニングの詳細は、知的財産権関連の訴訟の原因にもなりうるものです。
実際、Runway は現在、許可なく著作権で保護されたアートワークを使ってモデルをトレーニングしたとして、アーティストらから訴訟を起こされています。
Runway はフェアユースの原則が法的責任から同社を守ると主張していますが、勝訴するかどうかはまだ不明です。
AIが動画を作る時代、人間にできることは何か?
こうした進化を前にして、多くの人が抱くのは「クリエイターの仕事がAIに奪われるのでは?」という不安です。
しかし、AIができるのは、あくまで「指示された映像を生成すること」。
その”指示”を与えるのは、やはり人間の想像力に他なりません。
むしろ、動画制作の現場はこれから「もっと人間らしい仕事」に集中できるようになるのではないでしょうか。
これまでは時間とコストがかかりすぎて諦めていた表現も、AIが一緒に作業してくれることで可能になります。
たとえば、アイデアを思いついたその日のうちに、イメージ映像をAIと一緒に作る。
あるいは、いくつかの演出パターンを即座に生成し、クライアントと比較しながら決定していく。
こうしたスピード感と柔軟性は、人間の表現力をより高めてくれるはずです。
一方で、AIが業界に与える影響は無視できません。
2024年にアニメーションギルド(ハリウッドのアニメーターや漫画家を代表する組合)が委託した調査によると、AIを採用した映画制作会社の 75% が、この技術を取り入れた後に仕事を削減、統合、または排除しています。
また、この調査では 2026年までに 10万人以上の米国エンターテインメント業界の仕事がAIによって影響を受けると予測しています。
映像制作の未来と、私たちにできること
この新しい時代には、プロだけでなく、誰もが”映像作家”になれます。
マーケティングの担当者がわずか数分で広告動画を作り、教育者が説明文では伝えきれないニュアンスを映像で届ける。
さらには、言葉では伝えづらい感情やストーリーを、映像という形でそっと差し出す──そんなことが、誰にでもできる時代が来るのです。
「動画を作る力」が、限られた人だけのものではなくなる。
これは、創造力がより広く、より深く、世界に届くチャンスが開かれたことを意味しています。
Runway は現在、Salesforce、Google、Nvidia などの投資家からの支援を受けており、Gen-4 のような動画生成モデルを含むAIビデオツールのスイートを提供しています。
同社は OpenAI や Google などから厳しい競争に直面していますが、ハリウッドの大手スタジオとの契約を結び、AI生成動画を使用した映画に資金を提供するなど、独自の道を切り開いています。
The Information によると、Runway は企業価値を 40億ドルと評価する新たな資金調達ラウンドを計画しており、動画生成モデルの API などの製品を発売した後、今年は3億ドルの年間収益を目指しているとされています。
最後に──心の中の映画を、世界へ
AIが動画を作ると聞くと、冷たく無機質なイメージを持つかもしれません。
でも、Runway の Gen-4 が私たちに見せてくれたのは、むしろその逆。
人間の想像力に寄り添い、映像という言語でそれを丁寧に形にしてくれる”共創のパートナー”です。
これからの時代「動画を観る人」から「動画を描く人」へと、私たちは自然に変わっていくのかもしれません。
アイデアひとつ、言葉ひとつで、まだ誰も見たことのない風景を創り出せる。
その入り口は、すでに目の前にあります。
あなたの中に眠っている”映画”は、どんな物語ですか?
それを世界に届ける日が、今日かもしれません。
参考:Runway releases an impressive new video-generating AI model
コメント