SoraのImage to Videoで、そのままのタッチは維持できない?
OpenAIの動画生成AIツールであるSoraが公開されました。
ChatGPT PLUSまたは新規プランとして登場したPROのユーザー専用ということで、今現在は有料プランは解約済みでしたので試せていませんが、画像から動画を生成するImage to Videoについては性能と料金によってはPLUSくらいの料金ならば再契約したいところ。
Image to Videoでタッチは維持できない?
SoraのImage to Videoで生成された動画について、完成された動画はすごい量が見つかるものの「この画像がこの動画になった」といったように元となっている画像が全然紹介されておらず、どうなのだろうと気になっているところでした。
少しずつユーザーが発信しているものの中に元画像も紹介してくれているものが出てきて、それらを確認できてきました。
現在のところ、どうやら絵で言えばタッチというか、そのままのキャラクターや人物がそのまま動画になるように使われるのではなく、AIが生成可能なモノに一旦生成しなおしている感じですね。
人物や動物などはかなり寄せられてはいるものの、キャラクターや建造物、背景など、そのものではないことが確認できます。
人物など他人であれば違和感を感じないでしょうが、自分や知人が見れば全然違う人に感じるのではないでしょうか。
ペットなんかを生成した動画も飼い主さんなら全然違うと思うかと。
用途によっては全然問題ないと思いますが、用途次第では使いにくそうです。
私としても、例えば「自分で描いたキャラクターがそのままのタッチで動画になる」というものを期待しているだけに、Soraは少し目的のものとは違ってきそうです。
おそらくキャラクターデザインとするならば、私の絵であれば確実にAIが再生成したものの方がクオリティは高くなりそうですが、例えそれが下手くそでも、そのままで動くようになってくれたらというのが理想です。
また、開始の数コマは、軽い変形程度のアニメーションですが元画像が利用されて生成されているケースが多そう。
急にタッチが変わるのは少々違和感がありそうです。
そのままのタッチで生成できるようになる?
AIの進化速度、いや現時点であっても、もっと近いタッチで静止画を動画にするAIは既に存在しており、Soraも近いうちにもっと元画像に近いタッチで動画を生成できるようになる可能性はありそうです。
ただ、SoraのAIモデルは仕組みや目的が違うのかもしれません。
もしかすると、ディープフェイクの問題からそのままの人物やキャラクターは生成しない方針なのかもしれません。
ディープフェイクの問題は難しいですね。
人物やアニメ・漫画のキャラクターなど、確かにそのまま生成できてしまっては問題です。
しかし、自分自身の写真や、自分で描いた絵やキャラクターなら、そのままのタッチで映像になってくれても良いはず・・。