動画生成分野に革命的なブレークスルーが訪れました。AI企業HeyGenが最新発表したデジタルヒューマンモーションコントロールシステムは、初めて仮想キャラクターの大幅な肢体動作操作を実現しました。この技術革新により、デジタルヒューマンは基本的な頭の微表情だけでなく、楽器演奏、ダンスパフォーマンスなどの複雑な肢体動作をスムーズに実行できるようになり、さらには指の関節を正確に制御して特定の手ぶりを行うことも可能になりました。
デモ動画では、仮想キャラクターが花を自然に掴む動作が業界の注目を集めました。現在のデモは単一の物体の操作が中心ですが、技術基盤には既に物体インタラクション能力のフレームワークが備わっています。アナリストは、この機能は商品展示への応用可能性を秘めており、今後の改良で既存の展示形式の制約を突破する可能性があると指摘しています。
今回のアップグレードは、HeyGenがデジタルヒューマン分野で進めてきた革新的な取り組みの継続です。以前発表された仮想キャラクター生成技術は、Soraで生成されたシーンとのシームレスな統合を実現しており、新バージョンでは運動学制御アルゴリズムを導入することで、動作レスポンスの遅延を12ミリ秒以内まで短縮しました。制作担当者は、パラメータ調整インターフェースを通じて、デジタルヒューマンの関節角度や動作軌跡をピクセルレベルで制御できるようになり、従来の映画撮影における時間と労力を要するモーションキャプチャのプロセスに代わるものとなっています。
注目すべきは、HeyGenが採用している生成型仮想人間アプローチが、従来のデジタルクローン技術と明確に異なる点です。このシステムは、真人モデリングデータに依存せず、深層ニューラルネットワークによって物理的に妥当な仮想キャラクターを自律的に生成します。技術ホワイトペーパーによると、このアーキテクチャは200を超える関節位置データをリアルタイムで生成でき、強化学習アルゴリズムと組み合わせることで、デジタルヒューマンの動作に生物力学的な特性を持たせることができます。
業界データによると、このシステムを採用することで、動画制作効率は約47%向上し、動的なシーン制作コストは従来方式の1/8に削減されました。エンジニアチームは、触覚フィードバックシミュレーションを統合した第3世代の制御システムを開発中で、2024年末までにデジタルヒューマンと仮想物体の物理的なインタラクション機能を実現する予定だと明かしています。
公式サイト:https://app.heygen.com/