ブログで100万の秘訣ってなに?
詳しくはコチラ

もうビデオ会議用の服装に悩まずにすむ!? 東京大学が体形・姿勢にリアルタイムで対応する仮想試着システムを開発

東京大学大学院情報理工学系研究科創造情報学専攻五十嵐健夫研究室は10月8日、多様な体形や姿勢にリアルタイムで対応する高品質な仮想試着システムの開発を発表した。オンラインショップなどでも仮想試着や、体を動かしても違和感のない映像が作られるため、ビデオ会議に仮想衣服を着用して参加するといったことが可能になるという。
既存の仮想試着システムの研究には、3D CGを用いたものや、画像ベースのものがある。しかし、CGでは写実的な画像の生成が難しく、画像ベースのものは、1つの深層学習モデルで異なる衣服の試着画像を生成するため、リアルタイムで高品質な画像を生成するのが難しい。それに対して、五十嵐健夫研究室が提案するシステムは、「特定の衣服の画像の生成に対象を絞って深層学習モデルを構築」するという手法でこれらの問題を克服した。
大まかな処理の流れはこうだ。試着者は、特別な柄の服(計測服)を着てカメラの前に立つと、深度センサー付きカメラで撮影される。その色と深度情報から、試着する服の画像が、服の部分と体の部分に分けられる。次に試着服の部分の領域分割を行い、画素の値に対応するラベル付き画像に変換される。そこから、深層学習モデルの一種である画像変換ネットワーク(画像を入力すると色づけなどの変換を施した画像が出力される)を使って試着する服の画像が生成される。それを試着者の体の画像と合成する。
ここで使わ

リンク元

コメント

タイトルとURLをコピーしました