Googleが、「NeRF(neural radiance fields )」を活用し、建物内の360度映像を作成しました。2D画像から立体的な画像を生成する技術により、どういった映像ができあがったのでしょうか。
今回は、画像生成に使用された「NeRF」や、公開された映像についてご紹介します。
「NeRF(neural radiance fields )」とは
「NeRF」は、複数のアングルで撮影した2Dの画像から、3Dの画像を作るという技術です。複数の写真から立体的な画像を生成し、自由な視点で楽しめます。
これには深層学習という、機械学習の1つが用いられています。深層学習は「ディープラーニング」ともいい、大量のデータを元に、自動で学習していくAI技術です。深層学習は、入力層と出力層のあいだに中間層を設け、それを多層化することで、より複雑な情報にも対応が可能。データの分析精度が上がるのが特徴です。
デジタル一眼レフカメラ撮影の写真から360度映像を生成
6月にGoogleが公開した360度映像は、デジタル一眼レフカメラで撮影された写真を元に、構成されています。この映像の驚くべき点は、撮影に360度カメラを使用していない点です。
通常の2Dカメラで撮影した複数の写真から、深層学習により360度見渡せる映像ができあがっています。
映像の視聴は「スマートフォン」を想定
Googleは、今回の「NeRF」を使用して作った360度映像を「スマートフォンで視聴する」と想定。誰もが持つ媒体で、手軽に建物内の360度映像を確認できるのは、うれしいポイントです。
今後、「NeRF」を活用して作られた360度映像は、Googleマップをはじめ、Googleが街の情報を提供する媒体でも見られることが期待されます。異なるアングルの複数枚の写真があれば、簡単にこうした映像が作れるので、一般の方の投稿した写真から、店内を見渡せる360度映像が自動生成される日も来るのではないでしょうか。
「NeRF」関連の研究はまだ続く!
今後もGoogleは、「NeRF」関連の研究を継続する予定です。「NeRF」の技術がさらに進歩すれば、将来的には各映像へのセマンティック情報を付与し、屋内だけでなく、屋外で撮影された写真からの映像生成にも取り組むとのこと。360度や3Dの映像がより身近なものになるのも、夢ではないことでしょう。
Googleの研究の動向を見守りつつ、進歩した技術がGoogleサービス内で活用される日も、心待ちにしましょう。