フォト

Google AdSense

  • AdSense
無料ブログはココログ

« ShaderForge買ってみた | トップページ | HLSL shader linkingを試そう »

2014.01.18

I3D 2014 Sound Localization and Multi-Modal Steering for Autonomous Virtual Agents

I3D 2014の"Sound Localization and Multi-Modal Steering for Autonomous Virtual Agents"という論文(サイトの下の方に動画あり)。

エージェントが音を頼りに車を避けたり、壁の向こうの音源に歩いて行ったり、音源に対して振り向いたりという話。

このテのエージェント処理って従来、視覚的な情報で避けたり目的地に向かったりしてたけど、これは音源の方向をエージェントが聞き取ってって感じなのが新しいという感じかな。確かに後ろから何かが近づいてきたり見えないところに向かったりというのは音を頼りにすることが多いから、このアプローチは色々と応用の幅が多くてよさそう。

論文のサイト(動画は下の方。視覚化されてるのでわかりやすいです)
http://people.inf.ethz.ch/kapadiam/projects-sound-localization.html

複数の 音の干渉、音の 減衰 、障害 物の 反射 と 回折 のための ディストーションなんかも考慮するみたいですね。

スニーキングなゲームで足音で気づかれるとか、壁の向こうで銃声がするのでそれに対応する、などのAIキャラクターの振る舞いがリアルになりそうですね。

« ShaderForge買ってみた | トップページ | HLSL shader linkingを試そう »

Programming」カテゴリの記事

コメント

コメントを書く

コメントは記事投稿者が公開するまで表示されません。

(ウェブ上には掲載しません)

« ShaderForge買ってみた | トップページ | HLSL shader linkingを試そう »