2020.11.24

SIGGRAPH 2020で発表されたニューラルリギング論文をBlenderに組み込んだ話

https://github.com/pKrime/brignet

SIGGRAPH 2020で発表されたニューラルネットワークを使ったオートリギングの論文RigNet: Neural Rigging for Articulated Charactersを組み込んだようですね。

RigNet: Neural Rigging for Articulated Characters
https://zhan-xu.github.io/rig-net/

論文の実装はソースはGPLv3で公開されていたのでbRigNetもGPLv3ですが、出力物使う分には問題ありませんね。

2020.10.27

SIGGRAPH ASIA 2020の登録開始

オンラインイベントのSIGGRAPH ASIA 2020の登録が開始になったみたいですね

https://siggraphasia.delegateconnect.co/registrations/page/intro

Papersの情報も結構出そろってきたようですし、ちょっとチェックですね。

https://kesen.realtimerendering.com/siga2020Papers.htm

2020.10.20

Shader.jpの更新2020/10/20

2記事ほど更新しています。

2020.10.11

Two Minute PapersのFacebook Researchの“Neural Supersampling for Real-time Rendering"解説動画

Two Minute PapersでSIGGRAPH 2020でFacebook Researchが発表した“Neural Supersampling for Real-time Rendering"解説動画が公開になっていますね。NVIDIAのDLSSなんかと目指すところは近いのかもしれないですね。

Introducing neural supersampling for real-time rendering
https://research.fb.com/blog/2020/07/introducing-neural-supersampling-for-real-time-rendering/

この手法は高品質のレンダリングを軽量に行うために、960×540でレンダリングしたゲーム画像をリアルタイムにニューラルネットワークを使ってアップサンプリングするというもののようですね。この手法では数フレーム分の低解像度でレンダリングしたカラー、深度、モーションベクターを入力に高解像度のカラーを出力するというもののようですね。16倍のスーパーサンプリングしたものが記事で公開されています。

教師ありということで、アンチエイリアスをかけた高解像度画像と低解像度画像をペアで学習しているようですね。

ゲームに応用できる手法ではありますが、Facebook ResearchということでAR/VRについて軽量に高品質なレンダリングをしたいということで


2020.10.06

GTC 2020で発表されたグラフィックス関連の話題まとめ

GTC 2020のグラフィックスやゲームグラフィックス関連のまとめ記事がでてますね.

GTC Brings A New World of Ray-Traced Possibilities
https://news.developer.nvidia.com/gtc-brings-a-new-world-of-ray-traced-possibilities/

やっぱりRTXDIはどうなんでしょうねぇ。

2020.10.05

RTXの直接光ソリューションRTXDIの記事

ああ、これどんな絵作りに使えるだろうなぁ。

ほんとに動くんかなぁ、ということで楽しみですなぁ。

2020.10.04

生成 Deep Learningが届いた


来たばかりで、ざっと流し読みですが最初の1冊として手に取る本ではないですが基本的な用語押させてる人が広く知るにはいいかなと思います。
オートエンコーダ、GAN、VAE、LSTM、OpenAI Gymといった話題がありますね。画像、音声、文章が扱う対象ですね。数学の知識はいりますね。

日本語版では付録にGPT-3の解説がありますね。ゲーム会社の人がこの分野の知識入れる本としてはよいかもしれないですね。

サンプルコードはGitHubにありますが、本では解説は一部なのでソースを直接理解するためにPythonの知識はほかで身に着ける感じですね。
120841253_10218352346585626_840957997474

2020.09.29

NetEase Fuxi AI Labの音楽からダンスの論文

今年のGDCでもNetEaseはMMO RPG向けネタありましたが、ゲームの中の機能拡張としてのAI研究は力入れてるなと思います。

GDC 2020気になるセッション その1 : NetEaseのAI系セッション
http://masafumi.cocolog-nifty.com/masafumis_diary/2019/12/post-0c1381.html

2020.09.15

I3D 2020の予稿集が公開に

今週開催しているI3D 2020の予稿集が来てますね。

2020.09.14

I3D 2020のILMやルーカスフィルムのバーチャルプロダクションやLEDウォール周りのUE4の話の基調講演

いよいよ、I3D 2020目前ですがライブ配信のページは準備ができてるみたいですね。

https://www.youtube.com/c/I3DSymposium

論文の発表も楽しみですが、毎日あるキーノートも楽しみですね。Youtubeで時差ありでも見れるといいけどどうでしょうね。

最近のちょっとした興味から気になってるのは2つですね。

http://i3dsymposium.github.io/2020/keynotes.html#KeynoteRRNH

まずは、15日のこれですが、ILMとルーカスフィルムからということみたいですね。スターウォーズの最近の作品(ミレニアムファルコンやマンダロリアン)でのリアルタイムレンダリングやバーチャルプロダクションの話ですね。こちらはLED displaysとあるのですが、LEDウォールでしょうね。

Title: Real-Time Rendering At Lucasfilm: Working with The Coolest Toys In The Galaxy

Abstract: From 1980's point-and-click adventure games to the ILM StageCraft tool suite used for The Mandalorian television series, real-time rendering has been woven throughout Lucasfilm's history. The mix of game technology and feature film visual effects expertise has produced many unique projects at Lucasfilm, including the interactive theme-park ride Star Wars: Millennium Falcon – Smugglers Run, the Academy Award-winning virtual reality experience Carne y Arena, and the groundbreaking advances in virtual production culminating in capturing final pixels in camera using ILM StageCraft on The Mandalorian. We will discuss the technical challenges we faced on these projects, as well as the opportunity they afforded us to work with some of the coolest toys in the galaxy: eight-GPU monster PCs, pre-release virtual reality headsets, custom motion capture hardware, 20' high wraparound LED displays, and feature film assets from some of the world's most beloved media properties.

http://i3dsymposium.github.io/2020/keynotes.html#KeynoteDM

続いて、こちらはEpic Gamesですね。こちらもバーチャルプロダクションに絡んだものだともいますが、LEDウォールの話がでるようですね。LEDウォールは、LEDスクリーンにCG背景投影してグリーンバックと違い役者がそのまま背景と合わせて演技や撮影ができる利点がありますが、UE4でレンダリングってことなんでしょうね。

Title: Creating In-Camera VFX with Real-Time Workflows

Abstract: This session will cover advancements in “in-camera visual effects” and how this technique is changing the film and TV industry. With software developments in real-time game engines, combined with hardware developments in GPUs and on-set video equipment, filmmakers can now capture final pixel visual effects while still on set – enabling new levels of creative collaboration and efficiency during principal photography. These new developments allow changes to digital scenes, even those at final pixel quality, to be seen instantly on high-resolution LED walls – an exponential degree of time savings over a traditional CG rendering workflow. This is crucial as there is a huge demand for more original film and TV content, and studios must find a way to efficiently scale production and post-production while maintaining high quality and creative intent.

より以前の記事一覧