2019.12.15

α7R IVとα7IIIでの比較をしに

α7R IV購入して少したってきましたが、やはりα7IIIからの乗り換えは圧倒的な解像度の差だなと思うわけですが、同じレンズSEL70300G(70mm-3000mm)のレンズで同じ題材を撮ってこようと思い、天気がよかったので、千葉市動物公園に行ってきました。

上のアルバムがα7R IVで、下が9月にα7III。

Chiba Zoological Park Dec 2019 α7RIV

Chiba Zoological Park Sep 2019

各写真等倍上げてるので、ニホンザルとかゴリラあたりが多いので等倍時の毛のあたりが差が出るのかなという感じですね。ローパスフィルターの差もあるのかもしれないですけど。

なかなかこの差戻れない部分あるなと思いますね。

2019.12.03

買ってしまったα7R IV

6100万画素の魅力に惹かれてα7R IV買ってしまいました…。

Cd82c578c95f48aca01b8713f8f1c78b

60c6ca2fde3644c6a41bdf4ab242f148

2019.09.02

TAMRON 17-28mm F/2.8 Di III RXDで夜景

α7III + TAMRON 17-28mm F/2.8 Di III RXDで夜景撮影もしてみました。

TAMRON 17-28mm F/2.8 Di III RXD Photos

2019.09.01

TAMRON 17-28mm F/2.8 Di III RXDで千葉ポートタワー

α7III用に広角ズームレンズが1本欲しいと思っていたので、SonyのSEL1635GMとSIGMA 12-24mm F2.8 DG DNと迷いましたが、結局TAMRON 17-28mm F/2.8 Di III RXDを購入。

広角じゃないと撮りにくいものなんかあるかなと考えてみたら千葉のポートタワーが縦持ちで撮影じゃないとなかなか入りにくいので撮ってきました。

あと、タワーの上から東京湾って感じですね。

Chiba Port Tower 2019 千葉ポートタワー

2019.08.28

Variable Rate Shadingのベンチマーク

3DMarkにVariable Rate Shading(VRS)対応のベンチマークが加わったので、GeForce RTX 2070 Superで動かしてみました。

4K解像度でやりましたが、VRSの効果がかなり出ますね。

Vrs

2019.07.24

GeForce RTX 2070 SuperでVariable Rate Shadingを動かしてみた

GeForce RTX 2070 SuperでVariable Rate Shadingを動かしてみました。

Windows 10はMay Update 2019適用済みで、DirectX-Graphics-SamplesのDevelopブランチにあるものをビルドしたらそのまま動きました。

https://github.com/microsoft/DirectX-Graphics-Samples/tree/develop/Samples/Desktop/D3D12VariableRateShading

このサンプルは、リフレクション、シーン、ポストエフェクトの3つのパスでシェーディングレートを1x1、1x2、2x1、2x2、4x2、2x4、4x4の7種類変更できます。

静止画で1x1、2x2、4x4上げてみました。ココログは大きな画像ファイルのアップに向かないのでFlickrに上げてます。オリジナルサイズで見るのがいいと思います。

※フレームレートはキャプチャした瞬間変動してるので、参考にしないでください。

VRS1x1

 

VRS2x2

 

VRS4x4

とりあえず、全体を4x4にするとシェーディングレートの低下がわかりますね。床のタイトルのへこみとかで斜めになってるところとかギザギザしますね。真ん中の置物も変わりますね。今回は一律で間引いてるので変化がわかりやすいですね。

実際の使用シナリオは、VRであれば、外側は間引けばいいのですが、一般的なディスプレイ向けゲームの場合、目立つところと目立たないところをちゃんと判定してやるのがいいのか、フレームレートが下がった際にやる動的解像度のように使うのか、チェッカーボードと比較してどうなのかなど、使い方はいろいろと戦略はありそうですね。ひとまず動くのは確認できました。

ついでに、シーンパスと全パス適用を動画もアップしました。

 

2019.07.10

α7III+フォクトレンダーNOKTON Classic 35mm F1.4 で清澄庭園

α7IIIでミラーレス一眼に移ったのですが、以前の一眼レフではMFは苦手だったんですが、α7IIIはMF時にフォーカスあてたとことろをズームしてくれたり、ピーキング機能でだいぶ使いやすいことがわかり、MFでクラシックな描写するという評判のフォクトレンダーNOKTON Classic 35mm F1.4 E-mountを手に入れてみました。

そんで、天候悪いですが、清澄庭園でちょっと撮影テスト。

清澄庭園2019

なるほど、これはLightroomであんまり補正しすぎない方がいいのかもなぁ。レンズ補正周辺光量落ち直せるし、きれいになるけどクラシックな描写感なくなるなぁ…ということであまりいじらずが良いんでしょうね。

2019.06.16

ZEISS Batis 2/40 CFを購入

α7IIIに普段つけっぱなしにしておく標準域につけておくレンズとしてZEISS Batis 2/40 CFを購入しました。

Batis

ZEISS Batis 2/40 CF
https://www.zeiss.co.jp/camera-lenses/photography/products/batis-lenses/batis-240cf.html

55mmでSEL5518Zを持っていて少し狭いなと思いつつ、35mmでは画質より軽量さでSAMYANG AF35mm F2.8 FEなんかを持っていて、35mmで高画質なものはもともと別なカメラでRX1Rあるので避けておこうかなと思っていたのですが、品薄だったZEISS Batis 2/40 CFがだいぶ買えるようになったので購入。

やっぱり、自分的には35mmに近い画角の方が扱いやすく寄れるというのはいいですね。ちょっと長いなとは思いつつも軽量な方なのは良いですね。

向島百花園2019


雑多なものは下記ですが、浅草の写真が今は占めてますね。


Batis 2/40 CF Photos


2019.05.09

Google I/O 2019 ARCoreの機械学習での照明推定やライティングのセッション動画

Google I/O 2019でARCoreのアップデートが様々公開になりました。

Updates to ARCore Help You Build More Interactive & Realistic AR Experiences
https://developers.googleblog.com/2019/05/ARCore-IO19.html

この中で、カメラからの照明推定(Light Estimation)の部分は大きなアップデートだと思います。AppleのARKitでも照明推定があり、Light Probeの構築などはやってくれてますが、ARCoreではHDR Cube mapの生成も対応したようです。

ちょうどGoogle I/O 2019ではそのことに関するIncreasing AR Realism with Lighting (Google I/O'19)というセッションがあり、動画が公開されています。

ARで環境の情報を取得するカメラは、LDRの入力ですが、ここからHDR Light Probeの構築しています。セッション見ているとこれは、TensorFlow Lightを使ってニューラルネットワークで処理しているようですね。

Lightprobe

この実装はCVPR 2019で発表される"DeepLight: Learning Illumination for Unconstrained Mobile Mixed Reality"として発表されるようです。研究メンバーにはPaul Debevecがいるので納得感高いですね。

DeepLight: Learning Illumination for Unconstrained Mobile Mixed Reality
https://arxiv.org/abs/1904.01175

リアルタイム性の高いアプリケーションで機械学習をインタラクティブなレベルの処理時間で実装できてるというのが、やはりGoogle強いですね。

あと、地味にディレクショナルライトの算出も新機能ですが、これはカメラから見てかShadowを落とす際に便利ですね。

※動画は字幕表示ができるのでリスニング苦手な方でも情報を拾いやすく、翻訳にも対応しています(ただし、機械翻訳の怪しさがあります)。

2019.05.08

DirectMLの超解像(Super Resolution)サンプルを動かした

ノートPCで超解像のサンプルを動かしてみました。GPUは、GeForce GTX 1070(MAX-Q)です。

https://github.com/microsoft/DirectML-Samples

DebugビルドだとPixのランタイムDLLが生成されなくてエラーでしたが、Releaseビルドが動いたのでスクショを撮ってみました。

このサンプルでは、960x540の60 fps動画をBilinear FilterとSuper resolution Neural Networkの2つの手法が切り替えでアップスケールします。比較用に、両方の画像を交互に載せていきます。

Directmlsuperresolution-2019_05_08-1_40_ 

Directmlsuperresolution-2019_05_08-1_40__1 

上:Bilinear Filter 下:Super resolution Neural Network

Directmlsuperresolution-2019_05_08-1_41_

Directmlsuperresolution-2019_05_08-1_41__1

上:Bilinear Filter 下:Super resolution Neural Network

Directmlsuperresolution-2019_05_08-1_42_

Directmlsuperresolution-2019_05_08-1_42__1

上:Bilinear Filter 下:Super resolution Neural Network

Directmlsuperresolution-2019_05_08-1_42__2

Directmlsuperresolution-2019_05_08-1_43_

上:Bilinear Filter 下:Super resolution Neural Network

一応、動画も撮ってみましたが、Bilinear Filterと比べてSuper resolution Neural Networkは10 fpsぐらいまで落ちましてあまり参考にならなさそうですね。

とりあえず、Pascal世代のノートPCの1070だとちょっと実用が厳しいなという感じですね。RTXでどうなのか気になるので、別途試してみたいですね。

より以前の記事一覧