テクノロジーの進歩は容赦なく、グラフィックスハードウェアほどこれが真実である場所はありません。毎年、カードは大幅に高速化され、派手なグラフィカルトリックのまったく新しい頭字語のセットをもたらします。
PCゲームの視覚的な設定を見ると、MSAA、FXAA、SMAA、WWJDなどのおいしいナゲットを含む単語サラダ(word salad)に出くわします。OK、おそらく最後のものではないでしょう。
新しいNvidiaGeForceRTX(Nvidia GeForce RTX)カードの幸運な所有者であれば、DLSSと呼ばれるものを有効にすることもできます。これはDeepLearningSuper Sampling(Deep Learning Super Sampling)の略で、 NvidiaRTXカードに見られる次世代ハードウェア(generation hardware)機能の大きな部分を占めています。
執筆時点では、これらのカードのみがDLSSを実行するために必要なハードウェアを備えています。
- RTX 2060
- RTX2060スーパー
- RTX 2070
- RTX2070スーパー
- RTX 2080
- RTX2080スーパー
- RTX 2080 Ti
問題の特定のハードウェアは「Tensor 」コア(” core)と呼ばれ、モデルごとにこれらの専用プロセッサの数が異なります。
テンソルコアは、DLSSがその一例である機械学習タスクを加速するように設計されています。DLSSを(DLSS)使用し(t use) ない場合、カードのその部分はアイドル状態のままになります。これは、 DLSSが利用可能な 場合、光沢のある新しいGPUの全容量を使用していないが、オフのままであることを意味します。(GPU)
DLSSがテーブルにもたらす価値を理解するには、いくつかの関連する概念に簡単に分かれる必要があります。
内部解像度とアップスケーリングへの迅速な迂回(A Quick Detour Into Internal Resolutions & Upscaling)
最新のテレビやモニターには、「ネイティブ」(Modern TVs and monitors)解像度(resolution)と呼ばれる解像度があります。これは単に、画面に特定の数の物理ピクセルがあることを意味します。その画面に表示している画像が正確なネイティブ解像度と異なる場合は、収まるように「拡大縮小」または縮小する必要があります。
したがって、たとえばHD画像を4Kディスプレイに出力すると、かなりブロック状でギザギザに見えます。(4K display)まるでデジタル写真を拡大しすぎたかのように。ただし、実際には、HDビデオ(HD video)は4K TVで問題なく表示されますが、ネイティブの4Kフッテージよりも少しシャープではありません。これは、テレビに「アップスケーラー」と呼ばれるハードウェアが搭載されており、低解像度の画像を処理してフィルタリングし、許容範囲内に見えるようにするためです。
問題は、アップスケーリングハードウェアの品質がディスプレイのブランドとモデルによって大きく異なることです。そのため、GPU(Which)には独自のスケーリングテクノロジーが(scaling technology)搭載(GPUs)されていることがよくあります。
4Kディスプレイに出力するように設計された「プロ」コンソールは、ネイティブの4K画像を表示するため、ディスプレイのアップスケーリングはまったく発生しません。これは、ゲームの開発者が最終的な画質(image quality)を完全に制御できることを意味します。
ただし、ほとんどのコンソールゲームは、ネイティブの4K解像度ではレンダリングされません。「内部」解像度が低く、 (” resolution)GPUへのストレスが少なくなります。次に、その画像は、コンソールの内部スケーリングテクノロジーを使用して、(scaling technology)高解像度画面(high-resolution screen)で可能な限り見栄えがするようにスケールアップされます。
事実上、DLSSは、PCゲーム(PC game)をネイティブ解像度よりも低い解像度でレンダリングし、DLSSテクノロジー(DLSS technology)を使用して、接続されたディスプレイ用にアップスケールする高度な方法です。理論的には、これによりパフォーマンスが大幅に向上します。
それは4Kコンソールで起こっていることとよく似ていますが、内部ではDLSSは本当に特別なものです。「ディープラーニング」に感謝します。
「ディープラーニング」ビットとは何ですか?(What’s The “Deep Learning” Bit About?)
深層学習は、シミュレートされたニューラルネットを使用する機械学習手法です。(machine learning technique)言い換えれば、脳内のニューロンが複雑な問題の解決策を学習して作成する方法のデジタル近似です。(brain learn)
これは、とりわけ、コンピューターが顔を認識し、ロボットが顔の周りの世界を理解してナビゲートできるようにするテクノロジーです。また、最近のディープフェイクの相次ぐ原因でもあります。それがDLSSの秘訣です。
ニューラルネットワークには「トレーニング」が必要です。これは基本的に、何かがどうあるべきかについての正味の例を示しています。ネットに顔の認識方法を教えたい場合は、何百万もの顔を見せて、典型的な顔を構成する特徴やパターンをネットに学習させます。レッスンをきちんと習得すれば、顔の入った画像を見せれば、すぐに写ります。
Nvidiaが行ったことは、DLSSをサポートするゲームからの信じられないほど高解像度の画像でディープラーニングソフトウェアをトレーニングする(DLSS)ことです(learning software)。ニューラルネットワークは、スーパーコンピューターレベルのグラフィックスパフォーマンスを使用してレンダリングされたときにゲームがどのように「あるべきか」を学習します。
次に、その低い内部解像度フレーム(resolution frame)が必要になります。より適切な言葉がないため、シーンをレンダリングした場合よりもはるかに強力なコンピューターがどのように見えるかを「想像」します。それがあなたにとって黒魔術のように聞こえるなら、あなたは一人ではありません!
DLSSを使用する場合(When To Use DLSS)
まず第一に、 (First)DLSSをサポートするゲームでのみ使用できます。これは、ありがたいことに急速に成長しているリストです。各タイトルには、最小解像度でのレンダリングなど、 DLSS(DLSS)に関する独自の要件もあります。これは、ニューラルネットがトレーニングされているためです。
ただし、Nvidiaの頭脳は(Nvidia doesn)学習(stop learning)を停止せず、カードのDLSS機能(DLSS feature)は更新を取得し続け、タイトルごとのサポートと品質を(support and quality)拡張します。
ゲームでDLSS(DLSS)を使用する必要があるかどうかを判断する最良の方法は、結果を目で確認することです。従来のアップスケーリングまたはアンチエイリアシングと比較して、どちらがより快適かを確認してください。パフォーマンスも重要な決定要因(deciding factor)です。1秒あたり60フレームをターゲットにしているのに到達できない場合は、DLSSが適しています。
ただし、高いフレームレートが得られている場合、DLSSは実際に速度を低下させる可能性があります。これは、テンソルコアが各フレームを処理するために一定の時間を必要とするためです。現在、彼らは高フレームレートの再生(frame rate play)に十分な速さでそれを行うことができません。
基本的に、DLSSは、(DLSS)ターゲットフレームレート(target frame rate)が約60フレーム/秒の高解像度ディスプレイ(high-resolution display)(4K、ウルトラワイド、1440pの解像度など)を使用する場合に最も役立ちます。また、 RTX(RTX)カードのもう一方のメインパーティのトリック(party trick)であるレイト(– ray)レーシングをアクティブにするときにも非常に便利です。DLSSは、レイトレーシングのパフォーマンスの低下(performance loss)を十分に相殺することができ、最終的には素晴らしい結果が得られます。(end result)
これは、 DLSS(DLSS)を使用するかどうかを決定する前に知っておく必要のある最低限のことです。このテクノロジー(Just)は急速に変化していることを忘れないでください。今日の結果が気に入らない場合は、数か月後に戻ってきて、ついに驚かされるかもしれません。
What Is DLSS and Should You Use It In Games
The march of technology is inexorable and nowhere is this more true than with graphics hardware. Every year cards get significantly faster and bring a whole nеw set of acronyms fоr fancy graрhical tricks.
Looking at the visual settings for PC games, you’ll encounter a word salad that contains such tasty nuggets as MSAA, FXAA, SMAA and WWJD. OK, maybe not that last one.
If you are the lucky owner of a new Nvidia GeForce RTX card, you can now also choose to enable something called DLSS. It’s short for Deep Learning Super Sampling and is a big part of the next generation hardware features found in Nvidia RTX cards.
At the time of writing, only these cards have the required hardware to run DLSS:
- RTX 2060
- RTX 2060 Super
- RTX 2070
- RTX 2070 Super
- RTX 2080
- RTX 2080 Super
- RTX 2080 Ti
The specific hardware in question is referred to as a “Tensor” core, with each model having a different number of these specialized processors.
Tensor cores are designed to accelerate machine learning tasks, which DLSS is an example of. If you don’t use DLSS, that part of the card remains idle. This means you aren’t using the full capacity of your shiny new GPU if DLSS is available, but remains off.
There’s more to it than that though.To understand what value DLSS brings to the table, we have to digress briefly into a few related concepts.
A Quick Detour Into Internal Resolutions & Upscaling
Modern TVs and monitors have what’s known as a “native” resolution. This simply means that the screen has a specific number of physical pixels. If the image you are displaying on that screen differs from the exact native resolution, it has to be “scaled” up or down to make it fit.
So if you output an HD image to a 4K display, for example, it’s going to look quite blocky and jagged. Just as if you’ve zoomed a digital photo in too far. In practice however, HD video looks just fine on a 4K TV, if perhaps a little less sharp than native 4K footage. That’s because the TV has a piece of hardware known as an “upscaler” that processes and filters the lower-resolution image to look acceptable.
The problem is that the quality of the upscaling hardware varies wildly between display brands and models. Which is why GPUs often come with their own scaling technology.
The “pro” consoles that are designed to output to a 4K display present it with a native 4K image, so that no display upscaling happens at all. This means the developers of games have complete control of the final image quality.
However, most console games do not render at a native 4K resolution. They have a lower “internal” resolution, which puts less stress on the GPU. That image is then scaled up to look as good as possible on the high-resolution screen using the console’s internal scaling technology.
In effect, DLSS is a sophisticated method that renders a PC game at a lower than native resolution and then uses the DLSS technology to upscale it for the connected display. In theory this leads to a significant boost in performance.
While that sounds a lot like what’s happening on 4K consoles, under the hood DLSS is really something special. All thanks to “deep learning”.
What’s The “Deep Learning” Bit About?
Deep learning is a machine learning technique that uses a simulated neural net. In other words, a digital approximation of how the neurons in your brain learn and create solutions to complex problems.
It’s the technology that, among other things, allows computers to recognize faces and lets robots understand and navigate the world around them. It’s also responsible for the recent spates of deepfakes. That’s the secret sauce of DLSS.
Neural networks require “training” which is basically showing the net examples of what something should be like. If you want to teach the net how to recognize a face, you show it millions of faces, letting it learn the features and patterns that make up a typical face. If it learns the lesson properly, you can show it any image with a face in it, and it will pick it out instantly.
What Nvidia have done is to train their deep learning software on incredibly high-resolution images from the games that support DLSS. The neural network learns what the game “should” look like when rendered using supercomputer-level graphics performance.
It then takes that lower internal resolution frame and, for lack of a better word, “imagines” what it would have looked like if a much, much more powerful computer than yours had rendered the scene. If that sounds a little like black magic to you well, you’re not alone!
When To Use DLSS
First of all, you can only use DLSS in games that support it, which is a list that’s growing quickly, thankfully. Each title also has its own requirements for DLSS, such as rendering at a minimum resolution, because that’s what the neural net has been trained on.
However, the big brain at Nvidia doesn’t stop learning and the DLSS feature on your card will keep getting updates, expanding per-title support and quality.
The best way to figure out if you should use DLSS in your games is to eyeball the result. Compare it to traditional upscaling or anti-aliasing to see which is more pleasant. Performance is also an important deciding factor. If you are targeting 60 frames per second, but can’t get there, DLSS is a good choice.
If you are getting high frame rates however, DLSS can actually slow things down. That’s because the tensor cores need a fixed amount of time to process each frame. Right now they can’t do it quickly enough for high frame rate play.
Essentially, DLSS is most useful when using a high-resolution display (e.g. 4K, ultrawide or 1440p resolutions) with a target frame rate at around 60 frames per second. It’s also incredibly useful when activating the other main party trick of RTX cards – ray tracing. DLSS can offset the performance loss of ray tracing quite well, with an end result that is at times spectacular.
That’s the least you need to know before deciding to go with DLSS or not. Just remember that this technology is changing rapidly, so if you don’t like the results today, come back in a few months and you just might just be blown away at last.