DLDSR: NVIDIA formaliserar sin “superupplösning” med hjälp av artificiell intelligens

NVIDIA GeForce RTX © NVIDIA

En superupplösningsteknik reserverad för grafikkort
NVIDIA med Tensor-kärnor.

Om tillgängligheten fortfarande är oregelbunden, hindrar inte detta att grafikkortets tenorer går slag för slag. Således, mindre än en vecka efter att AMD tillkännagav integrationen av FidelityFX superupplösning till sina grafikdrivrutiner, flyttar NVIDIA fram en ny bonde.

de Dynamisk superupplösning

I flera månader har NVIDIA slagit i öronen med sin teknik för Deep Learning Super Sampling. Tanken är att beräkna bilden i en lägre upplösning än den som faktiskt kommer att visas på skärmen för att minska beräkningarna för grafikkortet.

Vi vinner uppenbarligen i prestanda, men för att bilden inte ska förlora för mycket detaljer förlitar sig NVIDIA på en smart teknik som involverar artificiell intelligens. Detta måste fylla i luckorna på ett så effektivt sätt som möjligt och faktum är att renderingen nu är mycket nära resultatet i native definition.

NVIDIA DLDSR © NVIDIA

Tja, den Deep Learning Dynamic Super Resolution det är lite samma sak, men “omvänt”. NVIDIA har under en tid erbjudit en möjlighet att Dynamisk superupplösning (DSR) i sina drivrutiner. Saken är enkel eftersom det handlar om att beräkna bilden i en definition som denna gång är större än den som faktiskt kommer att visas.

Som du kan föreställa dig kommer vi då att kunna få en märkbart finare bild och det kommer att vara möjligt att klara sig utan någon kantutjämning. Problem, saken är monstruöst girig.

… assisterad av artificiell intelligens

Det är här DLDSR kommer in tack vare artificiell intelligens. Henne igen. NVIDIA tar in den denna gång för att ta hand om nedsampling på bästa sätt. Målet är uppenbarligen att DSR blir mycket mindre girig för PC.

NVIDIA DLDSR © NVIDIA

I NVIDIA-drivrutinerna var det alltså möjligt att ställa in DSR till x4, med andra ord multiplicerades antalet beräknade pixlar med fyra och från 2 560 x 1 440 tryckte kortet för att beräkna 5 120 x 2 880. Garanterad prestandaförlust, men DLDSR förlitar sig på AI för att, exakt, bara beräkna x2,25 och behålla en likvärdig bildkvalitet, enligt NVIDIA förstås. Allt detta bör kontrolleras.

Dessutom, vem säger Djup lärning NVIDIA säger också bidraget från de berömda Tensor-kärnorna av RTX-kort: DLDSR kommer därför att reserveras för GeForce RTX och vi kan anta att RTX 3000 kommer att bli mer effektiv, men NVIDIA betonar att saken måste vara kompatibel ” med de flesta spel “, utan att studiorna behöver arbeta som med DLSS.

DLDSR är ännu inte tillgänglig, det bör vara den 14 januari med den nya versionen av GeForce-drivrutinerna som företaget måste distribuera för att stödja releasen av Gud av krig på PC, som kommer att vara kompatibel med denna bra DLSS, som inte viker ut för allt det där.

Om samma ämne:
GeForce RTX 3080 12 GB stannade den 11 januari: är den här gången rätt?

Källa: NVIDIA

Relaterade Artiklar

Back to top button