Reserverad för Windows 11, DirectStorage kräver en “ultimat” GPU och en 1 TB NVMe SSD


Ambitiöst, DirectStorage API borde göra det möjligt att ta bort en flaskhals som observeras alltmer på våra datorer.
Sedan flera månader tillbaka har Microsoft fått prestationsentusiaster att drömma genom att frammana den kommande ankomsten av DirectStorage, ett API direkt från Xbox Series-världen.
Läs också:
Windows 11: ett operativsystem designat för videospel, enligt Microsoft
Direkt åtkomst, kringgå CPU
Målet som visas av DirectStorage är både logiskt och mycket enkelt. För närvarande, som du kan se i diagrammet nedan, lastningen av tillgångar i ett videospel involverar nödvändigtvis processorn.

Tidigare var detta knappast ett problem: spel var utrustade medtillgångar mindre många, mindre rika. Idag måste vi hantera förfrågningar i tusental. CPU efterfrågas mycket ofta, och det är GPU:n som tvingas “vänta på den”.

DirectStorage bör åtgärda denna situation genom att tillåta grafikprocessorn att direkt komma åt alla data i ett spel utan att någon bearbetning av processorn är nödvändig.
Läs också:
Windows 11 tillgänglig för nedladdning nästa vecka, för insiders
Hårdvaru- och mjukvarubegränsningar
Nyckeln, misstänker man, är en prestandavinst, eftersom CPU:n inte längre monopoliseras av triviala uppgifter. Vi ökar också prestanda på sidan av GPU:n som är designad för att bearbeta denna data, och vi drar nytta av en mycket högre bandbredd.
Även om det var en fråga om Windows 10 för DirectStorage, förändrade ankomsten av Windows 11 spelet. Microsoft begränsar sitt API till sitt nya OS, och det blir därför ingen fråga om att dra nytta av de förbättringar som gjorts av det “gamla” operativsystemet.

Lite mer irriterande, hårdvarukraven verkar höga, och det talas om GPU:er som är kompatibla med DirectX 12 Ultimate API. I själva verket skulle detta bara gälla de senaste grafikkorten: NVIDIA GeForce RTX 2000/3000-serien och AMD Radeon RX 6000-serien.
Slutligen, även på SSD-sidan, måste du hantera vissa begränsningar. Endast NVMe SSD:er tas med i beräkningen, vilket inte är en överraskning, men det skulle också vara nödvändigt att ha modeller på minst 1 TB.
Källa: TechPowerUp