itthon / Munka az interneten / Nvidia GeForce videokártya családok Referencia információk. Az Nvidia GeForce grafikus kártyacsaládok az SLI több GPU-s renderelés változásairól

Nvidia GeForce videokártya családok Referencia információk. Az Nvidia GeForce grafikus kártyacsaládok az SLI több GPU-s renderelés változásairól

GPU Boost 2.0

Az NVIDIA GeForce GTX 680 grafikus kártyával egy fontos újdonságot kapunk: a GPU Boost. Az új NVIDIA GeForce GTX Titan pedig egy lépéssel tovább megy azzal, hogy ezt a funkciót a GPU Boost 2.0-ra bővíti. A GPU Boost 1.0 első verziója a legigényesebb modern játékokban elért maximális energiafogyasztásra összpontosított. Ebben az esetben a GPU hőmérséklete nem játszott különösebb szerepet, hacsak nem közelítette meg a kritikus küszöböt. A maximális órajel frekvenciát a relatív feszültség alapján határoztuk meg. A hátrány nyilvánvaló volt: a GPU Boost 1.0 nem tudta megakadályozni azokat a helyzeteket, amikor még nem kritikus feszültség mellett is túlzottan megnőtt a hőmérséklet.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

A GeForce GTX Titan már két paramétert értékel: a feszültséget és a hőmérsékletet. Vagyis a relatív feszültség (Vref) meghatározása e két paraméter alapján történik. Természetesen továbbra is az egyes GPU-kra hagyatkozni fog, hiszen a chipgyártásban eltérések mutatkoznak, így minden grafikus kártya különbözni fog a többitől. Az NVIDIA azonban rámutat, hogy technikailag a hőmérséklet hozzáadása átlagosan 3-7 százalékkal magasabb Boost túlhajtást tesz lehetővé. A GPU Boost 2.0 technológiát elméletileg át lehetne vinni régebbi videokártyákra, de ez nem valószínű, hogy megtörténik.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

Nézzük meg közelebbről a GPU Boost 2.0-t. Az olyan segédprogramok, mint az EVGA Precision Tool vagy az MSI Afterburner, már támogatják a GPU Boost 2.0-t. Az EVGA Precision Tool 4.0-s verzióját használtuk.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

A GPU Boost 2.0 figyelembe veszi a hőmérsékletet, és alacsony hőmérsékleten a technológia jelentősen növelheti a teljesítményt. A célhőmérséklet (Ttarget) alapértelmezés szerint 80 °C.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

A GPU Boost 2.0 technológia tartalmazza az összes olyan funkciót, amelyet a technológia első generációjából ismerünk, ugyanakkor lehetővé teszi magasabb feszültség, ezáltal magasabb órajel beállítását is. Túlhúzóknál lehetőség van a beállítások módosítására. Engedélyezheti a GPU túlfeszültségét, de ügyeljen a grafikus kártya élettartamának lehetséges csökkenésére.

NVIDIA GeForce GTX Titan – GPU-Boost 2.0

A túlhúzók növelhetik a Vref-et és a Vmax-ot (OverVoltaging). Sok felhasználó ezt szerette volna a GK104-nél, de az NVIDIA sem a felhasználókat, sem a gyártókat nem bízta meg ilyen lehetőséggel. Az általunk tesztelt (teszt és áttekintés) EVGA GTX 680 Classified videokártya pedig csak egy kiváló példa. Ez a videokártya egy speciális EVGA Evbot modullal rendelkezett, amely a felhasználók számára biztosította a feszültségek szabályozását. Az NVIDIA azonban sürgősen követelte, hogy az EVGA távolítsa el a további berendezéseket a videokártyáiról. A GPU Boost 2.0 és az OverVoltaging segítségével az NVIDIA maga is tett egy lépést ebbe az irányba. Így a videokártya-gyártók több GeForce GTX Titan modellt is kiadhatnak, például szabványos és gyárilag túlhajtható verziókat. Az OverVoltaging engedélyezése VBIOS kapcsolón keresztül történik (azaz kifejezetten a felhasználó számára, hogy tisztában legyen a lehetséges következményekkel).

ParaméterJelentése
Chip kódnévGP104
Gyártástechnológia16 nm-es FinFET
A tranzisztorok száma7,2 milliárd
Alapterület314 mm²
Építészet
DirectX hardver támogatás
Memóriabusz
1607 (1733) MHz
Számítási blokkok20 streaming multiprocesszor, köztük 2560 skaláris ALU az IEEE 754-2008 szabvány keretein belüli lebegőpontos számításokhoz;
Textúra blokkok160 textúracímző és szűrőegység FP16 és FP32 komponensek támogatásával a textúrákban, valamint a trilineáris és anizotróp szűrés támogatásával minden textúraformátumhoz
Monitor támogatás
A GeForce GTX 1080 referencia grafikus kártya specifikációi
ParaméterJelentése
Magfrekvencia1607 (1733) MHz
2560
Textúra blokkok száma160
Keverési blokkok száma64
Hatékony memóriafrekvencia10000 (4×2500) MHz
Memória típusaGDDR5X
Memóriabusz256 bites
memória8 GB
320 GB/s
körülbelül 9 teraflop
103 gigapixel/s
257 gigatexel/s
GumiPCI Express 3.0
Csatlakozók
Energia fogyasztás180 W-ig
Kiegészítő ételEgy 8 tűs csatlakozó
2
Ajánlott ár599–699 USD (USA), 54 990 RUB (Oroszország)

A GeForce GTX 1080 videokártya új modellje az új GeForce sorozat első megoldására logikus nevet kapott - csupán a megváltozott generációszámban tér el közvetlen elődjétől. Az új termék nemcsak a cég jelenlegi vonalának csúcsmegoldásait váltja fel, hanem egy ideig az új sorozat zászlóshajója is lett, mígnem a Titan X még nagyobb teljesítményű GPU-val megjelent. Alatta a hierarchiában a már bejelentett GeForce GTX 1070 modell is, amely a GP104 lapka lecsupaszított változatára épül, amit alább megvizsgálunk.

Az új Nvidia grafikus kártya ajánlott ára 599 dollár, illetve 699 dollár a normál verziókért és a speciális Founders Editionért (lásd lent) , hanem a Titan X. Az új termék mára kérdés nélkül a legjobb teljesítményű megoldás az egychipes videokártyák piacán, ugyanakkor olcsóbb, mint az előző generáció legproduktívabb videokártyái. A GeForce GTX 1080-nak eddig lényegében nincs versenytársa az AMD-től, így az Nvidia ki tudta állítani a nekik megfelelő árat.

A szóban forgó videokártya a GP104 chipre épül, amely 256 bites memóriabusszal rendelkezik, de az új típusú GDDR5X memória nagyon magas, 10 GHz-es effektív frekvencián fut, ami magas, 320 GB/s csúcssávszélességet ad. - ami szinte egyenrangú a 384 bites busszal rendelkező GTX 980 Ti-vel. Az ilyen busszal rendelkező videokártyára telepített memória mennyisége 4 vagy 8 GB lehet, de kisebb mennyiséget telepíteni egy ilyen erős megoldáshoz modern körülmények között hülyeség lenne, így a GTX 1080 logikusan 8 GB memóriát kapott. , és ez a kötet elegendő bármilyen 3D-s játék futtatásához.alkalmazások bármilyen minőségi beállítással az elkövetkező években.

A GeForce GTX 1080 PCB nyilvánvaló okokból merőben különbözik a cég korábbi PCB-itől. Az új termék jellemző energiafogyasztása 180 W – ez valamivel magasabb, mint a GTX 980, de észrevehetően alacsonyabb, mint a kevésbé produktív Titan X és GTX 980 Ti. A referenciakártya a képkimeneti eszközök csatlakoztatásához szokásos csatlakozókészlettel rendelkezik: egy Dual-Link DVI, egy HDMI és három DisplayPort.

Founders Edition referencia design

Még a GeForce GTX 1080 május eleji bejelentésekor bejelentették a videokártya speciális kiadását Founders Edition néven, amely a cég partnerei szokásos videokártyáihoz képest magasabb árat jelentett. Ez a kiadás lényegében a kártya és a hűtőrendszer referenciaterve, és maga az Nvidia gyártja. Az ilyen videokártya-lehetőségekhez különféleképpen viszonyulhat, de a cég mérnökei által kifejlesztett és kiváló minőségű alkatrészek felhasználásával gyártott referencia-kialakításnak vannak rajongói.

De vajon több ezer rubel többet fizetnek-e az Nvidia videokártyájáért, az olyan kérdés, amelyre csak gyakorlattal lehet válaszolni. Mindenesetre eleinte az Nvidia referencia videokártyái kerülnek majd eladásra emelt áron, és nincs is miből válogatni - ez minden bejelentésnél előfordul, de a referencia GeForce GTX 1080 annyiban különbözik. a tervek szerint ebben a formában forgalmazzák teljes élettartama alatt, egészen a megoldások következő generációjának megjelenéséig.

Az Nvidia úgy véli, hogy ennek a kiadványnak még partnerei legjobb munkáival szemben is megvannak a maga érdemei. Például a hűtő kétnyílásos kialakítása lehetővé teszi, hogy erre a nagy teljesítményű videokártyára könnyen építhető legyen a viszonylag kis méretű játék PC-k és a többchipes videorendszerek (még a három- és négychipes mód ellenére is) a vállalat által nem javasolt működés). A GeForce GTX 1080 Founders Edition néhány előnnyel rendelkezik a gőzkamrát használó hatékony hűtő és a házból felmelegített levegőt kiszorító ventilátor formájában – ez az Nvidia első ilyen megoldása, kevesebb mint 250 W-ot fogyaszt.

A vállalat korábbi referenciatermék-terveihez képest az áramkör négyfázisúról ötfázisúra bővült. Az Nvidia az új termék alapjául szolgáló továbbfejlesztett komponensekről is beszél; az elektromos zajt is csökkentették, ami jobb feszültségstabilitást és túlhúzási potenciált tesz lehetővé. Az összes fejlesztés eredményeként a referenciakártya energiahatékonysága 6%-kal nőtt a GeForce GTX 980-hoz képest.

És annak érdekében, hogy külseje eltérjen a „szokásos” GeForce GTX 1080 modellektől, a Founders Edition számára egy szokatlan „vágott” házkialakítást fejlesztettek ki. Ami azonban valószínűleg az elpárologtató kamra és a radiátor bonyolultabb formáját is eredményezte (lásd a fotót), ami lehetett az egyik oka annak, hogy 100 dollárt kellett fizetni egy ilyen speciális kiadásért. Ismételjük meg, hogy az értékesítés kezdetén a vásárlóknak nem sok választásuk lesz, de a jövőben vagy a cég partnerei közül választhatnak saját tervezésű megoldást, vagy az Nvidia által készített megoldást.

A Pascal grafikus architektúra új generációja

A GeForce GTX 1080 videokártya volt a cég első olyan GP104 chipre épülő megoldása, amely az Nvidia Pascal grafikus architektúrájának új generációjához tartozik. Bár az új architektúra a Maxwell-nél kifejlesztett megoldásokra épül, fontos funkcionális különbségek is vannak, amelyekről később írunk. Globális szempontból a fő változást az új technológiai eljárás jelentette, amellyel az új grafikus processzort elkészítették.

A 16 nm-es FinFET eljárás alkalmazása a GP104 grafikus processzorok gyártásában a tajvani TSMC cég gyáraiban lehetővé tette a chip komplexitásának jelentős növelését, miközben viszonylag alacsony területet és költséget tartottak fenn. Hasonlítsa össze a tranzisztorok számát és a GP104 és GM204 chipek területét - területükben hasonlóak (az új termék kristálya fizikailag még kicsivel is kisebb), de a Pascal architektúra chipben észrevehetően nagyobb a tranzisztorok száma, ill. , ennek megfelelően a végrehajtási egységek, beleértve azokat is, amelyek új funkcionalitást biztosítanak.

Építészeti szempontból az első játék Pascal nagyon hasonlít a Maxwell architektúra hasonló megoldásaihoz, bár vannak különbségek. A Maxwellhez hasonlóan a Pascal processzorok is különböző konfigurációkkal rendelkeznek a Graphics Processing Cluster (GPC), a Streaming Multiprocessor (SM) és a memóriavezérlők közül. Az SM multiprocesszor egy rendkívül párhuzamos többprocesszor, amely ütemezi és futtatja a vetemítéseket (32 utasításszálból álló csoportokat) a CUDA magokon és a többprocesszor egyéb végrehajtási egységein. Mindezen blokkok tervezéséről részletes információkat találhat a korábbi Nvidia megoldásokról szóló áttekintéseinkben.

Az SM többprocesszorok mindegyike egy PolyMorph Engine-nel van párosítva, amely kezeli a textúra mintavételezését, a tesszellációt, az átalakítást, a csúcs attribútum beállítását és a perspektíva korrekcióját. A cég korábbi megoldásaitól eltérően a GP104 chipben található PolyMorph Engine egy új, több vetítésű egységet, a Simultaneous Multi-Projectiont is tartalmaz, amelyről alább még szó lesz. Az SM többprocesszor és egy Polymorph Engine kombinációját hagyományosan TPC - Texture Processor Cluster for Nvidia néven hívják.

A GeForce GTX 1080 GP104 chipje összesen négy GPC-fürtöt és 20 SM-multiprocesszort, valamint nyolc memóriavezérlőt és 64 ROP egységet tartalmaz. Minden GPC-fürt külön raszterizáló motorral rendelkezik, és öt SM többprocesszort tartalmaz. Mindegyik többprocesszor 128 CUDA magból, egy 256 KB-os regiszterfájlból, 96 KB-os megosztott memóriából, 48 KB L1 gyorsítótárból és nyolc TMU textúraegységből áll. Vagyis a GP104 összesen 2560 CUDA magot és 160 TMU egységet tartalmaz.

Ezenkívül a GeForce GTX 1080 alapját képező grafikus processzor nyolc 32 bites (a korábban használt 64 bitessel szemben) memóriavezérlőt tartalmaz, ami egy végső 256 bites memóriabuszt ad. Mindegyik memóriavezérlő nyolc ROP blokkal és 256 KB L2 gyorsítótárral rendelkezik. Vagyis a GP104 chip összesen 64 ROP blokkot és 2048 KB második szintű gyorsítótárat tartalmaz.

Az építészeti optimalizálásnak és az új folyamattechnológiának köszönhetően az első játék Pascal minden idők legenergiatakarékosabb GPU-ja lett. Sőt, ehhez hozzájárul mind az egyik legfejlettebb 16 nm-es FinFET technológiai folyamat, mind a Pascalban végrehajtott architektúra optimalizálás a Maxwellhez képest. Az Nvidia az új folyamattechnológiára való áttéréskor még jobban meg tudta növelni az órajel frekvenciáját, mint amire számítottak. A GP104 magasabb frekvencián működik, mint a 16 nm-es eljárással előállított feltételezett GM204. Ehhez az Nvidia mérnökeinek gondosan ellenőrizniük és optimalizálniuk kellett a korábbi megoldások összes szűk keresztmetszetét, amelyek megakadályozták a gyorsulást egy bizonyos küszöb felett. Ennek eredményeként az új GeForce GTX 1080 modell több mint 40%-kal magasabb frekvencián működik a GeForce GTX 980-hoz képest. Ez azonban nem minden, a GPU működési frekvenciájával kapcsolatos változás.

GPU Boost 3.0 technológia

A korábbi Nvidia videokártyákról jól tudjuk, grafikus processzoraikban GPU Boost hardveres technológiát alkalmaznak, amely a GPU órajelének növelésére szolgál azokban az üzemmódokban, amikor az még nem érte el az energiafogyasztás és a hőleadás határát. Az évek során ez az algoritmus sok változáson ment keresztül, és a Pascal architektúrájú videochip már ennek a technológiának a harmadik generációját használja - a GPU Boost 3.0-t, amelynek fő újítása a turbófrekvenciák finomabb beállítása, feszültségtől függően.

Ha emlékszel a technológia korábbi verzióinak működési elvére, akkor az alapfrekvencia (a garantált minimális frekvenciaérték, amely alá a GPU nem esik, legalábbis játékokban) és a turbó frekvencia közötti különbséget rögzítették. Vagyis a turbófrekvencia mindig egy bizonyos számú megahertcel magasabb volt, mint az alap. A GPU Boost 3.0-ban lehetővé vált a turbófrekvencia-eltolások beállítása minden feszültséghez külön. Ezt a legegyszerűbben illusztrációval lehet megérteni:

Bal oldalon a GPU Boost második verziója, jobb oldalon a harmadik, amely Pascalban jelent meg. Az alap- és a turbófrekvencia közötti fix különbség nem tette lehetővé a GPU teljes képességeinek feltárását, bizonyos esetekben a korábbi generációk GPU-i gyorsabban tudtak dolgozni a beállított feszültség mellett, de a turbófrekvencia fix túllépése ezt nem tette lehetővé. kész lenni. A GPU Boost 3.0-ban megjelent ez a funkció, és minden egyes feszültségértékhez beállítható a turbófrekvencia, teljesen kipréselve az összes levet a GPU-ból.

A túlhajtás szabályozásához és a turbófrekvencia-görbe beállításához praktikus segédprogramokra van szükség. Maga az Nvidia nem ezt teszi, hanem segít partnereinek hasonló segédprogramok létrehozásában, hogy megkönnyítsék a túlhajtást (természetesen ésszerű keretek között). Például a GPU Boost 3.0 új funkcionalitása már az EVGA Precision XOC-ban is megmutatkozott, amely egy dedikált overclock szkennert tartalmaz, amely automatikusan megkeresi és beállítja az alapfrekvencia és a turbófrekvencia közötti nemlineáris különbséget a különböző feszültségeknél egy beépített eszköz futtatásával. teljesítmény- és stabilitásteszt. Ennek eredményeként a felhasználó olyan turbó frekvencia görbét kap, amely tökéletesen illeszkedik egy adott chip képességeihez. Ami ráadásul manuálisan bármilyen módon módosítható.

Amint az a segédprogram képernyőképen is látható, a GPU-ról és a rendszerről szóló információkon túlmenően a túlhajtáshoz is vannak beállítások: Power Target (meghatározza a tipikus energiafogyasztást túlhajtáskor, a szabvány százalékában), GPU Temp Target (maximális megengedett maghőmérséklet), GPU órajel-eltolás (minden feszültségértéknél az alapfrekvencia túllépése), Memóriaeltolás (a videomemória frekvenciájának túllépése az alapértelmezett érték felett), Túlfeszültség (további lehetőség a feszültség növelésére).

A Precision XOC segédprogram három túlhúzási módot tartalmaz: Basic, Linear és Manual. A fő módban a többletfrekvencia (fix turbófrekvencia) egyetlen értéket állíthatunk be az alapfrekvenciánál, ahogy az a korábbi GPU-k esetében is történt. A lineáris mód lehetővé teszi a lineáris frekvenciaváltás beállítását a GPU minimális és maximális feszültségértékei között. Nos, kézi módban egyedi GPU-frekvencia értékeket állíthat be a grafikon minden feszültségpontjához.

A segédprogram egy speciális szkennert is tartalmaz az automatikus túlhajtáshoz. Beállíthatja saját frekvenciaszintjeit, vagy hagyhatja, hogy a Precision XOC minden feszültségnél pásztázza a GPU-t, és teljesen automatikusan megtalálja a legstabilabb frekvenciákat a feszültség- és frekvenciagörbe minden pontjához. A szkennelési folyamat során a Precision XOC fokozatosan növeli a GPU frekvenciáját, és ellenőrzi a működését stabilitás vagy műtermékek szempontjából, így ideális frekvencia- és feszültséggörbét hoz létre, amely minden egyes chip esetében egyedi lesz.

Ez a szkenner testreszabható az Ön igényei szerint, ha beállítja az egyes feszültségértékek tesztelésének időtartamát, a tesztelt minimális és maximális frekvenciát, valamint lépéseit. Nyilvánvaló, hogy a stabil eredmények eléréséhez jobb lenne egy kis lépést és egy megfelelő tesztelési időtartamot beállítani. A tesztelési folyamat során a videó-illesztőprogram és a rendszer instabil működése figyelhető meg, de ha a szkenner nem fagy le, akkor visszaállítja a működését, és tovább keresi az optimális frekvenciákat.

Új GDDR5X videomemória típus és továbbfejlesztett tömörítés

Tehát a GPU teljesítménye jelentősen megnőtt, de a memóriabusz csak 256 bites maradt – korlátozza-e a memória sávszélessége az általános teljesítményt, és mit lehet tenni ellene? Úgy tűnik, az ígéretes második generációs HBM memória még mindig túl drága a gyártáshoz, ezért más lehetőségek után kellett néznünk. A GDDR5 memória 2009-es bevezetése óta az Nvidia mérnökei az új típusú memória használatának lehetőségeit kutatják. Ennek eredményeként a fejlesztések egy új memóriaszabvány, a GDDR5X bevezetéséhez vezettek – ez az eddigi legbonyolultabb és legfejlettebb szabvány, amely 10 Gbps átviteli sebességet biztosít.

Az Nvidia érdekes példával szolgál arra, hogy ez milyen gyors. Csak 100 pikoszekundum telik el az átvitt bitek között – ezalatt a fénysugár mindössze egy hüvelyk (kb. 2,5 cm) távolságot tesz meg. A GDDR5X memória használatakor pedig az adatátviteli és vételi áramköröknek kevesebb mint fele idő alatt kell kiválasztaniuk az átvitt bit értékét, mielőtt elküldik a következőt – ez csak azért van, hogy megértse, mire jutott a modern technológia.

Az ilyen sebesség eléréséhez az adatbeviteli/kimeneti rendszer új architektúrájának kidolgozására volt szükség, amely több éves közös fejlesztést igényelt a memóriachip-gyártókkal. A megnövekedett adatátviteli sebesség mellett az energiahatékonyság is nőtt - a GDDR5X memóriachipek alacsonyabb, 1,35 V-os feszültséget használnak, és új technológiákkal készülnek, ami 43%-kal magasabb frekvencián biztosítja ugyanazt az energiafogyasztást.

A cég mérnökeinek át kellett dolgozniuk a GPU magja és a memóriachipek közötti adatvonalakat, nagyobb figyelmet fordítva a jelvesztés és -romlás megakadályozására a memóriától a GPU-ig és visszafelé vezető teljes útvonalon. Így a fenti ábra a rögzített jelet egy nagy szimmetrikus „szem” formájában mutatja, ami a teljes áramkör jó optimalizálását és a jelből való adatok rögzítésének viszonylagos egyszerűségét jelzi. Ezen túlmenően a fent leírt változtatások nemcsak a GDDR5X 10 GHz-es használatának lehetőségét eredményezték, hanem a hagyományosabb GDDR5 memóriát használó jövőbeli termékek nagy memóriasávszélesség elérését is elősegítik.

Nos, több mint 40%-kal nőtt a sávszélesség az új memória használatával. De ez nem elég? A memória sávszélességének hatékonyságának további növelése érdekében az Nvidia tovább fejlesztette a korábbi architektúrákban bevezetett fejlett adattömörítést. A GeForce GTX 1080 memória alrendszere továbbfejlesztett és számos új veszteségmentes adattömörítési technikát használ a sávszélesség-igény csökkentésére – ez a chipen belüli tömörítés negyedik generációja.

A memórián belüli adattömörítési algoritmusok számos pozitív vonatkozással járnak. A tömörítés csökkenti a memóriába írt adatok mennyiségét, ugyanez vonatkozik a videomemóriából a második szintű gyorsítótárba küldött adatokra is, ami javítja az L2 gyorsítótár használatának hatékonyságát, mivel egy tömörített csempe (több framebuffer pixelből álló blokk) kisebb, mint egy tömörítetlen. Csökkenti a különböző pontok, például a TMU és a framebuffer közötti adatmennyiséget is.

A GPU-ban lévő adattömörítési folyamat több algoritmust használ, amelyeket az adatok „tömöríthetőségétől” függően határoznak meg - a legjobb elérhető algoritmust választják ki számukra. Az egyik legfontosabb a delta színtömörítési algoritmus. Ez a tömörítési technika az adatokat az egymást követő értékek különbségeként kódolja, nem pedig magát az adatot. A GPU kiszámítja a színértékek különbségét egy blokkban (mozaikban) lévő pixelek között, és a blokkot a teljes blokk átlagos színeként, valamint az egyes pixelekre vonatkozó értékek különbségére vonatkozó adatokként tárolja. Grafikus adatok esetén ez a módszer általában jól használható, mivel a kis csempéken belüli színek az összes pixel esetében gyakran nem térnek el túlságosan.

A GeForce GTX 1080 GP104 grafikus processzora több tömörítési algoritmust támogat a korábbi Maxwell architektúra chipekhez képest. Így a 2:1-es tömörítési algoritmus hatékonyabbá vált, és mellette két új algoritmus is megjelent: egy 4:1-es tömörítési mód, amely olyan esetekre alkalmas, amikor a blokk pixeleinek színértéke között nagyon kicsi a különbség, és egy 8:1-es mód, amely a 2x2 pixeles blokkok állandó algoritmusú 4:1-es tömörítését kombinálja a blokkok közötti 2x-es delta-tömörítéssel. Ha a tömörítés teljesen lehetetlen, akkor nem használják.

A valóságban azonban ez utóbbi nagyon ritkán fordul elő. Ez látható a Project CARS játék képernyőképeinek példáin, amelyeket az Nvidia biztosított a Pascal megnövekedett tömörítési arányának illusztrálására. Az illusztrációkon azok a keretpufferlapkák, amelyeket a GPU tömöríteni tudott, lilára vannak festve, míg a veszteség nélkül nem tömöríthetőek az eredeti színnel maradnak (felső - Maxwell, lent - Pascal).

Mint látható, a GP104 új tömörítési algoritmusai valóban sokkal jobban működnek, mint a Maxwellben. Míg a régebbi architektúra a jelenet legtöbb csempét is össze tudta tömöríteni, a széleken lévő nagy mennyiségű fű és fák, valamint a járműalkatrészek nem tartoznak az örökölt tömörítési algoritmusok hatálya alá. De amikor új technikákat alkalmaztunk a Pascalban, a kép nagyon kevés területe maradt tömörítetlenül – a jobb hatékonyság nyilvánvaló.

Az adattömörítés fejlesztésének eredményeként a GeForce GTX 1080 képes jelentősen csökkenteni a keretenként küldött adatmennyiséget. A számokat tekintve a továbbfejlesztett tömörítés további 20%-ot takarít meg a tényleges memória sávszélességéből. Amellett, hogy a GeForce GTX 1080 memória sávszélessége több mint 40%-kal nőtt a GTX 980-hoz képest a GDDR5X memória használatának köszönhetően, mindez együtt körülbelül 70%-os effektív sávszélesség-növekedést jelent az előző generációs modellhez képest.

Az aszinkron számítástechnika támogatása Async Compute

A legtöbb modern játék a grafika mellett összetett számításokat is használ. Például a fizikai testek viselkedésének kiszámításakor végzett számítások nem a grafikus számítások előtt vagy után, hanem velük egyidejűleg végezhetők el, mivel nem kapcsolódnak egymáshoz, és nem függenek egymástól egy kereten belül. Egy másik példa a már renderelt képkockák utófeldolgozása és a hangadatok feldolgozása, ami szintén végrehajtható a rendereléssel párhuzamosan.

A funkcionalitás használatának másik kiemelkedő példája az aszinkron idővetemítés (Asynchronous Time Warp) technikája, amelyet a virtuális valóság rendszerekben használnak, hogy a kimeneti keretet a játékos fejének mozgásának megfelelően módosítsák közvetlenül a kimenet előtt, megszakítva a renderelést. a következőről. A GPU teljesítményének ilyen aszinkron terhelése lehetővé teszi a végrehajtási egységek használatának hatékonyságának növelését.

Az ilyen munkaterhelések két új forgatókönyvet hoznak létre a GPU-k használatához. Ezek közül az első az átfedő terheléseket foglalja magában, mivel sok típusú feladat nem használja ki teljesen a GPU-k képességeit, és egyes erőforrások tétlenek. Ilyen esetekben egyszerűen futtathat két különböző feladatot ugyanazon a GPU-n, különválasztva a végrehajtási egységeket a hatékonyabb használat érdekében – például a PhysX effektusok, amelyek a 3D keretmegjelenítéssel együtt futnak.

A forgatókönyv javítása érdekében a Pascal architektúra dinamikus terheléselosztást vezetett be. A korábbi Maxwell architektúrában az átfedő munkaterheléseket a GPU-erőforrások statikus elosztásával valósították meg a grafika és a számítások között. Ez a megközelítés akkor hatékony, ha a két munkateher közötti egyensúly megközelítőleg megfelel az erőforrások megosztásának, és a feladatokat ugyanannyi idő alatt teljesítik. Ha a nem grafikus számítások tovább tartanak, mint a grafikusok, és mindkettő a teljes munka befejezésére vár, akkor a GPU egy része tétlen lesz a hátralévő ideig, ami az általános teljesítmény csökkenését okozza, és az összes előnyt semmivé teszi. A hardveres dinamikus terheléselosztás lehetővé teszi a felszabaduló GPU-erőforrások azonnali használatát, amint azok elérhetővé válnak – a megértés kedvéért adunk egy illusztrációt.

Vannak olyan feladatok is, amelyek kritikusak a végrehajtási idő szempontjából, és ez az aszinkron számítástechnika második forgatókönyve. Például a VR aszinkron időtorzítási algoritmusának be kell fejeződnie a keresés előtt, különben a képkocka eldobásra kerül. Ebben az esetben a GPU-nak támogatnia kell a nagyon gyors feladatmegszakítást és a másikra váltást, hogy eltávolítson egy kevésbé kritikus feladatot a GPU-n történő végrehajtásból, felszabadítva erőforrásait a kritikus feladatokhoz – ezt hívják elővételnek.

Egy játékmotor egyetlen renderelési parancsa több száz rajzolási hívást tartalmazhat, minden rajzolási hívás felváltva több száz feldolgozandó háromszöget tartalmaz, amelyek mindegyike több száz képpontot tartalmaz, amelyeket ki kell számítani és meg kell rajzolni. A hagyományos GPU-megközelítés csak magas szinten szakítja meg a feladatokat, és a grafikus folyamat kénytelen megvárni, amíg minden munka befejeződik, mielőtt a feladatokat váltaná, ami nagyon magas késleltetést eredményez.

Ennek kijavítására a Pascal architektúra először vezette be a pixel szintű feladat megszakításának lehetőségét - Pixel Level Preemption. A Pascal GPU-végrehajtási egységek folyamatosan figyelhetik a renderelési feladatok előrehaladását, megszakítás kérése esetén pedig leállíthatják a végrehajtást, megőrizve a kontextust a további befejezéshez, gyorsan átválthatnak egy másik feladatra.

A számítási műveletek szálszintű megszakítása és váltása hasonlóan működik, mint a grafikus számítások pixelszintű megszakítása. A számítási munkaterhelések több rácsból állnak, amelyek mindegyike több szálat tartalmaz. Ha megszakítási kérelem érkezik, a többprocesszoron futó szálak leállítják a végrehajtást. Más blokkok elmentik saját állapotukat, hogy a jövőben ugyanarról a pontról folytassák, és a GPU másik feladatra vált át. A teljes feladatváltási folyamat kevesebb, mint 100 mikroszekundumot vesz igénybe a futó szálak kilépése után.

Játékterhelések esetén a grafikus munkaterhelések pixelszintű megszakításai és a számítási munkaterhelések szálszintű megszakításai kombinációja lehetővé teszi a Pascal GPU-k számára, hogy gyorsan, minimális állásidővel váltsanak a feladatok között. A CUDA-n végzett számítási feladatokhoz pedig minimális részletességű megszakítás is lehetséges - utasítási szinten. Ebben a módban az összes szál egyszerre leállítja a végrehajtást, és azonnal átvált egy másik feladatra. Ez a megközelítés több információt igényel az egyes szálak összes regiszterének állapotáról, de bizonyos nem grafikus számítási esetekben ez teljesen indokolt.

A Pascal-architektúrához hozzáadták a gyors megszakítást és feladatváltást a grafikus és számítási munkaterhelésekben, így a grafikus és nem grafikus feladatokat az egyes utasítások szintjén lehetett megszakítani, nem pedig teljes szálak szintjén, ahogyan az Maxwell és a Kepler esetében történt. . Ezek a technológiák javíthatják a különböző GPU-terhelések aszinkron végrehajtását, és javíthatják a válaszkészséget több feladat egyidejű futtatásakor. Az Nvidia rendezvényen bemutatták az aszinkron számítástechnikát a fizikai hatások számításának példáján. Ha aszinkron számítás nélkül a teljesítmény 77-79 FPS szinten volt, akkor ezen funkciók bevonásával a képkocka sebesség 93-94 FPS-re nőtt.

Adtunk már példát ennek a funkciónak a játékokban való felhasználásának egyik lehetőségére a VR aszinkron időtorzítása formájában. Az ábra ennek a technológiának a működését mutatja hagyományos megszakítással (preemption) és gyors megszakítással. Az első esetben az aszinkron időtorzítás folyamatát a lehető legkésőbb, de a kijelzőn megjelenő képfrissítés megkezdése előtt igyekeznek végrehajtani. De az algoritmus munkáját néhány ezredmásodperccel korábban el kell küldeni a GPU-nak végrehajtásra, mivel gyors megszakítás nélkül nincs mód a munka pontos végrehajtására a megfelelő pillanatban, és a GPU egy ideig tétlen.

Pixel- és szálpontos megszakítás esetén (jobb oldalon látható) ez a képesség nagyobb pontosságot tesz lehetővé annak meghatározásában, hogy mikor következik be a megszakítás, és az aszinkron időtorzítás sokkal később indítható el, és biztos lehet benne, hogy a feladat befejeződik, mielőtt a kijelző elindulna. frissítése. Az első esetben egy ideig tétlen GPU-t pedig némi további grafikus munkával lehet terhelni.

Simultán Multi-Projection technológia

Az új GP104 GPU mostantól támogatja az új szimultán többvetítési (SMP) technológiát, amely lehetővé teszi a GPU számára, hogy hatékonyabban jelenítse meg az adatokat a modern kijelzőrendszereken. Az SMP lehetővé teszi, hogy a videochip egyidejűleg több vetületben is kiadjon adatokat, amihez új hardverblokkot kellett bevezetni a GPU-ba a PolyMorph motor részeként a geometriai folyamat végén, a raszterizáló egység előtt. Ez a blokk felelős azért, hogy több vetülettel dolgozzon egyetlen geometria adatfolyamhoz.

A többvetítésű motor egyidejűleg 16 előre konfigurált vetítéshez dolgozza fel a geometriai adatokat, amelyek egyesítik a vetítési pontot (kamerát), ezek a vetületek egymástól függetlenül forgathatók vagy dönthetők. Mivel minden geometriaprimitív egyszerre több nézetben is megjelenhet, az SMP motor biztosítja ezt a funkciót azáltal, hogy lehetővé teszi az alkalmazás számára, hogy további feldolgozás nélkül utasítsa a GPU-t a geometria akár 32-szeres replikálására (16 nézet két vetítési központban).

A teljes feldolgozási folyamat hardveresen gyorsított, és mivel a többvetítés a geometriamotor után működik, nem kell többször megismételnie a geometria-feldolgozási lépéseket. Az erőforrás-megtakarítás akkor fontos, ha a megjelenítési sebességet korlátozza a geometria-feldolgozási teljesítmény, például a tesszelláció, ahol ugyanazt a geometriai munkát többször elvégzik minden vetítésnél. Ennek megfelelően csúcsesetben a többvetítés akár 32-szeresére is csökkentheti a geometria-feldolgozás szükségességét.

De miért van szükség minderre? Van néhány jó példa, ahol a többvetítéses technológia hasznos lehet. Például egy többmonitoros rendszer, amely három, egymáshoz képest szögben elhelyezett kijelzőből áll, egészen közel a felhasználóhoz (surround konfiguráció). Egy tipikus szituációban a jelenet egy vetületben jelenik meg, ami geometriai torzulásokhoz és helytelen geometriai megjelenítéshez vezet. A helyes módszer az, ha mindegyik monitorhoz három különböző vetület van, attól függően, hogy milyen szögben helyezkednek el.

Pascal architektúrájú chipen lévő videokártya használatával ez egy geometriai lépésben megtehető, három különböző vetület megadásával, mindegyik saját monitorhoz. A felhasználó pedig nem csak fizikailag, hanem virtuálisan is megváltoztathatja a monitorok egymáshoz viszonyított szögét – az oldalsó monitorok vetületeinek elforgatásával a megfelelő perspektívát kapja a 3D jelenetben, észrevehetően szélesebb látószöggel. (FOV). Itt azonban van egy korlátozás – az ilyen támogatáshoz az alkalmazásnak képesnek kell lennie arra, hogy a jelenetet széles FOV-val renderelje, és speciális SMP API hívásokkal állítsa be. Ez azt jelenti, hogy ezt nem lehet minden játékban megtenni; speciális támogatásra van szüksége.

Akárhogy is, az egyetlen síkképernyős monitorra való egyetlen vetítés napjai elmúltak, és számos többmonitoros konfiguráció és ívelt kijelző áll rendelkezésre, amelyek szintén használhatják ezt a technológiát. Nem beszélve a virtuális valóság rendszereiről, amelyek speciális lencséket használnak a képernyők és a felhasználó szeme közé, amelyek új technikákat igényelnek a 3D-s kép 2D-s képbe vetítéséhez. Ezen technológiák és technikák közül sok még a fejlesztés korai szakaszában van, a fő dolog az, hogy a régebbi GPU-k nem tudnak hatékonyan használni egynél több síknézetet. Több renderelést igényelnek, ugyanazon geometria ismételt feldolgozását stb.

A Maxwell architektúra chipek korlátozott mértékben támogatták a Multi-Resolution funkciót a hatékonyság növelése érdekében, de a Pascal SMP sokkal többre képes. Maxwell el tudta forgatni a vetítést 90 fokkal a kocka leképezéshez vagy a különböző vetítési felbontásokhoz, de ez csak korlátozott alkalmazásokban volt hasznos, mint például a VXGI.

Az SMP használatának további lehetőségei közé tartozik a többfelbontású renderelés és az egymenetes sztereó renderelés. Például a Multi-Res Shading használható a játékokban a teljesítmény optimalizálására. Alkalmazása esetén a képkocka közepén nagyobb felbontást használnak, a periférián pedig lecsökkentik a nagyobb renderelési sebesség érdekében.

A VR-ben az egymenetes sztereó renderelést használják, amely már hozzáadva van a VRWorks csomaghoz, és több vetítési képességeket használ a VR-megjelenítéshez szükséges geometriai munka mennyiségének csökkentése érdekében. Ennek a funkciónak a használatakor a GeForce GTX 1080 GPU csak egyszer dolgozza fel a jelenet geometriáját, és egyszerre két vetületet generál minden szem számára, ami felére csökkenti a GPU geometriai terhelését, valamint csökkenti az illesztőprogram és az operációs rendszer működéséből származó veszteségeket.

A VR-megjelenítés hatékonyságának növelésére még fejlettebb módszer a Lens Matched Shading, amely több vetületet használ a VR-megjelenítéshez szükséges geometriai torzulások szimulálására. Ez a módszer több vetítést használ a 3D-s jelenet olyan felületre való renderelésére, amely megközelíti a VR-fejhallgató-kimenet objektívvel korrigált renderelését, elkerülve, hogy a perifériákon sok plusz képpont rajzolódjon ki, amelyek eldobásra kerülnek. A módszer lényegét a legkönnyebben az illusztrációból érthetjük meg - minden szem előtt négy enyhén kitágított vetületet használunk (Pascalon 16 vetítés használható minden szemhez - az ívelt lencse pontosabb utánzása érdekében) egy:

Ez a megközelítés jelentősen megtakaríthatja a teljesítményt. Így egy tipikus Oculus Rift kép minden szem számára 1,1 megapixeles. De a vetítések különbsége miatt 2,1 megapixeles forrásképet használnak a megjelenítéshez - 86%-kal nagyobb a szükségesnél! A Pascal architektúrában megvalósított többvetítés használata lehetővé teszi a renderelt kép felbontásának 1,4 megapixelre való csökkentését, másfélszeres megtakarítást érve el a pixelfeldolgozási sebességben, és a memória sávszélességét is megtakarítja.

A GeForce GTX 1080 grafikus kártya pedig az egymenetes sztereó renderelésnek köszönhetően a geometriai feldolgozási sebességben elért kétszeres megtakarítás mellett képes jelentős mértékben növelni a VR renderelési teljesítményt, ami nagyon megköveteli a geometria feldolgozási sebességét, és még ennél is többet. tehát a pixelfeldolgozásban.

Fejlesztések a videokimenetben és a feldolgozóegységekben

A 3D rendereléshez kapcsolódó teljesítményen és új funkciókon túlmenően a képkimeneti képességek, valamint a videó dekódolás és kódolás jó szintjének fenntartása is szükséges. És az első Pascal architektúra GPU nem okozott csalódást - ebben az értelemben támogatja az összes modern szabványt, beleértve a HEVC formátum hardveres dekódolását, amely szükséges a 4K videók PC-n történő megtekintéséhez. Ezenkívül a GeForce GTX 1080 videokártyák jövőbeli tulajdonosai hamarosan élvezhetik a Netflix és más szolgáltatók 4K-s videostreamingjét a rendszerükön.

Ami a kijelzőkimenetet illeti, a GeForce GTX 1080 támogatja a HDMI 2.0b-t HDCP 2.2-vel, valamint a DisplayPort-ot. Eddig a DP 1.2-es verzió kapott tanúsítványt, de a GPU készen áll a szabvány újabb verzióinak tanúsítására: DP 1.3 Ready és DP 1.4 Ready. Ez utóbbi lehetővé teszi a 4K-s kijelzők 120 Hz-es frissítési frekvenciájú kimenetét, az 5K-s és 8K-s kijelzők pedig 60 Hz-es működést egy pár DisplayPort 1.3-as kábel segítségével. Ha a GTX 980 esetében a maximális támogatott felbontás 5120x3200 volt 60 Hz-en, akkor az új GTX 1080 modellnél ugyanezen 60 Hz-en 7680x4320-ra nőtt. A referencia GeForce GTX 1080 három DisplayPort kimenettel, egy HDMI 2.0b-vel és egy digitális Dual-Link DVI-vel rendelkezik.

Az új Nvidia videokártya modell továbbfejlesztett videoadat-dekódoló és kódoló egységet is kapott. Így a GP104 chip megfelel a PlayReady 3.0 (SL3000) magas szintű videostreaming-lejátszási követelményeinek, így biztos lehet benne, hogy a jó hírű szolgáltatóktól, például a Netflixtől származó, jó minőségű tartalmak lejátszása a lehető legjobb minőségű és energiahatékonyabb lesz. A különböző videóformátumok kódolás és dekódolás során történő támogatásának részleteit a táblázat tartalmazza; az új termék egyértelműen eltér a korábbi megoldásoktól:

De még érdekesebb újdonság az úgynevezett High Dynamic Range (HDR) kijelzők támogatása, amelyek hamarosan elterjednek a piacon. 2016-ban már fogynak a tévék (és várhatóan mindössze egy éven belül négymillió HDR tévét), jövőre pedig a monitorokat. A HDR az elmúlt évek legnagyobb áttörése a kijelzőtechnológiában, a formátum kétszeres színtónusokat (a látható spektrum 75%-át, az RGB 33%-ával szemben), világosabb kijelzőket (1000 nit) nagyobb kontraszttal (10 000:1) és gazdag színek.

A nagyobb fényerőkülönbséggel, gazdagabb és telítettebb színekkel való tartalom reprodukálási képességének megjelenése közelebb hozza a képernyőn látható képet a valósághoz, a feketék mélyebbek lesznek, az erős fény pedig vakító lesz, akárcsak a való világban. Ennek megfelelően a felhasználók több részletet fognak látni a képek világos és sötét területein, mint a szabványos monitorokon és TV-ken.

A HDR-kijelzők támogatásához a GeForce GTX 1080 mindent tartalmaz, amire szüksége van - 12 bites színkimenet, BT.2020 és SMPTE 2084 szabványok támogatása, valamint HDMI 2.0b 10/12 bites kimenet. szabvány a HDR-hez 4K-felbontásban, ami a Maxwell esetében is így volt. Ezen kívül a Pascal mostantól támogatja a HEVC formátum 4K felbontású, 60 Hz-es és 10 vagy 12 bites színben történő dekódolását, amelyet HDR videóhoz használnak, valamint ugyanazon formátum kódolását ugyanazokkal a paraméterekkel, de csak 10-ben. -bit HDR videó rögzítéshez vagy streaminghez. Az új termék készen áll a DisplayPort 1.4 szabványosítására is a HDR adatok ezen a csatlakozón keresztüli továbbítására.

Egyébként a jövőben szükség lehet HDR-videókódolásra ahhoz, hogy otthoni számítógépről ilyen adatokat átvigyünk egy 10 bites HEVC-t lejátszani képes SHIELD játékkonzolra. Vagyis a felhasználó PC-ről közvetítheti majd HDR formátumban a játékot. Várj, hol tudok ilyen támogatással játékokat szerezni? Az Nvidia folyamatosan együttműködik a játékfejlesztőkkel ennek a támogatásnak a megvalósítása érdekében, biztosítva számukra mindazt, amire szükségük van (illesztőprogram-támogatás, kódpéldák stb.) a HDR-képek megfelelő megjelenítéséhez a meglévő kijelzőkkel.

A GeForce GTX 1080 videokártya kiadásakor olyan játékok támogatják a HDR kimenetet, mint az Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle és Shadow Warrior 2. De a közeljövőben ez a lista várhatóan pótolni kell.

Változások az SLI többlapkás megjelenítésében

A szabadalmaztatott SLI multi-chip rendering technológiával kapcsolatban is történt néhány változás, bár erre senki sem számított. Az SLI-t a PC-játékok szerelmesei használják a teljesítmény extrém szintre emelésére az erős egychipes videokártyák párosításával, vagy nagyon magas képkockasebesség eléréséhez néhány középkategóriás megoldásra korlátozva, amelyek néha olcsóbbak, mint egy csúcs. -vége ( A döntés ellentmondásos, de ők így csinálják). A 4K-s monitoroknál a játékosoknak szinte nincs más lehetőségük, mint egy-két videokártya beszerelése, hiszen ilyen körülmények között sokszor még a csúcsmodellek sem tudnak kényelmes játékot biztosítani maximális beállítások mellett.

Az Nvidia SLI egyik fontos összetevője a hidak, amelyek a videokártyákat egy közös videó alrendszerbe kötik, és egy digitális csatorna szervezésére szolgálnak a köztük lévő adatátvitelhez. A GeForce videokártyák hagyományosan kettős SLI-csatlakozóval rendelkeztek, amelyek két vagy négy videokártya csatlakoztatására szolgáltak 3-Way és 4-Way SLI konfigurációkban. Mindegyik videokártyának csatlakoznia kellett mindegyikhez, mivel az összes GPU a fő GPU-nak küldte az általa renderelt képkockákat, ezért kellett minden kártyán két interfész.

A GeForce GTX 1080-tól kezdve az összes Pascal architektúrán alapuló Nvidia grafikus kártya két SLI interfészt kapcsol össze a GPU-k közötti átviteli teljesítmény javítása érdekében, ez az új dual-link SLI mód pedig javítja a teljesítményt és a vizuális élményt nagyon nagy felbontású kijelzőkön. több monitoros rendszerek.

Ehhez a módhoz új hidak is kellettek, az úgynevezett SLI HB. Egyszerre két SLI csatornán kombinálnak egy pár GeForce GTX 1080 videokártyát, bár az új videokártyák a régebbi hidakkal is kompatibilisek. 1920×1080 és 2560×1440 pixeles felbontások esetén 60 Hz-es frissítési gyakoriság mellett normál hidak is használhatók, de az igényesebb módokban (4K, 5K és többmonitoros rendszerek) csak az új hidak biztosítják a legjobb eredményt a keret simasága szempontjából, bár a régiek működni fognak, de valamivel rosszabb.

Ezenkívül SLI HB hidak használatakor a GeForce GTX 1080 adatátviteli interfész 650 MHz-en működik, szemben a régebbi GPU-kon lévő hagyományos SLI-hidak 400 MHz-ével. Sőt, egyes merev régi hidaknál magasabb adatátviteli frekvencia is elérhető Pascal architektúrájú videochipekkel. A GPU-k közötti adatátviteli sebesség növelésével a megnövelt működési frekvenciájú kettős SLI interfészen keresztül a korábbi megoldásokhoz képest egyenletesebb képkockakimenet biztosított a képernyőn:

Azt is meg kell jegyezni, hogy a DirectX 12 többlapkás megjelenítésének támogatása némileg eltér a korábban megszokottól. A grafikus API legújabb verziójában a Microsoft számos változtatást hajtott végre az ilyen videorendszerek működésével kapcsolatban. A szoftverfejlesztők számára a DX12 két lehetőséget kínál több GPU használatára: Multi Display Adapter (MDA) és Linked Display Adapter (LDA) mód.

Ezen túlmenően az LDA módnak két formája van: Implicit LDA (amit az Nvidia használ SLI-hez) és Explicit LDA (amikor a játék fejlesztője átveszi a többchipes renderelés kezelésének feladatát. Az MDA és az Explicit LDA módot a DirectX 12-ben sorrendben vezették be. hogy a játékfejlesztők több szabadságot és lehetőséget kapjanak a többchipes videorendszerek használatakor.A módok közötti különbség jól látható a következő táblázatban:

LDA módban az egyes GPU-k memóriája összekapcsolható egy másik memóriájával, és nagy teljes kötetként jeleníthető meg, természetesen az összes teljesítménykorlátozással, amikor „idegen” memóriából veszik az adatokat. MDA módban minden GPU memóriája külön működik, és a különböző GPU-k nem férhetnek hozzá közvetlenül egy másik GPU memóriájából származó adatokhoz. Az LDA módot hasonló teljesítményű többchipes rendszerekhez tervezték, míg az MDA módnak kevesebb korlátozása van, és együtt tud működni a diszkrét és az integrált GPU-k vagy a különböző gyártóktól származó chipekkel rendelkező diszkrét megoldások között. Ez a mód azonban több átgondolást és munkát igényel a fejlesztőktől a programozás során, hogy együttműködjenek, hogy a GPU-k kommunikálni tudjanak egymással.

A GeForce GTX 1080 alaplapokra épülő SLI rendszer alapértelmezés szerint csak két GPU-t támogat, a három és négy chipes konfigurációk pedig hivatalosan nem ajánlottak, mivel a modern játékokban egyre nehezebb teljesítménynövekedést elérni egy harmadik és negyedik GPU. Például sok játék a rendszer központi processzorának képességeire támaszkodik a többchipes videorendszerek működtetésekor; az új játékok is egyre gyakrabban alkalmaznak olyan időbeli technikákat, amelyek korábbi képkockák adatait használják fel, amelyekben több GPU egyszerre történő hatékony működése egyszerűen lehetetlen.

Mindazonáltal továbbra is lehetséges a rendszerek üzemeltetése más (nem SLI) többchipes rendszerekben, például MDA vagy LDA Explicit módban a DirectX 12-ben, vagy egy kétcsipes SLI rendszerben, dedikált harmadik GPU-val a PhysX fizikai effektusokhoz. Mi a helyzet a benchmark rekordokkal? Az Nvidia tényleg teljesen elhagyja őket? Természetesen nem, de mivel az ilyen rendszerekre szinte kevesen keresik a világot, az ilyen ultrarajongóknak egy speciális Enthusiast Key-t találtak ki, amely letölthető az Nvidia webhelyéről, és feloldja ezt a funkciót. Ehhez először egy egyedi GPU azonosítót kell beszerezni egy speciális alkalmazás futtatásával, majd a weboldalon le kell kérni az Enthusiast Key-t, és letöltés után telepíteni kell a kulcsot a rendszerbe, ezzel feloldva a 3-Way és 4-Way SLI konfigurációkat. .

Fast Sync technológia

Néhány változás történt a szinkronizálási technológiákban az információk megjelenítése során. A jövőre nézve semmi újdonság nem jelent meg a G-Syncben, és az Adaptive Sync technológia sem támogatott. Az Nvidia azonban úgy döntött, hogy javítja a kimenet zökkenőmentességét és a szinkronizálást azoknál a játékoknál, amelyek nagyon nagy teljesítményt mutatnak, ha a képkockasebesség észrevehetően magasabb, mint a monitor frissítési gyakorisága. Ez különösen fontos azoknál a játékoknál, amelyek minimális késleltetést és gyors választ igényelnek, és amelyek többjátékos csatáknak és versenyeknek adnak otthont.

A Gyors szinkronizálás a függőleges szinkronizálás új alternatívája, amely nem tartalmaz vizuális műtermékeket, például képszakadást, és nincs fix frissítési gyakorisághoz kötve, ami növeli a várakozási időt. Mi a probléma a Vsync-kel az olyan játékokban, mint a Counter-Strike: Global Offensive? Ez a játék több száz képkocka/másodperc sebességgel fut nagy teljesítményű modern GPU-kon, és a játékos választhat, hogy engedélyezi-e a V-sync-et vagy sem.

A többszereplős játékokban a felhasználók leggyakrabban minimális késleltetésre törekednek, és letiltják a VSync-et, ami jól látható képszakadást eredményez, ami még magas képsebesség mellett is rendkívül kellemetlen. Ha engedélyezi a függőleges szinkronizálást, a játékos jelentősen megnövekszik a késések a cselekvései és a képernyőn megjelenő kép között, amikor a grafikus folyamat lelassul a monitor frissítési gyakoriságára.

Így működik a hagyományos szállítószalag. Az Nvidia azonban úgy döntött, hogy a Fast Sync technológia segítségével szétválasztja a képek megjelenítésének és a képernyőn való megjelenítésének folyamatát. Ez lehetővé teszi, hogy a GPU azon része, amely képkockákat renderel, továbbra is a lehető leghatékonyabban működjön teljes sebességgel, és ezeket a képkockákat egy speciális ideiglenes pufferben, a Last Rendered Bufferben tárolja.

Ezzel a módszerrel módosíthatja a képernyő megjelenítési módját, és a legjobb VSync On és VSync Off módokat használhatja ki, így alacsony késleltetést érhet el, de képtermékek nélkül. A Fast Sync-nél nincs képkocka-áramlás vezérlés, a játékmotor szinkronizálás tiltott módban fut, és nem kéri, hogy várja meg a következő renderelését, így a késések majdnem olyan alacsonyak, mint a VSync Off módban. De mivel a Fast Sync önállóan választ ki puffert a képernyőre történő kimenethez, és megjeleníti a teljes képkockát, nincsenek képtörések.

A Fast Sync három különböző puffert használ, amelyek közül az első kettő hasonlóan működik, mint egy klasszikus folyamat dupla pufferelése. Az elsődleges puffer (Front Buffer - FB) az a puffer, amelyből az információk megjelennek a kijelzőn, egy teljesen renderelt keret. A másodlagos puffer (Back Buffer – BB) egy olyan puffer, amely a renderelés során információkat kap.

Ha függőleges szinkronizálást használ magas képkockasebességgel, a játék megvárja a frissítési időközt, hogy az elsődleges puffert a másodlagos pufferrel felcserélje, hogy a teljes képkocka megjelenjen a képernyőn. Ez lelassítja a folyamatot, és további pufferek hozzáadása, például a hagyományos hármas pufferelés csak tovább növeli a késleltetést.

A gyors szinkronizálással egy harmadik puffer is hozzáadásra kerül, az Utolsó renderelt puffer (LRB), amely a másodlagos pufferben lévő összes képkocka tárolására szolgál. A puffer neve önmagáért beszél: az utolsó teljesen renderelt keret másolatát tartalmazza. És amikor eljön az ideje az elsődleges puffer frissítésének, ez az LRB puffer egészében átmásolódik az elsődleges pufferbe, nem pedig részenként, mint a másodlagosból, ha a függőleges szinkronizálás le van tiltva. Mivel a pufferek információinak másolása nem hatékony, egyszerűen felcserélik őket (vagy átnevezik, ahogy kényelmesebb lesz), és a GP104-ben megjelent új puffercsere logika kezeli ezt a folyamatot.

A gyakorlatban az új Fast Sync szinkronizálási módszer engedélyezése még mindig valamivel nagyobb késleltetést biztosít a függőleges szinkronizálás teljes letiltásához képest - átlagosan 8 ms-mal többet, de a képkockákat teljes egészében megjeleníti a monitoron, anélkül, hogy a képernyőn kellemetlen műtermékek jelennének meg, amelyek felszakítják a szinkronizálást. kép. Az új módszer az Nvidia vezérlőpult grafikus beállításaiból engedélyezhető a Vsync vezérlés részében. Az alapértelmezett érték azonban továbbra is az alkalmazásvezérlés marad, és egyszerűen nincs szükség a Fast Sync engedélyezésére minden 3D-s alkalmazásban, jobb, ha ezt a módszert kifejezetten magas FPS-es játékokhoz választja.

Virtuális valóság technológiák Nvidia VRWorks

A cikkben nem egyszer érintettük a virtuális valóság felkapott témáját, de leginkább a VR szempontjából nagyon fontos képkockasebesség növeléséről és az alacsony késleltetés biztosításáról esett szó. Mindez nagyon fontos, és valóban történik előrelépés, de a VR-játékok eddig közel sem néznek ki olyan lenyűgözőek, mint a „szokásos” modern 3D-s játékok legjobbjai. Ez nem csak azért történik, mert a vezető játékfejlesztők még nem foglalkoznak különösebben a VR-alkalmazásokkal, hanem azért is, mert a VR nagyobb igényeket támaszt a képkockasebesség terén, ami miatt az ilyen játékokban a szokásos technikák közül sok nem alkalmazható a magas igények miatt.

A VR-játékok és a hagyományos játékok közötti minőségbeli különbség csökkentése érdekében az Nvidia úgy döntött, hogy kiadja a releváns VRWorks-technológiák teljes csomagját, amely nagyszámú API-t, könyvtárat, motort és technológiát tartalmazott, amelyek jelentősen javíthatják a játék minőségét és teljesítményét. VR játékok, alkalmazások. Hogyan kapcsolódik ez az első Pascal-alapú játékmegoldás bejelentéséhez? Nagyon egyszerű – néhány technológiát bevezettek benne a termelékenység növelése és a minőség javítása érdekében, és már írtunk róluk.

És bár ez nem csak a grafikát érinti, először beszélünk egy kicsit róla. A VRWorks Graphics technológiák készlete a korábban említett technológiákat tartalmazza, mint például a Lens Matched Shading, amely a GeForce GTX 1080-ban megjelent többvetítési funkciót használja. Az új termék 1,5-2-szeres teljesítménynövekedést tesz lehetővé a megoldásokhoz képest. amelyek nem rendelkeznek ilyen támogatással. Megemlítettünk más technológiákat is, mint például a MultiRes Shading, amelyet különböző felbontású renderelésre terveztek a keret közepén és a perifériáján.

De sokkal váratlanabb volt a VRWorks Audio technológia bejelentése, amelyet a 3D-s jelenetek hangadatok kiváló minőségű feldolgozására terveztek, ami különösen fontos a virtuális valóság rendszerekben. A hagyományos motorokban a hangforrások virtuális környezetben történő elhelyezése meglehetősen helyesen van kiszámítva, ha az ellenség jobbról lő, akkor az audiorendszer azon oldaláról hangosabb a hang, és egy ilyen számítás nem igényel túl nagy számítási teljesítményt. .

A valóságban azonban a hangok nem csak a lejátszóhoz jutnak, hanem minden irányba, és különféle anyagokról verődnek vissza, hasonlóan ahhoz, ahogy a fénysugarak visszaverődnek. És a valóságban halljuk ezeket a visszaverődéseket, bár nem olyan tisztán, mint a közvetlen hanghullámokat. Ezeket a közvetett hangvisszaverődéseket általában speciális reverb effektusok szimulálják, de ez egy nagyon primitív megközelítés a feladathoz.

A VRWorks Audio a sugárkövetéshez hasonló hanghullám-visszaadást használ a renderelés során, ahol a fénysugarak útját egy virtuális jelenet objektumairól való többszörös visszaverődésre vezetik vissza. A VRWorks Audio a hanghullámok terjedését is szimulálja a környezetben azáltal, hogy követi a közvetlen és visszavert hullámokat beesési szögüktől és a visszaverő anyagok tulajdonságaitól függően. A VRWorks Audio munkája során a grafikus feladatokról ismert, nagy teljesítményű Nvidia OptiX motort használja, amelyet sugárkövetésre terveztek. Az OptiX számos feladathoz használható, például közvetett világítás kiszámításához és fénytérképek elkészítéséhez, most pedig hanghullámok követéséhez a VRWorks Audio alkalmazásban.

Az Nvidia precíz hanghullám-számításokat épített be a VR Funhouse bemutatójába, amely több ezer sugarat használ, és akár 12 visszaverődést is kiszámít az objektumokról. És annak érdekében, hogy megértsük a technológia előnyeit egy világos példa segítségével, kérjük, nézzen meg egy videót a technológia orosz nyelvű működéséről:

Fontos, hogy az Nvidia megközelítése eltér a hagyományos hangmotoroktól, beleértve a GPU-módszerben speciális blokk segítségével gyorsított hardvert a fő versenytársától. Mindezek a módszerek csak a hangforrások pontos pozícionálását biztosítják, de nem számítják ki a hanghullámok visszaverődését a tárgyakról egy 3D-s jelenetben, bár ezt a visszhanghatás segítségével szimulálhatják. Mégis, a sugárkövetési technológia alkalmazása sokkal valósághűbb lehet, mivel csak ez a megközelítés biztosítja a különböző hangok pontos szimulációját, figyelembe véve a jelenetben lévő tárgyak méretét, alakját és anyagait. Nehéz megmondani, hogy egy tipikus játékostól kell-e ilyen számítási pontosság, de egy dolog biztos: a VR-ben hozzáteszi a felhasználókhoz azt a valósághűséget, ami még mindig hiányzik a normál játékokból.

Nos, már csak a VR SLI technológiáról kell beszélnünk, amely OpenGL-ben és DirectX-ben is működik. Elve rendkívül egyszerű: a kétprocesszoros videórendszer egy VR-alkalmazásban úgy fog működni, hogy minden szemhez külön GPU tartozik, ellentétben az SLI konfigurációknál megszokott AFR rendereléssel. Ez jelentősen javítja az általános teljesítményt, ami nagyon fontos a virtuális valóság rendszerei számára. Elméletileg több GPU is használható, de számuk páros kell legyen.

Erre a megközelítésre azért volt szükség, mert az AFR nem megfelelő a VR-hez, mivel segítségével az első GPU mindkét szem számára egyenletes, a második pedig egy páratlan keretet rajzol, ami nem csökkenti a várakozási időt, ami kritikus a virtuális valóság rendszerei számára. . Bár a képkockasebesség elég magas lesz. Tehát a VR SLI-vel az egyes kereteken végzett munka két GPU-ra oszlik - az egyik a keret egy részén dolgozik a bal szem számára, a második a jobb szem számára, majd a keret ezen feleit egy egésszé egyesítik.

Ez a munkamegosztás a két GPU között csaknem kétszeres teljesítménynövekedést eredményez, ami magasabb képkockasebességet és alacsonyabb késleltetést tesz lehetővé, mint az egy GPU-s rendszerek. A VR SLI használata azonban speciális támogatást igényel az alkalmazástól a méretezési módszer használatához. De a VR SLI technológia már be van építve olyan VR demóalkalmazásokba, mint a Valve's The Lab és az ILMxLAB's Trials a Tatooine-on, és ez még csak a kezdet – az Nvidia azt ígéri, hogy hamarosan további alkalmazások is megjelennek majd, valamint a technológia bevezetését az Unreal Engine 4 játékmotorokban is. , Unity és MaxPlay.

Ansel gaming screenshot platform

Az egyik legérdekesebb szoftverrel kapcsolatos bejelentés az egyik híres fotósról, Anselről elnevezett technológia kibocsátása volt a játékalkalmazásokban kiváló minőségű képernyőképek készítésére. A játékok már régóta nem csak játékok, hanem a játékos kezek használatának helyszínei is különféle kreatív egyének számára. Vannak, akik megváltoztatják a játékok szkriptjét, vannak, akik kiváló minőségű textúrakészleteket adnak ki a játékokhoz, és vannak, akik gyönyörű képernyőképeket készítenek.

Az Nvidia úgy döntött, hogy ez utóbbit segíti egy új platform bevezetésével a játékokból származó jó minőségű képek létrehozására (és létrehozására, mert ez nem olyan egyszerű folyamat). Úgy gondolják, hogy Ansel segíthet egy újfajta kortárs művészet létrehozásában. Végtére is, már elég sok művész van, aki élete nagy részét számítógépen tölti, gyönyörű képernyőképeket készítve játékokból, és még mindig nem volt kényelmes eszközük ehhez.

Az Ansel lehetővé teszi, hogy ne csak rögzíts egy képet a játékban, hanem az alkotó igényei szerint módosítsd azt. Ezzel a technológiával mozgathatja a kamerát a jelenetben, forgathatja és döntheti bármely irányba a kívánt képkompozíció elérése érdekében. Például az olyan játékokban, mint az első személyű lövöldözős játékok, csak mozgatni lehet a lejátszót, mást nem igazán lehet megváltoztatni, így az összes képernyőkép meglehetősen monotonnak bizonyul. Az Anselben található ingyenes kamerával messze túlléphet a játékkamera határain, kiválasztva a sikeres képhez szükséges szöget, vagy akár teljes 360 fokos sztereó képet is rögzíthet a kívánt pontról, és nagy felbontásban később VR sisakban nézegetve.

Az Ansel egészen egyszerűen működik - az Nvidia speciális könyvtára segítségével ez a platform a játék kódjába kerül. Ehhez a fejlesztőjének csak egy kis kódrészletet kell hozzáadnia a projektjéhez, hogy az Nvidia videó-illesztőprogramja elfoghassa a puffer és a shader adatokat. Nagyon kevés munkával jár; az Ansel játékba való beépítése kevesebb mint egy napot vesz igénybe. Így ennek a funkciónak az engedélyezése a The Witnessben körülbelül 40 sornyi kódot vett igénybe, a The Witcher 3-ban pedig körülbelül 150 sornyi kódot.

Az Ansel nyílt forráskódú SDK-val érkezik. A lényeg az, hogy a felhasználó egy szabványos beállításkészletet kapjon vele, amely lehetővé teszi a kamera pozíciójának és szögének megváltoztatását, effektusok hozzáadását stb. Az Ansel platform így működik: szünetelteti a játékot, bekapcsolja az ingyenes kamerát és lehetővé teszi a keret megváltoztatását a kívánt nézetre, az eredményt normál képernyőkép, 360 fokos kép, sztereó pár vagy egyszerűen hatalmas felbontású panoráma formájában rögzítve.

Az egyetlen figyelmeztetés az, hogy nem minden játék támogatja az Ansel játék képernyőképes platformjának összes funkcióját. Egyes játékfejlesztők ilyen vagy olyan okból nem akarnak teljesen ingyenes kamerát engedélyezni játékaikban – például azért, mert csalók is használhatják ezt a funkciót. Vagy ugyanezen okból korlátozni akarják a látószög változását – hogy senki ne kerüljön tisztességtelen előnybe. Nos, vagy azért, hogy a felhasználók ne lássák a háttérben a szegény sprite-okat. Mindezek a játékkészítők teljesen normális vágyai.

Az Ansel egyik legérdekesebb funkciója az egyszerűen hatalmas felbontású képernyőképek készítése. Nem számít, hogy a játék például 4K-ig támogatja a felbontást, a felhasználó monitora pedig Full HD. A screenshot platform használatával sokkal jobb minőségű képet készíthet, aminek inkább a meghajtó kapacitása és teljesítménye szab határt. A platform könnyedén készít képernyőképeket akár 4,5 gigapixeles felbontással, 3600 darabból összefűzve őket!

Jól látható, hogy az ilyen képeken minden részlet látható, egészen a távolban heverő újságok szövegéig, ha ilyen részletgazdagságot elvileg biztosít a játék - Ansel is szabályozhatja a részletességet, állítsa be a maximális szintet a legjobb képminőség érdekében. De engedélyezheti a szupermintavételt is. Mindez lehetővé teszi, hogy a játékokból képeket készítsen, amelyeket biztonságosan nyomtathat nagy szalaghirdetésekre, és biztos lehet a minőségükben.

Érdekes módon egy speciális, CUDA-n alapuló, hardveresen gyorsított kódot használnak a nagyméretű képek összefűzésére. Hiszen egyetlen videokártya sem tud több gigapixeles képet összességében renderelni, hanem darabokban, amelyeket később egyszerűen össze kell kombinálni, figyelembe véve az esetleges megvilágítási, színbeli, stb. eltéréseket.

Az ilyen panorámák összefűzése után speciális utófeldolgozás történik a teljes képkockán, szintén a GPU-n felgyorsítva. A megnövelt dinamikatartománnyal rendelkező képek rögzítéséhez pedig használhat egy speciális képformátumot - az EXR, az Industrial Light and Magic nyílt szabványát, amelynek színértékeit 16 bites lebegőpontos formátumban (FP16) rögzíti. minden csatorna.

Ez a formátum lehetővé teszi a kép fényerejének és dinamikatartományának utófeldolgozással történő megváltoztatását, minden egyes megjelenítésnél a kívánt szintre hozva, ugyanúgy, mint a fényképezőgépekből származó RAW formátumok esetében. És az utófeldolgozó szűrők képfeldolgozó programokban történő későbbi használatához ez a formátum nagyon hasznos, mivel sokkal több adatot tartalmaz, mint a hagyományos képformátumok.

De maga az Ansel platform is rengeteg utófeldolgozó szűrőt tartalmaz, ami azért különösen fontos, mert nem csak a végső képhez fér hozzá, hanem a játék által rendereléskor használt összes pufferhez is, amivel nagyon érdekes effektusokat lehet elérni. , mint a mélységélesség. Az Ansel erre egy speciális utófeldolgozó API-val rendelkezik, és az effektek bármelyike ​​belekerülhet egy ezt a platformot támogató játékba.

Az Ansel post szűrők a következő szűrőket tartalmazzák: színgörbék, színtér, transzformáció, telítetlenség, fényerő/kontraszt, filmszemcsék, virágzás, lencse becsillanása, anamorf tükröződés, torzítás, hőköd, halszem, színeltérés, tónusleképezés, lencseszennyeződés, fénytengelyek, matrica, gamma korrekció, konvolúció, élesítés, élérzékelés, elmosódás, szépia, zaj, FXAA és mások.

Ami az Ansel támogatás megjelenését illeti a játékokban, várnia kell egy kicsit, amíg a fejlesztők megvalósítják és tesztelik. Az Nvidia azonban azt ígéri, hogy hamarosan megjelenik egy ilyen támogatás az olyan híres játékokban, mint a The Division, a The Witness, a Lawbreakers, a The Witcher 3, a Paragon, a Fortnite, az Obduction, a No Man's Sky, az Unreal Tournament és mások.

Az új, 16 nm-es FinFET technológiai folyamat és architektúra optimalizálás lehetővé tette, hogy a GP104 grafikus processzorra épülő GeForce GTX 1080 videokártya referencia formában is magas, 1,6-1,7 GHz-es órajelet érjen el, az új generáció pedig garantálja a működést A lehető legmagasabb frekvenciák a játékokban GPU Boost technológia. A végrehajtási egységek megnövekedett számával együtt ezek a fejlesztések nemcsak minden idők legnagyobb teljesítményű egychipes videokártyájává tették az új terméket, hanem a piac legenergiahatékonyabb megoldásává is.

A GeForce GTX 1080 modell lett az első videokártya, amely új típusú GDDR5X grafikus memóriát hordozott - a nagy sebességű chipek új generációját, amely lehetővé tette nagyon nagy adatátviteli sebesség elérését. A GeForce GTX 1080 módosítás esetén ez a típusú memória 10 GHz-es effektív frekvencián működik. A képkockapuffer továbbfejlesztett információtömörítési algoritmusaival kombinálva ennek a grafikus processzornak a tényleges memória sávszélessége 1,7-szeresére nőtt közvetlen elődjéhez, a GeForce GTX 980-hoz képest.

Az Nvidia bölcsen úgy döntött, hogy nem ad ki radikálisan új architektúrát egy teljesen új technológiai folyamaton, hogy ne találkozzon felesleges problémákkal a fejlesztés és a gyártás során. Ehelyett komolyan továbbfejlesztették az amúgy is jó és nagyon hatékony Maxwell architektúrát, hozzáadva néhány funkciót. Ennek köszönhetően az új GPU-k gyártásával minden rendben van, a GeForce GTX 1080 modell esetében pedig igen magas frekvenciapotenciált értek el a mérnökök - a partnerek túlhúzott változataiban a GPU-frekvenciák 2 GHz-ig várhatók! Ez a lenyűgöző frekvencia a tökéletes technikai folyamatnak és az Nvidia mérnökeinek a Pascal GPU fejlesztése során végzett gondos munkájának köszönhetően vált lehetővé.

És bár a Pascal a Maxwell közvetlen utódja lett, és ezek a grafikus architektúrák alapvetően nem különböznek nagyon egymástól, az Nvidia számos változtatást és fejlesztést vezetett be, beleértve a képek megjelenítésének képességét a kijelzőkön, a videó kódoló és dekódoló motort, valamint a továbbfejlesztett aszinkron különböző típusú számítások végrehajtása a GPU-n, változtatásokat hajtott végre a többchipes renderelésen, és bevezetett egy új szinkronizálási módszert, a Fast Sync-et.

Lehetetlen nem kiemelni a több vetítésű Simultaneous Multi-Projection technológiát, amely segít a virtuális valóság rendszerek teljesítményének javításában, a jelenetek pontosabb megjelenítésében a többmonitoros rendszereken, és új teljesítményoptimalizálási technikákat vezet be. A VR-alkalmazások sebessége azonban akkor lesz a legnagyobb, ha támogatják a többvetítési technológiát, amely a geometriai adatok feldolgozásakor a felére, a pixelenkénti számítások elvégzésekor pedig másfélszeresére takarítja meg a GPU erőforrásait.

A tisztán szoftveres változtatások közül kiemelkedik az Ansel nevű játékok képernyőképeinek készítésére szolgáló platform - nem csak a sokat játszóknak lesz érdekes kipróbálni, hanem azoknak is, akik egyszerűen csak érdeklődnek a jó minőségű 3D-s grafika iránt. Az új termék lehetővé teszi, hogy új szintre emelje a képernyőképek készítésének és retusálásának művészetét. Nos, az Nvidia egyszerűen tovább fejleszti a játékfejlesztőknek szánt csomagjait, mint például a GameWorks és a VRWorks, lépésről lépésre - például az utóbbinak van egy érdekes funkciója a kiváló minőségű hangfeldolgozáshoz, figyelembe véve a hanghullámok hardveres sugarak segítségével történő visszaverődését. nyomon követése.

Általánosságban elmondható, hogy egy igazi vezető lépett a piacra az Nvidia GeForce GTX 1080 videokártya formájában, amely rendelkezik az ehhez szükséges összes tulajdonsággal: nagy teljesítmény és széles körű funkcionalitás, valamint új funkciók és algoritmusok támogatása. A videokártya első vásárlói az említett előnyök közül számosat azonnal értékelni fognak, a megoldás egyéb lehetőségei pedig valamivel később, a széleskörű szoftvertámogatás megjelenésekor derülnek ki. A lényeg az, hogy a GeForce GTX 1080 nagyon gyorsnak és hatékonynak bizonyult, és nagyon reméljük, hogy az Nvidia mérnökeinek sikerült kijavítaniuk a problémás területeket (ugyanazok az aszinkron számítások).

GeForce GTX 1070 grafikus gyorsító

ParaméterJelentése
Chip kódnévGP104
Gyártástechnológia16 nm-es FinFET
A tranzisztorok száma7,2 milliárd
Alapterület314 mm²
ÉpítészetEgységesített, egy sor közös processzorral számos típusú adatfolyam feldolgozásához: csúcsok, pixelek stb.
DirectX hardver támogatásDirectX 12, a 12_1 funkciószint támogatásával
Memóriabusz256 bites: Nyolc független 32 bites memóriavezérlő támogatja a GDDR5 és GDDR5X memóriát
GPU frekvencia1506 (1683) MHz
Számítási blokkok15 aktív (a chipben található 20-ból) streaming többprocesszor, köztük 1920 (2560-ból) skalár ALU az IEEE 754-2008 szabvány keretein belüli lebegőpontos számításokhoz;
Textúra blokkok120 aktív (a chipen lévő 160-ból) textúracímző és -szűrő egység, amely támogatja az FP16 és FP32 komponenseket textúrákban, valamint támogatja a trilineáris és anizotróp szűrést minden textúraformátumhoz
Raszteres műveleti blokkok (ROP)8 széles ROP blokk (64 pixel) különböző élsimítási módok támogatásával, beleértve a programozható és FP16 vagy FP32 keretpuffer formátumot. A blokkok egy sor konfigurálható ALU-ból állnak, és felelősek a mélység generálásáért és összehasonlításáért, a többszörös mintavételezésért és a keverésért.
Monitor támogatásIntegrált támogatás akár négy, Dual Link DVI, HDMI 2.0b és DisplayPort 1.2 (1.3/1.4 Ready) interfészen keresztül csatlakoztatott monitorhoz

A referencia videokártya GeForce GTX 1070 specifikációi
ParaméterJelentése
Magfrekvencia1506 (1683) MHz
Univerzális processzorok száma1920
Textúra blokkok száma120
Keverési blokkok száma64
Hatékony memóriafrekvencia8000 (4×2000) MHz
Memória típusaGDDR5
Memóriabusz256 bites
memória8 GB
Memória sávszélesség256 GB/s
Számítási teljesítmény (FP32)körülbelül 6,5 teraflop
Elméleti maximális kitöltési arány96 gigapixel/s
Elméleti textúra mintavételi sebesség181 gigatexel/s
GumiPCI Express 3.0
CsatlakozókEgy Dual Link DVI, egy HDMI és három DisplayPort
Energia fogyasztás150 W-ig
Kiegészítő ételEgy 8 tűs csatlakozó
A rendszertokban foglalt helyek száma2
Ajánlott ár379–449 USD (USA), 34 990 (Oroszország)

Logikai nevet kapott a GeForce GTX 1070 videokártya is, hasonlóan az előző GeForce sorozat azonos megoldásához. Közvetlen elődjétől, a GeForce GTX 970-től csak a megváltozott generációs számban tér el. A cég jelenlegi termékcsaládjának újdonsága egy fokkal alacsonyabb a jelenlegi csúcsmegoldásnál, a GeForce GTX 1080-nál, amely az új sorozat ideiglenes zászlóshajója lett a még nagyobb teljesítményű GPU-kon lévő megoldások megjelenéséig.

Az Nvidia új csúcskategóriás grafikus kártyájának ajánlott ára 379 dollár, a normál Nvidia partnerverziók esetében pedig 449 dollár, illetve a speciális Founders Edition esetében. A csúcsmodellhez képest ez nagyon jó ár, tekintve, hogy a GTX 1070 legrosszabb esetben mintegy 25%-kal van lemaradva tőle. És a bejelentés és a kiadás időpontjában a GTX 1070 a legjobb teljesítményű megoldás kategóriájában. A GeForce GTX 1080-hoz hasonlóan a GTX 1070-nek sincs közvetlen versenytársa az AMD-től, és csak a Radeon R9 390X-hez és a Furyhoz hasonlítható.

A GeForce GTX 1070 módosításban szereplő GP104 grafikus processzor a teljes, 256 bites memóriabusz meghagyása mellett döntött, igaz, nem az új típusú GDDR5X memóriát használták, hanem a nagyon gyors GDDR5-öt, amely magas, 8 GHz-es effektív frekvencián működik. Az ilyen busszal rendelkező videokártyára telepített memória mennyisége 4 vagy 8 GB lehet, és hogy az új megoldás maximális teljesítményét magas beállítások és renderelési felbontások mellett is biztosítsák, a GeForce GTX 1070 videokártya modellt 8 GB-os memóriakártyával is ellátták. videomemória, mint a nővére. Ez a mennyiség elegendő bármilyen 3D-s alkalmazás futtatásához a maximális minőségi beállításokkal több évig.

Special Edition GeForce GTX 1070 Founders Edition

A GeForce GTX 1080 május eleji bejelentésekor bejelentették a videokártya speciális kiadását Founders Edition néven, amely a cég partnereinek szokásos videokártyáihoz képest magasabb árat jelentett. Ugyanez vonatkozik az új termékre is. Ebben a cikkben ismét a GeForce GTX 1070 videokártya Founders Edition nevű speciális kiadásáról lesz szó. A régebbi modellhez hasonlóan az Nvidia úgy döntött, hogy a gyártó referencia videokártyájának ezt a verzióját is magasabb áron adja ki. Azzal érvelnek, hogy sok játékos és rajongó, aki csúcskategóriás, drága grafikus kártyákat vásárol, megfelelő "prémium" megjelenésű és hangulatú terméket szeretne.

Ennek megfelelően az ilyen felhasználók számára kerül piacra a GeForce GTX 1070 Founders Edition videokártya, amelyet az Nvidia mérnökei terveztek és készítettek prémium anyagokból és alkatrészekből, mint például a GeForce GTX 1070 Founders Edition alumínium borítás, valamint alacsony profilú hátlapként, amely a nyomtatott áramköri lap hátoldalát takarja, és igen népszerű a rajongók körében.

Amint az az alaplapról készült fényképeken látható, a GeForce GTX 1070 Founders Edition pontosan ugyanazt az ipari formatervezést örökölte, mint a referencia GeForce GTX 1080 Founders Edition. Mindkét modell radiális ventilátort használ, amely a felforrósodott levegőt kifelé vezeti, ami nagyon hasznos mind a kis esetekben, mind a korlátozott fizikai térrel rendelkező, több chipes SLI konfigurációkban. A felmelegített levegő kifújása a házon belüli keringtetés helyett csökkenti a hőterhelést, javítja a túlhúzási eredményeket és meghosszabbítja a rendszerelemek élettartamát.

A GeForce GTX 1070 referencia hűtőrendszer burkolata alatt egy speciálisan kialakított alumínium radiátor található, három beépített réz hőcsővel, amelyek magából a GPU-ból vonják el a hőt. A hőcsövek által eltávolított hőt ezután egy alumínium hűtőborda vezeti el. Nos, a tábla hátoldalán található alacsony profilú fémlemez is jobb hőmérsékleti jellemzőket biztosít. Behúzható része is van a jobb légmozgás érdekében több grafikus kártya között SLI konfigurációkban.

Ami az alaplap táprendszerét illeti, a GeForce GTX 1070 Founders Edition négyfázisú táprendszerrel rendelkezik, amely a stabil energiaellátásra van optimalizálva. Az Nvidia azt állítja, hogy a GTX 1070 Founders Edition speciális komponenseinek használata a GeForce GTX 970-hez képest jobb energiahatékonyságot, stabilitást és megbízhatóságot eredményez, így jobb túlhajtási teljesítményt biztosít. A cég saját tesztjei során a GeForce GTX 1070 GPU-k könnyedén átlépték az 1,9 GHz-et, ami közel áll a régebbi GTX 1080 modell eredményeihez.

Az Nvidia GeForce GTX 1070 grafikus kártya június 10-től lesz elérhető a kiskereskedelmi üzletekben. A GeForce GTX 1070 Founders Edition és a partnermegoldások ajánlott árai eltérőek, és ez a legfontosabb kérdés ennél a speciális kiadásnál. Ha az Nvidia partnerei GeForce GTX 1070 videokártyáikat már 379 dolláros áron árulják (az amerikai piacon), akkor az Nvidia referenciadizájnjának Founders Edition kiadása 449 dollárba kerül. Sok rajongó hajlandó túlfizetni, őszintén szólva, a referencia verzió kétes előnyeiért? Az idő eldönti, de úgy gondoljuk, hogy a referenciatábla az eladások legelején megvásárolható opcióként érdekesebb, később pedig már nullára csökken a vásárlás helye (és még drágábban is!).

Hozzá kell tenni, hogy a referencia GeForce GTX 1070 nyomtatott áramköri lapja hasonló a régebbi videokártyáéhoz, és mindkettő eltér a cég korábbi lapjainak kialakításától. Az új termék jellemző fogyasztása 150 W, ami majdnem 20%-kal kevesebb a GTX 1080 értékénél, és közel áll az előző generációs GeForce GTX 970 videokártya fogyasztásához. csatlakozók száma a képkimeneti eszközök csatlakoztatásához: egy Dual-Link DVI, egy HDMI és három DisplayPort. Sőt, a HDMI és a DisplayPort új verziói is támogatottak, amiről fentebb írtunk a GTX 1080 modell ismertetőjében.

Építészeti változások

A GeForce GTX 1070 videokártya a GP104 chipre épül, amely az Nvidia Pascal grafikus architektúrájának új generációjának elsőszülöttje. Ez az architektúra a Maxwell-nél kifejlesztett megoldásokra épül, de vannak benne funkcionális eltérések is, amelyekről fentebb - a csúcskategóriás GeForce GTX 1080 videokártyának szentelt részben - írtunk részletesen.

Az új architektúra fő változása az a technológiai folyamat volt, amellyel minden új GPU készül. A 16 nm-es FinFET eljárás alkalmazása a GP104 gyártása során lehetővé tette a chip komplexitásának jelentős növelését, miközben viszonylag alacsony területet és költséget tartottak fenn, az első Pascal architektúra chip pedig észrevehetően nagyobb számú végrehajtási egységgel rendelkezik, beleértve azokat is. új funkcionalitást biztosít a hasonló pozicionálású Maxwell chipekhez képest.

A GP104 videochip kialakítása hasonló a hasonló Maxwell architektúra megoldásokhoz, a modern GPU-k kialakításáról pedig a korábbi Nvidia megoldásokról szóló áttekintéseinkben talál részletes információkat. A korábbi GPU-khoz hasonlóan az új architektúra chipek is különböző konfigurációjú grafikus feldolgozó fürtöt (GPC), streaming többprocesszort (SM) és memóriavezérlőket tartalmaznak majd, és a GeForce GTX 1070 már átesett néhány változtatáson – a chip egy része zárolva lett és inaktív ( szürkével kiemelve):

Bár a GP104 GPU négy GPC-fürtöt és 20 SM-multiprocesszort tartalmaz, a GeForce GTX 1070-hez készült verzióban lecsupaszított módosítást kapott, egy GPC-fürtöt hardver letiltott. Mivel minden GPC-fürt rendelkezik egy dedikált raszterizáló motorral és öt SM többprocesszort tartalmaz, és mindegyik többprocesszor 128 CUDA magból és nyolc TMU-ból áll, a GP104 ezen verziója 1920 CUDA maggal és 120 aktív TMU-val rendelkezik a 2560 adatfolyam-processzorból és 160 fizikailag elérhető textúrablokkból. .

A GeForce GTX 1070 alapját képező GPU nyolc 32 bites memóriavezérlőt tartalmaz, amelyek összesen 256 bites memóriabuszt biztosítanak – pontosan ugyanazt, mint a régebbi GTX 1080 modell. A memória alrendszert nem csökkentették a megfelelő ellátás érdekében nagy sávszélességű memória GDDR5 memória használatának feltételével a GeForce GTX 1070-ben. A memóriavezérlők mindegyikéhez nyolc ROP blokk és 256 KB második szintű gyorsítótár tartozik, így a GP104 chip ebben a módosításban is 64 ROP blokkot és 2048-at tartalmaz. KB második szintű gyorsítótár szint.

Az építészeti optimalizálásnak és az új folyamattechnológiának köszönhetően a GP104 GPU az eddigi legenergiatakarékosabb GPU. Az Nvidia mérnökei az új folyamattechnológiára való átálláskor a vártnál nagyobb mértékben tudták növelni az órajelet, amihez keményen kellett dolgozniuk, hogy gondosan ellenőrizzék és optimalizálják a korábbi megoldások összes szűk keresztmetszetét, amely nem tette lehetővé a magasabb frekvenciákon történő munkát. Ennek megfelelően a GeForce GTX 1070 is nagyon magas frekvencián működik, több mint 40%-kal magasabb, mint a GeForce GTX 970 referenciaértéke.

Mivel a GeForce GTX 1070 modell lényegében csak egy kicsivel kisebb teljesítményű GTX 1080 GDDR5 memóriával, abszolút az összes technológiát támogatja, amit az előző részben leírtunk. Ha többet szeretne megtudni a Pascal architektúráról, valamint az általa támogatott technológiákról, mint például a továbbfejlesztett videokimeneti és -feldolgozó egységek, az Async Compute támogatása, a Simultaneous Multi-Projection technológia, az SLI többlapkás renderelés változásai és az új Fast Sync típus, érdemes megnézni a GTX 1080-ról szóló részt.

Nagy teljesítményű GDDR5 memória és hatékony használata

Fentebb írtunk a GP104 grafikus processzor memória alrendszerében bekövetkezett változásokról, amelyekre a GeForce GTX 1080 és a GTX 1070 épül - az ebbe a GPU-ba tartozó memóriavezérlők támogatják mind az új típusú GDDR5X videomemóriát, amelyről részletesen a a GTX 1080 felülvizsgálata, és a jó öreg GDDR5 memória, amit már több éve ismerünk.

Annak érdekében, hogy ne veszítsen túl sokat a memória sávszélességében a fiatalabb GTX 1070 modellben a régebbi GTX 1080-hoz képest, mind a nyolc 32 bites memóriavezérlőt aktívan hagyta, így teljes 256 bites közös videomemória interfészt kapott. Ezenkívül a videokártyát a piacon elérhető legnagyobb sebességű GDDR5 memóriával szerelték fel - 8 GHz-es effektív működési frekvenciával. Mindez 256 GB/s-os memóriasávszélességet biztosított, szemben a régebbi megoldás 320 GB/s-ával - a számítási képességek is megközelítőleg ugyanennyivel csökkentek, így az egyensúly megmaradt.

Ne felejtse el, hogy bár az elméleti csúcsteljesítmény fontos a GPU teljesítménye szempontjából, ügyelnie kell arra is, hogy milyen hatékonyan használja azt. A renderelési folyamat során számos különböző szűk keresztmetszet korlátozhatja az általános teljesítményt, megakadályozva az összes rendelkezésre álló sávszélesség felhasználását. E szűk keresztmetszetek minimalizálása érdekében a GPU-k speciális veszteségmentes tömörítést alkalmaznak az adatolvasási és -írási műveletek hatékonyságának javítása érdekében.

A Pascal architektúra már bevezette a pufferinformációk delta-tömörítésének negyedik generációját, amely lehetővé teszi a GPU számára, hogy hatékonyabban használja ki a videomemóriabusz rendelkezésre álló képességeit. A GeForce GTX 1070 és GTX 1080 memória alrendszere továbbfejlesztett régi és számos új veszteségmentes adattömörítési technikát használ a sávszélesség-igény csökkentésére. Ez csökkenti a memóriába írt adatok mennyiségét, javítja az L2 gyorsítótár hatékonyságát, és csökkenti a GPU különböző pontjai, például a TMU és a framebuffer között küldött adatok mennyiségét.

GPU Boost 3.0 és túlhajtási funkciók

A legtöbb Nvidia partner már bejelentette a GeForce GTX 1080-on és GTX 1070-en alapuló gyári túlhajtásos megoldásokat. Számos videokártya-gyártó pedig speciális túlhajtási segédprogramokat is készít, amelyek lehetővé teszik a GPU Boost 3.0 technológia új funkcióinak használatát. Az ilyen segédprogramok egyik példája az EVGA Precision XOC, amely egy automatikus szkennert tartalmaz a feszültség-frekvencia görbe meghatározásához - ebben az üzemmódban minden feszültségértékhez stabilitási teszt futtatásával stabil frekvenciát találnak, amelyen a GPU nagyobb teljesítményt biztosít. . Ez a görbe azonban manuálisan módosítható.

A GPU Boost technológiát jól ismerjük a korábbi Nvidia videokártyákról. GPU-ikban ezt a hardveres funkciót használják, amely a GPU működési órajelének növelésére szolgál azokban az üzemmódokban, amikor az még nem érte el az energiafogyasztás és a hőleadás határát. A Pascal GPU-kban ez az algoritmus több változáson ment keresztül, amelyek közül a fő a turbófrekvenciák finomabb beállítása volt, feszültségtől függően.

Ha korábban az alapfrekvencia és a turbófrekvencia közötti különbséget rögzítették, akkor a GPU Boost 3.0-ban lehetővé vált a turbófrekvencia-eltolások beállítása minden feszültséghez külön. Mostantól minden egyes feszültségértékhez beállítható a turbófrekvencia, ami lehetővé teszi az összes túlhajtási képesség teljes kiszorítását a GPU-ból. Erről a funkcióról részletesen írtunk GeForce GTX 1080 áttekintésünkben, ehhez pedig EVGA Precision XOC és MSI Afterburner segédprogramokat használhatunk.

Mivel a GPU Boost 3.0-t támogató videokártyák megjelenésével néhány részlet megváltozott a túlhajtási módszertanban, az Nvidiának további magyarázatokat kellett adnia az új termékek túlhajtására vonatkozó utasításokban. Különböző túlhajtási technikák vannak különböző változókkal, amelyek befolyásolják a végeredményt. Lehet, hogy egy adott módszer jobban megfelel minden egyes rendszerhez, de az alapok nagyjából mindig ugyanazok.

Sok túlhúzó a Unigine Heaven 4.0 benchmarkot használja a rendszer stabilitásának ellenőrzésére, amely tökéletesen terheli a GPU-t a munkával, rugalmas beállításokkal rendelkezik, és ablakos módban is elindítható, valamint a közelben található túlhúzó és figyelő segédprogram ablaka, például az EVGA Precision vagy az MSI Afterburner. Egy ilyen ellenőrzés azonban csak a kezdeti becslésekhez elegendő, és a túlhajtás stabilitásának határozott megerősítéséhez több játékalkalmazásban is ellenőrizni kell, mivel a különböző játékok különböző terheléseket igényelnek a GPU különböző funkcionális blokkjain: matematikai, textúra, geometriai. . A Heaven 4.0 benchmark túlhúzási feladatokhoz is kényelmes, mert hurkolt üzemmóddal rendelkezik, amiben kényelmes a túlhajtási beállítások módosítása, és van benchmark a sebességnövekedés értékelésére.

Az Nvidia a Heaven 4.0 és az EVGA Precision XOC együttes futtatását javasolja az új GeForce GTX 1080 és GTX 1070 videokártyák túlhajtásához. Először is célszerű azonnal növelni a ventilátor sebességét. Komoly túlhajtásnál pedig azonnal 100%-ra állíthatod a sebességértéket, amitől a videokártya nagyon hangos lesz, de a GPU-t és a videokártya többi alkatrészét a lehető legalacsonyabb szintre csökkentve hűti le. , megakadályozza a fojtást (a frekvencia csökkenése a GPU hőmérsékletének egy bizonyos érték fölé történő emelkedése miatt).

Ezután a teljesítménycélt is maximumra kell állítania. Ez a beállítás biztosítja a maximális teljesítményt a GPU számára, növelve az energiafogyasztás szintjét és a GPU hőmérsékleti célértékét. Bizonyos célokra a második érték elválasztható a Power Target változásától, majd ezek a beállítások egyenként módosíthatók - például a videochip kevésbé melegítése érdekében.

A következő lépés a videochip frekvencianövelésének (GPU Clock Offset) értékének növelése – ez azt jelenti, hogy működés közben mennyivel lesz magasabb a turbófrekvencia. Ez az érték növeli a frekvenciát minden feszültségnél, és jobb teljesítményt eredményez. Mint mindig, túlhúzáskor ellenőriznie kell a stabilitást a GPU frekvenciájának kis lépésekben történő növelésével – lépésenként 10 MHz-ről 50 MHz-re, mielőtt akadozást, illesztőprogram- vagy alkalmazáshibákat vagy akár vizuális műtermékeket észlelne. Ha elérte ezt a határt, csökkentse a frekvencia értékét egy lépéssel lejjebb, és még egyszer ellenőrizze a stabilitást és a teljesítményt a túlhajtás során.

A GPU-frekvencia mellett a videomemória frekvenciáját (Memory Clock Offset) is növelhetjük, ami a GDDR5 memóriával szerelt GeForce GTX 1070 esetében különösen fontos, ami általában jól túlhajt. A folyamat a memória működési frekvencia esetén pontosan megismétli azt, amit a stabil GPU-frekvencia megtalálásakor tesznek, a különbség csak annyi, hogy a lépések nagyobbra tehetők - 50-100 MHz-et egyszerre hozzáadva az alapfrekvenciához.

A fent leírt lépéseken túl a feszültséghatárt (Overvoltage) is növelheti, mert gyakran magasabb GPU-frekvenciák érhetők el magasabb feszültség mellett, amikor a GPU instabil részei többletet kapnak. Igaz, ennek az értéknek a növelésének potenciális hátránya a videochip károsodásának és a gyorsított meghibásodásnak a lehetősége, ezért a feszültség növelését rendkívül óvatosan kell alkalmazni.

Az overclocking szerelmesei kissé eltérő technikákat alkalmaznak, különböző sorrendben változtatják a paramétereket. Például egyes túlhúzók megosztják egymással a kísérleteket, hogy megtalálják a GPU és a memória stabil frekvenciáját, hogy ne zavarják egymást, majd tesztelik a videochip és a memória chipek kombinált túlhajtását, de ezek az egyén jelentéktelen részletei. megközelítés.

A fórumok véleményéből és a cikkekhez fűzött kommentekből ítélve néhány felhasználó nem szerette a GPU Boost 3.0 új működési algoritmusát, amikor a GPU frekvencia először nagyon magasra, gyakran a turbó frekvencia fölé emelkedik, majd a GPU hőmérsékletének emelkedése hatására. vagy a beállított határérték fölé nőtt az energiafogyasztás, lényegesen alacsonyabb értékekre csökkenhet. Ez csak a frissített algoritmus sajátossága, hozzá kell szokni a dinamikusan változó GPU-frekvencia új viselkedéséhez, de ennek nincs negatív következménye.

A GeForce GTX 1070 videokártya lett a második modell a GTX 1080 után az Nvidia új sorozatában, amely Pascal grafikus processzorcsaládra épül. Az új, 16 nm-es FinFET folyamattechnológia és az architektúra optimalizálás lehetővé tette a bemutatott videokártya magas órajel elérését, amiben az új generációs GPU Boost technológia is segít. Annak ellenére, hogy a stream processzorok és textúra modulok formájában csökkent a funkcionális egységek száma, számuk elegendő ahhoz, hogy a GTX 1070 a legjövedelmezőbb és legenergiatakarékosabb megoldás legyen.

A GDDR5 memória telepítése a GP104 chipen megjelent Nvidia videokártya-párok közül a fiatalabbra, ellentétben a GTX 1080-at megkülönböztető új GDDR5X típussal, nem akadályozza meg abban, hogy magas teljesítménymutatókat érjen el. Először is az Nvidia úgy döntött, hogy nem vágja le a GeForce GTX 1070 modell memóriabuszát, másodszor pedig a leggyorsabb GDDR5 memóriát telepítette 8 GHz-es effektív frekvenciával, ami csak valamivel alacsonyabb, mint a régebbi GDDR5X 10 GHz-e. modell. A továbbfejlesztett delta tömörítési algoritmusok figyelembevételével a GPU effektív memória sávszélessége nagyobb lett, mint az előző generációs GeForce GTX 970 hasonló modelljének.

A GeForce GTX 1070 azért jó, mert a kicsit korábban bejelentett régebbi modellhez képest lényegesen alacsonyabb áron kínál nagyon nagy teljesítményt és támogatja az új funkciókat és algoritmusokat. Ha csak kevesen engedhetik meg maguknak a GTX 1080 vásárlását 55 000-ért, akkor a potenciális vásárlók jóval nagyobb köre 35 ezret tud majd fizetni mindössze negyedével kevésbé produktív, pontosan azonos képességekkel rendelkező megoldásért. A viszonylag alacsony ár és a nagy teljesítmény kombinációja tette a GeForce GTX 1070-et talán a legjövedelmezőbb vásárlássá megjelenése idején.

GeForce GTX 1060 grafikus gyorsító

ParaméterJelentése
Chip kódnévGP106
Gyártástechnológia16 nm-es FinFET
A tranzisztorok száma4,4 milliárd
Alapterület200 mm²
ÉpítészetEgységesített, egy sor közös processzorral számos típusú adatfolyam feldolgozásához: csúcsok, pixelek stb.
DirectX hardver támogatásDirectX 12, a 12_1 funkciószint támogatásával
Memóriabusz192 bites: hat független 32 bites memóriavezérlő támogatja a GDDR5 memóriát
GPU frekvencia1506 (1708) MHz
Számítási blokkok10 streaming multiprocesszor, beleértve 1280 skaláris ALU-t a lebegőpontos számításokhoz az IEEE 754-2008 szabvány keretein belül;
Textúra blokkok80 textúracímző és -szűrő egység FP16 és FP32 komponensek támogatásával a textúrákban, valamint a trilineáris és anizotrop szűrés támogatásával minden textúraformátumhoz
Raszteres műveleti blokkok (ROP)6 széles ROP blokk (48 pixel) különböző élsimítási módok támogatásával, beleértve a programozható és FP16 vagy FP32 keretpuffer formátumot. A blokkok egy sor konfigurálható ALU-ból állnak, és felelősek a mélység generálásáért és összehasonlításáért, a többszörös mintavételezésért és a keverésért.
Monitor támogatásIntegrált támogatás akár négy, Dual Link DVI, HDMI 2.0b és DisplayPort 1.2 (1.3/1.4 Ready) interfészen keresztül csatlakoztatott monitorhoz

A GeForce GTX 1060 referencia grafikus kártya specifikációi
ParaméterJelentése
Magfrekvencia1506 (1708) MHz
Univerzális processzorok száma1280
Textúra blokkok száma80
Keverési blokkok száma48
Hatékony memóriafrekvencia8000 (4×2000) MHz
Memória típusaGDDR5
Memóriabusz192 bites
memória6 GB
Memória sávszélesség192 GB/s
Számítási teljesítmény (FP32)kb 4 teraflop
Elméleti maximális kitöltési arány72 gigapixel/s
Elméleti textúra mintavételi sebesség121 gigatexel/s
GumiPCI Express 3.0
CsatlakozókEgy Dual Link DVI, egy HDMI és három DisplayPort
Tipikus energiafogyasztás120 W
Kiegészítő ételEgy 6 tűs csatlakozó
A rendszertokban foglalt helyek száma2
Ajánlott ár249 dollár (299 dollár) az Egyesült Államokban és 18 990 Oroszországban

A GeForce GTX 1060 videokártya is az előző GeForce széria azonos megoldásához hasonló nevet kapott, a közvetlen előd GeForce GTX 960 nevétől csak a generáció megváltozott első számjegyében tér el. A cég jelenlegi sorozatának újdonsága egy fokkal alacsonyabb, mint a korábban kiadott GeForce GTX 1070 megoldás, ami az új szériában átlagos sebességű.

Az Nvidia új videokártyájának ajánlott ára 249 dollár, illetve 299 dollár a cég partnereinek szokásos verzióiért, illetve a speciális Founder's Editionért. A két régebbi modellhez képest ez nagyon kedvező ár, hiszen az új GTX 1060 modell, bár elmarad a csúcskategóriás lapoktól, közel sem olcsóbb náluk. Az új termék bejelentésekor egyértelműen kategóriája legjobban teljesítő megoldása és az egyik legelőnyösebb ajánlat lett ebben az árkategóriában.

Az Nvidia Pascal család videókártyájának ez a modellje a Radeon RX 480-at valamivel korábban piacra dobó, konkurens AMD friss megoldásának ellensúlyozására jelent meg. Az új Nvidia termék összehasonlítható ezzel a videokártyával, bár nem teljesen közvetlenül, mivel az árban még mindig észrevehetően különböznek. A GeForce GTX 1060 drágább (249-299 dollár a 199-229 dollárral szemben), de egyértelműen gyorsabb is, mint versenytársa.

A GP106 grafikus processzor 192 bites memóriabusszal rendelkezik, így egy ilyen busszal rendelkező videokártyára telepített memória mennyisége 3 vagy 6 GB lehet. A kisebb érték modern körülmények között őszintén szólva nem elég, és sok játékprojekt, még Full HD felbontásban is, a videomemória hiányába ütközik, ami súlyosan befolyásolja a renderelés zökkenőmentességét. Az új megoldás magas beállítások melletti maximális teljesítménye érdekében a GeForce GTX 1060 videokártya modellt 6 GB videomemóriával szerelték fel, ami elegendő bármilyen 3D alkalmazás futtatásához bármilyen minőségi beállítás mellett. Sőt, ma már egyszerűen nincs különbség 6 és 8 GB között, és egy ilyen megoldás némi pénzt takarít meg.

Az új termék jellemző fogyasztása 120 W, ami 20%-kal kevesebb a GTX 1070 értékénél, és megegyezik az előző generációs GeForce GTX 960 videokártya fogyasztásával, amely jóval alacsonyabb teljesítményű és képességekkel rendelkezik. A referenciakártya a képkimeneti eszközök csatlakoztatásához szokásos csatlakozókészlettel rendelkezik: egy Dual-Link DVI, egy HDMI és három DisplayPort. Sőt, a HDMI és a DisplayPort új verziói is támogatottak, amiről a GTX 1080 modell ismertetőjében írtunk.

A GeForce GTX 1060 referenciakártya hossza 9,8 hüvelyk (25 cm), és a régebbi verzióktól való eltérések között külön megjegyezzük, hogy a GeForce GTX 1060 nem támogatja az SLI többchipes rendering konfigurációt, és nem rendelkezik speciális funkcióval. csatlakozó ehhez. Mivel az alaplap kevesebb energiát fogyaszt, mint a régebbi modellek, egy 6 tűs PCI-E külső tápcsatlakozó került a kártyára a további teljesítmény érdekében.

A GeForce GTX 1060 videokártyák a bejelentés napja óta jelentek meg a piacon a cég partnereinek termékei formájában: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Korlátozott mennyiségben megjelenik a GeForce GTX 1060 Founder’s Edition speciális kiadása is, amelyet maga az Nvidia gyárt, amelyet 299 dolláros áron árulnak majd kizárólag az Nvidia honlapján, és Oroszországban hivatalosan nem mutatják be. A Founder's Edition kiváló minőségű anyagokat és alkatrészeket tartalmaz, beleértve az alumínium házat, a hatékony hűtőrendszert, az alacsony impedanciájú áramköröket és az egyedi tervezésű feszültségszabályozókat.

Építészeti változások

A GeForce GTX 1060 videokártya egy teljesen új, GP106 grafikus processzormodellre épül, amely funkcionálisan nem különbözik a Pascal architektúra elsőszülöttjétől a GP104 chip formájában, amelyen a fent leírt GeForce GTX 1080 és GTX 1070 modellek találhatók. Ez az architektúra a Maxwellben kifejlesztett megoldásokon alapul, de vannak funkcionális eltérései is, amelyekről korábban írtunk részletesen.

A GP106 videochip felépítésében hasonló a csúcskategóriás Pascal chiphez és a hasonló Maxwell architektúra megoldásokhoz, a modern GPU-k tervezéséről pedig részletes információkat találhat a korábbi Nvidia megoldásokról szóló áttekintéseinkben. A korábbi GPU-khoz hasonlóan az új architektúra chipek különböző konfigurációkkal rendelkeznek a Graphics Processing Cluster (GPC) számítási klaszterekből, a Streaming Multiprocessorokból (SM) és a memóriavezérlőkből:

A GP106 grafikus processzor két GPC-fürtöt tartalmaz, amelyek 10 streaming multiprocesszorból állnak (Streaming Multiprocessor - SM), vagyis pontosan a fele a GP104-ben elérhetőnek. A régebbi GPU-hoz hasonlóan minden többprocesszor 128 számítási magot, 8 TMU textúra egységet, 256 KB regisztermemóriát, 96 KB megosztott memóriát és 48 KB első szintű gyorsítótárat tartalmaz. Ennek eredményeként a GeForce GTX 1060 összesen 1280 processzormagot és 80 textúra egységet tartalmaz – feleannyit, mint a GTX 1080.

Ám a GeForce GTX 1060 memória alrendszere nem a felére csökkent a csúcsmegoldáshoz képest, hat darab 32 bites memóriavezérlőt tartalmaz, ami egy végső 192 bites memóriabuszt ad. A GeForce GTX 1060 esetében a 8 GHz-es effektív GDDR5 videomemória frekvenciájával a sávszélesség eléri a 192 GB/s-ot, ami ebben az árszegmensben meglehetősen jó megoldásnak számít, különös tekintettel a Pascalban való használat magas hatékonyságára. Mindegyik memóriavezérlőhöz nyolc ROP blokk és 256 KB L2 gyorsítótár tartozik, így összesen a GP106 GPU teljes verziója 48 ROP blokkot és 1536 KB L2 gyorsítótárat tartalmaz.

A memória sávszélességigényének csökkentése és a Pascal architektúra hatékonyabb kihasználása érdekében továbbfejlesztették a chipen belüli veszteségmentes tömörítést, amely képes pufferekbe tömöríteni az adatokat a hatékonyság és a teljesítmény növelése érdekében. Különösen új, 4:1 és 8:1 arányú delta tömörítési módszerek kerültek az új család chipjeibe, amelyek további 20%-os sávszélesség-hatékonyságot biztosítanak a Maxwell család korábbi megoldásaihoz képest.

Az új GPU alapfrekvenciája 1506 MHz - a frekvencia elvileg nem eshet e jel alá. A tipikus turbófrekvencia (Boost Clock) sokkal magasabb, és 1708 MHz-nek felel meg - ez az átlagos frekvencia, amelyen a GeForce GTX 1060 grafikus chip működik a játékok és a 3D alkalmazások széles körében. A tényleges Boost gyakoriság a játéktól és a tesztelési körülményektől függ.

A Pascal család többi tagjához hasonlóan a GeForce GTX 1060 nemcsak nagy órajelen működik, nagy teljesítményt biztosítva, hanem megfelelő túlhajtási fejtérrel is rendelkezik. Az első kísérletek körülbelül 2 GHz-es frekvenciák elérésének lehetőségét jelzik. Nem meglepő, hogy a cég partnerei a GTX 1060 videokártya gyárilag túlhajtható verzióit is készítik.

Tehát az új architektúra fő változása a 16 nm-es FinFET technológiai folyamat volt, amelynek a GP106 gyártása során történő alkalmazása lehetővé tette a chip komplexitásának jelentős növelését, miközben viszonylag alacsony, 200 mm²-es területet megtartott. ez a Pascal architektúra chip észrevehetően több végrehajtó egységgel rendelkezik, mint egy hasonló pozicionálású Maxwell chip, amelyet a 28 nm-es folyamattechnológiával gyártottak.

Ha a 227 mm² területű GM206 (GTX 960) 3 milliárd tranzisztort és 1024 ALU-t, 64 TMU-t, 32 ROP-t és 128 bites buszt tartalmazott, akkor az új GPU 4,4 milliárd tranzisztort és 1280 ALU-t tartalmazott 200 mm²-ben. 80 TMU és 48 ROP 192 bites busszal. Ráadásul csaknem másfélszer nagyobb frekvencián: 1506 (1708) versus 1126 (1178) MHz. És ez ugyanazzal a 120 W-os teljesítményfelvétellel történik! Ennek eredményeként a GP106 GPU a GP104 mellett az egyik legenergiahatékonyabb GPU lett.

Új Nvidia technológiák

A GeForce GTX 1060 és a Pascal család egyéb megoldásai által támogatott cég egyik legérdekesebb technológiája a technológia Nvidia szimultán többszörös kivetítés. A GeForce GTX 1080 áttekintésünkben már írtunk erről a technológiáról, amely lehetővé teszi számos új technika alkalmazását a renderelés optimalizálására. Különösen a VR-kép egyidejű kivetítése mindkét szem számára, nagymértékben növelve a GPU virtuális valóságban való használatának hatékonyságát.

Az SMP támogatására minden Pascal család GPU-ja rendelkezik egy speciális motorral, amely a PolyMorph Engine-ben található a geometriai folyamat végén, a raszterizáló egység előtt. Segítségével a GPU egyszerre több vetületre is képes egy geometriai primitívet kivetíteni egyetlen pontból, és ezek a vetítések lehetnek sztereóak (tehát akár 16 vagy 32 vetítés is támogatott egyszerre). Ez a képesség lehetővé teszi a Pascal GPU-k számára, hogy pontosan reprodukálják az ívelt felületeket a VR-rendereléshez, valamint helyesen jelenjenek meg a többmonitoros rendszereken.

Fontos, hogy a Simultaneous Multi-Projection technológiát már beépítik a népszerű játékmotorokba (Unreal Engine és Unity) és játékokba, és a mai napig több mint 30 fejlesztés alatt álló játék technológiai támogatását jelentették be, köztük olyan jól ismert projekteket, mint az Unreal. Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft és Raw Data. Érdekes módon az Unreal Tournament nem egy VR-játék, de SMP-t használ a jobb minőségű képek eléréséhez és a teljesítmény javításához.

Egy másik régóta várt technológia egy hatékony eszköz képernyőképek készítéséhez a játékokban. Nvidia Ansel. Ezzel az eszközzel szokatlan és nagyon jó minőségű képernyőképeket készíthet játékokból, korábban nem elérhető funkciókkal, nagyon nagy felbontásban mentheti el és különféle effektusokkal egészítheti ki őket, és megoszthatja alkotásait. Az Ansel lehetővé teszi, hogy szó szerint úgy készítsen képernyőképet, ahogy a művész akarja, így tetszőleges paraméterekkel rendelkező kamerát telepíthet a jelenet bármely pontjára, hatékony utószűrőket alkalmazhat a képen, vagy akár 360 fokos fényképet is készíthet, hogy megtekinthesse a jelenetben. virtuális valóság sisak.

Az Nvidia szabványosította az Ansel UI játékokba való integrálását, és ez olyan egyszerű, mint néhány sor kód hozzáadása. Nem kell megvárni, amíg ez a funkció megjelenik a játékokban; Ansel képességeit már most kiértékelheti a Mirror’s Edge: Catalyst játékban, és egy kicsit később a Witcher 3: Wild Huntban is elérhető lesz. Emellett számos játékprojekt van fejlesztés alatt Ansel támogatással, köztük olyan játékok, mint a Fortnite, a Paragon és az Unreal Tournament, az Obduction, a The Witness, a Lawbreakers, a Tom Clancy's The Division, a No Man's Sky és mások.

Az új GeForce GTX 1060 GPU is támogatja az eszközkészletet Nvidia VRWorks, amely segít a fejlesztőknek lenyűgöző virtuális valóság projektek létrehozásában. Ez a csomag számos segédprogramot és eszközt tartalmaz a fejlesztők számára, köztük a VRWorks Audio-t, amely lehetővé teszi a jelenetben lévő objektumok hanghullám-visszaverődésének nagyon pontos számítását a GPU sugárkövetés segítségével. A csomag tartalmazza a VR és PhysX fizikai effektusokba való integrálást is, hogy biztosítsa a jelenetben lévő objektumok fizikailag helyes viselkedését.

A VRWorks egyik legizgalmasabb VR-játéka a VR Funhouse, az Nvidia saját virtuális valóság-játéka, amely ingyenesen elérhető a Valve Steam szolgáltatásán. Ez a játék az Unreal Engine 4-en (Epic Games) alapul, és GeForce GTX 1080, 1070 és 1060 videokártyákon fut HTC Vive VR headsetekkel együtt. Sőt, ennek a játéknak a forráskódja nyilvánosan elérhető lesz, ami lehetővé teszi más fejlesztők számára, hogy kész ötleteket és kódokat alkalmazzanak VR látványosságaikban. Fogadd el a szót, ez a virtuális valóság erejének egyik leglenyűgözőbb demonstrációja.

Az SMP és VRWorks technológiáknak is köszönhetően a GeForce GTX 1060 grafikus processzor VR-alkalmazásokban való használata elegendő teljesítményt biztosít a belépő szintű virtuális valósághoz, és a szóban forgó GPU teljesíti a minimális hardverszintet, beleértve a SteamVR-t is, így az egyik a legsikeresebb beszerzések hivatalos VR-támogatással rendelkező rendszerekben való használatra.

Mivel a GeForce GTX 1060 modell a GP106 lapkára épül, amely képességeiben semmivel sem alacsonyabb a GP104 grafikus processzornál, amely a régebbi módosítások alapja lett, abszolút támogatja az összes fent leírt technológiát.

A GeForce GTX 1060 videokártya lett az Nvidia új sorozatának harmadik modellje, amely Pascal grafikus processzorcsaládra épül. Az új 16 nm-es FinFET technológiai folyamat és architektúra optimalizálás lehetővé tette az összes új videokártya számára, hogy magas órajelet érjen el, és több funkcionális egységet helyezzen el a GPU-ban stream processzorok, textúramodulok és egyebek formájában, mint az előző generációs videochipekhez képest. Ezért vált a GTX 1060 modell kategóriájában és általában a legjövedelmezőbb és legenergiatakarékosabb megoldássá.

Különösen fontos, hogy a GeForce GTX 1060 meglehetősen nagy teljesítményt és támogatást nyújt az új funkciókhoz és algoritmusokhoz, a régebbi GP104-es megoldásokhoz képest lényegesen alacsonyabb áron. Az új modell GP106 grafikus chipje kategóriaelső teljesítményt és energiahatékonyságot biztosít. A GeForce GTX 1060 modellt speciálisan tervezték, és minden modern játékhoz tökéletes, magas és maximális grafikus beállításokkal 1920x1080 felbontás mellett, sőt, különféle módszerekkel (FXAA, MFAA vagy MSAA) engedélyezett teljes képernyős élsimítással is.

Azok pedig, akik még jobb teljesítményre vágynak az ultranagy felbontású kijelzőkkel, az Nvidia csúcskategóriás GeForce GTX 1070 és GTX 1080 grafikus kártyákkal rendelkezik, amelyek teljesítményben és energiahatékonyságban is nagyon jók. Ennek ellenére az alacsony ár és a megfelelő teljesítmény kombinációja különbözteti meg a GeForce GTX 1060-at a régebbi megoldásoktól. A versenytárs Radeon RX 480-hoz képest az Nvidia megoldása valamivel gyorsabb, kevesebb bonyolultsággal és kisebb GPU-területtel rendelkezik, valamint lényegesen jobb az energiahatékonyság. Igaz, kicsit drágábban adják el, így minden videokártyának megvan a maga rése.

Az NVIDIA GeForce GTX 780 videokártya áttekintése | GeForce Experience és ShadowPlay

GeForce Experience

PC-rajongóként nagyra értékeljük a különböző beállítások kombinációját, amelyek befolyásolják a játékok teljesítményét és minőségét. A legegyszerűbb, ha sok pénzt költünk egy új videokártyára, és minden grafikus beállítást maximumra állítunk. De amikor egy paraméter túl nehéznek bizonyul a kártyához, és le kell csökkenteni vagy le kell tiltani, akkor kellemetlen érzés marad, és a felismerés, hogy a játék sokkal jobban működhet.

Az optimális beállítások megadása azonban nem olyan egyszerű. Egyes beállítások jobb vizuális effektusokat eredményeznek, mint mások, de a teljesítményre gyakorolt ​​hatás nagymértékben változhat. A GeForce Experience az NVIDIA arra irányuló kísérlete, hogy megkönnyítse a játékbeállítások kiválasztását azáltal, hogy összehasonlítja a CPU-t, a GPU-t és a felbontást egy konfigurációs adatbázissal. A segédprogram második része segít meghatározni, hogy szükség van-e illesztőprogram-frissítésekre.

Valószínű, hogy a rajongók továbbra is maguk választják meg a beállításokat, és negatívan fogják fel a kiegészítő programot. Azonban a legtöbb játékos, aki szeretné telepíteni a játékot, és azonnal elkezdeni a játékot anélkül, hogy ellenőrizné az illesztőprogramokat és át kellene mennie a különféle beállításokon, minden bizonnyal örül ennek a lehetőségnek. Akárhogy is, az NVIDIA GeForce Experience segít az embereknek, hogy a legtöbbet hozzák ki játékélményükből, ezért hasznos segédprogram a PC-s játékokhoz.

A GeForce Experience mind a kilenc játékot azonosította a tesztrendszerünkre. Természetesen nem tartották meg az alapértelmezett beállításokat, mivel bizonyos beállításokat a tesztelés érdekében alkalmaztunk. De még mindig érdekes, hogy a GeForce Experience hogyan változtatná meg az általunk kiválasztott opciókat.

A Tomb Raider esetében a GeForce Experience azonban le akarta tiltani a TressFX technológiát NVIDIA GeForce GTX 780 bekapcsolt funkcióval átlagosan 40 képkockát mutatott másodpercenként. Valamilyen oknál fogva a program nem tudta meghatározni a konfigurációt Far Cry 3, bár az általa javasolt beállítások meglehetősen magasnak bizonyultak. Ismeretlen okokból a segédprogram le akarta tiltani az FXAA-t a Skyrim számára.

Jó, ha minden játékhoz készítünk egy képernyőképet, amely leírja egy bizonyos beállítás képminőségre gyakorolt ​​hatását. Az általunk vizsgált kilenc példa közül a GeForce Experience véleményünk szerint megközelítette az optimális beállításokat. A segédprogram azonban elfogult is, előnyben részesítve az NVIDIA-specifikus funkciókat, például a PhysX-et (amit a program magas szintre emelt a Borderlands 2-ben), és elriasztja az AMD-funkciók beépítését (beleértve a TressFX-et a Tomb Raiderben). Az FXAA letiltásának a Skyrimben semmi értelme, mivel a játék átlagosan 100 FPS. Lehetséges, hogy a rajongók telepíteni szeretnék a GeForce Experience-et, amint az NVIDIA Shield rendszer szállítása megkezdődik, mivel úgy tűnik, hogy a Game Streaming funkció az NVIDIA alkalmazáson keresztül érkezik.

ShadowPlay: Mindig bekapcsolt DVR játékhoz

A WoW rajongók gyakran rögzítik raideiket, de ehhez elég erős rendszer, Fraps és sok lemezterület kell.

Az NVIDIA a közelmúltban jelentette be a ShadowPlay nevű új funkciót, amely nagyban megkönnyítheti a felvételi folyamatot.

Aktiválásakor a ShadowPlay a Kepler GPU beépített rögzített NVEnc dekóderét használja, amely automatikusan rögzíti a játék utolsó 20 percét. Vagy manuálisan is elindíthatja és leállíthatja a ShadowPlay-t. Így a technológia az olyan szoftvermegoldásokat váltja fel, mint a Fraps, amelyek nagyobb terhelést jelentenek a központi processzorra.

Referenciaként: Az NVEnc csak H.264 kódolással működik 4096x4096 képpont felbontásig. A ShadowPlay még nem érhető el a piacon, de az NVIDIA szerint 1080p-s videót tud majd rögzíteni akár 30 FPS-sel, amikor nyáron megjelenik. Nagyobb felbontást szeretnénk látni, mivel korábban elhangzott, hogy a kódoló potenciálisan ezt hardveresen támogatja.

Az NVIDIA GeForce GTX 780 videokártya áttekintése | GPU Boost 2.0 és lehetséges túlhajtási problémák

GPU Boost 2.0

Áttekintésben GeForce GTX Titan Nem tudtuk elvégezni a második generációs NVIDIA GPU Boost technológia átfogó tesztelését, de most megvan NVIDIA GeForce GTX 780. Íme a technológia rövid leírása:

A GPU Boost egy NVIDIA-mechanizmus, amely a feldolgozott feladat típusától függően változtatja a videokártyák teljesítményét. Mint bizonyára tudja, a játékoknak eltérő GPU-erőforrásigénye van. Történelmileg a frekvenciát a legrosszabb forgatókönyvhöz kell igazítani. De a „könnyű” feladatok feldolgozásakor a GPU kárba veszett. A GPU Boost különféle paramétereket figyel, és az alkalmazás igényeitől és az aktuális helyzettől függően növeli vagy csökkenti a frekvenciákat.

A GPU Boost első megvalósítása egy bizonyos teljesítményküszöb alatt működött (170 W esetén GeForce GTX 680). A cég mérnökei azonban úgy találták, hogy nyugodtan túlléphetik ezt a szintet, ha a GPU hőmérséklete elég alacsony. Ily módon a teljesítmény még tovább optimalizálható.

A gyakorlatban a GPU Boost 2.0 csak annyiban tér el, hogy az NVIDIA immár nem a maximális fogyasztásjelző, hanem egy bizonyos hőmérséklet alapján gyorsítja a frekvenciát, ami 80 Celsius fok. Ez azt jelenti, hogy mostantól magasabb frekvenciákat és feszültségeket fognak használni, akár 80 fokig melegítik a chipet. Ne felejtsük el, hogy a hőmérséklet elsősorban a ventilátor profiljától és beállításaitól függ: minél nagyobb a ventilátor fordulatszáma, annál alacsonyabb a hőmérséklet, és ezáltal a GPU Boost értéke (és sajnos a zajszint is). A technológia továbbra is 100 ms-onként értékeli a helyzetet, így az NVIDIA-nak még van tennivalója a jövőbeli verziókban.

A hőmérséklet-érzékeny beállítások még nehezebbé teszik a tesztelést, mint a GPU Boost első verziója. Bármi, ami növeli vagy csökkenti a GK110 hőmérsékletét, megváltoztatja a chip frekvenciáját. Ezért meglehetősen nehéz egyenletes eredményt elérni a futások között. Laboratóriumi körülmények között csak stabil környezeti hőmérsékletben lehet reménykedni.

A fentieken kívül érdemes megjegyezni, hogy növelheti a hőmérsékleti határértéket. Például, ha akarod NVIDIA GeForce GTX 780 a frekvenciát és a feszültséget 85 vagy 90 Celsius fokra csökkentette, ezt a paraméterekben lehet beállítani.

Szeretné, ha a GK110 a lehető legtávolabb lenne a választott hőmérsékleti határértéktől? Ventilátor görbe NVIDIA GeForce GTX 780 Teljesen állítható, lehetővé téve a munkaciklus testreszabását a hőmérsékleti értékeknek megfelelően.

Lehetséges túlhajtási problémák

Az ismerkedésünk során GeForce GTX Titan A cég képviselői bemutattak egy belső segédprogramot, amely le tudja olvasni a különböző érzékelők állapotát: így leegyszerűsíti a nem szabványos kártyaviselkedések diagnosztizálásának folyamatát. Ha túlhajtás közben a GK110 hőmérséklete túl magasra emelkedik, még fojtás közben is, ez az információ rögzítésre kerül a naplóban.

Ezt a funkciót a vállalat most a Precision X alkalmazáson keresztül valósítja meg, amely figyelmeztető „okok” algoritmust indít, ha a túlhajtás során olyan műveletek történnek, amelyek megzavarják annak hatékony folytatását. Ez egy nagyszerű funkció, mert többé nem kell találgatnia a lehetséges szűk keresztmetszetek miatt. Van egy OV max határérték jelző is, amely jelzi, ha elérte a GPU feszültség abszolút csúcsát. Ebben az esetben fennáll a kártya leégésének veszélye. Ezt a túlhajtási beállítások csökkentésére vonatkozó javaslatnak tekintheti.

Az NVIDIA GeForce GTX 780 videokártya áttekintése | Tesztpad és benchmarkok


Tesztpad konfiguráció
CPU Intel Core i7-3770K (Ivy Bridge) 3,5 GHz @ 4,0 GHz (40 * 100 MHz), LGA 1155, 8 MB megosztott L3 gyorsítótár, Hyper-Threading bekapcsolva, Energiatakarékosság bekapcsolva
Alaplap Gigabyte Z77X-UD5H (LGA 1155), Z77 Express lapkakészlet, BIOS F15q
RAM G.Skill 16 GB (4 x 4 GB) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24, 1,5 V
Tárolóeszköz Crucial m4 SSD 256 GB SATA 6 Gb/s
Videokártyák Nvidia GeForce GTX 780 3 GB

AMD Radeon HD 7990 6 GB

AMD Radeon HD 7970 GHz Edition 3 GB

Nvidia GeForce GTX 580 1,5 GB

Nvidia GeForce GTX 680 2 GB

Nvidia GeForce GTX Titan 6 GB

Nvidia GeForce GTX 690 4 GB

tápegység Cooler Master UCP-1000W
Rendszerszoftver és illesztőprogramok
OS Windows 8 Professional 64 bites
DirectX DirectX 11
Grafikon. járművezetők AMD Catalyst 13.5 (Beta 2)
Nvidia GeForce Release 320.00
Nvidia GeForce Release 320.18 (GeForce GTX 780-hoz)

A megfelelő képkockasebesség érték meghatározása

A figyelmes olvasók észre fogják venni, hogy a következő oldalakon szereplő adatok szerényebbek, mint az áttekintésben AMD Radeon HD 7990, és ennek megvan az oka. Korábban bemutattuk a szintetikus és a valós képkockasebességet, majd megmutattuk a képkockák közötti időbeli eltéréseket, valamint a kiesett és a rövid képkockákat. Az tény, hogy ez a módszer nem tükrözi a videokártya valós érzéseit, és igazságtalan lenne, ha az AMD-t a képkockák közötti időkésleltetés szintetikus mutatói alapján ítélnénk meg.

Ez az oka annak, hogy a képkockasebesség-ingadozások mellett most praktikusabb mérőszámokat kínálunk a dinamikus képkockasebességre vonatkozóan. Az eredmények nem olyan magasak, ugyanakkor nagyon beszédesek azokban a játékokban, ahol az AMD nehézségekkel küzd.

Tesztek és beállítások
Battlefield 3 Grafikai minőség - Ultra, v-sync off, 2560x1440, DirectX 11, Going Hunting, 90 másodperc, FCAT
Far Cry 3 Grafikai minőség - Ultra, DirectX 11, v-sync off, 2560x1440, saját útvonal futtatása, 50 másodperc, FCAT
Borderlands 2 Grafikai minőség - legmagasabb, PhysX alacsony, 16-szoros anizotróp szűrés, 2560x1440, saját útvonalon futhat, FCAT
Hitman: Feloldozás Grafikai minőség - Ultra, MSAA off, 2560x1440, beépített benchmark, FCAT
The Elder Scrolls V: Skyrim Grafikai minőség - Ultra, FXAA-kompatibilis, 2560x1440, saját útvonalon futhat, 25 másodperc, FCAT
3DMark Fire Strike Benchmark
BioShock Infinite Grafikai minőség - Ultra, DirectX 11, szórt mélységélesség, 2560x1440, beépített benchmark, FCAT
Crysis 3 Grafikai minőség - nagyon jó, MSAA: Alacsony (2x), nagy felbontású textúrák, 2560x1440, futás a saját útvonalon, 60 másodperc, FCAT
Tomb Raider Grafikai minőség - Ultimate, FXAA On, 16x Anizotróp Szűrés, TressFX Hair, 2560x1440, Egyéni futás, 45 másodperc, FCAT
LuxMark 2.0 64 bites bináris, 2.0-s verzió, Sala Scene
SiSoftware Sandra 2013 Professional Sandra műszaki támogatás (mérnök) 2013.SP1, kriptográfia, pénzügyi elemzési teljesítmény


TARTALOM