itthon / Böngészők / Mi az a GPU. Grafikus processzor - válassza ki az előnyösebbet Mi a grafikus processzor a számítógépben

Mi az a GPU. Grafikus processzor - válassza ki az előnyösebbet Mi a grafikus processzor a számítógépben

Kevesen tudják, hogy a grafikus kártyák sokkal többre képesek, mint egy kép megjelenítése a monitoron. A CUDA, a Stream és más hasonló technológiák használatával jelentősen növelheti számítógépe teljesítményét, ha a számításokon kívül mást is vállal. A működési elvet az alábbiakban ismertetjük.

A folyamatos képkockák megjelenítéséhez egy modern játékban a számítógépnek szüksége van jó teljesítmény. Érdemes feltételezni, hogy a modern videokártyák teljesítmény szempontjából megfelelnek a processzorok friss verzióinak.

Érdemes megjegyezni, hogy amikor a videoadapter tétlen, és nem dolgozza fel a képet, képességei nem igényelnek. Az ilyen leállások elkerülése és a processzor terhelését csökkentő felelősségek átvállalása érdekében speciális lehetőségeket kell használni a számítógép gyorsításához. Az alábbiakban részletes útmutatás található ennek a technológiának a működési elveiről, amely növelheti a számítógép teljesítményét.

Hogyan növeli a videokártya a számítógép sebességét?

Csak speciális alkalmazások. Ezek a programok videokártyával kombinálhatók, és a 4 fizikai gyorsítási technológia valamelyikét használhatják.

CUDA. Ez a fejlődés Létrehozta az Nvidia Corporation. Ezzel a technológiával összetett számítási műveleteket hajthatunk végre, valamint videókat és képeket szerkeszthetünk.

Folyam. Ez a mechanikus gyorsítási technológia hasonló az elsőhöz, de a videoadapter-gyártó AMD fejlesztette ki.
Mindkét technológiát a Mac OS kivételével minden operációs rendszer támogatja, és csak megfelelő gyártó videokártyáival használják. A szoftverfejlesztők kénytelenek extra munka hogy mindkét fejlesztő videokártyája növelhesse alkalmazásai sebességét. Az alábbiakban olyan technológiákat mutatunk be, amelyek képesek együttműködni mindkét gyártó tábláival.

OpenCL. Ezt a technológiát az Apple 2008-ban adta ki, és minden operációs rendszer és szoftver támogatja. A mai napig azonban nem létezik olyan alkalmazás, amely ezt a technológiát használva felgyorsítaná a számítógépet. Ráadásul a termelékenység növekedését tekintve az OpenCL jelentősen elmarad az első két technológiától.

közvetlen számítás. Ezt a technológiát a Microsoft építette a DirectX 11-ben. De csak Windows 7 és Vista operációs rendszereken, majd egy kis alkalmazáscsomaggal működik.

Milyen teljesítménynövekedést biztosít a grafikus kártya?

A növekedés közvetlenül függ a grafikus adaptertől és a számítógép egyéb elemeinek teljesítményétől. A teljesítménynövekedést a közművek és az üzemeltetés határozzák meg. Egy modern, átlagos PC-n a jó minőségű videó konvertálási sebessége akár 20-szor gyorsabb is lehet. De a szűrőkkel és speciális effektusokkal történő szerkesztés egy fényképpel háromszázszorosára gyorsíthatja fel.

Mi befolyásolja a CUDA és hasonló technológiák magas termelékenységét?

Az alaplapon lévő CPU összetett feladatok végrehajtásakor kezdetben több kisebbre osztja a folyamatot, majd ezek szekvenciális feldolgozását végzi el. Az így kapott köztes eredményt egy kicsi, de gyors processzormemóriában helyezzük el. Amikor a memóriarészlegek megtelnek, a fájlok a cache memóriába kerülnek, amely szintén a processzorban található. De elég sok időt vesz igénybe a processzor és a RAM közötti információcsere, így a sebesség nem túl magas.

A videokártyák néha sokkal gyorsabban hajtanak végre ilyen manipulációkat. Ezt több tényező is befolyásolhatja. Az egyik a párhuzamos számítástechnika. Ha több ilyen manipulációt kell végrehajtani, akkor ezek egy részét a grafikus modul is végrehajthatja a processzorral együtt.

Például, amikor videóval vagy képekkel dolgozik, a segédprogramnak hatalmas számú képpontot kell megváltoztatnia, ugyanakkor ismétlődő módszereket kell használnia. Főleg erre grafikus adapter több száz kis processzorral rendelkezik, amelyeket streamingnek neveznek.

Ezen kívül szükséges gyors hozzáférés az emlékezethez. A központi folyamatokhoz hasonlóan a grafikus adapterek is rendelkeznek saját köztes memóriával és RAM-mal. De ebben az esetben sok regiszterük van sebesség memória, ami jelentősen megnöveli a számítások sebességét.

Hány streaming CPU-ja van a grafikus kártyáknak?

Ezt a processzor modellje befolyásolja. Például a GeForse GTX 590 két Fermi modullal rendelkezik, mindegyik 512 stream CPU-val. Az AMD egyik legerősebb videokártyáját, a Radeon HD 6990-et szintén egy-két modullal szerelték fel, egyenként 1536 processzorral. Ám mindezzel a HD 6990 jelentősen veszít a GTX 590-hez képest sebesség tekintetében.

Hogyan kell futtatni a CUDA-t vagy a Stream-et?

Semmit nem szabad elindítani, hiszen a technológiák a videokártyák hardverének elemei. Miután a grafikus adapter illesztőprogramja telepít valamilyen technológiát támogató alkalmazást, a számítógép sebessége automatikusan megnő. A teljes teljesítmény eléréséhez telepítenie kell a legújabb illesztőprogram-verziót.
Érdemes megjegyezni, hogy az AMD grafikus kártyák felhasználóinak le kell tölteniük és telepíteniük kell az AMD Media Codec Package csomagot.

Miért nem működik minden közmű ezekkel a technológiákkal?

Amíg az OpenCL széles körben el nem terjed, az alkotók szoftver minden alkalmazást be kell hangolni, hogy Nvidia és AMD videokártyákkal működjön. Ugyanakkor nem minden gyártó vállal további költségeket.

Ezenkívül nem minden alkalmazás képes olyan egyszerű számítási műveletek folyamatos folyamát biztosítani, amelyek párhuzamosan is előfordulhatnak. Ez nagyszerűen működhet videó- ​​és grafikaszerkesztő programokkal. Postára ill szövegszerkesztők ezek a technológiák nem sokat segítenek.

Szuper PC

Például a kínai Tianhe-1A PC 7168 Nvidia grafikus modullal rendelkezik, amelyek kiváló teljesítményt támogatnak. Ugyanakkor másodpercenként 2,5 billió számítás történik. Ez a számítógép 4 megawattot fogyaszt. Ennyi áramot használ fel egy 5000 lakosú település.

A grafikus adapter helyettesítheti a központi adaptert?

Ilyen csere nem lehetséges. Ezeknek a processzoroknak az eszköze teljesen más. A CPU egy univerzális számítási egység, amely képes feldolgozni és információkat küldeni más PC-elemeknek. A videokártyák viszont szűk fókuszú eszközök, annak ellenére, hogy kis számú műveletet hajtanak végre, ugyanakkor nagy sebességgel.

Mi fog történni a jövőben: univerzális chipek

A CPU teljesítményének növelése érdekében az Intel és az AMD folyamatosan magokkal bővíti processzorait. Emellett folyamatosan új technológiákkal bővítik a számítástechnikai műveletek hatékonyságát és az információk párhuzamos feldolgozásának lehetőségét.

A CPU-khoz képest a grafikus kártyák már nagyszámú egyszerű maggal rendelkeznek, amelyek nagyon gyorsan képesek bonyolult számításokat végrehajtani.

De kiderül, hogy a videokártya és a CPU működési elveinek kezdeti különbségei fokozatosan törlődnek. Ezért egy univerzális chip fejlesztése nagyon logikus. Ma a számítógép-felhasználók drága grafikus chipek nélkül is ki tudják használni a videokártya teljes potenciálját.

Modern processzorok vezető fejlesztőktől, tovább Ebben a pillanatban demonstrálni tudja a grafikus adapter és a CPU csatlakoztatásának képességét, és egy univerzális számítási egységként működik.

Bármely chipben a CPU mag és a videokártyák egyetlen chipen vannak elhelyezve. Ez lehetővé teszi a számítási műveletek gyors megosztását a magok között. Ezeket az alkalmazott technológiákat Intel Quick Sync-nek és AMD App-nak nevezik. Jelenleg már vannak egyedi alkalmazások amelyek ezt a technológiát használják.

Általában ennyit kell tudni a CPU és a videokártya közötti különbségekről. Amint az írottakból kiderül, a grafikus processzor képes néhány központi művelet elvégzésére, különösen a modern számítógépeknél, amelyek erős videokártyával rendelkeznek.

A grafikus feldolgozó egység (GPU) nem kevésbé fontos eleme a mobil eszközök SoC-jének, mint a (CPU). Az elmúlt öt évben az Android és iOS mobilplatformok robbanásszerű fejlődése ösztönözte a mobil GPU-fejlesztőket, és ma már senkit sem lepnek meg a PlayStation 2-vel vagy még magasabb 3D grafikával rendelkező mobiljátékok. A „Likbez a mobil hardveren” sorozat második cikkét a grafikus processzoroknak szenteltem.

Jelenleg a grafikus chipek többsége magokkal készül: PowerVR (Imagination Technologies), Mali (ARM), Adreno (Qualcomm, korábban ATI Imageon) és GeForce ULP (nVIDIA).

A PowerVR az Imagination Technologies egyik részlege, amely a közelmúltban asztali rendszerekhez fejlesztett grafikát, de az ATI és az nVIDIA nyomására kénytelen volt elhagyni ezt a piacot. Ma a PowerVR fejleszti talán a legerősebb GPU-kat mobileszközökhöz. A PowerVR chipeket olyan cégek használják processzorok gyártásához, mint a Samsung, az Apple, a Texas Instruments stb. Például a PowerVR GPU-k különböző változatait minden generációban telepítik. Apple iPhone. Az 5-ös és 5XT chip-sorozat továbbra is releváns. Az ötödik sorozat egymagos chipeket tartalmaz: SGX520, SGX530, SGX531, SGX535, SGX540 és SGX545. Az 5XT sorozatú chipek 1-16 magot tartalmazhatnak: SGX543, SGX544, SGX554. A 6-os sorozat (Rogue) specifikációi még pontosítás alatt állnak, de a sorozatchipek teljesítménytartománya már ismert - 100-1000GFLOPS.

A Mali a brit ARM által fejlesztett és engedélyezett GPU-k. A Mali chipek a Samsung, az ST-Ericsson, a Rockchip és mások által gyártott különféle SoC-k részét képezik. Például a Mali-400 MP része az okostelefonokban használt Samsung Exynos 421x SoC-oknak, mint pl. Samsung Galaxy SII és SIII, az „okostelefon-tabletmash” két generációjában? Samsung Note. Ma aktuális a Mali-400 MP két- és négymagos változatban. Úton vannak a Mali-T604 és Mali-T658 chipek, melyek teljesítménye akár ötszöröse is a Mali-400-nak.

Az Adreno a Qualcomm névadó részlege által kifejlesztett grafikus chipek. Az Adreno név a Radeon anagrammája. A Qualcomm előtt a részleg az ATI tulajdonában volt, a chipeket Imageonnak hívták. Az elmúlt néhány évben a Qualcomm 2xx sorozatú chipeket használt SoC-k gyártása során: Adreno 200, Adreno 205, Adreno 220, Adreno 225. A lista utolsó egy teljesen friss chip - 28 nm-es technológiával készült, a legerősebb az Adreno 2xx sorozat. Teljesítménye hatszor nagyobb, mint az „öreg” Adreno 200-é. 2013-ban egyre több készülék kap majd Adreno 305 és Adreno 320 GPU-t, kétszer erősebbet, mint a 225..

GeForce ULP (ultra alacsony fogyasztású) - mobil verzió Az nVIDIA videochipje a Tegra chip-alapú rendszer minden generációjának része. A Tegra egyik legfontosabb versenyelőnye a speciális tartalom, amely csak ezen a SoC-n alapuló eszközökhöz szól. Az nVIDIA hagyományosan szoros kapcsolatot ápol a játékfejlesztőkkel, és a tartalomfejlesztő csapatuk együttműködik velük, hogy a játékokat GeForce grafikus megoldásokra optimalizálják. Az ilyen játékok eléréséhez az nVIDIA még a Tegra Zone Android-alkalmazást is elindította Android Market, ahonnan Tegra optimalizált alkalmazásokat tölthet le.

A GPU teljesítményét általában három dimenzióban mérik:

– háromszögek száma másodpercenként, általában milliókban – Mega (MTriangles/s);

- a képpontok száma másodpercenként, általában milliókban - Mega (MPixel / s);

- a lebegőpontos műveletek száma másodpercenként, általában milliárdokban - Giga (GFLOPS).

"Flopoknál" egy kis magyarázatra van szükség. A FLOPS (lebegőpontos műveletek másodpercenként) a lebegőpontos (vessző) operandusokon végrehajtott számítási műveletek vagy utasítások száma másodpercenként. A lebegőpontos operandus nem egész szám (helyesebb lenne azt mondani, hogy „lebegőpont”, mert a vessző az oroszban a szám egész részét elválasztó jel a törttől). Segít megérteni, hogy melyik grafikus processzor van telepítve az okostelefonjára ctrl+Fés az alábbi táblázat. Felhívjuk figyelmét, hogy a különböző okostelefonok GPU-i eltérő frekvencián működnek. A teljesítmény kiszámításához GFLOPS-ban konkrét modell el kell osztania a „GFLOPS-beli teljesítmény” oszlopban jelzett számot 200-zal, és meg kell szoroznia egyetlen GPU frekvenciájával (például a Galaxy SIII-ban a GPU 533 MHz-en fut, ami 7,2 / 200 * 533 = 19.188):

Okostelefon/táblagép neve processzor GPU Teljesítmény GFLOPS-ban
Samsung Galaxy S4 Samsung Exynos 5410 PowerVR SGX544MP3 21,6 @ 200 MHz
HTC Egy Qualcomm Snapdragon 600 APQ8064T Adreno 320 20,5 @ 200 MHz
Samsung Galaxy SIII, Galaxy Note II, Galaxy Note 10.1 Samsung Exynos 4412 Mali-400 MP4 7,2 @ 200 MHz
Samsung Chromebook XE303C12, Nexus 10 Samsung Exynos 5250 Mali-T604 MP4 36 @ 200MHz
Samsung Galaxy S II, Galaxy Note, Tab 7.7, Galaxy Tab 7 Plus Samsung Exynos 4210 Mali-400 MP4 7,2 @ 200 MHz
Samsung Galaxy S, Wave, Wave II, Nexus S, Galaxy Tab, Meizu M9 Samsung Exynos 3110 PowerVR SGX540 3,2 @ 200 MHz
alma iPhone 3GS, iPod touch 3gen Samsung S5PC100 PowerVR SGX535 1,6 @ 200 MHz
LG Optimus G, Nexus 4, Sony Xperia Z Qualcomm APQ8064 (Krait magok) Adreno 320 20,5 @ 200 MHz
HTC egy XL, Nokia Lumia 920, Lumia 820, Motorola Razr HD, Razr M, Sony Xperia V Qualcomm MSM8960 (Krait magok) Adreno 225 12,8 @ 200 MHz
HTC azok, Windows telefon 8x, Sony Xperia TX/T Qualcomm MSM8260A Adreno 220 ~8,5* @200MHz
HTC Desire S, Incredible S, Desire HD, Sony Ericsson Xperia Arc, Nokia Lumia 800, Lumia 710 Qualcomm MSM8255 Adreno 205 ~4,3* @200MHz
Nokia Lumia 610, LG P500 Qualcomm MSM7227A Adreno 200 ~1,4* @ 128MHz
Motorola mérföldkő, Samsung i8910, Nokia N900 TI OMAP3430 PowerVR SGX530 1,6 @ 200 MHz
Samsung Galaxy Nexus, Huawei Ascend P1, Ascend D1, amazon Kindle Fire HD 7" TI OMAP4460 PowerVR SGX540 3,2 @ 200 MHz
ABRONCS. Blackberry Playbook, LG Optimus 3D P920, Motorola ATRIX 2, Milestone 3, RAZR, amazon Kindle Fire első és második generációja TI OMAP4430 PowerVR SGX540 3,2 @ 200 MHz
Motorola Defy, Milestone 2, Cliq 2, Defy+, Droid X, Nokia N9, N950, LG optimális fekete, Samsung Galaxy S scLCD TI OMAP3630 PowerVR SGX530 1,6 @ 200 MHz
Acer Iconia Tab A210/A211/A700/A701/A510, ASUS Transformer Pad, Google Nexus 7, Eee pad Transformer Prime, Transformer Pad Infinity, Microsoft felület, Sony Xperia Tablet S, HTC OneX/X+, LG Optimus 4X HD, Lenovo IdeaPad jóga nVidia Tegra 3 GeForce ULP 4,8 @ 200 MHz
Acer Iconia Tab A500, Iconia Tab A501, Iconia Tab A100, ASUS Eee Pad Slider, Eee Pad Transformer, HTC Sensatoin/XE/XL/4G, Lenovo IdeaPad K1, ThinkPad Tablet, LG Optimus Pad, Optimus 2X, Motorola Atrix 4G, Electrify, Photon 4G, Xoom, Samsung Galaxy Tab 10.1, Galaxy Tab 8.9, Sony Tablet P, Tablet S nVidia Tegra 2 GeForce ULP 3,2 @ 200 MHz
alma iPhone 5 Apple A6 PowerVR SGX543MP3 19,2 @ 200 MHz
alma iPad 2, iPhone 4S, iPod touch 5gen, iPad mini Apple A5 PowerVR SGX543MP2 12,8 @ 200 MHz
alma iPad, iPhone 4, iPod touch 4gen Apple A4 PowerVR SGX535 1,6 @ 200 MHz

* - az adatok hozzávetőlegesek.

Itt van egy másik táblázat a legnépszerűbb okostelefonok abszolút teljesítményértékeivel a felső árkategóriában:

* - nem hivatalos adatok.

A mobil grafika ereje évről évre nő. Már idén is láthatunk PS3/X-Box360 szintű játékokat a top okostelefonokban. A teljesítménnyel párhuzamosan az SoC-k fogyasztása erőteljesen növekszik, a mobileszközök autonómiája pedig illetlenül csökken. Nos, várjuk meg az áttörést a tápegységek gyártásában!

Egy újabb energiafaló a modernben mobil eszköz Ez határozottan egy kijelző. Képernyők be mobiltelefonok egyre szebbek. A mindössze egy év eltéréssel kiadott okostelefonok kijelzői képminőségben drámaian eltérnek egymástól. A ciklus következő cikkében a kijelzőkről lesz szó: milyen típusúak, mi az a PPI, mi határozza meg az energiafogyasztást stb.

Feladatkezelő Windows 10 részletes felügyeleti eszközöket tartalmaz GPU (GPU). Megtekintheti az egyes alkalmazások és a rendszerszintű GPU használatát, és Microsoft azt ígéri, hogy mutat feladatkezelő pontosabb lesz, mint a harmadik féltől származó segédprogramok.

Hogyan működik

Ezeket a funkciókat GPU bekerültek a frissítésbe Fall Creators for Windows 10 , más néven Windows 10 1709-es verzió . Ha Windows 7, 8 vagy újabb rendszert használ régi verzió Windows 10 esetén ezek az eszközök nem jelennek meg a feladatkezelőben.

ablakok a Windows Display Driver Model újabb funkcióit használja az információk közvetlen kinyerésére GPU (VidSCH) és videomemóriakezelő (VidMm) a WDDM grafikus magban, amelyek felelősek az erőforrások tényleges elosztásáért. Nagyon pontos adatokat mutat, függetlenül attól, hogy milyen API-alkalmazásokat használnak a GPU eléréséhez – Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle vagy bármi más.

Ezért be feladatkezelő csak a WDDM 2.0 kompatibilis rendszerek láthatók GPU-k . Ha nem látja, akkor a rendszer GPU-ja valószínűleg régebbi típusú illesztőprogramot használ.

Ellenőrizheti, hogy a WDDM melyik verzióját használja az illesztőprogram GPU a Windows gomb + R megnyomásával, írja be a "dxdiag" mezőt, majd nyomja meg az "Enter" billentyűt"Az eszköz megnyitásához" DirectX diagnosztikai eszköz". Lépjen a Képernyő fülre, és nézze meg a Modell jobb oldalán az Illesztőprogramok alatt. Ha itt WDDM 2.x illesztőprogramot lát, akkor a rendszere kompatibilis. Ha lát itt egy WDDM 1.x illesztőprogramot, az Ön GPUösszeegyeztethetetlen.

A GPU teljesítményének megtekintése

Ez az információ itt érhető el feladatkezelő , bár alapértelmezés szerint rejtve van. A megnyitáshoz nyissa meg Feladatkezelő jobb gombbal kattintson a tálcán lévő üres helyre, és válassza a " Feladatkezelő” vagy a Ctrl+Shift+Esc lenyomásával a billentyűzeten.

Kattintson a További részletek gombra az ablak alján Feladatkezelő' ha a normál egyszerű nézetet látja.

Ha egy A GPU nem jelenik meg a feladatkezelőben , ban ben teljes képernyős mód a lapon" Folyamatok» kattintson jobb gombbal bármelyik oszlop fejlécére, majd engedélyezze a « lehetőséget GPU ". Ez hozzáad egy oszlopot GPU , amely lehetővé teszi az erőforrások százalékos arányának megjelenítését GPU az egyes alkalmazások által használt.

Engedélyezheti a " GPU mag hogy megtudja, melyik GPU-t használja az alkalmazás.

Általános használat GPU A rendszeren lévő összes alkalmazás közül az oszlop tetején jelenik meg GPU. Kattintson egy oszlopra GPU a lista rendezéséhez, és megtekintheti, hogy mely alkalmazások használják GPU jelenleg a legtöbbet.

Szám az oszlopban GPU az alkalmazás által az összes motorhoz használt legmagasabb használat. Így például, ha egy alkalmazás a GPU 3D motorjának 50%-át és a GPU videodekódoló motorjának 2%-át használja, akkor a GPU oszlopban csak az 50%-ot fogja látni.

A " oszlopban GPU mag” jelenik meg minden alkalmazásnál. Megmutatja, mit fizikai GPUés milyen motort használ az alkalmazás, például hogy 3D-s motort vagy videódekódoló motort használ-e. A " Teljesítmény', amiről a következő részben lesz szó.

Egy alkalmazás videomemória-használatának megtekintése

Ha kíváncsi arra, hogy egy alkalmazás mennyi videomemóriát használ, lépjen a Feladatkezelő Részletek lapjára. A Részletek lapon kattintson jobb gombbal bármelyik oszlopfejlécre, és válassza az Oszlopok kiválasztása lehetőséget. Görgessen le, és engedélyezze az oszlopokat " GPU », « GPU mag », « "és" ". Az első kettő a Folyamatok lapon is elérhető, de az utolsó két memóriaopció csak a Részletek panelen érhető el.

" oszlop Dedikált GPU memória » megmutatja, mennyi memóriát használ az alkalmazás az Ön készülékén GPU. Ha a számítógépén külön NVIDIA vagy AMD grafikus kártya van, akkor ez a VRAM része, vagyis mennyi fizikai memória a grafikus kártyán használja az alkalmazást. Ha van integrált grafikus processzor , a normál rendszermemória egy része kizárólag a grafikus hardver számára van fenntartva. Ez azt mutatja, hogy a lefoglalt memória mekkora részét használja az alkalmazás.

ablakok lehetővé teszi az alkalmazások számára, hogy bizonyos adatokat a rendszeres DRAM-ban tároljanak. " oszlop Megosztott GPU memória ' megmutatja, hogy az alkalmazás jelenleg mennyi memóriát használ a videoeszközökhöz a számítógép normál rendszer-RAM-jából.

Bármelyik oszlopra kattintva rendezheti őket, és megnézheti, melyik alkalmazás használja a legtöbb erőforrást. Például a GPU-n a legtöbb videomemóriát használó alkalmazások megtekintéséhez kattintson a " Dedikált GPU memória ».

A GPU megosztás használatának nyomon követése

Az általános erőforrás-használati statisztikák nyomon követése GPU, menj a " Teljesítmény'és nézd' GPU» az oldalsáv alján. Ha számítógépe több GPU-val rendelkezik, itt több lehetőséget is láthat GPU.

Ha több összekapcsolt GPU-ja van – olyan funkció használatával, mint az NVIDIA SLI vagy az AMD Crossfire, a nevükben a „#” jellel fogja azonosítani őket.

ablakok használatot jeleníti meg GPU valós időben. Alapértelmezett Feladatkezelő megpróbálja megjeleníteni a legérdekesebb négy motort a rendszereden történt események alapján. Például különböző grafikákat fog látni attól függően, hogy 3D-s játékokkal játszik vagy videókat kódol. Azonban rákattinthat a grafikonok feletti bármelyik névre, és kiválaszthatja a többi elérhető motort.

Az Ön neve GPU Az oldalsávban és az ablak tetején is megjelenik, így könnyen ellenőrizhető, hogy milyen grafikus hardver van telepítve a számítógépére.

Látni fogja a dedikált és megosztott memóriahasználati grafikonokat is GPU. Megosztott memóriahasználat GPU arra utal, hogy a rendszer teljes memóriájából mennyit használnak fel feladatokra GPU. Ez a memória normál rendszerfeladatokhoz és videofelvételekhez egyaránt használható.

Az ablak alján olyan információk jelennek meg, mint a telepített videó-illesztőprogram verziószáma, a fejlesztés dátuma és a fizikai hely. GPU a rendszerén.

Ha egy kisebb ablakban szeretné megtekinteni ezeket az információkat, amelyeket könnyebb a képernyőn tartani, kattintson duplán bárhol a GPU képernyőjén, vagy kattintson a jobb gombbal bárhová, és válassza ki a lehetőséget. Grafikus összefoglaló". Maximalizálhatja az ablak méretét, ha duplán kattint a panelre, vagy jobb gombbal kattintson rá, és törölje a "" jelet. Grafikus összefoglaló».

Ha csak egy motordiagramot szeretne megtekinteni, kattintson a jobb gombbal a diagramra, és válassza a Grafikon szerkesztése > Egymagos lehetőséget GPU.

Ha azt szeretné, hogy ez az ablak állandóan megjelenjen a képernyőn, kattintson az "Opciók" > " A többi ablak tetején».

Kattintson duplán a sávon belülre GPU még egyszer, és van egy minimális ablak, amelyet bárhol elhelyezhet a képernyőn.

A modern videokártyák, a grafikus munkavégzés során szükséges hatalmas feldolgozási teljesítmény miatt, saját parancsokkal vannak felszerelveközpont, más szóval - a grafikus processzor.

Ezt azért tették, hogy „kirakják” a központi processzort, amely széles „hatóköre” miatt egyszerűen nem képes megbirkózni a modern követelményekkel.játékipar.

A grafikus feldolgozó egységek (GPU-k) összetettségükben egyáltalán nem alacsonyabbak a központi processzoroknál, de szűk specializációjuk miatt hatékonyabban képesek megbirkózni a grafika feldolgozásával, a kép elkészítésével, majd a monitoron való megjelenítésével.

Ha a paraméterekről beszélünk, akkor ezek nagyon hasonlóak a központi processzoros grafikus processzorokhoz. Ezek már mindenki által ismert paraméterek, mint például a processzor mikroarchitektúrája, órajel frekvenciája alapmunka, gyártási folyamat. De vannak egészen sajátos jellemzőik is. Például a GPU fontos jellemzője a pixel-folyamatok száma. Ez a jellemző határozza meg a GPU robotok ciklusonkénti feldolgozott pixeleinek számát. Ezeknek a csővezetékeknek a száma változhat, például a Radeon HD 6000 sorozatú grafikus chipeknél számuk akár 96 is lehet.

A pixel-csővezeték azzal foglalkozik, hogy kiszámítja a következő kép minden további pixelét, figyelembe véve annak jellemzőit. A renderelési folyamat felgyorsítása érdekében több párhuzamos csővezetéket használnak, amelyek ugyanannak a képnek a különböző képpontjait számítják ki.

Ezenkívül a pixel csővezetékek száma befolyásol egy fontos paramétert - a videokártya feltöltésének sebességét. A videokártya kitöltési aránya úgy számítható ki, hogy a magfrekvenciát megszorozzuk a csővezetékek számával.

Számítsuk ki például egy videokártya kitöltési arányát AMD Radeon HD 6990 (2. ábra) Ennek a chipnek a GPU magjának frekvenciája 830 MHz, a pixel csővezetékek száma pedig 96. Egyszerű matematikai számításokkal (830x96) arra a következtetésre jutunk, hogy a kitöltési arány 57,2 Gpixel / s lesz.


Rizs. 2

A pixel pipeline-okon kívül minden pipeline-ban vannak úgynevezett textúraegységek is. Minél több textúraegység, annál több textúra alkalmazható a csővezeték egy menetében, ami szintén befolyásolja a teljes videórendszer teljesítményét. A már említett AMD Radeon HD 6990 lapkában a textúra lekérő egységek száma 32x2.

A grafikus processzorokban egy másik típusú csővezetéket lehet megkülönböztetni - vertex pipelines, ezek felelősek a háromdimenziós kép geometriai paramétereinek kiszámításáért.

Most pedig nézzünk meg egy lépésről lépésre, némileg leegyszerűsített, csővezeték számítási folyamatot, majd a képalkotást:

1 - szakaszban.A textúra csúcsadatokat a csúcsponti csővezetékekbe táplálják, amelyek kiszámítják a geometriai paramétereket. Ebben a szakaszban a T&L (Transform & Lightning) blokk csatlakoztatva van. Ez a blokk felelős a 3D jelenetek megvilágításáért és képátalakításáért. A vertex pipeline adatfeldolgozása a vertex shader program (Vertex Shader) költségére történik.

2 - ó színpad.A képalkotás második szakaszában egy speciális Z-puffer van csatlakoztatva a háromdimenziós objektumok láthatatlan sokszögeinek és lapjainak levágására. Ezután a textúra szűrési folyamata zajlik, ehhez a pixel shaderek belépnek a „csatába”. Az OpenGL vagy a Direct3D API-k szabványokat írnak le a használathoz 3D képek. Az alkalmazás meghív egy bizonyos szabványos OpenGL vagy Direct3D függvényt, és a shaderek hajtják végre ezt a funkciót.

3. szakasz.A csővezetékes feldolgozás képalkotásának utolsó szakaszában az adatok egy speciális keretpufferbe kerülnek.

Tehát csak röviden áttekintettük a grafikus processzorok felépítését és működési elveit, az információkat természetesen „nem könnyű” megérteni, de az általános számítógépfejlesztéshez szerintem nagyon hasznos lesz :)

Sokan látták a GPU rövidítést, de nem mindenki tudja, mi az. azt összetevő, ami benne van videokártyák. Néha videokártyának hívják, de ez nem helyes. A GPU be van kapcsolva feldolgozás alakuló csapatok 3D kép. Ez a fő elem, amelynek ereje függ teljesítmény a teljes videórendszert.

Van többféle ilyen chips diszkrétés beépített. Természetesen érdemes rögtön megemlíteni, hogy az első jobb. Külön modulokon van elhelyezve. Erőteljes és jót kíván hűtés. A második szinte minden számítógépen telepítve van. A CPU-ba van beépítve, így többszörösére csökkenti az energiafogyasztást. Természetesen nem hasonlítható össze a teljes értékű diszkrét chipekkel, de jelenleg elég jól mutat eredmények.

Hogyan működik a processzor

GPU bekapcsolva feldolgozás 2D és 3D grafika. A GPU-nak köszönhetően a számítógép CPU-ja szabadabbá válik és fontosabb feladatokat tud végrehajtani. fő jellemzője GPU annyiban, hogy a lehető legtöbbet próbálja sebesség növelése grafikus információ számítása. A chip architektúra többet tesz lehetővé hatékonyság grafikus információkat dolgoz fel, mint a számítógép központi CPU-ja.

GPU készletek elhelyezkedés háromdimenziós modellek a keretben. Foglalt szűrés a bennük lévő háromszögek közül meghatározza, hogy melyek legyenek láthatók, és levágja azokat, amelyeket más objektumok rejtenek.