Maison / Travailler sur Internet / Familles de cartes vidéo Nvidia GeForce Informations de référence. Les familles de cartes graphiques Nvidia GeForce font référence aux modifications apportées au rendu multi-GPU SLI

Familles de cartes vidéo Nvidia GeForce Informations de référence. Les familles de cartes graphiques Nvidia GeForce font référence aux modifications apportées au rendu multi-GPU SLI

GPU Boost 2.0

Avec la carte graphique NVIDIA GeForce GTX 680, nous obtenons une nouvelle fonctionnalité importante : GPU Boost. Et la nouvelle NVIDIA GeForce GTX Titan va encore plus loin en étendant cette fonctionnalité à GPU Boost 2.0. La première version de GPU Boost 1.0 était axée sur la consommation d'énergie maximale atteinte dans les jeux modernes les plus exigeants. Dans ce cas, la température du GPU n’a pas joué de rôle particulier, à moins qu’elle ne se rapproche du seuil critique. La fréquence d'horloge maximale a été déterminée en fonction de la tension relative. L'inconvénient était évident : GPU Boost 1.0 ne pouvait pas empêcher les situations où, même à une tension non critique, la température augmentait excessivement.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

La GeForce GTX Titan évalue déjà deux paramètres : la tension et la température. Autrement dit, la tension relative (Vref) est déterminée sur la base de ces deux paramètres. Bien sûr, il faudra toujours compter sur des GPU individuels, car il existe une variabilité dans la fabrication des puces, de sorte que chaque carte graphique sera différente les unes des autres. Mais NVIDIA souligne que techniquement, l'ajout de température a permis un overclocking Boost supérieur de 3 à 7 % en moyenne. La technologie GPU Boost 2.0 pourrait théoriquement être transférée sur des cartes vidéo plus anciennes, mais il est peu probable que cela se produise.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Examinons de plus près GPU Boost 2.0. Des utilitaires comme EVGA Precision Tool ou MSI Afterburner prennent déjà en charge GPU Boost 2.0. Nous avons utilisé EVGA Precision Tool version 4.0.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GPU Boost 2.0 prend en compte la température et, à basse température, la technologie peut augmenter les performances de manière plus significative. La température cible (Ttarget) est réglée par défaut sur 80 °C.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

La technologie GPU Boost 2.0 contient toutes les fonctions qui nous sont familières de la première génération de technologie, mais en même temps elle permet en outre de régler une tension plus élevée, et donc des vitesses d'horloge plus élevées. Pour les overclockeurs, il est possible de modifier les paramètres. Vous pouvez activer la surtension du GPU, mais soyez conscient de la réduction potentielle de la durée de vie de la carte graphique.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Les overclockers peuvent augmenter Vref et Vmax (OverVoltage). C'était ce que de nombreux utilisateurs voulaient sur le GK104, mais NVIDIA ne faisait confiance ni aux utilisateurs ni aux fabricants avec une telle opportunité. Et la carte vidéo EVGA GTX 680 Classified que nous avons testée (test et revue) n'en est qu'un excellent exemple. Cette carte vidéo disposait d'un module EVGA Evbot spécial qui permettait aux utilisateurs de contrôler les tensions. Mais NVIDIA a exigé de toute urgence qu'EVGA supprime les équipements supplémentaires de ses cartes vidéo. Avec GPU Boost 2.0 et OverVoltage, NVIDIA lui-même a fait un pas dans cette direction. Ainsi, les fabricants de cartes vidéo peuvent lancer plusieurs modèles de GeForce GTX Titan, par exemple des versions standard et des versions overclockées en usine. L'activation de la surtension se fait via un commutateur VBIOS (c'est-à-dire explicitement pour l'utilisateur afin qu'il soit conscient des conséquences possibles).

ParamètreSignification
Nom du code de la puceGP104
Technologie de productionFinFET 16 nm
Nombre de transistors7,2 milliards
Zone centrale314 mm²
Architecture
Prise en charge matérielle DirectX
Bus mémoire
1 607 (1 733) MHz
Blocs de calcul20 multiprocesseurs de streaming, dont 2560 ALU scalaires pour les calculs en virgule flottante dans le cadre de la norme IEEE 754-2008 ;
Blocs de texturation160 unités d'adressage et de filtrage de texture avec prise en charge des composants FP16 et FP32 dans les textures et prise en charge du filtrage trilinéaire et anisotrope pour tous les formats de texture
Prise en charge du moniteur
Spécifications de la carte graphique de référence GeForce GTX 1080
ParamètreSignification
Fréquence de base1 607 (1 733) MHz
2560
Nombre de blocs de texture160
Nombre de blocs de mélange64
Fréquence de mémoire efficace10 000 (4 × 2 500) MHz
Type de mémoireGDDR5X
Bus mémoire256 bits
Mémoire8 Go
320 Go/s
environ 9 téraflops
103 gigapixels/s
257 gigatexels/s
PneuPCI Express 3.0
Connecteurs
Consommation d'énergiejusqu'à 180 W
Nourriture supplémentaireUn connecteur à 8 broches
2
Prix ​​conseillé599-699 $ (États-Unis), 54 990 RUB (Russie)

Le nouveau modèle de carte vidéo GeForce GTX 1080 a reçu un nom logique pour la première solution de la nouvelle série GeForce - il ne diffère de son prédécesseur direct que par le numéro de génération modifié. Le nouveau produit remplace non seulement les meilleures solutions de la gamme actuelle de la société, mais est également devenu pendant un certain temps le produit phare de la nouvelle série, jusqu'à ce que Titan X soit lancé avec un GPU encore plus puissant. En dessous dans la hiérarchie se trouve également le modèle GeForce GTX 1070 déjà annoncé, basé sur une version allégée de la puce GP104, que nous examinerons ci-dessous.

Les prix recommandés pour la nouvelle carte graphique Nvidia sont respectivement de 599 $ et 699 $ pour les versions standard et l'édition spéciale Founders (voir ci-dessous), et c'est une très bonne affaire étant donné que la GTX 1080 est en avance non seulement sur la GTX 980 Ti. , mais aussi le Titan X. Aujourd'hui, le nouveau produit est sans aucun doute la solution la plus performante sur le marché des cartes vidéo monopuce, et en même temps il coûte moins cher que les cartes vidéo les plus productives de la génération précédente. Jusqu'à présent, la GeForce GTX 1080 n'a pratiquement aucun concurrent d'AMD, Nvidia a donc pu fixer un prix qui leur convient.

La carte vidéo en question est basée sur la puce GP104, qui possède un bus mémoire de 256 bits, mais le nouveau type de mémoire GDDR5X fonctionne à une fréquence effective très élevée de 10 GHz, ce qui donne une bande passante maximale élevée de 320 Go/s. - ce qui est presque à égalité avec la GTX 980 Ti avec un bus 384 bits. Le volume de mémoire installé sur une carte vidéo avec un tel bus pourrait être égal à 4 ou 8 Go, mais installer un volume plus petit pour une solution aussi puissante dans les conditions modernes serait stupide, donc la GTX 1080 a logiquement reçu 8 Go de mémoire , et ce volume est suffisant pour exécuter n'importe quel jeu 3D et application avec n'importe quel paramètre de qualité pendant plusieurs années.

Le PCB GeForce GTX 1080 est, pour des raisons évidentes, assez différent des précédents PCB de la société. La consommation électrique typique du nouveau produit est de 180 W, ce qui est légèrement supérieur à celui de la GTX 980, mais nettement inférieur à celui des Titan X et GTX 980 Ti, moins productifs. La carte de référence dispose de l'ensemble habituel de connecteurs pour connecter des périphériques de sortie d'image : un DVI Dual-Link, un HDMI et trois DisplayPort.

Conception de référence de Founders Edition

Même lorsque la GeForce GTX 1080 a été annoncée début mai, une édition spéciale de la carte vidéo appelée Founders Edition a été annoncée, dont le prix était plus élevé que les cartes vidéo classiques des partenaires de la société. Essentiellement, cette édition est une conception de référence de la carte et du système de refroidissement, et elle est produite par Nvidia lui-même. Vous pouvez avoir différentes attitudes à l’égard de ces options de carte vidéo, mais la conception de référence développée par les ingénieurs de l’entreprise et fabriquée à partir de composants de haute qualité a ses fans.

Mais s'ils paieront plusieurs milliers de roubles de plus pour une carte vidéo de Nvidia elle-même, c'est une question à laquelle seule la pratique peut répondre. Dans tous les cas, dans un premier temps, ce seront les cartes vidéo de référence de Nvidia qui seront mises en vente à un prix plus élevé, et il n'y a pas beaucoup de choix - cela arrive à chaque annonce, mais la référence GeForce GTX 1080 est différente en ce sens il est prévu qu'il soit vendu sous cette forme tout au long de sa durée de vie, jusqu'à la sortie de la prochaine génération de solutions.

Nvidia estime que cette publication a ses mérites même par rapport aux meilleurs travaux de ses partenaires. Par exemple, la conception à double emplacement du refroidisseur permet de construire facilement sur la base de cette puissante carte vidéo des PC de jeu d'un facteur de forme relativement petit et des systèmes vidéo multi-puces (même malgré le mode à trois et quatre puces). fonctionnement non recommandé par l'entreprise). La GeForce GTX 1080 Founders Edition présente certains avantages sous la forme d'un refroidisseur efficace utilisant une chambre à vapeur et un ventilateur qui pousse l'air chauffé hors du boîtier - c'est la première solution de ce type de Nvidia, consommant moins de 250 W d'énergie.

Par rapport aux conceptions de produits de référence précédentes de l'entreprise, le circuit d'alimentation est passé de quatre phases à cinq phases. Nvidia parle également de composants améliorés sur lesquels est basé le nouveau produit ; le bruit électrique a également été réduit, permettant une stabilité de tension et un potentiel d'overclocking améliorés. Grâce à toutes les améliorations, l'efficacité énergétique de la carte de référence a augmenté de 6% par rapport à la GeForce GTX 980.

Et afin de différer en apparence des modèles GeForce GTX 1080 « classiques », un design de boîtier « haché » inhabituel a été développé pour l'édition Founders. Ce qui, cependant, a probablement également conduit à une forme plus compliquée de la chambre d'évaporation et du radiateur (voir photo), ce qui a peut-être été l'une des raisons pour lesquelles il a fallu payer 100 $ de plus pour une édition aussi spéciale. Répétons qu'au début des ventes, les acheteurs n'auront pas beaucoup de choix, mais à l'avenir ils pourront choisir soit une solution de leur propre conception provenant d'un des partenaires de l'entreprise, soit une solution réalisée par Nvidia elle-même.

Nouvelle génération d'architecture graphique Pascal

La carte vidéo GeForce GTX 1080 a été la première solution de l'entreprise basée sur la puce GP104, qui appartient à la nouvelle génération de l'architecture graphique Pascal de Nvidia. Bien que la nouvelle architecture soit basée sur des solutions développées chez Maxwell, elle présente également des différences fonctionnelles importantes, sur lesquelles nous parlerons plus tard. Le principal changement d'un point de vue global a été le nouveau processus technologique par lequel le nouveau processeur graphique a été fabriqué.

L'utilisation du procédé FinFET 16 nm dans la production des processeurs graphiques GP104 dans les usines de la société taïwanaise TSMC a permis d'augmenter considérablement la complexité de la puce tout en maintenant une surface et un coût relativement faibles. Comparez le nombre de transistors et la superficie des puces GP104 et GM204 - elles sont similaires en superficie (le cristal du nouveau produit est même légèrement plus petit physiquement), mais la puce d'architecture Pascal a un nombre de transistors sensiblement plus grand, et , en conséquence, les unités d'exécution, y compris celles qui offrent de nouvelles fonctionnalités.

D'un point de vue architectural, le premier jeu Pascal est très similaire aux solutions similaires de l'architecture Maxwell, bien qu'il existe quelques différences. Comme Maxwell, les processeurs Pascal auront différentes configurations de Graphics Processing Cluster (GPC), de Streaming Multiprocessor (SM) et de contrôleurs de mémoire. Le multiprocesseur SM est un multiprocesseur hautement parallèle qui planifie et exécute des warps (groupes de 32 threads d'instructions) sur les cœurs CUDA et d'autres unités d'exécution du multiprocesseur. Vous pouvez trouver des informations détaillées sur la conception de tous ces blocs dans nos revues des solutions Nvidia précédentes.

Chacun des multiprocesseurs SM est associé à un moteur PolyMorph, qui gère l'échantillonnage de texture, la tessellation, la transformation, la définition des attributs de sommet et la correction de perspective. Contrairement aux solutions précédentes de la société, le moteur PolyMorph de la puce GP104 contient également une nouvelle unité multi-projection, Simultaneous Multi-Projection, dont nous parlerons ci-dessous. La combinaison d'un multiprocesseur SM avec un moteur Polymorph est traditionnellement appelée TPC - Texture Processor Cluster pour Nvidia.

Au total, la puce GP104 de la GeForce GTX 1080 contient quatre clusters GPC et 20 multiprocesseurs SM, ainsi que huit contrôleurs mémoire combinés à 64 unités ROP. Chaque cluster GPC dispose d'un moteur de rastérisation dédié et comprend cinq multiprocesseurs SM. Chaque multiprocesseur, à son tour, se compose de 128 cœurs CUDA, d'un fichier de registre de 256 Ko, de 96 Ko de mémoire partagée, de 48 Ko de cache L1 et de huit unités de texture TMU. Autrement dit, au total, le GP104 contient 2 560 cœurs CUDA et 160 unités TMU.

De plus, le processeur graphique sur lequel repose la GeForce GTX 1080 contient huit contrôleurs mémoire de 32 bits (contre 64 bits précédemment utilisés), ce qui nous donne un bus mémoire final de 256 bits. Chaque contrôleur de mémoire dispose de huit blocs ROP et de 256 Ko de cache L2. Autrement dit, au total, la puce GP104 contient 64 blocs ROP et 2 048 Ko de cache de deuxième niveau.

Grâce à des optimisations architecturales et à une nouvelle technologie de processus, le premier Pascal de jeu est devenu le GPU le plus économe en énergie de tous les temps. De plus, l'un des processus technologiques FinFET 16 nm les plus avancés et les optimisations d'architecture réalisées en Pascal, par rapport à Maxwell, y contribuent. Nvidia a pu augmenter la fréquence d'horloge encore plus que prévu en passant à une nouvelle technologie de processus. Le GP104 fonctionne à une fréquence plus élevée que celle d’un hypothétique GM204 produit à l’aide du processus 16 nm. Pour ce faire, les ingénieurs de Nvidia ont dû soigneusement vérifier et optimiser tous les goulots d'étranglement des solutions précédentes qui empêchaient l'accélération au-dessus d'un certain seuil. En conséquence, le nouveau modèle GeForce GTX 1080 fonctionne à une fréquence augmentée de plus de 40 % par rapport à la GeForce GTX 980. Mais ce ne sont pas tous les changements associés à la fréquence du GPU.

Technologie GPU Boost 3.0

Comme nous le savons bien grâce aux cartes vidéo Nvidia précédentes, dans leurs processeurs graphiques, ils utilisent la technologie matérielle GPU Boost, conçue pour augmenter la vitesse d'horloge de fonctionnement du GPU dans les modes où il n'a pas encore atteint les limites de consommation d'énergie et de dissipation thermique. Au fil des années, cet algorithme a subi de nombreuses évolutions, et la puce vidéo à architecture Pascal utilise déjà la troisième génération de cette technologie - GPU Boost 3.0, dont la principale innovation est un réglage plus fin des fréquences turbo, en fonction de la tension.

Si vous vous souvenez du principe de fonctionnement des versions précédentes de la technologie, alors la différence entre la fréquence de base (la valeur de fréquence minimale garantie en dessous de laquelle le GPU ne tombe pas, du moins dans les jeux) et la fréquence turbo a été corrigée. Autrement dit, la fréquence turbo était toujours supérieure d'un certain nombre de mégahertz à celle de base. Dans GPU Boost 3.0, il est devenu possible de définir séparément les décalages de fréquence turbo pour chaque tension. La façon la plus simple de comprendre cela est de prendre une illustration :

A gauche se trouve la deuxième version de GPU Boost, à droite la troisième, apparue en Pascal. La différence fixe entre les fréquences de base et turbo n'a pas permis de révéler toutes les capacités du GPU ; dans certains cas, les GPU des générations précédentes pouvaient fonctionner plus rapidement à la tension définie, mais un excès fixe de la fréquence turbo ne l'a pas permis être fait. Dans GPU Boost 3.0, cette fonctionnalité est apparue et la fréquence turbo peut être définie pour chacune des valeurs de tension individuelles, éliminant complètement tout le jus du GPU.

Des utilitaires pratiques sont nécessaires pour contrôler l'overclocking et définir la courbe de fréquence turbo. Nvidia lui-même ne le fait pas, mais aide ses partenaires à créer des utilitaires similaires pour faciliter l'overclocking (dans des limites raisonnables, bien sûr). Par exemple, la nouvelle fonctionnalité de GPU Boost 3.0 a déjà été révélée dans EVGA Precision XOC, qui comprend un scanner d'overclocking dédié qui recherche et définit automatiquement la différence non linéaire entre la fréquence de base et la fréquence turbo pour différentes tensions en exécutant un module intégré. test de performance et de stabilité. En conséquence, l'utilisateur obtient une courbe de fréquence turbo qui correspond parfaitement aux capacités d'une puce particulière. Lequel, de plus, peut être modifié manuellement de quelque manière que ce soit.

Comme vous pouvez le voir sur la capture d'écran de l'utilitaire, en plus des informations sur le GPU et le système, il existe également des paramètres d'overclocking : Power Target (définit la consommation d'énergie typique pendant l'overclocking, en pourcentage de la norme), GPU Temp Target (température centrale maximale autorisée), décalage d'horloge GPU (dépassement de la fréquence de base pour toutes les valeurs de tension), décalage de mémoire (dépassement de la fréquence de la mémoire vidéo au-dessus de la valeur par défaut), surtension (possibilité supplémentaire d'augmenter la tension).

L'utilitaire Precision XOC comprend trois modes d'overclocking : Basique, Linéaire et Manuel. Dans le mode principal, vous pouvez définir une valeur unique pour la fréquence excédentaire (fréquence turbo fixe) au-dessus de celle de base, comme c'était le cas pour les GPU précédents. Le mode linéaire vous permet de définir un changement de fréquence linéaire des valeurs de tension minimales aux valeurs de tension maximales pour le GPU. Eh bien, en mode manuel, vous pouvez définir des valeurs de fréquence GPU uniques pour chaque point de tension sur le graphique.

L'utilitaire comprend également un scanner spécial pour l'overclocking automatique. Vous pouvez soit définir vos propres niveaux de fréquence, soit laisser Precision XOC analyser le GPU à toutes les tensions et trouver les fréquences les plus stables pour chaque point de la courbe de tension et de fréquence de manière entièrement automatique. Pendant le processus de numérisation, Precision XOC augmente progressivement la fréquence du GPU et vérifie la stabilité ou les artefacts de son fonctionnement, créant ainsi une courbe de fréquence et de tension idéale qui sera unique pour chaque puce spécifique.

Ce scanner peut être personnalisé selon vos propres besoins en définissant la période de temps pour tester chaque valeur de tension, la fréquence minimale et maximale testée et son étape. Il est clair que pour obtenir des résultats stables, il serait préférable de fixer un petit pas et une durée de test décente. Pendant le processus de test, un fonctionnement instable du pilote vidéo et du système peut être observé, mais si le scanner ne se bloque pas, il rétablira son fonctionnement et continuera à trouver des fréquences optimales.

Nouveau type de mémoire vidéo GDDR5X et compression améliorée

Ainsi, la puissance du GPU a considérablement augmenté, mais le bus mémoire ne reste que de 256 bits - la bande passante mémoire limitera-t-elle les performances globales et que peut-on y faire ? Il semble que la prometteuse mémoire HBM de deuxième génération soit encore trop chère à produire, nous avons donc dû chercher d'autres options. Depuis l'introduction de la mémoire GDDR5 en 2009, les ingénieurs de Nvidia explorent les possibilités d'utilisation de nouveaux types de mémoire. En conséquence, les développements ont conduit à l'introduction d'un nouveau standard de mémoire, GDDR5X, le standard le plus complexe et le plus avancé à ce jour, offrant une vitesse de transfert de 10 Gbit/s.

Nvidia donne un exemple intéressant de la rapidité avec laquelle cela se produit. Seulement 100 picosecondes s'écoulent entre les bits transmis - pendant ce temps, un faisceau de lumière parcourra une distance de seulement un pouce (environ 2,5 cm). Et lors de l'utilisation de la mémoire GDDR5X, les circuits de transmission et de réception de données doivent sélectionner la valeur du bit transmis en moins de la moitié de ce temps, avant que le suivant ne soit envoyé - c'est juste pour que vous compreniez à quoi est arrivée la technologie moderne.

Pour atteindre une telle rapidité, il a fallu développer une nouvelle architecture pour le système d’entrée/sortie de données, ce qui a nécessité plusieurs années de développement conjoint avec les fabricants de puces mémoire. En plus de l'augmentation de la vitesse de transfert de données, l'efficacité énergétique a également augmenté : les puces mémoire GDDR5X utilisent une tension inférieure de 1,35 V et sont fabriquées à l'aide de nouvelles technologies, ce qui donne la même consommation d'énergie à une fréquence 43 % plus élevée.

Les ingénieurs de la société ont dû retravailler les lignes de données entre le cœur du GPU et les puces de mémoire, en accordant plus d'attention à la prévention de la perte et de la dégradation du signal tout au long du trajet allant de la mémoire au GPU et inversement. Ainsi, l'illustration ci-dessus montre le signal capturé sous la forme d'un grand « œil » symétrique, ce qui indique une bonne optimisation de l'ensemble du circuit et la relative facilité de capture des données du signal. De plus, les changements décrits ci-dessus conduisent non seulement à la possibilité d'utiliser le GDDR5X à 10 GHz, mais devraient également permettre d'obtenir une bande passante mémoire élevée sur les futurs produits utilisant une mémoire GDDR5 plus conventionnelle.

Eh bien, nous avons obtenu une augmentation de plus de 40 % de la bande passante grâce à l'utilisation de la nouvelle mémoire. Mais n'est-ce pas suffisant ? Pour augmenter encore l'efficacité de la bande passante mémoire, Nvidia a continué à améliorer la compression avancée des données introduite dans les architectures précédentes. Le sous-système de mémoire de la GeForce GTX 1080 utilise des techniques améliorées et plusieurs nouvelles techniques de compression de données sans perte conçues pour réduire les besoins en bande passante - il s'agit de la quatrième génération de compression sur puce.

Les algorithmes de compression de données en mémoire apportent plusieurs aspects positifs. La compression réduit la quantité de données écrites en mémoire, il en va de même pour les données envoyées de la mémoire vidéo au cache de deuxième niveau, ce qui améliore l'efficacité d'utilisation du cache L2, puisqu'une tuile compressée (un bloc de plusieurs pixels du framebuffer) est plus petite que un non compressé. Cela réduit également la quantité de données envoyées entre différents points, tels que le TMU et le framebuffer.

Le pipeline de compression des données dans le GPU utilise plusieurs algorithmes, qui sont déterminés en fonction de la « compressibilité » des données - le meilleur algorithme disponible est sélectionné pour eux. L’un des plus importants est l’algorithme de compression des couleurs delta. Cette technique de compression code les données comme la différence entre des valeurs successives au lieu des données elles-mêmes. Le GPU calcule la différence de valeurs de couleur entre les pixels d'un bloc (tuile) et stocke le bloc comme couleur moyenne pour l'ensemble du bloc ainsi que des données sur la différence de valeurs pour chaque pixel. Pour les données graphiques, cette méthode est généralement bien adaptée, car la couleur des petites tuiles pour tous les pixels ne diffère souvent pas trop.

Le processeur graphique GP104 de la GeForce GTX 1080 prend en charge davantage d'algorithmes de compression par rapport aux puces à architecture Maxwell précédentes. Ainsi, l'algorithme de compression 2:1 est devenu plus efficace, et en plus, deux nouveaux algorithmes sont apparus : un mode de compression 4:1, adapté aux cas où la différence de valeur de couleur des pixels du bloc est très faible, et un mode 8:1, combinant un algorithme constant de compression 4:1 de blocs de 2x2 pixels avec une compression delta 2x entre les blocs. Lorsque la compression est totalement impossible, elle n’est pas utilisée.

Cependant, en réalité, cette dernière situation se produit très rarement. Cela peut être vu dans les exemples de captures d'écran du jeu Project CARS fournies par Nvidia pour illustrer l'augmentation du taux de compression en Pascal. Dans les illustrations, les tuiles de frame buffer qui ont pu être compressées par le GPU sont peintes en violet, tandis que celles qui ne peuvent pas être compressées sans perte conservent leur couleur d'origine (en haut - Maxwell, en bas - Pascal).

Comme vous pouvez le constater, les nouveaux algorithmes de compression du GP104 fonctionnent vraiment bien mieux que ceux de Maxwell. Même si l'ancienne architecture était également capable de compresser la plupart des tuiles de la scène, de grandes quantités d'herbe et d'arbres sur les bords, ainsi que des pièces de véhicules, ne sont pas soumises aux algorithmes de compression existants. Mais lorsque nous avons mis en œuvre de nouvelles techniques en Pascal, très peu de zones de l'image sont restées non compressées - l'efficacité améliorée est évidente.

Grâce aux améliorations apportées à la compression des données, la GeForce GTX 1080 est capable de réduire considérablement la quantité de données envoyées par trame. En termes de chiffres, une compression améliorée permet d'économiser 20 % supplémentaires de bande passante mémoire effective. En plus de l'augmentation de plus de 40 % de la bande passante mémoire de la GeForce GTX 1080 par rapport à la GTX 980 grâce à l'utilisation de la mémoire GDDR5X, cela donne au total une augmentation d'environ 70 % de la bande passante effective par rapport au modèle de génération précédente.

Prise en charge de l'informatique asynchrone Async Compute

La plupart des jeux modernes utilisent des calculs complexes en plus des graphiques. Par exemple, les calculs lors du calcul du comportement des corps physiques peuvent être effectués non pas avant ou après les calculs graphiques, mais simultanément avec eux, car ils ne sont pas liés les uns aux autres et ne dépendent pas les uns des autres au sein d'un même cadre. Un autre exemple est le post-traitement des images déjà rendues et le traitement des données audio, qui peuvent également être effectués en parallèle avec le rendu.

Un autre exemple marquant de l'utilisation de fonctionnalités est la technique de déformation temporelle asynchrone (Asynchronous Time Warp), utilisée dans les systèmes de réalité virtuelle afin de modifier l'image de sortie en fonction du mouvement de la tête du joueur juste avant sa sortie, interrompant ainsi le rendu. du prochain. Un tel chargement asynchrone de la puissance du GPU permet d'augmenter l'efficacité d'utilisation de ses unités d'exécution.

De telles charges de travail créent deux nouveaux scénarios d'utilisation des GPU. Le premier d’entre eux implique des charges qui se chevauchent, car de nombreux types de tâches n’utilisent pas pleinement les capacités des GPU et certaines ressources sont inutilisées. Dans de tels cas, vous pouvez simplement exécuter deux tâches différentes sur le même GPU, en séparant ses unités d'exécution pour une utilisation plus efficace - par exemple, les effets PhysX exécutés conjointement avec le rendu d'images 3D.

Pour améliorer ce scénario, l'architecture Pascal a introduit l'équilibrage de charge dynamique. Dans l'architecture Maxwell précédente, les charges de travail qui se chevauchaient étaient implémentées en répartissant statiquement les ressources GPU entre les graphiques et le calcul. Cette approche est efficace à condition que l'équilibre entre les deux charges de travail corresponde approximativement à la répartition des ressources et que les tâches soient réalisées dans le même laps de temps. Si les calculs non graphiques prennent plus de temps que les calculs graphiques et que les deux attendent la fin du travail global, alors une partie du GPU restera inactive pour le temps restant, ce qui entraînera une diminution des performances globales et réduira à néant tous les avantages. L'équilibrage de charge dynamique matériel vous permet d'utiliser les ressources GPU libérées dès qu'elles sont disponibles - nous fournirons une illustration pour comprendre.

Certaines tâches sont également critiques pour le temps d'exécution, et c'est le deuxième scénario de l'informatique asynchrone. Par exemple, l'algorithme de distorsion temporelle asynchrone en VR doit être terminé avant la numérisation, sinon la trame sera supprimée. Dans ce cas, le GPU doit prendre en charge une interruption très rapide des tâches et le passage à une autre afin de supprimer une tâche moins critique de l'exécution sur le GPU, libérant ainsi ses ressources pour les tâches critiques - c'est ce qu'on appelle la préemption.

Une seule commande de rendu provenant d'un moteur de jeu peut contenir des centaines d'appels de dessin, chaque appel de dessin contenant à son tour des centaines de triangles à traiter, chacun contenant des centaines de pixels qui doivent être calculés et dessinés. L'approche GPU traditionnelle n'interrompt que les tâches à un niveau élevé, et le pipeline graphique est obligé d'attendre la fin de tout ce travail avant de changer de tâche, ce qui entraîne des latences très élevées.

Pour corriger cela, l'architecture Pascal a introduit pour la première fois la possibilité d'interrompre une tâche au niveau du pixel - Pixel Level Preemption. Les unités d'exécution Pascal GPU peuvent surveiller en permanence la progression des tâches de rendu et lorsqu'une interruption est demandée, elles peuvent arrêter l'exécution, préservant le contexte pour une exécution ultérieure et passant rapidement à une autre tâche.

L'interruption et la commutation au niveau des threads pour les opérations de calcul fonctionnent de la même manière que l'interruption au niveau des pixels pour le calcul graphique. Les charges de travail de calcul se composent de plusieurs grilles, chacune contenant plusieurs threads. Lorsqu'une demande d'interruption est reçue, les threads exécutés sur le multiprocesseur mettent fin à l'exécution. D'autres blocs enregistrent leur propre état pour continuer à partir du même point dans le futur, et le GPU passe à une autre tâche. L'ensemble du processus de changement de tâche prend moins de 100 microsecondes après la sortie des threads en cours d'exécution.

Pour les charges de travail de jeu, la combinaison d'interruptions au niveau des pixels pour les charges de travail graphiques et d'interruptions au niveau des threads pour les charges de travail de calcul donne aux GPU Pascal la possibilité de basculer rapidement entre les tâches avec un temps d'arrêt minimal. Et pour les tâches informatiques sur CUDA, une interruption avec une granularité minimale est également possible - au niveau des instructions. Dans ce mode, tous les threads arrêtent l'exécution en même temps, passant immédiatement à une autre tâche. Cette approche nécessite de stocker plus d'informations sur l'état de tous les registres de chaque thread, mais dans certains cas informatiques non graphiques, elle est tout à fait justifiée.

L'utilisation d'interruptions rapides et de commutation de tâches dans les charges de travail graphiques et de calcul a été ajoutée à l'architecture Pascal afin que les tâches graphiques et non graphiques puissent être interrompues au niveau d'instructions individuelles, plutôt qu'au niveau de threads entiers, comme ce fut le cas avec Maxwell et Kepler. . Ces technologies peuvent améliorer l'exécution asynchrone de diverses charges de travail GPU et améliorer la réactivité lors de l'exécution simultanée de plusieurs tâches. Lors de l'événement Nvidia, ils ont présenté une démonstration de calcul asynchrone en utilisant l'exemple du calcul des effets physiques. Si sans calcul asynchrone, les performances étaient au niveau de 77-79 FPS, alors avec l'inclusion de ces fonctionnalités, la fréquence d'images est passée à 93-94 FPS.

Nous avons déjà donné un exemple d'une des possibilités d'utilisation de cette fonctionnalité dans les jeux sous forme de distorsion temporelle asynchrone en VR. L'illustration montre le fonctionnement de cette technologie avec une interruption traditionnelle (préemption) et avec une interruption rapide. Dans le premier cas, ils essaient d'effectuer le processus de distorsion temporelle asynchrone le plus tard possible, mais avant le début de la mise à jour de l'image à l'écran. Mais le travail de l'algorithme doit être envoyé au GPU pour exécution quelques millisecondes plus tôt, car sans interruption rapide, il n'y a aucun moyen d'exécuter le travail avec précision au bon moment et le GPU reste inactif pendant un certain temps.

Dans le cas d'une interruption précise au pixel près et au fil (illustré à droite), cette capacité permet une plus grande précision dans la détermination du moment où l'interruption se produit, et la distorsion temporelle asynchrone peut être démarrée beaucoup plus tard avec la certitude de terminer le travail avant le démarrage de l'affichage. mise à jour. Et le GPU, qui est inactif pendant un certain temps dans le premier cas, peut être chargé de travaux graphiques supplémentaires.

Technologie de multi-projection simultanée

Le nouveau GPU GP104 prend désormais en charge la nouvelle technologie SMP (Simultaneous Multi-Projection), permettant au GPU de restituer plus efficacement les données sur les systèmes d'affichage modernes. SMP permet à la puce vidéo de produire simultanément des données dans plusieurs projections, ce qui a nécessité l'introduction d'un nouveau bloc matériel dans le GPU dans le cadre du moteur PolyMorph à la fin du pipeline géométrique avant l'unité de rastérisation. Ce bloc est chargé de travailler avec plusieurs projections pour un seul flux géométrique.

Le moteur multi-projection traite simultanément les données géométriques pour 16 projections préconfigurées combinant le point de projection (caméra), ces projections peuvent être pivotées ou inclinées indépendamment. Étant donné que chaque primitive géométrique peut apparaître simultanément dans plusieurs vues, le moteur SMP fournit cette fonctionnalité en permettant à l'application de demander au GPU de répliquer la géométrie jusqu'à 32 fois (16 vues sur deux centres de projection) sans traitement supplémentaire.

L'ensemble du processus de traitement est accéléré par le matériel et, comme la multiprojection fonctionne après le moteur géométrique, il n'est pas nécessaire de répéter plusieurs fois toutes les étapes de traitement géométrique. Les économies de ressources sont importantes lorsque la vitesse de rendu est limitée par les performances du traitement géométrique, comme la tessellation, où le même travail géométrique est effectué plusieurs fois pour chaque projection. En conséquence, dans le cas optimal, la multiprojection peut réduire jusqu’à 32 fois le besoin de traitement géométrique.

Mais pourquoi tout cela est-il nécessaire ? Il existe quelques bons exemples dans lesquels la technologie multiprojection peut être utile. Par exemple, un système multi-moniteurs composé de trois écrans installés en biais les uns par rapport aux autres, assez près de l'utilisateur (configuration surround). Dans une situation typique, la scène est rendue dans une seule projection, ce qui entraîne des distorsions géométriques et un rendu géométrique incorrect. La bonne méthode est d'avoir trois projections différentes pour chacun des moniteurs, en fonction de l'angle sous lequel ils sont positionnés.

En utilisant une carte vidéo sur une puce à architecture Pascal, cela peut être réalisé en une seule passe géométrique, en spécifiant trois projections différentes, chacune pour son propre moniteur. Et l'utilisateur pourra ainsi modifier l'angle selon lequel les moniteurs sont situés les uns par rapport aux autres, non seulement physiquement, mais aussi virtuellement - en faisant pivoter les projections des moniteurs latéraux pour obtenir la perspective correcte dans la scène 3D avec un angle de vision sensiblement plus large. (FOV). Cependant, il existe une limitation ici : pour une telle prise en charge, l'application doit être capable de restituer la scène avec un champ de vision large et d'utiliser des appels API SMP spéciaux pour la définir. Autrement dit, vous ne pouvez pas faire cela dans tous les jeux, vous avez besoin d'un soutien spécial.

Quoi qu’il en soit, l’époque d’une seule projection sur un seul moniteur à écran plat est révolue, avec de nombreuses configurations multi-moniteurs et écrans incurvés désormais disponibles qui peuvent également utiliser cette technologie. Sans parler des systèmes de réalité virtuelle qui utilisent des lentilles spéciales entre les écrans et les yeux de l'utilisateur, qui nécessitent de nouvelles techniques pour projeter une image 3D dans une image 2D. Beaucoup de ces technologies et techniques en sont encore aux premiers stades de développement, l’essentiel étant que les GPU plus anciens ne peuvent pas utiliser efficacement plus d’une vue plane. Ils nécessitent plusieurs passes de rendu, des traitements répétés de la même géométrie, etc.

Les puces de l'architecture Maxwell avaient une prise en charge limitée de la multi-résolution pour contribuer à améliorer l'efficacité, mais le SMP de Pascal peut faire bien plus. Maxwell pouvait faire pivoter la projection de 90 degrés pour le mappage de cubes ou différentes résolutions de projection, mais cela n'était utile que dans des applications limitées telles que VXGI.

D'autres possibilités d'utilisation de SMP incluent le rendu multi-résolution et le rendu stéréo en un seul passage. Par exemple, Multi-Res Shading peut être utilisé dans les jeux pour optimiser les performances. Lorsqu'elle est appliquée, une résolution plus élevée est utilisée au centre du cadre, et à la périphérie elle est réduite pour obtenir une vitesse de rendu plus élevée.

Le rendu stéréo en un seul passage est utilisé en VR, déjà ajouté au package VRWorks, et utilise des capacités multi-projection pour réduire la quantité de travail géométrique requis dans le rendu VR. Lorsque cette fonctionnalité est utilisée, le GPU GeForce GTX 1080 ne traite la géométrie de la scène qu'une seule fois, générant deux projections pour chaque œil à la fois, ce qui réduit de moitié la charge géométrique sur le GPU et réduit également les pertes liées au fonctionnement du pilote et du système d'exploitation.

Une méthode encore plus avancée pour augmenter l'efficacité du rendu VR est le Lens Matched Shading, qui utilise plusieurs projections pour simuler les distorsions géométriques requises dans le rendu VR. Cette méthode utilise la multiprojection pour restituer une scène 3D sur une surface qui se rapproche du rendu corrigé par l'objectif pour la sortie du casque VR, évitant ainsi de dessiner beaucoup de pixels supplémentaires sur la périphérie qui seront supprimés. Le moyen le plus simple de comprendre l'essence de la méthode est à partir de l'illustration - quatre projections légèrement élargies sont utilisées devant chaque œil (sur Pascal, vous pouvez utiliser 16 projections pour chaque œil - pour une imitation plus précise d'une lentille incurvée) au lieu de un:

Cette approche peut permettre d'économiser considérablement sur les performances. Ainsi, une image Oculus Rift typique pour chaque œil est de 1,1 mégapixels. Mais en raison de la différence dans les projections, une image source de 2,1 mégapixels est utilisée pour le restituer – 86 % plus grande que nécessaire ! L'utilisation de la multiprojection, implémentée dans l'architecture Pascal, vous permet de réduire la résolution de l'image rendue à 1,4 mégapixels, réalisant une économie d'une fois et demie en vitesse de traitement des pixels, et économise également la bande passante mémoire.

Et en plus d'une double économie de vitesse de traitement géométrique grâce au rendu stéréo en un seul passage, la carte graphique GeForce GTX 1080 est capable de fournir une augmentation significative des performances de rendu VR, très exigeantes en termes de vitesse de traitement géométrique, et même plus donc dans le traitement des pixels.

Améliorations de la sortie vidéo et des unités de traitement

Outre les performances et les nouvelles fonctionnalités associées au rendu 3D, il est nécessaire de maintenir un bon niveau de capacités de sortie d'image, ainsi que de décodage et d'encodage vidéo. Et le premier GPU à architecture Pascal n'a pas déçu : il prend en charge toutes les normes modernes en ce sens, y compris le décodage matériel du format HEVC, nécessaire pour regarder des vidéos 4K sur un PC. De plus, les futurs propriétaires de cartes vidéo GeForce GTX 1080 pourront bientôt profiter du streaming vidéo 4K de Netflix et d'autres fournisseurs sur leurs systèmes.

En termes de sortie d'affichage, la GeForce GTX 1080 prend en charge HDMI 2.0b avec HDCP 2.2, ainsi que DisplayPort. Jusqu'à présent, la version DP 1.2 a été certifiée, mais le GPU est prêt à être certifié pour les versions les plus récentes de la norme : DP 1.3 Ready et DP 1.4 Ready. Ce dernier permet aux écrans 4K d'être émis à un taux de rafraîchissement de 120 Hz et aux écrans 5K et 8K de fonctionner à 60 Hz à l'aide d'une paire de câbles DisplayPort 1.3. Si pour la GTX 980, la résolution maximale prise en charge était de 5 120 x 3 200 à 60 Hz, alors pour le nouveau modèle GTX 1080, elle est passée à 7 680 x 4 320 à la même 60 Hz. La GeForce GTX 1080 de référence dispose de trois sorties DisplayPort, une HDMI 2.0b et une numérique Dual-Link DVI.

Le nouveau modèle de carte vidéo Nvidia a également reçu une unité améliorée de décodage et d'encodage des données vidéo. Ainsi, la puce GP104 répond aux normes élevées de PlayReady 3.0 (SL3000) pour la lecture en streaming vidéo, vous permettant d'être sûr que la lecture de contenu de haute qualité provenant de fournisseurs réputés tels que Netflix sera aussi qualitative et économe en énergie que possible. Des détails sur la prise en charge de différents formats vidéo lors de l'encodage et du décodage sont donnés dans le tableau ; le nouveau produit se distingue clairement des solutions précédentes pour le mieux :

Mais une nouveauté encore plus intéressante est la prise en charge des écrans dits High Dynamic Range (HDR), qui sont sur le point de se généraliser sur le marché. Les téléviseurs se vendent déjà en 2016 (et quatre millions de téléviseurs HDR devraient être vendus en un an seulement), et les moniteurs l'année prochaine. Le HDR constitue la plus grande avancée technologique en matière d'affichage depuis des années. Le format offre deux fois plus de tons de couleurs (75 % du spectre visible, contre 33 % pour le RVB), des écrans plus lumineux (1 000 nits) avec un contraste plus élevé (10 000:1) et couleurs riches.

L'émergence de la possibilité de reproduire du contenu avec une plus grande différence de luminosité et des couleurs plus riches et plus saturées rapprochera l'image à l'écran de la réalité, les noirs deviendront plus profonds et la lumière vive sera aveuglante, comme dans le monde réel. En conséquence, les utilisateurs verront plus de détails dans les zones claires et sombres des images par rapport aux moniteurs et téléviseurs standards.

Pour prendre en charge les écrans HDR, la GeForce GTX 1080 a tout ce dont vous avez besoin : la possibilité de produire des couleurs 12 bits, la prise en charge des normes BT.2020 et SMPTE 2084, ainsi qu'une sortie conforme au HDMI 2.0b 10/12 bits. standard pour le HDR en résolution 4K, ce qui était également le cas de Maxwell. De plus, Pascal prend désormais en charge le décodage du format HEVC en résolution 4K à 60 Hz et couleur 10 ou 12 bits, utilisé pour la vidéo HDR, ainsi que l'encodage du même format avec les mêmes paramètres, mais uniquement en 10. -bit pour l'enregistrement ou le streaming vidéo HDR. Le nouveau produit est également prêt à standardiser DisplayPort 1.4 pour transmettre des données HDR via ce connecteur.

À propos, l'encodage vidéo HDR pourrait être nécessaire à l'avenir pour transférer ces données d'un PC domestique vers une console de jeu SHIELD capable de lire le HEVC 10 bits. C'est-à-dire que l'utilisateur pourra diffuser le jeu depuis un PC au format HDR. Attendez, où puis-je trouver des jeux avec un tel support ? Nvidia travaille continuellement avec les développeurs de jeux pour mettre en œuvre cette prise en charge, en leur fournissant tout ce dont ils ont besoin (prise en charge des pilotes, exemples de code, etc.) pour restituer correctement les images HDR compatibles avec les écrans existants.

Au moment de la sortie de la carte vidéo, la GeForce GTX 1080, des jeux tels que Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle et Shadow Warrior 2 prennent en charge la sortie HDR. Mais dans un avenir proche, cette liste devrait être reconstitué.

Modifications apportées au rendu multi-puces SLI

Il y a également eu quelques changements liés à la technologie propriétaire de rendu multi-puces SLI, même si personne ne s'y attendait. Le SLI est utilisé par les passionnés de jeux sur PC pour pousser les performances soit à des niveaux extrêmes en associant en tandem de puissantes cartes vidéo monopuces, soit pour atteindre des fréquences d'images très élevées en se limitant à quelques solutions de milieu de gamme qui sont parfois moins chères qu'une solution haut de gamme. -fin ( La décision est controversée, mais ils le font ainsi). Avec les moniteurs 4K, les joueurs n'ont presque pas d'autres options que l'installation de quelques cartes vidéo, car même les modèles haut de gamme ne peuvent souvent pas offrir un jeu confortable avec des réglages maximum dans de telles conditions.

L'un des composants importants de Nvidia SLI sont les ponts qui connectent les cartes vidéo dans un sous-système vidéo commun et servent à organiser un canal numérique pour le transfert de données entre elles. Les cartes vidéo GeForce comportaient traditionnellement deux connecteurs SLI, qui servaient à connecter deux ou quatre cartes vidéo dans des configurations SLI à 3 et 4 voies. Chacune des cartes vidéo devait se connecter à chacune, puisque tous les GPU envoyaient les images qu'ils restituaient au GPU principal, c'est pourquoi deux interfaces étaient nécessaires sur chacune des cartes.

À partir de la GeForce GTX 1080, toutes les cartes graphiques Nvidia basées sur l'architecture Pascal relient deux interfaces SLI entre elles pour améliorer les performances de transfert entre GPU, et ce nouveau mode SLI dual-link améliore les performances et l'expérience visuelle sur les écrans à très haute résolution. systèmes multi-moniteurs.

Ce mode nécessitait également de nouveaux ponts, appelés SLI HB. Ils combinent une paire de cartes vidéo GeForce GTX 1080 sur deux canaux SLI à la fois, bien que les nouvelles cartes vidéo soient également compatibles avec les anciens ponts. Pour des résolutions de 1920×1080 et 2560×1440 pixels à un taux de rafraîchissement de 60 Hz, vous pouvez utiliser des ponts standards, mais dans des modes plus exigeants (systèmes 4K, 5K et multi-moniteurs), seuls les nouveaux ponts fourniront les meilleurs résultats en en termes de douceur du cadre, bien que les anciens fonctionnent, mais un peu pire.

De plus, lors de l'utilisation de ponts SLI HB, l'interface de transfert de données GeForce GTX 1080 fonctionne à 650 MHz, contre 400 MHz pour les ponts SLI conventionnels sur les GPU plus anciens. De plus, pour certains des anciens ponts rigides, une fréquence de transmission de données plus élevée est également disponible avec les puces vidéo à architecture Pascal. Avec une augmentation du taux de transfert de données entre les GPU via une double interface SLI avec une fréquence de fonctionnement accrue, une sortie d'image plus fluide à l'écran est assurée par rapport aux solutions précédentes :

Il convient également de noter que la prise en charge du rendu multi-puces dans DirectX 12 est quelque peu différente de ce qui était habituel auparavant. Dans la dernière version de l'API graphique, Microsoft a apporté de nombreuses modifications liées au fonctionnement de tels systèmes vidéo. Pour les développeurs de logiciels, DX12 propose deux options pour utiliser plusieurs GPU : les modes Multi Display Adapter (MDA) et Linked Display Adapter (LDA).

De plus, le mode LDA a deux formes : LDA implicite (que Nvidia utilise pour le SLI) et LDA explicite (lorsque le développeur du jeu se charge de gérer le rendu multi-puces. Les modes MDA et LDA explicite ont été introduits dans DirectX 12 afin pour donner aux développeurs de jeux plus de liberté et d'opportunités lors de l'utilisation de systèmes vidéo multi-puces. La différence entre les modes est clairement visible dans le tableau suivant :

En mode LDA, la mémoire de chaque GPU peut être liée à la mémoire d'un autre et affichée comme un volume total important, bien entendu, avec toutes les limitations de performances lorsque les données sont extraites de la mémoire « étrangère ». En mode MDA, la mémoire de chaque GPU fonctionne séparément et différents GPU ne peuvent pas accéder directement aux données de la mémoire d'un autre GPU. Le mode LDA est conçu pour les systèmes multipuces aux performances similaires, tandis que le mode MDA a moins de restrictions et peut fonctionner ensemble entre des GPU discrets et intégrés ou des solutions discrètes avec des puces de différents fabricants. Mais ce mode nécessite également plus de réflexion et de travail de la part des développeurs lors de la programmation pour travailler ensemble afin que les GPU puissent communiquer entre eux.

Par défaut, un système SLI basé sur des cartes GeForce GTX 1080 ne prend en charge que deux GPU, et les configurations à trois et quatre puces ne sont pas officiellement recommandées, car dans les jeux modernes, il devient de plus en plus difficile d'obtenir des gains de performances en ajoutant un troisième et quatrième GPU. Par exemple, de nombreux jeux s'appuient sur les capacités du processeur central du système pour faire fonctionner des systèmes vidéo multi-puces ; les nouveaux jeux utilisent également de plus en plus de techniques temporelles qui utilisent les données des images précédentes, dans lesquelles le fonctionnement efficace de plusieurs GPU à la fois est tout simplement impossible.

Cependant, le fonctionnement de systèmes dans d'autres systèmes multipuces (non SLI) reste possible, comme les modes explicites MDA ou LDA dans DirectX 12 ou un système SLI à double puce avec un troisième GPU dédié aux effets physiques PhysX. Qu’en est-il des records dans les benchmarks : Nvidia les abandonne-t-il vraiment complètement ? Non, bien sûr, mais comme de tels systèmes sont demandés dans le monde par presque quelques utilisateurs, ils ont mis au point pour ces ultra-enthousiastes une clé Enthusiast spéciale, qui peut être téléchargée sur le site Web de Nvidia et débloquer cette fonctionnalité. Pour ce faire, vous devez d'abord obtenir un identifiant GPU unique en exécutant une application spéciale, puis demander la clé Enthusiast sur le site Web et, après l'avoir téléchargée, installer la clé dans le système, déverrouillant ainsi les configurations SLI 3-Way et 4-Way. .

Technologie de synchronisation rapide

Certains changements ont eu lieu dans les technologies de synchronisation lors de l'affichage des informations. Pour l’avenir, rien de nouveau n’est apparu dans G-Sync et la technologie Adaptive Sync n’est pas non plus prise en charge. Mais Nvidia a décidé d'améliorer la fluidité de la sortie et de la synchronisation pour les jeux qui affichent des performances très élevées lorsque la fréquence d'images est sensiblement supérieure à la fréquence de rafraîchissement du moniteur. Ceci est particulièrement important pour les jeux qui nécessitent une latence minimale et une réponse rapide et qui hébergent des batailles et des compétitions multijoueurs.

Fast Sync est une nouvelle alternative à la synchronisation verticale qui ne présente pas d'artefacts visuels tels que le déchirement d'image et n'est pas liée à un taux de rafraîchissement fixe, ce qui augmente la latence. Quel est le problème avec Vsync dans des jeux comme Counter-Strike : Global Offensive ? Ce jeu fonctionne à plusieurs centaines d'images par seconde sur de puissants GPU modernes, et le joueur a le choix d'activer ou non la synchronisation V.

Dans les jeux multijoueurs, les utilisateurs s'efforcent le plus souvent d'obtenir une latence minimale et désactivent VSync, ce qui entraîne une déchirure clairement visible de l'image, ce qui est extrêmement désagréable même à des fréquences d'images élevées. Si vous activez la synchronisation verticale, le joueur connaîtra une augmentation significative des délais entre ses actions et l'image à l'écran lorsque le pipeline graphique ralentira au taux de rafraîchissement du moniteur.

C'est ainsi que fonctionne un convoyeur traditionnel. Mais Nvidia a décidé de séparer le processus de rendu et d'affichage des images à l'écran grâce à la technologie Fast Sync. Cela permet à la partie du GPU qui restitue les images de continuer à fonctionner aussi efficacement que possible à pleine vitesse, en stockant ces images dans un tampon temporaire spécial, le Last Rendered Buffer.

Cette méthode vous permet de modifier la façon dont vous affichez l'écran et de tirer le meilleur parti des modes VSync On et VSync Off, obtenant ainsi une faible latence mais aucun artefact d'image. Avec Fast Sync, il n'y a pas de contrôle de flux d'images, le moteur de jeu fonctionne en mode synchronisation désactivée et il n'est pas demandé d'attendre pour rendre le suivant, donc les latences sont presque aussi faibles qu'avec le mode VSync Off. Mais comme Fast Sync sélectionne indépendamment un tampon pour la sortie à l'écran et affiche l'intégralité de l'image, il n'y a pas de saut d'image.

Fast Sync utilise trois tampons différents, dont les deux premiers fonctionnent de la même manière que le double tampon dans un pipeline classique. Le tampon principal (Front Buffer - FB) est le tampon à partir duquel les informations sont affichées à l'écran, une image entièrement rendue. Le buffer secondaire (Back Buffer - BB) est un buffer qui reçoit des informations lors du rendu.

Lors de l'utilisation de la synchronisation verticale à des fréquences d'images élevées, le jeu attend que l'intervalle de rafraîchissement soit atteint pour échanger le tampon principal avec le tampon secondaire afin d'afficher l'intégralité de l'image à l'écran. Cela ralentit le processus et l'ajout de tampons supplémentaires comme le triple tampon traditionnel ne fera qu'ajouter au délai.

Avec Fast Sync, un troisième tampon est ajouté, le Last Rendered Buffer (LRB), qui sert à stocker toutes les images qui viennent d'être rendues dans le tampon secondaire. Le nom du tampon parle de lui-même : il contient une copie de la dernière image entièrement rendue. Et lorsque vient le temps de mettre à jour le tampon primaire, ce tampon LRB est copié vers le primaire dans son ensemble, et non par parties, comme depuis le secondaire lorsque la synchronisation verticale est désactivée. Étant donné que la copie des informations à partir des tampons est inefficace, elles sont simplement échangées (ou renommées, comme cela sera plus pratique à comprendre), et la nouvelle logique d'échange de tampons, apparue dans GP104, gère ce processus.

En pratique, l'activation de la nouvelle méthode de synchronisation Fast Sync offre toujours un délai légèrement plus élevé que la désactivation complète de la synchronisation verticale - en moyenne 8 ms de plus, mais elle affiche les images sur le moniteur dans leur intégralité, sans artefacts désagréables sur l'écran qui déchirent l'image. image. La nouvelle méthode peut être activée à partir des paramètres graphiques du panneau de configuration Nvidia dans la section Contrôle Vsync. Cependant, la valeur par défaut reste le contrôle des applications, et il n'est tout simplement pas nécessaire d'activer Fast Sync dans toutes les applications 3D ; il est préférable de choisir cette méthode spécifiquement pour les jeux à FPS élevés.

Technologies de réalité virtuelle Nvidia VRWorks

Nous avons abordé plus d'une fois le sujet brûlant de la réalité virtuelle dans l'article, mais nous avons surtout parlé de l'augmentation des fréquences d'images et de la garantie d'une faible latence, qui sont très importantes pour la réalité virtuelle. Tout cela est très important et des progrès sont effectivement réalisés, mais jusqu’à présent, les jeux VR ne semblent pas aussi impressionnants que le meilleur des jeux 3D modernes « classiques ». Cela se produit non seulement parce que les principaux développeurs de jeux ne sont pas encore particulièrement impliqués dans les applications VR, mais aussi parce que la VR est plus exigeante en termes de fréquence d'images, ce qui empêche l'utilisation de nombreuses techniques habituelles dans de tels jeux en raison de leurs exigences élevées.

Afin de réduire la différence de qualité entre les jeux VR et les jeux classiques, Nvidia a décidé de publier tout un ensemble de technologies VRWorks pertinentes, qui comprenaient un grand nombre d'API, de bibliothèques, de moteurs et de technologies capables d'améliorer considérablement à la fois la qualité et les performances de Jeux VR.applications. Quel rapport avec l'annonce de la première solution de jeu basée sur Pascal ? C'est très simple : certaines technologies y ont été introduites pour contribuer à augmenter la productivité et à améliorer la qualité, et nous en avons déjà parlé.

Et bien que la question ne concerne pas seulement le graphisme, nous en parlerons d’abord un peu. L'ensemble des technologies VRWorks Graphics comprend les technologies mentionnées précédemment, telles que Lens Matched Shading, qui utilise la fonction multi-projection apparue dans la GeForce GTX 1080. Le nouveau produit vous permet d'obtenir une augmentation des performances de 1,5 à 2 fois par rapport aux solutions. qui ne bénéficient pas d'un tel soutien. Nous avons également évoqué d'autres technologies, comme MultiRes Shading, conçues pour un rendu avec différentes résolutions au centre du cadre et à sa périphérie.

Mais bien plus inattendue a été l'annonce de la technologie VRWorks Audio, conçue pour le traitement de haute qualité des données audio dans les scènes 3D, ce qui est particulièrement important dans les systèmes de réalité virtuelle. Dans les moteurs conventionnels, le positionnement des sources sonores dans un environnement virtuel est calculé assez correctement : si l'ennemi tire à droite, le son est plus fort de ce côté du système audio, et un tel calcul n'exige pas trop de puissance de calcul. .

Mais en réalité, les sons ne vont pas seulement vers le joueur, mais dans toutes les directions et sont réfléchis par divers matériaux, de la même manière que les rayons lumineux sont réfléchis. Et en réalité, nous entendons ces réflexions, mais pas aussi clairement que les ondes sonores directes. Ces réflexions indirectes du son sont généralement simulées par des effets de réverbération spéciaux, mais il s'agit d'une approche très primitive de la tâche.

VRWorks Audio utilise un rendu d'ondes sonores similaire au lancer de rayons dans le rendu, où le chemin des rayons lumineux est tracé jusqu'à plusieurs réflexions d'objets dans une scène virtuelle. VRWorks Audio simule également la propagation des ondes sonores dans l'environnement en suivant les ondes directes et réfléchies en fonction de leur angle d'incidence et des propriétés des matériaux réfléchissants. Dans son travail, VRWorks Audio utilise le moteur Nvidia OptiX hautes performances, connu pour ses tâches graphiques, conçu pour le lancer de rayons. OptiX peut être utilisé pour diverses tâches, telles que le calcul de l'éclairage indirect et la préparation de cartes de lumière, et désormais pour le traçage des ondes sonores dans VRWorks Audio.

Nvidia a intégré des calculs précis d'ondes sonores dans sa démo VR Funhouse, qui utilise plusieurs milliers de faisceaux et calcule jusqu'à 12 réflexions d'objets. Et afin de comprendre les avantages de la technologie à l'aide d'un exemple clair, nous vous invitons à regarder une vidéo sur le fonctionnement de la technologie en russe :

Il est important que l’approche de Nvidia diffère des moteurs sonores traditionnels, notamment par l’accélération matérielle utilisant un bloc spécial dans la méthode GPU de son principal concurrent. Toutes ces méthodes fournissent uniquement un positionnement précis des sources sonores, mais ne calculent pas la réflexion des ondes sonores des objets dans une scène 3D, bien qu'elles puissent simuler cela en utilisant l'effet de réverbération. Néanmoins, l'utilisation de la technologie de lancer de rayons peut être beaucoup plus réaliste, puisque seule cette approche fournira une simulation précise de divers sons, en tenant compte de la taille, de la forme et des matériaux des objets de la scène. Il est difficile de dire si une telle précision de calcul est requise pour un joueur typique, mais une chose est sûre : en VR, elle peut ajouter aux utilisateurs ce réalisme qui fait encore défaut dans les jeux classiques.

Eh bien, il ne nous reste plus qu'à parler de la technologie VR SLI, qui fonctionne à la fois sous OpenGL et DirectX. Son principe est extrêmement simple : un système vidéo à double processeur dans une application VR fonctionnera de telle manière que chaque œil se verra attribuer un GPU séparé, contrairement au rendu AFR, courant pour les configurations SLI. Cela améliore considérablement les performances globales, si importantes pour les systèmes de réalité virtuelle. Théoriquement, davantage de GPU peuvent être utilisés, mais leur nombre doit être pair.

Cette approche était nécessaire car l'AFR n'est pas bien adapté à la réalité virtuelle, car avec son aide, le premier GPU dessinera une image paire pour les deux yeux, et le second une image impaire, ce qui ne réduira pas la latence, essentielle pour les systèmes de réalité virtuelle. . Bien que la fréquence d'images soit assez élevée. Ainsi, avec VR SLI, le travail sur chaque image est divisé en deux GPU - l'un travaille sur une partie de l'image pour l'œil gauche, le second - pour le droit, puis ces moitiés de l'image sont combinées en un tout.

Cette division du travail entre une paire de GPU entraîne des gains de performances près de 2x, permettant des fréquences d'images plus élevées et une latence plus faible que les systèmes à GPU unique. Cependant, l'utilisation de VR SLI nécessite une prise en charge spéciale de la part de l'application pour utiliser cette méthode de mise à l'échelle. Mais la technologie VR SLI est déjà intégrée à des applications de démonstration VR telles que The Lab de Valve et Trials on Tatooine d'ILMxLAB, et ce n'est que le début - Nvidia promet que d'autres applications apparaîtront bientôt, ainsi que la mise en œuvre de la technologie dans les moteurs de jeu Unreal Engine 4. , Unity et MaxPlay.

Plateforme de capture d'écran de jeu Ansel

L'une des annonces les plus intéressantes liées aux logiciels a été la sortie d'une technologie permettant de capturer des captures d'écran de haute qualité dans les applications de jeux, du nom d'un célèbre photographe - Ansel. Les jeux sont depuis longtemps devenus non seulement des jeux, mais aussi un lieu d'utilisation de mains ludiques pour diverses personnes créatives. Certaines personnes modifient les scripts des jeux, d'autres publient des ensembles de textures de haute qualité pour les jeux et certaines prennent de belles captures d'écran.

Nvidia a décidé d'aider ce dernier en introduisant une nouvelle plate-forme permettant de créer (et de créer, car ce n'est pas un processus si simple) des images de haute qualité à partir de jeux. Ils pensent qu’Ansel peut contribuer à créer un nouveau type d’art contemporain. Après tout, il existe déjà de nombreux artistes qui passent la majeure partie de leur vie sur un PC, créant de belles captures d'écran à partir de jeux, et ils ne disposaient toujours pas d'un outil pratique pour cela.

Ansel vous permet non seulement de capturer une image dans un jeu, mais aussi de la modifier selon les besoins du créateur. Grâce à cette technologie, vous pouvez déplacer la caméra autour de la scène, la faire pivoter et l'incliner dans n'importe quelle direction afin d'obtenir la composition souhaitée du cadre. Par exemple, dans des jeux comme les jeux de tir à la première personne, vous ne pouvez déplacer que le joueur, vous ne pouvez rien changer d'autre, donc toutes les captures d'écran s'avèrent assez monotones. Avec une caméra gratuite dans Ansel, vous pouvez aller bien au-delà des limites de la caméra de jeu, en choisissant l'angle nécessaire pour une photo réussie, ou même capturer une image stéréo complète à 360 degrés à partir du point souhaité, et en haute résolution pour visualisation ultérieure dans un casque VR.

Ansel fonctionne assez simplement : en utilisant une bibliothèque spéciale de Nvidia, cette plate-forme est implémentée dans le code du jeu. Pour ce faire, son développeur n'a qu'à ajouter un petit bout de code à son projet pour permettre au pilote vidéo Nvidia d'intercepter les données du buffer et du shader. Il y a très peu de travail impliqué ; l’implémentation d’Ansel dans le jeu nécessite moins d’une journée. Ainsi, l'activation de cette fonctionnalité dans The Witness a nécessité environ 40 lignes de code, et dans The Witcher 3, environ 150 lignes de code.

Ansel sera livré avec un SDK open source. L'essentiel est que l'utilisateur reçoive avec lui un ensemble standard de paramètres, lui permettant de modifier la position et l'angle de la caméra, d'ajouter des effets, etc. La plateforme Ansel fonctionne comme ceci : elle met le jeu en pause, allume la caméra gratuite et vous permet de changer le cadre selon la vue souhaitée, en enregistrant le résultat sous la forme d'une capture d'écran ordinaire, d'une image à 360 degrés, d'une paire stéréo ou simplement d'un panorama à grande résolution.

Le seul bémol est que tous les jeux ne prendront pas en charge toutes les fonctionnalités de la plateforme de capture d'écran de jeux Ansel. Certains développeurs de jeux, pour une raison ou une autre, ne souhaitent pas activer une caméra totalement gratuite dans leurs jeux - par exemple, en raison de la possibilité que des tricheurs utilisent cette fonctionnalité. Ou bien ils veulent limiter le changement d’angle de vue pour la même raison – afin que personne ne bénéficie d’un avantage injuste. Eh bien, ou pour que les utilisateurs ne voient pas les pauvres sprites en arrière-plan. Ce sont tous des désirs tout à fait normaux des créateurs de jeux.

L'une des fonctionnalités les plus intéressantes d'Ansel est la création de captures d'écran d'une résolution tout simplement énorme. Peu importe que le jeu prenne en charge des résolutions allant jusqu'à 4K, par exemple, et que le moniteur de l'utilisateur soit en Full HD. En utilisant la plate-forme de capture d'écran, vous pouvez capturer une image de bien meilleure qualité, plutôt limitée par la capacité et les performances du lecteur. La plate-forme capture facilement des captures d'écran avec une résolution allant jusqu'à 4,5 gigapixels, en les assemblant à partir de 3 600 pièces !

Il est clair que sur de telles images, vous pouvez voir tous les détails, jusqu'au texte des journaux au loin, si un tel niveau de détail est en principe prévu dans le jeu - Ansel peut également contrôler le niveau de détail, régler le niveau maximum pour obtenir la meilleure qualité d’image. Mais vous pouvez également activer le suréchantillonnage. Tout cela vous permet de créer des images à partir de jeux que vous pouvez imprimer en toute sécurité sur de grandes bannières et avoir confiance en leur qualité.

Fait intéressant, un code spécial accéléré par le matériel basé sur CUDA est utilisé pour assembler de grandes images. Après tout, aucune carte vidéo ne peut restituer une image de plusieurs gigapixels dans son ensemble, mais elle peut le faire en morceaux, qui doivent simplement être combinés plus tard, en tenant compte des éventuelles différences d'éclairage, de couleur, etc.

Après avoir assemblé de tels panoramas, un post-traitement spécial est utilisé pour l'ensemble du cadre, également accéléré sur le GPU. Et pour capturer des images avec une plage dynamique accrue, vous pouvez utiliser un format d'image spécial - EXR, un standard ouvert d'Industrial Light and Magic, dont les valeurs de couleur sont enregistrées au format à virgule flottante 16 bits (FP16) dans chaque canal.

Ce format permet de modifier la luminosité et la plage dynamique de l'image par post-traitement, en l'amenant au niveau souhaité pour chaque affichage spécifique, de la même manière qu'on le fait avec les formats RAW des appareils photo. Et pour l'utilisation ultérieure de filtres de post-traitement dans les programmes de traitement d'images, ce format est très utile, car il contient beaucoup plus de données que les formats d'image classiques.

Mais la plateforme Ansel elle-même contient de nombreux filtres de post-traitement, ce qui est particulièrement important car elle a accès non seulement à l'image finale, mais aussi à tous les tampons utilisés par le jeu lors du rendu, qui peuvent être utilisés pour des effets très intéressants. , comme la profondeur de champ. Ansel dispose d'une API de post-traitement spéciale pour cela, et n'importe lequel des effets peut être inclus dans un jeu prenant en charge cette plate-forme.

Les post-filtres Ansel incluent les filtres suivants : courbes de couleur, espace colorimétrique, transformation, désaturation, luminosité/contraste, grain de film, floraison, reflets d'objectif, éblouissement anamorphique, distorsion, brume de chaleur, fisheye, aberration de couleur, mappage de tons, saleté de l'objectif, puits de lumière, vignette, correction gamma, convolution, netteté, détection des contours, flou, sépia, débruitage, FXAA et autres.

Quant à l'apparition du support Ansel dans les jeux, il faudra attendre un peu que les développeurs l'implémentent et le testent. Mais Nvidia promet l'apparition imminente d'un tel support dans des jeux aussi célèbres que The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament et autres.

Le nouveau processus technologique FinFET 16 nm et l'optimisation de l'architecture ont permis à la carte vidéo GeForce GTX 1080, basée sur le processeur graphique GP104, d'atteindre une fréquence d'horloge élevée de 1,6-1,7 GHz même sous la forme de référence, et la nouvelle génération garantit un fonctionnement à la fréquences les plus élevées possibles dans la technologie GPU Boost des jeux. Associées à l'augmentation du nombre d'unités d'exécution, ces améliorations ont fait de ce nouveau produit non seulement la carte vidéo monopuce la plus performante de tous les temps, mais également la solution la plus économe en énergie du marché.

Le modèle GeForce GTX 1080 est devenu la première carte vidéo à embarquer un nouveau type de mémoire graphique GDDR5X - une nouvelle génération de puces à haute vitesse qui permettaient d'atteindre des taux de transfert de données très élevés. Dans le cas de la modification GeForce GTX 1080, ce type de mémoire fonctionne à une fréquence effective de 10 GHz. Combiné avec des algorithmes de compression d'informations améliorés dans le framebuffer, cela a conduit à une augmentation de la bande passante mémoire effective de ce processeur graphique de 1,7 fois par rapport à son prédécesseur direct, la GeForce GTX 980.

Nvidia a judicieusement décidé de ne pas lancer une architecture radicalement nouvelle sur un processus technologique complètement nouveau, afin de ne pas rencontrer de problèmes inutiles lors du développement et de la production. Au lieu de cela, ils ont sérieusement amélioré l'architecture Maxwell, déjà bonne et très efficace, en ajoutant quelques fonctionnalités. En conséquence, tout va bien avec la production de nouveaux GPU, et dans le cas du modèle GeForce GTX 1080, les ingénieurs ont atteint un potentiel de fréquence très élevé - dans les versions overclockées des partenaires, les fréquences GPU sont attendues jusqu'à 2 GHz ! Une fréquence aussi impressionnante est devenue possible grâce au processus technique parfait et au travail minutieux des ingénieurs de Nvidia lors du développement du GPU Pascal.

Et bien que Pascal soit devenu un successeur direct de Maxwell et que ces architectures graphiques ne soient pas fondamentalement très différentes les unes des autres, Nvidia a introduit de nombreux changements et améliorations, notamment la possibilité d'afficher des images sur des écrans, le moteur d'encodage et de décodage vidéo et un système asynchrone amélioré. exécution de différents types de calculs sur le GPU, modification du rendu multi-puces et introduction d'une nouvelle méthode de synchronisation, Fast Sync.

Il est impossible de ne pas souligner la technologie multi-projection Simultaneous Multi-Projection, qui permet d'améliorer les performances des systèmes de réalité virtuelle, d'obtenir un affichage plus correct des scènes sur les systèmes multi-moniteurs et d'introduire de nouvelles techniques d'optimisation des performances. Mais les applications VR bénéficieront de la plus grande augmentation de vitesse lorsqu'elles prendront en charge la technologie multi-projection, ce qui permet d'économiser de moitié les ressources GPU lors du traitement des données géométriques et d'une fois et demie lors de l'exécution de calculs pixel par pixel.

Parmi les changements purement logiciels, la plate-forme de création de captures d'écran dans les jeux appelée Ansel se démarque - il sera intéressant de l'essayer non seulement pour ceux qui jouent beaucoup, mais aussi pour ceux qui s'intéressent simplement aux graphismes 3D de haute qualité. Le nouveau produit vous permet de faire progresser l'art de créer et de retoucher des captures d'écran à un nouveau niveau. Eh bien, Nvidia continue simplement d'améliorer étape par étape ses packages destinés aux développeurs de jeux, tels que GameWorks et VRWorks - par exemple, ce dernier possède une fonctionnalité intéressante pour un traitement du son de haute qualité, prenant en compte de nombreuses réflexions d'ondes sonores à l'aide de rayons matériels. tracé.

En général, un véritable leader est entré sur le marché sous la forme de la carte vidéo Nvidia GeForce GTX 1080, possédant toutes les qualités nécessaires pour cela : hautes performances et fonctionnalités étendues, ainsi que prise en charge de nouvelles fonctionnalités et algorithmes. Les premiers acheteurs de cette carte vidéo pourront immédiatement apprécier bon nombre des avantages mentionnés, et d'autres possibilités de la solution seront révélées un peu plus tard, lorsqu'un large support logiciel apparaîtra. L'essentiel est que la GeForce GTX 1080 s'est avérée très rapide et efficace, et nous espérons vraiment que les ingénieurs de Nvidia ont réussi à résoudre certains des problèmes (les mêmes calculs asynchrones).

Accélérateur graphique GeForce GTX 1070

ParamètreSignification
Nom du code de la puceGP104
Technologie de productionFinFET 16 nm
Nombre de transistors7,2 milliards
Zone centrale314 mm²
ArchitectureUnifié, avec une gamme de processeurs communs pour le traitement en flux de nombreux types de données : sommets, pixels, etc.
Prise en charge matérielle DirectXDirectX 12, avec prise en charge du niveau de fonctionnalité 12_1
Bus mémoire256 bits : huit contrôleurs de mémoire 32 bits indépendants prenant en charge la mémoire GDDR5 et GDDR5X
Fréquence du processeur graphique1 506 (1 683) MHz
Blocs de calcul15 multiprocesseurs de streaming actifs (sur 20 dans la puce), dont 1920 (sur 2560) ALU scalaires pour les calculs en virgule flottante dans le cadre de la norme IEEE 754-2008 ;
Blocs de texturation120 unités d'adressage et de filtrage de texture actives (sur 160 sur la puce) avec prise en charge des composants FP16 et FP32 dans les textures et prise en charge du filtrage trilinéaire et anisotrope pour tous les formats de texture
Blocs d'opération raster (ROP)8 blocs ROP larges (64 pixels) avec prise en charge de divers modes d'anti-aliasing, notamment programmables et au format frame buffer FP16 ou FP32. Les blocs se composent d'un ensemble d'ALU configurables et sont responsables de la génération et de la comparaison de profondeur, du multi-échantillonnage et du mélange.
Prise en charge du moniteurPrise en charge intégrée de jusqu'à quatre moniteurs connectés via les interfaces Dual Link DVI, HDMI 2.0b et DisplayPort 1.2 (1.3/1.4 Ready)

Spécifications de la carte vidéo de référence GeForce GTX 1070
ParamètreSignification
Fréquence de base1 506 (1 683) MHz
Nombre de processeurs universels1920
Nombre de blocs de texture120
Nombre de blocs de mélange64
Fréquence de mémoire efficace8 000 (4 × 2 000) MHz
Type de mémoireGDDR5
Bus mémoire256 bits
Mémoire8 Go
Bande passante mémoire256 Go/s
Performances de calcul (FP32)environ 6,5 téraflops
Taux de remplissage maximum théorique96 gigapixels/s
Taux d'échantillonnage de texture théorique181 gigatexels/s
PneuPCI Express 3.0
ConnecteursUn DVI Dual Link, un HDMI et trois DisplayPorts
Consommation d'énergiejusqu'à 150 W
Nourriture supplémentaireUn connecteur à 8 broches
Nombre d'emplacements occupés dans le boîtier système2
Prix ​​conseillé379-449 $ (États-Unis), 34 990 (Russie)

La carte vidéo GeForce GTX 1070 a également reçu un nom logique, similaire à la même solution de la série GeForce précédente. Elle ne diffère de son prédécesseur direct GeForce GTX 970 que par le numéro de génération modifié. Le nouveau produit de la gamme actuelle de l'entreprise est un cran inférieur à la solution haut de gamme actuelle GeForce GTX 1080, qui est devenue le produit phare temporaire de la nouvelle série jusqu'à la sortie de solutions sur des GPU encore plus puissants.

Les prix recommandés pour la nouvelle carte graphique haut de gamme de Nvidia sont respectivement de 379 $ et 449 $ pour les versions partenaires Nvidia régulières et l'édition spéciale Founders. Par rapport au modèle haut de gamme, il s'agit d'un très bon prix étant donné que la GTX 1070 est au pire à environ 25 % derrière elle. Et au moment de l'annonce et de la sortie, la GTX 1070 devient la meilleure solution performante de sa catégorie. Comme la GeForce GTX 1080, la GTX 1070 n'a pas de concurrent direct d'AMD et ne peut être comparée qu'aux Radeon R9 390X et Fury.

Le processeur graphique GP104 de la modification GeForce GTX 1070 a décidé de laisser un bus mémoire complet de 256 bits, bien qu'il n'ait pas utilisé le nouveau type de mémoire GDDR5X, mais le très rapide GDDR5, qui fonctionne à une fréquence effective élevée de 8 GHz. La quantité de mémoire installée sur une carte vidéo avec un tel bus peut être de 4 ou 8 Go, et pour assurer des performances maximales de la nouvelle solution dans des paramètres et des résolutions de rendu élevés, le modèle de carte vidéo GeForce GTX 1070 était également équipé de 8 Go de mémoire vidéo, comme sa sœur aînée. Ce volume est suffisant pour exécuter n'importe quelle application 3D avec des paramètres de qualité maximum pendant plusieurs années.

Édition spéciale GeForce GTX 1070 Founders Edition

Lorsque la GeForce GTX 1080 a été annoncée début mai, une édition spéciale de la carte vidéo appelée Founders Edition a été annoncée, dont le prix était plus élevé que les cartes vidéo classiques des partenaires de la société. Il en va de même pour le nouveau produit. Dans cet article, nous parlerons à nouveau d'une édition spéciale de la carte vidéo GeForce GTX 1070 appelée Founders Edition. Comme pour l'ancien modèle, Nvidia a décidé de sortir cette version de la carte vidéo de référence du constructeur à un prix plus élevé. Ils soutiennent que de nombreux joueurs et passionnés qui achètent des cartes graphiques haut de gamme et coûteuses veulent un produit avec une apparence et une sensation « premium » appropriées.

En conséquence, c'est pour ces utilisateurs que sera lancée sur le marché la carte vidéo GeForce GTX 1070 Founders Edition, conçue et fabriquée par les ingénieurs de Nvidia à partir de matériaux et de composants haut de gamme, tels que le couvercle en aluminium GeForce GTX 1070 Founders Edition. comme plaque arrière à profil bas recouvrant le verso du circuit imprimé et très populaire parmi les passionnés.

Comme vous pouvez le constater sur les photographies de la carte, la GeForce GTX 1070 Founders Edition a hérité exactement du même design industriel inhérent à la référence GeForce GTX 1080 Founders Edition. Les deux modèles utilisent un ventilateur radial qui évacue l'air chauffé vers l'extérieur, ce qui est très utile dans les petits boîtiers et les configurations SLI multi-puces avec un espace physique limité. Souffler de l'air chaud à l'extérieur au lieu de le faire circuler à l'intérieur du boîtier réduit le stress thermique, améliore les résultats d'overclocking et prolonge la durée de vie des composants du système.

Sous le capot du système de refroidissement de référence GeForce GTX 1070 se trouve un radiateur en aluminium de forme spéciale avec trois caloducs en cuivre intégrés qui évacuent la chaleur du GPU lui-même. La chaleur évacuée par les caloducs est ensuite dissipée par un dissipateur thermique en aluminium. Eh bien, la plaque métallique à profil bas à l'arrière de la carte est également conçue pour offrir de meilleures caractéristiques de température. Il dispose également d'une section rétractable pour une meilleure circulation de l'air entre plusieurs cartes graphiques dans les configurations SLI.

Quant au système d'alimentation de la carte, la GeForce GTX 1070 Founders Edition dispose d'un système d'alimentation à quatre phases optimisé pour une alimentation énergétique stable. Nvidia affirme que l'utilisation de composants spéciaux dans la GTX 1070 Founders Edition a amélioré l'efficacité énergétique, la stabilité et la fiabilité par rapport à la GeForce GTX 970, offrant ainsi de meilleures performances d'overclocking. Lors des tests effectués par l'entreprise, les GPU GeForce GTX 1070 dépassaient facilement les 1,9 GHz, ce qui est proche des résultats de l'ancien modèle GTX 1080.

La carte graphique Nvidia GeForce GTX 1070 sera disponible dans les magasins à partir du 10 juin. Les prix conseillés pour la GeForce GTX 1070 Founders Edition et les solutions partenaires diffèrent, et c'est la question la plus importante de cette édition spéciale. Si les partenaires de Nvidia vendent leurs cartes vidéo GeForce GTX 1070 à partir de 379 $ (sur le marché américain), alors l'édition Founders du modèle de référence de Nvidia coûtera 449 $. Existe-t-il de nombreux passionnés prêts à payer trop cher pour, à vrai dire, les avantages douteux de la version de référence ? Le temps nous le dira, mais nous pensons que la carte de référence est plus intéressante en tant qu'option disponible à l'achat au tout début des ventes, et plus tard, le point de l'acheter (et même à un prix plus élevé !) est déjà réduit à zéro.

Il reste à ajouter que le circuit imprimé de la référence GeForce GTX 1070 est similaire à celui de l’ancienne carte vidéo et que tous deux diffèrent du design des cartes précédentes de l’entreprise. La consommation électrique typique du nouveau produit est de 150 W, soit près de 20 % de moins que la valeur de la GTX 1080 et proche de la consommation électrique de la carte vidéo GeForce GTX 970 de la génération précédente. La carte de référence Nvidia dispose d'un ensemble familier de connecteurs pour connecter des périphériques de sortie d'image : un Dual-Link DVI, un HDMI et trois DisplayPort. De plus, les nouvelles versions de HDMI et DisplayPort sont prises en charge, dont nous avons parlé ci-dessus dans la revue du modèle GTX 1080.

Changements architecturaux

La carte vidéo GeForce GTX 1070 est basée sur la puce GP104, le premier-né de la nouvelle génération d'architecture graphique Pascal de Nvidia. Cette architecture est basée sur des solutions développées chez Maxwell, mais elle présente également quelques différences fonctionnelles, dont nous avons parlé en détail ci-dessus - dans la partie dédiée à la carte vidéo haut de gamme GeForce GTX 1080.

Le principal changement dans la nouvelle architecture réside dans le processus technologique par lequel tous les nouveaux GPU seront fabriqués. L'utilisation du processus FinFET 16 nm dans la production du GP104 a permis d'augmenter considérablement la complexité de la puce tout en conservant une surface et un coût relativement faibles, et la première puce à architecture Pascal possède un nombre sensiblement plus grand d'unités d'exécution, y compris celles offrant de nouvelles fonctionnalités, par rapport aux puces Maxwell de positionnement similaire.

La conception de la puce vidéo GP104 est similaire à celle des solutions d'architecture Maxwell similaires, et vous pouvez trouver des informations détaillées sur la conception des GPU modernes dans nos revues des solutions Nvidia précédentes. Comme les GPU précédents, les nouvelles puces d'architecture auront différentes configurations de cluster de traitement graphique (GPC), de multiprocesseur de streaming (SM) et de contrôleurs de mémoire, et la GeForce GTX 1070 a déjà subi quelques modifications - une partie de la puce a été verrouillée et inactive ( surligné en gris) :

Bien que le GPU GP104 comprenne quatre clusters GPC et 20 multiprocesseurs SM, dans la version pour GeForce GTX 1070, il a reçu une modification allégée avec un cluster GPC désactivé par le matériel. Étant donné que chaque cluster GPC dispose d'un moteur de rastérisation dédié et comprend cinq multiprocesseurs SM, et que chaque multiprocesseur est composé de 128 cœurs CUDA et de huit TMU, cette version de GP104 dispose de 1920 cœurs CUDA et 120 TMU actifs sur 2560 processeurs de flux et 160 blocs de texture physiquement disponibles. .

Le GPU sur lequel est basée la GeForce GTX 1070 contient huit contrôleurs de mémoire 32 bits, ce qui donne un bus mémoire total de 256 bits - exactement le même que l'ancien modèle GTX 1080. Le sous-système mémoire n'a pas été réduit afin de fournir suffisamment mémoire à large bande passante à condition d'utiliser la mémoire GDDR5 dans la GeForce GTX 1070. Chacun des contrôleurs de mémoire est associé à huit blocs ROP et 256 Ko de cache de deuxième niveau, donc la puce GP104 dans cette modification contient également 64 blocs ROP et 2048 Ko de niveau de cache de deuxième niveau.

Grâce à des optimisations architecturales et à une nouvelle technologie de processus, le GPU GP104 est le GPU le plus économe en énergie à ce jour. Les ingénieurs de Nvidia ont pu augmenter la vitesse d'horloge plus que prévu lors du passage à une nouvelle technologie de processus, pour laquelle ils ont dû travailler dur pour vérifier et optimiser soigneusement tous les goulots d'étranglement des solutions précédentes qui ne leur permettaient pas de travailler à des fréquences plus élevées. En conséquence, la GeForce GTX 1070 fonctionne également à une fréquence très élevée, supérieure de plus de 40 % à la valeur de référence de la GeForce GTX 970.

Étant donné que le modèle GeForce GTX 1070 est, par essence, une GTX 1080 légèrement moins puissante avec mémoire GDDR5, il prend en charge absolument toutes les technologies que nous avons décrites dans la section précédente. Pour en savoir plus sur l'architecture Pascal, ainsi que sur les technologies qu'elle prend en charge, telles que l'amélioration des unités de sortie et de traitement vidéo, la prise en charge du calcul Async, la technologie Simultaneous Multi-Projection, les modifications apportées au rendu multi-puces SLI et le nouveau type Fast Sync, cela vaut la peine de vérifier avec une section sur GTX 1080.

Mémoire GDDR5 hautes performances et son utilisation efficace

Nous avons parlé ci-dessus des modifications apportées au sous-système de mémoire du processeur graphique GP104, sur lequel sont basées les GeForce GTX 1080 et GTX 1070 - les contrôleurs de mémoire inclus dans ce GPU prennent en charge à la fois le nouveau type de mémoire vidéo GDDR5X, qui est décrit en détail dans le test de la GTX 1080, et et la bonne vieille mémoire GDDR5, que nous connaissons depuis plusieurs années maintenant.

Afin de ne pas perdre trop de bande passante mémoire dans le modèle plus récent de la GTX 1070 par rapport à l'ancienne GTX 1080, les huit contrôleurs de mémoire 32 bits sont actifs, ce qui lui confère une interface de mémoire vidéo commune complète de 256 bits. De plus, la carte vidéo était équipée de la mémoire GDDR5 la plus rapide disponible sur le marché - avec une fréquence de fonctionnement effective de 8 GHz. Tout cela fournissait une bande passante mémoire de 256 Go/s, contre 320 Go/s pour l'ancienne solution - les capacités de calcul étaient également réduites à peu près dans la même mesure, de sorte que l'équilibre était maintenu.

N'oubliez pas que même si le débit théorique maximal est important pour les performances du GPU, vous devez également faire attention à l'efficacité avec laquelle il est utilisé. Au cours du processus de rendu, de nombreux goulots d'étranglement peuvent limiter les performances globales, empêchant ainsi l'utilisation de toute la bande passante disponible. Pour minimiser ces goulots d'étranglement, les GPU utilisent une compression spéciale sans perte pour améliorer l'efficacité des opérations de lecture et d'écriture des données.

L'architecture Pascal a déjà introduit la quatrième génération de compression delta des informations de tampon, permettant au GPU d'utiliser plus efficacement les capacités disponibles du bus mémoire vidéo. Le sous-système de mémoire des GeForce GTX 1070 et GTX 1080 utilise des techniques de compression de données sans perte améliorées, anciennes et nouvelles, conçues pour réduire les besoins en bande passante. Cela réduit la quantité de données écrites en mémoire, améliore l'efficacité du cache L2 et réduit la quantité de données envoyées entre différents points du GPU, tels que le TMU et le framebuffer.

GPU Boost 3.0 et fonctionnalités d'overclocking

La plupart des partenaires Nvidia ont déjà annoncé des solutions overclockées en usine basées sur les GeForce GTX 1080 et GTX 1070. Et de nombreux fabricants de cartes vidéo créent également des utilitaires d'overclocking spéciaux qui vous permettent d'utiliser la nouvelle fonctionnalité de la technologie GPU Boost 3.0. Un exemple de tels utilitaires est EVGA Precision XOC, qui comprend un scanner automatique pour déterminer la courbe tension-fréquence - dans ce mode, pour chaque valeur de tension, en exécutant un test de stabilité, une fréquence stable est trouvée à laquelle le GPU offre des performances accrues. . Cependant, cette courbe peut être modifiée manuellement.

Nous connaissons bien la technologie GPU Boost grâce aux précédentes cartes vidéo Nvidia. Dans leurs GPU, ils utilisent cette fonctionnalité matérielle, conçue pour augmenter la vitesse d'horloge de fonctionnement du GPU dans les modes où il n'a pas encore atteint les limites de consommation d'énergie et de dissipation thermique. Dans les GPU Pascal, cet algorithme a subi plusieurs modifications, dont la principale a été un réglage plus fin des fréquences turbo, en fonction de la tension.

Si auparavant la différence entre la fréquence de base et la fréquence turbo était fixe, alors dans GPU Boost 3.0, il est devenu possible de définir les décalages de fréquence turbo pour chaque tension séparément. Désormais, la fréquence turbo peut être définie pour chacune des valeurs de tension individuelles, ce qui vous permet d'exploiter pleinement toutes les capacités d'overclocking du GPU. Nous avons décrit cette fonctionnalité en détail dans notre revue GeForce GTX 1080, et vous pouvez utiliser les utilitaires EVGA Precision XOC et MSI Afterburner pour ce faire.

Étant donné que certains détails ont changé dans la méthodologie d'overclocking avec la sortie de cartes vidéo prenant en charge GPU Boost 3.0, Nvidia a dû fournir des explications supplémentaires dans les instructions d'overclocking des nouveaux produits. Il existe différentes techniques d'overclocking avec différentes variables qui affectent le résultat final. Une méthode particulière peut être mieux adaptée à chaque système spécifique, mais les bases sont toujours à peu près les mêmes.

De nombreux overclockeurs utilisent le benchmark Unigine Heaven 4.0 pour vérifier la stabilité du système, qui charge parfaitement le GPU, dispose de paramètres flexibles et peut être lancé en mode fenêtré avec une fenêtre d'utilitaire d'overclocking et de surveillance à proximité, comme EVGA Precision ou MSI Afterburner. Cependant, une telle vérification ne suffit que pour les estimations initiales, et pour confirmer fermement la stabilité de l'overclocking, elle doit être vérifiée dans plusieurs applications de jeu, car différents jeux nécessitent des charges différentes sur différents blocs fonctionnels du GPU : mathématiques, textures, géométriques. . Le benchmark Heaven 4.0 est également pratique pour les tâches d'overclocking car il dispose d'un mode de fonctionnement en boucle, dans lequel il est pratique de modifier les paramètres d'overclocking et il existe un benchmark pour évaluer l'augmentation de la vitesse.

Nvidia recommande d'exécuter Heaven 4.0 et EVGA Precision XOC ensemble lors de l'overclocking des nouvelles cartes vidéo GeForce GTX 1080 et GTX 1070. Tout d'abord, il est conseillé d'augmenter immédiatement la vitesse du ventilateur. Et pour un overclocking sérieux, vous pouvez immédiatement régler la valeur de vitesse sur 100 %, ce qui rendra la carte vidéo très bruyante, mais refroidira autant que possible le GPU et les autres composants de la carte vidéo, réduisant ainsi la température au niveau le plus bas possible. , empêchant le throttling (une diminution des fréquences due à une augmentation de la température du GPU au-dessus d'une certaine valeur ).

Ensuite, vous devez également définir la cible de puissance au maximum. Ce paramètre fournira la quantité maximale de puissance au GPU, augmentant ainsi le niveau de consommation d'énergie et la cible de température du GPU. Dans certains cas, la deuxième valeur peut être séparée du changement de puissance cible, puis ces paramètres peuvent être ajustés individuellement - pour réduire l'échauffement de la puce vidéo, par exemple.

L'étape suivante consiste à augmenter la valeur de l'augmentation de la fréquence de la puce vidéo (GPU Clock Offset) - cela signifie de combien la fréquence turbo sera plus élevée pendant le fonctionnement. Cette valeur augmente la fréquence pour toutes les tensions et entraîne de meilleures performances. Comme toujours, lors de l'overclocking, vous devez vérifier la stabilité en augmentant la fréquence du GPU par petites étapes - de 10 MHz à 50 MHz par étape avant de remarquer des bégaiements, des erreurs de pilote ou d'application, ou même des artefacts visuels. Lorsque cette limite est atteinte, vous devez réduire la valeur de fréquence d'un cran et vérifier à nouveau la stabilité et les performances pendant l'overclocking.

En plus de la fréquence GPU, vous pouvez également augmenter la fréquence de la mémoire vidéo (Memory Clock Offset), ce qui est particulièrement important dans le cas de la GeForce GTX 1070, équipée de la mémoire GDDR5, qui overclocke généralement bien. Le processus dans le cas de la fréquence de fonctionnement de la mémoire répète exactement ce qui est fait pour trouver une fréquence GPU stable, la seule différence est que les pas peuvent être agrandis - en ajoutant immédiatement 50 à 100 MHz à la fréquence de base.

En plus des étapes décrites ci-dessus, vous pouvez également augmenter la limite de tension (surtension), car des fréquences GPU plus élevées sont souvent atteintes à des tensions plus élevées lorsque des parties instables du GPU reçoivent une alimentation supplémentaire. Certes, un inconvénient potentiel de l'augmentation de cette valeur est la possibilité d'endommager la puce vidéo et de panne accélérée, vous devez donc utiliser l'augmentation de la tension avec une extrême prudence.

Les amateurs d'overclocking utilisent des techniques légèrement différentes, modifiant les paramètres dans des ordres différents. Par exemple, certains overclockeurs partagent des expériences visant à trouver une fréquence stable du GPU et de la mémoire afin qu'ils n'interfèrent pas les uns avec les autres, puis testent l'overclocking combiné de la puce vidéo et des puces mémoire, mais ce sont des détails insignifiants d'un individu. approche.

À en juger par les opinions dans les forums et les commentaires sur les articles, certains utilisateurs n'ont pas aimé le nouvel algorithme de fonctionnement du GPU Boost 3.0, lorsque la fréquence du GPU monte d'abord très haut, souvent au-dessus de la fréquence turbo, mais ensuite, sous l'influence de la hausse des températures du GPU. ou une consommation d'énergie accrue au-dessus de la limite définie, elle peut chuter à des valeurs nettement inférieures. Ce ne sont que les spécificités de l'algorithme mis à jour : vous devez vous habituer au nouveau comportement de la fréquence GPU qui change dynamiquement, mais cela n'a aucune conséquence négative.

La carte vidéo GeForce GTX 1070 est devenue le deuxième modèle après la GTX 1080 de la nouvelle gamme de Nvidia basée sur la famille de processeurs graphiques Pascal. La nouvelle technologie de processus FinFET 16 nm et les optimisations de l'architecture ont permis à la carte vidéo présentée d'atteindre des vitesses d'horloge élevées, ce qui est également aidé par la nouvelle génération de technologie GPU Boost. Même malgré le nombre réduit d'unités fonctionnelles sous forme de processeurs de flux et de modules de texture, leur nombre reste suffisant pour que la GTX 1070 devienne la solution la plus rentable et la plus économe en énergie.

L'installation de la mémoire GDDR5 sur le plus jeune des deux modèles de cartes vidéo Nvidia commercialisés sur la puce GP104, contrairement au nouveau type GDDR5X qui distingue la GTX 1080, ne l'empêche pas d'atteindre des indicateurs de performances élevés. Premièrement, Nvidia a décidé de ne pas couper le bus mémoire du modèle GeForce GTX 1070, et deuxièmement, il a installé la mémoire GDDR5 la plus rapide avec une fréquence effective de 8 GHz, ce qui n'est que légèrement inférieur aux 10 GHz de la GDDR5X utilisée dans l'ancienne version. modèle. Compte tenu des algorithmes de compression delta améliorés, la bande passante mémoire effective du GPU est devenue supérieure à celle du modèle similaire de la GeForce GTX 970 de génération précédente.

La GeForce GTX 1070 est bonne car elle offre de très hautes performances et prend en charge de nouvelles fonctionnalités et algorithmes à un prix nettement inférieur par rapport à l'ancien modèle annoncé un peu plus tôt. Si seuls quelques passionnés peuvent se permettre d'acheter une GTX 1080 pour 55 000, alors un cercle beaucoup plus large d'acheteurs potentiels pourra payer 35 000 pour seulement un quart de solution moins productive avec exactement les mêmes capacités. C'est la combinaison d'un prix relativement bas et de performances élevées qui a fait de la GeForce GTX 1070 peut-être l'achat le plus rentable au moment de sa sortie.

Accélérateur graphique GeForce GTX 1060

ParamètreSignification
Nom du code de la puceGP106
Technologie de productionFinFET 16 nm
Nombre de transistors4,4 milliards
Zone centrale200 mm²
ArchitectureUnifié, avec une gamme de processeurs communs pour le traitement en flux de nombreux types de données : sommets, pixels, etc.
Prise en charge matérielle DirectXDirectX 12, avec prise en charge du niveau de fonctionnalité 12_1
Bus mémoire192 bits : six contrôleurs de mémoire 32 bits indépendants prenant en charge la mémoire GDDR5
Fréquence du processeur graphique1 506 (1 708) MHz
Blocs de calcul10 multiprocesseurs de streaming, dont 1280 ALU scalaires pour les calculs en virgule flottante dans le cadre de la norme IEEE 754-2008 ;
Blocs de texturation80 unités d'adressage et de filtrage de texture avec prise en charge des composants FP16 et FP32 dans les textures et prise en charge du filtrage trilinéaire et anisotrope pour tous les formats de texture
Blocs d'opération raster (ROP)6 blocs ROP larges (48 pixels) avec prise en charge de divers modes d'anti-aliasing, notamment programmables et au format frame buffer FP16 ou FP32. Les blocs se composent d'un ensemble d'ALU configurables et sont responsables de la génération et de la comparaison de profondeur, du multi-échantillonnage et du mélange.
Prise en charge du moniteurPrise en charge intégrée de jusqu'à quatre moniteurs connectés via les interfaces Dual Link DVI, HDMI 2.0b et DisplayPort 1.2 (1.3/1.4 Ready)

Spécifications de la carte graphique de référence GeForce GTX 1060
ParamètreSignification
Fréquence de base1 506 (1 708) MHz
Nombre de processeurs universels1280
Nombre de blocs de texture80
Nombre de blocs de mélange48
Fréquence de mémoire efficace8 000 (4 × 2 000) MHz
Type de mémoireGDDR5
Bus mémoire192 bits
Mémoire6 Go
Bande passante mémoire192 Go/s
Performances de calcul (FP32)environ 4 téraflops
Taux de remplissage maximum théorique72 gigapixels/s
Taux d'échantillonnage de texture théorique121 gigatexels/s
PneuPCI Express 3.0
ConnecteursUn DVI Dual Link, un HDMI et trois DisplayPorts
Consommation électrique typique120 W
Nourriture supplémentaireUn connecteur à 6 broches
Nombre d'emplacements occupés dans le boîtier système2
Prix ​​conseillé249 $ (299 $) aux États-Unis et 18 990 en Russie

La carte vidéo GeForce GTX 1060 a également reçu un nom similaire à la même solution de la série GeForce précédente, ne différant du nom de son prédécesseur direct GeForce GTX 960 que par le premier chiffre modifié de la génération. Le nouveau produit de la gamme actuelle de la société est un cran inférieur à la solution GeForce GTX 1070 précédemment publiée, dont la vitesse est moyenne dans la nouvelle série.

Les prix recommandés pour la nouvelle carte vidéo de Nvidia sont respectivement de 249 $ et 299 $ pour les versions régulières des partenaires de la société et pour l'édition spéciale Founder's. Par rapport aux deux modèles plus anciens, il s'agit d'un prix très avantageux, puisque le nouveau modèle GTX 1060, bien que inférieur aux cartes haut de gamme, n'est pas autant moins cher qu'elles. Au moment de son annonce, le nouveau produit est définitivement devenu la solution la plus performante de sa catégorie et l'une des offres les plus avantageuses dans cette gamme de prix.

Ce modèle de carte vidéo de la famille Pascal de Nvidia a été lancé pour contrer la nouvelle solution de la société concurrente AMD, qui a lancé un peu plus tôt sur le marché la Radeon RX 480. Il est possible de comparer le nouveau produit Nvidia avec cette carte vidéo, mais pas tout à fait directement, car leur prix est encore assez sensiblement différent . La GeForce GTX 1060 est plus chère (249-299 $ contre 199-229 $), mais elle est aussi nettement plus rapide que son concurrent.

Le processeur graphique GP106 dispose d'un bus mémoire de 192 bits, donc la quantité de mémoire installée sur une carte vidéo avec un tel bus peut être de 3 ou 6 Go. Une valeur plus petite dans les conditions modernes n'est franchement pas suffisante, et de nombreux projets de jeux, même en résolution Full HD, se heurteront à un manque de mémoire vidéo, ce qui affectera sérieusement la fluidité du rendu. Pour garantir des performances maximales de la nouvelle solution avec des paramètres élevés, le modèle de carte vidéo GeForce GTX 1060 était équipé de 6 Go de mémoire vidéo, ce qui est suffisant pour exécuter n'importe quelle application 3D avec n'importe quel paramètre de qualité. De plus, aujourd'hui, il n'y a tout simplement aucune différence entre 6 et 8 Go, et une telle solution permettra d'économiser de l'argent.

La consommation électrique typique du nouveau produit est de 120 W, soit 20 % de moins que la valeur de la GTX 1070 et égale à la consommation électrique de la carte vidéo GeForce GTX 960 de génération précédente, qui a des performances et des capacités bien inférieures. La carte de référence dispose de l'ensemble habituel de connecteurs pour connecter des périphériques de sortie d'image : un DVI Dual-Link, un HDMI et trois DisplayPort. De plus, les nouvelles versions de HDMI et DisplayPort sont prises en charge, dont nous avons parlé dans la revue du modèle GTX 1080.

La longueur de la carte de référence GeForce GTX 1060 est de 9,8 pouces (25 cm), et parmi les différences par rapport aux anciennes versions, nous notons séparément que la GeForce GTX 1060 ne prend pas en charge la configuration de rendu multi-puces SLI et n'a pas de paramètre spécial. connecteur pour cela. Étant donné que la carte consomme moins d'énergie que les anciens modèles, un connecteur d'alimentation externe PCI-E à 6 broches a été installé sur la carte pour une alimentation supplémentaire.

Les cartes vidéo GeForce GTX 1060 sont apparues sur le marché depuis le jour de l'annonce sous la forme de produits des partenaires de l'entreprise : Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Une édition spéciale de la GeForce GTX 1060 Founder's Edition, produite par Nvidia elle-même, sera également publiée en quantités limitées, qui sera vendue au prix de 299 $ exclusivement sur le site Web de Nvidia et ne sera pas officiellement présentée en Russie. L'édition Founder comprend des matériaux et des composants de haute qualité, notamment un châssis en aluminium, un système de refroidissement efficace, des circuits d'alimentation à faible impédance et des régulateurs de tension conçus sur mesure.

Changements architecturaux

La carte vidéo GeForce GTX 1060 est basée sur un tout nouveau modèle de processeur graphique GP106, qui n'est fonctionnellement pas différent du premier-né de l'architecture Pascal sous la forme de la puce GP104, sur laquelle sont installés les modèles GeForce GTX 1080 et GTX 1070 décrits ci-dessus. Cette architecture est basée sur des solutions développées chez Maxwell, mais elle présente également quelques différences fonctionnelles, dont nous avons parlé en détail plus tôt.

La puce vidéo GP106 est de conception similaire à la puce Pascal haut de gamme et aux solutions d'architecture Maxwell similaires, et des informations détaillées sur la conception des GPU modernes peuvent être trouvées dans nos revues des solutions Nvidia précédentes. Comme les GPU précédents, les nouvelles puces d'architecture ont différentes configurations de clusters informatiques Graphics Processing Cluster (GPC), de Streaming Multiprocessors (SM) et de contrôleurs de mémoire :

Le processeur graphique GP106 comprend deux clusters GPC composés de 10 multiprocesseurs de streaming (Streaming Multiprocessor - SM), soit exactement la moitié de ce qui est disponible dans le GP104. Comme dans l'ancien GPU, chaque multiprocesseur contient 128 cœurs de calcul, 8 unités de texture TMU, 256 Ko de mémoire de registre, 96 Ko de mémoire partagée et 48 Ko de cache de premier niveau. En conséquence, la GeForce GTX 1060 contient un total de 1 280 cœurs de traitement et 80 unités de texture, soit la moitié de la GTX 1080.

Mais le sous-système mémoire de la GeForce GTX 1060 n'a pas été réduit de moitié par rapport à la solution haut de gamme : il contient six contrôleurs mémoire 32 bits, ce qui donne un bus mémoire final de 192 bits. Avec une fréquence effective de mémoire vidéo GDDR5 pour la GeForce GTX 1060 égale à 8 GHz, la bande passante atteint 192 Go/s, ce qui est plutôt bien pour une solution dans ce segment de prix, surtout compte tenu de la grande efficacité de son utilisation en Pascal. Chaque contrôleur de mémoire dispose de huit blocs ROP et de 256 Ko de cache L2 qui lui sont associés. Ainsi, au total, la version complète du GPU GP106 contient 48 blocs ROP et 1 536 Ko de cache L2.

Pour réduire les besoins en bande passante mémoire et utiliser plus efficacement l'architecture Pascal, la compression sans perte sur puce a été encore améliorée, capable de compresser les données dans des tampons pour des gains d'efficacité et de performances. En particulier, de nouvelles méthodes de compression delta avec un rapport de 4:1 et 8:1 ont été ajoutées aux puces de la nouvelle famille, offrant 20 % supplémentaires d'efficacité de bande passante par rapport aux solutions précédentes de la famille Maxwell.

La fréquence de base du nouveau GPU est de 1 506 MHz – la fréquence ne devrait en principe pas descendre en dessous de cette marque. La fréquence turbo typique (Boost Clock) est beaucoup plus élevée et est égale à 1708 MHz - c'est la valeur moyenne de la fréquence réelle à laquelle la puce graphique GeForce GTX 1060 fonctionne dans une large gamme de jeux et d'applications 3D. La fréquence réelle du Boost dépend du jeu et des conditions de test.

Comme le reste de la famille Pascal, la GeForce GTX 1060 fonctionne non seulement à une vitesse d'horloge élevée, offrant des performances élevées, mais dispose également d'une marge d'overclocking décente. Les premières expériences indiquent la possibilité d'atteindre des fréquences de l'ordre de 2 GHz. Il n’est pas surprenant que les partenaires de l’entreprise préparent également des versions overclockées en usine de la carte vidéo GTX 1060.

Ainsi, le principal changement dans la nouvelle architecture a été le procédé technologique FinFET 16 nm, dont l'utilisation dans la production du GP106 a permis d'augmenter considérablement la complexité de la puce tout en conservant une surface relativement faible de 200 mm², donc cette puce d'architecture Pascal possède un nombre d'unités d'exécution sensiblement plus élevé par rapport à une puce Maxwell de positionnement similaire, produite à l'aide de la technologie de traitement 28 nm.

Si le GM206 (GTX 960) d'une superficie de 227 mm² avait 3 milliards de transistors et 1024 ALU, 64 TMU, 32 ROP et un bus de 128 bits, alors le nouveau GPU contenait 4,4 milliards de transistors, 1280 ALU sur 200 mm². 80 TMU et 48 ROP avec un bus 192 bits. De plus, à une fréquence presque une fois et demie plus élevée : 1506 (1708) contre 1126 (1178) MHz. Et ce, avec la même consommation électrique de 120 W ! En conséquence, le GPU GP106 est devenu l'un des GPU les plus économes en énergie, avec le GP104.

Nouvelles technologies Nvidia

L'une des technologies les plus intéressantes de l'entreprise, soutenue par la GeForce GTX 1060 et d'autres solutions de la famille Pascal, est la technologie Multi-projection simultanée Nvidia. Nous avons déjà parlé de cette technologie dans notre test GeForce GTX 1080 ; elle permet d'utiliser plusieurs nouvelles techniques pour optimiser le rendu. En particulier, projeter simultanément une image VR pour les deux yeux à la fois, augmentant considérablement l'efficacité de l'utilisation du GPU en réalité virtuelle.

Pour prendre en charge SMP, tous les GPU de la famille Pascal disposent d'un moteur spécial, situé dans le moteur PolyMorph à la fin du pipeline géométrique avant l'unité de rastérisation. Avec son aide, le GPU peut projeter simultanément une primitive géométrique sur plusieurs projections à partir d'un seul point, et ces projections peuvent être stéréo (c'est-à-dire que jusqu'à 16 ou 32 projections sont prises en charge simultanément). Cette capacité permet aux GPU Pascal de reproduire avec précision des surfaces courbes pour le rendu VR, ainsi que de s'afficher correctement sur les systèmes multi-moniteurs.

Il est important que la technologie de multi-projection simultanée soit déjà intégrée dans les moteurs de jeu et les jeux populaires (Unreal Engine et Unity), et qu'à ce jour, un support technologique a été annoncé pour plus de 30 jeux en développement, y compris des projets bien connus comme Unreal. Tournoi, Poolnation VR, Everest VR, Obduction, Adr1ft et Raw Data. Fait intéressant, bien qu'Unreal Tournament ne soit pas un jeu VR, il utilise SMP pour obtenir des images de meilleure qualité et améliorer les performances.

Une autre technologie très attendue est un outil puissant permettant de créer des captures d'écran dans les jeux. Nvidia Ansel. Cet outil vous permet de créer des captures d'écran inhabituelles et de très haute qualité à partir de jeux, avec des fonctionnalités auparavant indisponibles, de les enregistrer en très haute résolution et de les compléter avec divers effets, et de partager vos créations. Ansel vous permet de construire littéralement une capture d'écran comme le souhaite l'artiste, vous permettant d'installer une caméra avec n'importe quel paramètre n'importe où dans la scène, d'appliquer de puissants post-filtres à l'image, ou même de prendre une photo à 360 degrés pour la visualiser dans un casque de réalité virtuelle.

Nvidia a standardisé l'intégration de l'interface utilisateur d'Ansel dans les jeux, et c'est aussi simple que d'ajouter quelques lignes de code. Il n'est pas nécessaire d'attendre que cette fonctionnalité apparaisse dans les jeux : vous pouvez évaluer les capacités d'Ansel dès maintenant dans le jeu Mirror's Edge : Catalyst, et un peu plus tard, elle sera disponible dans Witcher 3 : Wild Hunt. En outre, de nombreux projets de jeux sont en développement avec le soutien d'Ansel, notamment des jeux tels que Fortnite, Paragon et Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky et d'autres.

Le nouveau GPU GeForce GTX 1060 prend également en charge la boîte à outils Nvidia VRWorks, qui aide les développeurs à créer des projets de réalité virtuelle impressionnants. Ce package comprend de nombreux utilitaires et outils destinés aux développeurs, notamment VRWorks Audio, qui vous permet d'effectuer des calculs très précis des réflexions des ondes sonores des objets de la scène en utilisant le lancer de rayons sur le GPU. Le package comprend également l’intégration des effets physiques VR et PhysX pour garantir un comportement physiquement correct des objets dans la scène.

L'un des jeux VR les plus intéressants bénéficiant de VRWorks est VR Funhouse, le jeu de réalité virtuelle de Nvidia, disponible gratuitement sur le service Steam de Valve. Ce jeu est basé sur Unreal Engine 4 (Epic Games) et fonctionne sur les cartes graphiques GeForce GTX 1080, 1070 et 1060 en conjonction avec les casques HTC Vive VR. De plus, le code source de ce jeu sera accessible au public, ce qui permettra à d'autres développeurs d'utiliser des idées et du code prêts à l'emploi dans leurs attractions VR. Croyez-nous sur parole, c’est l’une des démonstrations les plus impressionnantes de la puissance de la réalité virtuelle.

Grâce également aux technologies SMP et VRWorks, l'utilisation du processeur graphique GeForce GTX 1060 dans les applications VR offre des performances tout à fait suffisantes pour la réalité virtuelle d'entrée de gamme, et le GPU en question répond au niveau matériel minimum requis, y compris pour SteamVR, devenant ainsi l'un des les acquisitions les plus réussies pour une utilisation dans des systèmes avec support officiel VR.

Étant donné que le modèle GeForce GTX 1060 est basé sur la puce GP106, dont les capacités ne sont en aucun cas inférieures au processeur graphique GP104, qui est devenu la base des modifications plus anciennes, il prend en charge absolument toutes les technologies que nous avons décrites ci-dessus.

La carte vidéo GeForce GTX 1060 est devenue le troisième modèle de la nouvelle gamme de Nvidia, basée sur la famille de processeurs graphiques Pascal. Le nouveau processus technologique FinFET 16 nm et les optimisations de l'architecture ont permis à toutes les nouvelles cartes vidéo d'atteindre des vitesses d'horloge élevées et d'accueillir un plus grand nombre d'unités fonctionnelles dans le GPU sous la forme de processeurs de flux, de modules de texture et autres, par rapport aux puces vidéo de la génération précédente. C'est pourquoi le modèle GTX 1060 est devenu la solution la plus rentable et la plus économe en énergie de sa catégorie et en général.

Il est particulièrement important que la GeForce GTX 1060 offre des performances assez élevées et prend en charge de nouvelles fonctionnalités et algorithmes à un prix nettement inférieur à celui des anciennes solutions GP104. La puce graphique GP106 du nouveau modèle offre des performances et une efficacité énergétique de premier ordre. Le modèle GeForce GTX 1060 est spécialement conçu et est parfait pour tous les jeux modernes avec des paramètres graphiques élevés et maximum à une résolution de 1920x1080 et même avec l'anticrénelage plein écran activé à l'aide de diverses méthodes (FXAA, MFAA ou MSAA).

Et pour ceux qui souhaitent des performances encore meilleures avec des écrans ultra haute résolution, Nvidia propose les cartes graphiques haut de gamme GeForce GTX 1070 et GTX 1080, qui sont également très bonnes en termes de performances et d'efficacité énergétique. Et pourtant, la combinaison d'un prix bas et de performances suffisantes distingue la GeForce GTX 1060 des solutions plus anciennes. Par rapport à la Radeon RX 480 concurrente, la solution de Nvidia est légèrement plus rapide avec moins de complexité et d'encombrement GPU, et offre une efficacité énergétique nettement meilleure. Certes, il se vend un peu plus cher, donc chaque carte vidéo a sa propre niche.

Examen de la carte vidéo NVIDIA GeForce GTX 780 | Expérience GeForce et ShadowPlay

Expérience GeForce

En tant que passionnés de PC, nous apprécions la combinaison de différents paramètres qui affectent les performances et la qualité des jeux. Le moyen le plus simple consiste à dépenser beaucoup d'argent pour une nouvelle carte vidéo et à définir tous les paramètres graphiques au maximum. Mais lorsqu'un paramètre s'avère trop lourd pour la carte et qu'il faut le réduire ou le désactiver, on se retrouve avec un sentiment désagréable et la réalisation que le jeu pourrait bien mieux fonctionner.

Cependant, définir les paramètres optimaux n’est pas si simple. Certains paramètres produisent de meilleurs effets visuels que d’autres, mais l’impact sur les performances peut varier considérablement. GeForce Experience est la tentative de NVIDIA de faciliter le choix des paramètres de jeu en comparant votre CPU, GPU et résolution à une base de données de configurations. La deuxième partie de l'utilitaire permet de déterminer si des mises à jour des pilotes sont nécessaires.

Il est probable que les passionnés continueront à choisir eux-mêmes les paramètres et percevront négativement le programme supplémentaire. Cependant, la plupart des joueurs qui souhaitent installer le jeu et commencer immédiatement à jouer sans vérifier les pilotes ni passer par divers paramètres seront certainement heureux de cette opportunité. Quoi qu'il en soit, GeForce Experience de NVIDIA aide les gens à tirer le meilleur parti de leur expérience de jeu et constitue donc un utilitaire utile pour les jeux sur PC.

GeForce Experience a identifié les neuf jeux installés sur notre système de test. Bien entendu, ils n'ont pas conservé les paramètres par défaut, car nous avons appliqué certains paramètres dans l'intérêt des tests. Mais il est toujours intéressant de voir comment GeForce Experience modifierait les options que nous avons sélectionnées.

Pour Tomb Raider, GeForce Experience a souhaité désactiver la technologie TressFX, même si NVIDIA GeForce GTX 780 avec la fonction activée, il affichait une moyenne de 40 images par seconde. Pour une raison quelconque, le programme n'a pas pu déterminer la configuration Loin cri 3, même si les paramètres qu'elle a suggérés se sont avérés assez élevés. Pour des raisons inconnues, l'utilitaire a voulu désactiver FXAA pour Skyrim.

C'est bien d'avoir un ensemble de captures d'écran pour chaque jeu décrivant l'impact d'un certain paramètre sur la qualité de l'image. Sur les neuf exemples que nous avons examinés, GeForce Experience s'est rapproché des paramètres optimaux, à notre avis. Cependant, l'utilitaire est également biaisé, favorisant les fonctionnalités spécifiques à NVIDIA comme PhysX (que le programme a poussé à un niveau élevé dans Borderlands 2) et décourageant l'inclusion de fonctionnalités AMD (y compris TressFX dans Tomb Raider). Désactiver FXAA dans Skyrim n'a aucun sens, puisque le jeu tourne en moyenne à 100 FPS. Il est possible que les passionnés veuillent installer GeForce Experience une fois que le système NVIDIA Shield sera disponible, car la fonctionnalité Game Streaming semble être disponible via l'application NVIDIA.

ShadowPlay : DVR toujours actif pour les jeux

Les fans de WoW enregistrent souvent leurs raids, mais cela nécessite un système assez puissant, des Fraps et beaucoup d'espace disque.

NVIDIA a récemment annoncé une nouvelle fonctionnalité appelée ShadowPlay qui peut rendre le processus d'enregistrement beaucoup plus facile.

Lorsqu'il est activé, ShadowPlay utilise le décodeur NVEnc fixe intégré au GPU Kepler, qui enregistre automatiquement les 20 dernières minutes de jeu. Ou vous pouvez démarrer et arrêter manuellement ShadowPlay. Ainsi, la technologie remplace les solutions logicielles comme Fraps, qui imposent une charge plus élevée au processeur central.

Pour référence : NVEnc fonctionne uniquement avec l'encodage H.264 à des résolutions allant jusqu'à 4 096 x 4 096 pixels. ShadowPlay n'est pas encore disponible sur le marché, mais NVIDIA affirme qu'il sera capable d'enregistrer des vidéos 1080p jusqu'à 30 FPS lors de son lancement cet été. Nous aimerions voir une résolution plus élevée, car il a été indiqué précédemment que l'encodeur pourrait potentiellement la prendre en charge matériellement.

Examen de la carte vidéo NVIDIA GeForce GTX 780 | GPU Boost 2.0 et problèmes d'overclocking possibles

GPU Boost 2.0

En revue GeForce GTX Titan Nous n'avons pas pu effectuer de tests complets sur la technologie NVIDIA GPU Boost de deuxième génération, mais nous l'avons désormais NVIDIA GeForce GTX 780. Voici une brève description de cette technologie :

GPU Boost est un mécanisme NVIDIA qui modifie les performances des cartes vidéo en fonction du type de tâche en cours de traitement. Comme vous le savez probablement, les jeux ont des exigences différentes en matière de ressources GPU. Historiquement, la fréquence doit être ajustée pour s’adapter au pire des cas. Mais lors du traitement de tâches « légères », le GPU était gaspillé. GPU Boost surveille divers paramètres et augmente ou diminue les fréquences en fonction des besoins de l'application et de la situation actuelle.

La première implémentation de GPU Boost fonctionnait sous un certain seuil de puissance (170 W dans le cas de GeForce GTX 680). Cependant, les ingénieurs de la société ont constaté qu'ils pouvaient dépasser ce niveau en toute sécurité si la température du GPU était suffisamment basse. De cette manière, les performances peuvent être encore optimisées.

En pratique, GPU Boost 2.0 ne diffère que par le fait que NVIDIA accélère désormais la fréquence en fonction non pas de l'indicateur de consommation d'énergie maximale, mais d'une certaine température, qui est de 80 degrés Celsius. Cela signifie que des fréquences et des tensions plus élevées seront désormais utilisées, jusqu'à chauffer la puce jusqu'à 80 degrés. N'oubliez pas que la température dépend principalement du profil et des réglages du ventilateur : plus la vitesse du ventilateur est élevée, plus la température est basse et donc plus la valeur du GPU Boost est élevée (et malheureusement aussi le niveau de bruit). La technologie évalue toujours la situation toutes les 100 ms, donc NVIDIA a encore du travail à faire dans les futures versions.

Les paramètres sensibles à la température rendent les tests encore plus difficiles que la première version de GPU Boost. Tout ce qui augmente ou diminue la température du GK110 modifie la fréquence de la puce. Il est donc assez difficile d’obtenir des résultats cohérents entre les analyses. Dans des conditions de laboratoire, on ne peut qu'espérer une température ambiante stable.

En plus de ce qui précède, il convient de noter que vous pouvez augmenter la limite de température. Par exemple, si vous voulez NVIDIA GeForce GTX 780 a abaissé la fréquence et la tension à 85 ou 90 degrés Celsius, cela peut être configuré dans les paramètres.

Vous souhaitez que le GK110 soit aussi éloigné que possible de la limite de température que vous avez choisie ? Courbe du ventilateur NVIDIA GeForce GTX 780 Entièrement réglable, vous permettant de personnaliser le cycle de service en fonction des valeurs de température.

Problèmes d'overclocking possibles

Lors de notre connaissance de GeForce GTX Titan les représentants de l'entreprise nous ont montré un utilitaire interne capable de lire l'état de divers capteurs : il simplifie ainsi le processus de diagnostic du comportement non standard de la carte. Si la température du GK110 augmente trop pendant l'overclocking, même en cas de limitation, cette information sera enregistrée dans le journal.

Désormais, l'entreprise implémente cette fonction via l'application Precision X, qui lance un algorithme d'avertissement « raisons » si, pendant l'overclocking, des actions se produisent qui interfèrent avec sa poursuite effective. C’est une fonctionnalité intéressante car vous n’avez plus à deviner les éventuels goulots d’étranglement. Il existe également un indicateur de limite OV max qui vous permettra de savoir si vous avez atteint le pic absolu de tension GPU. Dans ce cas, il y a un risque de brûler la carte. Vous pouvez considérer cela comme une suggestion pour réduire vos paramètres d'overclocking.

Examen de la carte vidéo NVIDIA GeForce GTX 780 | Banc de test et benchmarks


Configuration du banc de test
CPU Intel Core i7-3770K (Ivy Bridge) 3,5 GHz à 4,0 GHz (40 * 100 MHz), LGA 1155, 8 Mo de cache L3 partagé, Hyper-Threading activé, Économies d'énergie activées
Carte mère Gigabyte Z77X-UD5H (LGA 1155), chipset Z77 Express, BIOS F15q
RAM G.Skill 16 Go (4 x 4 Go) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 à 1,5 V
Périphérique de stockage SSD Crucial m4 256 Go SATA 6 Go/s
Cartes vidéo Nvidia GeForce GTX 780 3 Go

AMD Radeon HD 7990 6 Go

AMD Radeon HD 7970 GHz édition 3 Go

Nvidia GeForce GTX 580 1,5 Go

Nvidia GeForce GTX 680 2 Go

Nvidia GeForce GTX Titan 6 Go

Nvidia GeForce GTX 690 4 Go

Unité de puissance Refroidisseur Maître UCP-1000W
Logiciel système et pilotes
Système d'exploitation Windows 8 Professionnel 64 bits
DirectX DirectX11
Graphique. Conducteurs AMD Catalyst 13.5 (bêta 2)
Nvidia GeForce version 320.00
Nvidia GeForce version 320.18 (pour GeForce GTX 780)

Obtenir la valeur de fréquence d'images correcte

Les lecteurs observateurs remarqueront que les chiffres des pages suivantes sont plus modestes que ceux de la revue. AMD Radeon HD 7990, et il y a une raison à cela. Auparavant, nous présentions les fréquences d'images synthétiques et réelles, puis montrions les variations temporelles entre les images ainsi que les images perdues et courtes. Le fait est que cette méthode ne reflète pas les sensations réelles de la carte vidéo, et il serait injuste pour nous de juger AMD sur la base d'indicateurs synthétiques du délai entre les images.

C'est pourquoi, parallèlement aux fluctuations de la fréquence d'images, nous fournissons désormais des mesures plus pratiques pour les fréquences d'images dynamiques. Les résultats ne sont pas si élevés, mais en même temps ils sont très éloquents dans les jeux où AMD a des difficultés.

Tests et réglages
Battlefield 3 Qualité graphique - Ultra, v-sync désactivé, 2560 x 1440, DirectX 11, Going Hunting, 90 secondes, FCAT
Loin cri 3 Qualité graphique - Ultra, DirectX 11, v-sync désactivé, 2560x1440, exécutez votre propre itinéraire, 50 secondes, FCAT
Borderlands 2 Qualité graphique - la plus élevée, PhysX faible, filtrage anisotrope 16x, 2560x1440, exécutez votre propre itinéraire, FCAT
Hitman Absolution Qualité graphique - Ultra, MSAA désactivé, 2560 x 1440, benchmark intégré, FCAT
The Elder Scrolls V: Skyrim Qualité graphique - Ultra, FXAA activé, 2560 x 1440, suivez votre propre itinéraire, 25 secondes, FCAT
3DMark Référence des frappes d'incendie
Bioshock Infinite Qualité graphique - Ultra, DirectX 11, profondeur de champ diffuse, 2560x1440, benchmark intégré, FCAT
Crise 3 Qualité graphique - très élevée, MSAA : Faible (2x), textures haute résolution, 2560x1440, suivez votre propre itinéraire, 60 secondes, FCAT
Tomb Raider Qualité graphique - Ultimate, FXAA activé, filtrage anisotrope 16x, TressFX Hair, 2560 x 1440, exécution personnalisée, 45 secondes, FCAT
LuxMark 2.0 Binaire 64 bits, version 2.0, scène Sala
SiSoftware Sandra 2013 Professionnel Sandra Tech Support (Ingénieur) 2013.SP1, Cryptographie, Performance de l'analyse financière


CONTENU