Maison / Skype / Technologie de création d'images tridimensionnelles réalistes. Graphiques 3D dans le monde moderne Exemples de produits logiciels

Technologie de création d'images tridimensionnelles réalistes. Graphiques 3D dans le monde moderne Exemples de produits logiciels

Vous lisez probablement cet article sur un écran d'ordinateur ou un écran d'appareil mobile - un écran qui a des dimensions, une hauteur et une largeur réelles. Mais lorsque vous regardez, par exemple, le dessin animé Toy Story ou jouez au jeu Tomb Raider, vous voyez un monde en trois dimensions. L'une des choses les plus étonnantes du monde 3D est que le monde que vous voyez peut être le monde dans lequel nous vivons, le monde dans lequel nous vivrons demain ou le monde qui ne vit que dans l'esprit des créateurs d'un film ou d'un jeu. Et tous ces mondes ne peuvent apparaître que sur un seul écran - c'est au moins intéressant.
Comment un ordinateur fait-il croire à nos yeux que nous regardons un écran plat pour voir la profondeur de l'image présentée ? Comment les développeurs de jeux font-ils pour que nous voyions de vrais personnages se déplacer dans un vrai paysage ? Aujourd'hui, je vais vous parler des astuces visuelles utilisées par les graphistes et comment tout cela s'enchaîne et nous semble si simple. En fait, tout n'est pas simple, et pour découvrir à quoi ressemblent les graphismes 3D, passez sous la coupe - vous y trouverez une histoire fascinante, dans laquelle, j'en suis sûr, vous vous plongerez avec un plaisir sans précédent.

Qu'est-ce qui rend une image 3D ?

Une image qui a ou semble avoir une hauteur, une largeur et une profondeur est tridimensionnelle (3D). Une image qui a une hauteur et une largeur mais pas de profondeur est bidimensionnelle (2D). Rappelez-moi où vous voyez des images en deux dimensions ? - Pratiquement partout. Rappelez-vous même le symbole habituel sur la porte des toilettes, indiquant une cabine pour l'un ou l'autre étage. Les symboles sont conçus de manière à ce que vous puissiez les reconnaître et les reconnaître en un coup d'œil. C'est pourquoi ils n'utilisent que les formulaires les plus élémentaires. Des informations plus détaillées sur n'importe quel symbole peuvent vous dire quel type de vêtements ce petit homme porte accroché à la porte, ou la couleur des cheveux, par exemple, les symboles de la porte des toilettes pour femmes. C'est l'une des principales différences entre la manière dont les graphiques 3D et 2D sont utilisés : les graphiques 2D sont simples et mémorables, tandis que les graphiques 3D utilisent plus de détails et intègrent beaucoup plus d'informations dans un objet apparemment ordinaire.

Par exemple, les triangles ont trois lignes et trois angles - tout ce dont vous avez besoin pour dire de quoi est fait le triangle et ce qu'il est réellement. Cependant, regardez le triangle de l'autre côté - la pyramide est une structure tridimensionnelle à quatre côtés triangulaires. Veuillez noter que dans ce cas, il y a déjà six lignes et quatre coins - c'est en quoi consiste la pyramide. Vous voyez comment un objet ordinaire peut se transformer en un objet tridimensionnel et contenir beaucoup plus d'informations nécessaires pour raconter l'histoire d'un triangle ou d'une pyramide.

Pendant des centaines d'années, les artistes ont utilisé des astuces visuelles qui peuvent faire d'une image 2D plate une véritable fenêtre sur le monde 3D réel. Vous pouvez voir un effet similaire sur des photographies ordinaires que vous pouvez numériser et visualiser sur un écran d'ordinateur : les objets de la photographie apparaissent plus petits lorsqu'ils sont plus éloignés ; les objets proches de l'objectif de la caméra sont mis au point, ce qui signifie, par conséquent, que tout ce qui se trouve derrière les objets mis au point est flou. Les couleurs ont tendance à être moins vives si le sujet n'est pas aussi proche. Quand on parle de graphisme 3D sur ordinateur aujourd'hui, on parle d'images qui bougent.

Qu'est-ce que le graphisme 3D ?

Pour beaucoup d'entre nous, jouer sur un ordinateur personnel, un appareil mobile ou un système de jeu avancé en général est l'exemple le plus frappant et la manière la plus courante d'envisager des graphismes en trois dimensions. Tous ces jeux, films sympas créés à l'aide d'un ordinateur, doivent passer par trois étapes de base pour créer et présenter des scènes 3D réalistes :

  1. Création d'un monde virtuel en 3D
  2. Déterminer quelle partie du monde sera affichée à l'écran
  3. Déterminer à quoi ressemblera un pixel à l'écran afin que l'image complète apparaisse aussi réaliste que possible
Création d'un monde virtuel en 3D
Le monde virtuel 3D n'est bien sûr pas le même que le monde réel. La création d'un monde virtuel en 3D est un travail complexe de visualisation informatique d'un monde similaire au monde réel, pour la création duquel un grand nombre d'outils sont utilisés et qui implique des détails extrêmement élevés. Prenez, par exemple, une très petite partie du monde réel - votre main et le bureau en dessous. Votre main a des qualités spéciales qui déterminent comment elle peut bouger et regarder à l'extérieur. Les articulations des doigts ne se plient que vers la paume et non en face de celle-ci. Si vous frappez la table, aucune action ne lui arrivera - la table est solide. En conséquence, votre main ne peut pas traverser votre bureau. Vous pouvez prouver que cette affirmation est vraie en regardant quelque chose de naturel, mais dans le monde virtuel en 3D, les choses sont assez différentes - il n'y a pas de nature dans le monde virtuel, il n'y a pas de choses aussi naturelles que votre main, par exemple. Les objets du monde virtuel sont complètement synthétiques - ce sont les seules propriétés que leur confèrent les logiciels. Les programmeurs utilisent des outils spéciaux et conçoivent des mondes virtuels 3D avec le plus grand soin afin que tout en eux se comporte toujours d'une certaine manière.

Quelle partie du monde virtuel est représentée à l'écran ?
À tout moment, l'écran ne montre qu'une infime partie du monde virtuel en 3D créé pour le jeu vidéo. Ce qui est montré à l'écran, ce sont certaines combinaisons de façons dont le monde est défini, où vous décidez où aller et quoi voir. Peu importe où vous allez - en avant ou en arrière, en haut ou en bas, à gauche ou à droite - le monde virtuel en 3D qui vous entoure détermine ce que vous voyez lorsque vous êtes dans une certaine position. Ce que vous voyez prend tout son sens d'une scène à l'autre. Si vous regardez un objet à la même distance, quelle que soit sa direction, il doit paraître haut. Chaque objet doit avoir l'air et se déplacer de telle manière que vous croyiez qu'il a la même masse que l'objet réel, qu'il est aussi dur ou mou que l'objet réel, et ainsi de suite.


Les programmeurs qui écrivent des jeux informatiques ont déployé beaucoup d'efforts pour concevoir des mondes virtuels 3D et les faire de sorte que vous puissiez vous y promener sans tomber sur quoi que ce soit qui vous fasse penser "Cela ne pourrait pas arriver dans ce monde!". La dernière chose que vous voulez voir, ce sont deux objets solides qui peuvent se traverser l'un l'autre. Ceci est un rappel brutal que tout ce que vous voyez est une imposture. La troisième étape implique au moins autant de calculs que les deux autres étapes et devrait également se dérouler en temps réel.

Eclairage et perspectives

Lorsque vous entrez dans une pièce, vous allumez la lumière. Vous ne passez probablement pas beaucoup de temps à réfléchir à son fonctionnement réel et à la manière dont la lumière provient de la lampe et se répand dans la pièce. Mais les personnes travaillant avec des graphiques 3D doivent y penser, car toutes les surfaces, les structures filaires environnantes et les choses comme ça doivent être éclairées. Une méthode, le lancer de rayons, implique des chemins qui prennent des rayons de lumière lorsqu'ils quittent l'ampoule, rebondissent sur des miroirs, des murs et d'autres surfaces réfléchissantes, et atterrissent finalement sur des objets à des intensités variables sous différents angles. C'est difficile, car une ampoule peut avoir un faisceau, mais dans la plupart des pièces, plusieurs sources lumineuses sont utilisées - plusieurs lampes, plafonniers (lustres), lampadaires, fenêtres, bougies, etc.

L'éclairage joue un rôle clé dans deux effets qui donnent l'apparence, le poids et la solidité extérieure des objets : l'ombrage et les ombres. Le premier effet, l'assombrissement, est l'endroit où plus de lumière tombe d'un côté d'un objet que de l'autre. La gradation donne au sujet beaucoup de naturalisme. Cette nuance est ce qui rend les plis de la couette profonds et doux, et les pommettes hautes semblent frappantes. Ces différences d'intensité lumineuse renforcent l'illusion générale que le sujet a de la profondeur ainsi que de la hauteur et de la largeur. L'illusion de masse vient du deuxième effet, l'ombre.

Les corps solides projettent des ombres lorsque la lumière les frappe. Vous pouvez le voir lorsque vous regardez l'ombre qu'un cadran solaire ou un arbre projette sur le trottoir. Par conséquent, nous sommes habitués à voir des objets réels et des personnes projetant des ombres. En 3D, l'ombre, encore une fois, renforce l'illusion en créant l'effet d'être dans le monde réel, plutôt que sur un écran de formes générées mathématiquement.

perspective
La perspective est un mot qui peut signifier beaucoup, mais décrit en fait un effet simple que tout le monde a vu. Si vous vous tenez sur le côté d'une longue route droite et que vous regardez au loin, il semble que les deux côtés de la route convergent en un point à l'horizon. De plus, si les arbres sont proches de la route, les arbres plus éloignés auront l'air plus petits que les arbres plus proches de vous. En fait, il semblera que les arbres convergent en un certain point de l'horizon formé près de la route, mais ce n'est pas le cas. Lorsque tous les objets de la scène semblent finir par converger en un point au loin, c'est la perspective. Il existe de nombreuses variantes de cet effet, mais la plupart des graphiques 3D utilisent le point de vue unique que je viens de décrire.

Profondeur de champ


Un autre effet optique qui a été utilisé avec succès pour créer des graphiques 3D est la profondeur de champ. En utilisant mon exemple d'arbre, il y a une autre chose intéressante qui se produit en plus de ce qui précède. Si vous regardez les arbres proches de vous, les arbres plus éloignés semblent flous. Les cinéastes et les animateurs informatiques utilisent cet effet, la profondeur de champ, à deux fins. Le premier est de renforcer l'illusion de profondeur dans la scène visualisée par l'utilisateur. Le deuxième objectif est que les réalisateurs utilisent la profondeur de champ pour concentrer leur attention sur des sujets ou des acteurs considérés comme les plus importants. Pour attirer votre attention sur une non-héroïne dans un film, par exemple, la "faible profondeur de champ" peut être utilisée, où seul l'acteur est mis au point. Une scène conçue pour vous impressionner utilisera au contraire une "profondeur de champ profonde" afin que le plus d'objets possible soient mis au point et donc visibles pour le spectateur.

Lissage


Un autre effet qui repose également sur l'illusion de l'œil est l'anticrénelage. Les systèmes graphiques numériques sont très bien adaptés pour créer des lignes nettes. Mais il arrive aussi que les lignes diagonales aient le dessus (elles apparaissent aussi assez souvent dans le monde réel, et puis l'ordinateur reproduit des lignes qui ressemblent plus à des échelles (je pense que vous savez ce qu'est une échelle quand vous regardez l'objet image dans détail)). Ainsi, pour inciter son œil à voir une courbe ou une ligne lisse, un ordinateur peut ajouter certaines nuances de couleur aux rangées de pixels entourant la ligne. Avec cette "couleur grise" de pixels, l'ordinateur ne fait que tromper vos yeux et, pendant ce temps, vous pensez qu'il n'y a plus d'étapes irrégulières. Ce processus d'ajout de pixels colorés supplémentaires pour tromper l'œil est appelé anti-aliasing et est l'une des techniques créées manuellement par l'infographie 3D. Une autre tâche difficile pour un ordinateur est de créer une animation 3D, dont un exemple vous sera présenté dans la section suivante.

Exemples réels

Lorsque toutes les astuces que j'ai décrites ci-dessus sont utilisées ensemble pour créer une scène étonnamment réelle, le résultat en vaut la chandelle. Les derniers jeux, films, objets générés par ordinateur sont combinés avec des arrière-plans photographiques - cela renforce l'illusion. Vous pouvez voir des résultats étonnants lorsque vous comparez des photos et une scène générée par ordinateur.

La photo ci-dessus montre un bureau typique qui utilise un trottoir pour entrer. Sur l'une des photos suivantes, une simple boule de couleur unie a été placée sur le trottoir, après quoi la scène a été photographiée. La troisième photo est déjà l'utilisation d'un programme d'infographie, qui a créé la boule qui n'existe en fait pas sur cette photo. Pouvez-vous dire s'il y a des différences significatives entre ces deux photos ? Je pense que non.

Création d'animation et l'apparition de "l'action en direct"

Jusqu'à présent, nous avons examiné les outils qui rendent toute image numérique plus réaliste - que l'image soit une image fixe ou une partie d'une séquence d'animation. S'il s'agit d'une séquence animée, les programmeurs et les concepteurs utiliseront encore plus d'astuces visuelles différentes pour donner l'apparence d'une "action en direct" plutôt que d'images générées par ordinateur.

Combien d'images par seconde ?
Lorsque vous allez voir un blockbuster chic dans un cinéma local, une séquence d'images appelée plans tourne à 24 images par seconde. Étant donné que notre rétine conserve une image pendant un peu plus de 1/24 de seconde, les yeux de la plupart des gens fusionneront les images en une seule image continue de mouvement et d'action.

Si vous ne comprenez pas ce que je viens d'écrire, alors regardez-le de l'autre côté : cela signifie que chaque image du film est une photographie prise à une vitesse d'obturation (exposition) de 1/24 seconde. Ainsi, si vous regardez l'une des nombreuses images d'un film de course, vous verrez que certaines des voitures de course sont "floues" car elles roulaient à grande vitesse alors que l'obturateur de l'appareil photo était ouvert. Ce flou des choses créé par le mouvement rapide est ce que nous avons l'habitude de voir, et c'est en partie ce qui rend une image réelle pour nous lorsque nous la regardons sur un écran.


Cependant, les images 3D numériques ne sont pas des photographies après tout, donc aucun effet de flou ne se produit lorsqu'un objet se déplace dans le cadre pendant la capture. Pour rendre les images plus réalistes, le flou doit être explicitement ajouté par les programmeurs. Certains concepteurs pensent qu'il faut plus de 30 images par seconde pour "surmonter" ce manque de flou naturel, c'est pourquoi ils ont poussé les jeux à atteindre un nouveau niveau - 60 images par seconde. Bien que cela permette à chaque image individuelle de regarder en détail et d'afficher des objets en mouvement par incréments plus petits, cela augmente considérablement le nombre d'images pour une séquence d'animation donnée. Il existe d'autres parties spécifiques des images où le rendu informatique précis doit être sacrifié au profit du réalisme. Cela s'applique aux objets mobiles et fixes, mais c'est une autre histoire.

Venons-en à la fin


L'infographie continue d'étonner le monde en créant et en générant une grande variété d'objets et de scènes mobiles et immobiles vraiment réalistes. Avec 80 colonnes et 25 lignes de texte monochrome, les graphismes ont parcouru un long chemin, et le résultat est clair : des millions de personnes jouent à des jeux et exécutent toutes sortes de simulations avec la technologie d'aujourd'hui. De nouveaux processeurs 3D se feront également sentir - grâce à eux, nous pourrons littéralement explorer d'autres mondes et expérimenter des choses que nous n'avons jamais osé essayer dans la vraie vie. Enfin, revenons à l'exemple du bal : comment cette scène a-t-elle été créée ? La réponse est simple : l'image a une balle générée par ordinateur. Il n'est pas facile de dire lequel des deux est authentique, n'est-ce pas ? Notre monde est incroyable et nous devons être à la hauteur. J'espère que vous étiez intéressé et que vous avez appris par vous-même une autre information intéressante.

Contrairement à l'animation 2D, où une grande partie peut être dessinée à la main, en 3D, les objets sont trop lisses, leur forme est trop régulière et ils se déplacent le long de trajectoires trop "géométriques". Certes, ces problèmes sont surmontables. Les packs d'animation améliorent les outils de rendu, mettent à jour les outils d'effets spéciaux et étendent les bibliothèques de matériaux. Pour créer des objets "inégaux", tels que des cheveux ou de la fumée, la technologie de formation d'un objet à partir de nombreuses particules est utilisée. La cinématique inverse et d'autres techniques d'animation sont introduites, et de nouvelles méthodes de combinaison d'enregistrement vidéo et d'effets d'animation font leur apparition, ce qui rend les scènes et les mouvements plus réalistes. De plus, la technologie des systèmes ouverts vous permet de travailler avec plusieurs packages à la fois. Vous pouvez créer un modèle dans un package, le peindre dans un autre, le faire revivre dans un troisième, le compléter avec une vidéo dans un quatrième. Et enfin, les fonctions de nombreux packages professionnels peuvent aujourd'hui être étendues avec des applications supplémentaires écrites spécifiquement pour le package de base.

Studio 3D et Studio 3D Max

L'un des packages d'animation 3D les plus connus d'IBM est le studio 3D d'Autodesk. Le programme fonctionne sous DOS, fournit l'ensemble du processus de création d'un film en trois dimensions: modélisation d'objets et formation de scènes, animation et visualisation, travail avec la vidéo. De plus, il existe une large gamme de programmes d'application (processus IPAS) écrits spécifiquement pour 3D Studio. Un nouveau programme de la même société appelé 3D Studio MAX pour Windows NT a été en développement au cours des dernières années et prétend être un concurrent des puissants packages de stations de travail SGI. L'interface du nouveau programme est la même pour tous les modules et présente un degré élevé d'interactivité. 3D Studio MAX implémente des capacités de gestion d'animation avancées, stocke l'historique de vie de chaque objet et vous permet de créer une variété d'effets d'éclairage, prend en charge les accélérateurs 3D et possède une architecture ouverte, c'est-à-dire qu'il permet à des tiers d'inclure des applications supplémentaires dans le système .



TrueSpace, Prismes, Trois-D, RenderMan, Crystal Topas

Image électrique, image douce

Pour créer une animation en trois dimensions sur des ordinateurs IBM et Macintosh, il est également pratique d'utiliser le package Electric Image Animation System, qui comprend un large éventail d'outils d'animation, d'effets spéciaux, d'outils sonores et un générateur de polices avec des paramètres personnalisables. Bien que ce programme ne dispose pas d'outils de modélisation, il a la capacité d'importer plus de trente formats de modèles différents. Le package prend également en charge le travail avec des objets hiérarchiques et des outils de cinématique inverse. À son tour, le programme Softimage 3D de Microsoft fonctionne sur les plates-formes SGI et Windows NT. Il prend en charge la modélisation de polygones et de splines, les effets spéciaux, les particules et la technologie de transfert de mouvement des acteurs en direct aux personnages informatiques.

Une image réaliste est une image générée par ordinateur (photographique) de haute qualité d'un produit qui peut être utilisée dans une variété de scènes. Habituellement utilisé pour annoncer des produits qui ne sont pas encore conçus mais pas fabriqués. Le sous-système de création d'images réalistes de produits basés sur leurs modèles solides (par exemple, Photo Works) vous permet de: définir les propriétés de surface (couleur, texture, réflectance, transparence à l'aide d'une bibliothèque de matériaux (la bibliothèque peut être reconstituée par l'utilisateur indépendamment ) ou en attachant une texture (photos, logos) , décorez (chaque modèle est associé à une scène dont vous pouvez définir les propriétés : éclairage, ombres, arrière-plan). Sur la base des informations sur les sources lumineuses placées, des ombres et des pénombres sont générées , donnant une fiabilité extraordinaire à l'image informatique d'une structure qui n'existe pas encore dans la réalité.

Création automatisée de prototypes de produits conçus (Rapid Prototyping)

Ces méthodes visent à créer des modèles réels de produits à partir de leurs modèles informatiques en un temps réduit afin de vérifier leurs performances avant de les lancer en production et afin d'utiliser ces modèles dans la fabrication de produits (par exemple, comme modèles de moules).

Le principe est de créer un modèle tridimensionnel du produit et de le présenter sous la forme de profils bidimensionnels transversaux séparés, appelés coupes de faible épaisseur (0,1-0,5 mm), dont les paramètres sont transférés au Système CNC d'un complexe spécial, à l'aide duquel un modèle réel de chaque coupe, dont l'ensemble forme un modèle réel du produit - son prototype. La création d'un prototype est réalisée sur une base spéciale (substrat) qui, après la fabrication de chaque coupe, est abaissée de l'épaisseur de la coupe. Sur la base de cette méthode, un certain nombre de méthodes de fabrication de prototypes ont été développées :

stéréolithographie;

Revêtement en masse solide ;

À partir de couches de papier spécial ou de papier d'aluminium;

Frittage sélectif avec un laser ;

Soudage.

stéréolithographie( stéréolithographie - STL). Le prototype est réalisé sur un substrat dans un récipient rempli d'un polymère liquide (appelé photopolymère), qui durcit sous l'influence d'un faisceau laser. Le laser est installé sur le corps de travail, dont le mouvement est contrôlé par le système CNC. Le programme de mouvement laser est compilé sur la base de sections de couches individuelles d'un modèle solide tridimensionnel du produit. Le laser balaye la couche suivante, à la suite de quoi le polymère se solidifie dans cette zone, après quoi le substrat est abaissé à l'épaisseur de la coupe, et ce processus est effectué pour la section suivante jusqu'à ce qu'un prototype de produit soit fabriqué.

Méthode de revêtement solide(Solid Ground Curing - SGC) ne nécessite pas l'utilisation d'un laser et implique la mise en œuvre de deux processus parallèles : la création d'un masque et l'application d'une couche de photopolymère. La création d'un masque est réalisée pour chaque découpe d'un modèle solide tridimensionnel par dépôt électrostatique d'un matériau non transparent au passage du rayonnement ultraviolet sur une plaque de masque transparente. Ensuite, un polymère liquide est appliqué sur le substrat, qui durcit sous l'influence du rayonnement ultraviolet. La plaque avec le masque est placée sur le substrat avec le photopolymère et le photopolymère est éclairé par un rayonnement ultraviolet à travers le masque, à la suite de quoi la zone éclairée du photopolymère se solidifie. Le photopolymère non durci est ensuite retiré et remplacé par une couche d'un matériau fusible (tel que de la cire) pour réduire le gauchissement. Le masque est retiré de la plaque et le masque suivant est créé correspondant à la section du calque suivant du modèle. Le processus est répété. A la fin du cycle de fabrication du prototype de produit, la couche de matériau à bas point de fusion est retirée avec un liquide chaud.

Traiter créer des objets à partir de couches de papier spécial ou de papier d'aluminium(Laminated Objekt manufacturing – LOM) enduit d'un adhésif nécessite l'utilisation d'un laser. Chaque couche est créée en introduisant du papier dans la zone de travail, en découpant le contour de la coupe correspondante avec un faisceau laser et en la collant avec la couche précédente à la suite d'un rodage avec un rouleau chaud. Matériau : feuille synthétique, feuille d'aluminium, feuille de céramique, tissu en fibre de carbone.

Frittage sélectif avec un laser(Selective Laser Sintering - SLS) consiste en l'application successive de couches de poudre à partir d'un matériau thermoplastique et le frittage de chaque couche sous l'influence d'un faisceau laser d'un laser commandé par programme. Un matériau en poudre est utilisé, qui peut en principe être utilisé avec tous les matériaux thermoplastiques, tels que les thermoplastiques, la cire pour la coulée de précision, les métaux, le sable de moule.

Création d'objets fusionnés(Fused Deposition Modeling - FDM) ne nécessite pas l'utilisation d'un laser et consiste à créer chaque couche en fusionnant un matériau thermoplastique à l'aide d'une buse chauffée, qui est déplacée à l'aide d'un dispositif à commande numérique.

Matière : thermoplastique, cire spéciale pour coulée de précision.

L'utilisation de modèles tridimensionnels pour le calcul de produits par des méthodes de simulation

Simulation est de créer un modèle de l'objet conçu et de l'expérimenter dans des conditions et contraintes réelles.

Simulation en CAO est réalisé en créant un modèle de l'objet conçu et en observant son fonctionnement avant sa production réelle afin de trouver ses paramètres rationnels. Distinguer entre simulation cinématique et simulation dynamique.

Simulation cinématique est effectué afin de vérifier l'opérabilité d'un objet en train de déplacer ses éléments (vérification des collisions, par exemple, des collisions). Exemples : ensembles de commande, fonctionnement d'un mécanisme mobile.

Simulation dynamique Elle est réalisée en étudiant le comportement d'un objet lorsque les charges et les températures agissant sur lui changent. L'état de sollicitation thermique et les déformations des éléments de l'objet sont déterminés. L'utilisation de modèles analytiques obtenus par des méthodes de physique mathématique pour de tels calculs en relation avec des objets aux configurations complexes est actuellement impossible, car il est nécessaire d'accepter des restrictions qui violent souvent l'adéquation du modèle mathématique de l'objet. Par conséquent, pour résoudre des problèmes de simulation dynamique en CAO, des méthodes approximatives sont utilisées : méthode des éléments finis (FEM) et méthode des différences finies (FDM). Comme l'a montré la pratique, FEM est la méthode la plus efficace pour résoudre les problèmes de simulation en CAO. Cette méthode est basée sur la représentation de l'objet d'étude sous la forme d'un ensemble de quelques figures géométriquement simples, appelées éléments finis, interagissant entre elles uniquement aux nœuds. Des éléments finis situés d'une certaine manière (selon la conception de l'objet) et fixés conformément aux conditions aux limites, dont la forme est déterminée par les caractéristiques de l'objet modélisé, permettent de décrire toute la variété des structures mécaniques et pièces.

Lors de l'exécution de calculs d'ingénierie pour la résistance, l'étape de création de modèles de fiabilité de la résistance des éléments structurels est inévitable. À l'aide de tels modèles, il est possible de choisir le matériau et les dimensions requises des structures et d'évaluer sa résistance aux influences extérieures.

La fiabilité est la propriété d'un produit d'exécuter ses fonctions dans des limites spécifiées pendant une période de temps requise. La fiabilité de la résistance est appelée l'absence de défaillances associées à des destructions ou à des déformations inacceptables, ou, en général, à l'apparition d'un état limite dans un certain sens. La principale mesure de fiabilité est la probabilité de fonctionnement sans défaillance du produit.

Une autre valeur plus courante pour évaluer la fiabilité de la résistance est la marge de sécurité. Soit p un paramètre de performance du produit (par exemple, force agissante, pression, tension équivalente en un point dangereux, etc.). Alors la marge de sécurité est appelée le rapport

où Pcr est la valeur critique (limite) du paramètre P, qui perturbe le fonctionnement normal du produit, Pmax est la plus grande valeur du paramètre dans les conditions de fonctionnement. La condition de fiabilité de la résistance s'écrit :

où [n] est la valeur admissible du facteur de sécurité. La marge de sécurité admissible est attribuée sur la base de l'expérience technique dans l'exploitation de structures similaires (prototypes). Un certain nombre de branches de la technologie ont des normes de résistance dans lesquelles les marges de sécurité admissibles sont réglementées pour différentes conditions de fonctionnement. La plage habituelle de changements [n] va de 1, 3 (sous des conditions de charge stables) à 5 ou plus (sous des charges variables et dynamiques). Dans la pratique des calculs, des méthodes analytiques et numériques sont utilisées. Les premiers sont basés sur des méthodes mathématiques pour résoudre des problèmes de valeurs aux limites, qui sont généralement complexes et chronophages, et sont souvent limités à des formes géométriques assez simples de corps et de schémas de chargement. Les méthodes numériques, qui comprennent notamment la méthode des différences finies, la méthode des équations intégrales aux frontières, la méthode des éléments aux frontières, la méthode des éléments finis et d'autres méthodes, au contraire, ne sont limitées ni par la forme des corps ou la méthode d'application de la charge. Ceci, ainsi que l'omniprésence d'une technologie informatique puissante, contribue à leur diffusion dans l'environnement d'ingénierie.

L'idée principale de la méthode des éléments finis est que toute valeur continue (déplacement, température, pression, etc.) peut être approchée par un modèle composé d'éléments individuels (sections).

L'objet est représenté comme un ensemble de figures simples (d'un point de vue géométrique), appelées éléments finis (pour un problème plat - rectangles, triangles, pour un problème tridimensionnel - parallélépipèdes, prismes, tétraèdres), qui interagissent avec chacune autres aux nœuds. Les éléments peuvent être linéaires ou paraboliques (ayant des nœuds au milieu des arêtes). Sur chacun de ces éléments, la quantité continue étudiée est approximée par une fonction continue par morceaux, qui est basée sur les valeurs de la quantité continue étudiée en un nombre fini de points de l'élément considéré. Pour cela, des fonctions linéaires (premier ordre) ou paraboliques (deuxième ordre) sont utilisées.

Des conditions aux limites sont appliquées aux nœuds: cinématiques (fixations, déplacements) et statiques (charges), à la suite desquelles le corps est déformé. La condition d'équilibre pour chaque élément :

où P est le vecteur force, U est le vecteur déplacement, est la matrice de rigidité de l'élément fini, qui inclut le module d'Young E, qui caractérise la résistance du matériau à la déformation élastique (le rapport de la contrainte à la déformation élastique causée par it) et le coefficient de Poisson μ (le rapport de la déformation transversale à la déformation longitudinale).

Les matrices de rigidité de tous les éléments finis sont combinées dans une matrice de rigidité globale [K], les déplacements et les forces aux nœuds sont combinés dans des colonnes communes de déplacements [U] et de forces [P], respectivement.

En conséquence, un système d'équations linéaires est créé dans lequel les déplacements sont inconnus :

Le système d'équations est résolu avec le calcul des déplacements de chaque nœud. Cela est devenu possible lorsqu'en 1963 il a été prouvé que ce FEM peut être considéré comme l'une des variantes de la méthode de Rayleigh-Ritz connue en mécanique des structures, qui, en minimisant l'énergie potentielle, permet de réduire le problème à un système d'équations d'équilibre linéaire . C'est-à-dire que la solution obtenue correspond à l'énergie potentielle minimale du système élastique déformé.

Les déplacements sont liés aux contraintes correspondantes par la loi de Hooke :

Pour l'évaluation visuelle des résultats de calcul obtenus, la distribution des valeurs des paramètres obtenus (contraintes, déformations) est présentée sous forme d'isolignes (sur lesquelles la valeur du paramètre est constante), dont la couleur et la saturation changent en fonction sur la valeur du paramètre. De plus, pour une appréciation qualitative visuelle de l'état déformé de l'objet, les déformations sont représentées déformées.

Peu importe la taille et la richesse du monde virtuel 3D. Un ordinateur ne peut l'afficher que d'une seule manière : en mettant des pixels sur un écran 2D. Dans cette partie de l'article, vous apprendrez comment l'image à l'écran devient réaliste et comment les scènes deviennent similaires à celles que vous voyez dans le monde réel. Tout d'abord, nous verrons comment le réalisme est donné à un objet. Ensuite, nous passerons à toute la scène. Et enfin, nous verrons comment l'ordinateur implémente le mouvement : des objets réalistes se déplacent à des vitesses réalistes.

Avant que l'image ne devienne réaliste, les objets passent par plusieurs étapes de traitement. Les étapes les plus importantes sont la création de formes, l'habillage de textures, l'éclairage, la création de perspectives, la profondeur de champ et l'anticrénelage.

Création de formulaire

Si nous regardons par la fenêtre, nous verrons que tous les objets ont une forme, ils sont créés à partir de lignes droites et courbes de différentes tailles et positions. De même, en regardant une image graphique en trois dimensions sur un écran d'ordinateur, nous observerons une image créée à partir de diverses formes, bien que la plupart d'entre elles soient déjà constituées de lignes droites. Nous voyons des carrés, des rectangles, des parallélogrammes, des cercles et des losanges. Mais surtout, nous voyons des triangles. Afin de créer une image fiable avec des lignes courbes, comme dans le monde qui nous entoure, il faut composer une forme à partir de nombreux petits moules. Par exemple, le corps humain peut nécessiter des milliers de ces moules. Ensemble, ils formeront une structure appelée échafaudage. Un filaire est très similaire à l'esquisse d'un objet, vous pouvez facilement identifier un objet à partir du filaire. La prochaine étape après la création du formulaire est également importante : le filaire doit recevoir une surface.

L'illustration montre un squelette de main composé d'un petit nombre de polygones - 862 au total

Textures de surface

Lorsque nous rencontrons une surface dans le monde réel, nous pouvons obtenir des informations à son sujet de deux manières. Nous pouvons regarder la surface, sous différents angles, et nous pouvons la toucher et déterminer si elle est molle ou dure. Dans les graphiques 3D, nous ne pouvons regarder que la surface, tout en obtenant toutes les informations disponibles. Et ces informations sont composées de trois éléments :

  • Couleur: Quelle couleur de surface ? Est-il uniformément coloré ?
  • Texture: La surface est-elle plate ou présente-t-elle des bosses, des bosses, un redressement ou quelque chose de similaire ?
  • Réflectivité : La surface réfléchit-elle la lumière ? Les reflets sont-ils nets ou sont-ils flous ?

Une façon de donner de la "réalité" à un objet consiste à sélectionner une combinaison de ces trois composants dans différentes parties de l'image. Regardez autour de vous : votre clavier d'ordinateur a une couleur/texture/réflectivité différente de celle de votre bureau, qui à son tour a une couleur/texture/réflectivité différente de celle de votre main. Pour que la couleur de l'image ressemble à la réalité, il est important que l'ordinateur puisse choisir la couleur d'un pixel parmi une palette de millions de couleurs différentes. La variété des textures dépend à la fois du modèle mathématique de la surface (de la peau d'une grenouille au matériau gélatineux) et des cartes de texture (cartes de texture) qui se superposent aux surfaces. Il est également nécessaire d'inculquer aux objets ces qualités qui ne se voient pas : douceur et dureté, chaleur et froideur à travers diverses combinaisons de couleurs, de textures et de réflectivité. Si vous vous trompez sur au moins un de ces paramètres, le sentiment de réalité se dissipera instantanément.


L'ajout d'une surface à un filaire commence à changer
une image de quelque chose de mathématique à une image,
dans lequel on peut facilement trouver une main.

Éclairage

Lorsque vous entrez dans une pièce sombre, vous allumez la lumière. Vous ne pensez pas à la façon dont la lumière, sortant de l'ampoule, est distribuée dans toute la pièce. Mais lors du développement de graphiques 3D, vous devez constamment en tenir compte, car toutes les surfaces entourant le filaire doivent être éclairées de quelque part. Une méthode, appelée lancer de rayons, trace le chemin qu'un rayon imaginaire empruntera après avoir quitté la lampe, se reflétant sur les surfaces en miroir et se terminant finalement sur l'objet. Le faisceau l'éclairera avec une intensité différente sous différents angles. La méthode semble assez compliquée même lors de la construction de rayons à partir d'une seule lampe, mais dans la plupart des pièces, il existe de nombreuses sources de lumière : plusieurs lampes, fenêtres, bougies, etc.

L'éclairage joue un rôle clé dans deux effets qui donnent une impression de poids et de solidité aux objets : l'ombrage et les ombres. Le premier effet de l'ombrage est de changer l'intensité lumineuse d'un objet d'un côté à l'autre. Grâce à l'ombrage, la balle a l'air ronde, les pommettes hautes ressortent sur le visage et la couverture semble volumineuse et douce. Ces différences d'intensité lumineuse, ainsi que la forme, renforcent l'illusion que l'objet a de la profondeur en plus de la hauteur et de la largeur. L'illusion de poids est créée par le second effet : l'ombre.


La mise en surbrillance d'une image ajoute non seulement de la profondeur
objet à travers l'ombrage, mais aussi "lie"
objet au sol à travers l'ombre.

Les corps optiquement denses projettent une ombre lorsqu'ils sont éclairés. Vous pouvez voir une ombre sur un cadran solaire ou regarder l'ombre d'un arbre sur le trottoir. Dans le monde réel, les objets et les personnes projettent des ombres. Si des ombres sont présentes dans le monde 3D, il vous semblera encore plus que vous regardez à travers une fenêtre sur le monde réel, et non sur un écran avec des modèles mathématiques.

perspective

Le mot perspective semble être un terme technique, mais il décrit en fait l'effet le plus simple que nous observons tous. Si vous vous tenez sur le bord d'une longue route droite et regardez au loin, il vous semblera que les voies droite et gauche de la route convergent vers un point à l'horizon. Si des arbres sont plantés le long de la route, plus les arbres sont éloignés de l'observateur, plus ils sont petits. Vous remarquerez que les arbres convergent vers le même point à l'horizon que la route. Si tous les objets sur l'écran convergent vers un point, cela s'appellera la perspective. Il existe bien sûr d'autres options, mais essentiellement dans les graphiques en trois dimensions, la perspective d'un point, décrite ci-dessus, est utilisée.

Dans l'illustration ci-dessus, les mains semblent être séparées, mais dans la plupart des scènes, certains objets sont devant et bloquent partiellement la vue d'autres objets. Pour de telles scènes, le logiciel doit non seulement calculer la taille relative des objets, mais également prendre en compte les informations sur les objets qui en obscurcissent les autres et dans quelle mesure. Le plus couramment utilisé pour cela est le Z-buffer (Z-Buffer). Ce tampon tire son nom du nom de l'axe Z, ou d'une ligne imaginaire qui passe derrière l'écran à travers la scène jusqu'à l'horizon. (Les deux autres axes sont l'axe X, qui mesure la largeur de la scène, et l'axe Y, qui mesure la hauteur de la scène).

Le tampon Z attribue à chaque polygone un numéro en fonction de la proximité du bord avant de la scène de l'objet contenant ce polygone. En règle générale, les nombres inférieurs sont attribués aux polygones les plus proches de l'écran et les nombres supérieurs sont attribués aux polygones adjacents à l'horizon. Par exemple, un tampon Z 16 bits attribuerait le nombre -32,768 le plus proche de l'écran et 32,767 le plus éloigné.

Dans le monde réel, nos yeux ne peuvent pas voir les objets couverts par d'autres, nous n'avons donc aucun problème à identifier les objets visibles. Mais ces problèmes surgissent constamment devant l'ordinateur, et il est obligé de les résoudre directement. Au fur et à mesure que chaque objet est créé, sa valeur Z est comparée à la valeur des autres objets occupant la même zone en coordonnées X et Y. L'objet avec la plus petite valeur Z sera entièrement dessiné, tandis que d'autres objets avec des valeurs Z plus grandes ​ne sera que partiellement tiré. Ainsi, nous ne voyons pas d'objets d'arrière-plan dépassant à travers les personnages. Étant donné que le tampon Z est activé avant le dessin complet des objets, les parties de la scène cachées derrière le personnage ne seront pas dessinées du tout. Cela accélère les performances graphiques.

Profondeur de champ

Un autre effet optique, la profondeur de champ, est également utilisé avec succès dans les graphiques 3D. Nous utiliserons le même exemple avec des arbres plantés sur le bord de la route. Au fur et à mesure que les arbres s'éloignent de l'observateur, un autre effet intéressant se produira. Si vous regardez les arbres les plus proches de vous, les arbres éloignés seront flous. Cela est particulièrement évident lors de la visualisation d'une photo ou d'une vidéo avec les mêmes arbres. Les réalisateurs et les animateurs informatiques utilisent cet effet à deux fins. La première consiste à renforcer l'illusion de profondeur dans la scène observée. Bien sûr, l'ordinateur peut dessiner chaque objet de la scène exactement au point, quelle que soit sa distance. Mais comme l'effet de profondeur de champ est toujours présent dans le monde réel, dessiner tous les objets au point conduira à une violation de l'illusion de la réalité de la scène.

La deuxième raison d'utiliser cet effet est d'attirer votre attention sur les bons sujets ou acteurs. Par exemple, pour améliorer votre concentration sur un personnage de film, le réalisateur utilisera un effet de faible profondeur de champ où un seul acteur est mis au point. D'autre part, les scènes censées vous émerveiller par la majesté de la nature utilisent l'effet de profondeur de champ profond pour mettre au point autant d'objets que possible.

Anti crénelage

L'anticrénelage est une autre technologie conçue pour tromper l'œil. Les systèmes graphiques numériques sont très efficaces pour créer des lignes verticales ou horizontales. Mais lorsque des diagonales et des courbes apparaissent (et elles apparaissent très souvent dans le monde réel), l'ordinateur trace des lignes avec des "échelles" caractéristiques au lieu de bords lisses. Pour convaincre vos yeux qu'ils voient une ligne ou une courbe lisse, l'ordinateur ajoute des pixels autour de la ligne avec différentes nuances de couleur de ligne. Ces pixels "gris" créent l'illusion qu'il n'y a pas de "marches". Ce processus d'ajout de pixels pour tromper l'œil est appelé anti-aliasing et est l'une des techniques qui distingue l'infographie 3D des graphiques "dessinés à la main". La tâche de conserver les lignes et d'ajouter juste la bonne quantité de couleurs "lissantes" est une autre tâche délicate pour l'ordinateur pour créer une animation 3D sur votre écran.

Pour augmenter le réalisme de l'affichage des textures superposées aux polygones, différentes technologies sont utilisées :

Lissage (Anti-aliasing);

· mappage MIP ;

filtrage de texture.

Technologie anti-aliasing

L'anti-crénelage est une technologie utilisée dans le traitement d'image pour éliminer l'effet des bords "étagés" (crénelage) des objets. Avec la méthode raster de formation d'une image, celle-ci est constituée de pixels. En raison du fait que les pixels ont une taille finie, ce que l'on appelle des escaliers ou des bords en escalier peuvent être distingués sur les bords d'objets tridimensionnels. Pour minimiser l'effet d'escalier, le plus simple est d'augmenter la résolution de l'écran, réduisant ainsi la taille des pixels. Mais ce chemin n'est pas toujours possible. Si vous ne pouvez pas vous débarrasser de l'effet de marche en augmentant la résolution du moniteur, vous pouvez utiliser la technologie Anti-aliasing, qui vous permet de lisser visuellement l'effet des escaliers. La technique la plus couramment utilisée pour cela consiste à créer une transition en douceur entre la couleur de la ligne ou du bord et la couleur d'arrière-plan. La couleur d'un point situé sur la bordure d'objets est définie comme la valeur moyenne des couleurs des deux points de bordure.

Il existe plusieurs technologies anti-aliasing de base. Pour la première fois, le résultat de la plus haute qualité a été donné par la technologie d'anti-aliasing plein écran FSAA (Full Screen Anti-Aliasing). Dans certaines sources littéraires, cette technologie est appelée SSAA. L'essence de cette technologie réside dans le fait que le processeur calcule une image à une résolution beaucoup plus élevée que la résolution de l'écran, puis, lorsqu'elle est affichée à l'écran, fait la moyenne des valeurs d'un groupe de pixels à un; le nombre de pixels moyen correspond à la résolution d'écran du moniteur. Par exemple, si une image avec une résolution de 800x600 est anticrénelée à l'aide de FSAA, l'image sera calculée à une résolution de 1600x1200. Lors du passage à la résolution du moniteur, les couleurs des quatre points calculés correspondant à un pixel du moniteur sont moyennées. En conséquence, toutes les lignes ont des transitions de couleurs douces, ce qui élimine visuellement l'effet des escaliers.

FSAA fait beaucoup de travail inutile, chargeant le GPU, lissant non pas les bordures, mais toute l'image, ce qui est son principal inconvénient. Pour remédier à cette lacune, une technologie plus économique, MSSA, a été développée.

L'essence de la technologie MSSA est similaire à la technologie FSAA, mais aucun calcul n'est effectué sur les pixels à l'intérieur des polygones. Pour les pixels sur les bords des objets, en fonction du niveau de lissage, 4 points supplémentaires ou plus sont calculés, par lesquels la couleur finale du pixel est déterminée. Cette technologie est la plus répandue à l'heure actuelle.

Les développements individuels des fabricants d'adaptateurs vidéo sont connus. Par exemple, NVIDIA a développé la technologie Coverage Sampling (CSAA), qui n'est prise en charge que par les adaptateurs vidéo GeForce à partir de la 8e série (8600 - 8800, 9600 - 9800). ATI a introduit AAA (Adaptive Anti-Aliasing) dans le processeur graphique R520 et tous les anti-aliasing adaptatifs ultérieurs.

Technologie de cartographie MIP

La technologie est utilisée pour améliorer la qualité de la texturation des objets 3D. Pour ajouter du réalisme à une image en trois dimensions, il est nécessaire de prendre en compte la profondeur de la scène. Au fur et à mesure que vous vous éloignez du point de vue, la texture de superposition devrait sembler de plus en plus floue. Par conséquent, lors de la texturation même d'une surface homogène, non pas une, mais plusieurs textures sont le plus souvent utilisées, ce qui permet de prendre correctement en compte les distorsions de perspective d'un objet tridimensionnel.

Par exemple, il est nécessaire de représenter un trottoir pavé qui pénètre profondément dans la scène. Si vous essayez d'utiliser une seule texture sur toute la longueur, lorsque vous vous éloignez du point de vue, des ondulations ou une seule couleur unie peuvent apparaître. Le fait est que dans cette situation, plusieurs pixels de texture (texels) tombent dans un pixel sur le moniteur à la fois. La question se pose : en faveur de quel texel choisir lors de l'affichage d'un pixel ?

Cette tâche est résolue à l'aide de la technologie de mappage MIP, ce qui implique la possibilité d'utiliser un ensemble de textures avec différents niveaux de détail. Sur la base de chaque texture, un ensemble de textures avec un niveau de détail inférieur est créé. Les textures d'un tel ensemble sont appelées MIP - maps (MIP map).

Dans le cas le plus simple du mappage de texture, pour chaque pixel de l'image, le mappage MIP correspondant est déterminé en fonction de la table LOD (Level of Detail). En outre, un seul texel est sélectionné à partir de la carte MIP, dont la couleur est attribuée au pixel.

Technologies de filtration

En règle générale, la technologie de mappage MIP est utilisée en combinaison avec des technologies de filtrage conçues pour corriger les artefacts de texture mip. Par exemple, lorsqu'un objet s'éloigne du point de vue, une transition d'un niveau de carte MIP bas à un niveau de carte MIP supérieur se produit. Lorsqu'un objet est dans un état de transition d'un niveau de carte MIP à un autre, un type spécial d'erreur de visualisation apparaît : des limites clairement distinguables de la transition d'un niveau de carte MIP à un autre.

L'idée du filtrage est que la couleur des pixels d'un objet est calculée à partir des points de texture adjacents (texels).

La première méthode de filtrage de texture était ce que l'on appelle l'échantillonnage ponctuel, qui n'est pas utilisé dans les graphiques 3D modernes. Le suivant a été développé bilinéaire filtration. Le filtrage bilinéaire prend la moyenne pondérée de quatre pixels de texture adjacents pour afficher un point sur la surface. Avec un tel filtrage, la qualité des objets en rotation lente ou en mouvement lent avec des bords (comme un cube) est faible (bords flous).

Une qualité supérieure donne trilinéaire filtrage, dans lequel pour déterminer la couleur d'un pixel, la valeur de couleur moyenne de huit texels est prise, quatre de deux structures adjacentes, et à la suite de sept opérations de mélange, la couleur du pixel est déterminée.

Avec la croissance des performances des GPU, un anisotrope filtration, qui a été appliquée avec succès jusqu'à présent. Lors de la détermination de la couleur d'un point, il utilise un grand nombre de texels et tient compte de la position des polygones. Le niveau de filtrage anisotrope est déterminé par le nombre de texels traités lors du calcul de la couleur d'un pixel : 2x (16 texels), 4x (32 texels), 8x (64 texels), 16x (128 texels). Ce filtrage garantit une haute qualité de l'image animée affichée.

Tous ces algorithmes sont implémentés par le processeur graphique de la carte vidéo.

Interface de programmation d'applications (API)

Pour accélérer l'exécution des étapes du pipeline 3D, l'accélérateur graphique 3D doit avoir un certain ensemble de fonctions, c'est-à-dire en matériel, sans la participation du processeur central, pour effectuer les opérations nécessaires à la construction d'une image 3D. L'ensemble de ces fonctions est la caractéristique la plus importante de l'accélérateur 3D.

Étant donné que l'accélérateur 3D possède son propre jeu de commandes, il ne peut être utilisé efficacement que si le programme d'application utilise ces commandes. Mais, comme il existe de nombreux modèles différents d'accélérateurs 3D, ainsi que divers programmes d'application qui génèrent des images en trois dimensions, un problème de compatibilité se pose : il est impossible d'écrire un tel programme qui utiliserait aussi bien les commandes de bas niveau de divers accélérateurs. De toute évidence, les développeurs de logiciels d'application et les fabricants d'accélérateurs 3D ont besoin d'un ensemble d'utilitaires spéciaux remplissant les fonctions suivantes :

conversion efficace des demandes de programme d'application en une séquence optimisée de commandes de bas niveau de l'accélérateur 3D, en tenant compte des particularités de sa construction matérielle ;

émulation logicielle des fonctions demandées si l'accélérateur utilisé n'a pas leur support matériel.

Un package utilitaire spécial pour exécuter ces fonctions est appelé Interface de programmation d'applications (Interface du programme d'application = API).

L'API occupe une position intermédiaire entre les programmes d'application de haut niveau et les commandes d'accélérateur de bas niveau générées par son pilote. L'utilisation de l'API soulage le développeur d'applications de la nécessité de travailler avec des commandes d'accélérateur de bas niveau, facilitant ainsi le processus de création de programmes.

Actuellement, il existe plusieurs API en 3D dont le périmètre est assez clairement délimité :

DirectX, développé par Microsoft, utilisé dans les applications de jeu fonctionnant sur Windows 9X et les systèmes d'exploitation ultérieurs ;

OpenGL, utilisé principalement dans les applications professionnelles (systèmes de conception assistée par ordinateur, systèmes de modélisation 3D, simulateurs, etc.) fonctionnant sous le système d'exploitation Windows NT ;

API propriétaires (natives) créés par les fabricants d'accélérateurs 3D exclusivement pour leurs chipsets afin d'utiliser leurs capacités de la manière la plus efficace.

DirectX est une norme fermée étroitement réglementée qui n'autorise pas les modifications jusqu'à la sortie de sa prochaine nouvelle version. D'une part, cela limite les capacités des développeurs de logiciels et en particulier des fabricants d'accélérateurs, mais cela simplifie grandement la configuration des logiciels et du matériel pour la 3D par l'utilisateur.

Contrairement à DirectX, l'API OpenGL est construite sur le concept d'une norme ouverte, avec un petit ensemble de fonctionnalités de base et de nombreuses extensions qui implémentent des fonctionnalités plus avancées. Le fabricant de l'accélérateur Chipset 3D est tenu de créer un BIOS et des pilotes qui exécutent les fonctions Open GL de base, mais n'est pas tenu de prendre en charge toutes les extensions. Cela pose un certain nombre de problèmes liés à l'écriture de pilotes pour leurs produits par les fabricants, qui sont fournis à la fois sous une forme complète et sous une forme tronquée.

La version complète du pilote compatible OpenGL est appelée ICD (Installable Client Driver - pilote d'application client). Il offre des performances maximales, tk. contient des codes de bas niveau qui prennent en charge non seulement l'ensemble de fonctions de base, mais également ses extensions. Naturellement, compte tenu du concept d'OpenGL, la création d'un tel pilote est un processus extrêmement complexe et chronophage. C'est l'une des raisons pour lesquelles les accélérateurs 3D professionnels sont plus chers que les accélérateurs de jeu.