Maison / l'Internet / Technologie Ethernet rapide. Description de la technologie Fast Ethernet Protocole Fast Ethernet

Technologie Ethernet rapide. Description de la technologie Fast Ethernet Protocole Fast Ethernet

Ethernet malgré
malgré tout son succès, n'a jamais été élégant.
Les NIC n'ont que des éléments rudimentaires
la notion d'intelligence. Ils ont vraiment
le paquet est envoyé en premier, et ensuite seulement
voir si quelqu'un d'autre a transmis les données
en même temps avec eux. Quelqu'un a comparé Ethernet à
une société dans laquelle les gens peuvent communiquer
les uns avec les autres seulement quand tout le monde crie
simultanément.

Comme lui
prédécesseur, Fast Ethernet utilise la méthode
CSMACD (Carrier Sense Multiple Access avec
Détection de collision - Environnement à accès multiple avec
détection de porteuse et détection de collision).
Derrière ce sigle long et obscur
cache une technologie très simple. Lorsque
la carte Ethernet doit envoyer un message, puis
elle attend d'abord le silence, puis
envoie un paquet et écoute en même temps, non
est-ce que quelqu'un a envoyé un message
en même temps que lui. Si cela s'est produit, alors
les deux paquets n'atteignent pas la destination. Si un
il n'y a pas eu de collision, et le conseil devrait continuer
transmettre des données, il attend toujours
quelques microsecondes avant de nouveau
va essayer d'envoyer une nouvelle portion. ce
fait pour que d'autres planches aussi
pourrait fonctionner et personne ne pourrait capturer
monopole du canal. En cas de collision, les deux
les appareils sont silencieux pendant un court instant
laps de temps généré
au hasard, puis prendre
une nouvelle tentative de transfert de données.

A cause des collisions
Ethernet ni Fast Ethernet ne peuvent jamais atteindre
ses performances maximales 10
ou 100 Mbit/s. Dès que ça commence
augmenter le trafic réseau, temporaire
délais entre l'envoi de paquets individuels
sont réduits et le nombre de collisions
augmente. Réel
Les performances Ethernet ne peuvent pas dépasser
70% de son débit potentiel
capacité, et peut être encore plus faible si la ligne
sérieusement surchargé.

Ethernet utilise
la taille du paquet est de 1516 octets, ce qui est bien
adapté lors de sa création.
Aujourd'hui, il est considéré comme un inconvénient lorsque
Ethernet est utilisé pour la communication
serveurs, puisque les serveurs et les lignes de communication
ont tendance à échanger
le nombre de petits paquets qui
surcharge le réseau. De plus, Fast Ethernet
impose une limite à la distance entre
appareils connectés - pas plus de 100
mètres et ça te fait montrer
attention supplémentaire lorsque
conception de tels réseaux.

Au début, Ethernet était
conçu sur la base de la topologie en bus,
lorsque tous les appareils sont connectés à un point commun
câble, fin ou épais. Application
paire torsadée n'a que partiellement modifié le protocole.
Lors de l'utilisation d'un câble coaxial
la collision a été déterminée immédiatement par tous
gares. En cas de paire torsadée
utiliser le signal "jam" dès que
la station détecte une collision, puis elle
envoie un signal au hub, ce dernier en
envoie à son tour "jam" à tout le monde
appareils qui y sont connectés.

À
réduire la congestion, les réseaux Ethernet
décomposé en segments qui
relié aux ponts et
routeurs. Cela vous permet de transférer
uniquement le trafic nécessaire entre les segments.
Un message envoyé entre deux
les stations du même segment ne seront pas
transféré à un autre et ne pourra pas y faire appel
surcharge.

Aujourd'hui à
construction de l'autoroute centrale,
utilisation des serveurs de mutualisation
Ethernet commuté. Les commutateurs Ethernet peuvent
être considéré comme à grande vitesse
ponts multiports capables de
déterminer indépendamment quel
ports auxquels le paquet est adressé. Changer
examine les en-têtes de paquet et
compile une table qui définit
où est tel ou tel abonné avec tel
adresse physique. Ceci permet
limiter la portée d'un package
et réduire les risques de débordement,
en l'envoyant uniquement au bon port. Seulement
les paquets de diffusion sont envoyés
tous les ports.

100BaseT
- grand frère 10BaseT

idée de technologie
Fast Ethernet est né en 1992. En août
groupe de fabricants de l'année prochaine
fusionné avec la Fast Ethernet Alliance (FEA).
L'objectif de la FEA était d'obtenir
approbation formelle de Fast Ethernet par le comité
802.3 Institut des ingénieurs électriciens et
radioélectronique (Institut d'Electricité et d'Electronique
Engineers, IEEE), puisque ce comité particulier
traite des normes pour Ethernet. Chance
accompagnée de nouvelles technologies et
alliance de soutien : en juin 1995
toutes les procédures formelles ont été achevées, et
Les technologies Fast Ethernet ont été nommées
802.3u.

Avec une main légère IEEE
Fast Ethernet est appelé 100BaseT. Ceci s'explique
simple : 100BaseT est une extension
Norme 10BaseT avec bande passante de
10Mbps à 100Mbps. La norme 100BaseT comprend
comprend un protocole de gestion de plusieurs
accès par détection de porteuse et
Détection de conflits CSMA/CD (Carrier Sense Multiple)
Access with Collision Detection), qui est également utilisé dans
10BaseT. De plus, Fast Ethernet peut fonctionner sur
câbles de plusieurs types, y compris
paire torsadée. Ces deux propriétés du nouveau
les normes sont très importantes pour le potentiel
clients, et c'est grâce à eux que 100BaseT
s'avère être un moyen efficace de migrer les réseaux
basé sur 10BaseT.

chef
analyse de rentabilisation pour 100BaseT
est que Fast Ethernet est basé sur
technologie héritée. Depuis en Fast Ethernet
le même protocole de transfert est utilisé
messages, comme dans les anciennes versions d'Ethernet, et
systèmes de câbles de ces normes
compatible, pour la transition vers 100BaseT à partir de 10BaseT
obligatoire

plus petit
investissement en capital que pour l'installation
autres types de réseaux à haut débit. À l'exception
De plus, puisque 100BaseT est
continuation de l'ancienne norme Ethernet, tous
outils et procédures
l'analyse des performances du réseau, ainsi que tous
logiciel tournant sur
les anciens réseaux Ethernet devraient dans cette norme
continue de travailler.
Par conséquent, l'environnement 100BaseT sera familier
administrateurs réseau expérimentés
avec Ethernet. Cela signifie que la formation du personnel prendra
moins de temps et de coûts de manière significative
moins cher.

PRÉSERVATION
PROTOCOLE

Peut-être,
le plus grand avantage pratique du nouveau
la technologie a amené la décision de partir
protocole de passage de message inchangé.
Protocole de transmission de messages, dans notre cas
CSMA/CD définit la manière dont les données
transmis sur le réseau d'un nœud à un autre
via le système de câbles. Dans le modèle ISO/OSI
le protocole CSMA/CD fait partie de la couche
contrôle d'accès aux médias (MAC).
Ce niveau définit le format
quelles informations sont transmises sur le réseau, et
la manière dont un périphérique réseau reçoit
accès au réseau (ou gestion du réseau) pour
transmission de données.

Nom CSMA/CD
peut être divisé en deux parties : Carrier Sense Multiple Access
et détection de collision. Dès la première partie du nom
conclure comment un nœud avec un réseau
l'adaptateur détermine le moment où il
un message doit être envoyé. Selon
Protocole CSMA, le nœud de réseau "écoute" d'abord
réseau pour déterminer s'il est transmis dans
actuellement aucun autre message.
Si vous entendez une tonalité porteuse (tonalité porteuse),
cela signifie que le réseau est occupé en ce moment
message - le nœud de réseau passe en mode
attend et y reste jusqu'à ce que le réseau
sortira. Quand le réseau arrive
silence, le nœud commence à émettre.
En fait, les données sont envoyées à tous les nœuds
réseau ou segment, mais ne sont acceptés que par ceux
nœud auquel ils sont adressés.

Détection de collision-
la deuxième partie du nom est utilisée pour résoudre
situations où deux nœuds ou plus tentent de
envoyer des messages en même temps.
Selon le protocole CSMA, chaque prêt pour
transmission, le nœud doit d'abord écouter le réseau,
pour déterminer si elle est libre. Cependant,
si deux nœuds écoutent en même temps,
les deux décideront que le réseau est libre et commenceront
envoyer leurs paquets en même temps. Dans ce
situations données transmises
superposés (réseau
les ingénieurs appellent ce conflit), et aucun
des messages n'atteint pas le point
destination. La détection de collision nécessite que le nœud
écouté le réseau également après la transmission
forfait. Si un conflit est détecté, alors
le nœud répète la transmission via un réseau aléatoire
une période de temps choisie et
vérifie à nouveau si un conflit s'est produit.

TROIS TYPES DE FAST ETHERNET

De même que
préservation du protocole CSMA/CD, d'autres éléments importants
la solution était de concevoir 100BaseT comme ceci
de manière à ce qu'il puisse être appliqué
câbles de différents types - comme ceux qui
utilisé dans les anciennes versions d'Ethernet, et
modèles plus récents. La norme définit trois
modifications pour assurer le travail avec
différents types de câbles Fast Ethernet : 100BaseTX, 100BaseT4
et 100BaseFX. Les modifications 100BaseTX et 100BaseT4 sont calculées
sur paire torsadée, tandis que 100BaseFX a été conçu pour
Cable optique.

Norme 100BaseTX
nécessite l'utilisation de deux paires d'UTP ou de STP. Une
une paire est utilisée pour la transmission, l'autre pour
ACCUEIL. Ces exigences sont remplies par deux
norme principale de câble : EIA/TIA-568 UTP
STP de catégorie 5 et de type 1 d'IBM. Vers 100BaseTX
disposition attrayante
mode duplex intégral lorsque vous travaillez avec
serveurs de réseau, ainsi que l'utilisation
seulement deux des quatre paires de huit cœurs
câbles - les deux autres paires restent
gratuit et peut être utilisé dans
encore élargir les possibilités
réseaux.

Cependant, si vous
vont travailler avec 100BaseTX en utilisant
ce câblage de catégorie 5, vous devez
être conscient de ses lacunes. Ce câble
plus cher que les autres câbles à huit conducteurs (par exemple
Catégories 3). De plus, travailler avec
nécessite l'utilisation de blocs de punchdown (punchdown
blocs), connecteurs et panneaux de brassage,
répondant aux exigences de la catégorie 5.
Il convient d'ajouter que pour soutenir
le mode duplex intégral doit
installer des commutateurs en duplex intégral.

Norme 100BaseT4
a des exigences plus clémentes pour
le câble utilisé. La raison en est
le fait que 100BaseT4 utilise
les quatre paires de câble à huit conducteurs : un
pour la transmission, l'autre pour la réception, et
les deux autres fonctionnent comme une transmission,
ainsi que pour l'accueil. Donc en 100BaseT4 et recevoir,
et la transmission des données peut être effectuée par
trois paires. Extension de 100 Mbps en trois paires,
100BaseT4 réduit la fréquence du signal, donc
car sa transmission est assez et moins
câble de haute qualité. Pour la mise en œuvre
Réseaux 100BaseT4, UTP Catégorie 3 et
5 ainsi que UTP Catégorie 5 et STP Type 1.

Avantage
100BaseT4 est moins rigide
exigences de câblage. Catégorie 3 et
4 sont plus courants, et en plus, ils
Nettement moins cher que les câbles
Catégories 5 choses à garder à l'esprit avant
début des travaux d'installation. Désavantages
sont que 100BaseT4 a besoin des quatre
paires et qu'est-ce que le mode duplex intégral par ceci
protocole n'est pas pris en charge.

Fast Ethernet inclut
également standard pour le fonctionnement multimode
fibre optique avec noyau de 62,5 microns et 125 microns
coquille. La norme 100BaseFX se concentre sur
principalement sur l'autoroute - par connexion
Répéteurs Fast Ethernet dans un
imeuble. Avantages traditionnels
le câble optique est inhérent et standard
100BaseFX : immunité électromagnétique
bruit, meilleure protection des données et grand
distances entre les périphériques réseau.

COUREUR
DISTANCE COURTE

Bien que Fast Ethernet et
est une continuation de la norme Ethernet,
la transition d'un réseau 10BaseT à un réseau 100BaseT n'est pas possible
être considéré comme un remplacement mécanique
équipement - pour cela, ils peuvent
des changements dans la topologie du réseau sont nécessaires.

Théorique
Limite de diamètre de segment Fast Ethernet
est de 250 mètres; c'est seulement 10
pourcentage de la limite de taille théorique
Réseaux Ethernet (2500 mètres). Cette restriction
découle de la nature du protocole CSMA/CD et
vitesse de transmission de 100 Mbps.

Quoi déjà
noté précédemment, la transmission de données
station de travail doit écouter sur le réseau dans
période de temps pour s'assurer
que les données ont atteint la station de destination.
Sur un réseau Ethernet avec une bande passante de 10
Intervalle de temps en Mbps (par exemple 10Base5),
poste de travail nécessaire pour
écouter le réseau pour un conflit,
déterminé par la distance que 512 bits
trame (taille de trame spécifiée dans la norme Ethernet)
passera lors du traitement de cette trame sur
poste de travail. Pour un réseau Ethernet avec bande passante
avec une capacité de 10 Mbps, cette distance est égale à
2500 mètres.

D'autre part,
la même trame 512 bits (norme 802.3u
spécifie une trame de même taille que 802.3, puis
est en 512 bits) transmis par le réseau de travail
station dans un réseau Fast Ethernet, à seulement 250 m,
avant que le poste de travail ne le termine
En traitement. Si la station réceptrice était
loin de la station émettrice en
distance sur 250m, alors le cadre pourrait
entrer en conflit avec une autre image sur
lignes quelque part plus loin, et la transmission
la station, ayant terminé la transmission, n'est plus
accepter ce conflit. C'est pourquoi
le diamètre maximum d'un réseau 100BaseT est
250 mètres.

À
utiliser la distance autorisée,
besoin de deux répéteurs pour se connecter
tous les nœuds. Selon la norme,
distance maximale entre le nœud et
le répéteur est à 100 mètres ; en Ethernet rapide,
comme dans 10BaseT, la distance entre
hub et poste de travail
doit dépasser 100 mètres. Parce que le
connecter des appareils (répéteurs)
introduire des retards supplémentaires, le vrai
distance de travail entre les nœuds
être encore plus petit. C'est pourquoi
semble raisonnable de tout prendre
distances avec une certaine marge.

Travailler sur
les longues distances devront acheter
Cable optique. Par exemple, l'équipement
100BaseFX en mode semi-duplex permet
connecter un interrupteur à un autre interrupteur
ou terminal situé sur
jusqu'à 450 mètres de distance.
En installant 100BaseFX en duplex intégral, vous pouvez
connecter deux périphériques réseau
distance jusqu'à deux kilomètres.

COMMENT
INSTALLER 100BASET

En plus des câbles,
dont nous avons déjà parlé, pour installer Fast
Ethernet nécessitera des adaptateurs réseau pour
postes de travail et serveurs, hubs
100BaseT et éventuellement certains
Commutateurs 100BaseT.

adaptateurs,
nécessaires à l'organisation d'un réseau 100BaseT,
sont appelés adaptateurs Ethernet 10/100 Mbps.
Ces adaptateurs sont capables (c'est une exigence
100BaseT standard) distinguent indépendamment 10
Mbit/s à partir de 100 Mbit/s. Pour servir un groupe
serveurs et postes de travail transférés vers
100BaseT, vous aurez également besoin d'un concentrateur 100BaseT.

Lorsqu'il est allumé
serveur ou ordinateur personnel Avec
adaptateur 10/100 ce dernier donne un signal,
annonçant qu'il peut fournir
bande passante 100Mbps. Si un
station de réception (probablement
sera un hub) est également conçu pour
travailler avec 100BaseT, il émettra un signal en réponse, selon
auquel le concentrateur et le PC ou le serveur
passe automatiquement en mode 100BaseT. Si un
le hub ne fonctionne qu'avec 10BaseT, il ne fonctionne pas
renvoie un signal, et le PC ou le serveur
passera automatiquement en mode 10BaseT.

Lorsque
les configurations 100BaseT à petite échelle peuvent
appliquer un pont ou un commutateur 10/100 qui
assurera la communication pour la partie du réseau qui travaille avec
100BaseT, avec réseau existant
10BaseT.

trompeur
RAPIDITÉ

Tout résumer
ci-dessus, nous notons que, nous semble-t-il,
Fast Ethernet est le meilleur pour la résolution de problèmes
charges de pointe élevées. Par exemple, si
l'un des utilisateurs travaille avec la CAO ou
programmes de traitement d'images et
doit augmenter le débit
capacités, Fast Ethernet peut être
bonne sortie. Toutefois, si
les problèmes sont dus à un excès
utilisateurs sur le réseau, puis 100BaseT démarre
ralentir l'échange d'informations à environ 50 %
charge du réseau - en d'autres termes, sur le même
niveau comme 10BaseT. Mais au final c'est
ce n'est rien de plus qu'une extension.

Aujourd'hui, il est presque impossible de trouver un ordinateur portable ou une carte mère à vendre sans une carte réseau intégrée, voire deux. Tous ont un connecteur - RJ45 (plus précisément, 8P8C), mais la vitesse du contrôleur peut différer d'un ordre de grandeur. Dans les modèles bon marché, il s'agit de 100 mégabits par seconde (Fast Ethernet), dans les plus chers - 1000 (Gigabit Ethernet).

Si votre ordinateur n'a pas de contrôleur LAN intégré, il s'agit probablement déjà d'un "vieil homme" basé sur un processeur Intel Pentium 4 ou AMD Athlon XP, ainsi que leurs "ancêtres". De tels "dinosaures" ne peuvent être "amis" avec un réseau câblé qu'en installant une carte réseau discrète avec un connecteur PCI, car Bus PCI Express n'existait pas au moment de leur naissance. Mais même pour le bus PCI (33 MHz), des «cartes réseau» sont produites qui prennent en charge la norme Gigabit Ethernet la plus récente, bien que sa bande passante puisse ne pas être suffisante pour libérer pleinement le potentiel de vitesse d'un contrôleur gigabit.

Mais même dans le cas d'une carte réseau intégrée de 100 mégabits, un adaptateur discret devra être acheté par ceux qui vont «passer» à 1000 mégabits. La meilleure option sera l'achat d'un contrôleur PCI Express, qui fournira la vitesse maximale du réseau, à moins, bien sûr, que le connecteur correspondant ne soit présent dans l'ordinateur. Certes, beaucoup donneront la préférence à une carte PCI, car elles sont beaucoup moins chères (le coût commence à seulement 200 roubles).

Quels sont les avantages pratiques du passage de Fast Ethernet à Gigabit Ethernet ? Quelle est la différence entre le taux de transfert de données réel des versions PCI des cartes réseau et PCI Express ? La vitesse normale est-elle suffisante ? disque dur charger complètement un canal gigabit ? Vous trouverez des réponses à ces questions dans ce document.

Participants aux tests

Trois des cartes réseau discrètes les moins chères (PCI - Fast Ethernet, PCI - Gigabit Ethernet, PCI Express - Gigabit Ethernet) ont été sélectionnées pour les tests, car elles sont les plus demandées.

Une carte réseau PCI de 100 mégabits est représentée par le modèle Acorp L-100S (le prix commence à partir de 110 roubles), qui utilise le chipset Realtek RTL8139D, le plus populaire pour les cartes bon marché.

La carte réseau PCI de 1000 mégabits est représentée par le modèle Acorp L-1000S (le prix commence à partir de 210 roubles), qui est basé sur la puce Realtek RTL8169SC. C'est la seule carte avec un dissipateur thermique sur le chipset - les autres participants au test n'ont pas besoin de refroidissement supplémentaire.

La carte réseau PCI Express 1000 mégabits est représentée par le modèle TP-LINK TG-3468 (le prix commence à partir de 340 roubles). Et ce n'était pas une exception - il est basé sur le chipset RTL8168B, qui est également fabriqué par Realtek.

L'apparence de la carte réseau

Les chipsets de ces familles (RTL8139, RTL816X) peuvent être vus non seulement sur des cartes réseau discrètes, mais également intégrés sur de nombreuses cartes mères.

Les caractéristiques des trois contrôleurs sont présentées dans le tableau suivant :

Afficher le tableau

La bande passante du bus PCI (1066 Mbps) devrait théoriquement être suffisante pour booster les cartes réseau gigabit à pleine vitesse, mais en pratique, cela peut ne pas être suffisant. Le fait est que ce « canal » est partagé par tous les périphériques PCI ; de plus, des informations de service sur la maintenance du bus lui-même sont transmises par celui-ci. Voyons si cette hypothèse est confirmée par une mesure de vitesse réelle.

Autre nuance : la grande majorité des disques durs modernes ont une vitesse de lecture moyenne ne dépassant pas 100 mégaoctets par seconde, et souvent même moins. En conséquence, ils ne pourront pas charger complètement le canal gigabit de la carte réseau, dont la vitesse est de 125 mégaoctets par seconde (1000 : 8 = 125). Il existe deux manières de contourner cette limitation. La première consiste à combiner une paire de ces disques durs dans une matrice RAID (RAID 0, striping), tandis que la vitesse peut presque doubler. La seconde consiste à utiliser des disques SSD, dont les paramètres de vitesse sont sensiblement supérieurs à ceux des disques durs.

Essai

L'ordinateur avec la configuration suivante a été utilisé comme serveur :

  • processeur : AMD Phenom II X4 955 3200 MHz (quad-core) ;
  • carte mère : ASRock A770DE AM2+ ( Jeu de puces AMD 770 + AMD SB700);
  • RAM: Hynix DDR2 4 x 2048 Go PC2 8500 1066 MHz (double canal) ;
  • carte vidéo : AMD Radeon HD 4890 1024 Mo DDR5 PCI Express 2.0 ;
  • carte réseau : Realtek RTL8111DL 1000 Mbps (intégrée sur la carte mère) ;
  • système d'exploitation : Microsoft Windows 7 Édition Familiale Premium SP1 (version 64 bits).

En tant que client, dans lequel les cartes réseau testées ont été installées, un ordinateur avec la configuration suivante a été utilisé :

  • processeur : AMD Athlon 7850 2800 MHz (double cœur) ;
  • carte mère : MSI K9A2GM V2 (MS-7302, jeu de puces AMD RS780 + AMD SB700) ;
  • RAM : Hynix DDR2 2 x 2048 Go PC2 8500 1066 MHz (en mode double canal) ;
  • carte vidéo : AMD Radeon HD 3100 256 Mo (intégrée au chipset) ;
  • disque dur : Seagate 7200.10 160 Go SATA2 ;
  • système d'exploitation : Microsoft Windows XP Édition Familiale SP3 (version 32 bits).

Les tests ont été effectués en deux modes : lecture et écriture via une connexion réseau à partir de disques durs (cela devrait montrer qu'ils peuvent être un "goulot d'étranglement"), ainsi qu'à partir de disques RAM dans la RAM d'ordinateurs simulant des disques SSD rapides. Les cartes réseau étaient connectées directement à l'aide d'un cordon de brassage de trois mètres (paire torsadée à huit cœurs, catégorie 5e).

Taux de transfert de données (disque dur - disque dur, Mbps)

La vitesse réelle de transfert de données via la carte réseau Acorp L-100S de 100 mégabits n'a pas tout à fait atteint le maximum théorique. Mais les deux cartes gigabit, bien qu'elles aient dépassé la première d'environ six fois, n'ont pas montré la vitesse maximale possible. Il est parfaitement clair que la vitesse "reposait" sur les performances des disques durs Seagate 7200.10, qui, testés directement sur un ordinateur, atteignent en moyenne 79 mégaoctets par seconde (632 Mbps).

Il n'y a pas de différence fondamentale de vitesse entre les cartes réseau pour le bus PCI (Acorp L-1000S) et PCI Express (TP-LINK) dans ce cas, le léger avantage de cette dernière s'explique par l'erreur de mesure. Les deux contrôleurs fonctionnaient à environ soixante pour cent de leur capacité.

Taux de transfert de données (disque RAM - disque RAM, Mbps)

Acorp L-100S, comme prévu, a montré la même faible vitesse lors de la copie de données à partir de disques RAM à haute vitesse. C'est compréhensible - la norme Fast Ethernet a depuis longtemps cessé de correspondre aux réalités modernes. Par rapport au mode de test "disque dur - disque dur", la carte PCI Gigabit Acorp L-1000S a sensiblement augmenté les performances - l'avantage était d'environ 36%. Une avance encore plus impressionnante a été démontrée par la carte réseau TP-LINK TG-3468 - l'augmentation était d'environ 55%.

C'est là que la bande passante plus élevée du bus PCI Express est apparue - elle a surpassé l'Acorp L-1000S de 14 %, ce qui ne peut plus être attribué à une erreur. Le gagnant est un peu en deçà du maximum théorique, mais la vitesse de 916 mégabits par seconde (114,5 Mb / s) semble toujours impressionnante - cela signifie que vous devrez attendre presque un ordre de grandeur de moins pour la fin de la copie (par rapport à Fast Ethernet). Par exemple, le temps de copie d'un fichier de 25 Go (une copie HD typique de bonne qualité) d'un ordinateur à l'autre sera inférieur à quatre minutes, et avec l'adaptateur de la génération précédente - plus d'une demi-heure.

Les tests ont montré que les cartes réseau Gigabit Ethernet ont un énorme avantage (jusqu'à dix fois) sur les contrôleurs Fast Ethernet. Si vos ordinateurs n'ont que des disques durs qui ne sont pas combinés dans une matrice par bandes (RAID 0), il n'y aura pas de différence fondamentale de vitesse entre les cartes PCI et PCI Express. Sinon, et également lors de l'utilisation de SSD hautes performances, il convient de privilégier les cartes avec une interface PCI Express, qui offriront la vitesse de transfert de données la plus élevée possible.

Naturellement, il convient de tenir compte du fait que les autres appareils du "chemin" du réseau (commutateur, routeur ...) doivent prendre en charge la norme Gigabit Ethernet et que la catégorie de la paire torsadée (cordon de raccordement) doit être au moins 5e. Sinon, la vitesse réelle restera au niveau de 100 mégabits par seconde. Soit dit en passant, la rétrocompatibilité avec la norme Fast Ethernet reste: vous pouvez connecter, par exemple, un ordinateur portable avec une carte réseau de 100 mégabits à un réseau gigabit, cela n'affectera pas la vitesse des autres ordinateurs du réseau.

Le réseau Ethernet est le plus répandu parmi les réseaux standards. Il est apparu pour la première fois en 1972 (le développeur était la société bien connue Xerox). Le réseau s'est avéré assez réussi et, par conséquent, de grandes entreprises telles que DEC et Intel l'ont soutenu en 1980 (l'association de ces entreprises s'appelait DIX d'après les premières lettres de leurs noms). Grâce à leurs efforts, en 1985, le réseau Ethernet est devenu une norme internationale, il a été accepté par les plus grands organismes internationaux de normalisation : le comité 802 de l'IEEE (Institute of Electrical and Electronic Engineers) et l'ECMA (European Computer Manufacturers Association).

La norme s'appelle IEEE 802.3 (lu en anglais huit oh deux point trois). Il définit un accès monocanal de type bus multiple avec détection de collision et contrôle de transmission, c'est-à-dire avec la méthode d'accès CSMA/CD déjà mentionnée. Certains autres réseaux répondaient également à cette norme, car le niveau de détail n'est pas élevé. En conséquence, les réseaux IEEE 802.3 étaient souvent incompatibles les uns avec les autres en termes de conception et de caractéristiques électriques. Récemment, cependant, la norme IEEE 802.3 a été considérée comme la norme de réseau Ethernet.

Principales caractéristiques de la norme IEEE 802.3 d'origine :

  • topologie - bus ;
  • support de transmission - câble coaxial ;
  • vitesse de transmission - 10 Mbps;
  • la longueur maximale du réseau est de 5 km ;
  • nombre maximum d'abonnés - jusqu'à 1024 ;
  • longueur de segment de réseau - jusqu'à 500 m;
  • le nombre d'abonnés sur un segment - jusqu'à 100 ;
  • méthode d'accès - CSMA/CD ;
  • la transmission est à bande étroite, c'est-à-dire sans modulation (monocanal).

Strictement parlant, il existe des différences mineures entre les normes IEEE 802.3 et Ethernet, mais elles sont généralement ignorées.

Le réseau Ethernet est aujourd'hui le plus populaire au monde (plus de 90% du marché), il est probable qu'il le restera dans les années à venir. Cela a été largement facilité par le fait que dès le début, les caractéristiques, les paramètres et les protocoles du réseau étaient ouverts, à la suite de quoi un grand nombre de fabricants du monde entier ont commencé à produire des équipements Ethernet entièrement compatibles les uns avec les autres. .

Dans un réseau Ethernet classique, un câble coaxial de 50 ohms de deux types (épais et fin) a été utilisé. Cependant, récemment (depuis le début des années 90), la version la plus largement utilisée d'Ethernet, qui utilise des paires torsadées comme support de transmission. Une norme a également été définie pour une utilisation dans un réseau de câbles à fibres optiques. Des ajouts appropriés ont été apportés à la norme IEEE 802.3 d'origine pour tenir compte de ces changements. En 1995, une norme supplémentaire est apparue pour une version plus rapide d'Ethernet fonctionnant à une vitesse de 100 Mbps (la norme dite Fast Ethernet, IEEE 802.3u), utilisant une paire torsadée ou un câble à fibre optique comme support de transmission. En 1997, une version pour un débit de 1000 Mbit/s (Gigabit Ethernet, norme IEEE 802.3z) fait son apparition.

En plus de la topologie de bus standard, les topologies passives en étoile et en arbre passif sont de plus en plus utilisées. Cela suppose l'utilisation de répéteurs et de concentrateurs de répéteurs connectant différentes parties (segments) du réseau. En conséquence, une structure arborescente peut être formée sur des segments de différents types (Fig. 7.1).

Riz. 7.1. Topologie de réseau Ethernet classique

Un bus classique ou un seul abonné peut agir comme un segment (partie du réseau). Pour les segments de bus, un câble coaxial est utilisé, et pour les faisceaux en étoile passifs (pour la connexion à un seul concentrateur informatique), une paire torsadée et un câble à fibre optique sont utilisés. La principale exigence pour la topologie résultante est qu'il n'y ait pas de chemins fermés (boucles) dans celle-ci. En fait, il s'avère que tous les abonnés sont connectés à un bus physique, puisque le signal de chacun d'eux se propage dans toutes les directions à la fois et ne revient pas (comme dans un anneau).

La longueur de câble maximale du réseau dans son ensemble (le trajet maximal du signal) peut théoriquement atteindre 6,5 kilomètres, mais ne dépasse pratiquement pas 3,5 kilomètres.

Le réseau Fast Ethernet ne fournit pas de topologie de bus physique, seule une étoile passive ou un arbre passif est utilisé. De plus, Fast Ethernet a des exigences beaucoup plus strictes pour la longueur maximale du réseau. Après tout, si le débit de transmission est multiplié par 10 et que le format du paquet est préservé, sa longueur minimale devient dix fois plus courte. Ainsi, la valeur admissible du temps de transit du double signal à travers le réseau est réduite d'un facteur 10 (5,12 µs contre 51,2 µs en Ethernet).

Le code Manchester standard est utilisé pour transmettre des informations sur un réseau Ethernet.

L'accès au réseau Ethernet s'effectue selon la méthode aléatoire CSMA/CD, qui assure l'égalité des abonnés. Le réseau utilise des paquets de longueur variable avec la structure illustrée à la Fig. 7.2. (les chiffres indiquent le nombre d'octets)

Riz. 7.2. Structure des paquets Ethernet

La longueur d'une trame Ethernet (c'est-à-dire un paquet sans préambule) doit être d'au moins 512 intervalles de bits ou 51,2 µs (il s'agit de la double limite de temps de transit dans le réseau). Fournit un adressage individuel, de groupe et de diffusion.

Le paquet Ethernet contient les champs suivants :

  • Le préambule se compose de 8 octets, les sept premiers sont le code 10101010 et le dernier octet est le code 10101011. Dans la norme IEEE 802.3, le huitième octet est appelé le délimiteur de début de trame (SFD) et forme un champ séparé du paquet.
  • Les adresses du destinataire (récepteur) et de l'expéditeur (émetteur) comprennent 6 octets chacune et sont construites selon la norme décrite dans la section Adressage des paquets du cours 4. Ces champs d'adresse sont traités par l'équipement de l'abonné.
  • Le champ de contrôle (L/T - Longueur/Type) contient des informations sur la longueur du champ de données. Il peut également préciser le type de protocole utilisé. Il est généralement admis que si la valeur de ce champ n'est pas supérieure à 1500, alors il indique la longueur du champ de données. Si sa valeur est supérieure à 1500, alors il détermine le type de trame. Le champ de contrôle est traité par programmation.
  • Le champ de données doit comprendre de 46 à 1500 octets de données. Si le paquet doit contenir moins de 46 octets de données, le champ de données est rempli avec des octets de remplissage. Selon la norme IEEE 802.3, un champ de remplissage spécial (données de remplissage) est alloué dans la structure de paquet, qui peut avoir une longueur nulle lorsqu'il y a suffisamment de données (plus de 46 octets).
  • Le champ de somme de contrôle (FCS - Frame Check Sequence) contient une somme de contrôle cyclique de 32 bits du paquet (CRC) et sert à vérifier la bonne transmission du paquet.

Ainsi, la longueur de trame minimale (paquet sans préambule) est de 64 octets (512 bits). C'est cette valeur qui détermine le temps de propagation maximal autorisé du double réseau d'intervalles de 512 bits (51,2 µs pour Ethernet ou 5,12 µs pour Fast Ethernet). La norme suppose que le préambule peut diminuer au fur et à mesure que le paquet passe par divers périphériques réseau, il n'est donc pas pris en compte. La longueur de trame maximale est de 1518 octets (12144 bits, soit 1214,4 µs pour Ethernet, 121,44 µs pour Fast Ethernet). C'est important pour le dimensionnement. mémoire tampon l'équipement du réseau et d'évaluer la charge globale du réseau.

Le choix du format du préambule n'est pas accidentel. Le fait est que la séquence de uns et de zéros alternés (101010…10) dans le code de Manchester est caractérisée par le fait qu'elle n'a de transitions qu'au milieu des intervalles de bits (voir section 2.6.3), c'est-à-dire uniquement des transitions d'information . Bien sûr, il est facile pour le récepteur de s'accorder (se synchroniser) avec une telle séquence, même si pour une raison quelconque elle est raccourcie de quelques bits. Les deux derniers bits simples du préambule (11) diffèrent significativement de la séquence 101010…10 (il y a aussi des transitions à la frontière des intervalles de bits). Ainsi, un récepteur déjà accordé peut facilement les sélectionner et ainsi détecter le début d'une information utile (début de trame).

Pour un réseau Ethernet fonctionnant à un débit de 10 Mbit/s, la norme définit quatre grands types de segments de réseau orientés vers divers supports de transmission d'informations :

  • 10BASE5 (câble coaxial épais);
  • 10BASE2 (câble coaxial fin);
  • 10BASE-T (paire torsadée);
  • 10BASE-FL (câble à fibre optique).

Le nom du segment comprend trois éléments: le chiffre 10 signifie un débit de transmission de 10 Mbit / s, le mot BASE - transmission dans la bande de fréquences de base (c'est-à-dire sans modulation du signal haute fréquence) et le dernier élément - le longueur de segment autorisée : 5 - 500 mètres, 2 - 200 mètres (plus précisément, 185 mètres) ou type de ligne de communication : T - paire torsadée (de l'anglais twisted-pair), F - câble à fibre optique (de l'anglais fibre optique ).

De même, pour un réseau Ethernet fonctionnant à une vitesse de 100 Mbps (Fast Ethernet), la norme définit trois types de segments, qui se différencient par les types de supports de transmission :

  • 100BASE-T4 (quadruple paire torsadée);
  • 100BASE-TX (double paire torsadée);
  • 100BASE-FX (câble à fibre optique).

Ici, le nombre 100 signifie un débit de transmission de 100 Mbps, la lettre T - paire torsadée, la lettre F - câble à fibre optique. Les types 100BASE-TX et 100BASE-FX sont parfois regroupés sous le nom 100BASE-X, et 100BASE-T4 et 100BASE-TX sous le nom 100BASE-T.

Plus de détails sur les fonctionnalités de l'équipement Ethernet, ainsi que l'algorithme de contrôle des échanges CSMA / CD et l'algorithme de calcul de la somme de contrôle cyclique (CRC) seront abordés plus en détail dans des sections spéciales du cours. Ici, il convient de noter seulement que le réseau Ethernet ne diffère ni par les caractéristiques d'enregistrement ni par les algorithmes optimaux, il est inférieur dans un certain nombre de paramètres aux autres réseaux standard. Mais grâce à un soutien solide, au plus haut niveau de normalisation, à d'énormes volumes de production moyens techniques, Ethernet se démarque des autres réseaux standards, et il est donc d'usage de comparer toute autre technologie de réseau avec Ethernet.

Le développement de la technologie Ethernet s'éloigne de plus en plus de la norme d'origine. L'utilisation de nouveaux supports de transmission et commutateurs peut augmenter considérablement la taille du réseau. L'élimination du code Manchester (dans Fast Ethernet et Gigabit Ethernet) permet d'augmenter les taux de transfert de données et de réduire les besoins en câbles. Le rejet de la méthode de gestion CSMA/CD (avec mode d'échange en duplex intégral) permet d'augmenter considérablement l'efficacité du travail et de supprimer les restrictions sur la longueur du réseau. Cependant, toutes les nouvelles variétés de réseaux sont également appelées réseaux Ethernet.

Réseau en anneau à jeton

Le réseau Token-Ring (marker ring) a été proposé par IBM en 1985 (la première version est apparue en 1980). Il était destiné à mettre en réseau tous les types d'ordinateurs fabriqués par IBM. Le fait même qu'il soit soutenu par IBM, le plus grand la technologie informatique, suggère qu'il nécessite une attention particulière. Mais tout aussi important, Token-Ring est actuellement la norme internationale IEEE 802.5 (bien qu'il existe des différences mineures entre Token-Ring et IEEE 802.5). Il met ce réseau un niveau par état avec Ethernet.

Token-Ring a été développé comme une alternative fiable à Ethernet. Et bien qu'Ethernet remplace désormais tous les autres réseaux, Token-Ring ne peut pas être considéré comme désespérément dépassé. Plus de 10 millions d'ordinateurs dans le monde sont connectés par ce réseau.

IBM a tout fait pour étendre son réseau le plus largement possible : une documentation détaillée a été diffusée jusqu'aux schémas de principe des adaptateurs. En conséquence, de nombreuses entreprises, telles que 3COM, Novell, Western Digital, Proteon et d'autres, ont commencé à fabriquer des adaptateurs. Soit dit en passant, le concept de NetBIOS a été développé spécifiquement pour ce réseau, ainsi que pour un autre réseau IBM PC. Si dans le réseau PC créé précédemment, les programmes NetBIOS étaient stockés dans la mémoire permanente intégrée à l'adaptateur, alors dans le réseau Token-Ring, un programme d'émulation NetBIOS était déjà utilisé. Cela a permis de répondre de manière plus flexible aux fonctionnalités matérielles et de maintenir la compatibilité avec les programmes de niveau supérieur.

Le réseau Token-Ring a une topologie en anneau, bien qu'extérieurement il ressemble plus à une étoile. Cela est dû au fait que les abonnés individuels (ordinateurs) ne sont pas connectés directement au réseau, mais via des concentrateurs spéciaux ou des dispositifs d'accès multiples (MSAU ou MAU - Unité d'accès multistation). Physiquement, le réseau forme une topologie en étoile (Figure 7.3). En réalité, les abonnés sont toujours réunis en anneau, c'est-à-dire que chacun d'eux transmet des informations à un abonné voisin et reçoit des informations d'un autre.

Riz. 7.3. Topologie de réseau Star-Ring Token-Ring

Le concentrateur (MAU) permet en même temps de centraliser la configuration, la déconnexion des abonnés défaillants, le contrôle du réseau, etc. (Fig. 7.4). Il n'effectue aucun traitement de l'information.

Riz. 7.4. Connexion des abonnés du réseau Token-Ring dans un anneau à l'aide d'un concentrateur (MAU)

Pour chaque abonné, un Trunk Coupling Unit (TCU) spécial est utilisé dans le cadre du concentrateur, qui fournit mise en marche automatique abonné dans l'anneau, s'il est connecté au concentrateur et fonctionne. Si l'abonné est déconnecté du concentrateur ou s'il est défaillant, alors l'unité TCU restaure automatiquement l'intégrité de l'anneau sans la participation de cet abonné. Le TCU est déclenché par un signal continu (appelé courant fantôme) provenant d'un abonné qui souhaite rejoindre l'anneau. L'abonné peut également se déconnecter de l'anneau et effectuer une procédure d'auto-test (l'abonné le plus à droite sur la Fig. 7.4). Le courant fantôme n'affecte en rien le signal d'information, car le signal dans l'anneau n'a pas de composante constante.

Structurellement, le concentrateur est une unité autonome avec dix connecteurs sur le panneau avant (Fig. 7.5).

Riz. 7.5. Concentrateur Token Ring (8228 MAU)

Huit connecteurs centraux (1…8) sont destinés au raccordement des abonnés (ordinateurs) à l'aide de câbles adaptateurs ou de câbles radiaux. Deux connecteurs extrêmes : l'entrée RI (Ring In) et la sortie RO (Ring Out) sont utilisés pour se connecter à d'autres concentrateurs à l'aide de câbles spéciaux (câble Path). Des versions murales et de bureau du concentrateur sont disponibles.

Il existe des hubs MAU passifs et actifs. Le concentrateur actif restitue le signal provenant de l'abonné (c'est-à-dire qu'il fonctionne comme un concentrateur Ethernet). Un concentrateur passif ne restaure pas le signal, il ne fait que commuter les lignes de communication.

Le concentrateur du réseau peut être le seul (comme sur la Fig. 7.4), dans ce cas seuls les abonnés qui y sont connectés sont fermés dans l'anneau. Extérieurement, une telle topologie ressemble à une étoile. Si vous devez connecter plus de huit abonnés au réseau, plusieurs concentrateurs sont connectés par des câbles de dorsale et forment une topologie en étoile.

Comme déjà noté, la topologie en anneau est très sensible aux ruptures de câble en anneau. Pour augmenter la capacité de survie du réseau, Token-Ring fournit un mode dit de pliage en anneau, qui vous permet de contourner le lieu de la rupture.

En mode normal, les concentrateurs sont connectés en anneau par deux câbles parallèles, mais les informations ne sont transmises que par l'un d'entre eux (Fig. 7.6).

Riz. 7.6. Fusion des hubs MAU en mode normal

En cas de rupture d'un seul câble (rupture), le réseau transmet sur les deux câbles, contournant ainsi la section endommagée. Dans le même temps, l'ordre de contournement des abonnés connectés aux concentrateurs est même préservé (Fig. 7.7). Certes, la longueur totale de l'anneau augmente.

En cas de dommages multiples au câble, le réseau se décompose en plusieurs parties (segments) qui ne sont pas interconnectées, mais restent pleinement fonctionnelles (Fig. 7.8). La partie maximale du réseau reste connectée, comme auparavant. Bien sûr, cela ne sauve plus le réseau dans son ensemble, mais cela permet, avec la bonne répartition des abonnés aux hubs, de conserver une partie importante des fonctions du réseau endommagé.

Plusieurs hubs peuvent être structurellement regroupés en un groupe, un cluster (cluster), au sein duquel les abonnés sont également connectés en anneau. L'utilisation de clusters vous permet d'augmenter le nombre d'abonnés connectés à un centre, par exemple jusqu'à 16 (si le cluster comprend deux hubs).

Riz. 7.7. Effondrement de l'anneau lorsque le câble est endommagé

Riz. 7.8. Désintégration de l'anneau en cas d'endommagement multiple du câble

En tant que support de transmission dans le réseau IBM Token-Ring, la paire torsadée a d'abord été utilisée, à la fois non blindée (UTP) et blindée (STP), mais ensuite des options d'équipement sont apparues pour le câble coaxial, ainsi que pour le câble à fibre optique dans la norme FDDI.

Principal Caractéristiques version classique du réseau Token-Ring :

  • le nombre maximal de concentrateurs de type IBM 8228 MAU - 12 ;
  • le nombre maximum d'abonnés dans le réseau est de 96 ;
  • la longueur maximale du câble entre l'abonné et le hub est de 45 mètres ;
  • longueur de câble maximale entre les hubs - 45 mètres ;
  • la longueur maximale du câble reliant tous les hubs est de 120 mètres ;
  • taux de transfert de données - 4 Mbps et 16 Mbps.

Toutes les spécifications données s'appliquent à l'utilisation d'une paire torsadée non blindée. Si un support de transmission différent est utilisé, les caractéristiques du réseau peuvent différer. Par exemple, lors de l'utilisation d'une paire torsadée blindée (STP), le nombre d'abonnés peut être augmenté à 260 (au lieu de 96), la longueur du câble - jusqu'à 100 mètres (au lieu de 45), le nombre de concentrateurs - jusqu'à 33, et la longueur totale de l'anneau reliant les hubs - jusqu'à 200 mètres. Le câble à fibre optique vous permet d'augmenter la longueur du câble jusqu'à deux kilomètres.

Pour transférer des informations en Token-Ring, un code bi-phase est utilisé (plus précisément, sa variante avec une transition obligatoire au centre de l'intervalle de bits). Comme pour toute topologie en étoile, aucune terminaison électrique supplémentaire ou mise à la terre externe n'est requise. La négociation est effectuée par le matériel et les concentrateurs de la carte réseau.

Les connecteurs RJ-45 (pour paire torsadée non blindée), ainsi que les connecteurs MIC et DB9P sont utilisés pour connecter les câbles en Token-Ring. Les fils du câble relient les broches des connecteurs du même nom (c'est-à-dire que les câbles dits droits sont utilisés).

Le réseau Token-Ring classique est inférieur au réseau Ethernet tant en termes de taille autorisée que de nombre maximum d'abonnés. En termes de vitesse de transmission, il existe actuellement des versions 100 Mbps (High Speed ​​​​Token-Ring, HSTR) et 1000 Mbps (Gigabit Token-Ring) de Token-Ring. Les entreprises qui supportent le Token-Ring (dont IBM, Olicom, Madge) n'ont pas l'intention d'abandonner leur réseau, le considérant comme un digne concurrent d'Ethernet.

Par rapport aux équipements Ethernet, les équipements Token-Ring sont sensiblement plus chers, car ils utilisent une méthode de contrôle des échanges plus complexe, de sorte que le réseau Token-Ring ne s'est pas tellement répandu.

Cependant, contrairement à Ethernet, le réseau Token-Ring est bien meilleur pour maintenir un niveau de charge élevé (plus de 30-40%) et offre un temps d'accès garanti. Ceci est nécessaire, par exemple, dans les réseaux industriels, dans lesquels un retard de réaction à un événement extérieur peut conduire à accidents graves.

Le réseau Token-Ring utilise la méthode classique d'accès par jeton, c'est-à-dire qu'un jeton circule en permanence autour de l'anneau, auquel les abonnés peuvent joindre leurs paquets de données (voir Fig. 7.8). Cela implique un avantage aussi important de ce réseau que l'absence de conflits, mais il y a aussi des inconvénients, notamment la nécessité de contrôler l'intégrité du marqueur et la dépendance du réseau à chaque abonné (en cas de dysfonctionnement, l'abonné doit être exclu de l'anneau).

Le temps limite de transmission d'un paquet en Token-Ring est de 10 ms. Avec un nombre maximum d'abonnés de 260, le cycle complet de l'anneau sera de 260 x 10 ms = 2,6 s. Pendant ce temps, les 260 abonnés pourront transférer leurs forfaits (si, bien sûr, ils ont quelque chose à transférer). Dans le même temps, un jeton gratuit parviendra certainement à chaque abonné. Le même intervalle est la limite supérieure du temps d'accès Token-Ring.

Chaque abonné au réseau (son adaptateur réseau) doit remplir les fonctions suivantes :

  • détection des erreurs de transmission ;
  • contrôle de la configuration du réseau (restauration du réseau en cas de panne de l'abonné qui le précède dans l'anneau) ;
  • contrôle de plusieurs temporisations adoptées dans le réseau.

Un grand nombre de fonctions, bien sûr, complique et augmente le coût de l'équipement de l'adaptateur réseau.

Pour contrôler l'intégrité du jeton dans le réseau, l'un des abonnés (ce que l'on appelle le moniteur actif) est utilisé. En même temps, ses équipements ne sont pas différents des autres, mais ses outils logiciels surveillent les relations temporelles dans le réseau et forment un nouveau marqueur si nécessaire.

Le moniteur actif remplit les fonctions suivantes :

  • lance un marqueur dans l'anneau au début du travail et quand il disparaît;
  • signale régulièrement (une fois toutes les 7 secondes) sa présence avec un package de contrôle spécial (AMP - Active Monitor Present);
  • supprime de l'anneau un paquet qui n'a pas été supprimé par l'abonné qui l'a envoyé ;
  • garde une trace du temps de transmission de paquet autorisé.

Le moniteur actif est sélectionné lors de l'initialisation du réseau ; il peut s'agir de n'importe quel ordinateur du réseau, mais, en règle générale, il devient le premier abonné connecté au réseau. Un abonné devenu moniteur actif inclut son propre tampon (registre à décalage) dans le réseau, ce qui garantit que le marqueur tiendra dans l'anneau même avec la longueur minimale de l'anneau. La taille de ce buffer est de 24 bits pour 4 Mbps et de 32 bits pour 16 Mbps.

Chaque abonné surveille en permanence la façon dont le moniteur actif s'acquitte de ses fonctions. Si le moniteur actif échoue pour une raison quelconque, un mécanisme spécial est activé, par lequel tous les autres abonnés (moniteurs de réserve, de secours) décident de la nomination d'un nouveau moniteur actif. Pour ce faire, l'abonné qui a détecté une défaillance du moniteur actif envoie un paquet de contrôle (paquet de demande de jeton) autour de l'anneau avec son adresse MAC. Chaque abonné suivant compare l'adresse MAC du paquet avec la sienne. Si sa propre adresse est inférieure, il transmet le paquet tel quel. Si plus, il définit son adresse MAC dans le paquet. Le moniteur actif sera l'abonné dont l'adresse MAC est supérieure aux autres (il doit recevoir en retour un paquet avec son adresse MAC trois fois). Un signe de défaillance du moniteur actif est son incapacité à exécuter l'une des fonctions répertoriées.

Le jeton de réseau Token-Ring est un paquet de contrôle contenant seulement trois octets (Fig. 7.9) : l'octet délimiteur de début (SD - Start Delimiter), l'octet de contrôle d'accès (AC - Access Control) et l'octet délimiteur de fin (ED - End Délimiteur). Ces trois octets font également partie du paquet d'informations, cependant, leurs fonctions dans le marqueur et dans le paquet sont légèrement différentes.

Les délimiteurs de début et de fin ne sont pas simplement une séquence de zéros et de uns, mais contiennent des signaux d'un type spécial. Cela a été fait pour que les délimiteurs ne puissent pas être confondus avec d'autres octets dans les paquets.

Riz. 7.9. Format de jeton réseau en anneau à jeton

Le délimiteur initial SD contient quatre intervalles de bits non standard (Figure 7.10). Deux d'entre eux, notés J, sont niveau faible signal pendant tout l'intervalle de bits. Les deux autres bits, notés K, représentent un niveau de signal haut pendant tout l'intervalle de bits. On comprend que de telles pannes de synchronisation sont facilement détectées par le récepteur. Les bits J et K ne peuvent jamais apparaître parmi les bits de charge utile.

Riz. 7.10. Formats de délimitation de début (SD) et de fin (ED)

Le délimiteur final ED contient également quatre bits spéciaux (deux bits J et deux bits K) et deux bits 1. Mais, en plus, il comprend également deux bits d'information qui n'ont de sens que dans le cadre d'un paquet d'informations :

  • Le bit I (intermédiaire) est le signe d'un paquet intermédiaire (1 correspond au premier de la chaîne ou au paquet intermédiaire, 0 - le dernier de la chaîne ou le seul paquet).
  • Le bit E (Erreur) est le signe d'une erreur détectée (0 correspond à l'absence d'erreurs, 1 à leur présence).

L'octet de contrôle d'accès (AC - Access Control) est divisé en quatre champs (Fig. 7.11) : un champ de priorité (trois bits), un bit marqueur, un bit de surveillance et un champ de réservation (trois bits).

Riz. 7.11. Format d'octet de contrôle d'accès

Les bits de priorité (champ) permettent à l'abonné d'attribuer une priorité à ses paquets ou à son jeton (la priorité peut être de 0 à 7, 7 correspondant à la plus haute priorité et 0 à la plus basse). Un abonné peut attacher son propre paquet au jeton uniquement lorsque sa propre priorité (la priorité de ses paquets) est égale ou supérieure à la priorité du jeton.

Le bit de marqueur détermine si un paquet est attaché au marqueur ou non (un correspond à un marqueur sans paquet, zéro correspond à un marqueur avec un paquet). Un bit de surveillance défini sur un indique que le jeton a été envoyé par le moniteur actif.

Les bits de réservation (champ) permettent à l'abonné de réserver son droit de capturer davantage le réseau, c'est-à-dire de prendre une file d'attente pour le service. Si la priorité de l'abonné (la priorité de ses paquets) est supérieure à la valeur courante du champ de réservation, alors il peut y écrire sa propre priorité à la place de la précédente. Après avoir fait le tour du ring, la priorité la plus élevée de tous les abonnés sera enregistrée dans le champ de réservation. Le contenu du champ de réservation est similaire au contenu du champ de priorité, mais indique une priorité future.

Grâce à l'utilisation des champs de priorité et de réservation, il est possible d'accéder au réseau uniquement aux abonnés qui ont des paquets à transmettre avec la priorité la plus élevée. Les paquets de moindre priorité ne seront traités que lorsque les paquets de priorité supérieure seront épuisés.

Le format du paquet d'informations (trame) Token-Ring est illustré à la fig. 7.12. Outre les délimiteurs de début et de fin et l'octet de contrôle d'accès, ce paquet comprend également l'octet de contrôle de paquet, les adresses réseau du récepteur et de l'émetteur, les données, la somme de contrôle et l'octet d'état du paquet.

Riz. 7.12. Format de paquet (trame) du réseau Token-Ring (la longueur des champs est donnée en octets)

Objet des champs d'un paquet (trame).

  • Le séparateur de début (SD) est un signe du début du paquet, le format est le même que dans le marqueur.
  • L'octet de contrôle d'accès (AC) a le même format que dans le jeton.
  • L'octet Frame Control (FC) définit le type de paquet (trame).
  • Les adresses MAC à six octets de la source et de la destination d'un paquet suivent le format standard décrit au chapitre 4.
  • Le champ de données (Data) comprend les données à transmettre (dans le paquet d'informations) ou les informations de contrôle d'échange (dans le paquet de contrôle).
  • Le champ Frame Check Sequence (FCS) est une somme de contrôle cyclique de 32 bits du paquet (CRC).
  • Le délimiteur de fin (ED), comme dans le jeton, indique la fin du paquet. De plus, il détermine si le paquet donné est intermédiaire ou final dans la séquence des paquets transmis, et contient également un signe d'erreur de paquet (voir Figure 7.10).
  • L'octet d'état du paquet (FS - Frame Status) indique ce qui est arrivé à ce paquet : s'il a été vu par le récepteur (c'est-à-dire s'il existe un récepteur avec une adresse donnée) et copié dans la mémoire du récepteur. À partir de là, l'expéditeur du paquet saura si le paquet a atteint sa destination et sans erreur ou s'il doit être retransmis.

Il convient de noter que la plus grande taille autorisée des données transmises dans un paquet par rapport au réseau Ethernet peut être un facteur décisif pour augmenter les performances du réseau. Théoriquement, pour des débits de transmission de 16 Mbps et 100 Mbps, la longueur du champ de données peut même atteindre 18 Ko, ce qui est important lors du transfert de grandes quantités de données. Mais même à 4 Mbps, grâce à la méthode d'accès par jeton, un réseau Token-Ring fournit souvent un taux de transfert réel plus élevé qu'un réseau Ethernet (10 Mbps). L'avantage du Token-Ring est particulièrement perceptible aux charges élevées (plus de 30-40%), car dans ce cas la méthode CSMA/CD prend beaucoup de temps pour résoudre les conflits répétés.

Un abonné souhaitant transmettre un paquet attend l'arrivée d'un jeton libre et le capture. Le jeton capturé se transforme en une trame de paquet d'informations. Ensuite, l'abonné envoie un paquet d'informations à l'anneau et attend son retour. Après cela, il libère le jeton et le renvoie au réseau.

En plus du jeton et du paquet normal, un paquet de contrôle spécial peut être transmis dans le réseau Token-Ring, qui sert à interrompre la transmission (Abort). Il peut être envoyé à tout moment et n'importe où dans le flux de données. Ce paquet se compose de deux champs d'un octet - les délimiteurs initiaux (SD) et finaux (ED) du format décrit.

Fait intéressant, la version plus rapide de Token-Ring (16 Mbps et plus) utilise la méthode dite Early Token Release (ETR). Il permet d'éviter une utilisation improductive du réseau tant que le paquet de données ne revient pas par l'anneau vers son expéditeur.

La méthode ETR se résume au fait qu'immédiatement après la transmission de son paquet attaché au jeton, tout abonné émet un nouveau jeton gratuit vers le réseau. Les autres abonnés peuvent commencer à transmettre leurs paquets immédiatement après la fin du paquet de l'abonné précédent, sans attendre qu'il ait terminé le contournement de l'ensemble de l'anneau du réseau. Par conséquent, plusieurs paquets peuvent se trouver sur le réseau en même temps, mais il n'y aura toujours pas plus d'un jeton libre. Ce pipeline est particulièrement efficace sur les réseaux longs avec un délai de propagation important.

Lorsque l'abonné est connecté au concentrateur, il effectue la procédure d'auto-test autonome et de test de câble (il n'est pas encore inclus dans l'anneau, car il n'y a pas de signal de courant fantôme). L'abonné s'envoie une série de paquets et vérifie l'exactitude de leur passage (son entrée est directement connectée à sa sortie par le TCU, comme illustré à la Fig. 7.4). Après cela, l'abonné s'inclut dans l'anneau en envoyant un courant fantôme. Au moment de l'inclusion, le paquet transmis autour de l'anneau peut être corrompu. Ensuite, l'abonné configure la synchronisation et recherche un moniteur actif sur le réseau. S'il n'y a pas de moniteur actif, l'abonné lance un concours pour le droit de le devenir. Ensuite, l'abonné vérifie l'unicité de sa propre adresse dans l'anneau et collecte des informations sur les autres abonnés. Après cela, il devient un participant à part entière à l'échange sur le réseau.

Pendant l'échange, chaque abonné surveille la santé de l'abonné précédent (le long de la boucle). S'il soupçonne la panne de l'abonné précédent, il lance la procédure récupération automatique anneaux. Un paquet de contrôle spécial (balise) informe l'abonné précédent de la nécessité d'effectuer un auto-test et, éventuellement, de se déconnecter de l'anneau.

Le réseau Token-Ring prévoit également l'utilisation de ponts et de commutateurs. Ils sont utilisés pour diviser un grand anneau en plusieurs segments d'anneau qui peuvent échanger des paquets entre eux. Cela vous permet de réduire la charge sur chaque segment et d'augmenter la part de temps fournie à chaque abonné.

En conséquence, il est possible de former un anneau distribué, c'est-à-dire la combinaison de plusieurs segments d'anneau avec un grand anneau dorsal (Fig. 7.13) ou une structure en étoile avec un interrupteur central auquel les segments d'anneau sont connectés ( figure 7.14).

Riz. 7.13. Combinaison de segments avec un anneau principal à l'aide de ponts

Riz. 7.14. Combinaison de segments avec un interrupteur central

Le réseau Arcnet (ou ARCnet de l'anglais Attached Resource Computer Net, un réseau informatique de ressources connectées) est l'un des réseaux les plus anciens. Il a été développé par Datapoint Corporation en 1977. Il n'existe pas de normes internationales pour ce réseau, bien qu'il soit considéré comme l'ancêtre de la méthode d'accès par jeton. Malgré l'absence de normes, le réseau Arcnet jusqu'à récemment (en 1980 - 1990) était populaire, même en concurrence sérieuse avec Ethernet. Un grand nombre d'entreprises (par exemple, Datapoint, Standard Microsystems, Xircom, etc.) ont produit des équipements pour ce type de réseau. Mais maintenant, la production d'équipements Arcnet est pratiquement arrêtée.

Parmi les principaux avantages du réseau Arcnet par rapport à Ethernet figurent le temps d'accès limité, la grande fiabilité des communications, la facilité des diagnostics et le coût relativement faible des adaptateurs. Les inconvénients les plus importants du réseau sont le faible taux de transfert d'informations (2,5 Mbps), le système d'adressage et le format des paquets.

Pour transmettre des informations dans le réseau Arcnet, on utilise un code assez rare, dans lequel deux impulsions correspondent à une unité logique pendant un intervalle de bit, et une impulsion correspond à un zéro logique. De toute évidence, il s'agit d'un code auto-synchronisant qui nécessite encore plus de bande passante de câble que même Manchester.

En tant que support de transmission dans le réseau, un câble coaxial avec une impédance caractéristique de 93 ohms, par exemple, la marque RG-62A/U, est utilisé. Les versions à paires torsadées (blindées et non blindées) ne sont pas largement utilisées. Des options de fibre optique ont également été proposées, mais elles n'ont pas non plus sauvé Arcnet.

Le réseau Arcnet utilise un bus classique (Arcnet-BUS) ainsi qu'une étoile passive (Arcnet-STAR) comme topologie. Les moyeux sont utilisés dans l'étoile. Il est possible de combiner des segments de bus et en étoile dans une topologie arborescente à l'aide de concentrateurs (comme dans Ethernet). La principale limitation est qu'il ne doit pas y avoir de chemins fermés (boucles) dans la topologie. Autre limitation : le nombre de segments connectés en guirlande à l'aide de hubs ne doit pas dépasser trois.

Les hubs sont de deux types :

  • Concentrateurs actifs (restaurent la forme des signaux entrants et les amplifient). Le nombre de ports est compris entre 4 et 64. Les concentrateurs actifs peuvent être interconnectés (en cascade).
  • Concentrateurs passifs (mélangez simplement les signaux entrants sans amplification). Le nombre de ports est de 4. Les concentrateurs passifs ne peuvent pas être interconnectés. Ils ne peuvent lier que des concentrateurs actifs et/ou des adaptateurs réseau.

Les segments de bus ne peuvent être connectés qu'à des concentrateurs actifs.

Les adaptateurs réseau sont également de deux types :

  • Haute impédance (Bus) conçue pour une utilisation dans les segments de bus :
  • Basse impédance (étoile) conçue pour être utilisée dans une étoile passive.

Les adaptateurs à faible impédance diffèrent des adaptateurs à haute impédance en ce qu'ils contiennent des terminateurs correspondants de 93 ohms. Lors de leur utilisation, aucune approbation externe n'est requise. Dans les segments de bus, des adaptateurs à faible impédance peuvent être utilisés comme terminaisons pour la terminaison de bus. Les adaptateurs à haute impédance nécessitent l'utilisation de terminaisons externes de 93 ohms. Certains adaptateurs réseau ont la capacité de passer d'un état haute impédance à un état basse impédance, ils peuvent fonctionner en bus ou en étoile.

Ainsi, la topologie du réseau Arcnet est la suivante (Fig. 7.15).

Riz. 7.15. Topologie de bus Arcnet (B - adaptateurs de bus, S - adaptateurs en étoile)

Les principales caractéristiques techniques du réseau Arcnet sont les suivantes.

  • Support de transmission - câble coaxial, paire torsadée.
  • La longueur maximale du réseau est de 6 kilomètres.
  • La longueur maximale du câble entre l'abonné et le hub passif est de 30 mètres.
  • La longueur maximale du câble entre l'abonné et le concentrateur actif est de 600 mètres.
  • La longueur de câble maximale entre les hubs actifs et passifs est de 30 mètres.
  • La longueur de câble maximale entre les hubs actifs est de 600 mètres.
  • Le nombre maximum d'abonnés dans le réseau est de 255.
  • Le nombre maximum d'abonnés sur le segment de bus est de 8.
  • La distance minimale entre les abonnés dans le bus est de 1 mètre.
  • La longueur maximale d'un segment de pneu est de 300 mètres.
  • Le taux de transfert de données est de 2,5 Mbps.

Lors de la création de topologies complexes, il faut s'assurer que le délai de propagation du signal dans le réseau entre abonnés ne dépasse pas 30 μs. L'atténuation maximale du signal dans le câble à une fréquence de 5 MHz ne doit pas dépasser 11 dB.

Le réseau Arcnet utilise une méthode d'accès par jeton (transfert de droit), mais elle est quelque peu différente de celle du réseau Token-Ring. Cette méthode est la plus proche de celle fournie par la norme IEEE 802.4. La séquence d'actions des abonnés avec cette méthode :

1. L'abonné qui veut émettre attend l'arrivée du jeton.

2. Ayant reçu le jeton, il envoie une demande de transmission d'informations à l'abonné-récepteur (demande si le récepteur est prêt à accepter son paquet).

3. Le destinataire, après avoir reçu la demande, envoie une réponse (confirme sa disponibilité).

4. Après avoir reçu la confirmation de disponibilité, l'abonné-émetteur envoie son paquet.

5. Après avoir reçu le paquet, le récepteur envoie un accusé de réception du paquet.

6. L'émetteur, ayant reçu la confirmation de réception du paquet, termine sa session de communication. Après cela, le jeton est transmis au prochain abonné dans l'ordre décroissant des adresses réseau.

Ainsi, dans ce cas, le paquet n'est transmis que lorsqu'il est certain que le récepteur est prêt à le recevoir. Cela augmente considérablement la fiabilité de la transmission.

Tout comme dans le cas de Token-Ring, les conflits dans Arcnet sont complètement exclus. Comme tout réseau à jetons, Arcnet tient bien la charge et garantit la quantité de temps d'accès au réseau (contrairement à Ethernet). Le temps total nécessaire au marqueur pour contourner tous les abonnés est de 840 ms. En conséquence, le même intervalle détermine la limite supérieure du temps d'accès au réseau.

Le marqueur est formé par un abonné spécial - le contrôleur de réseau. C'est l'abonné avec l'adresse minimale (zéro).

Si l'abonné ne reçoit pas de jeton libre dans les 840 ms, alors il envoie une longue séquence de bits au réseau (pour assurer la destruction de l'ancien jeton corrompu). Après cela, la procédure de surveillance du réseau et d'attribution (si nécessaire) d'un nouveau contrôleur est effectuée.

La taille du paquet Arcnet est de 0,5 Ko. En plus du champ de données, il comprend également des adresses de récepteur et d'émetteur 8 bits et une somme de contrôle cyclique (CRC) 16 bits. Une si petite taille de paquet n'est pas très pratique avec une forte intensité d'échange sur le réseau.

Les adaptateurs réseau Arcnet diffèrent des autres adaptateurs réseau en ce qu'ils nécessitent des commutateurs ou des cavaliers pour définir leur propre adresse réseau (il peut y en avoir 255 au total, puisque la dernière 256e adresse est utilisée dans le réseau pour le mode de diffusion). Le contrôle de l'unicité de chaque adresse réseau relève entièrement de la responsabilité des utilisateurs du réseau. La connexion de nouveaux abonnés devient assez compliquée, car il est nécessaire de définir l'adresse qui n'a pas encore été utilisée. Le choix d'un format d'adresse 8 bits limite le nombre d'abonnés autorisés sur le réseau à 255, ce qui peut ne pas être suffisant pour les grandes entreprises.

En conséquence, tout cela a conduit à l'abandon presque complet du réseau Arcnet. Il existait des versions du réseau Arcnet conçues pour un taux de transfert de 20 Mbps, mais elles n'étaient pas largement utilisées.

Articles à lire :

Cours 6 : Segments de réseau Ethernet/Fast Ethernet standard

Fast Ethernet - la spécification IEEE 802.3 u, officiellement adoptée le 26 octobre 1995, définit la norme de protocole de couche de liaison pour les réseaux fonctionnant à la fois en cuivre et en fibre optique à une vitesse de 100 Mb/s. La nouvelle spécification succède à la norme Ethernet IEEE 802.3, utilisant le même format de trame, le même mécanisme d'accès au support CSMA/CD et la même topologie en étoile. L'évolution a touché plusieurs éléments de la configuration des installations de la couche physique, ce qui a augmenté le débit, notamment les types de câbles utilisés, la longueur des segments et le nombre de concentrateurs.

Couche physique

La norme Fast Ethernet définit trois types de supports de signalisation Ethernet 100 Mbps.

· 100Base-TX - deux paires de fils torsadés. La transmission est effectuée conformément à la norme de transmission de données sur un support physique torsadé, développée par l'ANSI (American National Standards Institute - American National Standards Institute). Le câble de données torsadé peut être blindé ou non blindé. Utilise l'algorithme de codage de données 4V/5V et la méthode de codage physique MLT-3.

· 100Base-FX - câble à fibre optique à deux conducteurs. La transmission est également effectuée conformément à la norme de transmission de données sur des supports à fibre optique, qui est développée par l'ANSI. Utilise l'algorithme d'encodage de données 4V/5V et la méthode d'encodage physique NRZI.

· 100Base-T4 est une spécification spécifique développée par le comité IEEE 802.3u. Selon cette spécification, la transmission de données est effectuée sur quatre paires torsadées de câble téléphonique, appelé câble UTP de catégorie 3. Il utilise l'algorithme de codage de données 8V/6T et la méthode de codage physique NRZI.

Câble multimode

Ce type de câble à fibre optique utilise une fibre avec un diamètre de coeur de 50 ou 62,5 micromètres et une gaine extérieure de 125 micromètres d'épaisseur. Un tel câble est appelé câble optique multimode avec des fibres micrométriques 50/125 (62,5/125). Pour transmettre un signal lumineux sur un câble multimode, un émetteur-récepteur LED avec une longueur d'onde de 850 (820) nanomètres est utilisé. Si un câble multimode relie deux ports de commutateurs fonctionnant en mode duplex intégral, il peut mesurer jusqu'à 2 000 mètres de long.

Câble monomode

Le câble à fibre optique monomode a un diamètre de noyau inférieur de 10 micromètres à celui de la fibre multimode, et un émetteur-récepteur laser est utilisé pour la transmission sur un câble monomode, ce qui garantit une transmission efficace sur de longues distances. La longueur d'onde du signal lumineux transmis est proche du diamètre du coeur qui est de 1300 nanomètres. Ce nombre est connu sous le nom de longueur d'onde de dispersion nulle. Dans un câble monomode, la dispersion et la perte de signal sont très faibles, ce qui permet la transmission de signaux lumineux sur des distances plus longues que dans le cas de l'utilisation de la fibre multimode.


38. Technologie Gigabit Ethernet, caractéristiques générales, spécification de l'environnement physique, concepts de base.
3.7.1. Caractéristiques générales de la norme

Assez rapidement après l'apparition des produits Fast Ethernet sur le marché, les intégrateurs et administrateurs de réseaux ont ressenti certaines limites dans la construction réseaux d'entreprise. Dans de nombreux cas, les serveurs connectés sur une liaison à 100 Mbps surchargeaient les backbones réseau qui fonctionnent également à 100 Mbps - backbones FDDI et Fast Ethernet. Il fallait un niveau supérieur dans la hiérarchie des vitesses. En 1995, seuls les commutateurs ATM pouvaient fournir un niveau de vitesse plus élevé, et en l'absence de moyens pratiques de migration de cette technologie vers les réseaux locaux à cette époque (bien que la spécification LAN Emulation - LANE ait été adoptée au début de 1995, sa mise en œuvre pratique était en avance ) pour les introduire dans Presque personne n'a osé le réseau local. De plus, la technologie ATM était très coûteuse.

Par conséquent, la prochaine étape franchie par l'IEEE semblait logique - 5 mois après l'adoption définitive de la norme Fast Ethernet en juin 1995, le groupe de recherche IEEE High-Speed ​​a été chargé d'examiner la possibilité de développer une norme Ethernet avec des performances encore plus élevées. débits binaires.

A l'été 1996, le groupe 802.3z est annoncé pour développer un protocole le plus proche possible d'Ethernet, mais avec un débit de 1000 Mbps. Comme pour Fast Ethernet, le message a été reçu avec beaucoup d'enthousiasme par les partisans d'Ethernet.



La principale raison de cet enthousiasme était la perspective d'une transition en douceur des dorsales de réseau vers Gigabit Ethernet, similaire à la façon dont les segments Ethernet surchargés situés aux niveaux inférieurs de la hiérarchie du réseau ont été transférés vers Fast Ethernet. De plus, il existait déjà une expérience dans la transmission de données à des vitesses gigabit, à la fois dans les réseaux territoriaux (technologie SDH) et dans les réseaux locaux - la technologie Fibre Channel, qui est principalement utilisée pour connecter des périphériques à haut débit à de gros ordinateurs et transmet des données sur une fibre câble optique de près du gigabit via le code de redondance 8V/10V.

La première version de la norme a été examinée en janvier 1997 et la norme 802.3z finale a été adoptée le 29 juin 1998 lors d'une réunion du comité IEEE 802.3. Les travaux sur la mise en œuvre de Gigabit Ethernet sur paire torsadée de catégorie 5 ont été transférés à un comité spécial 802.3ab, qui a déjà examiné plusieurs options pour l'ébauche de cette norme, et depuis juillet 1998, le projet est devenu assez stable. L'adoption finale de la norme 802.3ab est prévue en septembre 1999.

Sans attendre l'adoption de la norme, certaines entreprises ont sorti le premier équipement Gigabit Ethernet sur câble à fibre optique à l'été 1997.

L'idée principale des développeurs de la norme Gigabit Ethernet est de conserver au maximum les idées de la technologie Ethernet classique tout en atteignant un débit binaire de 1000 Mbps.

Car lors du développement d'une nouvelle technologie, il est naturel de s'attendre à des innovations techniques qui vont dans le sens général du développement technologies de réseau, il est important de noter que Gigabit Ethernet, ainsi que ses homologues plus lents, au niveau du protocole Ne fera pas Support:

  • qualité de service;
  • liens redondants ;
  • tester l'opérabilité des nœuds et des équipements (dans ce dernier cas, à l'exception des tests de communication port à port, comme c'est le cas pour Ethernet 10Base-T et 10Base-F et Fast Ethernet).

Ces trois propriétés sont considérées comme très prometteuses et utiles dans réseaux modernes, et surtout dans les réseaux du futur proche. Pourquoi les auteurs du Gigabit Ethernet les refusent-ils ?

L'idée principale des développeurs de la technologie Gigabit Ethernet est qu'il existe et existera de nombreux réseaux dans lesquels la vitesse élevée de la dorsale et la possibilité d'attribuer des priorités aux paquets dans les commutateurs seront tout à fait suffisantes pour assurer la qualité de service de transport pour tous les clients du réseau. Et ce n'est que dans les rares cas où le backbone est assez chargé et les exigences de qualité de service sont très strictes qu'il est nécessaire d'utiliser la technologie ATM, qui, en réalité, en raison de sa grande complexité technique, garantit la qualité de service pour tous les principaux types de Circulation.


39. Système de câblage structurel utilisé dans les technologies de réseau.
Un système de câblage structuré (SCS) est un ensemble d'éléments de commutation (câbles, connecteurs, connecteurs, panneaux transversaux et armoires), ainsi qu'une technique pour leur utilisation conjointe, qui vous permet de créer des structures de communication régulières et facilement extensibles dans les réseaux informatiques .

Un système de câblage structuré est une sorte de "constructeur", à l'aide duquel le concepteur de réseau construit la configuration dont il a besoin à partir de câbles standards reliés par des connecteurs standards et commutés sur des panneaux transversaux standards. Si nécessaire, la configuration de la connexion peut être facilement modifiée - ajoutez un ordinateur, un segment, un commutateur, supprimez les équipements inutiles et modifiez également les connexions entre les ordinateurs et les concentrateurs.

Lors de la construction d'un système de câblage structuré, il est entendu que chaque lieu de travail de l'entreprise doit être équipé de prises pour connecter un téléphone et un ordinateur, même si cela n'est pas actuellement requis. Autrement dit, un bon système de câblage structuré est construit de manière redondante. Cela peut permettre d'économiser de l'argent à l'avenir, car des modifications de la connexion de nouveaux appareils peuvent être apportées en reconnectant les câbles déjà posés.

Une structure hiérarchique typique d'un système de câblage structuré comprend :

  • sous-systèmes horizontaux (dans le sol);
  • sous-systèmes verticaux (à l'intérieur du bâtiment);
  • sous-système campus (sur un même territoire avec plusieurs bâtiments).

Sous-système horizontal relie l'armoire transversale de l'étage aux prises utilisateurs. Les sous-systèmes de ce type correspondent aux étages du bâtiment. Sous-système vertical relie les armoires transversales de chaque étage à la salle de contrôle centrale du bâtiment. La prochaine étape dans la hiérarchie est sous-système de campus, qui relie plusieurs bâtiments au matériel principal de l'ensemble du campus. Cette partie du système de câble est communément appelée dorsale.

L'utilisation d'un système de câblage structuré au lieu d'un câblage chaotique offre de nombreux avantages à une entreprise.

· Polyvalence. Un système de câblage structuré bien pensé peut devenir un environnement unique pour transmettre des données informatiques dans un réseau local, organiser un réseau téléphonique local, transmettre des informations vidéo et même transmettre des signaux provenant de capteurs de sécurité incendie ou de systèmes de sécurité. Cela vous permet d'automatiser de nombreux processus de contrôle, de surveillance et de gestion des services commerciaux et des systèmes de survie de l'entreprise.

· Durée de vie prolongée. La période d'obsolescence d'un système de câblage bien structuré peut être de 10 à 15 ans.

· Réduisez le coût d'ajout de nouveaux utilisateurs et de modification de leurs emplacements. On sait que le coût d'un système de câble est important et est principalement déterminé non pas par le coût du câble, mais par le coût de sa pose. Il est donc plus avantageux d'effectuer une seule pose de câble, éventuellement avec une grande marge de longueur, que d'effectuer plusieurs poses en augmentant la longueur du câble. Avec cette approche, tout travail d'ajout ou de déplacement d'un utilisateur se résume à connecter l'ordinateur à une prise existante.

· Possibilité d'extension facile du réseau. Le système de câblage structuré est modulaire et donc facile à étendre. Par exemple, vous pouvez ajouter un nouveau sous-réseau à un backbone sans affecter les sous-réseaux existants. Vous pouvez remplacer un seul type de câble de sous-réseau indépendamment du reste du réseau. Un système de câblage structuré est la base pour diviser un réseau en segments logiques gérables, puisqu'il est lui-même déjà divisé en segments physiques.

· Offrir un service plus efficace. Un système de câblage structuré facilite la maintenance et le dépannage par rapport à un système de câblage en bus. Dans l'organisation en bus du système de câble, la défaillance de l'un des appareils ou des éléments de connexion entraîne une défaillance difficile à localiser de l'ensemble du réseau. Dans les systèmes de câblage structuré, la défaillance d'un segment n'affecte pas les autres, puisque les segments sont interconnectés à l'aide de concentrateurs. Les concentrateurs diagnostiquent et localisent la section défectueuse.

· Fiabilité. Un système de câblage structuré a une fiabilité accrue, car le fabricant d'un tel système garantit non seulement la qualité de ses composants individuels, mais également leur compatibilité.


40. Concentrateurs et adaptateurs réseau, principes, utilisation, notions de base.
Les concentrateurs, ainsi que les adaptateurs réseau, ainsi que le système de câble, représentent l'équipement minimum avec lequel vous pouvez créer un réseau local. Un tel réseau sera un environnement commun partagé

Adaptateur de réseau(Carte d'interface réseau, NIC) avec son pilote implémente le second, couche de liaison modèles de systèmes ouverts dans le nœud final du réseau - un ordinateur. Plus précisément, dans le réseau système opérateur la paire adaptateur et pilote n'exécute que les fonctions des couches physique et MAC, tandis que la couche LLC est généralement implémentée par un module de système d'exploitation qui est le même pour tous les pilotes et adaptateurs réseau. En fait, c'est ainsi que cela devrait être conformément au modèle de pile de protocoles IEEE 802. Par exemple, dans Windows NT, le niveau LLC est implémenté dans le module NDIS, qui est commun à tous les pilotes de carte réseau, quelle que soit la technologie utilisée par le pilote. les soutiens.

L'adaptateur réseau, avec le pilote, effectue deux opérations : transmettre et recevoir une trame.

Dans les adaptateurs pour ordinateurs clients, une grande partie du travail est déchargée sur le pilote, ce qui rend l'adaptateur plus simple et moins cher. L'inconvénient de cette approche est le degré élevé de chargement du processeur central de l'ordinateur avec un travail de routine sur le transfert de trames de la RAM de l'ordinateur vers le réseau. Le processeur central est obligé d'effectuer ce travail au lieu d'effectuer des tâches d'application utilisateur.

La carte réseau doit être configurée avant d'être installée sur l'ordinateur. Lors de la configuration d'un adaptateur, vous spécifiez généralement le numéro IRQ utilisé par l'adaptateur, le numéro de canal accès directà la mémoire DMA (si l'adaptateur prend en charge le mode DMA) et l'adresse de base des ports d'E/S.

Presque toutes les technologies modernes réseaux locaux un appareil est défini qui a plusieurs noms égaux - concentrateur(concentrateur), hub (hub), répéteur (répéteur). Selon le domaine d'application de cet appareil, la composition de ses fonctions et sa conception changent considérablement. Seule la fonction principale reste inchangée - c'est répétition de trame soit sur tous les ports (comme défini dans la norme Ethernet) soit seulement sur certains ports, selon l'algorithme défini par la norme respective.

Le concentrateur comporte généralement plusieurs ports auxquels, à l'aide de segments de câbles physiques distincts, les nœuds d'extrémité du réseau - les ordinateurs - sont connectés. Le concentrateur combine des segments de réseau physiques distincts dans un environnement partagé unique, dont l'accès est effectué conformément à l'un des protocoles de réseau local considérés - Ethernet, Token Ring, etc. Étant donné que la logique d'accès à un environnement partagé dépend de manière significative de la technologie, pour chaque type de technologies sont produites par leurs hubs - Ethernet ; anneau de jeton ; FDDI et 100VG-AnyLAN. Pour un protocole particulier, son propre nom hautement spécialisé pour cet appareil est parfois utilisé, ce qui reflète plus précisément ses fonctions ou est utilisé en raison de la tradition, par exemple, le nom MSAU est typique des concentrateurs Token Ring.

Chaque concentrateur exécute une fonction de base définie dans le protocole correspondant de la technologie qu'il prend en charge. Bien que cette fonctionnalité soit définie en détail dans la norme technologique, lors de sa mise en œuvre, les concentrateurs de différents fabricants peuvent différer dans des détails tels que le nombre de ports, la prise en charge de plusieurs types de câbles, etc.

En plus de la fonction principale, le concentrateur peut exécuter un certain nombre de fonctions supplémentaires qui ne sont pas du tout définies dans la norme ou qui sont facultatives. Par exemple, un concentrateur Token Ring peut exécuter la fonction d'arrêt des ports qui se comportent mal et de basculer vers un anneau de secours, bien que ces capacités ne soient pas décrites dans la norme. Le concentrateur s'est avéré être un dispositif pratique pour exécuter des fonctions supplémentaires qui facilitent le contrôle et l'exploitation du réseau.


41. Utilisation de ponts et de commutateurs, principes, fonctionnalités, exemples, limitations
Structurer avec des ponts et des commutateurs

le réseau peut être divisé en segments logiques à l'aide de deux types de dispositifs - des ponts (bridge) et / ou des commutateurs (switch, hub de commutation).

Le pont et l'interrupteur sont des jumeaux fonctionnels. Ces deux appareils font avancer les trames sur la base des mêmes algorithmes. Les ponts et les commutateurs utilisent deux types d'algorithmes : l'algorithme pont transparent (pont transparent), décrit dans la norme IEEE 802.1D, ou l'algorithme pont de routage source d'IBM pour les réseaux Token Ring. Ces normes ont été développées bien avant le premier changement, c'est pourquoi elles utilisent le terme "pont". Lorsque le premier modèle de commutateur industriel pour la technologie Ethernet est né, il exécutait le même algorithme d'avancement de trame IEEE 802.ID qui avait été élaboré pendant dix ans par des ponts de réseaux locaux et réseaux mondiaux

La principale différence entre un commutateur et un pont est qu'un pont traite les trames de manière séquentielle, tandis qu'un commutateur traite les trames en parallèle. Cette circonstance est due au fait que les ponts sont apparus à un moment où le réseau était divisé en un petit nombre de segments et que le trafic inter-segments était faible (il obéissait à la règle des 80/20%).

Aujourd'hui, les ponts fonctionnent toujours sur les réseaux, mais uniquement sur des liaisons globales plutôt lentes entre deux réseaux locaux distants. Ces ponts sont appelés ponts distants et leur algorithme de fonctionnement n'est pas différent de la norme 802.1D ou Source Routing.

Les ponts transparents peuvent, en plus de transmettre des trames au sein d'une même technologie, traduire des protocoles de réseau local, tels que Ethernet en Token Ring, FDDI en Ethernet, etc. Cette propriété des ponts transparents est décrite dans la norme IEEE 802.1H.

À l'avenir, nous appellerons un appareil qui promeut les trames selon l'algorithme de pont et fonctionne sur un réseau local avec le terme moderne "commutateur". Lors de la description des algorithmes 802.1D et Source Routing eux-mêmes dans la section suivante, nous appellerons traditionnellement l'appareil un pont, comme il est en fait appelé dans ces normes.


42. Commutateurs pour réseaux locaux, protocoles, modes de fonctionnement, exemples.
Chacun des 8 ports 10Base-T est desservi par un processeur de paquets Ethernet - EPP (Ethernet Packet Processor). De plus, le commutateur dispose d'un module système qui coordonne le fonctionnement de tous les processeurs EPP. Le module système maintient une table d'adresses de commutateur commune et gère le commutateur à l'aide du protocole SNMP. Les trames sont transmises entre les ports à l'aide d'une matrice de commutation, similaire à celles que l'on trouve dans les centraux téléphoniques ou les ordinateurs multiprocesseurs, connectant plusieurs processeurs à plusieurs modules de mémoire.

La matrice de commutation fonctionne sur le principe de la commutation de circuit. Pour 8 ports, la matrice peut fournir 8 canaux internes simultanés en mode de fonctionnement half-duplex des ports et 16 en mode full-duplex, lorsque l'émetteur et le récepteur de chaque port fonctionnent indépendamment l'un de l'autre.

Lorsqu'une trame arrive sur n'importe quel port, le processeur EPP met en mémoire tampon les premiers octets de la trame pour lire l'adresse de destination. Après avoir reçu l'adresse de destination, le processeur décide immédiatement de transférer le paquet, sans attendre l'arrivée des octets restants de la trame.

Si la trame doit être transférée vers un autre port, le processeur accède à la matrice de commutation et tente d'y établir un chemin qui connecte son port au port par lequel passe la route vers l'adresse de destination. La matrice de commutation ne peut le faire que si le port d'adresse de destination est libre à ce moment-là, c'est-à-dire qu'il n'est pas connecté à un autre port. Si le port est occupé, alors, comme dans tout appareil à commutation de circuits, la matrice refuse de se connecter. . Dans ce cas, la trame est entièrement mise en mémoire tampon par le processeur du port d'entrée, après quoi le processeur attend que le port de sortie soit libéré et que la matrice de commutation forme le chemin souhaité. Une fois le chemin souhaité établi, les octets mis en mémoire tampon de la trame lui sont envoyés, qui sont reçus par le processeur du port de sortie. Dès que le processeur du port de sortie accède au segment Ethernet qui lui est connecté à l'aide de l'algorithme CSMA / CD, les octets de la trame commencent immédiatement à être transmis au réseau. La méthode décrite de transmission de trames sans sa mise en mémoire tampon complète est appelée commutation « à la volée » ou « cut-through ». La principale raison d'améliorer les performances du réseau lors de l'utilisation d'un commutateur est parallèle traitement de plusieurs trames Cet effet est illustré sur la fig. 4.26. La figure montre une situation idéale en termes d'amélioration des performances, lorsque quatre ports sur huit transmettent des données à une vitesse maximale pour le protocole Ethernet de 10 Mb/s, et qu'ils transmettent ces données aux quatre ports restants du commutateur sans conflit - les flux de données entre les nœuds du réseau sont distribués de sorte que chaque port qui reçoit des trames ait son propre port de sortie. Si le commutateur a le temps de traiter le trafic entrant même à l'intensité maximale des trames arrivant aux ports d'entrée, les performances globales du commutateur dans l'exemple ci-dessus seront de 4x10 = 40 Mbps, et lors de la généralisation de l'exemple pour N ports - ( N / 2)xlO Mbps. On dit que le commutateur fournit à chaque station ou segment connecté à ses ports une bande passante de protocole dédiée. 4.26. Si deux stations, telles que des stations connectées à des ports 3 et 4, en même temps, vous devez écrire des données sur le même serveur connecté au port 8, alors le commutateur ne pourra pas allouer un flux de données de 10 Mbps à chaque station, car le port 5 ne peut pas transmettre de données à un débit de 20 Mbps. Les trames de la station attendront dans les files d'attente internes des ports d'entrée 3 et 4, quand le port est libre 8 pour envoyer la trame suivante. Évidemment, une bonne solution pour une telle répartition des flux de données serait de connecter le serveur à un port plus rapide, tel que Fast Ethernet. non bloquant changer de modèle.


43. L'algorithme du pont transparent.
Les ponts transparents sont invisibles pour les adaptateurs réseau des nœuds d'extrémité, car ils construisent indépendamment une table d'adresses spéciale, sur la base de laquelle il est possible de décider si la trame entrante doit être transmise à un autre segment ou non. Les adaptateurs réseau lorsqu'ils utilisent des ponts transparents fonctionnent exactement de la même manière qu'en leur absence, c'est-à-dire qu'ils n'effectuent aucune action supplémentaire pour faire passer la trame à travers le pont. L'algorithme de pontage transparent est indépendant de la technologie LAN dans laquelle le pont est installé, de sorte que le pontage transparent Ethernet fonctionne exactement comme le pontage transparent FDDI.

Un pont transparent construit sa table d'adresses en se basant sur l'observation passive du trafic circulant dans les segments connectés à ses ports. Dans ce cas, le pont prend en compte les adresses des sources de trames de données arrivant sur les ports du pont. Sur la base de l'adresse source de la trame, le pont conclut que ce nœud appartient à l'un ou l'autre segment de réseau.

Considérons le processus de création automatique de la table d'adresses du pont et son utilisation sur l'exemple d'un réseau simple présenté à la fig. 4.18.

Riz. 4.18. Le principe de fonctionnement du pont transparent

Un pont relie deux segments logiques. Le segment 1 est composé d'ordinateurs connectés avec un morceau de câble coaxial au port 1 du pont, et le segment 2 est composé d'ordinateurs connectés avec un autre morceau de câble coaxial au port 2 du pont.

Chaque port de pont agit comme le nœud final de son propre segment, à une exception près : le port de pont n'a pas sa propre adresse MAC. Le port pont fonctionne dans le soi-disant illisible (promis) mode de capture de paquets, lorsque tous les paquets arrivant au port sont stockés dans la mémoire tampon. En utilisant ce mode, le pont surveille tout le trafic transmis dans les segments qui lui sont attachés et utilise les paquets qui le traversent pour apprendre la composition du réseau. Comme tous les paquets sont mis en mémoire tampon, le pont n'a pas besoin d'adresse de port.

Initialement, le pont ne sait rien des ordinateurs avec lesquels les adresses MAC sont connectées à chacun de ses ports. Par conséquent, dans ce cas, le pont transfère simplement toute trame capturée et mise en mémoire tampon à tous ses ports sauf celui à partir duquel il a reçu la trame. Dans notre exemple, le pont n'a que deux ports, il envoie donc des trames du port 1 au port 2 et vice versa. Lorsque le pont est sur le point de transférer une trame de segment en segment, par exemple du segment 1 au segment 2, il essaie à nouveau d'accéder au segment 2 en tant que nœud d'extrémité selon les règles de l'algorithme d'accès, dans cet exemple, selon le règles de l'algorithme CSMA/CD.

Simultanément à la transmission de la trame à tous les ports, le pont apprend l'adresse source de la trame et fait une nouvelle entrée sur sa propriété dans sa table d'adresses, également appelée table de filtrage ou de routage.

Une fois que le pont est passé par la phase d'apprentissage, il peut fonctionner plus efficacement. Lors de la réception d'une trame envoyée, par exemple, de l'ordinateur 1 à l'ordinateur 3, il recherche dans la table d'adresses une correspondance entre ses adresses et l'adresse de destination 3. Puisqu'il existe une telle entrée, le pont effectue la deuxième étape de l'analyse de la table - il vérifie s'il y a des ordinateurs avec des adresses source (dans notre cas, il s'agit de l'adresse 1) et l'adresse de destination (adresse 3) dans le même segment. Étant donné que dans notre exemple, ils se trouvent dans des segments différents, le pont effectue l'opération promotion (transfert) trame - transmet une trame à un autre port, ayant précédemment obtenu l'accès à un autre segment.

Si l'adresse de destination est inconnue, le pont transmet la trame sur tous ses ports, à l'exception du port source de la trame, comme dans la phase initiale du processus d'apprentissage.


44. Ponts avec routage source.
Le pontage routé par la source est utilisé pour connecter Token Ring et les anneaux FDDI, bien que le pontage transparent puisse également être utilisé dans le même but. Le routage source (SR) est basé sur le fait que la station émettrice met dans la trame envoyée à un autre anneau toutes les informations d'adresse sur les ponts et anneaux intermédiaires que la trame doit traverser avant d'entrer dans l'anneau auquel la station est connectée - destinataire.

Considérez les principes de fonctionnement des ponts de routage source (ci-après dénommés ponts SR) en utilisant l'exemple du réseau illustré à la Fig. 4.21. Le réseau se compose de trois anneaux reliés par trois ponts. Les anneaux et les ponts ont des identifiants pour définir l'itinéraire. Les ponts SR ne construisent pas de table d'adresses, mais utilisent les informations disponibles dans les champs correspondants de la trame de données lors de la transmission des trames.

Figure. 4.21.Ponts de routage source

À la réception de chaque paquet, le pont SR n'a qu'à regarder le champ d'informations de routage (le champ d'informations de routage, RIF, dans une trame Token Ring ou FDDI) pour voir s'il contient son identifiant. Et s'il y est présent et accompagné de l'identifiant de l'anneau qui est connecté à ce pont, alors dans ce cas le pont copie la trame entrante vers l'anneau spécifié. Sinon, le bloc n'est pas copié dans un autre anneau. Dans les deux cas, la copie originale de la trame est renvoyée sur l'anneau d'origine à la station d'origine, et si elle a été envoyée à un autre anneau, le bit A (adresse reconnue) et le bit C (trame copiée) du champ d'état de la trame sont définis à 1 pour indiquer à la station d'origine que la trame a été reçue par la station de destination (dans ce cas, transmise par le pont vers un autre anneau).

Étant donné que les informations de routage dans une trame ne sont pas toujours nécessaires, mais uniquement pour la transmission de trames entre stations connectées à différents anneaux, la présence du champ RIF dans la trame est indiquée en définissant le bit d'adresse individuelle / de groupe (I / G) sur 1 ( dans ce cas, ce bit n'est pas utilisé par destination, puisque l'adresse source est toujours individuelle).

Le champ RIF a un sous-champ de contrôle composé de trois parties.

  • type de cadre définit le type du champ RIF. Exister différents types Champs RIF utilisés pour trouver une route et envoyer une trame le long d'une route connue.
  • Champ Longueur de trame maximale utilisé par un pont pour relier des anneaux qui ont des MTU différents. Avec ce champ, le pont informe la station de la longueur de trame maximale possible (c'est-à-dire valeur minimum MTU pour toute la durée de la route).
  • Longueur du champ RIF est nécessaire, car le nombre de descripteurs d'itinéraires qui précisent les identifiants des anneaux et des ponts croisés n'est pas connu à l'avance.

Pour que l'algorithme de routage source fonctionne, deux types de trames supplémentaires sont utilisés - l'explorateur de trames de diffusion à route unique SRBF (trame de diffusion à route unique) et l'explorateur de trames de diffusion multi-routes ARBF (trame de diffusion à routes multiples).

Tous les ponts SR doivent être configurés manuellement par l'administrateur pour transférer les trames ARBF sur tous les ports à l'exception du port source de la trame, et pour les trames SRBF, certains ports de pont doivent être bloqués pour éviter les boucles dans le réseau.

Avantages et inconvénients des ponts routés par la source

45. Commutateurs : mise en œuvre technique, fonctions, caractéristiques qui affectent leur fonctionnement.
Caractéristiques de la mise en œuvre technique des commutateurs. De nombreux commutateurs de première génération étaient similaires aux routeurs, c'est-à-dire qu'ils étaient basés sur une unité centrale de traitement à usage général connectée aux ports d'interface via un bus interne à haut débit. Le principal inconvénient de ces commutateurs était leur faible vitesse. Un processeur à usage général ne pourrait pas faire face à un grand volume d'opérations spécialisées pour envoyer des trames entre modules d'interface. En plus des puces de processeur, pour un fonctionnement non bloquant réussi, le commutateur doit également avoir un nœud rapide pour faire passer les trames entre les puces de processeur de port. Actuellement, les commutateurs utilisent comme base l'un des trois schémas sur lesquels un tel nœud d'échange est construit :

  • matrice de commutation ;
  • mémoire multi-entrées partagée ;
  • autobus commun.

Le laboratoire de test ComputerPress a testé des cartes réseau 10/100 Mbit/s de la norme Fast Ethernet pour le bus PCI destinées à être utilisées dans les postes de travail. Les cartes 10/100 Mbps actuellement les plus courantes ont été choisies car, d'une part, elles peuvent être utilisées dans les réseaux Ethernet, Fast Ethernet et mixtes, et, d'autre part, la prometteuse technologie Gigabit Ethernet (débit jusqu'à 1000 Mbps) est encore le plus souvent utilisée pour connecter des serveurs puissants aux équipements réseau du cœur du réseau. Il est extrêmement important de savoir quel équipement de réseau passif de qualité (câbles, prises, etc.) est utilisé dans le réseau. Il est bien connu que si un câble à paire torsadée de catégorie 3 est suffisant pour les réseaux Ethernet, alors la catégorie 5 est déjà requise pour Fast Ethernet. La diffusion du signal et une mauvaise protection contre le bruit peuvent réduire considérablement le débit du réseau.

Le but des tests était de déterminer, tout d'abord, l'indice de performance effectif (Performance/Efficiency Index Ratio - ci-après dénommé l'indice P/E), et ensuite seulement - la valeur absolue du débit. L'indice P/E est calculé comme le rapport entre la bande passante de la carte réseau en Mbps et le degré d'utilisation du processeur en pourcentage. Cet indice est la norme de l'industrie pour déterminer les performances des adaptateurs réseau. Il a été introduit afin de prendre en compte l'utilisation des ressources CPU par les cartes réseau. Le fait est que certains fabricants d'adaptateurs réseau tentent d'atteindre des performances maximales en utilisant davantage de cycles de processeur informatique pour effectuer des opérations réseau. Une utilisation minimale du processeur et un débit relativement élevé sont essentiels pour les applications métier critiques, en temps réel et multimédias.

Les cartes les plus utilisées actuellement pour les postes de travail dans les réseaux d'entreprise et locaux ont été testées :

  1. D-Link DFE-538TX
  2. SMC EtherPower II 10/100 9432TX/MP
  3. 3Com Fast EtherLink XL 3C905B-TX-NM
  4. Compex RL 100ATX
  5. Gestion Intel EtherExpress PRO/100+
  6. CNet PRO-120
  7. NetGear FA 310TX
  8. Allié Telesyn AT 2500TX
  9. Surecom EP-320X-R

Les principales caractéristiques des adaptateurs réseau testés sont données dans le tableau. une . Expliquons certains des termes utilisés dans le tableau. Détection automatique La vitesse de connexion signifie que l'adaptateur détermine lui-même la vitesse de fonctionnement maximale possible. De plus, si la détection automatique de la vitesse est prise en charge, aucune configuration supplémentaire n'est requise lors du passage d'Ethernet à Fast Ethernet et vice versa. Autrement dit, l'administrateur système n'est pas obligé de reconfigurer l'adaptateur et de recharger les pilotes.

La prise en charge du mode Bus Master vous permet de transférer des données directement entre la carte réseau et la mémoire de l'ordinateur. Cela libère le processeur pour effectuer d'autres tâches. Cette propriété est devenue la norme de facto. Pas étonnant que toutes les cartes réseau connues prennent en charge le mode Bus Master.

La mise sous tension à distance (Wake on LAN) vous permet d'allumer le PC via le réseau. C'est-à-dire qu'il devient possible de réparer le PC pendant les heures non ouvrables. A cet effet, des connecteurs à trois broches sont utilisés sur carte système et adaptateur réseau, qui sont connectés avec un câble spécial (inclus dans la livraison). De plus, un logiciel de contrôle spécial est nécessaire. La technologie Wake on LAN a été développée par l'alliance Intel-IBM.

Le mode duplex intégral vous permet de transférer des données simultanément dans les deux sens, semi-duplex - dans un seul sens. Ainsi, le débit maximal possible en mode full duplex est de 200 Mbps.

L'interface DMI (Desktop Management Interface) permet d'obtenir des informations sur la configuration et les ressources d'un PC à l'aide d'un logiciel de gestion de réseau.

La prise en charge de la spécification WfM (Wired for Management) garantit que la carte réseau interagit avec le logiciel de gestion et d'administration du réseau.

Pour démarrer à distance le système d'exploitation d'un ordinateur sur un réseau, les adaptateurs réseau sont équipés d'une mémoire BootROM spéciale. Cela permet d'utiliser efficacement les postes de travail sans disque sur le réseau. Dans la plupart des cartes testées, il n'y avait qu'un socket pour installer BootROM ; la puce BootROM elle-même est généralement une option commandée séparément.

La prise en charge de l'ACPI (Advanced Configuration Power Interface) réduit la consommation d'énergie. ACPI est nouvelle technologie, qui assure le fonctionnement du système de gestion de l'alimentation. Il repose sur l'utilisation à la fois de matériel et de logiciels. Fondamentalement, Wake on LAN fait partie intégrante de l'ACPI.

Des outils propriétaires d'amélioration des performances vous permettent d'augmenter l'efficacité de la carte réseau. Les plus connus sont Parallel Tasking II de 3Com et Adaptive Technology d'Intel. Ces outils sont généralement brevetés.

La prise en charge des principaux systèmes d'exploitation est assurée par presque tous les adaptateurs. Les principaux systèmes d'exploitation incluent : Windows, Windows NT, NetWare, Linux, SCO UNIX, LAN Manager et autres.

Le niveau de support du service est évalué par la disponibilité de la documentation, une disquette avec les pilotes et la possibilité de télécharger les dernières versions des pilotes à partir du site Web de l'entreprise. L'emballage joue également un rôle important. De ce point de vue, les meilleurs, à notre avis, sont les adaptateurs réseau D-Link, Allied Telesyn et Surecom. Mais en général, le niveau de support s'est avéré satisfaisant pour toutes les cartes.

Généralement, la garantie couvre la durée de vie de l'adaptateur secteur (garantie à vie). Parfois, il est limité à 1-3 ans.

Méthodologie des tests

Tous les tests ont utilisé les derniers pilotes de carte réseau téléchargés à partir des serveurs Internet du fabricant respectif. Dans le cas où le pilote de la carte réseau autorisait tous les paramètres et optimisations, les paramètres par défaut étaient utilisés (à l'exception de la carte réseau Intel). Il convient de noter que les cartes et les pilotes correspondants de 3Com et Intel ont les caractéristiques et fonctions supplémentaires les plus riches.

Les performances ont été mesurées à l'aide de l'utilitaire Perform3 de Novell. Le principe de l'utilitaire est qu'un petit fichier est copié du poste de travail vers un lecteur réseau serveur, après quoi il reste dans le cache de fichiers du serveur et y est lu à plusieurs reprises pendant une période de temps spécifiée. Cela vous permet d'obtenir une interaction mémoire-réseau-mémoire et d'éliminer l'impact des retards associés aux opérations de disque. Les paramètres de l'utilitaire incluent la taille initiale du fichier, la taille finale du fichier, l'étape de redimensionnement et la durée du test. L'utilitaire Novell Perform3 affiche des valeurs de performances avec différentes tailles de fichiers, moyennes et performance maximum(en Ko/s). Les paramètres suivants ont été utilisés pour configurer l'utilitaire :

  • Taille de fichier initiale - 4095 octets
  • Taille finale du fichier - 65 535 octets
  • Incrément de fichier - 8192 octets

Le temps de test avec chaque fichier a été fixé à vingt secondes.

Chaque expérience a utilisé une paire de cartes réseau identiques, l'une fonctionnant sur le serveur et l'autre sur le poste de travail. Cela ne semble pas conforme à la pratique courante, car les serveurs utilisent généralement des adaptateurs réseau spécialisés dotés d'un certain nombre de fonctionnalités supplémentaires. Mais juste de cette manière - les mêmes cartes réseau sont installées à la fois sur le serveur et sur les postes de travail - les tests sont effectués par tous les laboratoires de test connus dans le monde (KeyLabs, Tolly Group, etc.). Les résultats sont quelque peu inférieurs, mais l'expérience s'avère propre, puisque seules les cartes réseau analysées fonctionnent sur tous les ordinateurs.

Configuration du client Compaq DeskPro FR :

  • processeur Pentium II 450 MHz
  • Cache de 512 Ko
  • RAM 128 Mo
  • disque dur 10 Go
  • système d'exploitation Microsoft Windows NT Server 4.0 c 6 a SP
  • Protocole TCP/IP.

Configuration du serveur Compaq DeskPro EP :

  • Processeur Celeron 400 MHz
  • RAM 64 Mo
  • disque dur 4,3 Go
  • système d'exploitation Microsoft Windows NT Workstation 4.0 c c 6 a SP
  • Protocole TCP/IP.

Les tests ont été effectués avec des ordinateurs connectés directement avec un câble croisé UTP de catégorie 5. Au cours de ces tests, les cartes fonctionnaient en mode 100Base-TX Full Duplex. Dans ce mode, le débit est un peu plus élevé du fait qu'une partie des informations de service (par exemple, l'accusé de réception) est transmise simultanément avec des informations utiles dont le volume est estimé. Dans ces conditions, il était possible de fixer des valeurs de débit assez élevées ; par exemple, pour un adaptateur 3Com Fast EtherLink XL 3C905B-TX-NM, une moyenne de 79,23 Mbps.

L'utilisation du processeur a été mesurée sur le serveur à l'aide de l'utilitaire Windows NT Performance Monitor ; les données ont été écrites dans un fichier journal. L'utilitaire Perform3 a été exécuté sur le client afin de ne pas affecter la charge du processeur du serveur. Un Intel Celeron a été utilisé comme processeur de l'ordinateur serveur, dont les performances sont nettement inférieures à celles des processeurs Pentium II et III. Intel Celeron a été utilisé délibérément : le fait est que puisque la charge du processeur est déterminée avec une erreur absolue assez importante, dans le cas de grandes valeurs absolues, l'erreur relative s'avère plus petite.

Après chaque test, l'utilitaire Perform3 place les résultats de son travail dans un fichier texte sous la forme d'un ensemble de données de la forme suivante :

65535 octets. 10 491,49 Ko/s. 10491,49 Ko/s agrégé. 57343 octets. 10 844,03 Ko/s. 10844.03 Ko/s agrégé. 49151 octets. 10 737,95 Ko/s. 10 737,95 Ko/s cumulés. 40959 octets. 10603,04 Ko/s. 10603.04 Ko/s agrégé. 32767 octets. 10 497,73 Ko/s. 10497,73 Ko/s cumulés. 24575 octets. 10 220,29 Ko/s. 10 220,29 Ko/s cumulés. 16383 octets. 9573,00 Ko/s. 9 573,00 Ko/s cumulés. 8191 octets. 8 195,50 Ko/s. 8 195,50 Ko/s cumulés. 10844.03 Ko/s maximum. 10145,38 Ko moyen.

La taille du fichier est affichée, le débit correspondant pour le client sélectionné et pour tous les clients (dans ce cas il n'y a qu'un seul client), ainsi que le débit maximum et moyen sur l'ensemble du test. Les valeurs moyennes obtenues pour chaque test ont été converties de KB/s en Mbit/s en utilisant la formule :
(Ko x 8)/1024,
et la valeur de l'indice P / E a été calculée comme le rapport entre le débit et l'utilisation du processeur en pourcentage. Par la suite, la valeur moyenne de l'indice P/E a été calculée sur la base des résultats de trois mesures.

Lors de l'utilisation de l'utilitaire Perform3 sur Windows NT Workstation, le problème suivant se posait : en plus d'écrire sur un lecteur réseau, le fichier était également écrit dans le cache de fichiers local, à partir duquel il était ensuite lu très rapidement. Les résultats étaient impressionnants, mais irréalistes, car il n'y avait pas de transmission de données en soi sur le réseau. Pour que les applications perçoivent les lecteurs réseau partagés comme des lecteurs locaux ordinaires, le système d'exploitation utilise un composant réseau spécial - un redirecteur qui redirige les demandes d'E / S sur le réseau. Dans des conditions de fonctionnement normales, lors de l'écriture d'un fichier sur un lecteur réseau partagé, le redirecteur utilise l'algorithme Mise en cache Windows NT. C'est pourquoi, lors de l'écriture sur le serveur, il écrit également dans le cache de fichiers local de la machine cliente. Et pour les tests, il faut que la mise en cache soit effectuée uniquement sur le serveur. Afin d'éviter la mise en cache sur l'ordinateur client, les valeurs des paramètres du registre Windows NT ont été modifiées, ce qui a permis de désactiver la mise en cache effectuée par le redirecteur. Voici comment cela a été fait :

  1. Chemin d'accès au registre :

    HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Rdr\Parameters

    Le nom du paramètre:

    UseWriteBehind permet l'optimisation de l'écriture différée pour les fichiers en cours d'écriture

    Tapez : REG_DWORD

    Valeur : 0 (par défaut : 1)

  2. Chemin d'accès au registre :

    HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Lanmanworkstation\parameters

    Le nom du paramètre:

    UtilizeNTCaching spécifie si le redirecteur utilisera le gestionnaire de cache Windows NT pour mettre en cache le contenu des fichiers.

    Type : REG_DWORD Valeur : 0 (par défaut : 1)

Carte réseau de gestion Intel EtherExpress PRO/100+

Le débit et l'utilisation du processeur de cette carte étaient presque les mêmes que ceux de 3Com. La fenêtre de paramétrage de cette carte est présentée ci-dessous.

Le nouveau contrôleur Intel 82559 installé sur cette carte offre de très hautes performances, notamment sur les réseaux Fast Ethernet.

La technologie qu'Intel utilise dans sa carte Intel EtherExpress PRO/100+ s'appelle Adaptive Technology. L'essence de la méthode est changement automatique intervalles de temps entre les paquets Ethernet en fonction de la charge du réseau. À mesure que le trafic réseau augmente, la distance entre les paquets Ethernet individuels augmente dynamiquement pour réduire les collisions et augmenter le débit. Avec une faible charge du réseau, lorsque la probabilité de collisions est faible, les intervalles de temps entre les paquets sont réduits, ce qui entraîne également une augmentation des performances. Les avantages de cette méthode devraient être plus prononcés dans les grands segments Ethernet en collision, c'est-à-dire dans les cas où la topologie du réseau est dominée par des concentrateurs plutôt que par des commutateurs.

Nouveau Technologie Intel, appelé Priority Packet, vous permet de réguler le trafic transitant par la carte réseau, en fonction des priorités des paquets individuels. Cela permet d'augmenter le taux de transfert de données pour les applications critiques.

La prise en charge des VLAN (norme IEEE 802.1Q) est fournie.

Il n'y a que deux indicateurs sur le tableau - travail / connexion, vitesse 100.

www.intel.com

Adaptateur réseau SMC EtherPower II 10/100 SMC9432TX/MP

L'architecture de cette carte utilise deux technologies prometteuses SMC SimulTasking et Programmable InterPacket Gap. La première technologie est similaire à la technologie 3Com Parallel Tasking. En comparant les résultats des tests des cartes de ces deux fabricants, on peut conclure sur le degré d'efficacité de la mise en œuvre de ces technologies. Nous notons également que cette carte réseau a montré le troisième résultat à la fois en termes de performances et d'indice P / E, devant toutes les cartes sauf 3Com et Intel.

Il y a quatre indicateurs LED sur la carte : vitesse 100, transmission, liaison, duplex.

Site Web principal de l'entreprise : www.smc.com