Heim / Soziale Netzwerke / Die Topologie des Computernetzwerks wird bestimmt. Design und Berechnung der Zuverlässigkeit und Effizienz eines lokalen Netzwerks Zuverlässigkeit des Kabelsystems des Internets

Die Topologie des Computernetzwerks wird bestimmt. Design und Berechnung der Zuverlässigkeit und Effizienz eines lokalen Netzwerks Zuverlässigkeit des Kabelsystems des Internets

1) die Eigenschaften der im Netzwerk verwendeten Geräte;

2) das verwendete Netzwerkbetriebssystem;

3) die Methode der physikalischen Verbindung von Netzwerkknoten durch Kommunikationskanäle;

4) die Methode der Verteilung von Signalen über das Netzwerk.

60. Für Standard Ethernet-Technologien werden verwendet…

1) Koaxialkabel;

2) lineare Topologie;

3) Ringtopologie;

4) Trägererkennungszugriff;

5) Token-Weiterleitung

6) Glasfaserkabel;

61. Geben Sie die Möglichkeiten an, in denen eine Arbeitsstation sein kann physisch mit dem Netzwerk verbunden?

1) verwenden Netzwerkadapter und Kabelauslass

2) über einen Hub

3) mit einem Modem und einem dedizierten Telefonleitung

4) über den Server

62. Lokale Netzwerke sind nicht erlaubt physisch kombinieren mit...

1) Server

2) Gateways

3) Router

4) Naben

63. Was ist der Hauptnachteil der "Ring"-Topologie?

1. hohe Netzwerkkosten;

2. geringe Netzwerkzuverlässigkeit;

3. hoher Kabelverbrauch;

4. geringe Störfestigkeit des Netzes.

64. Für welche Topologie gilt die Aussage: „Computerausfall stört nicht den Betrieb des gesamten Netzes“?

1) grundlegende Sterntopologie

2) grundlegende "Bus"-Topologie

3) grundlegende "Ring"-Topologie

4) die Aussage ist für jede der grundlegenden Topologien falsch

65. Was ist der Hauptvorteil der Sterntopologie?

1. niedrige Netzwerkkosten;

2. hohe Zuverlässigkeit und Verwaltbarkeit des Netzes;

3. geringer Kabelverbrauch;

4. gute Störfestigkeit des Netzes.

66. Welche Topologie und Zugriffsmethode werden in Ethernet-Netzwerken verwendet?

1) Bus und CSMA/CD

2) Bus- und Token-Transfer

3) Ring- und Token-Transfer

4) Bus und CSMA/CA

67. Welche Netzeigenschaften werden durch die Wahl der Netztopologie bestimmt?

1. Ausrüstungskosten

2. Netzwerkzuverlässigkeit

3. Unterordnung von Computern in das Netzwerk

4. Netzwerkerweiterbarkeit

68. Was ist der Hauptvorteil der Zugriffsmethode "Pass Token"?

  1. keine Kollisionen (Kollisionen)
  2. einfache technische Umsetzung
  3. geringe Kosten für die Ausrüstung

Phasen des Datenaustauschs im Netzwerk Computersysteme

1) Datentransformation beim Übergang von der oberen zur unteren Ebene1

2) Datentransformation als Ergebnis des Wechsels von der unteren Ebene zur oberen3

3) Transport zum Empfängercomputer2

70. Was ist das Hauptprotokoll für die Übertragung von Hypertext im Internet?

2) TCP/IP

3) NetBIOS

71. Wie heißt ein Gerät, das auf Anfrage einen Domänennamen basierend auf einer IP-Adresse bereitstellt und umgekehrt:

1) DFS-Server

2) Host - Computer

3) DNS-Server

4) DHCP-Server

72. Das DNS-Protokoll bildet ab ...

1) IP-Adressen mit Switch-Port

2) IP-Adressen mit einer Domain-Adresse

3) IP-Adressen mit MAC-Adresse

4) MAC-Adressen mit einer Domänenadresse

73. Welche IP-Adressen können Hosts im Internet nicht zugewiesen werden?

1) 172.16.0.2;

2) 213.180.204.11;

3) 192.168.10.255;

4) 169.254.141.25

Die eindeutige 32-Bit-Folge binärer Ziffern, die einen Computer in einem Netzwerk eindeutig identifiziert, wird als bezeichnet

1) MAC-Adresse

2) URL;

3) IP-Adresse;

4) Rahmen;

Welche (oder welche) Identifikatoren werden einer IP-Adresse unter Verwendung einer Subnetzmaske zugewiesen



1) Netzwerke

2) Netzwerk und Knoten

3) Knoten

4) Adapter

76. Für jeden mit dem Internet verbundenen Server werden Adressen festgelegt:

1) nur digital;

2) nur Domäne;

3) digital und Domain;

4) Adressen werden automatisch ermittelt;

77. An Netzwerkschicht Wechselwirkungen des OSI-Modells…

1) fehlerhafte Daten werden weitergeleitet;

2) der Nachrichtenübermittlungsweg wird bestimmt;

3) die Programme, die die Interaktion ausführen, werden bestimmt;

78. Welches Protokoll wird verwendet, um die physische MAC-Adresse eines Computers entsprechend seiner IP-Adresse zu ermitteln?

OSI-Modell umfasst _____ Ebenen der Interaktion

1) sieben

2) fünf

3) vier

4) sechs

80. Welche Netzwerkklasse für den Zugang zum Internet muss von einer Organisation mit 300 Computern registriert werden?

81. Was ist anders TCP-Protokoll aus dem UDP-Protokoll?

1) verwendet Ports beim Arbeiten

2) stellt eine Verbindung her, bevor Daten übertragen werden

3) garantiert die Übermittlung von Informationen

82. Welche der folgenden Protokolle befinden sich auf der Netzwerkschicht des TCP/IP-Stacks?

Die wichtigste Eigenschaft von Computernetzwerken ist die Zuverlässigkeit. Die Verbesserung der Zuverlässigkeit basiert auf dem Prinzip der Fehlervermeidung durch Reduzierung der Ausfallrate und Ausfälle durch den Einsatz von elektronische Schaltkreise und Komponenten mit einem hohen und ultrahohen Integrationsgrad, Verringerung des Interferenzniveaus, leichtere Betriebsmodi von Schaltkreisen, Bereitstellung thermischer Bedingungen für ihren Betrieb sowie durch Verbesserung der Methoden zur Montage von Geräten.

Fehlertoleranz ist eine solche Eigenschaft eines Computersystems, die es als logische Maschine in die Lage versetzt, die vom Programm festgelegten Aktionen fortzusetzen, nachdem eine Fehlfunktion aufgetreten ist. Die Einführung von Fehlertoleranz erfordert redundante Hard- und Software. Anweisungen zur Fehlervermeidung und Fehlertoleranz, die wichtigsten beim Problem der Zuverlässigkeit. Auf parallelen Rechensystemen werden sowohl die höchste Performance als auch in vielen Fällen eine sehr hohe Zuverlässigkeit erreicht. Verfügbare Redundanzressourcen in parallelen Systemen können flexibel für Leistung und Zuverlässigkeit genutzt werden.

Es sei daran erinnert, dass das Konzept der Zuverlässigkeit nicht nur Hardware, sondern auch Software umfasst. Das Hauptziel der Erhöhung der Zuverlässigkeit von Systemen ist die Integrität der darin gespeicherten Daten.

Sicherheit ist eine der Hauptaufgaben, die von jedem normalen Computernetzwerk gelöst wird. Das Sicherheitsproblem kann aus verschiedenen Blickwinkeln betrachtet werden – böswillige Datenbeschädigung, Vertraulichkeit von Informationen, unbefugter Zugriff, Diebstahl usw.

Stellen Sie den Schutz von Informationen unter Bedingungen sicher lokales Netzwerk ist immer einfacher, als wenn das Unternehmen ein Dutzend autonom arbeitende Computer hat. Praktisch zu Ihrer Verfügung ein Tool - Backup (Backup). Nennen wir diesen Prozess der Einfachheit halber Redundanz. Sein Wesen besteht darin, eine vollständige Kopie der Daten an einem sicheren Ort zu erstellen, die regelmäßig und so oft wie möglich aktualisiert wird. Für einen Personal Computer sind Disketten mehr oder weniger sichere Medien. Es ist möglich, einen Streamer zu verwenden, dies ist jedoch mit zusätzlichen Kosten für die Ausrüstung verbunden.

Reis. 5.1. Herausforderungen der Datensicherheit

Der einfachste Weg, den Datenschutz vor einer Vielzahl von Problemen zu gewährleisten, ist ein Netzwerk mit einem dedizierten Dateiserver. Alle wichtigen Dateien sind auf dem Server konzentriert, und das Speichern einer Maschine ist viel einfacher als zehn. Die Konzentration der Daten erleichtert auch die Redundanz, da sie nicht im gesamten Netzwerk gesammelt werden müssen.

Geschirmte Leitungen verbessern die Netzwerksicherheit und -zuverlässigkeit. Abgeschirmte Systeme sind wesentlich widerstandsfähiger gegenüber externen HF-Feldern.

Zuverlässigkeit und Sicherheit

Eines der ursprünglichen Ziele bei der Erstellung verteilter Systeme, zu denen auch Computernetzwerke gehören, war es, im Vergleich zu einzelnen Computern eine höhere Zuverlässigkeit zu erreichen.

Es ist wichtig, zwischen mehreren Aspekten der Zuverlässigkeit zu unterscheiden. Zum technische Geräte Zuverlässigkeitsindikatoren wie mittlere Zeit bis zum Ausfall, Ausfallwahrscheinlichkeit, Ausfallrate werden verwendet. Diese Indikatoren eignen sich jedoch zur Beurteilung der Zuverlässigkeit einfacher Elemente und Geräte, die sich nur in zwei Zuständen befinden können - betriebsbereit oder nicht betriebsbereit. Komplexe Systeme, die aus vielen Elementen bestehen, können neben den Zuständen „Gesundheit“ und „Inoperabilität“ weitere Zwischenzustände aufweisen, die diese Eigenschaften nicht berücksichtigen. In diesem Zusammenhang wird ein anderer Satz von Merkmalen verwendet, um die Zuverlässigkeit komplexer Systeme zu bewerten.

Verfügbarkeit oder Verfügbarkeit bezieht sich auf den Bruchteil der Zeit, in der ein System verwendet werden kann. Die Verfügbarkeit kann verbessert werden, indem Redundanz in die Struktur des Systems eingeführt wird: Die Schlüsselelemente des Systems müssen in mehreren Instanzen vorhanden sein, damit bei Ausfall eines von ihnen die anderen das Funktionieren des Systems sicherstellen.

Damit ein System als hochzuverlässig eingestuft werden kann, muss es zumindest hochverfügbar sein, aber das reicht nicht aus. Es ist notwendig, die Sicherheit der Daten zu gewährleisten und sie vor Verfälschung zu schützen. Außerdem muss die Konsistenz (Konsistenz) der Daten gewahrt werden, wenn beispielsweise mehrere Kopien von Daten auf mehreren Fileservern gespeichert werden, um die Ausfallsicherheit zu erhöhen, dann muss deren Identität ständig sichergestellt sein.

Da das Netzwerk auf der Grundlage eines Mechanismus zum Übertragen von Paketen zwischen Endknoten arbeitet, ist eines der charakteristischen Merkmale der Zuverlässigkeit die Wahrscheinlichkeit, dass ein Paket ohne Verzerrung an den Zielknoten geliefert wird. Zusammen mit dieser Eigenschaft können andere Indikatoren verwendet werden: die Wahrscheinlichkeit eines Paketverlusts (aus irgendeinem der Gründe - aufgrund eines Router-Pufferüberlaufs, aufgrund einer Nichtübereinstimmung Prüfsumme, aufgrund des Fehlens eines funktionsfähigen Pfads zum Zielknoten usw.), die Wahrscheinlichkeit der Verzerrung eines einzelnen Bits der übertragenen Daten, das Verhältnis von verlorenen Paketen zu gelieferten Paketen.

Ein weiterer Aspekt der Gesamtzuverlässigkeit ist Sicherheit(Sicherheit), d. h. die Fähigkeit des Systems, Daten vor unbefugtem Zugriff zu schützen. In einem verteilten System ist dies viel schwieriger als in einem zentralisierten. In Netzwerken werden Nachrichten über Kommunikationsleitungen übertragen, die häufig durch öffentliche Räumlichkeiten verlaufen, in denen Leitungsabhörgeräte installiert sein können. Unbeaufsichtigt zu bleiben kann eine weitere Schwachstelle sein persönliche Computer. Darüber hinaus besteht immer die potenzielle Gefahr, die Netzwerksicherheit durch unbefugte Benutzer zu brechen, wenn das Netzwerk Ausgänge hat globale Netzwerke allgemeiner Gebrauch.

Ein weiteres Merkmal der Zuverlässigkeit ist die Fehlertoleranz. In Netzwerken wird unter Fehlertoleranz die Fähigkeit eines Systems verstanden, den Ausfall seiner einzelnen Elemente vor dem Benutzer zu verbergen. Wenn beispielsweise Kopien einer Datenbanktabelle gleichzeitig auf mehreren Dateiservern gespeichert sind, bemerken Benutzer den Ausfall eines davon möglicherweise einfach nicht. In einem fehlertoleranten System führt der Ausfall eines seiner Elemente zu einer gewissen Verringerung der Qualität seiner Arbeit (Verschlechterung) und nicht zu einem vollständigen Stopp. Wenn also einer der Dateiserver im vorherigen Beispiel ausfällt, erhöht sich nur die Datenbankzugriffszeit aufgrund einer Verringerung des Abfrageparallelisierungsgrades, aber im Allgemeinen wird das System seine Funktionen weiterhin ausführen.

Sie funktionieren, aber nicht ganz so gut, wie wir es gerne hätten. Zum Beispiel ist es nicht ganz klar, wie man den Zugriff auf beschränkt Netzlaufwerk, jeden Morgen funktioniert der Drucker des Buchhalters nicht mehr und es besteht der Verdacht, dass irgendwo ein Virus lebt, weil der Computer ungewöhnlich langsam geworden ist.

Vertraut? Sie sind nicht allein, dies sind klassische Anzeichen für Netzwerkdienst-Konfigurationsfehler. Dies ist ziemlich reparabel, wir haben hunderte Male bei der Lösung ähnlicher Probleme geholfen. Nennen wir es Upgrade der IT-Infrastruktur oder Verbesserung der Zuverlässigkeit und Sicherheit Computernetzwerk .

Erhöhung der Zuverlässigkeit eines Computernetzwerks – wer profitiert?

Zuallererst braucht er einen Führer, dem sein Unternehmen nicht gleichgültig ist. Das Ergebnis eines gut ausgeführten Projekts ist eine deutliche Verbesserung der Netzwerkleistung und praktisch vollständige Beseitigung Fehler. Aus diesem Grund sollte das Geld für die Aufrüstung des Netzwerks im Hinblick auf die Verbesserung der IT-Infrastruktur und die Erhöhung des Sicherheitsniveaus nicht als Kostenfaktor betrachtet werden, sondern als Investition, die sich sicherlich auszahlt.

Außerdem ist das Netzwerkmodernisierungsprojekt für normale Benutzer notwendig, da sie sich auf ihre unmittelbare Arbeit konzentrieren können und nicht auf die Lösung von IT-Problemen.

Wie wir ein Netzmodernisierungsprojekt durchführen

Wir sind bereit, Ihnen bei der Lösung des Problems zu helfen, es ist ganz einfach. Beginnen Sie, indem Sie uns anrufen und nach einem IT-Audit fragen. Er zeigt Ihnen, was die täglichen Probleme verursacht und wie Sie sie beseitigen können. Wir fertigen für Sie kostengünstig oder kostenlos.

Im Wesentlichen ist ein IT-Audit Teil eines Netzwerkmodernisierungsprojekts. Im Rahmen des IT-Audits untersuchen wir nicht nur die Server und Arbeitsplätze, wir setzen uns auch mit den Einbindungsschemata auseinander Netzwerkausrüstung und Telefonie, aber wir entwickeln auch einen Netzwerk-Upgrade-Projektplan, bestimmen das Projektbudget sowohl in Bezug auf unsere Arbeit als auch auf die erforderliche Ausrüstung oder Software.

Die nächste Stufe ist die eigentliche Umsetzung des Netzmodernisierungsprojekts. Die Hauptarbeit wird auf dem Server geleistet, da er die bestimmende Komponente der Infrastruktur ist. Unsere Aufgabe im Rahmen des Netzmodernisierungsprojekts ist es, weniger die Erscheinungsformen als die Wurzeln der Probleme zu beseitigen. In der Regel laufen sie auf ungefähr die gleichen konzeptionellen Infrastrukturmängel hinaus:

a) Server und Workstations arbeiten als Teil einer Arbeitsgruppe, nicht einer Domäne, wie Microsoft es für Netzwerke mit mehr als fünf Computern empfiehlt. Dies führt zu Problemen bei der Benutzerauthentifizierung, der Unfähigkeit, Passwörter effektiv einzugeben und Benutzerrechte einzuschränken, und der Unfähigkeit, Sicherheitsrichtlinien zu verwenden.

b) Netzwerkdienste, insbesondere DNS, sind falsch konfiguriert und Computer sehen sich nicht mehr oder sehen sich nicht mehr im Netzwerk. Aus dem gleichen Grund wird das Netzwerk meistens ohne ersichtlichen Grund "verlangsamt".

c) Auf den Rechnern ist eine kunterbunte Antiviren-Software installiert, die den Schutz in ein Sieb verwandelt. Sie können jahrelang an einem langsamen Computer arbeiten, ohne zu bemerken, dass 80 % seiner Ressourcen für Angriffe auf andere Computer oder das Versenden von Spam verwendet werden. Nun, vielleicht stehlen Sie Ihre Passwörter oder übertragen Sie alles, was Sie schreiben, auf einen externen Server. Leider ist dies ziemlich real, zuverlässig Virenschutz ist ein wichtiger und notwendiger Bestandteil jedes Netzwerk-Upgrade-Projekts.

Dies sind die drei häufigsten Ursachen für Infrastrukturprobleme, und jeder von ihnen bedeutet, dass sie dringend behoben werden müssen. Es ist nicht nur notwendig, das Problem zu beheben, sondern auch ein System richtig aufzubauen, um die Möglichkeit ihres Auftretens auszuschließen.

Übrigens versuchen wir, den Ausdruck zu verwenden "modernisierung von informationssystemen" Anstatt von "Netzwerk-Upgrade" weil wir versuchen, breiter zu schauen Netzwerkprobleme. Unserer Meinung nach, Informationssystem sollten aus verschiedenen Blickwinkeln betrachtet werden, und ein Fachmann, der ein Netzwerkmodernisierungsprojekt entwickelt, sollte die folgenden Aspekte seiner Arbeit berücksichtigen.

Informationssicherheit Ihres Unternehmens

Apropos Informationssicherheit Unternehmen legen wir großen Wert darauf, weniger den externen Schutz vor Eindringlingen über das Internet, als vielmehr die interne Arbeit der Mitarbeiter zu optimieren. Den größten Schaden für das Unternehmen verursachen leider nicht unbekannte Hacker, sondern Personen, die Sie persönlich kennen, die sich aber an Ihren Entscheidungen beleidigt fühlen oder die Informationen als ihr Eigentum betrachten. Ein Manager, der einen Kundenstamm wegnimmt, oder ein beleidigter Mitarbeiter, der Buchhaltungs- oder Managementinformationen „nur für den Fall“ kopiert, sind die beiden häufigsten Fälle von Informationssicherheitsverletzungen.

Datensicherheit

Leider steht die Datenintegrität nur sehr selten ganz oben auf der Liste der Bedenken von Führungskräften und sogar von vielen IT-Experten. Es wird angenommen, dass es fast unmöglich ist, einen Serverausfall zu verhindern, da Raumschiffe deorbitieren. Und das durchgeführte Netzmodernisierungsprojekt deckt diesen Teil der Infrastruktur oft nicht ab.

Wir stimmen teilweise darin überein, dass es nicht immer möglich ist, einen Unfall zu verhindern. Aber um sicherzustellen, dass die Daten immer sicher und gesund bleiben und die Arbeit des Unternehmens innerhalb von ein oder zwei Stunden nach dem Ausfall des Servers wiederhergestellt werden kann, ist dies für jeden anständigen IT-Spezialisten möglich und notwendig. Im Zuge der Netzwerkmodernisierung sehen wir uns in der Pflicht, sowohl Hardware-Speichermedien-Backup-Schemata als auch eine Datensicherung mit einem speziellen Schema zu implementieren, das Ihnen die Wiederherstellung von Daten ermöglicht richtiger Moment und sorgen für lange Zeit für ihre Sicherheit. Und wenn der Administrator die Bedeutung der obigen Worte nicht versteht, dann ist er, gelinde gesagt, als Fachmann nicht vertrauenswürdig.

Langlebigkeit der Geräte

Der langfristige Betrieb von Servern und Workstations steht in direktem Zusammenhang damit, woraus und wie sie bestehen. Und wir versuchen, Ihnen bei der Auswahl von Geräten zu helfen, die für lange Zeit gekauft werden und viele Jahre lang keine Aufmerksamkeit erfordern. Und im Rahmen eines Netzwerkmodernisierungsprojekts ist es sehr oft notwendig, das Festplattensubsystem des Servers zu aktualisieren – leider wird dies oft vergessen. Denn die tatsächliche Lebensdauer von Festplatten beträgt nicht mehr als 4 Jahre und nach dieser Zeit müssen sie bei Servern ausgetauscht werden. Dies sollte im Rahmen der Wartung von Servern und Computern überwacht werden, da es für die Zuverlässigkeit der Datenspeicherung sehr wichtig ist.

Wartung von Server- und Computersystemen

Wir sollten nicht vergessen, dass auch eine gut strukturierte und zuverlässige Infrastruktur eine kompetente und sorgfältige Wartung erfordert. Wir glauben, dass das IT-Outsourcing in Bezug auf die Wartung der Infrastruktur eine logische Fortsetzung der Designarbeit ist. Es gibt eine Reihe von Unternehmen, die über eigene IT-Spezialisten verfügen, aber die Aufgabe der Wartung von Serversystemen wurde uns anvertraut. Diese Praxis zeigt eine hohe Effizienz – das Unternehmen zahlt nur für den Server-Support und übernimmt Low-Level-Aufgaben. Wir sind dafür verantwortlich, dass die Sicherheitsrichtlinien befolgt werden und Exemplar reservieren Zur Durchführung routinemäßiger Wartungsarbeiten überwachen wir Serversysteme.

Relevanz von IT-Lösungen

Die Welt verändert sich ständig. Die IT-Welt verändert sich doppelt so schnell. Und Technologien werden schneller geboren und sterben schneller, als wir Geld für ihre Aktualisierung ausgeben möchten. Daher halten wir es für notwendig, bei der Durchführung eines Netzwerkmodernisierungsprojekts nicht nur die neuesten, sondern auch die zuverlässigsten und gerechtfertigsten Lösungen einzuführen. Nicht immer ist das, worüber alle reden, ein Allheilmittel oder eine Lösung für Ihr Problem. Oft sind die Dinge überhaupt nicht wie beschrieben. Virtualisierung, Cloud Computing werden von Tausenden von Unternehmen eingesetzt, aber die Einführung bestimmter Technologien ist nicht immer wirtschaftlich gerechtfertigt. Und umgekehrt - ein richtig ausgewähltes und gut durchgeführtes Netzwerkmodernisierungsprojekt und eine vernünftige Softwareauswahl bieten neue Möglichkeiten in der Arbeit, sparen Zeit und Geld.

Bezahltes Windows oder kostenloses Linux? MS SharePoint oder „Bitrix:Corporate Portal“? IP-Telefonie oder klassisch? Jedes Produkt hat seine eigenen Vorteile und seinen eigenen Anwendungsbereich.

Was braucht Ihr Unternehmen? Wie kann man ein Netzwerk-Upgrade-Projekt oder eine neue Service-Implementierung abschließen, ohne das Geschäft zu stören? Wie Sie sicherstellen, dass die Implementierung erfolgreich ist und die Mitarbeiter erhalten beste Werkzeuge für die Arbeit? Rufen Sie uns an, wir finden es heraus.

"UDK 621.396.6 ZUVERLÄSSIGKEIT DES LOKALEN COMPUTING-NETZWERKS ZUVERLÄSSIGKEIT DES LOKALEN COMPUTING-NETZWERKS BASIEREND AUF THIN CLIENT UND ARBEITENDEM NETZWERK..."

Zuverlässigkeit und Qualität komplexer Systeme. Nr. 4, 2013

UDC 621.396.6

ZUVERLÄSSIGKEIT DES LOKALEN COMPUTERNETZWERKS

S. N. Polessky, M. A. Karapuzov, V. V. Zhadnov

ZUVERLÄSSIGKEIT DES LOKALEN NETZWERKS AUF BASIS VON THIN CLIENT UND WORKSTATIONS

BASIEREND AUF THIN CLIENT UND WORKSTATION

S. N. Polessky, M. A. Karapuzov, V. V. Zhadnov

Der Entwicklung von Local Area Networks (LANs) stehen zwei Perspektiven gegenüber: LANs weiter zu gestalten, bei denen herkömmliche „Arbeitsstationen“ (PCs) als Teilnehmer fungieren, oder anstelle von PCs sogenannte „Thin Clients“ zu verwenden (im Folgenden verwendet als Synonym für „Endstationen“).

Derzeit wird zunehmend der Begriff „Thin Client“ verwendet, wenn dieser Begriff eine ziemlich breite Palette von Geräten und Programmen in Bezug auf die Systemarchitektur bezeichnet, die durch eine gemeinsame Eigenschaft vereint sind: die Fähigkeit, im Terminalmodus zu arbeiten.

Der Vorteil eines PCs gegenüber einem Thin Client besteht darin, dass er nicht von der Verfügbarkeit eines funktionierenden Netzwerks abhängig ist - Informationen werden auch zum Zeitpunkt seines Ausfalls verarbeitet, da bei Verwendung eines PCs Informationen direkt vom verarbeitet werden Stationen selbst.

Bei Nutzung des Thin-Client-Betriebs wird ein Terminalserver benötigt. Aber gleichzeitig hat der Thin Client eine minimale Hardwarekonfiguration, statt Festplatte Um ein lokales spezialisiertes Betriebssystem (OS) zu laden, wird DOM verwendet (DiskOnModule - ein Modul mit einem IDE-Anschluss, Flash-Speicher und einem Chip, der die Logik einer herkömmlichen Festplatte implementiert, die im BIOS als normal definiert ist Festplatte, nur seine Größe ist normalerweise 2-3 mal kleiner).


Bei einigen Systemkonfigurationen lädt der Thin Client herunter Betriebssystemüber das Netzwerk von einem Server mit den Protokollen PXE, BOOTP, DHCP, TFTP und Remote Installation Services (RIS). Die minimale Nutzung von Hardware-Ressourcen ist der Hauptvorteil des Thin Clients gegenüber dem PC.

In diesem Zusammenhang stellt sich die Frage: Wofür ist es besser zu verwenden? LAN-Design in puncto Zuverlässigkeit - Thin Client oder herkömmlicher PC?

Um diese Frage zu beantworten, werden wir die Zuverlässigkeitsindikatoren eines typischen LAN-Schemas vergleichen, das gemäß der „Stern“-Topologie für zwei Optionen für seine Implementierung aufgebaut ist. In der ersten Variante wird das LAN auf Basis von Thin Clients aufgebaut, in der zweiten auf Basis eines PCs. Um die Bewertung von LAN-Zuverlässigkeitsindikatoren zu vereinfachen, sollten Sie einen kleinen Wert in Betracht ziehen Firmennetzwerk Abteilung (Unternehmen), bestehend aus 20–25 typischen Geräten.

Angenommen, die zu untersuchende Abteilung befasst sich mit Entwurfsarbeiten und verwendet die entsprechenden Software(AN). Ein typisches PC-basiertes LAN einer solchen Abteilung sollte Workstations, einen Server und einen Drucker enthalten. Alle Geräte sind über einen Switch vernetzt (siehe Abbildung 1).

–  –  –

Ein typisches Thin Client-basiertes LAN umfasst Terminalstationen, einen Server, einen Drucker und einen Terminalserver, der Benutzern über einen Thin Client Zugriff auf die für die Arbeit erforderlichen Ressourcen bietet. Alle Geräte sind über einen Switch vernetzt (Bild 2).

Reis. 2. Schema zum Verbinden von Geräten in einem LAN auf der Basis von Endgeräten

Lassen Sie uns die Ausfallkriterien formulieren. Dazu muss ermittelt werden, welche Elementstörungen für die Ausführung der spezifizierten Netzwerkfunktionen kritisch sind. Lassen Sie 20 Arbeitsplätze einer Abteilung (Unternehmen) zuordnen, und die Auslastung der Abteilung erlaubt es, zwei Arbeitsplätze in Reserve zu lassen.

Die restlichen 18 Arbeitsplätze werden durchgehend über den Arbeitstag (8 Stunden täglich) genutzt.

Demnach führt der Ausfall von mehr als zwei RSs (Endstationen) zum Ausfall des gesamten LAN. Ein Serverausfall, ein Ausfall eines der Terminalserver (bei einem reinen Thin-Client-LAN) und ein Switch-Ausfall führen ebenfalls zum Ausfall des gesamten LAN. Der Ausfall des Druckers ist unkritisch, da die Aufgaben der Abteilung nicht in direktem Zusammenhang mit seiner kontinuierlichen Nutzung stehen und daher bei der Zuverlässigkeitsbewertung nicht berücksichtigt werden. Der Ausfall des Vermittlungsnetzwerks von Drähten wird ebenfalls nicht berücksichtigt, da in beiden Versionen der LAN-Implementierung der Satz von Verbindungen nahezu gleich ist und der Wert der Ausfallrate vernachlässigbar ist.

Ausfälle solcher Elemente des PCs wie externes Speichergerät, Monitor, Tastatur, Maus, Grafikkarte, Hauptplatine, Prozessor, Kühlsystem, Netzteil, Arbeitsspeicher sind kritisch für den PC und führen zu dessen Ausfall.

Unter Berücksichtigung der Betriebsbedingungen des LAN und der Ausfallkriterien werden wir Zuverlässigkeitsblockdiagramme (RSS) für verschiedene Disaggregationsstufen erstellen.

Auf der obersten Ebene wird eine Gruppe von Geräten betrachtet, deren CCH eine Gruppe "serielle Verbindung" aus drei Blöcken (Switch, Server, Vermittlungsnetzwerk) und eine redundante Gruppe (Arbeitsgruppe von Terminals oder Arbeitsstationen) ist.

Strukturdiagramme der Zuverlässigkeit sind in Abb. 1 dargestellt. 3 (für PC-basiertes LAN) und in Abb. 4 (für Thin-Client-LAN).

–  –  –

Auf der nächsten Disaggregationsebene wird eine Reihe von Werken/Endstationen betrachtet, deren SSN eine Gruppe von „n aus m rollierenden Redundanzen“ von zwanzig Blöcken ist (18 Hauptwerke/Endstationen werden durch zwei Stationen gesichert, jeder von ihnen kann jeden ausgefallenen Haupt ersetzen).

Auf der unteren Ebene wird eine Reihe von Elementen einer Workstation betrachtet, deren CSN eine Gruppe von "seriellen Verbindungen" aus zehn Blöcken (Monitor, Prozessor, Rom, Festplatte, Tastatur, Maus, Netzteil, Systemplatine, Kühlsystem, Grafikkarte).

Die Berechnung der LAN-Zuverlässigkeit erfolgt in zwei Stufen:

- erstens wird die Zuverlässigkeit der Elemente separat berechnet (bestimmt),

- Zweitens wird die Berechnung der Zuverlässigkeit des gesamten LAN durchgeführt.

Ein typisches Schema zur Berechnung der Zuverlässigkeit eines LANs, das in IDEF0-Notationen erstellt wurde, ist in Abb. 2 dargestellt. 5.

–  –  –

Auf Abb. 6 zeigt ein Histogramm, das gemäß den Daten in Tabelle erstellt wurde. 1, die die Verteilung der mittleren Zeit zwischen Ausfällen der Elemente des RS und des Schalters zeigt.

Zeit zwischen Ausfällen, Tausend h

–  –  –

Auf Abb. Fig. 7 zeigt ein Histogramm der Verteilung der mittleren Zeit zwischen Ausfällen der Komponenten des LAN.

Zeit zwischen Ausfällen, tausend Stunden Abb. 7. Histogramm der Verteilung der Mean Time Between Failures von LAN-Komponenten Technologische Grundlagen zur Verbesserung der Zuverlässigkeit und Qualität von Produkten

–  –  –

Aus Tabelle. Abbildung 3 zeigt, dass der Verfügbarkeitsfaktor für ein PC-basiertes LAN geringer ist als für ein ähnliches LAN, das auf einem Thin Client basiert. Die durchschnittliche Zeit zwischen Ausfällen eines Thin-Client-LANs ist länger als die eines PC-basierten LANs, und die durchschnittliche Zeit bis zur Wiederherstellung ist kürzer. Der obige Vergleich zeigt, dass eine LAN-Implementierung basierend auf 20 Endgeräten, von denen zwei in Reserve sind, zuverlässiger ist als eine Implementierung basierend auf Workstations.

Die Ergebnisse der Analyse zusammenfassend kann argumentiert werden, dass ein LAN auf der Basis von Endgeräten ein zuverlässigerer Typ ist. Aus praktischer Sicht zeigt dies, dass der Übergang zum Aufbau eines LANs auf Basis eines Thin Clients auch unter dem Gesichtspunkt der Ausfallsicherheit sinnvoll ist.

Die Einführung eines LAN, bestehend aus Endgeräten in Verbindung mit „Cloud“-Software, kann die Steigerung des Automatisierungsgrades, der Qualität und Zuverlässigkeit von Unternehmen maßgeblich beeinflussen.

Referenzliste

1. GOST 27.009-89. Zuverlässigkeit in der Technik. Grundlegendes Konzept. Begriffe und Definitionen. - M. : Verlag der Normen, 1990. - 37 p.

2. GOST R51901.14-2005 (IEC 61078:1991). Methode Blockdiagramm Verlässlichkeit. - M. : Standartinform, 2005. - 38 p.

3. OST4G 0.012.242-84. Methodik zur Berechnung von Zuverlässigkeitsindikatoren. - M., 1985. - 49 p.

5. Prognose der Qualität der WWU während des Entwurfs: Lehrbuch. Zulage / V. V. Zhadnov, S. N. Polessky, S. E. Yakubov, E. M. Gamilova. - M. : Sints, 2009. - 191 p.

6. Zhadnov, V. V. Bewertung der Qualität von Komponenten Computertechnologie. / V. V. Zhadnov, S. N. Polessky, S. E. Yakubov // Zuverlässigkeit. - 2008. - Nr. 3. - S. 26–35.