Heim / Internet / Überblick über Backup-Systeme in Unternehmen. Überblick über Datensicherungs- und Wiederherstellungssysteme auf dem globalen und russischen Markt. Architektur und Betrieb des Backup-Systems

Überblick über Backup-Systeme in Unternehmen. Überblick über Datensicherungs- und Wiederherstellungssysteme auf dem globalen und russischen Markt. Architektur und Betrieb des Backup-Systems

Bis heute gibt es viele Softwareprodukte zum Bereitstellen von Datensicherungstechnologie. Auf Unternehmensebene Produkte wie:

Acronis True Image-Startseite.

Paragon Drive Backup Server Edition.

Symantec Backup Exec.

Windows-Systemwiederherstellung.

Für Online-Backup:

Paragon Drive Backup Enterprise Server Edition.

Acronis Backup & Recovery.

Eine weitere Betrachtung von Backup-Technologien basiert auf der Beschreibung des praktischen Einsatzes der folgenden drei Softwareprodukte:

Paragon Drive Backup-Workstation.

Acronis True Image-Startseite.

Übersicht über die GFI-Sicherung

Allgemeine Eigenschaften.

System Anforderungen:

Microsoft Windows 7 (x86 oder x64), Server 2008

(x86 oder x64), Vista (x86 oder x64), Server 2003 Standard/Enterprise

(x86 oder x64), XP (x86 oder x64)

Prozessor - Intel Pentium 4 oder ähnlich

Speicher - 512 MB

Physischer Speicher - 100 MB für die Installation

Eigenschaften:

1. Sichere und zuverlässige Datensicherung und -wiederherstellung.

GFI Backup bietet eine zentralisierte Sicherungs- und Wiederherstellungsverwaltung als Schutz vor Informationsverlust, der den Verlust von Daten wie Tabellenkalkulationen, Projekten und Bildern verhindert. Dieser Prozess umfasst das Erstellen einer Sicherung von der Quelle zum ausgewählten Speicherort.

2. Datensynchronisation.

Bei der Dateisynchronisierung wird der aktuelle Satz von Dateien an mehreren Standorten verwaltet, z. B. auf einer Workstation und einem Laptop. Wenn ein Benutzer eine Datei an einem Speicherort hinzufügt, löscht oder ändert, fügt GFI Backup dieselbe Datei an allen anderen Speicherorten hinzu, löscht oder ändert sie. Mit dem GFI Backup Agent können Benutzer zusätzlich zu zentralisierten Sicherungen ihre eigenen Synchronisierungsaufgaben erstellen.

3. Backup auf einem beliebigen Speichergerät; Sicherung per FTP.

GFI Backup ermöglicht Ihnen die Sicherung auf internen und externen Festplatten, Laufwerken im lokalen Netzwerk, Netzwerkspeichergeräten und Medien

CD/DVD/Bluray, tragbare Geräte (USB-Geräte, Speicherkarten, Flash-Speicher, Disketten usw.) sowie an entfernte Standorte über FTP mit automatischer Wiederaufnahme.

6. Verwendung von Standard-Zip-Archiven.

Im Gegensatz zu anderer Sicherungssoftware verwendet GFI Backup keine proprietären Archivformate, sondern das standardmäßige Zip-Format. Dies erlaubt

Daten manuell wiederherstellen, auch wenn GFI Backup nicht installiert ist. Es besteht die Möglichkeit, selbstextrahierende Archive zu erstellen, sowie Backups ohne Datenkomprimierung für Geschwindigkeit und Redundanz. Bei Verwendung von Zip-Archiven kann GFI Backup Dateien auf mehrere Medien aufteilen und speichern.

Sicherungssysteme gewährleisten die Kontinuität von Geschäftsprozessen und den Schutz von Informationen vor Naturkatastrophen und von Menschen verursachten Katastrophen sowie vor Eindringlingen. Diese Technologien werden aktiv in IT-Infrastrukturen von Organisationen unterschiedlicher Branchen und Größen eingesetzt.

Datensicherung- der Prozess der Erstellung einer Kopie von Daten auf einem Medium, das dazu bestimmt ist, Daten im Falle einer Beschädigung oder Zerstörung an ihrem ursprünglichen Speicherort wiederherzustellen. Darüber hinaus ist ein Backup-System eine der notwendigen Methoden zur Gewährleistung der Geschäftskontinuität. Durch den Aufbau eines zentralisierten Backup-Systems können Sie die Gesamtbetriebskosten Ihrer IT-Infrastruktur durch optimale Nutzung von Backup-Geräten und reduzierte Verwaltungskosten (im Vergleich zu einem dezentralen System) senken.

Organisatorische Herausforderungen in Bezug auf den Datenschutz

  • Interne Widersprüche im technischen Team
  • Sollten Anwendungsadministratoren für Datenaufbewahrung, SLAs und Wiederherstellung verantwortlich sein?
  • Zentralisierte automatisierte Steuerung – reduzierte Risiken für den IT-Leiter: erhöhte Transparenz, Planbarkeit von IT-Prozessen

Die richtige Datenschutzstrategie für das Rechenzentrum

Ein veralteter Ansatz namens "BACKUP"

  • Sicherung
  • Wiederherstellung

Ein moderner Ansatz namens "INFORMATION MANAGEMENT"

  • Sicherung
  • Wiederherstellung
  • Inhaltsanalyse
  • Kontextsuche
  • Mobiler Datenzugriff
  • Transparente Cloud-Integration
  • IS-Aufgaben
  • ALLE Datenverarbeitungsanwendungen von Drittanbietern (Open API)

Das Kopierproblem

  • Ohne einen zentralisierten Ansatz wächst die Datenmenge unkontrolliert
  • Wo ist die aktuellste Version der Daten?
  • Wenn ich Compliance-Daten löschen muss, wo finde ich alle Kopien?
  • Entfernung und Archivierung veralteter Informationen. Wie bestimmt man ein vernünftiges Kriterium für den Wert von Daten?

Architektur und Betrieb des Backup-Systems

Das zentralisierte Sicherungssystem hat eine mehrstufige Architektur, die Folgendes umfasst:

  • ein Sicherungsverwaltungsserver, der auch die Funktionen eines Datenkopierservers kombinieren kann;
  • einen oder mehrere Datenkopierserver, mit denen Sicherungsgeräte verbunden sind;
  • Client-Computer mit darauf installierten Backup-Agent-Programmen;
  • Administratorkonsole des Backup-Systems.

Der Systemadministrator verwaltet eine Liste mit Backup-Client-Computern, Recordern und Backup-Speichermedien und plant Backups. All diese Informationen sind in einer speziellen Datenbank enthalten, die auf dem Backup-Management-Server gespeichert ist.

Gemäß dem Zeitplan oder auf Befehl des Bedieners weist der Verwaltungsserver das auf dem Client-Computer installierte Agentenprogramm an, mit der Datensicherung gemäß der ausgewählten Richtlinie zu beginnen. Das Agentenprogramm sammelt und übermittelt die zu sichernden Daten an den ihm vom Verwaltungsserver angegebenen Kopierserver.

Off-Server-Kopie

Diese Art der Sicherung ist eine Weiterentwicklung der Off-Network-Kopiermethode (LAN-frei), da sie die Anzahl der an diesem Prozess beteiligten Prozessoren, Speicher und I/O-Geräte reduziert. Dieser Prozess sichert im Gegensatz zur dateiweisen Archivierung ganze Partitionen, ermöglicht Ihnen aber dennoch die Wiederherstellung einzelner Dateien. Definitionsgemäß werden beim Off-Server-Kopieren Daten ohne direkte Beteiligung des Servers von Platte auf Band und umgekehrt kopiert. Da für die Sicherung ein zusätzlicher Dritter erforderlich ist, der für den Kopiervorgang vollständig verantwortlich ist, kommt daher ein anderer Name für diesen Ansatz - Kopieren unter Beteiligung eines Dritten (Third_-Party Copy, 3PC). Als solches Gerät kann also ein Datenspeicher-Router verwendet werden, der die bisher vom Server ausgeführten Funktionen übernimmt.

Einer der Vorteile der SAN-Architektur ist das Fehlen einer festen Verbindung ihrer einzelnen Systeme mit irgendwelchen Datenspeichergeräten. Diese Eigenschaft ist die Grundlage der Backup-Technologie ohne Beteiligung eines Servers. In diesem Fall können sowohl der Datenserver als auch die am Kopieren von Disk-Arrays beteiligten Geräte direkten Zugriff auf das Disk-Array haben. Der Sicherung von Datenblöcken, die sich auf eine Datei beziehen, geht die Erstellung einer Art Index oder einer Liste mit Nummern von Blöcken voraus, die zu dieser Datei gehören. Auf diese Weise können Sie weitere externe Geräte für die Sicherung anziehen.

Somit ermöglicht Ihnen die Replikation außerhalb des Servers, Daten direkt zwischen SAN-verbundenen Plattenarrays und Bibliotheken zu verschieben. Gleichzeitig bewegen sich Daten über das SAN und belasten weder das lokale Netzwerk noch die Server. Eine solche Replikation gilt als ideal für Unternehmensnetzwerke, die 24 Stunden am Tag, 7 Tage die Woche ununterbrochen betrieben werden müssen. Insbesondere für diejenigen, für die der Zeitraum, in dem Backups ohne wesentliche Auswirkungen auf die Arbeit von Benutzern und Anwendungen durchgeführt werden können, unannehmbar klein wird.

Datenreplikation

Moderne Disk-Arrays haben die Möglichkeit, Kopien von Daten innerhalb des Arrays selbst zu erstellen. Die von diesen Tools erstellten Daten werden Point-In-Time (PIT)-Kopien genannt, d. h. auf einen bestimmten Zeitpunkt festgelegt. Es gibt zwei Arten von PIT-Kopierwerkzeugen: Klonen und "Snapshot" (Schnappschuss). Unter Klonen versteht man in der Regel das vollständige Kopieren von Daten. Es erfordert die gleiche Menge an Speicherplatz wie die Originaldaten und einige Zeit. Bei Verwendung einer solchen Kopie werden die Datenträger mit den Originaldaten nicht belastet. Das Disk-Subsystem eines produktiven Servers wird also nicht zusätzlich belastet.

Der Funktionsmechanismus von „Snapshots“ ist unterschiedlich und kann sowohl in Software auf einem produktiven Server als auch in Hardware innerhalb eines Arrays implementiert werden. In dem Moment, in dem es notwendig ist, eine Sicherung zu starten, weist das Agentenprogramm die Anwendung an, alle Transaktionen abzuschließen und den Cache-Speicher zu sichern

Das Analystenhaus Gartner hat erneut den Markt für Datensicherungslösungen für Unternehmen untersucht. Experten analysierten die Bedingungen für die Entwicklung der Backup-Richtung, aktuelle Produkte, Techniken und Lösungen zum Sichern und Wiederherstellen von Daten von physischen und virtuellen Servern, Anwendungen usw. Die Hauptvertreter des Marktes wurden nach vielen Kriterien bewertet. Die Führung in der Analytikbranche von Gartner wurde an solche Unternehmen vergeben: Commvault, Symantec, EMC und IBM. Dell, Acronis, Asigra, FalconStor und andere wurden als Nischenplayer auf dem Markt herausgegriffen.

Die Analysten des Unternehmens betonten auch die Hauptmerkmale der Arbeit dieser Anbieter von Backup-Lösungen, ihre Stärken und Schwächen. Hier sind einige davon.

SICHERUNGSLÖSUNGEN VON SYMANTEC

Symantec hat in letzter Zeit die Implementierung integrierter Backup-Tools weiter ausgebaut; eine größere Vielfalt an Funktionen ist erschienen (z. B. NetBackup Accelerator für schnelle Backups und Instant Recovery für virtuelle VMware-Maschinen).

Stärken von Symantec:

  • kann von den größten Unternehmen verwendet werden und bietet verschiedene Datenschutztools für eine Vielzahl von Betriebssystemen und Anwendungen;
  • NetBackup-Funktionen sind die Hauptunterscheidungsmerkmale des Produkts (Accelerator für Online-Backups und OpenStorage-Technologie zum Sichern von Festplattengeräten, die eine bessere Verwaltung von Backup-Geräten ermöglichen);
  • Die integrierten Tools von NetBackup sind für Benutzer kostengünstig, einfach zu verwenden und zu verwalten und bieten gute Leistungsverbesserungen.

Experten warnen: Laut einigen Bewertungen funktioniert der Support-Service des Unternehmens nicht auf höchstem Niveau, obwohl es in den letzten Jahren eine allmähliche Verbesserung gegeben hat.

ACRONIS BACKUP-LÖSUNGEN

Bietet Lösungen für kleine und mittlere Unternehmen oder einzelne Unternehmensbereiche. Es werden mehrere Optionen für Cloud-basierte Backup- und Remote-Speicherdienste bereitgestellt. Kopien können in 5 verschiedene Speicher geschrieben werden, einschließlich Acronis Cloud oder über FTP/SFTP in eine private Cloud. Spezielle Technologien ermöglichen eine vollständige oder selektive Datenwiederherstellung mit Unterstützung für Exchange, Microsoft SQL Server und SharePoint sowie andere Microsoft-Dienste, VSS-kompatible Programme und Datenbanken. Um Backup-Prozesse zu beschleunigen, werden Deduplizierung und Komprimierung auf der Quellseite mit einer Nachbearbeitung (Indizierung, Katalogisierung) auf der Zielseite kombiniert.

Stärken von Acronis: Flexibles Lizenzmodell, benutzerfreundliche Oberfläche, Unterstützung für jede Art von Migration (V2V, V2P, P2V und P2P), Unterstützung für 6 verschiedene Arten von Hypervisoren, unabhängig von der gekauften Version usw.

Experten warnen: Acronis ist für große Unternehmen möglicherweise nicht sehr geeignet, und die Unterstützung von Network Attached Storage (NAS) ist auf CIFS/NFS-Protokolle beschränkt.

BACKUP-LÖSUNGEN VON VEEAM

Veeam wird von Benutzern seit langem als führend im Bereich der Sicherung virtueller Maschinen anerkannt. In diesem Bereich übertrifft es viele Wettbewerber aufgrund der Bereitstellung spezieller Funktionen (z. B. Veeam Explorer und Snapshot Hunter), Benutzerfreundlichkeit und Zuverlässigkeit. Die neueste Version fügt unternehmenskritische Funktionen wie End-to-End-Verschlüsselung, erweiterte Backup-Kontrollen, Unterstützung für EMC Data Domain Boost, NetApp Snapshot, SnapMirror, SnapVault und mehr hinzu.

Starke Seiten:

  • Veeam Backup & Replication ist eine zuverlässige und funktionsreiche Datenschutzlösung für virtuelle Umgebungen;
  • Veeam bietet einige der benutzerfreundlichsten und günstigsten Backup-Produkte auf Unternehmensebene;
  • Es hat viele positive Rückmeldungen von Benutzern über die Erfahrung mit der Verwendung verschiedener Funktionen.

Experten warnen:

  • unterstützt nur VMware und Hyper-V, daher werden Backups für andere Hypervisoren oder physische Server nicht angeboten;
  • Die Veeam-eigene Deduplizierung hat ein relativ niedriges Verhältnis und erfordert mehr Speicherplatz zum Speichern von Backups.
  • Da Veeam die U-AIR-Funktion anbietet, ist eine separate Wiederherstellungsunterstützung für Lösungen wie Domino, MySQL und Oracle noch nicht verfügbar.

BACKUP-LÖSUNGEN VON COMMVAULT

Commvault ist mit seiner einheitlichen Datenplattform, die End-to-End-Backup-, Archivierungs-, Berichts-, Analyse- und Datenabruffunktionen umfasst, in der Lage, ein breites Spektrum an Benutzeranforderungen zu erfüllen. Im vergangenen Jahr hat der Anbieter 4 Lösungspakete auf den Markt gebracht, darunter Produkte für die Sicherung und Wiederherstellung virtueller Maschinen.

Stärken von Commvault:

  • eine einzige Verwaltungskonsole und Berichts-/Analyse-Engine für alle Backups (Rechenzentrum, Remote-Büro, SaaS- oder PC-Anwendungen), Archivierung, Dateisynchronisierung und -übertragung, Such- und Datenverlustpräventionsfunktionen;
  • gezielte Lösungspakete, das facettenreiche Lizenzsystem von Simpana und andere.

All dies macht es für die Datensicherung von Unternehmen auf verschiedenen Ebenen geeignet: von Nischenunternehmen bis hin zu großen Konzernen.

Experten warnen: der Anschaffungspreis und der weitere Support können recht hoch sein.

Die Experten von Gartner fassten die Ergebnisse der Studie zum Markt für Backup-Dienste zusammen und stellten mehrere Haupttrends fest, die heute in der Branche zu beobachten sind:

  1. Viele Unternehmen bauen ihr Backup-System weiterhin aggressiv um, um innovative Lösungen für neue Datentypen, Speichermodelle und steigende Workloads sowie die Herausforderung zu finden, Backup- und Wiederherstellungsprozesse zu beschleunigen.
  2. Die Hauptrichtungen der Suche nach Verbesserungsmethoden sind die Verwendung von Festplattenlösungen, darunter: Backup direkt auf Festplatte und zusätzlich in die Cloud, Array-Snapshots und Replikationsimplementierung, Servervirtualisierung für Backups sowie Technologien für die effizienteste Datendeduplizierung.
  3. Anbieter sind bestrebt, viele verschiedene Backup-Lösungen zu entwickeln und versuchen, die Benutzeranforderungen verschiedener Schutzobjekte zu erfüllen: PCs, Server, Remote-Büros, virtuelle Maschinen, verschiedene Anwendungen und Datenbanken usw.).
  4. Viele Unternehmen sind bestrebt, die Betriebskosten ihrer Produkte zu senken und neue Lösungen einzuführen, die so benutzerfreundlich wie möglich sind.

ALEXEY BEREZHNY, Systemadministrator. Hauptaktivitäten: Virtualisierung und heterogene Netzwerke. Ein weiteres Hobby neben dem Schreiben von Artikeln ist die Popularisierung freier Software.

Sicherung
Theorie und Praxis. Zusammenfassung

Um das Sicherungssystem am effektivsten zu organisieren, müssen Sie eine echte Strategie zum Speichern und Wiederherstellen von Informationen entwickeln.

Backup (oder, wie es auch genannt wird, Backup - vom englischen Wort „Backup“) ist ein wichtiger Prozess im Leben jeder IT-Struktur. Dies ist ein Fallschirm zur Rettung im Falle einer unvorhergesehenen Katastrophe. Gleichzeitig dient das Backup dazu, eine Art historisches Archiv der Geschäftsaktivitäten des Unternehmens über einen bestimmten Zeitraum seines Bestehens zu erstellen. Ohne Backup zu arbeiten ist wie im Freien zu leben – das Wetter kann sich jeden Moment verschlechtern, und man kann sich nirgendwo verstecken. Aber wie kann man es richtig organisieren, um keine wichtigen Daten zu verlieren und keine fantastischen Summen dafür auszugeben?

Normalerweise beschäftigen sich Artikel zum Thema Organisation von Backups hauptsächlich mit technischen Lösungen und widmen sich nur gelegentlich der Theorie und den Methoden zur Organisation der Datenspeicherung.

In diesem Artikel sprechen wir genau vom Gegenteil: Das Hauptaugenmerk wird auf allgemeine Konzepte gelegt, und die technischen Mittel werden nur als Beispiele angesprochen. Dadurch können wir von Hard- und Software abstrahieren und zwei Hauptfragen beantworten: „Warum machen wir das?“, „Können wir das schneller, billiger und zuverlässiger machen?“.

Ziele und Ziele der Sicherung

Bei der Organisation von Backups werden zwei Hauptaufgaben gestellt: Wiederherstellung der Infrastruktur im Falle eines Ausfalls (Disaster Recovery) und Pflege eines Datenarchivs, um später Zugriff auf Informationen für vergangene Zeiträume zu ermöglichen.

Ein klassisches Beispiel für ein Backup für Disaster Recovery ist ein von Acronis True Image erstelltes Image einer Serversystempartition.

Ein Beispiel für ein Archiv kann ein monatlicher Upload von Datenbanken von 1C sein, die auf Kassetten aufgezeichnet und anschließend an einem speziell dafür vorgesehenen Ort gespeichert werden.

Es gibt mehrere Faktoren, die ein Schnellwiederherstellungs-Backup von einem Archiv unterscheiden:

  • Datenaufbewahrungsfrist. Für Archivkopien ist es ziemlich lang. In einigen Fällen ist es nicht nur durch geschäftliche Anforderungen, sondern auch gesetzlich geregelt. Für Disaster-Recovery-Kopien ist es relativ klein. Normalerweise werden ein oder zwei (mit erhöhten Anforderungen an die Zuverlässigkeit) Backups für die Notfallwiederherstellung mit einem maximalen Intervall von ein oder zwei Tagen erstellt, danach werden sie mit neuen überschrieben. In besonders kritischen Fällen ist es auch möglich, das Backup für Disaster Recovery häufiger zu aktualisieren, beispielsweise einmal alle paar Stunden.
  • Geschwindigkeit des Datenzugriffs. Die Zugriffsgeschwindigkeit auf ein Langzeitarchiv ist in den meisten Fällen unkritisch. Normalerweise entsteht die Notwendigkeit, „Daten für den Zeitraum zu erheben“, zum Zeitpunkt der Überprüfung von Dokumenten, der Rückkehr zu einer früheren Version usw., dh nicht im Notfallmodus. Eine andere Sache ist die Notfallwiederherstellung, wenn die erforderlichen Daten und Dienstleistungen so schnell wie möglich wiederhergestellt werden müssen. In diesem Fall ist die Zugriffsgeschwindigkeit auf das Backup ein äußerst wichtiger Indikator.
  • Die Zusammensetzung der kopierten Informationen. Das Backup enthält normalerweise nur Benutzer- und Geschäftsdaten für den angegebenen Zeitraum. Die Notfallwiederherstellungskopie enthält zusätzlich zu diesen Daten entweder Systemabbilder oder Kopien von Betriebssystem- und Anwendungssoftwareeinstellungen und anderen Wiederherstellungsinformationen.

Manchmal ist es möglich, diese Aufgaben zu kombinieren. Zum Beispiel ein jährlicher Satz von monatlichen vollständigen "Schnappschüssen" eines Dateiservers plus Änderungen, die während der Woche vorgenommen wurden. Als Tool zur Erstellung eines solchen Backups eignet sich True Image.

Das Wichtigste ist, klar zu verstehen, wofür die Reservierung ist. Lassen Sie mich Ihnen ein Beispiel geben: Ein kritischer SQL-Server ist aufgrund eines Disk-Array-Fehlers ausgefallen. Das Lager verfügt über die richtige Hardware, sodass die Lösung des Problems nur darin bestand, die Software und Daten wiederherzustellen. Die Firmenleitung stellt eine nachvollziehbare Frage: "Wann geht es los?" - und ist unangenehm überrascht zu erfahren, dass die Wiederherstellung bis zu vier Stunden dauern wird. Tatsache ist, dass während der gesamten Lebensdauer des Servers regelmäßig nur Datenbanken gesichert wurden, ohne die Notwendigkeit zu berücksichtigen, den Server selbst mit allen Einstellungen, einschließlich der Software des DBMS selbst, wiederherzustellen. Einfach ausgedrückt, unsere Helden haben nur Datenbanken gespeichert und das System vergessen.

Ich gebe Ihnen ein anderes Beispiel. Im Laufe seiner Karriere erstellte der junge Berufstätige mit dem Programm ntbackup eine einzige Kopie eines Dateiservers mit Windows Server 2003, einschließlich der Daten und des Systemstatus in einem freigegebenen Ordner auf einem anderen Computer. Aufgrund von Speicherplatzmangel wurde diese Kopie ständig überschrieben. Einige Zeit später wurde er gebeten, eine frühere Version eines mehrseitigen Berichts wiederherzustellen, der beim Speichern beschädigt worden war. Es ist klar, dass er diese Anfrage nicht erfüllen konnte, da er keinen Archivverlauf mit deaktivierter Schattenkopie hatte.

Auf einer Notiz

Schattenkopie, wörtlich - "Schattenkopie". Stellt sicher, dass sofortige Kopien des Dateisystems so erstellt werden, dass weitere Änderungen am Original sie in keiner Weise beeinflussen. Mit dieser Funktion ist es möglich, mehrere versteckte Kopien einer Datei für einen bestimmten Zeitraum zu erstellen, sowie Sicherungskopien von Dateien, die zum Schreiben im laufenden Betrieb geöffnet wurden. Der Volume Copy Shadow Service ist für den Betrieb von Shadow Copy verantwortlich.

Systemzustand, wörtlich - "der Zustand des Systems." System State Backup sichert kritische Komponenten der Windows-Betriebssystemfamilie. Dadurch können Sie das zuvor installierte System nach der Zerstörung wiederherstellen. Beim Kopieren des Systemstatus werden die Registrierungs-, Start- und andere wichtige Dateien für das System gespeichert, einschließlich derer zum Wiederherstellen des Active Directory, der Zertifikatdienstdatenbank, der COM + -Klassenregistrierungsdatenbank und der SYSVOL-Verzeichnisse. In den Betriebssystemen der UNIX-Familie ist ein indirektes Analogon zum Kopieren des Systemstatus das Speichern des Inhalts der Verzeichnisse /etc, /usr/local/etc und anderer Dateien, die zum Wiederherstellen des Systemstatus erforderlich sind.

Daraus folgt: Sie müssen beide Backup-Arten verwenden: sowohl für Disaster Recovery als auch für die Archivspeicherung. Gleichzeitig ist es notwendig, die Liste der zu kopierenden Ressourcen, die Zeit für die Ausführung von Aufgaben sowie wo, wie und wie lange Sicherungskopien gespeichert werden, festzulegen.

Bei kleinen Datenmengen und einer nicht sehr komplexen IT-Infrastruktur können Sie versuchen, beide Aufgaben in einer zu vereinen, z. B. eine tägliche vollständige Sicherung aller Festplattenpartitionen und Datenbanken durchführen. Dennoch ist es besser, zwischen zwei Zielen zu unterscheiden und für jedes die richtigen Mittel auszuwählen. Dementsprechend wird für jede Aufgabe ein anderes Tool verwendet, obwohl es universelle Lösungen wie das Paket Acronis True Image oder das Programm ntbackup gibt

Es ist klar, dass bei der Bestimmung der Ziele und Zielsetzungen des Backups sowie der Lösungen für die Implementierung von den Geschäftsanforderungen ausgegangen werden muss.

Beim Implementieren einer Disaster-Recovery-Aufgabe können Sie verschiedene Strategien anwenden.

In manchen Fällen ist es notwendig, das System direkt auf „Bare Metal“ (Bare Metal) zurückzusetzen. Dies kann beispielsweise mit dem Programm Acronis True Image erfolgen, das mit dem Universal Restore-Modul gebündelt ist. In diesem Fall kann die Serverkonfiguration in kürzester Zeit wieder in Betrieb genommen werden. Beispielsweise ist es durchaus realistisch, eine Partition mit einem Betriebssystem von 20 GB in acht Minuten aus einer Sicherungskopie zu heben (vorausgesetzt, die Archivkopie ist über ein 1-GB/s-Netzwerk verfügbar).

Bei einer anderen Option ist es sinnvoller, die Einstellungen einfach auf das neu installierte System „zurückzusetzen“, wie z Systemzustand). Natürlich wird bei dieser Vorgehensweise der Server erst in Betrieb genommen, wenn das Betriebssystem installiert und die notwendigen Einstellungen wiederhergestellt sind, was deutlich länger dauern wird. Aber in jedem Fall ergibt sich die Entscheidung, was Disaster Recovery ist, aus geschäftlichen Anforderungen und Ressourcenbeschränkungen.

Der grundlegende Unterschied zwischen Backup- und redundanten Redundanzsystemen

Dies ist eine weitere interessante Frage, die ich ansprechen möchte. Redundante Hardware-Redundanzsysteme beziehen sich auf die Einführung einer gewissen Redundanz in die Hardware, um die Betriebsfähigkeit im Falle eines plötzlichen Ausfalls einer der Komponenten aufrechtzuerhalten. Ein perfektes Beispiel in diesem Fall ist ein RAID-Array (Redundant Array of Independent Disks). Im Falle eines Ausfalls einer einzelnen Festplatte kann ein Informationsverlust vermieden und ein sicherer Austausch vorgenommen werden, wodurch Daten aufgrund der spezifischen Organisation des Festplattenarrays selbst gespart werden (lesen Sie mehr über RAID in).

Ich habe den Satz gehört: "Wir haben sehr zuverlässige Geräte, es gibt überall RAID-Arrays, also brauchen wir keine Backups." Ja, natürlich bewahrt das gleiche RAID-Array die Daten vor der Zerstörung, wenn eine Festplatte ausfällt. Dies schützt Sie jedoch nicht vor Datenschäden durch einen Computervirus oder vor ungeschickten Benutzeraktionen. Es wird RAID nicht speichern, selbst wenn das Dateisystem infolge eines nicht autorisierten Neustarts abstürzt.

Übrigens

Die Bedeutung der Unterscheidung zwischen Backup und redundanten redundanten Systemen sollte bei der Planung der Datensicherung berücksichtigt werden, sei es für eine Organisation oder für Heimcomputer.

Fragen Sie sich, warum Sie Kopien machen. Wenn wir über Backup sprechen, bedeutet dies, dass Daten während einer versehentlichen (absichtlichen) Aktion gespeichert werden. Redundante Redundanz ermöglicht die Datensicherung inklusive Sicherungskopien bei Geräteausfall.

Es gibt heute viele kostengünstige Geräte auf dem Markt, die mithilfe von RAID-Arrays oder Cloud-Technologien (z. B. Amazon S3) zuverlässige Redundanz bieten. Es wird empfohlen, beide Arten der Informationsreservierung gleichzeitig zu verwenden.

Andrey Vasiliev, CEO von Qnap Russland

Ich gebe ein Beispiel. Es gibt Fälle, in denen sich Ereignisse nach folgendem Szenario entwickeln: Bei einem Plattenausfall werden Daten aufgrund des Redundanzmechanismus insbesondere unter Verwendung der gespeicherten Prüfsummen wiederhergestellt. Gleichzeitig kommt es zu einem deutlichen Leistungsabfall, der Server friert ein, die Kontrolle geht fast verloren. Der Systemadministrator, der keinen anderen Ausweg sieht, startet den Server mit einem Kaltstart neu (klickt also auf "RESET"). Als Folge einer solchen Live-Überlastung treten Dateisystemfehler auf. Das Beste, was in diesem Fall zu erwarten ist, ist die langwierige Operation des Festplattenprüfers, um die Integrität des Dateisystems wiederherzustellen. Im schlimmsten Fall müssen Sie sich vom Dateisystem verabschieden und stehen vor der Frage, wo, wie und in welchem ​​Zeitraum Sie Daten und Serverleistung wiederherstellen können.

Auch bei einer Cluster-Architektur werden Sie um ein Backup nicht herumkommen. Tatsächlich hält ein Failover-Cluster die ihm anvertrauten Dienste am Laufen, wenn einer der Server ausfällt. Bei den oben genannten Problemen, wie einem Virenbefall oder Datenkorruption durch den berüchtigten „Faktor Mensch“, wird kein Cluster retten.

Als minderwertiger Backup-Ersatz für Disaster Recovery kann nur das Vorhandensein eines gespiegelten Backup-Servers mit ständiger Datenreplikation vom Hauptserver auf den Backup-Server (nach dem Primary  Standby-Prinzip) fungieren. In diesem Fall werden bei einem Ausfall des Hauptservers dessen Aufgaben vom Backup-Server übernommen, und Sie müssen nicht einmal Daten übertragen. Aber ein solches System ist ziemlich teuer und zeitaufwändig zu organisieren. Vergessen Sie nicht die Notwendigkeit einer ständigen Replikation.

Es wird deutlich, dass eine solche Lösung nur bei kritischen Diensten mit hohen Anforderungen an Fehlertoleranz und minimaler Wiederherstellungszeit wirtschaftlich ist. In der Regel werden solche Systeme in sehr großen Organisationen mit einem hohen Warengeldumsatz eingesetzt. Und dieses Schema ist ein minderwertiger Ersatz für ein Backup, denn trotzdem können Daten und Software auf beiden Servern betroffen sein, wenn Daten durch einen Computervirus, ungeschickte Benutzeraktionen oder fehlerhafte Bedienung der Anwendung beschädigt werden.

Und natürlich wird kein System der redundanten Redundanz das Problem lösen, ein Datenarchiv über einen bestimmten Zeitraum aufrechtzuerhalten.

Das Konzept des „Backup-Fensters“

Das Durchführen eines Backups belastet den redundanten Server stark. Dies gilt insbesondere für das Festplattensubsystem und die Netzwerkverbindungen. Wenn der Kopiervorgang eine ausreichend hohe Priorität hat, kann dies in einigen Fällen dazu führen, dass bestimmte Dienste nicht verfügbar sind. Zudem ist das Kopieren von Daten zum Zeitpunkt von Änderungen mit erheblichen Schwierigkeiten verbunden. Natürlich gibt es technische Mittel, um in diesem Fall Probleme bei der Wahrung der Datenintegrität zu vermeiden, aber wenn möglich, sollte ein solches Kopieren im laufenden Betrieb am besten vermieden werden.

Der Ausweg bei der Lösung dieser oben beschriebenen Probleme bietet sich an: den Start des Kopiererstellungsprozesses auf einen inaktiven Zeitraum zu verschieben, in dem die gegenseitige Beeinflussung von Backup- und anderen Arbeitssystemen minimal ist. Dieser Zeitraum wird als "Sicherungsfenster" bezeichnet. Beispielsweise sind für eine Organisation, die nach einer 8x5-Formel arbeitet (fünf Acht-Stunden-Arbeitstage pro Woche), solche „Fenster“ normalerweise Wochenenden und Nachtstunden.

Für Systeme, die nach der 24x7-Formel (24 Stunden am Tag die ganze Woche) arbeiten, wird die Zeit der minimalen Aktivität als solcher Zeitraum verwendet, in dem keine hohe Last auf den Servern vorliegt.

Sicherungsarten

Um unnötige Sachkosten bei der Organisation von Backups zu vermeiden und das Backup-Fenster möglichst nicht zu überschreiten, wurden mehrere Backup-Technologien entwickelt, die situationsabhängig zum Einsatz kommen.

Vollständige Sicherung (oder Vollständige Sicherung)

Es ist die wichtigste und grundlegende Methode zum Erstellen von Backups, bei der das ausgewählte Datenarray vollständig kopiert wird. Dies ist die vollständigste und zuverlässigste Art der Sicherung, wenn auch die teuerste. Wenn mehrere Kopien von Daten gespeichert werden müssen, erhöht sich das gespeicherte Gesamtvolumen proportional zu ihrer Anzahl. Um solche Verschwendung zu vermeiden, werden Komprimierungsalgorithmen sowie eine Kombination dieser Methode mit anderen Sicherungsarten verwendet: inkrementell oder differenziell. Und natürlich ist ein vollständiges Backup unverzichtbar, wenn Sie ein Backup für eine schnelle Systemwiederherstellung von Grund auf vorbereiten müssen.

Inkrementelle Kopie

Anders als bei einer Vollsicherung werden hierbei nicht alle Daten (Dateien, Sektoren etc.) kopiert, sondern nur die seit der letzten Sicherung geänderten. Zur Ermittlung der Kopierzeit können verschiedene Verfahren eingesetzt werden, beispielsweise wird auf Systemen mit Betriebssystemen der Windows-Familie das entsprechende Dateiattribut (Archivbit) verwendet, das bei Änderung der Datei gesetzt und durch das zurückgesetzt wird Backup-Programm. Andere Systeme können das Änderungsdatum der Datei verwenden. Es ist klar, dass ein Schema, das diese Art von Sicherung verwendet, unterlegen ist, wenn nicht von Zeit zu Zeit vollständige Sicherungen durchgeführt werden. Bei einer vollständigen Systemwiederherstellung müssen Sie von der letzten Kopie wiederherstellen, die von der vollständigen Sicherung erstellt wurde, und dann abwechselnd die Daten von inkrementellen Kopien in der Reihenfolge ihrer Erstellung „rollen“.

Wofür wird diese Art von Kopie verwendet? Bei der Erstellung von Archivierungskopien ist es notwendig, die verbrauchten Volumina auf Speichermedien zu reduzieren (z. B. um die Anzahl der verwendeten Bandmedien zu reduzieren). Es minimiert auch die Zeit, die zum Ausführen von Sicherungsaufgaben benötigt wird, was äußerst wichtig sein kann, wenn Sie rund um die Uhr arbeiten oder große Mengen an Informationen herunterladen müssen.

Das inkrementelle Kopieren hat eine Nuance, die Sie kennen müssen. Eine schrittweise Wiederherstellung bringt auch die gewünschten gelöschten Dateien während des Wiederherstellungszeitraums zurück. Ich gebe Ihnen ein Beispiel. Beispielsweise wird an Wochenenden eine vollständige Sicherung und an Wochentagen inkrementelle Sicherungen durchgeführt. Der Benutzer hat die Datei am Montag erstellt, am Dienstag geändert, am Mittwoch umbenannt und am Donnerstag gelöscht. Bei einer sequentiellen schrittweisen Datenwiederherstellung für einen wöchentlichen Zeitraum erhalten wir also zwei Dateien: mit dem alten Namen am Dienstag vor der Umbenennung und mit dem neuen Namen, der am Mittwoch erstellt wurde. Dies geschah, weil verschiedene inkrementelle Kopien verschiedene Versionen derselben Datei gespeichert haben und schließlich alle Varianten wiederhergestellt werden. Daher ist es sinnvoll, bei der sequentiellen Wiederherstellung von Daten aus einem „as is“-Archiv mehr Speicherplatz zu reservieren, damit auch gelöschte Dateien hineinpassen.

Differenzielle Sicherung

Der Unterschied zur inkrementellen Sicherung besteht darin, dass die Daten ab dem letzten Moment der vollständigen Sicherung kopiert werden. In diesem Fall werden die Daten periodengerecht ins Archiv gestellt. Bei Systemen der Windows-Familie wird dieser Effekt dadurch erreicht, dass das Archivbit beim differentiellen Kopieren nicht zurückgesetzt wird, also die geänderten Daten in die Archivkopie gelangen, bis die Vollkopie die Archivbits auf Null setzt.

Da jede auf diese Weise erstellte neue Kopie die Daten der vorherigen enthält, ist eine vollständige Wiederherstellung der Daten zum Zeitpunkt des Notfalls bequemer. Dazu sind nur zwei Kopien erforderlich: die vollständige und die letzte der differenziellen Kopien, sodass Sie die Daten viel schneller wieder zum Leben erwecken können, als alle Inkremente schrittweise zu rollen. Darüber hinaus bleibt diese Art des Kopierens von den oben genannten Merkmalen des inkrementellen Kopierens verschont, wenn bei vollständiger Wiederherstellung alte Dateien wie ein Phönixvogel aus der Asche wiedergeboren werden. Es gibt weniger Verwirrung.

Aber das differenzielle Kopieren ist dem inkrementellen Kopieren beim Einsparen des erforderlichen Platzes deutlich unterlegen. Da jede neue Kopie Daten der vorherigen speichert, kann die Gesamtmenge der gesicherten Daten mit einer vollständigen Kopie vergleichbar sein. Und natürlich müssen Sie bei der Planung des Zeitplans (und der Berechnung, ob der Backup-Prozess in das Zeitfenster passt) die Zeit berücksichtigen, um die letzte, dickste, differenzielle Kopie zu erstellen.

Backup-Topologie

Schauen wir uns an, was Backup-Schemata sind.

dezentrales Schema

Der Kern dieses Schemas ist eine Netzwerkfreigabe (siehe Abbildung 1). Beispielsweise ein freigegebener Ordner oder ein FTP-Server. Außerdem wird eine Reihe von Sicherungsprogrammen benötigt, die von Zeit zu Zeit Informationen von Servern und Workstations sowie andere Netzwerkobjekte (z. B. Konfigurationsdateien von Routern) auf diese Ressource hochladen. Diese Programme werden auf jedem Server installiert und arbeiten unabhängig voneinander. Der unbestrittene Vorteil ist die einfache Implementierung dieses Schemas und seine geringen Kosten. Als Kopierprogramme eignen sich normale, in das Betriebssystem eingebaute Tools oder Software wie ein DBMS. Beispielsweise kann es sich um das ntbackup-Programm für die Windows-Familie, das tar-Programm für UNIX-ähnliche Betriebssysteme oder eine Reihe von Skripten handeln, die integrierte SQL-Server-Befehle zum Sichern von Datenbanken in Sicherungsdateien enthalten. Ein weiteres Plus ist die Möglichkeit, verschiedene Programme und Systeme zu verwenden, solange alle auf die Zielressource zum Speichern von Backups zugreifen können.

Der Nachteil ist die Langsamkeit dieses Schemas. Da die Programme unabhängig voneinander installiert werden, müssen Sie jedes einzeln konfigurieren. Es ist ziemlich schwierig, die Besonderheiten des Zeitplans zu berücksichtigen und Zeitintervalle zu verteilen, um eine Konkurrenz um die Zielressource zu vermeiden. Auch die Überwachung ist schwierig, der Kopiervorgang von jedem Server muss getrennt von anderen überwacht werden, was wiederum zu hohen Arbeitskosten führen kann.

Daher wird dieses Schema in kleinen Netzwerken sowie in Situationen verwendet, in denen es unmöglich ist, mit den verfügbaren Tools ein zentralisiertes Backup-Schema zu organisieren. Eine detailliertere Beschreibung dieses Schemas und der praktischen Organisation finden Sie in.

Zentralisierte Sicherung

Im Gegensatz zum vorherigen Schema verwendet dieser Fall ein klares hierarchisches Modell, das nach dem Prinzip "Client-Server" funktioniert. In der klassischen Version werden spezielle Agentenprogramme auf jedem Computer installiert und ein Servermodul des Softwarepakets wird auf dem zentralen Server installiert. Diese Systeme verfügen außerdem über eine spezialisierte Serververwaltungskonsole. Das Steuerungsschema sieht folgendermaßen aus: Von der Konsole aus erstellen wir Aufgaben zum Kopieren, Wiederherstellen, Sammeln von Informationen über das System, Diagnose usw., und der Server gibt den Agenten die erforderlichen Anweisungen, um diese Vorgänge auszuführen.

Die meisten gängigen Sicherungssysteme arbeiten nach diesem Prinzip, wie etwa Symantec Backup Exec, CA Bright Store ARCServe Backup, Bacula und andere (siehe Abbildung 2).

Neben verschiedenen Agenten für die meisten Betriebssysteme gibt es Entwicklungen zur Sicherung gängiger Datenbanken und Unternehmenssysteme, beispielsweise für MS SQL Server, MS Exchange, Oracle Database und so weiter.

Für sehr kleine Unternehmen können Sie in einigen Fällen eine vereinfachte Version des zentralisierten Backup-Schemas ohne den Einsatz von Agentenprogrammen ausprobieren (siehe Abbildung 3). Dieses Schema kann auch verwendet werden, wenn kein spezieller Agent für die verwendete Sicherungssoftware implementiert ist. Stattdessen verwendet das Servermodul bereits vorhandene Dienste und Dienste. Zum Beispiel das "Aufräumen" von Daten aus versteckten freigegebenen Ordnern auf Windows-Servern oder das Kopieren von Dateien über SSH von Servern, auf denen UNIX-Systeme ausgeführt werden. Dieses Schema hat sehr erhebliche Einschränkungen in Bezug auf die Probleme beim Speichern von zum Schreiben geöffneten Dateien. Als Ergebnis solcher Aktionen werden geöffnete Dateien entweder übersprungen und nicht in die Sicherung aufgenommen oder mit Fehlern kopiert. Es gibt verschiedene Problemumgehungen für dieses Problem, z. B. das erneute Ausführen des Jobs, um nur zuvor geöffnete Dateien zu kopieren, aber keine ist zuverlässig. Daher ist ein solches Schema zur Verwendung nur in bestimmten Situationen geeignet. Zum Beispiel in kleinen Organisationen, die im 5x8-Modus arbeiten, mit disziplinierten Mitarbeitern, die Änderungen speichern und Dateien schließen, bevor sie das Haus verlassen. Zum Organisieren eines solchen verkürzten zentralisierten Schemas, das ausschließlich in einer Windows-Umgebung funktioniert, ist ntbackup gut geeignet. Wenn Sie ein ähnliches Schema in heterogenen Umgebungen oder ausschließlich zwischen UNIX-Computern verwenden müssen, empfehle ich, nach Backup PC zu suchen (siehe).

Abbildung 4. Gemischtes Backup-Schema

Was ist Offsite?

In unserer turbulenten und sich verändernden Welt können Ereignisse eintreten, die unangenehme Folgen für die IT-Infrastruktur und das Unternehmen als Ganzes haben können. Zum Beispiel ein Brand in einem Gebäude. Oder eine Unterbrechung der Zentralheizungsbatterie im Serverraum. Oder der banale Diebstahl von Geräten und Komponenten. Eine der Methoden zur Vermeidung von Informationsverlusten in solchen Situationen besteht darin, Sicherungskopien an einem vom Hauptstandort der Serverausrüstung entfernten Ort aufzubewahren. Gleichzeitig ist es notwendig, einen schnellen Zugriff auf die für die Wiederherstellung erforderlichen Daten zu ermöglichen. Das beschriebene Verfahren wird Off-Site genannt (mit anderen Worten, Kopien außerhalb des Unternehmens aufbewahren). Grundsätzlich werden zwei Methoden zur Organisation dieses Prozesses verwendet.

Schreiben von Daten auf Wechselmedien und deren physische Bewegung. In diesem Fall muss für eine schnelle Rücklieferung der Medien im Fehlerfall gesorgt werden. Lagern Sie sie beispielsweise in einem nahe gelegenen Gebäude. Der Vorteil dieser Methode ist die Möglichkeit, diesen Prozess problemlos zu organisieren. Der Nachteil ist die Komplexität der Rücksendung der Medien und die Notwendigkeit, Informationen zur Aufbewahrung zu übertragen, sowie das Risiko, die Medien während des Transports zu beschädigen.

Kopieren Sie Daten über eine Netzwerkverbindung an einen anderen Ort. Verwenden Sie beispielsweise einen VPN-Tunnel über das Internet. Der Vorteil in diesem Fall besteht darin, dass keine Medien mit Informationen irgendwohin transportiert werden müssen. Das Minus ist die Notwendigkeit, einen ausreichend breiten Kanal zu verwenden (in der Regel sehr teuer) und die übertragenen Daten zu schützen (z gleiches VPN). Die Schwierigkeiten bei der Übertragung großer Datenmengen können durch die Verwendung von Komprimierungsalgorithmen oder Deduplizierungstechnologie erheblich reduziert werden.

Unabhängig davon sind die Sicherheitsmaßnahmen bei der Organisation der Datenspeicherung zu erwähnen. Zunächst ist dafür Sorge zu tragen, dass sich die Datenträger in einem sicheren Raum befinden und über Maßnahmen, die verhindern, dass Unbefugte die Daten lesen können. Verwenden Sie beispielsweise ein Verschlüsselungssystem, schließen Sie Geheimhaltungsvereinbarungen ab und so weiter. Handelt es sich um Wechselmedien, müssen die darauf befindlichen Daten ebenfalls verschlüsselt werden. Das verwendete Markierungssystem soll einem Angreifer nicht bei der Datenanalyse helfen. Es ist notwendig, ein gesichtsloses Nummerierungsschema zum Markieren der Träger der Namen der übertragenen Dateien zu verwenden. Bei der Übertragung von Daten über ein Netzwerk ist es (wie oben bereits erwähnt) erforderlich, sichere Methoden der Datenübertragung zu verwenden, beispielsweise einen VPN-Tunnel.

Wir haben die wichtigsten Punkte bei der Organisation eines Backups analysiert. Im nächsten Teil werden methodische Empfehlungen und praktische Beispiele für die Erstellung eines effektiven Backup-Systems gegeben.

  1. Beschreibung der Windows-Systemsicherung, einschließlich Systemstatus - http://www.datamills.com/Tutorials/systemstate/tutorial.htm .
  2. Beschreibung der Schattenkopie - http://ru.wikipedia.org/wiki/Shadow_Copy .
  3. Offizielle Acronis-Website – http://www.acronis.ru/enterprise/products .
  4. Die Beschreibung von ntbackup ist http://en.wikipedia.org/wiki/NTBackup.
  5. Berezhnoy A. Optimierung der Arbeit von MS SQL Server. // Systemadministrator, Nr. 1, 2008 - S. 14-22 ().
  6. Berezhnoy A. Wir organisieren ein Backup-System für kleine und mittlere Büros. // Systemadministrator, Nr. 6, 2009 - S. 14-23 ().
  7. Markelov A. Linux auf der Hut von Windows. Übersicht und Installation des BackupPC Backup-Systems. // Systemadministrator, Nr. 9, 2004 - S. 2-6 ().
  8. Beschreibung des VPN - http://ru.wikipedia.org/wiki/VPN.
  9. Datendeduplizierung - http://en.wikipedia.org/wiki/Data_deduplication .

In Kontakt mit

Wovor haben die Nutzer moderner Informationssysteme am meisten Angst? Wir werden keine Umfragen durchführen und auf deren Grundlage eine Liste von Alpträumen erstellen, die sie quälen. Wir sagen lediglich, dass einer der ersten Plätze auf dieser düsteren Liste die Gefahr von Datenverlust ist. Und wenn der Datenverlust auf dem heimischen Rechner in den meisten Fällen ärgerlich ist, dann kann der Informationsverlust in einem Firmennetzwerk sowohl für den Mitarbeiter als auch für das Unternehmen als Ganzes fatal sein. Aber wer auch immer für das Backup verantwortlich ist, der Tod dieses Verlustes ist absolut unvermeidlich. Aber wie fair ist das?

In modernen Informationssystemen steht das Backup-Problem im Vordergrund. Unternehmen geben riesige Summen aus, um fehlertolerante Disk-Arrays, spezialisierte Backup- und Speichergeräte zu erwerben, hochkarätige Fachleute einzustellen, um sie zu warten – und verlieren trotzdem weiterhin Daten. Da rollen natürlich Köpfe. Oft liegt das Problem jedoch im Missbrauch perfekt ausgetesteter und abgestimmter Systeme. Bildlich gesprochen versuchen Nutzer mit einem Mikroskop Nägel einzuschlagen.

Im Februar dieses Jahres geschah in einem großen Verlag etwas Schreckliches: Die Daten eines der Projekte gingen verloren. In diesem Fall wurden die folgenden Merkwürdigkeiten festgestellt:

1. Die Ordnerstruktur des Projekts blieb unverändert – nur die Dateien verschwanden.

2. Auf dem Sicherungsband (das übrigens täglich durchgeführt wurde) wurden keine Dateien gefunden, obwohl die Ordnerstruktur vollständig vorhanden war.

Notwendige Maßnahmen zur Erstellung eines Backup-Systems

Ein Backup-System ist eine der Voraussetzungen für die Gewährleistung der Geschäftskontinuität. Laut Gartner konnten 43 % der Unternehmen, die von Katastrophen betroffen waren und einen größeren dauerhaften Verlust von Unternehmensdaten erlebten, ihre Geschäftstätigkeit nicht fortsetzen.

Damit das Sicherungssystem seinen Zweck erfüllt und optimal funktioniert, ist es notwendig, einen vollständigen Entwurfszyklus abzuschließen, der jedoch für jedes zu erstellende System empfohlen wird. Ein vollständiger Arbeitszyklus, der darauf abzielt, ein Backup-System zu erstellen oder zu aktualisieren, umfasst in der Regel die folgenden Schritte:

Technisches Audit des Computersystems für die Erstellung oder Modernisierung des Backup-Systems;

Entwicklung des Konzepts eines Backup-Systems - Erarbeitung von Empfehlungen für den Aufbau, die Modernisierung und den Ausbau eines Backup-Systems. Diese Art der Arbeit ist optional, wird jedoch für große, sich dynamisch entwickelnde Systeme empfohlen;

Design von Backup-Systemen - Entwicklung von technischen und Arbeitsdokumentationen;

Entwicklung eines Zeitplans für die Umstellung vom alten Backup-System auf das neue. Diese Art von Arbeit ist beim Upgrade des Backup-Systems erforderlich, was zu einer erheblichen Änderung des bestehenden Systems führte;

Lieferung und Konfiguration von Geräten und Software;

Entwicklung von Betriebsverfahren - Organisation der Betriebsprozesse des Backup-Systems, Entwicklung von Vorschriften und Zeitplänen für das Backup-System. Diese Art von Arbeit ist sehr wichtig: Ohne einen ordnungsgemäß organisierten Betriebsprozess wird kein System effektiv funktionieren, einschließlich eines Backup-Systems;

Erstellen eines Schulungsprogramms für das Personal des Kunden zur Datensicherung und -wiederherstellung. Bei einem Backup-System spielt die Schulung des Personals eine besondere Rolle. Da der Zweck des Backup-Systems darin besteht, Daten nach Ausfällen wiederherzustellen, wird das Personal, das dieses Verfahren durchführt, in einer Notsituation arbeiten und es wird an Zeit mangeln, das System wieder funktionsfähig zu machen. Daher sollte die Ausführung von Datenwiederherstellungsvorgängen von Administratoren zum Automatismus gebracht werden, was nur durch regelmäßiges Üben erreicht wird.

Die Ermittlungen, traditionell für Russland, gingen in zwei Richtungen: Identifizierung der Täter und Ergreifung von Maßnahmen, um die Möglichkeit einer Wiederholung einer ähnlichen Situation in der Zukunft auszuschließen.

Zunächst richteten sich die Beschwerden gegen die Backup-Software. Der Grund dafür stellte sich als sehr prosaisch heraus: Es ist die Backup-Software, die die gesamte Plattenstruktur durchlaufen muss, um Informationen auf Band zu kopieren, und daher im Falle eines Betriebsausfalls theoretisch in der Lage ist, Dateien zu zerstören . Da diese Vermutung von den Opfern ausging, reichte die bloße Aussage, dass dies nicht möglich sei, eindeutig nicht aus. Abgesehen von der Möglichkeit eines solchen einmaligen Fehlers in einem zertifizierten und legal erworbenen Softwareprodukt waren wir gezwungen, einen einfachen und visuellen Weg zu finden, um Laien von der Absurdität dieser Annahme zu überzeugen. Diese Aufgabe ist extrem schwierig (und in den meisten Fällen unmöglich), aber wir haben es geschafft. Tatsache ist, dass die Sicherungssoftware eines der Domänenkonten verwendet, wenn sie mit Dateien arbeitet; Daher ist es in seinen destruktiven Fähigkeiten durch die Rechte des verwendeten Kontos begrenzt. Standardmäßig wird das lokale Administratorkonto verwendet, das vollen Zugriff auf alle auf dem Server gespeicherten Informationen ermöglicht. Dieser Ansatz ist einerseits dadurch gerechtfertigt, dass er den Fall ausschließt, dass eine Sicherung aufgrund fehlender Zugriffsrechte auf die zu sichernden Informationen nicht durchgeführt werden kann. Andererseits implizieren Administratorrechte vollen Zugriff, sodass Sie Informationen löschen können. In der betrachteten Situation arbeitete die Backup-Software unter einem eigens erstellten Konto, das Zugriff auf alle Informationen hatte, jedoch ohne die Möglichkeit, diese zu ändern (Nur-Lese-Zugriff). Aufgrund dieser Tatsache konnte die IT-Abteilung nachweisen, dass die Backup-Software nicht an dem Vorfall beteiligt war.

So wurde nach dem Ende der entstandenen Panik der Versuch unternommen, das Geschehene zu verstehen und eine möglichst akzeptable Erklärung zu finden. Zunächst wurde festgestellt, dass drei Monate vor dem fraglichen Zeitpunkt der verlorene Projektordner leer war. Diese Tatsache spiegelte sich in den Protokollen der Backup-Software wider und wurde dem Fall beigefügt. Dabei wurde festgestellt, dass auf dem Server ein abgeschlossenes Projekt gespeichert war, auf das seit mindestens drei Monaten nicht mehr zugegriffen wurde. Infolgedessen wurden nach dem Löschen von Informationen vom Server diese einen Monat lang auf Bändern gespeichert (die Rotationsdauer von Magnetmedien im verwendeten Sicherungsschema), danach wurden die Bänder überschrieben, und diese Informationen gingen vollständig verloren.

Anforderungen an das Sicherungssystem

Da jedes moderne Informationssystem auf einem Netzwerk basiert, muss auch das Backup-System vernetzt sein, d. h. es muss den Erhalt der Daten gewährleisten, die von allen Netzwerkknoten kommen. Im Allgemeinen werden die folgenden funktionalen Anforderungen an ein Netzwerk-Backup-System gestellt:

Aufbau eines Systems nach dem „Client-Server“-Prinzip. Übertragen auf das Backup bedeutet die „Client-Server“-Terminologie Folgendes: Die Komponente des Backup-Systems, die alle Prozesse und Geräte steuert, wird als Server bezeichnet, und die Komponente, die für die Sicherung oder Wiederherstellung bestimmter Daten verantwortlich ist, wird als Client bezeichnet. Insbesondere sollte ein solches System Folgendes bieten:

Verwaltung von Backups im gesamten Netzwerk von dedizierten Computern aus;

Fernsicherung von Daten auf Servern und Workstations;

Zentralisierte Verwendung von Backup-Geräten.

Multiplattform. Das moderne Informationsnetzwerk ist heterogen. Dementsprechend muss das Sicherungssystem in einem solchen Netzwerk voll funktionsfähig sein, das heißt, es wird davon ausgegangen, dass sein Serverteil in verschiedenen Betriebsumgebungen funktioniert und Clients auf einer Vielzahl von Hardware- und Softwareplattformen unterstützt.

Automatisierung typischer Vorgänge. Der Sicherungsvorgang enthält zwangsläufig viele Zyklen verschiedener Operationen. Beispielsweise kann jeden Tag zu einer bestimmten Uhrzeit kopiert werden.

Ein weiteres Beispiel für einen Zyklus ist das Überschreiben von Informationen auf Sicherungsmedien. Soll eine tägliche Sicherung eine Woche lang aufbewahrt werden, können die entsprechenden Medien nach dieser Zeit wieder verwendet werden. Dieser Vorgang des sukzessiven Ersetzens von Backup-Medien wird als Rotation bezeichnet.

Zur zyklischen Arbeit gehört auch die vorbeugende Wartung von Backup-Geräten, beispielsweise das Reinigen der Bandlaufwerksbaugruppe des Bandlaufwerks mit einer speziellen Kassette nach einer bestimmten Betriebszeit.

Daher sollte das Backup-System zyklische Arbeiten im automatischen Modus ausführen und die Anzahl manueller Operationen minimieren. Insbesondere muss es unterstützen:

Geplante Backups;

Medienrotation;

Wartung von Backup-Geräten nach Plan.

Es sollte beachtet werden, dass die Arbeitsautomatisierung eine der Schlüsselbedingungen für die Reduzierung der Kosten für die Wartung eines Backup-Systems ist.

Unterstützung für verschiedene Backup-Modi. Angenommen, Sie müssen jeden Tag eine Reihe von Dateien sichern, z. B. diejenigen, die in einem einzelnen Verzeichnis enthalten sind. Änderungen werden in der Regel nur an einzelnen Dateien während des Arbeitstages vorgenommen, wodurch ein tägliches Kopieren von Informationen, die seit der Erstellung der letzten Sicherung unverändert geblieben sind, entfällt. Auf dieser Grundlage sollte das System verschiedene Sicherungsmodi bereitstellen, dh die Möglichkeit unterstützen, nur die Informationen zu speichern, die seit der Erstellung der vorherigen Kopie geändert wurden.

Schnelle Wiederherstellung von Netzwerkservern nach einer Katastrophe. Ein Netzwerkserver kann aus verschiedenen Gründen ausfallen, beispielsweise durch einen Ausfall der Systemfestplatte oder durch Softwarefehler, die zur Zerstörung von Systeminformationen geführt haben. In diesem Fall erfordert die Wiederherstellung die Neuinstallation des Betriebssystems, die Konfiguration von Geräten, die Installation von Anwendungen, die Wiederherstellung des Dateisystems und der Benutzerkonten. Alle diese Vorgänge sind sehr zeitaufwändig, und in jeder Phase dieses Prozesses können Fehler auftreten.

Um einen Server wiederherzustellen, ist es daher erforderlich, eine Sicherungskopie aller darauf gespeicherten Informationen, einschließlich Systemdaten, zu haben, um ihn so schnell wie möglich wieder in einen funktionsfähigen Zustand zu versetzen.

Datensicherung im interaktiven (Online-) Modus. Häufig umfasst das Informationssystem verschiedene Client-Server-Anwendungen, die rund um die Uhr laufen müssen. Beispiele hierfür sind Mailsysteme, Collaboration-Systeme (zB Lotus Notes) und SQL-Server. Die Datenbanken solcher Systeme können mit herkömmlichen Mitteln nicht gesichert werden, da sie immer offen sind. Daher haben sie oft ihre eigenen Backup-Tools eingebaut, aber ihre Verwendung passt normalerweise nicht in die Gesamttechnologie, die in der Organisation eingesetzt wird. Darauf aufbauend soll das Backup-System die Erhaltung von Datenbanken von Client-Server-Anwendungen im interaktiven Modus sicherstellen.

Erweiterte Überwachungs- und Verwaltungstools. Um Backup-Prozesse zu verwalten und ihren Status zu verfolgen, muss das Backup-System über grafische Überwachungs- und Steuerungstools und eine breite Palette von Ereignisbenachrichtigungstools verfügen.

Wir haben also die Chronologie des Informationsverlusts erstellt. Jetzt stehen wir vor einer sehr schwierigen Aufgabe – die Täter zu identifizieren. Einerseits wurde das Backup-System mit der Aufgabe, Informationen zu speichern, nicht fertig. Andererseits wurden diese Informationen einen Monat lang auf Bändern gespeichert und konnten auf erste Anfrage des Benutzers wiederhergestellt werden. Aber diese Forderung wurde nicht erhalten, weil das Projekt abgeschlossen war und niemand daran arbeitete. Im Ergebnis haben alle recht, es gibt keine Schuldigen, genauso wie es keine Informationen gibt. Die aktuelle Situation ist ein gutes Beispiel für den Missbrauch der richtigen Technologie. Beantworten wir die Frage: Welche Aufgabe haben Backup-Systeme? Vorrangige Aufgabe ist die zeitnahe und möglichst vollständige Wiederherstellung von Informationen im Fehlerfall. Eine andere Sache ist, dass in dem betrachteten Beispiel die Tatsache eines Ausfalls nicht verfolgt wurde - und dementsprechend die Daten nicht wiederhergestellt wurden. Dies kann aber keineswegs dem Administrations- und Backup-Service angelastet werden.

Die betrachtete Situation ist ein Beispiel, das deutlich die Notwendigkeit zeigt, mindestens ein zweistufiges Backup-System zu unterhalten – tägliches Backup aktueller Informationen und separates Backup selten verwendeter Informationen (in unserem Fall abgeschlossene Projekte). Leider findet die Notwendigkeit einer solchen Herangehensweise an das Problem der Informationssicherheit in der Regel kein Verständnis beim Management.

Wie endete diese traurige Geschichte? Aber was:

1. Es wurde beschlossen, abgeschlossene Projekte auf DVD aufzubewahren.

2. Der Rotationszeitraum für magnetische Medien wurde auf drei Monate erhöht.

3. Eine Richtlinie zur Speicherung und Sicherung von Informationen im gesamten Betrieb wurde entwickelt und verabschiedet.

P.S. Die Daten wurden dennoch in einer der Dateiablagen gefunden, von denen es in jedem Netzwerk viele gibt.