Zum Inhalt springen

Fragen zum Sicherungs-/Sicherheitskonzenpt Win2008-Server + NAS


Empfohlene Beiträge

Geschrieben

Hallo zusammen!

Ich zerbreche mir gerade den Kopf über die Möglichkeiten, die Sicherheit vor Datenverlusten auf einem Fileserver zu maximieren und wäre froh von euch Meinungen / Kritik oder neue Denkanstöße zu bekommen.

Die Eckdaten bzgl. der Verwendung Servers:

- Das Betriebssystem ist Windows2008 Server und der Server soll primär als Fileserver dienen.

- Auf dem Server werden 10 - 12 Arbeitsstationen zugreifen - alle Benutzer benötigen Zugriff auf den kompletten Datenbestand.

- Da die Firma zum Teil noch XP Home Edition, Vista Home Edition etc. im Einsatz hat, bilde ich gezwungenermaßen eine Arbeitsgruppe anstelle einer Domäne.

- Der Datenbestand auf dem Server wird in Kürze 1 TB übersteigen.

- Der Server bietet über das lokale Netzwerk hinaus keine Dienste an (auch kein Remotedesktop oder ähnliches).

- Auf dem Server ist AntiVir Server Security installiert.

Zum Schutz vor Datenverlusten werden folgende Maßnahmen getroffen:

- Der Server arbeitet mit einem RAID1.

- Die Daten des Servers werden jede Nacht mittels eines Synchronisationstools auf eine externe Festplatte gesichert. Der Kunde hat zwei externe Festplatten und soll diese zum Schutz vor Szenarien wie Brand/Diebstahl/Sabotage etc. regelmäßig in für ihn vertretbaren Zeitabständen austauschen und die ungenutzte Platte mit nach Hause nehmen.

- Da der Kunde vor Datenverlusten durch diese Szenarien selbst dann geschützt sein möchte, wenn er bereits längere Zeit keine Sicherungsfestplatte getauscht hat, befindet sich auf der anderen Seite des Gebäudes ein NAS-System mit RAID1 (Thecus n4200eco), auf welchem die Daten auch jede Nacht synchronisiert werden.

- Sowohl bei der Synchronisation auf externe Festplatte als auch auf das NAS werden gelöschte Daten sicherheitshalber solange in einem seperaten Ordner auf dem Sicherungsmedium aufbewahrt, bis sie manuell gelöscht werden.

Ein "Horrorszenario" bleibt aus meiner Sicht dennoch, wenn das System trotz Sicherheitssoftware kompromittiert und Daten gelöscht oder zur Unkenntlichkeit verschlüsselt werden. Würde es jemand schaffen, in das System einzudringen könnte er ja die Daten auf dem Server und aller verbundenen Sicherungssysteme zerstören.

Was haltet ihr allgemein von meinen Sicherungskonzept?

Hat jemand von euch einen Vorschlag wie ich das Risko von Datenverlusten durch virtuelles Eindringen / Sabotage minimieren kann? Ich komme in diesem Punkt gedanklich nicht weiter - dachte kurz an einen Rechner den ich als eine Art "Schleuse" zwischen Server und NAS schalte, sodass beide keinen direkten Kontakt haben. Der PC würde sich mit Leserechten mit dem Server verbinden, den Datenbestand auf die eigene Platte synchronisieren, die Verbindung trennen und sich anschließend mit dem NAS verbinden um die Daten dorthin zu synchronisieren.

Eure Meinungen würden mir sehr weiterhelfen. Ich sage schonmal "herzliche Dank"...

Geschrieben
Was haltet ihr allgemein von meinen Sicherungskonzept?

Prinzipiell nicht schlecht, die Frage ist allerdings, wie es mit der Historie der Dateien aussieht. Werden durch "das Synchronisationstool" (welches ist das? So ohne Angabe können wir schlecht sagen, ob das ordentlich ist) geänderte Dateien auf dem NAS auch geändert oder bleiben mehrere Versionen erhalten?

Wie sieht es aus, wenn jemand ein Dokument (eine Excel-Tabelle/eine Photoshop-Datei/wasauchimmer) geöffnet, dort drin Daten gelöscht und das dann gespeichert hat, obwohl die alten Daten eigentlich behalten werden sollten und das erst einige Tage später gemerkt wird?

Außerdem: Du hast geschrieben "die Daten des Servers" - wie sieht es mit dem Betriebssystem an sich aus? Windows Server 2008 (und auch R2 und Server 2012) hat ein relativ ordentliches Sicherungstool gleich dabei, womit das Betriebssystem (theoretisch) auch auf andere Hardware zurückgespielt werden kann, wenn z.B. das Mainboard im Server den Geist aufgibt.

Hat jemand von euch einen Vorschlag wie ich das Risko von Datenverlusten durch virtuelles Eindringen / Sabotage minimieren kann?

Ein entsprechend großes Bandlaufwerk, wo jeden Tag die Bänder gewechselt werden. So ist garantiert, dass zumindest die Daten vom Tag vorher komplett wiederhergestellt werden können.

Geschrieben

Ich gehe jetzt einmal in eine völlig andere Richtung, denn Du hast ja hier eigentlich mehrere Probleme, die Du lösen willst:

* Versionierung der Daten

* Backup / Sicherung

* Zugriff

Ich persönlich würde nicht auf Festplatten backuppen, sondern wirklich ganz klassisch ein Band (DLT) nehmen, dass dann täglich / wöchentlich ein inkrementelles / voll / differentielles Backup macht.

Die Versionierung der Daten würde ich über ein transparentes Dateisystem machen z.B. https://github.com/g2p/git-fs

Also ein Repository mit einem Dateisystem kombinieren. Ich halte das "händische" kopieren von einzelnen Verzeichnissen in größeren Umgebungen für nicht praktikabel.

Den Zugriff auf die Daten würde ich durch entsprechende Router ACL beschränken, d.h. nicht jeder Rechner darf einen Connect aufbauen. Zusätzlich dazu musst Du Dir Gedanken über die Authentifizierung machen, d.h. wer hat welche Berechtigungen an dem System und auf welchen Daten. Wenn Du dann noch eine Verschlüsselung der Daten haben willst, würde ich auf das Repository-Filesystem z.B. EncFS aufsetzen, dann hast Du noch eine dateibasierte Verschlüsselung

Generell solltest Du das Dateisystem mehrschichtig aufbauen: Hardware => Volumen => Versionierung => Verschlüsselung

Ich würde halt mehrere physikalische Platten via RAID zusammen fassen, die RAID Devices dann flexibel via Logical Volume Manager in ein großes Volumen zusammen fassen, darauf dann transparent die Versionierung setzen und dazu dann wenn notwendig eine Verschlüsselung.

Zusätzlich kannst Du dann ja auch noch die Berechtigungen via LAN Zugriff entsprechend definieren.

Das Backup würde dann einfach das LVM auf ein Band ziehen, damit hast Du automatisch auch die Versionierung mit im Backup drin.

Ob das alles so mit Windows funktioniert weiss ich nicht, da ich eher per *NIX arbeite.

Geschrieben (bearbeitet)

Vielen Dank & "Hut ab" für euere ausführlichen Antworten.

Bzgl. der Bändersicherung scheitert es momentan leider am Faktor Mensch - der Kunde möchte sich in dieser Hinsicht um nichts kümmern. Ich konnte ihn geradeso dazu "überreden" dass er am jetzigen Server so 1x in der Woche die Sicherungsfestplatte wechselt und sie mit nach Hause nimmt.

Ich werde ihm bei Übergabe des Servers eine Art "Risikokatalog" übergeben indem ich ihn nochmal nachweislich darüber informiere, gegen welche Szenarien er geschützt ist und gegen welche nicht. Falls es ihm dann doch Bauchschmerzen bereitet werde ich das Thema "Bänder" ins Spiel bringen.

Spricht euerer Meinung etwas technisches dagegen, diesen täglichen Tausch von Sicherungsmedien anstelle mit Bändern mit der gleichen Zahl externer 2.5 Zoll-Platten abzuwickeln? (falls ich ihn doch dazu bewegen kann, sich 1x täglich an den Server zu begeben)

Bei meinen Recherchen kann ich bei Datenmengen jenseits von einem TB jedoch einschließlich Bänder mit einer Investition von über 1500 € rechnen. Ist das euerer Meinung nach realistisch oder geht das bei vertretbarer Sicherhet auch günstiger?

Zudem scheiden sich in div. Foren die Geister was die Zuverlässigkeit / Transparenz der Bändersicherung betrifft - wie sind hier euere Erfahrungen?

@eyeQ: Bei dem Synchronisationstool handelt es sich um "AllwaySync". Es war auf dem bisherigen Server im Einsatz - was mich an dem Programm anspricht ist, dass es sehr transparent arbeitet/protokolliert und nette Einstellungsmöglichkeiten bietet (bzw. Dateilöschungen, Verhalten bei signifikanten Unterschieden zwischen Sicherungsquelle/-ziel etc.). Die Sicherungsprotokolle hat mir der Server bisher per E-Mail geschickt, so hatte ich ohne dass man von der Ferne auf den Server zugreifen kann die Datensicherung im Auge. Was ist deine Meinung dazu (sofern überhaupt bekannt)?

Die Versionierung ist so ein Knackpunkt. Eine solche findet bisher nicht statt (allenfalls durch den Wechsel der externen Platte, aber innerhalb einer Woche kann schon viel passieren).

Vom Betriebssystem an sich würde ich nach Inbetriebnahme eine Sicherung durchführen und dann im Zuge anderer Arbeiten, da sich am System voraussichtlich bis auf die Updates nichts nennenswertes ändern wird.

Nochmal danke! :)

Bearbeitet von rgo83
Geschrieben

Spricht euerer Meinung etwas technisches dagegen, diesen täglichen Tausch von Sicherungsmedien anstelle mit Bändern mit der gleichen Zahl externer 2.5 Zoll-Platten abzuwickeln? (falls ich ihn doch dazu bewegen kann, sich 1x täglich an den Server zu begeben)

Das Problem was ich bei Platten sehe ist einmal das Problem, wenn sie runter fällt, dann nützt Dir die Sicherung nichts. Zweitens ist das Problem bei der Platte, dass Du nicht direkt sehen kannst, welcher Prozess noch beschäftigt ist, man kann ja nicht physikalisch die Platte aus dem System hängen. Bei meinem DLT Laufwerk lege ich das Band ein, ich weiss um 1 Uhr nachts beginnt die Sicherung und am Ende wird das Band physikalisch aus dem Laufwerk ausgeworfen (und ich muss es dann nur noch in die Hülle stecken). Tapelibraries machen das z.B. per Roboterarm.

D.h. man muss halt morgens einmal am Server vorbei, das alte Band nehmen und ein neues rein stecken und das rotiert dann einfach entsprechend durch.

USB Platte hin und her stöpseln ist für mich eine Home-User-Lösung.

Bei meinen Recherchen kann ich bei Datenmengen jenseits von einem TB jedoch einschließlich Bänder mit einer Investition von über 1500 € rechnen. Ist das euerer Meinung nach realistisch oder geht das bei vertretbarer Sicherhet auch günstiger?

Das ist durchaus vom Preis okay. Ein Band ist gegen mechanische Einflüsse nicht so empfindlich wie eine Platte, d.h. Platte mal schnell in die Aktentasche kann auch zum Verlust der Daten führen. Weiterhin sollte man ja mehrere Backupmedien haben, um z.B. rotieren zu können, was dann in Summe bei Platten ins Geld geht.

Zudem scheiden sich in div. Foren die Geister was die Zuverlässigkeit / Transparenz der Bändersicherung betrifft - wie sind hier euere Erfahrungen?

Ich nutze privat Seit Jahren ein DLT Laufwerk und bin sehr zufrieden und hier im Rechenzentrum ist eine Tapelibrary installiert. Also was Zuverlässigkeit angeht, definitiv sinnvoller als eine einzelne Festplatte. Ich denke Bänder sind immer noch beim Backup die erste Wahl.

Die Versionierung ist so ein Knackpunkt. Eine solche findet bisher nicht statt (allenfalls durch den Wechsel der externen Platte, aber innerhalb einer Woche kann schon viel passieren).

D.h. das System was aktuell läuft liefert nicht die passenden Ergebnisse. Die bisherige Lösung sieht halt für mich nach einer Home-Lösung aus, die weder für den Einsatz von großen Datenmengen inkl Versionierung und einer vollständig durchdachten Backuplösung erstellt wurde.

Die erste Frage ist, was benötigst Du als Datendurchsatz und wie groß wird das geschätzte Datenvolumen in den nächsten Jahren und was muss Du dann dazu als Volumen für die Versionierung ansetzen (ich verweise einmal auf OneFS distributed file system - Wikipedia, the free encyclopedia ). Wenn Du das abgeschätzt hast, dann kannst Du Dir Gedanken machen, welches System Du überhaupt kaufst (der Ansatz eines einzelnen Servers ist bei großen Volumina nicht sinnvoll). Dann wäre die nächste Frage mit was machst Du die Versionierung. Wenn Du das hast, dann kannst Du danach dann ein passendes Backupsystem wählen und Du wirst auch feststellen, dass ab einer bestimmten Größe das Backup auf eine einzelne Platte gar nicht mehr möglich ist.

Also entweder bleibst Du bei Deiner Lösung wie jetzt, d.h. aber dass Du da nicht viel optimieren kannst und Du Dich mit der Lösung zufrieden geben musst oder Du gehst in den Bereich von professionellen Lösungen, bei denen Du eben auch Kosten hast, aber dafür eben auch mehr Leistung geboten wird.

Geschrieben

Merci... Das Problem ist nur oft, die fehlende Bereitschaft / Disziplin, dass der Kunde täglich Bänder wechselt und zum anderen vor allem auch das Budget z. B. gar für mehr als nur einen Server, von dem Du geschrieben hast. Die Firma hat 10 Rechner (vielleicht werdens noch 2 mehr) und wird wahrscheinlich auch in den nächsten Jahren nicht dafür zu gewinnen sein, derartige Investitionen zu tätigen. Verstehe das bitte keinesfalls als Widerspruch zu deinen Lösungsvorschlägen - ich "denke gerade nur laut" darüber nach, wie das Ganze mit verhältnismäßig kleinerem Budget so gut & sicher wie möglich gelöst wird. Aber wie du ja bereits angedeutet hast, muss man bzw. der Kunde eine Kröte schlucken - entweder in Form von Investitionen oder in Form von Abstrichen in den Leistungen. Die Versionierung ist hierbei übrigens garnicht so sehr relevant, da der Kunde selbst diese Anforderung garnicht hat - mir liegt am meißten daran das beste bzgl. Datensicherheit/Datensicherung zu holen. Über weitere Denkanstöße / Erfahrungen würde ich mich trotzdem freuen - es gibt ja sicherlich einige hier die auch schon gute Lösungen für kleinere Betriebe auf die Beine gestellt haben (?).

Geschrieben

Also ohne dass man halt für die IT ein gewissen Budget zur Verfügung hat, dann werden sich immer Probleme einstellen, also ich denke da gehen wir definitiv konform.

Ich würde da wirklich mal zu einer Pro/Contra Liste inkl verschiedener Lösungsvorschläge mit Kostenübersicht raten. Es liegt letztendlich an Deiner Überzeugungsarbeit. Ich habe häufig in diesen Fällen mit Linux punkten können, da ich relativ flexibel bin und eben die Lizenzkosten einsparen kann, wobei ich die Administration relativ komfortabel gestaltet habe, z.B. vieles durch entsprechende Cron / Shellscripte automatisiert habe (einige Kunden habe ich somit auch komplett auf Linux migrieren können).

Versuche Dich einfach mal in die Lage des Kunden zu versetzen.

Was die Ansicht mit Bändern angeht, wo ist der Unterschied ob ich nun ein Band oder eine Platte wechseln muss. Ich meine also ich ziehe das Band vor, als wenn ich da mit USB Stöpseln hantieren muss.

Good luck

Geschrieben

Also erst einmal würde ich schauen, was man alles wegsichern muss. Einmal hat man die Daten, aber auch die Server. Die sollte man nicht vernachlässigen, denn wenn einer ausfällt, dauert es erheblich länger, die Server neu zu installieren als ein Backup (zB mit Acronis) einzuspielen. Der Nachteil ist, dass das Backup dann eben nur bis zur letzten Änderung passt, also nach jeder Änderung ein neues Backup gemacht werden muss. Eine virtualisierte Umgebung kann da erheblich helfen, da sind schnell Snapshots erstellt und weggesichert.

Das nächste sind dann die Daten. Es macht natürlich Sinn, die Daten bei einer anderen Location zu duplizieren. Aber auch nur, wenn die andere Location ebenso ausfallsicher ist, sprich USV, RAID, usw., was natürlich mit zusätzlichen Kosten verbunden ist.

Eine Sicherung auf Band ist unabdingbar. Man muss ja nicht jeden Tag auf Band sichern, aber übers Wochenende auf Band zu sichern und Montags in ein feuerfesten Tresor bei einer anderen Location (oder woanders) abzulegen, sollte machbar sein.

Das ganze würde dann so ausshene:

- Sicherung der Serverimages bei Änderungen, Vorhandensein von zusätzlich identischer Serverhardware für Ausfall, so ist bei einem Hardwaredefekt der Server schnell einsetzbar und der defekte kann in Ruhe repariert werden.

- Synchronisation von Daten mit einer anderen Location, mindestens ein NAS, das zusätzlich über einer USV besitzt (wer schonmal einen defekten RAID-Controller aufgrund eines Stromausfalls hatte, weiß warum ;) ). Nun kann man ein defektes Hauptstorage schnell wieder herstellen.

- Sicherung zusätzlich auf Band (mindestens Wöchentlich), falls die Bude einen Wasser- oder Feuerschaden oder was auch immer hat, sind zumindest die Daten vorhanden und maximal die Arbeitsstunden der aktuellen Woche kaputt. Lagerung der Bänder außerhalb.

Das ist noch weit weg von perfekt, aber zumindest liese sich bei geringen Budget einrichten und ist relativ sicher.

Geschrieben
Einmal hat man die Daten, aber auch die Server. Die sollte man nicht vernachlässigen, denn wenn einer ausfällt, dauert es erheblich länger, die Server neu zu installieren als ein Backup (zB mit Acronis) einzuspielen.

Ich würde Server und Speicher trennen. Ich würde das Speichersystem als iSCSI oder Fibre Channel erzeugen bzw. direkt OneFS distributed file system - Wikipedia, the free encyclopedia nehmen und die Nodes via InfiniBand verbinden. OneFS würde entsprechende Zugriffsdienste schon bieten und ich muss es nicht selbst verwalten. Zusätzlich erreiche ich mit einem verteilten System bessere Datendurchsätze.

Wenn nun ein Server verwendet werden soll, dann würde ich ggf wirklich überlegen, ob man hier Windows einsetzen muss, denn der Server muss ja nur das Dateisystem bereitstellen, das per FC oder ISCSI angebunden ist. Dazu kann man eine fertige Linux-Distro wie FreeNAS 8 | Storage For Open Source einsetzen.

Backup kann man ebenso anbinden, wodurch man ja die Daten mit der notwendigen Performance backuppen kann.

Eine virtualisierte Umgebung kann da erheblich helfen, da sind schnell Snapshots erstellt und weggesichert.

Halte ich für nicht notwendig, OneFS hat entsprechenden Support, FreeNAS ist minimal und das Sichern der Konfiguration ist wirklich nicht umfangreich und muss nur dann durchgeführt werden, wenn ich sie ändere. Sinnvollerweise würde man die Konfiguration mit in das Backup legen.

RAID bzw USV denke ich, sind sowieso notwendig, d.h. darüber muss man eigentlich nicht mehr sprechen.

Man muss ja nicht jeden Tag auf Band sichern, aber übers Wochenende auf Band zu sichern und Montags in ein feuerfesten Tresor bei einer anderen Location (oder woanders) abzulegen, sollte machbar sein.

sehe ich ebenso, das hängt natürlich davon ab, was man als Ausfallzeit tolerieren kann, also ein individueller Punkt.

- Sicherung der Serverimages bei Änderungen, Vorhandensein von zusätzlich identischer Serverhardware für Ausfall, so ist bei einem Hardwaredefekt der Server schnell einsetzbar und der defekte kann in Ruhe repariert werden.

Dieses Problem hätte man bei OneFS so direkt nicht, da es ein verteiltes System ist. Bei FreeNAS würde ich ein fertiges System immer vorliegen haben was man z.B. über eine VM starten kann, ist zwar dann nicht performant, aber während der Reperatur des eigentlichen Systems verkraftbar.

Weitere Punkte s.o.

Evtl hast Du ja mal die Möglichkeit Dir das FreeNAS anzuschauen z.B. in einer VM, d.h. dazu müsste man dann "nur noch die passende Hardware" beschaffen. Was das Backup angeht, da wirst Du letztendlich Dich am Storage orientieren müssen, aber sorry, an einem Tag in der Woche ein Band in ein Laufwerk zu legen und es einen Tag später raus zu nehmen, ist jetzt wirklich nicht das Problem !? Wie oft steckt man denn einen USB Stick an seinen Rechner !? Rein physisch muss das System, dass das Backup macht, ja nicht dort stehen, wo das NAS steht, lediglich die Anbindung muss passen.

Was Du als Anbindung für das System brauchst kannst im Grunde recht einfach abschätzen durch die konkurrierende Rechneranzahl und eben die Datenmenge und danach musst Du dann auch das Backup bemessen, aber eine Alternative zu Bändern gibt es wohl nicht

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...