Ich bin auf der Suche nach einer Lösung zum Speichern von 1, 10, 50 oder später 100 TB. Ich arbeite gerade an einem Projekt, wo in den folgenden Jahren immer größere Datenmengen entstehen. Nun sind wir auf der Suche (kleine Firma, nur 3 Entwickler) um die Daten (viele Benutzer - Dateien) dieses Projektes, zu speichern. Und zwar müssen Sie so gespeichert werden, dass sie Redundant sind und auch dann noch zu Verfügung stehen , wenn ein Rechner im Speichernetz ausfällt. (Kostengünstig)
Ich habe mich mal mit RAID's beschäftigt, allerdings haben die einen Nachteil, wenn der Rechner aus ist, ist auch das RAID aus. Dann fand ich einen Vorschlag im Netz, RAID's mit ENBD aufzubauen. Allerdings habe ich keine Ahnung ob mir das dann hilft, wenn der Rechner ausfällt, wo das RAID läuft. Kann man das RAID einfach auf einem anderen Rechner starten, bis der defekte Rechner repariert ist. Auch wäre es von Vorteil, wenn der Ersatzrechner automatisch dies übernehmen würde. (IP-Adressen Übernahme)
Eine anderen Vorschlag habe ich in dem Projekt OpenAFS gefunden. Soweit ich das verstanden habe, bietet das System eine implementiert Ausfallsicherung an. Hat jemand Erfahrung damit? Wie schwer wäre es, das aufzusetzen?
(Linux - Kenntnisse sind vorhanden)
Danke