Hunduster Geschrieben 30. Januar Geschrieben 30. Januar Hallo zusammen, wir haben im Unternehmen einen Ubuntu 20.04 mit einer Nextcloud Instanz, welche historisch gewachsen ist. Das Ganze ist im LAMP Stack installiert. Leider lässt die Performance des Servers, insbesondere des Webinterfaces schon länger sehr zu wünschen übrig (circa 160 Benutzer). Der Server an sich hat mehr als genug Power und langweilt sich laut der Ressourcenauslatung auch eher. Privat bin ich vor kurzem mit meiner Nextcloud auf Ubuntu 22.04 und NGINX umgestiegen, auch vom LAMP Stack kommend und bin vom Performance-Unterschied hin und weg. Daher würde ich gerne auch für die Firma eine neue Maschine aufsetzen. Mein Problem: wir haben gut 4 TB in der Nextcloud liegen, sodass ich Sorge habe, dass ich die Daten nicht an einem Wochenende von Server A auf Server B via Netzwerk kopiert bekomme. Mein Plan war nun, unter VMware eine separate HDD zu erstellen. Diese erst auf Server A einzubinden, das nextcloud-data Verzeichnis rüber zu schieben, unmounten und auf Server B wieder zu mounten und das ganze dann auch so laufen zu lassen. Pfad wird natürlich in der config angepasst. Da ich erst seit ein paar Jahren mit Linux unterwegs bin, wäre meine Frage an Euch, ob dies ein gängiger und akzeptabler Weg unter Linux ist. Damit meine ich insbesondere, eine zweite HDD produktiv gemountet zu haben. Zitieren
Tratos Geschrieben 31. Januar Geschrieben 31. Januar Also 4TB ist jetzt nichts was nicht mal kurz vor allem unter Linux schnell verschoben ist wenn die HDD nicht gerade an einem BNC Netzwerk hängt sollte der Server da schon genügend über die Schnitstelle bringen. Zitieren
Enno Geschrieben 31. Januar Geschrieben 31. Januar Und, wenn das innerhalb einer VMInstanz via "Netzwerk" kopiert wird läuft das mit voller Plattengeschwindigkeit die dir VMware zur Verfügung stellen kann. Wichtig Alte und Neue Maschine müssen sich auf dem selben VM-Host befinden. Dann regelt VMware das so das davon nix über die Netzwerkkarten läuft. Zitieren
Chris-Info Geschrieben 31. Januar Geschrieben 31. Januar Mal eine Frage am Rande: Mich wundert, dass ihr mit 160 Nutzern bei eurem Tech Stack schon Probleme habt. Das ist doch eigentlich eine Größe, die Apache gut bewältigen kann und Linux und mySQL ebenfalls. Für PHP kann ich nicht sprechen, aber ich gehe davon aus, dass das auch deutlich mehr kann. Kann das sein, dass der Stack einfach sehr alte Versionen hat? Oder dass da diverse Updates/Bibliotheken/Einstellungen nicht gemacht wurden, die Parallelisierung erlauben und das darum alles auf einem Threat läuft und sich die Hardware darum auch langweilt? Zitieren
Hunduster Geschrieben 31. Januar Autor Geschrieben 31. Januar vor 3 Stunden schrieb Enno: Und, wenn das innerhalb einer VMInstanz via "Netzwerk" kopiert wird läuft das mit voller Plattengeschwindigkeit die dir VMware zur Verfügung stellen kann. Wichtig Alte und Neue Maschine müssen sich auf dem selben VM-Host befinden. Dann regelt VMware das so das davon nix über die Netzwerkkarten läuft. Das ist mir ehrlich gesagt neu. Sprich: wenn ich einen rsync von Maschine A auf B mache dann überträgt VMware das quasi direkt? vor 1 Stunde schrieb Chris-Info: Mal eine Frage am Rande: Mich wundert, dass ihr mit 160 Nutzern bei eurem Tech Stack schon Probleme habt. Das ist doch eigentlich eine Größe, die Apache gut bewältigen kann und Linux und mySQL ebenfalls. Für PHP kann ich nicht sprechen, aber ich gehe davon aus, dass das auch deutlich mehr kann. Kann das sein, dass der Stack einfach sehr alte Versionen hat? Oder dass da diverse Updates/Bibliotheken/Einstellungen nicht gemacht wurden, die Parallelisierung erlauben und das darum alles auf einem Threat läuft und sich die Hardware darum auch langweilt? Das wundert mich eben auch. Wir haben aber schon lange mit dem Problem eines lahmen Webinterfaces zu kämpfen. Bei meiner eigenen NC Instanz hatte ich aber selbiges Thema mit ~10 Usern. Nach dem Umstieg von Ubuntu 20.04 und dem LAMP Stack auf 22.04 und LEMP rennt das Webinterface wie nix. Irgendwas ist mit der Maschine und das sind keine veralteten Versionen. Chris-Info reagierte darauf 1 Zitieren
Enno Geschrieben 31. Januar Geschrieben 31. Januar Zitat Das ist mir ehrlich gesagt neu. Sprich: wenn ich einen rsync von Maschine A auf B mache dann überträgt VMware das quasi direkt? Sorry, falsch ausgedrückt. Natürlich läuft es durch den Netzwerkkarten Treiber in Maschine A raus, dann durchs VMNetwork und wieder nach Maschine B durch den Netzwerkkarten Treiber rein. Da, solange beide Maschinen auf dem gleichen physikalischen Host liegen das VMNetwork aber nicht auch noch durch die Treiber von, dann physikalischen, Netzwerkkarten muss. Gibt VMware hier den max. Speed der ihm intern zur Verfügung steht und die anderen Maschinen nicht zum erliegen bringt. Voraussetzung das man einen Unterschied merkt ist das die lokal zur Verfügung stehende Geschwindigkeit (HDD) deutliche höher ist als das was durchs Netzwerk geschoben werden kann. Zitieren
Hunduster Geschrieben 31. Januar Autor Geschrieben 31. Januar Das ist mir in der Tat neu. Danke! Ich werde das mal testen. Unter unseren Hosts liegt ein NVMe SAN das eigentlich brutal schnell ist. Ich hatte nun Sorgen, dass ich das zeitlich einfach nicht schaffe die Daten von links nach rechts zu verschieben. Noch eine Frage, da ich erst seit ein paar Jahren Linux mache: Ist es denn von der Architektur das sinnvollste, dass alles auf eine HDD in der VM zu packen? Also z.B. eine 6TB vmdk anzulegen und die Daten nebst System darauf zu legen? Zitieren
Enno Geschrieben 31. Januar Geschrieben 31. Januar Online Rechner für Übertragungsdauern: https://rechneronline.de/uebertragung/ 4TB bei 1GB = knapp 9 Stunden / bei 10GB knapp unter 1 Stunde: Und mit Linux kenn ich mich so gar nicht aus. Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.