JackC Geschrieben 23. Januar 2014 Geschrieben 23. Januar 2014 (bearbeitet) ich weiß, man kanns nur schwer sagen und es hängt von einigen Faktoren ab, aber dennoch würde ich gerne mal eine durchschnittliche Aussage haben. Ich plane ein QNAP TS-EC879U-RP mit Quad Core Intel® Xeon® E3-1225 v2 Processor 3.2 GHz zu verwenden und einer 10 Gigabit Ethernet LAN Karte. Die Datastores sind über iSCSI an die Hosts angebunden. VMs bestehen aus 4 GB RAM und sind Domänencontroller und sonstiges was eigentlich wenig Datendurchsatz hat. Wie viele kann ich auf dem NAS gleichzeitig laufen lassen? Ein paar Erfahrungsberichte zu ähnlichen Systemen mit shared Storage würden mir schon helfen Bearbeitet 23. Januar 2014 von JackC Zitieren
Rhasta Geschrieben 24. Januar 2014 Geschrieben 24. Januar 2014 Ich galube, dass die Begrenzung hier bei deinem Server liegt und keineswegs beim Datastore. In der Firma haben wir aktuell auf 2 iSCSI Storages und 4 Servern 9 Linux VMs und 4 Windows VMs laufen. Die Storages sind vergleichsweise wenig belastet. Zitieren
pr0gg3r Geschrieben 24. Januar 2014 Geschrieben 24. Januar 2014 Ich denke, die Begrenzung liegt an SCSI. Hier kann man nachlesen, wie viele Geräte per SCSI verwendbar sind: Small Computer System Interface. Ich weiß jetzt zwar nicht genau, um welche virtuelle Umgebung es sich handelt, aber wenn jede (virtuelle) Verbindung eine SCSCI-Schnittstelle simuliert, ist das die Begrenzung. Zitieren
Crash2001 Geschrieben 24. Januar 2014 Geschrieben 24. Januar 2014 @pr0gg3r: Die Frage ist doch, wie viele VMs drauf laufen können und nicht wie viele Laufwerke simuliert werden können. Was in der Liste da angegeben ist, ist wie viele Geräte / Laufwerke am entsprechenden SCSI-Standard gleichzeitig angeschlossen werden können. Das hat aber nicht wirklich etwas mit der Frage des Threaderstellers zu tun, denn die QNAP wird per iSCSI (vermutlich dann über einen "SAN"-Switch) an den / die Server angebunden. Pro Server werden vermutlich mehrere VMs laufen (wenn nicht sogar alle auf einem) und somit wären es vielleicht bei 2 Servern z.B. 2 iSCSI-Anbindungen, die von der Virtualisierungsumgebung dann entsprechend auf die VMs "aufgeteilt" und über virtuelle Netzwerkkarten connected werden. Die Limitierung von 2^32 iSCSI-Devices (bei IPV4) wird man in der Praxis wohl eher nicht erreichen ( mehr als 4 Mrd. Geräte). Was SAN-seitig die mögliche Anzahl an gleichzeitig darauf laufenden VMs limitieren könnte, wäre entweder die Netzwerkschnittstelle (Bandbreite), die Rechenleistung des "SAN-Servers", die Bandbreite der verwendeten Devices (alle oder bestimmte Platten im SAN laufen am Leistungslimit was Schreib-/Lesegeschwindigkeit angeht) sowie den verfügbaren Plattenplatz oder RAM. Ansonsten könnte halt die Leistung / Anzahl der Server der begrenzende Faktor sein, oder aber der Switch, über den das SAN angebunden ist. Zitieren
Wuwu Geschrieben 24. Januar 2014 Geschrieben 24. Januar 2014 Ich plane ein QNAP TS-EC879U-RP mit Quad Core Intel® Xeon® E3-1225 v2 Processor 3.2 GHz zu verwenden und einer 10 Gigabit Ethernet LAN Karte. Die Datastores sind über iSCSI an die Hosts angebunden. VMs bestehen aus 4 GB RAM und sind Domänencontroller und sonstiges was eigentlich wenig Datendurchsatz hat a) Sag bloss nicht wieviele Bays belegt sind und was fuer Platten genau drin stecken, Bandbreite ist naemlich Dein geringstes Problem, Raidlevel und LUN-Konfiguration waeren auch nett Deine VMs sind oversized Bei 10 Gig ist IOPS die Limitierungsgroesse und nicht Bandbreite, wenn Du nicht extrem aktive netzwerklastige Server vorzeigen kannst, was Deiner Beschreibung ja zu entnehmen ist. Bei iSCSI solltest Du zusaetzlich noch auf die Entfernung, sprich round trip time achten, idealerweise so wenig hops wie moeglich zwischen Server und "Array" haben. @progger: SCSI-Limitierungen haben damit rein garnichts mehr zu tun, iSCSI verpackt SCSI Befehle in einen Header und spricht damit ueber das Netzwerk entsprechenden Blockstorage an. Die einzige SCSI Limitierung entsteht also am Array selbst von den Platten her, die am Controller angeschlossen sind und dem Datendurchsatz an dem jeweiligen Controller. Zitieren
Crash2001 Geschrieben 24. Januar 2014 Geschrieben 24. Januar 2014 [...]Bei 10 Gig ist IOPS die Limitierungsgroesse und nicht Bandbreite, wenn Du nicht extrem aktive netzwerklastige Server vorzeigen kannst, was Deiner Beschreibung ja zu entnehmen ist.[...]Du meinst also mit anderen Worten, wie viele Ein- und Ausgabe-Befehle pro Sekunde der Controller an die Datenträger weitergereicht bekommt. Bei iSCSI solltest Du zusaetzlich noch auf die Entfernung, sprich round trip time achten, idealerweise so wenig hops wie moeglich zwischen Server und "Array" haben.Und möglichst keine Switche, die auf store-and-forward (Paket speichern und wenn es komplett da und überprüft ist erst weiterleiten) eingestellt sind, sondern nur Switche, die eines der diversen Cut-Through-Verfahren (Paket wird sofort weitergeleitet, sobald das Ziel bekannt ist. Fehlerüberprüfung findet nur unter bestimmten Umständen, in bestimmten Teilen des Pakets oder wenn bestimmte Toleranzwerte überschritten werden statt.) beherrschen. Zitieren
Wuwu Geschrieben 24. Januar 2014 Geschrieben 24. Januar 2014 Du meinst also mit anderen Worten, wie viele Ein- und Ausgabe-Befehle pro Sekunde der Controller an die Datenträger weitergereicht bekommt. Jain, IOPS sind I/O Operations per Second, ja die kommen erstmal am SP (Storageprozessor) an und werden dann an den Controller weitergeleitet, Problem in dem Bereich sind jedoch meist zu langsame Disks oder nicht genug Disks im Array in Verbindung mit keinem oder zu kleinem Cache. Zumal recht viele User nicht wirklich zwischen Frontend und Backend IOPS unterscheiden. Genauso bringt es wenig unterschiedliche LUNs zu definieren, wenn dann doch alles auf der gleichen Diskgroup laeuft Wie der TE schon gesagt hat, ist das ein verdammt komplexes Thema und eine genaue Aussage ist nur mit vernuenftiger Datenlage moeglich, da helfen auch keine Erfahrungsbeispiele von anderen in der Regel, da diese durchaus andere Workloads haben als man selbst, messen ist das einzige, was Dir Gewissheit verschafft. Bissel mehr Info u.a. folgenden Link lesen. Calculate IOPS in a storage array - TechRepublic Grundregel Nummer 1: Storageperformance wird als erstes geplant, danach gehts um die Groesse. Bonusfrage: Wird das IP-SAN komplett getrennt vom Produktionsnetzwerk oder wird hier ein shared Medium verwendet, sprich hast Du vielleicht einfach einen physischen Exchange oder SQL Server, der Dir dann doch den Switch so sehr auslastet, dass der Storagezugriff extrem langsam wird? Zitieren
JackC Geschrieben 24. Januar 2014 Autor Geschrieben 24. Januar 2014 (bearbeitet) 8 SATA Platten Western Digital WD2000F9YZ. Raid 5 mit einer Hot Spare. Hab auch heute Vormittag mit QNAP telefoniert. Die meinten, Sie hätten ohne Probleme über 2 GBit Leitung schon 30 VMs getestet. Anscheinen werden nicht viel Daten übertragen von Host zu Storage, jedoch finden viele Berechnungen direkt auf dem Storage System statt. Heißt also eher schnelle Platten. Storage System und Hosts haben übrigens ihr eigens LAN mit eigenem 10 Gigabit Switch Bearbeitet 24. Januar 2014 von JackC Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.