Gast werlei Geschrieben 20. Oktober 2016 Teilen Geschrieben 20. Oktober 2016 Hat hier jemand Erfahrung, ob sich Umstellung einer kleinen NETAPP auf FC (statt NFS über 1gbit-Ethernet) lohnt, oder doch besser neue NETAPP kaufen? Wir nutzen die NETAPP nur für VMware-Essentials, die kann kein gutes Bonding von Ethernet-Karten? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Wuwu Geschrieben 20. Oktober 2016 Teilen Geschrieben 20. Oktober 2016 Kein vMotion, kein HA, wozu brauchst Du gleich Shared Storage? Lasten Deine 3 Hosts mit den wahrscheinlich weniger als 20 VMs denn die momentanen 1 Gig Links auch nur ansatzweise aus? Warum wollt ihr umstellen? Performanceprobleme? Platzprobleme? Out of Support? Thanks-and-Goodbye reagierte darauf 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Gast werlei Geschrieben 21. Oktober 2016 Teilen Geschrieben 21. Oktober 2016 sorry essentialsplus. Grund ist fehlende Peformance bis jetzt 2 shelves , 12+24+12 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Enno Geschrieben 21. Oktober 2016 Teilen Geschrieben 21. Oktober 2016 Sicher das die Anbindung der NettApp der BottleNeck ist? Sprübare Performanceprobleme auf einer VM kann an allem liegen: - Performance der NetApp - Anbindung der NettApp - VM Host Probleme - VM Guest Probleme etc.p.p. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Wuwu Geschrieben 23. Oktober 2016 Teilen Geschrieben 23. Oktober 2016 Gut Essentials+ rechtfertigt Shared Storage Wie Enno bezweifle ich dass throughput Dein Problem ist. Hast Du nen esxtop replay modus (aka performance logbundle) was Du irgendwo gesichert bereitstellen kannst, damit man mal reinschauen kann. Alternativ falls Support besteht kannst Du natuerlich auch direkt bei VMware ein Ticket aufmachen um Dir bestaetigen zu lassen, dass wirklich die Anbindung der Flaschenhals ist. Bonding ueber NFS ist so oder so kein gutes Thema... NFS 3 hat kein natives Multipathing und mit kleiner Anzahl von Quellen und Zielen, was Du hier vorliegen hast ist ein echter Lastausgleich nicht wirklich realisierbar. Kannst Du beschreiben wie genau sich die Performanceprobleme auessern? Was ist euere gemessene Baseline, was war die damalige Last auf dem Storage, wie hat sich das zu heute veraendert. 1Gbit Anbindung = 125MB/sec maximum Durchsatz, das wird normal nur bei Backup ein Problem, rechnen wir doch mal fix durch, NetApp liebt RAID6... aber auch bei RAID5 sehen die Zahlen nicht mega besser aus... Bei 130 angenommenen IOPS fuer 10k Disks kommst Du bei nem RAID 5 auf 820 IOPS und bei nem RAID6 auf 620 in ner 12er Diskgroup. 820*4k ~ 3 MB/sec 820*64k ~ 52MB/sec (und bei 64k hast Du unter Garantie keine 820 IOPS mehr) Diskgroups ordentlich ueber die SP verteilt und Du kommst selbst mit 1 Link gerade so an den Bandbreiten Bottleneck. Wahrscheinlicher ist, dass der Workload zu sehr auf den Disks drueckt (oder aber euer Backup zu langsam laeuft, dann koennte ne dickere Anbindung tatsaechlich helfen). Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.