Kopfsalatkopf Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Guten Morgen, Folgendes Projekt steht bei uns an: Virtualisierung von 9 Servern und von unterschiedlichen Server-Versionen auf Windows Server 2008R2 upgraden. Meine Fragen: Gibt es eine sinnvolle Reihenfolge, in der man die Server virtualisiert und upgradet? (Zuerst die beiden Domain-Controller, zuerst die beiden File-Server…) Ich hatte es so geplant, dass ich die Server virtuell komplett neu erstelle und dann mit dem Microsoft-Migration-Tool in die neue Infrastruktur übertrage. Ist das ratsam? Wir haben aktuell Windows Server 2000, 2003 und 2008 im Einsatz. Danke für eure Antworten! Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Tiro Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Also einen DC solltest Du physikalisch lassen. (siehe auch hier) Und ich würde lieber alle Server manuell neu machen statt sie inplace upzugraden (sonst ziehst Du u.U. unsaubere Konfigurationen mit ins neue System = *grusel*). Zumal Du beispielsweise von W2K ja nicht direkt zu W2K8 R2 kommst. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Max_Power Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 DC physikalisch lassen? Was spricht dagegen? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
ad83.dll Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Hochverfügbarkeit und Ausfallsicherheit würde ich spontan sagen Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Crash2001 Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Ausfallsicherheit und Hochverfügbarkeit kann mit virtuellen Maschinen aber doch sogar höher sein mit Vmotion & Konsorten, so dass bei Ausfall einer (virtuellen) Maschine einfach eine andere virtuelle Maschine die Rolle übernimmt. Man hat ja im Normalfall auch nicht nur einen Server für die Virtualisierungen, sondern meist doch 2 oder mehr. Das einzige Argument, das für mich heutzutage noch für eine dedizierte Maschine sprechen würde, wäre eine zu hohe Last (CPU-, Schreib-/Lese-Geschwindigkeit der Festplatten/RAID-Arrays oder des Netzwerktraffics) auf der Maschine, so dass das Gastsystem mit einer virtuellen Maschine schon ausgelastet wäre. Beispiel wären hier z.B. stark frequentierte Fileserver. Aber selbst dann ist es kein Ausschlußkriterium. Alternativ halt spezielle Hardware mit Dongels o.ä., die auf der verwendeten Software für virtuelle Maschinen nicht laufen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Tiro Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 DC physikalisch lassen? Was spricht dagegen? Ich zitiere aus dem angegeben Link: "Einmal Physik, bitte! Eine gängige (und eigentlich immer zutreffende) Empfehlung besagt, dass es in jeder Domäne mindestens einen physischen, also nicht virtualisierten Domänencontroller geben sollte. Der Grund: In den meisten Umgebungen besteht eine Abhängigkeit der Virtualisierungsumgebung von Active Directory. Gibt es nun einmal ein Problem mit den VM-Hosts und keine separaten DCs, so ist guter Rat teuer: Die Hosts können die VMs nicht starten, weil AD nicht läuft, und AD läuft nicht, weil die VMs nicht starten … Ganz offenkundig lässt sich diese Situation vermeiden, wenn es wenigstens einen DC außerhalb der VM-Umgebung gibt. Zusätzlich sollte dieser Server auch die Betriebsmasterrollen (FSMO Role Masters) innehaben – vor allem deshalb, weil der Betriebsmaster “PDC Emulator” der Zeitserver für die Domäne ist. Die Zeitquelle arbeitet aber am besten, wenn sie nicht virtualisiert ist. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
HuoFenG Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Du sagst es Tiro! Wir haben bei uns auch mitlerweile alles virtualisiert bis auf den DC.. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
ad83.dll Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Ausfallsicherheit und Hochverfügbarkeit kann mit virtuellen Maschinen aber doch sogar höher sein mit Vmotion & Konsorten, so dass bei Ausfall einer (virtuellen) Maschine einfach eine andere virtuelle Maschine die Rolle übernimmt. Man hat ja im Normalfall auch nicht nur einen Server für die Virtualisierungen, sondern meist doch 2 oder mehr. Das einzige Argument, das für mich heutzutage noch für eine dedizierte Maschine sprechen würde, wäre eine zu hohe Last (CPU-, Schreib-/Lese-Geschwindigkeit der Festplatten/RAID-Arrays oder des Netzwerktraffics) auf der Maschine, so dass das Gastsystem mit einer virtuellen Maschine schon ausgelastet wäre. Beispiel wären hier z.B. stark frequentierte Fileserver. Aber selbst dann ist es kein Ausschlußkriterium. Alternativ halt spezielle Hardware mit Dongels o.ä., die auf der verwendeten Software für virtuelle Maschinen nicht laufen. Er fragte was dagegen spricht darauf hin brachte ich obige 2 Aussagen. Selbst USB Dongle lassen sich inzwischen ohne Probleme mit Dongle-Server über IP ansprechen wir haben das mehrfach realisiert und ich habe bisher noch keinen Softwarehersteller gesehn der gesagt hat nö ich hab nur Paralell-Dongles. Ich zitiere aus dem angegeben Link: "Einmal Physik, bitte! Eine gängige (und eigentlich immer zutreffende) Empfehlung besagt, dass es in jeder Domäne mindestens einen physischen, also nicht virtualisierten Domänencontroller geben sollte. Der Grund: In den meisten Umgebungen besteht eine Abhängigkeit der Virtualisierungsumgebung von Active Directory. Gibt es nun einmal ein Problem mit den VM-Hosts und keine separaten DCs, so ist guter Rat teuer: Die Hosts können die VMs nicht starten, weil AD nicht läuft, und AD läuft nicht, weil die VMs nicht starten … Ganz offenkundig lässt sich diese Situation vermeiden, wenn es wenigstens einen DC außerhalb der VM-Umgebung gibt. Zusätzlich sollte dieser Server auch die Betriebsmasterrollen (FSMO Role Masters) innehaben – vor allem deshalb, weil der Betriebsmaster “PDC Emulator” der Zeitserver für die Domäne ist. Die Zeitquelle arbeitet aber am besten, wenn sie nicht virtualisiert ist. Speziell für die Zeitthematik gibt es mehrere Ansätze die Probleme damit vermeiden können. Ich hab hier mehre Kunden und auch bei uns im RZ wo die DCs virtualisiert sind. Das einzige was dir passieren kann: DC schmiert ab du willst dich aufs VCenter einschalten und SSO schlägt fehl weil Anmeldung am DC nicht möglich ist. Dafür gibt es dann aber auch lokale Logins im VCenter die im Notfall herhalten können. Daher finde ich das Argument etwas schwammig. Da finde ich es problematischer wenn der VCenter virtuell ist und was an der Infrastruktur fehl schlägt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Crash2001 Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 @a83.dll: Ach so, hatte ich andersherum verstanden. [...]Selbst USB Dongle lassen sich inzwischen ohne Probleme mit Dongle-Server über IP ansprechen wir haben das mehrfach realisiert und ich habe bisher noch keinen Softwarehersteller gesehn der gesagt hat nö ich hab nur Paralell-Dongles.[...]Bei Nischensoftware gibt es das durchaus öfter als einem lieb ist. Vor allem, wenn ein Produkt eingesetzt, jedoch vom Hersteller nicht mehr supportet und nicht mehr weiterentwickelt wird, oder aber die neue Version sich nicht lohnen würde zu kaufen. Ich kenne es aus diversen Firmen, dass z.B. noch Jahre nach dem eigentlichen End of Life und End of Service Datum einer Software, diese (vor allem in Laborumgebunden o.ä.) noch weiterhin eingesetzt wurde. Während meiner Ausbildung (Abschluß 2005) wurde z.B. noch immer ein Windows NT 4.0 Server eingesetzt im Prüflabor. Dieser Server hatte einen Dongel über serielle Schnittstelle dran, von dem es einfach kein Pendant auf USB-Basis gab. Den Hersteller gab es auch nicht mehr und Windows NT 4.0 Server war die letzte unterstützte Betriebssystemversion. Unter Windows 2000 lief das Ganze nicht mehr stabil. Eine alternative Prüfmaschine hätte mal eben locker > 100.000€ gekostet und das war im Budget einfach nicht drin. Klar kann man serielle Schnittstellen auch über USB "nachrüsten", aber die Dongles laufen halt nicht immer richtig daran. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
ad83.dll Geschrieben 27. November 2012 Teilen Geschrieben 27. November 2012 Mag sein aber ich hatte es wie gesagt bisher noch nicht und ich habe auch 2 Labore auf der Kundenliste stehen . (Schwein gehabt ) Wobei man solche Konstelationen bei einer Virtualisierung auch im Vorraus weiß und entsprechend diese Maschinen entweder physikalisch lässt oder schaut was der Kunde sagt wenn man anfängt mit "stellen Sie sich mal vor ..." ist immer die Frage von ist das Geld nicht da oder ist es wirklich nicht da. Da ich weiß wie unsere Labor Kunden leben tippe ich zu 90% auf ersteres aber ich habe auch wenig Lust ist das Controlling und die Finanzwirtschaft meiner Kunden einzumischen. Devise lautet ich habe ihn auf die Gefahren und möglichen Probleme hingewiesen mehr ist nicht mein Problem. Ich bin im übrigen im Produktivumfeld kein Freund von Serielle Schnittestellen umrüsten ... Aber wie gesagt bisher hatte ich da Schwein. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.