-
Gesamte Inhalte
403 -
Benutzer seit
-
Letzter Besuch
Inhaltstyp
Profile
Forum
Downloads
Kalender
Blogs
Shop
Alle Inhalte von SystemError
-
Oracle 9 Client verbindet nicht zu Oracle 7 DB
SystemError antwortete auf Magoo's Thema in Datenbanken
Also ich würde Dir empfehlen in Oracles SupportSystem (http://metalink.oracle.com) einen TAR einzukippen und dir diese Frage direkt durch den OracleSupport beantworten zu lassen. Evtl. kennen die Jungs ja einen "Hack" oder können Dich auf ein WhitePaper verweisen. Ihr zahlt schliesslich genug für eure OracleLizenz; also warum nicht deren Support in Anspruch nehmen ? Bye SystemError -
Hey, schau Dir mal die Datei "/etc/sysctl.conf" an. Da kannst Du die bereits von nic_power angesprochenen KernelParameter hinterlegen um diese nach jedem Booten automatisch zu setzen. Alternativ kannst Du auch mit "echo "X" > /proc/sys/kernel/shmmax" (etc...) die Werte zur LaufZeit setzen. Bye SystemError
-
Yup. Full ACK. STONITH steht für ShootTheOtherNodeInTheHead d.h. die ClusterKnoten bekommen geeignete Mittel in die Hand gelegt um ggf. andere Knoten auf die ganz harte Tour "abzuschiessen". In der Regel verwendet man hierzu entweder managebare SteckDoseLeisten mit denen man den Knoten den Saft abdrehen kann oder spezielle ManagementBoards wie z.B. die RemoteInsights von HP. Ich würde generell empfehlen zuerst alle Komponenten innerhalb eines Knotens wie z.B. interne Platten, Netzwerkkarten, SCSI-Kontroller, Netzwerkteile, etc.. redundant auszulegen. Anschliessend kann man sich dann an den eigentlichen Cluster machen. Wenn hierfür das Geld nicht da ist dann ist eine ClusterLösung wahrscheinlich das falsche für dieses Projekt. Noch ein Wort zum SharedStorage: Bei FailOverClustern sollte das RAID im SharedStorage von der PlattenEinheit selbst gemacht werden(und nicht von einem lokalen RAIDController) um zu verhindern dass der RAIDControllerCache auf einem einzelnen Server noch nicht auf Platte weggeschriebene Daten enthält. Im FailOverFall könnte das zu Datenkoruption führen. Eine Alternative hierzu wäre das Spiegeln der ControllerCaches zwischen 2 Knoten; das könnte man z.B. mit SSARAIDAdaptern von IBM machen. Ansonsten denke ich das Hochverfügbarkeit in erster Linie eine kopflastige, trockene, konzeptionelle GrundSatzEntscheidung ist, und dass das verwendete ClusterProdukt dann schon eher zweitrangig ist. Hochverfügbarkeit ist ein Weg, der einmal eingeschlagen bis ins kleinste Detail befolgt werden will und keine Fehltritte verzeiht. Beliebte Beispiele für inkonsequent geplante Cluster sind ClusterKnoten mit nicht redundanten Platten oder redundante Netzteile die alle am selben StromKreis hängen. Ein derartiger "HochverfügbarkeitsCluster" wird zwar viel kosten wenn man dann aber auf ihn angewiesen ist wird es stets eine dolle Begündung geben warum er jetzt in genau dieser Situation nicht funktioniert hat... ;-) Bye SystemError
-
Jo, es geht. Ich gehe jetzt mal einfach davon aus dass Du eigentlich beliebige LinuxApplikationen clustern willst und keine Klimasimulationen auf 1024 Rechnern laufen lassen willst. *g* Das ginge dann in Richtung HPC (HighPerformanceComputing), z.B. BeoWulf. Du kannst mit sog. FailOverClustern (fast) jede beliebige Applikation unter Windows / Linux / Unix hochverfügbar halten. Zu den FailOverClustern kann ich Dir ein bisserl weiterhelfen. Kleines Beispiel: 2 KnotenCluster aus 2 intelbasierten LinuxServern + externe SCSI-PlattenEinheit. (geshared) Auf Knoten A läuft im NormalFall eine OracleDB; Die "NutzDaten" der DB liegen auf der gesharedten Platteneinheit. Die beiden Knoten "reden" ständig über einen "HeartBeat" miteinander; fällt Knoten A aus bemerkt B dies anhand des ausbleibenden HeartBeats und übernimmt die OracleDB incl. der "ServiceIPAdresse" unter der die DB zu erreichen sein soll. Das ganze funktioniert nur weil beide Knoten gemeinsamen Zugriff auf die PlattenEinheit haben. Du benötigst dafür spezielle ClusertSoftware wie z.B. : - Die RedHat ClusterSuite http://www.redhat.com/software/rha/cluster/manager/ - ServiceGuard for Linux von HP http://h71028.www7.hp.com/enterprise/cache/4176-0-0-0-121.aspx - LifeKeeper for Linux von SteelEye http://www.steeleye.com/products/linux/ Zusätzlich benötigst Du in der Regel ein "SharedStorageDevice" auf das alle Deine ClusterKnoten Zugriff haben. (SCSI oder FibreChannel) Als HeartBeatDevice kannst Du entweder eine Ethernet oder eine serielle Verbindung zwischen den beteiligten ClusterKnoten verwenden. Du kannst Dich ja auf den oben gelinkten WebSeiten umsehen; da gibt es einige PDFs, die dann jeweils auf das spezielle Produkt eingehen. Bevor Du irgendwelche weiteren Überlegungen anstellst: Welche Applikationen willst Du denn hochverfügbar halten ? Für Rückfragen stehe ich gerne zur Verfügung. Bye SystemError
-
Hallo, also ich exportiere auf meinem server wie folgt: " [root@buechsenmacher root]# cat /etc/exports /mnt/data1/export buechse(rw,all_squash,sync,anonuid=99,anongid=99) " Hat zur Folge dass alle Dateien die da via NFS reinlaufen der UID & GID 99 (auf meinem Server: nobody) übereignet werden. Wg. den Permissions habe auf Anhieb keine Idee; evtl. tut es ja auch ein crongesteuerter, minütlicher, rekursiver chmod ? Wäre aber eine "dreckige" Lösung. Bye SystemError
-
TCPDump für Analyse mit Ethereal "zurechtschneiden" ?
SystemError antwortete auf SystemError's Thema in Linux
Heya, yo die Daten sind schon ziemlich binär ! ;-) Das Tool der Wahl war "tcpslice". Das Kommando: "tcpslice -w tcpslice.out 4y4m20d8h8m0s0u 4y4m20d10h8m0s0u tcp.dump.01.org" zieht genau die Daten vom 20.04.2004 von 08:00 Uhr bis 10:00 Uhr aus dem Dump. *g* Bye SystemError -
Hallo, ich habe 300MB++ grosse mit folgendem Kommando erzeugte TCPDumpFiles: "tcpdump -l -s 2048 -n -vvvv host xyz -w /tmp/tcpdump.out.001" Ich würde jetzt ganz gerne die Files mit Ethereal analysieren; bekomme aber auf Grund der ernormen Grösse der Dumps Probleme. Wie kann ich die Dumps so "zurechtschneiden" dass z.B. nur die letzten 100.000 Zeilen oder nur die letzten 100 MB übrig bleiben ? Ein einfaches extrahieren der letzten n Zeilen mit Perl, tail und grep habe ich schon ausprobiert... Nur leider beschwert sich dann Ethereal das File läge in keinem gültigem Format vor... Irgendwelche Vorschläge ? Danke & Bye SystemError
-
Hey hasso11, >>> die HDD hängt an nem Promisecontroller dran Sehe ich das richtig dass Deine Platte an nem PCI-ATA-Controller von Promise hängt ? Zum Beispiel sowas hier: http://www.promise.com/product/product_detail_eng.asp?productId=11&familyId=3 Wenn ja dann könnte es am BIOS des Controllers liegen. Hatte jedenfalls mal ein ähnliches Problem mit dem von mir oben genannten Controller von Promise. Überprüfe doch mal ob es für Deinen Controller ein Update von Promise gibt, wenn ja einfach mal installieren. Bye SystemError
-
*argh* & *plönk Das hätte bei uns mit 0 Punkten und einem netten Gespräch mit dem Rektor geendet. Jede Wette... Und zwar unabhängig von der Qualität der Antworten... Wenn ich mich jetzt nur entscheiden könnte ob dieser Typ: a.) geisteskrank b.) auf einem Trip c.) genial d.) alles von dem ist ??? Bye SystemError PS: Der Jedi mind trick um 15 Punkte zu erlangen ? *gröhl* Siehe Antwort 4 zur Verschlüsselung.
-
Hallo, im Zweifelsfall könntest Du ja von einer KnopixCD booten und es einfach ausprobieren. (= Ich hab keine Ahnung) Ich persönlich würde aber das Poblem an der Wurzel packen und mein BIOS updaten (wenn möglich) oder mir einen PCI ATAController zulegen der mit den Platten richtig umgehen kann. Bye SystemError
-
Hallo >>>Ausstellungen über historische Dinge (egal aus welcher Zeit) OK, da wird Dir der Stoff in Berlin sicherlich nicht ausgehen... ;-) Also ich persönlich kann das Ägyptische Museum sehr empfehlen: http://www.smb.spk-berlin.de/amp/s.html Lohnt sich imho schon allein wegen dem Kopf der Nofretete ! Ich bin glaube ich eine Stunde oder so sabbernd davor gestanden... ;-) Und dann natürlich das Pergamon Museum aka Vorderasiatisches Museum: http://www.smb.spk-berlin.de/vam/s.html und http://www.pergamonmuseum.de/ ? Die haben den Altar des Pergamon und das IschtarTor... Lustig: Hier gibt 's eine FotoAusstellung über eben dieses Museum: http://www.smb.spk-berlin.de:8000/smpk/de/kalender/details.jsp;jsessionid=7A4416A0E8D2A62F49983B96603831E2?objectId=6106&typeId=10&date=05.04.2004#top Ausserdem gibt's noch das Museum am CheckPointCharlie wenn Du eher auf neuere Geschichte aus bist. Wenn Du mal nur einen Nachmittag ausspannen willst könntest Du Dir noch den Treptower (?) Park ansehen. Jede Menge Grün und dazwischen ein absolut hypermartialisches SowjetDenkMal zum Gedenken an den Sieg über das 3. Reich. UndUndUndUndUnd... Bye SystemError PS: Evtl. ist http://www.art-in-berlin.de/index.php ein guter EinstiegsPunkt.
-
Hallo, der aktuelle LinuxKernel hat kein Problem mit Platten in den von Dir genannten Grössenordnungen. Habe in meinem Server 2 160er ATA Platten und ein 192 GB FileSystem hängen; alles kein Problem. Frage in die Runde: Haben nicht eher die IDE-Controller Probleme mit grösseren Platten als die BetriebsSysteme ? Musste auf meinem (etwas älteren) ATA einen FirmwareUpdate machen damit er die Platten (richtig) erkannt hat. @Bionix >>> auf mehrere TERABytes angewachsen sind. Der 2.4er Kenel macht für Blockgeräte bei 2 GB schluss. Bye SystemError PS@Bionix: Ups, habe Dich gerade anhand Deiner Signatur als konsequenten 2.6er KernelBenutzer erkannt. Dann trifft Dich die oben genannte Beschränkung also überhaupt nicht. *g*
-
Hallo man mkraid: " ... Note that initializing RAID devices destroys all of the data on the consituent devices. ... " Das klingt zunächst mal nach einem definitiven NEIN. Aber es gibt ebenso definitiv eine Möglichkeit das Linux SoftwareRAID im sog. "degraded modus" aufzubauen... HowTo gibt es hier: http://www.schwarzvogel.de/od2md.shtml Achtung: Sichere Deine Daten oder Lebe mit derem potentiellen Verlust. Zitat aus dem oben genannten HowTo: ... Make backups. Multiple. Check them. Verify them. Keep them in a very safe place. Be educated about how to restore stuff if you accidentally bonker the whole system, not only the part you want to turn into RAID groups. Don't complain about data loss if you don't, I'll just point at you and laugh (this is only because I've been pointed and laughed at in the very same situation). ... Viel Glück & Bye SystemError
-
Hallo, auf die eingehende Frage: Ist der Winterschlaf jetzt wirklich vorbei ? Yep. Jedenfalls nur für meinen Teil. Bin die letzen akalten Winterwochenenden nur träge daheim rumgehangen und hatte Lust auf: NIX ! Und jetzt: HERRLICH ! *frohlock* Samstag Morgen mit vor Astma pfeifender Bronche um 06:15 Uhr aufgwacht, gut gefühlt, den ganzen Tag nur unterwegs gewesen, Leute besucht, dieses und jenes erledigt... ...abends dann mit noch mehr Leuten aus gaaanz alter Zeit getroffen... tanzen bis zum umfallen... ...dann noch um 02:30 Uhr ne PrivatParty gecrashed... Mit dem Taxi bis in den benachbarten Ort; von dort ne Stunde nach Hause gejoggt... ...und immer noch zu viel Energie ??? Verdammt Leute: Es ist Frühling und er ist HERRLICH ! Bye SystemError <sing> We have a Dream... ...IT is our personal, very own call of duty... And willingly we will give our lives for the cause... ...day or night, no matter when... ...scotland or japan, no matter where... ....we will stand our ground. We will survive We will endure ... When the goin's rough You can't be sure I'll tough it out I won't give in When my servers get knocked down I'll get them up again As long as my dream's alive I will survive ... </sing>
-
Hallo alligator, >>> Leider so nicht richtig... Du hast schlicht und ergreifend: Recht ! Respekt. :-) >>> Naja die "Hardware" hat erstmal nix mit dem Protokoll zu tun. Hast ebenfalls Recht fand nur den Vergleich recht anschaulich. Bye SystemError
-
Hallo Leela20, SAN: Also ich finde das SchauBild auf Seite 5 dieses PDFs nicht sooo schlecht. Es zeigt relativ schmucklos worum es beim Konzept eines SANs geht: Diese Server (alle Teil eines LANs sowie eines SANs) auf diesem SchauBild verfügen alle über interne Platten (typischerweise genau 1 RAID-1) auf denen das BetriebsSystem, DatenBank- und ApplikationsSoftware installiert sind. Diese INTERNEN (nicht SAN) Platten müssen nichtmal sonderlich gross sein, denn es liegen ja KEINE Nutzdaten (Datenbanken, FileShares mit Anwenderdaten, etc...). Jeder dieser Sever ist aber mit einem FibreChannelAdapter versehen. Jeder dieser Adapter ist (wie im Bild zu sehen) redundant (1 Adapter = 2 Kabel) an verschiedene FibreChannelSwitches angebunden. Jede FC Switch ist nun ebenfalls redundant an mehrere SAN StorageServer (Umgangston: "PlattenSchränke") angebunden. Stell Dir einen dieser "PlattenSchränke" einfach wie ein dickes Rack mit vielen, vielen Festplatten und einigen FibreChannelAdaptern vor. Die Dinger haben einige CPUs und IOCacheGrössen im GB Bereich. Dieser "Schrank" kann über spezielle Software oder ein WebFrontEnd konfiguriert werden: Mehrere physische Festplatten werden zu RAID Arrays zusammen gefasst; auf einem RAID Array werden mehrere logische "Platten" angelegt, es wird definiert welcher Server welche Platten "sehen" darf, etc... Dieser "Schrank" sorgt dabei für das HardwareRAID auf den FestPLatten, ganz im GegenSatz zu RAID-Arrays die Du mit einem SCSI oder IDE RAIDAdapter "innerhalb" Deines Servers erstellst. Hier 2 Beispiele solcher Produkte: Die ESS aka "Shark" von IBM: http://www.storage.ibm.com/disk/ess/index.html Sehr *chick*, wird auf Grund des Namens mit HaiFischFlosse zum oben auf montieren geliefert... *g* Die CLARiiON CX300 von EMC², etwas "kleiner": http://www.emc.com/products/systems/clariion_cx300.jsp Stell Dir einen dieser erwähnten FibreChannelSwitches so ähnlich wie eine EthernetSwitch vor; nur wird eben das FibreChannelProtokoll verwendet. Dieser Dinger sind konfigurierbar, z.B. kannst Du konfigurieren welcher Server im SAN welche logische Platte sehen darf, das nennt man dann "Zoning". Bsp: http://www.storage.ibm.com/ibmsan/products/3534/f08/index.html Auf Deinen Servern "siehst" Du nach erfolgter SANKonfiguration diese logischen Platten in der SAN als wären es lokale Platten. Du kannst dann ein DateiSystem darauf anlegen, etc... Ich habe schon von SANpuristischen RechenZentren gehört die selbst auf die wenigen lokalen Platten fürs BetriebsSystem verzichten und dann direkt von den Platten in der SAN booten. Somit hätten derartige Server KEINE lokalen Platten mehr... Die Vorteile der ganzen SAN Sache dürften auf der Hand liegen; Rechenzentren haben die Möglichkeit ihren Storage massiv zu konsolidieren. Bei geschickter Verwendung kann so die PlattenAuslastung gegenüber dediziertem (1 PlattenEinheit hängt an genau einem Server) Storage erheblich gesteigert werden. Man hat ja somit weniger "Verschnitt" an ungenutztem PlattenPlatz auf den einzelen Servern. Die ganze Sache ist übrigens alles andere als billig und wird sich erst ab einem bestimmten DatenVolumen rechnen... So ich hoffe das ganze hilft Dir ein bisserl weiter; bei konkreten Fragen einfach nochmal melden. Bye SystemError PS: Die geposteten Links zu den HerstellerSeitern stellen nur ein Beispiel und keine Präferenz meinerseits dar.
-
Hallo, a.) RAID ersetzt Dir kein Backup da hast Du schon recht. b.) Ich persönlich bin mit SoftwareRAID im privaten Umfeld immer gut gefahren... c.) SoftWareRAID für Linux HowTo gibt 's hier: http://www.tldp.org/HOWTO/Software-RAID-HOWTO.html >>> wie bemerke ich das? Yep, das Linux SoftwareRAID sollte die Fehlermeldungen nach /var/log/messages schreiben. Den Zustand eines SoftwareRAIDs kannst Du auch mit "cat /proc/mdstat" abfragen... Viele HardWareRaidKontroller "verewigen" sich ebenfalls im /proc DateiSystem. Bye SystemError
-
Hallo Unixler, ich konnte mich nicht wirklich entscheiden diesen Thread unter "Hardware" oder aber hier unter "Unix" aufzumachen... Habe mich dann eher wilkürlich für "Unix" entscheiden... Bin auf der Suche nach einer geshared 'n (*brr*) Storage Lösung für 5+ HP-UX Systeme. Würde ich wirklich sehr interessieren ob irgend jemand hier im Forum gute oder schlechte Erfahrungen mit dem einen oder anderen Produkt gemacht hat. Ein Link auf eine Herstellerseite oder ein bestimmtes Produkt wird mich nicht sonderlich weiterbringen solange er nicht mit einem kleinem "Erfahrungsbericht" verknüpft wird. Habe ein Hochglanz-PDF und ein SpecSheet nach dem anderen gewälzt und nun ja: Natürlich preist jeder Hersteller seine Lösung in den höchsten Tönen an... Hier meine Anforderungen: - 5+ Hosts per FibreChannel angeschlossen - Entweder direkt oder über entsprechende FibreChannel-Switches - BetriebsSystem der Rechner: HP-UX 11i - MultiPath IO - RAID5 und RAID10 Unterstützung - 1 bis 4 TB an Kapazität - Performance (!!!) - Die StorageLösung soll nur dediziert für ein Projekt verwendet werden; d.h. die ganz "dicken Eisen" wie eine ESS von IBM oder ähnliches kommen nicht in Frage da zu "dick" und zu "teuer" - HauptNutzer der Lösung werden Oracle-DBs sein, sowohl OLTP als auch DataWareHousing - Die DBs sind sehr IO-Intensiv, lesend wie schreibend, also noch mal: Performance (!!!) Bin für jede Anregung dankbar... Bye SystemError
-
Brauche dringend Hilfe für mein Anschlußprojekt!!!! CLUSTER unter RHEL 3 AS
SystemError antwortete auf killababe's Thema in Linux
Hey, nun ja noch wachsen mir keine Flügel... ;-) >>> Also müsste ich eigentlich keinen NFS Dienst einrichten?? Nein. Du musst den NFS Dienst nur dann einrichten wenn Du NFS Shares hochverfügbar halten willst. Das wirst Du Dir aber nur selber beantworten können. Oder Dein Ausbilder // bzw. derjenige der die Anforderungen an Dein Projekt stellt. >>> Sorry, hab da echt nich so viel Ahnung von gerade... Wer nicht fragt bleibt dumm... >>> Naja und ich kann den Cluster halt erst anpingen... Ich nehme an Deine ClusterKnoten haben eine "BasisIP", die auch bei gestopptem Cluster Verfügbar ist ? Und Du kannst nur die hochverfügbare Adresse Deines Clusters nicht anpingen ? Sieht für mich schwer dannach aus als hättest Du nur den NFS-Dienst als hochverfügbare Applikation konfiguriert, ja ? Somit wäre dieses Verhalten "normal" da die hochverfügbare IP natürlich erst vom Cluster gestartet wird sobald die entsprechende Ressource online geht. Was mir jetzt noch nicht so ganz klar ist: Welche Applikationen willst Du denn hochverfügbar machen ? NFS wäre ein Beispiel. Aber eben nur ein Beispiel. Ein Cluster ohne Applikationen die im Cluster laufen ist relativ witzlos. Du solltest übrigens das was ich hier so von mir gebe lieber noch mal in der Doku von RedHat nachlesen, nicht das ich Dir hier ein faules Ei unterjubele... Das ganze Thema ist ziemlich komplex und ich habe (noch) keinen RedHat Cluster hier zum Testen... Bye SystemError -
Brauche dringend Hilfe für mein Anschlußprojekt!!!! CLUSTER unter RHEL 3 AS
SystemError antwortete auf killababe's Thema in Linux
Hey, schickes Abschlussprojekt hast Du da. :-) 1.) Quorum Partition In diesen Partitionen wird sowohl Clusterkonfiguration als auch der aktuelle ClusterZustand abgespeichert. Ein "QurumDeamon" (1 je Knoten) überprüft diese Partition alle paar Sekunden, so wird u.a. sichergestellt dass alle ClusterKnoten Konfigurationsänderungen in kürzester Zeit mitbekommen. Die QuorumPartitionen sind die einzigen Partitionen im Cluster auf die alle Knoten gleichzeitig zugreifen. Solle es sich um einen 2 Knoten Cluster handeln so erüllen die QuorumPartitionen einen weiteren "lebenswichtigen" Dienst: In sehr unglücklichen Situationen kann es sein dass beide Knoten noch auf das SharedStorageDevice zugreifen können der Heartbeat aber ausbleibt... Je nach Hersteller wird diese Situation dann als "split brain" oder "split cluster" beschrieben. Dieses "split cluster" Syndrom ist deswegen so gefährlich weil unter allen Umstädnen vermieden werden muss das beide Knoten gleichzeitig versuchen RessourceGruppen zu übernehmen... Das führt dann u.a. zu IP-AdressenKonflikten und, viel schlimmer, Verwirrung und/oder DatenKorruption im SharedStorageDevice. *aua* Um derartiges Chaos zu vermeiden entscheidet in "split cluster" Situationen der ClusterManager mittels der QuorumPartition (quasi als Schiedsrichter) welcher Knoten welche Ressource "behalten" soll. 2.Wie funktioniert der Heartbeat? Nein, das sind afaik keine Pings, da unterhählt sich die ClusterSoftware auf jedem Knoten mit dem Rest des Clusters... So im Stille von: "Hallo ich bin hier, Seid ihr auch noch da ?" Der HeartBeat muss nicht mal zwanghaft IP-basierend sein; evtl. wird auch ein serielles Kabel verwendet. ("NonIPHeartBeat") Ich weiss leider gerade nicht ob dieser "NonIPHeartBeat" vom RedHat ClusterManager unterstützt wird. (HACMP und ServiceGuard der Konkurrenz tun 's jedenfalls) Der HeartBeat läuft fortwährend: - Der Default TimeOut steht auf 2 Sekunden. - Die Default Retrys stehen auf 6. - Somit ergibt sich eine Default "GnadenZeit" von 14 Sekunden. Sollte sich ein ClusterKnoten also 14 Sekunden nicht mehr gemeldet habe so wird ein FailOver aller Ressourcen dieses Knotens auf andere eingeleitet. Diese Werte sind konfigurierbar. 4.Was ist die Network Tiebreaker IP Adress?? *aua*, da bin ich mir jetzt nicht so ganz sicher, genieße folgendes also lieber mit Vorsicht: Sollte ein Cluser mit gerader MemberAnzahl in 2 gleich grosse Gruppen "geschnitten" werden so "gewinnt" die Gruppe die noch die TiebreakerIP pingen kann ? 5. Wozu wird der NFS Dienst eingerichtet? NFS hat an und für sich nix mit der RedHatClusterSuite zu tun; es handelt sich hierbei um Protokoll zum sharen von Verzeichnissen, wird sowohl von den komerziellen Unixen als auch von Linux verwendet. Die RedHat ClusterSuite bietet die Möglichkeit NFS-Shares hochverfügbar zu halten. 6. Wie sieht das mit diesem Timestamp... Nein der HeartBeat würde nicht reichen, siehe 1.). Der HeartBeat kann schliesslich auch ausfallen. So hoffe das war jetzt hilfreich. Ich empfehle Dir noch die folgenden Paiere: 1.) Eine kurze und allgemeine Übersicht über den RedHat ClusterManager: http://www.redhat.com/whitepapers/rha/RHA_ClusterSuiteWPPDF.pdf 2.) Das RedHat ClusterManager HandBuch: http://www.redhat.com/docs/manuals/enterprise/RHEL-3-Manual/pdf/rh-cs-en.pdf Bye SystemError -
Cool. Der KnackPunkt war die Endung *.rpm, die Reihenfolge sollte reichlich egal sein, das kaspert sich RPm schon selbst aus. Bei Deinen InnDBPaketen genau das gleiche: Einfach ohne die *.rpm Endung ausprobieren. Bye SystemError
-
Hallo, und ein Kommando ala: "rpm -e MySQL-shared-compat-4.0.17-0 MySQL-shared-4.0.17-0 MySQL-Max-4.0.17-0 MySQL-server-4.0.17-0 MySQL-client-4.0.17-0" bringt die von die oben beschriebene Fehlermeldung ? Falls ne andere Fehlermeldung kommt poste die bitte. ByTheWay1: Welche Linux Distribution und Version verwendest Du ? ByTheWay2: Woher hast Du die RPMPakete ? Bye SystemError
-
Hallo, poste doch mal die Ausgabe von "rpm -qa | grep -i mysql". Bye SystemError
-
Hallo, also ich bin persönlich ein grosser Fan von Gibraltar: http://www.gibraltar.at Rennt vollständig von CD, Konfig wird auf Diskette oder USB-Device abgelegt, OpenSource, gibt noch eine kommerzielle Variante die mit schickem FrontEnd und professionellem Support kommt. Bye SystemError
-
Hallo freddykr, yep, da kann ich nur zustimmen. Eine von Dir beschriebende Active/Active Konfiguration halte ich für generell sinnvoller als eine Active/Passive Konfiguration. So werden keine wertvollen Ressourcen verschwendet... Ausserdem: Wenn man seinen Bedarf an Hochverfügbarkeit erkannt hat kommt es auch nicht mehr wirklich darauf an ob das SharedStorageDevice jetzt ein paar Euros mehr oder weniger kostet... Bye SystemError