kb2010 Geschrieben 26. Januar 2010 Teilen Geschrieben 26. Januar 2010 Hallo ich möchte grosse Dateien im lokalen Netzwerk über torrent-Protokoll verteilen, statt dass die einzelnen PCs (ca 1 Dutzend) sich über xcopy die Dateien holen, damit es es einfach schneller geht (statt einem "Server" sollen dann alle Rechner "Server" sein). Das kann ein Raum voller Rechner sein, die alle mit VirtualPC-Images betankt werden sollen. Betriebssystem ist XP bisher. Die Dateien wechseln, mal sind es die virtuellen Maschinen A, B und C, die Woche drauf wie virtuellen Maschinen D, E und F. Scripttechnisch wäre mir am liebsten, wenn die einzelnen Rechner, wenn Sie fertig sind, eine Art Signal geben, ich möchte die Dateien ja noch automatisiert in Virtual PC einbinden. Mögliche bisherige Rahmenbedingungen: - Ich habe wechselnde Dateien: mal "A B und C" und die Woche drauf "D E und F". Es gibt keinen Server der zu einer Zeit alle 6 Images vorhält. - wechselnde Server-IP-Adressen - am liebsten scriptbar, darf auch console-only sein (d.h. keine GUI erforderlich) - die Erstbetankung des "Masters" kann auch über USB-Platte oder in sonstiger Weise erfolgen, sobald "irgendwas" in C:\freigabe liegt soll es "losgehen" mit der Verteilung. Nein, Warez und sonstiges Piraterie ist das nicht. Danke & ciao Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
flashpixx Geschrieben 26. Januar 2010 Teilen Geschrieben 26. Januar 2010 rsync ? Wikipedia halt ich für sinnvoller Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
kb2010 Geschrieben 27. Januar 2010 Autor Teilen Geschrieben 27. Januar 2010 Kann rsync auch reagieren, "ach wenn Maschine1 sagt sie ist beschäftigt, dann hole ich mir eine Liste von Maschinen, die die Datei (oder den entspr. Block) ebenfalls hat - nach dem Motto andere Mütter haben auch schöne Töchter." Darum genau gehts mir: wenn ich nur eine Maschine erst betanke, dann begrent diese die Dauer bis alle 10 Rechner "auf Stand" sind. Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
flashpixx Geschrieben 27. Januar 2010 Teilen Geschrieben 27. Januar 2010 Es wäre erst einmal die Frage wofür Du das brauchst. Und vor allem weißt Du was Deine Maschinen machen, d.h. auf jede Maschine einen Rsync Dämon installiert und dann kannst Du gegen jede synchronisieren Wenn es Bittorrent sein muss, dann brauchst Du trotzdem einen zentralen Tracker, denn woher soll ein einzelner Client die Liste bekommen, bei welchen Maschinen der Chunk gehostet wird? Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
kb2010 Geschrieben 29. Januar 2010 Autor Teilen Geschrieben 29. Januar 2010 Wenn es Bittorrent sein muss, dann brauchst Du trotzdem einen zentralen Tracker Es _muss_ nicht bittorrent sein, ich suche ein Protokoll, wo jeder Client sich seine Pakete da holen kann, wo er sie sich schnell (!) holen kann. So eine Cluster-Umgebung in VirtualPC ist schon mal 300 (in Worten dreihundert) GB - das Verteilen nur über einen Rechner dauert brutal lang - und 10 Gigabit-Netzwerk ist zu teuer für uns, speziell die Switche und dann gibts oft keine Treiber für XP. Wenn also schon mal ein (dieses oder ein anderes) Protokoll erfolgreich eingesetzt hat... raus mit der Sprache... Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
flashpixx Geschrieben 29. Januar 2010 Teilen Geschrieben 29. Januar 2010 Es _muss_ nicht bittorrent sein, ich suche ein Protokoll, wo jeder Client sich seine Pakete da holen kann, wo er sie sich schnell (!) holen kann. Das ist doch egal, das Bottelneck ist Anbindung des Rechners auf den geladen wird. So eine Cluster-Umgebung in VirtualPC ist schon mal 300 (in Worten dreihundert) GB - das Verteilen nur über einen Rechner dauert brutal lang - und 10 Gigabit-Netzwerk ist zu teuer für uns, speziell die Switche und dann gibts oft keine Treiber für XP. Wofür brauchst Du Treiber bei Switches? Außerdem bezweifel ich diese Aussage, dass es keine Treiber gibt für LAN Karten. InfiniBand ? Wikipedia dabei ist MS selbst Mitentwickler Da Du Deine Images auf einem Fileserver liegen hast, würde ich Dir vorschlagen, diesen mit entsprechender Bandbreite auszustatten, mehrfach Gigabit, diese als Bonding an einen Switch zu bündeln und dann via RSync die Daten zu übertragen. Bei Rsync werden nur Chunks übertragen, d.h. wenn Du einmalig synchronisiert nur noch Veränderungen. Warum Du wochenweise immer ganze VMs kopieren musst auch unverständlich, denn ich kann einmal in jeden Client einen entsprechenden Satz an VM kopieren und via Snapshot Änderungen wieder zurück setzen und das wäre z.B. scriptbar. Das in Kombination mit Rsync würde es Dir ermöglichen, dass Änderungen die Du an Deinen Masterimages machst recht effizient zu übertragen Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
kb2010 Geschrieben 29. Januar 2010 Autor Teilen Geschrieben 29. Januar 2010 Außerdem bezweifel ich diese Aussage, dass es keine Treiber gibt für LAN Karten. Gugg einfach selbst unter *Network Adapter Drivers for Windows XP* "Microsoft Windows XP is not supported on 10-gigabit Intel® Ethernet Server Adapters." Da Du Deine Images auf einem Fileserver liegen hast, würde ich Dir vorschlagen, diesen mit entsprechender Bandbreite auszustatten, mehrfach Gigabit, diese als Bonding an einen Switch zu bündeln und dann via RSync die Daten zu übertragen. Ich habe nur einen, maximal 2 Gigabit-Links zu den Räumen. Ist ein 40 Jahre alter Beton"bunker" Warum Du wochenweise immer ganze VMs kopieren musst auch unverständlich Tja, mal wollen Leute Server2008r2 zeigen, die Woche drauf Linux und die Woche drauf Oracle/SAP - und du weisst nicht, woran die Leute herumgedrückt haben, also schon immer neu auftanken. Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
flashpixx Geschrieben 29. Januar 2010 Teilen Geschrieben 29. Januar 2010 Tja, mal wollen Leute Server2008r2 zeigen, die Woche drauf Linux und die Woche drauf Oracle/SAP - und du weisst nicht, woran die Leute herumgedrückt haben, also schon immer neu auftanken. Ja aber Du hast doch das in einer VM. Da machst Du auf einem Stand einen Snapshot und sagt, wenn die VM beendet wird, den Snapshot zurück holen, d.h. sobald die VM ausgemacht wird, hast Du immer den gleichen Stand. Hardwaretechnisch kannst Du das auch noch mit Wächterkarten absichern, halte ich aber für oversized. Es wäre halt einmal die Arbeit in jede Kiste eine HDD zu schrauben auf der alle Images liegen und dann kannst Du via Rsync die Images vom Server updaten, da müsste auch 1Gbit reichen Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
kb2010 Geschrieben 29. Januar 2010 Autor Teilen Geschrieben 29. Januar 2010 Ja aber Du hast doch das in einer VM. Da machst Du auf einem Stand einen Snapshot und sagt, wenn die VM beendet wird, den Snapshot zurück holen, d.h. sobald die VM ausgemacht wird, hast Du immer den gleichen Stand. Du weisst aber nicht, ob ein Oracle'r evtl. eine Linux-VM gelöscht hat. Es wäre halt einmal die Arbeit in jede Kiste eine HDD zu schrauben auf der alle Images liegen und dann kannst Du via Rsync die Images vom Server updaten, da müsste auch 1Gbit reichen So grosse Festplatten existieren nicht, wir reden hier von fast 10 TB Software. Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
flashpixx Geschrieben 29. Januar 2010 Teilen Geschrieben 29. Januar 2010 Du weisst aber nicht, ob ein Oracle'r evtl. eine Linux-VM gelöscht hat. Das kann man unterbinden, dass VMs gelöscht werden So grosse Festplatten existieren nicht, wir reden hier von fast 10 TB Software. Du kennst LVM? Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge