napster! Geschrieben 12. Januar 2001 Geschrieben 12. Januar 2001 Wie kann ich ne ganze Website downloaden (Startseite und die Unterrubriken der ersten Ebene). Kennt einer ein geeignetes Tool... und vielleicht gleich noch ne Seite mit dem entsprechenden Tutorial, falls das ´Tool nicht selbsterklärend ist... Zitieren
Kenny Geschrieben 12. Januar 2001 Geschrieben 12. Januar 2001 hi, schau mal bei www.download.com vorbei und such mal nach "WebSnake" oder "Web Snake" da solltest du was finden ... ist wohl nur eine 30 tage shareware ... aber sonst voll inordnung und selbsterklärend (ca. 1.7MB oder 2.5 MB groß) solltest du das nichtfinden kann ich noch später nen link schicken ... (bin gerade in der firma und da ist diese seite gesperrt ) cu kenny ------------------ ------------------------- linux... aber sicher Zitieren
napster! Geschrieben 12. Januar 2001 Autor Geschrieben 12. Januar 2001 Schon mal Danke! Ich hab das Programm installiert. Wenn ich das Programm starte kann ich die Website auswählen und das "level of html files" wählen. Obwohl ich da 2 gewählt hab hat er nur die Startseite gespeichert... ??? Can you help me? Zitieren
Kenny Geschrieben 12. Januar 2001 Geschrieben 12. Januar 2001 ja... must mal schauen ... da gibts ne option das das programm kontroliert wohin der link geht ... z.b. wenn die erste seite bei members.aol.com/blabla/index.html ist und von dort aus ein link zu members.t-online.de/... geht dann kann man sagen das soll oder das soll nicht mit downgeloadet schreibt man das so ) werden ... leider weiß ich jetzt nicht genau wo diese funktion ist bzw. wie die heißt ... must du leider noch ein bissel suchen ... aber ich hoffe hier mit ist dir schon ein bissel weiter geholfen ... kenny ------------------ ------------------------- linux... aber sicher Zitieren
Anja Geschrieben 12. Januar 2001 Geschrieben 12. Januar 2001 Teleport Pro ist auch noch genial. Du kannst Verzeichnistiefe usw. angeben. Zitieren
napster! Geschrieben 12. Januar 2001 Autor Geschrieben 12. Januar 2001 ...die Seiten sind alle unter der selben Domain zu finden. Das Problem liegt wohl wo anders, aber hauptsache ich hab schon mal das Programm. Jetzt ist erst mal Wochenende... ich probiers am Montag nochmal. Thanks. Zitieren
Woshty Geschrieben 15. Januar 2001 Geschrieben 15. Januar 2001 Moin Moin, schon mal wget versucht??? Solls auch unter Windows geben. mfg Woshty Zitieren
napster! Geschrieben 15. Januar 2001 Autor Geschrieben 15. Januar 2001 Ich weiß jetzt was ich falsch gemacht hab. Die Startseite hieß www.....de/index Websnake ist so voreingestellt dass es nur untergeordnete Seiten wie www.....de/index/100 runterläd. Man muss die Einschränkung auf www.....de runterstufen. Dann werden auch Seiten wie www.....de/bild gespeichert. Zitieren
Knille Geschrieben 18. Januar 2001 Geschrieben 18. Januar 2001 Mich würde mal interessieren, ob diese Programme auch das komplette Internet runterladen können. Als Startseite einfach www.com eingeben und dann ab dafür ... Zitieren
TG Geschrieben 18. Januar 2001 Geschrieben 18. Januar 2001 Mit ein paar Tricks und nem ordentlichen Progg ist das bestimmt irgendwie möglich, aber ich hoffe du hast ne große Festplatte, oder ein schnelles Gerät, das nebenbei sichert!!! ------------------ Bis dann, Ciao! TG Zitieren
Spike Geschrieben 19. Januar 2001 Geschrieben 19. Januar 2001 Mein Tipp: www.tucows.de --> HTTP-Weazel Damit hab ich bisher noch jede Site gesaugt (auch .asp usw). .zip oder .exe kann man ausgrenzen, cie Verzeichnisstiefe angeben, man bekommt eine gute Übersicht über alle Files die hinter der URL Stecken usw. Probiers einfach mal aus. Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.