Zum Inhalt springen

Empfohlene Beiträge

Geschrieben

Wie kann ich ne ganze Website downloaden (Startseite und die Unterrubriken der ersten Ebene). Kennt einer ein geeignetes Tool... und vielleicht gleich noch ne Seite mit dem entsprechenden Tutorial, falls das ´Tool nicht selbsterklärend ist...

Geschrieben

hi,

schau mal bei www.download.com vorbei und such mal nach "WebSnake" oder "Web Snake" smile.gif

da solltest du was finden ... ist wohl nur eine 30 tage shareware ... aber sonst voll inordnung und selbsterklärend smile.gif (ca. 1.7MB oder 2.5 MB groß)

solltest du das nichtfinden kann ich noch später nen link schicken ... (bin gerade in der firma und da ist diese seite gesperrt

frown.gif )

cu

kenny

------------------

-------------------------

linux... aber sicher ;)

Geschrieben

Schon mal Danke!

Ich hab das Programm installiert.

Wenn ich das Programm starte kann ich die Website auswählen und das "level of html files" wählen. Obwohl ich da 2 gewählt hab hat er nur die Startseite gespeichert...

???

Can you help me?

Geschrieben

ja... must mal schauen ... da gibts ne option das das programm kontroliert wohin der link geht ...

z.b. wenn die erste seite bei members.aol.com/blabla/index.html ist und von dort aus ein link zu members.t-online.de/...

geht dann kann man sagen das soll oder das soll nicht mit downgeloadet schreibt man das so rolleyes.gif ) werden ...

leider weiß ich jetzt nicht genau wo diese funktion ist bzw. wie die heißt ... must du leider noch ein bissel suchen ...

aber ich hoffe hier mit ist dir schon ein bissel weiter geholfen ...

kenny

------------------

-------------------------

linux... aber sicher ;)

Geschrieben

...die Seiten sind alle unter der selben Domain zu finden.

Das Problem liegt wohl wo anders, aber hauptsache ich hab schon mal das Programm. Jetzt ist erst mal Wochenende... ich probiers am Montag nochmal.

Thanks.

Geschrieben

Mit ein paar Tricks und nem ordentlichen Progg ist das bestimmt irgendwie möglich, aber ich hoffe du hast ne große Festplatte, oder ein schnelles Gerät, das nebenbei sichert!!! biggrin.gif

------------------

Bis dann, Ciao!

TG

Geschrieben

Mein Tipp:

www.tucows.de

--> HTTP-Weazel

Damit hab ich bisher noch jede Site gesaugt (auch .asp usw).

.zip oder .exe kann man ausgrenzen, cie Verzeichnisstiefe angeben, man bekommt eine gute Übersicht über alle Files die hinter der URL Stecken usw.

Probiers einfach mal aus.

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...