Zum Inhalt springen

Empfohlene Beiträge

Geschrieben

Wie kann ich ne ganze Website downloaden (Startseite und die Unterrubriken der ersten Ebene). Kennt einer ein geeignetes Tool... und vielleicht gleich noch ne Seite mit dem entsprechenden Tutorial, falls das ´Tool nicht selbsterklärend ist...

Geschrieben

hi,

schau mal bei www.download.com vorbei und such mal nach "WebSnake" oder "Web Snake" smile.gif

da solltest du was finden ... ist wohl nur eine 30 tage shareware ... aber sonst voll inordnung und selbsterklärend smile.gif (ca. 1.7MB oder 2.5 MB groß)

solltest du das nichtfinden kann ich noch später nen link schicken ... (bin gerade in der firma und da ist diese seite gesperrt

frown.gif )

cu

kenny

------------------

-------------------------

linux... aber sicher ;)

Geschrieben

Schon mal Danke!

Ich hab das Programm installiert.

Wenn ich das Programm starte kann ich die Website auswählen und das "level of html files" wählen. Obwohl ich da 2 gewählt hab hat er nur die Startseite gespeichert...

???

Can you help me?

Geschrieben

ja... must mal schauen ... da gibts ne option das das programm kontroliert wohin der link geht ...

z.b. wenn die erste seite bei members.aol.com/blabla/index.html ist und von dort aus ein link zu members.t-online.de/...

geht dann kann man sagen das soll oder das soll nicht mit downgeloadet schreibt man das so rolleyes.gif ) werden ...

leider weiß ich jetzt nicht genau wo diese funktion ist bzw. wie die heißt ... must du leider noch ein bissel suchen ...

aber ich hoffe hier mit ist dir schon ein bissel weiter geholfen ...

kenny

------------------

-------------------------

linux... aber sicher ;)

Geschrieben

...die Seiten sind alle unter der selben Domain zu finden.

Das Problem liegt wohl wo anders, aber hauptsache ich hab schon mal das Programm. Jetzt ist erst mal Wochenende... ich probiers am Montag nochmal.

Thanks.

Geschrieben

Mit ein paar Tricks und nem ordentlichen Progg ist das bestimmt irgendwie möglich, aber ich hoffe du hast ne große Festplatte, oder ein schnelles Gerät, das nebenbei sichert!!! biggrin.gif

------------------

Bis dann, Ciao!

TG

Geschrieben

Mein Tipp:

www.tucows.de

--> HTTP-Weazel

Damit hab ich bisher noch jede Site gesaugt (auch .asp usw).

.zip oder .exe kann man ausgrenzen, cie Verzeichnisstiefe angeben, man bekommt eine gute Übersicht über alle Files die hinter der URL Stecken usw.

Probiers einfach mal aus.

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...