Wapmaster Geschrieben 11. Oktober 2000 Geschrieben 11. Oktober 2000 he leutz... in letzter zeit treffe ich oft auf webdownloader die garkeine sind. so übersprigt anawave z.b. bilder die in phtml file eingebunden sind, und andere programme ignorieren mp3s obwohl man sie expliziet angegeben hat. meine frage: hat es wohl sinn ein solche programm selbst mal zu schreiben? cya und thx für jedes comment Zitieren
lgenster Geschrieben 11. Oktober 2000 Geschrieben 11. Oktober 2000 wenn du mal eins programmiert hast, was wirklich funnzt mail es mir bitte zu Zitieren
Wapmaster Geschrieben 11. Oktober 2000 Autor Geschrieben 11. Oktober 2000 klar mach ich, musst mir nur deine mail addy sagen Zitieren
DevilDawn Geschrieben 11. Oktober 2000 Geschrieben 11. Oktober 2000 <BLOCKQUOTE><font size="1" face="Verdana, Arial, Helvetica">Zitat:</font><HR>Original erstellt von Wapmaster: in letzter zeit treffe ich oft auf webdownloader die garkeine sind. so übersprigt anawave z.b. bilder die in phtml file eingebunden sind, und andere programme ignorieren mp3s obwohl man sie expliziet angegeben hat. Zitieren
Wapmaster Geschrieben 11. Oktober 2000 Autor Geschrieben 11. Oktober 2000 hi, also ich verstehe was parsen ist und ich kann auch mit der robots.txt was anfagen. aber ich verstehe den zusammenhang nicht! und vor allem: warum sollte ich die robots.txt parsen, wenn da doch all meine probleme herkommen? ich frag mich gerade ob ich da vielleicht was nicht verstanden habe *fg Zitieren
echo Geschrieben 11. Oktober 2000 Geschrieben 11. Oktober 2000 ...also ich kann mit einer robots.txt nichts anfangen - wäre dankbar für eine info... Zitieren
Wapmaster Geschrieben 12. Oktober 2000 Autor Geschrieben 12. Oktober 2000 hmmm ich gebe die frage gerne weiter. ich kann mir zwar was drunter vorstellen, aber frag mich nicht wie ich'S erklären soll also leute, schraibt mal was Zitieren
DevilDawn Geschrieben 12. Oktober 2000 Geschrieben 12. Oktober 2000 Da es heute ja schon normal ist, das Spiders und Robots die Webseiten durchforsten, kann man per robots.txt festlegen auf was nicht von diesen Programmen zugegriffen werden soll. http://internet-tips.net/Advertising/robots.htm Zitieren
Wapmaster Geschrieben 12. Oktober 2000 Autor Geschrieben 12. Oktober 2000 aber das würde ja bedeuten dass internetseiten die nicht wollen das ich z.b. eine reihe von zip dateien downloade einfach nur so eine datei anlegen müssten mit dem richtigen inhalt und dann kann ich mein proggie in die tonne kloppen. ausser wenn ich es selbst progge und es die robots.txt irgnoriere, hab ich recht? cya Zitieren
Kindergarten.de Geschrieben 26. November 2000 Geschrieben 26. November 2000 Ich habe ganz gute erfahrungen für jede Art von Dateien mit SBWcc gemacht, wenn jemand was besseres kennt ... ) CU Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.