MCTimotheus18 Geschrieben 3. Juni 2005 Teilen Geschrieben 3. Juni 2005 Hallo Leute, ich habe folgende Robots.txt programmiert: User-agent: EmailCollector Disallow: / User-agent: * Allow: / Kann ich das so machen muss ich jeden einzelnen Spider erwähnen, da ich ja auch den EmailCollector ausschließe, jedoch unten ALLEN alles erlaube. Wiederspricht sich hier was? Wenn ja bitte um Korrektur :-) Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
MCTimotheus18 Geschrieben 13. Juni 2005 Autor Teilen Geschrieben 13. Juni 2005 Kann mir denn keiner hier helfen ? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
SNOWMAN Geschrieben 13. Juni 2005 Teilen Geschrieben 13. Juni 2005 ich weiß nicht ob das geht, aber hat die robots.txt sowas wie allow, deny reihenfolgen? also ich kenn halt von der apache-conf das ich mit dieser reihenfolge festlegen kann was mehr zählt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
geloescht_JesterDay Geschrieben 13. Juni 2005 Teilen Geschrieben 13. Juni 2005 1. es gibt kein Allow in der robots.txt 2. gibt es eine Boardsuche http://forum.fachinformatiker.de/showthread.php?t=77237&highlight=robots.txt Da findest du auch ganz unten einen Link. EDIT: "This example "/robots.txt" file specifies that no robots should visit any URL starting with "/cyberworld/map/", except the robot called "cybermapper":" # robots.txt for http://www.example.com/ User-agent: * Disallow: /cyberworld/map/ # This is an infinite virtual URL space # Cybermapper knows where to go. User-agent: cybermapper Disallow: Das ist wohl das, was du suchst Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.