KimH Geschrieben 3. März 2004 Teilen Geschrieben 3. März 2004 Hallo Leute! Habe heute einen Squid unter SuSE Linux 9.0 aufgesetzt. Mein Problem ist, dass er untere Ebenen von Internetseiten nicht auflösen kann. Beispiel: http://www.fachinformatiker.de funktioniert! http://www.fachinformatiker.de/zms/content/e16 funktioniert! http://www.fachinformatiker.de/zms/content/e418/index_ger.html funktioniert! http://forum.fachinformatiker.de/ funktioniert! http://forum.fachinformatiker.de/forumdisplay.php?s=&forumid=10 funktioniert nicht !!! http://www.gmx.de funktioniert! http://www24.gmx.net/de/cgi/login/home//178/kinodvd?LANG=de&AREA=filmmusik_hdrhappytoys funktioniert nicht !!! Hat jemand eine Idee, woran das liegen könnte? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
rsc Geschrieben 3. März 2004 Teilen Geschrieben 3. März 2004 Guck deine squid.conf mal durch, vermutlich ist dns_nameservers 194.25.2.131 194.25.2.132 o.ä. nicht gesetzt, das verursacht dann immer wieder Ausfälle, wenn das System nicht schnell genug auflöst. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 4. März 2004 Autor Teilen Geschrieben 4. März 2004 Das hat leider nicht geholfen... Es gibt immer noch die gleichen Probleme! Vorschlag von einem Kollegen war, einen DNS auf dem Squid selber zu installieren. Bei ihm hat es dann funktioniert. Was haltet ihr davon? Vor allem verstehe ich das nicht, weil es in der Schule auch einwandfrei geklappt hat... Ohne irgendeinen schnickschnack... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
rsc Geschrieben 4. März 2004 Teilen Geschrieben 4. März 2004 Ein lokaler DNS (reicht ja caching bzw. forwarder) ist immer von Vorteil, allerdings dann wäre es trotzdem empfehlenswert, dass du in der squid.conf die 127.0.0.1 auch in der resolv.conf einträgst. In der Schule hast du aber bestimmt auch kein SuSE Linux 9, oder? ;-) Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 4. März 2004 Autor Teilen Geschrieben 4. März 2004 Original geschrieben von rsc In der Schule hast du aber bestimmt auch kein SuSE Linux 9, oder? ;-) Stimmt... Das war 8.1... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
rsc Geschrieben 4. März 2004 Teilen Geschrieben 4. März 2004 Ob du es mir jetzt glaubst oder net: SuSE Linux 9 hat irgendwie viele Macken und Mucken, das mit dem DNS hab ich bisher nur von exakt der Version gehört *lol* Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 4. März 2004 Autor Teilen Geschrieben 4. März 2004 Also, das hat auch nicht geholfen... Ich fürchte, dass ich den Squid neu compilieren muss... Mit den Optionen --enable-ssl und --disable-internal-dns... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 10. März 2004 Autor Teilen Geschrieben 10. März 2004 Mein Squid läuft immer noch nicht... Bekomme weiterhin diese Fehlermeldung auf besagten Seiten... The requested URL could not be retrieved -------------------------------------------------------------------------------- While trying to retrieve the URL: http://www10.gmx.net/de/cgi/login The following error was encountered: Unable to determine IP address from host name for www10.gmx.net The dnsserver returned: Name Error: The domain name does not exist. This means that: The cache was not able to resolve the hostname presented in the URL. Check if the address is correct. -------------------------------------------------------------------------------- Hat nicht vielleicht noch irgendjemand eine Idee?? So langsam treibt mich das in den Wahnsinn... :eek: Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Ibanez Geschrieben 10. März 2004 Teilen Geschrieben 10. März 2004 - Was steht denn momentan in der /etc/resolv ? - Setzt du jetzt einen Caching DNS ein? - Nutzt der DNS Server die ISP DNS Server? - Aktuellste DNS Rootserver Listen auf dem System? - Nutzt Squid den richtigen DNS Server? - Funktioniert die Auflösung vom Squid Rechner aus? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 12. März 2004 Autor Teilen Geschrieben 12. März 2004 - Was steht denn momentan in der /etc/resolv ? nameserver 127.0.0.1 - Setzt du jetzt einen Caching DNS ein? Ja, es ist ein "Caching-only-DNS". - Nutzt der DNS Server die ISP DNS Server? An meinem DNS-Serverist der ISP-DNS-Server als Forwarder eingetragen. - Aktuellste DNS Rootserver Listen auf dem System? Können wir nicht nutzen, da wir hinter einer Firewall sitzen, die wir selbst nicht konfigurieren können. - Nutzt Squid den richtigen DNS Server? Ja das hoffe ich doch. - Funktioniert die Auflösung vom Squid Rechner aus? Ein nslookup ins Intranet funktioniert. Eine ins Internet wird durch die Firewall geblockt. Hilft das irgendwie weiter? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 12. März 2004 Autor Teilen Geschrieben 12. März 2004 Der Fehler scheint jetzt eingekreist! Sobald ich eine URL aufrufen will, die ein '?' enthält, bricht er ab... Und zwar so: Ursprüngliche URL: http://forum.fachinformatiker.de/forumdisplay.php?s=&forumid=10 Auf der Fehlerseite steht dann jedoch: While trying to retrieve the URL: http://forum.fachinformatiker.de/forumdisplay.php? Er schneidet quasi hinter dem '?' die URL ab... Und das bei allen möglichen Seiten... Habe das schon min. 25 mal ausprobiert auf verschiedenen Webseiten... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Terran Marine Geschrieben 12. März 2004 Teilen Geschrieben 12. März 2004 Original geschrieben von KimH Der Fehler scheint jetzt eingekreist! Sobald ich eine URL aufrufen will, die ein '?' enthält, bricht er ab... Und zwar so: Ursprüngliche URL: http://forum.fachinformatiker.de/forumdisplay.php?s=&forumid=10 Auf der Fehlerseite steht dann jedoch: While trying to retrieve the URL: http://forum.fachinformatiker.de/forumdisplay.php? Er schneidet quasi hinter dem '?' die URL ab... Und das bei allen möglichen Seiten... Habe das schon min. 25 mal ausprobiert auf verschiedenen Webseiten... Hast du dir mal diesen Parameter angesehen : cache_stoplist cgi-bin ? Gruß Terran Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 12. März 2004 Autor Teilen Geschrieben 12. März 2004 Wo soll denn der Eintrag sein? :confused: Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Terran Marine Geschrieben 12. März 2004 Teilen Geschrieben 12. März 2004 Original geschrieben von KimH Wo soll denn der Eintrag sein? :confused: --- Ein wunder Punkt bei Caching Servern sind immer dynamisch generierte Seiten. Zwar bietet HTTP einige Möglichkeiten, solche Seiten als nicht cachebar zu markieren, aber nicht alle Server halten sich daran. Daher bietet Squid die Möglichkeit, bestimmte URLs (durch Substring (cache_stoplist) oder Regular Expression (cache_stoplist_pattern) identifiziert) nicht zu cachen. Defaultmäßig sind hier die Strings "cgi-bin" und "?" eingetragen. Diese Liste können Sie bei Bedarf erweitern (".cgi", ".shtml" und ".asp" wären gute Kandidaten), oder völlig löschen, wenn Sie sich darauf verlassen, daß sich die Server an die Spielregeln halten (was die meisten ohnehin tun), und so möglicherweise etwas Performance gewinnen wollen. --- Falls nicht gesetzt, eventuell ein Standardparameter, auf den ersten Blick, würde ich sagen, das dort das Problem liegen könnte. Gruß Terran Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
KimH Geschrieben 12. März 2004 Autor Teilen Geschrieben 12. März 2004 :marine Es funktioniert (fast)!!! Musste den Eintrag hierarchy_stoplist cgi-bin ? auskommentieren, da diese Seiten auch vom Eltern-Proxy geholt werden müssen (bei uns). Jetzt hab ich nur noch Probleme mit Seiten, die einen '_' beinhalten... Habe da auch schon einen Ansatz für eine Lösung, jedoch müsste ich den Squid dafür neu compilieren. Hat jemand vielleicht eine Lösung, ohne Compilierung?? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Terran Marine Geschrieben 12. März 2004 Teilen Geschrieben 12. März 2004 Original geschrieben von KimH :marine Es funktioniert (fast)!!! Jetzt hab ich nur noch Probleme mit Seiten, die einen '_' beinhalten... Habe da auch schon einen Ansatz für eine Lösung, jedoch müsste ich den Squid dafür neu compilieren. Hat jemand vielleicht eine Lösung, ohne Compilierung?? Schön, hat mein Ansatz ja sogar was gebracht, die andere Frage, leider keine Ahnung. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.