cargo Geschrieben 22. Februar 2005 Teilen Geschrieben 22. Februar 2005 Hallo, ich habe Bandbreiten Schwirigkeiten über Proxy Datien runter zu laden, wenn ich auf dem Rechner etwas runterlade auf dem Squid installiert ist bekomme ich bei der gleichen Datei eine Bandbreite von 300kB/sec bis 250kB/sec. Wenn ich was über den Squid auf einem Netzwerk Rechner runterlade bekomme ich eine Bandbreite von 116kB/sec->40kB/s->20kB/s->17kB/s. Wenn ich von den gleichen Rechner im Netzwerk die gleiche Datei direkt runterlade bekomme ich eine Bandbreite von von 300kB/sec bis 250kB/sec. Irgend eine Schraube ist falsch konfiguriert aber ich finde sie nicht. Kann mir jemand sagen wo ich in der squid Einstellung die Schrauber finden kann um gleiche Bandbreiter beim runterladen zu bekommen ? Gruß cargo Anbei schicke ich Informationen wie df, free, ps, mii-tool, squid –v und cat squid.conf, von den Rechner wo Squid installiert ist. # df Dateisystem 1K-Blöcke Benutzt Verfügbar Ben% Eingehängt auf /dev/sda8 45058776 478596 42291324 2% / /dev/sda1 101089 9452 86418 10% /boot /dev/sda5 10080488 52660 9515760 1% /cache none 256920 0 256920 0% /dev/shm /dev/sda6 1004024 21248 931772 3% /tmp /dev/sda2 10080520 76016 9492436 1% /var /dev/sda3 10080520 35372 9533080 1% /var/log # free -lm total used free shared buffers cached Mem: 501 252 249 0 104 53 Low: 501 252 249 0 0 0 High: 0 0 0 0 0 0 -/+ buffers/cache: 94 407 Swap: 509 0 509 # ps -eo pid,user,args,%mem --sort %mem PID USER COMMAND %MEM 1 root init 0.0 2 root [keventd] 0.0 3 root [ksoftirqd_CPU0] 0.0 8 root [bdflush] 0.0 4 root [kswapd] 0.0 5 root [kscand/DMA] 0.0 6 root [kscand/Normal] 0.0 7 root [kscand/HighMem] 0.0 9 root [kupdated] 0.0 10 root [mdrecoveryd] 0.0 16 root [scsi_eh_0] 0.0 19 root [kjournald] 0.0 78 root [khubd] 0.0 1176 root [kjournald] 0.0 1177 root [kjournald] 0.0 1178 root [kjournald] 0.0 1179 root [kjournald] 0.0 1180 root [kjournald] 0.0 1426 root syslogd -m 0 0.1 1430 root klogd -x 0.0 1448 rpc [portmap] 0.1 1486 root /usr/sbin/sshd 0.2 1500 root xinetd -stayaliv 0.1 1510 amavis [amavisd] 5.1 1583 root [master] 0.2 1593 postfix [nqmgr] 0.2 1594 root /usr/bin/spamd - 3.4 1603 root crond 0.1 1630 daemon [atd] 0.1 1640 root /usr/bin/perl /u 1.2 1643 root /sbin/mingetty t 0.0 1644 root /sbin/mingetty t 0.0 1645 root /sbin/mingetty t 0.0 1646 root /sbin/mingetty t 0.0 1647 root /sbin/mingetty t 0.0 1648 root /sbin/mingetty t 0.0 1968 root squid -D 0.3 1971 squid [squid] 1.6 1972 squid (unlinkd) 0.0 4014 amavis [amavisd] 5.2 4024 amavis [amavisd] 5.2 4221 postfix [pickup] 0.2 4230 root /usr/sbin/sshd 0.4 4232 root -bash 0.2 4280 root ps -eo pid,user, 0.1 [root@marsala root]# # mii-tool -v eth0: negotiated 100baseTx-FD flow-control, link ok product info: vendor 00:08:18, model 22 rev 2 basic mode: autonegotiation enabled basic status: autonegotiation complete, link ok capabilities: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD advertising: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD flow-control link partner: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD flow-control # squid -v Squid Cache: Version 2.5.STABLE1 configure options: --host=i386-redhat-linux --build=i386-redhat-linux --target=i386-redhat-linux-gnu --program-prefix= --prefix=/usr --exec-prefix=/usr --bindir=/usr/bin --sbindir=/usr/sbin --sysconfdir=/etc --datadir=/usr/share --includedir=/usr/include --libdir=/usr/lib --libexecdir=/usr/libexec --localstatedir=/var --sharedstatedir=/usr/com --mandir=/usr/share/man --infodir=/usr/share/info --exec_prefix=/usr --bindir=/usr/sbin --libexecdir=/usr/lib/squid --localstatedir=/var --sysconfdir=/etc/squid --enable-poll --enable-snmp --enable-removal-policies=heap,lru --enable-storeio=aufs,coss,diskd,ufs --enable-ssl --with-openssl=/usr/kerberos --enable-delay-pools --enable-linux-netfilter --with-pthreads --enable-basic-auth-helpers=LDAP,NCSA,PAM,SMB,SASL,MSNT --enable-ntlm-auth-helpers=SMB,winbind --enable-external-acl-helpers=ip_user,ldap_group,unix_group,wbinfo_group,winbind_group # cat squid.conf | grep -Ev "^#" >> squid.conf.ohne.Kommentare hierarchy_stoplist cgi-bin ? acl QUERY urlpath_regex cgi-bin \? no_cache deny QUERY auth_param basic children 5 auth_param basic realm Squid proxy-caching web server auth_param basic credentialsttl 2 hours refresh_pattern ^ftp: 1440 20% 10080 refresh_pattern ^gopher: 1440 0% 1440 refresh_pattern . 0 20% 4320 acl all src 0.0.0.0/0.0.0.0 acl manager proto cache_object acl localhost src 127.0.0.1/255.255.255.255 acl to_localhost dst 127.0.0.0/8 acl SSL_ports port 443 563 acl Safe_ports port 80 # http acl Safe_ports port 21 # ftp acl Safe_ports port 443 563 # https, snews acl Safe_ports port 70 # gopher acl Safe_ports port 210 # wais acl Safe_ports port 1025-65535 # unregistered ports acl Safe_ports port 280 # http-mgmt acl Safe_ports port 488 # gss-http acl Safe_ports port 591 # filemaker acl Safe_ports port 777 # multiling http acl CONNECT method CONNECT acl ElsterFormular port 8000 http_access allow all http_access deny manager http_access deny !Safe_ports http_access deny CONNECT !SSL_ports http_access allow localhost http_access deny all http_reply_access allow all icp_access allow all coredump_dir /var/spool/squid cache_dir ufs /cache 1000 16 256 cache_effective_user squid cache_effective_group squid visible_hostname proxy Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
dr.disk Geschrieben 24. Februar 2005 Teilen Geschrieben 24. Februar 2005 Squid ist nunmal etwas langsamer wie der direkte Download. Ich glaube nicht, dass es Probleme in der Konfig von Squid gibt. Von der Bandbreite mal abgesehen: wieviel dauert der Download länger über Squid als der direkte Download?Wie sieht den die Systemlast und Speicherauslastung während des Downloads mit Squid aus?Auf der Maschine läuft auch ein Amavis: könnte es sein, dass der Download durch das Scannen von Viren in Mails gebremst wurde bzw. das gerade eine große Mail empfangen wurde? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.