SimonLZ Geschrieben 8. Februar 2007 Geschrieben 8. Februar 2007 Hallo zusammen, ich möchte einen mit URLS gefüllten Array nach und nach an wget Prozesse übergeben. Das heißt ich forke solange, bis ich eine eingestellte Anzahl an Kindprozessen ereeicht habe. Diese Überwachung funktioniert auch und er erzeugt genau soviele wget aufrufe wie eingestellt. Also das gleichzeitige herunterladen von 5 verschiedenen Urls aus dem Array funktioniert. Nun möchte ich aber sobald ein Kindprozess beendet ist, den nächsten starten (wenn der array nocht nicht ganz durchgearbeitet ist). Das ganze sieht schematisch im Moment so aus: ##Variablen für parallele Downloads my @child_pids = (); my $max_childs = 2; for my $i (0..$#ini_data){ $c_childs = @child_pids; if($c_childs < max_childs) { #Erzeugen von Child-Prozessen $pid = fork(); #Child-Prozess Ablauf if($pid == 0) { WGET BEFEHL } else { push(@child_pids, $pid); } } } foreach(@child_pids) { waitpid($_, 0); } Hat hier jemand vl einen Vorschlag wie ich das lösen könnte? Alle meine Versuche mit while schleifen waren bisher umsonst Wäre euch echt dankbar! Gruß, Simon Zitieren
DevilDawn Geschrieben 8. Februar 2007 Geschrieben 8. Februar 2007 Das mag daran liegen das die foreach mit waitpid(PID,0) blockt. Dein Script steht also bis alle laufenden Prozesse fertig sind. Wie in der manpage solltest du also auf jedenfall use POSIX ":sys_wait_h"; und waitpid($foo,WNOHANG) nutzen. Das musst du natürlich dauernd Prüfen bis endlich mal eine fertig ist. Ungetestet: CHECK: for ($i=0;$k < $running_childs;$k++) { if (waitpid($child_pids[$k],WNOHANG)) { # Child done - remove from array and bail loop $running_childs--; splice(@child_pids,$k); last CHECK; } } Nur ne Idee. Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.