SatansEier Geschrieben 15. Juni 2009 Teilen Geschrieben 15. Juni 2009 Hallo zusammen, auf nem SuSE-Rootserver gibt es ein Verzeichnis in dem Daten temporär abgelegt werden. Eine Routine liest das Verzeichnis aus und läuft Datei für Datei durch und "tut was damit". Nun trat ein Problem auf wenn mehr als 3000 Files in dem Verzeichnis abgelegt sind. Meine PHP-Function warf irgendwann einen Fehler das Files nicht mehr eingelesen werden können. Ich bin noch mitten am test- Details folgen. Jetzt schon mal vorab, womit könnte das zusammenhängen? Linux hat soviel ich weiß ein Kapazitätslimit, dass liegt aber irgendwo bei 3700 ?? Könnte es auch mit dem (Apache/PHP) memory_limit zusammenhängen? Das Verzeichnis wird ausgelesen und deren Inhalt in einem Array abgelegt. Was denkt ihr? Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
T3D Geschrieben 15. Juni 2009 Teilen Geschrieben 15. Juni 2009 Die beiden Sachen könnten dir weiterhelfen set_time_limit(1000); ini_set("memory_limit", "128M"); [/PHP] Ted Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.