Zum Inhalt springen

Empfohlene Beiträge

Geschrieben

Hallo zusammen,

auf nem SuSE-Rootserver gibt es ein Verzeichnis in dem Daten temporär abgelegt werden. Eine Routine liest das Verzeichnis aus und läuft Datei für Datei durch und "tut was damit". Nun trat ein Problem auf wenn mehr als 3000 Files in dem Verzeichnis abgelegt sind. Meine PHP-Function warf irgendwann einen Fehler das Files nicht mehr eingelesen werden können. Ich bin noch mitten am test- Details folgen.

Jetzt schon mal vorab, womit könnte das zusammenhängen?

Linux hat soviel ich weiß ein Kapazitätslimit, dass liegt aber irgendwo bei 3700 ??

Könnte es auch mit dem (Apache/PHP) memory_limit zusammenhängen? Das Verzeichnis wird ausgelesen und deren Inhalt in einem Array abgelegt.

Was denkt ihr?

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...