Net-srac Geschrieben 6. März 2003 Geschrieben 6. März 2003 Hallo, ich hab mal ne grundlegende Frage zu der BZ2 Komprimierung. Wir haben hier ein BS2000 Mainframe, das intern alles über den EBCDIC Zeichensatz bearbeitet. Nun wollte ich auf dieser Kiste in C den BZ2-Zip Algorithmus implementieren, den ich hier gefunden hab. Die Implementierung hab ich jetzt fertig. Ich benutze auch eigene Ausführungen von alloc und free. Soweit so gut, nur das mein Algorithmus mir einen völlig anderen Komprimierten String erstellt, als auf meinem Windows System. Ich bin nicht so fit in dem Algorithmus, daher würd es mich mal Interessieren ob es an dem EBCDIC Zeichensatz liegen kann, das der EingabeString nicht ordentlich aufgelößt werden kann?? Danke für die Infos... Zitieren
Klotzkopp Geschrieben 6. März 2003 Geschrieben 6. März 2003 Fütterst du den Algorithmus mit dem gleichen Text oder mit den gleichen Binärdaten? Wenn die gleichen Texte auf dem Windows-System und dem BS2000 unterschiedlich codiert werden (sprich: unterschiedliche Zeichensätze), ist es normal, dass bei der Kompression etwas anderes herauskommt. Zitieren
Net-srac Geschrieben 6. März 2003 Autor Geschrieben 6. März 2003 Also, ich geb ihm in beiden Fällen den gleichen String. Unter BS2000 ist er halt nur in EBCDIC codiert. Was mich aber wundert, unter Windows macht er aus 15 Byte 3Byte und unter BS2 "komprimiert" er die 15 Byte zu !50! Byte.... Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.