Net-srac Geschrieben 6. März 2003 Geschrieben 6. März 2003 Hallo, ich hab mal ne grundlegende Frage zu der BZ2 Komprimierung. Wir haben hier ein BS2000 Mainframe, das intern alles über den EBCDIC Zeichensatz bearbeitet. Nun wollte ich auf dieser Kiste in C den BZ2-Zip Algorithmus implementieren, den ich hier gefunden hab. Die Implementierung hab ich jetzt fertig. Ich benutze auch eigene Ausführungen von alloc und free. Soweit so gut, nur das mein Algorithmus mir einen völlig anderen Komprimierten String erstellt, als auf meinem Windows System. Ich bin nicht so fit in dem Algorithmus, daher würd es mich mal Interessieren ob es an dem EBCDIC Zeichensatz liegen kann, das der EingabeString nicht ordentlich aufgelößt werden kann?? Danke für die Infos...
Klotzkopp Geschrieben 6. März 2003 Geschrieben 6. März 2003 Fütterst du den Algorithmus mit dem gleichen Text oder mit den gleichen Binärdaten? Wenn die gleichen Texte auf dem Windows-System und dem BS2000 unterschiedlich codiert werden (sprich: unterschiedliche Zeichensätze), ist es normal, dass bei der Kompression etwas anderes herauskommt.
Net-srac Geschrieben 6. März 2003 Autor Geschrieben 6. März 2003 Also, ich geb ihm in beiden Fällen den gleichen String. Unter BS2000 ist er halt nur in EBCDIC codiert. Was mich aber wundert, unter Windows macht er aus 15 Byte 3Byte und unter BS2 "komprimiert" er die 15 Byte zu !50! Byte....
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden