Wie Kürze ich einen base64-string?
Was ist der einfachste Weg zu verkürzen, ein base-64-Zeichenfolge. e.g
PHJkZjpEZXNjcmlwdGlvbiByZGY6YWJvdXQ9IiIKICAgICAgICAgICAgeG1sbnM6eG1wPSJodHRwOi8v
Habe ich gerade gelernt, wie das konvertieren von binary base64. Wenn ich mich nicht Irre, Gruppen von 24 Bits sind gemacht, und Gruppen von 6bits werden verwendet, um die 64 Zeichen A-Z a-z 0-9 +/
Ich Frage mich, ist es möglich, weiter zu verkleinern, eine base-64-Zeichenfolge, und es kleiner machen; ich war in der Hoffnung zu verringern, ein 100 Zeichen der base64-Zeichenfolge an, die 20 oder weniger Zeichen.
AFAIK ist Es unmöglich, zu schrumpfen, die eine base64-code.
Kurze Antwort, nicht geht/keinen Sinn macht.
Kurze Antwort, nicht geht/keinen Sinn macht.
InformationsquelleAutor BrianBeaven | 2013-09-11
Du musst angemeldet sein, um einen Kommentar abzugeben.
Einem 100-Zeichen der base64-Zeichenfolge enthält 600 bits von Informationen. Einen base64-string enthält 6 bits in jedem Zeichen und erfordert 100 Zeichen zur Darstellung Ihrer Daten. Es ist kodiert in US-ASCII (per definition) und beschrieben in RFC 4648. Dies ist, um die Darstellung Ihrer Daten in 20 Zeichen, die Sie benötigen 30 bits in jedem Zeichen (600/20).
In eine erfundene Mode, mit einer sehr großen Unicode-mapping, wäre es möglich machen eine vereinheitlichte CJK-Schrift, aber es wäre immer noch das minimum von etwa 40 Glyphen (~75 bytes) zur Darstellung der Daten. Es wäre auch wirklich schwierig zu Debuggen die Codierung und wirklich anfällig für Fehlinterpretationen. Ferner wird der Zweck der base64-Codierung ist eine Darstellung, die nicht zerstört, gebrochen-intermediate-Systeme. Dies würde sehr wahrscheinlich nicht mit so etwas obskures wie ein base2Billion Codierung.
present a representation that is not destroyed by broken intermediate systems
: dies ist falsch. Es hat nichts zu tun mit zwischen-systems gebrochen, und alles, was mit besagter Systeme nicht entworfen, um zu akzeptieren, binären Daten in den ersten Platz. Weitere, die "30 bits pro Zeichen" und "große unicode-mapping" - Zeug ist einfach nur verwirrend das Problem. Ein system kann nicht akzeptieren, die Daten in der Codierung, die Sie haben (mit binären), so dass Sie haben, um ihm einige Codierung kann es akzeptieren.Viel software Exponate von Fehlern und Erhöhung der Komplexität der Codierung einfach, macht mehr Fehler. Ich war einfach die Beobachtung, dass, während die Einführung eine dichtere Zuordnung erfordert weniger 'Zeichen', die tatsächliche Menge der Daten ist nicht besser, und die zusätzliche Komplexität einer fringe-Codierung wird wahrscheinlich im Sumpf irgendwelche anderen Vorteile.
InformationsquelleAutor Pekka