Decodeunicode – das Buch der Zeichen ist da

Dieses Buch ist der Hammer … am Freitag vergan­gener Woche auf meinem Schreibtisch gelandet, musste ich am Wochenende immer wieder darin blät­tern, weil es mich magisch anzog. In einem Buch »blät­tern« bedeutet übli­cher­weise, seinen Inhalt mehr oder weniger (un)interessiert zu über­fliegen. Bei Decodeunicode ist das Blättern Teil des Systems, denn es ist erstens ein Nachschlagewerk und zwei­tens macht es das Universum Unicode physisch zugäng­lich. Immerhin sind auf 656 Seiten alle Schriftzeichen der Welt unter­ge­bracht, etwas genauer sind das 109.242 Zeichen.

Unicode ist ein inter­na­tio­naler Standard, in dem lang­fristig für jedes sinn­tra­gende Schriftzeichen oder Textelement aller bekannten Schriftkulturen und Zeichensysteme ein digi­taler Code fest­ge­legt wird. Das Ziel des Unicode Konsortiums ist, die Verwendung unter­schied­li­cher und inkom­pa­ti­bler Kodierungen in verschie­denen Ländern oder Kulturkreisen zu besei­tigen – also den Bauplan für den Turm zu Babel nach­zu­lie­fern. Unicode wird ständig um Zeichen weiterer Schriftsysteme ergänzt. 1991 wurde nach mehr­jäh­riger Entwicklungszeit die Version 1.0.0 des Unicode-Standards veröf­fent­licht, die damals nur die euro­päi­schen, nahöst­li­chen und indi­schen Schriften kodierte, alles in allem ein paar hundert Zeichen. Die neueste Version ist 6.0.0, veröf­fent­licht im Oktober 2010 und Basis für die über 100.000 in diesem Buch vorge­stellten Zeichen.

Die Autoren des Nachschlagewerks sind der Mainzer Professor Johannes Bergerhausen, dessen Unicode-Poster in vielen Typografie-Büros hängt (auch im FontShop, siehe Abbildung ganz unten), die Düsseldorfer Designerin Siri Poarangan (Beide Sprecher auf der kommenden TYPO Berlin 2011) sowie der Programmierer Daniel A. Becker. Gemeinsam mit Ihrem Verlag Hermann Schmidt Mainz ist es ihnen gelungen, den abstrakten Unicode-Kosmos erlebbar zu machen. Es klingt verblüf­fend, aber weder Poster noch Website (deco​de​u​ni​code​.org) konnten dies bis zuletzt leisten. Das Buch insze­niert den Kosmos der Schriftzeichen wie eine span­nende Kreuzfahrt – mit Farbigkeit, vorzüg­li­cher Navigation, verschie­denen Papiersorten, Zwischenseiten, Essays und Anhängen. Es glie­dert sich in die vier Kapitel Unicode (eine reich bebil­derte Einführung), Zeichentabellen (alle 109.242 Zeichen auf rund 550 Seiten netto), Schriftsysteme (inklu­sive aller 111 noch nicht im Unicode aufge­nom­menen Schriftsysteme) und Anhang.

Das Jahr ist zwar noch nicht zu Ende, aber für mich ist Decodeunicode schon jetzt so etwas wie das Buch des Jahres. Selbst wer sich nicht tagtäg­lich mit Sprachen und Zeichen beschäf­tigt bleibt sofort hängen an den liebe­voll gestal­teten Tabellen und Hintergrundberichten. Ich hoffe, dass die oben abge­bil­dete Leseprobe aus Issuu etwas von dem Zauber vermittelt.

Decodeunicode wird in einem geprägten Festeinband gelie­fert (wunderbar »ledrig« anzu­fassen) und kostet ange­mes­sene 68,– €. FontShop hat es sich schon aufs Lager gelegt, hier geht es zur Bestellung auf www​.font​blog​.de …


11 Kommentare

  1. Thomas Hühn

    Das ist natür­lich ein nettes Schmöker-Buch, aber eigent­lich verzerrt es den Blick auf Unicode in zwei­erlei Hinsicht:

    Zum einen stan­dar­di­siert Unicode eben nicht nur die Codepunkte (dafür kann man ja dann auch ISO 10646 nehmen), sondern baut eine riesige Maschinerie an Normalisierungen, Transferkodierungen und tausend anderen Dingen (sogar ganze Algorithmen) drumherum.

    Zum anderen fokus­siert das Buch eben aus offen­sicht­li­chen Gründen (eben „offen-sicht­lich“) auf die konkrete Ausgestaltung der Glyphen. Die wiederum sind explizit nicht durch die Unicode-Anstrengung erfaßt. Die Glyphen in den Tabellen sind stets nur Beispiele, ohne norma­tiven Anspruch.

    Trotzdem ein nettes Projekt.

  2. Plamen Tanovski

    A, wie ich gerade sehe, hat auch Unicode 6 keine (mit zwei alten Ausnahmen) akzen­tu­ierte kyril­li­sche Vokale. Das ist sehr schlimm und traurig. Aber Hauptsache Fähnchen schwenken am 24. Mai … Erst neulich musste ich für ein Russisch-Lehrbuch alle betonten Vokale über kombi­nierte diakr. Zeichen zusam­men­schus­tern. Tja, wie war der Spruch nochmal, jede Schriftgruppe verdient ihr Unicode, oder so. Wie hat de Groot eigent­lich die akz. kyr. Vokale in Corpid kodiert? Über den priv. Bereich?

  3. Thomas Kunz

    @ Thomas Hühn: Im Buch wird ausdrück­lich darauf hinge­wiesen, dass die Glyphen »kein norma­tiver Teil des Standards [sind]. Unicode codiert Zeichen, keine Glyphen.« Wen die Dinge inter­es­sieren, die du ansprichst, ist mit Jukka K. Korpela »Unicode – Explained« und Yannis Haralambous »Fonts & Encodings« (beide verlegt bei O’Reilly) gut beraten.

  4. Jens Kutílek

    wie ich gerade sehe, hat auch Unicode 6 keine (mit zwei alten Ausnahmen) akzen­tu­ierte kyril­li­sche Vokale. Das ist sehr schlimm und traurig. … Erst neulich musste ich für ein Russisch-Lehrbuch alle betonten Vokale über kombi­nierte diakr. Zeichen zusammenschustern.

    Das ist weder schlimm noch traurig, denn Unicode nimmt keine neuen Zeichen mehr auf, die durch Kombination von bereits kodierten Zeichen und die im Unicode defi­nierten Kompositionsregeln darstellbar sind. Daß über­haupt Akzentbuchstaben kodiert sind, ist der Kompatibilität mit histo­ri­schen Codepages geschuldet.

    Die Benutzung von Combining Diacritics ist also kein »Zusammenschustern«, sondern der vorge­se­hene Weg. Wenn das nicht richtig klappt, liegt das vermut­lich an mangelnder Unterstützung der Mark Positioning Features im benutzten Font oder Deines Satzprogramms.

  5. Plamen Tanovski

    Unicode nimmt keine neuen Zeichen mehr auf, die durch Kombination von bereits kodierten Zeichen und die im Unicode defi­nierten Kompositionsregeln darstellbar sind.

    O, das ist sogar noch trau­riger, sollte das stimmen. Offensichtlich sind dann manche Alphabete „glei­cher“ als andere. Aber ich glaube nicht, dass z.B. alle Zeichen aus „Latin Extended Additional“ in einer Kodierung früher exis­tiert haben.

    Die Benutzung von Combining Diacritics ist also kein »Zusammenschustern«, sondern der vorge­se­hene Weg.

    Schon mal Texte (beson­ders in WYSIWYG) mit kombi­nierten Zeichen bear­beitet? Es ist ein Kramf. Denn man muss immer aufpassen, gleich die beiden Zeichen (Vokal und Akzent) zu markieren/kopieren/löschen etc. Suchen und Ersetzen ist genauso umständ­lich, auch Trennprogramme versagen an solchen Stellen.

    Mark Positioning Features

    Nun, erstmal haben Qualitätsfonts verschie­dene Akzente für Groß- und Kleinbuchstaben. Unicode hat dagegen im komb. Block nur eine Sorte. Zweitens, auch wenn ich kein Schriftentwerfer bin, könnte ich mir vorstellen, dass Gravis und Akut unter­schied­lich plat­ziert werden müssen. Trotzdem vielen Dank für den Hinweis, dieses Feature kannte ich nicht. Welche Schriften haben über­haupt kyr. Vokale mit diesen Angaben? Ich habe jetzt PTSans und Calibri mit ttx nach XML konver­tiert und nach „mark“ oder „mkmk“ gesucht, aber nichts gefunden.

  6. Ralf Herrmann

    Schon mal Texte (beson­ders in WYSIWYG) mit kombi­nierten Zeichen bearbeitet? 

    Schon, aber das sind ja die Unzulänglichkeiten aktu­eller Satzprogramme. Da kann ja Unicode nix dafür. Letzteres »denkt« in viel größeren Dimensionen und es wäre schlimm, wenn man sich dabei den Unzulänglichkeiten der Programme von 2011 beugen würde.

  7. Plamen Tanovski

    Unzulänglichkeiten aktu­eller Satzprogramme. Da kann ja Unicode nix dafür.

    Andersrum gefragt: welche andere moderne Alphabete, die von zig Millionen Menschen geschrieben werden, sind nach Unicode gezwungen, Zeichen zu kombi­nieren?! Selbst das poly­to­ni­sche Altgriechisch, das von niemandem mehr geschi­reben wird (außer für wiss. Zwecke natür­lich), tropft nur so von akzen­tu­ierten Vokalen. 

    Aber wie gesagt, das Traurige ist eben, dass keiner aus dem kyr. Raum bei Unicode die Aufnahme dieser Zeichen bis jetzt bean­tragt hat. Zumindest habe ich nichts gefunden.

  8. Jens Kutílek

    Nun, erstmal haben Qualitätsfonts verschie­dene Akzente für Groß- und Kleinbuchstaben. Unicode hat dagegen im komb. Block nur eine Sorte.

    Weil, wie schon geschrieben, Unicode Zeichen kodiert und keine Glyphen. Den Austausch der Akzente durch passen­dere Formen kann der Entwerfer auf der Font-Ebene per OpenType-Layout program­mieren, davon muß die Zeichencodierungs-Ebene nichts wissen.

    Zweitens, auch wenn ich kein Schriftentwerfer bin, könnte ich mir vorstellen, dass Gravis und Akut unter­schied­lich plat­ziert werden müssen.

    Auch das ist möglich und nur durch den Fleiß des Entwerfers beschränkt ;) Die Angaben fürs Mark Positioning lassen sich beliebig fein differenzieren.

    Ich habe jetzt PTSans und Calibri mit ttx nach XML konver­tiert und nach “mark” oder “mkmk” gesucht, aber nichts gefunden.

    In der bei Windows 7 mitge­lie­ferten Calibri sind diese Features drin, in der GPOS-Tabelle soll­test Du die Feature-Tags mark und mkmk finden können.

  9. Dan Reynolds

    Andersrum gefragt: welche andere moderne Alphabete, die von zig Millionen Menschen geschrieben werden, sind nach Unicode gezwungen, Zeichen zu kombinieren?!

    Es kommt wahr­schein­lich viel häufiger vor, als du denkst. Zum Beispiel bei allen indi­schen Schreibsystemen ist es der Fall.

  10. Robin Scholz

    Das Buch! Hier geht es um das Buuuuuuuch!

  11. reparatii pc bucuresti

    Generally I don’t learn article on blogs, however I would like to
    say that this write-up very compelled me to take a look at and do so!
    Your writing taste has been surprised me.
    Thank you, quite nice article.

Kommentarfunktion ist deaktiviert.

<em>kursiv</em>   <strong>fett</strong>   <blockquote>Zitat</blockquote>
<a href="http://www…">Link</a>   <img src="http://bildadresse.jpg">