Unicode-Kodierungs-Konvertierungstool
Häufig gestellte Fragen
Was ist Unicode?
Unicode ist ein universeller Zeichenkodierungsstandard, der jedem Zeichen einen eindeutigen Code zuweist, unabhängig von Plattform, Programm oder Sprache.
Warum ist Unicode wichtig?
Unicode sorgt für konsistente Kodierung, Darstellung und Verarbeitung von Text, ermöglicht nahtlose Kommunikation und Datenaustausch über verschiedene Systeme und Sprachen hinweg.
Wie verwende ich Unicode?
Sie können Unicode verwenden, indem Sie in Ihren Anwendungen auf Codepunkte verweisen oder Werkzeuge nutzen, die Unicode-Kodierung unterstützen.
Wie funktioniert Unicode?
Unicode weist jedem Zeichen einen eindeutigen numerischen Wert zu, einen sogenannten Codepunkt. Diese Codepunkte werden im Format "U+XXXX" geschrieben, wobei "XXXX" eine Hexadezimalzahl ist. Der Codepunkt für den Buchstaben "A" ist beispielsweise U+0041.
Was sind Unicode-Blöcke?
Unicode organisiert Zeichen in Blöcken basierend auf ihren Schriften oder ihrer Verwendung. Der Block "Basic Latin" enthält beispielsweise Zeichen, die im Englischen verwendet werden, während der Block "CJK Unified Ideographs" chinesische, japanische und koreanische Zeichen enthält.
Was ist UTF-8 und wie hängt es mit Unicode zusammen?
UTF-8 ist eine Zeichenkodierung mit variabler Länge für Unicode. Es kodiert jedes Unicode-Zeichen als ein bis vier Bytes, was es effizient für Text macht, der hauptsächlich ASCII-Zeichen verwendet, während es alle Unicode-Zeichen unterstützt.
Wie konvertiert man Text in verschiedenen Programmiersprachen in Unicode?
Hier sind Beispiele für die Konvertierung von Text in Unicode in verschiedenen Programmiersprachen.
Java
String text = "A";
String unicode = String.format("\\u%04x", (int) text.charAt(0));
System.out.println(unicode); // Output: \u0041
PHP
$text = "A";
$unicode = sprintf("\\u%04x", ord($text));
echo $unicode; // Output: \u0041
Go
package main
import (
"fmt"
)
func main() {
text := "A"
unicode := fmt.Sprintf("\\u%04x", text[0])
fmt.Println(unicode) // Output: \u0041
}
C
#include <stdio.h>
int main() {
char text = 'A';
printf("\\u%04x\\n", text); // Output: \u0041
return 0;
}
JavaScript
const text = "A";
const unicode = "\\u" + text.charCodeAt(0).toString(16).padStart(4, "0");
console.log(unicode); // Output: \u0041
TypeScript
const text: string = "A";
const unicode: string = "\\u" + text.charCodeAt(0).toString(16).padStart(4, "0");
console.log(unicode); // Output: \u0041
Python
text = "A"
unicode = f"\\u{ord(text):04x}"
print(unicode) # Output: \u0041