コンピューターはビットパターンを用いてさまざまなデータを表現する。文字も同様である。
学習目標¶
エンコードとデコードの概念を理解する
ASCIIコードの仕組みを理解する
Unicodeの概要を理解する
エンコードとデコード¶
文字をビットパターンで表現するには最も単純な方法は、各文字に対して一意のビットパターンを割り当てることである。
例えば,
| 文字 | ビットパターン |
|---|---|
| A | 0000 0001 |
| B | 0000 0010 |
| C | 0000 0011 |
このように、文字をビットパターンに変換することをエンコード(encode)、ビットパターンから文字に戻すことをデコード(decode)と呼ぶ。
エンコードとは、情報を暗号化・記号化すること。
デコードとは、暗号化・記号化された情報を元に戻すこと。
大辞林(第二版)
種類の文字を表現するには、を満たす最小の整数を見つければよい。これは、ビットのパターンを用いることで、種類の文字を表現できるはずである。
例えば、128種類の文字を表現するには、最小で7ビットが必要である。
ASCIIコード¶
ASCIIコードは、7ビットのパターンを用いて、128種類の文字を表現できる。
表現できるものは以下の通りである。
数字(0-9)
アルファベット(A-Z, a-z)
記号(! " など)
制御文字(改行、タブなど)
コンピューターで扱うビット数は通常2の累乗であるため、実際には8ビット(1バイト)を用いてASCIIコードを表現するこ。左側のビットは0で埋められ、右側の7ビットがASCIIコードを表す。
下記は「Hello!」をASCIIコードで表現したものの一例である。
| 文字 | ビットパターン | 10進数 |
|---|---|---|
| H | 0100 1000 | 72 |
| e | 0110 0101 | 101 |
| l | 0110 1100 | 108 |
| l | 0110 1100 | 108 |
| o | 0110 1111 | 111 |
| ! | 0010 0001 | 33 |
C言語では、文字はchar型で表現され、通常は1バイト(8ビット)を使用する。char型のデータを整数として出力すると、その文字のASCIIコードが表示される。
#include <stdio.h>
int main() {
char c = 'A';
printf("%d\n", c);
return 0;
}拡張ASCIIコード(Extended ASCII)では、8ビットを使用して256種類の文字を表現できる。
Unicode¶
Everyone in the world should be able to use their own language on phones and computers.
Unicode
世界中のあらゆる文字表現に対応するために作られたのがUnicodeである。現在、Unicodeは文字の国際標準として広く使用されている。
Code Point¶
Unicodeは、各文字に一意のcode pointを割り当てる。code pointは、U+で始まり、16進数で表現される。
下はUnicodeの一部の文字とそのcode pointを示す。
| 文字 | Code Point |
|---|---|
| A | U+0041 |
| あ | U+3042 |
| 😂 | U+1F602 |
| π | U+03C0 |
| 學 | U+5B78 |
| 👍 | U+1F44D |
| 🏿 | U+1F3FF |
ASCIIとの関係¶
Unicodeは、ASCIIの128文字(U+0000〜U+007F)をそのまま含んでいる。
エンコード¶
Unicodeは、文字を表現するためのさまざまなエンコーディング方式を提供している。標準的なエンコーディング方式には、UTF-8、UTF-16、UTF-32がある。この中では、UTF-8が最も広く使用されている。
UTF-32¶
UTF-32は、各文字を32ビット(4バイト)で表現する。code pointを4 byteのビットパターンに変換するだけである。
例えば、Aのcode pointはU+0041であり、UTF-32では次のように表現される。
0000 0000 0000 0000 0000 0000 0100 0001
英数字だけを扱う場合、UTF-32はASCIIコードの4倍のメモリを使う。例えば、ASCIIコードで「Hello!」を表現する場合は、各文字が1バイト(8ビット)で表現されるため、合計6バイトとなる。一方、UTF-32では各文字が4バイトで表現されるため、合計24バイトとなる。
UTF-8¶
| Code point | UTF-8 |
|---|---|
| U+0000 ~ U+007F | 0xxxxxxx |
| U+0080 ~ U+07FF | 110xxxxx 10xxxxxx |
| U+0800 ~ U+FFFF | 1110xxxx 10xxxxxx 10xxxxxx |
| U+010000 ~ U+10FFFF | 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx |
UTF-8は、Unicodeのcode pointを1〜4バイトで表現する可変長エンコーディング方式である。ASCIIコードと互換性があり、ASCIIコードの文字はそのまま1バイトで表現される。
例えば、「學」のcode pointはU+5B78であり、2進数で表すと0101 1011 0111 1000となる。また、U+5B78は U+0800 ~ U+FFFF の範囲にあるため、1110xxxx 10xxxxxx 10xxxxxxの形式で表現される。code pointのビットパターンをUTF-8に変換するには、xの部分にビットを埋めていく。
「學」のUTF-8エンコードは次のようになる。
1110 xxxx -> 1110 0101
10xx xxxx -> 1010 1101
10xx xxxx -> 1011 1000結果、UTF-8では次のように表現される。
11100101 10101101 10111000これを16進数で表すと、E5 AD B8となる。こちらにアクセスして、E5 AD B8をUTF-8でデコードしてみよう。
文字化け¶
文字データが正しく表示できず、意味のない文字列が表示される現象を文字化けと呼ぶ。これは、エンコードとデコードの方式が一致しない場合に発生する。
文字化けが発生した場合は、適切な文字コードを指定してデコードする必要がある。
調べてみよう メモ帳、VSCode、Wordでは、どのように文字コードを指定するかを調べてみよう。