이 문서의 과거 버전 (r1)을 보고 있습니다. 수정일: 2026.02.25 20:09
유니코드는 전 세계의 모든 문자를 컴퓨터에서 일관되게 표현하고 다룰 수 있도록 설계된 국제 표준 코드 체계이다. 이전에는 서로 다른 문자 집합과 인코딩 방식이 혼재하여 다국어 텍스트 처리가 어려웠으나, 유니코드는 이러한 문제를 해결하기 위해 등장하였다. 유니코드 컨소시엄이 이 표준을 개발하고 관리하며, 1991년에 최초로 공표되었다.
유니코드의 핵심 목표는 모든 언어의 문자를 하나의 통합된 문자 집합으로 포괄하는 것이다. 이를 통해 소프트웨어의 국제화와 현지화를 용이하게 하며, 서로 다른 플랫폼, 프로그램, 국가 간에 텍스트 데이터를 원활하게 교환할 수 있는 기반을 제공한다. 주요 용도로는 다국어 텍스트 처리, 문자 인코딩 표준의 기반 역할, 그리고 이모지 지원 등이 있다.
유니코드는 고유한 코드 포인트를 각 문자에 할당하며, 이를 실제 비트 열로 변환하는 방식인 UTF-8, UTF-16, UTF-32와 같은 여러 인코딩 형식을 정의한다. 이 표준은 지속적으로 확장되어 새로운 문자와 기호, 특히 다양한 문화권의 문자 체계와 현대 커뮤니케이션에 필수적인 이모지를 추가하고 있다. 최신 버전은 2023년 9월에 공표된 유니코드 15.1이다.
유니코드의 역사는 1980년대 후반, 서로 다른 문자 인코딩 방식이 혼재하며 발생한 문제를 해결하기 위한 노력에서 시작된다. 당시 IBM, 애플, 마이크로소프트 등 주요 기술 기업들은 각기 다른 문자 집합을 사용했고, 특히 한자와 같은 대규모 문자 집합을 처리하는 데 어려움을 겪었다. 이러한 호환성 문제를 해결하고자 1988년, 제록스의 조 베커와 애플의 리 콜린스 등이 중심이 되어 통합 문자 체계를 위한 초기 작업을 시작했고, 이는 1991년에 유니코드 1.0이 공표되는 결과로 이어졌다. 최초 버전은 약 7,000개의 문자를 포함했으며, 주요 목표는 라틴 문자, 그리스 문자, 키릴 문자 등 현대 문자와 한자의 통합이었다.
초기 유니코드는 16비트로 모든 문자를 표현할 수 있다고 가정했으나, 곧 이 공간으로는 전 세계의 모든 역사적 문자와 기호를 수용하기에 부족하다는 사실이 드러났다. 이에 따라 1996년 유니코드 2.0이 발표되면서, 16비트 한계를 넘어서는 확장 메커니즘과 보조 평면 개념이 도입되었다. 이는 한자를 비롯한 수많은 추가 문자를 수용할 수 있는 토대를 마련했다. 또한 같은 시기에 ISO/IEC 10646 국제 표준과의 동기화 작업이 본격화되어, 유니코드는 사실상의 글로벌 표준으로 자리 잡게 되었다.
2000년대 이후 유니코드의 발전은 더욱 가속화되어, 소멸 위기의 고대 문자부터 현대의 이모지까지 지속적으로 문자를 추가해 왔다. 특히 2010년 유니코드 6.0에서 이모지가 공식적으로 표준에 포함된 것은 중요한 전환점이었다. 이로 인해 유니코드는 단순한 텍스트 처리 표준을 넘어 디지털 커뮤니케이션의 핵심 요소가 되었다. 유니코드 컨소시엄은 정기적인 버전 업데이트를 통해 새로운 문자와 기능을 추가하며, 최신 버전인 유니코드 15.1은 2023년 9월에 공표되었다.
유니코드의 핵심 개념은 코드 포인트와 문자 집합이다. 코드 포인트는 각 문자에 할당된 고유한 숫자 값으로, 일반적으로 'U+' 뒤에 16진수로 표현된다. 예를 들어, 라틴 문자 'A'는 U+0041, 한글 '가'는 U+AC00이다. 이 코드 포인트의 집합이 곧 유니코드 문자 집합을 구성하며, 이 집합은 전 세계의 모든 문자 체계를 포괄하는 것을 목표로 한다.
유니코드 표준은 이러한 코드 포인트를 실제 컴퓨터 데이터로 변환하는 방법, 즉 인코딩 방식을 별도로 정의한다. 가장 널리 쓰이는 인코딩 방식은 UTF-8과 UTF-16이다. UTF-8은 아스키와의 호환성이 뛰어나 인터넷과 유닉스 계열 시스템에서 주로 사용되며, UTF-16은 마이크로소프트 윈도우와 자바 환경에서 널리 채택되었다.
코드 포인트 공간은 0부터 10FFFF(16진수)까지 총 1,114,112개가 가능하며, 이 공간은 관리의 편의를 위해 16개의 평면으로 나뉜다. 가장 기본적인 평면은 0번 평면인 기본 다국어 평면으로, 대부분의 현대 문자와 기호가 이곳에 위치한다. 각 평면 내에서는 다시 관련 문자들이 모여 있는 블록으로 세분화되어 체계적으로 관리된다.
유니코드의 문자 집합을 실제 컴퓨터 시스템에서 저장하거나 전송하기 위해서는 바이트 단위의 인코딩 방식이 필요하다. 이를 위한 대표적인 문자 인코딩 방식이 UTF-8, UTF-16, UTF-32이다. 이들은 모두 같은 유니코드 코드 포인트를 표현하지만, 그 방식과 효율성이 다르다.
UTF-8은 가변 길이 인코딩으로, 1바이트에서 4바이트까지 사용한다. ASCII 문자는 1바이트로 표현되어 기존 시스템과의 호환성이 뛰어나며, 인터넷 프로토콜과 웹 페이지의 기본 인코딩으로 널리 채택되었다. UTF-16은 기본적으로 2바이트를 사용하지만, 특정 범위의 문자는 4바이트(서로게이트 페어)로 인코딩하는 가변 길이 방식이다. 마이크로소프트 윈도우와 자바 프로그래밍 언어 등에서 주로 사용된다. UTF-32는 모든 문자를 고정 4바이트로 표현하는 방식으로, 처리 속도는 빠르지만 저장 공간 효율성이 가장 낮아 일반적으로는 널리 사용되지 않는다.
응용 환경에 따라 적절한 인코딩을 선택한다. 웹과 유닉스 계열 시스템에서는 UTF-8이 사실상의 표준이다. 반면, 윈도우 API 내부나 자바스크립트 엔진의 문자열 표현에는 UTF-16이 흔히 사용된다. 이러한 다양한 인코딩 방식은 유니코드 표준의 일부로 정의되어 있으며, 서로 간의 변환이 가능하다는 점이 중요하다.
유니코드의 방대한 코드 공간은 논리적으로 구획되어 관리된다. 기본적인 구획 단위는 평면(Plane)이다. 하나의 평면은 65,536(2^16)개의 코드 포인트로 구성되며, 유니코드는 현재 17개의 평면(0번부터 16번까지)을 정의한다. 이 중 가장 중요한 것은 모든 현대 문자 대부분이 위치하는 0번 평면인 기본 다국어 평면(Basic Multilingual Plane, BMP)이다. 한글, 한자, 라틴 문자, 키릴 문자 등 일상적으로 가장 널리 쓰이는 문자들이 이 평면에 포함되어 있다. 그 외의 평면은 보조 평면(Supplementary Planes)으로 분류되며, 역사적 문자, 특수 기호, 그리고 대량의 이모지 등을 수용한다.
평면 내에서 문자들은 다시 기능이나 계통에 따라 블록(Block)으로 세분화된다. 하나의 블록은 연속된 코드 포인트 범위를 차지하며, 특정 스크립트(문자 체계)나 기호 집합을 할당한다. 예를 들어, 'Hangul Syllables' 블록에는 완성형 한글 음절이, 'CJK Unified Ideographs' 블록에는 통합 한자가 집중적으로 배당되어 있다. 블록 체계는 문자를 체계적으로 찾고 관리하는 데 유용하며, 폰트 제작자나 소프트웨어 개발자가 특정 언어나 기호 집합을 지원할 때 참조하는 기본 단위가 된다.
이러한 평면과 블록의 계층적 구조는 유니코드가 수십만 개의 문자를 체계적으로 수용하고 확장해 나가는 토대를 제공한다. 기본 다국어 평면의 공간이 포화되자, 유니코드 컨소시엄은 보조 평면을 활용하여 새로운 문자와 이모지를 지속적으로 추가해 왔다. 특히 이모지의 폭발적 수요는 여러 보조 평면에 걸쳐 전용 블록을 형성하는 결과를 낳았다. 이 구조는 과거 ASCII나 지역별 문자 인코딩이 겪었던 공간 부족과 호환성 문제를 근본적으로 해결한 설계라 할 수 있다.
유니코드의 핵심 설계 원칙 중 하나는 기존의 다양한 문자 인코딩 표준과의 호환성을 유지하면서 통합된 체계를 제공하는 것이다. 초기 컴퓨터 시스템들은 아스키나 EUC-KR, Shift_JIS와 같이 특정 언어나 지역에 국한된 독자적인 문자 집합을 사용했으며, 이로 인해 서로 다른 시스템 간에 텍스트를 교환할 때 문자가 깨지는 호환성 문제가 빈번히 발생했다. 유니코드는 이러한 수많은 기존 표준에 할당된 문자들을 포괄적으로 수용하여 하나의 통합된 코드 포인트에 매핑함으로써, 과거의 데이터와의 연결성을 보장한다.
이러한 통합 과정에서 특히 중요한 것은 한중일 통합 한자의 처리 방식이다. 중국어, 일본어, 한국어에서 사용되는 모양이 비슷하거나 동일한 수많은 한자를 각 언어별로 별도의 코드를 부여하는 대신, 하나의 공통 코드로 통합하여 관리한다. 이는 데이터의 중복을 방지하고 효율성을 높이지만, 동시에 특정 언어에서만 쓰이는 약간 다른 글자 형태를 표현해야 할 필요성도 인정하여, 유니코드 표준은 문자의 의미(의미소)를 코드로 정의하고, 실제 화면에 표시되는 모양(글리프)은 폰트와 렌더링 엔진이 처리하도록 구분한 문자 모델을 채택했다.
호환성 차원에서 유니코드는 아스키 코드와의 하위 호환성을 매우 중요하게 여긴다. 가장 널리 쓰이는 UTF-8 인코딩 방식은 첫 128개의 코드 포인트가 아스키와 완전히 동일한 값을 가지도록 설계되어 있다. 이는 순수한 영어 알파벳과 숫자, 기본 기호로 구성된 기존의 아스키 텍스트 파일이 별도의 변환 과정 없이 UTF-8 텍스트로도 정확히 읽힐 수 있음을 의미하며, 인터넷과 소프트웨어의 초기 전환기에 큰 장점으로 작용했다. 또한 유니코드 표준에는 과거 코드 페이지나 다른 표준과의 매핑을 위한 호환성용 문자 블록을 별도로 포함하고 있어, 레거시 시스템과의 데이터 호환을 지원한다.
유니코드의 가장 핵심적인 목표는 전 세계 모든 언어의 문자를 하나의 통일된 체계 안에서 지원하는 것이다. 이는 기존의 지역별 문자 인코딩 방식(예: 유럽의 ISO/IEC 8859, 한국의 완성형, 일본의 Shift_JIS 등)이 호환되지 않고 혼재함으로써 발생하는 문자 깨짐 문제를 근본적으로 해결하기 위한 것이다. 유니코드는 라틴 문자, 한글, 한자, 아랍 문자, 데바나가리 문자 등 현존하는 대부분의 문자 체계에 고유한 코드 포인트를 할당하여, 하나의 문서나 시스템 안에서 여러 언어의 텍스트를 자유롭게 혼용할 수 있는 기반을 마련했다.
이러한 다국어 지원은 단순히 현대 언어에 국한되지 않는다. 유니코드는 역사적 연구나 문화 보존을 위해 고대 문자와 사어의 문자들도 포함하고 있다. 예를 들어, 고대 이집트의 신성 문자와 민중 문자, 메소포타미아의 설형 문자, 고대 그리스의 여러 방언 문자 등이 코드 영역에 할당되어 있다. 또한, 수학 기호, 음악 기호, 점자와 같은 특수 기호 체계도 광범위하게 지원되어 학술 및 접근성 분야에서 중요한 역할을 한다.
다국어 텍스트의 올바른 표시와 처리를 위해서는 문자 인코딩뿐만 아니라 글리프 렌더링, 텍스트 레이아웃, 입력법 등 복잡한 문제가 수반된다. 특히 아랍어나 힌디어처럼 조합 문자를 사용하거나, 태국어나 티베트 문자처럼 복잡한 텍스트 셰이핑 규칙이 필요한 문자를 올바르게 표현하려면 운영체제와 응용 소프트웨어의 추가적인 지원이 필수적이다. 유니코드 표준은 이러한 복잡한 언어들의 처리를 위한 알고리즘과 데이터를 함께 정의함으로써, 소프트웨어 개발자가 일관된 다국어 기능을 구현할 수 있는 길을 제시한다.
유니코드 표준은 텍스트 문자뿐만 아니라 그림 문자인 이모지도 포함한다. 초기에는 일본의 이동통신 사업자들이 휴대전화에서 사용하던 그림 문자들을 호환 목적으로 유니코드에 포함시켰다. 이후 이모지는 스마트폰과 소셜 미디어의 급속한 보급과 함께 전 세계적으로 일상적인 디지털 커뮤니케이션의 핵심 요소로 자리 잡았다.
이모지는 유니코드 표준 내에서 일반 텍스트 문자와 동일한 방식으로 코드 포인트가 할당되며, UTF-8이나 UTF-16과 같은 표준 인코딩을 통해 저장 및 전송된다. 각 이모지 문자는 고유한 코드 포인트를 가지며, 표준에 따라 그 의미와 기본적인 모양이 정의된다. 예를 들어, "그림이 있는 문자"라는 의미의 일본어 '絵文字(えもじ)'에서 유래한 이모지는 단일 코드 포인트로 표현되는 기본 이모지, 여러 코드 포인트가 결합된 이모지 결합 시퀀스, 그리고 국기 이모지와 같은 특수한 조합으로 구성된다.
이모지의 실제 그래픽 표현, 즉 색상과 디자인은 유니코드 컨소시엄이 아닌 운영체제, 플랫폼, 애플리케이션 또는 글꼴 제작사에 따라 다르게 구현된다. 따라서 같은 이모지 코드 포인트라도 애플의 iOS, 구글의 안드로이드, 마이크로소프트의 윈도우 등 각 플랫폼에서 서로 다른 모습으로 사용자에게 보여진다. 유니코드 컨소시엄은 새로운 이모지의 제안, 검토, 표준화 과정을 관리하며, 사회적 요구와 사용 패턴을 반영하여 매년 새로운 이모지들을 표준에 추가하고 있다.
이모지의 표준화는 전 세계적으로 통일된 코드 체계를 제공함으로써 서로 다른 시스템 간에 그림 문자의 호환성을 보장하는 데 기여했다. 이를 통해 언어와 문화의 장벽을 넘어 시각적 감정과 개념을 빠르게 전달하는 보편적인 수단이 되었다. 오늘날 이모지는 단순한 장식이나 재미를 넘어, 현대 디지털 커뮤니케이션에서 없어서는 안 될 풍부한 표현 도구로 자리매김했다.
유니코드 컨소시엄은 유니코드 표준의 개발, 확장 및 관리를 담당하는 비영리 기구이다. 이 기구는 애플, 구글, 마이크로소프트, 아도비, IBM 등 주요 정보 기술 기업들과 개인, 교육 기관들이 회원으로 참여하고 있다. 컨소시엄의 주요 임무는 전 세계 모든 문자 체계를 하나의 통일된 코드 체계로 정의하고, 이를 지속적으로 발전시키며, 관련 표준과 데이터를 공개하는 것이다.
유니코드 컨소시엄은 ISO와 긴밀히 협력하여 국제 표준인 ISO/IEC 10646과 유니코드 표준을 기술적으로 동기화하고 있다. 이를 통해 유니코드는 사실상의 글로벌 문자 인코딩 표준으로 자리 잡았다. 컨소시엄은 새로운 문자나 이모지를 표준에 추가하기 위한 제안 절차를 운영하며, 각 제안은 언어학, 기술적 요구사항, 실제 사용 빈도 등을 종합적으로 검토한 후에 채택된다.
표준의 관리는 정기적인 버전 업데이트를 통해 이루어진다. 컨소시엄은 새로운 버전을 통해 수천 개의 새로운 문자와 기호를 추가하고, 기존 문자의 속성 정보를 보완하며, 알고리즘과 관련 구문 규칙을 개선한다. 이러한 작업은 공개된 코드 차트와 데이터베이스를 통해 투명하게 공개된다.
유니코드 표준은 지속적으로 발전하며, 새로운 버전이 주기적으로 공표된다. 각 버전은 새로운 문자나 이모지의 추가, 기존 문자의 속성 정비, 그리고 인코딩 방식이나 알고리즘에 대한 개선 사항을 포함한다. 버전 번호는 메이저 버전과 마이너 버전으로 구성되며, 예를 들어 유니코드 15.1에서 '15'는 메이저 버전, '.1'은 마이너 버전을 의미한다. 마이너 버전 업데이트는 일반적으로 새로운 문자의 추가 없이 오류 수정이나 명세 보완에 중점을 둔다.
새로운 버전의 공표는 유니코드 컨소시엄의 기술 위원회에서 논의와 검토를 거쳐 결정된다. 주요 메이저 버전 업데이트는 보통 1년에 한 번 정도의 주기로 이루어지며, 공표 전에는 초안이나 후보 버전이 공개되어 전문가 커뮤니티의 피드백을 받는다. 각 버전과 함께 해당 버전에서 추가된 문자의 전체 목록, 문자 속성 데이터베이스, 그리고 유니코드 표준 부속서와 같은 기술 보고서가 공개된다.
주요 버전 | 공표 연도 | 주요 특징 (예시) |
|---|---|---|
유니코드 1.0 | 1991년 | 최초 표준 공표 |
유니코드 2.0 | 1996년 | 한글 완성형 문자 대량 추가 |
유니코드 4.0 | 2003년 | 이모지 영역 할당 (기술 기호로) |
유니코드 6.0 | 2010년 | 스마트폰용 컬러 이모지 공식 지원 |
유니코드 15.1 | 2023년 | 149개 추가 문자, 주로 이모지 및 특수기호 |
버전 관리의 중요한 원칙은 하위 호환성을 유지하는 것이다. 즉, 한 번 할당된 코드 포인트와 그 기본 의미는 이후 버전에서 변경되거나 삭제되지 않는다. 이는 기존에 작성된 텍스트 데이터와 소프트웨어가 새로운 버전에서도 정상적으로 동작할 수 있도록 보장한다. 새로운 버전의 내용을 적용하기 위해서는 운영체제, 프로그래밍 언어의 표준 라이브러리, 폰트 등이 해당 버전을 지원하도록 업데이트되어야 한다.
유니코드는 현대 소프트웨어 및 운영체제의 텍스트 처리 체계의 근간을 이룬다. 초기 운영체제들은 종종 지역별로 서로 다른 문자 인코딩 체계를 사용했으나, 유니코드의 등장 이후 주요 운영체제들은 내부적으로 유니코드를 기본 문자 집합으로 채택하기 시작했다. 예를 들어, 마이크로소프트 윈도우는 윈도우 NT 계열부터 UTF-16 인코딩을 네이티브 형식으로 사용하며, 애플의 macOS와 iOS, 그리고 리눅스 및 안드로이드를 포함한 대부분의 유닉스 계열 시스템들은 UTF-8을 기본 인코딩으로 광범위하게 활용한다. 이로 인해 하나의 시스템에서 다양한 언어의 문서를 생성하고 편집하며 표시하는 것이 가능해졌다.
응용 소프트웨어의 개발에도 유니코드는 결정적인 영향을 미쳤다. 프로그래밍 언어와 소프트웨어 개발 키트(SDK)는 국제화와 현지화를 지원하기 위해 유니코드 기반의 문자열 데이터 타입과 라이브러리를 제공한다. 자바와 파이썬 3, C# 등의 현대 언어들은 기본 문자열 처리를 유니코드로 정의하여, 개발자가 별도의 인코딩 변환 없이도 다국어 애플리케이션을 보다 쉽게 작성할 수 있도록 했다. 또한 데이터베이스 관리 시스템과 웹 브라우저도 유니코드를 표준으로 지원함으로써, 글로벌 서비스의 데이터 저장과 표현을 일관되게 관리할 수 있는 기반을 마련했다.
운영체제/플랫폼 | 기본 또는 주요 유니코드 인코딩 | 비고 |
|---|---|---|
NT 커널 기반 시스템의 네이티브 형식 | ||
파일 시스템 및 API의 기본 인코딩 | ||
현대 배포판의 표준 로캘 설정 | ||
자바 및 네이티브 계층에서 사용 | ||
내부 문자열 표현 |
이러한 광범위한 채택은 소프트웨어 간의 호환성과 데이터 교환을 크게 향상시켰다. 사용자는 서로 다른 운영체제나 애플리케이션 간에 텍스트 파일을 주고받을 때, 과거처럼 글자가 깨지는 문제를 훨씬 덜 경험하게 되었다. 유니코드 표준을 준수하는 소프트웨어 생태계는 디지털 환경에서 언어 장벽을 낮추고, 글로벌 커뮤니케이션과 정보 접근성을 확대하는 데 기여하고 있다.
유니코드는 현대 웹의 근간을 이루는 핵심 기술이다. HTML과 XML 같은 웹 표준 언어들은 기본적으로 유니코드를 문자 집합으로 채택하고 있으며, UTF-8은 웹 페이지의 기본 문자 인코딩 방식으로 사실상의 표준이 되었다. 이로 인해 사용자는 서로 다른 언어와 문자가 혼합된 웹 페이지를 별도의 변환 과정 없이 자유롭게 볼 수 있게 되었고, 웹 개발자 역시 복잡한 코드 페이지 변환 문제에서 벗어나 전 세계 사용자를 대상으로 한 서비스를 보다 쉽게 구축할 수 있게 되었다.
데이터 교환 분야에서도 유니코드의 역할은 지대하다. JSON과 CSV와 같은 범용 데이터 형식은 물론, 데이터베이스 시스템과 API 간의 통신에서도 유니코드 기반 인코딩이 광범위하게 사용된다. 이는 시스템이나 플랫폼, 국가 간에 텍스트 데이터를 주고받을 때 발생할 수 있는 글자 깨짐이나 정보 손실 문제를 근본적으로 해결한다. 특히 글로벌 전자 상거래, 소셜 미디어, 클라우드 컴퓨팅 서비스에서는 다양한 언어권 사용자 생성 콘텐츠를 안정적으로 저장, 처리, 전송하는 데 유니코드가 필수적이다.
유니코드의 보편적 채용은 국제화와 현지화 작업을 크게 단순화시켰다. 소프트웨어나 웹 서비스를 여러 언어로 제공하기 위해 별도의 버전을 제작하던 과거와 달리, 단일 유니코드 기반 제품을 통해 전 세계 시장에 동시에 대응하는 것이 가능해졌다. 이는 개발 비용을 절감하고 일관된 사용자 경험을 제공하는 데 기여한다. 또한 검색 엔진이 다양한 언어로 된 콘텐츠를 색인화하고, 기계 번역 시스템이 텍스트를 처리하는 데 있어 유니코드는 기술적 토대를 제공한다.
유니코드는 단순한 기술 표준을 넘어 현대 디지털 커뮤니케이션의 기반이 되었다. 특히 이모지의 표준화와 급속한 확산은 유니코드가 언어적 장벽을 넘어 감정과 문화를 전달하는 새로운 수단을 제공했음을 보여준다. 이모지는 유니코드 컨소시엄에 의해 공식 문자로 채택되어 관리되며, 새로운 이모지 제안과 추가는 엄격한 제안 절차와 커뮤니티 투표를 거쳐 이루어진다.
유니코드의 광범위한 채택으로 인해 과거에 널리 사용되던 지역별 문자 인코딩 방식들(예: EUC-KR, Shift_JIS, Big5)은 점차 레거시 시스템에서만 주로 발견된다. 이러한 변화는 국제화와 지역화를 지원하는 소프트웨어 개발을 훨씬 단순하게 만들었으며, 데이터 호환성 문제를 크게 줄였다.
유니코드 표준에는 기술적 용도나 흥미로운 역사를 가진 다양한 문자가 포함되어 있다. 예를 들어, 제로 너비 공백이나 좌에서 우로 표시 같은 제어 문자들은 텍스트의 렌더링 방식을 제어하는 데 사용된다. 또한 로마자 기본 문자 외에도 고대 문자부터 현대의 수학 기호, 심지어 클링온어 같은 가상의 언어 문자까지 포괄하여 디지털 시대의 문자 보존 역할도 하고 있다.