혼자 공부하는 컴퓨터 구조 02. 데이터 - swkim0128/PARA GitHub Wiki
컴퓨터에서 정보의 크기를 나타내는 단위로는 비트(bit)와 바이트(byte)가 있습니다. 비트는 0 또는 1의 값을 가지는 최소 단위이며, 바이트는 8개의 비트로 이루어진 단위입니다. 따라서, 1바이트는 8비트와 같습니다.
컴퓨터에서 문자를 표현하기 위해서는 문자 집합(character set)과 인코딩(encoding) 방식이 필요합니다. 문자 집합은 컴퓨터에서 사용할 수 있는 문자의 집합을 나타내며, 대표적으로 ASCII, Unicode 등이 있습니다. 인코딩 방식은 문자를 비트로 변환하는 방법을 나타내며, 대표적으로 UTF-8, UTF-16 등이 있습니다. 각각의 문자 집합과 인코딩 방식은 특정한 문자를 어떤 비트로 표현할지 정의하고, 컴퓨터에서 문자를 처리할 때 사용됩니다.
문자 인코딩(Encoding)은 문자를 컴퓨터에서 사용할 수 있는 비트(bit)로 변환하는 과정을 말합니다. 문자를 비트로 변환하는 이유는 컴퓨터가 문자를 이해하기 위해서는 비트 형태로 변환해야 하기 때문입니다.
반대로, 문자 디코딩(Decoding)은 인코딩된 비트를 다시 문자로 변환하는 과정을 말합니다. 즉, 컴퓨터에서 문자를 처리할 때는 문자를 비트로 변환해서 처리하고, 다시 출력할 때는 비트를 문자로 디코딩해서 출력합니다.
예를 들어, "안녕하세요"라는 문자열을 UTF-8 인코딩 방식으로 변환하면 "EC9588EB8595ED9598EC8498EC9A94"와 같은 비트열이 생성됩니다. 이 비트열을 다시 디코딩하면 "안녕하세요"라는 문자열이 출력됩니다.