Компьютер может обрабатывать информацию, представленную только в цифровой форме, т. е. в виде последовательности цифр. Поэтому предварительно вся информация (тексты, графика, звук) должна пройти оцифровку — приведение к числовому виду.

Обычно все цифры представляются в компьютере не в общеупотребительной десятичной, а в двоичной форме, т. е. в системе счета с двумя значащими цифрами — нулём и единицей (так проще для создания устройств компьютера).

Единицей информации в компьютере является бит, т. е. один двоичный разряд, который может принимать значение 0 или 1.

Как правило, для повышения быстродействия команды компьютера работают не с отдельными битами, а с их группами по 4, 8, 16, 12 или 64 бита. Восемь последовательных битов составляют байт. При этом в одном байте можно закодировать значение одного из 256 возможных символов. Более крупные массивы информации кратны байту и называются килобайт (Кб), равный 1024 байт; мегабайт (Мб), равный 1024 Кб и гигабайт (Гб), равный 1024 Мб. Классификацию цвета изображения ведут с использованием шестнадцатеричной системы счисления.