cyfry na białym tle

Skąd liczba 1024 wzięła się w świecie IT?

Zastanawialiście się kiedyś, dlaczego kilobajt ma akurat 1024 bajty? Skąd taka liczba się wzięła? Wyjaśniamy. 

Kilobajt (KB) to podstawowa jednostka informatyczna, która służy do oznaczania objętości pamięci dysków komputerowych oraz urządzeń przenośnych. Zakres pojemności pamięci urządzenia oznacza m.in. ilość miejsca do przechowywanie plików tekstowych, muzycznych, zdjęć i filmów.

Podstawowe jednostki używane do określania wielkości informacji cyfrowej to:

  • 1 bajt (B) = 8 bitów
  • 1 kilobajt (KB) = 1024 bajty 
  • 1 megabajt (MB) = 1024 kilobajty
  • 1 gigabajt (GB) = 1024 megabajty
  • 1 terabajt (TB) = 1024 gigabajty

W przypadku kilobajtów przedrostek „kilo-” nie oznacza 10 do trzeciej potęgi. Dla rozróżnienia wielokrotności 1024 oznacza się dużą literą “K”, natomiast małą literą “k” opisuje się wielokrotność 1000.

ZOBACZ TEŻ:  100-letnia zagadka rozwiązana za pomocą superkomputerów 

1024 w świecie IT. Skąd się wzięła?

Pytanie – dlaczego 1024, a nie 1000? Skąd taka liczba? Najprostsze wyjaśnienie to takie, że 1024 to liczba 2 podniesiona do dziesiątej potęgi (2^10). Ale dlaczego akurat ta liczba ułatwia obliczenia informatykom? Szczegółowo wyjaśnił to Waldemar Miotk na blogu Miotk.eu.

Komputery pracują na liczbach binarnych, to znaczy, że posługują się jedynie dwoma cyframi: 0 i 1. Jak więc komputer może zapamiętać każdą inną liczbę? Wymyślono, iż odbywać się to będzie na kilku takich cyfrach (zwanych przez informatyków bitami), w ten sposób, że:

0 = 0

1 = 1

Ale teraz, jak zapisać cyfrę 2 posługując się tylko 0 i 1?

Wymyślili to w ten sposób:

10 – to cyfra 2

11 – to cyfra 3

100 – to cyfra 4

101 – to cyfra 5.

110 – to cyfra 6

111 – to cyfra 7

1000 – to cyfra 8

1001 – to cyfra 9

1010 – to liczba 10.

W informatyce każdą z tych cyfr (0 i 1) nazywa się bitem. Bit jednak jest zbyt małą jednostką, aby zapamiętać jakieś większe informacje. Przyjęto więc za zasadę posługiwanie się ośmioma bitami (cyframi 0 i 1), dzięki czemu możemy zapamiętać jeden z aż 256 różnych znaków. W ten sposób powstała jednostka zwana bajtem. Można więc powiedzieć, iż bajt to układ ośmiu bitów.

Ale co z tym kilobajtem? Tak się składa, iż przy pomocy jednego bajtu jesteśmy w stanie zapamiętać tylko jedną literę, a aby zapisać konkretne słowo, potrzebujemy więcej liter niż jedna. Bajt więc jest również zbyt małą jednostką, aby komputery mogły działać i spełniać swoje zadania.

Przypomnijmy :

  • Bajt to osiem bitów: 1111 1111 = 255 (256 różnych wartości od 0 do 255)
  • Dwa bajty to więc 16 bitów (cyfr 0 i 1). Dla ułatwienia zapisuje się jako 2^1
  • Cztery bajty to już 32 bity (cyfr 0 i 1). Dla ułatwienia – 2^2
  • Osiem bajtów to aż 64 bity (cyfr 0 i 1). Dla ułatwienia – 2^3
  • Szesnaście bajtów to 128 bitów (cyfr 0 i 1). Dla ułatwienia – 2^4
  • Trzydzieści dwa bajty, no to już aż 256 bitów, co w informatyce – 2^5.

Idziemy więc dalej tymi potęgami:

  • 2^6 = 64 bajty = 512 bitów
  • 2^7 = 128 bajtów = 1024 bity
  • 2^8 = 256 bajtów = 2048 bitów
  • 2^9 = 512 bajtów = 4096 bitów
  • 2^10 = 1024 bajtów = 8192 bitów

I tutaj znajdujemy naszą poszukiwaną liczbę 1024. Przy pomocy 8192 bitów da się zapisać 1024 bajtów, a nie 1000. Ponieważ komputery posługują się bajtami, które składają się z ośmiu bitów, liczba 1000 nie byłaby całkowicie wypełniona wszystkimi możliwościami układów cyfr 0 i 1. Znacznie utrudniłoby to obliczenia w komputerze.

ZOBACZ TEŻ:  Japońska maszyna jest najszybsza na świecie. Fugaku zajął pierwsze miejsce na liście superkomputerów

Obecnie, ze względu na duże wartości stosowane w komputerach, nie używa się już pojęcia bajt. Zazwyczaj są to gigabajty (płyty DVD i Blu-ray, pamięci USB, dyski twarde, pamięci RAM itp.) niekiedy terabajty (dyski twarde) lub megabajty w przypadku starszych urządzeń.

1024 ma ogromne znaczenie w świecie IT. Od niedawna to ważna liczba także w Just Join IT. Wpadnijcie do nas o 10:24 i sprawdźcie sami  ( ͡° ͜ʖ ͡°)

baner

Zdjęcie główne pochodzi z unsplash.com. Źródło: Miotk.

Joanna Pasterczyk
Zapraszamy do dyskusji
  1. Jak te informacje mają się do informacji, które można znaleźć na np wikipedii gdzie jeden GB czyli gigabajt to 10^9 (po prostu tak jak matematyka nas przyzwyczaiła) a GiB czyli gibibajt to 2^30?

  2. Dziesiątkowe 1024, to 0x400. Albo binarne 10000000000. Nie wiem, po co w ogóle do tego mieszacie dziesiątkowy 1000, który nie jest potęgą dwójki i z tego powodu nie nadaje się na okrągłą liczbę w IT. Gdybyśmy byli trochę bardziej przyzwyczajeni do systemu szesnastkowego, dużo łatwiej by nam przychodziło zrozumienie komputerów. Dlaczego np. maksymalna liczba sektorów na klaster w systemach FAT i NTFS, to 128?

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Patronujemy

 
 
More Stories
ile zarabia programista
Im dłużej pracujesz, tym więcej zarabiasz? Wynagrodzenia programistów. Devdebata