Fragment
Jednostki informacji informacji |
Teoretyka |
---|
|
Przechowywanie danych |
|
Informacje kwantowe |
Bit jest najbardziej podstawową jednostką informacji w informatyce i komunikacji cyfrowej . Nazwa to kontaminacja cyfry binarnej . Bit reprezentuje stan logiczny z jedną z dwóch możliwych wartości . Te wartości są najczęściej reprezentowane jako 0 " 1 " lub " " , ale powszechnie używane są również inne reprezentacje, takie jak true / false , yes / no , on / off lub + / − .
Relacja między tymi wartościami a fizycznymi stanami bazowej pamięci masowej lub urządzenia jest kwestią konwencji, a różne przypisania mogą być stosowane nawet w ramach tego samego urządzenia lub programu . Może być fizycznie zaimplementowany za pomocą urządzenia dwustanowego.
Ciągła grupa cyfr binarnych jest powszechnie nazywana ciągiem bitów , wektorem bitów lub jednowymiarową (lub wielowymiarową) tablicą bitów . Grupa ośmiu bitów nazywana jest jednym bajtem , ale historycznie rozmiar bajtu nie jest ściśle określony. Często pół, pełne, podwójne i poczwórne słowa składają się z pewnej liczby bajtów, która jest małą potęgą dwójki. Ciąg czterech bitów to półbajt .
W teorii informacji jeden bit to entropia informacyjna losowej zmiennej binarnej , która wynosi 0 lub 1 z równym prawdopodobieństwem, lub informacja, która jest uzyskiwana, gdy wartość takiej zmiennej staje się znana. Jako jednostka informacji , bit jest również znany jako shannon , nazwany na cześć Claude'a E. Shannona .
Symbolem cyfry binarnej jest albo „bit” zgodnie z normą IEC 80000-13 :2008, albo mała litera „b”, zgodnie ze normą IEEE 1541-2002 . Użycie tego ostatniego może spowodować zamieszanie z wielką literą „B”, która jest używana dla bajtu.
Historia
Kodowanie danych za pomocą dyskretnych bitów zastosowano w kartach perforowanych wynalezionych przez Basile Bouchon i Jean-Baptiste Falcon (1732), opracowanych przez Josepha Marie Jacquarda (1804), a później przyjętych przez Siemiona Korsakowa , Charlesa Babbage'a , Hermanna Holleritha i wczesnych producentów komputerów, takich jak IBM . Wariantem tego pomysłu była perforowana taśma papierowa . We wszystkich tych systemach nośnik (karta lub taśma) koncepcyjnie zawierał szereg pozycji otworów; każda pozycja może być przebita lub nie, niosąc w ten sposób jeden bit informacji. Kodowanie tekstu za pomocą bitów było również używane w alfabecie Morse'a (1844) i wczesnych cyfrowych maszynach komunikacyjnych, takich jak dalekopisy i maszyny giełdowe (1870).
Ralph Hartley zasugerował użycie logarytmicznej miary informacji w 1928 r. Claude E. Shannon po raz pierwszy użył słowa „bit” w swoim przełomowym artykule z 1948 r. „ A Mathematical Theory of Communication ”. Przypisał jego pochodzenie Johnowi W. Tukeyowi , który 9 stycznia 1947 r. Napisał notatkę Bell Labs, w której „binarną cyfrę informacyjną” zamienił po prostu na „bit”. Vannevar Bush napisał w 1936 r. „Bity informacji”, które można było przechowywać na kartach perforowanych używanych w ówczesnych komputerach mechanicznych. Pierwszy programowalny komputer, zbudowany przez Konrada Zuse , wykorzystywał zapis binarny liczb.
Reprezentacja fizyczna
Bit może być przechowywany przez urządzenie cyfrowe lub inny system fizyczny, który istnieje w jednym z dwóch możliwych różnych stanów . Mogą to być dwa stabilne stany przerzutnika, dwie pozycje przełącznika elektrycznego , dwa różne poziomy napięcia lub prądu dozwolone przez obwód , dwa różne poziomy natężenia światła , dwa kierunki magnesowania lub polaryzacji , orientacja odwracalnego podwójnego nici DNA itp.
Bity można zaimplementować w kilku formach. W większości nowoczesnych urządzeń komputerowych bit jest zwykle reprezentowany przez impuls napięcia lub prądu albo przez stan elektryczny obwodu przerzutnika.
000 W przypadku urządzeń wykorzystujących logikę dodatnią wartość cyfry 1 (lub wartość logiczna true) jest reprezentowana przez bardziej dodatnie napięcie w stosunku do reprezentacji . Różne rodziny układów logicznych wymagają różnych napięć, a zmiany są dozwolone w celu uwzględnienia starzenia się komponentów i odporności na zakłócenia. Na przykład w logice tranzystorowo-tranzystorowej (TTL) i kompatybilnych obwodach wartości cyfr i 1 na wyjściu urządzenia są reprezentowane odpowiednio przez nie więcej niż 0,4 wolta i nie mniej niż 2,6 wolta; podczas gdy wejścia TTL są określone tak, aby rozpoznawały 0,8 V lub mniej jako i 2,2 V lub więcej jako 1 .
Transmisja i przetwarzanie
Bity są przesyłane pojedynczo w transmisji szeregowej i wielokrotną liczbą bitów w transmisji równoległej . Operacja bitowa opcjonalnie przetwarza bity pojedynczo. Szybkości przesyłania danych są zwykle mierzone w dziesiętnych wielokrotnościach SI jednostki bit na sekundę (bit/s), np. kbit/s.
Składowanie
W najwcześniejszych nieelektronicznych urządzeniach do przetwarzania informacji, takich jak krosno żakardowe lub silnik analityczny Babbage'a, bit był często zapisywany jako pozycja mechanicznej dźwigni lub koła zębatego lub obecność lub brak otworu w określonym punkcie karty papierowej lub taśma . Pierwsze urządzenia elektryczne dla logiki dyskretnej (takie jak obwody sterujące windą i sygnalizacją świetlną , przełączniki telefoniczne i komputer Konrada Zuse) reprezentowały bity jako stany przekaźników elektrycznych , które mogły być „otwarte” lub „zamknięte”. Kiedy przekaźniki zostały zastąpione lampami próżniowymi , począwszy od lat czterdziestych XX wieku, konstruktorzy komputerów eksperymentowali z różnymi metodami przechowywania, takimi jak impulsy ciśnienia przemieszczające się wzdłuż rtęciowej linii opóźniającej , ładunki gromadzone na wewnętrznej powierzchni lampy elektronopromieniowej lub nieprzezroczyste plamy drukowane na szklanych dyskach technikami fotolitograficznymi .
W latach pięćdziesiątych i sześćdziesiątych XX wieku metody te zostały w dużej mierze wyparte przez magnetyczne urządzenia pamięci masowej, takie jak pamięć z rdzeniem magnetycznym , taśmy magnetyczne , bębny i dyski , gdzie bit był reprezentowany przez biegunowość namagnesowania określonego obszaru folii ferromagnetycznej lub poprzez zmianę biegunowości z jednego kierunku na drugi. Ta sama zasada została później zastosowana w magnetycznej pamięci bąbelkowej opracowanej w latach 80. XX wieku i nadal znajduje się w różnych przedmiotach z paskami magnetycznymi , takich jak bilety metra i niektóre karty kredytowe .
We współczesnej pamięci półprzewodnikowej , takiej jak dynamiczna pamięć o dostępie swobodnym , dwie wartości bitu mogą być reprezentowane przez dwa poziomy ładunku elektrycznego przechowywanego w kondensatorze . W niektórych typach programowalnych tablic logicznych i pamięci tylko do odczytu bit może być reprezentowany przez obecność lub brak ścieżki przewodzącej w określonym punkcie obwodu. W dyskach optycznych bit jest kodowany jako obecność lub brak mikroskopijnego wgłębienia na odbijającej powierzchni. W jednowymiarowych kodach kreskowych bity są kodowane jako grubość naprzemiennych czarnych i białych linii.
Jednostka i symbol
Bit nie jest zdefiniowany w Międzynarodowym Układzie Jednostek (SI). Jednak Międzynarodowa Komisja Elektrotechniczna wydała normę IEC 60027 , która określa, że symbolem cyfry binarnej powinien być „bit” i powinien on być używany we wszystkich wielokrotnościach, takich jak „kbit” oznaczający kilobit. Jednak mała litera „b” jest również szeroko stosowana i była zalecana przez standard IEEE 1541 (2002) . Natomiast wielka litera „B” jest standardowym i zwyczajowym symbolem bajtu.
|
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Rzędy wielkości danych |
Wiele bitów
Wiele bitów można wyrazić i przedstawić na kilka sposobów. Dla wygody reprezentowania często powtarzających się grup bitów w technologii informacyjnej tradycyjnie stosowano kilka jednostek informacji . Najpowszechniejszy jest bajt jednostkowy , ukuty przez Wernera Buchholza w czerwcu 1956 r., który historycznie był używany do reprezentowania grupy bitów używanych do kodowania pojedynczego znaku tekstu (do czasu przejęcia kodowania wielobajtowego UTF-8 ) w komputerze i do tego dlatego był używany jako podstawowy element adresowalny w wielu architekturach komputerowych . Trend w projektowaniu sprzętu zbiegał się z najpowszechniejszą implementacją wykorzystującą osiem bitów na bajt, tak jak jest to obecnie powszechnie stosowane. Jednak ze względu na niejednoznaczność oparcia się na podstawowym projekcie sprzętu, oktet jednostki został zdefiniowany tak, aby wyraźnie oznaczał sekwencję ośmiu bitów.
Komputery zwykle manipulują bitami w grupach o stałym rozmiarze, konwencjonalnie nazywanych „ słowami ”. Podobnie jak bajt, liczba bitów w słowie również różni się w zależności od konstrukcji sprzętu i zwykle wynosi od 8 do 80 bitów, a nawet więcej w niektórych wyspecjalizowanych komputerach. W XXI wieku detaliczne komputery osobiste lub serwery mają rozmiar słowa 32 lub 64 bity.
Międzynarodowy Układ Jednostek definiuje serię przedrostków dziesiętnych dla wielokrotności znormalizowanych jednostek, które są powszechnie używane również z bitem i bajtem. Przedrostki od kilo (10 3 ) do yotta (10 24 ) zwiększają się o wielokrotności jednego tysiąca, a odpowiadające im jednostki to kilobit ( kbit) do yottabit (Ybit).
Pojemność informacyjna i kompresja informacji
0 Gdy pojemność informacyjna systemu pamięci masowej lub kanału komunikacyjnego jest przedstawiana w bitach lub bitach na sekundę , często odnosi się to do cyfr binarnych, które są zdolnością sprzętu komputerowego do przechowywania danych binarnych ( lub 1 , w górę lub w dół, aktualne lub nie, itp.). Pojemność informacyjna systemu przechowywania jest tylko górną granicą ilości przechowywanych w nim informacji. Jeśli dwie możliwe wartości jednego bitu pamięci nie są jednakowo prawdopodobne, ten bit pamięci zawiera mniej niż jeden bit informacji. Jeśli wartość jest całkowicie przewidywalna, to odczyt tej wartości nie dostarcza żadnych informacji (zero bitów entropicznych, ponieważ nie występuje rozdzielczość niepewności, a zatem żadna informacja nie jest dostępna). Jeśli plik komputerowy wykorzystujący n bitów pamięci zawiera tylko m < n bitów informacji, to informacje te można w zasadzie zakodować w około m bitach, przynajmniej średnio. Ta zasada jest podstawą kompresji danych . Używając analogii, sprzętowe cyfry binarne odnoszą się do ilości dostępnej przestrzeni dyskowej (np. informacje skompresowane lub nieskompresowane). Gdy stopień szczegółowości jest drobniejszy — gdy informacje są bardziej skompresowane — to samo wiadro może pomieścić więcej.
Na przykład szacuje się, że łączna zdolność technologiczna świata do przechowywania informacji zapewnia 1300 eksabajtów cyfr sprzętowych. Jednak gdy ta przestrzeń pamięci jest zapełniona, a odpowiadająca jej zawartość jest optymalnie skompresowana, oznacza to tylko 295 eksabajtów informacji. Przy optymalnym skompresowaniu wynikowa nośność zbliża się do informacji Shannona lub entropii informacyjnej .
Obliczenia oparte na bitach
Niektóre bitowe instrukcje procesora komputerowego (takie jak zestaw bitów ) działają raczej na poziomie manipulowania bitami niż manipulowania danymi interpretowanymi jako agregat bitów.
W latach 80., kiedy popularne stały się komputerowe wyświetlacze bitmapowe , niektóre komputery zapewniały wyspecjalizowane instrukcje przesyłania bloków bitów w celu ustawienia lub skopiowania bitów odpowiadających danemu prostokątnemu obszarowi na ekranie.
W większości komputerów i języków programowania, gdy odnosi się do bitu w grupie bitów, takiego jak bajt lub słowo, jest on zwykle określany przez liczbę od 0 w górę, odpowiadającą jego pozycji w bajcie lub słowie. Jednak 0 może odnosić się do najbardziej lub najmniej znaczącego bitu w zależności od kontekstu.
Inne jednostki informacyjne
Podobny do momentu obrotowego i energii w fizyce; informacja teoretyczna rozmiar informacji i przechowywania danych mają tę samą wymiarowość jednostek miary , ale generalnie nie ma sensu dodawać, odejmować lub w inny sposób łączyć jednostek matematycznie, chociaż jedna może działać jako granica drugiej.
Jednostki informacji używane w teorii informacji obejmują shannon (Sh), naturalną jednostkę informacji (nat) i hartley (Hart). Jeden shannon to maksymalna ilość informacji potrzebna do określenia stanu jednego bitu pamięci. Są one powiązane przez 1 Sh ≈ 0,693 nat ≈ 0,301 Hart.
Niektórzy autorzy definiują również binit jako dowolną jednostkę informacyjną równoważną pewnej ustalonej, ale nieokreślonej liczbie bitów.
Zobacz też
- Bajt
- Liczba całkowita (informatyka)
- Pierwotny typ danych
- Trit (cyfra potrójna)
- Kubit (bit kwantowy)
- Strumień bitów
- Entropia (teoria informacji)
- Szybkość transmisji i szybkość transmisji
- Binarny system liczbowy
- Trójskładnikowy system liczbowy
- Shannon (jednostka)
- Skubać
Linki zewnętrzne
- Bit Calculator – narzędzie umożliwiające przeliczanie bitów, bajtów, kilobitów, kilobajtów, megabitów, megabajtów, gigabitów, gigabajtów
- BitXByteConverter – narzędzie do obliczania rozmiarów plików, pojemności pamięci i informacji cyfrowych w różnych jednostkach