ビットとは何か、そのさまざまな用途と、この計算単位を計算できる方法について説明します。
ビットは、コンピューティングが使用する情報の最小単位です。少し何ですか?
の コンピューティング ビットと呼ばれます(英語の頭字語はバイナリ 桁、つまり、「2進数」)を2進数システムからの値に変換します。このシステムは、1と0の2つの基本値のみで構成され、オンとオフ、真と偽、存在と不在など、無限の数のバイナリ条件を表すことができるため、このように名付けられました。
したがって、ビットは、コンピューティングで使用される情報の最小単位であり、そのシステムはすべて、前述のバイナリコードでサポートされています。情報の各ビットは特定の値(1または0)を表しますが、異なるビットを組み合わせることにより、さらに多くの組み合わせを取得できます。たとえば、次のようになります。
2ビットモデル(4つの組み合わせ):
00-両方オフ
01-最初にオフ、2番目にオン
10-最初にオン、2番目にオフ
11-両方
これらの2つの単位を使用して、4つのポイント値を表すことができます。ここで、8ビット(1オクテット)があるとします。これは、一部のシステムでは、バイト:256の異なる値を取得します。
このように、バイナリシステムは、ビットの値(1または0)と、表される文字列内のその位置に注意を払って動作します。ビットがオンで左側の位置に表示される場合、その値は2倍になります。右に表示され、半分にカットされます。例えば:
数値20を2進数で表すには
バイナリ値 ネット: 10100
位置ごとの数値:168421
結果:16 +0 +4 +0 + 0 =20
別の例:図の中央に参照があると仮定して、数値2.75を2進数で表すには:
バイナリ値 ネット: 01011
位置ごとの数値:4210.50.25
結果:0 +2 +0 +0.5 + 0.25 =2,75
値0(オフ)のビットはカウントされず、値1(オン)のビットとそれに相当する数値が文字列内の位置に基づいて与えられるため、後で英数字に適用される表現メカニズムが形成されます( ASCII).
このように、 マイクロプロセッサ の コンピューター-4、8、16、32、および64ビットアーキテクチャが存在する可能性があります。これは、マイクロプロセッサがその内部レジスタ数、つまり算術論理演算装置が持つ計算能力を処理することを意味します。
たとえば、最初の コンピューター x86シリーズ(Intel8086およびIntel8088)には プロセッサ 16ビットであり、速度の顕著な違いは、それぞれ16ビットバスと8ビットバスの追加の助けを借りて、処理能力にそれほど影響を与える必要はありませんでした。
同様に、ビットはデジタルメモリのストレージ容量を測定するために使用されます。