Unità informatiche: quali sono e come si misurano?

Unità informatiche: quali sono e come si misuranoA quanti mega va la tua connessione? Quanti giga pesa questo film? Di quanti tera è il tuo hard disk? Queste sono solo alcune di tutte le tipiche domande che oramai sentiamo ripetutamente ogni giorno. Ma che cos’è di preciso un mega, un giga o un tera? E che differenza c’è tra bit e byte? Per rispondere a queste e ad altre domande del genere eccoti perciò un apposito articolo nel quale andrò a spiegarti quali sono e come si misurano le unità informatiche.

Quali sono le unità informatiche?

Proprio come avviene per le altre grandezze fisiche, quali la lunghezza o la massa, anche l’informatica ha le proprie unità di misura. A differenza però del metro e del chilogrammo, utilizzate come base rispettivamente per la lunghezza e la massa, nel mondo dell’informatica l’unità di misura fondamentale non è calcolata su base 10, come avviene appunto nel sistema metrico decimale, bensì su base 2. Questo poiché, nell’informatica, l’unità di misura fondamentale non è altro che il bit, termine che deriva dalla fusione delle due parole inglesi binary digit (in italiano, cifra binaria), che a sua volta non rappresenta altro che l’unità elementare dell’informazione che può essere trattata da un qualsiasi computer, proprio perché i circuiti digitali, mediante i quali viene assemblato un qualunque computer, sono in grado di capire solamente due valori: 0 (zero), ovvero assenza di tensione, ed 1, ovvero presenza di tensione.

Come si misurano le unità informatiche?

Nell’informatica di tutti i giorni le grandezze utilizzate non si fermano soltanto al semplice bit. Le unità informatiche più diffuse sono infatti rappresentate dai multipli del bit, dei quali, quelli più utilizzati, sono soprattutto:

  • il byte (termine inglese che deriva da bite, ovvero boccone, morso, e che si pronuncia bàit), il cui corretto simbolo è B, cioè la lettera b in maiuscolo, visto che la lettera b in minuscolo rappresenta invece il bit, che non equivale altro che alla somma di 8 bit;
  • il kilobyte, il cui corretto simbolo è kB (con la lettera k in minuscolo e la lettera b in maiuscolo), che non equivale altro che a 1.024 byte;
  • il megabyte, il cui corretto simbolo è MB (con la lettera m e la lettera b entrambe in maiuscolo), che non equivale altro che a 1.024 kilobyte, ovvero, a circa un milione di byte;
  • il gigabyte, il cui corretto simbolo è GB (con la lettera g e la lettera b entrambe in maiuscolo), che non equivale altro che a 1.024 megabyte, ovvero, a circa un miliardo di byte;
  • il terabyte, il cui corretto simbolo è TB (con la lettera t e la lettera b entrambe in maiuscolo), che non equivale altro che a 1.024 gigabyte, ovvero, a circa mille miliardi di byte.

Tutti questi e altri multipli del bit sono solitamente utilizzati per indicare lo spazio richiesto o lo spazio a disposizione per ospitare uno o più determinati file. Ad esempio, se ti viene detto che un certo file pesa tre giga, ovvero 3 GB, vorrà dire che questo file richiederà, o meglio occuperà, circa 3.000 MB di spazio. Se invece ti viene detto che un hard disk ha una capacità di un tera, cioè di 1 TB, vorrà dire che questo potrà contenere al massimo circa 1.000 GB di dati. C’è da dire comunque che, per comodità di calcolo, i multipli del bit vengono generalmente arrotondati a potenze di 2 invece che a potenze di 10, benché questo sia formalmente sbagliato. Tale ambiguità ha portato l’IEC a definire tutta una serie di nuovi prefissi per multipli binari, sebbene, finora, siano quasi completamente sconosciuti. Questo poiché i vari produttori di dispositivi di archiviazione preferiscono ancora utilizzare i corretti, ma ambigui, multipli decimali in maniera tale da far figurare quantità maggiori di archiviazione, proprio perché un determinato dispositivo di archiviazione, con una capacità dichiarata di, ad esempio, 8 GB, equivale all’incirca a 7,45 GiB di capacità effettiva.

Altre unità informatiche

Oltre al bit, al byte e ai multipli di quest’ultimo, nell’informatica di tutti i giorni vengono molto spesso utilizzate anche tutta una serie di altre unità di misura. Tra queste, quelle più importanti da prendere in considerazione sono soprattutto:

  • il bit per secondo, il cui corretto simbolo è bit/s (talvolta però indicato anche come bps o b/s), che non rappresenta altro che l’unità di misura della quantità di informazione trasmessa su un canale di comunicazione;
  • il kilobit per secondo, il cui corretto simbolo è kbit/s (talvolta però indicato anche come kbps o kb/s), che corrisponde semplicemente a 1.000 bit per secondo;
  • il megabit per secondo, il cui corretto simbolo è Mbit/s (talvolta però indicato anche come Mbps o Mb/s), che corrisponde semplicemente a 1.000 kilobit per secondo;
  • il gigabit per secondo, il cui corretto simbolo è Gbit/s (talvolta però indicato anche come Gbps o Gb/s), che corrisponde semplicemente a 1.000 megabit per secondo.

Queste e altre unità di misura sono solitamente utilizzate per indicare la velocità massima di trasmissione dei dati su una comune rete informatica. Ad esempio, se a casa hai una connessione ADSL da 7 mega, vorrà dire che la tua connessione avrà una velocità in download di, al massimo, 7 Mbit/s, di conseguenza, siccome un bit equivale ad 1⁄8 di byte, potrai scaricare al massimo a 7 x 1⁄8 = 0,875 MB/s, ovvero a 0,875 megabyte al secondo. In aggiunta al bit per secondo e ai suoi multipli più diffusi, altre unità di misura molto utilizzate nell’informatica quotidiana sono anche:

  • gli hertz (il cui corretto simbolo è Hz), che insieme ai più utilizzati multipli megahertz (il cui corretto simbolo è MHz) e gigahertz (il cui corretto simbolo è GHz), vengono soprattutto impiegati per indicare la frequenza di lavoro di un determinato processore (che può essere, ad esempio, di 3.600 MHz, ossia, di 3,6 GHz);
  • i pixel, che insieme al più famoso multiplo megapixel, vengono solitamente impiegati o per indicare il numero di pixel che compongono una particolare immagine, o per indicare la risoluzione di un determinato schermo. Quest’ultima, viene comunque in genere espressa come prodotto tra i pixel distribuiti in larghezza e i pixel distribuiti in altezza (ad esempio, 1.280 x 720 pixel);
  • i pollici, il cui corretto simbolo è in o il doppio apice , che vengono sempre utilizzati per indicare le dimensioni della diagonale di un qualunque schermo (ad esempio, 5,5″, 10,1″, 24″, 50″, eccetera).

Arrivati dunque a questo punto dovresti aver finalmente capito sia quali sono le unità informatiche, sia come si misurano le unità informatiche.

Privacy Policy