Che differenza c’è tra mega e giga?

Che differenza c'è tra mega e gigaHai sentito parlare di mega o di giga ma non hai idea di cosa voglia dire? Eccoti allora spiegato che differenza c’è tra mega e giga.

Che differenza c’è tra mega e giga?

I termini mega e giga sono dei prefissi usati nel sistema internazionale di unità di misura e, da soli, non hanno alcun significato. Tuttavia, al giorno d’oggi, i termini mega e giga vengono impropriamente usati per riferirsi ad alcune delle unità di misura informatiche più diffuse, ovvero:

  • o al megabyte (si pronuncia megabàit) o al megabit, per quanto riguarda il termine mega;
  • o al gigabyte (si pronuncia gigabàit) o al gigabit, per quanto riguarda il termine giga.

Una volta precisato questo, è possibile chiarire meglio cosa significa mega e cosa significa giga.

Cosa significa mega?

Il termine mega è un prefisso dell’SI (si pronuncia esse i) che esprime il fattore 10^6, ovvero 1.000.000, e il suo simbolo è la lettera m maiuscola, cioè M. Con il termine mega, a seconda del contesto in cui ci si trova, in genere ci si riferisce:

  • o al megabyte (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è MB (con la lettera m e la lettera b entrambe in maiuscolo), che non equivale altro che a un milione di byte (si pronuncia bàit). Nel mondo dell’informatica il megabyte viene usato soprattutto per indicare una certa quantità. Ad esempio, se ti viene detto che un file pesa 3 mega, vorrà dire che quel file richiederà, o meglio occuperà, 3 MB (cioè 3 megabyte) di spazio;
  • o al megabit (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è Mb (con la lettera m in maiuscolo e la lettera b in minuscolo), che non equivale altro che a un milione di bit. Nel mondo dell’informatica il megabit viene usato soprattutto per indicare la velocità massima di trasmissione dei dati su una comune rete informatica. In questi casi si parla quindi di megabit per secondo, il cui corretto simbolo è Mbit/s (talvolta però indicato anche come Mbps o Mb/s), e non corrisponde altro che a 1.000.000 di bit al secondo. Ad esempio, se a casa hai una connessione in fibra da 100 mega, vorrà dire che la tua connessione avrà una velocità in download di, al massimo, 100 Mbit/s.

Cosa significa giga?

Il termine giga è un prefisso dell’SI (si pronuncia esse i) che esprime il fattore 10^9, ovvero 1.000.000.000, e il suo simbolo è la lettera g maiuscola, cioè G. Con il termine giga, a seconda del contesto in cui ci si trova, in genere ci si riferisce:

  • o al gigabyte (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è GB (con la lettera g e la lettera b entrambe in maiuscolo), che non equivale altro che a un miliardo di byte (si pronuncia bàit). Nel mondo dell’informatica il gigabyte viene usato soprattutto per indicare una certa quantità. Ad esempio, se ti viene detto che per navigare hai a disposizione 50 giga al mese, vorrà dire che in un mese potrai scaricare al massimo 50 GB (cioè 50 gigabyte) di dati;
  • o al gigabit (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è Gb (con la lettera g in maiuscolo e la lettera b in minuscolo), che non equivale altro che a un miliardo di bit. Nel mondo dell’informatica il gigabit viene usato soprattutto per indicare la velocità massima di trasmissione dei dati su una comune rete informatica. In questi casi si parla quindi di gigabit per secondo, il cui corretto simbolo è Gbit/s (talvolta però indicato anche come Gbps o Gb/s), e non corrisponde altro che a 1.000.000.000 di bit al secondo. Ad esempio, se a casa hai una connessione in fibra da 1 giga, vorrà dire che la tua connessione avrà una velocità in download di, al massimo, 1 Gbit/s.

Prima di concludere questo articolo bisogna però precisare un’altra cosa. Considerare il valore 1.000 per convertire i giga in mega o i mega in giga non è un errore, sebbene ancora molti pensino che 1 gigabyte equivalga a 1.024 megabyte o che 1 gigabit equivalga a 1.024 megabit. Questo era vero fino al dicembre del 1998, ovvero fino a quando la IEC non ha stabilito che anche l’informatica dovesse seguire la convenzione dell’SI. In poche parole, tutti i prefissi dell’SI ora devono essere considerati come potenze di 10 e non più come potenze di 2. Pertanto:

  • 1 gigabit = 1.000 megabit = 1.000.000.000 di bit;
  • 1 gigabyte = 1.000 megabyte = 1.000.000.000 di byte.

La IEC ha inoltre attribuito tutta una serie di nuovi prefissi ai multipli del bit e del byte che vengono indicati attraverso le potenze di 2, ad esempio mebibit, mebibyte, gibibit e gibibyte. Questo sia per evitare confusione, sia, poiché, i vari produttori di dispositivi di archiviazione preferiscono ancora utilizzare i corretti, ma ambigui, multipli decimali in maniera tale da far figurare quantità maggiori di archiviazione, proprio perché un determinato dispositivo di archiviazione, come una chiavetta USB con una capacità dichiarata di, ad esempio, 8 GB, equivale in realtà all’incirca a 7,45 GiB di capacità effettiva. Arrivati comunque a questo punto dovresti aver finalmente capito che differenza c’è tra mega e giga.