Che cosa sono i pixel e la codifica ASCII e quella Unicode?

Che cosa sono i pixel e la codifica ASCII e quella Unicode Dopo aver visto nel precedente articolo che cos’è il sistema binario e che differenza c’è tra bit e byte, in questo nuovo articolo andrò invece a spiegarti che cosa sono i pixel, che cos’è la codifica ASCII, e che cos’è la codifica Unicode.

Che cosa sono i pixel?

Su un qualsiasi dispositivo elettronico un’immagine digitale viene generalmente rappresentata attraverso l’utilizzo di una speciale griglia invisibile dotata di milioni di piccoli quadratini, ognuno dei quali prende il nome di pixel:

Esempio di pixel

Ecco un esempio che mostra come attraverso i pixel è costituita in realtà una qualunque immagine digitale.

Ad esempio, un’immagine larga 1.920 colonne ed alta 1.080 righe avrà:

1.920 x 1.080 = 2.073.600 pixel, cioè circa 2,1 megapixel

Questo valore non indica altro che la risoluzione dell’immagine presa in considerazione che, a sua volta, rappresenta proprio la qualità dell’immagine in questione. Nelle immagini a colori, ogni pixel viene comunque dotato di una propria luminosità e di un proprio colore tipicamente rappresentati, a loro volta, da una tripletta di intensità di rosso, verde e blu, ovvero dal modello a colori chiamato RGB.
Detto in altre parole, maggiore sarà la quantità di pixel con la quale viene rappresentata una determinata immagine digitale, e maggiore sarà sia la qualità dell’immagine stessa…

Altro esempio di pixel

Altro esempio che fa capire meglio come è composta in realtà un’immagine digitale.

…sia la dimensione del file dell’immagine in questione, che a seconda dei casi potrà perfino superare le decine di MB per una singola immagine. Per cercare di risolvere questo problema relativo alle dimensioni dei file delle immagini, si è dunque soliti utilizzare delle particolari tecniche di compressione che non fanno altro che comprimere appunto la dimensione del file senza comprometterne però molta della sua qualità. A tal proposito, le tecniche più comunemente utilizzate per comprimere un’immagine digitale prendono il nome di jpeg (.jpg), bitmap (.bmp) e gif (.gif), riconoscibili mediante l’estensione del file stesso, cioè mediante le tre lettere che seguono il nome del file. Ad esempio, Arcobaleno.jpg indica che l’estensione del file chiamato Arcobaleno è proprio .jpg.

Che cos’è la codifica ASCII?

Siccome 1 byte è una sequenza di 8 bit, con 1 byte è possibile quindi rappresentare 2^8 = 256 valori che vanno da 0 a 255, ovvero dal valore binario 0 al valore binario 11111111. Mediante queste sole 256 combinazioni è però possibile creare uno speciale alfabeto, che prende il nome di codifica ASCII, composto da cifre decimali, lettere maiuscole e minuscole, simboli matematici e non, segni di punteggiatura, e altre cose di questo tipo. Ma a che cosa serve questo alfabeto, o meglio, questo codice? Lo standard ASCII non serve altro che a codificare i caratteri all’interno di un testo di un qualsiasi dispositivo elettronico. In altre parole, al numero binario 100001 appartenente a questo codice ASCII, corrisponde il semplice punto esclamativo, ovvero il carattere !, al numero binario 1000000 corrisponde invece la chiocciola, ovvero il carattere @, al numero binario 1111010 corrisponde proprio il carattere z, al numero binario 10010110 corrisponde il trattino breve, ovvero il carattere , e così via dicendo.

Che cos’è la codifica Unicode?

Oltre alla codifica ASCII, esistono numerose altre codifiche che permettono di codificare i caratteri presenti all’interno di un testo di un qualsiasi dispositivo elettronico. Purtroppo, però, tra le centinaia di codifiche disponibili, non ne esiste una con tutti i caratteri necessari adatti ad una specifica lingua, infatti anche per l’italiano ne occorre più di una. In aggiunta a questo può anche accadere che due codifiche utilizzino lo stesso numero per rappresentare caratteri completamente differenti o che, magari, vengano utilizzati numeri diversi per rappresentare uno stesso carattere. Per risolvere questi ed altri problemi del genere, è stata perciò creata un’altra particolare codifica che prende il nome di codifica Unicode. Questa codifica, anziché 1 solo byte come avviene invece nella codifica ASCII, utilizza 2 byte, ovvero 16 bit, per rappresentare un determinato carattere all’interno di un testo di un qualsiasi dispositivo elettronico. In altre parole, mediante la codifica Unicode, è possibile rappresentare ben 2^16 = 65.536 valori che vanno da 0 a 65.535. In questo caso, però, al contrario dei soli numeri binari della codifica ASCII, il codice assegnato al carattere scelto viene rappresentato con U+ seguito da quattro o da sei cifre esadecimali del numero che lo individua. Ad esempio, U+00A9 che non corrisponde altro che al simbolo © di copyright.

Arrivati comunque a questo punto dovresti aver finalmente capito che cosa sono i pixel, che cos’è la codifica ASCII, e che cos’è la codifica Unicode.