Che cosa sono i pixel e le codifiche ASCII e Unicode?

Che cosa sono i pixel e le codifiche ASCII e Unicode Dopo aver visto nel precedente articolo che cos’è il sistema binario e che differenza c’è tra bit e byte, in questo nuovo articolo andrò invece a spiegarti sia che cosa sono i pixel, e sia che differenza c’è tra la codifica ASCII e la codifica Unicode.

Che cosa sono i pixel?

Su un qualsiasi dispositivo elettronico un’immagine digitale viene generalmente rappresentata attraverso l’utilizzo di una speciale griglia invisibile dotata di numerosi piccoli quadratini o rettangolini, ognuno dei quali prende il nome di pixel (termine inglese che deriva dalla contrazione di picture element, pronunciato pìctcer èlement, in italiano elemento di immagine):

Esempio di pixel

Ecco un esempio che mostra come attraverso i pixel è costituita in realtà una qualunque immagine digitale.

Ad esempio, un’immagine larga 1.920 colonne ed alta 1.080 righe avrà:

1.920 × 1.080 = 2.073.600 pixel, cioè circa 2,1 megapixel

Questo valore non indica altro che la risoluzione dell’immagine presa in considerazione che, a sua volta, rappresenta proprio la qualità dell’immagine in questione. Nelle immagini a colori ogni pixel viene comunque dotato di una propria luminosità e di un proprio colore tipicamente rappresentati, a loro volta, da una tripletta di intensità di rosso, verde e blu, ovvero dal modello a colori chiamato RGB.
Detto in altre parole, maggiore sarà la quantità di pixel con la quale viene rappresentata una determinata immagine digitale, e maggiore sarà sia la qualità dell’immagine stessa…

Altro esempio di pixel

Altro esempio che fa capire meglio come è composta in realtà un’immagine digitale.

…sia la dimensione del file dell’immagine di turno, che a seconda dei casi potrà perfino superare le decine di MB per una singola immagine. Per cercare di risolvere questo problema relativo alle dimensioni dei file delle immagini, si è dunque soliti utilizzare delle particolari tecniche di compressione che non fanno altro che comprimere appunto la dimensione del file senza comprometterne, però, molta della sua qualità. A tal proposito, le tecniche più comunemente utilizzate per comprimere un’immagine digitale prendono il nome di jpeg (.jpg), bitmap (.bmp) e gif (.gif), riconoscibili mediante l’estensione del file stesso, cioè mediante le tre lettere che seguono il nome del file. Ad esempio, Arcobaleno.jpg indica che l’estensione del file chiamato Arcobaleno è proprio .jpg.

Che differenza c’è tra la codifica ASCII e la codifica Unicode?

Oltre alle immagini, su un dispositivo elettronico è necessario poter rappresentare anche del testo. In informatica, per fare questa operazione si utilizza la codifica di caratteri, conosciuta anche come charset (si pronuncia carsèt), ossia un particolare codice che permette di associare un insieme di caratteri ad un insieme di altri oggetti. Tra le codifiche più utilizzate nei dispositivi elettronici ci sono la codifica ASCII e la codifica Unicode.

Che cos’è la codifica ASCII?

Siccome 1 byte è una sequenza di 8 bit, con 1 byte è possibile quindi rappresentare 2^8 = 256 valori che vanno da 0 a 255, ovvero dal valore binario 0 al valore binario 11111111. Mediante queste sole 256 combinazioni è però possibile creare uno speciale alfabeto, che prende il nome di codifica ASCII, composto da cifre decimali, lettere maiuscole e minuscole, simboli matematici e non, segni di punteggiatura, e altre cose di questo tipo. Ma a che cosa serve questo alfabeto, o meglio, questo codice? Lo standard ASCII non serve altro che a codificare i caratteri all’interno di un testo di un qualsiasi dispositivo elettronico. In altre parole, al numero binario 100001 appartenente a questo codice ASCII corrisponde il semplice punto esclamativo, ovvero il carattere !, al numero binario 1000000 corrisponde invece la chiocciola, ovvero il carattere @, al numero binario 1111010 corrisponde proprio il carattere z, al numero binario 10010110 corrisponde la lineetta enne, ovvero il carattere , e così via dicendo.

Che cos’è la codifica Unicode?

Oltre alla codifica ASCII, esistono numerose altre codifiche che permettono di codificare i caratteri presenti all’interno di un testo di un qualsiasi dispositivo elettronico. Purtroppo, però, tra le centinaia di codifiche disponibili, non ne esiste una con tutti i caratteri necessari adatti ad una specifica lingua, infatti anche per l’italiano ne occorre più di una. In aggiunta a questo può anche accadere che due codifiche utilizzino lo stesso numero per rappresentare caratteri completamente differenti o che, magari, vengano utilizzati numeri diversi per rappresentare uno stesso carattere. Per risolvere questi ed altri problemi del genere, è stata perciò creata un’altra particolare codifica che prende il nome di codifica Unicode. Questa codifica, anziché 1 solo byte come avviene nella codifica ASCII, utilizza invece 2 byte, ovvero 16 bit, per rappresentare un determinato carattere all’interno di un testo di un qualsiasi dispositivo elettronico. In altre parole, mediante la codifica Unicode è possibile rappresentare ben 2^16 = 65.536 valori che vanno da 0 a 65.535. In questo caso, però, al contrario dei soli numeri binari della codifica ASCII, il codice assegnato al carattere scelto viene rappresentato con U+ seguito dalle quattro o dalle sei cifre esadecimali del numero che lo individua. Ad esempio, U+00A9 che non corrisponde altro che al simbolo © di copyright.

Arrivati dunque a questo punto dovresti aver finalmente capito sia che cosa sono i pixel, e sia che differenza c’è tra la codifica ASCII e la codifica Unicode.