Il sistema binario è il linguaggio fondamentale dei computer moderni, basato su sequenze di 0 e 1 che rappresentano gli stati di "acceso" e "spento" dei circuiti elettronici.
La codifica binaria è essenziale nell'informatica moderna per rappresentare qualsiasi tipo di dato digitale. Per convertire numeri dal sistema decimale a quello binario, si utilizza la tabella conversione decimale binario attraverso divisioni successive per 2, annotando i resti che formeranno il numero binario finale. Il processo inverso, la conversione da binario a decimale, si effettua moltiplicando ogni cifra binaria per la potenza di 2 corrispondente alla sua posizione.
Nel mondo dell'informatica, la distinzione tra analogico e digitale è fondamentale. Un segnale analogico è continuo e può assumere infiniti valori, come il suono naturale o la luce. Al contrario, un segnale digitale è discreto e assume solo valori binari. Questa differenza si riflette in molti dispositivi analogici esempi come i vecchi termometri a mercurio, confrontati con i moderni termometri digitali. La differenza tra tecnologia analogica e digitale si manifesta chiaramente nella transizione dalla TV analogica alla digitale, dove il segnale digitalizzato offre una qualità superiore e maggiore resistenza alle interferenze. La codifica dei dati informatica permette di trasformare qualsiasi tipo di informazione - testo, immagini, suoni - in sequenze binarie che i computer possono elaborare. Questo processo è alla base di tutta l'informatica moderna e permette la memorizzazione e la trasmissione efficiente dei dati digitali.