BIT
Bit es el
acrónimo de Binary digit. Un bit es un dígito del sistema de numeración
binario. La capacidad de almacenamiento de una memoria digital también se mide
en bits, pues esta palabra tiene varias acepciones.
Combinaciones de bits
·
0 0 - Los dos están “apagados”
·
0 1 - El primero está “apagado” y el segundo
“encendido”
·
1 0 - El primero está “encendido” y el segundo
“apagado”
·
1 1 - Los dos están “encendidos”
Valor de posición
En cualquier
sistema de numeración posicional, el valor de los dígitos depende de la
posición en que se encuentren.
En el sistema
binario es similar, excepto que cada vez que un dígito binario (bit) se
desplaza una posición hacia la izquierda vale el doble (2 veces más), y cada
vez que se mueve hacia la derecha, vale la mitad (2 veces menos).
CAPÍTULO 2
BYTE
Es la unidad de
información de base utilizada en computación y en telecomunicaciones, y que
resulta equivalente a un conjunto ordenado de bits.
Definición
Cantidad más
pequeña de datos que un ordenador podía “morder” a la vez.
Es una secuencia
contigua de bits en un flujo de datos serie, como en comunicaciones por módem o
satélite, o desde un cabezal de disco duro, y es la unidad de datos más pequeña
con significado.
Es un tipo de
datos o un sinónimo en ciertos lenguajes de programación. En el lenguaje C por
ejemplo, se define byte como la “unidad de datos de almacenamiento
direccionable lo suficientemente grande como para albergar cualquier miembro
del juego de caracteres básico del entorno de ejecución”.
Historia
El término byte
fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño
del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits,
permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción
redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un
byte).
Múltiplos del byte
·
Kibibyte
= 1024 B = 210 bytes.
·
Kilobyte
= 1000 B = 103 bytes.
SISTEMA BINARIO
HISTORIA DEL SISTEMA BINARIO
ASCII
CAPITULO 3
SISTEMA BINARIO
HISTORIA DEL SISTEMA BINARIO
El antiguo matemático indio
Pingala presentó la primera descripción que se conoce de un sistema de
numeración binario en el siglo tercero antes de nuestra era, lo cual coincidió
con su descubrimiento del concepto del número cero.
El sistema binario moderno fue
documentado en su totalidad por Leibniz, en el siglo XVII. En él se mencionan
los símbolos binarios usados por matemáticos chinos. Leibniz utilizó el 0 y el
1, al igual que el sistema de numeración binario actual.
CONVERSACIÓN ENTRE BINARIO Y DECIMAL
CONVERSACIÓN ENTRE BINARIO Y DECIMAL
CAPÍTULO 4
ASCII
ASCII fue publicado como estándar por
primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define
códigos para 32 caracteres no imprimibles, de los cuales la mayoría son
caracteres de control que tienen efecto sobre cómo se procesa el texto, más
otros 95 caracteres
VISTA GENERAL
VISTA GENERAL
Las computadoras solamente
entienden números. El código ASCII es una representación numérica de un
carácter. El ASCII es un método para una correspondencia entre cadenas de bits
y una serie de símbolos (alfanuméricos y otros), permitiendo de esta forma la
comunicación entre dispositivos digitales así como su procesado y
almacenamiento. Es un código de siete bits, lo que significa que usa cadenas de
bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal)
para representar información de caracteres.
HISTORIA
HISTORIA
El código ASCII se desarrolló en el ámbito de la telegrafía y se usó por
primera vez comercialmente como un código de teleimpresión impulsado por los
servicios de datos de Bell.

NO ME GUSTA VUESTRA ENTRADA, MAL HECHO, ADIÓS TOREROOOOOOOOOOOO OULEEEEEEE
ResponderEliminar