viernes, 30 de octubre de 2015

APUNTES TEMA 2: HARDWARE


CAPÍTULO 1

BIT
Bit es el acrónimo de Binary digit. Un bit es un dígito del sistema de numeración binario. La capacidad de almacenamiento de una memoria digital también se mide en bits, pues esta palabra tiene varias acepciones.

Combinaciones de bits
·         0 0 - Los dos están “apagados”
·         0 1 - El primero está “apagado” y el segundo “encendido”
·         1 0 - El primero está “encendido” y el segundo “apagado”
·         1 1 - Los dos están “encendidos”

Valor de posición
En cualquier sistema de numeración posicional, el valor de los dígitos depende de la posición en que se encuentren.
En el sistema binario es similar, excepto que cada vez que un dígito binario (bit) se desplaza una posición hacia la izquierda vale el doble (2 veces más), y cada vez que se mueve hacia la derecha, vale la mitad (2 veces menos).


CAPÍTULO 2

BYTE
Es la unidad de información de base utilizada en computación y en telecomunicaciones, y que resulta equivalente a un conjunto ordenado de bits.

Definición
Cantidad más pequeña de datos que un ordenador podía “morder” a la vez.
Es una secuencia contigua de bits en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, y es la unidad de datos más pequeña con significado.
Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. En el lenguaje C por ejemplo, se define byte como la “unidad de datos de almacenamiento direccionable lo suficientemente grande como para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución”.

Historia
El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte).

Múltiplos del byte
·         Kibibyte = 1024 B = 210 bytes.
·         Kilobyte = 1000 B = 103 bytes.


CAPITULO 3

SISTEMA BINARIO

HISTORIA DEL SISTEMA BINARIO
El antiguo matemático indio Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo tercero antes de nuestra era, lo cual coincidió con su descubrimiento del concepto del número cero.
El sistema binario moderno fue documentado en su totalidad por Leibniz, en el siglo XVII. En él se mencionan los símbolos binarios usados por matemáticos chinos. Leibniz utilizó el 0 y el 1, al igual que el sistema de numeración binario actual.

CONVERSACIÓN ENTRE BINARIO Y DECIMAL



CAPÍTULO 4

ASCII
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 32 caracteres no imprimibles, de los cuales la mayoría son caracteres de control que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres

VISTA GENERAL
Las computadoras solamente entienden números. El código ASCII es una representación numérica de un carácter. El ASCII es un método para una correspondencia entre cadenas de bits y una serie de símbolos (alfanuméricos y otros), permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento. Es un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres.

HISTORIA
El código ASCII se desarrolló en el ámbito de la telegrafía y se usó por primera vez comercialmente como un código de teleimpresión impulsado por los servicios de datos de Bell.

1 comentario:

  1. NO ME GUSTA VUESTRA ENTRADA, MAL HECHO, ADIÓS TOREROOOOOOOOOOOO OULEEEEEEE

    ResponderEliminar