viernes, 3 de octubre de 2014

Protocolo I2C

I2C es un protocolo de comunicación serie diseñado por Philips que se utiliza esencialmente entre dispositivos que pertenecen al mismo circuito, por ejemplo, sensores con un microcontrolador.

Características:
  • Velocidad standard de 100Kbit. Se puede cambiar al modo de alta velocidad (400Kbit/s)
  • Configuración maestro/esclavo. La direccion del esclavo se configura con software
  • Solo se necesitan dos lineas:
    • SDA (Serial Data Line): Linea de datos.
    • SCL/CLK (Serial Clock Line): Linea de reloj, será el que marque el tiempo de RW (Lectura/Escritura)
  • Los comunicación siempre tiene la estructura siguiente:
    • Transmisor: Byte de datos (8 Bits)
    • Receptor: Bit llamado ACK de confirmación.
La conexion SDA y SCL van a su pin correspondiente en cada dispositivo, de manera que todos quedan en paralelo.
Las lineas SDA y SCL estan independientemente conectadas a dos resistores Pull-Up que se encargaran de que el valor logico siempre sea alto a no ser que un dispositivo lo ponga a valor lógico bajo.

¿Qué tipo de comunicación es?
Es una comunicación de tipo half duplex. Comunicación bidireccional por la misma linea pero no simultáneamente bidireccional.

La estructura de la comunicación básica es la siguiente:
  1. START condition  (Master)
  2. 7 Bits de direccion de esclavo  (Master)
  3. 1 Bit de RW, 0 es Leer y 1 Escribir.  (Master)
  4. 1 Bit de Acknowledge  (Slave)
  5. Byte de dirección de memoria  (Master)
  6. 1 Bit de Acknowledge  (Slave)
  7. Byte de datos  (Master/Slave (Escritura/Lectura))
  8. 1 Bit de Acknowledge  (Slave/Master (Escritura/Lectura))
  9. STOP condition  (Master) 





Fuente:http://www.quadruino.com/guia-2/sensores/protocolo-i2c-twi

Teoria de informacion

Existen muchas definiciones de 'información'. Dependiendo del autor o del contexto en el cual se discuta el tema podemos encontrar aproximaciones de lo más variadas. En este apunte trabajaremos con información que se almacena en computadoras. Una computadora en su nivel mas bajo conoce solamente dos símbolos (por ahora): el cero y el uno, pues funciona en base a circuitos electrónicos que utilizan elementos bi-estables; en este texto trataremos sobre problemas relacionados con el almacenamiento de información en computadoras digitales, estudiaremos técnicas de compresión de datos para lograr almacenar mensajes utilizando la menor cantidad de bits posibles, observaremos técnicas de encriptación para ocultar la información almacenada de miradas indiscretas y desarrollaremos técnicas de autocorrección para proteger a la información almacenada frente a posibles fallas (ninguna computadora está garantizada contra fallas, la suya tampoco).
Nos basaremos en este apunte en la denominada 'teoría de la información' elaborada por Shannon en 1948 y que ha cobrado mucha vigencia con el advenimiento de la era de las computadoras digitales. Para comenzar debemos partir de algunas definiciones sobre la nomenclatura a utilizar, nomenclatura basada en la teoría de la información de Shannon.
Fuente: Una fuente es en sí misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresión de datos tomaremos como fuente al archivo a comprimir y como mensajes a los caracteres que conforman dicho archivo.
Mensaje: Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje.
Codigo: Un código es un conjunto de unos y ceros que se usan para representar a un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. 
Informacion: La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo para representar al mensaje.










Fuente
http://www.textoscientificos.com/informacion/teoria