miércoles, 29 de febrero de 2012

Disquisición digital/informacional: ¿Qué son los bits?

Pasa que en este último tiempo he comenzado a leer de ciencias cognitivas, básicamente porque mi tema de tesis está directamente relacionado con ello. Por esas casualidades de la vida, encontré un libro (si, lo encontré, y gratis) en que se resume la historia de las ciencias cognitivas. Es interesante porque pone a las ciencias cognitivas en contraste con el conductismo, teoría del comportamiento humano que tanto puebla el quehacer de muchas de nuestras escuelas, y también puebla las mentes de nuestros sistemas político-económicos.






Más allá de las diferencias entre las teorías de conductismo y cognitivismo (y entre éstas y las teorías constructivistas), me encontré con una interesante cuenta histórica que muestra la convergencia de ciertos descubrimientos en disciplinas tales como lógica, matemáticas, ingeniería, y neurología. Entre éstas se cuenta la idea del bit y su asociación a las ciencias de la información.

La idea se desarrolla como sigue;
1. La lógica de las proposiciones TRUE o FALSE (verdadero o falso) se comprende como la de ejecutar una acción en caso de TRUE y de no ejecutarla (o ejecutar otra) en caso de FALSE.
2. Al ser una proposición binaria (es TRUE o FALSE), es posible entender TRUE como un interruptor cerrado y FALSE como un interruptor abierto en un circuito eléctrico.
3. La información puede ser pensada en cualquier manera de forma independiente del contenido o materia, siendo una simple decisión entre dos alternativas igualmente plausibles: encendido o apagado (TRUE o FALSE)
4. Entonces, la unidad básica de la información sería la requerida para seleccionar una de las dos alternativas igualmente plausibles. Esto es lo que se llama bit, que es el acrónimo de Binary Digit.
5. Por ejemplo, la cantidad de información para seleccionar un mensaje entre 8 posibilidades sería de 3 bits: 1 bit para limitar de 8 a 4 las posibilidades, otro bit para limitar de 4 a 2, y el tercer bit para limitar de 2 a 1.

Esta conceptualización, que viene desde los años 50, junto a otros descubrimientos y desarrollo de conceptos respecto al cerebro y el sistema nervioso, permite que hoy vivamos en parte lo que se llama la "era de información."

Fin de la disquisición.

2 comentarios:

  1. Ivan,

    La verdad que el concepto (me refiero a las operaciones) al que te refieres se llama Algebra de Boole y es de alrededor 1854. Sin embargo, como tu mencionas, alrededor de los agnos 50 Claude Shannon la uso para circuitos de comunicacion electrica biestables.

    http://es.wikipedia.org/wiki/%C3%81lgebra_de_Boole

    Saludos!

    Denis

    ResponderEliminar
  2. Gracias por la aclaración Denis. Y sí, es cierto que matemáticamente (o algebraicamente) las operaciones ya tenían un antecedente. Eso me hace pensar en todo el potencial transformador que pueden tener nuestros conceptos de hoy hacia el futuro.
    Saludos!

    ResponderEliminar

Comenta/opina acá