Si se consideran sólo dos alternativas, tales como el estado de encendido/apagado de un circuito integrado o el lanzamiento de una moneda balanceada, hay 1 bit de información presente. Si se consideran 10 alternativas equiprobables como, por ejemplo, los números del 0 al 9 pueden contener 3.322 bits de información (log2 10 = 3.322). Una forma sencilla de calcular log2 es utilizar la fórmula siguiente:
todo lo que deseas saber de la Ingenieria de Metodos engineering, industrial engineering, time study, motion and time study, work study
viernes, 18 de diciembre de 2020
miércoles, 2 de diciembre de 2020
Diseño del trabajo cognitivo - TEORÍA DE LA INFORMACIÓN Parte 2
La teoría de la información mide la información en bits, donde un bit es la cantidad de información que se requiere para decidir entre dos alternativas equiprobables. El término bit proviene de la primera y última parte de las palabras binary digit que se utilizan en la teoría de computadoras y comunicaciones para expresar el estado encendido/apagado de un circuito integrado o el estado de polarización directa o inversa de pequeños fragmentos de núcleo ferromagnético que se utilizaron en las memorias de las computadoras arcaicas. Matemáticamente, esto se puede expresar como:
Suscribirse a:
Entradas (Atom)