next up previous contents
Siguiente: Distancia de Hamming Arriba: Códigos binarios Anterior: Códigos binarios


Código por mayoría de votos

Supongamos que se quiere transmitir mensajes, desde una parte emisora a una receptora, por un canal que comete errores con una distribución binomial, es decir, existe un $p\in[0,1]$ tal que para cada $x\in\mathbb{F}_2$, si $\tilde{x}$ es el valor recibido a través del canal, entonces la probabilidad de error es

\begin{displaymath}\,\mbox{\rm Prob}\,\{\tilde{x}\not = x\} = \,\mbox{\rm Prob}\,\{\tilde{x} + x=1\} = p.\end{displaymath}

Como un primer paso para detectar errores se podría utilizar, para un número $n\in\mathbb{N}$ impar, el código $\kappa_n:x\mapsto x^{(n)}$, que codifica cada bit $x$ mediante $n$ repeticiones consecutivas de él mismo. En la parte del receptor, para decodificar un bloque $\sigma$ de $n$ bits, se procede por simple mayoría: el valor $x$ que aparezca más veces en $\sigma$ es el que se toma como transmitido.

La probabilidad de cometer un error en la decodificación es la probabilidad de que habiendo transmitido un bit $x$, su valor complementario sea mayoritario en $\sigma$. Así pues ésta es:

\begin{displaymath}P_{en} = \sum_{j=\frac{n+1}{2}}^{n} {n\choose j} p^j(1-p)^{n-j} = \sum_{i=0}^{\frac{n-1}{2}} {n\choose i} p^{n-i}(1-p)^i .\end{displaymath}

Para $p<\frac{1}{2}$ se tiene $P_{en}\to 0$ conforme $n$ aumenta de tamaño; para $p=\frac{1}{2}$ se tiene $P_{en}=\frac{1}{2}$ independientemente del valor de $n$; pero para $p>\frac{1}{2}$ se tiene $P_{en}\to 1$ conforme $n$ aumenta de tamaño.


next up previous contents
Siguiente: Distancia de Hamming Arriba: Códigos binarios Anterior: Códigos binarios
Guillermo M. Luna
2010-05-09