Filtrar


Questões por página:
mostrar texto associado

Se as probabilidades (i = 1, ..., n) forem todas iguais, então a quantidade média de bits requerida para representar cada letra do código será, no mínimo, 2log2(n) bits.

mostrar texto associado

Considere que H seja a entropia de Shannon e que Nessas condições, se a taxa de transmissão por um canal for de R bits por segundo, a taxa média de transmissão de letras do código não poderá ser superior a letras por segundo.

mostrar texto associado

Diferentemente da entropia de Renyi, a entropia de Shannon atinge o seu máximo valor quando todas as probabilidades (i=1, .., n) são iguais.

mostrar texto associado
Nessas condições, a entropia de Renyi será igual à de Shannon sempre que q for um número inteiro positivo.
mostrar texto associado

Se todas as probabilidades forem iguais, então a entropia de Shannon e a entropia de Renyi serão iguais a ln(n), para qualquer valor de q.