· PDF fileRitmo (ou taxa) de informação • Se a fonte de entropia H(X)...
-
Upload
hoangduong -
Category
Documents
-
view
218 -
download
0
Transcript of · PDF fileRitmo (ou taxa) de informação • Se a fonte de entropia H(X)...
Departamento de Engenharia Electrotécnica e de Computadores
Apontamentos de
TTeeoorriiaa ddaa IInnffoorrmmaaççããoo
Sílvio A. Abrantes
2003
1. Shannon e a Teoria da Informação
1.1. Introdução e perspectiva histórica
1.2. Medidas de informação: incerteza, entropia, informação mútua média e capacidade de canal
1.3. Teorema da codificação de canal: ritmo de informação, teorema da codificação de canal, codificação de fonte, redundância
1.4. Teorema da codificação de fonte: códigos unicamente descodificáveis, códigos de prefixação, desigualdade de Kraft-McMillan, teorema da codificação de fonte, extensões
1.5. Códigos de fonte para compressão de dados: técnicas de compressão sem perdas, códigos baseados em modelos estatísticos e em dicionários: código de Shannon-Fano, código de Huffman, código aritmético, código de Lempel-Ziv (L-Z)
1.6. Fontes e canais contínuos: entropia diferencial, teorema da capacidade de canal (lei de Shannon-Hartley), limite de Shannon, plano da probabilidade de erro e plano da eficiência em largura de banda
2. Codificação para correcção de
erros
2.1. Introdução
2.2. Técnicas ARQ
2.3. Códigos de blocos
2.4. Códigos cíclicos
2.5. Códigos convolucionais
2.6. Códigos entrelaçados e concatenados
!!
!!""!!""!! ""##$$%%&&''(())**&&!!++!!,,++%%--,,++..$$//0011!!22//--$$33%%//..11!!
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' 7'
421##&#!+!1!5+&%/1!'1!"#6&%71)*&!
!
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' 8'
"#$%&'()*&!
!"#$!"#$%&'("$&)'*&'+#,-.%+&/0#$%$&'('))*+,#$-#+#$#./0,+,+"1)$0"#$1%20#'
,&%2' &,3)&2$ 0"#$ 3"$23"+!%1&' ,&%2' 1&2!&2$ /0'$ (1&.03#$ #1)$ -+,&(4-,1)$
5*),(1)$.1$-+16'(71$'$(1"-#+#891$.'$),)7'"#)$.'$(1"0&,(#8:');$
<$ 5+&%/1! '1! "#6&%71)*&$ %$ 0"#$ .,)(,-=,&#$ ('&7+#.#$ >$ ?1=7#$ .'$ 0"#$
#51+.#@'"$ "#7'"*7,(#$ (1"0"$ #1$ ')70.1$ .1$ &$,&4".&,".!#$ '$
,&.%3-)&/0#$ .#$ %.5#$,&/0#;$ A1"1$ 7#=2$ B1+&'('$ 0"#$ 6&2"' !"7$%+&$ -#+#$
#(7,?,.#.')$(1"1C$
• 15)'+?#8912$"'.,.#2$(1"-+'))91$'$#+"#3'&#"'&71$.'$.#.1)$
• 7'='(1"0&,(#8:')$
• ')7,"#891$
• 71"#.#$.'$.'(,):')$
• +'(1&D'(,"'&71$.'$-#.+:');$
E'=#7,?#"'&7'$>)$7'='(1"0&,(#8:')2$#$F'1+,#$.#$G&B1+"#891$
• B1+&'('H&1)$3%2!&2$-#+#$"'=D1+#+$#$"5%+%8.+%&$.#$(1"0&,(#8912$(1"$5#)'$
&1$')70.1$.#)$-1)),5,=,.#.')$'$=,",7#8:')$,&'+'&7')$>)$=',)$B4),(#);$
<$8&'/6/.1)*&$I.'$B1&7'$'$.'$(#&#=J$%$0"#$B1+"#$.'$"'=D1+#+$#$'B,(,K&(,#$.#$(1"0&,(#891;$
• "2!&6")"+"')%,%!"2$-#+#$'))#$'B,(,K&(,#2$'"$+'=#891$#1)$/0#,)$-1.'+'"1)$
(1"-#+#+$.,?'+)1)$),)7'"#);$
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' 9'
"#$%&'()*&!
<$ F'1+,#$ .#$ G&B1+"#891$ %$ 0"#$ 7'1+,#$ ,&!",9!%+&$ /0'$ 7+#7#$ .'$ 7+K)$
(1&(',71)$5*),(1)C$
• <$,"*%*&'*&'%.5#$,&/0#:$
• <$+&3&+%*&*"$.'$0"$(#&#=$.'$(1"0&,(#8:')$7+#&)B'+,+$,&B1+"#891;$
• <$ +#*%5%+&/0#2$ (1"1$ "',1$ .'$ 07,=,3#+$ 1)$ (#&#,)$ (1"$ 71.#$ #$ )0#$
(#-#(,.#.';$
L)7')$7+K)$(1&(',71)$')791$=,@#.1)$-'=1$/0'$)'$-1.'$(D#"#+$1$$
!"#$%#&'!()*+'&#*,'-!+'!"#$%.'!+'!/*0$%&'12$!3+#!45'**$*67!
91'1!(71!6&#$+!'+!/#6&%71)*&!+!(7!.1#1:!'+!.&7(#/.1)*&;!+</-$+!(71!
$=.#/.1!'+!.&'/6/.1)*&!$1:!>(+!1!/#6&%71)*&!,&'+!-+%!$%1#-7/$/'1!1$%10=-!
'&! .1#1:! 1! >(1:>(+%! %/$7&! /#6+%/&%! ?! .1,1./'1'+! '&! .1#1:! +! .&7! (71!
6%+>(@#./1! '+! +%%&-! 1%A/$%1%/17+#$+! ,+>(+#1! 1,+-1%! '1! ,%+-+#)1! '&!
%(B'&C!
!
• M$ #)-'(71$ 2-$3$"".*".!"$ $ .')7'$ 7'1+'"#$ %$ #$ 7+#&)",))91$ 2",' "$$#2$
#7+#?%)$ .'$ 0"$ (#&#=$ +0,.1)12$ 0"#$ (1&.,891$ /0'$ %$ 157,.#$ #7+#?%)$ .'$
(1.,B,(#891$#.'/0#.#;$
• <$ +#*%5%+&/0#$ %$ 0)#.#$ -#+#$ &*&3!&$$ #$ B1&7'$ '$ 1$ (#&#=$ -#+#$ #$ "*N,"#$
7+#&)B'+K&(,#$B,*?'=$.'$,&B1+"#891;$
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' :'
"#$%&'()*&!
$
<$F'1+,#$.#$G&B1+"#891$7'&7#$+')-1&.'+$#$-'+@0&7#)$.1$@%&'+1C$
$
• ;'<-"'='&'%.5#$,&/0#>'?#,#'&',"*%,#2>'
• @-&%2'20#'#2')%,%!"2'5-.*&,".!&%2'A'!$&.2,%220#'*"'%.5#$,&/0#>'
• @-&%2' 20#' #2' )%,%!"2' 5-.*&,".!&%2' A' "B!$&+/0#' *"' %.5#$,&/0#' *#',"%#'
&,6%".!">'
• ?#,#' =' <-"' 2"' *"1",' 3$#C"+!&$' *%23#2%!%1#2' #-' "<-%3&,".!#2' <-"' 2"'
&3$#B%,",'*"22"2')%,%!"2>'
• ;2' *%23#2%!%1#2' "' "<-%3&,".!#2' &+!-&%2' &3$#B%,&,D2"E' #-' .0#E' *"22"2'
)%,%!"2>'
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' ;'
D+%-,+.$/01!2/-$3%/.1!
• O+'&P&(,1)$ +'"171)$ .#$ F'1+,#$ .#$ G&B1+"#891C$ .3'/E&! F&%-+! IQ#"0'=$
R1+)'2$STUVHSTUTJ;$
• <)$ -+,"',+#)$ 7'&7#7,?#)$ -#+#$ .'B,&,+$ 0"#$"'.,.#$ .'$ ,&B1+"#891$ B1+#"$
B',7#)$-'=1)$7'W+,(1)$.#$(1"0&,(#891$GC!HI>(/-$$I7'='@+#B,#$'$(+,7%+,1)$.'$
XY/0,)7$ Z$ S[V\HS[VTJ$ '$ G1%$:+I$ IS[VTJ$ '$ -'=1$ ')7#74)7,(1$ JC! K/-2+%$
IS[V]J;$
• G1%$:+I$ .'B,&,0$ -'=#$ -+,"',+#$ ?'3$ #$ <-&.!%*&*"' *"' %.5#$,&/0#$ (1"1$
)#(&$%!,#$.1$&P"'+1$.'$)4"51=1)$10$"'&)#@'&);$
• M$ #))0&71$ )W$ 71"10$ #$ )0#$ B1+"#$ #(70#=$ #-W)$ 1)$ 7+#5#=D1)$ .'$ 8:1('+!
421##&#$ IS[\TJ2$ L/+#+%$ IS[\TJ$ '$ M&$+:#/N&0$ IS[\^J;$ _1)$ 7+K)$ B1,$
421##&#$ /0'"$ ')7#5'='('0$ 1)$ B0&.#"'&71)$ "#,)$ ,"-1+7#&7')$ '$
@'&%+,(1)$ .#$ 7'1+,#2$ &1$ )'0$ #+7,@1$ FGH"' I&!H",&!%+&)' GH"#$J' #5'
?#,,-.%+&!%#.F'I`'==$QY)7'"$F'(D&,(#=$a10+&#=2$a0=D1$b\T$'$M0705+1$b\TJ2$
(1&),.'+#.1$#$6&2"'.#$"1.'+&#$7'1+,#$.#$(1"0&,(#891;$
• _0+#&7'$#$Vc$d0'++#$R0&.,#=C$
e$HC!L/+#+%!I!;Q;<;J$'$OC!M&:7&E&%&66$I!;E;Q;Q;J$
<-+')'&7#+#"$,&.'-'&.'&7'"'&7'$#$)1=0891$-#+#$#=@0&)$-+15='"#)$+'=#(,1&#.1)$
(1"$#$,&B=0K&(,#$.1$+04.1$)15+'$1)$),&#,)$.'$+#.#+2$.'$"1.1$/0'$')7')$B1))'"$
(1&?'&,'&7'"'&7'$.'7'(7#.1)$(1"$?,)7#$>$'N#(7#$=1(#=,3#891$.1)$#?,:')$,&,",@1);$
e$8:1('+!421##&#$I!;Q;<;J$Z$(+,-71@+#B,#$
F'&.1$(1"'8#.1$-1+$(1&),.'+#+$#)$?#&7#@'&)$+'=#7,?#)$.'$"0,71)$),)7'"#)$.'$
(1"0&,(#8:')$&1?1)$&#$%-1(#$IOARfJ2$-+1(0+10$0"$"%71.1$@'+#=$.'$(1"-#+#891$
.1)$)'0)$"%+,71);$E'?'=#&.1$0"#$-'+('-891$&17*?'=$5#)'#.#$=#+@#"'&7'$'"$
(1&),.'+#8:')$D'0+4)7,(#)2$QD#&&1&$-+1(0+10$0"#$7'1+,#$5*),(#$-#+#$#$
(1"0&,(#891$#7+#?%)$.'$(#&#,)$+0,.1)1);$
• M07+#)$ (1&7+,50,8:')C$ G177/#E! IS[]gJ2$ K+/#-$+/#$ IS[]\J2$ K1#&$ IS[]V2$S[hSJ2$ P:/1-$ IS[]\2$ S[hUJ2$ Q+%:+N17,$ IS[h\J2$R1::1E+%$ IS[h]J2$ S/$+%A/$IS[h^J2$ F1--+I$ IS[h[J2$ 8&0+%$ IS[^VJ2$ 4:+,/1#$ i$ L&:6$ IS[^UJ2$ Q:12($$IS[^^J;$
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' <'
D+%-,+.$/01!2/-$3%/.1!
H&%A+%$!L/+#+%$ IjAY5'+&'7,()C$ A1&7+1=$ #&.$ A1""0&,(#7,1&$ ,&$ 7D'$ <&,"#=$
#&.$7D'$R#(D,&'j2$S[\TJ$(1=1(10$#$)'@0,&7'$/0')791C$
K&*#' -,' +#.C-.!#' *"' 2%.&%2' 3#22L1"%2' <-"' .0#' 20#' *&' .#22&' "2+#)H&E' ,&%2' #' $-L*#'
M%."1%!91")NE'+#,#'='<-"'5&$",#2'&',")H#$'"2!%,&!%1&'*#2'1&)#$"2'3$"2".!"2'"'5-!-$#2'
*#'2%.&)'$"+"6%*#>'
L)7#"1)$&1$k"5,71$.#$G"#$%&'*&'K"!"+/0#2$1&.'$#)$)1=08:')$W-7,"#)$-#+#$')7'$
-+15='"#$'$107+1)$)'"'=D#&7')$)91$-+1(0+#.#);$
$
M$ 7+#5#=D1$ .'$ 421##&#$ ')7*$ "#,)$ +'=#(,1&#.1$ (1"$ 1$ /0'$ D#5,70#="'&7'$
#(D#"1)$ /0'$ %$ #$ +#,-.%+&/0#2$ 1&.'$ 1$ 3$#+"22&,".!#' *#' 2%.&)$ )'$ -1.'$
B#3'+$!&.!#'.#'",%22#$'+#,#'.#'$"+"3!#$;$
421##&#$(1=1(10$')7#$/0')791C$
K&*#'#'+#.C-.!#'*"',".2&(".2'3#22L1"%2'<-"'-,&'5#.!"'3#*"'3$#*-4%$'"'<-"'.0#'20#'
*&' .#22&' "2+#)H&E' +#,#' =' <-"' &2' ,".2&(".2' *"1"$0#' 2"$' $"3$"2".!&*&2' 3&$&' <-"'
,")H#$' !$&.2,%!&,' &' %.5#$,&/0#' .-,' *&*#' 2%2!",&' +#,' &2' 2-&2' )%,%!&/O"2' 5L2%+&2'
%."$".!"2>'
O#+#$7+#7#+$.')7'$-+15='"#$'"$7'+"1)$@'&%+,(1)$%$&'('))*+,1$
(1&('&7+#+"1H&1)$"#,)$&#$,&B1+"#891$/0'$&1)$),&#,)$
!"#$%&'(&')*+#$,&-.#' )*/$#(0-.#'"'1"$21"3/%4&'5%2/6$%3&' ='
!!
!!""##""!! ""##$$%%$$&&''!!$$##!!%%(())**++,,&&--..**!!
!
•! ! "#$%&'%()!
•! ! *#'&+,-)!
•! ! "#.+&/)01+!/2'3)!/45-)!
•! ! 6),)$-5)5%!5%!$)#)7!
"#$%$&!$&!%()*+,&-.*!
!
/()*+,&-.*! 8! '35+! )93-7+! 93%! 4! ,&+53(-5+! ,+&! 3/)! .+#'%! ,)&)! :%&!'&)#:.%&-5+!,)&)!+!3'-7-()5+&;!
<+!93%! &%:,%-')!=!/%5-5)!5)! -#.+&/)01+!,+5%/+:!$+#:-5%&)&!$*%'!0*(1*'!
$#!2%'1&>!
•! ?@"A"BCDEF!8!)!/%5-5)!5)! -#.+&/)01+!%:'G!&%7)$-+#)5)!$+/! $%&'()'*+!
H%/!&%7)01+!=!/%#:)I%/!)!:%&!'&)#:/-'-5)J;!
•! KE<@*! 8! )! /%5-5)! 5)! -#.+&/)01+! 4! 3/)! -#5-$)01+! 5)! ,$-'(.+.'/ .'/
'0&1,2+!%L%&$-5)!,%7)!.+#'%!)+!!:%7%$$-+#)&!3/)!/%#:)I%/;!
!
•! M%! )! .+#'%! ,35%&! %:$+7N%&! 7-O&%/%#'%! %#'&%! /3-'):! /%#:)I%#:!
5-.%&%#'%:! !! +! 3'-7-()5+&! '%&G! /3-'):! 52O-5):! %/! &%7)01+! =!
/%#:)I%/!93%!O)-!:%&!%:$+7N-5);!
•! M%! #1+! N+3O%&! #%#N3/)! ,+::-P-7-5)5%! 5%! %:$+7N)! H! !! :Q! 3/)!
/%#:)I%/!,+::RO%7J!!!#1+!NG!-#$%&'%()!!!#1+!NG!-#.+&/)01+;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 1'
"#$%$&!$&!%()*+,&-.*!
!"#$%&%'"%'"&()*+#',-*"$(.*/.$"0+*1'1&/&%'%$2"
!"#$%&'()$*+$,*',-$./"#$%&'()$01*
!!
" # $%& $%&! ! !"!
"# $ % %%
= = = ! ! HS!!!23!!!!TJ!
! ! ! ! ! ! ! M%! 4!U!V! !! P-'!
! ! ! ! ! ! ! ! 4!U!%! !! #)'!
! ! ! ! ! ! ! ! 4!U!TS! !! N)&'7%W!
?/! 5RI-'+! P-#G&-+! HS! %! TJ! ,+5%! '&)#:,+&')&! 3/)! -#.+&/)01+! :3,%&-+&! +3!
-#.%&-+&!)!T!P-'X!$+#:+)#'%!):!,&+P)P-7-5)5%:!5%!+$+&&Y#$-)!5%!$)5)!5RI-'+;!
*:')! /%5-5)! 7+I)&R'/-$)! 5%! -#.+&/)01+! 4! )! 2#-$)! .3#01+! 93%! :)'-:.)(! ):!
:%I3-#'%:!,&+,&-%5)5%:>!
TJ! !/**!**5! ! ,)&)!5*"*2/**"*6! H)!)3'+Z-#.+&/)01+!4!#1+Z#%I)'-O)J!
VJ! !/*"*5! ! ,)&)!2/*"*6! ! H)!-#$%&'%()!)3/%#')!)!-#.+&/)01+J!
[J! !/*7*!8! ! ,)&)!2/**9**28!
\J! $+/!/%#:)I%#:!-#5%,%#5%#'%:!:/!%!;8!! H!!2+:/;80*<*2/28J!
! ' ' '
! ! !$%& $%& $%&&' & '
& ' & '
# # #%% % %
= = + = + !
! H)!-#.+&/)01+!'+')7!4!)!:+/)!5):!-#.+&/)0]%:!-#5-O-53)-:J!
*^*_`AE>!! (!
)=% a! !
*
)% = !
! "#.+&/)01+!'&)#:,+&')5)!,%7+!5RI-'+!S>! ( '
!$%& '
)# = ! = !P-':!
! "#.+&/)01+!'&)#:,+&')5)!,%7+!5RI-'+!T>! ! '
*$%& (+)!
)# = ! = !P-':!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 2'
3(1+*0%&!4*5!%()*+,&-.*!,6$%&7!
•! C3'+Z-#.+&/)01+! 8! 4! 5%.-#-5)! %/! '%&/+:! 5):! /%#:)I%#:! +3! :R/P+7+:!
-#5-O-53)-:;!
•! "#.+&/)01+!/45-)! H#(1+*0%&J!8! 4! 5%.-#-5)! %/! '%&/+:! 5+! $+#b3#'+! 5):!
/%#:)I%#:!93%!)!.+#'%!,+5%!,&+53(-&;!
M%b)! 3/)! #$"-=* >/?@%=-'! A! $+/!B! :R/P+7+:! 5-.%&%#'%:! %! %:')'-:'-$)/%#'%!
-#5%,%#5%#'%:;!
•! c3)#5+!+!:R/P+7+!5%!+&5%/!8!4!'&)#:/-'-5+!)!-#.+&/)01+!'&)#:,+&')5)!4!
'$%&' '# %= ! !P-':;!
•! C! -#.+&/)01+! /45-)! )::+$-)5)! )+:! B! :R/P+7+:! 5)! .+#'%! A! 4! )!,6$%&!
0*($#+&$&! 5):! )3'+Z-#.+&/)0]%:! 5%! $)5)! :R/P+7+;! C! %::)! -#.+&/)01+!
/45-)!,+&!:R/P+7+!5)!.+#'%!$N)/)Z:%!#(1+*0%&!%!5%:-I#)Z:%!,+&!CHAJ>!
! ! " # '
! !
$%&( (
' ' ' '' '
) * % # %= =
= = !" " %
,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,
! P-':d:R/P+7+!
E!93%!4!93%!:-I#-.-$)!)!#(1+*0%&!5%!3/)!.+#'%Te!M-I#-.-$)!93%>!
D&4$%'* ")$* E$??'&$?* E%=F=%* G,'H* $* ?I&4$H$* G,=* '* #$"-=* /%J*E%$>,K/%*'*?=L,/%M*=&*&N>/'*=?E=%'&$?*$4-=%*C*4/-?*>=*/"#$%&'()$*E$%*?I&4$H$M*$,*OC*4/-?*",&'*&="?'L=&*>=*O*?I&4$H$?M*?=*O*#$%*=H=F'>$P*
,
!-.,+,-&./01-2/2,-2&./,/,0123%45/,60,7.,85820./,,9:85;%,<,6095156/,4%3,3,=,4,$1,#+,0.,>70,4,<,/,;%182/120,60,?%$2@./11,
0,#, %, 1A.03%, 60, 082/6%8, /;088:B058, /%, 85820./C, -82/, 971DE%+, >70, 9%310;0, 7./, .0656/, >7/1252/25B/, 6%, &3/7, 60,
./-5/6&7/78,6%,85820./+,<,80.0$F/120,1/,9%3./,G,0123%45/,6/,H0%35/,6/,I19%3./DE%C,
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 3'
3(1+*0%&!
•! f)/+:!&%%:$&%O%&!)!.Q&/37)!5)!%#'&+,-)!$+/+!
! ! ! " +! ' '
!
+ + # $%&(
( ''
') % % % % %=
… = !" ! HP-':d:R/P+7+J!
•! <+!$):+!5%!3/)!.+#'%!+3!/%#:)I%/!P-#G&-)!$+/!V!:)R5):!,+::RO%-:X!$+/!
,&+P)P-7-5)5%:!E!%!6.EX!)!%#'&+,-)!4!5%:-I#)5)!,+&!#HEJ!%!O)7%!
! ! ! ' '" # " +! # $%& "! #$%& "! #9 ) 9 9 9 9 9 9! = ! ! ! !# = !
(C' (C) (CJ (CK !
(C'
(C)
(CJ
(CK
!
#"4#
,
1:2;<9&/07805=/0$<:280"&:>;&/0
•! D%!/+5+!I%&)7X!$+/!3/!)7.)P%'+!5%!"!:R/P+7+:!'%/Z:%!
, , , , ? ) ,'" # $%&* ($ $
, , , , %, , %,C!.+#'%!#1+!.+&#%$%!-#.+&/)01+X!%/!
/45-)!!!#1+!NG!-#$%&'%()!93)#'+!=!
/%#:)I%/;!
, _GL-/)!-#$%&'%()!+3!/GL-/)!7-P%&5)5%!5%!
%:$+7N)! !! '+5+:! +:! :R/P+7+:! :1+!
%93-,&+OGO%-:!H#%#N3/!4!.)O+&%$-5+J;!
*L;>!)!.+#'%!,&+53(!$+#'-#3)/%#'%!+!
/%:/+! :R/P+7+! H'+5):! ):!
,&+P)P-7-5)5%:! 5+:! :R/P+7+:! :1+!
#37):!%L$%,'+!3/)X!3#-'G&-)J!
, *L;>,
%' =(
!! ) = )./L =
= %!#! + %'#' +…= (%'#' = $%&' (,
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 4'
3(1+*0%&!8!39#,0:*'!
,
3;3"<=>!?!
c3)7! 4! )! -#.+&/)01+! /45-)X! %/! P-':d$)&G$'%&X! 5)! 7R#I3)! ,+&'3I3%:)! HV[!
7%'&):J!:3,+#5+!$)5)!7%'&)!%93-,&+OGO%7e!
"#$!!
$%& )+M''*
) = ! = !%&'(!)*+,-*'.,! & !"#"$%&'()%*"+*!
,
,
3;3"<=>!@!
<)!&%)7-5)5%!):!7%'&):!#1+!:1+!%93-,&+OGO%-:;!C5/-'-#5+!HCD_"@"<DE;;;J!93%!
):!7%'&):!+$+&&%/!$+/!):!,&+P)P-7-5)5%:!-#5-$)5):X!93)#'+!O)7%!)!%#'&+,-)e!
! CX!*X!EX!@>!! ! E!U!SXTS! !
! gX!"X!<X!FX!M>!! E!U!SXSh! !
! 6X!DX!KX!AX!_X!`X!?>! E!U!SXSV!
! iX!jX!kX!cX!fX!^X!B>! E!U!SXST!
F;>!
,, ,' ' ' '") (+!($%& (+! M (+(N $%& (+(N N (+('$%& (+(' N (+(!$%& (+(!#
*+O',P528Q;/3R;203
) = ! ' + ' + ' + ' =
=
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 5'
3(1+*0%&!,A9%,&!
B#*+#,&!
3*="-%$E/'* #"*) *>=*,&'*#$"-=*%=?E=/-'*?=&E%=* P*Q*F'H$%*&J:/&$* '-/"L=.?=* 'E="'?* G,'">$* -$>'?* '?* ?'I>'?* >'* #$"-=* ?)$*=G,/E%$FJF=/?P*
(*) '$%&#"( $$
C#,*('1+&-.*!
C!5%/+#:'&)01+!P):%-)Z:%!#)!5%:-I3)75)5%!! !$1 !$ @@ ;!M%b)! &
&
A
%( = X!%/!93%!
R/!%!2/!:1+!,&+P)P-7-5)5%:!5-:$&%'):!OG7-5):X!-:'+!4X!
! ! ! % A !! !
+ (,,,0,,, !( (
& & & && &
% A= =
) =" " =
!!$M%#5+!%#'1+! $1 X!'%&%/+:>!@@
! ! $1 !& &
& &
A A
% %$ ! X!+3! !$1 $1& & & & &% % A % % A! $ ! ! &
&
B
&A
M+/)#5+!,)&)!'+5+:!+:!//>!
! ! ! $ !! ! ! !
$1 $1( ( ( (
& & & & && & & &
% % A % % A= = = =
! !" " " "
_):!" " !%! $1 ;!`+&')#'+X!! !
! ! (( (
& && &
A %= =
! = ! = '$1 ' $%&B =
!!! !! !' '
! !
$1 ' $%& $1 ' $%&( (
& & && &
% % %= =
! $ !" " '
!
" # $%&(
& &&
) * % A=
$ !"
":'+!4!OG7-5+!,)&)!'+5+:!+:!O)7+&%:!5%!R/X!-#$73-#5+!!
&A (= !H,+&93%!#1+eJ;!
! !! ' '
! !
!" # $%& $%& $%&
( (
&& &
) * % ( % ((= =
$ ! = =" " '& ;! ! @PGP>P!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 6'
39#,0:*D!
%()*+,&-.*!E*(1%$&!(5,&!%,&F#,!
$#!1#:#2%'.*!#!#,!1#91*!
B#:#2%'.*!H$+/!"#5%,%#5Y#$-)!%#'&%!MR/P+7+:J!
•! A-#N):!)$'-O):>! lhl!
•! `+#'+:!5%!%$&1>![lS!SSS!!!mSn!,+#'+:d7-#N)!!!!mSn!'!lhl!U![\o!mSS!,+#'+:!
•! "#.+&/)01+!/45-)!H%#'&+,-)J!/GL-/)>!
! H`&%'+!%!i&)#$+X!&!U!n!#RO%-:!5%!73/-#p#$-)!,+&!q:,+'q!H#RO%-:!%93-,&+OGO%-:JJ!
, ,, , ! K'$%& *! = ,P528,
! HC!6+&%:!H!O%&/%7N+X!O%&5%X!)(37JJ!
, , !,.,=,K,',*,=,'),!,0123%45/,.RL5./S, ! ')'$%& )+MK! = ,P528,
•! */!$)5)!-/)I%/>!! `&%'+!r!i&)#$+>! ['[\o!mSS!U!T!S\n!nSS!P-':d-/)I%/!
! !! ! ! C!$+&%:>! \Xln!'![\o!mSS!U!T!mST!oh[!P-':d-/)I%/!
•! `&+b%$01+!5)!-/)I%/!!HlS!93)5&+:d:!!!Vl!-/)I%#:d:J!
! !`&%'+!%!i&)#$+>! Vl!'!T!S\n!nSS!U!Vm!VVS!SSS!P-'d:!
! !C!$+&%:>! Vl!'!T!mST!oh[!U!\S!S\o![TV!P-':d:!
!
B#91*!H7%'&):!%93-,&+OGO%-:J!
`+&'3I3Y:>! V[!7%'&):!s!%:,)0+!"!)3'+Z-#.+&/)01+!/GL-/)!>!!
$%& )+MK')
! = !P-':!
t! $+/,&-/%#'+!/45-+!5%!$)5)!,)7)O&)!U!V[!
t! 6+#'%25+!5%!-#.+&/)01+!,+&!,)7)O&)!H%#'&+,-)J>!V[!'!\Xln!U!TSlX\!P-':d,)7)O&)!
S$&E'%'">$* @$&* ,&'* /&'L=&* '* 2%=-$* =* T%'"@$M* ,&'* >=?@%/()$* /&E%=??'*
"=@=??/-'%/'*>=*!()KK((
OOM!!(M+)
* *E'H'F%'?P*
F3::+>![[!7%'&):!s!%:,)0+!"![[!7+I![\!U![[!' lXT!U!TmnX[!P-':d,)7)O&)!!*UVWV*E'H'F%'?!
"#I7Y:>!Vm!7%'&):!s!%:,)0+!"!Vm!7+I!Vh!U!Vm!' \Xn!U!TV\Xn!P-':d,)7)O&)!!*XY5Y*E'H'F%'?!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 7'
G&+&E1#+%H&-.*!$#!E&(&%'!
6+#:-5%&%/+:!3/!$)#)7!$+/!B!%#'&)5):!:%7%$$-+#)5):!5%!3/!)7.)P%'+!^!%!O!
:)R5):! :%7%$$-+#)5):!5%!3/!)7.)P%'+!u;!`+5%/+:!%#$)&)&!)! :)R5)!5+!$)#)7!
$+/+!)!O%&:1+!&3-5+:)!5)!%#'&)5);!
v!$+:'3/%!$)&)$'%&-()&!+!$)#)7!5%!53):!/)#%-&):>!
•! )'&)O4:!5+!>/'L%'&'*>=*-%'"?/()$!!
•! )'&)O4:!5)!&'-%/K*>=*E%$4'4/H/>'>=?*>=*-%'"?/()$!H+3!&'-%/K*>$*@'"'HJ!
///
! "
//
/
0123415067
23485087
060908
0:
41464948
4;!
"#$%&$'$!()!*&$+,#-./!(/!0$+$1!
! ! ' ! !
! ' ' ' '
! '
" T # " T # " T #
" T # " T # " T #U " T #V
" T # " T # " T #
C
C
( ( C (
9 D @ 9 D @ 9 D @
9 D @ 9 D @ 9 D @% E *
9 D @ 9 D @ 9 D @
…# $% &…% &=% &… … … …% &
…' (
!
2$*!()!4&/5$5#1#($(),!()!*&$+,#-./!(/!0$+$1!
•! <%:')! /)'&-(! $)5)! 7-#N)! %:'G! )::+$-)5)! )+! $+&&%:,+#5%#'%! :R/P+7+! 5%!
%#'&)5)! %! $)5)! $+73#)! %:'G! )::+$-)5)! )+! $+&&%:,+#5%#'%! :R/P+7+! 5%!
:)R5);!
•! C!:+/)!5+:!%7%/%#'+:!5%!$)5)!7-#N)!4!T>! " T #' &'
9 D @ =!" !
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 8'
I%,0:%)%E&-.*!$#!E&(&%'!$%'E+#1*'!
E*,0*'1*'!
,
LS!
LT!
WS!
WT!
wS
wT
wV
,HwSxLSJ!
,HwVxLSJ
!
!! !"0'+3&+"%'2"#'3+&4$2"%$"3+'(2&,-*5"
! C! /)'&-(! 5%! '&)#:-01+! I7+P)7! 4! -I3)7! )+! ,&+53'+! 5):! /)'&-(%:! 5%!'&)#:-01+!-#5-O-53)-:;!
67)'41/8!
! ![ ](+' (+* (+M
" T #(+) (+M (+!
% F *# $
= % &' (
[ ](+J (+)
" T # (+M (+M
(+N (+*
% E F
# $% &= % &% &' (
!
! !!! [ ] [ ] [ ](+J' (+*K
" T # " T # " T #(+MJ (+))
% E * % F * % E F# $
= ' = % &' (
!
!! !"0'+3&+"%$"6#"%&'7+'#'"%$"0+*1'1&/&%'%$2"%$"3+'(2&,-*5#
! C:! ,&+P)P-7-5)5%:! $+#5-$-+#)-:! " ' & #9 D @ ! H:/! y! %#'&)5)a! ;8! y! :)R5)J! :1+!
-I3)-:!=!:+/)!5):!,&+P)P-7-5)5%:!)::+$-)5):!)+:!5-O%&:+:!z'&)b%$'+:!5%!:/!,)&)!;8;!
!
,
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 9:'
I%,0:%)%E&-.*!$#!E&(&%'!$%'E+#1*'!
E*,0*'1*'D!#9#,0:*!
89$#0/*":*#"*"%&'7+'#'"%$"0+*1'1&/&%'%$2"%$"3+'(2&,-*5":*#*"2�/&)&:'+"*":'('/":*#0*23*"2$76&(3$;"
,
LS!
LT!
WS!
WT!
wS
wT
wV
,HwSxLSJ!
,HwVxLSJ
!!! gG!5+-:!,%&$3&:+:!5%!:5!,)&)!;5>!LS!!"!wS!"!WS!!%!LS!!"!wT!"!WS!
! !! !
( ( ( ( ! (
( ( ( ( ( ( ! ( ( !" T # " T # " T # " T # " T
@ G D @ G D
% D @ % G @ % D G % G @ % D G
" " " "
= +!"""#"""$ !"""#"""$
#
!! gG!5+-:!,%&$3&:+:!5%!:6!,)&)!;5>!:6!!"!Z5!"!;5!!%!:6!!"!Z6!"!;5*
! !!! ! !( ! ( ! ( ( ! ! ( !" T # " T # " T # " T # " T #% D @ % G @ % D G % G @ % D G= +
!! gG!'&Y:!,%&$3&:+:!5%!:5!,)&)!;6>!
! LS!!"!wS!"!WTX!LS!!"!w6!"!W6!%!!L5!!"!wV!"!W6!
! (" T #% D @ !4!)!:+/)!5):!,&+P)P-7-5)5%:!)::+$-)5):!)+:!'&Y:!,%&$3&:+:X!%'$;!
9!&),:1*$(/!;#+$1!,)&#$!/!0$+$1!5#+<&#/!,)%:#+*)8!
LS
LT
WS
WT
,HWSxLSJ
,HWTxLTJ
,HWTxLSJ,HWSxLTJ
!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 99'
3(1+*0%&!G*($%E%*(&:!
C5/-')/+:!93%!NG!5+-:!)$+#'%$-/%#'+:X!A!%![X!$+/!B!,+::-P-7-5)5%:!,)&)!A!%!O! ,)&)![;! M%b)! ! )!,&+P)P-7-5)5%! $+#b3#')!5)!+$+&&Y#$-)! " +" + #& '% @ D #& '@ D ! %!
" T #' &% D @ !)!,&+P)P-7-5)5%!$+#5-$-+#)7!5%! 'D !+$+&&%&!5)5+! &@ !'%&!+$+&&-5+;!
///
! "
//
/
0123415067
23485087
060908
0:
41464948
4; ,
•! C!%#'&+,-)!$+#5-$-+#)7!5%![!5)5)!)!+$+&&Y#$-)! &@ !4!5%.-#-5)!$+/+!
!'
! !
!" T # $%& " T # $%& " T #' " T #
" T #+ " T #+ + " T #! '
" T #C C
' & ' &' '
% D @ % D @ % D @' & % D @' &
) % D @ % D @ % D @& & C &
) E @&= =
=
# $= ' (
= = !" "
%
!
C:!,&+P)P-7-5)5%:!$+#5-$-+#)-:!%#O+7O-5):!:1+!):!5+:!&)/+:!93%!:)%/!5%! &@ ;!
•! C!%#'&+,-)!$+#5-$-+#)7!5%![!5)5+!A!4!5%.-#-5)!$+/+!)!/45-)!,+#5%&)5)!
5%! !,)&)!'+5+:!+:!O)7+&%:!5%!" T #&) E @ &@ >!
! !! ="-%$E/'**@$">/@/$"'H!!
! !
" # " T #
" # " T # $%& " T #
" T #(
& &&
( C
& ' & '& '
% @ ) E @
% @ % D @ % D @
) E *=
= =
=
= !
="
"" &
•! C!%#'&+,-)!$+#b3#')!5%!A!%![!4!5)5)!,+&!
!! !
!" + # $%&' " + #
" + #( C
& '
% @ D& ' % @ D& ') * E
= =
="" !! ="-%$E/'**@$"8,"-'!
•! `&+O)Z:%!93%! ;!" + # " # " #) * E ) * ) E$ +
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 91'
3(1+*0%&!G*($%E%*(&:!
3"4*R,'H* N* '* %=H'()$* ="-%=* '* ="-%$E/'* @$"8,"-'* * =* '* ="-%$E/'*
@$">/@/$"'H* \*
" + #) * E
" T #) E *
JKD! 6+/+!% @ !H&%I&)!5%!i)W%:J!%#'1+!" + # " # " T #& ' & ' &D % @ % D @=
!
'
! !
' '
! ! ! !
!" + # " # " T # $%&
" # " T #
" # " T # $%& " # " # " T # $%& " T
( C
& ' && ' && '
( C ( C
& ' & & & ' & '& ' & '
) * E % @ % D @% @ % D @
% @ % D @ % @ % @ % D @ % D @
= =
= = = =
= =
= ! !
""
"" "" #&
' @
=
!
_):!
•! ! !' '
! !
!
" # " T # $%& " # " # $%& " # " T # " # $%& " #C C
& ' & & & & ' & & &' '
% @ % D @ % @ % @ % @ % D @ % @ %= =
= =" "!""#""$
•! ! !'
! ! !
" # " T # $%& " T # " # " T # " T #( C (
& ' & ' & & && ' &
% @ % D @ % D @ % @ ) E @ ) E *= = =
! ="" "
!!! ! !'
!
" + # " # $%& " # " T #
" # " T #
(
& &&
) * E % @ % @ ) E *
) * ) E *=
= ! + =
= +
"
•! !M%!+:!:R/P+7+:!.+&%/!-#5%,%#5%#'%:!!! !" + # " # " #) * E ) * ) E= +
•! D+!/%:/+!/+5+!:%!,&+O)&-)!93%! " + # " # " T #) * E ) E ) * E= + ;!
•! 6+/+! " + # " # " #) * E ) * ) E$ + ! " T # " #) * E ) *$ !%! " T # " #) E * ) E$ !
•! 6+/+!:%!OYX!)!%#'&+,-)!5%!:R/P+7+:!5%,%#5%#'%:!4!/%#+&!93%!)!%#'&+,-)!
5%!:R/P+7+:!-#5%,%#5%#'%:;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 92'
3(1+*0%&!E*($%E%*(&:D!5,!#9#,0:*!
?/)!.+#'%!,&+53(!'&Y:!:R/P+7+:X!CX!i!%!6X!$+/!):!:%I3-#'%:!,&+P)P-7-5)5%:>!
! O !J '
" #+ " #+ " # + +'N 'N 'N
% * ! % * H % * I) *
= = = = + ,- .
!
, 0 D'0
0 %JD'K@&L0 !0 H0 I0
, !0 (, )QM, !QM,
@&0 H0 !Q', !Q', (,
, I0 !Q', 'QM, !Q!(,
3"4*]=-=%&/"=*'*="-%$E/'*>'*#$"-=M* M*=*'?*="-%$E/'?* *=* P*" #) * " T #) E * " + #) * E
JKD!C:!,&+P)P-7-5)5%:!$+#b3#'):! !O)7%/>!" + # " # " T #& ' & ' &% @ D % @ % D @=
, 0 D'0
0 %J@&MD'L0 !0 H0 I0
, !0 (, )Q!M, !Q!M,
@&0 H0 KQ'N, KQ'N, (,
, I0 !Q'N, )Q!*M, !Q!*M,
6+/+! " # " + #' & '&
% D % @ D=" !! ! !J '
" #+ " #+ " # + +* 'N 'N
% E ! % E H % E I) *
= = = = + ,- .
C::-/X! " # "! *+!J 'N+' 'N# !+'O) E )= = " #) *
" T #) E *
!P-':d:R/P+7+! HU J!
C!%#'&+,-)!$+#5-$-+#)7! :%&G!/%#+&;!D%!.)$'+>!
! ! " T # "(+ ) M+! M# (+N'* ! )= = =) E !
! ! " T # "! '+! '+(# !* H )= = =) E !
! ! " T # "! '+' M+! !(# !+*J* I )= = =) E !
! !O !J '
" T # (+N' ! !+*J (+O*'N 'N 'N
* = ' + ' + ' =) E !P-':d:R/P+7+!
`+&')#'+X!)!="-%$E/'*@$"8,"-'!O)7%! !P-':d:R/P+7+;!" + # !+ 'O (+O* '+'') * E = + =
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 93'
3L5%2*E&-.*!#,!
E&(&%'!$%'E+#1*'!E*,!+5M$*!!
6+#:-5%&%/+:!+!$)#)7!5-:$&%'+!5+!5-)I&)/)!:%I3-#'%>!
///
! "
//
/
0123415067
23485087
060908
0:
41464948
4; ,
•! C!="-%$E/'*>'*#$"-=!5%!/%#:)I%#:X!C+A0X!5%,%#5%!),%#):!5)!.+#'%!^;!^*'*/"@=%-=K'*
=&*%=H'()$*'*:/X!-:'+!4X!%/!&%7)01+!)!93%!:R/P+7+!:%&G!'&)#:/-'-5+;!
•! C!="-%$E/'*>'*?'I>'!5+!$)#)7X!C+[0!8!93%!4!%93-O)7%#'%!)!3/)!#+O)!.+#'%!8!5%,%#5%!
5)!.+#'%!^!%!5+:!%&&+:!5%!'&)#:/-::1+;!^*'*/"@=%-=K'*=&*%=H'()$*'$*?I&4$H$*G,=*?=%J*
%=@=4/>$X! #+! $):+! 5%! 3/)! 5)5)! .+#'%! 5%! /%#:)I%#:! %! 5%! 3/! 5)5+! $)#)7! 5%!
$+/3#-$)01+;!
•! 6+#N%$%#5+!):!%:')'R:'-$):!5)!.+#'%!5%!/%#:)I%#:!%!5+!$)#)7!&3-5+:+!$+#N%$%Z:%!)!
="-%$E/'*@$"8,"-'X!C+AM[0;!^*'*/"@=%-=K'*?$4%=*'*-%'"?&/??)$*>=*:/*=*'*%=@=E()$*>=*
;8P!
•! M3,+#N)/+:!93%!$+#N%$%/+:!:/*!H-:'+!4X!:)P%/+:!93%!:R/P+7+!.+-!%#O-)5+J>!
! '
! !
" T # " # " T # $%& " T #( (
& ' & '& '
&) E * 9 @ 9 D @ 9 D @= =
= !"" * D"-%$E/'*@$">/@/$"'H!!
^*'* /"@=%-=K'*>=*%=@=4=%*;8*G,'">$*:/* *N*="F/'>$M* /?-$*NM*N*'* /"@=%-=K'*&N>/'*>$*
=&/??$%*=&*%=H'()$*'$*G,=*?=%J*%=@=4/>$P*
•! M3,+#N)/+:!93%!$+#N%$%/+:!;8!H-:'+!4X!:)P%/+:!93%!:R/P+7+!.+-!&%$%P-5+J>!
! '
! !
" T # " # " T # $%& " T( (
' & ' &' &
#') * E 9 D 9 @ D 9 @ D= =
= !"" * D"-%$E/'*@$">/@/$"'H;!
^*'*/"@=%-=K'*?$4%=*:/*-=%*?/>$*="F/'>$*G,'">$*?=*%=@=4=*;8M*$,*'*/"@=%-=K'*&N>/'*
>$* %=@=E-$%* >'*&="?'L=&*=&* %=H'()$* '$* G,=* #$/* %='H&="-=* ="F/'>$P* 2$%* $,-%'?*
E'H'F%'?M* N* '* /"@=%-=K'* ?$4%=* '* ="-%'>'* G,=* %=?-'* >=E$/?* >'* ?'I>'* -=%* ?/>$*
$4?=%F'>'P*
C! " T #) * E ! $N)/)Z:%! =G,/F$@'()$* >$* @'"'H>! 4! )! /%5-5)! 5)! -#.+&/)01+!
E=%>/>'!5%O-5+!)+!$)#)7;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 94'
/()*+,&-.*!,N15&!,6$%&!
•! C!%#'&+,-)! " #) * !&%,&%:%#')!)!-#$%&'%()!z)!,&-+&-!:+P&%!)!%#'&)5)!5+!$)#)7!&(1#'!
5%!+P:%&O)&/+:!)!:)R5);!
•! C! %#'&+,-)! $+#5-$-+#)7! " T #) * E ! &%,&%:%#')! )! -#$%&'%()! z)! ,+:'%&-+&-! :+P&%! )!
%#'&)5)!5+!$)#)7!$#0*%'!5%!+P:%&O)&/+:!)!:)R5);!v!)!-#$%&'%()!&%/)#%:$%#'%!:+P&%!+!
)$+#'%$-/%#'+!^!),Q:!:%!$+#N%$%&!+!)$+#'%$-/%#'+!u;!
•! C! 5-.%&%#0)! " # " T #) * ) * E! ! 5%O%! %#'1+! :%&! )! -#$%&'%()! :+P&%! )! %#'&)5)! 93%!
%7-/-#)/+:!+P:%&O)#5+!)!:)R5);!
!! ! c3%&!5-(%&!93%! " # " T #) * ) * E! !'&)53(!)!%=>,()$*>=*/"@=%-=K'!:+P&%!^!93%!
I)#N)/+:!,%7)!+P:%&O)01+!5%!u;!
2$%* =:=&EH$M* ?=* >=E$/?* >'* $4?=%F'()$* >=* [* @$"-/",'%&$?* =:'@-'&="-=* @$&* '?*
&=?&'?*>_F/>'?*G,=*-I"`'&$?*?$4%=*'*="-%'>'*AM*="-)$*")$*%=>,K/&$?* /"@=%-=K'*
"="`,&'1* " # " T # () * ) * E! = P*
•! |!5-.%&%#0)! " # " T #) * ) * E! !$N)/)Z:%!/"#$%&'()$*&_-,'*&N>/'!%#'&%!)!%#'&)5)!^!
%!)!:)R5)!u;!`+5%!:%&!-#'%&,&%')5)!$+/+!3/!I)#N+!5%!-#.+&/)01+!:+P&%!^X!93%!#1+!
'%&R)/+:!:%!#1+!$+#N%$Y::%/+:!u;!
! ! ! ! " W # " # " T ## * E ) * ) * E= ! !
•! c3)#'+!/)-+&!.+&! " T #) * E !/%#+&!4! " W ## * E ;!D)R!:%!7N%!$N)/)&!=G,/F$@'()$;!
•! ?/)!5%'%&/-#)5)!+$+&&Y#$-)! !,+5%!'+&#)&!)!5%$-:1+!:+P&%!)!+$+&&Y#$-)!'D &@ !)-#5)!
/)-:!-#$%&')!H Ja!+!$+#N%$-/%#'+!5)!5-:'&-P3-01+!5%!,&+P)P-7-5)5%:!5%!u!
)b35)!)!&%53(-&!%::)!-#$%&'%()!H
" W # (& '# @ D <
" W # (# * E ) J;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 95'
/()*+,&-.*!,N15&!,6$%&!
t! !"#$%&'()$*&_-,'*&N>/'!%#'&%!)!%#'&)5)!^!%!)!:)R5)!u!5+!$)#)7>!
! !# T '
'! ! !
" W # " # " T #
! !" # " " # $%&
$%& " # " T #
( ( C
& ' & '& && & ' '
# * E ) * ) * E
9 @ 9 D 9 @ D9 @ 9= = =
= ! =
= !" ""@ D
'
!
! _):!% @ X!7+I+!!
" # " + #C
& &'
% @ D=
="
! !
" + #!' '" # " #
! !
'
! !
" + #
! !
" W # " + # $%& $%&
" + #" + # $%&
" # " #
" + # " + #
& '
& '
& '
( C9 @ D
& ' 9 @ 9 D& '
( C& '
& '& '& '
# @ D
( C
& ' & '& '
# * E 9 @ D
9 @ D9 @ D
9 @ 9 D
9 @ D # @ D
+
= =
= =
= =
# $= =% &' (
= =
=
""
""
""
!""#""$
!
t! " + #& '# @ D !4!!)!-#.+&/)01+!/2'3)!%#'&%!)!%#'&)5)! &@ !%!)!:)R5)! X!'D
! ! ! ' ' '
" + # " T # " T #" + # $%& $%& $%&
" # " # " # " #
& ' ' & & '& '
& ' ' &
9 @ D 9 D @ 9 @ DD
9 @ 9 D 9 D 9 @= = =# @ ;!
C! /"#$%&'()$*&_-,'*&N>/'! " W ## * E 4!)!/45-)!5):! -#.+&/)0]%:!/2'3):!%#'&%!):!5-O%&:):!%#'&)5):!%!:)R5):;!
t! `&+O)Z:%!')/P4/!93%! " W # " # " T ## * E ) E ) E *= ! ;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 96'
/()*+,&-.*!,N15&!,6$%&D!5,!#9#,0:*!
?/)! .+#'%! ^! ,&+53(! :R/P+7+:! $+/! ,&+P)P-7-5)5%:! ! '+! *+! J X! +:! 93)-:!
)'&)O%::)/!3/!$)#)7!$+/!)!/)'&-(!5%!,&+P)P-7-5)5%:!5%!'&)#:-01+!
! ! ! ! ! !
' * ( ! *
! * ' * (
( ! * ' *
# $% &% &% &' (
;!
C! -#$%&'%()! 93%! '%/+:! :+P&%! +:! :R/P+7+:! ,&+53(-5+:! ,%7)! .+#'%! ^! 4!
/%#:3&GO%7>! ( )" # ! '+! *+! J !+)J) * )= =
#
!P-':d:R/P+7+;!
2P1* '0*]=*G,'"-$*%=>,K/&$?*'*/"@=%-=K'*?$4%=*A*$4?=%F'">$*'*?'I>'*[\*
* 40*S'H@,H=*'*=G,/F$@'()$*>$*@'"'H*=*'*/"#$%&'()$*&_-,'* ' !" +# @ D P*
$%&! +7!<.=>?!% D" # " # " T' & '&
% @ % D @= #&" ! !! ! ' *
) M M" #+ " #+ " # + +
O !K !K% D % D % D ) *
= + ,- .
!
! ! ( )" # ) O+M !K+M !K !+MM)= =) E !%&'()(@A%?B?!
! !
" T # " # " T #
! ' ! ! ! ' ! ! '+(+ + +( (+ + (+O'
' * * * * * J * *
& &&
) E * % @ ) E @
) ) )
= =
/ 0 / 0 / 0= + + =1 2 1 2 1 2
3 4 3 4 3 4
"!
C!-#.+&/)01+!/2'3)!/45-)!O)7%X!,+&')#'+X! !P-':d:R/P+7+;!
":'+!:-I#-.-$)!93%!)!+P:%&O)01+!5)!:)R5)!5+!$)#)7!P)-L+3!)!-#$%&'%()!5%! !
,)&)!TX\m!Z!SXm[!U!SXn[!P-':d:R/P+7+;!
" W # !+MM (+O' (+J*# * E = ! =
" # !+)J) * =
PJ! 6+/+! " W # " # " T # " # " T ## * E ) E ) E * ) * ) * E= ! = ! X! $+#$73R/+:! 93%! )! %93-O+$)01+!
5%O-5)!)+!$)#)7!4! " # " # " W # (+K) * E ) * # * E= ! = * !!P-':d:R/P+7+;!
M%&G!93%!)!+P:%&O)01+!5+!:R/P+7+! !)b35)!)!5%$-5-&!:%!+!:R/P+7+!!D '@ !.+-!%/-'-5+!
,%7)!.+#'%e!f)/+:!O%&>!
! ! ! '' ! ' '
!
" T # *" + # $%& $%& (+)'
" # )
% D @D
% D= = =# @ !%&'()(@A%?B?!!
'6+#$73-Z:%!93%!%:')!+P:%&O)01+!%:,%$R.-$)!)3/%#')!)!-#5%.-#-01+!:+P&%! @ ;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 97'
/()*+,&-.*!#!#(1+*0%&D!
$#)%(%-O#'!#!+#:&-O#'!%,0*+1&(1#'!!
,
*+,E,X,B/35RB058,/$0/2Y35/8,;%.,%;%33Z1;5/8,@&,0,D'M, & ( ,,0,, ,!+'+CCC+= !+'+CCC+' C=
,
, %,N/;&>O860*, %,N/;&>O8&-0*080E,
5=/0<.<;;P:.&/,", !63*<&()*+#',-*" =()*+#',-*"#>36'!
, #"@&# = ! $%&' %"@& #, #"@& WD ' # = $%&'%"@& +D ' #
%"@& #%"D' #,
O>;&/-0<.<;;P:.&/-,", 8(3+*0&',
"519%3./DE%,.<65/#,
=()*+#',-*"#>36'"#?%&'!
, )"* # = %"@& ##"@& #&=!
(
" =
= ! %"@& #$%&' %"@& #& =!
,
(
" ,
#"*WE # = %"@& +D ' ##"@& WD ' #' =!
C
"&=!
(
" =
= %"@& + D' #$%&'%"@& + D' #
%"@& #%"D' #
,
'=!
C
"& =!
(
" ,
,
•! " + # " # " T # " # " T #) * E ) * ) E * ) E ) * E= + = + !
•! " + # " # " #) * E ) * ) E$ + !
•! " T # " #) * E ) *$ !
•! " T # " #) E * ) E$ !
•! " W # " # " T # " # " T ## * E ) * ) * E ) E ) E *= ! = ! !
•! " W # " # " # " + ## * E ) * ) E ) * E= + ! !
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 98'
/()*+,&-.*!,N15&!,6$%&P!#(1+*0%&'!
E*($%E%*(&%'!#!$%&F+&,&!$#!Q#((!
v! /3-'+! .G$-7! 5%! %:')P%7%$%&! ):! &%7)0]%:! %#'&%! ):! 5-.%&%#'%:! %#'&+,-):!
$+#5-$-+#)-:! %! %#'&%! %:'):! %! )! -#.+&/)01+! /2'3)! /45-)! :%! 3:)&/+:! +!
:%I3-#'%!5-)I&)/)!5%!f%##>!
["\T]# ["]T\#I"\+]#
["\# ["]#
["\+]# !
F%,%'%/Z:%! )93-! ):! &%7)0]%:! bG! $+#N%$-5):;! E&)! $+#.-&/%Z):! $+/! +!
5-)I&)/)!
•! " + # " # " T # " # " T #) * E ) * ) E * ) E ) * E= + = + !
•! " + # " # " #) * E ) * ) E$ + !
•! " T # " #) * E ) *$ !
•! " T # " #) E * ) E$ !
•! " W # " # " T # " # " T ## * E ) * ) * E ) E ) E *= ! = ! !
•! " W # " # " # " + ## * E ) * ) E ) * E= + ! !
,
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 1:'
/()*+,&-.*!,N15&!,6$%&!
C!-#.+&/)01+!/2'3)!/45-)!4!:%/,&%!#1+!#%I)'-O)>!
B#*+#,&!
a=8'* A[* $* @$"8,"-$* >/?@%=-$* >$?* E'%=?* +:/M;80P* 3* /"#$%&'()$* &_-,'*&N>/'* ="-%=* A* =* [* ?'-/?#'K* !+Ab[0* !* 5M* =&* G,=* '* /L,'H>'>=* ?c* N*?'-/?#=/-'*00'*:*=*;*#$%=&*=?-'-/?-/@'&="-=*/">=E=">="-=?P*
C#,*('1+&-.*!
! &+O%/+:!93%!.!+Ab[0*"*5;!M)P%/+:!93%! >!' '$%& $1 $%&/ /= 8
" T # " #" W # $%& " + # $1 $%& " + # $1
" # " T #
& ' && ' & '
& && ' & '
% @ D % @# * E 8 % @ D 8 % @ D
% @ % @ D! = ! ="" ""
'
!
!6+/+! $1 !( ($ ! >!
" #" + # $%& " + # ! $%& " # " # " + #
" T #
&& ' & ' & '
& '& ' & '
% @# * E 8 % @ D 8 % @ % D % @ D
% @ D
# $# $! $ ! = !% & =' (
% &' ("" ""
!
! ! = ! ! !
! ! !
$%& " # " # " + # (& ' & '& ' & '
8 % @ % D % @ D
# $% &% &% &% &' (
" " ""!"#"$!"#"$ !""#""$
= " W # (# * E! $ !
<+'%Z:%!93%! " + # (# * E = !??=! $1 !( ($ ! !!! !( = !!!??=! !!!:%!:!%!;!.+&%/!%:')'-:'-$)/%#'%!-#5%,%#5%#'%:X! @PGP>P*
" # " T #% @ % @ D=
C#,*('1+&-.*!&:1#+(&1%2&D!
M%#5+! " + # " # " # " + ## * E ) * ) E ) * E= + ! ! %! " + # " # " #) * E ) * ) E$ + X! %#'1+!
#%$%::)&-)/%#'%! " + # (# * E )
" + # " #
;! M%! A! %! [! .+&%/! %:')'-:'-$)/%#'%!
-#5%,%#5%#'%:X!%#'1+! " #) * E ) *= ) E+ !! " + # (# * E = ;!! @PGP>P*
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 19'
/()*+,&-.*!,N15&!,6$%&!
6+/+!!HAa[J!"!S!%!!HAa[J!U!CHAJ!Z!CHAx[J!!! 5467!!!546R77!
H%X!')7!$+/+!)#'%:X!gH^J!U!gH^xuJ!''#!^!%!u!.+&%/!%:')'-:'-$)/%#'%!-#5%,%#5%#'%:J!
*:')! 5%:-I3)75)5%! /+:'&)! 93%! :%! $+7+$)&/+:! &%:'&-0]%:! )! 3/! $+#b3#'+! ^!
H.)(%#5+Z+!5%,%#5%&!5%!+3'&):!+$+&&Y#$-):J!>/&/",/&$?*'*?,'*="-%$E/';!
v!+!93%!)$+#'%$%!$+/!):!7R#I3):!H,+&'3I3Y:X!.&)#$Y:X!%'$;J;!
`+&!%L%/,7+!%/!-#I7Y:!HVm!7%'&):!/)-:!%:,)0+J>!
•! G*$%)%E&-.*!7%'&)!)!7%'&)X!$+#:-5%&)#5+!$)5)!7%'&)!%93-,&+OGO%7>!
M1+!,&%$-:+:! !5RI-'+:!P-#G&-+:d$)&G$'%&;! H%#'&+,-)!/GL-/)J!'$%& 'N )+NJ! =
•! G*$%)%E&-.*! 7%'&)!)!7%'&)!'%#5+!%/!$+#')!):!,&+P)P-7-5)5%:!&%7)'-O):!5%!
+$+&&Y#$-)>!
M1+!,&%$-:+:!\XS[!5RI-'+:!P-#G&-+:d$)&G$'%&;! ! ! H%#'&+,-)!$+#5-$-+#)7J!
•! G*$%)%E&-.*!,)7)O&)!)!,)7)O&)!'%#5+!%/!$+#')!)!.&%93Y#$-)!&%7)'-O)!5):!
,)7)O&):>!
MQ!:1+!,&%$-:+:!TXmm!5RI-'+:!P-#G&-+:d$)&G$'%&;! ! H%#'&+,-)!$+#5-$-+#)7J!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 11'
/()*+,&-.*!,N15&!,6$%&!#!E&0&E%$&$#!$#!
E&(&:!
! ! ! ! ! ! ! " W # " # " T ## * E ) * ) * E= ! !
! +! +!
! ! 6=>?9@AB!"B!C9=>6! 6DEAF9GBHI9!
0 0 Q0/0&:.8;28B/0=R7&/0-<";80 Q0/0&:.8;28B/0=R7&/0-<";80/0$<:2800 0 /0$<:280780&:$<;=/ST<0*0 789<&-0780-80<"-8;O/;0/0-/,7/07<0./:/6M0E0
C!5-.%&%#0)!%#'&%!%:'):!53):!93)#'-5)5%:!4!)!/"#$%&'()$*&_-,'*&N>/'*8!4!
3/)!/%5-5)!5)!-#.+&/)01+!93%!,)::+3!)'&)O4:!5+!$)#)7;!
! * R,'"-$*&'/$%*#$%*'*=G,/F$@'()$*&="$%*N*'*
G,'"-/>'>=*>=*/"#$%&'()$*G,=*E'??'*'-%'FN?*>$*@'"'HP*
]=#/"/()$1*
! C!@'E'@/>'>=*>$*@'"'H!4!+!O)7+&!&J:/&$!5)!-#.+&/)01+!/2'3)!/45-);!
" #./L " W #*
-9 @
I # *= E !HP-':d:R/P+7+J!
f-:'+! +! $)#)7! :%&! .-L+! )! /)L-/-()01+! 5%O%! .)(%&Z:%! &%7)'-O)/%#'%! =:!
,&+P)P-7-5)5%:!!5)!.+#'%;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 12'
39#,0:*!$#!E&0&E%$&$#!$#!E&(&:!
'()*+,-#.$!C+=+B!%&=-,&?!(&AD',&*?!3EF&=+,4!(4AA.',&*!*G+==.BHI!F<C7!
9%% == #(T!"#!T(" !%! 9%% !== !#!T!"#(T(" ;!
(
! !
/
\ ]
(
/
/
/
4
!^4
4
!^4,
6+/+! " W # " # " T ## * E ) E ) E *= ! !O)/+:!$)7$37)&!%:'):!%#'&+,-):>!
C!%#'&+,-)!CH[J!4!/GL-/)!93)#5+!):! :)R5):!:1+!%93-,&+OGO%-:!!!%#'&)5):!
%93-,&+OGO%-:;!<%::%!$):+!CH[J!U!T!P-'d:R/P+7+;!
!
#"#!+"#!"#+!"#("
#!"#!"#("#("#"#"#"
#"#"
!
999)*%99)*%
*E)*%*E)*%@E)@%*E)
99
(
&&&
#=!=+!==
===+====
##
="
"$"#!"$"#!
!
C!$),)$-5)5%!O)7%X!,+&')#'+X!I X!-:'+!4>!! "= !# #- 9
' ' #- 9S'E'@/>'>=*>$*@'"'H*4/"J%/$*?/&N-%/@$!" I 9 !! $%& "! #$%& "!9 9= + + ! !
!
,
(C', (C) (CJ, (CK, !,
(C',
(C),
(CJ,
(CK,
!,
I-,
9(,,
,
_0, +, 582%, <+, 6/6/, 7./,
60203.51/6/, 8/:6/, "!, %7, (#, 20.%8, M(`, 60,
43%P/P5$56/608, 60, /;032/3.%8, 1/, 0123/6/,
30/$.0120,01B5/6/,!,/,;/4/;56/60,6%,;/1/$,<,
17$/,!, 10880, ;/8%, %, ;/1/$, 1E%, 803B0, 4/3/,
1/6/S, P/82/, a6052/3, 7./, .%06/, /%, /3a, 1%,
608251%C,
M+(#(T!"#!T(" == %%
,
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 13'
39#,0:*!$#!E&0&E%$&$#!$#!E&(&:!
'()*+,-#/$!C?AJ=&*+KL?!M&+!(+'DB&'.!
,
%8,=,(+(!, %80=,(+!,
%8,=,(
"
gG! [! $)#)-:! %#O+7O-5+:>! $)#)7! ):$%#5%#'%X! $)#)7! )! P+&5+! %! $)#)7!
5%:$%#5%#'%;! `)&)! 5%'%&/-#)&! )! $),)$-5)5%! 5+! :-:'%/)! I7+P)7! '%/+:! 5%!
,&-/%-&+! $)7$37)&! )! /)'&-(! 5%! ,&+P)P-7-5)5%:! 5%! '&)#:-01+! I7+P)7!
/37'-,7-$)#5+!):!/)'&-(%:!5%!,&+P)P-7-5)5%!5%!'&)#:-01+!-#5-O-53)-:>!
! !(+OO (+(! !+( ( (+O (+! (+KO' (+!(K
U " T #V(+(! (+OO ( !+( (+! (+O (+!(K (+KO'
% E *# $ # $ # $ #
= =% & % & % & %' ( ' ( ' ( '
$&(
E!5-)I&)/)!5%!'&)#:-01+!I7+P)7!5%:'%!$)#)7!iM6!4>!
(
! !
/
\ ]
(
/
/
/
(+KO'
(+!(K
(+KO'
(+!(K
!
C!$),)$-5)5%!5+!:-:'%/)!I7+P)7!4X!,+&')#'+>!
! !P-'d:R/P+7+!' '! (+KO'$%& (+KO' (+!(K$%& (+!(K (+M!-I = + + =
HC:!,&+P)P-7-5)5%:!N-,Q'%:%!:1+!/3-'+!/)-:!%7%O)5):!93%!#3/!$):+!&%)7;!
@+/)&)/Z:%!,)&)!:-/,7-.-$)&!+:!$G7$37+:J;!
!"#$%&'(&')*+#$,&-.#' /"(%(&0'("'%*+#$,&-.#' 14,
11..33.. TTeeoorreemmaa ddaa ccooddiiffiiccaaççããoo ddee ccaannaall
• Ritmo de informação
• Teorema da codificação de canal
Teoria da Informação Teorema da codificação de canal 1
Ritmo (ou taxa) de informação
• Se a fonte de entropia H(X) emitir uma sequência de símbolos a
informação total a ser transferida é de bits.
1n( )nH X
• Se a fonte produzir r símbolos/s a duração da sequência de n símbolos é
n/r segundos.
• Portanto, a informação deve ser transferida à razão média de:
informação total ( ) ( )
duração totalnH XR rH X
n r== = bits/s
Esta é a taxa de informação da fonte.
Se a fonte produzir símbolos com diferentes durações (segundos) o ritmo,
ou taxa, de informação pode ser calculado alternativamente como
iτ
( )H Xτ
R = bits/s
em que τ é a duração média de cada símbolo,
1 1 2 21
...M
M M ii
P P P Pτ τ=
= + + + = iττ τ ∑ .
Teoria da Informação Teorema da codificação de canal 2
O teorema da codificação de canal (aplicado a canais discretos sem memória)
A entropia representa a informação esperada por cada símbolo de fonte.
• Se tivermos duas fontes com iguais entropias, aquela que produzir mais
símbolos por unidade de tempo vai colocar mais exigências no sistema de
comunicações.
(imagine duas pessoas a ler o mesmo texto escrito numa língua que domina mal. Uma delas lê depressa. Qual é a que entende melhor?)
• O ritmo de informação mede a quantidade de informação produzida
num certo intervalo de tempo.
• Existem limitações físicas fundamentais à transferência de informação
(ruído, largura de banda, …), que se reflectem na capacidade do canal:
• A capacidade do canal (em bits/s) mede a quantidade de informação
que um canal pode transferir por unidade de tempo.
Shannon relacionou estes dois conceitos através do teorema da codificação
de canal, também chamado Teorema Fundamental da Teoria da
Informação:
Dado um canal de capacidade C e uma fonte com ritmo de informação R, então se R ≤ C existe uma técnica de codificação tal que a saída da fonte pode ser transmitida através do canal com uma frequência arbitrariamente pequena de erros, apesar da presença de ruído.
Se R > C, não é possível a transmissão sem erros.
Teoria da Informação Teorema da codificação de canal 3
O teorema da codificação de canal aplicado a canais discretos sem memória
(formulação alternativa)
Teorema:
“Uma fonte X de entropia H(X) produz símbolos à razão de um símbolo por
cada Ts segundos. Consideremos um canal discreto sem memória de
capacidade Cs (bits/símbolo!) e que seja usado uma vez em cada Tc
segundos. Então, se
( ) s
s c
CH XT T
≤ ,
existe uma técnica de codificação dos símbolos da fonte que permite que os
símbolos transmitidos através do canal possam ser recuperados com uma
probabilidade de erro arbitrariamente pequena.
Se, pelo contrário, ( ) s
s c
CH XT T
> , então não é possível transmitir os símbolos e
recuperá-los com uma probabilidade de erro arbitrariamente pequena.”
Conversão de Cs (bits/símbolo) em C (bits/s):
s
c
CCT
=
Teoria da Informação Teorema da codificação de canal 4
Aplicação do “Teorema da Codificação do Canal” a um canal binário simétrico
Considere-se uma fonte binária a gerar símbolos equiprováveis de duração
Ts segundos, ou seja, a produzi-los à taxa de 1 sr T= símbolos por segundo.
Sendo os símbolos binários equiprováveis, a entropia da fonte vale ( ) 1H X =
bit/símbolo e a taxa de informação da fonte é ( ) 1 sR rH X T= = bits/s.
Fonte binária
Codificador de canal binário
Canal binário simétrico
1 dígito binário em Tc segundos
capacidade por unidade de tempo = Cs/Tc bits/s
Rc=k/nrH(X) bits/s
1 símbolo em Ts segundos
(r=1/Ts)
O codificador (de canal!) produz um símbolo binário em cada Tc segundos, o
qual é transmitido através de um canal binário simétrico (BSC) – que,
portanto, é usado uma vez em cada Tc segundos. Assim, a capacidade do
canal por unidade de tempo é C C bits/s. T= s c
De acordo com o teorema da codificação do canal, terá de ser
( ) s
s c
CH XT T
≤ ⇒ 1 s
s c
CT T
≤ ⇒ cs
s
T CT
≤
Mas cc
s
T RT
= (taxa do código, ver a seguir), pelo que
c sR C≤
Como a capacidade do canal BSC é C p : 1 (= −Ω )s
)c 1 (R p≤ −Ω (canal BSC)
Teoria da Informação Teorema da codificação de canal 5
Aplicação do “Teorema da Codificação do Canal” a um canal binário simétrico
(contin.)
Porque é que cc
s
T RT
= ?
Ts
Antes da codificação
Depois da codificaçãoTc
k = 4
n = 7
Duração do bloco: 4Ts
Duração do bloco: 7Tc
À razão ck Rn
= chama-se taxa do código.
Como a duração dos blocos é a mesma:
s ckT nT=
ou, neste caso,
4 7 4 7T T T T= ⇒ = = s c c s cR
Em resumo, temos duas maneiras de exprimir o teorema da codificação de
canal:
• Com a capacidade expressa em bits/símbolo, Cs: c sR C≤
• Com a capacidade expressa em bits/s, C: ( )R rH X C= ≤
s cC C T=bits/símbolobits/s
Teoria da Informação Teorema da codificação de canal 6
11..##.. TTeeoorreemmaa ddaa ccooddiiffiiccaaççããoo ddee ffoonnttee
! Teorema da codificação de fonte
! Redundância
! códigos unicamente descodificáveis
! códigos sem prefixos
! desigualdade de <raft-McMillan
! extensões
Codificação de fonte
@ueremos transformar as mensagens de uma fonte num conjunto de símbolos de
modo que seja Eocupado menos espaçoF ou que a informação da fonte Edemore
menos tempo a ser transmitidaF. @ueremos fazê-lo sem perdas: a operação inversa de
descodificação ou descompressão deve dar origem exactamente às mesmas
mensagens originais. Ora,
! A caracterização de uma fonte discreta é fácil se os símbolos forem independentes e equiprováveis (a entropia é máxima).
! Essa caracterização já é mais difícil se os símbolos não forem independentes (a probabilidade de um símbolo depende dos símbolos passados e a entropia é menor).
! Shannon provou que, se dividirmos a mensagem em blocos de letras ou palavras (no caso de texto), podemos calcular a entropia de cada bloco (U símbolo) pela mesma fórmula usada com símbolos independentes e assim aproximar-nos da entropia da fonte, considerando os blocos muito compridos.
Existe alguma relação entre a entropia e o n*mero médio de dígitos bin2rios por
símbolo necessário para codificar uma mensagemV Sim, existeW
! A questão está em descobrir como codificar eficientemente os símbolos da fonte,
tendo cada um uma certa probabilidade de ocorrer.
No caso dos símbolos da fonte não serem equiprov2veis o código óptimo tem em
conta as diferentes probabilidades de ocorrência usando palavras com
comprimentos vari2veis.
! Convém agrupar os símbolos da fonte antes de codificar ou comprimir.
Teoria da Informação Teorema da /odifi/ação de fonte 1
.epresentação de símbolos por dígitos binários8 dois exemplos:
!" "#$%&'( )* *+,-*.*- ,/0 12 3*,4(+ 5 67 5 89 : ;< +=0>/4/+
! Precisaríamos de log9 50 U 5,62 dígitos binários_símbolo. A codificação faz-se atribuindo um
número binário com 6 dígitos a cada símbolo (desperdiçando 26 - 50 U 14 números binários).
! Mas em 50 caracteres existem 503 U 125 000 grupos diferentes possíveis de 3 caracteres. Por
outro lado 17 dígitos binários podem ser combinados de 131 072 maneiras diferentes (217).
! Se dividirmos o texto em blocos de 3 caracteres sucessivos poderemos atribuir a cada bloco um número binário de 17 dígitos.
Se tivessemos representado cada carácter por 6 dígitos binários precisávamos de 18 dígitos binários por cada grupo de 3 caracteres, em vez de 17.
Conclusão: agrupando os símbolos a compressão ou codificação é mais eficiente.
#" ?'@4A+ BCD 4*3-(+ 5 *+E(F/G
! Codificação letra a letra, consideradas equiprováveis:
São precisos 4,76 dígitos binários_carácter
! Codificação letra a letra tendo em conta as probabilidades relativas de ocorrência:
São precisos 4,03 dígitos binários_carácter
! Codificação palavra a palavra tendo em conta a frequência relativa das palavras:
São precisos 1,66 dígitos binários_carácter
Shannon calculou a entropia do inglês entre 0,6 e 0,13 bits_carácter.
Teoria da Informação Teorema da /odifi/ação de fonte 2
1 In J. R. Pierce, EAn Introduction to Information TheoryF, 2ª edição, Dover, 1980.
.edund<ncia ! A influência entre símbolos reduz a entropia.
Exemplo: linguagem, textos escritos: cada letra depende da(s) precedente(s) ou até das palavras anteriores, devido a regras impostas pela linguagem.
A seguir à letra H vem sempre I.
! A influência mútua reduz a incerteza, logo, reduz a quantidade de informação.
Trata-se de uma fonte redundante: significa qe há símbolos produzidos pla font qe não são absolutament essenciais para a transmssão da informação.
! A redundância de uma sequência de símbolos mede-se em função da redução de
entropia ocorrida:
%&'()'*)+,-: E = 1 −H (Al B)H (B)
HCADBE — supondo símbolos dependentes
HCBE — supondo símbolos independentes
Num exemplo anterior em que H(A l B) = 0,9328 bits_símbolo e H(B ) = 1,287 bits_símbolo existe uma redundância na informação da fonte de E U 27,5n.
! Numa comunicação eficiente a redundância é indesejável (a mesma informação
poderá ser transmitida usando menos símbolos).
MAS ... ajuda a resolver ambiguidades se a mensagem for recebiga com errus.
! A codificação para transmissão óptima pretende:
! reduzir a redundância EineficienteF → códigos de fonte (compressão)
! acrescentar redundância EeficienteF → códigos de canal
Teoria da Informação Teorema da /odifi/ação de fonte 3
Codificação de fonte
Consideremos uma fonte discreta de entropia HCBE a gerar símbolos à cadência
de r símbolos_s. O ritmo de informação é, como se sabe, bits_s. ( )R rH B=
. /& 0(,/&123/ +3',4,+-1 &/5&/ /627383/ -51-9:/ '& '6;,53/ 7,)<1,3/=
0onte discreta
2odificador de fonte
2ana3 sem ru5do
!"gitos bin+rios
R G rHCBE bits-s
."mbolos discretos 4
rb binits-s
.5annon mostrou 8ue a informação proveniente de 8ual8uer fonte
discreta sem memória pode ser codificada como d"gitos bin+rios e
transmitida através de um canal sem ru"do ? taxa bin+ria de rb ≥ R d"gitos
bin+rios-sA Bão é poss"vel fazD-lo a uma taxa inferior F GA br R<
Esta é uma manifestação do famoso Eteorema da codificação de fonteF, de
Shannon, demonstrado mais adiante.
OBS: Aos dígitos binários vamos passar a chamar binits, para evitar confusões com a
unidade de informação EbitF. Só lhes deveremos chamar bits se não houver
ambiguidades de interpretação.
Teoria da Informação Teorema da /odifi/ação de fonte 4
Teorema da codificação de fonte ! ponte de M símbolos equiprováveis produzidos ao ritmo r → R = r log M
Todos os símbolos transportam a mesma quantidade de informação.
! ponte de símbolos com diferentes probabilidades Pi → R = rH (B ) < r log M
! A transmissão eficiente requer um processo de +3',4,+->?3 que tenha em conta a
quantidade variável de informação por símbolo.
Honte discreta sem memIria
Jodificador de fonte bin+rio
R G r HCBE
Jonverte os s"mbolos da fonte em palavras de cIdigo constitu"das por ni d"gitos bin+rios produzidos a uma taxa rb
( )b br p rΩ ≤
rb q binits-s
r q s"mbolos-s
• O codificador comporta-se como uma fonte binária com entropia Ω(p) e taxa de informação binits_s. ( ) log 2b br p r rΩ ≤ = b
• O comprimento médio das palavras de código é igual a 1
Mni i
iN P
=
=" .
A codificação não gera informação adicional nem destrói a informação @. o
código for decifrável de uma única maneira, sem ambiguidades Ccódigos unicamente
decifr2veis ou descodific2veisE. Nesse caso as taxas de informação à entrada e saída
do codificador são iguais:
! ( ) e H( ) ( )b brH B r p r= Ω ≤ br rH B≥ (B ) ≤ rbr
= N
CTeorema da codificação de fonteE
Teoria da Informação Teorema da /odifi/ação de fonte 5
Codificação de fonte e ritmo de informação8 um exemplo
Uma fonte emite r U 2000 símbolos_s seleccionados de um alfabeto de M U 4
elementos, com as probabilidades de ocorrência indicadas. Se quisermos codificar
estes símbolos através de dígitos binários qual é o número mínimo de binits que
podemos transmitir por unidade de tempoV
xi Pi Ii
A 1_2 1
B 1_4 2
C 1_8 3
D 1_8 3
R.: A entropia desta fonte vale
H(B) = 12 ×1 + 1
4 × 2 + 18 × 3 + 1
8 × 3 = 1,75 bits_símbolo
(o máximo seria log M G 9)
A respectiva taxa de informação vale R U 2000 × 1,75 U 3500 bits_s
Uma codificação de fonte apropriada permitirá transmitir a informação da fonte
a uma taxa binária rb ! 3500 binits_s. Não é possível transmitir com menos dígitos
binários por unidade de tempo.
Repare-se nas dimensões que nos aparecem neste exemplo:
srt — símbolos_s sRt — bits_s srbt — binits_s
Teoria da Informação Teorema da /odifi/ação de fonte 6
Teorema da codificação da fonte e desigualdade de >raft
" Num código binário unicamente descodificável é condição necessária que os comprimentos ni das palavras respeitem a desigualdade (ver Anexo 1)
12 i
Mn
iK −
=
=" 1≤ CDesigualdade de KraftE
! Se o alfabeto do código tiver tamanho D a desigualdade de <raft é
11i
MnD
iK −
=
= ≤".
" O teorema da codificação da fonte, de Shannon, estabelece que, com códigos
binários unicamente descodificáveis, o comprimento médio N é limitado por
H(B ) ≤ N < H( B) + ε ε > 0, arbitrariamente pequeno
! Com codificação óptima: N = H (B ) . Na prática: N > H( B ) .
! A eficiência da codificação mede-se calculando a razão
comprimento médio das palavras de códigoentropia da fonte
! A eficiência é igual a Rrb
=/ r N
=N
≤ 1. / r H (B ) H(B )
! Codificação mais simples: código de comprimento fixo (exemplo: ASCII).
Neste caso a desigualdade de <raft toma a forma K = M .2−N ≤1
! N ≥ log2 M ! eficiência =H(B )
N≤
H(B )log M
! Para aumentar a eficiência é preciso diminuir o comprimento médio N , o que se consegue com os códigos de comprimento vari2vel:
Aos símbolos que ocorrem com mais frequência devem corresponder palavras de código mais curtas que as que correspondem aos símbolos mais raros.
Teoria da Informação Teorema da /odifi/ação de fonte 7
Codificação binária de uma fonte discreta sem memória
@A@MCDO8 fonte discreta sem memória produzindo 4 símbolos A, B, C e D com probabilidades 1_2, 1_4, 1_8 e 1_8, respectivamente.
Temos muitas possibilidades de codificação. Eis quatro possíveis:
J& K& AB',;3 C AB',;3 CC AB',;3 CCC AB',;3 CD
A 1_2 00 0 0 0
B 1_4 01 1 01 10
C 1_8 10 10 011 110
D 1_8 11 11 0111 111
N 2,0 1,25 1,875 1,75
K 1,0 1,5 0,9375 1,0
(comprimento fixo) ("comma code") ("tree code")
! v(w) U 1,75 bits_símbolo (exemplo anterior)
! Código I: Eficiência U H(B )
N= 88n
! Código II: N U 1,25 x H(B), K U 2-1 y 2-1 y 2-2 y 2-2 U 1,5 z 1 ! não é unicamente
(ex.:10011 pode ser BAABB ou CABB ou CAD, etc.) decifrável.
! Código III: unicamente decifrável (cada palavra começa por 0).
Eficiência U ( ) 93nH B
=N
! Código I|: Nenhuma palavra de código aparece como o prefixo de outra palavra de
código. um código óptimo para esta fonte porque N U H(B) e K U 1.
Eficiência U ( ) 100nH B
=N
(Exemplo: 110010111 ↔ CABD)
Teoria da Informação Teorema da /odifi/ação de fonte 8
Códigos unicamente descodificáveis
código unicamente
descodific2vel
para cada sequência de fonte de comprimento finito a
sequência de letras de código que lhe corresponde é diferente
da sequência de letras de código correspondente a qualquer
outra sequência de fonte.
Existe uma classe especial de códigos unicamente descodificáveis que satisfaz
uma restrição chamada condição de prefixação. Chamar-lhes-emos códigos sem
prefixos:
código sem prefixos
(código instantâneo)
um código no qual nenhuma palavra de código é o
prefixo de qualquer outra palavra de código.
Seja xi G Cxi,T, ... , xi,niE a palavra de código de ordem i. @ualquer sequência
constituída por uma parte inicial de xi (isto é, (xi,T, ... , xi,k), k ! ni) chama-se um
prefixo de xi.
Para descodificar uma sequência de palavras de código gerada por um código
sem prefixos começa-se no princípio de cada palavra e descodifica-se uma a uma.
Sabemos que chegámos ao fim de cada palavra porque essa palavra de código não é
prefixo de qualquer outra (veja-se o anterior código I|, por exemplo).
Teoria da Informação Teorema da /odifi/ação de fonte 9:
Códigos sem prefixos "epresentação gráfica através de "árvores"
Raíz
Nósintermédios
00
0
1
1
1
0
10
110 111
Nós de 1ª ordemNós de 2ª ordemNós de 3ª ordem
A 0B 10C 110D 111
Nós terminais
! Num código sem prefixos as palavras de código terminam sempre nos nós terminais.
! Para descodificar, o receptor "sobe pela árvore", desde a raiz.
! Para que N — número médio de dígitos binários por símbolo de fonte — seja minimizado
convém escolher as palavras de código de tal maneira que cada ramo que sai de um nó seja
equiprovável (idealmente).
Exemplo: Código de Shannon-pano.
! Se cada ramo for equiprovável e o código tiver um alfabeto de D elementos, então
P a a( ) ii
nD−= i q símbolo da fonte
ni q comprimento da palavra de código correspondente
Exemplos de códigos de fonte sem prefixos:
E @F-))3)GH-)3
E I(442-)"
Teoria da Informação Teorema da /odifi/ação de fonte 99
Teorema da codificação de fonte, de Hhannon8 demonstração
Teorema8 Dada uma fonte B com entropia HCBE e dado um alfabeto de código com
D símbolos, é possível atribuir palavras de código às letras da fonte de tal maneira
que a ,/')&FL/ )* E-*M&J(FL/ N +(3&+M*&3( e o comprimento médio das palavras de
código, N , satisfaV
N <H( B )log D
+1
Para qualquer conWunto %'&,(0*'3* )*+,/)&M&,#.*4 de palavras de código temXse
também
N ≥H( B )log D
Demonstração8
Mostremos que N ≥H( B )log D
, ou H(B ) − N log D ≤ 0.
Sejam P(a1), P(a2) ... P(aM) as probabilidades das letras da fonte e sejam n1, ..., nM os comprimentos das palavras de código respectivas:
1 1
1
1( ) log ( )log ( ) log( )
( ) log( )
i
M M
i iii i
M
iii
iH B N D P a P a n DP a
nDP aP a
= =
−
=
− = −
=
" "
"
=
Como l para z z 0, então og V ≤ ( V − 1) log e
1 1
( ) log log ( )s 1t log ( )( )
ii
i iii i
nD ni
H B N D e P a e D P aP a
≤−
−# $% &− ≤ − = −% &% &' (
" " "!"#"$ !"#"$
! H (B ) − N log D ≤ 0
A igualdade verifica-se para
( ) ii
nP a D−= 1 # i # M (Continua)
Teoria da Informação Teorema da /odifi/ação de fonte 91
Teorema da codificação de fonte (Contin.)
Provemos agora que N <H( B )log D
+1:
Como ni tem de ser inteiro poderemos aproximar escolhendo ni
como o inteiro que satisfaz
( ) iniP a D−=
D P 1 # i # M (*) 1( )inia D− −≤ < in +
=
Somando em i:
" " (<raft...) ( ) 1ii
i i
nD P a− ≤
! existe um código sem prefixos com estes comprimentos.
@uanto ao 2~ membro de (*), tomemos logaritmos:
lo g ( ) ( 1)logi iP a n D< − +
Multiplicando por P(ai) e somando em i:
1
( )
1
( ) log ( ) ( )log ( )( 1) log
( ) ( ) log
ini i i i i
i i iH B
i i ii i
N
P a P a P a D P a n D
P a n P a D
− +
−
−
# $< = − +% &
' (
# $% &% &= − +% &% &' (
" " "
" "
%"""&"""'
%"&"' %"&"'
=
! DNBH log)1()( +−<− ! 1log
)(+−<− N
DBH
ou 1log
)(+<
DBHN c.q.d.
Teoria da Informação Teorema da /odifi/ação de fonte 92
Kgrupamentos de símbolos de fontes (MextensõesO)
Seja HCBE a entropia de uma fonte discreta B que gera símbolos independentes
retirados de um alfabeto com M símbolos. Agrupando os símbolos de B em grupos de
Y símbolos obtemos um conjunto aumentado, BY, de MY símbolos chamado Eextensão
de ordem YF de B. A entropia da nova fonte BY está relacionada com a entropia de B
através de
( ) (Y )H B YH B=
• Exemplo Z.9 de Haykin, \] edição Cp2g. ^_`Ea
As probabilidades dos símbolos de uma fonte ternária (MG`) são
0
1
2
1 41 41 2
P
P
=
=
=
P
A entropia desta fonte vale (1 4,1 4,1 2) 1,5H = bits_símbolo. Uma extensão de
segunda ordem produz nove (M9) símbolos com as seguintes probabilidades:
Símbolos de B9 σ0 σ1 σ2 σ3 σ4 σ5 σ6 σ7 σ8
Sequências correspondentes de símbolos de
B
xbxb xbxT sbs9 xTxb xTxT xTx9 x9xb x9xT x9x9
( ),0,1, 8ip
iσ
= (
1 16 1 16 1 8 1 16 1 16 1 8 1 8 1 8 1 4
A entropia da fonte aumentada vale, portanto,
H B , 8
2
0( ) ( ) log ( )i i
ip pσ σ
=
= − =" 3
que é precisamente igual ao dobro de HCBE, como se esperava.
Teoria da Informação Teorema da /odifi/ação de fonte 93
Teorema da codificação de fonte !p#i%&'(o & +,o-te0 &ume-t&3&04 &tr&670 3e e8te-09e0 ou
&:rup&me-to0 3e 0;m<o#o0
Admitamos que os símbolos de BY são codificados usando um código
unicamente descodificável. Se YN for o comprimento médio, por símbolo de BY, das
respectivas palavras de código, YN N Y= representa o comprimento médio por
símbolo de B. O Teorema da Codificação de Fonte indica que
2 2
( ) ( ) 1log log
Y Y
YH B H BN
D D≤ < +
Como ( ) ( )YH B YH B= , poderemos escrever
2 2
( ) ( ) 1log logYYH B YH BN
D D≤ < + !
2 2
( ) ( ) 1log logYH B H BN Y Y
D D≤ < +
isto é,
2 2
( ) ( ) 1log logH B H BN Y
D D≤ < +
Se não se tivesse feito um agrupamento antes da codificação (ou seja, se 1Y = ), teríamos
2 2
( ) ( ) 1log logH B H BN
D D≤ < + ,
que representa um intervalo maior para o comprimento médio das palavras de código.
Caso de fontes bin2riasa
Passamos a ter expressões simplificadas:
( ) ( )Y YYH B N H B≤ < +1
( ) ( ) 1H B N H B≤ < + Y
Teoria da Informação Teorema da /odifi/ação de fonte 94
Codificação de fonte8 considerações diversas
! Embora não possamos controlar a estatística da fonte de informação, a
codificação de fonte deve obedecer ao seguinte (como nos códigos de Morse,
vuffman, etc.):
Aos símbolos mais frequentes devem corresponder palavras de código curtasd aos símbolos menos frequentes devem corresponder palavras compridas.
! Entropia de fonte binária U 1 bit_símbolo se os símbolos forem equiprováveis.
! Se os símbolos não forem equiprov2veis a informação média por símbolo é
inferior a um e a fonte apresenta redundencia.
! A codificação da fonte reduz essa redundância por forma a aumentar a eficiência
da comunicação.
! A codificação faz-se agrupando a sequência de dígitos binários da fonte em
blocos de n símbolos, passando a formar um novo conjunto de 2 símbolos. n
! A probabilidade de cada um dos 2 novos símbolos é calculada e atribui-se a
palavra de código mais curta ao novo símbolo mais provável, e assim por diante:
palavras mais compridas correspondem a símbolos menos frequentes.
n
Ao conjunto de 2 novos símbolos chama-se extensão de ordem n da fonte binária.
n
Teoria da Informação Teorema da /odifi/ação de fonte 95
@xemplo de codificação de fonte binária com extensões de QR e SR ordem
i (1)iS (1)
iP S#' ($ Palavras de
código
1 A 0,9 0 2 B 0,1 1
i (2)iS (2)
iP S#' ($ Palavras de
código
1 AA 0,81 0 2 AB 0,09 10 3 BA 0,09 110 4 BB 0,01 111
i (3)iS (3)
iP S#' ($
Palavras de código
1 AAA 0,729 0 2 AAB 0,081 100 3 ABA 0,081 101 4 BAA 0,081 110 5 ABB 0,009 11100 6 BAB 0,009 11101 7 BBA 0,009 11110 8 BBB 0,001 11111
ponte original: H(B ) = 0,469 bits_símbolo
1 1,01NN = = binit
Extensão de 2ª ordem
2 0,645
2NN = = binits
Extensão de 3ª ordem
3 0,5333
3NN = = binits
( )
2
1
nn i i
iN N P S
=
# $= % &' ("n
— comprimento médio das palavras de código para a
extensão de ordem n.
nNN
n= — número médio de símbolos de código por símbolo de
fonte.
n ↑ !nNN
n= ↓ ! menor taxa de símbolos
(Continua)
Teoria da Informação Teorema da /odifi/ação de fonte 96
@xemplo de codificação de fonte binária com extensões de QR e SR ordem
@xemplo com modulação CH> binária8
! Potência recebida U 10 W5−
! Taxa da fonte U 1000 símbolos_s ! Energia de bit: hEb810−=
! HVWN 90 10−= (densidade espectral de potência do ruído branco)
Se a potência de emissão for fixa a energia de símbolo pode ser aumentada
usando uma extensão porque a taxa de símbolos passa a ser menor.
Em PS< binário a probabilidade de erro sem codificação é
))*
+,,-
.=
0
2NE
iP bB .
Substituindo valores e consultando uma tabela da função @, teremos:
( ) 69
810.9,320
10102 −−
−==)
)
*
+
,,
-
. ×= iiPB
Usemos agora extensões:
! Extensão de 2ª ordem ! 645 símbolos_s ! Eb = 1,55.10−8 h ! PB = 1,3.10 −8
! Extensão de 3ª ordem ! 533,3 símbolos_s ! PB = 4,5.10−10
A323 /& 9JK
Teoria da Informação Teorema da /odifi/ação de fonte 97
1.#. "ódi&os de fonte para compressão de
dados
! técnicas de compressão sem perdas
! códigos baseados em modelos estatísticos e em dicionários
! código de Shannon-:ano
! código de ;uffman
! código aritmético
! códigos de >empel-?iv (>?77 e >?78)
Compressão de dados
Técnicas de compressão sem perdas
!odelos estat*sticos -écnicas baseadas emdicion2rios
4 56annon-8ano4 9uffman
4 <odificação aritmética
4 ?empel-Aiv C?A DDE4 ?empel-Aiv C?A DFE
4 ?empel-Aiv-Gelc6 C?AGE
Exemplos de cJdigos
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 4
Compressão de dados
<ompressão L !odelização N <odificação
5e o modelo não fornecer probabilidades correctas o codificador comprime poucoO por muito eficiente Pue seQaR
Sados deentrada !odelo <odificador
5*mbolos Trobabilidades 5*mboloscodificados
!odelo estat*stico
?U s*mbolode entrada
<odificas*mbolo
Actualizamodelo
5*mbolos 5*mbolos
!odelo
codificados
<ompressão adaptativa genérica
?U s*mbolocodificado
Sescodificas*mbolo
Actualizamodelo
5*mbolos
!odelo
descodificados
5*mbolos
codificados
Sescompressão adaptativa genérica
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 5
1orquê métodos de compressão adaptativos?
4 9uffman Cest2ticoE: as estat*sticas da fonte tUm de ser passadas ao programa de expansão CdescodificaçãoER
!
Essa informação é um Xover6eadYO Pue tanto pode ser pePueno como muit*ssimo grande Cdepende do rigor do modeloER
4 Zum modelo adaptativo não se passa informação estat*stica ao descodificador
!
não 62 Xover6eadYR
!as[ de in*cio o codificador est2 X\s escurasYO isto éO não con6ece as estat*sticas da fonte porPue ainda não começou a determin2-lasR
!
Isto Puer dizer Pue:
de in&'io 'om*rime ma- os dados mas /0ai me-1orando 'om o 2em*o34
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 6
Compressão de dados
!arcos 6istJricos
1952: SR AR 9uffmanO XA met6od for t6e construction of minimum redundanc^ codesYO Troceedings of t6e I_EO 5etembro de `abcR
1977: dR Aiv e AR ?empelO XA universal algorit6m for sePuential data compressionYO IEEE -ransactions on Information -6eor^O !aio de `aDDR
1978: dR Aiv e AR ?empelO X<ompression of individual sePuences via variable rate codingYO IEEE -ransactions on Information -6eor^O 5etembro de `aDFR
1984: -R Gelc6O XA tec6niPue for 6ig6-performance data compressionYO IEEE <omputerO dun6o de `aFeR
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 7
O artigo (comprimido) de David =uffman
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 8
?m exemplo simples de compressão Um texto é codificado em ASCII (8 bitsJletra, de acordo com a tabela seguinte).
Suponhamos que a frequência relativa com que os caracteres ocorrem é representada pelo
seguinte histograma. Os caracteres mais frequentes são as minúsculas, o espaço e o retorno ao
início de linha (Rcarriage returnS, CR).
Uerificou-se que 96X do texto é constituído por 31 caracteres (letras minúsculas, espaços,
vírgulas, etc.).
" Cada um desses 31 caracteres pode ser representado por 5 bits. A 32ª palavra de 5 bits (11111) pode ser uma RflagS indicando que a seguir vem um carácter que não é um dos 31 anteriores.
" Cada um desses outros caracteres é representado por 5 ^ 8 _ 13 bits.
" Comprimento médio das palavras do código: 0,96 5 0,04 13 5,32N = × + × = bits (em vez dos 8 originais).
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 9
Código de Channon-Fano
No Código de Shannon-:ano as palavras a codificar devem ser ordenadas por
ordem decrescente de probabilidades. Suponhamos, por exemplo, que temos as
palavras x!, x", x#, x$, x% e x&, que ocorrem com as seguintes probabilidades:
P(x1) _ 0,1 P(x2) _ 0,2 P(x3) _ 0,2
P(x4) _ 0,03 P(x5) _ 0,07 P(x6) _ 0,4
Ordenando os símbolos e dividindo-os sucessivamente em dois grupos de
probabilidades aproximadas, obteremos o seguinte:
Símbolo Probabilidade de ocorrência
Construção das palavras de código
Palavras de código
P(x6) 0,4 0 0 00 P(x2) 0,2 0 1 01 P(x3) 0,2 1 0 10 P(x1) 0,1 1 1 0 110 P(x5) 0,07 1 1 1 0 1110 P(x4) 0,03 1 1 1 1 1111
Gntropia da fonteH
6
1
2 2 2 2 2 2
( ) log
(0, 4 log 0, 4 0, 2 log 0, 2 0, 2 log 0, 2 0,1log 0,1 0,07 log 0,07 0,03log 0,03)2, 21 bitsJsímbolo
i ii
H ' P P=
= − =
= − + + + + + + =
=
#
Comprimento médio das palavras de códigoH
N = 2 × 0,4 + 2× 0,2 + 2 × 0,2 + 3 × 0,1 + 4 × 0,07 + 4 × 0,03 =
= 2,3 dígitos binários J símbolo
Gficiência do código _ Entropia da fonte
comprimento médio das palavras de código=
H '( )N
=2,212,3
= 96X
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" :
Código de =uffman binário Este código de fonte é óptimo no sentido de que o número médio de dígitos
binários necessário para representar o símbolo da fonte é mínimo.
Uamos usar o código de ;uffman com uma fonte que produz oito símbolos:
P(x1) _ 0,50 P(x2) _ 0,02 P(x3) _ 0,03 P(x4) _ 0,04
P(x5) _ 0,10 P(x6) _ 0,04 P(x7) _ 0,12 P(x8) _ 0,15
1assos a tomar para construir a árvore do código Cver exemploEH
!' Ordenar as mensagens por ordem decrescente de probabilidades.
x( x) x* x+ x, x- x. x/
"' Agrupar as duas mensagens com as probabilidades mais baixas e somar estas
probabilidades.
Agrupamos x/ e x. no nó a, cu>a soma de probabilidades dB C,C+. De um con>unto de oito
probabilidades passBmos a ter um con>unto de -G(H* probabilidades.
#' Repetir o passo anterior para o novo conjunto de probabilidades, até chegar à raiz da árvore.
..( Agrupamos x, e x- no nó b, cu>a soma de probabilidades dB C,C). De um con>unto de sete
probabilidades passBmos a ter um con>unto de seis probabilidadesI C,+C, C,(+, C,(/, C,(C, C,C) Jnó bK e C,C+ Jnó aK.
../ Agora agrupamos os nós a e b, produLindo o nó c. Depois agrupamos x+ e x*, produLindo o nó
d, e assim por diante, gerando os nós e e f e chegando finalmente à raiL.
$' Da copa para a raiz arbitrar o bit 1 (ou 0) para os ramos que partem do nó de menor
probabilidade e o bit 0 (ou 1) para os que partem do outro nó.
Por exemplo, ao ramo que vai do nó a para o nó c atribuamosRlhe o bit (.
%' Determinar as palavras de código percorrendo a árvore da raiz para a copa.
Por exemplo, ao símbolo x* corresponde a palavra de código binBria ((C.
A entropia da fonte vale H(') _ 2,21 bitsJsímbolo e N = 2,26 . Se tomássemos
palavras de código de igual comprimento necessitaríamos de 3 binitsJsímbolo. Assim bastou tomar 2,26 binitsJsímbolo " Eficiência = 2,21
2,26_ 97,3X.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" ;
K árvore do exemplo de código de =uffman binário
x1
x8
x7
x5
x4
x6
x3
x2
0,50
0,15
0,12
0,10
0,04
0,04
0,03
0,02
a
b
c
0,05
0,08
0,13
0,22
0,28
0,50
1,00
d
ef
)
!
)
)
)
)
)
)!
!!
!
!
!
Palavras de código)
! ) )
! ! )
! ! !
! ) ! ) )
! ) ! ) !
! ) ! ! )
! ) ! ! !
Probabilidade Arvore
Repare-se que no código de ;uffman a codificação se faz em direcção à raiz da
árvore, ao contrário do código de Shannon-:ano j mas a formação das palavras de
código faz-se no sentido contrário.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <=
Código de =uffman não binário
Se o código não for binário (D k 2) é preciso proceder a um agrupamento inicial
de mensagens de acordo com o seguinte procedimento1:
Sendo M o tamanho do alfabeto da fonte e D o tamanho do alfabeto do código, agrupam-se primeiro as 2 mensagens menos prováveis.
)1mod()2( −−+ DM
( )1mod()2( −− DM é o resto da divisão de MR/ por DR()
GLGM1NOH ! O P, " O R
a1
a2
a3
a4
a5
a6
0,4
0,3
0,2
0,05
0,03
0,02 0,05
)
)
)
!
!
!
" 0,3
" 1,0
Palavras de código
)
!
" )
" !
" " )
" " !
Probabilidade Arvore
Agrupamento prévio das 2 ^ 4 mod 2 _ 2 mensagens menos prováveis
O agrupamento prévio diminui o valor de N pois assim há menos palavras
compridas (duas de 3 dígitos ternários em vez de três (D_3)).
1 A justificação pode encontrar-se em R. G. Gallager, Information Theory and Reliable
Communication (miley, 1968), Sec. 3.4.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <<
Klgo mais sobre o código de =uffman
Sedução da variUncia
! Se ao formar um novo conjunto de probabilidades decrescentes houver
probabilidades iguais as que resultam de agrupamentos devem ser colocadas o mais alto possível. Desse modo reduz-se a variância V dos comprimentos ni das
palavras de código. No entanto o comprimento médio N mantém-se.
2ância _ iV E n N$ %= −& '
2iUari , com 2 2
1
M
i ii
E n P=
$ % =& ' # n
A variância mínima tem vantagens:
! o ritmo de produção de bits é mais uniforme (o que é conveniente para o preenchimento de
RbuffersS)p
! há uma maior imunidade (resistência) a erros do canal, na descodificação.
Kumento da eficiência da codificação não binária com agrupamento prévio
! O agrupamento prévio de símbolos na codificação de ;uffman não-binária
aumenta a sua eficiência pois baixa o comprimento médio N , dado que assim as
palavras mais compridas são em menor número.
Kplicações
! O código de ;uffman é usado em equipamento comercial de compressão de
dados para reduzir o número de bits transmitidos permitindo, portanto, reduzir o
tempo de transmissão. Um exemplo concreto é o equipamento de fax.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <4
Codificação aritmética
! Dizemos que um codificador é óptimo quando permite comprimir os dados gerados por uma determinada fonte com o número mínimo possível de bits.
! Apesar de os códigos de ;uffman serem muito eficientes na maioria das aplicações, só são óptimos num reduzido número de casos (quando a probabilidade de ocorrência de cada símbolo for uma potência inteira de 1J2).
! A codificação aritmética surgiu em 1976 com Rissanen. Esta técnica de codificação permite gerar códigos óptimos se as diversas probabilidades de ocorrência forem conhecidas rigorosamente.
! r necessária uma correcta modelização da fonte (como já acontecia na codificação de ;uffman).
! O código gerado por um codificador aritmético representa um número real: o codificador faz corresponder a uma qualquer sequência de símbolos (cada um com a sua probabilidade) um número real superior ou igual a 0 e inferior a 1.
! O intervalo de 0 a 1 é inicialmente dividido em tantos intervalos quantos os símbolos diferentes produzidos pela fonte, de tamanhos proporcionais às probabilidades de ocorrência respectivas.
! Consoante o símbolo que for sendo gerado assim o respectivo intervalo vai sendo subdividido proporcionalmente.
! O resultado final será um número real incluído no intervalo final (fechado à esquerda e aberto à direita). O número escolhido deverá ser um de entre os que podem ser representados pelo menor número de bits (se a codificação for binária).
! r necessário acrescentar um símbolo especial ao conjunto de símbolos da fonte para assinalar o fim da sequência.
O melhor é vermos um exemplo…
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <5
Codificação aritméticaH introdução
fma fonte produz os s*mbolos A e g com as probabilidades hOi e hOeO respectivamenteR
W Ao s*mbolo A vamos associar o intervalo semifec6ado de h a hOi CexclusivéE e a g vamos associar o intervalo semifec6ado de hOi a `:
hhOi
`A g
W 5e cada um dos intervalos for dividido noutros dois com a mesma proporção Cihj e ehjE obtemos Puatro intervalos mais pePuenosO [ [ O
O [ [ e [ [ : 0p0,36
0,36p 0,6[ [ 0,6p0,84 0,84p1
h `AA gAAg gg
hOixhOiLhOki hOi hOiNhOixhOeLhOFe
W Trosseguindo a subdivisão obter*amos oito intervalos ainda mais pePuenos:
hhOc`ih hObhe hODee hOakihOi
`hOki hOFe
AAA AAg AgA Agg gAA gAg ggA ggg
W l mensagem AAA corresponde o intervalo de h a hOc`i Ccom largura igual a EO a gAg corresponde o intervalo de hODee até hOFe Ccom largura 0,
p( A)3 = 0,21684 − 0,744 = p(B)p(A)p(B) = 0,096EO e por a* adianteR
4 Tara codificar a mensagem AAA sJ temos Pue escol6er um número dentro do intervalo correspondenteO e de preferUncia um Pue seQa representado pelo menor número de bits:
hOc`ih hObhe hODee hOakihOihOki hOFeh `
AAA
`nF
hh`
hOhh`
AAg
cnF
h`h
hOh`h
AgA
enF
`hh
hO`hh
Agg
an`i
`hh`
hO`hh`
gAA
bnF
`h`
hO`h`
gAg
inF
``h
hO``h
ggA
DnF
```
hO```
ggg
`bn`i
hO````
````
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <6
Codificação aritmética X exemplo Y
h ` hOe hODb
hO`i
hOk hOe
hOke
hOkDb
hOkbe
hOkiicb
hOkebi
hOkbhb
hOkecce hOkeec
hOkecce hOkeec
hOke
hOke
hOkebi
hOkbe
hOkDb hOke
hOkhOe h
XaY
XcY
XbY
XaY
XaY
XbY
a b c
5ePuUncia a codificar: a c b a a b
<CaE L hOe <C=E L hOkb <C'E L hOcb
o cJdigo deve ser um número real inclu*do no intervalo phOkecceq hOkeecpR
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <7
Codificação aritmética X exemplo Z Carácter 1robabilidade [ama de valores
Espaço 0,1 t0,0 p 0,1t A 0,1 t0,1 p 0,2t B 0,1 t0,2 p 0,3t C 0,1 t0,3 p 0,4t E 0,1 t0,4 p 0,5t ; 0,1 t0,5 p 0,6t > 0,2 t0,6 p 0,8t R 0,1 t0,8 p 0,9t U 0,1 t0,9 p 1,0t
<odificação de XgA_<A rE?9AY:
Carácter \alor inferior \alor superior Nargura do intervalo
0,0 1,0 1,0
B 0,2 0,3 10-1
A 0,21 0,22 10-2
R 0,218 219 10-3
C 0,2183 0,2184 10-4
A 0,21831 0,21832 10-5
Espaço 0,21831 0,218311 10-6
U 0,2183109 0,218311 10-7
E 0,21831094 0,21831095 10-8
> 0,218310946 0,218310948 2x10-9
; 0,218310947 0,2183109472 2x10-10
A 0,21831094702 0,21831094704 2x10-11
RBARCA UE>;AS _ 0,21831094702 (por exemplo).
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <8
1rocedimento de descodificação
1) Subtrair o valor inferior do intervalo da letrap
2) Dividir pela largura desse intervalop
3) O resultado indica a nova letrap
4) Repetir
Exemplo abaixo:
0,21831094702" B→ 0,21831094702 − 0,20,1
= 0,1831094702" A
Sescodificação de hOc`Fk`haeDhc:
]^mero codificado
Carácter \alor inferior \alor superior Nargura do intervalo
0,21831094702 B 0,2 0,3 0,1
0,1831094702 A 0,1 0,2 0,1
0,831094702 R 0,8 0,9 0,1
0,31094702 C 0,3 0,4 0,1
0,1094702 A 0,1 0,2 0,1
0,094702 Espaço 0,0 0,1 0,1
0,94702 U 0,9 1,0 0,1
0,4702 E 0,4 0,5 0,1
0,702 > 0,6 0,8 0,2
0,510 ; 0,5 0,6 0,1
0,10 A 0,1 0,2 0,1
0,0
0,21831094702 _ RBARCA UE>;AS
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <9
Codificação aritmética X exemplo P
"odificação sh L h
hOi hOa` a k
hOai`
hOaki
hOac`i hOakce
hOacFh hOa
hOacbeF hOacDek
hOa
hOai hOa
hOaki hOa
hOakcehOac`i
hOac`i hOacFh
a
a
a
ac
ac
CihjE CkhjE
CihjE CkhjE C`hjE
4escodificação
hOi hOa `h
hOi hOa `h
hOi hOa `h
hOi hOa `h
hOi hOa `h
hOi hOa `h
A b
A e
Ak
A c
A
Ai L hOacDekh
a k
a
a c
a
a
a c
>&?(& (# ("2@#(%+%@&(#$
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <:
_nconvenientes dos códigos estatísticos
! r preciso conhecer a estatística da fonte. Para texto vulgar as frequências de
ocorrência conhecidas bastariamp para texto mais especializado (reservas de
avião, cotações da Bolsa, etc.) essas estatísticas não permitiriam uma codificação
muito eficiente. Usando técnicas adaptativas consegue-se uma compressão de
cerca de 43X em inglês vulgar* com código de ;uffman.
! Em mensagens de texto a codificação não tem em conta a dependência entre
letras (por exemplo, entre q e u) pois apenas são codificadas letras individuais.
! O facto das palavras de código terem comprimento variável põe problemas na
transmissão pois a fonte está a gerar símbolos a uma taxa constante e o
codificador produz símbolos a uma taxa variável. O emissor terá, pois, de possuir
um buffer para obviar a este problema.
O código de ;uffman é uma abordagem de codificação estatística. Uma
alternativa que remedeia algumas das suas deficiências é a abordagem com
dicionBrios, de que os algoritmos de ]empelR^iv (>-?) são exemplos. Nesses casos
constrói-se gradualmente um dicionário, ou livro de código, isto é, usa-se um
algoritmo adaptativo.
* R. Gitlin, J. ;ayes e S. meinstein, "Data Communications Principles", Plenum Press, 1992.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" <;
Codificação Nabb
Usa-se uma janela de observação de comprimento fixo que desliza ao longo da mensagem a comprimir. r composta por duas partes:
! corpo (da janela) Contém vários milhares de caracteres (8192, por exemplo)
! /look1a2ead buffer6 Bastante mais pequeno (10 a 20 caracteres, ou até mais)
danela deslizante
/>oo?@a1ead =Affer4Cor*o da Dane-a
Z-8 caracteres 8
Xo Pue acabou de acontecerY Xo Pue est2 a acontecerY
Passos a dar na codificação<
Y. compara-se o conteúdo do corpo da janela com o conteúdo do buffer e verifica-se se existe algum padrão ou sequência de símbolos igual. Esse padrão é substituído na saída do codificador por um apontador constituído por um trio de elementos
que na maior parte dos casos ocupa menos espaço que o padrão repetido: < i, > ,a >
i : disttncia Cou offse2E do in*cio do XbufferY ao in*cio do padrão igualq especifica uma de N − F posiçues na Qanela e pode ser hR
D : comprimento do padrãoq tem um valor entre h e R F −1
a : primeiro car2cter Pue Q2 não faz parte do padrão repetidoR v o prJximo s*mbolo a codificarR
Z. Desloca-se a janela para a frente de caracteres. > + 1
A inclusão do próprio carácter a no apontador é para que a codificação prossiga mesmo que não haja padrão repetido. Nesse caso o apontador é ( . 0,0,a)
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 4=
NabbH n^mero de bits do apontador
O número de bits necessários para representar cada apontador é sempre o
mesmo:
! O primeiro elemento (dist`ncia) requer log2(N − F )$ % bitsp
! o segundo elemento (comprimento) requer log2 F$ % bitsp
! o terceiro (símbolo da fonte) requer log2 M$ % bits, em que M é o tamanho do
alfabeto da fonte.
Para representar cada apontador são precisos, no total,
$ %log2(N − F ) + log2 F$ % + log2 M$ % bits
! Exemplo com uma janela deslizante com e N = 24 F = 8
w - f S o O w -A 5 - I x o w < o ! E w - f S o O
disttncia L i
comprimento L D
R R R R R R
(o símbolo y representa um espaço)
Ao olhar para o lookRahead buffer verifica-se que o padrão R y TUDO,y S, de sete caracteres, já apareceu antes, concretamente seis caracteres atrás. Como a seguir vem o carácter T, R y TUDO,y S será codificado como (6, 7, T).
Número de bits de cada apontador (vamos supor que M _ 50):
log2(N − F )$ % + log2 F$ % + log2 M$ % = log216$ %+ log2 8$ %+ log2 50$ %= 13
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 4<
Descodificação Nabb
A janela deslizante tem o mesmo tamanho N que foi usado na codificação mas,
em vez de se procurar uma correspondência entre corpo de janela e lookRahead buffer
copia-se da própria janela para a saída do descodificador o padrão indicado pelo
apontador.
Suponhamos que o apontador é (3, 5, EK quando, num determinado momento da
codificação, a janela deslizante estiver preenchida como na figura:
[ E g A < g < A[ ? ? ? [
CkO bO EE
*+,+ -./0+-121034 + 35+673-+4 8#9 %9 E):
A sequência …EBACBCA já está na saída do descodificador. Ora (3, 5, EK está
a apontar para a terceira letra (a partir do fim) e corresponde a uma sequência de
cinco letras seguida da letra E. Então na saída vão surgindo sucessivamente as
seguintes letras:
1. …EBACBCA ;
2. …EBACBCA B*
3. …EBACBCA B C <
Neste momento já temos três caracteres a partir do B inicial. Ainda faltam dois:
4. …EBACBCA B C A ;
5. …EBACBCA B C A B *
Só falta o carácter seguinte, E:
6. …EBACBCA B C A B C =
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 44
Nimitações de Nabb
Y. Se no lookRahead buffer não houver nenhuma sequência que RcaseS com o
conteúdo da janela o carácter a codificar é, mesmo assim, representado por um
apontador constituído pelo trio de elementos habitual (distância, comprimento e
carácter seguinte)p nesse caso a codificação de um carácter necessitará de mais
bits que o próprio carácter não codificado.
Exemplo: se a Qanela tiver ez b^tes Cde F bitsE com um =Affer de `i b^tes e se cada car2cter não codificado for representado por ` b^te serão necess2rios `c bits Cdis2En'iaE mais e bits C'om*rimen2oE mais F bits C'arF'2erEO isto éO ce bits para representar um car2cter Pue inicialmente sJ ocupava F bits: o codificador em vez de comprimir expandiu
Z. A janela só observa o que é recente (porque o seu tamanho é finito): >?77 é mais
eficiente a comprimir padrões iguais próximos uns dos outros (isto é, que estejam
na janela e no buffer) do que padrões iguais que estejam longe.
P. O tamanho limitado do buffer restringe o tamanho dos padrões que se comparam,
que não podem ser maiores que o buffer. Mas às vezes as equivalências são mais
compridas pelo que se perde eficiência.
Uma solução possível: aumentar os tamanhos da janela e do buffer, mas nesse
caso serão precisos mais bits para representar a distância e o comprimento, além de
que a codificação será mais lenta (mais comparações terão de ser feitas entre as
sequências da janela e do buffer).
;á que estabelecer um compromisso entre, por um lado, os valores de N e : e,
por outro, a eficiência e a velocidade de compressão.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 45
Codificação Nabd Existem imensas variantes do código >?* e já conhecemos a >?77. A variante que a seguir se
apresenta, seguindo Gitlin et al., é devida aos próprios "inventores", Jacob ?iv e Abraham >empel (1978).
Na sequência de saída da fonte vamos procurar uma sequência de símbolos que ainda não tenha sido encontrada antes. Esta sequência é codificada usando sequências que já foram encontradas antes e que, por isso, já foram guardadas num livro de código, ou dicionBrio.
O algoritmo compreende-se melhor com um exemplo:
Suponhamos que a sequência original (na fonte) era
! ! ) ) ! ! ) ) ) ! ) ! ) ! ! ) ) ! ) ) ! ! ! ! ) ) !
Percorrendo a sequência da esquerda para a direita e admitindo que no nosso livro de código já estão guardados os símbolos C e (, obteríamos a seguinte segmentação:
! ! J ) ) J ! ! ) J ) ) ! J ) ! J ) ! ! J ) ) ! ) J ) ! ! ! J ! ) J ) !
O livro de código, inicializado com os símbolos 0 e 1, vai conter os seguintes símbolos, com a numeração indicada:
0 1 11 00 110 001 01 011 0010 0111 10
1 2 3 4 5 6 7 8 9 10 11
A sequência a transmitir será a seguinte: "! !) #) $! !! >! &) ?! ") !!'
Cada inteiro é representado por um bloco de dígitos binários cujo tamanho depende do tamanho do livro de código. Na prática são normalmente usados blocos de 12 bits (isto é, 4096 entradas no livro de código).
Uma sequência nova termina sempre em 0 ou em 1. Consequentemente, apenas 1 bit é necessário para representar os fins de cada palavra de código, isto é, as palavras de código são representadas por 12^1_13 bits.
No algoritmo >?78 palavras de código de comprimento fixo representam um número variável de símbolos de saída da fonte. Isto é o inverso do algoritmo de codificação de ;uffman e é muito adequado para transmissão síncrona.
* Uer, por exemplo, T. Bell, J. Cleary e I. mitten, "Text Compression", Prentice-;all, 1990.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 46
Código Nabd
Gxemplo
Consideremos a seguinte passagem literária:
":oi ele que rapou avaramente a sopeira. E já espreitava a porta, esperando a portadora dos pitéus, a rija moça de peitos trementes, que enfim surgiu, mais esbraseada, abalando o sobrado—e pousou sobre a mesa uma travessa a transbordar de arroz com favas. ue desconsolo~ Jacinto, em Paris, sempre abominara favas~…Tentou todavia uma garfada tímida—e de novo aqueles seus olhos, que o pessimismo enevoara, luziram, procurando os meus. Outra larga garfada, concentrada, com uma lentidão de frade que se regala. Depois um brado:
—ptimo~…Ah, destas favas, sim~ Oh que favas~ ue delícia~"
Suponhamos que o livro de código já contém todas as letras, maiúsculas e minúsculas, espaço e todos os sinais de pontuação. A segmentação do texto seria assim:
":oJi JelJe JquJe rJapJouJ aJvaJraJmeJntJe aJ sJopJeiJra.J EJ jJá JesJprJeitJavJa Ja pJorJtaJ, JespJerJanJdoJ a JpoJrtJadJoraJ dJosJ pJitJéuJs,J a rJijJa mJoçJa dJe pJeitoJs JtrJemJenJteJs, JqueJ eJnfJimJ suJrgJiuJ, mJaiJs eJsbJrasJeaJdaJ, aJbaJlaJndJo Jo sJobJradJo—Je poJusJou JsobJreJ a mJesaJ uJmaJ tJravJessJa aJ trJansJboJrdJarJ deJ arJroJz JcoJm JfaJvasJ. JuJe dJescJonJsolJo~J JJacJinJtoJ, eJm PJariJs, sJempJre JabJomJinaJra JfavJasJ~…JTeJntoJu JtodJaviJa uJma JgaJrfJadaJ tíJmiJda—Je dJe nJovJo aJquelJes JseJus JolJhoJs, qJueJ oJ peJssJimiJsmJo eJneJvoJaraJ, lJuzJirJamJ, pJrocJurJandJo oJs mJeuJs.J OJutJra lJargJa gJarfJada,J cJoncJentJradaJ, cJom JumJa lJentiJdãJo dJe fJradeJ qJue Jse JregJalJa.J DJepJoiJs uJm bJradoJ:
J—JptJimoJ~…AJh,J desJtasJ fJavaJs, siJm~J OhJ quJe faJvas~J Jue dJelíJciJa~J"
Cada nova sequência será codificada em duas palavras que já existem no livro
de código, a última das quais faz parte do livro inicial. Repare-se, por curiosidade,
como é codificada a palavra favas, que aparece quatro vezes.
Com o código >?78 consegue-se uma compressão de aproximadamente 55X em
inglês vulgar (em português não se conhecem dados). Em texto mais estruturado —
linguagens de programação, por exemplo — pode-se atingir maiores compressões.
Como já se disse antes, com o código de ;uffman consegue-se chegar a 43X.
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 47
Codificação Nabd X um exemplo
5ensa&em a codificar6 A A A A B A B / / A A B A / / A A A A B /
A ` hA
g c hg
< k h<
AA e `A
AAg b eg
Ag i `g
<< D k<
AAgA F bA
<<A a DA
AAA `h eA
g< `` c<
Entrada |ndice Talavra de cJdigo
7a8da do codificador6 <A 6B <B 5/ 7A 9A 6A 4/
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 48
Compressão de dados
Trogramas ou formatos de compressão
Zome Ambiente Algoritmo <oment2rio
<o!TA<- fnix 9uffman adaptativo ?entoO patenteado
5 <Tn! e !5-So5
9uffman est2ticoO ordem h
In*cio anos Fhq compressão compar2vel a <o!TA<-
A_< T< ?ADFncompress <omprime e arPuiva
?9arc T<n!ac ?ADD Xfree~areY
A_d T<n!ac ?ADD !el6or Pue ?9arc
<T- !ac ?A
SE8?A-E ?ADD N 9uffman Tara substituir ?AGR !uito popularR Autor: T6il zatzR
TzAITO zip SE8?A-E Autor: T6il zatz
gzip Gindo~sO !acO ?inuxO[
?ADD Tara substituir 'om*ress Autores: dean-?oup aill^ e !ar Adler
bzip <odificação aritmética
Autor: dulian 5e~ard
bzipc 9uffman N transformada de gurro~s-G6eeler
5ucessor de bzip Autor: dulian 5e~ard C`aaiE
C<ontinuaE
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 49
!"#$%& (& )*+#$,&-.# /0(%1#2 (" +#*3" 4:
Compressão de dados
Trogramas ou formatos de compressão C<ontRE
Zome <ompan6ia Algoritmo <oment2rio
!ZT-b !icrocom variante dintmica de 9uffman
!odems
recRbis <<I--nI-f ?AG !odemsq mel6or Pue !ZT-b
RDc` <<I--nI-f AST<! <ompressão de voz
?T< <ompressão de voz
5tuffIt GinO !acO ?inux ?A ftilit2rio de compressão
GinAip GinO !acO ?inux zip ftilit2rio de compressão
I8 <ompuserve ?AG Tara imagens Xbit-mappedY
dTE I5on<<I-- S<-n9uffman Tara imagens fixas
!TE I5on<<I-- Tara imagens mJveis
Adobe Acrobat
Adobe ?AG 8ic6eiros Rpdf
1.#. "ontes e canais cont+nuos
! entropia diferencial
! teorema da capacidade de canal (lei de Shannon-4artley)
! limite de Shannon
! plano da probabilidade de erro
! plano da eficiência espectral
!ontes contínuas
! Uma fonte de informação contínua produz sinais vari-veis no tempo, x(t).
! O conjunto de sinais possíveis é considerado como um con1unto de formas de
onda geradas por um determinado processo aleatório (suposto ergódico).
Suponhamos que o processo aleatório tem uma largura de banda finita. Então
x(t) pode ser completamente caracterizado em termos de valores amostra periódicos.
Em qualquer instante a colecção de valores amostra possíveis constitui uma vari-vel
aleatória 6 descrita pela sua função densidade de probabilidade, p(x).
No caso das fontes contínuas a quantidade média de informação por amostra de
x(t) mede-se através da função entropia diferencial:
h(6 ) = p( x) log21
p(x)dx
−∞
∞
! (Entropia de fonte contínua)
" #$%&'()* +),#&#$-)*. !"#$ *%)$/# ' 0#1 2*.'& 345)3' 0# %"&$ ,'& 13*
,1$67' +#$0)+*+# +# (&'8*8).)+*+# /*100)*$* (ver Anexo 2)9
maxp6 (6 )
h( 6 ) =12
log2 2πeS em que S = E?6@A (variância)
Teoria da Informação /on0es e 2anais 2on03n4os 2
!ontes e canais contínuos
A transferência de informação num canal contínuo toma a forma de transmissão
de sinal: a fonte emite um sinal x(t) que, após corrupção por ruído de transmissão,
aparece no destino como um outro sinal, y(t).
A informação mútua média é definida como
I(6 RD ) = p6D (x, y) log2p6 (xS y)p6 ( x)
dx dy−∞
∞
!!
I(6RD) mede a transferência de informação por amostra de y(t) no destino. Tal
como no caso discreto também aqui se verifica que I(6 RD )≥ 0 (e I(6 RD ) = 0 se o
ruído for tão elevado que y(t) não está relacionado com x(t).
A informação mútua média está relacionada com a entropia diferencial através
de
I(6 RD ) = h(D )− h(D S 6 ) = h(6 ) − h(6SD )
em que h?6A representa a entropia diferencial da fonte, h?DA representa a entropia
diferencial do destino, h(6SD) é a equivocação e h(DS6) representa a entropia
diferencial do "ruído", como se verá.
h(6SD ) = p6D (x, y) log21
p6 (xS y)dx dy
−∞
∞
! =! pD (y) p6 (xS y) log21
p6 (xS y)dx dy
−∞
∞
!!
h(D S 6 ) = p6D (x, y) log21
pD (yS x)dx dy
−∞! =! p6 (x )pD (ySx ) log2
1pD (yS x)
∞
dx dy−∞!!∞
Teoria da Informação /on0es e 2anais 2on03n4os 3
Capacidade de canais contínuos
Sabe-se, da teoria das probabilidades, que se D X aFYb, em que F e D são
variáveis aleatórias, então pD (y) =a1 pF a
" # 1 $ %
& ' =
apF (G ) . Assim, se o canal
introduzir ruído gaussiano aditivo independente, tal que y(t) X x(t) Y n(t), então
D − b
( S ) ( ) ( ) ( )D D N Np y x p x n p y x p n= + = − =
e portanto
2 21 1( S ) ( ) ( S ) log ( )log ( )
( S ) ( )6 D ND N
h D 6 p x p y x dxdy p n dn h Np y x p n
∞ ∞
−∞ −∞
= =! ! ! =
Isto é, a entropia diferencial condicional de D, dado 6, não depende de p6(x) e é igual
à entropia diferencial de N. Podemos, então escrever:
I(6 RD ) = h(D ) − h( N)
A transferência m-xima de informação por amostra de y(t) obtém-se
maximizando I(6RD). Esta maximização é equivalente à maximização de h(D), logo D
deve ser uma variável aleatória gaussiana. Como N também é gaussiana, 6 deve
também ser gaussiana.
Se o canal tiver uma largura de banda fixa B então a sua saída, y(t), é um sinal
de banda limitada que pode ser completamente definido por amostras Dk, k X 1,2,…,
obtidas à taxa de Nyquist, fs X 2B amostras_s. Definindo
Cs = maxp6 (x )
I(6 RD) = max I(6 RD) : a gaussiana E(62 ) = S[ ] bits _ amostra
a taxa m-xima de transferência de informação, em bits_s, é então
C = 2 BCs bits_s (capacidade de um canal contínuo de banda limitada)
Teoria da Informação /on0es e 2anais 2on03n4os 4
Capacidade do canal 1234
Consideremos um canal contínuo de banda limitada afectado de ruído gaussiano
branco aditivo (canal AbGN).
5ropriedades7
— o sinal de entrada, x(t), tem banda limitada e uma potência média fixa,
S = E?6@A.
— a transmissão não sofre distorção na largura de banda B do canal (a menos de
atenuação…)
— o ruído aditivo que contamina a saída do canal tem função densidade de probabilidade gaussiana com média nula e potência média N = NoB
— o sinal e o ruído são independentes:
y(t) = x(t) + n(t) ( E D2[ ]= σ y2 = S + N
! A entropia diferencial condicional h(DS6) X h(N) pode calcular-se a partir de pN(n), sendo : σn
2 = N
2
1)(2
2
22
n
n
nn enp σ
πσ
−
= ( log21
pn (n)= log2 2πN +
n2
2Nlog2 e
( h(D S 6) = h(N) = pn (n)log21
pn (n)dn
−∞! = log2 2πN∞
+12
log2 e =12
log2 (2πeN )
! O valor máximo de h(D) é igual a )(2log212log
21
22
2 NSee y += πσπ
(Continua)
Teoria da Informação /on0es e 2anais 2on03n4os 5
Capacidade do canal 1234 (Contin.)
Podemos então calcular a capacidade de um canal AWGN:
! h(D S 6 ) =12
log2 (2πeN )
! maxp6 (x)
h(D ) =12
log2 2πe(S + N )
!
Cs = maxp 6 ( x)
I( 6RD ) = maxp6 (x )
h(D)[ ]− h(D S 6 ) =
=12
log2 2πe(S + N ) − 12
log2 2πeN =12
log2 1+SN
" $ % #
& ' bits _ amostra
! Capacidade do canal em bits_s:
C = B log2 1 +SN
" $ % #
&'
Esta expressão traduz o Teorema da capacidade de canal ou lei de
ShannonRHartley, que é um dos mais famosos e importantes resultados da Teoria da
Informação:
Não é possível transmitir sem erros a um ritmo superior a C = B log2 1 +SN
" $ % #
&' bitsUs
através de um canal com largura de banda B e relação sinalRruído SUN.
Teoria da Informação /on0es e 2anais 2on03n4os 6
8mplicações do teorema da capacidade de canal
! Um sistema ideal com largura de banda infinita tem uma capacidade de canal
finita:
2 2
0
0
log 1 log 1
ln 1ln 2
S SC B BN N
B SN B
" #" #= + = +% '% '$ & $ &" #
= +% '$ &
B=
Se B → ∞, 0 0S N B → . Mas . Portanto,
0 0
1lim 1,44ln 2 ln 2B 0
B S SC CN B N N∞
→∞= ≈ = =
S
! Existe um valor limite de Eb_NW ?limite de ShannonA abaixo do qual não pode
haver comunicação sem erros, qualquer que seja o ritmo de transmissão.
Sendo T a duração de cada bit, Eb a sua energia e R X 1_T bits_s, então
0 0
b bE T ES RN N B N B
= = ( 2 20
log 1 log 1 bES RC B BN N
" #" #= + = +% '% '$ & $ &B
Mas R ! C ( 20
log 1 bER C RB B N
" #≤ = +% '
$ &B
Se B → ∞ ( 0 02
0
ln 1log 1
ln 2 ln 2
b b
b
E R E RN BE N BR R
B N B
" #+% '" # $ &≤ + = ≈% '
$ &
Portanto,
EbN0
≥ ln 2 = 0,693→ −1,59dB ?limite de ShannonA
Teoria da Informação /on0es e 2anais 2on03n4os 7
Capacidade de canais contínuos
Capacidade do canal em função da largura de banda
S_No
B (4z)
1,44 S_No
S_No
C (bits_s)
O limite de Shannon
0,1
1
10
2030
-10 0 10 20 30 40
:;<=>
Região com R m C
Região com R n C
R X C
Eb_N0 (dB)
C_B (bits_s_4z)
Teoria da Informação /on0es e 2anais 2on03n4os 8
Capacidade de canal 1234 com largura de banda finita
Temos 2 20
log 1 log 1 bER C S RB B N N
" #" #≤ = + = +%% '$ & $ &B '
, donde se tira
0
2 1R BbE
N R B−
≥ (R_B é a eficiência espectral)
Consideremos agora a seguinte situação com codificação de canal:
Codificador de canal Canaloonte
R bits_s 1UT X R_Rc
Rc X k_n B ≥ YU@T
Para que não haja interferência intersimbólica é preciso que B ≥ 1_2T, ou seja,
12 2 c
RBT R
≥ = ou 2 cR RB≤
Se queremos aumentar a eficiência espectral teremos de aumentar a taxa do código.
Assim: 2
0
2 12
cRb
c
EN R
−≥
-.emp1os2
Rc = YU@ ( 0
0bE dBN
≥
Rc = YUZ ( 0
0,55bE dBN
≥ −
Rc = YU[ ( 0
0,82bE dBN
≥ −
q medida que a taxa de código diminui mais nos podemos aproximar do limite de
Shannon (-1,59 dB).
Teoria da Informação /on0es e 2anais 2on03n4os 9
Capacidade de um canal afectado de ruído gaussiano colorido
! #enchimento de água1
ramos tratar do caso mais geral de ruído colorido.
H(f)
6uído coloridon(t)
x(t) ;(t)
• Admitamos que o sinal de entrada )(tx tem uma potência média P fixa e que
é a sua densidade espectral de potência: )( fS 6
!∞
∞−
= dffSP 6 )(
• O ruído gaussiano estacionário colorido tem média nula e é a sua densidade espectral de potência.
)( fSN
• )( fH é a função de transferência do canal.
]ual é a capacidade deste canal^ E qual é a densidade espectral de potência do
sinal de entrada, , que maximiGa a informação m`tua média^ )( fS 6
Os resultados, obtidos com o método dos multiplicadores de aagrange, são os
seguintes, sendo K uma constante:
)*
)+
, ∈−=
outros
FffH
fSKfS
N
60
)(
)()( 2
2
2( )1 log
2 (N
H fC K
S f
∞
−∞
" #% '=% '$ &
! )df
Teoria da Informação /on0es e 2anais 2on03n4os 10
Capacidade de um canal afectado de ruído gaussiano colorido
! #enchimento de água1 (cont.)
Para valores especificados de P, e )( fSN )( fH a constante K é a solução da
equação seguinte:
!!∈∈
''
&
#
%%
$
"−==
Ff
N
Ff6 df
fH
fSKdffSP 2)(
)()(
O conjunto 21: ffffF ≤≤= representa a gama de valores de frequência
para os quais a constante K é superior a 2)( fHN )( fS .
Estas considerações conduzem à chamada dinterpretação do enchimento de
-guae:
<
= = áreas sombreadasSB(f)/|H(f)|2
ff2f1-f1 -f2
SX(f) invertido
t como se estivéssemos a uencherv de água (ou melhor, de potência de x(t)) o
gráfico de 2)()( fHfSN : onde houver umenosv ruído (nos vales) coloca-se mais
potência de sinal de entrada, onde houver mais ruído coloca-se menos potência.
Teoria da Informação /on0es e 2anais 2on03n4os 11
Capacidade de um canal afectado de ruído gaussiano colorido
Exemplo )* Canal com ruído AW5N (o ruído é branco)
2
)( 0NfSN =
*+, +≤≤−≤
=outros
BffBffH cc
02201
)( (canal ideal)
Da expressão da potência, ( )!−
−=2
0 22Bf
c
c
dfNKP+ 2Bf
, tiramos o valor de K:
B
BNPK2
0+=
A capacidade deste canal obtém-se imediatamente:
0
2
2
2
2
22log
)()(
log212
NKBdf
fSfH
KCBf
Bf N
c
c
=×= !+
−
Substituindo o valor de K obtido atrás chegamos à expressão já conhecida do
teorema de Shannon-4artley:
''&
#%%$
"+=
+
=BN
PBN
BBNP
BC0
20
0
2 1log22
log
Teoria da Informação /on0es e 2anais 2on03n4os 12
Capacidade de um canal afectado de ruído gaussiano colorido
Exemplo ;* <S> com interferência NEXD (EnearFend crosstalkI)
H(f)
Jinha KSJ
SX(t)
HBEXT(f)
SB(t)
SX(t)
• Normalmente 23)( ffHNE6T β= , em que β é uma característica dos cabos telefónicos.
• )()()( 2 fSfHfS 6NE6TN =
A única restrição a impor é que a densidade espectral de potência de )(tx seja
não-negativa. Substituindo valores chega-se à constante K,
)()(
)(1 2
2fS
fH
fHK 6
NE6T''
&
#
%%
$
"+= ,
e daí à capacidade do lacete de assinante (DSw) afectado de ucrosstalxv do tipo
NEaT:
!∈
''
&
#
%%
$
"+=
Ff NE6Tdf
fH
fHC 2
2
2)(
)(1log
21
(F é o conjunto das frequências positivas e negativas para as quais ) 0)( >fS 6
Teoria da Informação /on0es e 2anais 2on03n4os 13
5lano da probabilidade de erro ! t o lugar geométrico dos pontos de funcionamento disponíveis para um
determinado tipo de modulação ou codificação.
! Cada curva está associada à largura de banda mínima exigida.
O funcionamento do sistema é caracterizado por um ponto no plano da
probabilidade de erro, para um determinado tipo de modulação escolhido e para a
razão Eb_No disponível.
?'3(&'3)00'09
! Em funcionamento: 1 y Entre PB e Eb_No (com B fixo)
! Só na fase de projecto 2 y Entre PB e B (com Eb_No fixo) 3 y Entre B e Eb_No (com PB fixo)
O compromisso 1 só envolve variação de potência. Os restantes envolvem
mudanças nos tipos de modulação e codificação.
Teoria da Informação /on0es e 2anais 2on03n4os 14
Capacidade de canal gaussiano e eficiência espectral de modulações
Teoria da Informação /on0es e 2anais 2on03n4os 15
Anexo 1
Desigualdade de Kraft (ou de Kraft-McMillan) Teorema: Se os inteiros n1, n2, ..., nM satisfazem a desigualdade
1
1iM
n
iD−
=≤∑
então existe um código sem prefixos com um tamanho de alfabeto D cujos comprimentos de palavras são esses inteiros.
Inversamente: os comprimentos de qualquer código sem prefixos satisfazem a desigualdade.
O teorema não diz que qualquer código cujos comprimentos satisfazem a
desigualdade é um código sem prefixos. O que o teorema diz é que existe um certo
código sem prefixos e que tem esses comprimentos.
4ª ordem
3ª ordem
2ª ordem
Nós de 1ª ordem
D-3D-2
D-1
D4 nós
D3 nós
D2 nós
D nós
Arvore cheia (com D=2)
• Existem Dn nós de ordem n
• De cada nó de ordem i saem D ramos ligados a D nós de ordem i+1.
• De cada um dos D nós de ordem 1 sai uma fracção D-1 dos nós de ordem i ≥ 1.
• De cada um dos D2 nós de ordem 2 sai uma fracção D-2 dos nós de ordem i ≥ 2.
Genericamente: De cada um dos Di nós de ordem i sai uma fracção D-i dos nós de ordem maior ou igual a i.
Teoria da Informação Anexos 1
Desigualdade de Kraft
x4x3
x2
x1
Nó de ordem n1
Fracção D-n1
FracçãoD-n2
Sejam n1≤ n2 ≤ ... ≤ nM um conjunto de M inteiros que satisfazem a desigualdade de Kraft.
Suponhamos que a árvore ao lado tem ordem n igual ao maior inteiro nM.
Demonstração do teorema:
1 — Tomemos um nó qualquer de ordem n1 (x1, por exemplo) como o primeiro nó terminal da
árvore de código. Todos os nós de cada ordem ≥ n1 estão ainda disponíveis para nós
terminais,
excepto uma fracção 1nD− (nós que saem de x1)
2 — A seguir tomemos outro qualquer nó de ordem n2 (x2, por exemplo). Todos os nós de cada
ordem ≥ n2 estão ainda disponíveis para nós terminais,
excepto a fracção 1n 2nD D− −+ (nós que saem de x1 e x2)
3 — Continuando dessa maneira, depois da atribuição do nó terminal de ordem k na árvore de
código, todos os nós da árvore cheia, de cada ordem ≥ nk, estão ainda disponíveis
excepto a fracção 1 2
1
k ik
n nn n
iD D D D− −− −
=+ +…+ =∑
4 — Por hipótese , para i < M ⇒ há sempre um nó disponível para servir como nó
terminal ⇒ existe um código sem prefixos.
11i
kn
iD−
=<∑
Inversamente: A árvore de código de um código sem prefixos está contida numa árvore cheia
⇒ um nó terminal de ordem ni dá origem a uma fracção dos nós terminais da árvore
cheia. Como os conjuntos dos nós terminais da árvore cheia que derivam dos nós terminais da
árvore de código são disjuntos, conclui-se que essas fracções somadas são ≤ 1, c.q.d.
inD−
Teoria da Informação Anexos 2
Anexo 2
Valor máximo da entropia diferencial
Teorema
O valor máximo da entropia diferencial h para todas as escolhas de
funções densidade de probabilidade satisfazendo
(Y) = − p(y) log2 p(y)− ∞
∞
∫ dy
(a) y2 p(y)dy
− ∞
∞
∫ = σ 2
é unicamente atingido pela função densidade de probabilidade gaussiana
ϕ (y) = 12πσ 2
e− y2
2 σ 2
(b)
e tem o valor h(Y) = 12
log2 (2πeσ 2 ).
Demonstração (de acordo com R. G. Gallager, Information Theory and Reliable Communication (Wiley, 1968))
Seja p(y) uma fdp arbitrária satisfazendo (a) e seja ϕ(y) a fdp gaussiana de (b). Então
p(y) log21
ϕ (y)dy =
− ∞
∞
∫ p( y) log2 2πσ2 + y2
2σ 2 log2 e
dy =−∞
∞
∫
= log2 2πσ2 + σ 2
2σ 2 log2 e = 12
log2 (2πeσ 2 )
Portanto,
h(Y) − 12
log2 (2πeσ 2 ) = p(y) log2ϕ ( y)p(y)
dy−∞
∞
∫
Como log , então 2 z ≤ (z −1)log2 e
h(Y) − 12
log2 (2πeσ 2 ) ≤ log2 e p(y) ϕ (y)p( y)
−1
dy
− ∞
∞
∫ = 0
A igualdade obtém-se apenas sse ϕ (y)p( y)
=1 para todos os y, c.q.d.
Teoria da Informação Anexos 3
Resumo do Capítulo 1 Neste capítulo foram estabelecidos três limites fundamentais em diferentes aspectos de um
sistema de comunicações digitais através do teorema da codificação da fonte, do teorema da codificação de canal e do teorema da capacidade do canal, todos devidos a Claude Shannon.
O teorema da codificação da fonte fornece-nos um padrão pelo qual podemos medir a informação proveniente de uma fonte discreta sem memória. Diz-nos o teorema que podemos tornar o número médio de elementos binários (binits) por símbolo da fonte tão pequeno como, mas não menor que, a entropia da fonte medida em bits. A entropia de uma fonte é uma função das probabilidades dos símbolos que a fonte produz. Visto a entropia ser uma medida de incerteza, é máxima quando a distribuição de probabilidades associadas gera a máxima incerteza, ou seja, quando os símbolos são equiprováveis.
Os objectivos do teorema da codificação da fonte são perseguidos e aproximados se, antes da codificação, os símbolos produzidos pela fonte forem agrupados em blocos de N símbolos – teremos então uma extensão de ordem N – e se os códigos forem de comprimento variável. Destes só nos interessam códigos unicamente descodificáveis, em especial um seu subconjunto, o dos códigos sem prefixos, definidos através de árvores. Ambos obedecem à desigualdade de Kraft-McMillan, que relaciona entre si os comprimentos de cada palavra de código. Os códigos de Shannon-Fano e Huffman são dois exemplos de códigos sem prefixos cujo comprimento médio das palavras de código se aproxima da entropia da fonte.
Uma outra abordagem foi feita através da codificação aritmética, embora também baseada em modelos probabilísticos da fonte, tal como os dois códigos precedentes; completamente diferente são as codificações de Lempel-Ziv (LZ77 e LZ78). Nesta última, por exemplo, vai-se construindo um dicionário à medida que a codificação se realiza.
O teorema da codificação de canal é o resultado mais surpreendente e talvez o mais importante da Teoria da Informação. Por exemplo, para um canal binário simétrico (BSC), o teorema da codificação de canal diz-nos que para qualquer taxa de informação menor ou igual à capacidade do canal existem códigos tais que a probabilidade de erro média é tão pequena quanto quisermos. Um canal binário simétrico é a forma mais simples de um canal discreto sem memória; é simétrico se a probabilidade de se receber um 1 se se tiver enviado um 0 for igual à probabilidade de se receber um 0 se se tiver enviado um 1. Esta probabilidade, chamada probabilidade de transição, define univocamente a capacidade do canal.
O terceiro teorema de Shannon, provavelmente o mais famoso, é o teorema da capacidade do canal, ou lei de Shannon-Hartley, e aplica-se a canais contínuos. Diz-nos o teorema que em qualquer canal de comunicação limitado em potência existe uma velocidade máxima de transmissão de informação sem erros, dependente da largura de banda do canal e da relação sinal-ruído. Esta velocidade, ou taxa, máxima chama-se capacidade do canal e mede-se em bits/s. Se o sistema
funcionar a uma taxa superior à capacidade do canal está condenado a uma probabilidade de erro elevada, independentemente do receptor ou da técnica de transmissão usada.
A codificação de canal (ou codificação com controlo de erros), referida no teorema da codificação de canal, vai ser objecto do nosso estudo em seguida.
Teoria da Informação Resumo 2