Kryptografia i ochrona danych Teoria informacji Entropia Entropia

advertisement
Teoria informacji
♦ Opiera si na zało eniu, e w j zyku,
Kryptografia i ochrona
danych
którym posługujemy si wyst puje
nadmiarowo ,
♦ Okre la ilo ci informacji zawartej we
wiadomo ci.
Wykład 4
Matematyczne podstawy kryptografii
(Wybrane materiały)
Dr in . Eugenia Busłowska
Copyright © 2006 E. Busłowska. All
rights reserved.
1
Entropia
wiadomo ci zdarzaj cych si z
prawdopodobie stwem p(X1),...,p(Xn), suma
tych prawdopodobie stw p(Xi), dla i=1,...,n
równa si jedynce.
♦ Entropia dla danej wiadomo ci jest
definiowana przez redni ilo informacji
przypadaj cej na wiadomo :
n
i =1
lub
H (X ) =
n
i =1
p ( X i ) log
p ( X i ) log
2
2
2
Entropia
♦ Niech X1,..., Xn to n mo liwych tre ci
H (X ) = −
Copyright © 2006 E. Busłowska. All rights reserved.
♦ Entropia systemu kryptograficznego okre la
liczb kluczy K
H ( K ) = log
2
(K )
p(X i)
1
p(X i )
Copyright © 2006 E. Busłowska. All rights reserved.
3
Copyright © 2006 E. Busłowska. All rights reserved.
4
1
Teoria informacji
Teoria informacji
♦ Ogólnie dla danego j zyka, bior c pod uwag zbiór
♦ Nadmiarowo
♦
♦
♦
♦
♦
wszystkich wiadomo ci o długo ci N znaków.
Zawarto informacji j zyka (entropy rate) dla
wiadomo ci o długo ci N znaków definiuje si
r=H(X)/N,
Jest to rednia liczba bitów dla ka dej litery,
Je li prawdopodobie stwo wyst pienia wszystkich
liter jest takie samo wówczas bezwzgl dna entropia
(bezwzgl dna zawarto informacji) R dla liczby
znaków alfabetu L wynosi:
R=log2L,
Okre la ona maksymaln liczb bitów jakie mog by
przyporz dkowane ka dej literze
Copyright © 2006 E. Busłowska. All rights reserved.
♦
♦
♦
♦
5
zdarzaj cych si z prawdopodobie stwem
p(X1),...,p(Xn), suma tych prawdopodobie stw p(Xi), dla
i=1,...,n równa si jedynce.
♦ Entropia warunkowa X dla danej wiadomo ci Y jest
definiowana
n
i =1
H ( X ,Y ) =
n
i =1
p ( X i , Y i ) log
p ( X i , Y i ) log
2
2
6
♦ Wyst puj trzy klasy informacji:
p ( X i , Yi )
1
p ( X i | Yi )
Gdzie P(X|Y) oznacza prawdopodobie stwo warunkowe
wyst pienia wiadomo ci X przy znanym Y.
Copyright © 2006 E. Busłowska. All rights reserved.
Copyright © 2006 E. Busłowska. All rights reserved.
Bezpieczny system
kryptograficzny
Entropia
♦ Niech X1,..., Xn to n mo liwych wiadomo ci
H (X |Y ) = −
j zyka (redundancy)
D = R-r,
Dla j zyka angielskiego dla alfabetu długo ci
26 znaków, D = 3,4bity/liter .
Zapisuj c w kodach ASCII nadmiarowo
mo e wynie 6,7bity/liter
Zapisuj c w 5-bitowych kodach
nadmiarowo mo e wynie 0,74bity/liter
7
Tekst jawny M zdarzaj cy si z
prawdopodobie stwem a priori p(M), gdzie
ΣMp(M)=1,
Tekst zaszyfrowany C zdarzaj cy si z
prawdopodobie stwem a priori p(C), gdzie
ΣCp(C)=1,
Klucz K zdarzaj cy si z
prawdopodobie stwem a priori p(K), gdzie
ΣKp(K)=1,
♦ Niech pc(M) b dzie prawdopodobie stwem, e
wiadomo M przesłana jako C
(C jest kodem
M).
Copyright © 2006 E. Busłowska. All rights reserved.
8
2
Poufno
Teoria zło ono ci (Complexity
Theory)
doskonała (absolutna)
♦ Poufno
doskonała (Perfect secrecy) jest
definiowana przez warunek:
♦ H(M|C) =H(M)
♦ Poufno doskonała jest mo liwa u ywaj c
całkowicie losowych kluczy tylko raz, o długo ci
takiej jak długie wiadomo ci one szyfruj .
Copyright © 2006 E. Busłowska. All rights reserved.
♦ Daje mo liwo
oceny czasu i pami ci
potrzebnych do rozwi zania jakiego
problemu obliczeniowego, rozwi zywanego
przez zastosowanie odpowiedniego
algorytmu.
♦ Teoria zło ono ci okre la czas i zasób
komputera, w jakim znany algorytm
rozwi zuje ka dy problem z okre lonej klasy
problemów obliczeniowych.
9
Copyright © 2006 E. Busłowska. All rights reserved.
10
3
Download