3 Teori för symmetriska system
3 Teori för symmetriska system
3 Teori för symmetriska system
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
56<br />
<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />
ii. Transmissionskoder "<strong>för</strong>vandlar" kanalen till en störningsfri dito genom att in<strong>för</strong>a<br />
redundans (checksumma, paritetsbitar) via felupptäckande eller felkorrigerande koder. Vissa<br />
sådana metoder kan också användas <strong>för</strong> att skapa chiffer. En MAC är en privatnyckelbaserad<br />
variant av en transmissionskod. De nyckelfria metoderna är helt <strong>för</strong>svarslösa mot avsiktliga<br />
manipulationer. MAC å andra sidan är konstruerade <strong>för</strong> att mota 'active wiretapping'.<br />
3.1.4 Kommentar<br />
Enligt klassisk teori ska de tre typerna av kodning alltid ske i denna ordning. Det vore ju<br />
mot all intuition att t ex till<strong>för</strong>a redundans, som underlättar arbetet <strong>för</strong> en forcör, innan<br />
kryptering sker. Däremot kan det ju aldrig vara fel att, som <strong>för</strong>ekommer i vissa protokoll,<br />
kryptera även checksumman, då dess<strong>för</strong>innan klartexten har krypterats oberoende av detta.<br />
Redundans kan också verka i motsatt riktning.<br />
Nedan kommer några definitioner och satser som behövs <strong>för</strong> att kunna beskriva kvantitet i<br />
samband med kodning; information, entropi, ekvivokation och kanalkapacitet.<br />
Huvudsyftet är att härleda eller uppskatta ett mått<br />
f = H(K | C) N<br />
som anger kryptoanalytikerns ovisshet om nyckeln K givet ett chiffer C av längden N.<br />
Intuitivt gäller att då N är så stort att f ≈ 0, så låter sig K i teorin bestämmas entydigt. Det<br />
<strong>för</strong>utsätter ofta att nyckeln återanvänds på flera block.<br />
3.2 Sannolikheter och entropi<br />
Betrakta stokastiska variabler X som antar värden i {x 1 , ..., x L } med sannolikheter p i =<br />
p(x i ). Ibland används beteckningen<br />
p = (p 1 , ... p L ).<br />
Utfallsrummet kan t ex antas beskriva källans generering av tex klartextmeddelanden. Med 1-<br />
gram över A = {a, ..., z} blir L = 26 och med digram över A blir L = 26 2 .<br />
I stället <strong>för</strong> att utgå från {a, ..., z} kan man ibland välja att låta källans alfabet bestå<br />
av ord i ett lexikon. Orden blir då symboler och L i storleksordningen 10000 - 100000 <strong>för</strong><br />
naturliga språk.<br />
En probabilistisk synvinkel på språk intas i detta sammanhang, eftersom normalt fullständig<br />
kunskap saknas om språkets meningar. Deterministiska kontextfria grammatikor som bl a<br />
används <strong>för</strong> att beskriva eller definiera programspråk behöver kompletteras.<br />
Den betingade sannolikheten <strong>för</strong> x givet y skrivs p y (x) eller p(x | y) och det gäller <strong>för</strong> den<br />
simultana sannolikheten att<br />
p(x, y) = p(x | y) p(y).<br />
Matrisen P = {p(y i | x j )} brukar kallas sannolikhetsövergångsmatrisen och kan tas som<br />
definition av en kanal och denna eller p(x, y) som karakteristik av en källa då digram<br />
betraktas.<br />
Ett uttryck som Σ i∈[1,n] a i b i <strong>för</strong>ekommer ofta. Genom att in<strong>för</strong>a vektorerna a = (a 1 , ..., a n )<br />
och b = (b 1 , ..., b n ) och en skalärprodukt < | > kan formler skrivas kompaktare:<br />
= Σ i∈[1,n] a i b i .<br />
Beteckningen kan generaliseras till det fall där funktioner f tillämpas på vektorkomponenter<br />
tex<br />
= Σ i∈[1,n] a i f(b i ).