24.11.2013 Views

3 Teori för symmetriska system

3 Teori för symmetriska system

3 Teori för symmetriska system

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

56<br />

<strong>Teori</strong> <strong>för</strong> <strong>symmetriska</strong> <strong>system</strong><br />

ii. Transmissionskoder "<strong>för</strong>vandlar" kanalen till en störningsfri dito genom att in<strong>för</strong>a<br />

redundans (checksumma, paritetsbitar) via felupptäckande eller felkorrigerande koder. Vissa<br />

sådana metoder kan också användas <strong>för</strong> att skapa chiffer. En MAC är en privatnyckelbaserad<br />

variant av en transmissionskod. De nyckelfria metoderna är helt <strong>för</strong>svarslösa mot avsiktliga<br />

manipulationer. MAC å andra sidan är konstruerade <strong>för</strong> att mota 'active wiretapping'.<br />

3.1.4 Kommentar<br />

Enligt klassisk teori ska de tre typerna av kodning alltid ske i denna ordning. Det vore ju<br />

mot all intuition att t ex till<strong>för</strong>a redundans, som underlättar arbetet <strong>för</strong> en forcör, innan<br />

kryptering sker. Däremot kan det ju aldrig vara fel att, som <strong>för</strong>ekommer i vissa protokoll,<br />

kryptera även checksumman, då dess<strong>för</strong>innan klartexten har krypterats oberoende av detta.<br />

Redundans kan också verka i motsatt riktning.<br />

Nedan kommer några definitioner och satser som behövs <strong>för</strong> att kunna beskriva kvantitet i<br />

samband med kodning; information, entropi, ekvivokation och kanalkapacitet.<br />

Huvudsyftet är att härleda eller uppskatta ett mått<br />

f = H(K | C) N<br />

som anger kryptoanalytikerns ovisshet om nyckeln K givet ett chiffer C av längden N.<br />

Intuitivt gäller att då N är så stort att f ≈ 0, så låter sig K i teorin bestämmas entydigt. Det<br />

<strong>för</strong>utsätter ofta att nyckeln återanvänds på flera block.<br />

3.2 Sannolikheter och entropi<br />

Betrakta stokastiska variabler X som antar värden i {x 1 , ..., x L } med sannolikheter p i =<br />

p(x i ). Ibland används beteckningen<br />

p = (p 1 , ... p L ).<br />

Utfallsrummet kan t ex antas beskriva källans generering av tex klartextmeddelanden. Med 1-<br />

gram över A = {a, ..., z} blir L = 26 och med digram över A blir L = 26 2 .<br />

I stället <strong>för</strong> att utgå från {a, ..., z} kan man ibland välja att låta källans alfabet bestå<br />

av ord i ett lexikon. Orden blir då symboler och L i storleksordningen 10000 - 100000 <strong>för</strong><br />

naturliga språk.<br />

En probabilistisk synvinkel på språk intas i detta sammanhang, eftersom normalt fullständig<br />

kunskap saknas om språkets meningar. Deterministiska kontextfria grammatikor som bl a<br />

används <strong>för</strong> att beskriva eller definiera programspråk behöver kompletteras.<br />

Den betingade sannolikheten <strong>för</strong> x givet y skrivs p y (x) eller p(x | y) och det gäller <strong>för</strong> den<br />

simultana sannolikheten att<br />

p(x, y) = p(x | y) p(y).<br />

Matrisen P = {p(y i | x j )} brukar kallas sannolikhetsövergångsmatrisen och kan tas som<br />

definition av en kanal och denna eller p(x, y) som karakteristik av en källa då digram<br />

betraktas.<br />

Ett uttryck som Σ i∈[1,n] a i b i <strong>för</strong>ekommer ofta. Genom att in<strong>för</strong>a vektorerna a = (a 1 , ..., a n )<br />

och b = (b 1 , ..., b n ) och en skalärprodukt < | > kan formler skrivas kompaktare:<br />

= Σ i∈[1,n] a i b i .<br />

Beteckningen kan generaliseras till det fall där funktioner f tillämpas på vektorkomponenter<br />

tex<br />

= Σ i∈[1,n] a i f(b i ).

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!