F14_B_be1 Telekommunikation, Kiruna Källkodning F14_B /BE /BE
F14_B_be2 When Saving Space Is More Important than Absolute Fidelity You also have the option of saving your JPEG2000 images to a lossy format that can be up to 200 times smaller than a comparable-quality smaller JPEG. This is a worthwhile option to consider if you have to transmit high-quality files over the Internet, as the time saved can easily outweigh the loss of data. If you use a high-quality setting, it takes an expert to tell the difference. In Figure 2, you see two small sections of the same part of the same image of driftwood on a beach. The image on the left was saved to a lossless PSD file and requires just over 9MB to store. The same section of the image, shown on the right, was stored in "lossy" JPEG2000 at a quality level of 50. The stored file uses only 1.1MB. 9 MB1.1 MB
F14_B_be3 Jpeg 28 kB 52 kB 98 kB 0.60 bit/pixel 1.17 bit/pixel 0.88 bit/pixel
F14_B_be4 Svartvit bild, 200*200 pixel, 1 bit/pixel Svart_sum = 6382 Vitt_sum =33618 Bild vektor … Ide’ till Kodning?
F14_B_be5 Diskret Signalkälla Analog Signalkälla ADC Käll- Kodare R1R1 R2R2 R = datahastighet bit/s Förlustfri kodning R 2 = R 1 (”Lossless”) Kodning med förluster R2<R1 (”Lossy”)
F14_B_be6 Exempel: En svartvit bild kodas med 8 bitar/pixel (Gråskala 0 (Svart)– 255 (Vitt) ) 100*100 Pixel Informationsmängd 100*100*8 bit För sparad bild-fil: 10 kB = bit
F14_B_be7 100*100 Pixel Informationsmängd 100*100*8 bit För sparad bild-fil: 5 kB = 5120 bit
F14_B_be8 Minns Vi: Entropi Egeninformation Shannons formel ( 1 av flera )
F14_B_be9 HUFFMANKOD Antag att en diskret signalkälla arbetar med symboler med olika grad av sannolikhet. IDE’: Koda symbolerna med olika antal bitar beroende på sannolihet. Stor sannolikhet ger kort kod etc. Jämför MORSE-kod.
F14_B_be10 HUFFMANKOD exempel 1 : 4 Symboler A,B,C,D med olika sannolikheter 0.5 B C 0.25 D A
F14_B_be11 >> P1=[ ]; >> sum(P1) = 1 %Rimligt eller hur ? >> sum(P1.*log2(1./P1)) = %Entropin i bit ENTROPI H(X) : Medelordlängden N:
F14_B_be12 HUFFMANKOD exempel 2 : SymbolSannolikhet AAA1/72 AAB7/72 ABA21/72 BAA7/72 ABB7/72 BAB21/72 BBA7/72 BBB1/72
F14_B_be13 ABA21/72 ~0.29 BAB21/72 ~0.29 AAB7/72 ~0.1 ABB7/72 ~0.1 BAA7/72 ~0.1 BBA7/72~0.1 AAA1/72 ~0.01 BBB1/72 ~ Kod: 0 Kod:
F14_B_be14 ABA21/72 ~0.290 BAB21/72 ~ AAB7/72 ~ ABB7/72 ~ BAA7/72 ~ BBA7/72~ AAA1/72 ~ BBB1/72 ~
F14_B_be15 Beräkningar visar att: H(3-sym)= bit H(1-sym)=2.1560/3= bit N medel = 3 bitar (utan hänsyn till sannolikhet) N medel = bitar ( med ” ) = % (verkningsgrad)
F14_B_be16 Shannons kodningssats är godtyckligt liten
F14_B_be17 KODEFFEKTIVITET : Oftast <1 (100%)
F14_B_be18 HUFFMANKOD exempel 3: B 0.3 C 0.2 D 0.2 A 0.3 Kolla att H(X)=1.971, N = 2.0 Kodeffektivitet 1.971/ 2.0 = 98.55% Baka ihop 2 av symbolerna A – D till 16 nya symboler, t.ex AC, BC, BB, CD … Kolla att H(X)=3.9419, N = 3.98 Kodeffektivitet /3.98 = 99.04%
F14_B_be19 Är Huffman-koden ”lossy” Är run-length-koden ”lossy” Ge förslag på hur en ”lossy”- algoritm kan se ut !
F14_B_be20 Prefixkod En brusfri kod bör vara - unikt avkodningsbar - momentant avkodningsbar Ett nödvändigt och tillräckligt villkor för detta är att ett godkänt kodord inte får vara prefix i ett annat kodord
F14_B_be21 SymbolSannolikhetKod 1Kod 2Kod 3Kod 4 A11/ A21/ A31/ A41/ A51/ Vilken kod är bäst ??
F14_B_be22 HUFFMANKOD exempel 1 igen : 0.5 B C 0.25 D A |0|111|10|0|10|10| D A C 0 C C
F14_B_be23 Momentant avkodbar En kod är momentan om den kan avkodas utan att man betraktar kommande kodord s1 0, s2 01, s3 11 är inte momentant av- kodningsbar ty meddelandet kan bara tolkas om man känner nästa symbol
F14_B_be24 s1 0, s2 10, s3 11 är i momentant av- kodningsbar ty meddelandet kan tolkas utan att man känner nästa symbol
F14_B_be25 Kodordens längd En kod med variabel kodlängd kan erhållas om längden på kodorden N i väljs så att:
F14_B_be26 Symbolsannolikhet A3/8 B3/16 C D1/8 E1/16 F1/32 G Konstruera en lämplig kodning av detta: Svar: exempel på kod: 1,011,010,001,0001,00001,00000 N=2.44, H=2.37 effektivitet 97.4%