Föreläsning 2: Grundläggande informationsteori

Slides:



Advertisements
Liknande presentationer
Föreläsning 3 25 jan 2010.
Advertisements

Talföljder formler och summor
F3 Matematikrep Summatecknet Potensräkning Logaritmer Kombinatorik.
Point Estimation Dan Hedlin
hej och välkomna EKVATIONER Ta reda på det okända talet.
Kommunikation Studieteknik: Presentationsteknik
Funktioner och programorganisation
Föreläsning 2 21 jan 2008.
Institutionen för matematik, KTH Mats Boij 5B1118 Diskret matematik 4 december B1118 Diskret matematik Elfte föreläsningen Felrättande koder.
Algoritmer och datastrukturer
Människan – x:et i skapelsens ekvation Människan är genetiskt relativt oprogrammerad i jämförelse med andra arter. Människan är genetiskt relativt oprogrammerad.
Grundläggande programmering
FL2 732G70 Statistik A Detta är en generell mall för att göra PowerPoint presentationer enligt LiUs grafiska profil. Du skriver in din rubrik,
732G22 Grunder i statistisk metodik
Växjö 15 april -04Språk & logik: Reguljära uttryck1 DAB760: Språk och logik 15/4: Finita automater och 13-15reguljära uttryck Leif Grönqvist
i olika programmeringsspråk
Development of an analysis tool for execution traces Anders JohnssonRoy Nilsson.
Jonny Karlsson INTRODUKTION TILL PROGRAMMERING Föreläsning 6 ( ) INNEHÅLL: -Mera om tabeller.
Digitalteknik 7.5 hp distans: 5.1 Generella sekvenskretsar 5.1.1
Algebra och ekvationer
Felkalkyl Ofta mäter man inte direkt den storhet som är den intressanta, utan en grundläggande variabel som sedan används för att beräkna det som man är.
MORIA: Frihet och utlitarism. Bentham, Mill och Sidgwick Yttrrande och livsstilsfrihet The harm principle Aktutilitarism (och tumregler)
Grundläggande programmering
Diskreta, deterministiska system Projekt 1.2; Vildkatt
Algoritmer. Ordet kommer från en persisk författare som kom från al’Khowârizmi (engelskans algorithm). Han skrev boken ’Kitab al jabr w’al-muqabala’.
Datakommunikation Informationsöverföring
Skriftlig individuell uppgift Interaktionsdesign i digitala medier (A.1) HT-2012, 7,5 hp Lärare: Daniel Nylén.
Föreläsning 10 Oändlig potentialgrop Kvantfysikens tolkningar.
Shannon-tillägg1 SHANNON Kanalkapacitet i bit/s Bandbredd i Hz Signaleffekt i Watt Bruseffekt i Watt.
Egenskaper för punktskattning
Radioteknik i WLAN Av. Markus Miekk-oja & John Kronberg.
Föreläsning 5Forskningsmetodik 2005 Forskningsmetodik lektion 6.
F14_B_be1 Telekommunikation, Kiruna Källkodning F14_B /BE /BE.
Föreläsning 4: Sannolikhetslära
Sannolikhet Stickprov Fördelningar
Simulering Introduktion Exempel: Antag att någon kastar tärning
Formella metoder i MDI Behovet Vad menas med formell? Verktyg Exempel Att läsa: Kapitel 14 i Carroll.
Matematisk statistik och signal-behandling - ESS011 Föreläsning 3 Igor Rychlik 2015 (baserat på föreläsningar av Jesper Rydén)
William Sandqvist IS1500 Datorteknik William Sandqvist
Föreläsning 11 Logik med tillämpningar Innehåll u Generell resolution u Kapitel i Ben-Ari.
Föreläsning 9 Logik med tillämpningar Innehåll u Semantiska tablåer i predikatlogiken u Klausulform u Herbrandmodeller u Kapitel 3.5,
Lennart Edblom, Frank Drewes, Inst. f. datavetenskap 1 Föreläsning 12: -kalkylen allmänt om -kalkylen syntax semantik att programmera i -kalkylen.
Satslogik, forts. DAA701/716 Leif Grönqvist 5:e mars, 2003.
Fysikexperiment, 5p1 Random Walk 36 försök med Random walk med 1000 steg. Beräknad genomsnittlig räckvidd är  1000  32. Visualisering av utfallsrum.
Föreläsning 14 Logik med tillämpningar Innehåll u Cuts och negation u Input/output u Extralogiska predikat u Interaktiva program, failure-drivna.
F. Drewes, Inst. f. datavetenskap1 Föreläsning 12: -kalkylen allmänt om -kalkylen syntax semantik att programmera i -kalkylen.
Procedurellt potpurri Dagens samtalsämnen –Klipp (Cut) –If-then-else –fail/0 –repeat/0 Att läsa –The Art of Prolog, kapitel 11 –Relevant avsnitt i Learn.
732G22 Grunder i statistisk metodik
© Anders Broberg, Lena Kallin Westin, 2007 Datastrukturer och algoritmer Föreläsning 14.
Formella metoder i MDI Behovet Vad menas med formell? Verktyg Exempel Att läsa: Kapitel 14 i kursboken.
OOP&M - teori1 OOP&M – Föreläsning 3 kap 2-4 Repetition Föreläsning-datayper-syntax-tilldelning.
William Sandqvist Tillståndsmaskiner  Moore-automat  Mealy-automat William Sandqvist
Kronljusströmställaren 0, 1, 2, 3
Shannon dekomposition
Växjö 14 april -04Språk & logik: Finita automater1 DAB760: Språk och logik 14/4:Finita automater Leif Grönqvist Växjö Universitet.
Forskningsmetodik lektion
Presentationsteknik och Interkulturell kommunikation, ÅYH 2002
Lars Madej  Talmönster och talföljder  Funktioner.
Betingade sannolikheter. 2 Antag att vi kastar en tärning och noterar antalet prickar som kommer upp. Låt A vara händelsen ”udda antal prickar”, dvs.
Sannolikhet och statistik Tabell Används för att ge en bra överblick av svaren man fått in, datan. Består av rader och kolumner. Frekvens Är hur många.
Types of Business Consulting Services Cornerstoneorg.com.
Shannon och Weawers kommunikationsmodell.
Shannon och Weawers kommunikationsmodell.
DiVA-undervisning RISE 28 oktober 2016 Aina Svensson & Urban Ericsson
Figure Types of analog-to-analog modulation
Grundl. statistik F2, ht09, AN
Digitala tal och Boolesk algebra
Digitalteknik 3p - Sekvenskretsar
Kombinatoriska byggblock
Kombinatoriska byggblock
Presentationens avskrift:

Föreläsning 2: Grundläggande informationsteori TSBK02 Bild- och ljudkodning Föreläsning 2: Grundläggande informationsteori Författare: Jörgen Ahlberg Översättning och modifiering:Robert Forchheimer

Informationsteori The Claude Shannon: A Mathematical Theory of Communication Bell System Technical Journal, 1948 Två versioner av Shannons ursprungliga publikation.

Från Scientific American-artikel ”What is information? Sidestepping questions about meaning, Shannon showed that it is a measurable commodity”. ”Today, Shannon’s insight help shape virtually all systems that store, process, or transmit information in digital form, from compact discs to computers, from facsimile machines to deep space probes”. ”Information theory has also infiltrated fields outside communications, including linguistics, psychology, economics, biology, even the arts”.

Shannons Kommunikationsmodell Källa Kanal- kodare Käll- Kanal Käll- avkodare mottagare Kanal- Kanal

Grundläggande storheter Källa Kanal- kodare Käll- kanal C Käll-avkodare mottagare Kanal- avkodare kanal C H: Källans informationstakt. R: Datatakten från källkodaren. C: Kanalkapaciteten

Grundläggande teorem H R C C Källa Kanal-kodare Käll-kodare kanal C Käll-avkodare mottagare Kanal-avkodare kanal C Shannon 1: Felfri transmission möjlig om R>H and C>R. Shannon 2: Källkodning och kanalkodning kan optimeras oberoende, och binära symboler kan användas som mellanformat. Förutsättning: godtyckligt lång fördröjning.

Stokastiska källor En källa genererar symboler X1, X2, ... Symbolerna tar sina värden från ett alfabet A = (a1, a2, …). Modell: P(X1,…,XN) anses vara känd för alla kombinationer. Källa X1, X2, …

Exempel 1: En text är en följd av symboler som vardera tar sitt värde från alfabetet A = (a, …, ö, A, …, Ö, 1, 2, …9, !, ?, …). Exempel 2: En (digital) gråskalebild är en sekvens av symboler som vardera tar sitt värde från alfabetet A = (0,1) eller A = (0, …, 255).

Två speciella fall Den minnesfria källan Markovkällan Varje symbol är oberoende av tidigare symboler P(X1, X2, …, Xn) = P(X1) * P(X2) * … * P(Xn) Markovkällan Varje symbol beror endast av föregående symbol. P(X1, X2, …, Xn) = P(X1) * P(X2|X1) * P(X3|X2) * … * P(Xn|Xn-1)

Markovkällan En symbol beror endast av den tidigare symbolen, så källan kan modelleras med ett tillståndsdiagram. a b c 1.0 0.5 0.7 0.3 0.2 En ternär källa med alfabet A = (a, b, c).

Markovkällan Antag vi är i tillstånd a, dvs., Xk = a. Sannolikheterna för nästa symbol är: b 0.7 P(Xk+1 = a | Xk = a) = 0.3 P(Xk+1 = b | Xk = a) = 0.7 P(Xk+1 = c | Xk = a) = 0 a 0.5 1.0 0.3 c 0.2 0.3

Markovkällan På motsvarande sätt, om Xk+1 = b, vet vi att Xk+2 blir lika med c. a b c 1.0 0.5 0.7 0.3 0.2 P(Xk+2 = a | Xk+1 = b) = 0 P(Xk+2 = b | Xk+1 = b) = 0 P(Xk+2 = c | Xk+1 = b) = 1

Markovkällan Om alla tillstånden kan nås så kan de stationära sannolikheterna i = P(Xk = ai) för tillstånden beräknas från de givna övergångssannolikheterna. Markovmodeller kan användas för att representera källor som har mer än ett stegs minne. Använd tillståndsdiagram med flera symboler i varje tillstånd.

Analys och syntes Stokastiska modeller kan användas för att analysera en källa. Finn en modell som väl överensstämmer med en verklig källa. Analysera modellen istället för verkligheten. Stokastiska modeller kan användas för att syntetisera en källa. använd en slumpgenerator i varje steg i Markovmodellen för att skapa en signal som simulerar källan.

Information och Entropi Antag vi har en binär minnesfri källa t.ex. slantsingling. Hur mycket information får vi då vi får reda på att krona kommit upp? Om myntet är korrekt, dvs, P(krona) = P (klave) = 0.5, säger vi att mängden information är 1 bit. Om vi redan visste att krona kommit upp, dvs P(krona) = 1, så är mängen information lika med noll! Om myntet är osymmetriskt, t.ex., P(krona) = 0.9, så är mängden information mer än noll men mindre än en bit! Intuitivt, mängden information som tas emot är densamma om P(krona) = 0.9 or P (klave) = 0.9.

Självinformation Låt oss se detta på Shannons sätt. Antag vi har en minnesfri källa med alfabet A = (a1, …, an) symbolsannolikheter (p1, …, pn). Hur mycket information får vi när vi får reda på att nästa symbol är ai? Enligt Shannon är självinformationen för ai lika med

Varför det? Antag två oberoende händelser A and B, med sannolikheterna P(A) = pA and P(B) = pB. Sannolikheten att båda händelserna skall inträffa är pA * pB. Däremot bör mängden information adderas, ej multipliceras. Logaritmering löser detta! Dessutom vill vi att informationen skall öka med minskande sannolikhet så låt oss byta tecken:

Självinformation Exempel 1: Exempel 2: Vilken logaritm? Välj själv! Om du väljer naturliga logaritmen blir sorten nats, om du väljer 10-log, får du Hartleys, om du väljer 2-log (som är vanligast), så får du bitar.

Självinformation I medel över alla symbolerna, så får vi: H(X) kallas för första ordningens entropi för källan. Detta kan också betraktas som graden av osäkerhet om vad nästa symbol kommer att ha för värde.

Entropi Exempel l: Binär minnesfri källa Låt Då är BMK 0 1 1 0 1 0 0 0 … Låt Då är kallas ofta 1 0.5 Osäkerheten (informationen) är störst när

Entropi: Tre egenskaper Man kan visa att 0 < H < log N. Maximal entropi (H = log N) fås när alla symboler är lika sannolika, dvs, pi = 1/N. Skillnaden log N – H kallas redundansen hos källan.

Entropi för minneskällor Antag ett block av källsymboler (X1, …, Xn) och definiera blockentropin: Entropin för en minneskälla definieras som: Dvs, summationen görs över alla möjliga kombinationer av n symboler. Dvs, låt blocklängden gå mot oändligheten. Dividera med n för att få antal bitar / symbol.

Entropin för en Markovkälla Entropin för ett tillstånd Sk kan uttryckas som Pkl är övergångssannolikheten från tillstånd k till tillstånd l. Medelvärdesbildning över alla tillstånd ger entropin för Markovkällan

Skurlängdskällan Vissa källor genererar långa skurar (”runs”) av samma symboler. Exempel: Sannolikheten för en skur av längd r: P(r) = (1-)r-1 Entropi: HR = - r=1¥ P(r) log P(r) Om den genomsnittliga skurländgen är , så är HR/ = HM. A B  1-

Källkodningsteoremet Entropin ger det minsta antalet bitar som möjliggör felfri representation av källan.

Källkodningsteoremet Säger att vi kan representera utsignalen från en källa X med H(X) bitar/symbol. att vi inte kan göra bättre än så. Säger oss inte Hur man gör.