|
|
|||
|
||||
OverviewDieses nun in dritter Auflage vorgelegte kleine Buch, das bisher als Beiheft 3 der, elektronische datenverarbeitung' erschienen war, ist aus Vorlesungen tiber Informa- tionstheorie entstanden, die einer der Verfasser an der Technischen Hochschule Stuttgart und an der Technischen Universitat Braunschweig gehalten hat. Es ent- springt der Absicht, den Leser in die Grundlagen der Informationstheorie einzu- fiihren und dabei eine einheitliche Bezeichnungs- und Darstellungsweise zu ver- wenden. Dieses Buch lehnt sich an bekannte grundlegende Arbeiten von Shannon, McMillan, Feinstein, Chintschin u.a. an; es wurde hier angestrebt, aus der FUlle des Materials nur den Stoff zu behandeln, der einmal zur Darstellung der eigentlichen Grund- ideen unbedingt notwendig ist und der zum anderen ein weiteres Eindringen in das Gebiet der Informationstheorie ermoglicht. Eine kurze Einftihrung bringt die wesentlichsten Hilfsmittel aus der Wahrscheinlichkeitstheorie, ohne die das Studium der Informationstheorie unmoglich ist. Die dritte Auflage unterscheidet sich wesentlich starker von den vorhergehenden, als diese untereinander. Es wurden einige Abschnitte neu aufgenommen, wie der Beweis des Satzes von McMillan, andere neu geschrieben, wie zum Beispiel der Abschnitt tiber die mathematischen Grundlagen. Wir hoffen, das Buch damit ab- gerundet und verbessert zu haben. Full Product DetailsAuthor: Ernst Henze , Horst H. Homuth , Ernst Henze , Horst H HomuthPublisher: Springer-Verlag Berlin and Heidelberg GmbH & Co. KG Imprint: Springer-Verlag Edition: 3. Aufl. 1970 Dimensions: Width: 17.00cm , Height: 0.50cm , Length: 24.40cm Weight: 0.203kg ISBN: 9783322985439ISBN 10: 3322985431 Pages: 89 Publication Date: 20 November 2013 Audience: Professional and scholarly , Professional & Vocational Format: Paperback Publisher's Status: Active Availability: In stock We have confirmation that this item is in stock with the supplier. It will be ordered in for you and dispatched immediately. Language: German Table of Contents1. Einleitung.- 1.1. Ziele der Informationstheorie, Oberblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Defmition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel fur einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.ReviewsAuthor InformationTab Content 6Author Website:Countries AvailableAll regions |