
Common Information, Noise Stability, and Their Extensions
Die gemeinsame Information misst die Menge der übereinstimmenden Variablen in zwei oder mehr Informationsquellen. Sie ist in der Informationstheorie und verwandten Bereichen wie der theoretischen Informatik und der diskreten Wahrscheinlichkeitsrechnung allgegenwärtig.
Da es jedoch mehrere Begriffe von gemeinsamer Information gibt, fehlt ein einheitliches Verständnis der tiefen Zusammenhänge zwischen ihnen. In dieser Monographie füllen die Autoren diese Lücke, indem sie eine kleine Gruppe von mathematischen Techniken einsetzen, die auf scheinbar unterschiedliche Probleme anwendbar sind. In Teil I wird der Leser in die operativen Aufgaben und Eigenschaften der beiden wichtigsten Maße für gemeinsame Informationen eingeführt, nämlich die von Wyner und Gács-Körner-Witsenhausen (GKW).
In den beiden folgenden Teilen gehen die Autoren näher auf jedes dieser Maße ein. In Teil II erörtern sie Erweiterungen von Wyners gemeinsamer Information aus der Perspektive der verteilten Quellensimulation, einschließlich der gemeinsamen Rényi-Information.
In Teil III wird die gemeinsame Information von GKW in den Mittelpunkt gestellt. Nachdem die Autoren die Grundlagen gelegt haben, gehen sie nahtlos zur Diskussion ihrer Verbindungen zu verschiedenen Vermutungen in der Informationstheorie und der diskreten Wahrscheinlichkeit über.
Diese Monographie bietet Studenten und Forschern der Informationstheorie ein umfassendes Hilfsmittel zum Verständnis der gemeinsamen Information und weist den Weg zur Schaffung eines einheitlichen Satzes von Techniken, die für ein breites Spektrum von Problemen anwendbar sind.