Logik, Informationstheorie
eBook - ePub

Logik, Informationstheorie

Stefan Höltgen, Stefan Höltgen

  1. 300 pages
  2. German
  3. ePUB (mobile friendly)
  4. Available on iOS & Android
eBook - ePub

Logik, Informationstheorie

Stefan Höltgen, Stefan Höltgen

Book details
Book preview
Table of contents
Citations

About This Book

Der erste Band des auf vier Teile angelegten Lehrbuchs Medientechnisches Wissen führt in die Themen Logik, Informations- und Speichertheorie für Medienwissenschaftler ein. Ziel ist es, Studenten und Dozenten der Medienwissenschaften ein Lehrwerk in die Hand zu geben, in welchem die technischen Grundlagen und Funktionsweisen von Medienapparaten und -prozessen kleinschrittig vermittelt werden. Voraussetzung hierfür ist lediglich das Abiturwissen der betreffenden Fächer. Mithilfe der Kenntnis von Formal-, Natur- und Ingenieurswissenschaften wird es möglich, medienwissenschaftliche Fragen zur Ästhetik, Wirkung und anderen Feldern an die Funktionsweisen und Epistemologien medientechnischer Prozesse zu koppeln – eine Kompetenz, die für Geistes- und Kulturwissenschaftler unerlässlich wird.

Der erste Teil des Bandes stellt die Logik der Medien vor und vermittelt dabei die Analyse und Synthese von logischen Prozessen. Im zweiten Kapitel über Informations- und Speichertheorie wird die Frage, was Information (aus kybernetischtechnischer Perspektive) ist, mit einer neu entwickelten Systematik beantwortet und mit der Informationsspeicherung verschränkt.

Band 2 wird die Fachgebiete Informatik und Kybernetik für Medienwissenschaftler aufbereiten und eine Einführung in die Computerprogrammierung geben.

Im Band 3 werden die Mathematik, Physik und Chemie der Medien vorgestellt. Band 4 schließt das Werk mit Einführungen in die Archäologie, die Elektronik und den Selbstbau eines Computers ab.

Stefan Höltgen (Hrsg.)
ist wissenschaftlicher Mitarbeiter an der Medienwissenschaft der HU Berlin und promoviert zur Archäologie früher Mikrocomputer und in der Informatik. Von ihm sind Publikationen zur Computerarchäologie, Geschichte und Theorie der digitalen Medien erschienen.

Horst Völz
ist Physiker und ab 1969 Gründungsdirektor des Zentralinstitutes für Kybernetik und Informationsprozesse. Er lehrte an der FU sowie an der TU Berlin Physik und Elektrotechnik. Heute ist er Dozent für Medienwissenschaft an der HU Berlin.

Frequently asked questions

How do I cancel my subscription?
Simply head over to the account section in settings and click on “Cancel Subscription” - it’s as simple as that. After you cancel, your membership will stay active for the remainder of the time you’ve paid for. Learn more here.
Can/how do I download books?
At the moment all of our mobile-responsive ePub books are available to download via the app. Most of our PDFs are also available to download and we're working on making the final remaining ones downloadable now. Learn more here.
What is the difference between the pricing plans?
Both plans give you full access to the library and all of Perlego’s features. The only differences are the price and subscription period: With the annual plan you’ll save around 30% compared to 12 months on the monthly plan.
What is Perlego?
We are an online textbook subscription service, where you can get access to an entire online library for less than the price of a single book per month. With over 1 million books across 1000+ topics, we’ve got you covered! Learn more here.
Do you support text-to-speech?
Look out for the read-aloud symbol on your next book to see if you can listen to it. The read-aloud tool reads text aloud for you, highlighting the text as it is being read. You can pause it, speed it up and slow it down. Learn more here.
Is Logik, Informationstheorie an online PDF/ePUB?
Yes, you can access Logik, Informationstheorie by Stefan Höltgen, Stefan Höltgen in PDF and/or ePUB format, as well as other popular books in Technology & Engineering & Automation in Engineering. We have over one million books available in our catalogue for you to explore.

Information

Teil II:Informations- und Speichertheorie Horst Völz)

1Einführung

Medien sind technische Einrichtungen und Methoden zur bestmöglichen Nutzung von Information, Wissen und Nachrichten. Ihre Inhalte müssen dabei auf unsere Sinne – vor allem den Hör- und Sehsinn – einwirken können. Die für den Menschen diesbezüglich unmittelbar vorhandene Grenze der Zeit wird durch die Speicherung, die der Entfernung durch die Geschwindigkeit der Übertragung erheblich erweitert. Zusätzlich ermöglicht die Speicherung die prinzipiell nutzbare (Informations-)Menge gewaltig zu vergrößern. Zum Verständnis dieser Möglichkeiten sind primär zwei wissenschaftliche Spezialkenntnisse erforderlich: erstens zu wissen, was Information ist und wie sie gegenüber Wissen und Nachrichten abzugrenzen ist; zweitens, wie die technischen Methoden von Speicherung und Übertragung funktionieren und welche (theoretischen) Grenzen dabei bestehen. Erste wissenschaftliche Antworten hierauf haben ab den 1940er-Jahren vor allem die Shannon‘sche Informationstheorie und die Wiener‘sche Kybernetik gegeben. Eigenartigerweise gibt es aber keine ähnlichen Arbeiten zur Informationsspeicherung. Sie wurde immer nur von Technikern (weiter-) entwickelt und ohne (eigenständige) Theorie unmittelbar zur Nutzung bereitgestellt.
Im folgenden Kapitel werden daher sowohl die Inhalte von Information erklärt als auch die theoretischen und technischen Grundlagen der Übertragung und Speicherung weitgehend einheitlich dargestellt. Damit sollen für Medienwissenschaftler wesentliche Grundlagen möglichst gut verständlich bereitgestellt werden. Der Wiener‘sche Informationsbegriff wird dabei inhaltlich deutlich vertieft und in die Kategorien von Wirkung, Zeichen, Übertragung, Speicherung und Virtualität (Nutzung der Rechentechnik) eingeteilt. Zusätzlich wird kurz und möglichst anschaulich auf eventuelle Möglichkeiten der Quantentheorie eingegangen. Für die Übertragung wird zunächst und vor allem die theoretische Grenze der Entropie von Shannon erklärt und klar von anderen Entropien abgegrenzt. Zusätzlich werden die wichtigsten Grundlagen der Fehlerkorrektur und Datenkomprimierung behandelt. Dabei werden auch die Besonderheiten der Digitaltechnik gegenüber den „älteren“ kontinuierlichen (analogen) Methoden herausgestellt. Für die Speicherung werden die wichtigsten Grundlagen und Grenzen inhaltlich vertieft bereitgestellt und, soweit wie es nützlich erscheint, auch auf unsere und die gesellschaftlichen Gedächtnisse angewendet.

2Informationstheorie

Der Begriff „Information“ wird heute sehr umfangreich genutzt. Fast jeder hat dabei eine intuitive, meist individuelle Vorstellung. Leider gibt es keine allgemein anerkannte Definition. Das mögen wenige Beispiele belegen:
Was ist die Information, die nach Steven Hawking ein schwarzes Loch verlassen kann?
Eine Wettervorhersage liefert uns Informationen, wie wir uns draußen optimal anziehen sollten.
Welche Information zeigt die Ultraschall-Aufnahme eines Kindes im Mutterbauch?
Informationstechnik und Informatik betreffen Besonderheiten der Nachrichtenbzw. Rechentechnik.
Die sehr breite Verwendung des Begriffs „Information“ führt teilweise zu seiner Inhaltsleere. Deshalb wird gegen Ende dieses Kapitels gezeigt, was nicht mit Information bezeichnet werden sollte. Doch zunächst wird versucht, eine allgemeingültige Definition zu geben. Dazu werden schrittweise einzelne Aspekte – genauer Informationsvarianten – herausgearbeitet und möglichst exakt eingeführt. Zwischen den Varianten gibt es natürlich Übergänge.
Begriffserklärungen: Informationsarten
Information besteht immer aus drei Teilen: Informationsträger, angepasstes System und Informat als Auswirkung des Informationsträgers im System und dessen Umgebung. Die fünf Informationsaspekte betreffen dabei einige Besonderheiten:
W-Information (Wirkung): Ein stofflich-energetischer Informationsträger bewirkt in einem entsprechenden System und dessen Umgebung ein Informat, das nicht mit einfachen physikalischen Gesetzen beschrieben werden kann.
Z-Information (Zeichen): Ein stofflich-energetisches Zeichen (Informationsträger) tritt an die Stelle von konkreten und/oder abstrakten Objekten und ermöglicht so einen vereinfachten Umgang (im Sinne eines Informats) mit den Objekten und/oder Objektzusammenhängen.
S-Information (Shannon): Für die Weiterleitung von Informationsträgern an andere Orte wird eine Übertragungstechnik mit den mathematischen Zusammenhängen und theoretischen Grenzen nach Shannon benutzt. Wichtig sind hierbei Fehlerkorrektur, Komprimierung, und Kryptografie.
P-Information (potenziell): Von einem Zeichenträger bzw. Geschehen wird eine zeitunabhängige Kopie angefertigt (gespeichert). Nur durch sie kann auf Vergangenes zugegriffen werden. Hiervon machen u.a. Kriminalistik, Geschichte und Archäologie Gebrauch. Hierzu zählen auch die vielfältigen Gedächtnisarten.
V-Information (virtuell): Mittels der Computertechnik und ihrer Erweiterungen (u. a. Schnittstellen, Bildschirme und Eingabetechniken) entstehen für die anderen Informationsarten neuartige Möglichkeiten, u. a. sind so virtuelle Räume zu schaffen, die in der Realität nicht existieren (können).
Informationsspeicherung wird meist als eigenständiges, vorrangig auf das Technische beschränktes Fachgebiet angesehen und behandelt. Hier ist sie erstmals als Sonderzweig mit spezifischen Eigenschaften in die Informationstheorie eingeordnet.
Der Ursprung des Begriffs Information ist lateinisch: informare bedeutet etwas eine Form geben. Danach entspricht Information am besten der Bildung durch Unterrichten, dem Belehren, Erklären, aber auch der Gestaltung. Lange Zeit hieß der Hauslehrer Informator. Ins Deutsche kam das Wort ab dem 15. Jahrhundert, jedoch fehlt der Begriff in den Lexika des 19. Jahrhunderts vollständig. Er taucht erst wieder nach dem 2. Weltkrieg vor allem im Zuge der Kybernetik auf. Ungeklärt ist, ob dieser moderne/heutige Begriff auf Claude Elwood Shannon, Norbert Wiener oder John von Neumann zurückgeht. Wahrscheinlich prägten sie ihn in gemeinsamer Diskussion. Genaueres dürfte kaum noch zu ergründen sein, denn alle drei waren im Krieg mit der Kryptografie befasst und daher zur strengsten Geheimhaltung verpflichtet. Shannon benutzt jedoch in seiner Arbeit zur Nachrichtentheorie ausschließlich den Begriff „Kommunikation“ (Shannon 1949). Die wohl erste Definition von „Information“ stammt von Wiener aus dem Jahr 1947:
Das mechanische Gehirn scheidet nicht Gedanken aus ‚wie die Leber ausscheidet‘, wie frühere Materialisten annahmen, noch liefert sie diese in Form von Energie aus, wie die Muskeln ihre Aktivität hervorbringen. Information ist Information, weder Stoff51noch Energie (Hervorhebung: H.V.). Kein Materialismus, der dieses nicht berücksichtigt, kann den heutigen Tag überleben. (Wiener 1948:192)
Der hervo...

Table of contents