
- 210 pages
- English
- PDF
- Available on iOS & Android
About this book
Eine typische Aufgabe bei der statistischen Modellierung ist die Selektion von Variablen. In der vorliegenden Arbeit wird jedoch nicht nur Variablenselektion sondern vielmehr Feature Extraction nĂ€her untersucht. Feature Extraction geht ĂŒber bloĂe Variablenselektion hinaus, in dem Sinne, dass nicht einfach Variablen ausgewĂ€hlt sondern bestimmte Merkmale erfasst werden sollen, die je nach Art der betrachteten Daten unterschiedlich sein können.In dieser Dissertationsschrift werden Variablen mit einer speziellen Struktur betrachtet, wobei diese GröĂen als PrĂ€diktoren in Regressions- oder Klassifikationsproblemen dienen sollen. Den ersten untersuchten Datentyp stellen hochdimensionale signalartige (metrische) Kovariablen dar. Ein typisches Beispiel fĂŒr diese Art von Daten sind funktionale PrĂ€diktoren in der Signalregression, die zwar nur an (einer Vielzahl von) einzelnen Messpunkten erfasst werden können, aber dennoch als Realisationen (mehr oder weniger) glatter Kurven angesehen werden sollten. Hier kann Feature Extraction als die 'Identifikation der relevanten Teile des Signals' definiert werden. Zu diesem Zweck wird in der vorliegenden Arbeit ein Boosting-Verfahren entwickelt, welches auch auf Protein-Massenspektren wie sie in der Proteomik vorkommen angewandt werden kann. Mit Hilfe von Simulationsstudien sowie an Hand realer Daten kann gezeigt werden, dass das vorgestellte Verfahren eine Ă€uĂerst konkurrenzfĂ€hige Alternative zu bestehenden Verfahren darstellt.Kategoriale Kovariablen sind eine weitere hochinteressante Art von speziell strukturierten PrĂ€diktoren. Kategoriale Kovariablen werden in der Regel dummy-kodiert und resultieren folglich in Gruppen von Dummy-Variablen. Haben die betrachteten GröĂen allerdings ordinales Skalenniveau, wird diese Ordnung der Kategorien bei der Modellierung oftmals ignoriert, oder aber es werden (fĂ€lschlicherweise) Methoden angewandt, die eigentlich fĂŒr Variablen mit metrischem Niveau gedacht sind. In dieser Arbeit werden nun penalisierte Likelihood-AnsĂ€tze vorgeschlagen, die ordinales Skalenniveau in den unabhĂ€ngigen GröĂen ĂŒber eine Differenzen-Penalty auf benachbarten Dummy-Koeffizienten berĂŒcksichtigen. Neben dem Aspekt der Variablenselektion wird auch die Identifikation relevanter Differenzen zwischen Kategorien sowohl ordinal als auch nominal skalierter PrĂ€diktoren betrachtet und eswerden geeignete L1-Regularisierungstechniken vorgestellt. Die Verfahren werden dabei sowohl aus einem praktischen als auch einem theoretischen Blickwinkel heraus untersucht. Es wird gezeigt, dass die vorgestellten Methoden sinnvoll einsetzbar sind und auch im Vergleich mit alternativen AnsĂ€tzen sehr gut abschneiden. DarĂŒber hinaus werden auch kategoriale (potentiell) Effekt-modifizierende Faktoren in Modellen mit variierenden Koeffizienten betrachtet.Zu guter Letzt werden AnsĂ€tze zur nonparametrischen Feature Extraction unter Verwendung von Nearest-Neighbor-Verfahren vorgestellt. Das Abschneiden des in diesem Zusammenhang vorgeschlagenen Nearest-Neighbor-Ensembles ist dabei Ă€uĂerst vielversprechend.
Tools to learn more effectively

Saving Books

Keyword Search

Annotating Text

Listen to it instead
Information
Table of contents
- Zusammenfassung
- Summary
- Vorwort und Danksagung
- Contents
- 1 Introduction
- 2 Handling Signal-like Predictors byBlockwise Boosting
- 3 Categorical Predictors
- 4 Nonparametric Feature Extraction
- 5 Conclusion and Outlook
- References