Objekt-Metadaten
Sparse nonlinear discriminants

Autor :Edin Andelic
Herkunft :OvGU Magdeburg, Fakultät für Elektrotechnik und Informationstechnik
Datum :30.11.2007
 
Dokumente :
Dataobject from HALCoRe_document_00006370
 
Typ :Dissertation
Format :Text
Kurzfassung :Diese Dissertation beschäftigt sich mit Trainingsalgorithmen für das maschinelle Lernen und deren Anwendungen für die Klassifikation, die Regression und die automatische Spracherkennung. Es wird im Speziellen das überwachte Lernen betrachtet, das auch als Lernen aus Beispielen bezeichnet wird. Anhand einer kurzen Einführung in die statistische Lerntheorie wird gezeigt, dass sich das überwachte Lernen als ein Funktionsschätzungsproblem formulieren lässt, bei dem sich die Klasse der linearen Funktionen als besonders geeignet für die Generalisierungsfähigkeit der Lösung erweist. Die Leistungsfähigkeit der linearen Funktionen wird zusätzlich durch die Anwendung sogenannter Kernfunktionen gesteigert, die es in effektiver Weise erlauben bestimmte Algorithmen in nichtlineare Räume zu transformieren. Ein wichtiger Vorteil von Kernfunktionen ist, dass die vom gegebenen Algorithmus geschätzten Funktionen in diesem neuen nichtlinearen Raum weiterhin linear sind, so dass die theoretischen Vorteile linearer Funktionen in Bezug auf die Generalisierungsfähigkeit erhalten bleiben. Ein solcher Algorithmus, der sich mit Kernfunktionen nichtlinear transformieren lässt, ist die Diskriminante. Es werden eine Reihe ordnungsrekursiver Algorithmen hergeleitet, die es erlauben, mit vertretbarem Aufwand die durch Kernfunktionen induzierte nichtlineare Version der Diskriminante zu berechnen. Die Algorithmen basieren einerseits auf der Tatsache, dass sich das Diskriminantenproblem als äquivalent zu einer kleinsten-Quadrate-Regression erweist. Andererseits zeigt sich, dass sich die Lösung stark ausdünnen lässt, in dem Sinne dass nur ein kleiner Teil der Trainingsdaten für die Lösung ausgewählt wird. Dies reduziert sowohl den Aufwand beim Training als auch beim Testen erheblich. Darüberhinaus wird die Tatsache genutzt, dass sich die Ausgaben der Diskriminanten probabilistisch interpretieren lassen. Die so gewonnenen Wahrscheinlichkeiten werden als Emissionswahrscheinlichkeiten für Hidden-Markov-Modelle verwendet und innerhalb eines automatischen Spracherkenners getestet. Schließlich werden die vorgestellten Algorithmen für Klassifikations- und Regressionsaufgaben in einer großen Sammlung von Experimenten auf wohlbekannten Datenbasen ausgewertet und mit anderen bewährten Lernalgorithmen verglichen.
Schlagwörter :Kernfunktionen, Maschinelles Lernen, Kleinste Quadrate, Spracherkennung, Klassifikation, Regression
Rechte :Dieses Dokument ist urheberrechtlich geschützt.
Größe :XIV, 103 S.
 
Erstellt am :25.03.2009 - 10:10:01
Letzte Änderung :22.04.2010 - 09:18:53
MyCoRe ID :HALCoRe_document_00006370
Statische URL :http://edoc.bibliothek.uni-halle.de/servlets/DocumentServlet?id=6370