Kerntrick

Für Maschinenlernalgorithmen ist der Kerntrick eine Weise, Beobachtungen von einem allgemeinen Satz S in einen Skalarprodukt-Raum V (ausgestattet mit seiner natürlichen Norm) kartografisch darzustellen, ohne jemals schätzen zu müssen, ausführlich in der Hoffnung kartografisch darzustellen, dass die Beobachtungen bedeutungsvolle geradlinige Struktur in V gewinnen werden. Geradlinige Klassifikationen in V sind zu allgemeinen Klassifikationen in S gleichwertig.

Der Trick, um zu vermeiden, ausführlich kartografisch darzustellen, soll das Lernen von Algorithmen verwenden, die nur Punktprodukte zwischen den Vektoren in V verlangen und wählen solch kartografisch darzustellen, dass diese hoch-dimensionalen Punktprodukte innerhalb des ursprünglichen Raums mittels einer Kernfunktion geschätzt werden können.

Weil auf bestimmte Funktionen als ein Skalarprodukt (in gewöhnlich einem verschiedenen Raum) ausgedrückt werden können. K wird häufig einen Kern oder eine Kernfunktion genannt. Der Wortkern wird unterschiedlich überall in der Mathematik verwendet.

Wenn man Glück oder aufschlussreich bezüglich eines besonderen Maschinenlernproblems hat, kann man solch dass manuell bauen

:

und prüfen Sie nach, dass das tatsächlich ein Skalarprodukt ist.

Außerdem verlangt man keine ausführliche Darstellung sogar für: Es genügt, um zu wissen, dass V ein Skalarprodukt-Raum ist. Günstig, gestützt auf dem Lehrsatz von Mercer, genügt es, um S mit jemandes Wahl des Maßes auszustatten und nachzuprüfen, dass tatsächlich, die Bedingung von Mercer befriedigt.

Der Lehrsatz von Mercer wird in einer allgemeinen mathematischen Einstellung mit Implikationen in der Theorie von Integralgleichungen festgesetzt. Jedoch ist die allgemeine Behauptung Übermaß dafür, was erforderlich ist, für den Kerntrick zu verstehen. In Anbetracht eines begrenzten Beobachtungssatzes S kann man einfach das Maß für alle auswählen. Dann nimmt das Integral im Lehrsatz von Mercer zu einer einfachen Summierung ab

:

für alle begrenzten Folgen von Punkten x..., x S und aller Wahlen von reellen Zahlen c..., c (vgl positiver bestimmter Kern).

Einige Algorithmen, die von willkürlichen Beziehungen im heimischen Raum abhängen, würden tatsächlich eine geradlinige Interpretation in einer verschiedenen Einstellung haben: der Reihe-Raum dessen. Die geradlinige Interpretation gibt uns Scharfsinnigkeit über den Algorithmus. Außerdem gibt es häufig kein Bedürfnis, direkt während der Berechnung zu rechnen, wie mit Unterstützungsvektor-Maschinen der Fall ist. Einige zitieren diese Laufzeit-Abkürzung als der primäre Vorteil. Forscher verwenden es auch, um die Bedeutungen und Eigenschaften von vorhandenen Algorithmen zu rechtfertigen.

Der Kerntrick wurde zuerst von Aizerman und al veröffentlicht.

Theoretisch muss eine Kernmatrix K positiv halbbestimmt (PSD) sein. Empirisch, für die Maschinenlernheuristik, können Wahlen von K, die die Bedingung von Mercer nicht befriedigen, noch vernünftig leisten, wenn K mindestens der intuitiven Idee von der Ähnlichkeit näher kommt. Unabhängig von, ob K ein Kern von Mercer ist, kann K noch auf einen "Kern" verwiesen werden. Nehmen Sie an, dass K jede Quadratmatrix ist, dann eine PSD Matrix ist.

Es ist auf mehrere Arten des Algorithmus im Maschinenlernen und der Statistik angewandt worden, einschließlich:

Allgemein verwendete Kerne in solchen Algorithmen schließen den polynomischen Kern ein, vertretend von Vektoren in in einen viel reicheren Eigenschaft-Raum über den Grad - Polynome der ursprünglichen Variablen kartografisch darzustellen:

:

wo ein unveränderlicher Handel vom Einfluss von höherwertigen gegen Begriffe der niedrigeren Ordnung im Polynom ist. Für den Fall des quadratischen Kerns haben wir:

:

</Mathematik>

Davon sehen wir, dass das das Skalarprodukt in einem Eigenschaft-Raum ist, der dadurch veranlasst ist, kartografisch darzustellen

:

\varphi (x) = \langle x_1 x_1, x_1 x_2, \ldots, x_1 x_n, \ldots, x_n x_n, \sqrt {2c} x_1, \ldots, \sqrt {2c} x_n, c \rangle

</Mathematik>

Der Kerntrick hier liegt im Arbeiten in - dimensionaler Raum, ohne jemals die ursprünglichen Datenpunkte in diesen Raum ausführlich umzugestalten, aber stattdessen sich auf Algorithmen zu verlassen, die nur Skalarprodukte innerhalb dieses Raums schätzen müssen, die dazu identisch sind und so im ursprünglichen Raum mit nur Multiplikationen preiswert geschätzt werden können.

Siehe auch

  • Kernmethoden
  • Integriert gestaltet um
  • Raum von Hilbert, spezifisch Kernraum von Hilbert wieder hervorbringend
  • Kern von Mercer

Bizarre Fahrt II Pharcyde / Hans-Joachim Kulenkampff
Impressum & Datenschutz