Machine learning ganz einfach und doch state of the Art

Deep Infinite Mixture of Gaussian Processes (DIM-GP) ist PI’s selbstentwickelter Maschine Learning Algorithmus. Dabei wird eine einzigartige Kombination von neuronalen Netzen (Deep Learning) und Gaußprozessen verwendet. Mit ihm lassen sich eine Vielzahl von Problemstellungen bearbeiten und zwar ohne Expertenwissen und ohne zeitaufwendiges Einstellen von Hyperparametern! Alle unsere Produkte sind in Python geschrieben und damit sehr einfach in bestehende Softwareplattformen und Workflows zu integrieren.

Eigenschaften

(Bild-)Regression

Klassische Regressionsaufgabenstellungen (kontinuierliche Ausgangsgrößen) lassen sich ganz einfach und schnell mit DIM-GP bearbeiten. Als Besonderheit ist es auch möglich Bildregression durchzuführen. Typischerweise können Bilder als Eingangsinformation nur bei Klassifizierungsproblemen genutzt werden. DIM-GP erlaubt jedoch auch kontinuierliche Größen anhand von Bildinformationen vorherzusagen.

DGCN_regression
DGCN_Klassifizierung-01

(Bild-)Klassifizierung

Klassifizierungsaufgaben (kategorische Ausgangsgrößen) stellen für DIM-GP ebenfalls kein Problem dar. Dabei können beliebig viele Kategorien innerhalb eines Modells erlernt werden. Wie bei allen Vorhersagen von DIM-GP, erhalten Sie immer auch eine zugehörige Wahrscheinlichkeit. Wie auch bei Convolutional Neuronal Networks (CNN) kann DIM-GP Bilder als Eingangsinformation nutzen um die Klassifizierung vorzunehmen.

Multi-Output

Bei Multi-Output Fragestellungen gibt es zwei oder mehrere Ausgangsgrößen die miteinander korrelieren. Oft werden dennoch für diese Ausgangsgrößen einzelne Modelle trainiert, die die Korrelationen nicht mit abbilden können. DIM-GP ist in der Lage diese Korrelationen zu erlernen innerhalb eines einzigen Modells. Damit lassen sich z.B. Signale oder Feldgrößen abbilden. Durch die erlernten Korrelationen sind die Vorhersagen viel genauer. Ein Beispiel aus dem Maschinenbau wäre eine Live Finite Element Analysis oder Computational Fluid Dynamics (CFD) Untersuchung. Dabei ist DIM-GP in der Lage jedes Knotenelement-Ergebnis vorherzusagen.

DGCN_multi_output-01
DGCN_Konfidenz-01

Konfidenzbereiche der Vorhersagen

Da es sich bei DIM-GP um ein probabilistisches Modell handelt, kann neben einer Vorhersage auch immer die Unsicherheit dieser Vorhersage mit angegeben werden. Dadurch lassen sich Konfidenzbereiche über den gesamten abgebildeten Designraum darstellen. D.h. Sie müssen nicht blind auf die Modellvorhersage vertrauen, sondern wissen immer wie sicher sich das Modell gerade ist. 

Automatische Rauscherkennung und Ausreißervermeidung

Natürlich sind Daten nicht immer perfekt. Häufig gibt es Ausreißer oder ein Rauschen in den Daten. Diese sollte das Modell möglichst nicht mit abbilden. Viele Modelle lassen sich durch wenige Ausreißer sehr stark beeinflussen und der Benutzer muss seine Daten zuvor bereinigen, um einen ungewollten Einfluss zu vermeiden. 

DIM-GP ist in der Lage selbstständig und voll-automatisch Ausreißer zu erkennen und zu vermeiden. Dasselbe gilt auch für ein Rauschen in den Daten. Als Besonderheit kann DIM-GP sogar unterschiedlich starkes Rauschen erkennen und abbilden. So lassen sich auch Daten unterschiedlicher Qualität in einem Modell zusammenführen. 

DGCN_Ausreißer-01
DGCN_Rauscherkennung-01
DGCN_sequentiell-01

Sequentiell abhängige Ausgangsgrößen

Bei sequentiellen Daten handelt es sich um Größen, dessen Vorhersage immer abhängig ist von dem vorherigen Verlauf, wie z.B. Aktienkurse oder Produktpreise. Bei der Modellierung solcher Größen lernt das Modell seine eigene vergangene Vorhersage zu nutzen, um einen zukünftigen Verlauf vorherzusagen. Typischerweise werden sog. rekurrente neuronale Netze (RNN) für solche Fragestellungen verwendet. DIM-GP bietet diese Möglichkeit auch ohne lästiges Erproben der optimalen Netzeigenschaften.

BIG DATA READY

DIM-GP kann wie neuronale Netze die Trainingsdaten in beliebig große Pakete aufteilen, so dass auf beliebiger Hardware aber auch bei beliebig großen Datenmengen DIM-GP erfolgreich eingesetzt werden kann. Dabei ist seine Skalierbarkeit trotz der Nutzung von Gaußprozessen für die Vorhersage vergleichbar zu neuronalen Netzen. Zudem kann DIM-GP neben CPUs auch auf GPUs trainiert werden. Dies erlaubt ein noch schnelleres Training. Ebenfalls ist es möglich verteilt auf mehreren Rechenkernen bis hin zu einem Cluster das Training durchzuführen – für wirklich anspruchsvolle und zeitintensive Fragestellungen.

DGCN_big_data-02

Keine Anpassungen durch den Benutzer notwendig!

Bei den vielfältigen Anwendungsmöglichkeiten die DIM-GP bietet, für die überlicherweise eine Vielzahl unterschiedlicher Algorithmen von Nöten wären, brauchen Sie bei der Benutzung von DIM-GP keine Parameter einzustellen. Dies ist ein riesiger Vorteil gegenüber den meisten anderen Verfahren und insbesondere gegenüber neuronalen Netzen, welche eine Vielzahl von Einstellungsmöglichkeiten aufweist. 

DIM-GP kann ohne Einstellung von Parametern hochwertige Modelle liefern, die dem Stand der Wissenschaft und Technik entsprechen und das für unterschiedlichste Fragestellungen. Sie sparen lästiges Ausprobieren von unterschiedlichen Einstellungen und anderen Algorithmen und kommen so schneller zu der Auswertung Ihrer Daten.