Künstliche Neuronale Netze

Mit künstlicher Intelligenz bringen wir Ihrer EDV menschliches Lernen und Denken bei.

Das maschinelle Lernen bedient sich der „künstlichen“ Generierung von Wissen aus Erfahrung.
Unsere Algorithmen lernen mit Ihren Daten zu rechnen und können so Vorentscheidungen bei Ihren Vorhaben tätigen.

Künstliche Neuronale Netze bestehen aus künstlichen Neuronen, die, dem biologischen Vorbild der Nervenzelle folgend, Eingaben gewichten und über eine Aktivierungsfunktion eine Ausgabe erzeugen.

Deep Learning nutzen wir als Ansatz im maschinellen Lernen, um Wissen aus Erfahrung zu gewinnen und das zu lösende Problem mit Hilfe einer Hierarchie von Lösungskonzepten zu verstehen, die jeweils durch einfachere Teillösungen definiert sind.

Künstliche Neuronale Netze der Organon Informationssysteme GmbH

Neue Erfolge in einer digitalen Welt benötign neue Herangehensweisen. Insbesondere bei der Verarbeitung großer Datenmengen sind oft die Grenzen der menschlichen Vorstellungskraft und die zur Datenauswertung zur Verfügung stehenden Ressourcen, wie Zeit, Personal, Kapazität und Budget, schnell erreicht.
Während in der herkömmlichen Datenverarbeitung mit einfachen Methoden der Statistik gearbeitet wurde, verwenden wir bei der Organon Informationssysteme GmbH sogenannte künstliche neuronale Netze als Grundlage für unsere Verfahren der Künstlichen Intelligenz. Diese Netze sind in der Lage durch Anwendung verschiedener Algorythmen bzw. deren Lernmethoden (Supervised Learning, Unsupervised Learning, Reinforcement Learning) das Netz zu trainieren und so Ihre Daten schneller, zielgerichteter und automatisiert zu berechnen.

Strukturen bei Künstlichen Neuronalen Netzen

Die Künstlichen Neuronalen Netze (KNN) bestehen aus einer Eingabeschicht, ggf. weiteren Zwischenschichten und einer Ausgabeschicht. Es gibt unterschiedliche Strukturen von KNN. Sogenannte einschichtige feed-forward-Netze, mehrschichtige feedforward-Netze und rekurrente Netze.

Die einschichtigen Netze bestehen aus einer Ein- und einer Ausgabeschicht und leiten die Ausgaben nur in Verarbeitungsrichtung weiter („feedforward“). Mehrschichtige Netze, sogenannte Multilayer Perceptrons (MLP), bestehen neben Ein- und Ausgabeschicht aus weiteren Schichten, den sogennanten „Hidden Layers“ und können sowohl feedforward-gesteuert als auch rekurrent sein. Rekurrente Netze besitzen im Gegensatz zu den feedforward-gesteuerten Netzen auch rückgerichtete Kanten, sodass die Ausgaben eines Schrittes erneut als Eingaben für Neuronen in davor liegenden Schichten oder innerhalb der eigenen Schicht dienen können und somit die Dynamik des Netzes erhöhen.

Lernmethoden Künstlicher Neuronaler Netze

Es existieren verschiedene Methoden für das Lernen in neuronalen Netzen, z. B. das überwachte Lernen (engl. „supervised learning“), das bestärkende Lernen (engl. „reinforcement learning“) und das unüberwachte Lernen (engl. „unsupervised learning“).

Supervised Learning

Supervised Learning basiert darauf, „gelabelte“ Datensätze zu trainieren, also Datensätze, bei denen die korrekten Ergebnisse bereits zugeordnet sind. Techniken des Supervised Learnings werden in feedforward und MLP Modellen angewendet. Das Lernen in überwachten Modellen wird auch Fehlerrückführungsalgorithmus (engl. „error backpropagation algorithm“) genannt. Das Netz wird trainiert, indem der Algorithmus auf Basis des Fehlersignals, also der Unterschied zwischen errechneten und gewünschten Ausgabewerten, die synaptischen Gewichte der Neuronen anpasst. Das synaptische Gewicht ist proportional zum Produkt des Fehlersignals und der Eingabeinstanz des synaptischen Gewichts. Auf Basis dieses Prinzips besteht jede Lernepoche aus zwei Schritten, einem Vorwärtsschritt (engl. „forward pass“) und einem Rückwärtsschritt (engl. „backward pass“).

  1. Beim Forward Pass erhält das Netz eine Eingabe in Form eines Vektors, der das Netz Neuron für Neuron durchläuft und als Ausgabesignal in der Ausgabeschicht erscheint. Das Ausgabesignal hat die Form y(n) = ϕ(v(n)) mit v(n) als lokales Feld eines Neurons mit v(n) = P w(n)y(n). Der Ausgabewert o(n) wird mit dem tatsächlichen Wert d(n) verglichen und der Fehler e(n) berechnet. Die synaptischen Gewichte des Netzes werden in diesem Schritt nicht verändert.
  2. Im Backward Pass wird der Fehler, also der Ausgabewert des zu korrigierenden Layers, an die davor liegenden Layer zurückgeführt. Damit wird der lokale Gradient für jedes Neuron in jedem Layer berechnet, sodass die synaptischen Gewichte des Netzes gemäß der Delta-Regel verändert werden:
    w(n) = η ∗ δ(n) ∗ y(n)
    Dieser rekursive Vorgang wird so lange wiederholt, bis das Netz konvergiert ist.

Reinforcement Learning

Das Reinforcement Learning ist eine Lernmethode, die auf einen Agenten in einer dynamischen Umgebung angewendet wird, der verschiede Aktionen zum Erreichen seines Ziel durchführen kann. So werden nicht wie bei anderen Algorithmen eine Problemstellung und eine Reihe durchzuführender Aktionen definiert. Stattdessen muss das Netz diejenigen Aktionen bestimmen, die den besten Erfolg versprechen.
Um den Erfolg für den Agenten messbar zu machen, erhält er für ausgeführte Aktionen eine Belohnung (engl. „Reward“). Die Belohnung erfolgt einerseits bei einem Wechsel in einen anderen Zustand, andererseits wird ein gesamt zu erwartender Gewinn errechnet. Der Agent versucht dann durch jede Aktion eine hohe Belohnung zu erhalten und den gesamten Gewinn zu maximieren. Die Vorteile von Reinforcement Learning in dynamischen Systemen machen es besonders für den Einsatz in Spielen interessant. So ist eine Kombination aus Supervised und Reinforcement Learning Grundlage für das bekannte AlphaGo, ein Agent, der das Brettspiel Go beherrscht und sogar internationale Top-Spieler besiegen konnte.

Unsupervised Learning

Der Erfolg von Systemen des maschinellen Lernens erfordert häufig sehr große Datensätze, die bereits gelabelt sind und deren Gewinnung einen großen Aufwand darstellt. Unsupervised Learning ist eine Lernmethode für Eingaben, die Muster enthalten, welche nicht oder größtenteils nicht klassifiziert sind, was den Lernprozess sehr erschwert.
Es ist möglich, auf gänzlich unbewertete Datensätze, z. B. große Mengen an Daten aus dem Internet zurückzugreifen. Im Unsupervised Learning können dann beispielsweise Strukturen wie Ecken und Kanten oder auch Strukturen aus bestimmten Objektklassen (z. B. Autoreifen oder Teile eines Gesichts) unter Zuhilfenahme eines kleinen gelabelten Datensatzes, hilfreich für die Objekterkennung sein.