Künstliche Intelligenz 2.0: Multiple neuronale Netze

Künstliche Intelligenz - Neuronale Netze - Autonomes Fahren

Sprachassistenten wie Siri und Alexa sind Anwendungen für künstliche Intelligenz, die heute fast jeder kennt und viele nutzen. Für die Aufgaben der Zukunft wie autonomes Fahren braucht es eine Stufe mehr Intelligenz. Multiple neuronale Netze werden die Leistungsfähigkeit weiter verbessern.

Neuronale Netze werden immer populärer. Dabei ist Google ein Vorreiter in diesem Bereich. Ein Beispiel für einen bekannten Deep-Learning-Algorithmus von Google ist der Google Assistant. Dieser lernt mit Hilfe eines neuronalen Netzwerks, gesprochene Sprache besser zu verstehen. Auch das Empfehlungssystem auf YouTube funktioniert mit einem neuronalen Netzwerk. Weitere bekannte Algorithmen sind zum Beispiel einer für Sentiment Analysis von der Stanford Universität (Kalifornien, USA), der die Stimmungslage eines Menschen erkennt. Oder ein Algorithmus zur Analyse von Bildähnlichkeit und Szenen-Erkennung (Objekte sowie Gesamtzusammenhang auf Bildern) von DeepAI.

Die Einsatzmöglichkeiten für künstliche Intelligenz sind riesig. Sie reichen von den hier genannten Beispielen zur Spracherkennung und Synthese und Bilderkennung über die Verarbeitung natürlicher Sprache (z.B. Übersetzung, Textzusammenfassung, Key Word Extraktion) bis hin zur „einfachen“ Klassifikation.

Alexa und Siri sind erst der Anfang

Einige der genannten Beispiele nutzen wir bereits im Alltag. Mehrere Dutzend Millionen Menschen in Deutschland haben schon Erfahrungen mit Sprachassistenten wie Alexa und Siri. Doch die Technologie kann mehr: Bilderkennung ist ein mögliches und nützliches Anwendungsfeld für die Automobilbranche, beispielsweise um Hindernisse zu erkennen. Besonders für das autonome Fahren sind Bilderkennungsalgorithmen wichtig. Einsatzoptionen für Klassifizierungs-Algorithmen gibt es zum Beispiel in der aufkommenden Online-Medizin (Hat jemand eine Krankheit oder nicht?) oder bei Bonitätsvorhersagen für Banken (Sollte ein Kredit bewilligt werden?).

Der Einsatz neuronaler Netzwerke ist derzeit noch nicht sehr verbreitet. Firmen mit derartigen Ansätzen gelten als sehr fortschrittlich. Tatsächlich entwickelt sich die Forschung in diesem Bereich bereits rasant weiter. Stetig werden die neuronalen Netzwerke mathematisch erweitert und die Performanz der Algorithmen verbessert. Doch das sind nicht die einzigen Ansätze, um die Genauigkeit der Modelle zu erhöhen.

Multiple neuronale Netzwerke: Algorithmus hilft Algorithmus

Die Ergebnisse mehrerer neuronaler Netzwerke können kombiniert werden (Ensemble Averaging/ Learning), um die Treffsicherheit der Entscheidung zu erhöhen. Diese Art von Modellen funktioniert sehr gut. Mögliche Fehler des Algorithmus, z.B. wenn er zu spezifische Muster in den Daten lernt, lassen sich durch den kombinieren Ansatz rauskorrigieren (Generalisierung). Ein bekannter Ensemble-Learning-Algorithmus ist ein Random Forest (Supervised Machine Learning).

Es gibt zudem den Ansatz, dass mehrere neuronale Netze hintereinander geschachtelt werden. Ein Beispiel hierfür publizierte Uber (Personenbeförderung). Um das Fahrgastaufkommen in der nächsten Stunde genauer vorherzusagen, nutzt das Unternehmen erst ein Netz, das große Datenmengen komprimiert, z.B. Wetterdaten sowie Informationen über die Stadt wie die Einwohneranzahl. Die komprimierten Daten liefern den Input für ein zweites Netz, das eine Vorhersage über das Fahrgastaufkommen trifft.

Ein weiteres Beispiel hierfür sind Generative Adversarial Nets (GAN). Diese Art von Netzwerken bestehen aus zwei neuronalen Netzwerken, ein diskriminatives und ein generatives Modell (diskriminative Modelle lernen die Grenzen der vorherzusagenden Klassen, generative Modelle lernen die Verteilung der verschiedenen, vorherzusagenden Klassen). Diese Algorithmen werden zum Beispiel eingesetzt um die Auflösung von Bildern zu erhöhen. Yann LeCun, Direktor der KI-Forschung bei Facebook, bezeichnete diese Art von Netzwerken als die interessanteste Idee im Bereich Machine Learning in den letzten 10 Jahren.

Nach Deep Learning kommt Deeper Learning

Die skizzierten Ansätze und Einsatzgebiete zeigen: Die Grenzen neuronaler Netzwerke sind noch lange nicht definiert, es gibt noch viel Platz und Möglichkeiten nach oben, um die Performance der künstlichen Intelligenz zu verbessern. Wir werden die Entwicklung im Auge behalten und auch hier im Blog berichten.


Yvonne Awaloff

Yvonne Awaloff ist Beraterin im Bereich Künstliche Intelligenz von Sopra Steria Consulting. Die studierte Bioinformatikerin bloggt hier vor allem über Machine und Deep Learning.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.