Künstliche Intelligenz und was die SBB daraus lernen kann

Mit der «GPU Technology Conference» veranstaltet Nvidia eine Hausmesse in Kalifornien für Fachbesucher aus den Bereichen IT, Research, Ingenieurwesen, Wissenschaft & Presse. Sibylle Trenk, SBB Mitarbeiterin User Experience, berichtet von der Konferenz.

Das SBB-Team auf der GPU Technology Conference.
Das SBB-Team auf der GPU Technology Conference.

Die Nvidia Corporation mit Hauptsitz in Santa Clara, Kalifornien stellt Grafikprozessoren und Chipsätze für Personal Computer und Spielkonsolen her. Mit der DGX-Serie entwickelt NVIDIA hochleistungsfähige KI-Computer: Die DGX-1 war die weltweit erste Plattform inklusive Integration komplexer Soft- und Hardware für KI-Research und -Entwicklung. Vom 26.-29. März lagen in diesem Jahr die Schwerpunkte in Silicon Valley auf Automobilität, Deep Learning und Künstlicher Intelligenz sowie Virtual Reality.

Von der SBB hat NVIDIA die PFI (Plattform für Forschung und Innovation) eingeladen, ihre aktuellen Erkenntnisse zum Thema «The Future of Swiss Railway Dispatching: Deep Learning and Simulation on DGX-1» zu präsentieren. Das Team bei der PFI umfasst 5 Mitarbeitende mit unterschiedlichen Fähigkeiten, die gemeinsam mit weiteren Kolleginnen und Kollegen im KI-Netzwerk der SBB daran arbeiten, die Bahn auf die nächste Stufe der Digitalisierung zu heben. Darunter sind Physiker, Mathematiker, Computerwissenschaftler und Experten aus dem Bereich Machine Learning.

Darüber hinaus präsentierte das CSEM (Swiss Center for Electronics and Microtechnology) in Kooperation mit der SBB das Thema «Deep Learning of Railway Track Faults using GPUs».

Erik Nygren und Adrian Egli präsentieren die Zukunft der Disposition im Bahnnetz der SBB anhand von Deep Learning und Simulation mithilfe eines «Digital Twin».

Erik Nygren und Adrian Egli präsentieren die Zukunft der Disposition im Bahnnetz der SBB anhand von Deep Learning und Simulation mithilfe eines «Digital Twin».

In einer weiteren Session der SBB in Zusammenarbeit mit dem CSEM wurden die fachlichen Herausforderungen zum Thema Deep Learning bei Gleisschäden von Nathalie Rauschmayr vorgestellt.


Die PFI beschäftigt sich anhand von «Deep Reinforcement Learning» (dt.: tiefes bestärkendes Lernen) mit der Frage, wie wir den Prozess des Scheiterns und Lernens auf das Bahnnetz beim Disponieren des Rollmaterials, zur Auslastungsberechnung oder bei Störungsbehebungen im Bahnverkehr anwenden können. Im Schienennetz tauchen kleine und grössere Fehler auf – diese werden stetig analysiert, um das bestehende System zu verbessern. Ein Problem ist jedoch, dass es aufgrund der Komplexität des Netzwerks sehr schwierig ist, die richtigen Schlussfolgerungen aus den Ergebnissen zu ziehen. Im echten und physischen Bahnnetz können neuartige Konzepte und Strategien nicht getestet werden, weil nicht alle Konsequenzen bekannt sind. Das derzeitige System erlaubt keinen Raum für Experimente, welche aber dringend benötigt werden, um aus den Fehlern beim Disponieren zu lernen und zu neuen Erkenntnissen zu gelangen.

Aus diesem Grund hat die PFI einen digitalen Zwilling («Digital Twin») des Schweizer Schienennetzes mithilfe von Deep Learning und Simulation auf der DGX-Plattform entwickelt, um über die physische Welt hinaus auch parallel ein digitales Bahnnetz zur Verfügung zu haben. Der «Digital Twin» ist eine digitale Hochleistungskopie des echten Schweizer Schienennetzes, auf dem neuronale Netze durch Algorithmen trainiert und neue Erkenntnisse aus der Erfahrung beim Testen gewonnen werden können. Der Service und die Customer Experience für Reisende sollen damit optimiert werden.

« Die meissten AI-Algorithmen wurden doch noch gar nicht entwickelt. In den letzten 40 Jahren fand AI-Forschung nur an Universitäten statt und ja, das ist zum grössten Teil auch heute noch der Fall. Unsere Strategie ist es, dass alle führenden AI-Labore Zugriff auf die fortschrittlichste Hardware haben. Wenn du ein Astro-Physiker bist, dann brauchst du ein Teleskop und wenn du im Bereich AI forschst, dann brauchst du den entsprechenden AI-Super Computer. »
Jen-Hsun Huang, CEO Nvidia
Den CEO von Nvidia Jen-Hsun Huang begegne ich als Teilnehmerin an der Konferenz spontan auf dem Weg zur nächsten Session.


Weitere Themen bei Sessions auf der «GPU Technology Conference», die ich besucht habe, waren z.B. der Einsatz von VR-Lösungen in Grossunternehmen, «Facial Action» und Erkennung von Emotionen bei Autofahrern, Natürliche Sprache bei Robotern, «Generative Design» mithilfe von Machine Learning, Return-On-Investment durch Künstliche Intelligenz sowie aktuelle Forschungsergebnisse zu Deep Learning mit Digital-Twin-Simulatoren.

Machine Learning als Unterstützung im Design-Prozess

«Generative Design» ist ein Methode, die in unterschiedlichen Bereichen wie z.B. im Interface-Design, in der Kunst und Architektur, im Kommunikations- sowie Produktdesign bei der Entwicklung von Gestaltungslösungen zum Tragen kommt. Der Output in Form von Designvorschlägen, Bildern, Sound, 3D-Modellen, Animationen u.a. wird durch einen Algorithmus erzeugt.

Anwendungsbereiche im Kommunikationsdesign sind z.B. die Erstellung von Informationsgrafiken, Diagrammen oder flexiblen Designlösungen. In der Architektur wird Generative Gestaltung häufig auch «Computational Design» genannt und hauptsächlich zur Formfindung und zur Simulation von architektonischen Strukturen und Modellen verwendet.

Generative Gestaltung nimmt derzeit an Bedeutung zu, weil neue Entwicklungsumgebungen (u.a. Processing, VVVV, Quarz Composer, OpenFrameworks) oder einfache Scripting-Möglichkeiten (u.a. Rhinoscripting, Scriptographer) auch den Designern mit wenig Programmiererfahrung ermöglichen, ihre Gestaltungsideen umzusetzen.

Mithilfe von KI-Algorithmen werden Design-Systeme entsprechend trainiert und unterstützen Designer bei der Arbeit. Das Unternehmen Autodesk, ein Software-Unternehmen aus den USA für digitales 2D- und 3D-Design wendet diesen Ansatz bereits in der Software an, um in Zusammenarbeit von Mensch und Computer einige Hunderte von Entwurfsalternativen erstellen zu können. Das Vorgehen ermöglicht, grössere Probleme zu lösen und iterativ schneller zu geeigneten Lösungen vorzustossen. Die Aufgaben von Ingenieuren, Konstrukteuren und Gestaltern werden zunehmend komplexer und sie sind auf technologische Unterstützung angewiesen, um leistungsstärkere, strapazierfähigere und funktionstüchtigere Produkte und Strukturen zu entwickeln.

In Zukunft werden Designaufgaben schrittweise automatisiert werden – wie beim Autonomen Fahren wurden bereits die fünf Stufen des Autonomen Designs entwickelt, wobei die Risiken und Gefahren in diesem Umfeld deutlich geringer ausfallen werden.

Bei Autodesk wird Generatives Design mithilfe von Machine Learning eingesetzt und im Bereich Autonomes Design wird bereits geforscht.
Generatives Design für Architekturlösungen anhand einer Analyse der Benutzer-Bedürfnisse aus der Session «Designing Human Centric Spaces with Holodeck and Machine Learning».

Bei Autodesk wird Generatives Design mithilfe von Machine Learning eingesetzt und im Bereich Autonomes Design wird bereits geforscht.

Generatives Design für Architekturlösungen anhand einer Analyse der Benutzer-Bedürfnisse aus der Session «Designing Human Centric Spaces with Holodeck and Machine Learning».

Kollaboration im virtuellen Raum

Ausserdem konnte ich im Ausstellungsbereich neue Anwendungen testen, insbesondere das VR-Holodeck von Nvidia zur kollaborativen Zusammenarbeit von interdisziplinären Teams hat mich bzgl. der User Experience sehr interessiert. Virtual Reality wird hier eingesetzt, um die Zusammenarbeit zu verbessern, wenn Mitarbeitende während der Produktentwicklung nicht am gleichen physischen Arbeitsort anwesend sein können. Als Benutzer betritt man einen virtuellen Raum über eine VR-Brille, in welchem die unterschiedlichen Nutzer dann miteinander kommunizieren oder mit anderen virtuellen Objekten durch Motion-Tracking interagieren können. In der Demo handelte es sich beim 3D-Objekt um einen Sportwagen, der mit 50 Millionen Polygonen flüssig gerendert wurde. Als Engine kam hier die Unreal 4 Engine zum Einsatz, welche eine realistische Berechnung der Physik in der virtuellen Welt ermöglicht. Das führt dazu, dass der VR-Avatar eines Benutzers z.B. an das Lenkrad greifen kann, anstatt einfach hindurch zu fassen.

Die Teilnehmer im Raum konnten sich durch Teleportation bewegen, ein virtuelles Toolset anwenden und u.a. das Auto als 3D-Objekt in Einzelteile zerlegen, den Innenausbau vom Auto betrachten, Entfernungen messen, Scribbels am Objekt und Notizen auf einem Whiteboard platzieren oder mit einem virtuellen Radiergummi einzelne Arbeitsschritte wieder löschen.

Das Holodeck von Nvidia wurde mit fotorealistischer Grafik, interaktiver Physik mithilfe von GPU-beschleunigter AI zur Kollaboration in Echtzeit entwickelt.

Was ich dabei gelernt habe

Die Konferenz hat mir aufgezeigt, wie Technologien wie VR und Machine Learning miteinander verknüpft werden können und welchen Einfluss Künstliche Intelligenz in Zukunft auf Autonomes Design und User Experience haben wird. Die Rolle und die Aufgabengebiete von Designern wird sich dadurch anscheinend verändern. Statt wie heute pixelgenaue Screendesigns zu gestalten, wird sich der Fokus eher darauf richten, intelligente Design-Systeme zu trainieren, anzupassen und aus den vorgeschlagenen Designlösungen diejenige auszuwählen, die mit den Bedürfnissen der Anwender korreliert.

Des Weiteren habe ich einen vertieften Einblick in «Deep Learning» bei internationalen Unternehmen erhalten. Die unterschiedlichen Technologien zeigen enormes Potenzial auf, bei vielen KI-Anwendungen steht die Entwicklung jedoch erst am Anfang. Es gibt hohe Anforderungen an IT-Systeme und Herausforderungen zu bewältigen bzgl. des Grades der Treffsicherheit sowie der Verantwortung zu Entscheidungen von lernenden Systemen, die abhängig von deren Auswirkung erst klassifiziert werden müssen.

In der Podiumsdiskussion zum Thema «The Future of Real-Time: Experience Design» präsentierten Partner wie das Luftfahrtunternehmen Boeing, wie sie die Unreal Engine von Epic Games zur Produktentwicklung nutzen, um ihren Kunden interaktive Echtzeit-Erlebnisse in Virtual Reality zu bieten.
Vorteile von Varifokal-Displays mit korrekter Brennweite für VR- und AR-Geräte aus der Session «Varifocal Near-Eye Displays».
Simulatoren sind der Schlüssel für autonome Systeme für Partner wie dem Microsoft Research Lab aus der Podiumsdiskussion «The Future of Real-Time: Experience Design».
Vorteile und Use Cases aus der Session «Combining VR, AR, Simulation und IoT to create a Digital Twin».

In der Podiumsdiskussion zum Thema «The Future of Real-Time: Experience Design» präsentierten Partner wie das Luftfahrtunternehmen Boeing, wie sie die Unreal Engine von Epic Games zur Produktentwicklung nutzen, um ihren Kunden interaktive Echtzeit-Erlebnisse in Virtual Reality zu bieten.

Vorteile von Varifokal-Displays mit korrekter Brennweite für VR- und AR-Geräte aus der Session «Varifocal Near-Eye Displays».

Simulatoren sind der Schlüssel für autonome Systeme für Partner wie dem Microsoft Research Lab aus der Podiumsdiskussion «The Future of Real-Time: Experience Design».

Vorteile und Use Cases aus der Session «Combining VR, AR, Simulation und IoT to create a Digital Twin».

KI, AI, ML, DL – alles klar?

Seitdem die ersten PCs gebaut worden sind, versucht der Mensch den Rechenmaschinen die reale Welt näherzubringen. Lösungsansätze für klassische Probleme der Informatik wie z.B. die automatische Beschreibung von Bildern sowie Sprach- und Schrifterkennung existieren schon seit den 1950er Jahren. Die Vorreiter hierbei waren u.a. Frank Rosenblatt und Alan Turing. Doch erst durch das Aufkommen von öffentlich zugänglichen Bild- und Video-Datenbanken, Social-Media-Plattformen, Suchmaschinen und die stark gestiegene Rechenleistung von Prozessoren und Grafikkarten wird heute eine ausreichende Datenbasis für das Training von Modellen mithilfe von «Deep Learning» geliefert – einem Teilgebiet des Machine Learning.

Dies ist das Reich von Algorithmen, welche künstliche neuronale Netze trainieren, um z.B. die Bilderkennung in Suchmaschinen klüger zu machen: Durch «Tagging» der Bilder und Gewichtung von Parametern wird dem Rechner vom Programmierer des Algorithmus mitgeteilt, welche Bilder korrekt erkannt werden, welche nicht und welche noch unbekannt sind. Das System lernt mit dem Algorithmus die Bilder zu erkennen und voneinander zu unterscheiden. Hierfür muss der Algorithmus durch Korrekturen immer wieder angepasst werden, bis sich die Treffsicherheit einer 100%-Marke nähert, wobei diese aber niemals ganz erreicht wird. Um den Grad der Treffsicherheit zu überprüfen, wird das System mit Test-Daten gefüttert, bis der gewünschte Reifegrad erzielt wird. Für Szenarien, die über Deep Learning hinausgehen, haben sich die Schlagworte Künstliche Intelligenz (KI) oder Artificial Intelligence (AI) sowie Cognitive Computing und Data Science mittlerweile etabliert.

Die Anwendungsgebiete in unterschiedlichen Branchen sind vielfältig und finden sich heute z.B. im Gebiet der Wetter- und Klima-Vorhersagen, bei medizinischen personalisierten Diagnosen, in der Sprach- und Bilderkennung, der Betrugs- und Gefahrenerkennung (Cybersecurity), der Daten-Analyse für Empfehlungen im Onlinehandel und bei Investitionen sowie im Risiko-Management für Unternehmen in Echtzeit. Es herrscht aktuell ein enormer Bedarf an KI-Systemen und parallel ist die Entwicklung von leistungsfähiger Computerhardware, insbesondere der Grafikkarten-Hardware, enorm angestiegen. Berechnungen künstlicher neuronaler Netze wurden 2010 noch ausschliesslich über CPUs (Haupt-Prozessor eines Computers) durchgeführt und können heute auf leistungsfähigen GPUs (Grafikkarten) effizient ausgeführt werden. Eine CPU besteht aus einigen wenigen Recheneinheiten, die für die serielle Verarbeitung aufeinanderfolgender Daten optimiert sind. In einem Grafikprozessor hingegen steckt eine parallele Architektur mit Tausenden kleinerer, effizienterer Recheneinheiten, die dazu entwickelt worden sind, mehrere Aufgaben parallel zu übernehmen.

«Heutzutage lässt sich eine Welt ohne maschinelles Lernen kaum noch vorstellen. Geeignete Algorithmen separieren Spam- von wichtigen E-Mails, suchen für uns passende Informationen aus Abermilliarden Webseiten heraus, machen uns Vorschläge für den nächsten Einkauf, zeigen uns personalisierte Nachrichten an oder spielen uns Musik vor, die wir noch nicht kennen, aber vermutlich mögen werden.» Wartala, Ramon 1

 

Mittlerweile können Deep-Learning-Lösungen zuhören, z.B. mit sprachgesteuerten Assistenzsystemen, Texte in Echtzeit übersetzen, Handschriften erkennen oder uns beim Strategiespiel «GO» besiegen, was weltweit für ziemlich viel Aufmerksamkeit gesorgt hat. Intelligente Deep-Learning-Technologien werden in Zukunft in unseren Smartphones, in Verkehrsmitteln und im Wohnbereich zu finden sein, um uns das Leben zu erleichtern und zu ermöglichen, dass Unternehmen die Bedürfnisse der Kunden besser verstehen und Interaktionen an der Mensch-Maschine-Schnittstelle optimiert werden. Deep-Learning-Technologien werden also einen erheblichen Einfluss auf Interaktionsmöglichkeiten mit Systemen und damit auf die Customer sowie User Experience ausüben.

 

Wartala, Ramon. Praxiseinstieg Deep Learning: Mit Python, Caffe, TensorFlow und Spark eigene Deep-Learning-Anwendungen erstellen. O'Reilly. Kindle-Version.