KI, AI, ML, DL – alles klar?
Seitdem die ersten PCs gebaut worden sind, versucht der Mensch den Rechenmaschinen die reale Welt näherzubringen. Lösungsansätze für klassische Probleme der Informatik wie z.B. die automatische Beschreibung von Bildern sowie Sprach- und Schrifterkennung existieren schon seit den 1950er Jahren. Die Vorreiter hierbei waren u.a. Frank Rosenblatt und Alan Turing. Doch erst durch das Aufkommen von öffentlich zugänglichen Bild- und Video-Datenbanken, Social-Media-Plattformen, Suchmaschinen und die stark gestiegene Rechenleistung von Prozessoren und Grafikkarten wird heute eine ausreichende Datenbasis für das Training von Modellen mithilfe von «Deep Learning» geliefert – einem Teilgebiet des Machine Learning.
Dies ist das Reich von Algorithmen, welche künstliche neuronale Netze trainieren, um z.B. die Bilderkennung in Suchmaschinen klüger zu machen: Durch «Tagging» der Bilder und Gewichtung von Parametern wird dem Rechner vom Programmierer des Algorithmus mitgeteilt, welche Bilder korrekt erkannt werden, welche nicht und welche noch unbekannt sind. Das System lernt mit dem Algorithmus die Bilder zu erkennen und voneinander zu unterscheiden. Hierfür muss der Algorithmus durch Korrekturen immer wieder angepasst werden, bis sich die Treffsicherheit einer 100%-Marke nähert, wobei diese aber niemals ganz erreicht wird. Um den Grad der Treffsicherheit zu überprüfen, wird das System mit Test-Daten gefüttert, bis der gewünschte Reifegrad erzielt wird. Für Szenarien, die über Deep Learning hinausgehen, haben sich die Schlagworte Künstliche Intelligenz (KI) oder Artificial Intelligence (AI) sowie Cognitive Computing und Data Science mittlerweile etabliert.
Die Anwendungsgebiete in unterschiedlichen Branchen sind vielfältig und finden sich heute z.B. im Gebiet der Wetter- und Klima-Vorhersagen, bei medizinischen personalisierten Diagnosen, in der Sprach- und Bilderkennung, der Betrugs- und Gefahrenerkennung (Cybersecurity), der Daten-Analyse für Empfehlungen im Onlinehandel und bei Investitionen sowie im Risiko-Management für Unternehmen in Echtzeit. Es herrscht aktuell ein enormer Bedarf an KI-Systemen und parallel ist die Entwicklung von leistungsfähiger Computerhardware, insbesondere der Grafikkarten-Hardware, enorm angestiegen. Berechnungen künstlicher neuronaler Netze wurden 2010 noch ausschliesslich über CPUs (Haupt-Prozessor eines Computers) durchgeführt und können heute auf leistungsfähigen GPUs (Grafikkarten) effizient ausgeführt werden. Eine CPU besteht aus einigen wenigen Recheneinheiten, die für die serielle Verarbeitung aufeinanderfolgender Daten optimiert sind. In einem Grafikprozessor hingegen steckt eine parallele Architektur mit Tausenden kleinerer, effizienterer Recheneinheiten, die dazu entwickelt worden sind, mehrere Aufgaben parallel zu übernehmen.
«Heutzutage lässt sich eine Welt ohne maschinelles Lernen kaum noch vorstellen. Geeignete Algorithmen separieren Spam- von wichtigen E-Mails, suchen für uns passende Informationen aus Abermilliarden Webseiten heraus, machen uns Vorschläge für den nächsten Einkauf, zeigen uns personalisierte Nachrichten an oder spielen uns Musik vor, die wir noch nicht kennen, aber vermutlich mögen werden.» Wartala, Ramon 1
Mittlerweile können Deep-Learning-Lösungen zuhören, z.B. mit sprachgesteuerten Assistenzsystemen, Texte in Echtzeit übersetzen, Handschriften erkennen oder uns beim Strategiespiel «GO» besiegen, was weltweit für ziemlich viel Aufmerksamkeit gesorgt hat. Intelligente Deep-Learning-Technologien werden in Zukunft in unseren Smartphones, in Verkehrsmitteln und im Wohnbereich zu finden sein, um uns das Leben zu erleichtern und zu ermöglichen, dass Unternehmen die Bedürfnisse der Kunden besser verstehen und Interaktionen an der Mensch-Maschine-Schnittstelle optimiert werden. Deep-Learning-Technologien werden also einen erheblichen Einfluss auf Interaktionsmöglichkeiten mit Systemen und damit auf die Customer sowie User Experience ausüben.
1 Wartala, Ramon. Praxiseinstieg Deep Learning: Mit Python, Caffe, TensorFlow und Spark eigene Deep-Learning-Anwendungen erstellen. O'Reilly. Kindle-Version.