Wie sich Cognitive Systeme unaufhaltsam in Geschäftsanwendungen verankern

Immer mehr Unternehmen beschäftigen sich mit KI-Software, um den Umgang von Mitarbeitern mit Prozessen und Informationen effektiver und effizienter zu gestalten. Über eine Vielzahl unterschiedlicher Methoden, Technologien und Algorithmen simulieren Systeme, die auf Künstlicher Intelligenz basieren, menschliches Denken und Handeln. Sie lernen aus allen erfassten Daten hinzu und ziehen dynamisch Rückschlüsse. Drei Arten Künstlicher Intelligenz lassen sich unterscheiden: Machine Learning, Deep Learning und Cognitive Computing.

Machine Learning: Muster erkennen, Ergebnisse berechnen

Machine Learning (ML) ist längst Teil unserer Alltags: Der E-Mail-Spamfilter, die Spracherkennung und Suchmaschinenrankings sind allseits bekannte Beispiele. Aber auch Technologien wie selbstfahrende Autos und Online-Werbung beruhen auf ML-Algorithmen und -Methoden. Das Prinzip ist immer das gleiche: ML-Software erkennt Muster und Kategorien in Datenmengen und ist in der Lage daraus Entwicklungen vorauszuberechnen – fast ohne menschliche Einwirkung und mit wachsender Datenmenge immer präziser. Unterschieden werden zwei Arten: supervised learning und unsupervised learning. Mittels supervised learning werden aus bekannten Daten Prognosen für die Zukunft getroffen - dafür werden Algorithmen nach einem definierten Problemfall gebildet, um eine Lösung für ähnliche Probleme zu gewinnen. Angewendet wird diese Methode zum Beispiel beim Kreditkartenbetrug. Mittels Unsupervised Learning sollen aus bisher unbekannten Daten Voraussagen gemacht werden, zum Beispiel über das Wetter. Dafür werden Algorithmen für beliebige Beispiele gebildet, die innerhalb eines Datensatzes eine Struktur finden.

Deep Learning: Tiefes Lernen in Schichten

Auch diese Art der Künstlichen Intelligenz ist nicht neu, erlebt aber im Zuge von Big Data eine Renaissance. Die Idee hinter deep learning: Computersysteme ahmen die Funktionsweise des menschlichen Gehirns (konkreter: der Nervenzellen) nach und simulieren Denkvorgänge. Dafür werden neuronale Netze geschaffen und in Ebenen angeordnet. Cortana, Siri, Skype – diese Anwendungen basieren auf deep learning-Technologien. Intensiv genutzt wird das Verfahren zudem für die computergestützte Bilderkennung. Großes Potential sehen Experten zudem im Aufbau von Wissensnetzwerken: Google, Microsoft und Facebook arbeiten am (Enterprise) Knowledge Graph – ein Netzwerk, das einen Großteil des Weltwissens strukturieren soll. Auch hierzulande wird entwickelt: zum Beispiel arbeiten wir an einem Chatbot der Zukunft, der Kundenanfragen im Web oder in Apps automatisch beantwortet.

Cognitive Computing: Komplexe Zusammenhänge erfassen

Während Machine Learning und Deep Learning eher Techniken künstlicher Intelligenz darstellen, ist Cognitive Computing als "Komplett-Architektur aus verschiedenen KI-Subsystemen" zu verstehen. Mithilfe von Data Mining, Verfahren intelligenter Automatisierung und Natural Language Processing simuliert auch Cognitive Computing Software das menschliche Denken. Ziel von Cognitive Computing ist es, menschliche Intentionen zu erfassen und komplexe, mehrdeutige Situationen zu steuern, um so Kundenerfahrungen optimieren zu können. Dafür greifen Cognitive Computing-Systeme neben den mathematischen Techniken des Machine Learning und Deep Learning auch auf symbolische und konzeptionelle Informationen zu. Wer sich mit Künstlicher Intelligenz beschäftigt, sieht: Viele alltägliche Geschäftsanwendungen basieren auf KI Software und sind aus beruflichen Prozessen nicht mehr wegzudenken.

Der Artikel hat gefallen? Dann gerne teilen!