Cognitive Computing: Maschinen lernen in Zusammenhängen zu denken

Anwendungsmöglichkeiten sind alle Felder von Big Data:  Automatisierung von Routineaufgaben und Wissensmanagement Foto: istockphoto.com/RichVintage

2012 gelang IBM mit dem ersten kognitiven Computer „Watson“ ein medienwirksamer Volltreffer – der Rechner war Kandidat in der Quiz-Show „Jeopardy!“ und gewann gegen die beiden bislang ungeschlagenen menschlichen Champions.

Watson war nicht an das Internet angeschlossen und musste die Fragen in all ihren subtilen Details beantworten. Er bekam sie nicht mundgerecht in „seiner“ Sprache serviert, sondern auf die gleiche Weise wie die menschlichen Kandidaten.

IBM war in der Zwischenzeit nicht untätig und präsentierte kürzlich eine neue Programmierumgebung für Cognitive-Computer-Chips im Rahmen der Forschungsinitiative SyNAPSE. Ziel ist es die Arbeitsweise eines Computers näher an menschliches Denken heranzuführen.

Paradigmenwechsel

Cognitive Computing weicht vom herkömmlichen Ansatz der Von-Neumann-Architektur ab. Der Unterschied zur reinen Datenanalyse klassischer Rechner, liegt in der dynamischen, selbstkonfigurierenden Interaktion mit der Umwelt. Computer-Chips konnten Befehlsoperationen bislang nur nacheinander verarbeiten, IBMs Neuro-Chips sind in der Lage diese gleichzeitig zu delegieren. Rechner wie Watson denken also nicht einfach schneller, sondern vielschichtiger. Dieser „Deep Learning“ genannte Vorgang ist in der Lage selbstständig nützliche und weniger hilfreiche Daten, basierend auf Erfahrungswerten, voneinander zu trennen. Die einfache - und vor allem eindimensionale - Antwort auf eine regelbasierte Fragestellung weicht einer Wahrscheinlichkeitsprognose. Die Fähigkeit auf einer Metaebene über das Denken zu reflektieren wird im Cognitive Computing jedoch nicht erreicht. Über Phänomene wie eine technologische Singularität wird man sich mittelfristig keine Gedanken machen müssen.

Alter Wein in neuen Schläuchen?

Kritiker der Begriffsdefinition sehen in IBMs Entwicklung eher eine konsequente Fortsetzung bereits existierender Technologie. Künstliche Intelligenz sei seit Jahrzehnten in Entwicklung und werde nicht erst durch Anpassungen der Chip-Architektur ermöglicht. In der Tat sind KI-basierte Lösungen in den Bereichen Multichannel-Kundenservice, Automatisierung von Geschäftsprozessen oder Wissensmanagement wie die ITyX Produktfamilie erfolgreich im Einsatz. Womöglich könnten derlei intelligente ECM-Lösungen aber von einem Rechner wie Watson in der Praxis profitieren.

Anwendung und Nutzen

Vordergründig richtet sich der Anwendungszweck der Technologie an sämtliche Einsatzgebiete rund um das Thema „Big Data“. Also die Auswertung großer Mengen an strukturierten und unstrukturierten Daten, Automatisierung von Routineaufgaben und allgemeines Wissensmanagement. Eine weitere Anwendungsmöglichkeit ist die automatische Mustererkennung zur Prävention von Straftaten, wie Landeskriminaldirektor Dieter Schürmann kürzlich im Bitkom Trend Kongress ausführte. Sämtliche Herausforderungen, die hier im Zusammenhang mit dem Datenschutz entstehen, werden sicherlich noch viele Jahre diskutiert werden müssen. Auch die Krebsforschung wäre ein mögliches Einsatzgebiet für den Querdenker unter den Computern.

Watson für alle

Der Supercomputer steht ab sofort jedem Nutzer in der Cloud Rede und Antwort. IBM hat mit Watson Analytics eine Beta-Version des Service veröffentlicht. Derzeit müssen Datensätze noch selbst eingepflegt werden. In Kürze sollen Echtzeitinformationen aus aller Welt verfügbar sein. Ersten Nutzerstimmen zufolge ist es mit Watson möglich in kürzester Zeit Zusammenhänge zu ermitteln, die auf herkömmliche Weise bis zu Monaten an Recherche benötigten. Die finale Version soll weitere Premium-Features erhalten. Aber Details wie Preisgestaltung sind noch offen.

Der Artikel hat gefallen? Dann gerne teilen!