KI & Digitalisierung: Ein Blick in die Zukunft

Wir befinden uns zweifellos in einer interessanten Ära. Wer 2000 herum enttäuscht war, dass klassische Science Fiction Themen nach wie vor ein Belletristik-Dasein fristeten, kann sich nun darauf freuen, dass lang gehegte Visionen zunehmend Realität werden.

Die Künstliche Intelligenz ist in dieser Entwicklung der wohl faszinierendste und bedeutungsvollste Aspekt. Im Zusammenspiel mit der zunehmenden Automation nimmt uns Cognitive Computing auch die Denkarbeit ab. Neben dem häufig und gern genutzten Beispiel des Watson-Rechners von IBM, der 2011 menschliche Gegner in Jeopardy schlug, existieren weitere eindrucksvolle Belege für die Intelligenz und Leistungsfähigkeit moderner Lösungen. So kann „Amelia“ von IPSoft das komplexe Handbuch einer Erdölförderpumpe in 31 Sekunden nicht nur lesen, sondern auch im Bezug auf den Kontext verstehen und somit selbstständig Anweisungen an Servicemitarbeiter weitergeben.

Das mooresche Gesetz

Viele Mythen ranken sich um das 1965 von Gordon Moore formulierte Gesetz, welches besagt, dass sich die Rechenleistung alle 24 Monate verdopple. Eine Regel, die auf empirischer Betrachtung basiert, von vielen IT-Workern jedoch wie ein Naturgesetz aufgefasst wird. Bislang hat sich die Regel jedenfalls im Wesentlichen bestätigt, weshalb davon auszugehen ist, dass wir 2030 als Privatwender alle über eine Rechenleistung der Marke Watson verfügen. Wobei es natürlich auch möglich ist, dass Privathaushalte zu dieser Zeit überwiegend leichtgewichtige Technologie für Cloud-Anwendungen nutzen und nicht am Fortschritt partizipieren. Aber selbst eine solche Hardware wird mutmaßlich um ein vielfaches leistungsstärker sein, als all die Geräte, die wir heute nutzen. Künstliche Intelligenz wird auf solchen Geräten und vor allem anbieterseitig in der Cloud von einer beeindruckenden Scharfsinnigkeit sein und uns als Assistenz in allen möglichen Lebenslagen dienen.

Big Data

Wenn wir heute von Big Data sprechen, dann vergessen wir manchmal wie groß die Datenmengen eigentlich sind, die in riesigen Organisationen wie internationalen Konzernen oder Geheimdiensten tatsächlich anfallen. Die NSA verfügt in ihrem neuen Datenzentrum eine Kapazität von fünf Zettabyte. Als Text ausgedruckt und in Aktenschränken aufbewahrt, ergäbe sich eine benötigte Stellfläche von rund 17 Millionen Quadratkilometer. Dies entspricht etwa der Fläche ganz Russlands. Bis vor kurzem existierte keine Technologie, die solche riesigen Datenmengen vernünftig analysieren konnte. Dank kognitiver Software und innovativen Rechnerarchitekturen wie IBMs Watson sieht die Sache mittlerweile anders aus. Diese Technik ist nicht nur Großkonzernen und staatlichen Institutionen vorbehalten. Kognitive Software ist für Unternehmen jeglicher Größe verfügbar und Watson steht darüber hinaus als Cloud-Lösung zur Verfügung. Die Big Data Analyse ist keine Zukunftsmusik mehr, steht aber noch am Anfang ihrer Entwicklung. Das häufigste Ziel der Analyse unstrukturierter Daten ist der Wettbewerbsvorteil durch höhere Personalisierung des Angebotes an eingegrenzte Kundengruppen oder um den individuellen Kunden herum.

5G Standard

Für etwa 2020 ist die Etablierung des LTE-Nachfolgers im mobilen Netz geplant. LTE selbst soll bis dahin, laut Telekom, eine Abdeckung von 95% besitzen. Als Maximalgeschwindigkeit sind stolze 1000 Mbit/s geplant. Bedenkt man, dass der durchschnittliche Internetnutzer in Deutschland derzeit mit 8,8 Mbit/s surft und 25 Mbit/s VDSL bereits als „High Speed“ vermarktet wird, wäre die Verfügbarkeit eines derart schnellen Mobilfunknetzes hierzulande ein Quantensprung. Eine Videodatei mit einer Größe von einem Gigabyte wäre bei voller Geschwindigkeit im 5G Standard in etwa acht Sekunden geladen. Bei derartigen Datendurchsätzen kann man davon ausgehen, dass audiovisueller Content im Web künftig eine noch größere Rolle einnehmen wird.

Industrie 4.0

Die aktuell wichtigsten Entwicklungen in der Industrieproduktion sind unter dem Oberbegriff „Industrie 4.0“ zusammengefasst. Damit ist die vierte industrielle Revolution nach Mechanisierung, Massenfertigung und Digitalisierung gemeint. Im Fokus steht die Selbstoptimierung, Selbstkonfiguration, Selbstdiagnose und eigenständige Wartung intelligenter Geräte. Die Kommunikation von Maschine zu Maschine über das Internet soll Prozesse beschleunigen und flexibler gestalten. Bislang fehlt es in Europa jedoch noch an Standards, Regeln und Endgeräten im Rahmen des „Internet der Dinge“. In den USA ist man bereits einen Schritt weiter. Mehrere Unternehmen haben 2014 gemeinsam das Industrial Internet Consortium (IIC) gegründet, um entsprechende Standards zu etablieren.

Fazit

Soweit der kurze Blick in die Glaskugel und eine nicht ganz so ferne Zukunft. Kombiniert man die Trends miteinander, so entsteht ein Bild einer technologisch vernetzten Welt, die mit automatisierter Wertschöpfung und jeder Menge digitaler Assistenz Komfort und Personalisierung ermöglicht. Die dafür notwendige Reform des Arbeitsmarktes könnte in der immer leichter zugänglichen Option liegen als Konsument selbst wertschöpfend in Erscheinung zu treten und Besitz gegen das Teilen und Verleihen von Dingen und Leistungen zu tauschen. Die Shareconomy boomt, wird jedoch nicht nur optimistisch betrachtet. Das HANDELSBLATT warnte bereits 2012 vor Ungleichheit und sozialer Diskriminierung durch einen Wandel vom kollaborativen Verbrauch zum Modell des Teilens.

Weitere Überlegungen zur wirtschaftlichen Entwicklung im Rahmen der Automatisierung finden Sie an dieser Stelle. Sie haben eine Meinung zum Thema oder möchten etwas ergänzen? Dann freuen wir uns auf Ihren Kommentar.

Der Artikel hat gefallen? Dann gerne teilen!