LEADERSHIP IM DIGITALEN
ZEITALTER
Führung neu definiert
© ELG E-Learning-Group GmbH
Leadership im digitalen Zeitalter
I
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS ............................................................................................ III
ARBEITEN MIT DIESEN UNTERLAGEN............................................................................. IV
E RKLÄRUNG DER S YMBOLE : ..................................................................................................... IV
HINWEIS ZUR VERWENDETEN S PRACHE : ..................................................................................... IV
1 AUSGANGSPUNKT UND AUSWIRKUNGEN DER DIGITALISIERUNG ........................... 1
2 GRUNDLAGEN DES WANDELS VON LEADERSHIP..................................................... 6
2.1 D IGITAL LEADERSHIP .................................................................................................. 6
2.2 F ÜHRUNGSKRAFT .................................................................................................... 10
2.3 F ÜHRUNGSVERHALTEN ............................................................................................. 12
2.4 F ÜHRUNGSKOMPETENZ ............................................................................................ 14
3 WARUM SICH UNTERNEHMEN NEU ERFINDEN MÜSSEN ...................................... 18
3.1 TRANSFORMIEREN MIT N ACHDRUCK ........................................................................... 20
3.2 ÜBERLEBEN IM DIGITALEN ZEITALTER ........................................................................... 22
3.3 D AS MODERNE U NTERNEHMEN ................................................................................. 25
3.4 D IGITALER R EIFEGRAD .............................................................................................. 26
4 WARUM SICH FÜHRUNGSKRÄFTE NEU ERFINDEN MÜSSEN .................................. 35
4.1 A USWIRKUNG AUF DAS UNTERNEHMERISCHE HUMANKAPITAL .......................................... 35
4.2 A NFORDERUNGEN AN DAS H UMANKAPITAL .................................................................. 38
4.3 D IE AGILE PERSONALARBEIT ....................................................................................... 40
4.3.1 OKR – Das Framework für modernes HR ....................................................... 41
4.3.2 Die neue Führungskraft.................................................................................. 43
5 NEUE METHODEN FÜR DEN DIGITALEN WANDEL ................................................. 47
5.1 M ANAGEMENT 3.0 ................................................................................................. 48
5.2 S CRUM .................................................................................................................. 50
5.3 K ANBAN ................................................................................................................ 52
5.4 O PEN S PACE .......................................................................................................... 54
5.5 RTSC .................................................................................................................... 55
5.6 D ESIGN THINKING ................................................................................................... 56
5.7 LEGO S ERIOUS PLAY ................................................................................................. 58
5.8 LEAN S TARTUP ........................................................................................................ 59
5.9 E FFECTUATION ........................................................................................................ 60
5.10 A GILE MEETS N EW W ORK ......................................................................................... 64
6 FÜHRUNG ALTER SCHULE..................................................................................... 66
7 SPANNENDE BLICKWINKEL .................................................................................. 72
8 FÜHRUNG 3.0 – VOM MANAGER ZUM LEADER .................................................... 77
8.1 A UF A UGENHÖHE .................................................................................................... 77
8.2 LEADER ANSTATT M ANAGER ...................................................................................... 78
8.3 ZEIT - UND S ELBSTMANAGEMENT ................................................................................ 79
8.4 D IGITALES M INDSET ................................................................................................ 80
9 FÜHRUNG 4.0 – VOM LEADER ZUM COACH .......................................................... 83
9.1 W AS BEDEUTET F ÜHRUNG 4.0?................................................................................. 83
Leadership im digitalen Zeitalter
II
9.2 N EW W ORK VS. A RBEIT 4.0 ...................................................................................... 86
9.3 LEADERSHIP 4.0 – D IE NEUEN K OMPETENZEN EINER F ÜHRUNGSKRAFT .............................. 89
9.4 LEADERSHIP 4.0 K OMPATIBLE K ONZEPTE ..................................................................... 91
9.4.1 VOPA+ Modell ................................................................................................ 91
9.4.2 SCARF-Modell für psychologische Sicherheit ................................................. 93
9.4.3 Inner Work Life System .................................................................................. 95
9.5 COACH ANSTATT LEADER .......................................................................................... 97
9.5.1 Coaching als Führungsstil .............................................................................. 97
9.5.2 Umsetzung eines coachenden Führungsstils................................................ 100
9.5.3 Praxisorientierter Coaching Framework für den Digital Leader ................... 101
10 FAZIT UND NACHHALTIGKEITSCHECK VON DIGITAL LEADERSHIP ........................ 103
10.1 S PANNUNGSFELD ZWISCHEN F ÜHREN UND COACHEN ................................................... 103
10.2 D IGITAL -LEADERSHIP -M ANTRA ................................................................................ 105
LITERATURVERZEICHNIS............................................................................................. 106
Leadership im digitalen Zeitalter
III
Abbildungsverzeichnis
A BBILDUNG 1 – D IE DREI E BENEN DER F ÜHRUNG .............................................................................. 7
A BBILDUNG 2 - S INNBILD EINES M ANAGERS (B OSS) VS. LEADERS. ........................................................ 8
A BBILDUNG 3 - U NTERSCHIED F ÜHREN VS. M ANAGEN ....................................................................... 9
A BBILDUNG 4 - S TACEY -M ATRIX .................................................................................................. 19
A BBILDUNG 5: S CRUM -F RAMEWORK. .......................................................................................... 52
A BBILDUNG 6: E GO ZU E CO LEADERSHIP . ...................................................................................... 83
A BBILDUNG 7: S MART F ACTORY .................................................................................................. 84
A BBILDUNG 8: HANDLUNGSRAHMEN FÜR D IGITAL LEADERSHIP ......................................................... 90
A BBILDUNG 9: VOPA+ M ODELL . ................................................................................................ 92
A BBILDUNG 10: SCARF-M ODELL FÜR PSYCHOLOGISCHE S ICHERHEIT . ................................................ 93
A BBILDUNG 11: INNER W ORK LIFE S YSTEM . .................................................................................. 95
A BBILDUNG 12: SUBDIMENSIONEN DES F ULL -R ANGE- OF-LEADERSHIP -M ODELLS. ................................. 98
A BBILDUNG 13: COACHING F RAMEWORK FÜR D IGITAL LEADERS . .................................................... 102
A BBILDUNG 14: SPANNUNGSFELD ZWISCHEN F ÜHREN UND COACHEN . ............................................. 104
Leadership im digitalen Zeitalter
IV
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wobei
an einigen Stellen Symbole und Links zu weiterführenden Erklärungen,
Übungen und Beispielen zu finden sind. An den jeweiligen Stellen klicken Sie
bitte auf das Symbol – nach Beendigung des relevanten Teils kehren Sie bitte
wieder zum Studientext zurück. Stellen Sie sicher, dass auf Ihrem Rechner
ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Wichtiger Merksatz oder Merkpunkt
Weiterführender Link zu einem Lernvideo in MPEG4
oder einer Audiodatei in MP3
Zusammenfassung
Übungsbeispiel oder Link zu einer interaktiven Übung
Hinweis zur verwendeten Sprache:
Aus Gründen der besseren Lesbarkeit werden die Sprachformen männlich,
weiblich und divers (m/w/d) im Wechsel verwendet. Sämtliche Personenbe-
zeichnungen gelten gleichermaßen für alle Geschlechter.
Leadership im digitalen Zeitalter
1
1 Ausgangspunkt und Auswirkungen der Digi-
talisierung
In den letzten Jahren hat sich in allen Industriezweigen ein tiefgreifender
Wandel vollzogen. Begriffe wie Digitalisierung, Industrie 4.0 und digitale
Transformation sind allgegenwärtig und in Online- und Printmedien präsent.
Dieser weitreichende digitale Wandel betrifft nicht nur die Industrie, son-
dern auch die Gesellschaft insgesamt, die sich kontinuierlich von der Dienst-
leistungsgesellschaft zur digitalen Gesellschaft entwickelt. Aktuelle Regie-
rungsprogramme, Schulreformen, Unternehmensmodernisierungen, neue
digitale Produkte und Dienstleistungen unterstreichen die Bedeutsamkeit.
Weit mehr als eine Eintagsfliege gilt die Digitalisierung bereits jetzt als Inbe-
griff der Zukunft, wenn nicht sogar als Glücksfall für die Menschheit. Sie hat
die Welt zusammenwachsen lassen, nie dagewesene Bildungsmöglichkeiten
geschaffen und den Alltag von Milliarden Menschen erleichtert. Regelmäßig
beschert sie bahnbrechende Innovationen und lässt uns darüber staunen,
welche technischen Wunderwerke wir Menschen erschaffen können.
Wäre es vor einigen Jahren noch möglich gewesen, ganz ohne Ressourcen
ein globaler Leader zu werden? Wäre es vor einigen Jahren denkbar gewe-
sen, lediglich mit einer Idee von Bits und Bytes zu einer digitalen Innovation
zu werden? Wohl kaum. Nachfolgende Beispiele zeigen die immensen Mög-
lichkeiten auf und implizieren die Chance, dass jeder von uns mit einer ent-
sprechenden Idee zur richtigen Zeit und mit dem Einsatz von digitalen Gü-
tern vieles erreichen kann:
• Uber: Das größte Taxiunternehmen der Welt besitzt keine Fahr-
zeuge.
• Facebook: Das weltweit populärste Medienunternehmen erzeugt
selbst keine Inhalte.
• Alibaba: Der wertvollste Einzelhändler der Welt hat keine Lagerbe-
stände.
• Airbnb: Der weltweit größte Anbieter von Unterkünften besitzt keine
Immobilien.
• BetterUp und CoachHub: Die umfassendsten virtuellen Coaching-
Plattformen haben keine angestellten Coaches in ihren Büros und ar-
beiten mit Freiberuflern weltweit.
Diese Lehrveranstaltung hat es sich zur Aufgabe gemacht, einen weitrei-
chenden und verständlichen Einstieg in das Thema Führung im digitalen Zeit-
alter für jedermann zu ermöglichen, um somit Teil dieses Wandels zu wer-
den. Besonderes Augenmerk wurde hierbei auf den Ansatz „so wenig wie
Leadership im digitalen Zeitalter
2
möglich, so viel wie nötig“ gelegt. Der Hintergrund hierbei ist die Komplexi-
tät und Schnelllebigkeit des Themas digitale Transformation. Wenn es die
Aufgabe wäre, sich von Ort A nach Ort B zu bewegen, gilt es zu wissen, wel-
che Möglichkeiten dafür bestehen und wie diese am besten eingesetzt wer-
den können. Wichtig dabei ist es, zu wissen, welche Fortbewegungsmöglich-
keiten es gibt, welche Vor- und Nachteile diese haben und ob sie ggf. kom-
biniert werden können bzw. wo Synergien sinnvoll wären, um an den ge-
wünschten Ort zu gelangen. Ganz gleich, wo sich Ort A oder Ort B befinden,
ist es nicht wichtig, wie die Fortbewegung im Detail funktioniert, weder das
Prinzip des dynamischen Auftriebs beim Flugzeug noch die Kraftstoffein-
spritzung bei einem KFZ. Kennen Sie aber die besagten Auswahlmöglichkei-
ten und deren Charakteristika, wird es Ihnen möglich sein, das Ziel zu errei-
chen. Genau dieses beschriebene Prinzip wird auch bei dieser Lehrveranstal-
tung angewendet. Es ist nicht möglich, alle Details und Handlungsanweisun-
gen zu erklären, zudem ist eine solche Erklärung weder notwendig noch
sinnvoll. Wie bereits erwähnt, ist die Digitalisierung viel mehr als eine App,
es benötigt somit nicht nur Techniker und Programmierer, sondern auch
Menschen aus allen Stilrichtungen, um Sinnvolles zu erschaffen, Innovation
voranzutreiben und diese nachhaltig im Unternehmen zu verankern. Die
Führungskraft ist in diesem Zusammenhang als treibende Kraft und Naviga-
tor mehr gefragt denn je. Die Digitalisierung wird meist mit Effizienz und vie-
len weiteren Vorteilen assoziiert. Dies ist jedoch nur eine Seite der Medaille.
Es bedarf neben Optimismus auch an einem gewissen Maß an Pessimismus,
um die Kausalitäten und deren Folgen zu erkennen. Denn durch diese Er-
kenntnis können geeignete Maßnahmen gefunden werden, bevor nach der
großen Digitalisierungswelle die Phase der korrektiven Maßnahmen stattfin-
den muss.
Aufgrund des notwendigen persönlichen Eingriffs ist ein wohlüberlegter Ba-
lanceakt anzustreben, um eine gesunde „Revolution“ zu ermöglichen. Die
Informationstechnik ist grundsätzlich der Ursprung des digitalen Wandels,
jedoch ist dies nicht zwingend korrekt. Hier lässt sich der oft zitierte „Eis-
berg“ heranziehen. Digitale Produkte und Dienstleistungen stellen lediglich
den sichtbaren Teil dar – der überwiegende Anteil liegt jedoch im Verborge-
nen. Der Beginn einer jeden Innovation ist eine Idee, aber erst wirtschaftli-
che Anwendbarkeit und Umsetzung und machen aus dieser Idee eine echte
Innovation. Um es mit den Worten des amerikanischen Pioniers in der Inno-
vationsforschung Everett Rogers auszudrücken:
Innovation ist Erfindung plus Umsetzung!
Es genügt nicht, eine großartige Idee zu haben, sie muss vor allem marktfä-
hig werden. Ständiges Innovieren ist heute mehr denn je überlebensnot-
wendig. Innovationen schaffen neue Chancen, neue Werte und sichern die
Leadership im digitalen Zeitalter
3
Zukunft von Unternehmen in einer globalisierten Wirtschaft. Um nun einen
gelungenen Einstieg in die Digitalisierung zu schaffen und um somit alle Fa-
cetten dieser gewaltigen Materie und ihren weitreichenden Horizont aufzu-
zeigen, wird dem Leser gleich zu Beginn Vergangenes dargeboten, um die
tiefere Motivation hinter dem Wandel zu verstehen. Der Beginn dieser Lehr-
veranstaltung widmet sich altbewährten Modellen und Techniken sowie den
Protagonisten des Unternehmens, bevor dann der Schwenk zur neuen Füh-
rungskultur sowie zu ihren Besonderheiten gemacht wird. Anschließend
wird aufgezeigt, wie sich diese Besonderheiten ineinanderfügen. Es folgen
Erklärungen aus der Literatur sowie deren unterschiedliche Auffassungen
und daraus resultierende Bedeutungen und eine Beschreibung des Beitrags,
den diese Ansichten zum neuen Führungsverständnis beisteuern (können).
Drei zentrale Fragen dieser Lehrveranstaltung lauten wie folgt:
1. Wie wandelt sich die Industriegesellschaft in eine Wissensgesell-
schaft und was bedeutet dies für die Führung im Allgemeinen?
2. Welche Anforderungen werden an das Management gestellt und
welche Veränderungen müssen vorgenommen werden, um ein Un-
ternehmen in Zukunft erfolgreich zu führen?
3. Wie sieht Digital Leadership in der Praxis aus und wie kann es um-
gesetzt werden?
Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation hat drei Kri-
terien für die Wissensarbeit aufgestellt:
• Neuartigkeit,
• Komplexität und
• Autonomie.
Ein Wissensarbeiter schafft, verwaltet und verbreitet neues Wissen. Dieses
entsteht auf Grundlage von vorhandenem Wissen und wird in Netzwerken
durch den Austausch mit anderen generiert. Wissensarbeit ist weder stan-
dardisierbar noch automatisierbar. Wissensarbeiter brauchen daher neben
fachlichen Kompetenzen intellektuelle, soziale und kreative Fähigkeiten. Sie
müssen sich als Experten positionieren, ein Netzwerk aufbauen und ausge-
prägte Fähigkeiten hinsichtlich der Kommunikation und der Zusammenar-
beit haben. Sie arbeiten autonom und brauchen daher besonderes Ver-
trauen, weshalb sie umgekehrt zu besonderer Verantwortung verpflichtet
sind. Wissensarbeit als wertschöpfender Prozess im Unternehmen geschieht
mit einem ökonomischen Ziel. Um ihr intellektuelles und kreatives Potenzial
auszuschöpfen, müssen Wissensarbeiter ein hohes Maß an Selbstorganisa-
tion beherrschen und dazu bereit sein, ständig und selbstgesteuert zu lernen
– eine menschliche KI. Sie brauchen für den kreativen Prozess den Austausch
Leadership im digitalen Zeitalter
4
mit anderen (Inputphase) sowie im Anschluss eine Verarbeitungsphase (Re-
flexions- und Kreationsphasen), um schöpferisch tätig zu werden. Wenn ein
wachsender Teil der erwerbstätigen Bevölkerung neues Wissen schafft und
nicht mehr nur Aufgaben abarbeitet, wird klar, dass für Wissensarbeiter
neue Arbeits- und Managementformen benötigt werden. Diese anstehen-
den Veränderungen lassen sich mit dem von Frithjof Bergmann geprägten
Begriff „New Work“ beschreiben.
Hinsichtlich der zunehmenden Möglichkeiten, selbstständig zu arbeiten,
stellt sich die Frage, welchen Mehrwert die Arbeit in einer Organisation ne-
ben dem regelmäßigen Erwerbseinkommen für Wissensarbeiter bietet. Da-
niel Pink konfrontiert sich in seinem Buch Drive: Was Sie wirklich motiviert
mit der Frage, welche Bedeutung die Arbeit der Mitarbeiter für Unterneh-
men hat. Die Mitarbeiter in Unternehmen erfinden ihm zufolge Dienstleis-
tungen und Produkte und erstellen und organisieren diese. Sie seien für die
Wertschöpfung des Unternehmens zuständig. Pink fragt, welche Bedeutung
die Arbeit für den Mitarbeiter hat und identifiziert drei Schlüsselmotive im
relevanten Literaturkreis:
• Perfektionierung,
• Selbstbestimmung und
• Sinnerfüllung.
Optimal praktiziert und organisiert, bringe Arbeit den Menschen grundsätz-
lich Erfüllung, Zufriedenheit und Glück.1 In seinem Buch Der Kampf um die
Arbeitsplätze von morgen berichtet Gallup-Chef Jim Clifton: „Der Wunsch
der Weltbevölkerung ist an erster Stelle und vor allem anderen ein guter Ar-
beitsplatz. Dem ist alles Übrige nachgeordnet.“2
Unternehmen und Mitarbeiter müssen folgend die Ziele ihrer Arbeit wech-
selseitig miteinander in Übereinstimmung bringen. Am besten ziehen Unter-
nehmen in ihre Überlegungen drei weitere Entwicklungen zur Veränderung
mit ein, die im Folgenden erläutert werden.
1. 2060“ bzw. „War for Talent: Dies bedeutet, dass Unternehmen noch
viel mehr um die Gunst der Arbeitnehmer werben müssen. Der War
for Talent wird weiter zunehmen. Unternehmen werden dazu ge-
zwungen sein, noch mehr Aufgaben zu automatisieren und sich ge-
nau zu überlegen, wofür sie die wertvolle und rare Ressource Ar-
beitskraft einsetzen.
1 Vgl. Pink (2019).
2 Clifton (2012).
Leadership im digitalen Zeitalter
5
2. Die Zahl der Personen, die kein festes Anstellungsverhältnis su-
chen, steigt. In vielen Ländern, ganz gleich ob in der DACH-Region
oder weitergedacht, sind Erwerbstätige, die als Freelancer eine un-
abhängige Beschäftigung ausüben, im Trend. Gut zwei Drittel der
Freiberufler haben sich dabei nicht aus wirtschaftlichen Zwängen für
eine Tätigkeit als Unternehmer/ Neuer Selbstständiger/ Freiberufler
etc. entschieden, sondern aus dem Wunsch heraus, selbstbestimmt
zu arbeiten. Es wird für Unternehmen schwieriger, Wissensarbeiter
für eine Festanstellung zu gewinnen.
3. Die skeptische Haltung der Unternehmen gegenüber digitalen Ent-
wicklungen und die damit einhergehende fehlende Digitalkompe-
tenz in den Unternehmen zwingen viele Länder zu einer beispiello-
sen Aufholjagd. Als Beispiel lässt sich hier Estland mit dem Internet
als Grundrecht eines jeden Bürgers nennen. Dies muss gelingen, da-
mit der Anschluss an die Entwicklungen in den USA, China, Japan so-
wie Indien nicht verloren geht. Vorstände und Aufsichtsräte sind im-
mer noch zu sehr mit der kritischen Betrachtung der Entwicklungen
beschäftigt und zu wenig mit den Chancen, die eine Digitalisierung
für die Zukunftsfähigkeit ihrer Firmen bedeutet.
Wie stellen sich Unternehmen in diesem sich stark wandelnden und neu
technologisch vernetzten Kontext am besten für die Zukunft auf? Wie berei-
ten sie ihre Mitarbeiter auf die veränderten Arbeitsbedingungen vor? Und
wie beteiligen sie sich an der Weiterentwicklung des Unternehmens? Es
wurden schon Schritte getan, jedoch kann dies als ambitionierter Fußmarsch
gesehen werden, der Weg wie auch das Ziel sind noch ungewiss, jedoch sind
die Abgründe entlang des Weges gegeben. In Anbetracht der aktuellen Po-
litdiskussionen und Regierungsmaßnahmen lässt sich, wenn auch nur kurz,
beruhigt durchschnaufen. Auch hier scheiden sich die Geister darüber, wie
und was geschehen soll. Nichts zu tun und abzuwarten ist hierbei keine Op-
tion – zum einem „schläft“ die Konkurrenz nicht und zum anderen wirft die-
ser Ansatz weder Innovation ab, noch adaptiert er Altbewährtes. Somit ist
der Ansatz „trial and error“ ein momentan geduldetes und akzeptiertes Stil-
mittel.
Leadership im digitalen Zeitalter
6
2 Grundlagen des Wandels von Leadership
Um einen soliden Einstieg in das Digital Leadership zu ermöglichen, werden
nachfolgend die wesentlichen Begriffe näher erläutert und entsprechende
Definitionen in vernünftigem Ausmaß gegeben. Da speziell Begriffe wie „di-
gital“, „Führung“, „Leadership“, aber auch „Kompetenz“ u. v. m. gerne fehl-
interpretiert werden, wird im Folgende eine Erklärung geboten.
2.1 Digital Leadership
Wörtlich aus dem Englischen übersetzt bedeutet „Digital Leadership“ nichts
Anderes als „digitale Führung“. Demnach soll zunächst auf die beiden Einzel-
definitionen von „Digital“ und „Führung“ geblickt werden.
Digital: bedeutet lt. Duden „auf Digitaltechnik, Digitalverfahren beruhend
[…] in Ziffern darstellend“.
Führung: Meint die unmittelbare, zielbezogene Einflussnahme auf Gruppen-
mitglieder.3
Unternehmensführung: Meint die zielorientierte Gestaltung von Unterneh-
men bzw. die zielorientierte Beeinflussung von Personen/Mitarbeitern im
Unternehmen. Zweiteres wird auch als Personalführung bezeichnet. Geführt
werden kann durch Menschen und Strukturen (z. B. Organigramme oder An-
reizsysteme).
Nun stellt sich die Frage, ob sich der Begriff „Leadership“ einfach als Führung
oder Unternehmensführung übersetzten lässt oder ob er noch andere Be-
deutungen in sich trägt. Dies ist eine vieldiskutierte Frage. Alter Wein in
neuen Schläuchen oder doch eine Neuerung – und wenn ja, wie sieht diese
aus?
Leadership: Eine gängige Definition von Leadership kommt von Yukl und
stammt aus seinem Buch Leadership in Organization. Sie lautet: Leadership
ist „[...] the process of influencing others to understand and agree about
what needs to be done and how to do it, and the process of facilitating indi-
vidual and collective efforts to accomplish shared objectives.“4
In dem vorangegangenen Zitat von Yukl geht es einerseits um die Beeinflus-
sung anderer und andererseits beinhaltet die Definition die Förderung einer
Person oder Gruppe in Bezug auf aktuelle und zukünftige Herausforderun-
gen. Auf Basis weiterer Definitionen ist festzustellen, dass die Begriffe im
3 „Führung“ auf Wirtschaftlexion 24. URL: http://www.wirtschaftslexi-
kon24.com/d/f%C3%BChrung/f%C3%BChrung.htm (Abgerufen von: 19.08.2021).
4 Vgl. Yukl (2012).
Leadership im digitalen Zeitalter
7
Englischen und Deutschen grundsätzlich das Gleiche bedeuten, nämlich die
Beeinflussung anderer, um Ziele zu erreichen. Jedoch werden unter Lea-
dership oftmals noch weitere Aspekte ergänzt bzw. wird die Einflussnahme
konkretisiert. Häufig wird der Begriff „Leadership“ auch dazu verwendet, um
neue Ansätze der Führung von der „klassischen“ Führung abzuheben. Aus
Gründen der Vereinfachung werden die Begriffe „Leadership“ und „Füh-
rung“ im weiteren Verlauf dieses Skriptums allerdings synonym verwendet
werden.
Leadership wird darüber hinaus oft nur als Mitarbeiterführung bezeichnet.
Bei einer umfassenden Betrachtung können jedoch drei Ebenen unterschie-
den werden:
• Führung der Organisation = Unternehmensführung.
• Führung von Mitarbeitern = Mitarbeiterführung.
• Sich selbst führen = Selbstführung.
Zwischen diesen drei Ebenen gibt es gewisse Schnittmengen, wie es in der
nachfolgenden Grafik erkennbar wird:
Abbildung 1 – Die drei Ebenen der Führung
Je nach Führungsebene gibt es unterschiedliche Schwerpunkte. So wird sich
ein Chief Executive Officer (CEO) mehr mit der Unternehmensführung be-
schäftigen und ein Abteilungsleiter eher den Fokus auf die Mitarbeiterfüh-
rung legen. Selbstführung werden sowohl ein CEO als auch ein Abteilungs-
leiter in ähnlichem Umfang betreiben.
Nachdem Leadership auch in Bezug auf die Unternehmensführung betrach-
tet werden kann, ist eine Abgrenzung zum Begriff „Management“ notwen-
dig. Blessin und Wick beschreiben in deren Werk Führen und führen lassen
Leadership im digitalen Zeitalter
8
Management als Unternehmensführung und Führung bzw. Leadership als
Menschenführung.5 Oftmals werden die beiden Begriffe synonym verwen-
det.
Eine klare Trennung zwischen Leader und Manager macht keinen Sinn; ein
Leader benötigt auch Elemente eines Managers und somit einen Mix aus
beidem, ebenso ist es andersherum.
In Umbruchssituationen sind aber mehr Leader als Manager gefragt, daher
wird der Fokus in diesem Skriptum auf den Leader gelegt.
Abbildung 2 - Sinnbild eines Managers (Boss) vs. Leaders
Die Anforderungen der digitalen Transformation verändern, wie es scheint,
auch die altbekannten Spielregeln von Führung. So lässt sich erkennen, dass
ein Wandel von Management zu Leadership stattfindet.
In nachfolgender Abbildung zeigt sich der Unterschied zwischen „Führen“
und „Managen“. Hervorzuheben ist beim Führen die Vorbildfunktion und
das in die Zukunft gerichtete Denken und Handeln unter Einbeziehung der
Mitarbeiter. Im Vergleich dazu ist ein Manager eher auf die Gegenwart fo-
kussiert, in der er Aufgaben zuweist und kontrolliert, anstatt zu inspirieren.
5 BVgl. lessin und Wick (2013).
Leadership im digitalen Zeitalter
9
Abbildung 3 - Unterschied Führen vs. Managen
Während dies eher als Führungsverständnis im klassischen Sinn verstanden
wird, beschreiben Bennis und Goldsmith in ihrem Werk Learning to lead die
Begriffe im modernen Verständnis als „A manager does things right. A Lea-
der does the right things.“6
Digital Leadership: Auch hier gibt es konkrete Definitionen, von der sich
allerdings noch keine durchsetzen konnte. Willms Buhse definiert Digital
Leadership etwa als „Führung, die das klassische Management-Einmaleins
beherrscht und außerdem in der Lage ist, die Muster des Internets in vor-
handene Führungskonzepte zu integrieren und aus beiden Konzepten eine
zeitgemäße, Erfolg versprechende Synthese zu bilden.“
Es ist es nicht verwunderlich, dass Kompetenzen und Führungsverhalten nö-
tig sind, die nicht auf den ersten Blick etwas mit der Digitalisierung zu tun
haben. Es ist also trotz allem Führungskraft nötig, um als Digital Leader fun-
gieren zu können.
Bei der Betrachtung unterschiedlichster Auffassungen von Digital Leadership
lassen sich vier Richtungen identifizieren, die wie folgt interpretiert werden
können:
1. Führung mit digitalen Techniken.
2. Führung von digitalen Talenten.
3. Digitale Marktführerschaft.
4. Erfolgreiche Führung in Zeiten der digitalen Transformation.
6 Bennis und Goldsmith (2010).
Leadership im digitalen Zeitalter
10
Für diese Arbeit soll die holistische Betrachtung – also: erfolgreiche Führung
in Zeiten der digitalen Transformation – herangezogen werden. Diese um-
fasst u. a. die Führung mit digitalen Hilfsmitteln, aber auch die Führung von
digitalen Talenten und geht noch weiter darüber hinaus. Wenn die verän-
derte Führung gut umgesetzt wird, kann sich das in einer Marktführerschaft
niederschlagen. So definieren auch Hinterhuber und Krauthammer in ihrem
Buch Leadership – mehr als Management das Ziel von Leadership wie folgt:
„Das Ziel ist, die Unternehmung in den Geschäftsfeldern, in denen sie tätig
ist oder sein will, zur Marktführerschaft zu führen [...].“7
Bei dem Begriff „Digital Leadership“ wird bewusst das Wort „Digital“ vor den
Begriff „Leadership“ gesetzt, um damit den Haupteinflussfaktor, der die Ver-
änderungen hervorruft, zu betiteln. In der Literatur werden für die Verände-
rung der Führung auch andere Bezeichnungen verwendet, wie u. a. „New
Leadership“, „Leadership/Management 2.0“.
2.2 Führungskraft
Als Führungskraft werden Personen mit Personal- und Sachverantwortung
bezeichnet. Diese haben aufgrund ihrer relativ hohen hierarchischen Stel-
lung Einfluss auf das gesamte Unternehmen oder seine wichtigsten Teilbe-
reiche. Das Deutsche Institut für Wirtschaftsforschung definiert den Begriff
noch umfassender. Einerseits beinhaltet diese Definition klassische Füh-
rungsfunktionen, wie sie z. B. ein Geschäftsführer oder auch ein Abtei-
lungsleiter hat, sie schließt darüber hinaus aber auch Tätigkeiten, die eine
hohe Qualifikation verlangen wie z. B. die der Ingenieure, mit ein.
Führungskräfte können zur besseren Abgrenzung in Ebenen eingeordnet
werden: In eine untere (z. B. Teamleiter), mittlere (z. B. Bereichsleiter) und
obere Führungsebene (z. B. Geschäftsführer). Je höher die Anzahl der ge-
führten Mitarbeiter ist, aber auch, je größer der Verantwortungsbereich
ist, desto höher ist die Führungsebene. Zudem nimmt mit ansteigender
Hierarchie der Anteil der Fachaufgaben ab.
Für dieses Lehrveranstaltungsskript wird eine weite Auslegung des Begriffes
der Führungskraft verwendet, die auch hochqualifizierte Mitarbeiter ein-
schließt, die ohne Personalverantwortung bzw. disziplinarische Macht füh-
ren. Das wird als sog. laterale Führung bezeichnet. Als Beispiele können Pro-
jektleiter oder auch Stabsstellen aufgeführt werden, die keine hierarchische
Sonderstellung einnehmen, keine Mitarbeiter unter sich haben und nur rein
fachlich führen.
7 Hinterhuber und Krauthammer (2015).
Leadership im digitalen Zeitalter
11
Diese Form der lateralen Führung wird durch die Digitalisierung weiter zu-
nehmen und das Führen ohne Hierarchie wird, beispielsweise durch die Ver-
netzung, weiter an Bedeutung gewinnen.
Abhängig von den Kompetenzen der Führungskraft zeigt sich ein bestimmtes
Führungsverhalten. Dieses spiegelt sich in den Mitarbeitern wider und zeigt
sich an ihrem Verhalten und Einstellungen. Das Führungsverhalten, aber
auch die Mitarbeiter, werden durch die Situation beeinflusst. Der aktuell
größte Faktor ist die digitale Transformation. Am Ende des Prozesses steht
der Führungserfolg. Anhand welcher Variablen dieser gemessen wird, ist un-
ternehmensabhängig.
Wie bei der Unterscheidung zwischen „Leadership“ und „Management“
liegt auch hier ein Unterschied in der Begrifflichkeit. Synonym verwendet
werden jedoch die Begriffe „Leader“ und „Führungskraft“. Wir sprechen hier
von einem Digital Leader. In der „Crisp Studie“ wird ein „Digital Leader“ wie
folgt definiert:
Ein Digital Leader „[…] steht als digitale Führungsperson stellvertretend
für die Digitalisierung des eigenen Unternehmens. Er zeichnet sich durch
ein fundiertes Wissen sowie ein ausgeprägtes „Digital-First-Denken“ aus.
Der Digital Leader führt sein Team mit einem hohen Partizipationsgrad,
regt neue Innovationen an und geht für den Fortschritt der Digitalen
Transformation auch neue Wege.“
Das digitale Mindset – die Denkweise – spielt in Bezug auf den Digital Leader
eine elementare Rolle und geht über das Verständnis der digitalen Kun-
denerfahrung hinaus, denn es muss ganzheitlich auf das gesamte Unterneh-
men gesehen werden und somit auch interne Prozesse und Vorgehenswei-
sen erfassen.
Das bedeutet auch: Führungskräfte in der digitalen Transformation sind ei-
nerseits die Treiber, aber auch die Enabler.
Die Hauptaufgabe von Digital Leadern ist es, das Digital Business zu führen.
Oftmals muss zuerst der Transformationsprozess zu einem Digital Business
bewältigt werden. Daher können auch Führungskräfte Digital Leader sein,
selbst wenn sie noch kein Digital Business führen, aber selbst fit in der Ma-
terie sind. Das wird auch in diversen Studien aufgezeigt, die keine Abhängig-
keit zwischen Digital Leadership und der Digitalisierung des Geschäftsmo-
dells sehen. Um den Transformationsprozess zu realisieren, werden in Un-
ternehmen vermehrt CDOs (Chief Digital Officer) eingestellt, die den Prozess
von oben herab führen sollen. Dieses Vorhaben ist sicherlich richtig, da An-
stöße aus der Chefetage kommen und das Thema Digitalisierung immens re-
levant und demnach auf höchster Ebene platziert ist. Digital Leader sollen
aber nicht nur eine einzelne Person im Unternehmen in Form eines CDOs
Leadership im digitalen Zeitalter
12
sein, sondern vielmehr sollen alle Führungskräfte im Unternehmen zu Digital
Leadern werden – jeder individuell auf seinen Bereich bezogen und in unter-
schiedlich hohem Ausmaß. Den maßgeblichen Einfluss hat selbstverständ-
lich der CDO. Da die Digitalisierung, wie schon beschrieben, vor keinem Un-
ternehmen haltmachen wird, wird diese genauso wenig vor einzelnen Abtei-
lungen stoppen.
2.3 Führungsverhalten
Um sich dem Begriff „Führungsverhalten“ zu nähern, ist zunächst der Begriff
„Führungsstil“ zu beleuchten. Oftmals werden diese Begriffe synonym ver-
wendet, allerdings besteht ein Unterschied.
Als Führungsstil werden nach Lewin drei Ausprägungen unterschieden:
1. Autoritärer,
2. demokratischer und
3. Laissez-faire-Führungsstil.
Der autoritäre Führungsstil und der demokratische Führungsstil unterschei-
den sich im Beteiligungsgrad der Mitarbeiter. Der Laissez-faire-Stil kenn-
zeichnet sich dadurch, dass die Führungskraft die Mitarbeiter bei nahezu al-
len Punkten gewähren lässt und nicht eingreift. Die Streitfrage ist bei Letzte-
rem, ob das überhaupt noch ein Führungsstil ist oder nicht vielmehr schon
Selbstorganisation. Auf dieser Basis wurde weiter geforscht, wobei meist
zwischen dem autoritären und dem demokratischen Stil unterschieden
wurde. Wenn konkrete Definitionen des Führungsstils angesehen werden,
wie z. B. die von Jürgen Weibler, der den Führungsstil „[...] als konsistentes
und typisches Verhalten, das von einem Führenden gegenüber den Geführ-
ten vielfach wiederkehrend gezeigt wird“, beschreibt, kann festgestellt wer-
den, dass der Führungsstil als die Grundausrichtung oder auch als das typi-
sche Muster des Führungsverhaltens bezeichnet werden kann. Ähnlich sieht
dies Fred Fiedler, der den Führungsstil als „[...] the underlying need-struc-
ture of the individual which motivates his behavior in various leadership sit-
uations“ definiert. Hier kommt zusätzlich zur Grundausrichtung der Begriff
des Führungsverhaltens zu Tage, welches in Abgrenzung zum Führungsstil
situationsbezogen ist.
Der Führungsstil wird meist als situationsunabhängig angesehen. Aller-
dings wurde in der Forschung festgestellt, dass es nicht DEN Führungsstil
gibt, sondern, dass er immer von der Situation abhängig ist. Im Führungs-
alltag ist es selten bzw. nie anzutreffen, dass eine Führungskraft immer au-
toritär oder immer nur kooperativ entscheidet. Vielmehr spielt die
Leadership im digitalen Zeitalter
13
Situation und der zu führende, einzelne Mitarbeiter eine bzw. die zentrale
Rolle. Daher wurde dazu übergegangen, das Führungsverhalten zu be-
trachten.
Tino Weinert beschreibt es in Menschen erfolgreich führen folgendermaßen:
„Führungsverhalten bezieht sich lediglich auf Aktivitäten der Führungsper-
son, die in hohem Maße von der Situation abhängig sind.“8 Nobert Ueber-
schaer beschreibt es in Kompaktes Wissen - Konkrete Umsetzung als „[...] die
Gesamtheit der Aktivitäten und Verhaltensweisen der Führungskräfte im
Führungsprozess.“9
Menschliches Verhalten besteht aus drei Dimensionen:
• Handeln = etwas aktiv tun,
• Dulden = etwas geschehen lassen,
• Unterlassen = nichts tun.
Darüber hinaus kann unterschieden werden, ob das Verhalten bewusst, un-
bewusst oder gelernt umgesetzt wird. Zusammenfassend lässt sich feststel-
len, dass das Führungsverhalten situationsbezogen ist – im Vergleich zum
Führungsstil, welcher relativ konstant und situationsunabhängig ist. Unab-
hängig davon, ob es um unterschiedliche Führungsstile oder um Führungs-
verhalten geht, ist das Ziel der Führungserfolg. Wichtig ist auch, dass es kein
ideales Führungsverhalten gibt; ebenso gibt es keinen idealen Führungsstil,
vielmehr wird situativ entschieden.
In näherer Betrachtung des Führungsverhaltens, wird dieses oftmals in un-
terschiedliche Dimensionen untergliedert. Eine gängige Untergliederung ist
jene nach Mitarbeiterorientierung (der Mitarbeiter steht im Fokus) und Auf-
gabenorientierung (die Aufgabe sowie deren Erfüllung stehen im Mittel-
punkt).
Rosenstiel und Weibler fordern in ihrem Werk Führung von Mitarbeitern
dazu auf, auf der Grundlage von anderen Forschungsergebnissen, bei der
Unterscheidung noch eine dritte Dimension zu ergänzen, nämlich die „Par-
tizipationsorientierung“. Hier wird die Beteiligung des Mitarbeiters sowie
seine Anteilnahme an der Veränderung in den Fokus gestellt.
Im weiteren Verlauf soll das Führungsverhalten in drei weitere Ebenen un-
tergliedert werden, da nach der erwähnten Einteilung oftmals Unschärfen
entstehen. Zudem ist es in der heutigen Zeit überholt, nur aufgabenorien-
tiert oder nur mitarbeiterorientiert zu denken. Eine Kombination aus beidem
ist erforderlich. Der Fokus ist darüber hinaus noch um externe Partner zu
8 Weinert (2011).
9 Ueberschaer (2014).
Leadership im digitalen Zeitalter
14
erweitern, um ein ganzheitliches Bild zu bekommen. Daher soll im weiteren
Verlauf noch die Aufteilung des Führungsverhaltens analog zu den Führungs-
dimensionen vorgenommen werden:
• Unternehmensführung: Hier geht es um Führungsverhalten, das vor
allem Rahmenbedingungen vorgibt, erstmal nur indirekt einen Ein-
fluss auf den Mitarbeiter hat und vor allem externe Partner (z. B. Kun-
den) miteinbezieht.
• Mitarbeiterführung: Führungsverhalten mit konkretem Bezug auf
die Mitarbeiter – sowohl Einzelne als auch eine Gruppe sind der ge-
trichterte Aufgabenbereich.
• Selbstführung: Die Führungskräfte sollen sich selbst führen. Diese
Selbstführung hat Auswirkungen auf andere.
Auch bei dieser Untergliederung sind gewisse Unschärfen nicht zu vermei-
den, da alle Bereiche miteinander zusammenhängen und sich in gewisser
Weise gegenseitig bedingen.
2.4 Führungskompetenz
Nachfolgend soll ein einheitliches Bild des Begriffes „Kompetenz“ vermittelt
werden und darauf aufbauend sollen Kompetenzbereiche definiert werden.
Der Begriff Kompetenz stammt vom lateinischen Wort „competere“ und be-
deutet so viel wie „zu etwas befähigt sein“.
Kompetenz kann in zwei Richtungen interpretiert werden: einerseits als
Zuständigkeit und andererseits als Befähigung. Für diese Lehrveranstal-
tung soll der Fokus auf die zweite Richtung gelegt werden, da die erstere
als Voraussetzung für die Rolle der Führungskraft gilt.
Der Begriff „Kompetenz“ wird in der Literatur unterschiedlich definiert, so
lautet z. B. die im deutschsprachigen Raum häufig verwendet Definition von
Heyse und Erpenbeck:
„Kompetenzen sind Dispositionen (persönliche Voraussetzungen) zur
Selbstorganisation bei der Bewältigung von insbesondere neuen, nicht
routinemäßigen Aufgaben.“10
Im nationalen Qualifikationsrahmen für lebenslanges Lernen wird der Begriff
wie folgt definiert:
Kompetenz ist „[…] die Fähigkeit und Bereitschaft des Einzelnen, Kennt-
nisse und Fertigkeiten sowie persönliche, soziale und methodische
10 Erpenbeck / Heyse (1999)
Leadership im digitalen Zeitalter
15
Fähigkeit zu nutzen und sich durchdacht sowie individuell und sozial ver-
antwortlich zu verhalten. Kompetenz wird in diesem Sinne als umfas-
sende Handlungskompetenz verstanden.“11
Matthias Becker hingegen legt den Fokus in Berufliche Lehr- & Lernforschung
auf einen Dreiklang: „Kompetenz bezeichnet das Dürfen, das Wollen und das
Können einer Person im Hinblick auf die Wahrnehmung der konkreten Ar-
beitsaufgabe.“ 12
Diese unterschiedlichen Definitionen zeigen nur eine kleine Auswahl der in
der Literatur gängigen Begriffsbestimmungen.
Es kristallisieren sich folgende Punkte heraus, die als gemeinsamer Nenner
für den Verlauf dieses Skriptums betrachtet werden können:
• Kompetenz setzt sich aus Fähigkeiten, Fertigkeiten und Kenntnis-
sen zusammen.
• Diese werden primär benötigt, um Aufgaben/Situationen, die un-
bekannt oder komplex sind, zu bewältigen, aber auch, um den be-
ruflichen Alltag zu meistern.
• Es geht nicht nur um das Können, sondern auch um das Wollen und
das Dürfen.
• Selbstorganisiertes Handeln steht im Fokus.
Für den Begriff der „Führungskompetenz“ gibt es auch unzählige Definitio-
nen. Für das vorliegende Skriptum soll „Führungskompetenz“ allerdings als
Querschnittskompetenz verstanden werden, die sich aus Fach-, Methoden-
und Sozialkompetenzen zusammensetzt. Aus diesem Grund reichen für das
Verständnis die allgemeinen Kompetenzdefinitionen aus.
In den einzelnen Kompetenzdefinitionen kommen immer wieder die Be-
griffe „Fähigkeiten“, „Fertigkeiten“ und „Kenntnisse“ vor:
Fähigkeit: Kann als geistige, praktische Anlage, die zu etwas befähigt, ver-
standen werden. Unterschieden werden kann zwischen angeborenen und
erlernten Fähigkeiten. Diese stellen die Basis für die Entwicklung von Fertig-
keiten und Kenntnissen dar.
Fertigkeiten: Durch Übung automatisierte Komponenten von Tätigkeiten.
Somit kann durch Übung aus einer Fähigkeit eine Fertigkeit werden.
Kenntnisse bzw. Wissen: Beinhalten einerseits explizites, aber auch implizi-
tes Wissen. Ersteres kann einfach weitergegeben werden, dagegen ist das
11 Bundesministerium für Bildung und Forschung (2023)
12 Becker (2018)
Leadership im digitalen Zeitalter
16
implizite Wissen an die Person gebunden, nur schwer weitervermittelbar
und entsteht vor allem durch Erfahrung und Erfahrungsaustausch.
Ebenso vielstimmig wie die einzelnen Kompetenzdefinitionen ist die Auftei-
lung der Kompetenzen in verschiedene Bereiche. So untergliedern z. B.
Heyse und Erpenbeck im Werk Kompetenztraining in die vier Ebenen13:
• Personale Kompetenz,
• Aktivitäts- und Handlungskompetenz,
• Sozial-kommunikative Kompetenz,
• Fach- und Methodenkompetenz.
Im Folgenden wird die in der Praxis oft gängige Untergliederung nach Fach-,
Methoden- und Sozialkompetenz vorgenommen.
Die einzelnen Kompetenzbereiche im Detail:
• Fachkompetenz: Die erforderlichen fachlichen Fähigkeiten, Fertig-
keiten und Kenntnisse zur Bewältigung konkreter beruflicher Aufga-
ben. Unter der fachlichen Kompetenz eines Mitarbeiters wird sein
Fachwissen verstanden. Es geht jedoch nicht nur um das reine Wis-
sen, sondern vielmehr darum, es anwenden zu können. In Bezug auf
die konkrete Bewältigung der Aufgabe kann es auch erforderlich
sein, berufsübergreifende und organisationsbezogene Fähigkeiten,
Fertigkeiten und Kenntnisse zu haben.
• Methodenkompetenz: Die Kenntnis, aber auch die Fähigkeit zur An-
wendung von Arbeitstechniken, Verfahrensweisen und Lernstrate-
gien. Darüber hinaus beinhalten diese auch die Fähigkeit, Informati-
onen zu beschaffen, zu strukturieren, wiederzuverwerten, darzustel-
len sowie Ergebnisse von Verarbeitungsprozessen richtig zu interpre-
tieren und sie geeignet zu präsentieren. Ferner gehört dazu die Fä-
higkeit zur Anwendung von Problemlösungstechniken und zur Ge-
staltung von Problemlösungsprozessen.
• Sozialkompetenz: Die Fähigkeit, mit Vorgesetzten, Mitarbeitern, Kol-
legen, Kunden und Zulieferern zusammenzuarbeiten sowie ein gutes
Betriebsklima zu schaffen und zu erhalten. Es geht um ein adäquates
und an die Situation angepasstes Verhalten im Umgang mit anderen.
Der Bereich Sozialkompetenz beinhaltet auch Selbstkompetenz bzw.
personale Kompetenz. Diese beschreibt die Fähigkeit des Umgangs
mit sich selbst als reflexive, selbstorganisierte Handlungsbefähigung.
Weiter bedeutet soziale Kompetenz auch die Fähigkeit einer Person,
in ihrer sozialen Umwelt selbstständig zu handeln.
13 Vgl. Heyse und Erpenbeck (2009).
Leadership im digitalen Zeitalter
17
Die drei genannten Kompetenzbereiche können unter dem Begriff der Hand-
lungskompetenz zusammengefasst werden. Eine völlig akkurate Abgren-
zung der Bereiche ist nicht möglich, vielmehr gibt es Überlappungen. Kom-
petenzen von Personen sind keine Konstanten, sondern tätigkeits- und posi-
tionsspezifisch. Daher ist nicht immer ein hohes Ausmaß an einer gewissen
Kompetenz erforderlich, sondern vielmehr benötigt eine Führungskraft ein
Set mit der besten Passung auf die Tätigkeit bzw. Position. Daher werden oft
Skalierungen verwendet, um das Kompetenzniveau zu verdeutlichen, wel-
ches erforderlich ist bzw. welches gemessen worden ist. In Bezug auf die
Fach- und Methodenkompetenz sind das die Kategorien: Kenner, Könner
und Experte.
Im Bereich der Sozialkompetenz wird unterschieden zwischen gering ausge-
prägt, ausgeprägt und stark ausgeprägt. Es stellt sich die Frage, wie Kompe-
tenzen das Verhalten beeinflussen oder umgekehrt. Diese beiden Kon-
strukte stehen in einem engen Verhältnis. Einerseits kann nur kompetent
gehandelt werden, wenn die erforderlichen Kompetenzen vorhanden sind,
andererseits sind Kompetenzen ohne das konkrete Handeln nicht messbar.
Es wird hier von der Performanz gesprochen. Die mit der Führungskraft in
Beziehung stehenden Personen sehen daher nicht direkt die Kompetenz,
sondern das Verhalten und das Handeln.
Leadership im digitalen Zeitalter
18
3 Warum sich Unternehmen neu erfinden müs-
sen
Unternehmen stellen in den letzten Jahren vermehrt vielfältige Probleme
fest. Es kommt zu hohen Fluktuationen bei Mitarbeitern, aber auch bei Kun-
den, die Konkurrenz hat eine deutlich höhere Geschwindigkeit als frü-
her, der Wettbewerb hat rapide zugenommen, das eigene Unternehmen lei-
det an Trägheit, es gibt starke Probleme in der Prozessabwicklung, die ei-
gene Produkt- und Servicequalität sinkt kontinuierlich, während die Kosten
zu explodieren scheinen. Gestärkt und intensiviert wird dies maßgeblich
durch die Globalisierung, Rationalisierung und die immer stärker werdende
digitale Transformation.
Aber warum funktionieren die alten Methoden bzw. Konzepte und Füh-
rungsstile immer weniger und vielleicht in Kürze gar nicht mehr? Versetzen
wir uns zur Beantwortung dieser Frage einmal zurück ins 19. Jahrhun-
dert, mitten in die Industrialisierung 2.0, bzw. genauer gesagt zurück zum
Taylorismus, der durch folgende Eigenschaften geprägt war: Generelles Ziel
der Theorien von Frederick Windslow Taylor ist die Steigerung der Produkti-
vität menschlicher Arbeit. Dies geschieht durch die Teilung der Arbeit in
kleinste Einheiten, zu deren Bewältigung keine oder nur geringe Denkvor-
gänge zu leisten und die aufgrund des geringen Umfangs bzw. Arbeitsinhalts
schnell und repetitiv zu wiederholen sind. Denken und Arbeit sollten also ge-
trennt werden.
Sogenannte Funktionsmeister übernehmen die disponierende Eintei-
lung und Koordination der Arbeiten. Der Mensch wird lediglich als Produkti-
onsfaktor gesehen, den es optimal zu nutzen gilt. Ein spezielles Lohnsystem,
der sogenannte Leistungslohn, soll zur Steigerung der subjektiven Arbeits-
leistung führen. Die Auswirkungen des Taylorismus waren prägend für die
letzten 100 Jahre der Industrialisierung. So wurden Organigramme allge-
mein sowie Titel für Positionen im Speziellen eingeführt.
Die Unternehmungen wurden in Linien-, Aufbau- und Ablauforganisationen
strukturiert. Es wurden Bereiche und Abteilungen eingeführt. Ganz allge-
mein gab es Managementpositionen und damit auch Führungsebenen. Ab-
läufe wurden über Prozessdefinitionen beschrieben. In Anbetracht der Ar-
beiten, die im Taylorismus erledigt werden mussten, so sind diese als maxi-
mal kompliziert zu betrachten. Kompliziertheit kann also als ein gewisses
Maß an Unwissenheit verstanden werden.
Ein Problem ist kompliziert, weil wir es nicht verstehen und uns zur Prob-
lemlösung Wissen fehlt. Es wird einfach, sobald wir Wissen zusteu-
ern. Komplexität wiederum ist das Maß an Freiheitsgraden bzw.
Leadership im digitalen Zeitalter
19
Unsicherheit. Je mehr Freiheitsgrade ein Problem hat, desto komplexer
wird es. Wissen allein reicht hier lange nicht aus, um zur Lösung zu kom-
men, dafür wird Können benötigt.
Ralph Stacey hat diesen Zusammenhang zwischen Komplexität und Kompli-
ziertheit in der nach ihm benannten Stacey-Matrix abgebildet.
Abbildung 4 - Stacey-Matrix
Die Stacey-Matrix hilft bei der Entscheidungsfindung, da sie ein klares Bild
zeichnet. Sie ist insbesondere für Fachexperten mit Tunnelblick zu empfeh-
len, da bereits neue Erkenntnisse aufgrund der zweiten Dimension ersicht-
lich werden.
Werden auf der x-Achse die Freiheitsgrade wie z. B. die Technologie, die Fer-
tigkeit oder das Wissen von wenig bis hoch aufgetragen und auf der y-Achse
die Anforderung von bekannt bis unbekannt, so lassen sich die damit einge-
schlossenen Bereiche grob in neun Bereiche zerteilen.
Ganz links unten, also bei wenig Freiheitsgraden und bekannten Anforde-
rungen, sprechen wir von einem sogenannten einfachen Problem. Dieses ist
mit einfachen Anweisungen zu lösen.
Sobald wir aber entweder den Freiheitsgrad auf mittel erhöhen oder aber
die Anforderungen und die andere Achse jeweils auf wenig bzw. bekannt
stehen lassen, so erhalten wir die Phase der Kompliziertheit. Diese Heraus-
forderungen sind durch Reduktion auf einfache Teilprobleme zu lösen. Wer-
den folgend die Werte erhöht, so befinden wir uns im Bereich des Komple-
xen. Hier kann zwar ebenfalls versucht werden, das Hauptproblem in
Leadership im digitalen Zeitalter
20
Teilprobleme zu zerlegen, wir werden aber dann zu maximal komplizierten
Problemen kommen.
In etwa vergleichbar ist die Stacy-Matrix mit einem Schachspiel. Die Regeln
dazu sind recht einfach, es gibt aber unzählige mögliche Spielzüge, deren
Komplexität mit dem Spielverlauf sogar noch zunimmt.
Wichtig sind insbesondere folgende Erläuterungen:
Einfach Kompliziert Komplex Chaotisch
Eine Aufgabe gilt
als einfach, wenn
die relevanten
Dinge zu ihrer Erle-
digung bekannt
oder weitgehend
bekannt sind.
Eine Aufgabe gilt als
kompliziert, wenn von
den relevanten Dingen
zur Erledigung der Ar-
beit mehr bekannt als
unbekannt ist.
Eine Aufgabe ist als
komplex zu be-
zeichnen, wenn für
die Aufgabenerle-
digung mehr unbe-
kannt als bekannt
ist.
Eine Aufgabe
gilt als chao-
tisch, wenn
sehr wenig
über sie be-
kannt ist.
Charakteristika: Für komplizierte sowie für komplexe Szenarien gibt es un-
terschiedliche Methoden zur Lösung von Herausforderungen. Werden bei-
spielsweise komplexe Herausforderungen mit Tools aus dem Bereich des
Komplizierten gelöst, so stellt sich zwangsläufig Scheitern ein. Genau dies
geschieht derzeit mehrheitlich in Unternehmen und das ist auch genau der
Grund für das Scheitern. Die digitale Transformation ist der Inbegriff des
Komplexen und erfordert demnach auch Lösungen bzw. Tools zu Lösun-
gen aus dem Gebiet des Komplexen. Da aber Unternehmen mehrheitlich im
Taylorismus gefangen sind, fällt ihnen die Transition schwer.
3.1 Transformieren mit Nachdruck
Wie bereits kürzlich beschrieben und definiert ist die digitale Transformation
die Wandlung gepaart mit Adaption und Anpassung.
Digital Business Transformation wiederum befasst sich mit der Planung,
Steuerung, Optimierung und Umsetzung der Wertschöpfungskette eines
Unternehmens in der digitalen Ära.
Im Zentrum steht die Identifikation von Auswirkungen der Digitalisierung auf
bestehende Geschäftsmodelle, die Umsätze, Erlösströme und Differenzie-
rungsmerkmale eines Unternehmens im Markt.
Ganze Wertschöpfungsketten verändern sich und nicht nur einzelne Funkti-
onen und Unternehmensbereiche sind betroffen. Die nachhaltige Verände-
rung und Neuausrichtung von Kommunikation, Marketing, Vertrieb und Ser-
vice sind essenziell. Digital Business Transformation nutzt die Vorteile und
Leadership im digitalen Zeitalter
21
Potenziale der Integration und Implementierung neuer Technologien als
Chance für einen Wandel bestehender Geschäftsmodelle und für die Gene-
rierung neuer Geschäftspotenziale heraus aus technischen, funktionalen
und nutzerorientierten Innovationen.
Transformation als Bestandteil impliziert eigentlich einen Prozess, der einen
Anfang und ein Ende hat. Nun könnte angenommen werden, dass lediglich
ein wie auch immer geartetes „Delta" aufholen muss, um digitalisiert zu
sein. Das ist aber grundlegend falsch, denn auch wenn dieses „Delta" benö-
tigt wird, um überhaupt wieder konkurrenzfähig zu werden, so muss an-
schließend ein stetiger Veränderungs- und Lernprozess in Gang gesetzt wer-
den und mit „digital" muss wiederum impliziertsein, dass die Veränderung
in der Gesellschaft und damit in der Wirtschaft nur von Informationstechno-
logien getrieben ist. Das ist nicht grundlegend falsch. Wir werden aber im
Folgenden sehen, dass sich ebenfalls viele völlig analoge Bereiche geändert
haben.
Laut Alain Veuve, einem Vordenker im Bereich der Digitalisierung, wäre ein
Begriff wie Perpetual Disruption, was so viel wie unaufhörliche, umbre-
chende Veränderung bedeutet, deutlich besser geeignet. Er macht auf der
einen Seite klar, dass sich der Veränderungsprozess immerwährend fort-
setzt und dass er auf der anderen Seite eine umbrechende oder tiefgrei-
fende Dimension hat.
Was aber sind die Gefahren der digitalen Transformation?
Der energiefressende Marathon ohne erklärtes Ziel bzw. wird der Läufer da-
bei kurz vor der Zielgeraden ein ums andere Mal nach hinten versetzt. Der
sicher geglaubte Sieg wandert wieder in weite Ferne, die Motivation schwin-
det. Zudem kommt erschwerend hinzu, dass sich der Einsatz mit der verstri-
chenen Zeit der Entscheidungsfindung bzw. dem bewussten Abwarten er-
höht.
Es scheint derzeit so zu sein, dass viele Firmen die digitale Transformation
komplett verschlafen. Und das, obwohl fast jedes Unternehmen wie ver-
rückt digitalisiert.
Dies ist kein Widerspruch in sich, wie auch kein Fehler im Text. Somit lässt
sich bereits hier erkennen, dass die digitale Transformation ohne transfor-
mierte Unternehmen wirkungslos ist." Und genau das gilt es, besser zu ma-
chen. Es bedarf neben der Wandlung auch eine Adaption, welche sich unter-
nehmensweit in alle Bereiche erstreckt und selbst das ist nur ein kleiner Teil
des Wandels. Ein erfolgreiches Unternehmen beginnt außerhalb der Unter-
nehmensmauern und somit gilt es, den Markt und den Kunden sowie dessen
Ansprüche und Bedürfnisse noch besser und vor allem noch schneller zu ver-
stehen.
Leadership im digitalen Zeitalter
22
Eine besondere Tragik stellen kleine wie auch der überwiegende Anteil der
mittelständischen Unternehmen dar, da die Aufgabe von altbewährten
Strukturen hier immer auch ein Risiko darstellt. Jedoch sind genau diese Un-
ternehmen mengen- und flächendeckend am Markt vertreten. Der Wandel
selbst wirkt zudem als Entscheidungsfaktor. Er teilt Unternehmen in Gewin-
ner und Verlierer. Sich früh auf die erfolgreiche Seite zu stellen bzw. sich an
die neuen Begebenheiten anzupassen, kann sich hier also auszahlen. Wei-
terhin sind die Kunden der Treiber des Wandels und nicht etwa die Techno-
logie. Deutlich mehr als früher zahlt es sich also aus, seine Kunden besser zu
kennen. Schließlich ist die digitale Transformation nicht billig. Allerdings
stellt sie eine Investition in die Zukunft dar.
3.2 Überleben im digitalen Zeitalter
Was ist nun aber das Erfolgsrezept, um im digitalen Zeitalter zu überleben?
Letztlich ist es die konsequente Beachtung und Befolgung von sechs Dimen-
sionen:
• Radikale Nutzerzentrierung,
• Incubator und geschützter Raum,
• Innovation und Disruption,
• Lean Startup und Entrepreneur DNA,
• Change,
• Prozesse und Technologien.
Von diesen Faktoren müssen alle erfüllt sein. Es hilft nichts, manche mit
120 % zu realisieren, wenn durch das Loch im Boden z. B. schlechten
Change die gewohnte Struktur auf unsicheren Beinen steht.
Gehen wir daher genauer auf die einzelnen Dimensionen ein:
Radikale Nutzerzentrierung: Personen, allen voran der Kunde, aber auch
der Mitarbeiter, rücken radikal ins Zentrum eines jeden Unternehmens. Fra-
gen hierbei sind u. a.:
• Wer ist eigentlich meine Zielgruppe?
• Und was braucht sie wirklich?
• Wie führe ich meine Mitarbeiter und motiviere sie intrinsisch?
Mit methodischen Ansätzen wie beispielsweise dem Design Thinking oder
dem Lego Serious Play entstehen Produktinnovationen und Geschäftsmo-
delle mit einem radikalen Fokus auf den Kunden. Aber auch mit User-
Leadership im digitalen Zeitalter
23
Journey-Analysen, Eye Tracking, Big Data und ähnlichen Ansätzen wird ver-
sucht, mehr auf den Kunden bzw. den Nutzer einzugehen und diesen bzw.
seine Bedürfnisse besser zu verstehen.
Incubator: Die meisten Unternehmen sind zu träge, um die benötigten
neuen Konzepte in kurzer Zeit umzusetzen. Innerhalb eines Incubators oder
einer Digitaleinheit, die von den umgebenen Unternehmensstrukturen wei-
testgehend losgelöst sind, entsteht der nötige Freiraum für innovatives Den-
ken und agiles Testen, direktes Umsetzen sowie die Realisierung schneller
Erfolge am Markt. Dies hat den den positiven Nebeneffekt, dass business as
usual nach wie vor möglich ist und zudem der Unternehmensalltag nicht auf
den Kopf gestellt wird. Ein Incubator kann entweder ein eigenes Digitalteam
sein, welches mit den entsprechenden Befugnissen, Freiheiten und Budgets
ausgestattet ist, oder aber es könnte ein eigenes Startup, entweder als Or-
ganisationseinheit oder als separate Entity, gegründet werden.
Innovation und Disruption: Disruptive Technologien müssen integraler Be-
standteil des Unternehmensalltags werden. Durch eine reine Effizienzsteige-
rung und business as usual entstehen jedoch längst keine Innovationen
mehr. Im Kampf um das beste Angebot kann künftig nur der bestehen, der
neue Ideen, andere Blickwinkel und ungewöhnliche Methoden zulässt. Dis-
ruptives Denken müsste also zum Teil der DNA eines jeden digitalen Unter-
nehmens gemacht werden.
Wichtig ist es auch, den Innovationsprozess zu institutionalisieren und sys-
tematisch anzulegen. Hierzu können zahlreiche Methoden verwendet wer-
den wie z. B. Design Thinking, Lean Startup, Lego Serious Play, Business Mo-
del Generation, Effectuation und viele andere mehr.
Lean Startup und Entrepreneur DNA: Um den digitalen Wandel voranzutrei-
ben, werden Mitarbeiter benötigt, die eine unternehmerische Digitalkom-
petenz besitzen und damit mehr wie Entrepreneure agieren. Dies muss al-
lerdings bereits in der DNA der Firma verankert werden. Nach der Philoso-
phie des Lean Managements und des Lean Startups werden Geschäftsmo-
delle bereits in frühen Phasen verifiziert und so ggf. ein Scheitern provoziert
oder ein Erfolg prognostiziert.
Change: Im digitalen Zeitalter sind Unternehmen gefordert, sich ständig neu
zu erfinden. Für die Mitarbeiter und die Führungskräfte ist dies eine stetige
und immer schneller werdende Herausforderung. Die digitale Revolu-
tion wird zu einem entscheidenden Treiber von Veränderungen. Letztlich ist
die digitale Transformation ein gigantischer Change-Prozess für jedes Unter-
nehmen. Damit ist das Change Management bei den Veränderungsprojek-
ten ein zentraler Hebel für Erfolg und Akzeptanz.
Leadership im digitalen Zeitalter
24
Prozesse und Technologie: Diese decken schließlich die verbleibenden Be-
reiche ab. Prozesse und Abläufe müssen schneller an die veränderten Bedin-
gungen angepasst werden. Zentrales Element für alle Prozesse spielt daher,
neben dem Menschen, die Technologie, die vorwiegend auf IT basiert. Alle
automatisierbaren Prozesse und Abläufe müssen automatisiert werden. Da-
ten müssen vollumfänglich digitalisiert und zugänglich gemacht werden.
Die digitale Transformation bedingt Gewinner und Verlierer gleichermaßen.
Ausruhen dürfen sich keine Unternehmen, denn Gewinner können im digi-
talen Zeitalter rasch wieder zu Verlierern werden. So gelang es Nokia um die
Jahrtausendwende zum Weltmarktführer für Mobiltelefone aufzusteigen.
Wenige Jahre später verschlief das Unternehmen jedoch den technologi-
schen Wandel zum Smartphone und wurde in weiterer Folge zur Gänze von
dem Markt gedrängt. Heute heißen die Marktführer im Bereich der Mobil-
telefone Samsung und Apple. Vergleichbare Beispiele könnten beliebig fort-
geführt werden. Zahlreiche Branchen waren und sind durch die Digitalisie-
rung von – oftmals mehreren – radikalen Veränderungsprozessen gekenn-
zeichnet. Modernes Leadership erfordert folglich ein ausgeprägtes Bewusst-
sein für Wandel und ein Gespür für potenziell disruptive Technologien.
Für ein tieferes Verständnis steigen wir weiter in die Profile bereits digitali-
sierter Unternehmen ein, um zu verstehen, was diese besonders gut umge-
setzt haben. Die Robert Bosch GmbH hatte z. B. im Jahr 2017 375.000 Mit-
arbeiter und einen Jahresumsatz von knapp 71 Milliarden Euro. Im Krisen-
jahr 2009 machte Bosch knapp 1,2 Milliarden Euro Verlust. Daraufhin kam
es zur strategischen Neuausrichtung und vor allem zur radikalen Konzentra-
tion auf die digitale Transformation, dies vor allem in den Bereichen Vernet-
zung, Daten und Human Resources. Bei Bosch laufen z. B. aktuell über 50
interne Projekte, die sich nur mit der Digitalisierung von Prozessen und mit
der Produktion, vor allem im Bereich Industrie 4.0, beschäftigen. Während
es in der durch die COVID-19-Pandemie bedingte Krisenzeit überall Einspa-
rungen gab, blieb der Etat für Forschung und Entwicklung stets konstant. In-
nerhalb von wenigen Jahren gelang die Kehrtwende zum größten Umsatz in
der Konzerngeschichte.
Ähnliches gilt für das Beispiel Porsche: Es wurde festgestellt, dass 80 % aller
Porsche-Kunden iPhone-Nutzer sind. Dadurch wurde sich auf Themen wie
Smart Home, Connected Car usw. konzentriert. Die Steuerung der Montage
ist komplett RFID-basiert. Es wurde ein intelligentes CRM-System auf Basis
von SAP HANA installiert, um schnelle treffgenaue Angebote zu ermögli-
chen. Es gibt ein Intranet, namens Carrera Online, und ein sogenanntes
Enterprise Social Network, weil Transparenz und Offenheit in der Kommuni-
kation oberstes Ziel sind.
Leadership im digitalen Zeitalter
25
Media Markt gilt als technischer Fixposten am Markt. Das Einstellen der Mit-
arbeiter auf agiles Arbeiten und das schnelle Umsetzen neuer Geschäftsi-
deen war dort einer der Ansätze. Ideen gab es ebenso im Vertrieb, indem
der Bedarf mit Predictive Analytics treffsicher analysiert und prognostiziert
werden konnte. Die Umsätze waren IT-getrieben, die Produktverfügbarkeit
konnte vor Ort per App ermittelt werden, der digitale Kassenzettel wurde
erfunden.
Zalando. Als Startup im Jahr 2008 gegründet hat Zalando heute 17 Millionen
aktive Kunden, ist in 15 Ländern vertreten, hat über 10.000 Mitarbeiter und
gilt als der größte Online-Shop im Bereich Mode weltweit. Eine neue Arbeits-
struktur setzt auf autonome agile Teams, die eigenverantwortlich Entschei-
dungen treffen. Damit das funktioniert, muss jeder Mitarbeiter immer auf
alle Informationen zugreifen können. So werden alle Daten in der Cloud den-
jenigen zur Verfügung gestellt, die sie benötigen. Das Instrument zur Mitar-
beiterführung war und ist OKR, welches anschließend noch näher vorgestellt
wird. Jedoch zeigen einige Formen des Handels nicht nur positive Ausprä-
gungen. Augenzwinkernd wird gescherzt, ob nun der sog. „Schrei vor Glück“
beim Kunden oder in der Logistikabteilung stattfindet, wenn Bestellungen
als Retoure an den Versandort zurückkehren. Durchschnittlich 80 % aller be-
stellten Artikel werden wieder zurückgegeben, was einen hohen Kostenfak-
tor und einen immensen Logistikaufwand darstellt. Im klassischen Handel
wäre dies undenkbar.
3.3 Das moderne Unternehmen
Wie sieht nun aber das neue Unternehmen der Zukunft aus, das sich perfekt
an alle Aspekte des digitalen Zeitalters angepasst hat?
Hier gibt es zunächst den Aspekt Wechsel mit folgenden Charakteristika:
• Lösen von traditionellen Geschäftsmodellen.
• Konsequentes Überarbeiten bestehender Produkt- und Serviceport-
folios.
• Aufgeben von obsoleten Produkten und Services.
• Radikale Konzentration auf den Kunden.
• Ggf. Expansion, da nationale Märkte oft zu klein sind, um eine lang-
fristige Wachstumsstrategie zu überstehen.
Die Potenziale liegen daher meist in anderen Branchen. Über den eigenen
Sektor bzw. die Branche hinauszudenken, ist sehr wichtig. Ebenso ist es re-
levant Joint Ventures einzugehen, anstelle von Competitions und
Leadership im digitalen Zeitalter
26
Wachstumschancen in neuen Bereichen oder Branchen zu nutzen. Der Ge-
winner in diesem Aspekt ist die Technologiebranche, während die Verlierer
Handels-, Finanz- und Versicherungs- sowie Energieunternehmen sind.
Ein weiterer Aspekt ist die Ausgestaltung: Es wird eine flexible Innovations-
und Investitionskultur durch Technologiesprünge, kürzere Produktlebens-
zyklen oder sich wandelnde Kundenbedürfnisse notwendig. Zeitgleich steigt
aber der Kostendruck. Daher sind Strategien für eine effiziente Kostensen-
kung und Controlling gefragt. Die Organisation und die Prozesse müssen
schlanker, flexibler und effizienter gestaltet werden. Die Investition in die
Erhöhung der Geschwindigkeit der Geschäftsprozesse, also Time-to-Mar-
ket, und in den Ausbau der Forschungs- und Entwicklungsaktivitäten sollten
höchste Priorität haben.
Aspekt Neuausrichtung: Produkte und Vermarktung müssen an den zuneh-
mend digitalen, individualisierten und unabhängigen Kunden ausgerichtet
werden. Informationen über Produkte und Leistungen müssen deutlich
transparenter und immer erreichbar platziert werden. Firmen müssen inno-
vative Strategien und attraktive Konzepte zur Kundenansprache entwickeln,
um den Konsumenten in den Weiten des digitalen Universums überhaupt
noch zu erreichen. Die bestehenden Produkt- und Dienstleistungsportfo-
lios müssen an die Bedürfnisse der Digital Natives angepasst werden.
Aspekt Orientierung: Zukünftige Erfolgsfaktoren müssen von Anfang an be-
rücksichtigt werden wie z. B. die Kundenbindung, die Innovationsfähig-
keit, flexible Strukturen und Prozesse, ein flexibles Personalmanage-
ment, eine intelligente Nutzung von Daten und strategische Kooperationen.
3.4 Digitaler Reifegrad
• Die Fragen, welche sich Unternehmen aktuell stellen müssen, sind u.
a.:
• Welche Bereiche sind bereits ausreichend digitalisiert?
• Wie hoch ist der Reifegrad der Digitalisierung (auf einer Skala von
„Digital Immigrant“ bis „Digital Native“)?
• Welche Bereiche müssen wie verändert werden, um sie fit für das
digitale Zeitalter zu machen?
Eine Möglichkeit zur objektiven Einordnung dieser Fragen kann das von der
Pluswerk AG entwickelte Digital Maturity Level geben, welches die relevan-
ten zehn Dimensionen der digitalen Transformation repräsentiert. Hieraus
können anschließend Handlungsempfehlungen abgeleitet werden, um den
Digitalisierungsgrad nachhaltig anzuheben und dauerhaft zu stabilisieren.
Leadership im digitalen Zeitalter
27
Die „zehn Gebote“ sind definiert durch:
1. Strategy = digitaler Reifegrad des Unternehmens.
2. Leadership = Management und Rollen.
3. People = Human Resources, Zielsysteme, Personalentwicklung.
4. Culture = Kultur und Kulturentwicklung.
5. Processes = Prozesse und deren Umsetzung.
6. Products = Innovationsfähigkeit.
7. Technology = Technologie sowie Soft- und Hardware.
8. Data = Daten sowie deren Verwaltung.
9. Customer = Kundenfokus.
10. Governance = Umsetzung der Digitalstrategie.
Durch die zehn Bereiche wurde eine Möglichkeit geschaffen, ein oftmals
schwer erkennbares Bild so in Teilbereiche aufzuschlüsseln, dass es greif-
bar wird und zudem bereits erste Einblicke über die Stärken und Schwä-
chen gegeben werden.
Nachfolgenden werden die jeweiligen Dimensionen genauer ausgeführt.
Strategy: Die Digitalstrategie des Unternehmens, z. B. dargestellt durch eine
digitale Roadmap, zeigt den Reifegrad der Digitalisierung im jeweiligen Un-
ternehmen. Dabei muss die Unternehmensführung eine entsprechende Di-
gitalstrategie entwickeln, die die Veränderungen im Konsumentenverhal-
ten, aber auch z. B. destruktive technologische Entwicklungen sowie die Än-
derungen im Arbeitsverhalten oder in der Komplexität beinhaltet. Diese Di-
gitalstrategie muss sowohl dokumentiert als auch im gesamten Unterneh-
men ausreichend kommuniziert werden. Selbst wenn keine Digitalisierung
im Unternehmen stattfinden soll, ist dies entsprechend zu deklarieren und
zu kommunizieren. Ein Grund hierfür ist, dass das Unternehmensbekenntnis
jedem Mitarbeiter bekannt sein sollte und ebenso, welches Motiv die Ursa-
che für das weitgehend gleichbleibende analoge Unternehmen ist.
Eine komplette Verneinung der Digitalisierung ist zwar nicht gleichbedeu-
tend mit dem unmittelbaren Bankrott, jedoch schwindet zumeist die Kon-
kurrenzfähigkeit in diversen Belangen enorm. Ausnahmen bestätigen auch
hier die Regel, jedoch sind solche Unternehmen meist in Nischenmärkten
angesiedelt und haben als Gemeinsamkeit eine lange Tradition sowie ein ex-
klusives Klientel. Gleichzeitig muss die Digitalstrategie in regelmäßigen Ab-
ständen hinterfragt, angepasst und mit neuen Erkenntnissen und technolo-
gischen Fortschritten angereichert werden.
Leadership im digitalen Zeitalter
28
Leadership: Die Rolle des Führungsteams bei der Umsetzung der Strategie
steht im Vordergrund. Das Topmanagement, aber auch das mittlere Ma-
nagement, muss ein Bewusstsein für die Notwendigkeit des Wandels erler-
nen. Genauso muss es neuen Methoden sowie Technologien gegen-
über nicht nur offen sein, sondern diese ggf. sogar selbst erlernen und, so-
fern nicht vorhanden, für das jeweilige Unternehmen erdenken, praktizieren
und regelmäßig verfeinern.
Es zählen vor allem das Commitment im Management und die herrschende
Führungskultur. Zudem ist es wichtig, herauszufinden, welche Funktionsbe-
reiche im Unternehmen bereits involviert sind.
Je mehr Bereiche bereits digital denken und arbeiten, desto erfolgreicher
wird das Unternehmen bei der Umsetzung der Transformation sein.
Gleichzeitig muss festgestellt werden, ob die Kompetenz der Führung und
die Umsetzung der Digitalstrategie in einem günstigen Verhältnis zueinan-
derstehen, denn ein zu schneller Wandel kann auch zu großen Problemen
führen. Genau dieser Umstand ist der Schwerpunkt dieses Skriptums: Füh-
rung im digitalen Kontext auf Unternehmensebene als Instrument des
Wandels – wie auch operative Führung aufgrund digitalisierter Prozesse im
Unternehmen. Hier liegt der Fokus zum einen auf den Schwierigkeiten wie
auch auf den Besonderheiten, welche die digitale Transformation mit sich
bringen, und zum anderen darauf, welche Fähigkeiten Führungskräfte benö-
tigen, um dem neuen Setting gerecht zu werden. Der absolute Mehrwert ist
erst dann gegeben, wenn eine bestmögliche Synergie zwischen Mensch und
Moderne geschaffen wird. Hier sei jedoch bereits vorab verraten: Die eine
Antwort gibt es nicht – weder von binärer Seite noch in Bezug auf Führungs-
ansätze. Eine solche Synergie fordert einen kontinuierlichen, offenen Wer-
degang, indem laufend Maßnahmen etabliert werden, welche aus der zuvor
abgeleiteten Erfahrung gewonnen wurden. Somit sind der Wille zur Verän-
derung und das Bewusstsein, das Neues nur mit neuem Denken bestmöglich
gelingen kann, unerlässlich.
People: In der dritten Dimension, People, sind vor allem zwei Aspekte maß-
gebend: Das Employer Branding, also die Attraktivität des Arbeitgebers, und
die Führung der Mitarbeiter. Die digitale Arbeitswelt erfordert neue Qualifi-
kationen für Führende wie Geführte gleichermaßen. Die „neue“ Führungs-
kraft trägt hier jedoch eine Doppelbelastung. Der Leadership-Ansatz des Un-
ternehmens ist relativ zum Digitalisierungsgrad und zudem unentdecktes
Terrain. Wichtig ist vor allem, wie von Seiten der Führungskraft gehandelt
wird und auf was es zu achten gilt – und dem nicht genug – das Hineinver-
setzen in die geführte Person. Sofern überhaupt digitale Kompetenzen für
den Umgang mit der neuen Materie vorhanden sind, betreffen diese nur ei-
nen Bruchteil des veränderten Arbeitsalltags. Es ist also wichtig, sich mit
Leadership im digitalen Zeitalter
29
folgenden Fragen zu beschäftigen und passende Antworten auf sie zu fin-
den: Was ändert sich, wie und weswegen? Was hat noch bzw. nun Bestand,
welche Unsitten, die früher das Mittel der Wahl waren, gilt es, zu vermei-
den? Die Innensicht der Protagonisten wird im weiteren Verlauf des Skrip-
tums im Detail behandelt, in diesem Abschnitt galt es allerdings, dies ledig-
lich grob zu skizzieren.
Klare Anforderungsmodelle und entsprechender Freiraum für die digitale
Fortbildung bilden eine notwendige Voraussetzung, ebenso repräsentieren
agile Ansätze zur Mitarbeiterführung und Zielvereinbarung Notwendigkei-
ten.
Weiter sind zwei Herausforderungen maßgeblich: Zum einen ist es not-
wendig, Know-how-Träger und Experten zu produzieren, zu draften bzw.
abzuwerben, und zum anderen den bestehenden Mitarbeitern die Furcht
vor dem Neuen bzw. Unbekannten zu nehmen und diese entsprechend
intrinsisch zu motivieren.
Culture: In der vierten Dimension, Culture, liegt der Fokus auf der eigenen
Unternehmenskultur. Ein ausgeprägtes Leitbild, eine Vision, Mission, Ziele,
ein Zweck und stimmige Werte, welche benötigt werden, um den Wandel zu
ermöglichen sowie diesen bestmöglich zu unterstützen, werden vorausge-
setzt. Somit wird auch in Zeiten des Zweifels bei aufkommenden Schwierig-
keiten und Widerständen ein omnipräsentes Gesamtbild geboten. Es bedarf
zudem einer Innovationskultur, die den Wandel vorantreibt. Neue, moderne
Ansätze, wie die Verwendung von frischen Innovationsfindungsmetho-
den beschleunigen den Kulturwandel im Unternehmen. Diese sind z. B. De-
sign Thinking, Lean Startup, Lego Serious Play u. v. m., die den Aufbau von
internen Entwicklungsstätten im neumodernen Kontext auch in Incubators
fördern, sowie das regelmäßige Durchführen von Kunden- und Entwickler-
wettbewerben und anderen Formen der Open-Innovation-Culture. Zudem
sind die Kulturmodelle von Zusammenarbeit und Führung ein notwendiger
Bestandteil dieser Dimension.
Processes: Die fünfte Dimension, Processes, beschäftigt sich mit den Abläu-
fen und Prozessen im Unternehmen. Suboptimale bzw. unreife Prozesse ver-
ursachen nicht nur erhebliche Kosten, sondern verschwenden Ressourcen,
die für eine erfolgreiche Transformation benötigt werden.
Ein maßgeblicher Unterschied bei der Digitalisierung ist zudem, dass nicht
nur die klassische Projektarbeit an sich zunimmt, sondern vor allem die An-
zahl abteilungsübergreifender Projekte.
Im Inneren der Organisation muss daher eine neue Richtung gewählt wer-
den, von starren Prozessen hin zu agilen Abläufen. Agiles Handling, ungeach-
tet unter welchem Namen bzw. unter welcher Methode es praktiziert wird,
Leadership im digitalen Zeitalter
30
ist schon seit einigen Jahren eine unabdingbare Eigenschaft. Dies ist nicht
nur der Digitalisierung geschuldet, jedoch wurde der notwendige Agilitäts-
faktor durch die digitale Revolution deutlich erhöht. Dies führt zugleich auch
zu dem Umkehrschluss, dass diejenigen, die sich bis dato dem „bewegli-
chen“ Ansatz verweigert haben, es in Zukunft umso schwerer haben werden,
auf Augenhöhe mit der Konkurrenz zu bleiben. Langfristig ist somit ein Still-
stand als Rückschritt zu sehen und anhand der aktuellen Marktveränderung
ein Schattendasein bzw. gar ein Ausscheiden zu befürchten. Agile Metho-
den, wie Scrum, Design Thinking usw. sowie Lean-Methoden, Lean Manage-
ment, Lean Startup, Kanban usw. gewinnen im Zuge des digitalen Wandels
immer mehr an Bedeutung.
Products: Die sechste Dimension, Products, legt den Fokus auf die Produkte
des Unternehmens. Hierbei ist es unerheblich, ob es sich um reale oder digi-
tale Produkte oder Dienstleistungen handelt. Es ist in jedem Fall notwendig,
dass die Kernelemente des Nutzenversprechens als Service definiert wer-
den. Ebenso muss das Geschäftsmodell auf digitale Tauglichkeit über-
prüft und ggf. nachgebessert werden. Zudem ist es notwendig, dass der
Markt und andere Kanäle einbezogen werden, um eine aussichtsreiche Po-
sitionierung zu ermöglichen. Digitalisierung per se ist kein einziges Effizienz-
projekt, sondern ein Vorteil von vielen. Effizienz ist jedoch in der heutigen
Zeit mit den Kernprägungen wie Globalisierung und dem zunehmenden Kos-
tendruck, welcher im Gleichschritt mit steigenden Kosten vorangeht, eine
gern gesehene „Schraube“, an der sich drehen lässt. Neue digitale Produkte
und Dienstleistungen führen zu einer Wandlung des Geschäftsmodells mit
(meist) enormen Kundenvorteilen. Ein gutes Beispiel ist hier die staatliche
Bürokratie mit dem Leitsatz der langsam mahlenden Mühlen. Durch die Ein-
führung der Handy-Signatur ist es möglich, viele Amts- und Behördenwege
orts- und zeitunabhängig zu erledigen, ganz ohne lästige Suche nach der
richtigen Ansprechperson, Örtlichkeiten, Öffnungszeiten und weiteren
Nachteilen und dies in der Regel kostenlos. Ein weiterer Vorteil, nämlich
neue Produkte und/oder Dienstleistungen im Unternehmensportfolio zu ha-
ben, hilft dabei, in zusätzliche Geschäftsfelder vorzudringen bzw. die gewon-
nene Marktstellung zu sichern.
Technology: In der siebten Dimension, Technology, werden alle Technolo-
gien analysiert und anschließend bewertet, die das Unternehmen zum eige-
nen Erhalt wie auch zur Serviceunterstützung für den alltäglichen Betrieb
und für seine Dienstleistungen und Produkte als Unterstützung benötigt.
Maßgeblich sind hier u. a. die IT-Strukturen, denn die Ablösung oder Erneu-
erung veralteter IT-Strukturen sind meist Teil der (neuen) Roadmap. Ein Bei-
spiel hierfür ist die „Rationalisierung“ von Hardware im Unternehmen auf-
grund der Cloud-Technologie, wo Server und deren Services einfach
Leadership im digitalen Zeitalter
31
gehostet werden. Der Fokus kann auf das Kerngeschäft gelegt werden: Un-
terbrechungsfreier, zugesicherter Service, inkludiertes Fachpersonal, mo-
derne Hardware, leichte Skalierbarkeit und keine Personalkosten für War-
tung/Betrieb sind nur einige der Vorteile, welche den Trend zur „Cloud“ er-
klären.
Der essenzielle Punkt beim binären Wettrüsten besteht darin, digitale Lö-
sungen für analoge oder teildigitale Prozesse zu schaffen. Schlussendlich
geht es um die Verknüpfung von intelligenten Technologien und vorhande-
nen, meist ineffizienten Systemen. „Ineffizient“ ist jedoch ein undankbares
Adjektiv und zum Teil nicht gerechtfertigt. Systeme sind und waren perfor-
mant und erfüllten zur vollsten Zufriedenheit ihre Aufgaben (in vergangenen
Zeiten), jedoch zeigen sich oftmals durch neue technische Möglichkeiten la-
tente Schwächen und daraus resultierende Verbesserungspotenziale. Sinn-
gemäß hierfür: Bevor die Glühbirne erfunden wurde, war die Menschheit
auch mit einer Kerze sehr zufrieden. Diese erhellte den Raum in finsteren
Momenten. Thomas Alva Edison brachte letztlich die sprichwörtliche „Er-
leuchtung“, ein Substitut. Da die Vorteile immens waren, war die Wachab-
löse lediglich eine Frage der Zeit.
Allgemein gilt daher: Die Technologien und Möglichkeiten von heute sind
durchweg optimal und im Rahmen des Möglichen. Jedoch ist ständig zu
hinterfragen, ob diese auch noch morgen und in Folge die bessere Alterna-
tive sind.
Data: In der achten Dimension, Data, werden alle Arten von Daten betrach-
tet, die im Unternehmen produziert und verarbeitet werden. Richtiger
müsste es jedoch heißen: Daten nicht nur im jeweiligen Unternehmen, son-
dern Daten von jeglicher Quelle. Beispiele wären Geschäfte, Bonuskarten,
Webseiten, Cookies, Verkehrssysteme mit Aufzeichnung von Fußgängern
und Fahrzeugen jeglicher Bewegung, Suchmaschinen und Social-Media-
Plattformen, welche grundsätzlich alles, was sie (in aller Regel mit Einwilli-
gung) aufzeichnen, verwerten. Nicht umsonst gelten Daten als das Öl der
Zukunft und dies ist die Geburtsstunde des Datenkapitalismus und Ideenge-
bers für neue Geschäftszweige. Noch nie wussten Unternehmen so viel über
ihre Kunden, Märkte und Produkte wie in der heutigen Zeit.
Stellen Sie eine Kosten-Nutzen-Rechnung betreffend einer Supermarkt-Kun-
denkarte an. Welche Vorteile haben Sie davon und welche Nachteile?
Eine Antwort lautet vermutlich eine Preisreduktion aufgrund von Zugehörig-
keit. Dies ist korrekt und nicht von der Hand zu weisen. Jedoch bezahlen Sie
auch für diese Reduktion und zwar mit der Zurverfügungstellung Ihrer Da-
ten. „Das Haus verliert nie“ – dieser Spruch gilt für das Casino wie auch für
die Ausgeber solcher datengetriebenen Kundenkarten. Anhand diverser
Leadership im digitalen Zeitalter
32
Berechnungen lässt sich pro Kunde und dessen gewonnener Abhängigkeit
(vormals Treue) langfristig ein Gewinn erwirtschaften, angereichert mit zahl-
reichen positiven Nebeneffekten: Definierung von Kundengruppen, Seg-
mentierung ihrer Motive und Trigger sowie weiterer manipulativer Möglich-
keiten, welche anhand historischer Daten gegeben sind. Abschließend zum
Exkurs Kundenkarte soll Folgendes bemerkt werden: Diese sind nicht per se
„schlecht“ – jedoch sollte sich jeder Verwender darüber bewusst sein, was
mit seinen Daten geschieht und ob dies auch im Einklang mit der Vorstellung
seiner Person steht.
Die Datenproduktion steigt im Allgemeinen – teils explosionsartig – an. IOTs
(Internet of Things), Smartphones, Smart-Homes sind maßgebliche Auslöser,
aber auch die aufstrebende (chinesische) Wirtschaft darf hierbei nicht außer
Acht gelassen werden. In den nächsten Jahren erhalten kontinuierlich mehr
Menschen und Maschinen einen Zugang zum Internet, was dem Ausbau der
Infrastruktur, dem generellen Wirtschaftsaufschwung, billiger werdender
Technik und vielem mehr geschuldet ist. Im Durchschnitt besitzt eine Person
jedoch deutlich mehr als eine Gerätschaft. Somit ist bereits bei einem ge-
ringgradigen Multiplikator die Milliardengrenze erreicht. Notgedrungen war
es somit notwendig, den Adressraum von IP4 auf IP6 zu erhöhen. Jedes mit
dem Internet verbundene Gerät benötigt eine einzigartige gültige Adresse,
ähnlich einer Sozialversicherungsnummer, um mit dem Internet kommuni-
zieren zu können. Beim alten Standard IP4 sind vier Milliarden Adressen (=
Gerätschaften) möglich, bei acht Milliarden Menschen und der Möglichkeit,
mehr als ein Gerät pro Person zu besitzen, ist ein Mangel vorprogrammiert.
Durch die Aufstockung auf IP6 ist dieses Problem gelöst: 340 Sextillionen Ad-
ressen stehen nun zur Verfügung. Anders ausgedrückt: Seit der Entstehung
unseres Planeten, geschätzt vor ca. 4,5 Milliarden Jahren, und bei der
Vergabe einer Milliarde IP-Adresse pro Sekunde seit Anbeginn wären heute
dennoch noch ausreichend IPv6-Adressen vorhanden. Mit der Einfüh-
rung/Wandlung auf IP6 ist somit der Grundstein für eine nahezu unendliche
Digitalisierung gegeben. Jede Person kann seine Wohnräumlichkeit, seinen
Körper (Smart-Watches, Wearables etc.) sowie andere Lebensräume mit fast
unendlich vielen technologischen Elementen verknüpfen.
Wieder im eigenen Unternehmen angekommen – durch die Nutzung der
Produkte und Services entstehen immense Datenmengen. Unternehmen
sind momentan kaum mehr dazu in der Lage, diese Daten entsprechend zu
strukturieren, auszuwerten und Informationen daraus abzuleiten ge-
schweige denn, diese gewinnbringend einzusetzen. Dabei lässt sich das in
den Rohdaten verborgene Wissen als enormer Wettbewerbsvorteil nutzen,
um die Angebote abzustimmen bzw. zu optimieren. Eine Optimierung ist
möglich, da anhand neu gewonnener Muster neue Erkenntnisse geschaffen
Leadership im digitalen Zeitalter
33
werden können, welche zudem die Konkurrenz (noch) nicht erkoren hat –
weswegen sie im Wettbewerb zurückfällt. Da kein Unternehmen der
Schlussläufer sein möchte, sind Big Data und Business Intelligence in jedem
größeren Unternehmen ein notwendiges Thema geworden. Kleinere Unter-
nehmen haben hier oft nicht die technischen Möglichkeiten und auch nicht
das Datenaufkommen. Dieses Bedürfnis nach Daten brachte findige Firmen
auf den Markt, die Daten kaufen, entsprechend auswerten und die daraus
gewonnen Informationen und Erkenntnisse an kleine wie auch große Unter-
nehmen weiterverkaufen. Jedoch umfassen diese Daten nur eine Teilmenge
und somit eine Wahrheit, jedoch nicht die Wahrheit, da sich Unternehmen
hüten, die Daten ihrer Kunden und Transaktionen weiterzugeben – einer-
seits aufgrund datenschutzrechtlicher Belange und andererseits, und dies
wiegt deutlich schwerer, weil dem Marktteilnehmer eine Sichtweise in das
Unternehmen gewährt werden würde und die gewonnenen Erkenntnisse
umso valider würden, je mehr Daten über den entsprechenden Marktteil-
nehmern generiert wurden. Das wiederum würde dazu führen, dass viele
Unternehmen aussagekräftige Daten und Informationen hätten und eine
Differenzierung nur schwer möglich wäre, da alle gleiche oder ähnliche ge-
winnbringende Maßnahmen setzen würden. Die Wettbewerbsvorteile wä-
ren damit sprichwörtlich „dahin“.
Umgekehrt gilt: Wem es gelingt, die wichtigen Daten, optimalerweise in
Echtzeit, zu erkennen und als strategische Ressource zu verarbeiten, ver-
schafft sich einen langfristigen Vorsprung im Wettbewerb.
Customer: Die Sicht auf den Kunden reflektiert das vermutlich wichtigste
Element in der digitalen Transformation. Der ständige, tägliche Umgang mit
der digitalen Welt hat nicht nur die Nutzungsgewohnheiten maßgeblich ver-
ändert, er hat zudem auch einen gewaltigen Einfluss auf die Erwartungshal-
tung an die Unternehmen.
Ein Selbsttest für das eigene Smartphone-Verhalten wäre z. B. App Checky,
verfügbar für Android und IOS, mit garantiertem Aha-Effekt für die Nutzen-
den. Die App zeichnet u. a. auf, wie oft das Smartphone am Tag verwendet,
entsperrt und aktiv genutzt wird. Schätzen Sie vorab Ihre Daten. Am besten
lassen Sie die Tests über einige Tage laufen, sodass das Handling unbewusst
dem Realbetrieb angepasst wird und vergleichen Sie die prognostizierten
Daten mit den ermittelten Daten.
Konsumenten werden heutzutage von einer unterbrechungsfreien Leis-
tungserbringung hofiert und verwöhnt. Kunden wollen besagte Leistung
zeit- und ortsunabhängig erleben und dies in entsprechender Qualität.
Die Kundenloyalität wird in der heutigen Zeit auf die Probe gestellt, denn der
Wechsel zu einer anderen Marke ist für den Kunden heute nur noch einen
Leadership im digitalen Zeitalter
34
kurzen Klick entfernt. Ein bekannter Vertreter ist hierbei die Werbeschaltung
von durchblicker.at – die beste Lösung und der Wechsel wird einfach, feh-
lerfrei und kostenlos realisiert. Das Kundenerlebnis wird damit zu einem,
wenn nicht sogar zu dem Schlüsselfaktor für die Unternehmensstrategie.
Governance: Die letzte Dimension, Governance, mit den Bereichen Steue-
rungs- bzw. Regelungssystem sorgt dafür, dass die zuvor erwähnten Dimen-
sionen anhand der gewählten Strategie auch tatsächlich umgesetzt werden.
Ein entsprechend eingerichtetes Reporting und eine Kommunikationsstrate-
gie sind hier u. a. notwendig. Ebenso benötigt es Policies, Regeln und Proze-
duren. Regelmäßige Audits sorgen für eine regelmäßige Reflexion aller
Schritte. Die Koordination aller Maßnahmen ist hier ebenso inkludiert wie
die Entscheidungsfindung an sich. Eingebettet ist hier auch das Riskmanage-
ment und – last but not least – der Change-Prozess, mit dem alles steht und
fällt.
Zusammengefasst bedeutet die Bestimmung des digitalen Reifegrades
eine aktuelle Diagnose im Voranschreiten der digitalen Transformation.
Dies ist keine Einmalerhebung, sondern bedarf in allen Elementen regel-
mäßiger Updates sowie einem permanenten Abgleich zwischen den inter-
nen Unternehmensgefilden und der digitalen Außenwelt mit all ihren Trei-
bern wie neuen Technologien, Kunden, Mitbewerbern etc.
Umsetzung
Die dargestellten Dimensionen werden wie folgt operativ umgesetzt:
Zuerst werden Workshops und Interviews mit den Unternehmen durchge-
führt und die Ergebnisse eines detaillierten Fragebogens ausgewertet.
Für jede Dimension gibt es zwischen 10 und 15 Kriterien, die zum Teil bran-
chenspezifisch abgestimmt und anschließend abgefragt werden. Die Beant-
wortung eines Kriteriums führt zu einer Bewertung zwischen 0 und 100 %
bzw. ist es auch möglich, ein entsprechendes Scoring-Schema anzuwenden.
Im nächsten Schritt wird der errechnete Score auf ein Netzdiagramm anhand
der jeweiligen Dimensionen aufgetragen. Über die erhaltene Fläche wird der
Digitalisierungsgrad festgelegt. Der nächste Schritt, und weit wichtiger als
die reine Visualisierung, ist die Ermittlung der Standardabweichung. Diese
dient der Erkenntnis darüber, ob Dimensionen untereinander stark vonei-
nander abweichen. Anhand dieser Erkenntnis ist eine Adaptierung der
schwach ausgeprägten Dimensionen notwendig, um eine effiziente Transak-
tion zu ermöglichen. Zusätzlich zur Auswertung werden Dimensionen-Scores
anhand der Handlungsempfehlungen ermittelt, die zu einem nachhaltigen
Anstieg des Scores in dieser Dimension führen.
Leadership im digitalen Zeitalter
35
4 Warum sich Führungskräfte neu erfinden
müssen
4.1 Auswirkung auf das unternehmerische Humanka-
pital
Die Auswirkung der Digitalisierung auf die Personalarbeit ist immens. In die-
sem Abschnitt des Skriptums umfasst dies alle Mitarbeiter gleichermaßen.
Nicht gelebte humanitäre CSR erscheint als eine der größten Ängste des di-
gitalen Zeitalters.
„Ist mein Arbeitsplatz sicher?“ oder „Werde ich durch einen Computer er-
setzt?“ – Dies sind nur einige Fragen in den Köpfen der Menschen in den
heutigen Unternehmen. Es ist eine beängstigende, aber auch eine beeindru-
ckende Vorstellung zugleich – vor Jahren noch reine Fiktion, heutzutage zum
Teil schon Realität und in der Zukunft, wie es scheint, die Norm. Um die Aus-
wirkung der Digitalisierung auf die Arbeitswelt aufzuzeigen, werden zwei
Stellschrauben näher betrachtet: Zum einen die Auswirkung bzw. die Verän-
derung durch die Digitalisierung auf den Arbeitnehmer als Mensch und zum
anderen die Auswirkung der Digitalisierung auf die Unternehmen, das In-
nenleben der Organisation und deren Protagonisten sowie weiterführend
die tägliche Personalarbeit. Wichtig ist hierbei, dass beide Bereiche als
Wechselspiel zu betrachten sind. Der Mensch ist die treibende Kraft im Un-
ternehmen und Teilnehmer am dynamischen Arbeitsmarkt, aber umgekehrt
beeinflussen Veränderungen in den Unternehmen auch die Menschen.
Der Mitarbeiter ist aufgrund seines Wissensträger-Daseins die wohl wich-
tigste Ressource im Unternehmen. Die größte industrielle Revolution aller
Zeiten scheint mit der Digitalisierung eingeläutet zu sein. Wissensarbeit ist
hierbei die wohl wichtigste Fähigkeit im digitalen Zeitalter.
Früher wie heute sind das Wissen und der Drang zum Neuen wichtig. Es geht
darum, Konzepte und Strategien zu entwickeln, um mit den technischen
Möglichkeiten optimal umzugehen und Potenziale bestmöglich auszunut-
zen. Diese Konzepte können von keinem Computer bzw. Roboter kom-
men. Somit rückt der Mensch als Stratege und Visionär in den unmittelbaren
Fokus. Daraus ergeben sich aber auch Anforderungen an die Mitarbeiter. Ein
Nebeneffekt der Digitalisierung ist, dass das gesamte Unternehmen von der
Informationstechnologie durchzogen ist. Auf der einen Seite setzt dies eine
Affinität des Mitarbeiters zur Technik voraus, aber auf der anderen Seite ist
es von Unternehmensseite her wichtig, die Mitarbeiter zu schulen. Schulun-
gen helfen, Kompetenzen aufzuwerten bzw. zu erlangen. Jedoch ist das
Problem häufig, dass bei manchen Personen aufgrund von Alter, Historie,
Leadership im digitalen Zeitalter
36
Ausbildung und Werdegang wenige bis keine IT-Skills vorhanden sind. Hier
vermag auch die beste Schulung keine Wunder zu bewirken. Dann stellt sich
bereits hier die Frage nach einer Zwei-Klassen-Gesellschaft und ob das feh-
lende IT-Wissen einem K.O.-Kriterium gleichkommt, welches kurz- oder
langfristig in einen Jobverlust mündet, da eine Weiterentwicklung für die
neue Herausforderung nicht ertragreich wäre bzw. die Chance für einen Job-
einstieg gar nicht gegeben zu sein scheint.
Humanitäre Coporate Social Responsibility ist somit einerseits ein wesent-
licher Punkt für Führungskräfte und andererseits noch wichtiger für das Di-
gital Leadership auf Unternehmensebene, welchem weit mehr Fokus und
Energie zukommen sollte.
Interne Kommunikation über das Smartphone ist heutzutage gewöhnlich.
Vor einigen Jahren war sie noch ein ironisches Zeichen der „Wichtigkeit“ von
Personen – damals ein kleiner Vorgeschmack, heute selbst im Vorschulalter
kein Grund, die Augen zu verdrehen. Das Unternehmen muss die Mitarbeiter
darin unterstützen, sich den neuen Rahmenbedingungen anzupassen.
Diese Anpassung fordert aber auch einiges von den Mitarbeitern. Das le-
benslange Lernen wurde von einer freiwilligen Ausprägung zu einem Pflicht-
gegenstand. Dass ein Beruf in drei bis vier Lehrjahren erlernt und ca. 40
Jahre ausgeübt werden kann, ist in der digitalen Neuzeit undenkbar gewor-
den. Selbst die Aussage „Die Ausnahme bestätigt die Regel“ ist hier bereits
schwer zu validieren.
Ständig wechselnde Arbeitsbedingungen bedeuten, dass das Lernen, um
sich anzupassen, niemals endet. Ein zentraler positiver Aspekt für die Mitar-
beiter ist die mittlerweile deutlich einfachere Möglichkeit zur Vereinigung
von Beruf und Familie. Die Chancen der Digitalisierung geben dem Mitarbei-
ter etwa die Gelegenheit für flexible Kinderbetreuung, Arbeiten von zuhause
aus und Zeit mit der Familie in der Arbeitszeit.
Das Ende der klassischen „nine-to-five"-Arbeitszeit ist eine grundsätzlich po-
sitive Neuerung, welche u. a. die oben erwähnten Ausprägungen ermöglicht.
Jedoch: Wo Licht, da ist auch Schatten. Allgegenwärtige Erreichbarkeit, Ar-
beiten im Urlaub, absehbares Burn-out durch permanenten Stress bzw.
durch das „Nicht-Mehr-Abschalten-Können“ sind die andere Seite der Me-
daille. Die Ironie hinter dem Terminus „nicht-abschalten“ kann als wahrge-
wordene Analogie gesehen werden: Ist die technische Gerätschaft nicht aus-
geschaltet, ermöglicht dies gleichermaßen nicht das Entkoppeln des Kopfes
vom Berufs- in den Freizeitmodus.
Die fortschreitende Abhängigkeit von digitalen Geräten kann sich auch im
Selbsttest schnell zeigen, wenn etwa das Smartphone bzw. ein anderes Ar-
beitsgerät, welches sich grundsätzlich in unmittelbarer Nähe und im
Leadership im digitalen Zeitalter
37
ständigen Stand-bye-Modus befindet, für eine gewisse Zeit bzw. am Wo-
chenende ausgeschaltet wird. In aller Regel sollte die Entspannung steigen,
jedoch wird eher das folgende unmittelbare Ergebnis eintreten: Der Distress,
die Anspannung und die Furcht, etwas zu versäumen, werden aller Wahr-
scheinlichkeit nach ansteigen. Ein digitaler Teufelskreis beginnt. Zielorien-
tiertes Arbeiten und zielgerichtete Kommunikation, größere räumliche Iso-
lation und flexiblere Arbeitszeiten fordern also neue, gemeinsame Zielver-
einbarungen und Wege hin zur eigenständigen Selbstorganisation.
Dabei darf das Verfolgen der Unternehmensziele wie auch der gemeinsamen
Vision nicht aus den Augen verloren werden. Die Organisation muss sich
ebenso verändern. Moderne Mitarbeiter und fortschrittliche Techniken ver-
puffen ohne Anpassung der unternehmensinternen Prozesse sowie ohne an-
gewandte Modelle und Führungsstile. Die Trennung zwischen Privatzeit und
Arbeitszeit ist oft verschwommen und je nach Tätigkeiten gar nicht zu fixie-
ren, da dadurch die Effizienz deutlich sinken würde. Klassische Modelle be-
rücksichtigen solche Aspekte ebenso wenig wie Regelungen zu Pausen zwi-
schen zwei Arbeitstagen. Neben den Unternehmen muss auch der Gesetz-
geber hier umdenken. Überhaupt ist es das Wichtigste von Organisations-
seite, Prozesse flexibler zu gestalten. Der 12-Stunden-Tag ist ein Versuch, et-
was flexibler agieren zu können, jedoch zeigen sich bereits hier, neben der
gewonnenen Flexibilität, auch entsprechende Schattenseiten aufgrund von
Missbrauch und Druckausübung.
Ein Bewerbungsprozess sollte sich an den Bedürfnissen der Arbeitnehmer
ausrichten. Zudem sollte er individuell und flexibel sein, um den bestmögli-
chen Output zu liefern. Die Organisation hat hierbei jedoch noch viel unge-
nutztes Potenzial. Big Data ist im Bereich der Personalarbeit bislang eher
stiefmütterlich behandelt worden, hätte aber speziell für das Personalwesen
– sei es für die Weiterentwicklung, das Employer Branding oder auch für das
Recruiting – enorme Nutzungsmöglichkeiten.
Durch die Digitalisierung werden zudem große Teile oder oftmals ganze Ar-
beitsbereiche durch computergestützte Maschinen und Roboter auf kurz
oder lang ersetzt werden.
Das betrifft alle Bereiche, die sich komplett automatisieren lassen. Aktuell
wird viel Arbeit und Schweiß investiert, um herauszufinden, welche Bereiche
dies sind und ob sie einen selbst betreffen. Die Antworten sind hier sowohl
mikro- wie auch makroökonomisch von Belang. Die Ausbildungsoffensive
der Regierung und persönliche Weiterbildung sind nur zwei Ausprägungen.
Ersetzen wird der Roboter den Menschen jedoch niemals komplett – eine
Hypothese, spannend wie furchteinflößend zugleich. Aus der Sicht des Au-
tors gilt dies für die nächsten Jahre, danach müssen die Beantwortung und
Leadership im digitalen Zeitalter
38
die Prognose erneut in Frage gestellt werden. Am eigenen Ast sägen ist hier-
bei eine Metapher mit Nachbrenneffekt. Wissensarbeit und konzeptionelle
Arbeit ist in Zeiten der Digitalisierung von Bedeutung wie nie zuvor. Der
Mensch als Denker und Visionär ist das Zukunftsbild des Arbeitnehmers im
neuen digitalen Zeitalter. Ein Seitenhieb auf die Gültigkeit dieser Aussage ist
durch die Künstliche Intelligenz gegeben, die bereits heute dazu in der Lage
ist, eigenständig Lieder zu komponieren und Kinderbücher zu schreiben.
4.2 Anforderungen an das Humankapital
Die Anforderungen der modernen Personalarbeit lassen sich in drei Teilbe-
reiche aufgliedern:
• Personalentwicklung,
• New Work,
• Agilität.
Der Entwicklung des Personals als nachhaltiges Gut im Unternehmen
kommt hierbei besondere Beachtung zu. Die Digitalisierung verändert un-
sere Arbeitsbedingungen mittlerweile permanent. Nicht nur die EDV-Abtei-
lung, sondern alle Teilbereiche des Unternehmens werden von der Informa-
tionstechnologie sprichwörtlich in ihren Bann gezogen. Die Digitalisierung
von jeglichen Prozessen, ungeachtet, ob es sich hierbei um wertschöpfende,
unterstützende oder managende Prozesse handelt, fordert im Unterneh-
men das Lernen des Mitarbeiters wie auch gleichermaßen das der Ge-
schäftsführung. Das Unternehmen muss hier zur Seite stehen und primär im
Bereich der Personalentwicklung unterstützend tätig werden.
Es wird in Zukunft kaum eine Stelle im Unternehmen mehr geben, die sich
innerhalb von fünf bis zehn Jahren nicht gänzlich verändert. Die Ausbil-
dung, das Studium wie auch der Lernprozess bei der Arbeit werden in der
Realität dementsprechend nie zu Ende gehen.
Ein Status, ein Zertifikat, eine akademische Ausbildung etc. wie auch ent-
sprechende Kenntnisse und Fähigkeiten werden als aktuelle Blitzlichter ge-
sehen, welche für den Moment und für die nahe Zukunft Gültigkeit haben,
jedoch in absehbaren Intervallen hinterfragt und nachgebessert gehören.
Die Folge sind Anforderungen an Mitarbeiter und Unternehmen zu-
gleich. Von dem Mitarbeiter fordert dies die Bereitschaft zum lebenslangen
Lernen. Es muss Teil des Bewusstseins werden, dass es keinen Zustand
gibt, in dem alles für den Rest des Arbeitslebens erlernt ist und folgend ein-
fach der Alltag abgearbeitet werden kann. Von Unternehmensseite bedeu-
tet dies hingegen eine große Verantwortung im Bereich der
Leadership im digitalen Zeitalter
39
Personalentwicklung. Das Unternehmen darf die Veränderung der Digitali-
sierung nicht ohne den Mitarbeiter vollziehen. Der Mitarbeiter muss aktiv in
den Prozess miteinbezogen werden. Diese aktive Teilnahme geht deutlich
weiter als eine neue Schulung oder eine neue Software im Unternehmen.
Umso mehr ein Unternehmen es schafft, den Mitarbeiter als aktiven Teil der
digitalen Transformation zu sehen, desto eher wird die digitale Transforma-
tion als Gesamtes vorangetrieben.
Der zweite Bereich ist das Thema New Work. New Work ist eine moderne
Begrifflichkeit, die heutzutage oft in Verbindung mit moderner Führung ge-
nannt wird. New Work ist ein Konzept, das die Veränderung der Arbeit an
sich und die daraus resultierenden Anforderungen an das HR beschreibt.
New Work basiert auf Forschungsarbeiten von Frithjof Bergmann. Kern des
Konzeptes ist das In-den-Vordergrund-Rücken der Aspekte Mitarbeitermoti-
vation, Kreativität und Innovation. Unternehmensstrukturen und Arbeits-
räume haben sich diesen Aspekten anzupassen. Die Folge ist ein Wertewan-
del zu Werten wie Selbstständigkeit, Freiheit und Teilhabe an der Gesell-
schaft. Das Unternehmen steht hier vor der Herausforderung, den Mitarbei-
tern selbstbestimmtes Handeln, Mobilität und weitere Modelle der Zukunft
zu ermöglichen. Der Mitarbeiter soll die Möglichkeit bekommen, sich in der
innovativen Organisation der Zukunft selbst einzubringen und zu verwirkli-
chen. Das Unternehmen muss auf diesen Ansatz vorbereitet und ausgerich-
tet sein. Eine lasche, kaum gelebte Umsetzung eines aktuellen „Trends“ ist
hier allerdings kaum von Erfolg gekrönt und richtet bei einer halbherzigen
Umsetzung mehr Schaden und Verwirrung als Nutzen für die Zielerreichung
an.
Der dritte Bereich ist mit dem Begriff Agilität recht unklar beschrieben bzw.
bleibt das Gemeinte meist im Verborgenen und lädt zum Interpretieren ein.
Somit stellt sich die Frage: „Was genau ist damit gemeint?“. Viele kennen
diesen Begriff aus der Produktentwicklung in Verbindung mit Frameworks
wie z. B. Scrum, Kanban und anderen Vertretern des agilen Wesens. Auch
für den Bereich des Personals bedeutet die Zukunft ein Umfeld, in dem sich
Rahmenbedingungen ständig ändern. Prozesse, die alles vorschreiben, und
eine Vielzahl von Regeln sind in Zeiten einer komplexen Welt unmöglich.
Zielvereinbarungen für ein komplettes Jahr mit einem Mitarbeiter durchzu-
führen, funktioniert im digitalen Zeitalter kaum.
Auch in der Personalarbeit ist hier dementsprechend ein Umdenken ge-
fragt. Agile Methoden wie Management 3.0 oder OKR sind die Modelle der
Zukunft des Personals.
Leadership im digitalen Zeitalter
40
4.3 Die agile Personalarbeit
Agile Personalarbeit ist das Fundament, welches effektive Führung im Ope-
rativen ermöglicht und Digital Leadership den notwendigen Raum zur Ent-
faltung und Veränderung gibt. Doch wie kann Personalführung den Anforde-
rungen an das heutige Zeitalter gerecht werden? Ein zentral wichtiger As-
pekt der agilen Personalarbeit ist das Wegfallen vom sogenannten Abtei-
lungsdenken bzw. eine gelebte Prozessorientierung querfeldein im Unter-
nehmen. Moderne Arbeit muss schnell reagieren können und nah am Markt
bzw. am Kunden ausgerichtet sein. Die Lösung dafür sind selbstorganisie-
rende Bereiche, Einheiten und Teams. Selbstorganisierende Teams sind
kostfunktional aufgestellt. Das bedeutet, diese Teams besitzen alle notwen-
digen Kompetenzen, um ihre Arbeit selbstorganisierend zu erfüllen. Die
Folge solcher Teams sind unmittelbare Marktnähe, eine Entlastung der Füh-
rungskraft und ein hohes Commitment die eigene Arbeit betreffend. Ein
Team fühlt sich mit seinen erbrachten Leistungen deutlich mehr verbun-
den, wenn es für diese selbstorganisierend verantwortlich ist. Außerdem
bringt diese Form eine deutliche Zeitersparnis mit sich. Viele Warteschlei-
fen, weil die Führungskraft als Wissensträger fungiert, entfallen hierdurch.
Selbstorganisierende Teams ergeben dementsprechend mehr Motiva-
tion, schnellere und qualitativ höhere Ergebnisse und mehr Commitment
des Teams für die eigene Arbeit.
Der zweite wichtige Punkt ist Transparenz. Der Wandel zu einer agilen Per-
sonalarbeit ist ein Wandel der Unternehmenskultur und Transparenz ist eine
der wesentlichen Aspekte agiler Methoden.
Transparenz in Verbindung mit moderner Personalarbeit bedeutet auch, ei-
nen Überblick darüber zu bekommen, welche Abteilung, welches Team oder
welcher Mitarbeiter gerade woran arbeitet. Neben Vertrauen entstehen
wertvolle Synergien, die wiederum mehr Flexibilität und ein höheres Tempo
mit sich bringen. Transparenz hilft, weg vom Abteilungsdenken und hin zu
einem Verständnis des gesamten Unternehmens mit einem gemeinsamen
Ziel zu kommen.
Der dritte Punkt sind kurze Iterationen. Auch Personalführung muss eng an
den Markt und andere Rahmenbedingungen angelegt sein. Beide sind so
schnelllebig und dynamisch, dass ein Unternehmen die Möglichkeit haben
muss, schnell zu reagieren. Die Möglichkeit, sich in wechselnden Rahmenbe-
dingungen schnell anzupassen betrifft jeden Bereich des gesamten Unter-
nehmens und ist somit ein zentrales Thema der Personalführung.
Es stellen sich u. a. folgende Fragen:
• Was bedeuten diese Aspekte jetzt für die Führung?
• Gibt es in Zeiten von Selbstorganisation überhaupt noch Führung?
Leadership im digitalen Zeitalter
41
• Wie hat Selbstorganisation auszusehen?
Führung ist im Wandel. Unterschiedliche Modelle sind im Einsatz – neu, alt,
Mischformen. Die Prämisse „Ein Unternehmen, ein Führungsansatz“ ist nicht
realistisch und auch kaum realisierbar. Schlussendlich wird Führung durch
Mitarbeiter und durch unterschiedliche Charaktere gelebt, somit ist ein und
derselbe Führungsansatz augenscheinlich gleich, aber in gelebter Praxis zum
Teil auch verschieden.
Doch ganz gleich, ob Fremd- oder Selbstorganisation, Führung wird es im-
mer geben.
Nur erlebt die Führung zurzeit eine Revolution. Hieß Führen früher das Vor-
geben von Regeln und Vorgehensweisen und vor allem, Wissensträger zu
sein, bedeutet moderne Führung das Vorgeben des „big pictures“ der Da-
seinsberechtigung des Unternehmens sowie dessen Vision.
Das Leitbild ist in diesen Zeiten so wichtig wie noch nie zuvor. Damit ein Un-
ternehmen mit selbstorganisierten Teams in die richtige Richtung läuft, be-
nötigt es eine gemeinsame Vision, einen gemeinsamen Stern, dem alle fol-
gen. Die Führung ist dafür verantwortlich, das Leitbild zu entwerfen und es
im Unternehmen zu kommunizieren. Diese Art von Führung wird sehr oft in
Verbindung mit der transformationalen Führung genannt, also einer Füh-
rung über Werte und Einstellung.
Die Führungskraft versucht bei der transformationalen Führung Vision und
Leidenschaft für eine Zukunft zu vermitteln, die die Mitarbeiter intrinsisch
motiviert. Die Führungskraft ist hier als eine Art Vorbild zu sehen, dem un-
bedingt gefolgt werden will. Transformationale Führung und agile Führung
sind eng verwandt und bilden damit die Basis für eine perfekt ausgerichtete
Personalarbeit in Zeiten der digitalen Transformation.
4.3.1 OKR – Das Framework für modernes HR
Ein Vertreter der modernen Personalarbeit ist das Framework OKR. OKR
steht für „Objectives and Key Results“ und ist ein Framework, das ein so klas-
sisches Thema wie Zielvereinbarung mit moderner agiler Personalführung
verbindet. Es ist bereits in den siebziger Jahren bei Intel von Andrew Grove
entwickelt worden.
Am Anfang hatte das OKR-Framework große Ähnlichkeiten mit dem Ma-
nagement-by-Objectives-Framework. Mitte der neunziger Jahre setzte
Google gleich zu Beginn seiner Geschichte diese Methode zur modernen
Leadership im digitalen Zeitalter
42
Personalführung ein und entwickelte es deutlich weiter. Mittlerweile gilt
OKR als Standard der Personalführung in agilen Kontexten.
Elemente und Funktionsweise
• Objectives: OKR teilt Ziele in Objectives und Key Results auf. Objec-
tives sind auf der einen Seite visionär und emotional. Sie haben noch
nichts mit messbaren Elementen zu tun. Sie sollen den Mitarbeiter
dazu motivieren, einer Richtung zu folgen. Eine Objective kann für
einen aufstrebenden Fußballer der Wunsch sein, der neue
Ronaldo/Messi etc. zu werden. Das klingt visionär, begeisternd und
gibt der harten Arbeit einen sinnerfüllenden Zweck.
• Key Results sind auf der anderen Seite dafür zuständig, die Objective
messbar zu machen. Key Results zeigen auf, was es zu tun gilt, um
dem großen Ziel, der Objective näher zu kommen. Der Fußballer
könnte sich z. B. das Key Result bei „100 Meter in unter zwölf Sekun-
den“ oder „80 % gewonnene Zweikämpfe“ festlegen. Key Results
klingen bewusst nicht mehr so heroisch, denn sie dienen schlussend-
lich dem Zweck, festzulegen, was getan werden muss.
Die Begeisterung wird durch die Objective ausgelöst und am Leben gehalten.
Key Results zeigen die Route. Was aber sind die Elemente, weswegen OKR
ein gutes Vorbild und eine beliebte Methode für moderne Personalführung
ist? Die Elemente von OKR sind zu unterteilen in Rollen, Events und Arte-
fakte.
Rollen: Der OKR-Master trägt die entscheidende Rolle im OKR-Frame-
work. Der OKR-Master ist der Coach im Unternehmen. Er ist Experte für den
Prozess und somit auch zentraler Ansprechpartner für jeden Mitarbeiter für
das Thema OKR. Darüber hinaus coacht er die Mitarbeiter aber auch aktiv. Er
sieht, an welcher Stelle er noch aktiv unterstützen und wo er ggf. noch Hin-
dernisse beseitigen muss. Der OKR-Master passt perfekt zur modernen Füh-
rungskraft im Sinne eines Servant Leaders. Das Wirken von Führenden als
Dienst am Geführten ist die Schlüsselrolle für eine gelungene Einführung von
OKR.
Events: Im OKR gibt es mehrere Events, die fester Bestandteil des Frame-
works sind. OKRs entstehen durch die Mitarbeiter selbst. Das Erfolgsrezept
besteht aus OKR-Workshops, dem ersten Event. Die Workshops werden
vom OKR-Master moderiert, der mit seiner Coaching-Erfahrung und einem
geschickten Mix aus Moderationstechniken den Workshop zu einer
Ideenoase für den kommenden Unternehmenszyklus macht. Die OKR-Work-
shops gibt es auf Unternehmens-, Team- und Mitarbeiterebene. Das zweite
Event ist das Review. Am Ende eines Zyklus werden im OKR-Review die OKR
Leadership im digitalen Zeitalter
43
ausgewertet. Damit nach jedem Unternehmenszyklus überprüft werden
kann, wie erfolgreich dieser war, gibt es das Review als institutionalisiertes
Event. Zudem gibt es während des Unternehmenszyklus regelmäßige Re-
views, um zu überprüfen, ob sich alle noch auf dem richtigen Weg befinden.
Das dritte Event ist die Retrospektive. Am Ende des Unternehmenszyklus
bekommt das Team die Gelegenheit dazu, zu überprüfen, wie der OKR-Pro-
zess bereits adaptiert wurde oder wo noch Herausforderungen bestehen,
die es zu lösen gilt. Für den OKR-Master ist dieses Event das Herzstück des
Frameworks. Er bekommt die Gelegenheit, Hindernisse zu entdecken und
dem Team dabei zu helfen, sich selbst zu verbessern.
Artefakte: Im OKR-Framework gibt es ein ganz entscheidendes Artefakt: Die
OKR-Liste. Die OKR-Liste bildet alle OKRs ab, ungeachtet dessen, ob sie auf
Unternehmens-, Team- oder Mitarbeiterebene sind. Wichtig dabei ist, dass
die OKR-Liste übersichtlich und intuitiv zu bedienen ist. Der Mitarbeiter soll
mindestens einmal täglich mit ihr in Berührung kommen. Die OKR-Liste soll
Ausgangspunkt für eine zielgerichtete Kommunikation im gesamten Unter-
nehmen sein. Diese Rollen, Events und Artefakte machen OKR zu dem Stan-
dard für moderne und agile Personalführung in Zeiten der Digitalisie-
rung. Vorreiter der Digitalisierung wie Google, Twitter, LinkedIn, Airbnb, U-
ber etc. nutzen OKR bereits seit längerer Zeit und sind nicht zuletzt des-
halb zu den Gewinnern der digitalen Transformation zu zählen.
4.3.2 Die neue Führungskraft
Die Digitale Transformation und die damit verbundene Revolution in der
Personalführung bedeuten im nächsten Schritt ein völlig neues Verständnis
der Rolle der Führungskraft. Die moderne Führungskraft wird häufig im Zu-
sammenhang mit dem Begriff des Servant Leaders genannt. Servant Lea-
dership entfernt sich komplett von dem Gedanken einer Führungskraft, die
dem Mitarbeiter vorschreibt, was er zu tun hat.
Servant Leadership stellt die Interessen der Mitarbeiter und der Gruppe in
den Fokus. Führung ist demnach die Ausrichtung der Führungskraft auf die
Bedürfnisse der Mitarbeiter. Der Ansatz stammt aus den Siebzigerjahren von
Robert Greenleaf. Die Führungskraft dient dem Mitarbeiter, das bedeutet,
sie hilft ihm, Probleme zu beseitigen, nimmt sich seine Interessen zu Her-
zen und begleitet ihn auf dem Weg zur Selbstorganisation.
Im Rahmen der agilen Personalführung begleitet die Führungskraft den Mit-
arbeiter auf dem Weg, agile Methoden wie OKR, Scrum o. Ä. zu verinnerli-
chen.
Auf diesem Weg handelt die Führungskraft in fünf Feldern:
Leadership im digitalen Zeitalter
44
1. Erkennen,
2. Feedback,
3. Erziehen,
4. den Weg erleichtern,
5. Support.
Erkennen: Im Bereich des „Erkennens“ ist es das Wichtigste für die Füh-
rungskraft, mit offenen Augen und Ohren durch das Unternehmen zu gehen.
Der Servant Leader muss aktiv erkennen, wo er seine Mitarbeiter oder sein
Team am besten unterstützen kann. Außerdem ist es für die Führungskraft
wichtig, einen eigenen Eindruck darüber zu bilden, wie der Reifegrad des
Teams auf dem Weg zur Selbstorganisation (nicht zu verwechseln mit dem
Reifegrad der Digitalisierung) ist. Schließlich genügt es nicht, einem Team zu
sagen, es soll ab jetzt selbstorganisiert arbeiten.
Feedback: Damit sich ein Mitarbeiter oder ein Team weiterentwickeln
kann, benötigt es Feedback. Die Führungskraft als Servant Leader ist dafür
verantwortlich, klares, wertvolles Feedback zu geben.
Erziehen: Mit Erziehen ist nicht gemeint, Regeln aufzustellen, sondern zu de-
monstrieren, wie Selbstorganisation am besten funktioniert. Das macht die
Führungskraft über das Vorleben eigener Selbstorganisation, wie auch durch
das Vergleichen mit anderen Teams. Auch das Abhalten von Sessions oder
die Organisation von Trainings gehört in diesen Bereich.
Den Weg erleichtern: Einer der zentralen Aufgabenbereiche der modernen
Führungskraft ist es, dem Mitarbeiter oder dem Team die optimale Rahmen-
bedingungen zu schaffen. Das kann bedeuten, den optimalen Teamraum zu
schaffen, die Kommunikationsmöglichkeiten zu verbessern und/oder etwas
komplett Anderes wie z. B. das Bereitstellen von Getränken, Spielgerätscha-
fen wie einen „Wuzzler“ (Fußballtisch) und andere aktivierende sowie ab-
lenkende, jedoch zugleich fokussierende, gemeinschaftsfördernde „Zeitver-
treibe“.
Support: Mit dieser Tätigkeit hilft die Führungskraft dabei, alle Hindernisse
und Störungen zu beseitigen. An dieser Stelle zeigt sich der Gedanke des Ser-
vant Leaders sehr deutlich. Die Führungskraft stellt sich komplett in den
Dienst des Mitarbeiters oder des Teams und ist stark darum bemüht, Stö-
rungen zu beseitigen. Genau dies könnte das „Zünglein an der Waage“ sein,
welches über den Erfolg oder das Scheitern einer digitalen Transformation
entscheidet. Die Schlüsselfigur ist demnach die Führungskraft. Wird aus-
schließlich auf klassische Ansätze und Modelle beharrt, ohne die erwähnte
Veränderung und das eigene Hinterfragen des Stils anzustreben, so gelingt
die Digitalisierung bzw. die digitale Transformation hingegen nicht oder
Leadership im digitalen Zeitalter
45
schlägt zum Teil fehl. Dieser Fehlschlag relativiert wiederum die davor reali-
sierte Digitalisierung und das gesamte Vorhaben wird demnach obsolet. Aus
diesem Grund werden in den verbleibenden Kapiteln die Person der Füh-
rungskraft, deren Wichtigkeit als Stellschraube in der digitalen Transforma-
tion sowie bewährte Führungsstile kritisch betrachtet. Vorweg soll aber das
Folgende gesagt werden: Ein vollständiger Wechsel des Führungstypus
Mensch wie auch der etablierten Führungsstile ist (noch) nicht notwendig.
Jedoch sind eine Adaptierung, Veränderung wie auch Ergänzung gepaart mit
einer starken Selbstreflexion und dem Willen zur Einsicht und Veränderung
notwendig. Als Support zählt hierbei auch, das Team zu ermutigen, wenn es
Probleme hat, den eingeschlagenen Weg zur tiefgreifenden Veränderung
weiterzuverfolgen.
Damit die Führungskraft die genannten fünf Handlungsfelder optimal bedie-
nen kann, ist vor allem eines gefragt:
>>> Zuhören <<<
Obwohl es einfach klingt, ist gutes Zuhören gepaart mit der richtigen Frage-
stellung, mit einem gewissen Gespür und einer aufrichtigen Interessensbe-
kundung harte Arbeit und eher die Ausnahme als die Regel.
Die Führungskraft muss viel Vertrauen zu ihren Mitarbeitern aufbauen. Das
Zuhören und vor allem, die richtigen Fragen zu stellen, stellen dabei den ent-
scheidenden Faktor dar. Der Mitarbeiter darf keinen Zweifel daran ha-
ben, dass sich die Führungskraft dem Wohl verpflichtet. Auf dem Weg, einen
Mitarbeiter oder ein Team zu begleiten, wird die Führungskraft mit dem ein
oder anderen Problem konfrontiert werden. Um diese „Impediments“ zu be-
seitigen, hat sich ein Coaching-Zyklus etabliert, der sehr erfolgsverspre-
chend Probleme angeht.
Der Coaching-Zyklus lautet: Problem-Option-Experiment-Review.
• In diesem Coaching-Zyklus wird zunächst ein Problem erkannt. Exis-
tieren mehrere Probleme, ist es entscheidend wichtig, die vorhande-
nen Probleme zunächst zu priorisieren und sich dann auf die wich-
tigsten Aspekte zu konzentrieren.
• Im zweiten Schritt werden Optionen diskutiert, die das Problem lö-
sen können. Optionen werden im Zusammenhang mit verschiede-
nen Hypothesen formuliert, die das Problem lösen sollen.
• Im dritten Schritt werden feste Experimente aus den Optionen defi-
niert, die ausprobiert werden.
• Im letzten Schritt wird dann im Review darauf zurückgeblickt, ob das
Problem durch das Experiment gelöst wurde. Dabei ist es wichtig,
dass nicht nur überprüft wird, ob das Experiment richtig
Leadership im digitalen Zeitalter
46
durchgeführt wurde, sondern vor allem, ob die gewünschte Hypo-
these, also Verbesserung, eingetreten ist.
Zusammenfassend heißt das: Zunächst werden Probleme erkannt, priori-
siert und fokussiert. Der anschließende Diskurs wird durch Hypothesen de-
finiert. Experimente werden praktiziert und abschließend auf Tauglichkeit
und neue Erkenntnisse geprüft.
Leadership im digitalen Zeitalter
47
5 Neue Methoden für den digitalen Wandel
Durch die zunehmende Geschwindigkeit, mit der heutzutage Geschäftsideen
vor allem im digitalen Bereich realisiert werden, gepaart mit der schnell vo-
ranschreitenden technischen Entwicklung befinden sich Unternehmen zum
Teil auf fremden Terrain. Damit sie während des Vortastens in das neue Ge-
biet schnell und flexibel agieren können, nutzen Digitalunternehmen die agi-
len Arbeitsmethoden in Verbindung mit digitaler Expertise.
Bei einer agilen Arbeitsmethode wird iterativ vorgegangen. Dies bedeutet,
dass nicht nur das Ziel, sondern auch die Veränderung auf dem Weg als in-
tegrales Element eingeschlossen wird. Inkrementelles und iteratives Vorge-
hen beschreiben ein Vorgehen in nacheinander folgenden Iterationen, ein
Verfahren der schrittweisen Annäherung an die exakte oder endgültige Lö-
sung. Eine Iteration ist eine zeitlich und fachlich in sich abgeschlossene Ein-
heit.
Ähnlich wie für einen Entdecker beim Vordringen auf neues Terrain, steht
für den agilen Wissensarbeiter am Anfang eine Vision. Diese verfolgt er
Schritt für Schritt. Dabei bezieht er stetig Erkenntnisse aus seinem Umfeld
mit ein, das er täglich erkundet. Interdisziplinäre Teams bringen unterneh-
mensintern eine möglichst breite Perspektive mit ein, außerdem beziehen
sie Kunden und Stakeholder sehr früh mit ein und legen auch auf deren kon-
stantes Feedback Wert. Eine ausreichende digitale Expertise ermöglicht es,
digitale Tools zu nutzen und so Ideen schnell, kostengünstig und unkompli-
ziert zu entwickeln und zu testen. Auf diese Weise kann schnellen Schrittes
unbekanntes Terrain erobert werden. Damit dies gelingt, bedarf es einer of-
fenen Entdeckerhaltung, die vielmehr mit offenen Fragen als mit Antworten
arbeitet. Das offene Mindset ist in diesem Ansatz die entscheidende Grund-
haltung. Dazu gehören eine flexible Organisationsform, agile Arbeitsansätze,
die eine hohe Experimentierfreudigkeit fördern, Transparenz in der Informa-
tion und Kommunikation sowie eine Bereitschaft, ständig zu lernen. Im Er-
gebnis stehen sogenannte agile oder responsive Organisationen. In Kombi-
nation mit einem hohen Grad an Selbstmanagement der Mitarbeiter errei-
chen Organisationen mit wenig ausgeprägter Hierarchie das, was Frederik
Laloux als „Teal Organization“ bezeichnet. Vorstände und Führungskräfte
müssen dafür sorgen, dass das Unternehmen die digitale Kompetenz stetig
auf- und ausbaut, um neue Wachstumspotenziale zu entdecken und im
Wettbewerb zu bestehen. Um die digitale Transformation zu schaffen bzw.
zu unterstützen, sei es bei der Ideenfindung von neuen Produkten und
Dienstleistungen, bei der Projektumsetzung wie auch bei der Mitarbeiterfin-
dung und -führung oder auch in schwierigen Situationen, werden bereits
vorhandene Konzepte mit gangbaren und mittlerweile etablierten Konzep-
ten ergänzt.
Leadership im
digitalen Zeitalter
Leadership im digitalen Zeitalter
48
5.1 Management 3.0
Eine mögliche Lösung bzw. ein Teil der Lösung für die neuen Herausforde-
rungen aufgrund der veränderten Bedingungen ist die Management 3.0-Be-
wegung von Jürgen Appelo. Management 3.0 beschäftigt sich mit der Ent-
wicklung von Teams und komplexen Systemen bzw. mit dem Aufeinander-
treffen dieser Einheiten. Unternehmen, die mit neuen, agilen Metho-
den dem digitalen Zeitalter gerecht werden wollen, erleben bei der Einfüh-
rung eine Art Revolution der Unternehmenskultur. Das Management und
die Führungskräfte tragen bei diesem Change-Prozess die Schlüsselrol-
len. Digitale Transformation bedeutet bei Management 3.0 also auch eine
Revolution im Führungsverhalten.
Hinsichtlich des Aspekts der Schlüsselrollen der Führungskraft und des Ma-
nagements und der Revolution im Führungsverhalten wird schnell deutlich,
wie wichtig es ist, dass Führungskräfte als Motor des Wandels vorange-
hen und zu den Ersten gehören, die diesen Change-Prozess durch ihr Füh-
rungsverhalten aktiv mitgestalten.
Übungsaufgabe 1: Stellen Sie sich vor, Sie wollen in Ihrem Unterneh-
men eine innovative agile Methode wie z. B. Scrum etablieren. Der Grund
hierfür: Die Digitalisierung schreitet voran und um daraus eine erfolgreiche
Transformation zu machen, bedarf es auch Änderungen bei den Herange-
hensweisen. Jedoch sind in diesem Unternehmen einige Führungskräfte, die
selbst den Eindruck vermitteln, einem Wandel kritisch gegenüberzustehen,
da sie womöglich selbst klassische Werte wie Kontrolle oder auch die Vor-
gabe von Regeln und Prozessen aktiv vorleben. Mitarbeiter antizipieren
solch ein Verhalten grundsätzlich sofort. Da Mitarbeiter aus intuitiven Grün-
den einem Wandel anfangs immer kritisch gegenüberstehen, würden sie das
Verhalten der Führungsperson als Chance nutzen, vor Neuem zu flüchten
oder das Neue nicht zu unterstützen – es sei denn, die Führungskräfte un-
terstützen diesen Wandel wirklich zu 100 %. Damit genau dieses Szenario
nicht entsteht, müssen die Führungskräfte am besten sofort anfangen, auf
neue agile Personalführung zu setzen.
Management 3.0 beschreibt, wie die Führungsrolle im neuen, digitalen Un-
ternehmen aussehen sollte. Somit passt Management 3.0 perfekt zu ande-
ren Frameworks der agilen Personalführung wie die bereits vorgestellten
Objectives and Key Results bzw. OKR.
Leadership im digitalen Zeitalter
49
Management 3.0 nennt sechs Teilbereiche, auf die sich die moderne Füh-
rung konzentrieren sollte. Diese sind:
1. Menschen anregen,
2. Rahmen schaffen,
3. Teams befähigen,
4. Kompetenz aufbauen,
5. Strukturen entwickeln,
6. Alles verbessern.
Menschen anregen: Nicht erst jetzt, aber primär inmitten eines Wissenszeit-
alters wird deutlich, dass die Menschen der entscheidende Teil im Unter-
nehmen sind. Außerdem sind Menschen keine Ressource wie eine Maschine
oder ein Rohstoff, sondern selbst komplexe Lebewesen. Die Aufgabe des
Managements muss hier sein, Menschen dazu zu motivieren, Leistung zu er-
bringen. Dabei sollten die Führungskräfte auf die Wünsche der Mitarbeiter,
die individuelle Personen und oft nicht mit dem Unternehmen vereinbar
sind, eingehen. Ein wichtiger Stichpunkt ist hier die intrinsische Motiva-
tion. Intrinsische Motivation ist die Art von Motivation, die entsteht, weil
der Mitarbeiter Spaß an seiner Arbeit hat. Sie ist das Gegenteil von extrinsi-
scher Motivation, die auf materiellen Einflüssen wie dem Gehalt oder Bo-
nuszahlungen basiert. Der moderne Mitarbeiter lässt sich nur durch intrinsi-
sche Motivation langfristig begeistern.
Rahmen schaffen: In agilen Unternehmen gibt es keine bis ins letzte Detail
vorgegebenen Prozesse. Dennoch wird in solchen Umfeldern noch geführt
und zwar mittels Sinnhaftigkeit oder transformationaler Führung. Die ent-
scheidenden Punkte sind hier das Führen über das Vermitteln von Wer-
ten und auch das Zeigen von Visionen oder Zielen.
Teams befähigen: In Zeiten, in denen wir davon sprechen, wie wichtig
Selbstorganisation ist, sind Teams ein entscheidender Faktor. Mit dem Punkt
„Teams befähigen“ sorgt das Management 3.0 dafür, dass die Führungskraft
darauf achten muss, dass Teams auch dazu befähigt werden, selbstorgani-
sierend handeln zu können. Ein wichtiger Teilaspekt ist dabei z. B. die rich-
tige Delegation von Entscheidungen. Hier kann sich das Team selbst steuern
und der Berater ist höchstens noch als Ideengeber zu sehen. Die Lego-Anlei-
tung liegt längst beiseite und das kreative Bauen hat begonnen.
Kompetenz aufbauen: Ein wichtiger Baustein dieses Aspektes kommt aus
dem Japanischen und heißt Shu-Ha-Ri-Konzept. Das Shu-Ha-Ri-Konzept be-
schreibt die drei Level der Kompetenzen. Das Shu-Level ist ein Lern-Level.
Hier geht es darum, Basisaspekte zu lernen und sich an alle Vorgaben zu hal-
ten. Wenn wir mit Lego-Bausteinen bauen, würden wir hier streng nach
Leadership im digitalen Zeitalter
50
Anleitung bauen. In dieser Phase sind Vorgesetzte eher Trainer oder Lehrer.
In der Ha-Phase wird der Trainer zum Berater. Das Team sucht hier nach Va-
rianten oder Alternativen. Bei den Lego-Bausteinen würden wir nun leichte
Änderungen zur Anleitung vornehmen. Die Ri-Phase ist die Expertenphase.
An dieser Stelle obläge es wohl dem Experten, die Lego-Anleitung selbst zu
erstellen
Strukturen entwickeln: Damit selbstorganisierte Teams funktionieren kön-
nen, werden Strukturen benötigt, die von Management und Führungskräf-
ten kommen müssen, die genau diese Art der Führung zulassen
Alles verbessern: Kontinuierliche Verbesserung ist das Kernelement agiler
Methoden und Frameworks und damit auch in der Führung unersetzlich.
Nicht erst durch Six Sigma oder durch Total Quality Management ist der im-
merwährende, allgegenwärtige und zudem kontinuierliche Verbesserungs-
ansatz in aller Munde.
Die Strömung des Management 3.0 hat viele Instrumente und Methoden
entwickelt. Somit ist dieser Ansatz gut für agile Personalführung geeig-
net und lässt sich zudem sehr gut mit anderen agilen Frameworks wie Scrum
oder OKR vereinbaren. Hierbei gilt es, zu wissen, dass die vorgestellten Mo-
delle, Techniken und Ansätze nicht in Konkurrenz zueinander zu sehen sind,
sondern so gewählt werden können, dass ein Parallelbetrieb möglich ist und
eine zusätzliche Ergänzung darstellt, welche ggf. die Schwächen anderer Me-
thoden ausgleicht.
5.2 Scrum
Produkte in neuen, komplexen Kontexten zu entwickeln, bedeutet ein Um-
denken im kompletten Entstehungsprozess. Langes Planen und danach
lange Entwicklungsphasen sind in schnelllebigen, komplexen Unternehmen
zum Scheitern verurteilt.
Entsprechend hat sich die sog. Out-of-the-box-Funktion entwickelt. Die Out-
of-the-box-Funktion ist eine Eigenschaft oder Funktion einer Software- oder
Hardwarekomponente, die nach der Installation ohne weitere Anpassung
der Komponente sofort zur Verfügung steht.
Weiter befinden wir uns in einem industriellen Zeitalter, in dem Massenfer-
tigung praktisch nicht mehr möglich ist. Natürlich ist sie kontextabhängig zu
verstehen, aber generell lässt sich eine Tendenz zur Individualisierung spezi-
ell im digitalen Sektor nicht von der Hand weisen. Im Gegensatz zur Massen-
fertigung stehen also sogenannte kundenspezifische Lösungen oder Funkti-
onen, die Anpassungen der Lösung an die Anforderungen einzelner Kunden
erfordern, um eine bestimmte Aufgabe zu erfüllen.
Leadership im digitalen Zeitalter
51
Kundenwünsche werden immer individueller, Rahmenbedingungen verän-
dern sich und sichere Planbarkeit ist nicht bzw. kaum mehr möglich.
Scrum ist ein Framework zur Entwicklung von Produkten in komplexen Um-
gebungen. Es ist durchweg als ein leichtgewichtetes Framework zu verste-
hen, d. h. es gibt einen Rahmen vor, innerhalb dem aber viel Spielraum für
die Ausgestaltung zur Verfügung steht. Scrum ist mit dem Ziel entwickelt
worden, Risiken bei der Produktentwicklung zu minimieren und früher qua-
litativ hochwertigere Produkte auszuliefern. Das Rahmenwerk Scrum be-
steht aus fest definierten Artefakten, Rollen und Events, die in einem Scrum
Guide von Jeff Sutherland und Ken Schwaber, den Erfindern von Scrum, ver-
öffentlicht wurden.
In der Praxis ist sehr häufig eine „mittlere“ Variante zu finden der Produkt-
entwicklung. Geliefert wird Out-of-the-box und diese lauffähige Variante
wird dann anschließend „customized“. Das bedeutet: Es wird kostengüns-
tige „Stangenware“ eingekauft und der anforderungsspezifische Feinschliff
wird dann selbst oder durch extern vorgenommen.
Im Bereich der Softwareentwicklung ist Scrum praktisch nicht mehr wegzu-
denken und gilt bereits als „Klassiker“. Aber auch andere Entwicklungsberei-
che adaptieren immer mehr das erfolgreiche Framework. Da Scrum mittler-
weile zum Standard in dynamischen, volatilen Bereichen wie z. B. in der Ent-
wicklung, sei es von Software, Produkten oder Dienstleistungen, geworden
ist, stellt sich hier die Frage:
„Was genau macht Scrum so erfolgreich?“
Scrum setzt auf entscheidende Werte und Prinzipien, die den Erfolg im digi-
talen Zeitalter garantieren. Diese sind:
• Kurze Iterationen,
• selbstorganisierte Teams,
• kontinuierliche Verbesserung und
• Transparenz.
Kurze Iterationen: Kundenwünsche, der Markt, Rahmenbedingungen – alles
ist mittlerweile so schnelllebig und komplex wie nie zuvor. Um trotzdem Pro-
dukte zu entwickeln, die den Kundenbedürfnissen bestmöglich entspre-
chen, setzt Scrum auf kurze Entwicklungszyklen. Die Folge sind ein schnelles
Feedback vom Markt und von den Kunden, eine hohe Flexibilität und und
keine Umwege durch passgenaue Produktentwicklung.
Selbstorganisierte Teams: Damit kurze Zyklen und Flexibilität überhaupt
möglich sind, braucht es selbstorganisierten Teams. Teams benötigen zwar
fachliche Anforderungen, wie allerdings die technische Umsetzung aussieht,
Leadership im digitalen Zeitalter
52
muss dem Team überlassen werden. Das bedeutet in der Folge: Ein höheres
Commitment des Teams, einen qualitativ hochwertigeren und auch schnel-
leren Output, weil es keine Warteschleifen gibt, da das Team auf keine An-
weisung der Führungskraft warten muss.
Kontinuierliche Verbesserung (Inspect and Adapt): Kein Team, kein Produkt
und kein Prozess sind gleich von Beginn an optimal. Der entscheidende
Punkt, warum Scrum trotzdem qualitativ hochwertigen Output garantiert,
liegt im ständigen Überprüfen und Anpassen. Ständig wird ein Verbesse-
rungspotenzial gesucht und dieses auch umgesetzt.
Transparenz: Dies ist ein entscheidender Punkt, auf dem Scrum basiert. Je-
der Aspekt ist für alle Beteiligten zu jederzeit transparent. Das sichert valides
Feedback, Vertrauen und hohes Commitment von allen Beteiligten zum Pro-
dukt. Scrum wurde auf Basis dieser Werte und Prinzipien entwickelt. Die de-
finierten Rollen, Events und Artefakte setzen genau auf diese Elemente und
sichern so den Erfolg dieses Frameworks.
Abbildung 5: Scrum-Framework
Kurze Iterationen, selbstorganisierte Teams, ein kontinuierlicher Verbes-
serungsprozess sowie gänzliche Transparenz sind die wesentlichen Ele-
mente von Scrum.
5.3 Kanban
Kanban ist eine Methode zur Produktionsprozesssteuerung, die in den Vier-
zigerjahren im Zusammenhang mit der „Just in Time“-Produktion entstan-
den ist. Das stete Ziel von Kanban ist eine Optimierung des Prozesses, dabei
ist der eigentliche Prozess dahinter unerheblich. Kanban ist potenziell für je-
den Prozess mit verschiedenen Stufen anzuwenden. Das können reale Pro-
dukte sein wie Autos, digitale Güter, Software oder auch Dienstleistungen.
Wichtig an Kanban ist zunächst die Unterscheidung zu Frameworks wie zum
Leadership im digitalen Zeitalter
53
Beispiel Scrum. Kanban ist keine Projektmanagement-Methode und auch
kein Projektmanagement-Framework. Daher bildet Kanban auch keine Kon-
kurrenz zu Scrum oder anderen Frameworks und kann somit ergänzend ein-
gesetzt werden.
Kanban stellt zunächst immer den aktuellen IST-Zustand dar. Diesen Status
quo beschreibt Kanban mit der Visualisierung der bestehenden Aufgaben.
Dadurch entsteht eine vollkommene Transparenz des Prozesses. Jetzt geht
es bei Kanban darum, den Prozess zu verbessern. In der Folge ist es ein Ziel
von Kanban, das ganze Unternehmen zu verändern und damit auch zu ver-
bessern. Damit das wirklich funktioniert, gibt es drei Prinzipien, die hinter
Kanban stehen:
1. Den Workflow visualisieren,
2. das Pull-Prinzip etablieren oder die Menge an paralleler Arbeit mi-
nimieren und
3. die Kultur der kontinuierlichen Verbesserung etablieren.
Das erste Prinzip ist die Grundlage für die Kanban-Methode. Auf einem
Board wird in Spalten von links nach rechts der Workflow visualisiert. Das
zweite Prinzip ist der Wechsel von einem Push- zu einem Pull-Prinzip. Der
Ausführer des nächsten Workflowschrittes zieht sich seine Karte aktiv. Ein
Effekt des Pull-Prinzips ist das Minimieren der Menge an paralleler Ar-
beit, die häufig zu Verzögerungen im Prozess führen. Das dritte Prinzip ist
die kontinuierliche Verbesserung. Hierfür ist ständiges Feedback durch etab-
lierte Events und Rollen wichtig.
Kanban wird auch als evolutionäres Change-Management bezeichnet. Das
bedeutet, dass im Gegensatz zu revolutionären Methoden wie Scrum oder
OKR zu Beginn eigentlich gar nichts verändert wird.
Es wird lediglich der Status quo abgebildet. Nach und nach wird in einem
funktionierenden Kanban der Prozess jedoch schrittweise weiterentwi-
ckelt. Das geschieht inkrementell und nicht radikal. Da es sich meist um Pro-
zesse im Unternehmen handelt, die sich jahrelang aus einem bestimmten
Grund etabliert haben, ist diese Methode der inkrementellen, kontinuierli-
chen Verbesserung genau der richtige Schritt für ein erfolgreiches Change-
Management.
Die Vorteile der Kanban-Methode sind neben der hohen Flexibilität und dem
hohen Anpassungspotenzial auch der reduzierte Steuerungsaufwand. Durch
die geschaffene Transparenz und die selbstorganisierten Teams ist Kanban
am Ende auch eine Methode, die neben der höheren Effizienz auch zu Ein-
sparungen führt.
Leadership im digitalen Zeitalter
54
5.4 Open Space
Open Space ist eine Methode zur Gruppenmoderation, die primär für große
Gruppen gut geeignet ist. Open Space wurde in den Achtzigerjahren in den
USA von Harrison Owen entwickelt. Charakteristisch für diese Methode ist
die inhaltliche Offenheit dieser Art von Gruppenkonferenzen. Ziel der Open-
Space-Methode ist es, in einem beschränkten kurzen Zeitrahmen mit einer
großen Anzahl an Teilnehmern lösungsorientiert, selbstverantwortlich und
innovativ umfassende Themen zu bearbeiten.
Entscheidend ist zu Beginn einer Open-Space-Veranstaltung die inhaltliche
Offenheit der Themen. Das Einzige, das zu Beginn vorgegeben wird, ist ein
Metathema oder ein Generalthema, das die gesamte Veranstaltung be-
schreibt. Danach besteht Themenoffenheit. Die Themen werden zu Beginn
von den Teilnehmern gesammelt und formuliert. Es entsteht in der Folge ein
Marktplatz für Themen, die in Themengruppen diskutiert werden können.
Die Vorteile der Open-Space-Methode sind eine breite Beteiligung von allen
Teilnehmern und die hohe Energie, die ein solcher Raum mit sich bringt. Die
Dauer einer Open-Space-Konferenz liegt meist bei zwei bis drei Tagen.
Die Open-Space-Methode basiert auf folgenden vier Prinzipien oder Regeln:
1. Wer auch immer kommt, es sind „genau die richtigen Leute“. Ob ein
oder 100 Teilnehmer, ist unwichtig und jeder ist wichtig und moti-
viert.
2. Was auch immer geschieht, es ist das Einzige, was geschehen
konnte. Ungeplantes und Unerwartetes ist oft kreativ und nützlich.
3. Es beginnt, wenn die Zeit reif ist. Wichtig ist die Energie und nicht die
Pünktlichkeit. Vorbei ist vorbei. Nicht vorbei ist aber auch nicht vor-
bei. Wenn die Energie zu Ende ist, ist die Zeit um.
4. Gesetz der zwei Füße: Mit dem Gesetz der zwei Füße wird insbeson-
dere die Selbstverantwortung der Teilnehmer angesprochen. Jeder
darf selbst entscheiden, wie lange er bei einem Thema bleibt und
wann er zu einem anderen Thema wechselt.
Typischer Ablauf einer Open-Space-Konferenz:
1. Der Veranstalter oder Initiator begrüßt die Teilnehmer in einem
Kreis und erklärt Ziele, Grenzen und Ressourcen der Veranstaltung.
2. Der Begleiter führt die Teilnehmer in ein Thema ein und öffnet so
den Raum. Dabei befindet er sich im Kreis und ist für alle sichtbar.
3. Inhalte ergeben sich aus dem Teilnehmerkreis. Alle können das ein-
bringen, was für sie wichtig ist und für das sie Verantwortung über-
nehmen wollen.
Leadership im digitalen Zeitalter
55
4. Anliegen werden an einer Wand mit Zeiten und verfügbaren Räumen
gesammelt z. B. mit Post-its.
5. Hier passiert die Verhandlung über Zeiten und Räume, die sog.
Marktphase.
6. Die Gruppenarbeitsphase startet. Teilnehmer arbeiten selbstorgani-
siert an Themen. Wichtig ist dabei stets das Gesetz der zwei
Füße und die Dokumentation der Ergebnisse.
7. Ergebnisse werden an eine Dokumentationswand für jeden sichtbar
aufgehängt.
8. Morgens und abends werden die Ergebnisse jeweils mitgeteilt. Am
letzten Tag erfolgt die Auswertung der Ergebnisse und Formulierung
der Umsetzung. Danach gibt es eine Abschlussfeedbackrunde, bevor
der Raum geschlossen wird.
Neben dem Vorteil der großen Gruppe schafft Open Space zudem einen
Raum für Teambuilding und fruchtbaren Boden, um komplexe Themen zu
behandeln. Im Rahmen eines Change-Prozesses eignet sich der Open-Space-
Raum zudem auch, um Ängste oder Konflikte zu thematisieren und zu lösen.
5.5 RTSC
Eine weitere Methode der Großgruppenmoderation ist RTSC bzw. „Real
Time Strategic Conference“. Diese Form der Gruppenmoderation eignet sich
vor allem sehr gut für den Bereich der Organisationsentwicklung. Die Dauer
einer RTSC-Konferenz beträgt in der Regel zwei bis drei Tage.
In diesen Tagen werden vier Phasen durchlaufen:
1. Der aktuelle Stand.
2. Zukünftige Visionen.
3. Problemdiagnose zur Zielerreichung.
4. Handlungsbedarf für Erreichung der Ziele.
Ziel einer RTSC-Konferenz ist es, Teilnehmer für strategische Ziele des Unter-
nehmens zu gewinnen. Zum Ende einer solchen Konferenz wird ein Ziel vor-
handen sein, welches von allen Teilnehmern getragen wird. Somit liegt ein
wesentlicher Vorteil im hohen Commitment aller Teilnehmer für das ge-
meinsame Vorhaben.
Damit die Vorgaben für das Unternehmen passen, ist es wichtig, die Füh-
rungsspitze in eine solche Konferenz mit einzubinden.
Eine RTSC-Konferenz befolgt folgende Prinzipien:
Leadership im digitalen Zeitalter
56
• Empowerment und Inklusion: Verschiedene Menschen arbeiten so
zusammen, dass jeder einen wertvollen Beitrag leisten
kann. Dadurch entstehen ein hohes Commitment und Zustimmung
zu einer gemeinsamen Vision oder zu einem gemeinsamen Ziel.
• Real Time: Im eigenen Denken und Handeln ist die Zukunft bereits
eingetreten. Dies bringt wertvolle Geschwindigkeit für den Wandel.
• Gewünschte Zukunft: Pläne und Aktionen für eine an Möglichkeiten
orientierte Zukunft werden energetisiert, angereichert und infor-
miert durch das Anknüpfen an Vergangenheit und Gegenwart.
• Entwicklung von Gemeinschaft: Der Gedanke von RTSC besagt, dass
Menschen etwas brauchen, das sie schaffen können und woran sie
glauben können. Wenn Menschen als Teil von einem großen Ganzen
zusammenkommen, können echte Motivation, Wachstum und Ler-
nen entstehen.
• Gemeinsame Bedeutung: Zu einem Thema existieren verschiedene
Perspektiven. Auf einer RTSC-Konferenz wird ein gemeinsames Ver-
ständnis entwickelt und so auch eine gemeinsame Bedeutung.
• Die Realität als Motor: Die Realität soll als Motor genutzt wer-
den, um neue Chancen zu erkennen und Themen mit Bedeutung zu
füllen.
5.6 Design Thinking
Neben Steuerungs- und Moderationstechniken bedarf es zur Entfaltung und
Weiterentwicklung auch neuer Blickwinkel und Perspektiven. Design Thin-
king ist eine Kreativitätstechnik und ein Ansatz zum Lösen von Problemen.
Der Ansatz beruht auf der Annahme, dass Probleme besser gelöst werden,
wenn Menschen unterschiedlicher Disziplinen in einem kreativitätsfördern-
den Umfeld dahingehend zusammenarbeiten. Die Grundprinzipien des De-
sign Thinking beruhen damit auf den drei Aspekten Team, Raum und Pro-
zess. In der Praxis nutzen bereits zahlreiche Unternehmen und Organisatio-
nen Design Thinking als Projekt-, Innovations-, Portfolio- und Entwicklungs-
methode.
Ein bekanntes Beispiel ist SAP. Wie andere erfolgreiche, innovative Metho-
den setzt auch Design Thinking auf das Erfolgsrezept: Interdisziplinäre
Teams, Visualisierung und iteratives Vorgehen. Ziel des Design-Thinking-Pro-
zesses ist es, durch den Design-Prozess Probleme zu lösen und durch krea-
tive Techniken dabei zielgerichtet Innovationen zu entwickeln. Durch itera-
tives Vorgehen und schnelles Feedback und ggf. auch schnelles Scheitern
von nicht funktionierenden Aspekten soll sich nachhaltiger Erfolg durch von
mit Design Thinking entwickelten Ideen einstellen.
Leadership im digitalen Zeitalter
57
Prozessschritte des Design Thinking:
1. Verstehen,
2. Beobachten,
3. Synthese,
4. Ideengenerierung,
5. Prototyping und
6. Tests.
Verstehen: Im Prozess des Verstehens geht es anfänglich nur darum, die
Problemstellung und auch das damit verbundene Problemfeld und die Ein-
flussfaktoren zu verstehen. Diese Phase kann durch Planung und Recherche
zeitaufwändig sein, ist aber für die späteren Schritte unerlässlich. Ziel dieser
Phase ist es, das gesamte Team auf ein gemeinsames Expertenlevel zu brin-
gen.
Beobachten: Hier geht es darum, die Problemstellung in ihrer wirklichen
Umgebung aktiv zu beobachten und darauf aufbauend in Dialogen und In-
teraktionen mehr zu dem Problem herauszufinden. Oft sind auch die Men-
schen, die ein Produkt bewusst ablehnen oder es übermäßig stark nutzen,
diejenigen, die wertvolle Informationen als Input geben können. Primär ent-
scheidend ist, dass diese Phase in einem realen Kontext durchgeführt
wird. Ziel dieser Phase ist es, möglichst viele Informationen zu sammeln und
diese Informationen auch zu visualisieren.
Synthese: Hier werden die Daten und Eindrücke mit dem Team geteilt. Die
Informationen werden im Projektraum visualisiert. Diese Phase geht noch
einen Schritt weiter, da die Informationen nicht einfach an die Wand ge-
klebt, sondern miteinander verknüpft werden und so ein Gesamtbild der
Problemstellung entsteht. Ziel ist es, nachdem das Team bereits einen ge-
meinsamen Wissensstand hatte, auch ein visuelles Verständnis des Gesamt-
kontextes der Problemstellung zu bilden. Ergebnis dieser Phase ist es, dass
alle Ergebnisse in visueller Form für die nächsten Schritte aufbereitet sind.
Ideengenerierung: Aus den zuvor identifizierten Problemfeldern werden
Ideen zur Lösung der Problemstellung identifiziert. Hier können klassische
Kreativitätstechniken wie Brainstorming unterstützen. Nach der Filterung
der Ideen werden im Hinblick auf Wirtschaftlichkeit und Umsetzbarkeit
Ideen ausgewählt.
Prototyping: Es wird versucht, möglichst schnell irgendeine Form eines Pro-
totyps zu generieren, mit dem dann wieder in den wahren Kontext gegangen
und sich Feedback geholt werden kann. Dieser Prototyp ist meist noch nicht
mal ansatzweise fertig, darauf kommt es aber auch gar nicht an. Ziel dieser
Leadership im digitalen Zeitalter
58
Phase ist es, möglichst schnell auf den Markt zu gehen, um wertvolles Feed-
back für die Weiterentwicklung zu erhalten.
Tests: Zusammen mit der vorherigen Phase erfolgen jetzt Tests und Feed-
back-Schleifen. Hier geht es darum, mit den Reaktionen herauszufinden, ob
oder wie eine vorhandene Idee weiterverfolgt werden soll, ganz im Sinne
des Anwenderfokus.
5.7 Lego Serious Play
Eine andere bzw. ergänzende Methode mit dem Facettenreichtum Denk-,
Kommunikations- und Problemlösungstechnik ist Lego Serious Play. Hier
handelt es sich um einen moderierten Prozess, der die Vorteile, die ein Spiel
mit sich bringt, mit Problemlösungs-, Strategie- oder Innovationsberei-
chen aus der Geschäftswelt in Einklang bringt. Dabei ist die Methode nicht
wie andere von einer gewissen Größe der Gruppe abhängig. Lego Serious
Play kann mit Unternehmen, Teams oder sogar mit Einzelpersonen durchge-
führt werden.
Die Vorzüge von Lego Serious Play sind dabei:
• Kreativität.
• Verbesserte Kommunikation durch die Greifbarkeit von Ideen.
• Einbeziehung von Wissen und Erfahrung der Teilnehmer.
• Gemeinsames Verständnis dadurch, dass die Modellierung gefördert
wird.
Die Entstehung von Lego Serious Play basiert auf überraschenden For-
schungsergebnissen, die mit der Verbindung zwischen der Hand und den Ge-
hirnzellen zu tun haben. Das Resultat dieser Forschung ist, dass unsere
Hände bis zu 80 % mit unseren Gehirnzellen verbunden sind. Diese For-
schungsergebnisse bedeuten, dass Denkprozesse, die in Verbindung mit kör-
perlichen Bewegungen und insbesondere mit den Händen durchgeführt
werden, zu einem besseren und nachhaltigeren Verständnis von der Umge-
bung und über die Möglichkeiten der Problemstellung führen. Die Prinzipien
hinter Lego Serious Play sind klar und trotzdem entscheidend: Die Antwort
liegt immer im System.
Es gibt also keine „korrekten" Antworten oder Fakten.
Bei Lego Serious Play steht stets der Prozess im Vordergrund: Denke mit
deinen Händen, also benutze deine Hände. Es gibt nicht die richtige Lö-
sung. Für eine Problemstellung gibt es viele verschiedene Ansätze, wovon
Leadership im digitalen Zeitalter
59
jeder erstmal wichtig für den weiteren Prozess ist. Rede über deine Lösung,
aber urteile nie und jeder nimmt teil.
Das Anwendungsgebiet von Lego Serious Play lässt sich in vier Bereiche auf-
teilen:
1. Real Time Strategy for the Enterprise.
2. Real Time Strategy for the Beast.
3. Real Time Identity for the Team.
4. Real Time Identity for You.
Der Bereich Real Time Strategy for the Enterprise dient vor allem für The-
men der Strategieentwicklung für ganze Organisationen oder auch kleinere
Teams. Dabei werden neben der Analyse der Einflussfaktoren auch zukünf-
tige, verschiedene Szenarien durchgespielt, um gut auf unvorhersehbare Er-
eignisse reagieren zu können.
Der Bereich der Real Time Strategy for the Beast befasst sich mit Problemen
oder Risiken. Hier werden Strategien für den Umgang mit Risiken und Prob-
lemen erarbeitet.
Bei der Real Time Identity for the Team wird im Team ein gemeinsames
Bild und Verständnis für die Identität und die einzelnen Aufgaben erzeugt.
Ziel ist hier die Optimierung der internen Zusammenarbeit.
Der vierte Bereich ist der Bereich der Real Time Identity for You. Hier geht
es darum, wie die eigene Person von anderen wahrgenommen wird. Bei die-
ser Methode geht es vor allem um die Analyse der eigenen Identität. Ziel ist
es hier, die gewünschte Entwicklung gezielt zu fördern und zu identifizie-
ren, welche Möglichkeiten es dazu gibt.
5.8 Lean Startup
Lean Startup ist eine Methode, die sich mit der Entwicklung von Produk-
ten und Service beschäftigt. Entstanden ist die Methode als Folge vieler ge-
scheiterter Startups, primär um die Jahrtausendwende im Zuge der Dotcom-
Blase. Die Grundidee der Lean-Startup-Methode ist es dabei zunächst die
Unternehmensgründung nicht als solche zu betrachten, sondern als eine un-
bewiesene Hypothese. Diese Hypothese gilt es, jetzt empirisch zu validie-
ren oder im negativen Fall zu widerlegen.
Die Idee wird im Lean Startup erst dann weiterentwickelt, wenn sie komplett
validiert wurde. Diese Validierung soll nach Möglichkeit schnell und ohne
Kosten erfolgen. Dadurch soll verhindert werden, dass ein Startup viel Geld
und Zeit in eine Idee investiert, die danach keinen Erfolg hat. Wie auch bei
Leadership im digitalen Zeitalter
60
anderen innovativen Methoden wird bei Lean Startup auf langes Planen ver-
zichtet, stattdessen wird schnell auf einen Prototyp gesetzt, der danach in-
krementell weiterentwickelt wird.
Die Grundprinzipien der Lean-Startup-Methode sind dabei:
• Jeder kann ein Gründer sein und damit auch Erfolg haben.
• Entrepreneurship ist Management.
• Gründen ist kein Zufall oder Schicksal, sondern kann genauso
wie eine Wissenschaft betrachtet werden.
Lean Startup stellt also verschiedene Tools und Methoden zur Verfügung,
um das Gründen zu lernen. Lernen muss validiert werden. Es gibt einen be-
kannten Spruch im Lean Startup: „Get out of the building.“ Das bedeutet:
Bleiben Sie nicht an Ihrem Schreibtisch sitzen, sondern gehen Sie raus auf
die Straße und versuchen Sie, Ihre Idee zu validieren.
Innovation Accounting: Hier geht es darum, dass Innovation auch verwaltet
werden kann. Auch eine Innovation muss definiert, gemessen und kommu-
niziert werden. „Build – Measure – Learn“ – das ist genau der Zyklus, mit
dem das Lean Startup arbeitet.
Sobald eine Idee aufkommt, wird diese möglichst schnell und risikofrei um-
gesetzt wie z. B. in Form eines Prototyps. Anschließend wird der Erfolg ge-
messen und aus dem erhaltenen Feedback gelernt. Daraus wiederum ist es
möglich, den nächsten Prototyp zu bauen und der Zyklus beginnt erneut.
5.9 Effectuation
Hier geht es um Entscheidungen in Zeiten abnehmender Planbarkeit.
Im Zuge der Ereignisse am 11. September 2001 in den USA entstand dort ein
neuer Ansatz: Effectuation. Eine überzeugende Übersetzung dieses Begriffs
gibt es nicht. „to effectuate“ bedeutet wörtlich übersetzt „etw. bewirken“.
Die Erfinderin des Ansatzes ist die Professorin Saras Sarasvathy. Die Wissen-
schaftlerin erforscht im Rahmen ihres Ansatzes, wie erfolgreiche Gründer
denken, entscheiden und handeln. Sarasvathys Ideen lassen sich aber auch
auf etablierte Unternehmen übertragen, wenn danach gefragt wird, welche
Fähigkeiten Führungskräfte in der Zukunft benötigt werden.
Effectuation bedeutet eine völlig neue Logik, um an Entscheidungen heran-
zugehen. Die ursprüngliche Logik verläuft linear-kausal. Nach ihr stellt sich
immer dann, wenn zielgerichtetes Handeln zu planen ist, die Frage:
„Wie komme ich von A nach B?“
Leadership im digitalen Zeitalter
61
Denken Sie an ein Unternehmen, das eine gewisse Marktposition innehat
und wachsen möchte bzw. welches Unternehmen möchte dies nicht. Ausge-
hend davon wird zunächst das gewünschte Wachstum definiert, d. h., es
wird beschrieben, wo das Unternehmen nach einer bestimmten Zeit stehen
soll.
Wenn dieser Zielpunkt B definiert ist, folgt die:
• Markt-,
• Kundenpotenzial- und
• Investitionsbedarfsanalyse.
Planung und Durchführung zielorientierter Maßnahmen
Effectuation geht einen speziellen Weg. Der Ausgangspunkt lautet, dass das
Ziel B unbekannt ist und dass es deshalb auch nicht möglich ist, B genau zu
definieren. Die Zukunft ist nicht vorhersehbar und daher nicht im klassi-
schen Sinne planbar. Der Entscheider geht davon aus, dass sich seine Um-
welt ständig verändert und dass es viele weitere Akteure gibt, die die Ent-
wicklung ebenfalls beeinflussen. Die Frage lautet also:
„Wie komme ich von A nach Z?“
Auch hier steht eine Analyse am Anfang (Markt-, Kunden-, Investitionsbe-
darfsanalyse). Sie widmet sich allerdings den Möglichkeiten, über die das
Unternehmen verfügt. Das umfasst die finanziellen Möglichkeiten ebenso
wie die Fähigkeiten. Es umfasst aber auch das Netzwerk, die Menschen und
Organisationen, mit denen das Unternehmen in Beziehung steht. Der
nächste Schritt nach der Aufstellung der Möglichkeiten ist die Suche nach
Handlungsalternativen. „Was kann ich tun, um mein Unternehmen weiter-
zuentwickeln und ihm neue Chancen zu eröffnen?“ Es entsteht ein Zyklus.
Wenn der nächste Schritt getan ist und eine neue Handlungsalternative re-
alisiert wurde, hat das Unternehmen eine neue und hoffentlich bessere Po-
sition erreicht. Dieser Kreislauf wird fortgesetzt. Auf diese Weise ent-
steht Schritt für Schritt ein klareres Bild von dem, was das Unternehmen
erreichen kann. Demnach wird irgendwann aus dem Z ein B. Das ist auch
der Punkt, an dem das Unternehmen zur linear-kausalen Logik zurückkeh-
ren sollte, denn immer dann, wenn die Zukunft relativ gut vorhersehbar
ist und das Ziel deutlich vor Augen steht, ist die kausale Logik gefragt. Das
Ziel von Effectuation ist es also nicht, die linear-kausale Logik abzulösen.
Das Konzept versteht sich vielmehr als eine Ergänzung.
In unsicheren Situationen, in denen es schwerfällt, das Ziel zu definieren und
den Weg dahin zu planen, kann die Effectuation-Logik eine sinnvolle Alter-
native sein. Übertragen auf die Arbeit einer Führungskraft bedeutet das:
Leadership im digitalen Zeitalter
62
Wer mit Effectuation arbeiten möchte, der muss sich als Entrepreneur im
Unternehmen verstehen. Er muss sich an den Ressourcen orientieren, die
ihm zur Verfügung stehen und ausgehend davon Chancen entwickeln und
wahrnehmen. Wer sich in einem gut planbaren Rahmen bewegt, der kann
der linear-kausalen Logik folgen, das heißt planen, steuern und kontrollie-
ren.
Die Prinzipien
Welchem Prinzip folgt nun die Effectuation-Logik? Wie denken und entschei-
den Menschen nach dieser Logik? Sarasvathy hat fünf Prinzipien formuliert:
• Spatz-in-der-Hand-Prinzip (Prinzip der Mittelorientierung)
Nehmen Sie an, Sie hätten Hunger und wollten etwas essen. Wenn Sie der
kausalen Logik folgen, dann entscheiden Sie sich für ein Gericht, das sie ko-
chen können. Wenn Sie das Gericht noch nicht häufig gekocht ha-
ben, schauen Sie in Ihr Rezeptbuch und notieren die Zutaten, die Ihnen feh-
len. Anschließend gehen Sie einkaufen und bereiten Ihr Gericht zu.
Nehme Sie die gleiche Situation wie oben beschrieben an, dieses Mal unter
Berücksichtigung der Effectuation-Logik. Sie schauen in Ihren Kühlschrank
und Ihren Vorratsschrank. Aufgrund dessen, was Sie dort vorfinden, ent-
scheiden Sie, was Sie kochen werden. Das ist das Prinzip der Mittelorientie-
rung. Beide Methoden sind gleichermaßen dafür geeignet, um satt zu wer-
den. Sie sehen aber an dem einfachen Beispiel des Kochens auch, dass es
sinnvoll ist, je nach der Ausgangssituation, die eine oder die andere der bei-
den Methoden anzuwenden.
Nehmen Sie an, Sie kommen nach Hause und es ist spät und obwohl spätes
Essen nicht empfehlenswert ist, sind sie hungrig und treffen die Entschei-
dung zum nächtlichen Abendmahl. Der Blick in die Schränke verspricht die
schnellere Lösung, vielleicht ist er sogar die kreative Variante, weil Sie im
Kühlschrank über eine Zutat stolpern, die gut zu dem Gericht passt, das Sie
aufgrund Ihrer Vorräte ins Auge fassen.
Wenn Sie allerdings für das nächste Wochenende eine ganze Partie an
Freunden zum Abendessen eingeladen haben, dann wäre der Effectuation-
Ansatz beim Kochen mit einem hohen Risiko verbunden. Im Führungsalltag
bedeutet Mittelorientierung zuerst, zu prüfen, welche Mittel zur Verfügung
stehen. Das kann bedeuten, Ziele so anzupassen, dass Sie angesichts der ge-
fundenen Ausstattung realistisch sind. Auch hierzu soll ein Beispiel gegeben
werden: Wenn Sie Ihren Umsatz steigern wollen, dann müssen Sie unter Be-
rücksichtigung der Effectuation-Logik nachsehen, wie viele Verkäufer in Ih-
rem Unternehmen arbeiten und wie viel Umsatz jeder von ihnen machen
Leadership im digitalen Zeitalter
63
kann. Nach der kausalen Logik legen Sie das Umsatzziel hingegen fest, sehen
sich dann an, wen Sie „an Bord“ haben und müssen möglicherweise weitere
Verkäufer einstellen.
• Affordable-Loss-Prinzip (Prinzip des tragbaren Verlusts)
Üblicherweise machen Unternehmen ihre Investitionen vom erwarteten Er-
folg abhängig.
Wenn Sie eine Fortbildung machen, dann können Sie noch nicht genau vor-
hersagen, wie viel sie einbringen wird. Dazu gibt es zu viele Faktoren – Mo-
tive und Beweggründe sowie Messgrößen für den Erfolg, seien es Geldmit-
tel, die Erweiterung der persönlichen Fähigkeiten und neues Wissen. Wird
allerdings die Logik umgedreht, stellt sich die Frage: „Welche Investition in
meine Fortbildung kann ich mir in diesem Jahr leisten, ohne dass meine be-
rufliche Existenz in Gefahr gerät?“
• Limonade-Prinzip (Prinzip der Umstände und Zufälle)
Nach der kausalen Logik sollte ein Unternehmen Zufälle und Umstände mög-
lichst ausschließen, um nicht von seinem Weg abzukommen. In der Effectu-
ation-Logik nutzt das Unternehmen veränderte Umstände und Zufälle als
Gelegenheiten, weil sie vielleicht neue Chancen eröffnen. Viele spannende
Produkte und innovative Geschäftsideen sind nicht zuletzt aufgrund von Zu-
fällen entstanden oder weil der ursprüngliche Plan schief ging. Das berühm-
teste Beispiel dafür sind wohl die Post-it-Zettel. Eigentlich sollte bei 3M ein
neuer Kleber entstehen, der klebte aber nicht, sondern haftete nur und da-
von ausgehend erfand ein Mitarbeiter die international bekannten Post-it-
Zettel.
• Crazy-Quilt-Prinzip (Prinzip der Vereinbarungen und Partnerschaf-
ten)
Natürlich führen viele Unternehmen Partnerschaften. Wird nach der kausa-
len Logik vorgegangen, so suchen wir in aller Regel gezielt den richtigen Part-
ner und grenzen uns von unseren Mitbewerbern ab. Dem gegenüber geht
die Effectuation-Logik davon aus, dass anfangs noch nicht genau definiert
werden kann, wer als Partner geeignet und wer vielleicht doch ein Konkur-
rent ist. Aufgrund dessen erfolgt eine Abgrenzung. Der Kern ist die Frage,
wer dazu bereit ist, mit anderen zusammenzuarbeiten, obwohl eine natürli-
che Rivalität vorhanden ist, um so möglicherweise gemeinsam neue Kunden,
Märkte etc. zu erschließen, die keine der beiden Seiten allein erreichen
könnte.
• Pilot-in-the-Plane-Prinzip (Steuern ohne Vorhersage)
Dieses Prinzip schwebt über allen zuvor genannten. Die vier ersten Prinzi-
pien entheben das Unternehmen nicht von der Notwendigkeit, Abläufe zu
Leadership im digitalen Zeitalter
64
steuern. Es steuert anhand der Prinzipien, es beeinflusst seine Umwelt durch
das, was es tut. Das Einzige, was fehlt, ist die Garantie, dass sein Handeln
zum gewünschten Ergebnis führt. Das Beste aus dem zu machen, was zur
Verfügung steht, ist aus dieser Sicht ein überzeugender Ansatz.
5.10 Agile meets New Work
Agile Unternehmen und New Work sind zwei neue Sterne am Firmament der
Managementlehre, welche im vorhergegangenen Kapitel kurz erläutert wur-
den und nun aufgrund der besseren Differenzierung abermals und im Detail
ergänzt werden. Agilität wird im Kern gerne mit Schnelligkeit, Geschwindig-
keit und Flexibilität assoziiert, aber auch mit Selbstverantwortung und Ver-
trauen. New Work geht darüber hinaus. Der amerikanische Sozialphilosoph
Frithjof Bergmann hat dieses Konzept entwickelt, um eine Antwort auf das
Ende unseres klassischen Systems der Lohnarbeit zu finden. Nach Berg-
manns Definition hängt New Work eng mit dem Begriff der Freiheit zusam-
men – der Freiheit, etwas wirklich Wichtiges tun zu können. Es könnte auch
gesagt werden: „Um der Arbeit einen neuen Sinn zu geben.“
Aufgrund der angestrebten Sinngebung gehören zum Konzept der New
Work Stichworte wie Kreativität, Selbstverantwortung und Teilhabe. Un-
abhängig davon, welcher Richtung ein Unternehmen im Detail folgt, zeich-
nen sich agile Unternehmen, die diesen neuen Vorstellungen folgen, durch
bestimmte Grundsätze aus.
Die wichtigsten davon sind:
• Alle Kennzahlen sollten transparent sein: Dazu gehört nicht nur,
dass die Mitarbeiter immer auf dem aktuellen Stand sind, was die Fi-
nanzlage des Unternehmens betrifft. Je nach Unternehmen geht die
Transparenz so weit, dass auch die Gehälter jedes einzelnen Mitar-
beiters bis hin zum Chef für alle gleichermaßen bekannt sind.
• Entscheidungen sollten durchgängig nach demokratischen Regeln
getroffen werden: Entscheidungen werden nicht mehr nur allein auf
der Führungsebene getroffen. So kann beispielsweise ein Team ei-
genständig darüber entscheiden, ob es ein neues Projekt oder einen
neuen Kunden annimmt. Das geht in einigen Unternehmen so weit,
dass die Mitarbeiter auch über die Gehälter entscheiden. Damit ein-
her geht eine veränderte Rolle der Führungskraft. Führungskräfte
sind Moderatoren von Entscheidungsprozessen, aber nicht mehr
selbst die Allesentscheider. Worüber sollen sie auch noch entschei-
den, wenn alles im Team entschieden wird? Das ist genau der Kern,
der hinter dem Aufruf „Feuert die Chefs“ steht.
Leadership im digitalen Zeitalter
65
• Glaube an die Schwarmintelligenz: Anders gesagt: Führungskräfte
müssen sich darüber sicher sein, dass Gruppen prinzipiell bessere
Entscheidungen treffen als ein Einzelner.
• Mitarbeiter dürfen eigenverantwortlicher handeln: Für die Mitar-
beiter bedeuten diese neuen Ansätze, dass sie viel stärker dazu ge-
zwungen sind, die Verantwortung für ihr eigenes Handeln zu über-
nehmen – als Einzelner genauso wie im Team. Das bedeutet gleich-
zeitig mehr Entscheidungsfreiheit und eine aktive Rolle im Unterneh-
men. Mittlerweile haben zahlreiche Unternehmen aus unterschiedli-
chen Branchen diese neuen Ansätze aufgegriffen, darunter die Dro-
geriekette dm, Gore-Tex u. v. m.
Die Big-Points also noch einmal zusammengefasst: Alle Kennzahlen sind
bekannt und verständlich, Entscheidungen werden demokratisch getrof-
fen und den Mitarbeitern ist zumindest partiell das Ruder zu überlassen.
Leadership im digitalen Zeitalter
66
6 Führung alter Schule
Eine der Fragen, mit der sich Unternehmen und speziell Führungskräfte im
Bereich der operativen Führungskraft konfrontiert sehen bzw. eine allgegen-
wertige Unsicherheit besteht, ist die Art der Führung. Haben bewährte Mo-
delle noch einen Nutzen oder müssen sie Platz für Neues schaffen? Die eben
vorgestellten Methoden sind „durch die Bank“ ausgezeichnet, jede in ihrer
jeweiligen Aufgabenstellung. Die Frage, ob Altbewährtes obsolet sein wird,
ist jedoch durchaus berechtigt. Wahrscheinlich ist aber, dass Führungs-
kräfte das Rad nicht neu erfinden müssen. Führung entwickelt sich ständig
weiter. Deshalb ist es sinnvoll, an bewährten Führungspraktiken anzuset-
zen und diese weiterzuentwickeln.
Für die digitale Transformation gibt es einige Begriffe, welche folgend unter-
stützt und bestärkt werden sollen – „Revolution“ und „Evolution“ sind nur
zwei davon. Ganz gleich, welcher Vertreter gewählt wird, der kleinste ge-
meinsame Nenner ist die Komponente „Zeit“ und ihr Horizont. Oder: „Gut
Ding will Weile haben“, d. h., dass es sich hier um einen langen, grundsätzlich
nie endenden Prozess handelt. Somit ist ein stichtagsbezogenes Substitut
nicht notwendig bzw. würde mehr Schaden als Nutzen generieren. Perma-
nente Weiterentwicklung, Anpassung und Verbesserung sind die Eckpfeiler,
welche altbewährte Ansätze in neue Modelle überführen und ggf. von neuen
zusätzlichen Methoden gestützt oder ergänzt werden.
Eines, was sich jedoch mit Sicherheit sagen lässt, ist, dass Stillstand sowie die
Ablehnung über kurz oder lang das Unternehmen und seinen Fortbestand
immens in Frage stellen.
„Survival of the fittest“ verdeutlicht gut, dass auch, wenn aktuell eine
Marktmacht vorhanden ist, dies kein Garant für das erfolgreiche Bestehen
für die nächsten Jahre sein wird, ohne dass eine Umweltanpassung erfolgt.
Außerdem lässt sich nur so entscheiden, an welcher Stelle Bewährtes beibe-
halten wird und wo mit neuen Ansätzen weitergearbeitet werden sollte. Die
Modelle, welche vorgestellt wurden, werden folgend den altbewährten Füh-
rungsstilen vergangener Tage gegenübergestellt. Die bekanntesten Füh-
rungsansätze fanden ihre erste Erwähnung vor gut 30 bis 50 Jahren, in der
Zwischenzeit ist jedoch einige Zeit vergangen und dennoch sind genau diese
Ansätze nach wie vor in den heimischen Unternehmen maßgeblich, wenn
auch in adaptierter Variante, im Einsatz.
Vier bewährte „Oldies“ und Konzepte werden nicht als Tribut, sondern auf-
grund der omnipräsenten Daseinsberechtigung betrachtet und einer kriti-
schen Würdigung unterzogen sowie wird für sie eine Prüfung auf Tauglich-
keit zur digitalen Neuzeit angestellt. Die Auswahl erhebt keinen Anspruch
Leadership im digitalen Zeitalter
67
auf Vollständigkeit, die vier Modelle bzw. Denkansätze wurden im Hinblick
auf die neuen und aktuellen Herausforderungen in Kombination mit dem je-
weiligen zugesprochenen Potenzial und der Beständigkeit gewählt:
1. Situatives Führen.
2. Management by Objectives.
3. Management by Delegation.
4. Personalentwicklung entlang bewährter Karrierepfade.
Auswahl im Detail
Situatives Führen: Situatives Führen erfreut sich bei Führungskräften schon
lange an großer Beliebtheit. Dieser Ansatz geht davon aus, dass es keinen
Führungsstil gibt, der sich universell, d. h., in jeder Situation und auf jeden
Mitarbeiter anwenden ließe. Die Flexibilität und der Blick auf den einzelnen
Mitarbeiter sind wesentliche Punkte, die auch vor dem Hintergrund der
neuen Herausforderungen entscheidend sind.
Die Theorie des situativen Führens entstand Ende der Siebzigerjahre und
stammt von den beiden US-Amerikanern Kenneth Blanchard und Paul Her-
sey. Was steckt dahinter? Die Grundannahme des situativen Führens lau-
tet: Es gibt keinen Führungsstil, der ausnahmslos in jeder Situation und je-
dem Mitarbeiter gegenüber angemessen ist. Deshalb ist es wichtig, den
Führungsstil der Situation anzupassen.
Doch was bedeutet anpassen? Die zentrale Richtgröße dabei ist das, was
Blanchard den „Reifegrad“ des Mitarbeiters nennt. Überdies wird zwischen
zwei Grundorientierungen unterschieden:
Aufgabenorientierung und Beziehungsorientierung.
Letztlich ist die Führungskraft, die situativ vorgeht, hauptsächlich Coach und
Personalentwickler. Was bedeutet das konkret? Nehmen Sie an, ein Mitar-
beiter ist gerade erst eine neue Stelle in einem Unternehmen angetreten. Es
ist zu vermuten, dass der Vorgesetzte diesen Mitarbeiter zunächst einmal
eng führen wird. Er wird die Aufgaben des Mitarbeiters genau definieren
und beobachten, wie der Mitarbeiter sich verhält. Das liegt nahe, denn der
Mitarbeiter braucht Zeit, um sich mit den neuen Systemen und Regeln im
Unternehmen vertraut zu machen. Außerdem wird die Führungskraft sich
ein Bild davon machen wollen, was er tatsächlich leisten kann. Sie wird also
aufgabenorientiert führen.
Stellen Sie sich im Gegensatz zu dem letzten Beispiel einen Mitarbeiter vor,
der schon mehrere Jahre in ein und derselben Position im Unternehmen be-
schäftigt ist. Dieser Mitarbeiter beherrscht die Systeme, kennt seine Aufga-
ben und braucht nicht mehr eng geführt zu werden. In Fällen wie diesen wird
Leadership im digitalen Zeitalter
68
die Führungskraft darüber nachdenken, wo ungenutzte Potenziale des Mit-
arbeiters liegen. Sie wird sich fragen, wie sie den Mitarbeiter weiterentwi-
ckeln kann. Sie orientiert sich also vornehmlich an dem Ziel, die Arbeitsbe-
ziehung zu gestalten. Situativ zu führen ist sehr populär und natürlich gibt es
auch Kritik daran.
Die beiden wichtigsten Punkte aus theoretischer Sicht sind die folgen-
den: Dieser Führungsansatz ist empirisch nicht nachweisbar und umfasst
kaum konkrete Handlungsanweisungen für Führungskräfte.
Dennoch gibt es zwei Argumente, die für situatives Führen sprechen:
• Die Erkenntnis, dass es keinen Führungsstil nach der Devise „one size
fits all“ gibt. Die Führungskraft ist folglich immer darauf angewie-
sen, auf die Situation und seine Mitarbeiter zu reagieren.
• Das Argument der engen Orientierung am einzelnen Mitarbeiter.
Situative Führung nimmt viel Zeit in Anspruch. Bedenken Sie jedoch Folgen-
des: Ungeachtet der vielen guten alternativen Theorien und noch so vielen
gut gemeinten Vorgaben vonseiten des Unternehmens bleibt das Folgende
bestehen: Wenn ein Mitarbeiter nicht dazu in der Lage ist, die definierten
Anforderungen zu erfüllen, dann verpuffen alle Ideen und Vorgaben ohne
sichtlich positive Wirkung. Die Orientierung an der Person und den Möglich-
keiten des Mitarbeiters bleibt aus dieser Sicht immer aktuell. Und für viele
Führungskräfte ist und bleibt sie eine zentrale Herausforderung.
Management by Objectives (Führen mit Zielen): Unabhängig davon, vor
welchen Herausforderungen wir stehen, sind Ziele für die persönliche Wei-
terentwicklung des Einzelnen ebenso wie für Unternehmen wichtig. Wie soll
auf eine neue Herausforderung, ungeachtet welcher Art, geantwortet wer-
den, wenn keine Klarheit darüber herrscht, wo der Weg hinführen soll?
Führen mit Zielen greift einen bestimmten Aspekt von Führung auf. Es voll-
zieht sich mithilfe von zwei Instrumenten: Zum einen mit Zielvorgaben von
oben nach unten und zum anderen mit formalisierten Prozessen zur Ver-
einbarung von Zielen. Die Zielvereinbarungen dienen dazu, die strategi-
schen und die operativen Ziele des Unternehmens sowie die individuellen
Mitarbeiterziele miteinander in einen schlüssigen Zusammenhang zu brin-
gen. Mittlerweile haben viele Unternehmen den Prozess der Zielvereinba-
rung weiterentwickelt, um die Mitarbeiter an der Erarbeitung der Ziele zu
beteiligen und damit das Verständnis und die Motivation zu fördern. Den-
noch werden die strategischen Unternehmensziele häufig nach wie vor al-
lein von der Geschäftsleitung definiert. Bereichs- oder Teamziele sowie die
individuellen Aufgaben- und Entwicklungsziele für die Mitarbeiter werden
dann in Gruppen- und Einzelgesprächen erarbeitet. Auf diese Weise können
Leadership im digitalen Zeitalter
69
die Mitarbeiter von Anfang an einen gewissen Teil der Verantwortung für
die Verwirklichung der Ziele übernehmen. Die Aufgabe der Führungskraft ist
es nach wie vor, die Zielerreichung zu kontrollieren und zu dokumentieren.
Der Vorteil des Management by Objectives liegt auf der Hand: Ziele bieten
Orientierung, sie geben die Richtung an, sie schaffen Transparenz und hel-
fen den Mitarbeitern, ihre eigene Rolle und ihren Beitrag zum Unterneh-
menserfolg zu verstehen. Dieser Vorteil kommt insbesondere dann zum
Tragen, wenn die Mitarbeiter an der Erarbeitung der Ziele beteiligt
sind. Führen mit Zielen bringt allerdings in der Praxis auch Probleme mit sich.
Debatten über Zielverfehlungen aufgrund langer Distanzen oder schwammi-
ger Definitionen sorgen etwa für hitzige Diskussionen und schwindende Mo-
tivation. Das gilt vor allem dann, wenn die Zielerreichung mit einem finanzi-
ellen Bonus verknüpft wurde. Nicht selten werden andere Leistungen außer-
halb des Zielrahmens ins Feld geführt, um den Anspruch auf die Bonuszah-
lung zu retten. Ungeachtet, ob mit oder ohne Bonus, im Laufe eines Jah-
res kommt es immer wieder vor, dass Ziele angepasst werden müssen, weil
sich die Umstände geändert haben. Speziell in Zeiten der digitalen Transfor-
mation ist das morgige Ziel noch gewiss, die Tage danach können, aber müs-
sen nicht, mit neuen Überraschungen aufwarten. Auch wenn dies überspitzt
gezeichnet ist, soll es deutlich zeigen, dass gewisse Zeithorizonte, wie hier
das eine Jahr, nicht mehr zeitgemäß sind. Zwischenziele, Meilensteine und
Raum für Adaptierung sollten fixer Bestandteil für langfristige Motivation
und gleichzeitig Transparenz sein.
Alles in allem ist dies aber kein Argument, um die Grundidee zu verfälschen.
Die Definition von Zielen auf den verschiedenen Ebenen des Unternehmens
ist und bleibt ein wichtiger Faktor im Berufsleben. Deshalb sollten Ziele auch
und gerade dann, wenn sie für einen längeren Zeitraum definiert wur-
den, nicht in der Schublade verschwinden. Sie sollten maßgeblich für die täg-
liche Arbeit sein. Wenn es sich herausstellt, dass ein bestimmtes Ziel revi-
diert werden muss, dann sollten die Beteiligten ihre Verantwortung wahr-
nehmen und das Gespräch darüber suchen. Deshalb bleibt Zielorientierung
ein wichtiges Thema auch – oder vielleicht sogar gerade – unter den geän-
derten Vorzeichen der digitalen Transformation.
Management by Delegation: Delegieren und das Übertragen von Verant-
wortung auf Mitarbeiter oder Teams ist eine wichtige Führungsaufgabe. In-
wieweit sie gelingt, hängt meist mit der Frage des Vertrauens zusam-
men. Das gilt für die Führungskraft ebenso wie für die Mitarbeiter. Delegie-
ren ist nicht zuletzt aus zwei Gründen wichtig: Zum einen verhindert es, dass
Wissen an einzelnen Stellen gehortet wird, zum anderen fördert es die Zu-
sammenarbeit und die Weitergabe von Informationen. Diese Faktoren spie-
len angesichts der heutigen Informationsvielfalt eine zentrale Rolle.
Leadership im digitalen Zeitalter
70
Im Wesentlichen geht es beim Führen durch Delegieren darum, möglichst
viele Aufgaben, aber auch möglichst viel Verantwortung an Mitarbeiter
oder Teams von Mitarbeitern zu übertragen. Damit wird die Führungskraft
entlastet. Außerdem steigen der Grad der Selbstorganisation und die Moti-
vation der Mitarbeiter, weil sie mehr Einfluss und Entscheidungsmöglichkei-
ten genießen. Allerdings fällt es vielen Führungskräften schwer, zu delegie-
ren. Um effektiv delegieren zu können, werden passende Techniken und ein
gewisses Fingerspitzengefühl benötigt.
Worauf kommt es also an, wenn Sie effektiv delegieren wollen?
Das Wichtigste ist nach wie vor: Vertrauen. Die Führungskraft muss darauf
vertrauen können, dass die Aufgaben, die sie delegiert, in ihrem Sinne gelöst
werden. Dazu zählt auch ein Vertrauensvorschuss, etwa bei neuen, unbe-
kannten Mitarbeitern. Das ist einfacher, als es klingt. Die Mitarbeiter wiede-
rum müssen sich darauf verlassen können, dass ihr Vorgesetzter tatsächlich
delegiert und sich nicht nur der Aufgaben entledigt, die ihm selbst unange-
nehm sind. Klingt anfänglich widersprüchlich, ist jedoch gängige Praxis und
ein Garant für Unzufriedenheit. Fremdarbeit, meist die der Führungskraft,
wird erledigt, Aufgaben des eigenen Bereiches werden hinten angereiht. Ef-
fektives Delegieren setzt gewisse Rahmenbedingungen vonseiten des Unter-
nehmens voraus, d. h. so etwas wie eine Delegationskultur. Wenn die Füh-
rungskraft delegiert, dann gibt sie auch Wissen ab. Jedoch ist die Führungs-
kraft selbst kaum mit jedem Detail und mit jeder Aufgabe vertraut bzw. ist
es nicht möglich, immer den aktuellen Informationsstand zu haben, insbe-
sondere dann, wenn auch andere Personen beteiligt sind und nur diese Auf-
gabe von einer Person zugeteilt wurde. Wenn aber die Führungskraft dies
erwartet, dann wird Delegieren fast unmöglich. Das kommt nicht so selten
vor, wie Sie vielleicht vermuten. Wenn es aber funktioniert, ist dies ausge-
zeichnet und zeugt von einem eingespielten Team und einem homogenen
Wissensstand.
Nehmen Sie an, Ihr eigener Chef sei risikoscheu und setzt bei seiner Arbeit
den Hauptakzent darauf, seine Mitarbeiter eng zu kontrollieren. Letzten En-
des glaubt er nur an die Ergebnisse, die er selbst herbeigeführt hat. In die-
sem Fall dürfte es für Sie als Führungskraft kaum möglich sein, zu delegie-
ren, auch wenn Sie es selbst noch so sinnvoll finden. Delegation erfordert
zudem auch passende Instrumente und nicht lediglich die Übertragung einer
Tätigkeit. Das betrifft auch die Kontrollmechanismen:
Nicht immer ist es sinnvoll oder möglich, eine Aufgabe zur Gänze zu delegie-
ren. Die Folge ist in diesen Fällen, dass die Aufgabe zerlegt wird und dass nur
bestimmte Teile davon delegiert werden. Zudem gilt es, immer zu fragen, an
welche Person delegiert werden sollte. Nicht jeder Mitarbeiter ist für eine
bestimmte Aufgabe gleich gut geeignet und am Ende muss entschieden
Leadership im digitalen Zeitalter
71
werden, wie kontrolliert wird. Reicht es aus, das Endergebnis zu prü-
fen? Oder ist die Aufgabe so komplex, dass ein Zwischenbericht vorgelegt
werden sollte? An dieser Stelle ist vor allem Kommunikation gefragt. Die de-
legierende Führungskraft muss die Aufgabe hinreichend genau beschreiben,
den Termin festlegen, bis zu dem die Aufgabe gelöst sein soll, und nicht zu-
letzt entscheiden, wie kontrolliert werden soll. Delegieren ist ein wichtiges
Mittel, um Verantwortung zu teilen, Ressourcen effektiv zu verteilen und die
Fähigkeiten der Mitarbeiter zu nutzen.
Personalentwicklung entlang bewährter Karrierepfade: Karriere bedeutet
für viele Menschen immer noch, eine zunehmende Anzahl von Mitarbeitern
unter der eigenen Leitung zu versammeln und währenddessen Schritt für
Schritt die Karriereleiter hinaufzusteigen. In verteilten Teams und flachen
Hierarchien und überall dort, wo Führung auf eine begrenzte Zeit angelegt
ist, hat dieser Ansatz aufgrund von Unmachbarkeit ausgedient. Folglich sind
neue Ansätze notwendig.
Leadership im digitalen Zeitalter
72
7 Spannende Blickwinkel
Spannende Blickwinkel, welche es noch zu berücksichtigen gilt, wollen wir in
diesem Kapitel betrachten. Obwohl Globalisierung mittlerweile zum alten Ei-
sen der Unternehmensveränderung gezählt werden kann, ist sie nach wie
vor omnipräsent und wesentlicher Bestandteil und im Speziellen in Kombi-
nation mit der digitalen Transformation. Große Konzerne in allen Branchen
haben sich längst mit der Globalisierung auseinandergesetzt und nutzen de-
ren Vorteile für sich. Aber viele andere, gerade kleine und mittelständische
Unternehmen, haben mit dem Thema noch Schwierigkeiten. Manchmal er-
scheint bereits der Schritt über die eigenen Ländergrenzen hinweg, selbst in
die angrenzenden Nachbarländer, als gewagtes Unterfangen.
Die Herausforderung zur „Eroberung“ neuer Länder kann in zwei Kernele-
menten beschrieben werden. Der Schritt in ein neues Land bedeutet immer
auch die Auseinandersetzung mit fremden Gesetzen, Normen und Stan-
dards. Je nach Land und Branche sind die damit verbundenen Prob-
leme mehr oder weniger schwerwiegend. Möglicherweise muss das Unter-
nehmen externe Spezialisten zurate ziehen, die die Eigenheiten des betref-
fenden Landes gut kennen. Das entscheidendere Element lässt sich folgen-
dermaßen umschreiben: Globalisierung bedeutet Arbeitsteilung, geteilte
Verantwortung und damit letztendlich verminderte Möglichkeiten der
Kontrolle für alle Beteiligten. Wenn ein Unternehmen seine Geschäftstätig-
keit internationalisiert, dann ist es durchaus nicht ungewöhnlich, dass bei-
spielsweise die Zentrale in Österreich, die Leistungserbringung in London
und das Tochterunternehmen in Ungarn sitzen. Der kurze Weg zum Schreib-
tisch des Kollegen, den viele Mitarbeiter schätzen, fällt dann ebenso
weg wie die gemeinsame Tasse Kaffee oder der Austausch in der Mittags-
pause.
Was bedeutet diese zweifache Herausforderung für Führungskräfte?
Führungskräfte sollten Veränderungen begleiten, die mit Globalisierungs-
prozessen einhergehen. Einen guten Anwalt zu finden, der die Gesetze in
dem fremden Land kennt, ist das geringste Problem. Viel schwieriger ist es
hingegen, die Mitarbeiter in diesem Prozess zu begleiten und ihren Unsi-
cherheiten und Ängsten zu begegnen. Die Führungskräfte sind euphorisch,
sehen neue Chancen, wachsenden Umsatz und vielleicht auch persönliche
Entwicklungsmöglichkeiten. Die Mitarbeiter sind hingegen meist verunsi-
chert. Diverse Expansionsvorhaben, welche in den Sand gesetzt wurden, zei-
gen immer dieselben Gewinner und Verlierer, obwohl diese aus denselben
Unternehmen stammen – somit lässt sich hier eine „unbegründete“ Sorge
nicht abstreiten.
Fragen damals wie heute sind:
Leadership im digitalen Zeitalter
73
• Bin ich diesen Anforderungen gewachsen?
• Wie kann ich mit Sprachproblemen umgehen?
• Was bedeutet es für mich, wenn ich mich nicht eben mal spontan mit
dem Kollegen von nebenan besprechen kann?
Digitalisierung ist in diesem Punkt ein starker Verbündeter– sei es durch Vi-
deotelefonie, Übersetzungsdienstleistungen u. v. m. Führungskräfte können
bzw. müssen ihre Mitarbeiter bei der Suche nach Antworten auf diese Fra-
gen unterstützen. Das setzt aber zweierlei voraus:
1. Sie sollten zum einen zwischen den Zeilen lesen können wie z. B.,
wenn ein Mitarbeiter im Team-Meeting fragt, ob denn die Unterneh-
mensführung alle Bedingungen in dem anderen Land erfüllen kann
und eigentlich meint, dass er sich nicht sicher ist, ob er alle Spielre-
geln beherrscht. Oft verstecken sich hinter vermeintlich sachlichen
Argumenten persönliche Ängste und Befürchtungen.
2. Eng damit verbunden ist: Führungskräfte müssen intensiv mit ihren
Mitarbeitern kommunizieren. Das gilt gegenüber dem gesamten
Team ebenso wie gegenüber jedem einzelnen Mitarbeiter.
Die Kommunikation mit dem Team muss vor allem dazu dienen, die Prozesse
transparent zu machen und die Motivation zu sichern. Im Zweiergespräch
mit dem Mitarbeiter hingegen ist Raum, um über Ängste zu sprechen und
Hilfestellungen vonseiten des Unternehmens beispielsweise in Form von
Schulungen zuzusichern.
Demografische Herausforderungen: Die Babyboomer-Generation der Sech-
ziger- und frühen Siebzigerjahre ist meist schon auf dem Weg in den wohl-
verdienten Ruhestand. Vor allem im öffentlichen Bereich, aber auch in vie-
len Unternehmen, wird in den nächsten zehn bis 15 Jahren ein rundes Drittel
der Beschäftigten altersbedingt aus dem Erwerbsleben ausscheiden. Parallel
dazu fehlen Fach- und Führungskräfte heute mehr als damals. Die digitale
Transformation ist ein maßgeblicher Treiber bzw. in erster Linie die Digitali-
sierung per se. Hier könnte in den Raum gestellt werden, dass dies den Wis-
sensansprüchen der einzelnen Länder und Unternehmen selbst geschuldet
ist. Würden die Ambitionen zurückgeschraubt werden, würde damit der
Fachkräftemangel reduziert werden, allerdings würde damit auch die eigene
Marktstellung und der gute Ruf der letzten Jahre zunichtegemacht. Ganz
gleich, ob Land oder Unternehmen, dieses Vorhaben der Expansion steht
wohl bei kaum jemandem auf der Tagesordnung. Wie üblich soll die Entwick-
lung forciert, etabliert und Neues geschaffen werden. Neben Technik benö-
tigt dies auch Menschen. Die Realisierung ist schwieriger als gedacht, selbst
wenn genügend Menschen vorhanden wären, welche die nötigen
Leadership im digitalen Zeitalter
74
Fähigkeiten beherrschen – benötigt werden auch Brückenmacher, welche
die digitale Transformation begleiten und die Schnittstellen bestmöglich
glätten.
Der Gegenpart zu den baldigen Pensionisten sind die Youngsters aus der Ge-
neration Y und Z, also alle diejenigen, die seit den Achtzigerjahren geboren
wurden. Sie treten ins Berufsleben ein – die Dualität bildet für viele Perso-
naler eine markante Herausforderungen. In Bezug auf diejenigen, die in den
kommenden Jahren in den Ruhestand gehen, geht es für die Unternehmen
vor allem um eines: Wissenstransfer bzw. -haltung. Eine Frage, mit der sich
momentan viele Firmen konfrontiert sehen, lautet: Wie kann verhindert
werden, dass der Erfahrungsschatz der baldigen Pensionäre verloren geht?
Die Lösung der obigen Frage wird einerseits in der Technik gesucht, indem
Wissen festgehalten und per Datenbank zugänglich gemacht wird. Anderer-
seits versuchen Unternehmen, Mitarbeiter mithilfe von flexiblen Rentenlö-
sungen länger an die Unternehmen zu binden, damit sie ihr Wissen und vor
allem ihre Erfahrung weitergeben können.
Ein weiteres Gedankenspiel: Wie würde der Transfer Ihres Wissens, Ihrer Ex-
pertise aussehen? Könnte dieses im Sinne des digitalen Signals und somit
verlustbefreit transferiert und reproduziert werden oder bleibt doch etwas
auf der Strecke? Und wenn ja, handelt es sich dabei um das „i-Tüpfelchen“?
In den meisten Fällen ist es genau dieser eine Mehrwert, welcher kaum oder
gar nicht anderswo festgehalten werden kann.
Viel entscheidender ist aber derzeit die Auseinandersetzung mit den Gene-
rationen Y und Z. Personaler haben in aller Regel ein eher getrübtes Bild von
dem kommenden Gestalten der Zukunft. Die Generationen Y und Z haben in
aller Regel hohe Ansprüche und ein übermäßiges Selbstbewusstsein. Außer-
dem neigen sie zur Selbstüberschätzung. Mit ihrer Kritikfähigkeit ist es nicht
allzu weit her. Andererseits sind ihre Mitglieder gut vernetzt, oftmals gut in-
formiert und zeigen eine hohe Flexibilität und Wechselbereitschaft. Die Di-
gitalisierung hat hier beste Arbeit geleistet, dem Internet und seinen Ele-
menten sei Dank. Jedoch kann nicht der Technik, wie so oft, die Schuld zu-
gewiesen werden, sondern es gilt auch hier: „Es ist das, was man daraus
macht“.
Was können Führungskräfte aus diesem Bild der Generationen Y und Z ab-
leiten?
• Versuchen Sie nicht, Dinge zu ändern, die Sie nicht ändern kön-
nen. Jede Generation hat ihre Eigenheiten, die logischerweise bei an-
deren Generationen oft auf Unverständnis stoßen. Im beruflichen
Kontext kann das nur bedeuten, diese Eigenheiten so weit wie mög-
lich zu akzeptieren. Es geht nicht um persönliches
Leadership im digitalen Zeitalter
75
Empfinden, sondern um effektive, zielorientierte Arbeit. Die Flexibi-
lität und Wechselbereitschaft jüngeren Generationen ist einerseits
eine Herausforderung für Führungskräfte, ist doch diesen Generati-
onen die Idee, das eigene Berufsleben bis zu seinem Ende in ein und
demselben Unternehmen zu verbringen, völlig fremd. Andererseits
können die Mitarbeiter auf die ständigen Veränderungen, die in vie-
len Unternehmen an der Tagesordnung sind, viel besser reagieren.
• Die hohe Technikaffinität der Generationen Y und Z stört manchen
Ausbilder, der es nicht gewohnt ist, dass während der Arbeit bei-
spielsweise WhatsApp-Nachrichten verschickt werden. Andererseits
sollten Sie darüber nachdenken, wie Sie diese Affinität nutzen kön-
nen, um die eigenen Prozesse umzugestalten und effizienter zu ma-
chen. Dies soll jedoch nicht als Freibrief für den uneingeschränkten
Technik-Konsum verstanden werden, eine ausgewogene Mischung
ist hier das erklärte Zielbild.
Die hohen Ansprüche jüngerer Generationen, die viele von uns vermutlich
wahrnehmen, führen möglicherweise zu einem besseren Ausgleich zwi-
schen Beruf und Privatleben. Jedoch scheiden sich auch hier die Geister: Da
die exorbitante Benutzung von Digitalem mit hohem Suchtfaktor, Wahrneh-
mungsverzerrung und möglicher Überforderung durch Informationsflut die-
sem Gedanken des Ausgleichs entgegensteht.
Der eben geschilderte demografische Wandel bringt vor allem auch in der
Personalrekrutierung Veränderungen mit sich. Das bedeutet deutliche Aus-
wirkungen für das Unternehmen, die Führung sowie für die tägliche HR-Tä-
tigkeit. Das arbeitgeberzentrierte Recruiting wird zugunsten eines bewer-
berzentrierten Recruitings in den Hintergrund treten, weil sich der Markt
entsprechend verändert. Für Führungskräfte und Personalabteilungen be-
deutet das einen Perspektivenwechsel.
Ich bewerbe mich um den Kandidaten!
Das ist sicher für viele eine Herausforderung für sich, bedeutet sie doch, dass
sich Unternehmen deutlich positionieren und ihren Mitarbeitern mehr bie-
ten müssen als die pünktliche Gehaltszahlung am Monatsende.
Arbeitsprozesse und Arbeitsorganisation: Änderungen in der Arbeitswelt
hat es immer schon gegeben und wird es auch immer geben. Andernfalls
wären viele Innovationen nie zustande gekommen. Aber die Globalisierung
und die Digitalisierung haben neue Veränderungsimpulse gesetzt. Wird der
wachsende Mangel an Fachkräften in bestimmten Bereichen hinzu addiert,
so wird noch einmal mehr deutlich, woher die jüngeren Veränderungen
stammen. Globalisierung und Digitalisierung haben dazu geführt, dass
Leadership im digitalen Zeitalter
76
Menschen nicht mehr in einem Büro zusammensitzen müssen, um mitei-
nander arbeiten zu können. Sie können über Kontinente verteilt sein und
müssen noch nicht einmal demselben Unternehmen angehören. Sie können
zeitlich begrenzt zusammenarbeiten, um gemeinsam ein bestimmtes Pro-
jekt zu verwirklichen. Dezentrale oder virtuelle Teams arbeiten zuweilen
ebenso erfolgreich wie feste Teams. Eine solche Zusammenarbeit stellt Mit-
arbeiter und Führungskräfte gleichermaßen vor neue Herausforderun-
gen. Für die Mitarbeiter geht es dabei darum, sich schnell an andere Charak-
tere und deren Arbeitsweisen anzupassen. Flexibilität ist gefragt. Führungs-
kräfte müssen noch einen Schritt weiter gehen.
Führungskräfte müssen ein Team steuern, für dessen Mitglieder sie nicht im
klassischem Sinne Führungsverantwortung tragen, zumindest nicht für alle.
Das eine oder andere Teammitglied untersteht vielleicht der direkten Ver-
antwortung der Führungskraft. Hierzu gesellen sich ggf. Mitglieder aus an-
deren Abteilungen oder Bereichen und nicht zuletzt womöglich auch ex-
terne Personen (Berater etc.). Die Führungskraft kann sich also zumindest
nicht allein auf die herkömmlichen Methoden zur Durchsetzung und Sankti-
onierung stützen. Sie ist gefordert, mehr in Kommunikation und Motivation
zu investieren und auf die freiwillige Mitarbeit der Teammitglieder zu set-
zen.
Ebenso wird das klassische Bild einer Führungskraft und ihrer Karriere in
Frage gestellt. Der althergebrachte Ansatz, auf jeder weiteren Stufe der Kar-
riereleiter Verantwortung für zusätzliche Mitarbeiter zu übernehmen, lässt
sich unter den veränderten Vorzeichen der Globalisierung und der Digitali-
sierung nicht mehr anwenden. Für einige Führungskräfte ist das völlig in
Ordnung. Für andere Führungskräfte, deren Selbstwertgefühl an das klassi-
sche Karriereverständnis gekoppelt ist, bedeutet es ein Problem. Hier gilt es,
entsprechend unterstützend tätig zu werden.
Im Extremfall kippt das Verständnis vom beruflichen Erfolg. Das ist eine Her-
ausforderung, die sich nur individuell bewältigen lässt. Das Führungsbild
wird sich in den nächsten Jahren definitiv einem Wandel unterwerfen (müs-
sen). Heute mangelt es allerdings noch an generellen Empfehlungen, wie
Führungskräfte damit umgehen können.
Veränderungen zu akzeptieren, ist dann recht flott und kompromisslos mög-
lich, wenn der eigene Nutzen daraus erkennbar wird. Fragen Sie sich: Was
bringt es mir persönlich, wenn ich in einem dermaßen veränderten Umfeld
arbeite?
Stichworte wie mehr Freiheit für die Führungskraft oder weniger Belastung
durch die Verantwortung, effizientes Arbeiten und zufriedene Mitarbeiter
sind hier ein paar mögliche Ausprägungen.
Leadership im digitalen Zeitalter
77
8 Führung 3.0 – vom Manager zum Leader
Nach der digitalen Transformation ist vor der digitalen Transformation. Se-
hen wir uns daher im Folgenden genauer an, wie Sie das Bestmögliche aus
der Veränderung herausholen können.
8.1 Auf Augenhöhe
Stellen Sie sich eine Führungskraft vor, die ein Team aus Spezialisten
führt. Das Unternehmen legt Wert auf Transparenz. Führungswissen im
Sinne eines Informationsvorsprungs der Führungskräfte gibt es nur noch in
sehr begrenzten Bereichen. Woraus kann diese Führungskraft ihre Legitima-
tion zur Führung beziehen? Aus ihrem Fachwissen kann Sie dies nur be-
grenzt, denn an das Wissen ihrer Spezialisten wird es nicht heranrei-
chen. Aus einem Wissensvorsprung auch nicht, denn das widerspricht den
Grundsätzen des betrachteten Unternehmens. Unter derartigen Vorzei-
chen, die sehr häufig heute schon gesetzt sind, verändert sich die Führung.
Die Macht der Führungskraft lässt sich nicht mehr aus ihrem Vorsprung ge-
genüber dem Team ableiten. An die Stelle von Macht tritt Überzeugungs-
kraft. Die Führungskraft gibt ihren Vorsprung auf und stellt sich auf Augen-
höhe mit den Mitarbeitern. Unter den Führungskräften gibt es solche, de-
nen bei dieser Vorstellung Schweißperlen auf die Stirn treten. Andere wie-
derum freuen sich und sagen z. B.:
• „Ich will kein Sklaventreiber sein.“
• „Ich will nicht bestimmen, nur weil ich Chef bin. Stattdessen macht
es mich zufrieden, wenn es mir gelingt, meine Mitarbeiter zu über-
zeugen und zu motivieren.“
Vielleicht liegt die Wahrheit, wie so oft, „irgendwo dazwischen“. Führungs-
kräfte brauchen eine gewisse Fachkompetenz, um Anerkennung zu fin-
den. Ein neuer Chef einer Abteilung, der aus einem komplett anderen Fach-
gebiet stammt, wird sich sehr schwertun. Es wird lange dauern, bis er akzep-
tiert wird, deutlich länger als bei jemandem, der die Inhalte des Bereichs
kennt, den er leitet. Andererseits geht es gerade in flachen Hierarchien oder
in Teams, die sich über mehrere Abteilungen oder Standorte verteilen, nicht
um die klassische Durchsetzung von Positionen aufgrund der formalen
Macht des Chefs. Diese Veto-Karte kann heute nur noch im Notfall gezogen
werden. Gefordert sind Führungskräfte mit einer hohen sozialen Kompe-
tenz und einer ausgeprägten Kommunikationsfähigkeit. In Führungspositio-
nen werden weniger Entscheider gebraucht als vielmehr Übersetzer, Mode-
ratoren und Konfliktlöser. Auch die Unternehmen sind gefordert, sich an
diese Veränderungen anzupassen.
Digital Leader 2.0
Leadership im digitalen Zeitalter
78
Neue Vorstellungen von Führung bedeuten nicht nur, dass potenzielle Füh-
rungskräfte anders ausgewählt werden müssen. Es bedeutet außerdem
eine komplette Veränderung der Unternehmenskultur.
Darin liegt für die Unternehmen auch ein Risiko, denn die Anforderungen an
Mitarbeiter und Führungskräfte steigen. Nicht jeder ist bereit und fähig, die-
sen Weg mitzugehen, da sich doch jeder womöglich noch Fähigkeiten aneig-
nen muss, die in Ausbildung und Studium nicht vermittelt wurden. Lebens-
langes Lernen, aber auch die Bereitschaft, sich ein Leben lang zu verändern,
sind Teil dieser Anforderungen. Eine Bestätigung, etwas erreicht zu haben,
genügt nicht mehr, um auf dem erreichten Niveau bleiben zu können. Aber
es gibt auch einen Vorteil: Mehr Selbstverantwortung und Selbstorganisa-
tion der Mitarbeiter und Führungskräfte resultieren häufig in einer höheren
Motivation. In der Konsequenz tragen so mehr Menschen mit mehr Engage-
ment zum Erfolg eines Unternehmens bei.
8.2 Leader anstatt Manager
In klassischen Hierarchien ist die Aufgabe von Führungskräften klar. Sie agie-
ren als Vorgesetzte, sie organisieren, strukturieren, geben Ziele vor und kon-
trollieren die Leistung der Mitarbeiter. Angesichts der neuen Herausforde-
rungen ist eine veränderte Rolle der Führungskraft gefragt. Es geht darum,
auch als Angestellter unternehmerisch zu denken.
Was das bedeutet, lässt sich folgendermaßen beschreiben:
• Zuerst muss die Führungskraft einen stärkeren Akzent auf die Defini-
tion des generellen Rahmens setzen. Dazu gehören die grundlegen-
den Prinzipien und Werte, nach denen gearbeitet wird. Die Ausge-
staltung und die Entscheidung über die Details werden dem Team
überantwortet.
• Die Führungskraft muss die Ausrichtung ihres Handelns verän-
dern. Früher ging es darum, definierte Ziele zu erreichen und dafür
zu sorgen, dass die Mitarbeiter diese Ziele nachhaltig verfol-
gen. Demgegenüber gilt es heute, Wege zu finden und Chancen zu
erarbeiten.
• Die Führungskraft muss sich stärker auf die Entwicklung von Strate-
gien und auf das Vorantreiben von Innovationen konzentrieren. Das
kann sie auch, und zwar deshalb, weil sie von operativen Aufga-
ben befreit wird ( korrektes Delegieren). Anders formuliert: Die
Führungskraft gewinnt an kreativer Freiheit. Damit wird sie im Ver-
hältnis zu den Mitarbeitern stärker zum Personalentwickler und
Coach.
Leadership im digitalen Zeitalter
79
Wenn die Führungskraft den Blick darauf richtet, was sie mit den verfügba-
ren Mitteln erreichen kann, bedeutet das immer auch zu fragen:
• „Was können meine Mitarbeiter?“
• „Wohin können sie sich entwickeln?“
In der täglichen Arbeit bedeutet das auch, dass die Führungskraft dazu fähig
sein muss, loszulassen, Verantwortung abzugeben und zu delegieren. Das
setzt Vertrauen in die Mitarbeiter voraus. Es braucht aber auch ein gutes
Selbstbewusstsein der Führungskraft.
Weshalb? Macht, Status, Entscheidungsbefugnis oder Informationsvor-
sprünge zählen jetzt nicht mehr. An die Stelle der althergebrachten Fakto-
ren zur Legitimierung von Führung treten neue, deutlich weniger griffige
Faktoren. Für jemanden, der seinen Führungsanspruch nach außen deutlich
machen will, kann das schwierig sein. Gerade die Aussicht auf einen Macht-
zuwachs ist für viele Mitarbeiter, die nach einer Führungsposition streben,
ein wichtiger Antrieb. Wenn das konsequent zu Ende gedacht wird, dann ar-
beiten Führungskräfte im Rahmen der neuen Führungsmodelle täglich da-
ran, sich selbst abzuschaffen. Stimmt das? Zum Teil vermutlich. Die Füh-
rungskräfte arbeiten daran, ihre alten Aufgaben und ihre alte Rolle abzu-
schaffen. Dafür erhalten sie eine neue Rolle. Diese neue Rolle kann mehr
Freiheit bedeuten, mehr Flexibilität und mehr Kreativität. Auch Führungs-
kräfte brauchen ab und zu eine neue Motivation, um für ihr Unternehmen
ihr Bestes geben zu können.
8.3 Zeit- und Selbstmanagement
Die Digitalisierung und veränderten Arbeits- und Organisationsstruktu-
ren führen dazu, dass zu jeder Zeit an jedem Ort der Welt gearbeitet werden
kann. Das klingt einerseits sehr verlockend, andererseits stellt es aber große
Herausforderungen an das Zeit- und Selbstmanagement. Vier Faktoren sind
hierbei ausschlaggebend:
• Technische Möglichkeiten, um überall und immer erreichbar und
arbeitsfähig zu sein: Die Trennlinie zwischen Freizeit und Arbeitszeit
verschwimmt zunehmend. Früher war die Arbeit des Tages mit dem
Verlassen des Büros abgeschlossen.
• Daher muss heute der Einbau von Ruhephasen in den Alltag viel be-
wusster geschehen. Führungskräfte sind hierbei doppelt ge-
fragt. Zum einen müssen sie für sich selbst sorgen, zum anderen
müssen sie auch ihre Mitarbeiter in die Lage versetzen, ihren Ar-
beitsalltag ausgewogen zu organisieren. Die Führungskraft, die z. B.
Leadership im digitalen Zeitalter
80
Sonntagmittag eine E-Mail verschickt und noch vor Beginn der regu-
lären Arbeitszeit am darauffolgenden Montag eine Antwort des Mit-
arbeiters erwartet, taugt in dieser Hinsicht nicht als Vorbild.
Gefragt sind Spielregeln und eine klare Kommunikation dieser
Spielregeln anstelle einer überhöhten Erwartungshaltung.
• Priority first: Mit der steigenden Informationsflut und der wachsen-
den Anzahl an Kommunikationskanälen nimmt auch die Notwendig-
keit zu, Prioritäten zu setzen. Wenn es überall piept, klingelt und vi-
briert ist es noch wichtiger, zu entscheiden, was zuerst getan werden
sollte und ob überhaupt jetzt die Zeit dafür ist, auf eine von diesen
Ausprägungen zu reagieren.
• Selbstmanagement: Das bedeutet, dass jede Führungskraft dazu in
der Lage sein muss, die neuen Freiheiten sinnvoll zu nutzen. Dazu
muss sie zunächst einmal im ersten Schritt fähig und willens sein, ihre
veränderte Rolle anzunehmen. Nur dann entstehen die neuen Frei-
heiten auch tatsächlich. Im zweiten Schritt gilt es, sich angesichts der
neuen Freiheiten nicht auszuruhen, sondern die neue Rolle mit Le-
ben zu füllen. Das wiederum bedeutet, kreativ zu sein, strategisch zu
denken und neue Chancen zu erschließen.
• Selbstvertrauen: Unter den veränderten Vorzeichen brauchen Füh-
rungskräfte noch mehr Selbstvertrauen im wahrsten Sinne des Wor-
tes. Wo weniger externe Regeln den Alltag bestimmen, ist die Orien-
tierung an selbst gesetzten Regeln ein wichtiger Faktor. Eine realisti-
sche Selbsteinschätzung und die Fähigkeit zur Selbstkritik und Selbst-
korrektur werden in Zukunft deutlich wichtiger.
Für Führungskräfte summiert sich all das zu einer echten Herausforderung.
Sie müssen immer zwei Seiten bedenken. Auf der einen Seite sind sie gefor-
dert, in Kooperationen zu denken, mit den Mitarbeitern auf Augenhöhe zu
arbeiten und sich eng auszutauschen. Auf der anderen Seite müssen sie ihre
eigene Person im Blick behalten und sorgsam mit sich selbst und ihrer eige-
nen Zeit umgehen. Die größte Veränderung liegt in der Selbstbetrach-
tung. Anstatt den Blickwinkel darauf zu richten, woraus ich als Führungs-
kraft für mich persönlich den größten Nutzen ziehen kann, geht es jetzt um
eine andere gemeinschaftliche Art der Entwicklung.
8.4 Digitales Mindset
Die Zeitschrift Manager-Seminare hat vor einiger Zeit ein Konzept vorge-
stellt, das Antworten auf die neuen Herausforderungen für die Führung ge-
ben soll. Fünf Herausforderungen und Antworten darauf wurden
Leadership im digitalen Zeitalter
81
vorgestellt, die sehr gut darstellen, was auf Führungskräfte gegenwärtig und
in der (nahen) Zukunft zukommt.
Die fünf Herausforderung sind:
1. Denke digital! Digital zu denken bedeutet, technische Neuerungen
zu beobachten und zu fragen, wie die Führungskraft für das Unter-
nehmen daraus den größten Nutzen ziehen kann.
2. Machtverlust: Im Umkehrschluss bedeutet das: „Sei beschei-
den!“ Der Wissensvorsprung von Führungskräften geht zunehmend
verloren. Stattdessen kommunizieren Digital Leaders auf Augenhöhe
mit Mitarbeitern und anderen Abteilungen über verschiedene Hie-
rarchieebenen hinweg und auch nach außen. Sie sind nicht Entschei-
der und Weisungsgeber, sondern Moderatoren bei der Suche nach
Lösungen.
3. Transparenz: „Teile alles!“ Das Schlagwort hier lautet Social Collabo-
ration. Der Digital Leader ist darum bestrebt, alle Informationen in
firmeninternen Netzwerken verfügbar zu machen. Jeder Mitarbeiter
hat die Chance, zu jeder Zeit auf dem aktuellen Stand zu sein, weil
keine Information zurückgehalten wird. So erhält er die Möglichkeit,
sich einzubringen.
4. Gelassenheit mit der Devise „Einfach ausprobieren!“: An die Stelle
von Planung tritt unter den neuen Arbeitsbedingungen der Mut zum
Experimentieren und Fehlermachen. Das bedeutet, für den Digital
Leader, dass er Fehler akzeptieren und eine Fehlerkultur entwickeln
muss. Fehler sind immer zugleich auch Entwicklungs- und Lernchan-
cen.
5. Vertrauen oder „in Mitarbeiter, we trust“: Vertrauen ist eine zent-
rale Fähigkeit des Digital Leaders. Er vertraut erstens seinen Mitar-
beitern und ihren Fähigkeiten. Er vertraut zweitens auf seine eigene
Bedeutung im Unternehmen abseits der alten Hierarchien. Drittens
vertraut er auf die Zukunft und sieht Chancen und Möglichkeiten. In-
sofern ist er auch ein sehr optimistischer Mensch mit einem positi-
ven Menschenbild.
Ohne Vertrauen in die Mitarbeiter und in die eigene Leistung sowie den po-
sitiven Blick in die Zukunft in Verbindung mit einer robusten Fehler- und
Lernkultur kann heute niemand mehr erfolgreich führen. Einigkeit herrscht
auch darüber, dass der Wissensvorsprung gegenüber den Mitarbeitern ge-
sunken ist. Schließlich ist auch die zentrale Bedeutung von Technologie für
Veränderungsprozesse unumstritten. Allerdings sollte diese auch nicht über-
schätzt werden. Mit der richtigen Technologie lässt sich zwar vieles lösen,
jedoch bleibt Führung menschlich.
Leadership im digitalen Zeitalter
82
Viele Führungskräfte praktizieren bereits digitale Führung, ohne dass Sie je-
mals über die theoretischen Grundlagen nachgedacht haben. Das ist eine
nur zum Teil beruhigende Erkenntnis, angesichts der Herausforderun-
gen, die jetzt und in Zukunft auf uns alle zukommen.
Leadership im digitalen Zeitalter
83
9 Führung 4.0 – vom Leader zum Coach
9.1 Was bedeutet Führung 4.0?
Die Führungskräfte von heute benötigen eine Vielzahl von Kompetenzen, um
auf die durch die Digitalisierung bedingten Veränderungen in der Arbeits-
welt optimal reagieren und sich anpassen zu können.
Leadership 4.0 ist ein Sammelbegriff für die bereits begonnene und zu er-
wartende Weiterentwicklung des Führungsverhaltens als unmittelbare
Folge der digitalen Transformation.
Der Beginn der vierten industriellen Revolution bringt die neuen Bedingun-
gen der so genannten radikalen Unsicherheit14 mit sich, in denen Manager
die Merkmale der Situationen, mit denen sie konfrontiert sind, nicht mehr
genau beschreiben können. Das bedeutet, dass sie sich nicht mehr auf Vor-
hersehbarkeit und ihre bisherigen Erfahrungen verlassen können. Frühere
Problemlösungsansätze sind im Grunde nicht mehr relevant und die Folgen
ihres üblichen Handelns werden zu einer Blackbox.
Die technologischen und wirtschaftlichen Veränderungen ausgelöst durch
die vierte industrielle Revolution haben auch den Kontext für Leadership er-
heblich verändert. In diesem Zusammenhang wird Führung immer weniger
als eine Eigenschaft einer Person betrachtet, sondern vielmehr als eine
emergente und gemeinsame Eigenschaft des Systems, in dem die Führungs-
kraft tätig ist. Dies besteht aus vier voneinander abhängigen Elementen:15
• Leader (Führungskraft),
• Followers (Teammitglieder),
• Situation und
• Kontext.
Abbildung 6: Ego zu Eco Leadership
14 Vgl. Stokes und Dopson (2020), S. 11.
15 Vgl. ebd.
Leadership im digitalen Zeitalter
84
Die allgemeine Empfehlung ist, von einer „heroischen“ individualistischen
Führung („Ego“) zu einer Führung überzugehen, die die Organisation als ein
in andere Systeme eingebettetes System erkennt („Eco“).
Um Leadership 4.0 greifbarer zu machen, ist es sinnvoll, auch die Konzepte
von Industrie 4.0 und Arbeit 4.0 einzeln zu betrachten.
Industrie 4.0
Ist eine Revolution, die auf der fortschreitenden Digitalisierung beruht. Mit
der Entwicklung neuer Technologien entstehen auch neue Formen der
Mensch-Maschine-Interaktion (MMI) mit dem gemeinsamen Ziel, neue For-
men der Produktion zu schaffen, Arbeitsprozesse zu optimieren und Kosten
zu senken.
Ein einfaches Beispiel für eine solche revolutionäre Technologie ist das IoT
(Internet der Dinge) und die sogenannten „smart Factories“, die als ein mit-
einander verbundenes Netzwerk von Maschinen, Kommunikationsmecha-
nismen und Rechenleistung definiert werden können. Dieses Netzwerk nutzt
fortschrittliche Technologien wie Künstliche Intelligenz (KI) und maschinelles
Lernen, um Daten zu analysieren und automatisierte Prozesse zu steuern.
Auch wenn viele Aspekte noch visionär erscheinen mögen, sind die digitale
Transformation und die damit verbundenen technischen Möglichkeiten be-
reits von entscheidender Bedeutung für Unternehmen aller Branchen.
Abbildung 7: Smart Factory 16
Die Auswirkungen von Industrie 4.0 beschränken sich jedoch nicht nur auf
die Optimierung von Produktionsprozessen, sondern zeigen sich auch in
grundlegenden Veränderungen der Art und Weise, wie wir arbeiten und
miteinander kommunizieren.
16 Didenko (2011) online.
Leadership im digitalen Zeitalter
85
Dies führt zurück zum Thema der digitalen Führung und der großen Bedeu-
tung eines kollaborativen Führungsstils.
Arbeit 4.0
Arbeit 4.0 bezieht sich allgemein auf die Zukunft der Arbeitswelt. Der Begriff
umfasst alle Veränderungen von Arbeitsformen und Arbeitsbedingungen
und befasst sich mit den Auswirkungen der Digitalisierung, Automatisierung
und anderen technologischen Fortschritten auf das Arbeitsleben.
Die Arbeitswelt 4.0 ist geprägt von der Digitalisierung und umfasst die Auto-
matisierung von Prozessen, flexible Arbeitszeiten und -orte sowie eine glo-
bale Vernetzung.
Wie sieht die Arbeitswelt 4.0 in der Praxis aus?
• Zeit- und ortsunabhängiges Arbeiten: Mitarbeiter können sich mit
ihren Kollegen online vernetzen und aus der Ferne arbeiten, die Kom-
munikation kann über Chat-Tools wie Slack oder Microsoft Teams
und Meetings über Videokonferenzen erfolgen.
• Digitale und automatisierte Prozesse: Die Integration von Technolo-
gie in den Arbeitsplatz reduziert mühsame, zeitraubende und sich
wiederholende Aufgaben. Ganze Prozessketten können vollständig
automatisiert werden und Analysen von riesigen Datenmengen (Big
Data) sind beispielsweise auf Knopfdruck möglich.
• Outsourcing: Die zunehmende globale Vernetzung ermöglicht es den
Unternehmen, Arbeiten an externe Unternehmen und Freiberufler
auszulagern, um Kosten zu senken und flexibel auf Marktschwankun-
gen zu reagieren. Dadurch profitieren die Unternehmen von einer
höheren Effizienz und dem Zugang zu einem breiten Spektrum an
Fachwissen und Ressourcen.
• Continuos learning & development: Um mit dem technologischen
Wandel und den Anforderungen der Arbeit 4.0 Schritt halten zu kön-
nen, müssen die Mitarbeiter ihre Fähigkeiten kontinuierlich weiter-
entwickeln und in einigen Fällen selbst Lernmöglichkeiten finden.
• Agile Organisationen und Führungsstile: Die digitale Arbeitswelt 4.0
erfordert flexible Organisationsstrukturen und einen partizipativen
Führungsstil. Hierarchien werden abgebaut, um den Mitarbeitern
mehr Freiheit und Verantwortung zu ermöglichen.
• Work-Life Harmony: Work-Life-Harmony bezieht sich auf das Stre-
ben nach einer ganzheitlichen und ausgewogenen Integration von
der Arbeit in das Privatleben. Im Gegensatz zur traditionellen Work-
Life-Balance, die oft als Trennung und Gleichgewicht zwischen Arbeit
und Privatleben gesehen wird, zielt Work-Life-Harmony darauf ab,
Leadership im digitalen Zeitalter
86
eine nahtlose Verbindung zwischen diesen beiden Bereichen herzu-
stellen.17
9.2 New Work vs. Arbeit 4.0
Der Begriff „Arbeit 4.0“ ist hauptsächlich in Deutschland und teilweise in der
Europäischen Union bekannt, während international häufiger der Begriff
„New Work“ verwendet wird, um die Auswirkungen der Digitalisierung auf
die Arbeitswelt zu beschreiben. Die beiden Begriffe werden im Zusammen-
hang mit der Arbeit der Zukunft oft als Synonyme verwendet. Das Konzept
von Arbeit 4.0 selbst wurde erstmals im November 2015 vom deutschen
Bundesministerium für Arbeit und Soziales (BMAS) in einem Bericht mit dem
Titel Re-Imagining Work: Green Paper Work 4.018 veröffentlicht.
In der Praxis und speziell im deutschsprachigen Raum sind New Work und
Arbeit 4.0 als zwei eng miteinander verbundene Konzepte zu betrachten,
die sich mit verschiedenen Aspekten der modernen Arbeitswelt befassen.
Während sich Arbeit 4.0 vorrangig mit Lösungen zur Bewältigung der digita-
len Transformation befasst, konzentriert sich New Work auf den Wandel von
Sinn- und Wertefragen, der zu veränderten Erwartungen der Mitarbeiter an
die Arbeitswelt führt. Beide Ansätze beeinflussen sich gegenseitig gemäß
dem Fraunhofer-Institut für Entwurfstechnik der Mechatronik. 19
• New Work legt den Fokus auf die individuelle Freiheit der Arbeitneh-
mer, ihre Arbeit nach ihren eigenen Wünschen und Bedürfnissen zu
gestalten. Dabei werden Aspekte wie Eigenverantwortung, Partizipa-
tion, Sinnhaftigkeit der Arbeit und persönliche Entfaltung gesondert
betrachtet.
• Arbeit 4.0 befasst sich mit den technologischen Entwicklungen und
Veränderungen, die die Arbeitswelt prägen. Es umfasst Themen wie
Digitalisierung, Automatisierung, Künstliche Intelligenz und die zu-
nehmende Vernetzung von Menschen, Maschinen und Daten. Arbeit
4.0 geht dabei über die rein technologische Perspektive hinaus und
führt zu tiefgreifenden Veränderungen in den Organisations- und
Managementstrukturen.20
17 Vgl. Fletcher (2020) online.
18 BMAS (2015) online.
19 Fraunhofer-Institut für Entwurfstechnik Mechatronik (2023) online.
20 Fraunhofer-Institut für Entwurfstechnik Mechatronik (2023) online.
Leadership im digitalen Zeitalter
87
Übungsaufgabe 2: Wenn Sie an die Veränderungen denken, die derzeit in
Ihrem Unternehmen stattfinden, und an die Art und Weise, wie die Men-
schen ihre Arbeit wahrnehmen, was sind die drei häufigsten Themen, die
Ihnen aufgefallen sind? Wenn Sie etwas an Ihrem Arbeitsumfeld ändern
könnten, was wäre das?
Woher kommt der Begriff „New Work“?
Wie bereits in Kapitel 1 erwähnt, wurde der Begriff „New Work“ Anfang der
Achtzigerjahre von dem Sozialphilosophen Frithjof Bergmann geprägt. New
Work geht von der Annahme aus, dass das bisherige, für die Industriegesell-
schaft charakteristische Arbeitssystem überholt ist und durch eine sinnvol-
lere und zielorientiertere Arbeitsweise ersetzt werden muss.21
New Work ist im Grunde die Quintessenz des Strukturwandels in der Ar-
beitswelt und repräsentiert einen Sammelbegriff für die neuen Arbeitsfor-
men, die im globalen und digitalen Zeitalter entstanden sind.
Die Auswirkung der digitalen Transformation der Arbeitswelt im Zusammen-
hang mit grundlegenden Veränderungen von Werten, Verhalten, Arbeitssti-
len und Kultur ist das aufkommende Konzept von „New Work“.22 Neben den
Auswirkungen der Digitalisierung auf die Gesellschaft haben auch demogra-
fische Veränderungen und die Globalisierungsbewegung der Bevölkerung
eine völlig neue Welt an Möglichkeiten für Unternehmen und deren Wachs-
tum eröffnet. Neue Chancen bringen generell auch neue Risiken mit sich und
das gilt auch für die Zukunft der Arbeit.
Mittlerweile entwickelt sich New Work zu einem Megatrend mit zuneh-
mend wichtigen Auswirkungen auf den langfristigen Erfolg von Organisatio-
nen. Laut Frithjof Harold Bergman wird die Art und Weise, wie Unternehmen
und Gesellschaften auf New Work reagieren, entscheidend für ihre Zukunft
sein. Die vereinfachte Antwort auf die Frage, was New Work ist, lässt sich
auf ein einziges Wort herunterbrechen: Reversal.
Bergmann betrachtet die Umkehrung der Rollen, hinsichtlich wer wem in der
Beziehung zwischen Arbeit und Mensch dient, als zentral für das Konzept
von New Work. Er argumentiert, dass das Ziel und der Zweck der Arbeit in
der Geschichte („Old Work“) ausschließlich darin bestand, eine bestimmte
Aufgabe zu erfüllen. Diese Ideologie würde die Menschen nur als Mittel zum
Zweck betrachten und sie in den Dienst der Arbeit stellen bzw. in eine un-
tergeordnete Position bringen.
21 Bergmann (2019).
22 Vgl. Bergmann (2019), S. 57.
Leadership im digitalen Zeitalter
88
New Work zielt darauf ab, diese Ordnung umzukehren und die Arbeit statt-
dessen den Menschen dienen zu lassen.23
Die Bedeutung dieser Aussage liegt darin begründet, dass Arbeit nicht er-
schöpfend oder ermüdend sein sollte, wie es in einer traditionellen Arbeits-
struktur üblicherweise der Fall ist. Sie sollte im Gegenteil dazu beitragen,
Menschen zu besseren und erfüllteren Individuen zu entwickeln. In gewisser
Weise kann das Konzept von New Work, wie von Frithjof Harold Bergmann
definiert, als Äquivalent zur Erreichung der letzten Stufe der Bedürfnispyra-
mide nach Maslow, der Selbstverwirklichung, betrachtet werden. Es geht da-
rum, das Verlangen zu erfüllen, „alles zu werden, wozu man fähig ist“, indem
hohe Leistungsniveaus erreicht werden und aktiv nach persönlichem Wachs-
tum gestrebt wird. New Work ist daher kein Zielzustand, sondern ein fort-
laufender Prozess der Transformation und Reflexion.
New Work ist eine Bewegung, die von einer inhärenten Unzufriedenheit mit
konventionellen Arbeitsumgebungen und Organisationsstrukturen getrie-
ben wird. Es steht im Zusammenhang mit den Veränderungen in den Bedürf-
nissen und Werten der neuen Mitarbeitergenerationen Y und Z, die im vor-
herigen Kapitel untersucht wurden.
Im Vergleich zu Arbeit 4.0, die sich hauptsächlich auf die Herausforderun-
gen der neuen Arbeitsweisen und auf die Integration digitaler Technolo-
gien konzentriert, repräsentiert New Work einen angestrebten Gedanken,
einen Hoffnungsschimmer im Zusammenhang mit der digitalen Revolu-
tion, der Möglichkeiten für selbstbestimmte Arbeit bietet.24
Kernprinzipien von New Work
1. Selbstständigkeit,
2. Freiheit (inkl. Handlungsfreiheit),
3. Teilhabe an einer Gemeinschaft.
Key-New Work-Konzept - „work that people really, really want”.
Die Betonung mit „really, really“ ist der Schlüssel, um den Hauptunterschied
zwischen „New Work“ und „Old Work“ zu verstehen. In der alten Arbeits-
weise hatten Menschen nicht die Möglichkeit, darüber zu reflektieren, was
sie wirklich wollen. Selbst wenn sie heute danach gefragt würden, würden
sie wahrscheinlich einige Zeit brauchen, um darüber nachzudenken. Laut
Bergmann können die meisten Menschen diese Frage tatsächlich überhaupt
23 Vgl. Bergmann (2019), S. 9.
24 Vgl. Giernalczyk und Möller (2019), S. 139.
Leadership im digitalen Zeitalter
89
nicht beantworten und das ist das, was im Kontext von New Work als „the
poverty of desire“ bekannt ist.25
9.3 Leadership 4.0 – Die neuen Kompetenzen einer
Führungskraft
Wie bereits in Kapitel 9.1 und teilweise in Kapitel 8.4 erwähnt stellt die digi-
tale Transformation Führungskräfte vor neue Herausforderungen und erfor-
dert eine bewusste Anpassung ihrer Denkweise und Herangehensweise, um
sich erfolgreich als Digital Leader positionieren zu können.
Digital Leader müssen über spezifische Kompetenzen verfügen, um effektiv
in der zunehmend digitalisierten und technologiegetriebenen Welt agieren
zu können.
Tobias Kollmann26 bündelt die erforderlichen Kompetenzen in drei rele-
vante Bereiche:
• Digital Mindset (Wollen): Die erfolgreiche Bewältigung der digitalen
Transformation erfordert nicht nur eine Anpassung der Führungs-
kräfte an den kontinuierlichen Wandel, sondern auch eine Verlage-
rung des Schwerpunkts von Erfahrung als Qualitätsmerkmal auf ei-
nen Trial-and-Error-Ansatz. Dies bezieht sich auf die innere Haltung
und Denkweise einer Führungskraft in Bezug auf die digitale Trans-
formation. Zu einer digitalen Denkweise gehören Offenheit für Ver-
änderungen, Neugier und die Bereitschaft, neue Dinge auszuprobie-
ren wie z. B. das Vorantreiben digitaler Lösungen in ihrem Verant-
wortungsbereich.
• Digital Skills (Können): „Unter den Digital Skills wird das konkrete
Hintergrundwissen und Know-how rund um digitale Geschäftsmo-
delle und -prozesse in Bezug auf die Digitale Wirtschaft verstanden.
Dies umfasst sowohl das Basiswissen rund um digitale Daten als auch
die daraus resultierende digitale Wertschöpfung für Prozesse, Pro-
dukte und Plattformen sowie die diesbezüglichen Entwicklungen.“ 27
• Digital Execution (Machen): Bei der Umsetzungsstrategie werden
die Aspekte „was“ (Objektansatz) und „wie“ (Managementansatz)
betrachtet. Der Objektansatz bezieht sich auf die Produkte, die Pro-
zesse und die Plattformen und berücksichtigt alle notwendigen tech-
nischen Innovationen oder kundenorientierten Veränderungen. Der
25 Vgl. Bergmann (2019), S. 124-127.
26 Kollmann (2019), S. 92 ff.
27 Kollmann (2019), S. 39.
Leadership im digitalen Zeitalter
90
Managementansatz bezieht sich darauf, wie die Manager die erfor-
derlichen Veränderungen tatsächlich umsetzen können. Stichworte
sind: Agilität, Anpassungsfähigkeit, Kundenorientierung, Haltung und
Geschwindigkeit.
Abbildung 8: Handlungsrahmen für Digital Leadership28
Digital Leader müssen daher über ein umfassendes Expertenwissen im Be-
reich der Digitalisierung verfügen (Können) oder zumindest offen dafür
sein, sich dieses anzueignen (Wollen) und gleichzeitig die Kompetenz be-
sitzen, dieses Wissen an ihre Mitarbeiter zu vermitteln.
Entscheidend ist, dass sie die bestehenden Strukturen und Prozesse des Un-
ternehmens nicht nur kennen, sondern aktiv leben und im Unternehmen
adaptieren und etablieren können. Digital Leader müssen dazu in der Lage
sein, die digitale Transformation ganzheitlich zu erfassen und proaktiv mit-
zugestalten (Machen). Dazu gehört die erfolgreiche Einführung von neuen
Technologien ebenso wie die kontinuierliche Weiterentwicklung bestehen-
der Technologien. Diese digitale Kompetenz kann als eine wesentliche Fä-
higkeit zur erfolgreichen Bewältigung der Herausforderungen des digitalen
Zeitalters angesehen werden. Hervorzuheben ist jedoch, dass Digital Lea-
dership nicht nur technische Aspekte, sondern auch soziale Kompetenzen
wie Kommunikations- und Kooperationsfähigkeiten umfasst.
Dies bedeutet, dass eine hohe Veränderungsfähigkeit für Führungskräfte un-
erlässlich ist, um den dynamischen Anforderungen der digitalen Transforma-
tion gerecht zu werden.
28 Kollmann (2019), S. 93.
Leadership im digitalen Zeitalter
91
Nur wenn Führungskräfte den Dreiklang aus Wollen, Können und Machen
beherrschen, können sie eine führende Rolle bei der digitalen Transforma-
tion übernehmen und das Unternehmen erfolgreich in die digitale Zukunft
führen.
9.4 Leadership 4.0 Kompatible Konzepte
9.4.1 VOPA+ Modell
Führungskräfte müssen offen für neue Ideen und Technologien sein und die
Vernetzung der verschiedenen Bereiche im Unternehmen fördern. Gleich-
zeitig brauchen die Mitarbeiter mehr Freiraum in ihrer täglichen Arbeit, was
ein hohes Maß an Vertrauen als Grundlage für Digital Leadership voraus-
setzt.29
Das VOPA+ ist ein agiles Führungsmodell basierend auf dem Werk Manage-
ment by Internet30 von Willms Buhseund kann als eine Reaktion auf die Her-
ausforderungen der VUCA-Welt betrachtet werden. Das Akronym VOPA+
steht insbesondere im Hinblick auf die psychologische Sicherheit für Vernet-
zung, Offenheit, Partizipation, Agilität und das Plus für Vertrauen.
• Vernetzung bezieht sich auf die Nutzung verschiedener Kanäle wie
soziale Medien und virtuelle Communities, um den Informations-
fluss, die kollektive Intelligenz und die Zusammenarbeit zu fördern.
• Offenheit beinhaltet die aktive Bereitstellung und Weitergabe von
Informationen, um eine transparente Kommunikation und eine
breite Beteiligung an Entscheidungsprozessen zu ermöglichen.
• Partizipation bedeutet die Einbindung aller Mitarbeiter in Prozesse
und Entscheidungen durch die Definition klarer Verantwortlichkeiten
und Aufgabenbereiche.
• Agilität spiegelt sich in einer veränderten Führungskultur wider, die
eine flexible und anpassungsfähige Arbeitsweise fördert und eine po-
sitive Fehlerkultur unterstützt.
• Vertrauen in sich selbst, in die Mitarbeiter und in das Netzwerk steht
als nicht verhandelbarer Wert im Mittelpunkt des Modells.
Das VOPA+ Modell setzt die Entwicklung einer entsprechenden Kommuni-
kationskultur im Unternehmen voraus, die die Zusammenarbeit und den
Wissensaustausch fördert. Dies bedeutet, dass die Umsetzung des Modells
29 Vgl. Petry (2019), S. 113.
30 Buhse (2014).
Leadership im digitalen Zeitalter
92
oft von einer Veränderung der Unternehmenskultur abhängig ist. Diese
Abhängigkeit von Veränderung bringt sowohl Herausforderungen als auch
Chancen mit sich, ist aber ein zu berücksichtigender Faktor, wenn es um
die praktische Umsetzung des Modells geht.
Abbildung 9: VOPA+ Modell31
Es folgt die praktische Bedeutung des VOPA+ Modells für Führungskräfte
und Handlungsempfehlungen:
• Transparent kommunizieren und selbst eine offene Kommunikati-
onskultur im Unternehmen fördern
o dadurch entstehen Vertrauen und ein verbesserter Informa-
tionsfluss.
• Bewusst Gelegenheiten zum Wissensaustausch schaffen und aktiv
den Wissenstransfer zwischen den Mitarbeitern unterstützen.
• Förderung der teamübergreifenden Zusammenarbeit, um den Aus-
tausch von Ideen und die Kooperation zwischen verschiedenen Ab-
teilungen zu erleichtern. Dies unterstützt die Entwicklung innovati-
ver Lösungen und Kooperationen.
• Förderung des selbstständigen Arbeitens und der Eigenverantwor-
tung der Mitarbeiter. Das bedeutet, dass die Mitarbeiter die Mög-
lichkeit haben, selbstständig Entscheidungen zu treffen und Verant-
wortung für ihre Aufgaben zu übernehmen
o die Führungskräfte haben die große Chance, ihre Mitarbeiter
zu unterstützen und einen Rahmen zu schaffen, in dem sie ihr
Potenzial entfalten können.
• Zwischenziele definieren und sich auf kontinuierliche Fortschritte
konzentrieren
31 Stonner (2019) online.
Leadership im digitalen Zeitalter
93
o durch die Festlegung klarer Erwartungen können die Mitar-
beiter ihre Arbeit besser strukturieren und ihre Leistung kon-
tinuierlich verbessern.
9.4.2 SCARF-Modell für psychologische Sicherheit
Gespräche sind viel mehr als ein einfacher Informationsaustausch, vor allem
dann, wenn es um digitale Führung geht. Ob bewusst oder unbewusst, jedes
Mal, wenn wir mit jemandem interagieren, erfüllen wir einige seiner sozialen
Bedürfnisse oder nicht. Die von uns gewählte Sprache und unser Verhalten
können Menschen entweder ermutigen und motivieren oder sie dazu brin-
gen, sich zurückzuziehen und abzuschalten.
Das SCARF-Modell von David Rock32 ist ein Akronym für Status, Certainty,
Autonomy, Relatedness und Fairness und bietet einen Überblick über fünf
Dimensionen, die sowohl als positive als auch als negative Auslöser wirken
können.
Abbildung 10: SCARF-Modell für psychologische Sicherheit33
Status
Status bezieht sich auf den Wunsch, sich von der Masse abzuheben. Wenn
wir unsere neuen Ideen mit anderen teilen und Anerkennung für gute Arbeit
erhalten, verbinden wir Status mit einem Gefühl von Bedeutung und Wert.
Umgekehrt reagieren wir eher negativ, wenn beispielsweise unsere Ideen
nicht anerkannt werden.
Certainty (Gewissheit)
32 Rock (2008).
33 NeuroLeadership Institute (2022) online.
Leadership im digitalen Zeitalter
94
Die Menschen wollen von Natur aus über das, was vor sich geht, Gewissheit
haben. Wir wollen unser Umfeld verstehen und die Ergebnisse vorhersagen
können. Im Arbeitsumfeld fühlen wir uns in unserer Sicherheit bedroht,
wenn unsere Rollen oder Zuständigkeiten nicht klar definiert sind.
Autonomy (Autonomie)
Im Allgemeinen wollen wir alle das Gefühl haben, dass wir die Kontrolle über
unsere Arbeit und unsere Entscheidungen haben. Wenn Führungskräfte ei-
nen Mikromanagement-Ansatz wählen, riskieren sie, die Autonomie zu ge-
fährden, wenn sie den Teammitgliedern aber Raum und Zeit geben, ihre Ar-
beit selbstständig zu erledigen, werden vertrauensvolle Beziehungen aufge-
baut.
Relatedness (Verbundenheit)
Menschen wollen dazugehören. Niemand möchte sich als Außenseiter einer
Gruppe fühlen, vor allem nicht am Arbeitsplatz. Die einfachste und am meis-
ten unterschätzte Möglichkeit, ein Umfeld zu schaffen, in dem sich die Men-
schen zugehörig fühlen, ist die Verwendung von „wir“ und „uns“ anstelle von
Wörtern wie „du“, „ich“ und „sie“, die eine klare Abgrenzung zwischen Grup-
pen signalisieren.
Fairness (Gerechtigkeit)
Nicht zuletzt wollen Menschen von Natur aus ein Gefühl der Gleichheit und
Fairness in sozialen Interaktionen erleben. Führungskräfte können Fairness
fördern, indem sie ihren Entscheidungsprozess transparent gestalten. Wenn
Mitarbeiter nicht den vollen Überblick haben, denken sie sich automatisch
alternative Geschichten aus, was die Wahrscheinlichkeit erhöht, dass sich
Menschen benachteiligt fühlen.
Im Bereich der Führung bietet das SCARF-Modell eine gute Möglichkeit, ef-
fektiver mit anderen zusammenzuarbeiten, indem es die wahrgenomme-
nen Bedrohungen minimiert und die durch Anerkennung erzeugten positi-
ven Gefühle maximiert. Es erweist sich im Zusammenhang mit kontinuier-
licher Entwicklung und Feedback-Frameworks als besonders nützlich.
Fünf soziale Bereiche aktivieren in unserem Gehirn ähnliche Reaktionen
auf Bedrohung und Belohnung, auf die wir uns selbst für unser physisches
Überleben verlassen:
1. Status,
2. Gewissheit,
3. Autonomie,
4. Verbundenheit,
5. Fairness.
Leadership im digitalen Zeitalter
95
9.4.3 Inner Work Life System
Jede Führungskraft weiß, dass Mitarbeiter gute und schlechte Tage haben.
Schwankungen in der Arbeitsleistung sind keine Seltenheit und sie sind oft
mit menschlichen Faktoren verbunden - zum größten Teil sind die Gründe
für Höhen und Tiefen unbekannt.
Eine 2011 von Amabile und Kramer34 veröffentlichte Forschungsarbeit un-
tersucht nach einer umfassenden Analyse von mehr als 12.000 Tagebuch-
einträgen den dramatischen Einfluss des Arbeitslebens der Mitarbeiter – de-
finiert als eine Mischung aus Wahrnehmung, Emotion und Motivation – auf
verschiedene Leistungsdimensionen. Die Ergebnisse zeigen, dass Menschen
besser arbeiten, wenn sie im Alltag mehr positive Emotionen, eine stärkere
intrinsische Motivation (Leidenschaft für die Arbeit) und eine positivere
Wahrnehmung ihrer Arbeit, ihres Teams, ihrer Führungskräfte und ihrer Or-
ganisation erleben. Darüber hinaus weisen die Autoren darauf hin, dass das
Verhalten von Führungskräften einen direkten Einfluss auf das interne Ar-
beitsleben der Mitarbeiter hat.
Abbildung 11: Inner Work Life System35
Das Konzept des „inneren Arbeitslebens“ (inner work life) bezieht sich auf
die dynamische Interaktion persönlicher Wahrnehmungen, zu denen sowohl
unmittelbare Eindrücke als auch umfassendere Interpretationen von Ereig-
nissen und deren Bedeutung gehören. Es umfasst auch Emotionen, bei
34 Amabile und Kramer (2007) online.
35 Amabile und Kramer (2007) online.
Leadership im digitalen Zeitalter
96
denen es sich um spezifische und intensive Reaktionen oder allgemeine
emotionale Zustände wie positive oder negative Stimmungen handeln kann.
Darüber hinaus spielt die Motivation eine zentrale Rolle bei der Frage, „was
man tut, wie man es tut und wann man es tut“.
• Perceptions: Die Wahrnehmung von Ereignissen im Arbeitsalltag.
• Emotions: Die Reaktionen auf Ereignisse im Arbeitsalltag.
• Motivation: Emotionen und Wahrnehmung wirken sich direkt auf die
Motivation aus. Menschen, die traurig oder wütend über ihre Arbeit
sind, werden sich wenig darum bemühen, sie gut zu machen. Wenn
sie glücklich und begeistert sind, werden sie sich sehr anstrengen.
Übungsaufgabe 3: Wenn Sie über Ihren gestrigen Arbeitstag nachdenken
und sich vorstellen, jemand hätte Sie den ganzen Tag beobachtet, was glau-
ben Sie, hätte diese Person in einen Bericht geschrieben?
Die meisten von uns denken hier wahrscheinlich an die Anzahl der erledigten
Aufgaben, die Anzahl der geschriebenen E-Mails, an die Telefonate, an die
gehaltenen Präsentationen, an einige Gespräche mit Kollegen, an die großen
Brainstorming-Sitzung vor dem Mittagessen usw. Aber was ist mit dem un-
sichtbaren Entscheidungsprozess, der Priorisierung des Arbeitspensums,
den erlebten Zuständen von Zufriedenheit, Irritation oder intensiveren Ge-
fühlen wie Stolz oder Frustration?
Der Kontext der Forschung von Amabile und Kramer liegt in der Leistung
von Wissensarbeitern innerhalb von Organisationen und der besten Mög-
lichkeit, innovative Arbeit anzustoßen. Die Leistung jedes Mitarbeiters
wird durch das ständige Zusammenspiel von Wahrnehmungen, Emotionen
und Motivationen beeinflusst, die durch Ereignisse im Arbeitsalltag ein-
schließlich des Handelns von Führungskräften ausgelöst werden - dennoch
bleibt das innere Arbeitsleben für das Management größtenteils unsicht-
bar.
Das Inner Work Life System wirft die Frage auf, was Führungskräfte tatsäch-
lich tun können, um eine positive Wirkung zu erzielen und zu steigern. Der
erfolgreichste Verstärkungseffekt wird erzielt, wenn Menschen Fortschritte
machen und gleichzeitig sinnvolle Arbeit leisten.
Leadership im digitalen Zeitalter
97
9.5 Coach anstatt Leader
9.5.1 Coaching als Führungsstil
Um Coaching in der Führung zu verstehen, ist es zunächst wichtig, zu wissen,
was Coaching ist und was es nicht ist.
Was ist Coaching?
Sehen wir uns zuerst eine Auswahl der am meisten verbreiteten Definitionen
von Coaching an:
• ICF (International Coaching Federation): „ICF defines coaching as
partnering with clients in a thought-provoking and creative process
that inspires them to maximize their personal and professional po-
tential. The process of coaching often unlocks previously untapped
sources of imagination, productivity and leadership.“36
• BetterUp: „Coaching is when an individual works with a trained pro-
fessional in a process of self-discovery and self-awareness. Working
together, the coach helps the individual identify strengths and de-
velop goals. Together, the coach and coachee practice and build the
skills and behaviors required to make progress toward their goals.“37
• Haufe: „Coaching ist ein Beratungsansatz, der Menschen Hilfe zur
Selbsthilfe gibt, damit sie ihre Ziele erreichen und Lösungen für Kon-
flikte finden. Darüber hinaus stärkt Coaching die Selbstwahrneh-
mung sowie die Selbstreflexion. Ein/e Coach begleitet die persönli-
che und berufliche Weiterentwicklung des Coachees.“38
Im Grunde genommen ist Coaching nichts anderes als ein Reflexionspro-
zess, der Menschen dazu motiviert, ihr persönliches und berufliches Poten-
zial zu maximieren. Das Wichtigste beim Coaching ist, dass der Coach wirk-
lich an die Fähigkeit des Coachees glauben muss, seine eigenen Herausfor-
derungen lösen zu können.
Der Coach liefert allgemein keine Lösungsvorschläge, sondern begleitet den
Coachee bei der Entwicklung eigener Lösungen durch systematische Frage-
techniken.39
Was ist Coaching nicht? Coaching ist keine Beratung oder Therapie!
Was ist Coaching in Leadership?
36 ICF (2023) online.
37 BetterUp (2023) online.
38 Haufe (2023) online.
39 Vgl. von Schumann und Böttcher (2016), S. 1.
Leadership im digitalen Zeitalter
98
Die Einführung von Coaching-Elementen in den Führungsstil und regelmä-
ßige Einzelgespräche bedeuten nicht, dass eine Führungskraft die Rolle eines
professionellen Coaches übernehmen muss. Es geht um die allgemeine Ein-
stellung und darum, dass sich die Führungskräfte als aktivierende Denk-
partner für die Teammitglieder positionieren.
Die drei wichtigsten Coaching-Prinzipien für Digital Leader sind:
1. Bewusst eine Coaching-Rolle einzunehmen und als Enabler zu agie-
ren.
2. Teammitgliedern Raum zu geben, um zu reflektieren und eigene Lö-
sungen zu finden.
3. Einen psychologischen „safe space“ für die Teammitglieder zu schaf-
fen, in dem sie ihre Ideen offen teilen können.
Nach der Full Range of Leadership Theory40 gibt es effektives, ineffektives,
passives und aktives Führungsverhalten. Je nach Kombination von Verhal-
tensweisen lassen sich drei Führungsstile wie folgt identifizieren:
Abbildung 12: Subdimensionen des Full-Range-of-Leadership-Modells41
Übungsaufgabe 4: Wenn Sie sich Abbildung 11 ansehen und überlegen, was
Sie bis jetzt über Coaching in der Führung wissen, in welchen Bereich des Full
Range of Leadership fällt Ihrer Meinung nach Coaching als Führungsstil?
40 Bass und Avolio (1994).
41 von Schumann und Böttcher (2016), S. 3.
Leadership im digitalen Zeitalter
99
• Laissez-Faire: Am unteren Ende der Skala befindet sich die „Nicht-
Führung“. Die Führungskraft lässt die Teammitglieder „einfach ma-
chen“ und tritt, wie bereits in Kapitel 2.3 erläutert, passiv auf.
• Transaktionale Führung: In der Mitte befindet sich die transaktio-
nelle Führung, welche als ein Austauschprozess betrachtet werden
kann. Die Konzepte, die mit diesem Führungsstil in Verbindung ge-
bracht werden können, sind z. B. Management by Objective (MBO)
und Old Work. Im Grunde handelt es sich um einen transaktionalen
Austausch zwischen positiven Arbeitsbedingungen und Leistung. Die
Führungskraft stellt den reibungslosen Ablauf und die Einhaltung der
Qualitätsstandards sicher und reagiert dementsprechend stark auf
Fehler.
• Transformationale Führung: Am oberen Ende der Skala steht die
transformationale Führung, die manchmal auch als „die hohe Kunst
der Führung“ bezeichnet wird. In diesem Führungsbereich befinden
sich alle modernen Führungsansätze und Konzepte wie Digital Lea-
dership, New Work und Arbeit 4.0. Die Führungskraft zielt darauf ab,
Teammitglieder positiv zu verändern und versucht, sie als ganze
Menschen zu betrachten, indem sie sich auf ihre individuellen Be-
dürfnisse, Wünsche und Motivatoren konzentriert. Dieser Ansatz ist
höchst personalisiert und erfordert im Vergleich zu den anderen bei-
den Führungsstilen fortschrittliche Sozialkompetenzen.
The future of leadership is already here - warum Coach anstatt Leader?
Coaching als Führungsstil dient als aktivstes und effizientestes (transforma-
tionales) Führungsverhalten und gewinnt auch im deutschsprachigen Raum
zunehmend an Popularität.42 Es ist eine Antwort auf die irreversiblen Verän-
derungen, die die digitale Transformation im Wertesystem der Gesellschaft
und in den Geschäfts- und Betriebsmodellen der traditionellen Organisatio-
nen ausgelöst hat. Gleichzeitig stellt es eine Weiterentwicklung der Rolle der
Führungskraft dar, die sich noch stärker auf New Work, den Sinn der Arbeit,
das Selbstwertgefühl, die Selbstwirksamkeit und die kontinuierliche Ent-
wicklung der Mitarbeiter konzentriert.
Der Coaching-Führungsstil bezeichnet eine Führungsform, bei der die Füh-
rungskraft die Rolle eines Coaches übernimmt. Unter diesem Führungsstil
investiert die Führungskraft Zeit und Energie in die Entwicklung einzelner
Teammitglieder. Zudem verdeutlicht sie ihnen, wie ihre Rolle in die über-
geordnete Teamstrategie eingebettet ist. Dies führt nicht nur zu einer
42 Vgl. von Schumann und Böttcher (2016), S. 2.
Leadership im digitalen Zeitalter
100
Verbesserung der individuellen Leistung, sondern auch zu einer Steigerung
der Leistung des Teams und der Organisation als Ganzes.
9.5.2 Umsetzung eines coachenden Führungsstils
Jede Idee ist nur so gut wie ihre Umsetzung - ein Beispiel für die Umsetzung
von Coaching Leadership könnte folgendermaßen aussehen:
1. Beziehungsaufbau: Beginnen Sie mit Einzelgesprächen mit jedem
Teammitglied, um ihre individuellen Karriereziele, Stärken, Entwick-
lungsbereiche und allgemeine Zufriedenheit mit ihrer aktuellen Posi-
tion zu verstehen. Nutzen Sie diese Gelegenheit, um Einblicke in ihre
Wahrnehmung der Teamleistung zu gewinnen und identifizieren Sie
Bereiche, in denen Schwierigkeiten auftreten könnten.
Das Ziel dieser Einzelgespräche ist es, eine vertrauensvolle Beziehung
zu jedem Teammitglied aufzubauen und eine offene Kommunikation
zu fördern. Indem Sie sich Zeit nehmen, ihre Perspektiven und Ziele
zu verstehen, können Sie gezielt Unterstützung und Entwicklungs-
möglichkeiten bieten.
2. Identifizierung und Festlegung von Entwicklungszielen: Arbeiten Sie
auf der Grundlage der Erkenntnisse aus den Einzelgesprächen mit
den Teammitgliedern zusammen, um relevante Entwicklungsziele zu
identifizieren. Wählen Sie einen geeigneten Zielsetzungsrahmen wie
persönliche OKRs oder auch SMART (Spezifisch - Messbar - Erreich-
bar - Realistisch - Terminiert), wenn Sie beide damit vertrauter sind
oder wenn es besser zum Entwicklungsziel passt.
3. Kontinuierliches Feedback und Unterstützung anbieten: Treffen Sie
sich regelmäßig mit den Teammitgliedern, um ihre Fortschritte bei
der Erreichung ihrer Ziele zu besprechen und sie danach zu fragen,
ob sie Unterstützung benötigen. Bieten Sie Feedback und seien Sie
hilfsbereit oder hören Sie zu, wenn Herausforderungen auftreten.
Unterstützen Sie sie dabei, ihren Ansatz neu auszurichten, wenn
Schwierigkeiten auftreten.
4. Erfolge feiern: Feiern Sie Erfolge innerhalb des Teams, egal ob es sich
um kleine oder große Erfolge handelt. Sie können dies auf verschie-
dene Weise tun, wie z. B. durch persönliche Anerkennung, wenn Her-
ausforderungen gelöst wurden, oder durch regelmäßige Teamsitzun-
gen, bei denen jedes Teammitglied für seine Leistungen gelobt wird.
Wichtig ist, dass die Teammitglieder das Gefühl haben, gesehen und
geschätzt zu werden.
5. Kontinuierliche Anpassung der Strategie: Ein Coaching Leadership
ist auf eine langfristige Strategie ausgerichtet. Um langfristig
Leadership im digitalen Zeitalter
101
erfolgreich zu sein, müssen Sie jedoch bereit sein, Ihre Strategie an-
zupassen und flexibel zu bleiben. Überwachen Sie die Fortschritte
des Teams im Vergleich zu den Zielen und passen Sie Ihre Vorgehens-
weise an, wenn etwas nicht wie geplant funktioniert. Seien Sie agil
und passen Sie sich den Bedürfnissen des Teams an, um dessen
Wachstum zu unterstützen.
9.5.3 Praxisorientierter Coaching Framework für den Digital Lea-
der
Um die Implementierung im Kontext eines Coaching-Ansatzes weiter zu ver-
tiefen, es ist sinnvoll, eine beispielhafte Strukturierung von Einzelgesprä-
chen zwischen Führungskräften und Teammitgliedern zu betrachten.
Yana leitet das digitale Marketingteam eines KMU in Wien und hat wöchent-
lich ein 30-minütiges Einzelgespräch mit ihrem Teammitglied Thomas. Im
dritten Quartal hat er sich vorgenommen, ein neues Dashboard für das Team
zu erstellen, um die verfügbaren Daten noch besser visualisieren zu können.
Yana beginnt das Gespräch mit einem kurzen Smalltalk und fragt, wie das
Wochenende war. Sie weiß auch, dass Thomas bald Urlaub hat, und fragt,
ob die Aktivitäten bereits gebucht sind (1). Nach etwa fünf Minuten lenkt
Yana das Gespräch in Richtung Dashboard und fragt Thomas, wie es ihm
geht, ob Blockaden aufgetreten sind und ob er generell Unterstützung be-
nötigt (2). Thomas nutzt die nächsten fünf bis zehn Minuten, um über den
Fortschritt zu sprechen und sagt, dass einige Datenquellen nicht verfügbar
sind, er kann aber nicht genau sagen, was der Grund dafür ist. Yana kennt
diesen Fehler bereits, sie hat ihn vor ein paar Wochen selbst erlebt und be-
hoben, aber sie möchte Thomas die Möglichkeit geben, selbst eine Lösung
zu finden. In den nächsten zehn Minuten stellt sie hilfreiche Fragen wie z. B.,
ob Thomas schon einmal eine ähnliche Situation erlebt hat, und sie gehen
gemeinsam in eine kurze Brainstorming-Runde (3a). Thomas hat nun ein
paar Ideen zum Testen und Yana glaubt, dass er eine noch schnellere und
nachhaltigere Lösung gefunden hat, um die Fehlermeldung der Datenbank
zu beheben. In den letzten vier bis fünf Minuten wünscht Yana Thomas viel
Erfolg beim Testen der besprochenen Ideen und sagt, dass sie schon sehr
gespannt auf die Ergebnisse ist (4).
Leadership im digitalen Zeitalter
102
Abbildung 13: Coaching Framework für Digital Leaders43
43 Istrate (2023) online.
Leadership im digitalen Zeitalter
103
10 Fazit und Nachhaltigkeitscheck von Digital
Leadership
10.1 Spannungsfeld zwischen Führen und Coachen
Ein Coaching Leadership ist zwar ein großartiges Instrument für eine digitale
Führungskraft, es gibt jedoch einige Vor- und Nachteile, die bei der Entschei-
dung für einen solchen Ansatz berücksichtigt werden müssen.
Vorteile:
• Aufbau stärkerer, vertrauensvoller Beziehungen zwischen Führungs-
kräften und Mitarbeitern/Teams.
• Förderung langfristiger Ergebnisse und nachhaltigen Wachstums.
• Entfaltung des vollen Potenzials von Mitarbeitern und Teams.
• Schaffung eines kooperativen, kollaborativen und unterstützenden
Arbeitsumfelds.
• Erhöhtes Mitarbeiterengagement.
• Förderung der kollektiven Intelligenz.
Nachteile:
• Hoher Zeitaufwand und Energieeinsatz seitens der Führungskräfte.
• Zeitverzögerung bis sichtbare Ergebnisse erzielt werden, da der Fo-
kus auf langfristigen Erfolgen liegt.
• Oft mangelnde Soft Skills der Führungskräfte und hohe Upskilling-
Kosten. - not all managers are leaders and not all leaders are coaches.
Es ist wichtig zu beachten, dass die Vor- und Nachteile des Coaching Lea-
derships von verschiedenen Faktoren abhängen wie der Situation im Unter-
nehmen, den individuellen Fähigkeiten der Führungskräfte und den Bedürf-
nissen der Mitarbeiter. Ein ausgewogenes Verständnis dieser Aspekte kann
dazu beitragen, die Effektivität und Effizienz des Coaching Leaderships für
Digital Leadership 4.0 zu maximieren.
Aus praktischer Sicht ist es selten möglich, nur den einen oder den anderen
Führungsansatz zu verfolgen. Eine Führungskraft kann nie zu 100 % nur
Coach sein, da sie in den meisten Organisationen eine große Verantwor-
tung trägt und meist Experte auf ihrem Gebiet ist. Das bedeutet, dass Sie
als Führungskraft unabhängig von ihren besten Coaching-Absichten situa-
tiv eingreifen müssen, um schnelle Entscheidungen zu treffen.
Leadership im digitalen Zeitalter
104
Angesichts der Komplexität und des ständigen Wandels der heutigen Ge-
sellschaft und Organisationsstrukturen empfiehlt sich ein human-centric
adaptiver Führungsansatz, der problemlos mehr als nur einen modernen
Führungsstil zulässt.
Abbildung 14: Spannungsfeld zwischen Führen und Coachen44
Die wichtigsten Schwerpunkte des Coaching Leaderships können wie folgt
zusammengefasst werden:45
• Career Growth: Im Rahmen des Coaching-Führungsstils liegt der Fo-
kus auf der Förderung der beruflichen Entwicklung der Teammitglie-
der.
• Zielorientierung: Die Führungskräfte unterstützen ihre direkten Mit-
arbeiter dabei, sowohl kurz- als auch langfristige Ziele zu definieren
und zu erreichen und dies sowohl auf individueller als auch auf team-
orientierter Ebene.
• Zukunftsorientierung: Führungskräfte wissen, dass Veränderungen
Zeit benötigen und investieren daher in eine langfristige Strategie
und Wachstum.
• Feedback: Der kontinuierliche Austausch von konstruktivem Feed-
back ist von großer Bedeutung. Dadurch werden die Mitarbeiter in
ihrer Zielerreichung und beruflichen Weiterentwicklung unterstützt.
Gleichzeitig sind erfolgreiche Führungskräfte offen für Feedback von
ihren Teams, um ihren eigenen Führungsstil zu verbessern.
• Mentoring: Führungskräfte nehmen häufig die Rolle von Mentoren
für ihre Teams ein. Sie bieten Unterstützung, Anleitung und teilen ihr
Fachwissen, um die individuelle Entwicklung und das Wachstum der
Mitarbeiter zu fördern.
44 Nolten (2020) online.
45 Debara (2022) online.
Leadership im digitalen Zeitalter
105
Übungsaufgabe 5: Nehmen Sie sich unter Berücksichtigung aller neuen Er-
kenntnisse über Coaching in der Führung zehn Minuten Zeit, um mindestens
vier praktischen Situationen zu identifizieren, in denen Sie einen solchen
Führungsansatz anwenden könnten oder nicht.
10.2 Digital-Leadership-Mantra
Wie in diesem Skript erläutert, handelt es sich bei digitaler Führung nicht um
eine einzige Art von Führung, sondern um viele Formen moderner Führungs-
stile mit einem gemeinsamen Nenner - einem menschenzentrierten Ansatz.
Unabhängig von der persönlich bevorzugten Art der Führung, stellen Kon-
zepte wie Agilität und New Work eine ständige Herausforderung dar und
sprengen sogar die Grenzen, wie Menschen miteinander interagieren und
zusammenarbeiten. Digital Leadership und die aufkommende Idee von Lea-
dership 4.0 spiegeln unsere Suche nach Zweck, Sinn und Motivation in unse-
rer Arbeit wider.
Im Hinblick auf das in Kapitel 9 vorgestellte System des Inner Work Life Sys-
tem gibt es ein bemerkenswertes Zitat, das als ein kurzes Mantra für alle
Führungsinitiativen dienen kann:
„Of all the things that can boost inner work life, the most
important is making progress in meaningful work.”46
46 Amabile und Kramer (2007) online.
Leadership im digitalen Zeitalter
106
Literaturverzeichnis
Amabile,T. M.; Kramer, S. J. (2007): Inner Work Life: Understanding the Sub-
text of Business Performance. Harvard Business Review 85, No. 6. S. 72-83.
Bass, B. M.; Avolio, B. J. (1994): Improving organizational effectiveness
through transformational leadership. Thousand Oaks, CA: Sage Publications.
Becker, J. et al. (2018): Praxishandbuch berufliche Schlüsselkompetenzen,
50 Handlungskompetenzen für Ausbildung, Studium und Beruf, Berlin: Sprin-
ger-Verlag.
BetterUp (2023): Coaching: What is it and what does it mean for you? URL:
https://www.betterup.com/coaching, abgerufen am 22.05.2023.
Bennis, W.; Goldsmith, J. (2010): Learning to Lead: A Workbook on Becoming
a Leader, Basic Books.
Bergmann, F. (2019): New Work New Culture: Work We Want and a Culture
That Strengthens Us. Alresford: John Hunt Publishing.
Bildungsministerium für Bildung und Forschung (2023): Der DQR. Glossar,
URL: https://www.dqr.de/dqr/de/der-dqr/glossar/deutscher-qualifikations-
rahmen-glossar.html, abgerufen am 14.08.2023.
Blessin, B.; Wick, A. (2013): Führen und führen lassen, UTB.
BMAS Bundesministerium für Arbeit und Soziales (2015): Re-imagining work.
Green paper. Work 4.0. Rostock: Publikationsversand der Bundesregierung.
Buhse, W: (2014). Management by Internet. Neue Führungsmodelle für Un-
ternehmen in Zeiten der digitalen Transformation. Kulmbach: Plassen-Ver-
lag.
Clifton, J. (2012): Der Kampf um die Arbeitsplätze von morgen. Readline.
Debara, D. (2022). Coaching leadership style: Examples and skills to get
started. URL: https://www.betterup.com/blog/coaching-leadership-style-
examples, abgerufen am 04.06.2023.
Didenko, O. (2021): Industry 4.0: the Real Value of a Smart Factory. URL:
https://www.altamira.ai/blog/industry-4-0-smart-factory/, abgerufen am
09.05.2023.
Erpenbeck, J., Heyse, V. (1999): Die Kompetenzbiographie. Strategien der
Kompetenzentwicklung durch selbstorganisiertes Lernen und multimediale
Kommunikation. Münster: Waxman.
Fletcher, P. (2020): Work-Life Balance Is Over: Let’s Talk About Work-Life
Harmony. URL: https://www.forbes.com/sites/forbeshumanresourcescoun
Leadership im digitalen Zeitalter
107
cil/2020/11/13/work-life-balance-is-over-lets-talk-about-work-life-har-
mony/, abgerufen am 12.04.2023.
Fraunhofer-Institut für Entwurfstechnik Mechatronik (2023): Arbeit 4.0.
URL: https://www.iem.fraunhofer.de/de/schwerpunktthemen/arbeit-4-
0.html, abgerufen am 02.05.2023.
Giernalczyk, T.; Möller, H. (2019): New Work, Digitalisierung, Inner Work als
Herausforderung für das Coaching. Organisationsberat Superv Coach 26,
S. 139–141
Haufe (2023): Was ist Coaching? URL: https://www.haufe-akademie.de/, ab-
gerufen am 29.05.2023.
Helmold, M. (2021): New Work, Transformational and Virtual Leadership:
Lessons from COVID-19 and Other Crises. Springer Nature.
Heyse, V.; Erpenbeck, J. (2009): Kompetenztraining: Informations- und Trai-
ningsprogramme. Schäffer Poeschel.
Hinterhuber, H.; Krauthammer, E. (2015): Leadership – mehr als Manage-
ment. Was Führungskräfte nicht delegieren dürfen, Springer Gabler.
ICF International Coaching Federation (2023): What is Coaching? URL:
https://coachingfederation.org/about, abgerufen am 10.06.2023.
Istrate, C. (2023): Enhanced weekly check-ins (unveröffentlichte Artikel).
URL: https://www.newwork22.com/, abgerufen am 12.06.2023.
Kollmann, T. (2019): E-Business. Grundlagen elektronischer Geschäftspro-
zesse in der Digitalen Wirtschaft, 7. Aufl., Wiesbaden.
NeuroLeadership Institute (2022): 5 Ways to Spark (or Destroy) Your Em-
ployees’ Motivation. URL: https://neuroleadership.com/your-brain-at-
work/scarf-model-motivate-your-employees, abgerufen am 01.03.2023.
Nolten, A. (2020): „Coachen Sie noch oder führen Sie schon?“ – Führungs-
kraft als Coach. URL: https://www.p-und-o.de/coachen-sie-noch-oder-fueh-
ren-sie-schon-fuehrungskraft-als-coach#, abgerufen am 01.06.2023.
Petry, T. (2019): Digital Leadership: erfolgreiches Führen in Zeiten der Digital
Economy. 2. Auflage: Freiburg: München: Stuttgart: Haufe Group; [Ann Ar-
bor]: ProQuest eBook Central (Haufe Fachbuch). URL: https://perma-
link.obvsg.at/bfi/AC15638804.
Pink, H. D. (2019): Drive: Was Sie wirklich motiviert. Ecowin.
Rock, D. (2008): SCARF: A brain-based model for collaborating with and in-
fluencing others. Neuroleadership Journal, 1, S. 1-9.
Stokes, J.; Dopson, S. (2020): From Ego to Eco: Leadership for the Fourth In-
dustrial Revolution. Oxford: Saïd Business School. URL:
Leadership im digitalen Zeitalter
108
https://www.sbs.ox.ac.uk/sites/default/files/2020-03/From%20Ego%
20to%20Eco%20-%20Leadership%20for%20the%20Fourth%20Indus-
trial%20Revolution.pdf, abgerufen am 12.03.2023.
Stonner, l. (2019): Ansätze zur adäquaten Führung im Digitalen Zeitalter ‒
Darstellung einer Digital Leadership-Toolbox. URL: https://hr-digitalisie-
rung.info/archive/2222, abgerufen am 23.04.2023.
Ueberschaer, N. (2014): Führung: Kompaktes Wissen – Konkrete Umsetzung
– Praktische Arbeitshilfen. Carl Hanser Verlag.
von Schumann, K.; Böttcher, T. (2016): Coaching als Führungsstil. Eine Ein-
führung für Führungskräfte, Personalentwickler und Berater. Wiesbaden:
Springer.
Weinert, T. (2001): Menschen erfolgreich führen: Führung – ein Kurzaufriss.
AVM – Akademische Verlagsgemeinschaft München.
Yukl, G. (2012): Leadership in Organizations. Pearson.
Zech, T. (2019): Brave new working world. Moving away from rigid structures
and hierarchies: Three examples of New Work in German companies. URL:
https://www.deutschland.de/en/topic/business/new-work-examples-
from-companies-in-germany, angerufen am 10.05.2023.LEADERSHIP IM DIGITALEN
ZEITALTER
Führung neu definiert
© ELG E-Learning-Group GmbH
Leadership im digitalen Zeitalter
I
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS ............................................................................................ III
ARBEITEN MIT DIESEN UNTERLAGEN............................................................................. IV
E RKLÄRUNG DER S YMBOLE : ..................................................................................................... IV
HINWEIS ZUR VERWENDETEN S PRACHE : ..................................................................................... IV
1 AUSGANGSPUNKT UND AUSWIRKUNGEN DER DIGITALISIERUNG ........................... 1
2 GRUNDLAGEN DES WANDELS VON LEADERSHIP..................................................... 6
2.1 D IGITAL LEADERSHIP .................................................................................................. 6
2.2 F ÜHRUNGSKRAFT .................................................................................................... 10
2.3 F ÜHRUNGSVERHALTEN ............................................................................................. 12
2.4 F ÜHRUNGSKOMPETENZ ............................................................................................ 14
3 WARUM SICH UNTERNEHMEN NEU ERFINDEN MÜSSEN ...................................... 18
3.1 TRANSFORMIEREN MIT N ACHDRUCK ........................................................................... 20
3.2 ÜBERLEBEN IM DIGITALEN ZEITALTER ........................................................................... 22
3.3 D AS MODERNE U NTERNEHMEN ................................................................................. 25
3.4 D IGITALER R EIFEGRAD .............................................................................................. 26
4 WARUM SICH FÜHRUNGSKRÄFTE NEU ERFINDEN MÜSSEN .................................. 35
4.1 A USWIRKUNG AUF DAS UNTERNEHMERISCHE HUMANKAPITAL .......................................... 35
4.2 A NFORDERUNGEN AN DAS H UMANKAPITAL .................................................................. 38
4.3 D IE AGILE PERSONALARBEIT ....................................................................................... 40
4.3.1 OKR – Das Framework für modernes HR ....................................................... 41
4.3.2 Die neue Führungskraft.................................................................................. 43
5 NEUE METHODEN FÜR DEN DIGITALEN WANDEL ................................................. 47
5.1 M ANAGEMENT 3.0 ................................................................................................. 48
5.2 S CRUM .................................................................................................................. 50
5.3 K ANBAN ................................................................................................................ 52
5.4 O PEN S PACE .......................................................................................................... 54
5.5 RTSC .................................................................................................................... 55
5.6 D ESIGN THINKING ................................................................................................... 56
5.7 LEGO S ERIOUS PLAY ................................................................................................. 58
5.8 LEAN S TARTUP ........................................................................................................ 59
5.9 E FFECTUATION ........................................................................................................ 60
5.10 A GILE MEETS N EW W ORK ......................................................................................... 64
6 FÜHRUNG ALTER SCHULE..................................................................................... 66
7 SPANNENDE BLICKWINKEL .................................................................................. 72
8 FÜHRUNG 3.0 – VOM MANAGER ZUM LEADER .................................................... 77
8.1 A UF A UGENHÖHE .................................................................................................... 77
8.2 LEADER ANSTATT M ANAGER ...................................................................................... 78
8.3 ZEIT - UND S ELBSTMANAGEMENT ................................................................................ 79
8.4 D IGITALES M INDSET ................................................................................................ 80
9 FÜHRUNG 4.0 – VOM LEADER ZUM COACH .......................................................... 83
9.1 W AS BEDEUTET F ÜHRUNG 4.0?................................................................................. 83
Leadership im digitalen Zeitalter
II
9.2 N EW W ORK VS. A RBEIT 4.0 ...................................................................................... 86
9.3 LEADERSHIP 4.0 – D IE NEUEN K OMPETENZEN EINER F ÜHRUNGSKRAFT .............................. 89
9.4 LEADERSHIP 4.0 K OMPATIBLE K ONZEPTE ..................................................................... 91
9.4.1 VOPA+ Modell ................................................................................................ 91
9.4.2 SCARF-Modell für psychologische Sicherheit ................................................. 93
9.4.3 Inner Work Life System .................................................................................. 95
9.5 COACH ANSTATT LEADER .......................................................................................... 97
9.5.1 Coaching als Führungsstil .............................................................................. 97
9.5.2 Umsetzung eines coachenden Führungsstils................................................ 100
9.5.3 Praxisorientierter Coaching Framework für den Digital Leader ................... 101
10 FAZIT UND NACHHALTIGKEITSCHECK VON DIGITAL LEADERSHIP ........................ 103
10.1 S PANNUNGSFELD ZWISCHEN F ÜHREN UND COACHEN ................................................... 103
10.2 D IGITAL -LEADERSHIP -M ANTRA ................................................................................ 105
LITERATURVERZEICHNIS............................................................................................. 106
Leadership im digitalen Zeitalter
III
Abbildungsverzeichnis
A BBILDUNG 1 – D IE DREI E BENEN DER F ÜHRUNG .............................................................................. 7
A BBILDUNG 2 - S INNBILD EINES M ANAGERS (B OSS) VS. LEADERS. ........................................................ 8
A BBILDUNG 3 - U NTERSCHIED F ÜHREN VS. M ANAGEN ....................................................................... 9
A BBILDUNG 4 - S TACEY -M ATRIX .................................................................................................. 19
A BBILDUNG 5: S CRUM -F RAMEWORK. .......................................................................................... 52
A BBILDUNG 6: E GO ZU E CO LEADERSHIP . ...................................................................................... 83
A BBILDUNG 7: S MART F ACTORY .................................................................................................. 84
A BBILDUNG 8: HANDLUNGSRAHMEN FÜR D IGITAL LEADERSHIP ......................................................... 90
A BBILDUNG 9: VOPA+ M ODELL . ................................................................................................ 92
A BBILDUNG 10: SCARF-M ODELL FÜR PSYCHOLOGISCHE S ICHERHEIT . ................................................ 93
A BBILDUNG 11: INNER W ORK LIFE S YSTEM . .................................................................................. 95
A BBILDUNG 12: SUBDIMENSIONEN DES F ULL -R ANGE- OF-LEADERSHIP -M ODELLS. ................................. 98
A BBILDUNG 13: COACHING F RAMEWORK FÜR D IGITAL LEADERS . .................................................... 102
A BBILDUNG 14: SPANNUNGSFELD ZWISCHEN F ÜHREN UND COACHEN . ............................................. 104
Leadership im digitalen Zeitalter
IV
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wobei
an einigen Stellen Symbole und Links zu weiterführenden Erklärungen,
Übungen und Beispielen zu finden sind. An den jeweiligen Stellen klicken Sie
bitte auf das Symbol – nach Beendigung des relevanten Teils kehren Sie bitte
wieder zum Studientext zurück. Stellen Sie sicher, dass auf Ihrem Rechner
ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Wichtiger Merksatz oder Merkpunkt
Weiterführender Link zu einem Lernvideo in MPEG4
oder einer Audiodatei in MP3
Zusammenfassung
Übungsbeispiel oder Link zu einer interaktiven Übung
Hinweis zur verwendeten Sprache:
Aus Gründen der besseren Lesbarkeit werden die Sprachformen männlich,
weiblich und divers (m/w/d) im Wechsel verwendet. Sämtliche Personenbe-
zeichnungen gelten gleichermaßen für alle Geschlechter.
Leadership im digitalen Zeitalter
1
1 Ausgangspunkt und Auswirkungen der Digi-
talisierung
In den letzten Jahren hat sich in allen Industriezweigen ein tiefgreifender
Wandel vollzogen. Begriffe wie Digitalisierung, Industrie 4.0 und digitale
Transformation sind allgegenwärtig und in Online- und Printmedien präsent.
Dieser weitreichende digitale Wandel betrifft nicht nur die Industrie, son-
dern auch die Gesellschaft insgesamt, die sich kontinuierlich von der Dienst-
leistungsgesellschaft zur digitalen Gesellschaft entwickelt. Aktuelle Regie-
rungsprogramme, Schulreformen, Unternehmensmodernisierungen, neue
digitale Produkte und Dienstleistungen unterstreichen die Bedeutsamkeit.
Weit mehr als eine Eintagsfliege gilt die Digitalisierung bereits jetzt als Inbe-
griff der Zukunft, wenn nicht sogar als Glücksfall für die Menschheit. Sie hat
die Welt zusammenwachsen lassen, nie dagewesene Bildungsmöglichkeiten
geschaffen und den Alltag von Milliarden Menschen erleichtert. Regelmäßig
beschert sie bahnbrechende Innovationen und lässt uns darüber staunen,
welche technischen Wunderwerke wir Menschen erschaffen können.
Wäre es vor einigen Jahren noch möglich gewesen, ganz ohne Ressourcen
ein globaler Leader zu werden? Wäre es vor einigen Jahren denkbar gewe-
sen, lediglich mit einer Idee von Bits und Bytes zu einer digitalen Innovation
zu werden? Wohl kaum. Nachfolgende Beispiele zeigen die immensen Mög-
lichkeiten auf und implizieren die Chance, dass jeder von uns mit einer ent-
sprechenden Idee zur richtigen Zeit und mit dem Einsatz von digitalen Gü-
tern vieles erreichen kann:
• Uber: Das größte Taxiunternehmen der Welt besitzt keine Fahr-
zeuge.
• Facebook: Das weltweit populärste Medienunternehmen erzeugt
selbst keine Inhalte.
• Alibaba: Der wertvollste Einzelhändler der Welt hat keine Lagerbe-
stände.
• Airbnb: Der weltweit größte Anbieter von Unterkünften besitzt keine
Immobilien.
• BetterUp und CoachHub: Die umfassendsten virtuellen Coaching-
Plattformen haben keine angestellten Coaches in ihren Büros und ar-
beiten mit Freiberuflern weltweit.
Diese Lehrveranstaltung hat es sich zur Aufgabe gemacht, einen weitrei-
chenden und verständlichen Einstieg in das Thema Führung im digitalen Zeit-
alter für jedermann zu ermöglichen, um somit Teil dieses Wandels zu wer-
den. Besonderes Augenmerk wurde hierbei auf den Ansatz „so wenig wie
Leadership im digitalen Zeitalter
2
möglich, so viel wie nötig“ gelegt. Der Hintergrund hierbei ist die Komplexi-
tät und Schnelllebigkeit des Themas digitale Transformation. Wenn es die
Aufgabe wäre, sich von Ort A nach Ort B zu bewegen, gilt es zu wissen, wel-
che Möglichkeiten dafür bestehen und wie diese am besten eingesetzt wer-
den können. Wichtig dabei ist es, zu wissen, welche Fortbewegungsmöglich-
keiten es gibt, welche Vor- und Nachteile diese haben und ob sie ggf. kom-
biniert werden können bzw. wo Synergien sinnvoll wären, um an den ge-
wünschten Ort zu gelangen. Ganz gleich, wo sich Ort A oder Ort B befinden,
ist es nicht wichtig, wie die Fortbewegung im Detail funktioniert, weder das
Prinzip des dynamischen Auftriebs beim Flugzeug noch die Kraftstoffein-
spritzung bei einem KFZ. Kennen Sie aber die besagten Auswahlmöglichkei-
ten und deren Charakteristika, wird es Ihnen möglich sein, das Ziel zu errei-
chen. Genau dieses beschriebene Prinzip wird auch bei dieser Lehrveranstal-
tung angewendet. Es ist nicht möglich, alle Details und Handlungsanweisun-
gen zu erklären, zudem ist eine solche Erklärung weder notwendig noch
sinnvoll. Wie bereits erwähnt, ist die Digitalisierung viel mehr als eine App,
es benötigt somit nicht nur Techniker und Programmierer, sondern auch
Menschen aus allen Stilrichtungen, um Sinnvolles zu erschaffen, Innovation
voranzutreiben und diese nachhaltig im Unternehmen zu verankern. Die
Führungskraft ist in diesem Zusammenhang als treibende Kraft und Naviga-
tor mehr gefragt denn je. Die Digitalisierung wird meist mit Effizienz und vie-
len weiteren Vorteilen assoziiert. Dies ist jedoch nur eine Seite der Medaille.
Es bedarf neben Optimismus auch an einem gewissen Maß an Pessimismus,
um die Kausalitäten und deren Folgen zu erkennen. Denn durch diese Er-
kenntnis können geeignete Maßnahmen gefunden werden, bevor nach der
großen Digitalisierungswelle die Phase der korrektiven Maßnahmen stattfin-
den muss.
Aufgrund des notwendigen persönlichen Eingriffs ist ein wohlüberlegter Ba-
lanceakt anzustreben, um eine gesunde „Revolution“ zu ermöglichen. Die
Informationstechnik ist grundsätzlich der Ursprung des digitalen Wandels,
jedoch ist dies nicht zwingend korrekt. Hier lässt sich der oft zitierte „Eis-
berg“ heranziehen. Digitale Produkte und Dienstleistungen stellen lediglich
den sichtbaren Teil dar – der überwiegende Anteil liegt jedoch im Verborge-
nen. Der Beginn einer jeden Innovation ist eine Idee, aber erst wirtschaftli-
che Anwendbarkeit und Umsetzung und machen aus dieser Idee eine echte
Innovation. Um es mit den Worten des amerikanischen Pioniers in der Inno-
vationsforschung Everett Rogers auszudrücken:
Innovation ist Erfindung plus Umsetzung!
Es genügt nicht, eine großartige Idee zu haben, sie muss vor allem marktfä-
hig werden. Ständiges Innovieren ist heute mehr denn je überlebensnot-
wendig. Innovationen schaffen neue Chancen, neue Werte und sichern die
Leadership im digitalen Zeitalter
3
Zukunft von Unternehmen in einer globalisierten Wirtschaft. Um nun einen
gelungenen Einstieg in die Digitalisierung zu schaffen und um somit alle Fa-
cetten dieser gewaltigen Materie und ihren weitreichenden Horizont aufzu-
zeigen, wird dem Leser gleich zu Beginn Vergangenes dargeboten, um die
tiefere Motivation hinter dem Wandel zu verstehen. Der Beginn dieser Lehr-
veranstaltung widmet sich altbewährten Modellen und Techniken sowie den
Protagonisten des Unternehmens, bevor dann der Schwenk zur neuen Füh-
rungskultur sowie zu ihren Besonderheiten gemacht wird. Anschließend
wird aufgezeigt, wie sich diese Besonderheiten ineinanderfügen. Es folgen
Erklärungen aus der Literatur sowie deren unterschiedliche Auffassungen
und daraus resultierende Bedeutungen und eine Beschreibung des Beitrags,
den diese Ansichten zum neuen Führungsverständnis beisteuern (können).
Drei zentrale Fragen dieser Lehrveranstaltung lauten wie folgt:
1. Wie wandelt sich die Industriegesellschaft in eine Wissensgesell-
schaft und was bedeutet dies für die Führung im Allgemeinen?
2. Welche Anforderungen werden an das Management gestellt und
welche Veränderungen müssen vorgenommen werden, um ein Un-
ternehmen in Zukunft erfolgreich zu führen?
3. Wie sieht Digital Leadership in der Praxis aus und wie kann es um-
gesetzt werden?
Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation hat drei Kri-
terien für die Wissensarbeit aufgestellt:
• Neuartigkeit,
• Komplexität und
• Autonomie.
Ein Wissensarbeiter schafft, verwaltet und verbreitet neues Wissen. Dieses
entsteht auf Grundlage von vorhandenem Wissen und wird in Netzwerken
durch den Austausch mit anderen generiert. Wissensarbeit ist weder stan-
dardisierbar noch automatisierbar. Wissensarbeiter brauchen daher neben
fachlichen Kompetenzen intellektuelle, soziale und kreative Fähigkeiten. Sie
müssen sich als Experten positionieren, ein Netzwerk aufbauen und ausge-
prägte Fähigkeiten hinsichtlich der Kommunikation und der Zusammenar-
beit haben. Sie arbeiten autonom und brauchen daher besonderes Ver-
trauen, weshalb sie umgekehrt zu besonderer Verantwortung verpflichtet
sind. Wissensarbeit als wertschöpfender Prozess im Unternehmen geschieht
mit einem ökonomischen Ziel. Um ihr intellektuelles und kreatives Potenzial
auszuschöpfen, müssen Wissensarbeiter ein hohes Maß an Selbstorganisa-
tion beherrschen und dazu bereit sein, ständig und selbstgesteuert zu lernen
– eine menschliche KI. Sie brauchen für den kreativen Prozess den Austausch
Leadership im digitalen Zeitalter
4
mit anderen (Inputphase) sowie im Anschluss eine Verarbeitungsphase (Re-
flexions- und Kreationsphasen), um schöpferisch tätig zu werden. Wenn ein
wachsender Teil der erwerbstätigen Bevölkerung neues Wissen schafft und
nicht mehr nur Aufgaben abarbeitet, wird klar, dass für Wissensarbeiter
neue Arbeits- und Managementformen benötigt werden. Diese anstehen-
den Veränderungen lassen sich mit dem von Frithjof Bergmann geprägten
Begriff „New Work“ beschreiben.
Hinsichtlich der zunehmenden Möglichkeiten, selbstständig zu arbeiten,
stellt sich die Frage, welchen Mehrwert die Arbeit in einer Organisation ne-
ben dem regelmäßigen Erwerbseinkommen für Wissensarbeiter bietet. Da-
niel Pink konfrontiert sich in seinem Buch Drive: Was Sie wirklich motiviert
mit der Frage, welche Bedeutung die Arbeit der Mitarbeiter für Unterneh-
men hat. Die Mitarbeiter in Unternehmen erfinden ihm zufolge Dienstleis-
tungen und Produkte und erstellen und organisieren diese. Sie seien für die
Wertschöpfung des Unternehmens zuständig. Pink fragt, welche Bedeutung
die Arbeit für den Mitarbeiter hat und identifiziert drei Schlüsselmotive im
relevanten Literaturkreis:
• Perfektionierung,
• Selbstbestimmung und
• Sinnerfüllung.
Optimal praktiziert und organisiert, bringe Arbeit den Menschen grundsätz-
lich Erfüllung, Zufriedenheit und Glück.1 In seinem Buch Der Kampf um die
Arbeitsplätze von morgen berichtet Gallup-Chef Jim Clifton: „Der Wunsch
der Weltbevölkerung ist an erster Stelle und vor allem anderen ein guter Ar-
beitsplatz. Dem ist alles Übrige nachgeordnet.“2
Unternehmen und Mitarbeiter müssen folgend die Ziele ihrer Arbeit wech-
selseitig miteinander in Übereinstimmung bringen. Am besten ziehen Unter-
nehmen in ihre Überlegungen drei weitere Entwicklungen zur Veränderung
mit ein, die im Folgenden erläutert werden.
1. 2060“ bzw. „War for Talent: Dies bedeutet, dass Unternehmen noch
viel mehr um die Gunst der Arbeitnehmer werben müssen. Der War
for Talent wird weiter zunehmen. Unternehmen werden dazu ge-
zwungen sein, noch mehr Aufgaben zu automatisieren und sich ge-
nau zu überlegen, wofür sie die wertvolle und rare Ressource Ar-
beitskraft einsetzen.
1 Vgl. Pink (2019).
2 Clifton (2012).
Leadership im digitalen Zeitalter
5
2. Die Zahl der Personen, die kein festes Anstellungsverhältnis su-
chen, steigt. In vielen Ländern, ganz gleich ob in der DACH-Region
oder weitergedacht, sind Erwerbstätige, die als Freelancer eine un-
abhängige Beschäftigung ausüben, im Trend. Gut zwei Drittel der
Freiberufler haben sich dabei nicht aus wirtschaftlichen Zwängen für
eine Tätigkeit als Unternehmer/ Neuer Selbstständiger/ Freiberufler
etc. entschieden, sondern aus dem Wunsch heraus, selbstbestimmt
zu arbeiten. Es wird für Unternehmen schwieriger, Wissensarbeiter
für eine Festanstellung zu gewinnen.
3. Die skeptische Haltung der Unternehmen gegenüber digitalen Ent-
wicklungen und die damit einhergehende fehlende Digitalkompe-
tenz in den Unternehmen zwingen viele Länder zu einer beispiello-
sen Aufholjagd. Als Beispiel lässt sich hier Estland mit dem Internet
als Grundrecht eines jeden Bürgers nennen. Dies muss gelingen, da-
mit der Anschluss an die Entwicklungen in den USA, China, Japan so-
wie Indien nicht verloren geht. Vorstände und Aufsichtsräte sind im-
mer noch zu sehr mit der kritischen Betrachtung der Entwicklungen
beschäftigt und zu wenig mit den Chancen, die eine Digitalisierung
für die Zukunftsfähigkeit ihrer Firmen bedeutet.
Wie stellen sich Unternehmen in diesem sich stark wandelnden und neu
technologisch vernetzten Kontext am besten für die Zukunft auf? Wie berei-
ten sie ihre Mitarbeiter auf die veränderten Arbeitsbedingungen vor? Und
wie beteiligen sie sich an der Weiterentwicklung des Unternehmens? Es
wurden schon Schritte getan, jedoch kann dies als ambitionierter Fußmarsch
gesehen werden, der Weg wie auch das Ziel sind noch ungewiss, jedoch sind
die Abgründe entlang des Weges gegeben. In Anbetracht der aktuellen Po-
litdiskussionen und Regierungsmaßnahmen lässt sich, wenn auch nur kurz,
beruhigt durchschnaufen. Auch hier scheiden sich die Geister darüber, wie
und was geschehen soll. Nichts zu tun und abzuwarten ist hierbei keine Op-
tion – zum einem „schläft“ die Konkurrenz nicht und zum anderen wirft die-
ser Ansatz weder Innovation ab, noch adaptiert er Altbewährtes. Somit ist
der Ansatz „trial and error“ ein momentan geduldetes und akzeptiertes Stil-
mittel.
Leadership im digitalen Zeitalter
6
2 Grundlagen des Wandels von Leadership
Um einen soliden Einstieg in das Digital Leadership zu ermöglichen, werden
nachfolgend die wesentlichen Begriffe näher erläutert und entsprechende
Definitionen in vernünftigem Ausmaß gegeben. Da speziell Begriffe wie „di-
gital“, „Führung“, „Leadership“, aber auch „Kompetenz“ u. v. m. gerne fehl-
interpretiert werden, wird im Folgende eine Erklärung geboten.
2.1 Digital Leadership
Wörtlich aus dem Englischen übersetzt bedeutet „Digital Leadership“ nichts
Anderes als „digitale Führung“. Demnach soll zunächst auf die beiden Einzel-
definitionen von „Digital“ und „Führung“ geblickt werden.
Digital: bedeutet lt. Duden „auf Digitaltechnik, Digitalverfahren beruhend
[…] in Ziffern darstellend“.
Führung: Meint die unmittelbare, zielbezogene Einflussnahme auf Gruppen-
mitglieder.3
Unternehmensführung: Meint die zielorientierte Gestaltung von Unterneh-
men bzw. die zielorientierte Beeinflussung von Personen/Mitarbeitern im
Unternehmen. Zweiteres wird auch als Personalführung bezeichnet. Geführt
werden kann durch Menschen und Strukturen (z. B. Organigramme oder An-
reizsysteme).
Nun stellt sich die Frage, ob sich der Begriff „Leadership“ einfach als Führung
oder Unternehmensführung übersetzten lässt oder ob er noch andere Be-
deutungen in sich trägt. Dies ist eine vieldiskutierte Frage. Alter Wein in
neuen Schläuchen oder doch eine Neuerung – und wenn ja, wie sieht diese
aus?
Leadership: Eine gängige Definition von Leadership kommt von Yukl und
stammt aus seinem Buch Leadership in Organization. Sie lautet: Leadership
ist „[...] the process of influencing others to understand and agree about
what needs to be done and how to do it, and the process of facilitating indi-
vidual and collective efforts to accomplish shared objectives.“4
In dem vorangegangenen Zitat von Yukl geht es einerseits um die Beeinflus-
sung anderer und andererseits beinhaltet die Definition die Förderung einer
Person oder Gruppe in Bezug auf aktuelle und zukünftige Herausforderun-
gen. Auf Basis weiterer Definitionen ist festzustellen, dass die Begriffe im
3 „Führung“ auf Wirtschaftlexion 24. URL: http://www.wirtschaftslexi-
kon24.com/d/f%C3%BChrung/f%C3%BChrung.htm (Abgerufen von: 19.08.2021).
4 Vgl. Yukl (2012).
Leadership im digitalen Zeitalter
7
Englischen und Deutschen grundsätzlich das Gleiche bedeuten, nämlich die
Beeinflussung anderer, um Ziele zu erreichen. Jedoch werden unter Lea-
dership oftmals noch weitere Aspekte ergänzt bzw. wird die Einflussnahme
konkretisiert. Häufig wird der Begriff „Leadership“ auch dazu verwendet, um
neue Ansätze der Führung von der „klassischen“ Führung abzuheben. Aus
Gründen der Vereinfachung werden die Begriffe „Leadership“ und „Füh-
rung“ im weiteren Verlauf dieses Skriptums allerdings synonym verwendet
werden.
Leadership wird darüber hinaus oft nur als Mitarbeiterführung bezeichnet.
Bei einer umfassenden Betrachtung können jedoch drei Ebenen unterschie-
den werden:
• Führung der Organisation = Unternehmensführung.
• Führung von Mitarbeitern = Mitarbeiterführung.
• Sich selbst führen = Selbstführung.
Zwischen diesen drei Ebenen gibt es gewisse Schnittmengen, wie es in der
nachfolgenden Grafik erkennbar wird:
Abbildung 1 – Die drei Ebenen der Führung
Je nach Führungsebene gibt es unterschiedliche Schwerpunkte. So wird sich
ein Chief Executive Officer (CEO) mehr mit der Unternehmensführung be-
schäftigen und ein Abteilungsleiter eher den Fokus auf die Mitarbeiterfüh-
rung legen. Selbstführung werden sowohl ein CEO als auch ein Abteilungs-
leiter in ähnlichem Umfang betreiben.
Nachdem Leadership auch in Bezug auf die Unternehmensführung betrach-
tet werden kann, ist eine Abgrenzung zum Begriff „Management“ notwen-
dig. Blessin und Wick beschreiben in deren Werk Führen und führen lassen
Leadership im digitalen Zeitalter
8
Management als Unternehmensführung und Führung bzw. Leadership als
Menschenführung.5 Oftmals werden die beiden Begriffe synonym verwen-
det.
Eine klare Trennung zwischen Leader und Manager macht keinen Sinn; ein
Leader benötigt auch Elemente eines Managers und somit einen Mix aus
beidem, ebenso ist es andersherum.
In Umbruchssituationen sind aber mehr Leader als Manager gefragt, daher
wird der Fokus in diesem Skriptum auf den Leader gelegt.
Abbildung 2 - Sinnbild eines Managers (Boss) vs. Leaders
Die Anforderungen der digitalen Transformation verändern, wie es scheint,
auch die altbekannten Spielregeln von Führung. So lässt sich erkennen, dass
ein Wandel von Management zu Leadership stattfindet.
In nachfolgender Abbildung zeigt sich der Unterschied zwischen „Führen“
und „Managen“. Hervorzuheben ist beim Führen die Vorbildfunktion und
das in die Zukunft gerichtete Denken und Handeln unter Einbeziehung der
Mitarbeiter. Im Vergleich dazu ist ein Manager eher auf die Gegenwart fo-
kussiert, in der er Aufgaben zuweist und kontrolliert, anstatt zu inspirieren.
5 BVgl. lessin und Wick (2013).
Leadership im digitalen Zeitalter
9
Abbildung 3 - Unterschied Führen vs. Managen
Während dies eher als Führungsverständnis im klassischen Sinn verstanden
wird, beschreiben Bennis und Goldsmith in ihrem Werk Learning to lead die
Begriffe im modernen Verständnis als „A manager does things right. A Lea-
der does the right things.“6
Digital Leadership: Auch hier gibt es konkrete Definitionen, von der sich
allerdings noch keine durchsetzen konnte. Willms Buhse definiert Digital
Leadership etwa als „Führung, die das klassische Management-Einmaleins
beherrscht und außerdem in der Lage ist, die Muster des Internets in vor-
handene Führungskonzepte zu integrieren und aus beiden Konzepten eine
zeitgemäße, Erfolg versprechende Synthese zu bilden.“
Es ist es nicht verwunderlich, dass Kompetenzen und Führungsverhalten nö-
tig sind, die nicht auf den ersten Blick etwas mit der Digitalisierung zu tun
haben. Es ist also trotz allem Führungskraft nötig, um als Digital Leader fun-
gieren zu können.
Bei der Betrachtung unterschiedlichster Auffassungen von Digital Leadership
lassen sich vier Richtungen identifizieren, die wie folgt interpretiert werden
können:
1. Führung mit digitalen Techniken.
2. Führung von digitalen Talenten.
3. Digitale Marktführerschaft.
4. Erfolgreiche Führung in Zeiten der digitalen Transformation.
6 Bennis und Goldsmith (2010).
Leadership im digitalen Zeitalter
10
Für diese Arbeit soll die holistische Betrachtung – also: erfolgreiche Führung
in Zeiten der digitalen Transformation – herangezogen werden. Diese um-
fasst u. a. die Führung mit digitalen Hilfsmitteln, aber auch die Führung von
digitalen Talenten und geht noch weiter darüber hinaus. Wenn die verän-
derte Führung gut umgesetzt wird, kann sich das in einer Marktführerschaft
niederschlagen. So definieren auch Hinterhuber und Krauthammer in ihrem
Buch Leadership – mehr als Management das Ziel von Leadership wie folgt:
„Das Ziel ist, die Unternehmung in den Geschäftsfeldern, in denen sie tätig
ist oder sein will, zur Marktführerschaft zu führen [...].“7
Bei dem Begriff „Digital Leadership“ wird bewusst das Wort „Digital“ vor den
Begriff „Leadership“ gesetzt, um damit den Haupteinflussfaktor, der die Ver-
änderungen hervorruft, zu betiteln. In der Literatur werden für die Verände-
rung der Führung auch andere Bezeichnungen verwendet, wie u. a. „New
Leadership“, „Leadership/Management 2.0“.
2.2 Führungskraft
Als Führungskraft werden Personen mit Personal- und Sachverantwortung
bezeichnet. Diese haben aufgrund ihrer relativ hohen hierarchischen Stel-
lung Einfluss auf das gesamte Unternehmen oder seine wichtigsten Teilbe-
reiche. Das Deutsche Institut für Wirtschaftsforschung definiert den Begriff
noch umfassender. Einerseits beinhaltet diese Definition klassische Füh-
rungsfunktionen, wie sie z. B. ein Geschäftsführer oder auch ein Abtei-
lungsleiter hat, sie schließt darüber hinaus aber auch Tätigkeiten, die eine
hohe Qualifikation verlangen wie z. B. die der Ingenieure, mit ein.
Führungskräfte können zur besseren Abgrenzung in Ebenen eingeordnet
werden: In eine untere (z. B. Teamleiter), mittlere (z. B. Bereichsleiter) und
obere Führungsebene (z. B. Geschäftsführer). Je höher die Anzahl der ge-
führten Mitarbeiter ist, aber auch, je größer der Verantwortungsbereich
ist, desto höher ist die Führungsebene. Zudem nimmt mit ansteigender
Hierarchie der Anteil der Fachaufgaben ab.
Für dieses Lehrveranstaltungsskript wird eine weite Auslegung des Begriffes
der Führungskraft verwendet, die auch hochqualifizierte Mitarbeiter ein-
schließt, die ohne Personalverantwortung bzw. disziplinarische Macht füh-
ren. Das wird als sog. laterale Führung bezeichnet. Als Beispiele können Pro-
jektleiter oder auch Stabsstellen aufgeführt werden, die keine hierarchische
Sonderstellung einnehmen, keine Mitarbeiter unter sich haben und nur rein
fachlich führen.
7 Hinterhuber und Krauthammer (2015).
Leadership im digitalen Zeitalter
11
Diese Form der lateralen Führung wird durch die Digitalisierung weiter zu-
nehmen und das Führen ohne Hierarchie wird, beispielsweise durch die Ver-
netzung, weiter an Bedeutung gewinnen.
Abhängig von den Kompetenzen der Führungskraft zeigt sich ein bestimmtes
Führungsverhalten. Dieses spiegelt sich in den Mitarbeitern wider und zeigt
sich an ihrem Verhalten und Einstellungen. Das Führungsverhalten, aber
auch die Mitarbeiter, werden durch die Situation beeinflusst. Der aktuell
größte Faktor ist die digitale Transformation. Am Ende des Prozesses steht
der Führungserfolg. Anhand welcher Variablen dieser gemessen wird, ist un-
ternehmensabhängig.
Wie bei der Unterscheidung zwischen „Leadership“ und „Management“
liegt auch hier ein Unterschied in der Begrifflichkeit. Synonym verwendet
werden jedoch die Begriffe „Leader“ und „Führungskraft“. Wir sprechen hier
von einem Digital Leader. In der „Crisp Studie“ wird ein „Digital Leader“ wie
folgt definiert:
Ein Digital Leader „[…] steht als digitale Führungsperson stellvertretend
für die Digitalisierung des eigenen Unternehmens. Er zeichnet sich durch
ein fundiertes Wissen sowie ein ausgeprägtes „Digital-First-Denken“ aus.
Der Digital Leader führt sein Team mit einem hohen Partizipationsgrad,
regt neue Innovationen an und geht für den Fortschritt der Digitalen
Transformation auch neue Wege.“
Das digitale Mindset – die Denkweise – spielt in Bezug auf den Digital Leader
eine elementare Rolle und geht über das Verständnis der digitalen Kun-
denerfahrung hinaus, denn es muss ganzheitlich auf das gesamte Unterneh-
men gesehen werden und somit auch interne Prozesse und Vorgehenswei-
sen erfassen.
Das bedeutet auch: Führungskräfte in der digitalen Transformation sind ei-
nerseits die Treiber, aber auch die Enabler.
Die Hauptaufgabe von Digital Leadern ist es, das Digital Business zu führen.
Oftmals muss zuerst der Transformationsprozess zu einem Digital Business
bewältigt werden. Daher können auch Führungskräfte Digital Leader sein,
selbst wenn sie noch kein Digital Business führen, aber selbst fit in der Ma-
terie sind. Das wird auch in diversen Studien aufgezeigt, die keine Abhängig-
keit zwischen Digital Leadership und der Digitalisierung des Geschäftsmo-
dells sehen. Um den Transformationsprozess zu realisieren, werden in Un-
ternehmen vermehrt CDOs (Chief Digital Officer) eingestellt, die den Prozess
von oben herab führen sollen. Dieses Vorhaben ist sicherlich richtig, da An-
stöße aus der Chefetage kommen und das Thema Digitalisierung immens re-
levant und demnach auf höchster Ebene platziert ist. Digital Leader sollen
aber nicht nur eine einzelne Person im Unternehmen in Form eines CDOs
Leadership im digitalen Zeitalter
12
sein, sondern vielmehr sollen alle Führungskräfte im Unternehmen zu Digital
Leadern werden – jeder individuell auf seinen Bereich bezogen und in unter-
schiedlich hohem Ausmaß. Den maßgeblichen Einfluss hat selbstverständ-
lich der CDO. Da die Digitalisierung, wie schon beschrieben, vor keinem Un-
ternehmen haltmachen wird, wird diese genauso wenig vor einzelnen Abtei-
lungen stoppen.
2.3 Führungsverhalten
Um sich dem Begriff „Führungsverhalten“ zu nähern, ist zunächst der Begriff
„Führungsstil“ zu beleuchten. Oftmals werden diese Begriffe synonym ver-
wendet, allerdings besteht ein Unterschied.
Als Führungsstil werden nach Lewin drei Ausprägungen unterschieden:
1. Autoritärer,
2. demokratischer und
3. Laissez-faire-Führungsstil.
Der autoritäre Führungsstil und der demokratische Führungsstil unterschei-
den sich im Beteiligungsgrad der Mitarbeiter. Der Laissez-faire-Stil kenn-
zeichnet sich dadurch, dass die Führungskraft die Mitarbeiter bei nahezu al-
len Punkten gewähren lässt und nicht eingreift. Die Streitfrage ist bei Letzte-
rem, ob das überhaupt noch ein Führungsstil ist oder nicht vielmehr schon
Selbstorganisation. Auf dieser Basis wurde weiter geforscht, wobei meist
zwischen dem autoritären und dem demokratischen Stil unterschieden
wurde. Wenn konkrete Definitionen des Führungsstils angesehen werden,
wie z. B. die von Jürgen Weibler, der den Führungsstil „[...] als konsistentes
und typisches Verhalten, das von einem Führenden gegenüber den Geführ-
ten vielfach wiederkehrend gezeigt wird“, beschreibt, kann festgestellt wer-
den, dass der Führungsstil als die Grundausrichtung oder auch als das typi-
sche Muster des Führungsverhaltens bezeichnet werden kann. Ähnlich sieht
dies Fred Fiedler, der den Führungsstil als „[...] the underlying need-struc-
ture of the individual which motivates his behavior in various leadership sit-
uations“ definiert. Hier kommt zusätzlich zur Grundausrichtung der Begriff
des Führungsverhaltens zu Tage, welches in Abgrenzung zum Führungsstil
situationsbezogen ist.
Der Führungsstil wird meist als situationsunabhängig angesehen. Aller-
dings wurde in der Forschung festgestellt, dass es nicht DEN Führungsstil
gibt, sondern, dass er immer von der Situation abhängig ist. Im Führungs-
alltag ist es selten bzw. nie anzutreffen, dass eine Führungskraft immer au-
toritär oder immer nur kooperativ entscheidet. Vielmehr spielt die
Leadership im digitalen Zeitalter
13
Situation und der zu führende, einzelne Mitarbeiter eine bzw. die zentrale
Rolle. Daher wurde dazu übergegangen, das Führungsverhalten zu be-
trachten.
Tino Weinert beschreibt es in Menschen erfolgreich führen folgendermaßen:
„Führungsverhalten bezieht sich lediglich auf Aktivitäten der Führungsper-
son, die in hohem Maße von der Situation abhängig sind.“8 Nobert Ueber-
schaer beschreibt es in Kompaktes Wissen - Konkrete Umsetzung als „[...] die
Gesamtheit der Aktivitäten und Verhaltensweisen der Führungskräfte im
Führungsprozess.“9
Menschliches Verhalten besteht aus drei Dimensionen:
• Handeln = etwas aktiv tun,
• Dulden = etwas geschehen lassen,
• Unterlassen = nichts tun.
Darüber hinaus kann unterschieden werden, ob das Verhalten bewusst, un-
bewusst oder gelernt umgesetzt wird. Zusammenfassend lässt sich feststel-
len, dass das Führungsverhalten situationsbezogen ist – im Vergleich zum
Führungsstil, welcher relativ konstant und situationsunabhängig ist. Unab-
hängig davon, ob es um unterschiedliche Führungsstile oder um Führungs-
verhalten geht, ist das Ziel der Führungserfolg. Wichtig ist auch, dass es kein
ideales Führungsverhalten gibt; ebenso gibt es keinen idealen Führungsstil,
vielmehr wird situativ entschieden.
In näherer Betrachtung des Führungsverhaltens, wird dieses oftmals in un-
terschiedliche Dimensionen untergliedert. Eine gängige Untergliederung ist
jene nach Mitarbeiterorientierung (der Mitarbeiter steht im Fokus) und Auf-
gabenorientierung (die Aufgabe sowie deren Erfüllung stehen im Mittel-
punkt).
Rosenstiel und Weibler fordern in ihrem Werk Führung von Mitarbeitern
dazu auf, auf der Grundlage von anderen Forschungsergebnissen, bei der
Unterscheidung noch eine dritte Dimension zu ergänzen, nämlich die „Par-
tizipationsorientierung“. Hier wird die Beteiligung des Mitarbeiters sowie
seine Anteilnahme an der Veränderung in den Fokus gestellt.
Im weiteren Verlauf soll das Führungsverhalten in drei weitere Ebenen un-
tergliedert werden, da nach der erwähnten Einteilung oftmals Unschärfen
entstehen. Zudem ist es in der heutigen Zeit überholt, nur aufgabenorien-
tiert oder nur mitarbeiterorientiert zu denken. Eine Kombination aus beidem
ist erforderlich. Der Fokus ist darüber hinaus noch um externe Partner zu
8 Weinert (2011).
9 Ueberschaer (2014).
Leadership im digitalen Zeitalter
14
erweitern, um ein ganzheitliches Bild zu bekommen. Daher soll im weiteren
Verlauf noch die Aufteilung des Führungsverhaltens analog zu den Führungs-
dimensionen vorgenommen werden:
• Unternehmensführung: Hier geht es um Führungsverhalten, das vor
allem Rahmenbedingungen vorgibt, erstmal nur indirekt einen Ein-
fluss auf den Mitarbeiter hat und vor allem externe Partner (z. B. Kun-
den) miteinbezieht.
• Mitarbeiterführung: Führungsverhalten mit konkretem Bezug auf
die Mitarbeiter – sowohl Einzelne als auch eine Gruppe sind der ge-
trichterte Aufgabenbereich.
• Selbstführung: Die Führungskräfte sollen sich selbst führen. Diese
Selbstführung hat Auswirkungen auf andere.
Auch bei dieser Untergliederung sind gewisse Unschärfen nicht zu vermei-
den, da alle Bereiche miteinander zusammenhängen und sich in gewisser
Weise gegenseitig bedingen.
2.4 Führungskompetenz
Nachfolgend soll ein einheitliches Bild des Begriffes „Kompetenz“ vermittelt
werden und darauf aufbauend sollen Kompetenzbereiche definiert werden.
Der Begriff Kompetenz stammt vom lateinischen Wort „competere“ und be-
deutet so viel wie „zu etwas befähigt sein“.
Kompetenz kann in zwei Richtungen interpretiert werden: einerseits als
Zuständigkeit und andererseits als Befähigung. Für diese Lehrveranstal-
tung soll der Fokus auf die zweite Richtung gelegt werden, da die erstere
als Voraussetzung für die Rolle der Führungskraft gilt.
Der Begriff „Kompetenz“ wird in der Literatur unterschiedlich definiert, so
lautet z. B. die im deutschsprachigen Raum häufig verwendet Definition von
Heyse und Erpenbeck:
„Kompetenzen sind Dispositionen (persönliche Voraussetzungen) zur
Selbstorganisation bei der Bewältigung von insbesondere neuen, nicht
routinemäßigen Aufgaben.“10
Im nationalen Qualifikationsrahmen für lebenslanges Lernen wird der Begriff
wie folgt definiert:
Kompetenz ist „[…] die Fähigkeit und Bereitschaft des Einzelnen, Kennt-
nisse und Fertigkeiten sowie persönliche, soziale und methodische
10 Erpenbeck / Heyse (1999)
Leadership im digitalen Zeitalter
15
Fähigkeit zu nutzen und sich durchdacht sowie individuell und sozial ver-
antwortlich zu verhalten. Kompetenz wird in diesem Sinne als umfas-
sende Handlungskompetenz verstanden.“11
Matthias Becker hingegen legt den Fokus in Berufliche Lehr- & Lernforschung
auf einen Dreiklang: „Kompetenz bezeichnet das Dürfen, das Wollen und das
Können einer Person im Hinblick auf die Wahrnehmung der konkreten Ar-
beitsaufgabe.“ 12
Diese unterschiedlichen Definitionen zeigen nur eine kleine Auswahl der in
der Literatur gängigen Begriffsbestimmungen.
Es kristallisieren sich folgende Punkte heraus, die als gemeinsamer Nenner
für den Verlauf dieses Skriptums betrachtet werden können:
• Kompetenz setzt sich aus Fähigkeiten, Fertigkeiten und Kenntnis-
sen zusammen.
• Diese werden primär benötigt, um Aufgaben/Situationen, die un-
bekannt oder komplex sind, zu bewältigen, aber auch, um den be-
ruflichen Alltag zu meistern.
• Es geht nicht nur um das Können, sondern auch um das Wollen und
das Dürfen.
• Selbstorganisiertes Handeln steht im Fokus.
Für den Begriff der „Führungskompetenz“ gibt es auch unzählige Definitio-
nen. Für das vorliegende Skriptum soll „Führungskompetenz“ allerdings als
Querschnittskompetenz verstanden werden, die sich aus Fach-, Methoden-
und Sozialkompetenzen zusammensetzt. Aus diesem Grund reichen für das
Verständnis die allgemeinen Kompetenzdefinitionen aus.
In den einzelnen Kompetenzdefinitionen kommen immer wieder die Be-
griffe „Fähigkeiten“, „Fertigkeiten“ und „Kenntnisse“ vor:
Fähigkeit: Kann als geistige, praktische Anlage, die zu etwas befähigt, ver-
standen werden. Unterschieden werden kann zwischen angeborenen und
erlernten Fähigkeiten. Diese stellen die Basis für die Entwicklung von Fertig-
keiten und Kenntnissen dar.
Fertigkeiten: Durch Übung automatisierte Komponenten von Tätigkeiten.
Somit kann durch Übung aus einer Fähigkeit eine Fertigkeit werden.
Kenntnisse bzw. Wissen: Beinhalten einerseits explizites, aber auch implizi-
tes Wissen. Ersteres kann einfach weitergegeben werden, dagegen ist das
11 Bundesministerium für Bildung und Forschung (2023)
12 Becker (2018)
Leadership im digitalen Zeitalter
16
implizite Wissen an die Person gebunden, nur schwer weitervermittelbar
und entsteht vor allem durch Erfahrung und Erfahrungsaustausch.
Ebenso vielstimmig wie die einzelnen Kompetenzdefinitionen ist die Auftei-
lung der Kompetenzen in verschiedene Bereiche. So untergliedern z. B.
Heyse und Erpenbeck im Werk Kompetenztraining in die vier Ebenen13:
• Personale Kompetenz,
• Aktivitäts- und Handlungskompetenz,
• Sozial-kommunikative Kompetenz,
• Fach- und Methodenkompetenz.
Im Folgenden wird die in der Praxis oft gängige Untergliederung nach Fach-,
Methoden- und Sozialkompetenz vorgenommen.
Die einzelnen Kompetenzbereiche im Detail:
• Fachkompetenz: Die erforderlichen fachlichen Fähigkeiten, Fertig-
keiten und Kenntnisse zur Bewältigung konkreter beruflicher Aufga-
ben. Unter der fachlichen Kompetenz eines Mitarbeiters wird sein
Fachwissen verstanden. Es geht jedoch nicht nur um das reine Wis-
sen, sondern vielmehr darum, es anwenden zu können. In Bezug auf
die konkrete Bewältigung der Aufgabe kann es auch erforderlich
sein, berufsübergreifende und organisationsbezogene Fähigkeiten,
Fertigkeiten und Kenntnisse zu haben.
• Methodenkompetenz: Die Kenntnis, aber auch die Fähigkeit zur An-
wendung von Arbeitstechniken, Verfahrensweisen und Lernstrate-
gien. Darüber hinaus beinhalten diese auch die Fähigkeit, Informati-
onen zu beschaffen, zu strukturieren, wiederzuverwerten, darzustel-
len sowie Ergebnisse von Verarbeitungsprozessen richtig zu interpre-
tieren und sie geeignet zu präsentieren. Ferner gehört dazu die Fä-
higkeit zur Anwendung von Problemlösungstechniken und zur Ge-
staltung von Problemlösungsprozessen.
• Sozialkompetenz: Die Fähigkeit, mit Vorgesetzten, Mitarbeitern, Kol-
legen, Kunden und Zulieferern zusammenzuarbeiten sowie ein gutes
Betriebsklima zu schaffen und zu erhalten. Es geht um ein adäquates
und an die Situation angepasstes Verhalten im Umgang mit anderen.
Der Bereich Sozialkompetenz beinhaltet auch Selbstkompetenz bzw.
personale Kompetenz. Diese beschreibt die Fähigkeit des Umgangs
mit sich selbst als reflexive, selbstorganisierte Handlungsbefähigung.
Weiter bedeutet soziale Kompetenz auch die Fähigkeit einer Person,
in ihrer sozialen Umwelt selbstständig zu handeln.
13 Vgl. Heyse und Erpenbeck (2009).
Leadership im digitalen Zeitalter
17
Die drei genannten Kompetenzbereiche können unter dem Begriff der Hand-
lungskompetenz zusammengefasst werden. Eine völlig akkurate Abgren-
zung der Bereiche ist nicht möglich, vielmehr gibt es Überlappungen. Kom-
petenzen von Personen sind keine Konstanten, sondern tätigkeits- und posi-
tionsspezifisch. Daher ist nicht immer ein hohes Ausmaß an einer gewissen
Kompetenz erforderlich, sondern vielmehr benötigt eine Führungskraft ein
Set mit der besten Passung auf die Tätigkeit bzw. Position. Daher werden oft
Skalierungen verwendet, um das Kompetenzniveau zu verdeutlichen, wel-
ches erforderlich ist bzw. welches gemessen worden ist. In Bezug auf die
Fach- und Methodenkompetenz sind das die Kategorien: Kenner, Könner
und Experte.
Im Bereich der Sozialkompetenz wird unterschieden zwischen gering ausge-
prägt, ausgeprägt und stark ausgeprägt. Es stellt sich die Frage, wie Kompe-
tenzen das Verhalten beeinflussen oder umgekehrt. Diese beiden Kon-
strukte stehen in einem engen Verhältnis. Einerseits kann nur kompetent
gehandelt werden, wenn die erforderlichen Kompetenzen vorhanden sind,
andererseits sind Kompetenzen ohne das konkrete Handeln nicht messbar.
Es wird hier von der Performanz gesprochen. Die mit der Führungskraft in
Beziehung stehenden Personen sehen daher nicht direkt die Kompetenz,
sondern das Verhalten und das Handeln.
Leadership im digitalen Zeitalter
18
3 Warum sich Unternehmen neu erfinden müs-
sen
Unternehmen stellen in den letzten Jahren vermehrt vielfältige Probleme
fest. Es kommt zu hohen Fluktuationen bei Mitarbeitern, aber auch bei Kun-
den, die Konkurrenz hat eine deutlich höhere Geschwindigkeit als frü-
her, der Wettbewerb hat rapide zugenommen, das eigene Unternehmen lei-
det an Trägheit, es gibt starke Probleme in der Prozessabwicklung, die ei-
gene Produkt- und Servicequalität sinkt kontinuierlich, während die Kosten
zu explodieren scheinen. Gestärkt und intensiviert wird dies maßgeblich
durch die Globalisierung, Rationalisierung und die immer stärker werdende
digitale Transformation.
Aber warum funktionieren die alten Methoden bzw. Konzepte und Füh-
rungsstile immer weniger und vielleicht in Kürze gar nicht mehr? Versetzen
wir uns zur Beantwortung dieser Frage einmal zurück ins 19. Jahrhun-
dert, mitten in die Industrialisierung 2.0, bzw. genauer gesagt zurück zum
Taylorismus, der durch folgende Eigenschaften geprägt war: Generelles Ziel
der Theorien von Frederick Windslow Taylor ist die Steigerung der Produkti-
vität menschlicher Arbeit. Dies geschieht durch die Teilung der Arbeit in
kleinste Einheiten, zu deren Bewältigung keine oder nur geringe Denkvor-
gänge zu leisten und die aufgrund des geringen Umfangs bzw. Arbeitsinhalts
schnell und repetitiv zu wiederholen sind. Denken und Arbeit sollten also ge-
trennt werden.
Sogenannte Funktionsmeister übernehmen die disponierende Eintei-
lung und Koordination der Arbeiten. Der Mensch wird lediglich als Produkti-
onsfaktor gesehen, den es optimal zu nutzen gilt. Ein spezielles Lohnsystem,
der sogenannte Leistungslohn, soll zur Steigerung der subjektiven Arbeits-
leistung führen. Die Auswirkungen des Taylorismus waren prägend für die
letzten 100 Jahre der Industrialisierung. So wurden Organigramme allge-
mein sowie Titel für Positionen im Speziellen eingeführt.
Die Unternehmungen wurden in Linien-, Aufbau- und Ablauforganisationen
strukturiert. Es wurden Bereiche und Abteilungen eingeführt. Ganz allge-
mein gab es Managementpositionen und damit auch Führungsebenen. Ab-
läufe wurden über Prozessdefinitionen beschrieben. In Anbetracht der Ar-
beiten, die im Taylorismus erledigt werden mussten, so sind diese als maxi-
mal kompliziert zu betrachten. Kompliziertheit kann also als ein gewisses
Maß an Unwissenheit verstanden werden.
Ein Problem ist kompliziert, weil wir es nicht verstehen und uns zur Prob-
lemlösung Wissen fehlt. Es wird einfach, sobald wir Wissen zusteu-
ern. Komplexität wiederum ist das Maß an Freiheitsgraden bzw.
Leadership im digitalen Zeitalter
19
Unsicherheit. Je mehr Freiheitsgrade ein Problem hat, desto komplexer
wird es. Wissen allein reicht hier lange nicht aus, um zur Lösung zu kom-
men, dafür wird Können benötigt.
Ralph Stacey hat diesen Zusammenhang zwischen Komplexität und Kompli-
ziertheit in der nach ihm benannten Stacey-Matrix abgebildet.
Abbildung 4 - Stacey-Matrix
Die Stacey-Matrix hilft bei der Entscheidungsfindung, da sie ein klares Bild
zeichnet. Sie ist insbesondere für Fachexperten mit Tunnelblick zu empfeh-
len, da bereits neue Erkenntnisse aufgrund der zweiten Dimension ersicht-
lich werden.
Werden auf der x-Achse die Freiheitsgrade wie z. B. die Technologie, die Fer-
tigkeit oder das Wissen von wenig bis hoch aufgetragen und auf der y-Achse
die Anforderung von bekannt bis unbekannt, so lassen sich die damit einge-
schlossenen Bereiche grob in neun Bereiche zerteilen.
Ganz links unten, also bei wenig Freiheitsgraden und bekannten Anforde-
rungen, sprechen wir von einem sogenannten einfachen Problem. Dieses ist
mit einfachen Anweisungen zu lösen.
Sobald wir aber entweder den Freiheitsgrad auf mittel erhöhen oder aber
die Anforderungen und die andere Achse jeweils auf wenig bzw. bekannt
stehen lassen, so erhalten wir die Phase der Kompliziertheit. Diese Heraus-
forderungen sind durch Reduktion auf einfache Teilprobleme zu lösen. Wer-
den folgend die Werte erhöht, so befinden wir uns im Bereich des Komple-
xen. Hier kann zwar ebenfalls versucht werden, das Hauptproblem in
Leadership im digitalen Zeitalter
20
Teilprobleme zu zerlegen, wir werden aber dann zu maximal komplizierten
Problemen kommen.
In etwa vergleichbar ist die Stacy-Matrix mit einem Schachspiel. Die Regeln
dazu sind recht einfach, es gibt aber unzählige mögliche Spielzüge, deren
Komplexität mit dem Spielverlauf sogar noch zunimmt.
Wichtig sind insbesondere folgende Erläuterungen:
Einfach Kompliziert Komplex Chaotisch
Eine Aufgabe gilt
als einfach, wenn
die relevanten
Dinge zu ihrer Erle-
digung bekannt
oder weitgehend
bekannt sind.
Eine Aufgabe gilt als
kompliziert, wenn von
den relevanten Dingen
zur Erledigung der Ar-
beit mehr bekannt als
unbekannt ist.
Eine Aufgabe ist als
komplex zu be-
zeichnen, wenn für
die Aufgabenerle-
digung mehr unbe-
kannt als bekannt
ist.
Eine Aufgabe
gilt als chao-
tisch, wenn
sehr wenig
über sie be-
kannt ist.
Charakteristika: Für komplizierte sowie für komplexe Szenarien gibt es un-
terschiedliche Methoden zur Lösung von Herausforderungen. Werden bei-
spielsweise komplexe Herausforderungen mit Tools aus dem Bereich des
Komplizierten gelöst, so stellt sich zwangsläufig Scheitern ein. Genau dies
geschieht derzeit mehrheitlich in Unternehmen und das ist auch genau der
Grund für das Scheitern. Die digitale Transformation ist der Inbegriff des
Komplexen und erfordert demnach auch Lösungen bzw. Tools zu Lösun-
gen aus dem Gebiet des Komplexen. Da aber Unternehmen mehrheitlich im
Taylorismus gefangen sind, fällt ihnen die Transition schwer.
3.1 Transformieren mit Nachdruck
Wie bereits kürzlich beschrieben und definiert ist die digitale Transformation
die Wandlung gepaart mit Adaption und Anpassung.
Digital Business Transformation wiederum befasst sich mit der Planung,
Steuerung, Optimierung und Umsetzung der Wertschöpfungskette eines
Unternehmens in der digitalen Ära.
Im Zentrum steht die Identifikation von Auswirkungen der Digitalisierung auf
bestehende Geschäftsmodelle, die Umsätze, Erlösströme und Differenzie-
rungsmerkmale eines Unternehmens im Markt.
Ganze Wertschöpfungsketten verändern sich und nicht nur einzelne Funkti-
onen und Unternehmensbereiche sind betroffen. Die nachhaltige Verände-
rung und Neuausrichtung von Kommunikation, Marketing, Vertrieb und Ser-
vice sind essenziell. Digital Business Transformation nutzt die Vorteile und
Leadership im digitalen Zeitalter
21
Potenziale der Integration und Implementierung neuer Technologien als
Chance für einen Wandel bestehender Geschäftsmodelle und für die Gene-
rierung neuer Geschäftspotenziale heraus aus technischen, funktionalen
und nutzerorientierten Innovationen.
Transformation als Bestandteil impliziert eigentlich einen Prozess, der einen
Anfang und ein Ende hat. Nun könnte angenommen werden, dass lediglich
ein wie auch immer geartetes „Delta" aufholen muss, um digitalisiert zu
sein. Das ist aber grundlegend falsch, denn auch wenn dieses „Delta" benö-
tigt wird, um überhaupt wieder konkurrenzfähig zu werden, so muss an-
schließend ein stetiger Veränderungs- und Lernprozess in Gang gesetzt wer-
den und mit „digital" muss wiederum impliziertsein, dass die Veränderung
in der Gesellschaft und damit in der Wirtschaft nur von Informationstechno-
logien getrieben ist. Das ist nicht grundlegend falsch. Wir werden aber im
Folgenden sehen, dass sich ebenfalls viele völlig analoge Bereiche geändert
haben.
Laut Alain Veuve, einem Vordenker im Bereich der Digitalisierung, wäre ein
Begriff wie Perpetual Disruption, was so viel wie unaufhörliche, umbre-
chende Veränderung bedeutet, deutlich besser geeignet. Er macht auf der
einen Seite klar, dass sich der Veränderungsprozess immerwährend fort-
setzt und dass er auf der anderen Seite eine umbrechende oder tiefgrei-
fende Dimension hat.
Was aber sind die Gefahren der digitalen Transformation?
Der energiefressende Marathon ohne erklärtes Ziel bzw. wird der Läufer da-
bei kurz vor der Zielgeraden ein ums andere Mal nach hinten versetzt. Der
sicher geglaubte Sieg wandert wieder in weite Ferne, die Motivation schwin-
det. Zudem kommt erschwerend hinzu, dass sich der Einsatz mit der verstri-
chenen Zeit der Entscheidungsfindung bzw. dem bewussten Abwarten er-
höht.
Es scheint derzeit so zu sein, dass viele Firmen die digitale Transformation
komplett verschlafen. Und das, obwohl fast jedes Unternehmen wie ver-
rückt digitalisiert.
Dies ist kein Widerspruch in sich, wie auch kein Fehler im Text. Somit lässt
sich bereits hier erkennen, dass die digitale Transformation ohne transfor-
mierte Unternehmen wirkungslos ist." Und genau das gilt es, besser zu ma-
chen. Es bedarf neben der Wandlung auch eine Adaption, welche sich unter-
nehmensweit in alle Bereiche erstreckt und selbst das ist nur ein kleiner Teil
des Wandels. Ein erfolgreiches Unternehmen beginnt außerhalb der Unter-
nehmensmauern und somit gilt es, den Markt und den Kunden sowie dessen
Ansprüche und Bedürfnisse noch besser und vor allem noch schneller zu ver-
stehen.
Leadership im digitalen Zeitalter
22
Eine besondere Tragik stellen kleine wie auch der überwiegende Anteil der
mittelständischen Unternehmen dar, da die Aufgabe von altbewährten
Strukturen hier immer auch ein Risiko darstellt. Jedoch sind genau diese Un-
ternehmen mengen- und flächendeckend am Markt vertreten. Der Wandel
selbst wirkt zudem als Entscheidungsfaktor. Er teilt Unternehmen in Gewin-
ner und Verlierer. Sich früh auf die erfolgreiche Seite zu stellen bzw. sich an
die neuen Begebenheiten anzupassen, kann sich hier also auszahlen. Wei-
terhin sind die Kunden der Treiber des Wandels und nicht etwa die Techno-
logie. Deutlich mehr als früher zahlt es sich also aus, seine Kunden besser zu
kennen. Schließlich ist die digitale Transformation nicht billig. Allerdings
stellt sie eine Investition in die Zukunft dar.
3.2 Überleben im digitalen Zeitalter
Was ist nun aber das Erfolgsrezept, um im digitalen Zeitalter zu überleben?
Letztlich ist es die konsequente Beachtung und Befolgung von sechs Dimen-
sionen:
• Radikale Nutzerzentrierung,
• Incubator und geschützter Raum,
• Innovation und Disruption,
• Lean Startup und Entrepreneur DNA,
• Change,
• Prozesse und Technologien.
Von diesen Faktoren müssen alle erfüllt sein. Es hilft nichts, manche mit
120 % zu realisieren, wenn durch das Loch im Boden z. B. schlechten
Change die gewohnte Struktur auf unsicheren Beinen steht.
Gehen wir daher genauer auf die einzelnen Dimensionen ein:
Radikale Nutzerzentrierung: Personen, allen voran der Kunde, aber auch
der Mitarbeiter, rücken radikal ins Zentrum eines jeden Unternehmens. Fra-
gen hierbei sind u. a.:
• Wer ist eigentlich meine Zielgruppe?
• Und was braucht sie wirklich?
• Wie führe ich meine Mitarbeiter und motiviere sie intrinsisch?
Mit methodischen Ansätzen wie beispielsweise dem Design Thinking oder
dem Lego Serious Play entstehen Produktinnovationen und Geschäftsmo-
delle mit einem radikalen Fokus auf den Kunden. Aber auch mit User-
Leadership im digitalen Zeitalter
23
Journey-Analysen, Eye Tracking, Big Data und ähnlichen Ansätzen wird ver-
sucht, mehr auf den Kunden bzw. den Nutzer einzugehen und diesen bzw.
seine Bedürfnisse besser zu verstehen.
Incubator: Die meisten Unternehmen sind zu träge, um die benötigten
neuen Konzepte in kurzer Zeit umzusetzen. Innerhalb eines Incubators oder
einer Digitaleinheit, die von den umgebenen Unternehmensstrukturen wei-
testgehend losgelöst sind, entsteht der nötige Freiraum für innovatives Den-
ken und agiles Testen, direktes Umsetzen sowie die Realisierung schneller
Erfolge am Markt. Dies hat den den positiven Nebeneffekt, dass business as
usual nach wie vor möglich ist und zudem der Unternehmensalltag nicht auf
den Kopf gestellt wird. Ein Incubator kann entweder ein eigenes Digitalteam
sein, welches mit den entsprechenden Befugnissen, Freiheiten und Budgets
ausgestattet ist, oder aber es könnte ein eigenes Startup, entweder als Or-
ganisationseinheit oder als separate Entity, gegründet werden.
Innovation und Disruption: Disruptive Technologien müssen integraler Be-
standteil des Unternehmensalltags werden. Durch eine reine Effizienzsteige-
rung und business as usual entstehen jedoch längst keine Innovationen
mehr. Im Kampf um das beste Angebot kann künftig nur der bestehen, der
neue Ideen, andere Blickwinkel und ungewöhnliche Methoden zulässt. Dis-
ruptives Denken müsste also zum Teil der DNA eines jeden digitalen Unter-
nehmens gemacht werden.
Wichtig ist es auch, den Innovationsprozess zu institutionalisieren und sys-
tematisch anzulegen. Hierzu können zahlreiche Methoden verwendet wer-
den wie z. B. Design Thinking, Lean Startup, Lego Serious Play, Business Mo-
del Generation, Effectuation und viele andere mehr.
Lean Startup und Entrepreneur DNA: Um den digitalen Wandel voranzutrei-
ben, werden Mitarbeiter benötigt, die eine unternehmerische Digitalkom-
petenz besitzen und damit mehr wie Entrepreneure agieren. Dies muss al-
lerdings bereits in der DNA der Firma verankert werden. Nach der Philoso-
phie des Lean Managements und des Lean Startups werden Geschäftsmo-
delle bereits in frühen Phasen verifiziert und so ggf. ein Scheitern provoziert
oder ein Erfolg prognostiziert.
Change: Im digitalen Zeitalter sind Unternehmen gefordert, sich ständig neu
zu erfinden. Für die Mitarbeiter und die Führungskräfte ist dies eine stetige
und immer schneller werdende Herausforderung. Die digitale Revolu-
tion wird zu einem entscheidenden Treiber von Veränderungen. Letztlich ist
die digitale Transformation ein gigantischer Change-Prozess für jedes Unter-
nehmen. Damit ist das Change Management bei den Veränderungsprojek-
ten ein zentraler Hebel für Erfolg und Akzeptanz.
Leadership im digitalen Zeitalter
24
Prozesse und Technologie: Diese decken schließlich die verbleibenden Be-
reiche ab. Prozesse und Abläufe müssen schneller an die veränderten Bedin-
gungen angepasst werden. Zentrales Element für alle Prozesse spielt daher,
neben dem Menschen, die Technologie, die vorwiegend auf IT basiert. Alle
automatisierbaren Prozesse und Abläufe müssen automatisiert werden. Da-
ten müssen vollumfänglich digitalisiert und zugänglich gemacht werden.
Die digitale Transformation bedingt Gewinner und Verlierer gleichermaßen.
Ausruhen dürfen sich keine Unternehmen, denn Gewinner können im digi-
talen Zeitalter rasch wieder zu Verlierern werden. So gelang es Nokia um die
Jahrtausendwende zum Weltmarktführer für Mobiltelefone aufzusteigen.
Wenige Jahre später verschlief das Unternehmen jedoch den technologi-
schen Wandel zum Smartphone und wurde in weiterer Folge zur Gänze von
dem Markt gedrängt. Heute heißen die Marktführer im Bereich der Mobil-
telefone Samsung und Apple. Vergleichbare Beispiele könnten beliebig fort-
geführt werden. Zahlreiche Branchen waren und sind durch die Digitalisie-
rung von – oftmals mehreren – radikalen Veränderungsprozessen gekenn-
zeichnet. Modernes Leadership erfordert folglich ein ausgeprägtes Bewusst-
sein für Wandel und ein Gespür für potenziell disruptive Technologien.
Für ein tieferes Verständnis steigen wir weiter in die Profile bereits digitali-
sierter Unternehmen ein, um zu verstehen, was diese besonders gut umge-
setzt haben. Die Robert Bosch GmbH hatte z. B. im Jahr 2017 375.000 Mit-
arbeiter und einen Jahresumsatz von knapp 71 Milliarden Euro. Im Krisen-
jahr 2009 machte Bosch knapp 1,2 Milliarden Euro Verlust. Daraufhin kam
es zur strategischen Neuausrichtung und vor allem zur radikalen Konzentra-
tion auf die digitale Transformation, dies vor allem in den Bereichen Vernet-
zung, Daten und Human Resources. Bei Bosch laufen z. B. aktuell über 50
interne Projekte, die sich nur mit der Digitalisierung von Prozessen und mit
der Produktion, vor allem im Bereich Industrie 4.0, beschäftigen. Während
es in der durch die COVID-19-Pandemie bedingte Krisenzeit überall Einspa-
rungen gab, blieb der Etat für Forschung und Entwicklung stets konstant. In-
nerhalb von wenigen Jahren gelang die Kehrtwende zum größten Umsatz in
der Konzerngeschichte.
Ähnliches gilt für das Beispiel Porsche: Es wurde festgestellt, dass 80 % aller
Porsche-Kunden iPhone-Nutzer sind. Dadurch wurde sich auf Themen wie
Smart Home, Connected Car usw. konzentriert. Die Steuerung der Montage
ist komplett RFID-basiert. Es wurde ein intelligentes CRM-System auf Basis
von SAP HANA installiert, um schnelle treffgenaue Angebote zu ermögli-
chen. Es gibt ein Intranet, namens Carrera Online, und ein sogenanntes
Enterprise Social Network, weil Transparenz und Offenheit in der Kommuni-
kation oberstes Ziel sind.
Leadership im digitalen Zeitalter
25
Media Markt gilt als technischer Fixposten am Markt. Das Einstellen der Mit-
arbeiter auf agiles Arbeiten und das schnelle Umsetzen neuer Geschäftsi-
deen war dort einer der Ansätze. Ideen gab es ebenso im Vertrieb, indem
der Bedarf mit Predictive Analytics treffsicher analysiert und prognostiziert
werden konnte. Die Umsätze waren IT-getrieben, die Produktverfügbarkeit
konnte vor Ort per App ermittelt werden, der digitale Kassenzettel wurde
erfunden.
Zalando. Als Startup im Jahr 2008 gegründet hat Zalando heute 17 Millionen
aktive Kunden, ist in 15 Ländern vertreten, hat über 10.000 Mitarbeiter und
gilt als der größte Online-Shop im Bereich Mode weltweit. Eine neue Arbeits-
struktur setzt auf autonome agile Teams, die eigenverantwortlich Entschei-
dungen treffen. Damit das funktioniert, muss jeder Mitarbeiter immer auf
alle Informationen zugreifen können. So werden alle Daten in der Cloud den-
jenigen zur Verfügung gestellt, die sie benötigen. Das Instrument zur Mitar-
beiterführung war und ist OKR, welches anschließend noch näher vorgestellt
wird. Jedoch zeigen einige Formen des Handels nicht nur positive Ausprä-
gungen. Augenzwinkernd wird gescherzt, ob nun der sog. „Schrei vor Glück“
beim Kunden oder in der Logistikabteilung stattfindet, wenn Bestellungen
als Retoure an den Versandort zurückkehren. Durchschnittlich 80 % aller be-
stellten Artikel werden wieder zurückgegeben, was einen hohen Kostenfak-
tor und einen immensen Logistikaufwand darstellt. Im klassischen Handel
wäre dies undenkbar.
3.3 Das moderne Unternehmen
Wie sieht nun aber das neue Unternehmen der Zukunft aus, das sich perfekt
an alle Aspekte des digitalen Zeitalters angepasst hat?
Hier gibt es zunächst den Aspekt Wechsel mit folgenden Charakteristika:
• Lösen von traditionellen Geschäftsmodellen.
• Konsequentes Überarbeiten bestehender Produkt- und Serviceport-
folios.
• Aufgeben von obsoleten Produkten und Services.
• Radikale Konzentration auf den Kunden.
• Ggf. Expansion, da nationale Märkte oft zu klein sind, um eine lang-
fristige Wachstumsstrategie zu überstehen.
Die Potenziale liegen daher meist in anderen Branchen. Über den eigenen
Sektor bzw. die Branche hinauszudenken, ist sehr wichtig. Ebenso ist es re-
levant Joint Ventures einzugehen, anstelle von Competitions und
Leadership im digitalen Zeitalter
26
Wachstumschancen in neuen Bereichen oder Branchen zu nutzen. Der Ge-
winner in diesem Aspekt ist die Technologiebranche, während die Verlierer
Handels-, Finanz- und Versicherungs- sowie Energieunternehmen sind.
Ein weiterer Aspekt ist die Ausgestaltung: Es wird eine flexible Innovations-
und Investitionskultur durch Technologiesprünge, kürzere Produktlebens-
zyklen oder sich wandelnde Kundenbedürfnisse notwendig. Zeitgleich steigt
aber der Kostendruck. Daher sind Strategien für eine effiziente Kostensen-
kung und Controlling gefragt. Die Organisation und die Prozesse müssen
schlanker, flexibler und effizienter gestaltet werden. Die Investition in die
Erhöhung der Geschwindigkeit der Geschäftsprozesse, also Time-to-Mar-
ket, und in den Ausbau der Forschungs- und Entwicklungsaktivitäten sollten
höchste Priorität haben.
Aspekt Neuausrichtung: Produkte und Vermarktung müssen an den zuneh-
mend digitalen, individualisierten und unabhängigen Kunden ausgerichtet
werden. Informationen über Produkte und Leistungen müssen deutlich
transparenter und immer erreichbar platziert werden. Firmen müssen inno-
vative Strategien und attraktive Konzepte zur Kundenansprache entwickeln,
um den Konsumenten in den Weiten des digitalen Universums überhaupt
noch zu erreichen. Die bestehenden Produkt- und Dienstleistungsportfo-
lios müssen an die Bedürfnisse der Digital Natives angepasst werden.
Aspekt Orientierung: Zukünftige Erfolgsfaktoren müssen von Anfang an be-
rücksichtigt werden wie z. B. die Kundenbindung, die Innovationsfähig-
keit, flexible Strukturen und Prozesse, ein flexibles Personalmanage-
ment, eine intelligente Nutzung von Daten und strategische Kooperationen.
3.4 Digitaler Reifegrad
• Die Fragen, welche sich Unternehmen aktuell stellen müssen, sind u.
a.:
• Welche Bereiche sind bereits ausreichend digitalisiert?
• Wie hoch ist der Reifegrad der Digitalisierung (auf einer Skala von
„Digital Immigrant“ bis „Digital Native“)?
• Welche Bereiche müssen wie verändert werden, um sie fit für das
digitale Zeitalter zu machen?
Eine Möglichkeit zur objektiven Einordnung dieser Fragen kann das von der
Pluswerk AG entwickelte Digital Maturity Level geben, welches die relevan-
ten zehn Dimensionen der digitalen Transformation repräsentiert. Hieraus
können anschließend Handlungsempfehlungen abgeleitet werden, um den
Digitalisierungsgrad nachhaltig anzuheben und dauerhaft zu stabilisieren.
Leadership im digitalen Zeitalter
27
Die „zehn Gebote“ sind definiert durch:
1. Strategy = digitaler Reifegrad des Unternehmens.
2. Leadership = Management und Rollen.
3. People = Human Resources, Zielsysteme, Personalentwicklung.
4. Culture = Kultur und Kulturentwicklung.
5. Processes = Prozesse und deren Umsetzung.
6. Products = Innovationsfähigkeit.
7. Technology = Technologie sowie Soft- und Hardware.
8. Data = Daten sowie deren Verwaltung.
9. Customer = Kundenfokus.
10. Governance = Umsetzung der Digitalstrategie.
Durch die zehn Bereiche wurde eine Möglichkeit geschaffen, ein oftmals
schwer erkennbares Bild so in Teilbereiche aufzuschlüsseln, dass es greif-
bar wird und zudem bereits erste Einblicke über die Stärken und Schwä-
chen gegeben werden.
Nachfolgenden werden die jeweiligen Dimensionen genauer ausgeführt.
Strategy: Die Digitalstrategie des Unternehmens, z. B. dargestellt durch eine
digitale Roadmap, zeigt den Reifegrad der Digitalisierung im jeweiligen Un-
ternehmen. Dabei muss die Unternehmensführung eine entsprechende Di-
gitalstrategie entwickeln, die die Veränderungen im Konsumentenverhal-
ten, aber auch z. B. destruktive technologische Entwicklungen sowie die Än-
derungen im Arbeitsverhalten oder in der Komplexität beinhaltet. Diese Di-
gitalstrategie muss sowohl dokumentiert als auch im gesamten Unterneh-
men ausreichend kommuniziert werden. Selbst wenn keine Digitalisierung
im Unternehmen stattfinden soll, ist dies entsprechend zu deklarieren und
zu kommunizieren. Ein Grund hierfür ist, dass das Unternehmensbekenntnis
jedem Mitarbeiter bekannt sein sollte und ebenso, welches Motiv die Ursa-
che für das weitgehend gleichbleibende analoge Unternehmen ist.
Eine komplette Verneinung der Digitalisierung ist zwar nicht gleichbedeu-
tend mit dem unmittelbaren Bankrott, jedoch schwindet zumeist die Kon-
kurrenzfähigkeit in diversen Belangen enorm. Ausnahmen bestätigen auch
hier die Regel, jedoch sind solche Unternehmen meist in Nischenmärkten
angesiedelt und haben als Gemeinsamkeit eine lange Tradition sowie ein ex-
klusives Klientel. Gleichzeitig muss die Digitalstrategie in regelmäßigen Ab-
ständen hinterfragt, angepasst und mit neuen Erkenntnissen und technolo-
gischen Fortschritten angereichert werden.
Leadership im digitalen Zeitalter
28
Leadership: Die Rolle des Führungsteams bei der Umsetzung der Strategie
steht im Vordergrund. Das Topmanagement, aber auch das mittlere Ma-
nagement, muss ein Bewusstsein für die Notwendigkeit des Wandels erler-
nen. Genauso muss es neuen Methoden sowie Technologien gegen-
über nicht nur offen sein, sondern diese ggf. sogar selbst erlernen und, so-
fern nicht vorhanden, für das jeweilige Unternehmen erdenken, praktizieren
und regelmäßig verfeinern.
Es zählen vor allem das Commitment im Management und die herrschende
Führungskultur. Zudem ist es wichtig, herauszufinden, welche Funktionsbe-
reiche im Unternehmen bereits involviert sind.
Je mehr Bereiche bereits digital denken und arbeiten, desto erfolgreicher
wird das Unternehmen bei der Umsetzung der Transformation sein.
Gleichzeitig muss festgestellt werden, ob die Kompetenz der Führung und
die Umsetzung der Digitalstrategie in einem günstigen Verhältnis zueinan-
derstehen, denn ein zu schneller Wandel kann auch zu großen Problemen
führen. Genau dieser Umstand ist der Schwerpunkt dieses Skriptums: Füh-
rung im digitalen Kontext auf Unternehmensebene als Instrument des
Wandels – wie auch operative Führung aufgrund digitalisierter Prozesse im
Unternehmen. Hier liegt der Fokus zum einen auf den Schwierigkeiten wie
auch auf den Besonderheiten, welche die digitale Transformation mit sich
bringen, und zum anderen darauf, welche Fähigkeiten Führungskräfte benö-
tigen, um dem neuen Setting gerecht zu werden. Der absolute Mehrwert ist
erst dann gegeben, wenn eine bestmögliche Synergie zwischen Mensch und
Moderne geschaffen wird. Hier sei jedoch bereits vorab verraten: Die eine
Antwort gibt es nicht – weder von binärer Seite noch in Bezug auf Führungs-
ansätze. Eine solche Synergie fordert einen kontinuierlichen, offenen Wer-
degang, indem laufend Maßnahmen etabliert werden, welche aus der zuvor
abgeleiteten Erfahrung gewonnen wurden. Somit sind der Wille zur Verän-
derung und das Bewusstsein, das Neues nur mit neuem Denken bestmöglich
gelingen kann, unerlässlich.
People: In der dritten Dimension, People, sind vor allem zwei Aspekte maß-
gebend: Das Employer Branding, also die Attraktivität des Arbeitgebers, und
die Führung der Mitarbeiter. Die digitale Arbeitswelt erfordert neue Qualifi-
kationen für Führende wie Geführte gleichermaßen. Die „neue“ Führungs-
kraft trägt hier jedoch eine Doppelbelastung. Der Leadership-Ansatz des Un-
ternehmens ist relativ zum Digitalisierungsgrad und zudem unentdecktes
Terrain. Wichtig ist vor allem, wie von Seiten der Führungskraft gehandelt
wird und auf was es zu achten gilt – und dem nicht genug – das Hineinver-
setzen in die geführte Person. Sofern überhaupt digitale Kompetenzen für
den Umgang mit der neuen Materie vorhanden sind, betreffen diese nur ei-
nen Bruchteil des veränderten Arbeitsalltags. Es ist also wichtig, sich mit
Leadership im digitalen Zeitalter
29
folgenden Fragen zu beschäftigen und passende Antworten auf sie zu fin-
den: Was ändert sich, wie und weswegen? Was hat noch bzw. nun Bestand,
welche Unsitten, die früher das Mittel der Wahl waren, gilt es, zu vermei-
den? Die Innensicht der Protagonisten wird im weiteren Verlauf des Skrip-
tums im Detail behandelt, in diesem Abschnitt galt es allerdings, dies ledig-
lich grob zu skizzieren.
Klare Anforderungsmodelle und entsprechender Freiraum für die digitale
Fortbildung bilden eine notwendige Voraussetzung, ebenso repräsentieren
agile Ansätze zur Mitarbeiterführung und Zielvereinbarung Notwendigkei-
ten.
Weiter sind zwei Herausforderungen maßgeblich: Zum einen ist es not-
wendig, Know-how-Träger und Experten zu produzieren, zu draften bzw.
abzuwerben, und zum anderen den bestehenden Mitarbeitern die Furcht
vor dem Neuen bzw. Unbekannten zu nehmen und diese entsprechend
intrinsisch zu motivieren.
Culture: In der vierten Dimension, Culture, liegt der Fokus auf der eigenen
Unternehmenskultur. Ein ausgeprägtes Leitbild, eine Vision, Mission, Ziele,
ein Zweck und stimmige Werte, welche benötigt werden, um den Wandel zu
ermöglichen sowie diesen bestmöglich zu unterstützen, werden vorausge-
setzt. Somit wird auch in Zeiten des Zweifels bei aufkommenden Schwierig-
keiten und Widerständen ein omnipräsentes Gesamtbild geboten. Es bedarf
zudem einer Innovationskultur, die den Wandel vorantreibt. Neue, moderne
Ansätze, wie die Verwendung von frischen Innovationsfindungsmetho-
den beschleunigen den Kulturwandel im Unternehmen. Diese sind z. B. De-
sign Thinking, Lean Startup, Lego Serious Play u. v. m., die den Aufbau von
internen Entwicklungsstätten im neumodernen Kontext auch in Incubators
fördern, sowie das regelmäßige Durchführen von Kunden- und Entwickler-
wettbewerben und anderen Formen der Open-Innovation-Culture. Zudem
sind die Kulturmodelle von Zusammenarbeit und Führung ein notwendiger
Bestandteil dieser Dimension.
Processes: Die fünfte Dimension, Processes, beschäftigt sich mit den Abläu-
fen und Prozessen im Unternehmen. Suboptimale bzw. unreife Prozesse ver-
ursachen nicht nur erhebliche Kosten, sondern verschwenden Ressourcen,
die für eine erfolgreiche Transformation benötigt werden.
Ein maßgeblicher Unterschied bei der Digitalisierung ist zudem, dass nicht
nur die klassische Projektarbeit an sich zunimmt, sondern vor allem die An-
zahl abteilungsübergreifender Projekte.
Im Inneren der Organisation muss daher eine neue Richtung gewählt wer-
den, von starren Prozessen hin zu agilen Abläufen. Agiles Handling, ungeach-
tet unter welchem Namen bzw. unter welcher Methode es praktiziert wird,
Leadership im digitalen Zeitalter
30
ist schon seit einigen Jahren eine unabdingbare Eigenschaft. Dies ist nicht
nur der Digitalisierung geschuldet, jedoch wurde der notwendige Agilitäts-
faktor durch die digitale Revolution deutlich erhöht. Dies führt zugleich auch
zu dem Umkehrschluss, dass diejenigen, die sich bis dato dem „bewegli-
chen“ Ansatz verweigert haben, es in Zukunft umso schwerer haben werden,
auf Augenhöhe mit der Konkurrenz zu bleiben. Langfristig ist somit ein Still-
stand als Rückschritt zu sehen und anhand der aktuellen Marktveränderung
ein Schattendasein bzw. gar ein Ausscheiden zu befürchten. Agile Metho-
den, wie Scrum, Design Thinking usw. sowie Lean-Methoden, Lean Manage-
ment, Lean Startup, Kanban usw. gewinnen im Zuge des digitalen Wandels
immer mehr an Bedeutung.
Products: Die sechste Dimension, Products, legt den Fokus auf die Produkte
des Unternehmens. Hierbei ist es unerheblich, ob es sich um reale oder digi-
tale Produkte oder Dienstleistungen handelt. Es ist in jedem Fall notwendig,
dass die Kernelemente des Nutzenversprechens als Service definiert wer-
den. Ebenso muss das Geschäftsmodell auf digitale Tauglichkeit über-
prüft und ggf. nachgebessert werden. Zudem ist es notwendig, dass der
Markt und andere Kanäle einbezogen werden, um eine aussichtsreiche Po-
sitionierung zu ermöglichen. Digitalisierung per se ist kein einziges Effizienz-
projekt, sondern ein Vorteil von vielen. Effizienz ist jedoch in der heutigen
Zeit mit den Kernprägungen wie Globalisierung und dem zunehmenden Kos-
tendruck, welcher im Gleichschritt mit steigenden Kosten vorangeht, eine
gern gesehene „Schraube“, an der sich drehen lässt. Neue digitale Produkte
und Dienstleistungen führen zu einer Wandlung des Geschäftsmodells mit
(meist) enormen Kundenvorteilen. Ein gutes Beispiel ist hier die staatliche
Bürokratie mit dem Leitsatz der langsam mahlenden Mühlen. Durch die Ein-
führung der Handy-Signatur ist es möglich, viele Amts- und Behördenwege
orts- und zeitunabhängig zu erledigen, ganz ohne lästige Suche nach der
richtigen Ansprechperson, Örtlichkeiten, Öffnungszeiten und weiteren
Nachteilen und dies in der Regel kostenlos. Ein weiterer Vorteil, nämlich
neue Produkte und/oder Dienstleistungen im Unternehmensportfolio zu ha-
ben, hilft dabei, in zusätzliche Geschäftsfelder vorzudringen bzw. die gewon-
nene Marktstellung zu sichern.
Technology: In der siebten Dimension, Technology, werden alle Technolo-
gien analysiert und anschließend bewertet, die das Unternehmen zum eige-
nen Erhalt wie auch zur Serviceunterstützung für den alltäglichen Betrieb
und für seine Dienstleistungen und Produkte als Unterstützung benötigt.
Maßgeblich sind hier u. a. die IT-Strukturen, denn die Ablösung oder Erneu-
erung veralteter IT-Strukturen sind meist Teil der (neuen) Roadmap. Ein Bei-
spiel hierfür ist die „Rationalisierung“ von Hardware im Unternehmen auf-
grund der Cloud-Technologie, wo Server und deren Services einfach
Leadership im digitalen Zeitalter
31
gehostet werden. Der Fokus kann auf das Kerngeschäft gelegt werden: Un-
terbrechungsfreier, zugesicherter Service, inkludiertes Fachpersonal, mo-
derne Hardware, leichte Skalierbarkeit und keine Personalkosten für War-
tung/Betrieb sind nur einige der Vorteile, welche den Trend zur „Cloud“ er-
klären.
Der essenzielle Punkt beim binären Wettrüsten besteht darin, digitale Lö-
sungen für analoge oder teildigitale Prozesse zu schaffen. Schlussendlich
geht es um die Verknüpfung von intelligenten Technologien und vorhande-
nen, meist ineffizienten Systemen. „Ineffizient“ ist jedoch ein undankbares
Adjektiv und zum Teil nicht gerechtfertigt. Systeme sind und waren perfor-
mant und erfüllten zur vollsten Zufriedenheit ihre Aufgaben (in vergangenen
Zeiten), jedoch zeigen sich oftmals durch neue technische Möglichkeiten la-
tente Schwächen und daraus resultierende Verbesserungspotenziale. Sinn-
gemäß hierfür: Bevor die Glühbirne erfunden wurde, war die Menschheit
auch mit einer Kerze sehr zufrieden. Diese erhellte den Raum in finsteren
Momenten. Thomas Alva Edison brachte letztlich die sprichwörtliche „Er-
leuchtung“, ein Substitut. Da die Vorteile immens waren, war die Wachab-
löse lediglich eine Frage der Zeit.
Allgemein gilt daher: Die Technologien und Möglichkeiten von heute sind
durchweg optimal und im Rahmen des Möglichen. Jedoch ist ständig zu
hinterfragen, ob diese auch noch morgen und in Folge die bessere Alterna-
tive sind.
Data: In der achten Dimension, Data, werden alle Arten von Daten betrach-
tet, die im Unternehmen produziert und verarbeitet werden. Richtiger
müsste es jedoch heißen: Daten nicht nur im jeweiligen Unternehmen, son-
dern Daten von jeglicher Quelle. Beispiele wären Geschäfte, Bonuskarten,
Webseiten, Cookies, Verkehrssysteme mit Aufzeichnung von Fußgängern
und Fahrzeugen jeglicher Bewegung, Suchmaschinen und Social-Media-
Plattformen, welche grundsätzlich alles, was sie (in aller Regel mit Einwilli-
gung) aufzeichnen, verwerten. Nicht umsonst gelten Daten als das Öl der
Zukunft und dies ist die Geburtsstunde des Datenkapitalismus und Ideenge-
bers für neue Geschäftszweige. Noch nie wussten Unternehmen so viel über
ihre Kunden, Märkte und Produkte wie in der heutigen Zeit.
Stellen Sie eine Kosten-Nutzen-Rechnung betreffend einer Supermarkt-Kun-
denkarte an. Welche Vorteile haben Sie davon und welche Nachteile?
Eine Antwort lautet vermutlich eine Preisreduktion aufgrund von Zugehörig-
keit. Dies ist korrekt und nicht von der Hand zu weisen. Jedoch bezahlen Sie
auch für diese Reduktion und zwar mit der Zurverfügungstellung Ihrer Da-
ten. „Das Haus verliert nie“ – dieser Spruch gilt für das Casino wie auch für
die Ausgeber solcher datengetriebenen Kundenkarten. Anhand diverser
Leadership im digitalen Zeitalter
32
Berechnungen lässt sich pro Kunde und dessen gewonnener Abhängigkeit
(vormals Treue) langfristig ein Gewinn erwirtschaften, angereichert mit zahl-
reichen positiven Nebeneffekten: Definierung von Kundengruppen, Seg-
mentierung ihrer Motive und Trigger sowie weiterer manipulativer Möglich-
keiten, welche anhand historischer Daten gegeben sind. Abschließend zum
Exkurs Kundenkarte soll Folgendes bemerkt werden: Diese sind nicht per se
„schlecht“ – jedoch sollte sich jeder Verwender darüber bewusst sein, was
mit seinen Daten geschieht und ob dies auch im Einklang mit der Vorstellung
seiner Person steht.
Die Datenproduktion steigt im Allgemeinen – teils explosionsartig – an. IOTs
(Internet of Things), Smartphones, Smart-Homes sind maßgebliche Auslöser,
aber auch die aufstrebende (chinesische) Wirtschaft darf hierbei nicht außer
Acht gelassen werden. In den nächsten Jahren erhalten kontinuierlich mehr
Menschen und Maschinen einen Zugang zum Internet, was dem Ausbau der
Infrastruktur, dem generellen Wirtschaftsaufschwung, billiger werdender
Technik und vielem mehr geschuldet ist. Im Durchschnitt besitzt eine Person
jedoch deutlich mehr als eine Gerätschaft. Somit ist bereits bei einem ge-
ringgradigen Multiplikator die Milliardengrenze erreicht. Notgedrungen war
es somit notwendig, den Adressraum von IP4 auf IP6 zu erhöhen. Jedes mit
dem Internet verbundene Gerät benötigt eine einzigartige gültige Adresse,
ähnlich einer Sozialversicherungsnummer, um mit dem Internet kommuni-
zieren zu können. Beim alten Standard IP4 sind vier Milliarden Adressen (=
Gerätschaften) möglich, bei acht Milliarden Menschen und der Möglichkeit,
mehr als ein Gerät pro Person zu besitzen, ist ein Mangel vorprogrammiert.
Durch die Aufstockung auf IP6 ist dieses Problem gelöst: 340 Sextillionen Ad-
ressen stehen nun zur Verfügung. Anders ausgedrückt: Seit der Entstehung
unseres Planeten, geschätzt vor ca. 4,5 Milliarden Jahren, und bei der
Vergabe einer Milliarde IP-Adresse pro Sekunde seit Anbeginn wären heute
dennoch noch ausreichend IPv6-Adressen vorhanden. Mit der Einfüh-
rung/Wandlung auf IP6 ist somit der Grundstein für eine nahezu unendliche
Digitalisierung gegeben. Jede Person kann seine Wohnräumlichkeit, seinen
Körper (Smart-Watches, Wearables etc.) sowie andere Lebensräume mit fast
unendlich vielen technologischen Elementen verknüpfen.
Wieder im eigenen Unternehmen angekommen – durch die Nutzung der
Produkte und Services entstehen immense Datenmengen. Unternehmen
sind momentan kaum mehr dazu in der Lage, diese Daten entsprechend zu
strukturieren, auszuwerten und Informationen daraus abzuleiten ge-
schweige denn, diese gewinnbringend einzusetzen. Dabei lässt sich das in
den Rohdaten verborgene Wissen als enormer Wettbewerbsvorteil nutzen,
um die Angebote abzustimmen bzw. zu optimieren. Eine Optimierung ist
möglich, da anhand neu gewonnener Muster neue Erkenntnisse geschaffen
Leadership im digitalen Zeitalter
33
werden können, welche zudem die Konkurrenz (noch) nicht erkoren hat –
weswegen sie im Wettbewerb zurückfällt. Da kein Unternehmen der
Schlussläufer sein möchte, sind Big Data und Business Intelligence in jedem
größeren Unternehmen ein notwendiges Thema geworden. Kleinere Unter-
nehmen haben hier oft nicht die technischen Möglichkeiten und auch nicht
das Datenaufkommen. Dieses Bedürfnis nach Daten brachte findige Firmen
auf den Markt, die Daten kaufen, entsprechend auswerten und die daraus
gewonnen Informationen und Erkenntnisse an kleine wie auch große Unter-
nehmen weiterverkaufen. Jedoch umfassen diese Daten nur eine Teilmenge
und somit eine Wahrheit, jedoch nicht die Wahrheit, da sich Unternehmen
hüten, die Daten ihrer Kunden und Transaktionen weiterzugeben – einer-
seits aufgrund datenschutzrechtlicher Belange und andererseits, und dies
wiegt deutlich schwerer, weil dem Marktteilnehmer eine Sichtweise in das
Unternehmen gewährt werden würde und die gewonnenen Erkenntnisse
umso valider würden, je mehr Daten über den entsprechenden Marktteil-
nehmern generiert wurden. Das wiederum würde dazu führen, dass viele
Unternehmen aussagekräftige Daten und Informationen hätten und eine
Differenzierung nur schwer möglich wäre, da alle gleiche oder ähnliche ge-
winnbringende Maßnahmen setzen würden. Die Wettbewerbsvorteile wä-
ren damit sprichwörtlich „dahin“.
Umgekehrt gilt: Wem es gelingt, die wichtigen Daten, optimalerweise in
Echtzeit, zu erkennen und als strategische Ressource zu verarbeiten, ver-
schafft sich einen langfristigen Vorsprung im Wettbewerb.
Customer: Die Sicht auf den Kunden reflektiert das vermutlich wichtigste
Element in der digitalen Transformation. Der ständige, tägliche Umgang mit
der digitalen Welt hat nicht nur die Nutzungsgewohnheiten maßgeblich ver-
ändert, er hat zudem auch einen gewaltigen Einfluss auf die Erwartungshal-
tung an die Unternehmen.
Ein Selbsttest für das eigene Smartphone-Verhalten wäre z. B. App Checky,
verfügbar für Android und IOS, mit garantiertem Aha-Effekt für die Nutzen-
den. Die App zeichnet u. a. auf, wie oft das Smartphone am Tag verwendet,
entsperrt und aktiv genutzt wird. Schätzen Sie vorab Ihre Daten. Am besten
lassen Sie die Tests über einige Tage laufen, sodass das Handling unbewusst
dem Realbetrieb angepasst wird und vergleichen Sie die prognostizierten
Daten mit den ermittelten Daten.
Konsumenten werden heutzutage von einer unterbrechungsfreien Leis-
tungserbringung hofiert und verwöhnt. Kunden wollen besagte Leistung
zeit- und ortsunabhängig erleben und dies in entsprechender Qualität.
Die Kundenloyalität wird in der heutigen Zeit auf die Probe gestellt, denn der
Wechsel zu einer anderen Marke ist für den Kunden heute nur noch einen
Leadership im digitalen Zeitalter
34
kurzen Klick entfernt. Ein bekannter Vertreter ist hierbei die Werbeschaltung
von durchblicker.at – die beste Lösung und der Wechsel wird einfach, feh-
lerfrei und kostenlos realisiert. Das Kundenerlebnis wird damit zu einem,
wenn nicht sogar zu dem Schlüsselfaktor für die Unternehmensstrategie.
Governance: Die letzte Dimension, Governance, mit den Bereichen Steue-
rungs- bzw. Regelungssystem sorgt dafür, dass die zuvor erwähnten Dimen-
sionen anhand der gewählten Strategie auch tatsächlich umgesetzt werden.
Ein entsprechend eingerichtetes Reporting und eine Kommunikationsstrate-
gie sind hier u. a. notwendig. Ebenso benötigt es Policies, Regeln und Proze-
duren. Regelmäßige Audits sorgen für eine regelmäßige Reflexion aller
Schritte. Die Koordination aller Maßnahmen ist hier ebenso inkludiert wie
die Entscheidungsfindung an sich. Eingebettet ist hier auch das Riskmanage-
ment und – last but not least – der Change-Prozess, mit dem alles steht und
fällt.
Zusammengefasst bedeutet die Bestimmung des digitalen Reifegrades
eine aktuelle Diagnose im Voranschreiten der digitalen Transformation.
Dies ist keine Einmalerhebung, sondern bedarf in allen Elementen regel-
mäßiger Updates sowie einem permanenten Abgleich zwischen den inter-
nen Unternehmensgefilden und der digitalen Außenwelt mit all ihren Trei-
bern wie neuen Technologien, Kunden, Mitbewerbern etc.
Umsetzung
Die dargestellten Dimensionen werden wie folgt operativ umgesetzt:
Zuerst werden Workshops und Interviews mit den Unternehmen durchge-
führt und die Ergebnisse eines detaillierten Fragebogens ausgewertet.
Für jede Dimension gibt es zwischen 10 und 15 Kriterien, die zum Teil bran-
chenspezifisch abgestimmt und anschließend abgefragt werden. Die Beant-
wortung eines Kriteriums führt zu einer Bewertung zwischen 0 und 100 %
bzw. ist es auch möglich, ein entsprechendes Scoring-Schema anzuwenden.
Im nächsten Schritt wird der errechnete Score auf ein Netzdiagramm anhand
der jeweiligen Dimensionen aufgetragen. Über die erhaltene Fläche wird der
Digitalisierungsgrad festgelegt. Der nächste Schritt, und weit wichtiger als
die reine Visualisierung, ist die Ermittlung der Standardabweichung. Diese
dient der Erkenntnis darüber, ob Dimensionen untereinander stark vonei-
nander abweichen. Anhand dieser Erkenntnis ist eine Adaptierung der
schwach ausgeprägten Dimensionen notwendig, um eine effiziente Transak-
tion zu ermöglichen. Zusätzlich zur Auswertung werden Dimensionen-Scores
anhand der Handlungsempfehlungen ermittelt, die zu einem nachhaltigen
Anstieg des Scores in dieser Dimension führen.
Leadership im digitalen Zeitalter
35
4 Warum sich Führungskräfte neu erfinden
müssen
4.1 Auswirkung auf das unternehmerische Humanka-
pital
Die Auswirkung der Digitalisierung auf die Personalarbeit ist immens. In die-
sem Abschnitt des Skriptums umfasst dies alle Mitarbeiter gleichermaßen.
Nicht gelebte humanitäre CSR erscheint als eine der größten Ängste des di-
gitalen Zeitalters.
„Ist mein Arbeitsplatz sicher?“ oder „Werde ich durch einen Computer er-
setzt?“ – Dies sind nur einige Fragen in den Köpfen der Menschen in den
heutigen Unternehmen. Es ist eine beängstigende, aber auch eine beeindru-
ckende Vorstellung zugleich – vor Jahren noch reine Fiktion, heutzutage zum
Teil schon Realität und in der Zukunft, wie es scheint, die Norm. Um die Aus-
wirkung der Digitalisierung auf die Arbeitswelt aufzuzeigen, werden zwei
Stellschrauben näher betrachtet: Zum einen die Auswirkung bzw. die Verän-
derung durch die Digitalisierung auf den Arbeitnehmer als Mensch und zum
anderen die Auswirkung der Digitalisierung auf die Unternehmen, das In-
nenleben der Organisation und deren Protagonisten sowie weiterführend
die tägliche Personalarbeit. Wichtig ist hierbei, dass beide Bereiche als
Wechselspiel zu betrachten sind. Der Mensch ist die treibende Kraft im Un-
ternehmen und Teilnehmer am dynamischen Arbeitsmarkt, aber umgekehrt
beeinflussen Veränderungen in den Unternehmen auch die Menschen.
Der Mitarbeiter ist aufgrund seines Wissensträger-Daseins die wohl wich-
tigste Ressource im Unternehmen. Die größte industrielle Revolution aller
Zeiten scheint mit der Digitalisierung eingeläutet zu sein. Wissensarbeit ist
hierbei die wohl wichtigste Fähigkeit im digitalen Zeitalter.
Früher wie heute sind das Wissen und der Drang zum Neuen wichtig. Es geht
darum, Konzepte und Strategien zu entwickeln, um mit den technischen
Möglichkeiten optimal umzugehen und Potenziale bestmöglich auszunut-
zen. Diese Konzepte können von keinem Computer bzw. Roboter kom-
men. Somit rückt der Mensch als Stratege und Visionär in den unmittelbaren
Fokus. Daraus ergeben sich aber auch Anforderungen an die Mitarbeiter. Ein
Nebeneffekt der Digitalisierung ist, dass das gesamte Unternehmen von der
Informationstechnologie durchzogen ist. Auf der einen Seite setzt dies eine
Affinität des Mitarbeiters zur Technik voraus, aber auf der anderen Seite ist
es von Unternehmensseite her wichtig, die Mitarbeiter zu schulen. Schulun-
gen helfen, Kompetenzen aufzuwerten bzw. zu erlangen. Jedoch ist das
Problem häufig, dass bei manchen Personen aufgrund von Alter, Historie,
Leadership im digitalen Zeitalter
36
Ausbildung und Werdegang wenige bis keine IT-Skills vorhanden sind. Hier
vermag auch die beste Schulung keine Wunder zu bewirken. Dann stellt sich
bereits hier die Frage nach einer Zwei-Klassen-Gesellschaft und ob das feh-
lende IT-Wissen einem K.O.-Kriterium gleichkommt, welches kurz- oder
langfristig in einen Jobverlust mündet, da eine Weiterentwicklung für die
neue Herausforderung nicht ertragreich wäre bzw. die Chance für einen Job-
einstieg gar nicht gegeben zu sein scheint.
Humanitäre Coporate Social Responsibility ist somit einerseits ein wesent-
licher Punkt für Führungskräfte und andererseits noch wichtiger für das Di-
gital Leadership auf Unternehmensebene, welchem weit mehr Fokus und
Energie zukommen sollte.
Interne Kommunikation über das Smartphone ist heutzutage gewöhnlich.
Vor einigen Jahren war sie noch ein ironisches Zeichen der „Wichtigkeit“ von
Personen – damals ein kleiner Vorgeschmack, heute selbst im Vorschulalter
kein Grund, die Augen zu verdrehen. Das Unternehmen muss die Mitarbeiter
darin unterstützen, sich den neuen Rahmenbedingungen anzupassen.
Diese Anpassung fordert aber auch einiges von den Mitarbeitern. Das le-
benslange Lernen wurde von einer freiwilligen Ausprägung zu einem Pflicht-
gegenstand. Dass ein Beruf in drei bis vier Lehrjahren erlernt und ca. 40
Jahre ausgeübt werden kann, ist in der digitalen Neuzeit undenkbar gewor-
den. Selbst die Aussage „Die Ausnahme bestätigt die Regel“ ist hier bereits
schwer zu validieren.
Ständig wechselnde Arbeitsbedingungen bedeuten, dass das Lernen, um
sich anzupassen, niemals endet. Ein zentraler positiver Aspekt für die Mitar-
beiter ist die mittlerweile deutlich einfachere Möglichkeit zur Vereinigung
von Beruf und Familie. Die Chancen der Digitalisierung geben dem Mitarbei-
ter etwa die Gelegenheit für flexible Kinderbetreuung, Arbeiten von zuhause
aus und Zeit mit der Familie in der Arbeitszeit.
Das Ende der klassischen „nine-to-five"-Arbeitszeit ist eine grundsätzlich po-
sitive Neuerung, welche u. a. die oben erwähnten Ausprägungen ermöglicht.
Jedoch: Wo Licht, da ist auch Schatten. Allgegenwärtige Erreichbarkeit, Ar-
beiten im Urlaub, absehbares Burn-out durch permanenten Stress bzw.
durch das „Nicht-Mehr-Abschalten-Können“ sind die andere Seite der Me-
daille. Die Ironie hinter dem Terminus „nicht-abschalten“ kann als wahrge-
wordene Analogie gesehen werden: Ist die technische Gerätschaft nicht aus-
geschaltet, ermöglicht dies gleichermaßen nicht das Entkoppeln des Kopfes
vom Berufs- in den Freizeitmodus.
Die fortschreitende Abhängigkeit von digitalen Geräten kann sich auch im
Selbsttest schnell zeigen, wenn etwa das Smartphone bzw. ein anderes Ar-
beitsgerät, welches sich grundsätzlich in unmittelbarer Nähe und im
Leadership im digitalen Zeitalter
37
ständigen Stand-bye-Modus befindet, für eine gewisse Zeit bzw. am Wo-
chenende ausgeschaltet wird. In aller Regel sollte die Entspannung steigen,
jedoch wird eher das folgende unmittelbare Ergebnis eintreten: Der Distress,
die Anspannung und die Furcht, etwas zu versäumen, werden aller Wahr-
scheinlichkeit nach ansteigen. Ein digitaler Teufelskreis beginnt. Zielorien-
tiertes Arbeiten und zielgerichtete Kommunikation, größere räumliche Iso-
lation und flexiblere Arbeitszeiten fordern also neue, gemeinsame Zielver-
einbarungen und Wege hin zur eigenständigen Selbstorganisation.
Dabei darf das Verfolgen der Unternehmensziele wie auch der gemeinsamen
Vision nicht aus den Augen verloren werden. Die Organisation muss sich
ebenso verändern. Moderne Mitarbeiter und fortschrittliche Techniken ver-
puffen ohne Anpassung der unternehmensinternen Prozesse sowie ohne an-
gewandte Modelle und Führungsstile. Die Trennung zwischen Privatzeit und
Arbeitszeit ist oft verschwommen und je nach Tätigkeiten gar nicht zu fixie-
ren, da dadurch die Effizienz deutlich sinken würde. Klassische Modelle be-
rücksichtigen solche Aspekte ebenso wenig wie Regelungen zu Pausen zwi-
schen zwei Arbeitstagen. Neben den Unternehmen muss auch der Gesetz-
geber hier umdenken. Überhaupt ist es das Wichtigste von Organisations-
seite, Prozesse flexibler zu gestalten. Der 12-Stunden-Tag ist ein Versuch, et-
was flexibler agieren zu können, jedoch zeigen sich bereits hier, neben der
gewonnenen Flexibilität, auch entsprechende Schattenseiten aufgrund von
Missbrauch und Druckausübung.
Ein Bewerbungsprozess sollte sich an den Bedürfnissen der Arbeitnehmer
ausrichten. Zudem sollte er individuell und flexibel sein, um den bestmögli-
chen Output zu liefern. Die Organisation hat hierbei jedoch noch viel unge-
nutztes Potenzial. Big Data ist im Bereich der Personalarbeit bislang eher
stiefmütterlich behandelt worden, hätte aber speziell für das Personalwesen
– sei es für die Weiterentwicklung, das Employer Branding oder auch für das
Recruiting – enorme Nutzungsmöglichkeiten.
Durch die Digitalisierung werden zudem große Teile oder oftmals ganze Ar-
beitsbereiche durch computergestützte Maschinen und Roboter auf kurz
oder lang ersetzt werden.
Das betrifft alle Bereiche, die sich komplett automatisieren lassen. Aktuell
wird viel Arbeit und Schweiß investiert, um herauszufinden, welche Bereiche
dies sind und ob sie einen selbst betreffen. Die Antworten sind hier sowohl
mikro- wie auch makroökonomisch von Belang. Die Ausbildungsoffensive
der Regierung und persönliche Weiterbildung sind nur zwei Ausprägungen.
Ersetzen wird der Roboter den Menschen jedoch niemals komplett – eine
Hypothese, spannend wie furchteinflößend zugleich. Aus der Sicht des Au-
tors gilt dies für die nächsten Jahre, danach müssen die Beantwortung und
Leadership im digitalen Zeitalter
38
die Prognose erneut in Frage gestellt werden. Am eigenen Ast sägen ist hier-
bei eine Metapher mit Nachbrenneffekt. Wissensarbeit und konzeptionelle
Arbeit ist in Zeiten der Digitalisierung von Bedeutung wie nie zuvor. Der
Mensch als Denker und Visionär ist das Zukunftsbild des Arbeitnehmers im
neuen digitalen Zeitalter. Ein Seitenhieb auf die Gültigkeit dieser Aussage ist
durch die Künstliche Intelligenz gegeben, die bereits heute dazu in der Lage
ist, eigenständig Lieder zu komponieren und Kinderbücher zu schreiben.
4.2 Anforderungen an das Humankapital
Die Anforderungen der modernen Personalarbeit lassen sich in drei Teilbe-
reiche aufgliedern:
• Personalentwicklung,
• New Work,
• Agilität.
Der Entwicklung des Personals als nachhaltiges Gut im Unternehmen
kommt hierbei besondere Beachtung zu. Die Digitalisierung verändert un-
sere Arbeitsbedingungen mittlerweile permanent. Nicht nur die EDV-Abtei-
lung, sondern alle Teilbereiche des Unternehmens werden von der Informa-
tionstechnologie sprichwörtlich in ihren Bann gezogen. Die Digitalisierung
von jeglichen Prozessen, ungeachtet, ob es sich hierbei um wertschöpfende,
unterstützende oder managende Prozesse handelt, fordert im Unterneh-
men das Lernen des Mitarbeiters wie auch gleichermaßen das der Ge-
schäftsführung. Das Unternehmen muss hier zur Seite stehen und primär im
Bereich der Personalentwicklung unterstützend tätig werden.
Es wird in Zukunft kaum eine Stelle im Unternehmen mehr geben, die sich
innerhalb von fünf bis zehn Jahren nicht gänzlich verändert. Die Ausbil-
dung, das Studium wie auch der Lernprozess bei der Arbeit werden in der
Realität dementsprechend nie zu Ende gehen.
Ein Status, ein Zertifikat, eine akademische Ausbildung etc. wie auch ent-
sprechende Kenntnisse und Fähigkeiten werden als aktuelle Blitzlichter ge-
sehen, welche für den Moment und für die nahe Zukunft Gültigkeit haben,
jedoch in absehbaren Intervallen hinterfragt und nachgebessert gehören.
Die Folge sind Anforderungen an Mitarbeiter und Unternehmen zu-
gleich. Von dem Mitarbeiter fordert dies die Bereitschaft zum lebenslangen
Lernen. Es muss Teil des Bewusstseins werden, dass es keinen Zustand
gibt, in dem alles für den Rest des Arbeitslebens erlernt ist und folgend ein-
fach der Alltag abgearbeitet werden kann. Von Unternehmensseite bedeu-
tet dies hingegen eine große Verantwortung im Bereich der
Leadership im digitalen Zeitalter
39
Personalentwicklung. Das Unternehmen darf die Veränderung der Digitali-
sierung nicht ohne den Mitarbeiter vollziehen. Der Mitarbeiter muss aktiv in
den Prozess miteinbezogen werden. Diese aktive Teilnahme geht deutlich
weiter als eine neue Schulung oder eine neue Software im Unternehmen.
Umso mehr ein Unternehmen es schafft, den Mitarbeiter als aktiven Teil der
digitalen Transformation zu sehen, desto eher wird die digitale Transforma-
tion als Gesamtes vorangetrieben.
Der zweite Bereich ist das Thema New Work. New Work ist eine moderne
Begrifflichkeit, die heutzutage oft in Verbindung mit moderner Führung ge-
nannt wird. New Work ist ein Konzept, das die Veränderung der Arbeit an
sich und die daraus resultierenden Anforderungen an das HR beschreibt.
New Work basiert auf Forschungsarbeiten von Frithjof Bergmann. Kern des
Konzeptes ist das In-den-Vordergrund-Rücken der Aspekte Mitarbeitermoti-
vation, Kreativität und Innovation. Unternehmensstrukturen und Arbeits-
räume haben sich diesen Aspekten anzupassen. Die Folge ist ein Wertewan-
del zu Werten wie Selbstständigkeit, Freiheit und Teilhabe an der Gesell-
schaft. Das Unternehmen steht hier vor der Herausforderung, den Mitarbei-
tern selbstbestimmtes Handeln, Mobilität und weitere Modelle der Zukunft
zu ermöglichen. Der Mitarbeiter soll die Möglichkeit bekommen, sich in der
innovativen Organisation der Zukunft selbst einzubringen und zu verwirkli-
chen. Das Unternehmen muss auf diesen Ansatz vorbereitet und ausgerich-
tet sein. Eine lasche, kaum gelebte Umsetzung eines aktuellen „Trends“ ist
hier allerdings kaum von Erfolg gekrönt und richtet bei einer halbherzigen
Umsetzung mehr Schaden und Verwirrung als Nutzen für die Zielerreichung
an.
Der dritte Bereich ist mit dem Begriff Agilität recht unklar beschrieben bzw.
bleibt das Gemeinte meist im Verborgenen und lädt zum Interpretieren ein.
Somit stellt sich die Frage: „Was genau ist damit gemeint?“. Viele kennen
diesen Begriff aus der Produktentwicklung in Verbindung mit Frameworks
wie z. B. Scrum, Kanban und anderen Vertretern des agilen Wesens. Auch
für den Bereich des Personals bedeutet die Zukunft ein Umfeld, in dem sich
Rahmenbedingungen ständig ändern. Prozesse, die alles vorschreiben, und
eine Vielzahl von Regeln sind in Zeiten einer komplexen Welt unmöglich.
Zielvereinbarungen für ein komplettes Jahr mit einem Mitarbeiter durchzu-
führen, funktioniert im digitalen Zeitalter kaum.
Auch in der Personalarbeit ist hier dementsprechend ein Umdenken ge-
fragt. Agile Methoden wie Management 3.0 oder OKR sind die Modelle der
Zukunft des Personals.
Leadership im digitalen Zeitalter
40
4.3 Die agile Personalarbeit
Agile Personalarbeit ist das Fundament, welches effektive Führung im Ope-
rativen ermöglicht und Digital Leadership den notwendigen Raum zur Ent-
faltung und Veränderung gibt. Doch wie kann Personalführung den Anforde-
rungen an das heutige Zeitalter gerecht werden? Ein zentral wichtiger As-
pekt der agilen Personalarbeit ist das Wegfallen vom sogenannten Abtei-
lungsdenken bzw. eine gelebte Prozessorientierung querfeldein im Unter-
nehmen. Moderne Arbeit muss schnell reagieren können und nah am Markt
bzw. am Kunden ausgerichtet sein. Die Lösung dafür sind selbstorganisie-
rende Bereiche, Einheiten und Teams. Selbstorganisierende Teams sind
kostfunktional aufgestellt. Das bedeutet, diese Teams besitzen alle notwen-
digen Kompetenzen, um ihre Arbeit selbstorganisierend zu erfüllen. Die
Folge solcher Teams sind unmittelbare Marktnähe, eine Entlastung der Füh-
rungskraft und ein hohes Commitment die eigene Arbeit betreffend. Ein
Team fühlt sich mit seinen erbrachten Leistungen deutlich mehr verbun-
den, wenn es für diese selbstorganisierend verantwortlich ist. Außerdem
bringt diese Form eine deutliche Zeitersparnis mit sich. Viele Warteschlei-
fen, weil die Führungskraft als Wissensträger fungiert, entfallen hierdurch.
Selbstorganisierende Teams ergeben dementsprechend mehr Motiva-
tion, schnellere und qualitativ höhere Ergebnisse und mehr Commitment
des Teams für die eigene Arbeit.
Der zweite wichtige Punkt ist Transparenz. Der Wandel zu einer agilen Per-
sonalarbeit ist ein Wandel der Unternehmenskultur und Transparenz ist eine
der wesentlichen Aspekte agiler Methoden.
Transparenz in Verbindung mit moderner Personalarbeit bedeutet auch, ei-
nen Überblick darüber zu bekommen, welche Abteilung, welches Team oder
welcher Mitarbeiter gerade woran arbeitet. Neben Vertrauen entstehen
wertvolle Synergien, die wiederum mehr Flexibilität und ein höheres Tempo
mit sich bringen. Transparenz hilft, weg vom Abteilungsdenken und hin zu
einem Verständnis des gesamten Unternehmens mit einem gemeinsamen
Ziel zu kommen.
Der dritte Punkt sind kurze Iterationen. Auch Personalführung muss eng an
den Markt und andere Rahmenbedingungen angelegt sein. Beide sind so
schnelllebig und dynamisch, dass ein Unternehmen die Möglichkeit haben
muss, schnell zu reagieren. Die Möglichkeit, sich in wechselnden Rahmenbe-
dingungen schnell anzupassen betrifft jeden Bereich des gesamten Unter-
nehmens und ist somit ein zentrales Thema der Personalführung.
Es stellen sich u. a. folgende Fragen:
• Was bedeuten diese Aspekte jetzt für die Führung?
• Gibt es in Zeiten von Selbstorganisation überhaupt noch Führung?
Leadership im digitalen Zeitalter
41
• Wie hat Selbstorganisation auszusehen?
Führung ist im Wandel. Unterschiedliche Modelle sind im Einsatz – neu, alt,
Mischformen. Die Prämisse „Ein Unternehmen, ein Führungsansatz“ ist nicht
realistisch und auch kaum realisierbar. Schlussendlich wird Führung durch
Mitarbeiter und durch unterschiedliche Charaktere gelebt, somit ist ein und
derselbe Führungsansatz augenscheinlich gleich, aber in gelebter Praxis zum
Teil auch verschieden.
Doch ganz gleich, ob Fremd- oder Selbstorganisation, Führung wird es im-
mer geben.
Nur erlebt die Führung zurzeit eine Revolution. Hieß Führen früher das Vor-
geben von Regeln und Vorgehensweisen und vor allem, Wissensträger zu
sein, bedeutet moderne Führung das Vorgeben des „big pictures“ der Da-
seinsberechtigung des Unternehmens sowie dessen Vision.
Das Leitbild ist in diesen Zeiten so wichtig wie noch nie zuvor. Damit ein Un-
ternehmen mit selbstorganisierten Teams in die richtige Richtung läuft, be-
nötigt es eine gemeinsame Vision, einen gemeinsamen Stern, dem alle fol-
gen. Die Führung ist dafür verantwortlich, das Leitbild zu entwerfen und es
im Unternehmen zu kommunizieren. Diese Art von Führung wird sehr oft in
Verbindung mit der transformationalen Führung genannt, also einer Füh-
rung über Werte und Einstellung.
Die Führungskraft versucht bei der transformationalen Führung Vision und
Leidenschaft für eine Zukunft zu vermitteln, die die Mitarbeiter intrinsisch
motiviert. Die Führungskraft ist hier als eine Art Vorbild zu sehen, dem un-
bedingt gefolgt werden will. Transformationale Führung und agile Führung
sind eng verwandt und bilden damit die Basis für eine perfekt ausgerichtete
Personalarbeit in Zeiten der digitalen Transformation.
4.3.1 OKR – Das Framework für modernes HR
Ein Vertreter der modernen Personalarbeit ist das Framework OKR. OKR
steht für „Objectives and Key Results“ und ist ein Framework, das ein so klas-
sisches Thema wie Zielvereinbarung mit moderner agiler Personalführung
verbindet. Es ist bereits in den siebziger Jahren bei Intel von Andrew Grove
entwickelt worden.
Am Anfang hatte das OKR-Framework große Ähnlichkeiten mit dem Ma-
nagement-by-Objectives-Framework. Mitte der neunziger Jahre setzte
Google gleich zu Beginn seiner Geschichte diese Methode zur modernen
Leadership im digitalen Zeitalter
42
Personalführung ein und entwickelte es deutlich weiter. Mittlerweile gilt
OKR als Standard der Personalführung in agilen Kontexten.
Elemente und Funktionsweise
• Objectives: OKR teilt Ziele in Objectives und Key Results auf. Objec-
tives sind auf der einen Seite visionär und emotional. Sie haben noch
nichts mit messbaren Elementen zu tun. Sie sollen den Mitarbeiter
dazu motivieren, einer Richtung zu folgen. Eine Objective kann für
einen aufstrebenden Fußballer der Wunsch sein, der neue
Ronaldo/Messi etc. zu werden. Das klingt visionär, begeisternd und
gibt der harten Arbeit einen sinnerfüllenden Zweck.
• Key Results sind auf der anderen Seite dafür zuständig, die Objective
messbar zu machen. Key Results zeigen auf, was es zu tun gilt, um
dem großen Ziel, der Objective näher zu kommen. Der Fußballer
könnte sich z. B. das Key Result bei „100 Meter in unter zwölf Sekun-
den“ oder „80 % gewonnene Zweikämpfe“ festlegen. Key Results
klingen bewusst nicht mehr so heroisch, denn sie dienen schlussend-
lich dem Zweck, festzulegen, was getan werden muss.
Die Begeisterung wird durch die Objective ausgelöst und am Leben gehalten.
Key Results zeigen die Route. Was aber sind die Elemente, weswegen OKR
ein gutes Vorbild und eine beliebte Methode für moderne Personalführung
ist? Die Elemente von OKR sind zu unterteilen in Rollen, Events und Arte-
fakte.
Rollen: Der OKR-Master trägt die entscheidende Rolle im OKR-Frame-
work. Der OKR-Master ist der Coach im Unternehmen. Er ist Experte für den
Prozess und somit auch zentraler Ansprechpartner für jeden Mitarbeiter für
das Thema OKR. Darüber hinaus coacht er die Mitarbeiter aber auch aktiv. Er
sieht, an welcher Stelle er noch aktiv unterstützen und wo er ggf. noch Hin-
dernisse beseitigen muss. Der OKR-Master passt perfekt zur modernen Füh-
rungskraft im Sinne eines Servant Leaders. Das Wirken von Führenden als
Dienst am Geführten ist die Schlüsselrolle für eine gelungene Einführung von
OKR.
Events: Im OKR gibt es mehrere Events, die fester Bestandteil des Frame-
works sind. OKRs entstehen durch die Mitarbeiter selbst. Das Erfolgsrezept
besteht aus OKR-Workshops, dem ersten Event. Die Workshops werden
vom OKR-Master moderiert, der mit seiner Coaching-Erfahrung und einem
geschickten Mix aus Moderationstechniken den Workshop zu einer
Ideenoase für den kommenden Unternehmenszyklus macht. Die OKR-Work-
shops gibt es auf Unternehmens-, Team- und Mitarbeiterebene. Das zweite
Event ist das Review. Am Ende eines Zyklus werden im OKR-Review die OKR
Leadership im digitalen Zeitalter
43
ausgewertet. Damit nach jedem Unternehmenszyklus überprüft werden
kann, wie erfolgreich dieser war, gibt es das Review als institutionalisiertes
Event. Zudem gibt es während des Unternehmenszyklus regelmäßige Re-
views, um zu überprüfen, ob sich alle noch auf dem richtigen Weg befinden.
Das dritte Event ist die Retrospektive. Am Ende des Unternehmenszyklus
bekommt das Team die Gelegenheit dazu, zu überprüfen, wie der OKR-Pro-
zess bereits adaptiert wurde oder wo noch Herausforderungen bestehen,
die es zu lösen gilt. Für den OKR-Master ist dieses Event das Herzstück des
Frameworks. Er bekommt die Gelegenheit, Hindernisse zu entdecken und
dem Team dabei zu helfen, sich selbst zu verbessern.
Artefakte: Im OKR-Framework gibt es ein ganz entscheidendes Artefakt: Die
OKR-Liste. Die OKR-Liste bildet alle OKRs ab, ungeachtet dessen, ob sie auf
Unternehmens-, Team- oder Mitarbeiterebene sind. Wichtig dabei ist, dass
die OKR-Liste übersichtlich und intuitiv zu bedienen ist. Der Mitarbeiter soll
mindestens einmal täglich mit ihr in Berührung kommen. Die OKR-Liste soll
Ausgangspunkt für eine zielgerichtete Kommunikation im gesamten Unter-
nehmen sein. Diese Rollen, Events und Artefakte machen OKR zu dem Stan-
dard für moderne und agile Personalführung in Zeiten der Digitalisie-
rung. Vorreiter der Digitalisierung wie Google, Twitter, LinkedIn, Airbnb, U-
ber etc. nutzen OKR bereits seit längerer Zeit und sind nicht zuletzt des-
halb zu den Gewinnern der digitalen Transformation zu zählen.
4.3.2 Die neue Führungskraft
Die Digitale Transformation und die damit verbundene Revolution in der
Personalführung bedeuten im nächsten Schritt ein völlig neues Verständnis
der Rolle der Führungskraft. Die moderne Führungskraft wird häufig im Zu-
sammenhang mit dem Begriff des Servant Leaders genannt. Servant Lea-
dership entfernt sich komplett von dem Gedanken einer Führungskraft, die
dem Mitarbeiter vorschreibt, was er zu tun hat.
Servant Leadership stellt die Interessen der Mitarbeiter und der Gruppe in
den Fokus. Führung ist demnach die Ausrichtung der Führungskraft auf die
Bedürfnisse der Mitarbeiter. Der Ansatz stammt aus den Siebzigerjahren von
Robert Greenleaf. Die Führungskraft dient dem Mitarbeiter, das bedeutet,
sie hilft ihm, Probleme zu beseitigen, nimmt sich seine Interessen zu Her-
zen und begleitet ihn auf dem Weg zur Selbstorganisation.
Im Rahmen der agilen Personalführung begleitet die Führungskraft den Mit-
arbeiter auf dem Weg, agile Methoden wie OKR, Scrum o. Ä. zu verinnerli-
chen.
Auf diesem Weg handelt die Führungskraft in fünf Feldern:
Leadership im digitalen Zeitalter
44
1. Erkennen,
2. Feedback,
3. Erziehen,
4. den Weg erleichtern,
5. Support.
Erkennen: Im Bereich des „Erkennens“ ist es das Wichtigste für die Füh-
rungskraft, mit offenen Augen und Ohren durch das Unternehmen zu gehen.
Der Servant Leader muss aktiv erkennen, wo er seine Mitarbeiter oder sein
Team am besten unterstützen kann. Außerdem ist es für die Führungskraft
wichtig, einen eigenen Eindruck darüber zu bilden, wie der Reifegrad des
Teams auf dem Weg zur Selbstorganisation (nicht zu verwechseln mit dem
Reifegrad der Digitalisierung) ist. Schließlich genügt es nicht, einem Team zu
sagen, es soll ab jetzt selbstorganisiert arbeiten.
Feedback: Damit sich ein Mitarbeiter oder ein Team weiterentwickeln
kann, benötigt es Feedback. Die Führungskraft als Servant Leader ist dafür
verantwortlich, klares, wertvolles Feedback zu geben.
Erziehen: Mit Erziehen ist nicht gemeint, Regeln aufzustellen, sondern zu de-
monstrieren, wie Selbstorganisation am besten funktioniert. Das macht die
Führungskraft über das Vorleben eigener Selbstorganisation, wie auch durch
das Vergleichen mit anderen Teams. Auch das Abhalten von Sessions oder
die Organisation von Trainings gehört in diesen Bereich.
Den Weg erleichtern: Einer der zentralen Aufgabenbereiche der modernen
Führungskraft ist es, dem Mitarbeiter oder dem Team die optimale Rahmen-
bedingungen zu schaffen. Das kann bedeuten, den optimalen Teamraum zu
schaffen, die Kommunikationsmöglichkeiten zu verbessern und/oder etwas
komplett Anderes wie z. B. das Bereitstellen von Getränken, Spielgerätscha-
fen wie einen „Wuzzler“ (Fußballtisch) und andere aktivierende sowie ab-
lenkende, jedoch zugleich fokussierende, gemeinschaftsfördernde „Zeitver-
treibe“.
Support: Mit dieser Tätigkeit hilft die Führungskraft dabei, alle Hindernisse
und Störungen zu beseitigen. An dieser Stelle zeigt sich der Gedanke des Ser-
vant Leaders sehr deutlich. Die Führungskraft stellt sich komplett in den
Dienst des Mitarbeiters oder des Teams und ist stark darum bemüht, Stö-
rungen zu beseitigen. Genau dies könnte das „Zünglein an der Waage“ sein,
welches über den Erfolg oder das Scheitern einer digitalen Transformation
entscheidet. Die Schlüsselfigur ist demnach die Führungskraft. Wird aus-
schließlich auf klassische Ansätze und Modelle beharrt, ohne die erwähnte
Veränderung und das eigene Hinterfragen des Stils anzustreben, so gelingt
die Digitalisierung bzw. die digitale Transformation hingegen nicht oder
Leadership im digitalen Zeitalter
45
schlägt zum Teil fehl. Dieser Fehlschlag relativiert wiederum die davor reali-
sierte Digitalisierung und das gesamte Vorhaben wird demnach obsolet. Aus
diesem Grund werden in den verbleibenden Kapiteln die Person der Füh-
rungskraft, deren Wichtigkeit als Stellschraube in der digitalen Transforma-
tion sowie bewährte Führungsstile kritisch betrachtet. Vorweg soll aber das
Folgende gesagt werden: Ein vollständiger Wechsel des Führungstypus
Mensch wie auch der etablierten Führungsstile ist (noch) nicht notwendig.
Jedoch sind eine Adaptierung, Veränderung wie auch Ergänzung gepaart mit
einer starken Selbstreflexion und dem Willen zur Einsicht und Veränderung
notwendig. Als Support zählt hierbei auch, das Team zu ermutigen, wenn es
Probleme hat, den eingeschlagenen Weg zur tiefgreifenden Veränderung
weiterzuverfolgen.
Damit die Führungskraft die genannten fünf Handlungsfelder optimal bedie-
nen kann, ist vor allem eines gefragt:
>>> Zuhören <<<
Obwohl es einfach klingt, ist gutes Zuhören gepaart mit der richtigen Frage-
stellung, mit einem gewissen Gespür und einer aufrichtigen Interessensbe-
kundung harte Arbeit und eher die Ausnahme als die Regel.
Die Führungskraft muss viel Vertrauen zu ihren Mitarbeitern aufbauen. Das
Zuhören und vor allem, die richtigen Fragen zu stellen, stellen dabei den ent-
scheidenden Faktor dar. Der Mitarbeiter darf keinen Zweifel daran ha-
ben, dass sich die Führungskraft dem Wohl verpflichtet. Auf dem Weg, einen
Mitarbeiter oder ein Team zu begleiten, wird die Führungskraft mit dem ein
oder anderen Problem konfrontiert werden. Um diese „Impediments“ zu be-
seitigen, hat sich ein Coaching-Zyklus etabliert, der sehr erfolgsverspre-
chend Probleme angeht.
Der Coaching-Zyklus lautet: Problem-Option-Experiment-Review.
• In diesem Coaching-Zyklus wird zunächst ein Problem erkannt. Exis-
tieren mehrere Probleme, ist es entscheidend wichtig, die vorhande-
nen Probleme zunächst zu priorisieren und sich dann auf die wich-
tigsten Aspekte zu konzentrieren.
• Im zweiten Schritt werden Optionen diskutiert, die das Problem lö-
sen können. Optionen werden im Zusammenhang mit verschiede-
nen Hypothesen formuliert, die das Problem lösen sollen.
• Im dritten Schritt werden feste Experimente aus den Optionen defi-
niert, die ausprobiert werden.
• Im letzten Schritt wird dann im Review darauf zurückgeblickt, ob das
Problem durch das Experiment gelöst wurde. Dabei ist es wichtig,
dass nicht nur überprüft wird, ob das Experiment richtig
Leadership im digitalen Zeitalter
46
durchgeführt wurde, sondern vor allem, ob die gewünschte Hypo-
these, also Verbesserung, eingetreten ist.
Zusammenfassend heißt das: Zunächst werden Probleme erkannt, priori-
siert und fokussiert. Der anschließende Diskurs wird durch Hypothesen de-
finiert. Experimente werden praktiziert und abschließend auf Tauglichkeit
und neue Erkenntnisse geprüft.
Leadership im digitalen Zeitalter
47
5 Neue Methoden für den digitalen Wandel
Durch die zunehmende Geschwindigkeit, mit der heutzutage Geschäftsideen
vor allem im digitalen Bereich realisiert werden, gepaart mit der schnell vo-
ranschreitenden technischen Entwicklung befinden sich Unternehmen zum
Teil auf fremden Terrain. Damit sie während des Vortastens in das neue Ge-
biet schnell und flexibel agieren können, nutzen Digitalunternehmen die agi-
len Arbeitsmethoden in Verbindung mit digitaler Expertise.
Bei einer agilen Arbeitsmethode wird iterativ vorgegangen. Dies bedeutet,
dass nicht nur das Ziel, sondern auch die Veränderung auf dem Weg als in-
tegrales Element eingeschlossen wird. Inkrementelles und iteratives Vorge-
hen beschreiben ein Vorgehen in nacheinander folgenden Iterationen, ein
Verfahren der schrittweisen Annäherung an die exakte oder endgültige Lö-
sung. Eine Iteration ist eine zeitlich und fachlich in sich abgeschlossene Ein-
heit.
Ähnlich wie für einen Entdecker beim Vordringen auf neues Terrain, steht
für den agilen Wissensarbeiter am Anfang eine Vision. Diese verfolgt er
Schritt für Schritt. Dabei bezieht er stetig Erkenntnisse aus seinem Umfeld
mit ein, das er täglich erkundet. Interdisziplinäre Teams bringen unterneh-
mensintern eine möglichst breite Perspektive mit ein, außerdem beziehen
sie Kunden und Stakeholder sehr früh mit ein und legen auch auf deren kon-
stantes Feedback Wert. Eine ausreichende digitale Expertise ermöglicht es,
digitale Tools zu nutzen und so Ideen schnell, kostengünstig und unkompli-
ziert zu entwickeln und zu testen. Auf diese Weise kann schnellen Schrittes
unbekanntes Terrain erobert werden. Damit dies gelingt, bedarf es einer of-
fenen Entdeckerhaltung, die vielmehr mit offenen Fragen als mit Antworten
arbeitet. Das offene Mindset ist in diesem Ansatz die entscheidende Grund-
haltung. Dazu gehören eine flexible Organisationsform, agile Arbeitsansätze,
die eine hohe Experimentierfreudigkeit fördern, Transparenz in der Informa-
tion und Kommunikation sowie eine Bereitschaft, ständig zu lernen. Im Er-
gebnis stehen sogenannte agile oder responsive Organisationen. In Kombi-
nation mit einem hohen Grad an Selbstmanagement der Mitarbeiter errei-
chen Organisationen mit wenig ausgeprägter Hierarchie das, was Frederik
Laloux als „Teal Organization“ bezeichnet. Vorstände und Führungskräfte
müssen dafür sorgen, dass das Unternehmen die digitale Kompetenz stetig
auf- und ausbaut, um neue Wachstumspotenziale zu entdecken und im
Wettbewerb zu bestehen. Um die digitale Transformation zu schaffen bzw.
zu unterstützen, sei es bei der Ideenfindung von neuen Produkten und
Dienstleistungen, bei der Projektumsetzung wie auch bei der Mitarbeiterfin-
dung und -führung oder auch in schwierigen Situationen, werden bereits
vorhandene Konzepte mit gangbaren und mittlerweile etablierten Konzep-
ten ergänzt.
Leadership im
digitalen Zeitalter
Leadership im digitalen Zeitalter
48
5.1 Management 3.0
Eine mögliche Lösung bzw. ein Teil der Lösung für die neuen Herausforde-
rungen aufgrund der veränderten Bedingungen ist die Management 3.0-Be-
wegung von Jürgen Appelo. Management 3.0 beschäftigt sich mit der Ent-
wicklung von Teams und komplexen Systemen bzw. mit dem Aufeinander-
treffen dieser Einheiten. Unternehmen, die mit neuen, agilen Metho-
den dem digitalen Zeitalter gerecht werden wollen, erleben bei der Einfüh-
rung eine Art Revolution der Unternehmenskultur. Das Management und
die Führungskräfte tragen bei diesem Change-Prozess die Schlüsselrol-
len. Digitale Transformation bedeutet bei Management 3.0 also auch eine
Revolution im Führungsverhalten.
Hinsichtlich des Aspekts der Schlüsselrollen der Führungskraft und des Ma-
nagements und der Revolution im Führungsverhalten wird schnell deutlich,
wie wichtig es ist, dass Führungskräfte als Motor des Wandels vorange-
hen und zu den Ersten gehören, die diesen Change-Prozess durch ihr Füh-
rungsverhalten aktiv mitgestalten.
Übungsaufgabe 1: Stellen Sie sich vor, Sie wollen in Ihrem Unterneh-
men eine innovative agile Methode wie z. B. Scrum etablieren. Der Grund
hierfür: Die Digitalisierung schreitet voran und um daraus eine erfolgreiche
Transformation zu machen, bedarf es auch Änderungen bei den Herange-
hensweisen. Jedoch sind in diesem Unternehmen einige Führungskräfte, die
selbst den Eindruck vermitteln, einem Wandel kritisch gegenüberzustehen,
da sie womöglich selbst klassische Werte wie Kontrolle oder auch die Vor-
gabe von Regeln und Prozessen aktiv vorleben. Mitarbeiter antizipieren
solch ein Verhalten grundsätzlich sofort. Da Mitarbeiter aus intuitiven Grün-
den einem Wandel anfangs immer kritisch gegenüberstehen, würden sie das
Verhalten der Führungsperson als Chance nutzen, vor Neuem zu flüchten
oder das Neue nicht zu unterstützen – es sei denn, die Führungskräfte un-
terstützen diesen Wandel wirklich zu 100 %. Damit genau dieses Szenario
nicht entsteht, müssen die Führungskräfte am besten sofort anfangen, auf
neue agile Personalführung zu setzen.
Management 3.0 beschreibt, wie die Führungsrolle im neuen, digitalen Un-
ternehmen aussehen sollte. Somit passt Management 3.0 perfekt zu ande-
ren Frameworks der agilen Personalführung wie die bereits vorgestellten
Objectives and Key Results bzw. OKR.
Leadership im digitalen Zeitalter
49
Management 3.0 nennt sechs Teilbereiche, auf die sich die moderne Füh-
rung konzentrieren sollte. Diese sind:
1. Menschen anregen,
2. Rahmen schaffen,
3. Teams befähigen,
4. Kompetenz aufbauen,
5. Strukturen entwickeln,
6. Alles verbessern.
Menschen anregen: Nicht erst jetzt, aber primär inmitten eines Wissenszeit-
alters wird deutlich, dass die Menschen der entscheidende Teil im Unter-
nehmen sind. Außerdem sind Menschen keine Ressource wie eine Maschine
oder ein Rohstoff, sondern selbst komplexe Lebewesen. Die Aufgabe des
Managements muss hier sein, Menschen dazu zu motivieren, Leistung zu er-
bringen. Dabei sollten die Führungskräfte auf die Wünsche der Mitarbeiter,
die individuelle Personen und oft nicht mit dem Unternehmen vereinbar
sind, eingehen. Ein wichtiger Stichpunkt ist hier die intrinsische Motiva-
tion. Intrinsische Motivation ist die Art von Motivation, die entsteht, weil
der Mitarbeiter Spaß an seiner Arbeit hat. Sie ist das Gegenteil von extrinsi-
scher Motivation, die auf materiellen Einflüssen wie dem Gehalt oder Bo-
nuszahlungen basiert. Der moderne Mitarbeiter lässt sich nur durch intrinsi-
sche Motivation langfristig begeistern.
Rahmen schaffen: In agilen Unternehmen gibt es keine bis ins letzte Detail
vorgegebenen Prozesse. Dennoch wird in solchen Umfeldern noch geführt
und zwar mittels Sinnhaftigkeit oder transformationaler Führung. Die ent-
scheidenden Punkte sind hier das Führen über das Vermitteln von Wer-
ten und auch das Zeigen von Visionen oder Zielen.
Teams befähigen: In Zeiten, in denen wir davon sprechen, wie wichtig
Selbstorganisation ist, sind Teams ein entscheidender Faktor. Mit dem Punkt
„Teams befähigen“ sorgt das Management 3.0 dafür, dass die Führungskraft
darauf achten muss, dass Teams auch dazu befähigt werden, selbstorgani-
sierend handeln zu können. Ein wichtiger Teilaspekt ist dabei z. B. die rich-
tige Delegation von Entscheidungen. Hier kann sich das Team selbst steuern
und der Berater ist höchstens noch als Ideengeber zu sehen. Die Lego-Anlei-
tung liegt längst beiseite und das kreative Bauen hat begonnen.
Kompetenz aufbauen: Ein wichtiger Baustein dieses Aspektes kommt aus
dem Japanischen und heißt Shu-Ha-Ri-Konzept. Das Shu-Ha-Ri-Konzept be-
schreibt die drei Level der Kompetenzen. Das Shu-Level ist ein Lern-Level.
Hier geht es darum, Basisaspekte zu lernen und sich an alle Vorgaben zu hal-
ten. Wenn wir mit Lego-Bausteinen bauen, würden wir hier streng nach
Leadership im digitalen Zeitalter
50
Anleitung bauen. In dieser Phase sind Vorgesetzte eher Trainer oder Lehrer.
In der Ha-Phase wird der Trainer zum Berater. Das Team sucht hier nach Va-
rianten oder Alternativen. Bei den Lego-Bausteinen würden wir nun leichte
Änderungen zur Anleitung vornehmen. Die Ri-Phase ist die Expertenphase.
An dieser Stelle obläge es wohl dem Experten, die Lego-Anleitung selbst zu
erstellen
Strukturen entwickeln: Damit selbstorganisierte Teams funktionieren kön-
nen, werden Strukturen benötigt, die von Management und Führungskräf-
ten kommen müssen, die genau diese Art der Führung zulassen
Alles verbessern: Kontinuierliche Verbesserung ist das Kernelement agiler
Methoden und Frameworks und damit auch in der Führung unersetzlich.
Nicht erst durch Six Sigma oder durch Total Quality Management ist der im-
merwährende, allgegenwärtige und zudem kontinuierliche Verbesserungs-
ansatz in aller Munde.
Die Strömung des Management 3.0 hat viele Instrumente und Methoden
entwickelt. Somit ist dieser Ansatz gut für agile Personalführung geeig-
net und lässt sich zudem sehr gut mit anderen agilen Frameworks wie Scrum
oder OKR vereinbaren. Hierbei gilt es, zu wissen, dass die vorgestellten Mo-
delle, Techniken und Ansätze nicht in Konkurrenz zueinander zu sehen sind,
sondern so gewählt werden können, dass ein Parallelbetrieb möglich ist und
eine zusätzliche Ergänzung darstellt, welche ggf. die Schwächen anderer Me-
thoden ausgleicht.
5.2 Scrum
Produkte in neuen, komplexen Kontexten zu entwickeln, bedeutet ein Um-
denken im kompletten Entstehungsprozess. Langes Planen und danach
lange Entwicklungsphasen sind in schnelllebigen, komplexen Unternehmen
zum Scheitern verurteilt.
Entsprechend hat sich die sog. Out-of-the-box-Funktion entwickelt. Die Out-
of-the-box-Funktion ist eine Eigenschaft oder Funktion einer Software- oder
Hardwarekomponente, die nach der Installation ohne weitere Anpassung
der Komponente sofort zur Verfügung steht.
Weiter befinden wir uns in einem industriellen Zeitalter, in dem Massenfer-
tigung praktisch nicht mehr möglich ist. Natürlich ist sie kontextabhängig zu
verstehen, aber generell lässt sich eine Tendenz zur Individualisierung spezi-
ell im digitalen Sektor nicht von der Hand weisen. Im Gegensatz zur Massen-
fertigung stehen also sogenannte kundenspezifische Lösungen oder Funkti-
onen, die Anpassungen der Lösung an die Anforderungen einzelner Kunden
erfordern, um eine bestimmte Aufgabe zu erfüllen.
Leadership im digitalen Zeitalter
51
Kundenwünsche werden immer individueller, Rahmenbedingungen verän-
dern sich und sichere Planbarkeit ist nicht bzw. kaum mehr möglich.
Scrum ist ein Framework zur Entwicklung von Produkten in komplexen Um-
gebungen. Es ist durchweg als ein leichtgewichtetes Framework zu verste-
hen, d. h. es gibt einen Rahmen vor, innerhalb dem aber viel Spielraum für
die Ausgestaltung zur Verfügung steht. Scrum ist mit dem Ziel entwickelt
worden, Risiken bei der Produktentwicklung zu minimieren und früher qua-
litativ hochwertigere Produkte auszuliefern. Das Rahmenwerk Scrum be-
steht aus fest definierten Artefakten, Rollen und Events, die in einem Scrum
Guide von Jeff Sutherland und Ken Schwaber, den Erfindern von Scrum, ver-
öffentlicht wurden.
In der Praxis ist sehr häufig eine „mittlere“ Variante zu finden der Produkt-
entwicklung. Geliefert wird Out-of-the-box und diese lauffähige Variante
wird dann anschließend „customized“. Das bedeutet: Es wird kostengüns-
tige „Stangenware“ eingekauft und der anforderungsspezifische Feinschliff
wird dann selbst oder durch extern vorgenommen.
Im Bereich der Softwareentwicklung ist Scrum praktisch nicht mehr wegzu-
denken und gilt bereits als „Klassiker“. Aber auch andere Entwicklungsberei-
che adaptieren immer mehr das erfolgreiche Framework. Da Scrum mittler-
weile zum Standard in dynamischen, volatilen Bereichen wie z. B. in der Ent-
wicklung, sei es von Software, Produkten oder Dienstleistungen, geworden
ist, stellt sich hier die Frage:
„Was genau macht Scrum so erfolgreich?“
Scrum setzt auf entscheidende Werte und Prinzipien, die den Erfolg im digi-
talen Zeitalter garantieren. Diese sind:
• Kurze Iterationen,
• selbstorganisierte Teams,
• kontinuierliche Verbesserung und
• Transparenz.
Kurze Iterationen: Kundenwünsche, der Markt, Rahmenbedingungen – alles
ist mittlerweile so schnelllebig und komplex wie nie zuvor. Um trotzdem Pro-
dukte zu entwickeln, die den Kundenbedürfnissen bestmöglich entspre-
chen, setzt Scrum auf kurze Entwicklungszyklen. Die Folge sind ein schnelles
Feedback vom Markt und von den Kunden, eine hohe Flexibilität und und
keine Umwege durch passgenaue Produktentwicklung.
Selbstorganisierte Teams: Damit kurze Zyklen und Flexibilität überhaupt
möglich sind, braucht es selbstorganisierten Teams. Teams benötigen zwar
fachliche Anforderungen, wie allerdings die technische Umsetzung aussieht,
Leadership im digitalen Zeitalter
52
muss dem Team überlassen werden. Das bedeutet in der Folge: Ein höheres
Commitment des Teams, einen qualitativ hochwertigeren und auch schnel-
leren Output, weil es keine Warteschleifen gibt, da das Team auf keine An-
weisung der Führungskraft warten muss.
Kontinuierliche Verbesserung (Inspect and Adapt): Kein Team, kein Produkt
und kein Prozess sind gleich von Beginn an optimal. Der entscheidende
Punkt, warum Scrum trotzdem qualitativ hochwertigen Output garantiert,
liegt im ständigen Überprüfen und Anpassen. Ständig wird ein Verbesse-
rungspotenzial gesucht und dieses auch umgesetzt.
Transparenz: Dies ist ein entscheidender Punkt, auf dem Scrum basiert. Je-
der Aspekt ist für alle Beteiligten zu jederzeit transparent. Das sichert valides
Feedback, Vertrauen und hohes Commitment von allen Beteiligten zum Pro-
dukt. Scrum wurde auf Basis dieser Werte und Prinzipien entwickelt. Die de-
finierten Rollen, Events und Artefakte setzen genau auf diese Elemente und
sichern so den Erfolg dieses Frameworks.
Abbildung 5: Scrum-Framework
Kurze Iterationen, selbstorganisierte Teams, ein kontinuierlicher Verbes-
serungsprozess sowie gänzliche Transparenz sind die wesentlichen Ele-
mente von Scrum.
5.3 Kanban
Kanban ist eine Methode zur Produktionsprozesssteuerung, die in den Vier-
zigerjahren im Zusammenhang mit der „Just in Time“-Produktion entstan-
den ist. Das stete Ziel von Kanban ist eine Optimierung des Prozesses, dabei
ist der eigentliche Prozess dahinter unerheblich. Kanban ist potenziell für je-
den Prozess mit verschiedenen Stufen anzuwenden. Das können reale Pro-
dukte sein wie Autos, digitale Güter, Software oder auch Dienstleistungen.
Wichtig an Kanban ist zunächst die Unterscheidung zu Frameworks wie zum
Leadership im digitalen Zeitalter
53
Beispiel Scrum. Kanban ist keine Projektmanagement-Methode und auch
kein Projektmanagement-Framework. Daher bildet Kanban auch keine Kon-
kurrenz zu Scrum oder anderen Frameworks und kann somit ergänzend ein-
gesetzt werden.
Kanban stellt zunächst immer den aktuellen IST-Zustand dar. Diesen Status
quo beschreibt Kanban mit der Visualisierung der bestehenden Aufgaben.
Dadurch entsteht eine vollkommene Transparenz des Prozesses. Jetzt geht
es bei Kanban darum, den Prozess zu verbessern. In der Folge ist es ein Ziel
von Kanban, das ganze Unternehmen zu verändern und damit auch zu ver-
bessern. Damit das wirklich funktioniert, gibt es drei Prinzipien, die hinter
Kanban stehen:
1. Den Workflow visualisieren,
2. das Pull-Prinzip etablieren oder die Menge an paralleler Arbeit mi-
nimieren und
3. die Kultur der kontinuierlichen Verbesserung etablieren.
Das erste Prinzip ist die Grundlage für die Kanban-Methode. Auf einem
Board wird in Spalten von links nach rechts der Workflow visualisiert. Das
zweite Prinzip ist der Wechsel von einem Push- zu einem Pull-Prinzip. Der
Ausführer des nächsten Workflowschrittes zieht sich seine Karte aktiv. Ein
Effekt des Pull-Prinzips ist das Minimieren der Menge an paralleler Ar-
beit, die häufig zu Verzögerungen im Prozess führen. Das dritte Prinzip ist
die kontinuierliche Verbesserung. Hierfür ist ständiges Feedback durch etab-
lierte Events und Rollen wichtig.
Kanban wird auch als evolutionäres Change-Management bezeichnet. Das
bedeutet, dass im Gegensatz zu revolutionären Methoden wie Scrum oder
OKR zu Beginn eigentlich gar nichts verändert wird.
Es wird lediglich der Status quo abgebildet. Nach und nach wird in einem
funktionierenden Kanban der Prozess jedoch schrittweise weiterentwi-
ckelt. Das geschieht inkrementell und nicht radikal. Da es sich meist um Pro-
zesse im Unternehmen handelt, die sich jahrelang aus einem bestimmten
Grund etabliert haben, ist diese Methode der inkrementellen, kontinuierli-
chen Verbesserung genau der richtige Schritt für ein erfolgreiches Change-
Management.
Die Vorteile der Kanban-Methode sind neben der hohen Flexibilität und dem
hohen Anpassungspotenzial auch der reduzierte Steuerungsaufwand. Durch
die geschaffene Transparenz und die selbstorganisierten Teams ist Kanban
am Ende auch eine Methode, die neben der höheren Effizienz auch zu Ein-
sparungen führt.
Leadership im digitalen Zeitalter
54
5.4 Open Space
Open Space ist eine Methode zur Gruppenmoderation, die primär für große
Gruppen gut geeignet ist. Open Space wurde in den Achtzigerjahren in den
USA von Harrison Owen entwickelt. Charakteristisch für diese Methode ist
die inhaltliche Offenheit dieser Art von Gruppenkonferenzen. Ziel der Open-
Space-Methode ist es, in einem beschränkten kurzen Zeitrahmen mit einer
großen Anzahl an Teilnehmern lösungsorientiert, selbstverantwortlich und
innovativ umfassende Themen zu bearbeiten.
Entscheidend ist zu Beginn einer Open-Space-Veranstaltung die inhaltliche
Offenheit der Themen. Das Einzige, das zu Beginn vorgegeben wird, ist ein
Metathema oder ein Generalthema, das die gesamte Veranstaltung be-
schreibt. Danach besteht Themenoffenheit. Die Themen werden zu Beginn
von den Teilnehmern gesammelt und formuliert. Es entsteht in der Folge ein
Marktplatz für Themen, die in Themengruppen diskutiert werden können.
Die Vorteile der Open-Space-Methode sind eine breite Beteiligung von allen
Teilnehmern und die hohe Energie, die ein solcher Raum mit sich bringt. Die
Dauer einer Open-Space-Konferenz liegt meist bei zwei bis drei Tagen.
Die Open-Space-Methode basiert auf folgenden vier Prinzipien oder Regeln:
1. Wer auch immer kommt, es sind „genau die richtigen Leute“. Ob ein
oder 100 Teilnehmer, ist unwichtig und jeder ist wichtig und moti-
viert.
2. Was auch immer geschieht, es ist das Einzige, was geschehen
konnte. Ungeplantes und Unerwartetes ist oft kreativ und nützlich.
3. Es beginnt, wenn die Zeit reif ist. Wichtig ist die Energie und nicht die
Pünktlichkeit. Vorbei ist vorbei. Nicht vorbei ist aber auch nicht vor-
bei. Wenn die Energie zu Ende ist, ist die Zeit um.
4. Gesetz der zwei Füße: Mit dem Gesetz der zwei Füße wird insbeson-
dere die Selbstverantwortung der Teilnehmer angesprochen. Jeder
darf selbst entscheiden, wie lange er bei einem Thema bleibt und
wann er zu einem anderen Thema wechselt.
Typischer Ablauf einer Open-Space-Konferenz:
1. Der Veranstalter oder Initiator begrüßt die Teilnehmer in einem
Kreis und erklärt Ziele, Grenzen und Ressourcen der Veranstaltung.
2. Der Begleiter führt die Teilnehmer in ein Thema ein und öffnet so
den Raum. Dabei befindet er sich im Kreis und ist für alle sichtbar.
3. Inhalte ergeben sich aus dem Teilnehmerkreis. Alle können das ein-
bringen, was für sie wichtig ist und für das sie Verantwortung über-
nehmen wollen.
Leadership im digitalen Zeitalter
55
4. Anliegen werden an einer Wand mit Zeiten und verfügbaren Räumen
gesammelt z. B. mit Post-its.
5. Hier passiert die Verhandlung über Zeiten und Räume, die sog.
Marktphase.
6. Die Gruppenarbeitsphase startet. Teilnehmer arbeiten selbstorgani-
siert an Themen. Wichtig ist dabei stets das Gesetz der zwei
Füße und die Dokumentation der Ergebnisse.
7. Ergebnisse werden an eine Dokumentationswand für jeden sichtbar
aufgehängt.
8. Morgens und abends werden die Ergebnisse jeweils mitgeteilt. Am
letzten Tag erfolgt die Auswertung der Ergebnisse und Formulierung
der Umsetzung. Danach gibt es eine Abschlussfeedbackrunde, bevor
der Raum geschlossen wird.
Neben dem Vorteil der großen Gruppe schafft Open Space zudem einen
Raum für Teambuilding und fruchtbaren Boden, um komplexe Themen zu
behandeln. Im Rahmen eines Change-Prozesses eignet sich der Open-Space-
Raum zudem auch, um Ängste oder Konflikte zu thematisieren und zu lösen.
5.5 RTSC
Eine weitere Methode der Großgruppenmoderation ist RTSC bzw. „Real
Time Strategic Conference“. Diese Form der Gruppenmoderation eignet sich
vor allem sehr gut für den Bereich der Organisationsentwicklung. Die Dauer
einer RTSC-Konferenz beträgt in der Regel zwei bis drei Tage.
In diesen Tagen werden vier Phasen durchlaufen:
1. Der aktuelle Stand.
2. Zukünftige Visionen.
3. Problemdiagnose zur Zielerreichung.
4. Handlungsbedarf für Erreichung der Ziele.
Ziel einer RTSC-Konferenz ist es, Teilnehmer für strategische Ziele des Unter-
nehmens zu gewinnen. Zum Ende einer solchen Konferenz wird ein Ziel vor-
handen sein, welches von allen Teilnehmern getragen wird. Somit liegt ein
wesentlicher Vorteil im hohen Commitment aller Teilnehmer für das ge-
meinsame Vorhaben.
Damit die Vorgaben für das Unternehmen passen, ist es wichtig, die Füh-
rungsspitze in eine solche Konferenz mit einzubinden.
Eine RTSC-Konferenz befolgt folgende Prinzipien:
Leadership im digitalen Zeitalter
56
• Empowerment und Inklusion: Verschiedene Menschen arbeiten so
zusammen, dass jeder einen wertvollen Beitrag leisten
kann. Dadurch entstehen ein hohes Commitment und Zustimmung
zu einer gemeinsamen Vision oder zu einem gemeinsamen Ziel.
• Real Time: Im eigenen Denken und Handeln ist die Zukunft bereits
eingetreten. Dies bringt wertvolle Geschwindigkeit für den Wandel.
• Gewünschte Zukunft: Pläne und Aktionen für eine an Möglichkeiten
orientierte Zukunft werden energetisiert, angereichert und infor-
miert durch das Anknüpfen an Vergangenheit und Gegenwart.
• Entwicklung von Gemeinschaft: Der Gedanke von RTSC besagt, dass
Menschen etwas brauchen, das sie schaffen können und woran sie
glauben können. Wenn Menschen als Teil von einem großen Ganzen
zusammenkommen, können echte Motivation, Wachstum und Ler-
nen entstehen.
• Gemeinsame Bedeutung: Zu einem Thema existieren verschiedene
Perspektiven. Auf einer RTSC-Konferenz wird ein gemeinsames Ver-
ständnis entwickelt und so auch eine gemeinsame Bedeutung.
• Die Realität als Motor: Die Realität soll als Motor genutzt wer-
den, um neue Chancen zu erkennen und Themen mit Bedeutung zu
füllen.
5.6 Design Thinking
Neben Steuerungs- und Moderationstechniken bedarf es zur Entfaltung und
Weiterentwicklung auch neuer Blickwinkel und Perspektiven. Design Thin-
king ist eine Kreativitätstechnik und ein Ansatz zum Lösen von Problemen.
Der Ansatz beruht auf der Annahme, dass Probleme besser gelöst werden,
wenn Menschen unterschiedlicher Disziplinen in einem kreativitätsfördern-
den Umfeld dahingehend zusammenarbeiten. Die Grundprinzipien des De-
sign Thinking beruhen damit auf den drei Aspekten Team, Raum und Pro-
zess. In der Praxis nutzen bereits zahlreiche Unternehmen und Organisatio-
nen Design Thinking als Projekt-, Innovations-, Portfolio- und Entwicklungs-
methode.
Ein bekanntes Beispiel ist SAP. Wie andere erfolgreiche, innovative Metho-
den setzt auch Design Thinking auf das Erfolgsrezept: Interdisziplinäre
Teams, Visualisierung und iteratives Vorgehen. Ziel des Design-Thinking-Pro-
zesses ist es, durch den Design-Prozess Probleme zu lösen und durch krea-
tive Techniken dabei zielgerichtet Innovationen zu entwickeln. Durch itera-
tives Vorgehen und schnelles Feedback und ggf. auch schnelles Scheitern
von nicht funktionierenden Aspekten soll sich nachhaltiger Erfolg durch von
mit Design Thinking entwickelten Ideen einstellen.
Leadership im digitalen Zeitalter
57
Prozessschritte des Design Thinking:
1. Verstehen,
2. Beobachten,
3. Synthese,
4. Ideengenerierung,
5. Prototyping und
6. Tests.
Verstehen: Im Prozess des Verstehens geht es anfänglich nur darum, die
Problemstellung und auch das damit verbundene Problemfeld und die Ein-
flussfaktoren zu verstehen. Diese Phase kann durch Planung und Recherche
zeitaufwändig sein, ist aber für die späteren Schritte unerlässlich. Ziel dieser
Phase ist es, das gesamte Team auf ein gemeinsames Expertenlevel zu brin-
gen.
Beobachten: Hier geht es darum, die Problemstellung in ihrer wirklichen
Umgebung aktiv zu beobachten und darauf aufbauend in Dialogen und In-
teraktionen mehr zu dem Problem herauszufinden. Oft sind auch die Men-
schen, die ein Produkt bewusst ablehnen oder es übermäßig stark nutzen,
diejenigen, die wertvolle Informationen als Input geben können. Primär ent-
scheidend ist, dass diese Phase in einem realen Kontext durchgeführt
wird. Ziel dieser Phase ist es, möglichst viele Informationen zu sammeln und
diese Informationen auch zu visualisieren.
Synthese: Hier werden die Daten und Eindrücke mit dem Team geteilt. Die
Informationen werden im Projektraum visualisiert. Diese Phase geht noch
einen Schritt weiter, da die Informationen nicht einfach an die Wand ge-
klebt, sondern miteinander verknüpft werden und so ein Gesamtbild der
Problemstellung entsteht. Ziel ist es, nachdem das Team bereits einen ge-
meinsamen Wissensstand hatte, auch ein visuelles Verständnis des Gesamt-
kontextes der Problemstellung zu bilden. Ergebnis dieser Phase ist es, dass
alle Ergebnisse in visueller Form für die nächsten Schritte aufbereitet sind.
Ideengenerierung: Aus den zuvor identifizierten Problemfeldern werden
Ideen zur Lösung der Problemstellung identifiziert. Hier können klassische
Kreativitätstechniken wie Brainstorming unterstützen. Nach der Filterung
der Ideen werden im Hinblick auf Wirtschaftlichkeit und Umsetzbarkeit
Ideen ausgewählt.
Prototyping: Es wird versucht, möglichst schnell irgendeine Form eines Pro-
totyps zu generieren, mit dem dann wieder in den wahren Kontext gegangen
und sich Feedback geholt werden kann. Dieser Prototyp ist meist noch nicht
mal ansatzweise fertig, darauf kommt es aber auch gar nicht an. Ziel dieser
Leadership im digitalen Zeitalter
58
Phase ist es, möglichst schnell auf den Markt zu gehen, um wertvolles Feed-
back für die Weiterentwicklung zu erhalten.
Tests: Zusammen mit der vorherigen Phase erfolgen jetzt Tests und Feed-
back-Schleifen. Hier geht es darum, mit den Reaktionen herauszufinden, ob
oder wie eine vorhandene Idee weiterverfolgt werden soll, ganz im Sinne
des Anwenderfokus.
5.7 Lego Serious Play
Eine andere bzw. ergänzende Methode mit dem Facettenreichtum Denk-,
Kommunikations- und Problemlösungstechnik ist Lego Serious Play. Hier
handelt es sich um einen moderierten Prozess, der die Vorteile, die ein Spiel
mit sich bringt, mit Problemlösungs-, Strategie- oder Innovationsberei-
chen aus der Geschäftswelt in Einklang bringt. Dabei ist die Methode nicht
wie andere von einer gewissen Größe der Gruppe abhängig. Lego Serious
Play kann mit Unternehmen, Teams oder sogar mit Einzelpersonen durchge-
führt werden.
Die Vorzüge von Lego Serious Play sind dabei:
• Kreativität.
• Verbesserte Kommunikation durch die Greifbarkeit von Ideen.
• Einbeziehung von Wissen und Erfahrung der Teilnehmer.
• Gemeinsames Verständnis dadurch, dass die Modellierung gefördert
wird.
Die Entstehung von Lego Serious Play basiert auf überraschenden For-
schungsergebnissen, die mit der Verbindung zwischen der Hand und den Ge-
hirnzellen zu tun haben. Das Resultat dieser Forschung ist, dass unsere
Hände bis zu 80 % mit unseren Gehirnzellen verbunden sind. Diese For-
schungsergebnisse bedeuten, dass Denkprozesse, die in Verbindung mit kör-
perlichen Bewegungen und insbesondere mit den Händen durchgeführt
werden, zu einem besseren und nachhaltigeren Verständnis von der Umge-
bung und über die Möglichkeiten der Problemstellung führen. Die Prinzipien
hinter Lego Serious Play sind klar und trotzdem entscheidend: Die Antwort
liegt immer im System.
Es gibt also keine „korrekten" Antworten oder Fakten.
Bei Lego Serious Play steht stets der Prozess im Vordergrund: Denke mit
deinen Händen, also benutze deine Hände. Es gibt nicht die richtige Lö-
sung. Für eine Problemstellung gibt es viele verschiedene Ansätze, wovon
Leadership im digitalen Zeitalter
59
jeder erstmal wichtig für den weiteren Prozess ist. Rede über deine Lösung,
aber urteile nie und jeder nimmt teil.
Das Anwendungsgebiet von Lego Serious Play lässt sich in vier Bereiche auf-
teilen:
1. Real Time Strategy for the Enterprise.
2. Real Time Strategy for the Beast.
3. Real Time Identity for the Team.
4. Real Time Identity for You.
Der Bereich Real Time Strategy for the Enterprise dient vor allem für The-
men der Strategieentwicklung für ganze Organisationen oder auch kleinere
Teams. Dabei werden neben der Analyse der Einflussfaktoren auch zukünf-
tige, verschiedene Szenarien durchgespielt, um gut auf unvorhersehbare Er-
eignisse reagieren zu können.
Der Bereich der Real Time Strategy for the Beast befasst sich mit Problemen
oder Risiken. Hier werden Strategien für den Umgang mit Risiken und Prob-
lemen erarbeitet.
Bei der Real Time Identity for the Team wird im Team ein gemeinsames
Bild und Verständnis für die Identität und die einzelnen Aufgaben erzeugt.
Ziel ist hier die Optimierung der internen Zusammenarbeit.
Der vierte Bereich ist der Bereich der Real Time Identity for You. Hier geht
es darum, wie die eigene Person von anderen wahrgenommen wird. Bei die-
ser Methode geht es vor allem um die Analyse der eigenen Identität. Ziel ist
es hier, die gewünschte Entwicklung gezielt zu fördern und zu identifizie-
ren, welche Möglichkeiten es dazu gibt.
5.8 Lean Startup
Lean Startup ist eine Methode, die sich mit der Entwicklung von Produk-
ten und Service beschäftigt. Entstanden ist die Methode als Folge vieler ge-
scheiterter Startups, primär um die Jahrtausendwende im Zuge der Dotcom-
Blase. Die Grundidee der Lean-Startup-Methode ist es dabei zunächst die
Unternehmensgründung nicht als solche zu betrachten, sondern als eine un-
bewiesene Hypothese. Diese Hypothese gilt es, jetzt empirisch zu validie-
ren oder im negativen Fall zu widerlegen.
Die Idee wird im Lean Startup erst dann weiterentwickelt, wenn sie komplett
validiert wurde. Diese Validierung soll nach Möglichkeit schnell und ohne
Kosten erfolgen. Dadurch soll verhindert werden, dass ein Startup viel Geld
und Zeit in eine Idee investiert, die danach keinen Erfolg hat. Wie auch bei
Leadership im digitalen Zeitalter
60
anderen innovativen Methoden wird bei Lean Startup auf langes Planen ver-
zichtet, stattdessen wird schnell auf einen Prototyp gesetzt, der danach in-
krementell weiterentwickelt wird.
Die Grundprinzipien der Lean-Startup-Methode sind dabei:
• Jeder kann ein Gründer sein und damit auch Erfolg haben.
• Entrepreneurship ist Management.
• Gründen ist kein Zufall oder Schicksal, sondern kann genauso
wie eine Wissenschaft betrachtet werden.
Lean Startup stellt also verschiedene Tools und Methoden zur Verfügung,
um das Gründen zu lernen. Lernen muss validiert werden. Es gibt einen be-
kannten Spruch im Lean Startup: „Get out of the building.“ Das bedeutet:
Bleiben Sie nicht an Ihrem Schreibtisch sitzen, sondern gehen Sie raus auf
die Straße und versuchen Sie, Ihre Idee zu validieren.
Innovation Accounting: Hier geht es darum, dass Innovation auch verwaltet
werden kann. Auch eine Innovation muss definiert, gemessen und kommu-
niziert werden. „Build – Measure – Learn“ – das ist genau der Zyklus, mit
dem das Lean Startup arbeitet.
Sobald eine Idee aufkommt, wird diese möglichst schnell und risikofrei um-
gesetzt wie z. B. in Form eines Prototyps. Anschließend wird der Erfolg ge-
messen und aus dem erhaltenen Feedback gelernt. Daraus wiederum ist es
möglich, den nächsten Prototyp zu bauen und der Zyklus beginnt erneut.
5.9 Effectuation
Hier geht es um Entscheidungen in Zeiten abnehmender Planbarkeit.
Im Zuge der Ereignisse am 11. September 2001 in den USA entstand dort ein
neuer Ansatz: Effectuation. Eine überzeugende Übersetzung dieses Begriffs
gibt es nicht. „to effectuate“ bedeutet wörtlich übersetzt „etw. bewirken“.
Die Erfinderin des Ansatzes ist die Professorin Saras Sarasvathy. Die Wissen-
schaftlerin erforscht im Rahmen ihres Ansatzes, wie erfolgreiche Gründer
denken, entscheiden und handeln. Sarasvathys Ideen lassen sich aber auch
auf etablierte Unternehmen übertragen, wenn danach gefragt wird, welche
Fähigkeiten Führungskräfte in der Zukunft benötigt werden.
Effectuation bedeutet eine völlig neue Logik, um an Entscheidungen heran-
zugehen. Die ursprüngliche Logik verläuft linear-kausal. Nach ihr stellt sich
immer dann, wenn zielgerichtetes Handeln zu planen ist, die Frage:
„Wie komme ich von A nach B?“
Leadership im digitalen Zeitalter
61
Denken Sie an ein Unternehmen, das eine gewisse Marktposition innehat
und wachsen möchte bzw. welches Unternehmen möchte dies nicht. Ausge-
hend davon wird zunächst das gewünschte Wachstum definiert, d. h., es
wird beschrieben, wo das Unternehmen nach einer bestimmten Zeit stehen
soll.
Wenn dieser Zielpunkt B definiert ist, folgt die:
• Markt-,
• Kundenpotenzial- und
• Investitionsbedarfsanalyse.
Planung und Durchführung zielorientierter Maßnahmen
Effectuation geht einen speziellen Weg. Der Ausgangspunkt lautet, dass das
Ziel B unbekannt ist und dass es deshalb auch nicht möglich ist, B genau zu
definieren. Die Zukunft ist nicht vorhersehbar und daher nicht im klassi-
schen Sinne planbar. Der Entscheider geht davon aus, dass sich seine Um-
welt ständig verändert und dass es viele weitere Akteure gibt, die die Ent-
wicklung ebenfalls beeinflussen. Die Frage lautet also:
„Wie komme ich von A nach Z?“
Auch hier steht eine Analyse am Anfang (Markt-, Kunden-, Investitionsbe-
darfsanalyse). Sie widmet sich allerdings den Möglichkeiten, über die das
Unternehmen verfügt. Das umfasst die finanziellen Möglichkeiten ebenso
wie die Fähigkeiten. Es umfasst aber auch das Netzwerk, die Menschen und
Organisationen, mit denen das Unternehmen in Beziehung steht. Der
nächste Schritt nach der Aufstellung der Möglichkeiten ist die Suche nach
Handlungsalternativen. „Was kann ich tun, um mein Unternehmen weiter-
zuentwickeln und ihm neue Chancen zu eröffnen?“ Es entsteht ein Zyklus.
Wenn der nächste Schritt getan ist und eine neue Handlungsalternative re-
alisiert wurde, hat das Unternehmen eine neue und hoffentlich bessere Po-
sition erreicht. Dieser Kreislauf wird fortgesetzt. Auf diese Weise ent-
steht Schritt für Schritt ein klareres Bild von dem, was das Unternehmen
erreichen kann. Demnach wird irgendwann aus dem Z ein B. Das ist auch
der Punkt, an dem das Unternehmen zur linear-kausalen Logik zurückkeh-
ren sollte, denn immer dann, wenn die Zukunft relativ gut vorhersehbar
ist und das Ziel deutlich vor Augen steht, ist die kausale Logik gefragt. Das
Ziel von Effectuation ist es also nicht, die linear-kausale Logik abzulösen.
Das Konzept versteht sich vielmehr als eine Ergänzung.
In unsicheren Situationen, in denen es schwerfällt, das Ziel zu definieren und
den Weg dahin zu planen, kann die Effectuation-Logik eine sinnvolle Alter-
native sein. Übertragen auf die Arbeit einer Führungskraft bedeutet das:
Leadership im digitalen Zeitalter
62
Wer mit Effectuation arbeiten möchte, der muss sich als Entrepreneur im
Unternehmen verstehen. Er muss sich an den Ressourcen orientieren, die
ihm zur Verfügung stehen und ausgehend davon Chancen entwickeln und
wahrnehmen. Wer sich in einem gut planbaren Rahmen bewegt, der kann
der linear-kausalen Logik folgen, das heißt planen, steuern und kontrollie-
ren.
Die Prinzipien
Welchem Prinzip folgt nun die Effectuation-Logik? Wie denken und entschei-
den Menschen nach dieser Logik? Sarasvathy hat fünf Prinzipien formuliert:
• Spatz-in-der-Hand-Prinzip (Prinzip der Mittelorientierung)
Nehmen Sie an, Sie hätten Hunger und wollten etwas essen. Wenn Sie der
kausalen Logik folgen, dann entscheiden Sie sich für ein Gericht, das sie ko-
chen können. Wenn Sie das Gericht noch nicht häufig gekocht ha-
ben, schauen Sie in Ihr Rezeptbuch und notieren die Zutaten, die Ihnen feh-
len. Anschließend gehen Sie einkaufen und bereiten Ihr Gericht zu.
Nehme Sie die gleiche Situation wie oben beschrieben an, dieses Mal unter
Berücksichtigung der Effectuation-Logik. Sie schauen in Ihren Kühlschrank
und Ihren Vorratsschrank. Aufgrund dessen, was Sie dort vorfinden, ent-
scheiden Sie, was Sie kochen werden. Das ist das Prinzip der Mittelorientie-
rung. Beide Methoden sind gleichermaßen dafür geeignet, um satt zu wer-
den. Sie sehen aber an dem einfachen Beispiel des Kochens auch, dass es
sinnvoll ist, je nach der Ausgangssituation, die eine oder die andere der bei-
den Methoden anzuwenden.
Nehmen Sie an, Sie kommen nach Hause und es ist spät und obwohl spätes
Essen nicht empfehlenswert ist, sind sie hungrig und treffen die Entschei-
dung zum nächtlichen Abendmahl. Der Blick in die Schränke verspricht die
schnellere Lösung, vielleicht ist er sogar die kreative Variante, weil Sie im
Kühlschrank über eine Zutat stolpern, die gut zu dem Gericht passt, das Sie
aufgrund Ihrer Vorräte ins Auge fassen.
Wenn Sie allerdings für das nächste Wochenende eine ganze Partie an
Freunden zum Abendessen eingeladen haben, dann wäre der Effectuation-
Ansatz beim Kochen mit einem hohen Risiko verbunden. Im Führungsalltag
bedeutet Mittelorientierung zuerst, zu prüfen, welche Mittel zur Verfügung
stehen. Das kann bedeuten, Ziele so anzupassen, dass Sie angesichts der ge-
fundenen Ausstattung realistisch sind. Auch hierzu soll ein Beispiel gegeben
werden: Wenn Sie Ihren Umsatz steigern wollen, dann müssen Sie unter Be-
rücksichtigung der Effectuation-Logik nachsehen, wie viele Verkäufer in Ih-
rem Unternehmen arbeiten und wie viel Umsatz jeder von ihnen machen
Leadership im digitalen Zeitalter
63
kann. Nach der kausalen Logik legen Sie das Umsatzziel hingegen fest, sehen
sich dann an, wen Sie „an Bord“ haben und müssen möglicherweise weitere
Verkäufer einstellen.
• Affordable-Loss-Prinzip (Prinzip des tragbaren Verlusts)
Üblicherweise machen Unternehmen ihre Investitionen vom erwarteten Er-
folg abhängig.
Wenn Sie eine Fortbildung machen, dann können Sie noch nicht genau vor-
hersagen, wie viel sie einbringen wird. Dazu gibt es zu viele Faktoren – Mo-
tive und Beweggründe sowie Messgrößen für den Erfolg, seien es Geldmit-
tel, die Erweiterung der persönlichen Fähigkeiten und neues Wissen. Wird
allerdings die Logik umgedreht, stellt sich die Frage: „Welche Investition in
meine Fortbildung kann ich mir in diesem Jahr leisten, ohne dass meine be-
rufliche Existenz in Gefahr gerät?“
• Limonade-Prinzip (Prinzip der Umstände und Zufälle)
Nach der kausalen Logik sollte ein Unternehmen Zufälle und Umstände mög-
lichst ausschließen, um nicht von seinem Weg abzukommen. In der Effectu-
ation-Logik nutzt das Unternehmen veränderte Umstände und Zufälle als
Gelegenheiten, weil sie vielleicht neue Chancen eröffnen. Viele spannende
Produkte und innovative Geschäftsideen sind nicht zuletzt aufgrund von Zu-
fällen entstanden oder weil der ursprüngliche Plan schief ging. Das berühm-
teste Beispiel dafür sind wohl die Post-it-Zettel. Eigentlich sollte bei 3M ein
neuer Kleber entstehen, der klebte aber nicht, sondern haftete nur und da-
von ausgehend erfand ein Mitarbeiter die international bekannten Post-it-
Zettel.
• Crazy-Quilt-Prinzip (Prinzip der Vereinbarungen und Partnerschaf-
ten)
Natürlich führen viele Unternehmen Partnerschaften. Wird nach der kausa-
len Logik vorgegangen, so suchen wir in aller Regel gezielt den richtigen Part-
ner und grenzen uns von unseren Mitbewerbern ab. Dem gegenüber geht
die Effectuation-Logik davon aus, dass anfangs noch nicht genau definiert
werden kann, wer als Partner geeignet und wer vielleicht doch ein Konkur-
rent ist. Aufgrund dessen erfolgt eine Abgrenzung. Der Kern ist die Frage,
wer dazu bereit ist, mit anderen zusammenzuarbeiten, obwohl eine natürli-
che Rivalität vorhanden ist, um so möglicherweise gemeinsam neue Kunden,
Märkte etc. zu erschließen, die keine der beiden Seiten allein erreichen
könnte.
• Pilot-in-the-Plane-Prinzip (Steuern ohne Vorhersage)
Dieses Prinzip schwebt über allen zuvor genannten. Die vier ersten Prinzi-
pien entheben das Unternehmen nicht von der Notwendigkeit, Abläufe zu
Leadership im digitalen Zeitalter
64
steuern. Es steuert anhand der Prinzipien, es beeinflusst seine Umwelt durch
das, was es tut. Das Einzige, was fehlt, ist die Garantie, dass sein Handeln
zum gewünschten Ergebnis führt. Das Beste aus dem zu machen, was zur
Verfügung steht, ist aus dieser Sicht ein überzeugender Ansatz.
5.10 Agile meets New Work
Agile Unternehmen und New Work sind zwei neue Sterne am Firmament der
Managementlehre, welche im vorhergegangenen Kapitel kurz erläutert wur-
den und nun aufgrund der besseren Differenzierung abermals und im Detail
ergänzt werden. Agilität wird im Kern gerne mit Schnelligkeit, Geschwindig-
keit und Flexibilität assoziiert, aber auch mit Selbstverantwortung und Ver-
trauen. New Work geht darüber hinaus. Der amerikanische Sozialphilosoph
Frithjof Bergmann hat dieses Konzept entwickelt, um eine Antwort auf das
Ende unseres klassischen Systems der Lohnarbeit zu finden. Nach Berg-
manns Definition hängt New Work eng mit dem Begriff der Freiheit zusam-
men – der Freiheit, etwas wirklich Wichtiges tun zu können. Es könnte auch
gesagt werden: „Um der Arbeit einen neuen Sinn zu geben.“
Aufgrund der angestrebten Sinngebung gehören zum Konzept der New
Work Stichworte wie Kreativität, Selbstverantwortung und Teilhabe. Un-
abhängig davon, welcher Richtung ein Unternehmen im Detail folgt, zeich-
nen sich agile Unternehmen, die diesen neuen Vorstellungen folgen, durch
bestimmte Grundsätze aus.
Die wichtigsten davon sind:
• Alle Kennzahlen sollten transparent sein: Dazu gehört nicht nur,
dass die Mitarbeiter immer auf dem aktuellen Stand sind, was die Fi-
nanzlage des Unternehmens betrifft. Je nach Unternehmen geht die
Transparenz so weit, dass auch die Gehälter jedes einzelnen Mitar-
beiters bis hin zum Chef für alle gleichermaßen bekannt sind.
• Entscheidungen sollten durchgängig nach demokratischen Regeln
getroffen werden: Entscheidungen werden nicht mehr nur allein auf
der Führungsebene getroffen. So kann beispielsweise ein Team ei-
genständig darüber entscheiden, ob es ein neues Projekt oder einen
neuen Kunden annimmt. Das geht in einigen Unternehmen so weit,
dass die Mitarbeiter auch über die Gehälter entscheiden. Damit ein-
her geht eine veränderte Rolle der Führungskraft. Führungskräfte
sind Moderatoren von Entscheidungsprozessen, aber nicht mehr
selbst die Allesentscheider. Worüber sollen sie auch noch entschei-
den, wenn alles im Team entschieden wird? Das ist genau der Kern,
der hinter dem Aufruf „Feuert die Chefs“ steht.
Leadership im digitalen Zeitalter
65
• Glaube an die Schwarmintelligenz: Anders gesagt: Führungskräfte
müssen sich darüber sicher sein, dass Gruppen prinzipiell bessere
Entscheidungen treffen als ein Einzelner.
• Mitarbeiter dürfen eigenverantwortlicher handeln: Für die Mitar-
beiter bedeuten diese neuen Ansätze, dass sie viel stärker dazu ge-
zwungen sind, die Verantwortung für ihr eigenes Handeln zu über-
nehmen – als Einzelner genauso wie im Team. Das bedeutet gleich-
zeitig mehr Entscheidungsfreiheit und eine aktive Rolle im Unterneh-
men. Mittlerweile haben zahlreiche Unternehmen aus unterschiedli-
chen Branchen diese neuen Ansätze aufgegriffen, darunter die Dro-
geriekette dm, Gore-Tex u. v. m.
Die Big-Points also noch einmal zusammengefasst: Alle Kennzahlen sind
bekannt und verständlich, Entscheidungen werden demokratisch getrof-
fen und den Mitarbeitern ist zumindest partiell das Ruder zu überlassen.
Leadership im digitalen Zeitalter
66
6 Führung alter Schule
Eine der Fragen, mit der sich Unternehmen und speziell Führungskräfte im
Bereich der operativen Führungskraft konfrontiert sehen bzw. eine allgegen-
wertige Unsicherheit besteht, ist die Art der Führung. Haben bewährte Mo-
delle noch einen Nutzen oder müssen sie Platz für Neues schaffen? Die eben
vorgestellten Methoden sind „durch die Bank“ ausgezeichnet, jede in ihrer
jeweiligen Aufgabenstellung. Die Frage, ob Altbewährtes obsolet sein wird,
ist jedoch durchaus berechtigt. Wahrscheinlich ist aber, dass Führungs-
kräfte das Rad nicht neu erfinden müssen. Führung entwickelt sich ständig
weiter. Deshalb ist es sinnvoll, an bewährten Führungspraktiken anzuset-
zen und diese weiterzuentwickeln.
Für die digitale Transformation gibt es einige Begriffe, welche folgend unter-
stützt und bestärkt werden sollen – „Revolution“ und „Evolution“ sind nur
zwei davon. Ganz gleich, welcher Vertreter gewählt wird, der kleinste ge-
meinsame Nenner ist die Komponente „Zeit“ und ihr Horizont. Oder: „Gut
Ding will Weile haben“, d. h., dass es sich hier um einen langen, grundsätzlich
nie endenden Prozess handelt. Somit ist ein stichtagsbezogenes Substitut
nicht notwendig bzw. würde mehr Schaden als Nutzen generieren. Perma-
nente Weiterentwicklung, Anpassung und Verbesserung sind die Eckpfeiler,
welche altbewährte Ansätze in neue Modelle überführen und ggf. von neuen
zusätzlichen Methoden gestützt oder ergänzt werden.
Eines, was sich jedoch mit Sicherheit sagen lässt, ist, dass Stillstand sowie die
Ablehnung über kurz oder lang das Unternehmen und seinen Fortbestand
immens in Frage stellen.
„Survival of the fittest“ verdeutlicht gut, dass auch, wenn aktuell eine
Marktmacht vorhanden ist, dies kein Garant für das erfolgreiche Bestehen
für die nächsten Jahre sein wird, ohne dass eine Umweltanpassung erfolgt.
Außerdem lässt sich nur so entscheiden, an welcher Stelle Bewährtes beibe-
halten wird und wo mit neuen Ansätzen weitergearbeitet werden sollte. Die
Modelle, welche vorgestellt wurden, werden folgend den altbewährten Füh-
rungsstilen vergangener Tage gegenübergestellt. Die bekanntesten Füh-
rungsansätze fanden ihre erste Erwähnung vor gut 30 bis 50 Jahren, in der
Zwischenzeit ist jedoch einige Zeit vergangen und dennoch sind genau diese
Ansätze nach wie vor in den heimischen Unternehmen maßgeblich, wenn
auch in adaptierter Variante, im Einsatz.
Vier bewährte „Oldies“ und Konzepte werden nicht als Tribut, sondern auf-
grund der omnipräsenten Daseinsberechtigung betrachtet und einer kriti-
schen Würdigung unterzogen sowie wird für sie eine Prüfung auf Tauglich-
keit zur digitalen Neuzeit angestellt. Die Auswahl erhebt keinen Anspruch
Leadership im digitalen Zeitalter
67
auf Vollständigkeit, die vier Modelle bzw. Denkansätze wurden im Hinblick
auf die neuen und aktuellen Herausforderungen in Kombination mit dem je-
weiligen zugesprochenen Potenzial und der Beständigkeit gewählt:
1. Situatives Führen.
2. Management by Objectives.
3. Management by Delegation.
4. Personalentwicklung entlang bewährter Karrierepfade.
Auswahl im Detail
Situatives Führen: Situatives Führen erfreut sich bei Führungskräften schon
lange an großer Beliebtheit. Dieser Ansatz geht davon aus, dass es keinen
Führungsstil gibt, der sich universell, d. h., in jeder Situation und auf jeden
Mitarbeiter anwenden ließe. Die Flexibilität und der Blick auf den einzelnen
Mitarbeiter sind wesentliche Punkte, die auch vor dem Hintergrund der
neuen Herausforderungen entscheidend sind.
Die Theorie des situativen Führens entstand Ende der Siebzigerjahre und
stammt von den beiden US-Amerikanern Kenneth Blanchard und Paul Her-
sey. Was steckt dahinter? Die Grundannahme des situativen Führens lau-
tet: Es gibt keinen Führungsstil, der ausnahmslos in jeder Situation und je-
dem Mitarbeiter gegenüber angemessen ist. Deshalb ist es wichtig, den
Führungsstil der Situation anzupassen.
Doch was bedeutet anpassen? Die zentrale Richtgröße dabei ist das, was
Blanchard den „Reifegrad“ des Mitarbeiters nennt. Überdies wird zwischen
zwei Grundorientierungen unterschieden:
Aufgabenorientierung und Beziehungsorientierung.
Letztlich ist die Führungskraft, die situativ vorgeht, hauptsächlich Coach und
Personalentwickler. Was bedeutet das konkret? Nehmen Sie an, ein Mitar-
beiter ist gerade erst eine neue Stelle in einem Unternehmen angetreten. Es
ist zu vermuten, dass der Vorgesetzte diesen Mitarbeiter zunächst einmal
eng führen wird. Er wird die Aufgaben des Mitarbeiters genau definieren
und beobachten, wie der Mitarbeiter sich verhält. Das liegt nahe, denn der
Mitarbeiter braucht Zeit, um sich mit den neuen Systemen und Regeln im
Unternehmen vertraut zu machen. Außerdem wird die Führungskraft sich
ein Bild davon machen wollen, was er tatsächlich leisten kann. Sie wird also
aufgabenorientiert führen.
Stellen Sie sich im Gegensatz zu dem letzten Beispiel einen Mitarbeiter vor,
der schon mehrere Jahre in ein und derselben Position im Unternehmen be-
schäftigt ist. Dieser Mitarbeiter beherrscht die Systeme, kennt seine Aufga-
ben und braucht nicht mehr eng geführt zu werden. In Fällen wie diesen wird
Leadership im digitalen Zeitalter
68
die Führungskraft darüber nachdenken, wo ungenutzte Potenziale des Mit-
arbeiters liegen. Sie wird sich fragen, wie sie den Mitarbeiter weiterentwi-
ckeln kann. Sie orientiert sich also vornehmlich an dem Ziel, die Arbeitsbe-
ziehung zu gestalten. Situativ zu führen ist sehr populär und natürlich gibt es
auch Kritik daran.
Die beiden wichtigsten Punkte aus theoretischer Sicht sind die folgen-
den: Dieser Führungsansatz ist empirisch nicht nachweisbar und umfasst
kaum konkrete Handlungsanweisungen für Führungskräfte.
Dennoch gibt es zwei Argumente, die für situatives Führen sprechen:
• Die Erkenntnis, dass es keinen Führungsstil nach der Devise „one size
fits all“ gibt. Die Führungskraft ist folglich immer darauf angewie-
sen, auf die Situation und seine Mitarbeiter zu reagieren.
• Das Argument der engen Orientierung am einzelnen Mitarbeiter.
Situative Führung nimmt viel Zeit in Anspruch. Bedenken Sie jedoch Folgen-
des: Ungeachtet der vielen guten alternativen Theorien und noch so vielen
gut gemeinten Vorgaben vonseiten des Unternehmens bleibt das Folgende
bestehen: Wenn ein Mitarbeiter nicht dazu in der Lage ist, die definierten
Anforderungen zu erfüllen, dann verpuffen alle Ideen und Vorgaben ohne
sichtlich positive Wirkung. Die Orientierung an der Person und den Möglich-
keiten des Mitarbeiters bleibt aus dieser Sicht immer aktuell. Und für viele
Führungskräfte ist und bleibt sie eine zentrale Herausforderung.
Management by Objectives (Führen mit Zielen): Unabhängig davon, vor
welchen Herausforderungen wir stehen, sind Ziele für die persönliche Wei-
terentwicklung des Einzelnen ebenso wie für Unternehmen wichtig. Wie soll
auf eine neue Herausforderung, ungeachtet welcher Art, geantwortet wer-
den, wenn keine Klarheit darüber herrscht, wo der Weg hinführen soll?
Führen mit Zielen greift einen bestimmten Aspekt von Führung auf. Es voll-
zieht sich mithilfe von zwei Instrumenten: Zum einen mit Zielvorgaben von
oben nach unten und zum anderen mit formalisierten Prozessen zur Ver-
einbarung von Zielen. Die Zielvereinbarungen dienen dazu, die strategi-
schen und die operativen Ziele des Unternehmens sowie die individuellen
Mitarbeiterziele miteinander in einen schlüssigen Zusammenhang zu brin-
gen. Mittlerweile haben viele Unternehmen den Prozess der Zielvereinba-
rung weiterentwickelt, um die Mitarbeiter an der Erarbeitung der Ziele zu
beteiligen und damit das Verständnis und die Motivation zu fördern. Den-
noch werden die strategischen Unternehmensziele häufig nach wie vor al-
lein von der Geschäftsleitung definiert. Bereichs- oder Teamziele sowie die
individuellen Aufgaben- und Entwicklungsziele für die Mitarbeiter werden
dann in Gruppen- und Einzelgesprächen erarbeitet. Auf diese Weise können
Leadership im digitalen Zeitalter
69
die Mitarbeiter von Anfang an einen gewissen Teil der Verantwortung für
die Verwirklichung der Ziele übernehmen. Die Aufgabe der Führungskraft ist
es nach wie vor, die Zielerreichung zu kontrollieren und zu dokumentieren.
Der Vorteil des Management by Objectives liegt auf der Hand: Ziele bieten
Orientierung, sie geben die Richtung an, sie schaffen Transparenz und hel-
fen den Mitarbeitern, ihre eigene Rolle und ihren Beitrag zum Unterneh-
menserfolg zu verstehen. Dieser Vorteil kommt insbesondere dann zum
Tragen, wenn die Mitarbeiter an der Erarbeitung der Ziele beteiligt
sind. Führen mit Zielen bringt allerdings in der Praxis auch Probleme mit sich.
Debatten über Zielverfehlungen aufgrund langer Distanzen oder schwammi-
ger Definitionen sorgen etwa für hitzige Diskussionen und schwindende Mo-
tivation. Das gilt vor allem dann, wenn die Zielerreichung mit einem finanzi-
ellen Bonus verknüpft wurde. Nicht selten werden andere Leistungen außer-
halb des Zielrahmens ins Feld geführt, um den Anspruch auf die Bonuszah-
lung zu retten. Ungeachtet, ob mit oder ohne Bonus, im Laufe eines Jah-
res kommt es immer wieder vor, dass Ziele angepasst werden müssen, weil
sich die Umstände geändert haben. Speziell in Zeiten der digitalen Transfor-
mation ist das morgige Ziel noch gewiss, die Tage danach können, aber müs-
sen nicht, mit neuen Überraschungen aufwarten. Auch wenn dies überspitzt
gezeichnet ist, soll es deutlich zeigen, dass gewisse Zeithorizonte, wie hier
das eine Jahr, nicht mehr zeitgemäß sind. Zwischenziele, Meilensteine und
Raum für Adaptierung sollten fixer Bestandteil für langfristige Motivation
und gleichzeitig Transparenz sein.
Alles in allem ist dies aber kein Argument, um die Grundidee zu verfälschen.
Die Definition von Zielen auf den verschiedenen Ebenen des Unternehmens
ist und bleibt ein wichtiger Faktor im Berufsleben. Deshalb sollten Ziele auch
und gerade dann, wenn sie für einen längeren Zeitraum definiert wur-
den, nicht in der Schublade verschwinden. Sie sollten maßgeblich für die täg-
liche Arbeit sein. Wenn es sich herausstellt, dass ein bestimmtes Ziel revi-
diert werden muss, dann sollten die Beteiligten ihre Verantwortung wahr-
nehmen und das Gespräch darüber suchen. Deshalb bleibt Zielorientierung
ein wichtiges Thema auch – oder vielleicht sogar gerade – unter den geän-
derten Vorzeichen der digitalen Transformation.
Management by Delegation: Delegieren und das Übertragen von Verant-
wortung auf Mitarbeiter oder Teams ist eine wichtige Führungsaufgabe. In-
wieweit sie gelingt, hängt meist mit der Frage des Vertrauens zusam-
men. Das gilt für die Führungskraft ebenso wie für die Mitarbeiter. Delegie-
ren ist nicht zuletzt aus zwei Gründen wichtig: Zum einen verhindert es, dass
Wissen an einzelnen Stellen gehortet wird, zum anderen fördert es die Zu-
sammenarbeit und die Weitergabe von Informationen. Diese Faktoren spie-
len angesichts der heutigen Informationsvielfalt eine zentrale Rolle.
Leadership im digitalen Zeitalter
70
Im Wesentlichen geht es beim Führen durch Delegieren darum, möglichst
viele Aufgaben, aber auch möglichst viel Verantwortung an Mitarbeiter
oder Teams von Mitarbeitern zu übertragen. Damit wird die Führungskraft
entlastet. Außerdem steigen der Grad der Selbstorganisation und die Moti-
vation der Mitarbeiter, weil sie mehr Einfluss und Entscheidungsmöglichkei-
ten genießen. Allerdings fällt es vielen Führungskräften schwer, zu delegie-
ren. Um effektiv delegieren zu können, werden passende Techniken und ein
gewisses Fingerspitzengefühl benötigt.
Worauf kommt es also an, wenn Sie effektiv delegieren wollen?
Das Wichtigste ist nach wie vor: Vertrauen. Die Führungskraft muss darauf
vertrauen können, dass die Aufgaben, die sie delegiert, in ihrem Sinne gelöst
werden. Dazu zählt auch ein Vertrauensvorschuss, etwa bei neuen, unbe-
kannten Mitarbeitern. Das ist einfacher, als es klingt. Die Mitarbeiter wiede-
rum müssen sich darauf verlassen können, dass ihr Vorgesetzter tatsächlich
delegiert und sich nicht nur der Aufgaben entledigt, die ihm selbst unange-
nehm sind. Klingt anfänglich widersprüchlich, ist jedoch gängige Praxis und
ein Garant für Unzufriedenheit. Fremdarbeit, meist die der Führungskraft,
wird erledigt, Aufgaben des eigenen Bereiches werden hinten angereiht. Ef-
fektives Delegieren setzt gewisse Rahmenbedingungen vonseiten des Unter-
nehmens voraus, d. h. so etwas wie eine Delegationskultur. Wenn die Füh-
rungskraft delegiert, dann gibt sie auch Wissen ab. Jedoch ist die Führungs-
kraft selbst kaum mit jedem Detail und mit jeder Aufgabe vertraut bzw. ist
es nicht möglich, immer den aktuellen Informationsstand zu haben, insbe-
sondere dann, wenn auch andere Personen beteiligt sind und nur diese Auf-
gabe von einer Person zugeteilt wurde. Wenn aber die Führungskraft dies
erwartet, dann wird Delegieren fast unmöglich. Das kommt nicht so selten
vor, wie Sie vielleicht vermuten. Wenn es aber funktioniert, ist dies ausge-
zeichnet und zeugt von einem eingespielten Team und einem homogenen
Wissensstand.
Nehmen Sie an, Ihr eigener Chef sei risikoscheu und setzt bei seiner Arbeit
den Hauptakzent darauf, seine Mitarbeiter eng zu kontrollieren. Letzten En-
des glaubt er nur an die Ergebnisse, die er selbst herbeigeführt hat. In die-
sem Fall dürfte es für Sie als Führungskraft kaum möglich sein, zu delegie-
ren, auch wenn Sie es selbst noch so sinnvoll finden. Delegation erfordert
zudem auch passende Instrumente und nicht lediglich die Übertragung einer
Tätigkeit. Das betrifft auch die Kontrollmechanismen:
Nicht immer ist es sinnvoll oder möglich, eine Aufgabe zur Gänze zu delegie-
ren. Die Folge ist in diesen Fällen, dass die Aufgabe zerlegt wird und dass nur
bestimmte Teile davon delegiert werden. Zudem gilt es, immer zu fragen, an
welche Person delegiert werden sollte. Nicht jeder Mitarbeiter ist für eine
bestimmte Aufgabe gleich gut geeignet und am Ende muss entschieden
Leadership im digitalen Zeitalter
71
werden, wie kontrolliert wird. Reicht es aus, das Endergebnis zu prü-
fen? Oder ist die Aufgabe so komplex, dass ein Zwischenbericht vorgelegt
werden sollte? An dieser Stelle ist vor allem Kommunikation gefragt. Die de-
legierende Führungskraft muss die Aufgabe hinreichend genau beschreiben,
den Termin festlegen, bis zu dem die Aufgabe gelöst sein soll, und nicht zu-
letzt entscheiden, wie kontrolliert werden soll. Delegieren ist ein wichtiges
Mittel, um Verantwortung zu teilen, Ressourcen effektiv zu verteilen und die
Fähigkeiten der Mitarbeiter zu nutzen.
Personalentwicklung entlang bewährter Karrierepfade: Karriere bedeutet
für viele Menschen immer noch, eine zunehmende Anzahl von Mitarbeitern
unter der eigenen Leitung zu versammeln und währenddessen Schritt für
Schritt die Karriereleiter hinaufzusteigen. In verteilten Teams und flachen
Hierarchien und überall dort, wo Führung auf eine begrenzte Zeit angelegt
ist, hat dieser Ansatz aufgrund von Unmachbarkeit ausgedient. Folglich sind
neue Ansätze notwendig.
Leadership im digitalen Zeitalter
72
7 Spannende Blickwinkel
Spannende Blickwinkel, welche es noch zu berücksichtigen gilt, wollen wir in
diesem Kapitel betrachten. Obwohl Globalisierung mittlerweile zum alten Ei-
sen der Unternehmensveränderung gezählt werden kann, ist sie nach wie
vor omnipräsent und wesentlicher Bestandteil und im Speziellen in Kombi-
nation mit der digitalen Transformation. Große Konzerne in allen Branchen
haben sich längst mit der Globalisierung auseinandergesetzt und nutzen de-
ren Vorteile für sich. Aber viele andere, gerade kleine und mittelständische
Unternehmen, haben mit dem Thema noch Schwierigkeiten. Manchmal er-
scheint bereits der Schritt über die eigenen Ländergrenzen hinweg, selbst in
die angrenzenden Nachbarländer, als gewagtes Unterfangen.
Die Herausforderung zur „Eroberung“ neuer Länder kann in zwei Kernele-
menten beschrieben werden. Der Schritt in ein neues Land bedeutet immer
auch die Auseinandersetzung mit fremden Gesetzen, Normen und Stan-
dards. Je nach Land und Branche sind die damit verbundenen Prob-
leme mehr oder weniger schwerwiegend. Möglicherweise muss das Unter-
nehmen externe Spezialisten zurate ziehen, die die Eigenheiten des betref-
fenden Landes gut kennen. Das entscheidendere Element lässt sich folgen-
dermaßen umschreiben: Globalisierung bedeutet Arbeitsteilung, geteilte
Verantwortung und damit letztendlich verminderte Möglichkeiten der
Kontrolle für alle Beteiligten. Wenn ein Unternehmen seine Geschäftstätig-
keit internationalisiert, dann ist es durchaus nicht ungewöhnlich, dass bei-
spielsweise die Zentrale in Österreich, die Leistungserbringung in London
und das Tochterunternehmen in Ungarn sitzen. Der kurze Weg zum Schreib-
tisch des Kollegen, den viele Mitarbeiter schätzen, fällt dann ebenso
weg wie die gemeinsame Tasse Kaffee oder der Austausch in der Mittags-
pause.
Was bedeutet diese zweifache Herausforderung für Führungskräfte?
Führungskräfte sollten Veränderungen begleiten, die mit Globalisierungs-
prozessen einhergehen. Einen guten Anwalt zu finden, der die Gesetze in
dem fremden Land kennt, ist das geringste Problem. Viel schwieriger ist es
hingegen, die Mitarbeiter in diesem Prozess zu begleiten und ihren Unsi-
cherheiten und Ängsten zu begegnen. Die Führungskräfte sind euphorisch,
sehen neue Chancen, wachsenden Umsatz und vielleicht auch persönliche
Entwicklungsmöglichkeiten. Die Mitarbeiter sind hingegen meist verunsi-
chert. Diverse Expansionsvorhaben, welche in den Sand gesetzt wurden, zei-
gen immer dieselben Gewinner und Verlierer, obwohl diese aus denselben
Unternehmen stammen – somit lässt sich hier eine „unbegründete“ Sorge
nicht abstreiten.
Fragen damals wie heute sind:
Leadership im digitalen Zeitalter
73
• Bin ich diesen Anforderungen gewachsen?
• Wie kann ich mit Sprachproblemen umgehen?
• Was bedeutet es für mich, wenn ich mich nicht eben mal spontan mit
dem Kollegen von nebenan besprechen kann?
Digitalisierung ist in diesem Punkt ein starker Verbündeter– sei es durch Vi-
deotelefonie, Übersetzungsdienstleistungen u. v. m. Führungskräfte können
bzw. müssen ihre Mitarbeiter bei der Suche nach Antworten auf diese Fra-
gen unterstützen. Das setzt aber zweierlei voraus:
1. Sie sollten zum einen zwischen den Zeilen lesen können wie z. B.,
wenn ein Mitarbeiter im Team-Meeting fragt, ob denn die Unterneh-
mensführung alle Bedingungen in dem anderen Land erfüllen kann
und eigentlich meint, dass er sich nicht sicher ist, ob er alle Spielre-
geln beherrscht. Oft verstecken sich hinter vermeintlich sachlichen
Argumenten persönliche Ängste und Befürchtungen.
2. Eng damit verbunden ist: Führungskräfte müssen intensiv mit ihren
Mitarbeitern kommunizieren. Das gilt gegenüber dem gesamten
Team ebenso wie gegenüber jedem einzelnen Mitarbeiter.
Die Kommunikation mit dem Team muss vor allem dazu dienen, die Prozesse
transparent zu machen und die Motivation zu sichern. Im Zweiergespräch
mit dem Mitarbeiter hingegen ist Raum, um über Ängste zu sprechen und
Hilfestellungen vonseiten des Unternehmens beispielsweise in Form von
Schulungen zuzusichern.
Demografische Herausforderungen: Die Babyboomer-Generation der Sech-
ziger- und frühen Siebzigerjahre ist meist schon auf dem Weg in den wohl-
verdienten Ruhestand. Vor allem im öffentlichen Bereich, aber auch in vie-
len Unternehmen, wird in den nächsten zehn bis 15 Jahren ein rundes Drittel
der Beschäftigten altersbedingt aus dem Erwerbsleben ausscheiden. Parallel
dazu fehlen Fach- und Führungskräfte heute mehr als damals. Die digitale
Transformation ist ein maßgeblicher Treiber bzw. in erster Linie die Digitali-
sierung per se. Hier könnte in den Raum gestellt werden, dass dies den Wis-
sensansprüchen der einzelnen Länder und Unternehmen selbst geschuldet
ist. Würden die Ambitionen zurückgeschraubt werden, würde damit der
Fachkräftemangel reduziert werden, allerdings würde damit auch die eigene
Marktstellung und der gute Ruf der letzten Jahre zunichtegemacht. Ganz
gleich, ob Land oder Unternehmen, dieses Vorhaben der Expansion steht
wohl bei kaum jemandem auf der Tagesordnung. Wie üblich soll die Entwick-
lung forciert, etabliert und Neues geschaffen werden. Neben Technik benö-
tigt dies auch Menschen. Die Realisierung ist schwieriger als gedacht, selbst
wenn genügend Menschen vorhanden wären, welche die nötigen
Leadership im digitalen Zeitalter
74
Fähigkeiten beherrschen – benötigt werden auch Brückenmacher, welche
die digitale Transformation begleiten und die Schnittstellen bestmöglich
glätten.
Der Gegenpart zu den baldigen Pensionisten sind die Youngsters aus der Ge-
neration Y und Z, also alle diejenigen, die seit den Achtzigerjahren geboren
wurden. Sie treten ins Berufsleben ein – die Dualität bildet für viele Perso-
naler eine markante Herausforderungen. In Bezug auf diejenigen, die in den
kommenden Jahren in den Ruhestand gehen, geht es für die Unternehmen
vor allem um eines: Wissenstransfer bzw. -haltung. Eine Frage, mit der sich
momentan viele Firmen konfrontiert sehen, lautet: Wie kann verhindert
werden, dass der Erfahrungsschatz der baldigen Pensionäre verloren geht?
Die Lösung der obigen Frage wird einerseits in der Technik gesucht, indem
Wissen festgehalten und per Datenbank zugänglich gemacht wird. Anderer-
seits versuchen Unternehmen, Mitarbeiter mithilfe von flexiblen Rentenlö-
sungen länger an die Unternehmen zu binden, damit sie ihr Wissen und vor
allem ihre Erfahrung weitergeben können.
Ein weiteres Gedankenspiel: Wie würde der Transfer Ihres Wissens, Ihrer Ex-
pertise aussehen? Könnte dieses im Sinne des digitalen Signals und somit
verlustbefreit transferiert und reproduziert werden oder bleibt doch etwas
auf der Strecke? Und wenn ja, handelt es sich dabei um das „i-Tüpfelchen“?
In den meisten Fällen ist es genau dieser eine Mehrwert, welcher kaum oder
gar nicht anderswo festgehalten werden kann.
Viel entscheidender ist aber derzeit die Auseinandersetzung mit den Gene-
rationen Y und Z. Personaler haben in aller Regel ein eher getrübtes Bild von
dem kommenden Gestalten der Zukunft. Die Generationen Y und Z haben in
aller Regel hohe Ansprüche und ein übermäßiges Selbstbewusstsein. Außer-
dem neigen sie zur Selbstüberschätzung. Mit ihrer Kritikfähigkeit ist es nicht
allzu weit her. Andererseits sind ihre Mitglieder gut vernetzt, oftmals gut in-
formiert und zeigen eine hohe Flexibilität und Wechselbereitschaft. Die Di-
gitalisierung hat hier beste Arbeit geleistet, dem Internet und seinen Ele-
menten sei Dank. Jedoch kann nicht der Technik, wie so oft, die Schuld zu-
gewiesen werden, sondern es gilt auch hier: „Es ist das, was man daraus
macht“.
Was können Führungskräfte aus diesem Bild der Generationen Y und Z ab-
leiten?
• Versuchen Sie nicht, Dinge zu ändern, die Sie nicht ändern kön-
nen. Jede Generation hat ihre Eigenheiten, die logischerweise bei an-
deren Generationen oft auf Unverständnis stoßen. Im beruflichen
Kontext kann das nur bedeuten, diese Eigenheiten so weit wie mög-
lich zu akzeptieren. Es geht nicht um persönliches
Leadership im digitalen Zeitalter
75
Empfinden, sondern um effektive, zielorientierte Arbeit. Die Flexibi-
lität und Wechselbereitschaft jüngeren Generationen ist einerseits
eine Herausforderung für Führungskräfte, ist doch diesen Generati-
onen die Idee, das eigene Berufsleben bis zu seinem Ende in ein und
demselben Unternehmen zu verbringen, völlig fremd. Andererseits
können die Mitarbeiter auf die ständigen Veränderungen, die in vie-
len Unternehmen an der Tagesordnung sind, viel besser reagieren.
• Die hohe Technikaffinität der Generationen Y und Z stört manchen
Ausbilder, der es nicht gewohnt ist, dass während der Arbeit bei-
spielsweise WhatsApp-Nachrichten verschickt werden. Andererseits
sollten Sie darüber nachdenken, wie Sie diese Affinität nutzen kön-
nen, um die eigenen Prozesse umzugestalten und effizienter zu ma-
chen. Dies soll jedoch nicht als Freibrief für den uneingeschränkten
Technik-Konsum verstanden werden, eine ausgewogene Mischung
ist hier das erklärte Zielbild.
Die hohen Ansprüche jüngerer Generationen, die viele von uns vermutlich
wahrnehmen, führen möglicherweise zu einem besseren Ausgleich zwi-
schen Beruf und Privatleben. Jedoch scheiden sich auch hier die Geister: Da
die exorbitante Benutzung von Digitalem mit hohem Suchtfaktor, Wahrneh-
mungsverzerrung und möglicher Überforderung durch Informationsflut die-
sem Gedanken des Ausgleichs entgegensteht.
Der eben geschilderte demografische Wandel bringt vor allem auch in der
Personalrekrutierung Veränderungen mit sich. Das bedeutet deutliche Aus-
wirkungen für das Unternehmen, die Führung sowie für die tägliche HR-Tä-
tigkeit. Das arbeitgeberzentrierte Recruiting wird zugunsten eines bewer-
berzentrierten Recruitings in den Hintergrund treten, weil sich der Markt
entsprechend verändert. Für Führungskräfte und Personalabteilungen be-
deutet das einen Perspektivenwechsel.
Ich bewerbe mich um den Kandidaten!
Das ist sicher für viele eine Herausforderung für sich, bedeutet sie doch, dass
sich Unternehmen deutlich positionieren und ihren Mitarbeitern mehr bie-
ten müssen als die pünktliche Gehaltszahlung am Monatsende.
Arbeitsprozesse und Arbeitsorganisation: Änderungen in der Arbeitswelt
hat es immer schon gegeben und wird es auch immer geben. Andernfalls
wären viele Innovationen nie zustande gekommen. Aber die Globalisierung
und die Digitalisierung haben neue Veränderungsimpulse gesetzt. Wird der
wachsende Mangel an Fachkräften in bestimmten Bereichen hinzu addiert,
so wird noch einmal mehr deutlich, woher die jüngeren Veränderungen
stammen. Globalisierung und Digitalisierung haben dazu geführt, dass
Leadership im digitalen Zeitalter
76
Menschen nicht mehr in einem Büro zusammensitzen müssen, um mitei-
nander arbeiten zu können. Sie können über Kontinente verteilt sein und
müssen noch nicht einmal demselben Unternehmen angehören. Sie können
zeitlich begrenzt zusammenarbeiten, um gemeinsam ein bestimmtes Pro-
jekt zu verwirklichen. Dezentrale oder virtuelle Teams arbeiten zuweilen
ebenso erfolgreich wie feste Teams. Eine solche Zusammenarbeit stellt Mit-
arbeiter und Führungskräfte gleichermaßen vor neue Herausforderun-
gen. Für die Mitarbeiter geht es dabei darum, sich schnell an andere Charak-
tere und deren Arbeitsweisen anzupassen. Flexibilität ist gefragt. Führungs-
kräfte müssen noch einen Schritt weiter gehen.
Führungskräfte müssen ein Team steuern, für dessen Mitglieder sie nicht im
klassischem Sinne Führungsverantwortung tragen, zumindest nicht für alle.
Das eine oder andere Teammitglied untersteht vielleicht der direkten Ver-
antwortung der Führungskraft. Hierzu gesellen sich ggf. Mitglieder aus an-
deren Abteilungen oder Bereichen und nicht zuletzt womöglich auch ex-
terne Personen (Berater etc.). Die Führungskraft kann sich also zumindest
nicht allein auf die herkömmlichen Methoden zur Durchsetzung und Sankti-
onierung stützen. Sie ist gefordert, mehr in Kommunikation und Motivation
zu investieren und auf die freiwillige Mitarbeit der Teammitglieder zu set-
zen.
Ebenso wird das klassische Bild einer Führungskraft und ihrer Karriere in
Frage gestellt. Der althergebrachte Ansatz, auf jeder weiteren Stufe der Kar-
riereleiter Verantwortung für zusätzliche Mitarbeiter zu übernehmen, lässt
sich unter den veränderten Vorzeichen der Globalisierung und der Digitali-
sierung nicht mehr anwenden. Für einige Führungskräfte ist das völlig in
Ordnung. Für andere Führungskräfte, deren Selbstwertgefühl an das klassi-
sche Karriereverständnis gekoppelt ist, bedeutet es ein Problem. Hier gilt es,
entsprechend unterstützend tätig zu werden.
Im Extremfall kippt das Verständnis vom beruflichen Erfolg. Das ist eine Her-
ausforderung, die sich nur individuell bewältigen lässt. Das Führungsbild
wird sich in den nächsten Jahren definitiv einem Wandel unterwerfen (müs-
sen). Heute mangelt es allerdings noch an generellen Empfehlungen, wie
Führungskräfte damit umgehen können.
Veränderungen zu akzeptieren, ist dann recht flott und kompromisslos mög-
lich, wenn der eigene Nutzen daraus erkennbar wird. Fragen Sie sich: Was
bringt es mir persönlich, wenn ich in einem dermaßen veränderten Umfeld
arbeite?
Stichworte wie mehr Freiheit für die Führungskraft oder weniger Belastung
durch die Verantwortung, effizientes Arbeiten und zufriedene Mitarbeiter
sind hier ein paar mögliche Ausprägungen.
Leadership im digitalen Zeitalter
77
8 Führung 3.0 – vom Manager zum Leader
Nach der digitalen Transformation ist vor der digitalen Transformation. Se-
hen wir uns daher im Folgenden genauer an, wie Sie das Bestmögliche aus
der Veränderung herausholen können.
8.1 Auf Augenhöhe
Stellen Sie sich eine Führungskraft vor, die ein Team aus Spezialisten
führt. Das Unternehmen legt Wert auf Transparenz. Führungswissen im
Sinne eines Informationsvorsprungs der Führungskräfte gibt es nur noch in
sehr begrenzten Bereichen. Woraus kann diese Führungskraft ihre Legitima-
tion zur Führung beziehen? Aus ihrem Fachwissen kann Sie dies nur be-
grenzt, denn an das Wissen ihrer Spezialisten wird es nicht heranrei-
chen. Aus einem Wissensvorsprung auch nicht, denn das widerspricht den
Grundsätzen des betrachteten Unternehmens. Unter derartigen Vorzei-
chen, die sehr häufig heute schon gesetzt sind, verändert sich die Führung.
Die Macht der Führungskraft lässt sich nicht mehr aus ihrem Vorsprung ge-
genüber dem Team ableiten. An die Stelle von Macht tritt Überzeugungs-
kraft. Die Führungskraft gibt ihren Vorsprung auf und stellt sich auf Augen-
höhe mit den Mitarbeitern. Unter den Führungskräften gibt es solche, de-
nen bei dieser Vorstellung Schweißperlen auf die Stirn treten. Andere wie-
derum freuen sich und sagen z. B.:
• „Ich will kein Sklaventreiber sein.“
• „Ich will nicht bestimmen, nur weil ich Chef bin. Stattdessen macht
es mich zufrieden, wenn es mir gelingt, meine Mitarbeiter zu über-
zeugen und zu motivieren.“
Vielleicht liegt die Wahrheit, wie so oft, „irgendwo dazwischen“. Führungs-
kräfte brauchen eine gewisse Fachkompetenz, um Anerkennung zu fin-
den. Ein neuer Chef einer Abteilung, der aus einem komplett anderen Fach-
gebiet stammt, wird sich sehr schwertun. Es wird lange dauern, bis er akzep-
tiert wird, deutlich länger als bei jemandem, der die Inhalte des Bereichs
kennt, den er leitet. Andererseits geht es gerade in flachen Hierarchien oder
in Teams, die sich über mehrere Abteilungen oder Standorte verteilen, nicht
um die klassische Durchsetzung von Positionen aufgrund der formalen
Macht des Chefs. Diese Veto-Karte kann heute nur noch im Notfall gezogen
werden. Gefordert sind Führungskräfte mit einer hohen sozialen Kompe-
tenz und einer ausgeprägten Kommunikationsfähigkeit. In Führungspositio-
nen werden weniger Entscheider gebraucht als vielmehr Übersetzer, Mode-
ratoren und Konfliktlöser. Auch die Unternehmen sind gefordert, sich an
diese Veränderungen anzupassen.
Digital Leader 2.0
Leadership im digitalen Zeitalter
78
Neue Vorstellungen von Führung bedeuten nicht nur, dass potenzielle Füh-
rungskräfte anders ausgewählt werden müssen. Es bedeutet außerdem
eine komplette Veränderung der Unternehmenskultur.
Darin liegt für die Unternehmen auch ein Risiko, denn die Anforderungen an
Mitarbeiter und Führungskräfte steigen. Nicht jeder ist bereit und fähig, die-
sen Weg mitzugehen, da sich doch jeder womöglich noch Fähigkeiten aneig-
nen muss, die in Ausbildung und Studium nicht vermittelt wurden. Lebens-
langes Lernen, aber auch die Bereitschaft, sich ein Leben lang zu verändern,
sind Teil dieser Anforderungen. Eine Bestätigung, etwas erreicht zu haben,
genügt nicht mehr, um auf dem erreichten Niveau bleiben zu können. Aber
es gibt auch einen Vorteil: Mehr Selbstverantwortung und Selbstorganisa-
tion der Mitarbeiter und Führungskräfte resultieren häufig in einer höheren
Motivation. In der Konsequenz tragen so mehr Menschen mit mehr Engage-
ment zum Erfolg eines Unternehmens bei.
8.2 Leader anstatt Manager
In klassischen Hierarchien ist die Aufgabe von Führungskräften klar. Sie agie-
ren als Vorgesetzte, sie organisieren, strukturieren, geben Ziele vor und kon-
trollieren die Leistung der Mitarbeiter. Angesichts der neuen Herausforde-
rungen ist eine veränderte Rolle der Führungskraft gefragt. Es geht darum,
auch als Angestellter unternehmerisch zu denken.
Was das bedeutet, lässt sich folgendermaßen beschreiben:
• Zuerst muss die Führungskraft einen stärkeren Akzent auf die Defini-
tion des generellen Rahmens setzen. Dazu gehören die grundlegen-
den Prinzipien und Werte, nach denen gearbeitet wird. Die Ausge-
staltung und die Entscheidung über die Details werden dem Team
überantwortet.
• Die Führungskraft muss die Ausrichtung ihres Handelns verän-
dern. Früher ging es darum, definierte Ziele zu erreichen und dafür
zu sorgen, dass die Mitarbeiter diese Ziele nachhaltig verfol-
gen. Demgegenüber gilt es heute, Wege zu finden und Chancen zu
erarbeiten.
• Die Führungskraft muss sich stärker auf die Entwicklung von Strate-
gien und auf das Vorantreiben von Innovationen konzentrieren. Das
kann sie auch, und zwar deshalb, weil sie von operativen Aufga-
ben befreit wird ( korrektes Delegieren). Anders formuliert: Die
Führungskraft gewinnt an kreativer Freiheit. Damit wird sie im Ver-
hältnis zu den Mitarbeitern stärker zum Personalentwickler und
Coach.
Leadership im digitalen Zeitalter
79
Wenn die Führungskraft den Blick darauf richtet, was sie mit den verfügba-
ren Mitteln erreichen kann, bedeutet das immer auch zu fragen:
• „Was können meine Mitarbeiter?“
• „Wohin können sie sich entwickeln?“
In der täglichen Arbeit bedeutet das auch, dass die Führungskraft dazu fähig
sein muss, loszulassen, Verantwortung abzugeben und zu delegieren. Das
setzt Vertrauen in die Mitarbeiter voraus. Es braucht aber auch ein gutes
Selbstbewusstsein der Führungskraft.
Weshalb? Macht, Status, Entscheidungsbefugnis oder Informationsvor-
sprünge zählen jetzt nicht mehr. An die Stelle der althergebrachten Fakto-
ren zur Legitimierung von Führung treten neue, deutlich weniger griffige
Faktoren. Für jemanden, der seinen Führungsanspruch nach außen deutlich
machen will, kann das schwierig sein. Gerade die Aussicht auf einen Macht-
zuwachs ist für viele Mitarbeiter, die nach einer Führungsposition streben,
ein wichtiger Antrieb. Wenn das konsequent zu Ende gedacht wird, dann ar-
beiten Führungskräfte im Rahmen der neuen Führungsmodelle täglich da-
ran, sich selbst abzuschaffen. Stimmt das? Zum Teil vermutlich. Die Füh-
rungskräfte arbeiten daran, ihre alten Aufgaben und ihre alte Rolle abzu-
schaffen. Dafür erhalten sie eine neue Rolle. Diese neue Rolle kann mehr
Freiheit bedeuten, mehr Flexibilität und mehr Kreativität. Auch Führungs-
kräfte brauchen ab und zu eine neue Motivation, um für ihr Unternehmen
ihr Bestes geben zu können.
8.3 Zeit- und Selbstmanagement
Die Digitalisierung und veränderten Arbeits- und Organisationsstruktu-
ren führen dazu, dass zu jeder Zeit an jedem Ort der Welt gearbeitet werden
kann. Das klingt einerseits sehr verlockend, andererseits stellt es aber große
Herausforderungen an das Zeit- und Selbstmanagement. Vier Faktoren sind
hierbei ausschlaggebend:
• Technische Möglichkeiten, um überall und immer erreichbar und
arbeitsfähig zu sein: Die Trennlinie zwischen Freizeit und Arbeitszeit
verschwimmt zunehmend. Früher war die Arbeit des Tages mit dem
Verlassen des Büros abgeschlossen.
• Daher muss heute der Einbau von Ruhephasen in den Alltag viel be-
wusster geschehen. Führungskräfte sind hierbei doppelt ge-
fragt. Zum einen müssen sie für sich selbst sorgen, zum anderen
müssen sie auch ihre Mitarbeiter in die Lage versetzen, ihren Ar-
beitsalltag ausgewogen zu organisieren. Die Führungskraft, die z. B.
Leadership im digitalen Zeitalter
80
Sonntagmittag eine E-Mail verschickt und noch vor Beginn der regu-
lären Arbeitszeit am darauffolgenden Montag eine Antwort des Mit-
arbeiters erwartet, taugt in dieser Hinsicht nicht als Vorbild.
Gefragt sind Spielregeln und eine klare Kommunikation dieser
Spielregeln anstelle einer überhöhten Erwartungshaltung.
• Priority first: Mit der steigenden Informationsflut und der wachsen-
den Anzahl an Kommunikationskanälen nimmt auch die Notwendig-
keit zu, Prioritäten zu setzen. Wenn es überall piept, klingelt und vi-
briert ist es noch wichtiger, zu entscheiden, was zuerst getan werden
sollte und ob überhaupt jetzt die Zeit dafür ist, auf eine von diesen
Ausprägungen zu reagieren.
• Selbstmanagement: Das bedeutet, dass jede Führungskraft dazu in
der Lage sein muss, die neuen Freiheiten sinnvoll zu nutzen. Dazu
muss sie zunächst einmal im ersten Schritt fähig und willens sein, ihre
veränderte Rolle anzunehmen. Nur dann entstehen die neuen Frei-
heiten auch tatsächlich. Im zweiten Schritt gilt es, sich angesichts der
neuen Freiheiten nicht auszuruhen, sondern die neue Rolle mit Le-
ben zu füllen. Das wiederum bedeutet, kreativ zu sein, strategisch zu
denken und neue Chancen zu erschließen.
• Selbstvertrauen: Unter den veränderten Vorzeichen brauchen Füh-
rungskräfte noch mehr Selbstvertrauen im wahrsten Sinne des Wor-
tes. Wo weniger externe Regeln den Alltag bestimmen, ist die Orien-
tierung an selbst gesetzten Regeln ein wichtiger Faktor. Eine realisti-
sche Selbsteinschätzung und die Fähigkeit zur Selbstkritik und Selbst-
korrektur werden in Zukunft deutlich wichtiger.
Für Führungskräfte summiert sich all das zu einer echten Herausforderung.
Sie müssen immer zwei Seiten bedenken. Auf der einen Seite sind sie gefor-
dert, in Kooperationen zu denken, mit den Mitarbeitern auf Augenhöhe zu
arbeiten und sich eng auszutauschen. Auf der anderen Seite müssen sie ihre
eigene Person im Blick behalten und sorgsam mit sich selbst und ihrer eige-
nen Zeit umgehen. Die größte Veränderung liegt in der Selbstbetrach-
tung. Anstatt den Blickwinkel darauf zu richten, woraus ich als Führungs-
kraft für mich persönlich den größten Nutzen ziehen kann, geht es jetzt um
eine andere gemeinschaftliche Art der Entwicklung.
8.4 Digitales Mindset
Die Zeitschrift Manager-Seminare hat vor einiger Zeit ein Konzept vorge-
stellt, das Antworten auf die neuen Herausforderungen für die Führung ge-
ben soll. Fünf Herausforderungen und Antworten darauf wurden
Leadership im digitalen Zeitalter
81
vorgestellt, die sehr gut darstellen, was auf Führungskräfte gegenwärtig und
in der (nahen) Zukunft zukommt.
Die fünf Herausforderung sind:
1. Denke digital! Digital zu denken bedeutet, technische Neuerungen
zu beobachten und zu fragen, wie die Führungskraft für das Unter-
nehmen daraus den größten Nutzen ziehen kann.
2. Machtverlust: Im Umkehrschluss bedeutet das: „Sei beschei-
den!“ Der Wissensvorsprung von Führungskräften geht zunehmend
verloren. Stattdessen kommunizieren Digital Leaders auf Augenhöhe
mit Mitarbeitern und anderen Abteilungen über verschiedene Hie-
rarchieebenen hinweg und auch nach außen. Sie sind nicht Entschei-
der und Weisungsgeber, sondern Moderatoren bei der Suche nach
Lösungen.
3. Transparenz: „Teile alles!“ Das Schlagwort hier lautet Social Collabo-
ration. Der Digital Leader ist darum bestrebt, alle Informationen in
firmeninternen Netzwerken verfügbar zu machen. Jeder Mitarbeiter
hat die Chance, zu jeder Zeit auf dem aktuellen Stand zu sein, weil
keine Information zurückgehalten wird. So erhält er die Möglichkeit,
sich einzubringen.
4. Gelassenheit mit der Devise „Einfach ausprobieren!“: An die Stelle
von Planung tritt unter den neuen Arbeitsbedingungen der Mut zum
Experimentieren und Fehlermachen. Das bedeutet, für den Digital
Leader, dass er Fehler akzeptieren und eine Fehlerkultur entwickeln
muss. Fehler sind immer zugleich auch Entwicklungs- und Lernchan-
cen.
5. Vertrauen oder „in Mitarbeiter, we trust“: Vertrauen ist eine zent-
rale Fähigkeit des Digital Leaders. Er vertraut erstens seinen Mitar-
beitern und ihren Fähigkeiten. Er vertraut zweitens auf seine eigene
Bedeutung im Unternehmen abseits der alten Hierarchien. Drittens
vertraut er auf die Zukunft und sieht Chancen und Möglichkeiten. In-
sofern ist er auch ein sehr optimistischer Mensch mit einem positi-
ven Menschenbild.
Ohne Vertrauen in die Mitarbeiter und in die eigene Leistung sowie den po-
sitiven Blick in die Zukunft in Verbindung mit einer robusten Fehler- und
Lernkultur kann heute niemand mehr erfolgreich führen. Einigkeit herrscht
auch darüber, dass der Wissensvorsprung gegenüber den Mitarbeitern ge-
sunken ist. Schließlich ist auch die zentrale Bedeutung von Technologie für
Veränderungsprozesse unumstritten. Allerdings sollte diese auch nicht über-
schätzt werden. Mit der richtigen Technologie lässt sich zwar vieles lösen,
jedoch bleibt Führung menschlich.
Leadership im digitalen Zeitalter
82
Viele Führungskräfte praktizieren bereits digitale Führung, ohne dass Sie je-
mals über die theoretischen Grundlagen nachgedacht haben. Das ist eine
nur zum Teil beruhigende Erkenntnis, angesichts der Herausforderun-
gen, die jetzt und in Zukunft auf uns alle zukommen.
Leadership im digitalen Zeitalter
83
9 Führung 4.0 – vom Leader zum Coach
9.1 Was bedeutet Führung 4.0?
Die Führungskräfte von heute benötigen eine Vielzahl von Kompetenzen, um
auf die durch die Digitalisierung bedingten Veränderungen in der Arbeits-
welt optimal reagieren und sich anpassen zu können.
Leadership 4.0 ist ein Sammelbegriff für die bereits begonnene und zu er-
wartende Weiterentwicklung des Führungsverhaltens als unmittelbare
Folge der digitalen Transformation.
Der Beginn der vierten industriellen Revolution bringt die neuen Bedingun-
gen der so genannten radikalen Unsicherheit14 mit sich, in denen Manager
die Merkmale der Situationen, mit denen sie konfrontiert sind, nicht mehr
genau beschreiben können. Das bedeutet, dass sie sich nicht mehr auf Vor-
hersehbarkeit und ihre bisherigen Erfahrungen verlassen können. Frühere
Problemlösungsansätze sind im Grunde nicht mehr relevant und die Folgen
ihres üblichen Handelns werden zu einer Blackbox.
Die technologischen und wirtschaftlichen Veränderungen ausgelöst durch
die vierte industrielle Revolution haben auch den Kontext für Leadership er-
heblich verändert. In diesem Zusammenhang wird Führung immer weniger
als eine Eigenschaft einer Person betrachtet, sondern vielmehr als eine
emergente und gemeinsame Eigenschaft des Systems, in dem die Führungs-
kraft tätig ist. Dies besteht aus vier voneinander abhängigen Elementen:15
• Leader (Führungskraft),
• Followers (Teammitglieder),
• Situation und
• Kontext.
Abbildung 6: Ego zu Eco Leadership
14 Vgl. Stokes und Dopson (2020), S. 11.
15 Vgl. ebd.
Leadership im digitalen Zeitalter
84
Die allgemeine Empfehlung ist, von einer „heroischen“ individualistischen
Führung („Ego“) zu einer Führung überzugehen, die die Organisation als ein
in andere Systeme eingebettetes System erkennt („Eco“).
Um Leadership 4.0 greifbarer zu machen, ist es sinnvoll, auch die Konzepte
von Industrie 4.0 und Arbeit 4.0 einzeln zu betrachten.
Industrie 4.0
Ist eine Revolution, die auf der fortschreitenden Digitalisierung beruht. Mit
der Entwicklung neuer Technologien entstehen auch neue Formen der
Mensch-Maschine-Interaktion (MMI) mit dem gemeinsamen Ziel, neue For-
men der Produktion zu schaffen, Arbeitsprozesse zu optimieren und Kosten
zu senken.
Ein einfaches Beispiel für eine solche revolutionäre Technologie ist das IoT
(Internet der Dinge) und die sogenannten „smart Factories“, die als ein mit-
einander verbundenes Netzwerk von Maschinen, Kommunikationsmecha-
nismen und Rechenleistung definiert werden können. Dieses Netzwerk nutzt
fortschrittliche Technologien wie Künstliche Intelligenz (KI) und maschinelles
Lernen, um Daten zu analysieren und automatisierte Prozesse zu steuern.
Auch wenn viele Aspekte noch visionär erscheinen mögen, sind die digitale
Transformation und die damit verbundenen technischen Möglichkeiten be-
reits von entscheidender Bedeutung für Unternehmen aller Branchen.
Abbildung 7: Smart Factory 16
Die Auswirkungen von Industrie 4.0 beschränken sich jedoch nicht nur auf
die Optimierung von Produktionsprozessen, sondern zeigen sich auch in
grundlegenden Veränderungen der Art und Weise, wie wir arbeiten und
miteinander kommunizieren.
16 Didenko (2011) online.
Leadership im digitalen Zeitalter
85
Dies führt zurück zum Thema der digitalen Führung und der großen Bedeu-
tung eines kollaborativen Führungsstils.
Arbeit 4.0
Arbeit 4.0 bezieht sich allgemein auf die Zukunft der Arbeitswelt. Der Begriff
umfasst alle Veränderungen von Arbeitsformen und Arbeitsbedingungen
und befasst sich mit den Auswirkungen der Digitalisierung, Automatisierung
und anderen technologischen Fortschritten auf das Arbeitsleben.
Die Arbeitswelt 4.0 ist geprägt von der Digitalisierung und umfasst die Auto-
matisierung von Prozessen, flexible Arbeitszeiten und -orte sowie eine glo-
bale Vernetzung.
Wie sieht die Arbeitswelt 4.0 in der Praxis aus?
• Zeit- und ortsunabhängiges Arbeiten: Mitarbeiter können sich mit
ihren Kollegen online vernetzen und aus der Ferne arbeiten, die Kom-
munikation kann über Chat-Tools wie Slack oder Microsoft Teams
und Meetings über Videokonferenzen erfolgen.
• Digitale und automatisierte Prozesse: Die Integration von Technolo-
gie in den Arbeitsplatz reduziert mühsame, zeitraubende und sich
wiederholende Aufgaben. Ganze Prozessketten können vollständig
automatisiert werden und Analysen von riesigen Datenmengen (Big
Data) sind beispielsweise auf Knopfdruck möglich.
• Outsourcing: Die zunehmende globale Vernetzung ermöglicht es den
Unternehmen, Arbeiten an externe Unternehmen und Freiberufler
auszulagern, um Kosten zu senken und flexibel auf Marktschwankun-
gen zu reagieren. Dadurch profitieren die Unternehmen von einer
höheren Effizienz und dem Zugang zu einem breiten Spektrum an
Fachwissen und Ressourcen.
• Continuos learning & development: Um mit dem technologischen
Wandel und den Anforderungen der Arbeit 4.0 Schritt halten zu kön-
nen, müssen die Mitarbeiter ihre Fähigkeiten kontinuierlich weiter-
entwickeln und in einigen Fällen selbst Lernmöglichkeiten finden.
• Agile Organisationen und Führungsstile: Die digitale Arbeitswelt 4.0
erfordert flexible Organisationsstrukturen und einen partizipativen
Führungsstil. Hierarchien werden abgebaut, um den Mitarbeitern
mehr Freiheit und Verantwortung zu ermöglichen.
• Work-Life Harmony: Work-Life-Harmony bezieht sich auf das Stre-
ben nach einer ganzheitlichen und ausgewogenen Integration von
der Arbeit in das Privatleben. Im Gegensatz zur traditionellen Work-
Life-Balance, die oft als Trennung und Gleichgewicht zwischen Arbeit
und Privatleben gesehen wird, zielt Work-Life-Harmony darauf ab,
Leadership im digitalen Zeitalter
86
eine nahtlose Verbindung zwischen diesen beiden Bereichen herzu-
stellen.17
9.2 New Work vs. Arbeit 4.0
Der Begriff „Arbeit 4.0“ ist hauptsächlich in Deutschland und teilweise in der
Europäischen Union bekannt, während international häufiger der Begriff
„New Work“ verwendet wird, um die Auswirkungen der Digitalisierung auf
die Arbeitswelt zu beschreiben. Die beiden Begriffe werden im Zusammen-
hang mit der Arbeit der Zukunft oft als Synonyme verwendet. Das Konzept
von Arbeit 4.0 selbst wurde erstmals im November 2015 vom deutschen
Bundesministerium für Arbeit und Soziales (BMAS) in einem Bericht mit dem
Titel Re-Imagining Work: Green Paper Work 4.018 veröffentlicht.
In der Praxis und speziell im deutschsprachigen Raum sind New Work und
Arbeit 4.0 als zwei eng miteinander verbundene Konzepte zu betrachten,
die sich mit verschiedenen Aspekten der modernen Arbeitswelt befassen.
Während sich Arbeit 4.0 vorrangig mit Lösungen zur Bewältigung der digita-
len Transformation befasst, konzentriert sich New Work auf den Wandel von
Sinn- und Wertefragen, der zu veränderten Erwartungen der Mitarbeiter an
die Arbeitswelt führt. Beide Ansätze beeinflussen sich gegenseitig gemäß
dem Fraunhofer-Institut für Entwurfstechnik der Mechatronik. 19
• New Work legt den Fokus auf die individuelle Freiheit der Arbeitneh-
mer, ihre Arbeit nach ihren eigenen Wünschen und Bedürfnissen zu
gestalten. Dabei werden Aspekte wie Eigenverantwortung, Partizipa-
tion, Sinnhaftigkeit der Arbeit und persönliche Entfaltung gesondert
betrachtet.
• Arbeit 4.0 befasst sich mit den technologischen Entwicklungen und
Veränderungen, die die Arbeitswelt prägen. Es umfasst Themen wie
Digitalisierung, Automatisierung, Künstliche Intelligenz und die zu-
nehmende Vernetzung von Menschen, Maschinen und Daten. Arbeit
4.0 geht dabei über die rein technologische Perspektive hinaus und
führt zu tiefgreifenden Veränderungen in den Organisations- und
Managementstrukturen.20
17 Vgl. Fletcher (2020) online.
18 BMAS (2015) online.
19 Fraunhofer-Institut für Entwurfstechnik Mechatronik (2023) online.
20 Fraunhofer-Institut für Entwurfstechnik Mechatronik (2023) online.
Leadership im digitalen Zeitalter
87
Übungsaufgabe 2: Wenn Sie an die Veränderungen denken, die derzeit in
Ihrem Unternehmen stattfinden, und an die Art und Weise, wie die Men-
schen ihre Arbeit wahrnehmen, was sind die drei häufigsten Themen, die
Ihnen aufgefallen sind? Wenn Sie etwas an Ihrem Arbeitsumfeld ändern
könnten, was wäre das?
Woher kommt der Begriff „New Work“?
Wie bereits in Kapitel 1 erwähnt, wurde der Begriff „New Work“ Anfang der
Achtzigerjahre von dem Sozialphilosophen Frithjof Bergmann geprägt. New
Work geht von der Annahme aus, dass das bisherige, für die Industriegesell-
schaft charakteristische Arbeitssystem überholt ist und durch eine sinnvol-
lere und zielorientiertere Arbeitsweise ersetzt werden muss.21
New Work ist im Grunde die Quintessenz des Strukturwandels in der Ar-
beitswelt und repräsentiert einen Sammelbegriff für die neuen Arbeitsfor-
men, die im globalen und digitalen Zeitalter entstanden sind.
Die Auswirkung der digitalen Transformation der Arbeitswelt im Zusammen-
hang mit grundlegenden Veränderungen von Werten, Verhalten, Arbeitssti-
len und Kultur ist das aufkommende Konzept von „New Work“.22 Neben den
Auswirkungen der Digitalisierung auf die Gesellschaft haben auch demogra-
fische Veränderungen und die Globalisierungsbewegung der Bevölkerung
eine völlig neue Welt an Möglichkeiten für Unternehmen und deren Wachs-
tum eröffnet. Neue Chancen bringen generell auch neue Risiken mit sich und
das gilt auch für die Zukunft der Arbeit.
Mittlerweile entwickelt sich New Work zu einem Megatrend mit zuneh-
mend wichtigen Auswirkungen auf den langfristigen Erfolg von Organisatio-
nen. Laut Frithjof Harold Bergman wird die Art und Weise, wie Unternehmen
und Gesellschaften auf New Work reagieren, entscheidend für ihre Zukunft
sein. Die vereinfachte Antwort auf die Frage, was New Work ist, lässt sich
auf ein einziges Wort herunterbrechen: Reversal.
Bergmann betrachtet die Umkehrung der Rollen, hinsichtlich wer wem in der
Beziehung zwischen Arbeit und Mensch dient, als zentral für das Konzept
von New Work. Er argumentiert, dass das Ziel und der Zweck der Arbeit in
der Geschichte („Old Work“) ausschließlich darin bestand, eine bestimmte
Aufgabe zu erfüllen. Diese Ideologie würde die Menschen nur als Mittel zum
Zweck betrachten und sie in den Dienst der Arbeit stellen bzw. in eine un-
tergeordnete Position bringen.
21 Bergmann (2019).
22 Vgl. Bergmann (2019), S. 57.
Leadership im digitalen Zeitalter
88
New Work zielt darauf ab, diese Ordnung umzukehren und die Arbeit statt-
dessen den Menschen dienen zu lassen.23
Die Bedeutung dieser Aussage liegt darin begründet, dass Arbeit nicht er-
schöpfend oder ermüdend sein sollte, wie es in einer traditionellen Arbeits-
struktur üblicherweise der Fall ist. Sie sollte im Gegenteil dazu beitragen,
Menschen zu besseren und erfüllteren Individuen zu entwickeln. In gewisser
Weise kann das Konzept von New Work, wie von Frithjof Harold Bergmann
definiert, als Äquivalent zur Erreichung der letzten Stufe der Bedürfnispyra-
mide nach Maslow, der Selbstverwirklichung, betrachtet werden. Es geht da-
rum, das Verlangen zu erfüllen, „alles zu werden, wozu man fähig ist“, indem
hohe Leistungsniveaus erreicht werden und aktiv nach persönlichem Wachs-
tum gestrebt wird. New Work ist daher kein Zielzustand, sondern ein fort-
laufender Prozess der Transformation und Reflexion.
New Work ist eine Bewegung, die von einer inhärenten Unzufriedenheit mit
konventionellen Arbeitsumgebungen und Organisationsstrukturen getrie-
ben wird. Es steht im Zusammenhang mit den Veränderungen in den Bedürf-
nissen und Werten der neuen Mitarbeitergenerationen Y und Z, die im vor-
herigen Kapitel untersucht wurden.
Im Vergleich zu Arbeit 4.0, die sich hauptsächlich auf die Herausforderun-
gen der neuen Arbeitsweisen und auf die Integration digitaler Technolo-
gien konzentriert, repräsentiert New Work einen angestrebten Gedanken,
einen Hoffnungsschimmer im Zusammenhang mit der digitalen Revolu-
tion, der Möglichkeiten für selbstbestimmte Arbeit bietet.24
Kernprinzipien von New Work
1. Selbstständigkeit,
2. Freiheit (inkl. Handlungsfreiheit),
3. Teilhabe an einer Gemeinschaft.
Key-New Work-Konzept - „work that people really, really want”.
Die Betonung mit „really, really“ ist der Schlüssel, um den Hauptunterschied
zwischen „New Work“ und „Old Work“ zu verstehen. In der alten Arbeits-
weise hatten Menschen nicht die Möglichkeit, darüber zu reflektieren, was
sie wirklich wollen. Selbst wenn sie heute danach gefragt würden, würden
sie wahrscheinlich einige Zeit brauchen, um darüber nachzudenken. Laut
Bergmann können die meisten Menschen diese Frage tatsächlich überhaupt
23 Vgl. Bergmann (2019), S. 9.
24 Vgl. Giernalczyk und Möller (2019), S. 139.
Leadership im digitalen Zeitalter
89
nicht beantworten und das ist das, was im Kontext von New Work als „the
poverty of desire“ bekannt ist.25
9.3 Leadership 4.0 – Die neuen Kompetenzen einer
Führungskraft
Wie bereits in Kapitel 9.1 und teilweise in Kapitel 8.4 erwähnt stellt die digi-
tale Transformation Führungskräfte vor neue Herausforderungen und erfor-
dert eine bewusste Anpassung ihrer Denkweise und Herangehensweise, um
sich erfolgreich als Digital Leader positionieren zu können.
Digital Leader müssen über spezifische Kompetenzen verfügen, um effektiv
in der zunehmend digitalisierten und technologiegetriebenen Welt agieren
zu können.
Tobias Kollmann26 bündelt die erforderlichen Kompetenzen in drei rele-
vante Bereiche:
• Digital Mindset (Wollen): Die erfolgreiche Bewältigung der digitalen
Transformation erfordert nicht nur eine Anpassung der Führungs-
kräfte an den kontinuierlichen Wandel, sondern auch eine Verlage-
rung des Schwerpunkts von Erfahrung als Qualitätsmerkmal auf ei-
nen Trial-and-Error-Ansatz. Dies bezieht sich auf die innere Haltung
und Denkweise einer Führungskraft in Bezug auf die digitale Trans-
formation. Zu einer digitalen Denkweise gehören Offenheit für Ver-
änderungen, Neugier und die Bereitschaft, neue Dinge auszuprobie-
ren wie z. B. das Vorantreiben digitaler Lösungen in ihrem Verant-
wortungsbereich.
• Digital Skills (Können): „Unter den Digital Skills wird das konkrete
Hintergrundwissen und Know-how rund um digitale Geschäftsmo-
delle und -prozesse in Bezug auf die Digitale Wirtschaft verstanden.
Dies umfasst sowohl das Basiswissen rund um digitale Daten als auch
die daraus resultierende digitale Wertschöpfung für Prozesse, Pro-
dukte und Plattformen sowie die diesbezüglichen Entwicklungen.“ 27
• Digital Execution (Machen): Bei der Umsetzungsstrategie werden
die Aspekte „was“ (Objektansatz) und „wie“ (Managementansatz)
betrachtet. Der Objektansatz bezieht sich auf die Produkte, die Pro-
zesse und die Plattformen und berücksichtigt alle notwendigen tech-
nischen Innovationen oder kundenorientierten Veränderungen. Der
25 Vgl. Bergmann (2019), S. 124-127.
26 Kollmann (2019), S. 92 ff.
27 Kollmann (2019), S. 39.
Leadership im digitalen Zeitalter
90
Managementansatz bezieht sich darauf, wie die Manager die erfor-
derlichen Veränderungen tatsächlich umsetzen können. Stichworte
sind: Agilität, Anpassungsfähigkeit, Kundenorientierung, Haltung und
Geschwindigkeit.
Abbildung 8: Handlungsrahmen für Digital Leadership28
Digital Leader müssen daher über ein umfassendes Expertenwissen im Be-
reich der Digitalisierung verfügen (Können) oder zumindest offen dafür
sein, sich dieses anzueignen (Wollen) und gleichzeitig die Kompetenz be-
sitzen, dieses Wissen an ihre Mitarbeiter zu vermitteln.
Entscheidend ist, dass sie die bestehenden Strukturen und Prozesse des Un-
ternehmens nicht nur kennen, sondern aktiv leben und im Unternehmen
adaptieren und etablieren können. Digital Leader müssen dazu in der Lage
sein, die digitale Transformation ganzheitlich zu erfassen und proaktiv mit-
zugestalten (Machen). Dazu gehört die erfolgreiche Einführung von neuen
Technologien ebenso wie die kontinuierliche Weiterentwicklung bestehen-
der Technologien. Diese digitale Kompetenz kann als eine wesentliche Fä-
higkeit zur erfolgreichen Bewältigung der Herausforderungen des digitalen
Zeitalters angesehen werden. Hervorzuheben ist jedoch, dass Digital Lea-
dership nicht nur technische Aspekte, sondern auch soziale Kompetenzen
wie Kommunikations- und Kooperationsfähigkeiten umfasst.
Dies bedeutet, dass eine hohe Veränderungsfähigkeit für Führungskräfte un-
erlässlich ist, um den dynamischen Anforderungen der digitalen Transforma-
tion gerecht zu werden.
28 Kollmann (2019), S. 93.
Leadership im digitalen Zeitalter
91
Nur wenn Führungskräfte den Dreiklang aus Wollen, Können und Machen
beherrschen, können sie eine führende Rolle bei der digitalen Transforma-
tion übernehmen und das Unternehmen erfolgreich in die digitale Zukunft
führen.
9.4 Leadership 4.0 Kompatible Konzepte
9.4.1 VOPA+ Modell
Führungskräfte müssen offen für neue Ideen und Technologien sein und die
Vernetzung der verschiedenen Bereiche im Unternehmen fördern. Gleich-
zeitig brauchen die Mitarbeiter mehr Freiraum in ihrer täglichen Arbeit, was
ein hohes Maß an Vertrauen als Grundlage für Digital Leadership voraus-
setzt.29
Das VOPA+ ist ein agiles Führungsmodell basierend auf dem Werk Manage-
ment by Internet30 von Willms Buhseund kann als eine Reaktion auf die Her-
ausforderungen der VUCA-Welt betrachtet werden. Das Akronym VOPA+
steht insbesondere im Hinblick auf die psychologische Sicherheit für Vernet-
zung, Offenheit, Partizipation, Agilität und das Plus für Vertrauen.
• Vernetzung bezieht sich auf die Nutzung verschiedener Kanäle wie
soziale Medien und virtuelle Communities, um den Informations-
fluss, die kollektive Intelligenz und die Zusammenarbeit zu fördern.
• Offenheit beinhaltet die aktive Bereitstellung und Weitergabe von
Informationen, um eine transparente Kommunikation und eine
breite Beteiligung an Entscheidungsprozessen zu ermöglichen.
• Partizipation bedeutet die Einbindung aller Mitarbeiter in Prozesse
und Entscheidungen durch die Definition klarer Verantwortlichkeiten
und Aufgabenbereiche.
• Agilität spiegelt sich in einer veränderten Führungskultur wider, die
eine flexible und anpassungsfähige Arbeitsweise fördert und eine po-
sitive Fehlerkultur unterstützt.
• Vertrauen in sich selbst, in die Mitarbeiter und in das Netzwerk steht
als nicht verhandelbarer Wert im Mittelpunkt des Modells.
Das VOPA+ Modell setzt die Entwicklung einer entsprechenden Kommuni-
kationskultur im Unternehmen voraus, die die Zusammenarbeit und den
Wissensaustausch fördert. Dies bedeutet, dass die Umsetzung des Modells
29 Vgl. Petry (2019), S. 113.
30 Buhse (2014).
Leadership im digitalen Zeitalter
92
oft von einer Veränderung der Unternehmenskultur abhängig ist. Diese
Abhängigkeit von Veränderung bringt sowohl Herausforderungen als auch
Chancen mit sich, ist aber ein zu berücksichtigender Faktor, wenn es um
die praktische Umsetzung des Modells geht.
Abbildung 9: VOPA+ Modell31
Es folgt die praktische Bedeutung des VOPA+ Modells für Führungskräfte
und Handlungsempfehlungen:
• Transparent kommunizieren und selbst eine offene Kommunikati-
onskultur im Unternehmen fördern
o dadurch entstehen Vertrauen und ein verbesserter Informa-
tionsfluss.
• Bewusst Gelegenheiten zum Wissensaustausch schaffen und aktiv
den Wissenstransfer zwischen den Mitarbeitern unterstützen.
• Förderung der teamübergreifenden Zusammenarbeit, um den Aus-
tausch von Ideen und die Kooperation zwischen verschiedenen Ab-
teilungen zu erleichtern. Dies unterstützt die Entwicklung innovati-
ver Lösungen und Kooperationen.
• Förderung des selbstständigen Arbeitens und der Eigenverantwor-
tung der Mitarbeiter. Das bedeutet, dass die Mitarbeiter die Mög-
lichkeit haben, selbstständig Entscheidungen zu treffen und Verant-
wortung für ihre Aufgaben zu übernehmen
o die Führungskräfte haben die große Chance, ihre Mitarbeiter
zu unterstützen und einen Rahmen zu schaffen, in dem sie ihr
Potenzial entfalten können.
• Zwischenziele definieren und sich auf kontinuierliche Fortschritte
konzentrieren
31 Stonner (2019) online.
Leadership im digitalen Zeitalter
93
o durch die Festlegung klarer Erwartungen können die Mitar-
beiter ihre Arbeit besser strukturieren und ihre Leistung kon-
tinuierlich verbessern.
9.4.2 SCARF-Modell für psychologische Sicherheit
Gespräche sind viel mehr als ein einfacher Informationsaustausch, vor allem
dann, wenn es um digitale Führung geht. Ob bewusst oder unbewusst, jedes
Mal, wenn wir mit jemandem interagieren, erfüllen wir einige seiner sozialen
Bedürfnisse oder nicht. Die von uns gewählte Sprache und unser Verhalten
können Menschen entweder ermutigen und motivieren oder sie dazu brin-
gen, sich zurückzuziehen und abzuschalten.
Das SCARF-Modell von David Rock32 ist ein Akronym für Status, Certainty,
Autonomy, Relatedness und Fairness und bietet einen Überblick über fünf
Dimensionen, die sowohl als positive als auch als negative Auslöser wirken
können.
Abbildung 10: SCARF-Modell für psychologische Sicherheit33
Status
Status bezieht sich auf den Wunsch, sich von der Masse abzuheben. Wenn
wir unsere neuen Ideen mit anderen teilen und Anerkennung für gute Arbeit
erhalten, verbinden wir Status mit einem Gefühl von Bedeutung und Wert.
Umgekehrt reagieren wir eher negativ, wenn beispielsweise unsere Ideen
nicht anerkannt werden.
Certainty (Gewissheit)
32 Rock (2008).
33 NeuroLeadership Institute (2022) online.
Leadership im digitalen Zeitalter
94
Die Menschen wollen von Natur aus über das, was vor sich geht, Gewissheit
haben. Wir wollen unser Umfeld verstehen und die Ergebnisse vorhersagen
können. Im Arbeitsumfeld fühlen wir uns in unserer Sicherheit bedroht,
wenn unsere Rollen oder Zuständigkeiten nicht klar definiert sind.
Autonomy (Autonomie)
Im Allgemeinen wollen wir alle das Gefühl haben, dass wir die Kontrolle über
unsere Arbeit und unsere Entscheidungen haben. Wenn Führungskräfte ei-
nen Mikromanagement-Ansatz wählen, riskieren sie, die Autonomie zu ge-
fährden, wenn sie den Teammitgliedern aber Raum und Zeit geben, ihre Ar-
beit selbstständig zu erledigen, werden vertrauensvolle Beziehungen aufge-
baut.
Relatedness (Verbundenheit)
Menschen wollen dazugehören. Niemand möchte sich als Außenseiter einer
Gruppe fühlen, vor allem nicht am Arbeitsplatz. Die einfachste und am meis-
ten unterschätzte Möglichkeit, ein Umfeld zu schaffen, in dem sich die Men-
schen zugehörig fühlen, ist die Verwendung von „wir“ und „uns“ anstelle von
Wörtern wie „du“, „ich“ und „sie“, die eine klare Abgrenzung zwischen Grup-
pen signalisieren.
Fairness (Gerechtigkeit)
Nicht zuletzt wollen Menschen von Natur aus ein Gefühl der Gleichheit und
Fairness in sozialen Interaktionen erleben. Führungskräfte können Fairness
fördern, indem sie ihren Entscheidungsprozess transparent gestalten. Wenn
Mitarbeiter nicht den vollen Überblick haben, denken sie sich automatisch
alternative Geschichten aus, was die Wahrscheinlichkeit erhöht, dass sich
Menschen benachteiligt fühlen.
Im Bereich der Führung bietet das SCARF-Modell eine gute Möglichkeit, ef-
fektiver mit anderen zusammenzuarbeiten, indem es die wahrgenomme-
nen Bedrohungen minimiert und die durch Anerkennung erzeugten positi-
ven Gefühle maximiert. Es erweist sich im Zusammenhang mit kontinuier-
licher Entwicklung und Feedback-Frameworks als besonders nützlich.
Fünf soziale Bereiche aktivieren in unserem Gehirn ähnliche Reaktionen
auf Bedrohung und Belohnung, auf die wir uns selbst für unser physisches
Überleben verlassen:
1. Status,
2. Gewissheit,
3. Autonomie,
4. Verbundenheit,
5. Fairness.
Leadership im digitalen Zeitalter
95
9.4.3 Inner Work Life System
Jede Führungskraft weiß, dass Mitarbeiter gute und schlechte Tage haben.
Schwankungen in der Arbeitsleistung sind keine Seltenheit und sie sind oft
mit menschlichen Faktoren verbunden - zum größten Teil sind die Gründe
für Höhen und Tiefen unbekannt.
Eine 2011 von Amabile und Kramer34 veröffentlichte Forschungsarbeit un-
tersucht nach einer umfassenden Analyse von mehr als 12.000 Tagebuch-
einträgen den dramatischen Einfluss des Arbeitslebens der Mitarbeiter – de-
finiert als eine Mischung aus Wahrnehmung, Emotion und Motivation – auf
verschiedene Leistungsdimensionen. Die Ergebnisse zeigen, dass Menschen
besser arbeiten, wenn sie im Alltag mehr positive Emotionen, eine stärkere
intrinsische Motivation (Leidenschaft für die Arbeit) und eine positivere
Wahrnehmung ihrer Arbeit, ihres Teams, ihrer Führungskräfte und ihrer Or-
ganisation erleben. Darüber hinaus weisen die Autoren darauf hin, dass das
Verhalten von Führungskräften einen direkten Einfluss auf das interne Ar-
beitsleben der Mitarbeiter hat.
Abbildung 11: Inner Work Life System35
Das Konzept des „inneren Arbeitslebens“ (inner work life) bezieht sich auf
die dynamische Interaktion persönlicher Wahrnehmungen, zu denen sowohl
unmittelbare Eindrücke als auch umfassendere Interpretationen von Ereig-
nissen und deren Bedeutung gehören. Es umfasst auch Emotionen, bei
34 Amabile und Kramer (2007) online.
35 Amabile und Kramer (2007) online.
Leadership im digitalen Zeitalter
96
denen es sich um spezifische und intensive Reaktionen oder allgemeine
emotionale Zustände wie positive oder negative Stimmungen handeln kann.
Darüber hinaus spielt die Motivation eine zentrale Rolle bei der Frage, „was
man tut, wie man es tut und wann man es tut“.
• Perceptions: Die Wahrnehmung von Ereignissen im Arbeitsalltag.
• Emotions: Die Reaktionen auf Ereignisse im Arbeitsalltag.
• Motivation: Emotionen und Wahrnehmung wirken sich direkt auf die
Motivation aus. Menschen, die traurig oder wütend über ihre Arbeit
sind, werden sich wenig darum bemühen, sie gut zu machen. Wenn
sie glücklich und begeistert sind, werden sie sich sehr anstrengen.
Übungsaufgabe 3: Wenn Sie über Ihren gestrigen Arbeitstag nachdenken
und sich vorstellen, jemand hätte Sie den ganzen Tag beobachtet, was glau-
ben Sie, hätte diese Person in einen Bericht geschrieben?
Die meisten von uns denken hier wahrscheinlich an die Anzahl der erledigten
Aufgaben, die Anzahl der geschriebenen E-Mails, an die Telefonate, an die
gehaltenen Präsentationen, an einige Gespräche mit Kollegen, an die großen
Brainstorming-Sitzung vor dem Mittagessen usw. Aber was ist mit dem un-
sichtbaren Entscheidungsprozess, der Priorisierung des Arbeitspensums,
den erlebten Zuständen von Zufriedenheit, Irritation oder intensiveren Ge-
fühlen wie Stolz oder Frustration?
Der Kontext der Forschung von Amabile und Kramer liegt in der Leistung
von Wissensarbeitern innerhalb von Organisationen und der besten Mög-
lichkeit, innovative Arbeit anzustoßen. Die Leistung jedes Mitarbeiters
wird durch das ständige Zusammenspiel von Wahrnehmungen, Emotionen
und Motivationen beeinflusst, die durch Ereignisse im Arbeitsalltag ein-
schließlich des Handelns von Führungskräften ausgelöst werden - dennoch
bleibt das innere Arbeitsleben für das Management größtenteils unsicht-
bar.
Das Inner Work Life System wirft die Frage auf, was Führungskräfte tatsäch-
lich tun können, um eine positive Wirkung zu erzielen und zu steigern. Der
erfolgreichste Verstärkungseffekt wird erzielt, wenn Menschen Fortschritte
machen und gleichzeitig sinnvolle Arbeit leisten.
Leadership im digitalen Zeitalter
97
9.5 Coach anstatt Leader
9.5.1 Coaching als Führungsstil
Um Coaching in der Führung zu verstehen, ist es zunächst wichtig, zu wissen,
was Coaching ist und was es nicht ist.
Was ist Coaching?
Sehen wir uns zuerst eine Auswahl der am meisten verbreiteten Definitionen
von Coaching an:
• ICF (International Coaching Federation): „ICF defines coaching as
partnering with clients in a thought-provoking and creative process
that inspires them to maximize their personal and professional po-
tential. The process of coaching often unlocks previously untapped
sources of imagination, productivity and leadership.“36
• BetterUp: „Coaching is when an individual works with a trained pro-
fessional in a process of self-discovery and self-awareness. Working
together, the coach helps the individual identify strengths and de-
velop goals. Together, the coach and coachee practice and build the
skills and behaviors required to make progress toward their goals.“37
• Haufe: „Coaching ist ein Beratungsansatz, der Menschen Hilfe zur
Selbsthilfe gibt, damit sie ihre Ziele erreichen und Lösungen für Kon-
flikte finden. Darüber hinaus stärkt Coaching die Selbstwahrneh-
mung sowie die Selbstreflexion. Ein/e Coach begleitet die persönli-
che und berufliche Weiterentwicklung des Coachees.“38
Im Grunde genommen ist Coaching nichts anderes als ein Reflexionspro-
zess, der Menschen dazu motiviert, ihr persönliches und berufliches Poten-
zial zu maximieren. Das Wichtigste beim Coaching ist, dass der Coach wirk-
lich an die Fähigkeit des Coachees glauben muss, seine eigenen Herausfor-
derungen lösen zu können.
Der Coach liefert allgemein keine Lösungsvorschläge, sondern begleitet den
Coachee bei der Entwicklung eigener Lösungen durch systematische Frage-
techniken.39
Was ist Coaching nicht? Coaching ist keine Beratung oder Therapie!
Was ist Coaching in Leadership?
36 ICF (2023) online.
37 BetterUp (2023) online.
38 Haufe (2023) online.
39 Vgl. von Schumann und Böttcher (2016), S. 1.
Leadership im digitalen Zeitalter
98
Die Einführung von Coaching-Elementen in den Führungsstil und regelmä-
ßige Einzelgespräche bedeuten nicht, dass eine Führungskraft die Rolle eines
professionellen Coaches übernehmen muss. Es geht um die allgemeine Ein-
stellung und darum, dass sich die Führungskräfte als aktivierende Denk-
partner für die Teammitglieder positionieren.
Die drei wichtigsten Coaching-Prinzipien für Digital Leader sind:
1. Bewusst eine Coaching-Rolle einzunehmen und als Enabler zu agie-
ren.
2. Teammitgliedern Raum zu geben, um zu reflektieren und eigene Lö-
sungen zu finden.
3. Einen psychologischen „safe space“ für die Teammitglieder zu schaf-
fen, in dem sie ihre Ideen offen teilen können.
Nach der Full Range of Leadership Theory40 gibt es effektives, ineffektives,
passives und aktives Führungsverhalten. Je nach Kombination von Verhal-
tensweisen lassen sich drei Führungsstile wie folgt identifizieren:
Abbildung 12: Subdimensionen des Full-Range-of-Leadership-Modells41
Übungsaufgabe 4: Wenn Sie sich Abbildung 11 ansehen und überlegen, was
Sie bis jetzt über Coaching in der Führung wissen, in welchen Bereich des Full
Range of Leadership fällt Ihrer Meinung nach Coaching als Führungsstil?
40 Bass und Avolio (1994).
41 von Schumann und Böttcher (2016), S. 3.
Leadership im digitalen Zeitalter
99
• Laissez-Faire: Am unteren Ende der Skala befindet sich die „Nicht-
Führung“. Die Führungskraft lässt die Teammitglieder „einfach ma-
chen“ und tritt, wie bereits in Kapitel 2.3 erläutert, passiv auf.
• Transaktionale Führung: In der Mitte befindet sich die transaktio-
nelle Führung, welche als ein Austauschprozess betrachtet werden
kann. Die Konzepte, die mit diesem Führungsstil in Verbindung ge-
bracht werden können, sind z. B. Management by Objective (MBO)
und Old Work. Im Grunde handelt es sich um einen transaktionalen
Austausch zwischen positiven Arbeitsbedingungen und Leistung. Die
Führungskraft stellt den reibungslosen Ablauf und die Einhaltung der
Qualitätsstandards sicher und reagiert dementsprechend stark auf
Fehler.
• Transformationale Führung: Am oberen Ende der Skala steht die
transformationale Führung, die manchmal auch als „die hohe Kunst
der Führung“ bezeichnet wird. In diesem Führungsbereich befinden
sich alle modernen Führungsansätze und Konzepte wie Digital Lea-
dership, New Work und Arbeit 4.0. Die Führungskraft zielt darauf ab,
Teammitglieder positiv zu verändern und versucht, sie als ganze
Menschen zu betrachten, indem sie sich auf ihre individuellen Be-
dürfnisse, Wünsche und Motivatoren konzentriert. Dieser Ansatz ist
höchst personalisiert und erfordert im Vergleich zu den anderen bei-
den Führungsstilen fortschrittliche Sozialkompetenzen.
The future of leadership is already here - warum Coach anstatt Leader?
Coaching als Führungsstil dient als aktivstes und effizientestes (transforma-
tionales) Führungsverhalten und gewinnt auch im deutschsprachigen Raum
zunehmend an Popularität.42 Es ist eine Antwort auf die irreversiblen Verän-
derungen, die die digitale Transformation im Wertesystem der Gesellschaft
und in den Geschäfts- und Betriebsmodellen der traditionellen Organisatio-
nen ausgelöst hat. Gleichzeitig stellt es eine Weiterentwicklung der Rolle der
Führungskraft dar, die sich noch stärker auf New Work, den Sinn der Arbeit,
das Selbstwertgefühl, die Selbstwirksamkeit und die kontinuierliche Ent-
wicklung der Mitarbeiter konzentriert.
Der Coaching-Führungsstil bezeichnet eine Führungsform, bei der die Füh-
rungskraft die Rolle eines Coaches übernimmt. Unter diesem Führungsstil
investiert die Führungskraft Zeit und Energie in die Entwicklung einzelner
Teammitglieder. Zudem verdeutlicht sie ihnen, wie ihre Rolle in die über-
geordnete Teamstrategie eingebettet ist. Dies führt nicht nur zu einer
42 Vgl. von Schumann und Böttcher (2016), S. 2.
Leadership im digitalen Zeitalter
100
Verbesserung der individuellen Leistung, sondern auch zu einer Steigerung
der Leistung des Teams und der Organisation als Ganzes.
9.5.2 Umsetzung eines coachenden Führungsstils
Jede Idee ist nur so gut wie ihre Umsetzung - ein Beispiel für die Umsetzung
von Coaching Leadership könnte folgendermaßen aussehen:
1. Beziehungsaufbau: Beginnen Sie mit Einzelgesprächen mit jedem
Teammitglied, um ihre individuellen Karriereziele, Stärken, Entwick-
lungsbereiche und allgemeine Zufriedenheit mit ihrer aktuellen Posi-
tion zu verstehen. Nutzen Sie diese Gelegenheit, um Einblicke in ihre
Wahrnehmung der Teamleistung zu gewinnen und identifizieren Sie
Bereiche, in denen Schwierigkeiten auftreten könnten.
Das Ziel dieser Einzelgespräche ist es, eine vertrauensvolle Beziehung
zu jedem Teammitglied aufzubauen und eine offene Kommunikation
zu fördern. Indem Sie sich Zeit nehmen, ihre Perspektiven und Ziele
zu verstehen, können Sie gezielt Unterstützung und Entwicklungs-
möglichkeiten bieten.
2. Identifizierung und Festlegung von Entwicklungszielen: Arbeiten Sie
auf der Grundlage der Erkenntnisse aus den Einzelgesprächen mit
den Teammitgliedern zusammen, um relevante Entwicklungsziele zu
identifizieren. Wählen Sie einen geeigneten Zielsetzungsrahmen wie
persönliche OKRs oder auch SMART (Spezifisch - Messbar - Erreich-
bar - Realistisch - Terminiert), wenn Sie beide damit vertrauter sind
oder wenn es besser zum Entwicklungsziel passt.
3. Kontinuierliches Feedback und Unterstützung anbieten: Treffen Sie
sich regelmäßig mit den Teammitgliedern, um ihre Fortschritte bei
der Erreichung ihrer Ziele zu besprechen und sie danach zu fragen,
ob sie Unterstützung benötigen. Bieten Sie Feedback und seien Sie
hilfsbereit oder hören Sie zu, wenn Herausforderungen auftreten.
Unterstützen Sie sie dabei, ihren Ansatz neu auszurichten, wenn
Schwierigkeiten auftreten.
4. Erfolge feiern: Feiern Sie Erfolge innerhalb des Teams, egal ob es sich
um kleine oder große Erfolge handelt. Sie können dies auf verschie-
dene Weise tun, wie z. B. durch persönliche Anerkennung, wenn Her-
ausforderungen gelöst wurden, oder durch regelmäßige Teamsitzun-
gen, bei denen jedes Teammitglied für seine Leistungen gelobt wird.
Wichtig ist, dass die Teammitglieder das Gefühl haben, gesehen und
geschätzt zu werden.
5. Kontinuierliche Anpassung der Strategie: Ein Coaching Leadership
ist auf eine langfristige Strategie ausgerichtet. Um langfristig
Leadership im digitalen Zeitalter
101
erfolgreich zu sein, müssen Sie jedoch bereit sein, Ihre Strategie an-
zupassen und flexibel zu bleiben. Überwachen Sie die Fortschritte
des Teams im Vergleich zu den Zielen und passen Sie Ihre Vorgehens-
weise an, wenn etwas nicht wie geplant funktioniert. Seien Sie agil
und passen Sie sich den Bedürfnissen des Teams an, um dessen
Wachstum zu unterstützen.
9.5.3 Praxisorientierter Coaching Framework für den Digital Lea-
der
Um die Implementierung im Kontext eines Coaching-Ansatzes weiter zu ver-
tiefen, es ist sinnvoll, eine beispielhafte Strukturierung von Einzelgesprä-
chen zwischen Führungskräften und Teammitgliedern zu betrachten.
Yana leitet das digitale Marketingteam eines KMU in Wien und hat wöchent-
lich ein 30-minütiges Einzelgespräch mit ihrem Teammitglied Thomas. Im
dritten Quartal hat er sich vorgenommen, ein neues Dashboard für das Team
zu erstellen, um die verfügbaren Daten noch besser visualisieren zu können.
Yana beginnt das Gespräch mit einem kurzen Smalltalk und fragt, wie das
Wochenende war. Sie weiß auch, dass Thomas bald Urlaub hat, und fragt,
ob die Aktivitäten bereits gebucht sind (1). Nach etwa fünf Minuten lenkt
Yana das Gespräch in Richtung Dashboard und fragt Thomas, wie es ihm
geht, ob Blockaden aufgetreten sind und ob er generell Unterstützung be-
nötigt (2). Thomas nutzt die nächsten fünf bis zehn Minuten, um über den
Fortschritt zu sprechen und sagt, dass einige Datenquellen nicht verfügbar
sind, er kann aber nicht genau sagen, was der Grund dafür ist. Yana kennt
diesen Fehler bereits, sie hat ihn vor ein paar Wochen selbst erlebt und be-
hoben, aber sie möchte Thomas die Möglichkeit geben, selbst eine Lösung
zu finden. In den nächsten zehn Minuten stellt sie hilfreiche Fragen wie z. B.,
ob Thomas schon einmal eine ähnliche Situation erlebt hat, und sie gehen
gemeinsam in eine kurze Brainstorming-Runde (3a). Thomas hat nun ein
paar Ideen zum Testen und Yana glaubt, dass er eine noch schnellere und
nachhaltigere Lösung gefunden hat, um die Fehlermeldung der Datenbank
zu beheben. In den letzten vier bis fünf Minuten wünscht Yana Thomas viel
Erfolg beim Testen der besprochenen Ideen und sagt, dass sie schon sehr
gespannt auf die Ergebnisse ist (4).
Leadership im digitalen Zeitalter
102
Abbildung 13: Coaching Framework für Digital Leaders43
43 Istrate (2023) online.
Leadership im digitalen Zeitalter
103
10 Fazit und Nachhaltigkeitscheck von Digital
Leadership
10.1 Spannungsfeld zwischen Führen und Coachen
Ein Coaching Leadership ist zwar ein großartiges Instrument für eine digitale
Führungskraft, es gibt jedoch einige Vor- und Nachteile, die bei der Entschei-
dung für einen solchen Ansatz berücksichtigt werden müssen.
Vorteile:
• Aufbau stärkerer, vertrauensvoller Beziehungen zwischen Führungs-
kräften und Mitarbeitern/Teams.
• Förderung langfristiger Ergebnisse und nachhaltigen Wachstums.
• Entfaltung des vollen Potenzials von Mitarbeitern und Teams.
• Schaffung eines kooperativen, kollaborativen und unterstützenden
Arbeitsumfelds.
• Erhöhtes Mitarbeiterengagement.
• Förderung der kollektiven Intelligenz.
Nachteile:
• Hoher Zeitaufwand und Energieeinsatz seitens der Führungskräfte.
• Zeitverzögerung bis sichtbare Ergebnisse erzielt werden, da der Fo-
kus auf langfristigen Erfolgen liegt.
• Oft mangelnde Soft Skills der Führungskräfte und hohe Upskilling-
Kosten. - not all managers are leaders and not all leaders are coaches.
Es ist wichtig zu beachten, dass die Vor- und Nachteile des Coaching Lea-
derships von verschiedenen Faktoren abhängen wie der Situation im Unter-
nehmen, den individuellen Fähigkeiten der Führungskräfte und den Bedürf-
nissen der Mitarbeiter. Ein ausgewogenes Verständnis dieser Aspekte kann
dazu beitragen, die Effektivität und Effizienz des Coaching Leaderships für
Digital Leadership 4.0 zu maximieren.
Aus praktischer Sicht ist es selten möglich, nur den einen oder den anderen
Führungsansatz zu verfolgen. Eine Führungskraft kann nie zu 100 % nur
Coach sein, da sie in den meisten Organisationen eine große Verantwor-
tung trägt und meist Experte auf ihrem Gebiet ist. Das bedeutet, dass Sie
als Führungskraft unabhängig von ihren besten Coaching-Absichten situa-
tiv eingreifen müssen, um schnelle Entscheidungen zu treffen.
Leadership im digitalen Zeitalter
104
Angesichts der Komplexität und des ständigen Wandels der heutigen Ge-
sellschaft und Organisationsstrukturen empfiehlt sich ein human-centric
adaptiver Führungsansatz, der problemlos mehr als nur einen modernen
Führungsstil zulässt.
Abbildung 14: Spannungsfeld zwischen Führen und Coachen44
Die wichtigsten Schwerpunkte des Coaching Leaderships können wie folgt
zusammengefasst werden:45
• Career Growth: Im Rahmen des Coaching-Führungsstils liegt der Fo-
kus auf der Förderung der beruflichen Entwicklung der Teammitglie-
der.
• Zielorientierung: Die Führungskräfte unterstützen ihre direkten Mit-
arbeiter dabei, sowohl kurz- als auch langfristige Ziele zu definieren
und zu erreichen und dies sowohl auf individueller als auch auf team-
orientierter Ebene.
• Zukunftsorientierung: Führungskräfte wissen, dass Veränderungen
Zeit benötigen und investieren daher in eine langfristige Strategie
und Wachstum.
• Feedback: Der kontinuierliche Austausch von konstruktivem Feed-
back ist von großer Bedeutung. Dadurch werden die Mitarbeiter in
ihrer Zielerreichung und beruflichen Weiterentwicklung unterstützt.
Gleichzeitig sind erfolgreiche Führungskräfte offen für Feedback von
ihren Teams, um ihren eigenen Führungsstil zu verbessern.
• Mentoring: Führungskräfte nehmen häufig die Rolle von Mentoren
für ihre Teams ein. Sie bieten Unterstützung, Anleitung und teilen ihr
Fachwissen, um die individuelle Entwicklung und das Wachstum der
Mitarbeiter zu fördern.
44 Nolten (2020) online.
45 Debara (2022) online.
Leadership im digitalen Zeitalter
105
Übungsaufgabe 5: Nehmen Sie sich unter Berücksichtigung aller neuen Er-
kenntnisse über Coaching in der Führung zehn Minuten Zeit, um mindestens
vier praktischen Situationen zu identifizieren, in denen Sie einen solchen
Führungsansatz anwenden könnten oder nicht.
10.2 Digital-Leadership-Mantra
Wie in diesem Skript erläutert, handelt es sich bei digitaler Führung nicht um
eine einzige Art von Führung, sondern um viele Formen moderner Führungs-
stile mit einem gemeinsamen Nenner - einem menschenzentrierten Ansatz.
Unabhängig von der persönlich bevorzugten Art der Führung, stellen Kon-
zepte wie Agilität und New Work eine ständige Herausforderung dar und
sprengen sogar die Grenzen, wie Menschen miteinander interagieren und
zusammenarbeiten. Digital Leadership und die aufkommende Idee von Lea-
dership 4.0 spiegeln unsere Suche nach Zweck, Sinn und Motivation in unse-
rer Arbeit wider.
Im Hinblick auf das in Kapitel 9 vorgestellte System des Inner Work Life Sys-
tem gibt es ein bemerkenswertes Zitat, das als ein kurzes Mantra für alle
Führungsinitiativen dienen kann:
„Of all the things that can boost inner work life, the most
important is making progress in meaningful work.”46
46 Amabile und Kramer (2007) online.
Leadership im digitalen Zeitalter
106
Literaturverzeichnis
Amabile,T. M.; Kramer, S. J. (2007): Inner Work Life: Understanding the Sub-
text of Business Performance. Harvard Business Review 85, No. 6. S. 72-83.
Bass, B. M.; Avolio, B. J. (1994): Improving organizational effectiveness
through transformational leadership. Thousand Oaks, CA: Sage Publications.
Becker, J. et al. (2018): Praxishandbuch berufliche Schlüsselkompetenzen,
50 Handlungskompetenzen für Ausbildung, Studium und Beruf, Berlin: Sprin-
ger-Verlag.
BetterUp (2023): Coaching: What is it and what does it mean for you? URL:
https://www.betterup.com/coaching, abgerufen am 22.05.2023.
Bennis, W.; Goldsmith, J. (2010): Learning to Lead: A Workbook on Becoming
a Leader, Basic Books.
Bergmann, F. (2019): New Work New Culture: Work We Want and a Culture
That Strengthens Us. Alresford: John Hunt Publishing.
Bildungsministerium für Bildung und Forschung (2023): Der DQR. Glossar,
URL: https://www.dqr.de/dqr/de/der-dqr/glossar/deutscher-qualifikations-
rahmen-glossar.html, abgerufen am 14.08.2023.
Blessin, B.; Wick, A. (2013): Führen und führen lassen, UTB.
BMAS Bundesministerium für Arbeit und Soziales (2015): Re-imagining work.
Green paper. Work 4.0. Rostock: Publikationsversand der Bundesregierung.
Buhse, W: (2014). Management by Internet. Neue Führungsmodelle für Un-
ternehmen in Zeiten der digitalen Transformation. Kulmbach: Plassen-Ver-
lag.
Clifton, J. (2012): Der Kampf um die Arbeitsplätze von morgen. Readline.
Debara, D. (2022). Coaching leadership style: Examples and skills to get
started. URL: https://www.betterup.com/blog/coaching-leadership-style-
examples, abgerufen am 04.06.2023.
Didenko, O. (2021): Industry 4.0: the Real Value of a Smart Factory. URL:
https://www.altamira.ai/blog/industry-4-0-smart-factory/, abgerufen am
09.05.2023.
Erpenbeck, J., Heyse, V. (1999): Die Kompetenzbiographie. Strategien der
Kompetenzentwicklung durch selbstorganisiertes Lernen und multimediale
Kommunikation. Münster: Waxman.
Fletcher, P. (2020): Work-Life Balance Is Over: Let’s Talk About Work-Life
Harmony. URL: https://www.forbes.com/sites/forbeshumanresourcescoun
Leadership im digitalen Zeitalter
107
cil/2020/11/13/work-life-balance-is-over-lets-talk-about-work-life-har-
mony/, abgerufen am 12.04.2023.
Fraunhofer-Institut für Entwurfstechnik Mechatronik (2023): Arbeit 4.0.
URL: https://www.iem.fraunhofer.de/de/schwerpunktthemen/arbeit-4-
0.html, abgerufen am 02.05.2023.
Giernalczyk, T.; Möller, H. (2019): New Work, Digitalisierung, Inner Work als
Herausforderung für das Coaching. Organisationsberat Superv Coach 26,
S. 139–141
Haufe (2023): Was ist Coaching? URL: https://www.haufe-akademie.de/, ab-
gerufen am 29.05.2023.
Helmold, M. (2021): New Work, Transformational and Virtual Leadership:
Lessons from COVID-19 and Other Crises. Springer Nature.
Heyse, V.; Erpenbeck, J. (2009): Kompetenztraining: Informations- und Trai-
ningsprogramme. Schäffer Poeschel.
Hinterhuber, H.; Krauthammer, E. (2015): Leadership – mehr als Manage-
ment. Was Führungskräfte nicht delegieren dürfen, Springer Gabler.
ICF International Coaching Federation (2023): What is Coaching? URL:
https://coachingfederation.org/about, abgerufen am 10.06.2023.
Istrate, C. (2023): Enhanced weekly check-ins (unveröffentlichte Artikel).
URL: https://www.newwork22.com/, abgerufen am 12.06.2023.
Kollmann, T. (2019): E-Business. Grundlagen elektronischer Geschäftspro-
zesse in der Digitalen Wirtschaft, 7. Aufl., Wiesbaden.
NeuroLeadership Institute (2022): 5 Ways to Spark (or Destroy) Your Em-
ployees’ Motivation. URL: https://neuroleadership.com/your-brain-at-
work/scarf-model-motivate-your-employees, abgerufen am 01.03.2023.
Nolten, A. (2020): „Coachen Sie noch oder führen Sie schon?“ – Führungs-
kraft als Coach. URL: https://www.p-und-o.de/coachen-sie-noch-oder-fueh-
ren-sie-schon-fuehrungskraft-als-coach#, abgerufen am 01.06.2023.
Petry, T. (2019): Digital Leadership: erfolgreiches Führen in Zeiten der Digital
Economy. 2. Auflage: Freiburg: München: Stuttgart: Haufe Group; [Ann Ar-
bor]: ProQuest eBook Central (Haufe Fachbuch). URL: https://perma-
link.obvsg.at/bfi/AC15638804.
Pink, H. D. (2019): Drive: Was Sie wirklich motiviert. Ecowin.
Rock, D. (2008): SCARF: A brain-based model for collaborating with and in-
fluencing others. Neuroleadership Journal, 1, S. 1-9.
Stokes, J.; Dopson, S. (2020): From Ego to Eco: Leadership for the Fourth In-
dustrial Revolution. Oxford: Saïd Business School. URL:
Leadership im digitalen Zeitalter
108
https://www.sbs.ox.ac.uk/sites/default/files/2020-03/From%20Ego%
20to%20Eco%20-%20Leadership%20for%20the%20Fourth%20Indus-
trial%20Revolution.pdf, abgerufen am 12.03.2023.
Stonner, l. (2019): Ansätze zur adäquaten Führung im Digitalen Zeitalter ‒
Darstellung einer Digital Leadership-Toolbox. URL: https://hr-digitalisie-
rung.info/archive/2222, abgerufen am 23.04.2023.
Ueberschaer, N. (2014): Führung: Kompaktes Wissen – Konkrete Umsetzung
– Praktische Arbeitshilfen. Carl Hanser Verlag.
von Schumann, K.; Böttcher, T. (2016): Coaching als Führungsstil. Eine Ein-
führung für Führungskräfte, Personalentwickler und Berater. Wiesbaden:
Springer.
Weinert, T. (2001): Menschen erfolgreich führen: Führung – ein Kurzaufriss.
AVM – Akademische Verlagsgemeinschaft München.
Yukl, G. (2012): Leadership in Organizations. Pearson.
Zech, T. (2019): Brave new working world. Moving away from rigid structures
and hierarchies: Three examples of New Work in German companies. URL:
https://www.deutschland.de/en/topic/business/new-work-examples-
from-companies-in-germany, angerufen am 10.05.2023.
211
ManagementFührung neu gedacht
September 2018
Die fortschreitende Digitalisierung ist nicht nur eine
technologische Herausforderung. Sie stößt derzeit
eine Kulturrevolution an, die das klassische Ver
ständnis von Führung auf den Kopf stellt. Die neue
Version heißt Digital Leadership – und verlangt von
Managern nicht weniger als ein neues Mindset.
1. Digitalisierung und VUCA-Welt
Digitalisierung und Globalisierung führen dazu,
dass der Kontext, in dem sich Führungskräfte heu-
te bewegen, zunehmend anspruchsvoller wird.
Wachsende Kundenansprüche, neue Technologien
und ein immer intensiverer Wettbewerb schaffen
ein Unternehmensumfeld, das häufig mit „VUCA“
(das englische Akronym steht für die Attribute vo-
latil, unsicher, komplex und ambivalent) charak-
terisiert wird.1
Abb 1: VUCAWelt 2
Unternehmen werden die digitale Transformation
nur dann erfolgreich bewältigen können, wenn sie
ihre Führungskultur den Anforderungen der
VUCA-Welt anpassen. Die dafür erforderlichen
Anpassungsschritte werden in der Literatur unter
dem Begriff „Digital Leadership“ diskutiert und
in der Folge zusammenfassend dargestellt.
2. Digital Business Modelling
Viele Unternehmen stehen derzeit vor der Situ-
ation, dass teilweise über Jahrzehnte erarbeitetes
Know-how durch neue Technologien und smarte
Produkte massiv entwertet wird. Gleichzeitig ent-
stehen in rasantem Tempo völlig neue, bis vor Kur-
zem noch undenkbare Geschäftsmodelle. 3
Führungskräfte benötigen deshalb jedenfalls
ein solides Grundverständnis betreffend die Chan-
cen und Risiken der neuen Digitaltechnologien
(zB Augmented Reality, Artificial Intelligence,
Blockchain etc), um zukünftig als „virtuelle Virtu-
osen“ in der Lage zu sein, im Diskurs mit anderen
die erforderlichen Adaptierungen in der Wert-
schöpfungsarchitektur des Unternehmens früh-
zeitig zu antizipieren und umzusetzen. 4
3. Vertrauen und Sinnvermittlung
Durch die mit der Digitalisierung von Wertschöp-
fungsketten einhergehende Komplexitätserhö-
hung wird es für Führungskräfte zunehmend
schwieriger, das für eine bestimmte Aufgabenstel-
lung relevante Wissen selbst zu besitzen, um Mit-
arbeiter im Detail anleiten und kontrollieren zu
können. Daher müssen Mitarbeiter stärker denn je
von Führungskräften dazu befähigt werden, selb-
ständig und eigenverantwortlich zu arbeiten. Dies
wiederum setzt voraus, dass Führungskräfte auch
bereit sind, Macht abzugeben und den eigenen
Mitarbeitern das nötige Vertrauen entgegenzu-
bringen.5
Darüber hinaus hat gerade die junge Gene-
ration an Wissensarbeitern, die nach Schule und
Studium aktuell in das Erwerbsleben eintritt, veränderte Erwartungen an das Arbeitsleben und
verhält sich Studien zufolge anders als Mitarbeiter
älterer Generationen. Neben mehr Flexibilität in
Bezug auf Arbeitszeiten und Arbeitsort suchen die
Mitglieder der sogenannten Generation Y ver-
stärkt einen tieferen Sinn in ihrer Arbeit. Um sie
vor dem Hintergrund des sich abzeichnenden War
for Talents als Nachwuchskräfte zu gewinnen und
zu binden, wird es deshalb darauf ankommen, dass
Führungskräfte diesen Sinn klar vermitteln können
und ihn mit bestem Wissen und Gewissen täglich
vorleben. 6
4. Agile Organisation
Es ist sinnvoll, zwischen struktureller (indirekter)
und interaktiver (direkter) Führung zu unter-
scheiden. Bei der strukturellen Führung geht es
um eine mittelbare Verhaltensbeeinflussung der
Mitarbeiter – nicht durch reale Personen, sondern
durch das ganze System Unternehmen. Die struk-
turelle Führung liegt damit weniger in der Verant-
wortung des einzelnen Vorgesetzten, sondern viel-
mehr in der Verantwortung des Top-Managements
bzw der Geschäftsführung. Zu den Instrumenten
der strukturellen Führung gehören ua die Auf-
bau- und Ablauforganisation, betriebliche Anreiz-
systeme, Bürokonfigurationen und die Unterneh-
menskultur.7
Ein immer volatiler werdendes Umfeld macht
es erforderlich, Entscheidungen und Maßnahmen
möglichst rasch treffen zu können sowie erforder-
lichenfalls Kern- und Supportprozesse kurzfristig
an veränderte Rahmenbedingungen anzupassen.
Eine stärkere Delegation von Entscheidungs-,
Kontroll- und Koordinationsbefugnissen an wei-
testgehend autonom agierende und wechselseitig
vernetzte Mitarbeiter bzw Teams könnte diesbe-
züglich Abhilfe schaffen, wird jedoch in der Praxis
Führung neu gedacht
Leadership Skills für digitale Zeiten
Thomas Wala / Katharina Felleitner
Prof. (FH) Mag. Dr. Thomas
Wala, MBA ist Leiter des
Instituts für Management,
Wirtschaft und Recht sowie
des Masterprogramms
Innovations und Technolo
giemanagement an der FH
Technikum Wien.
Katharina Felleitner, BA
MSc ist Fachbereichs
leiterin Betriebswirt
schaftslehre am Institut für
Management, Wirtschaft
und Recht sowie stv.
Leiterin des Masterpro
gramms Innovations und
Technologiemanagement
an der FH Technikum Wien.
212 September 2018
Management Führung neu gedacht
häufig von streng hierarchischen Organisations-
strukturen, die durch lange Entscheidungswege,
komplexe Reporting-Ketten, ausgeprägte Bereichs-
egoismen sowie aufwendige Planungs- und Ab-
stimmungsprozessen gekennzeichnet sind, maß-
geblich behindert. 8
Vor diesem Hintergrund stellen sich immer
mehr Entscheidungsträger die Frage, ob es nicht
zielführender wäre, die Zusammenarbeit in Un-
ternehmen gänzlich neu auszugestalten.9 Ein in
diesem Zusammenhang intensiv diskutiertes und in
einigen Unternehmen (zB Tele Haase, Keba, Ontec
etc) bereits umgesetztes Organisationsmodell ist die
von Brian J. Robertson entwickelte Holokratie.10 In
diesem stark von der Soziokratie11 beeinflussten Mo-
dell werden die aus den Kundenbedürfnissen und
Marktanforderungen abgeleiteten Aufgaben von
autonom agierenden und wechselseitig verfloch-
tenen Kreisen übernommen. Die einzelnen Kreise
setzen sich wiederum aus verschiedenen Rollen zu-
sammen, die von den einzelnen Teammitgliedern
bekleidet werden. Die Zuständigkeiten und Kom-
petenzen der Kreise und Rollen werden bei Auf-
treten neuer Herausforderungen im Rahmen von
regelmäßig stattfindenden Governance Meetings
aktualisiert. Auf diese Weise findet fortlaufend eine
dezentrale Organisationsentwicklung statt, die ei-
nen evolutionären Charakter besitzt.12
Vertreter der Holokratie loben das „flache“ Ar-
beitsumfeld, das zu mehr Flexibilität, Engagement
und Produktivität führt.13 Kritiker weisen hingegen
darauf hin, dass die Holokratie ebenfalls starke bü-
rokratische Züge aufweist, weil die Mitarbeiter ihr
Handeln stets streng an einem umfangreichen und
komplexen Regelwerk, der sogenannten Holokra-
tie-Verfassung,14 ausrichten müssen. Außerdem
erfordere die Holokratie ausgeprägte soziale Kom-
petenzen bei allen Mitarbeitern, was in der Praxis
nicht immer vorausgesetzt werden könne.15 Erfah-
rungsberichte fallen jedenfalls höchst heterogen aus.
Zahlreiche Autoren weisen vor diesem Hinter-
grund zu Recht darauf hin, dass es in organisato-
rischen Fragen keine One-Size-Fits-All-Lösungen
geben kann, weshalb letztlich jedes Unternehmen
vor dem Hintergrund der sich aus Umfelddyna-
mik, Geschäftsmodell und Kernkompetenzen erge-
benden Anforderungen in Bezug auf Reaktionsver-
mögen und Anpassungsgeschwindigkeit einerseits
sowie Verlässlichkeit und Fehlervermeidung ande-
rerseits für sich selbst evaluieren muss, ob bzw in
welchen Bereichen und in welcher Intensität py-
ramidale Strukturen durch Elemente einer flexi-
bleren Selbstorganisation ersetzt oder zumindest
ergänzt werden sollten. 16
Prange resümiert: „Je nach Kontext oder Un
ternehmensbereich wird sich ein Unternehmen
zwischen den beiden Formen bewegen. So ist zum
Beispiel die ITIndustrie durch hohe Dynamik ge
kennzeichnet, während zum Beispiel der Schiffs
bausektor eher stabiler ist. Für einzelne Funktions
bereiche wie Marketing und Vertrieb ändern sich die
Rahmenbedingungen häufiger, während andere Be
reiche, etwa Finanzen und Recht, stärker an Geset
zesvorlagen gebunden sind. Entsprechend wird eine
jeweils andere Variante von Agilität mit unterschied
lichen Herausforderungen für die Steuerungsprozes
se von Unternehmen angemessen sein.“17
5. Bürokonfiguration
Unter Begriffen wie New Work, Smart Working,
Arbeit 4.0 etc haben bereits viele Unternehmen
neue Bürowelten eingeführt, die nicht nur auf eine
optimierte Flächennutzung und die daraus resul-
tierenden Kosteneinsparungen abzielen. Vielmehr
sollen die neuen Bürokonzepte auch und vor al-
lem die Agilität der Organisation erhöhen, die
Produktivität weiter verbessern und die Attraktivi-
tät des Unternehmens als Arbeitgeber (Employer
Branding) steigern.18
Grundlegendes Gestaltungsmerkmal ist in der
Regel eine offene Raumfläche, die in flexibel nutz-
bare Zonen unterteilt ist, vielfältige Arbeitsmög-
lichkeiten vorsieht und vor allem Raum für Inter-
aktion bietet (Open-Space-Büro). Die Mitarbeiter
können dann je nach Aufgabe den passenden Ar-
beitsplatz wählen und gegebenenfalls mittels einer
App reservieren: etwa für Routinetätigkeiten den
Platz in der Home Base, für hoch konzentriertes
Arbeiten den Platz im störungsfreien Thinktank,
für kreative Teamarbeit den Innovation Space und
für den informellen Austausch die Lounge.19 Er-
gänzend können Mitarbeiter auch im Homeoffice
arbeiten, wenn sie dadurch eine bessere Vereinbar-
keit von Familie und Beruf (Work Life Balance)
und/oder eine deutliche Reduktion unproduktiver
Pendelzeiten erreichen können.
Der Übergang von traditionellen Bürokonfi-
gurationen zu zukunftsorientierten Büroland-
schaften stellt eine massive Veränderung im
Arbeitsalltag dar, die Führungskräften und Mit-
arbeitern gleichermaßen schwerfällt. Beispiels-
weise empfinden es nicht wenige als Verlust von
Privatsphäre und erreichtem Status, wenn sie ihr
Einzelbüro aufgeben sollen.20 Andere empfinden
das am Ende des Tages erforderliche Aufräumen
des Arbeitsplatzes für dessen nächsten Nutzer
(Clean Desk Policy) als lästig oder sehen keinen
Sinn darin, neue softwarebasierte Produktivitäts-
und Kollaborationstools zu erlernen, damit Abla-
ge und Kommunikation zukünftig weitestgehend
papierlos erfolgen können (Paperless Office). Das
Vertreter der Holokratie
loben das „flache“
Arbeitsumfeld, das zu
mehr Flexibilität,
Engagement und
Produktivität führt.
Abb 2: Holokratie vs traditionelle Hierarchie; Rassek, Holokratie: Effektiv ohne Chef,
https://karrierebibel.de/holokratie/ (Zugriff am 6. 9. 2018)
213
ManagementFührung neu gedacht
September 2018
Umstellungsprojekt ist deshalb durch ein profes-
sionelles Change Management zu begleiten, zu
dessen Bestandteilen neben einschlägigen Qualifi-
zierungsmaßnahmen vor allem ein maßgeschnei-
derter Kommunikationsplan gehört, der über
verschiedene Kanäle (zB Workshops, Newsletter
etc) die qualitativen Verbesserungen (zB höhenver-
stellbare Tische, Ausstattung mit Diensthandys und
Laptops etc) und neuen Wahlmöglichkeiten bei der
Büronutzung in den Vordergrund stellt. Weiters ist
eine frühzeitige Einbindung der Belegschaft als
„Co-Architekten“ der neuen Bürowelt unerläss-
lich. Diesbezüglich haben sich in der Praxis Ideen-
wettbewerbe für Namen von Besprechungsräumen
oder Abstimmungen über einzelne Mobiliarele-
mente als sinnvolle Elemente der Veränderungs-
dramaturgie bewährt.21 Auch eine Musterfläche, in
der die neue Arbeitswelt für die Mitarbeiter vorab
erlebbar gemacht wird, unterstützt deren Mitnah-
me auf die Veränderungsreise.22
Moderne Büro- und Arbeitskonzepte integrie-
ren schließlich auch Instrumente zur Förderung
der individuellen Gesundheit und somit auch zur
Erhaltung der Beschäftigungsfähigkeit älterer
Mitarbeiter. In Anbetracht des demografischen
Wandels kann ein gesunder Arbeitsplatz einen
nicht unwesentlichen Vorteil im Wettbewerb um
die besten Fachkräfte darstellen. Zu den gängigsten
Instrumenten in diesem Zusammenhang zählen ua
flexible Arbeitszeitmodelle, eine ergonomische Ar-
beitsplatzgestaltung, Fitnessräume sowie eine mög-
lichst fett- und zuckerarme Kantinenkost. Wie ak-
tiv die Mitarbeiter diese Angebote nutzen, wird ua
davon abhängen, inwieweit sich die Führungskräf-
te auch in diesem Zusammenhang ihrer Vorbild-
wirkung bewusst sind und selbst ein gesundheits-
förderndes und -bewahrendes Verhalten zeigen.23
6. Personalauswahl und -entwicklung
Autonomes und agiles Arbeiten in interdisziplinä-
ren und häufig wechselnden Teamstrukturen setzt
an die Mitarbeiter hohe Ansprüche etwa in Bezug
auf Engagement, Eigenverantwortlichkeit und Re-
flexionsvermögen. So müssen sie in der Lage und
gewillt sein, anderen zu vertrauen, miteinander zu
kooperieren, ihr Wissen zu teilen, Verantwortung
zu übernehmen, das eigene Handeln kritisch zu
reflektieren, aus Feedback von Kollegen zu lernen
und erforderlichenfalls die Ziele der Gruppe vor
die eigenen zu stellen. 24 Da nicht alle Menschen
diese hohen Anforderungen erfüllen können oder
wollen, kommt einem professionellen Personal-
auswahlprozess allerhöchste Bedeutung zu.25
Um mit den Veränderungen durch die digitale
Transformation Schritt halten zu können, müssen
eingestellte Mitarbeiter außerdem laufend weiter-
qualifiziert werden (Life Long Learning). Dies be-
zieht sich einerseits auf die Förderung der immer
wichtiger werdenden Kompetenzen auf den Gebie-
ten IT, Datenanalyse und agile Managementmetho-
den (zB Design Thinking, Scrum etc), andererseits
aber auch auf die Stärkung von Fähigkeiten zum
Selbstmanagement,26 die Mitarbeiter bei ihrer ver-
mehrt eigenverantwortlichen Arbeit unterstützen
können.27 Ergänzend sei angemerkt, dass auch die
betriebliche Weiterbildung in Zukunft verstärkt
über mittels Lernplattformen bereitgestellte On-
linekurse stattfinden wird.
Die Sicherstellung einer zielgenauen Personal-
beschaffung sowie einer kontinuierlichen und in-
dividuelle Bedürfnisse berücksichtigenden Perso-
nalentwicklung sollte damit in Zukunft mehr denn
je als zentrale Führungsaufgabe wahrgenommen
werden.28
7. Coaching und Enabling
Je selbstverantwortlicher die Mitarbeiter agieren,
desto stärker muss die Führungskraft als Coach
und Enabler agieren. Bei einem solchen Rollen-
verständnis treten Top-down-Anweisungen und
Überwachung zunehmend in den Hintergrund;
vielmehr bietet die Führungskraft ihren Mitarbei-
tern bei Bedarf Unterstützung bei der Bewältigung
von Problemen an und stellt sicher, dass diese alle
Informationen und Ressourcen zur Verfügung ha-
ben, um vereinbarte Aufgaben erfolgreich erledigen
zu können. Insgesamt muss sich Führung künftig
mehr denn je an den Mitarbeitern orientieren
und deren Anliegen berücksichtigen, damit diese
sowohl befähigt als auch motiviert sind, Höchst-
leistungen für das Unternehmen zu erbringen.29
Dies gilt natürlich gerade für High Potentials, auf
deren Innovationspotenzial und Leistungsvermö-
gen Unternehmen im digitalen Zeitalter ganz be-
sonders angewiesen sind.
8.Experimentier- und Fehlerkultur
Um im digitalen Zeitalter regelmäßig Produkt-
und Dienstleistungsinnovationen hervorzubrin-
gen, müssen Unternehmen lernen, kontinuierlich
und effektiv zu experimentieren. Durch ständige
Iterationen, das Testen neuer Ideen und das lau-
fende Einholen belastbarer Marktdaten und echter
Kundenfeedbacks (zB in Form von A/B-Tests etc)
können selbst große Firmen so agil werden wie
schlanke Start-ups. Nur dann werden sie auf eine
Weise innovativ sein können, die schnell, kosten-
schonend und klug genug ist, um in einer sich ste-
tig ändernden Welt nachhaltig Werte für Kunden
hervorzubringen. Führungskräfte sind daher auf-
gerufen, eine Unternehmenskultur zu etablieren,
zu deren Eckpfeilern neben einer starken Kunden-
orientierung auch eine hohe Veränderungsbereit-
schaft, der Mut zum Risiko, Experimentierfreude
und eine Interpretation von Fehlern als Lern-
chancen gehören.30
9. Führung auf Distanz
Dadurch, dass Mitarbeiter künftig ihren Ar-
beitsalltag flexibler gestalten und im Homeoffice
oder Café arbeiten können, aber auch weil Konzer-
ne immer internationaler werden und Teams rund
um den Globus verstreut sind, wird Führung auf
Distanz immer wichtiger. 31 Wenngleich damit ab-
sehbar ist, dass Führungskräfte in Zukunft verstärkt
über virtuelle Kollaborationstools mit integrier-
ten Messaging-, Chat- und Videoconferencing-
Funktionalitäten mit ihren Mitarbeitern interagie-
ren werden, bedarf es weiterhin auch regelmäßiger
persönlicher Begegnungen, um dadurch den im
Je selbstverantwortli-
cher die Mitarbeiter
agieren, desto stärker
muss die Führungskraft
als Coach und Enabler
agieren. Bei einem
solchen Rollenverständ-
nis treten Top-down-
Anweisungen und
Überwachung zuneh-
mend in den Hinter-
grund.
214 September 2018
Management Führung neu gedacht
Digitalzeitalter noch wichtiger werdenden Aufbau
von Teamgeist und Vertrauen zwischen der Füh-
rungskraft und den Mitarbeitern sowie unter den
Mitarbeitern zu unterstützen.32
Neben physischem Kontakt setzt eine erfolgrei-
che Führung auf Distanz weiters die Vereinbarung
klarer Spielregeln voraus, zB über welche Kanäle
kommuniziert wird, wie man mit unterschiedli-
chen Zeitzonen umgeht, in welcher Sprache Video-
konferenzen abgehalten werden etc.33 Damit die in
Bezug auf Arbeitszeit und -ort flexiblen Arbeits-
modelle nicht dazu führen, dass sich Mitarbeiter
genötigt fühlen, rund um die Uhr zu arbeiten, ist
es außerdem zentral, dass Führungskräfte Erwar-
tungen hinsichtlich der Erreichbarkeit ihrer Mit-
arbeiter klar kommunizieren und diese auch selbst
vorleben, zB indem sie ihre Angestellten nach be-
stimmten Uhrzeiten oder am Wochenende nicht
mehr mobil kontaktieren. 34
Schließlich bleibt Führung auf Distanz auch
nicht ohne Auswirkung auf die Kriterien zur Leis-
tungsbewertung. Während das Engagement und
die Leistung von Mitarbeitern in Unternehmen mit
klassischer Präsenzkultur zu einem gewissen Grad
über die Dauer der Anwesenheit am Arbeitsplatz
approximiert werden konnten, ist dies bei flexiblen
Arbeitsmodellen nicht mehr möglich. Führungs-
kräfte müssen daher eine höhere Ergebnisori-
entierung an den Tag legen, bei der weniger die
Frage zählt, wie viel Zeit und Ressourcen investiert
wurden, als vielmehr die Frage, wie erfolgreich der
Ressourceneinsatz letztlich war.35
Auf den Punkt gebracht
Im Zeitalter der digitalen Transformation ste-
hen Unternehmen und Führungskräfte durch
technologische und gesellschaftliche Verände-
rungen vor neuen Herausforderungen. Eine
auch in Zukunft erfolgreiche Unternehmens-
führung setzt auf Seiten der Führungskräfte
zunächst eine kritische Reflexion bisheriger
Führungspraktiken und die Bereitschaft, diese
Praktiken erforderlichenfalls an die neuen An-
forderungen anzupassen, voraus.
Um Innovationen und rasche Reaktionen
an sich ständig verändernde Rahmenbedin-
gungen zu fördern, muss die Führungskraft
bürokratische Hürden abbauen und ihre Mit-
arbeiter als Visionär und Coach durch Sinn-
vermittlung inspirieren, zu eigenverantwortli-
chen Entscheidungen ermutigen und die dafür
benötigten Ressourcen zur Verfügung stellen.
Insbesondere gilt es mehr denn je, eine Lern-
kultur zu schaffen, in der Experimente geför-
dert und Fehlschläge toleriert werden.
Führungskräfte benötigen ein Grundver-
ständnis in Bezug auf die Chancen und Risi-
ken neuer digitaler Technologien und müssen
in der Lage sein, im Austausch mit anderen er-
forderliche Änderungen sowohl des Geschäfts-
modells als auch der Aufbau- und Ablaufor-
ganisation frühzeitig zu antizipieren und die
Umsetzung durch ein systematisches Change
Management zu orchestrieren. Vor allem aber
müssen Führungskräfte jene Einstellungen
und Verhaltensweisen, die sie innerhalb ihres
Teams oder Unternehmens verwirklicht sehen
wollen, in ihrem eigenen Verhalten transpor-
tieren, um die Mitarbeiter zu einem analogen
Verhalten motivieren zu können.
Anmerkungen
1 Dörr/Albo/Monastiridis, Digital Leadership – Erfolgreich
führen in der digitalen Welt, in Grote/Goyk (Hrsg), Füh-
rungsinstrumente aus dem Silicon Valley (2018) 37 (39).
2 Schmitz, Holacracy, in Ternès/Wilke (Hrsg), Agenda HR
– Digitalisierung, Arbeit 4.0, New Leadership (2018) 183
(186).
3 Hoffmeister, Digitale Geschäftsmodelle richtig einschät-
zen (2013).
4 Eggers/Hollmann, Digital Leadership – Anforderungen,
Aufgaben und Skills von Führungskräften in der „Arbeits-
welt 4.0“, in Keuper/Schomann/Sikora/Wassef (Hrsg), Dis-
ruption und Transformation Management (2018) 43 (45).
5 Schwarzmüller/Brosi/Welpe, Führung 4.0 – Wie die Digi-
talisierung Führung verändert, in Hildebrandt/Landhäu
ßer (Hrsg), CSR und Digitalisierung (2017) 617 (620).
6 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (621).
7 Franken, Führen in der Arbeitswelt der Zukunft (2016)
175 ff.
8 Haberstock, Agile Unternehmensorganisation, WISU –
Das Wirtschaftsstudium 2018, 75 (75 ff).
9 Von Bergen, Agile Organisationsentwicklung, Ideen- und
Innovationsmanagement 4/2015, 148 (150.
10 Robertson, Holacracy – Ein revolutionäres Management-
System für eine volatile Welt (2016).
11 Bittelmeyer, Argument schlägt Hierarchie, managerSemi-
nare 204/2015, 77 (77 ff).
12 Schmitz in Ternès/Wilke, Agenda HR, 183 (187 ff).
13 Wyrsch, Holokratie: evolutionäre Organisation als Er-
folgsmodell, Computerworld 2016, 40.
14 Siehe https://www.holacracy.org/constitution (Zugriff am
8. 8. 2018).
15 Schermuly, Holacracy: Die holokratische Organisation
(2017).
16 Von Bernstein/Bunch/Canner/Lee, Was ist dran am
Holokratie-Hype? Harvard Business Manager 2017, 58
(72 f); Schneider/Hoffmann, Die einfache Organisation,
zfo 6/2016, 372 (375); Haberstock, WISU 2018, 75 (80 f);
Schermuly, Holacracy (2017).
17 Prange, Strategische Steuerung der Agilität? Controlling &
Management Review 4/2018, 8 (10 f).
18 Klaffke, Neue Arbeitswelten erfolgreich einführen, chan-
gement 2017, 14 (14).
19 Klaffke, changement 2017, 14 (14).
20 Klaffke, changement 2017, 14 (15).
21 Klaffke, changement 2017, 14 (15 f).
22 Klaffke, Innovative Bürowelten – mehr als Tischkicker
und Wohlfühloase, changement 2016, 11 (13).
23 Franken, Führen in der Arbeitswelt der Zukunft, 100.
24 Leitl, Lost in Transformation, Harvard Business Manager
2016, 2 (3 ff).
25 Schmidt/Rosenberg/Eagle/Grow, Wie Google tickt (2015)
99 ff.
26 Allen/Reuter, Wie ich die Dinge geregelt kriege5 (2017).
27 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (626).
28 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (626).
29 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (622).
30 Rogers, Digitale Transformation (2017) 179 ff.
31 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (622).
32 Sprenger, Radikal digital (2018) 119 ff.
33 Frank/Hübschen, Out of Office 2 (2015) 118 ff.
34 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (624).
35 Schwarzmüller/Brosi/Welpe in Hildebrandt/Landhäußer,
CSR und Digitalisierung, 617 (623 f).
Während das Engage-
ment und die Leistung
von Mitarbeitern in
Unternehmen mit
klassischer Präsenzkul-
tur zu einem gewissen
Grad über die Dauer der
Anwesenheit am
Arbeitsplatz approxi-
miert werden konnten,
ist dies bei flexiblen
Arbeitsmodellen nicht
mehr möglich. Füh-
rungskräfte müssen
daher eine höhere
Ergebnisorientierung an
den Tag legen.
Agile Methoden und Prinzipien haben sich
in der Softwareentwicklung inzwischen
etabliert. Zahlreiche Projekte und Teams
profitieren von den daraus resultierenden
Vorteilen. Viele dieser Methoden sind je-
doch Rahmenwerke und beleuchten weder
die Details innerhalb des Rahmens noch
jene, die von außen auf ihn einwirken. Am
Beispiel Scrum wird durch den dazugehö-
rigen Scrum Guide nicht geschildert, wie
sich die geforderten, selbstorganisierten
Teams erreichen lassen. Genauso wenig
wird thematisiert, wie ein Manager mit ei-
nem solchen Team interagieren sollte und
es unterstützen kann. Daher herrscht beim
Management im Zuge eines agilen Tran-
sitionsprozesses oftmals Unsicherheit vor,
da sie sich auf der Suche nach ihrer Rolle
befinden und die bisher gängigen Führungs-
werkzeuge nicht mehr angemessen sind.
Genau hier setzt Management 3.0. von Jur-
gen Appelo an. Hierbei handelt es sich um
eine Sammlung theoretischer Wirkprinzipi-
en, die sich aus vielerlei Aspekten zusam-
mensetzt. Unter anderem aus der Komple-
xitätstheorie, Holismus und diversen agilen
Ansätzen. Ergänzt werden diese theoreti-
schen Überlegungen durch praktische Emp-
fehlungen zur Umsetzung. Dieser Artikel
stellt die Theorie hinter Management 3.0
vor und liefert konkrete Hilfestellungen zur
Umsetzung aufgrund eigener Erfahrungen.
Was ist Management 3.0?
Appelo illustriert seine Überlegungen mit
Hilfe von „Martie“, dem Management
3.0-Modell (siehe Abbildung 1).
Es besteht aus sechs verschiedenen Sichten,
die verschiedene Aspekte agilen Manage-
ments repräsentieren. Eine Erklärung der
einzelnen Sichten und welche Praktiken in
diesem Artikel behandelt werden findet sich
in Tabelle 1.
Anwendung in der Praxis
Vor den in Tabelle 1 beschriebenen Fra-
gestellungen stand unser Team, als wir
begannen, uns mit dem Thema näher aus-
einanderzusetzen. Es besteht aus einem
Manager sowie einer Mischung aus jungen
und erfahrenen Kollegen und beschäftigt
sich mit dem Einsatz agiler Methoden in
Kundenprojekten. Obwohl es bereits sehr
gut funktioniert, streben wir nach konti-
nuierlicher Verbesserung, einem der agilen
Grundgedanken. Und natürlich gab und
gibt es auch mit einer eingespielten Truppe
immer wieder Konflikte und Probleme.
Wie können wir als Team möglichst selbst-
ständig und auf Augenhöhe mit unserem
Manager agieren und welche Methoden
sind für ihn angemessen zur Führung eines
agilen Teams? Fragen wie diese waren un-
ser Antrieb, uns mit der Thematik Manage-
ment 3.0 auseinanderzusetzen.
Um alle Teammitglieder auf einen gemein-
samen Wissensstand zu bringen, musste
zunächst eine gemeinsame Wissensbasis
geschaffen werden. Das hieß für uns: Lesen
und für sich selbst verinnerlichen. Zusätz-
lich besuchten wir eine offizielle Manage-
ment 3.0-Schulung.
Die Grundliteratur zum Thema ist einer-
seits „Management 3.0“ [App11], welches
sich mit dem Modell an sich und seinen
wissenschaftlichen Grundlagen beschäftigt,
zum anderen „#Workout“ [App14], das
eine Sammlung von Praktiken darstellt, die
die theoretischen Prinzipien in die Praxis
umsetzen. Genau mit diesen Praktiken be-
schäftigten wir uns im Anschluss intensiver.
Zu Beginn in einem spielerischen Format
im Rahmen eines Workshops, um heraus-
zufinden, was uns helfen könnte.
Management 3.0:
Die Zukunft des Managements?
Agile Methoden sind oft Rahmenwerke und beschränken sich auf die Teamebene und die operative Arbeit.
Daher herrscht beim Management im Zuge eines agilen Transitionsprozesses oftmals Unsicherheit vor.
Es befindet sich auf der Suche nach seiner Rolle und die bisher gängigen Führungswerkzeuge sind für ein agiles
Umfeld nicht mehr angemessen. Genau hier setzt Management 3.0 an. Dieser Artikel stellt die Theorie dahinter
vor und liefert konkrete Hilfestellungen zur Umsetzung aufgrund eigener Erfahrungen.
Management 3.0: Die Zukunft des Managements?
50
https://management30.com/
Abb. 1: „Martie“, das Management 3.0-Modell (© J. Appelo, Creative Commons 3.0 By
[M3.0]).
Im Folgenden wird eine Praktik aus jeder der
in Tabelle 1 genannten Sichten vorgestellt,
die wir untersucht, als nützlich befunden
und mittlerweile operationalisiert haben.
Einige davon hatten wir bewusst oder unbe-
wusst bereits im Einsatz, bevor wir mit Ma-
nagement 3.0 in Kontakt kamen.
Energize People –
Kudo Box & Kudo Cards
Mitarbeitermotivation ist eine Grundvo-
raussetzung für den Unternehmenserfolg
und welcher Manager würde von sich be-
haupten, dass er seine Mitarbeiter nicht
motivieren will?
Das am meisten eingesetzte Mittel zur Mo-
tivation ist heutzutage Geld. Sei es die Be-
teiligung am Unternehmenserfolg oder ein
Bonus basierend auf der persönlichen Pro-
duktivität. Monetäre Anreize sind das Mit-
tel der Wahl. Das ist fatal. In der Wissens-
arbeit gibt es keine bewiesene Korrelation
zwischen einem Bonus und der Leistung
eines Mitarbeiters [Fle11].
Einige Studien zeigen, dass ein System, das
hohe Leistung mit hoher Belohnung hono-
riert, für rein mechanische Aufgaben funk-
tioniert. Sobald jedoch nur ein Mindestmaß
kognitiver Fähigkeiten benötigt wird, führ-
ten höhere Belohnungen zu einer schlechte-
ren Leistung (vgl. [Pin09])!
Das Problem an monetären Bonussyste-
men ist, dass sie ein extrinsischer Moti-
vator sind, das heißt, sie wollen eine Ver-
haltensänderung aufgrund einer externen
Belohnung bewirken. In der Praxis führen
sie jedoch dazu, dass Personen nur noch in
Erwartung einer Belohnung arbeiten (nicht
mehr um der Arbeit selbst willen) und sich
ihr Fokus auf deren Erreichen verschiebt.
Man muss stattdessen die intrinsische Mo-
tivation ansprechen. Diese zeichnet sich da-
durch aus, dass sie aus einer Person selbst
heraus wirkt. Man belohnt sich quasi selbst
durch seine Handlungen.
„Management 3.0“ gibt einem sechs einfa-
che Regeln (siehe Tabelle 2) an die Hand,
um Belohnungen einzusetzen, die Men-
schen intrinsisch motivieren, damit ihre
Leistung steigern und sie glücklich machen.
Um diesen Anforderungen gerecht zu wer-
den, schlägt Apello das „Kudo“-System
vor. Das Wort Kudo leitet sich aus dem
griechischen Wort „kydos“ ab, was Ehre
oder Ruhm bedeutet. Es kann auf diverse
Arten implementiert werden, basiert aber
immer auf demselben Grundprinzip: Mit-
arbeiter erhalten die Möglichkeit, sich ge-
genseitig kleine, unerwartete Zeichen der
Anerkennung zukommen zu lassen. Wir
haben das System mit Hilfe einer Kudo-Box
und Karten (siehe Abbildung 2) umgesetzt.
Die abgebildeten Karten liegen bei uns im
Teamraum aus. Jeder hat die Möglich-
keit, auf sie zuzugreifen und sie auszufül-
len. Danach werden sie in die Kudo-Box
geworfen. Einmal im Monat zu unserem
Review-Termin wird die Box geöffnet, die
darin enthaltenen Karten werden vorgele-
04/2016 51
www.objektspektrum.de
Sicht Adressierte Fragestellung Was praktizieren wir?
Energize People Wie motiviere ich Kudo Box & Kudo Cards
Menschen intrinsisch?
Empower Teams Wie schaffe ich ein Teamgefühl Identity Symbols
und ermögliche
Selbstorganisation?
Align Constraints Welche Möglichkeiten zur Delegation Boards & Poker
Lenkung eines selbst-
organisierten Teams gibt es
überhaupt?
Develop Competence Wie sollten Mitarbeiter durch Improvement Dialogues &
ihren Manager gefördert und Copilot Programs
weiterentwickelt werden?
Grow Structure Welche Organisationsstruktur Work Profiles
ist geeignet und wie kann
sie entstehen?
Improve Everything Wie lässt sich kontinuierliche Retrospektiven
Verbesserung umsetzen?
Tabelle 1: Die Sichten von Management 3.0.
Regel Hintergrund
Versprich Belohnungen nicht im Voraus Kann man das Eintreten oder den Zeitpunkt einer Belohnung nicht vorhersagen, verschiebt
man seinen Fokus nicht auf das Erreichen der Belohnung und die intrinsische Motivation
wird nicht in Mitleidenschaft gezogen.
Halte zu erwartende Belohnungen klein Für den Fall, dass sich das Erwarten einer Belohnung nicht vermeiden lässt, werden
kleine Belohnungen keine negativen Auswirkungen auf die Leistung haben.
Belohne regelmäßig Belohnungen, die diese Regeln erfüllen, steigern die intrinsische Motivation und
machen Mitarbeiter glücklich. Daher sollten sie durchaus öfter als z. B. nur einmal im Jahr
oder Monat eingesetzt werden.
Belohne öffentlich Es sollte Transparenz herrschen, was und wofür Belohnungen vergeben werden. Dies
unterstützt auch das Ziel von Belohnungen, gutes Verhalten zu honorieren und den Spaß
an der Arbeit zu steigern.
Belohne Verhalten und nicht Resultat Knüpft man Belohnungen an gute Verhaltensweisen, bestärkt man Menschen in dieser
Verhaltensweise. Knüpft man sie an Resultate, fokussieren sie sich möglicherweise auf
Betrug, um das Resultat möglichst schnell zu erreichen.
Belohne Gleichgestellte, Oftmals wissen Gleichgestellte besser, wann ihre Kollegen eine Belohnung verdienen. Das
heißt keine Untergebenen natürlich nicht, dass ein Manager nicht ebenfalls belohnen darf.
Tabelle 2: Regeln für funktionierende Belohnungen.
sen und anschließend an der Tür unseres
Raumes angebracht. Dadurch werden alle
sechs vorgestellten Kriterien für gute Beloh-
nungen erfüllt.
Der Einsatz von Kudos fand zunächst nur
innerhalb unseres Teams statt. Nach und
nach wurden auch weitere Personen, zum
Beispiel aus unserer Verwaltung oder un-
serem technischen Support, damit von uns
bedacht, und so verbreitet sich das Vertei-
len der Karten immer weiter im Unterneh-
men. Die Karten selbst sind frei verfügbar
und können selbst gedruckt oder bei Bedarf
bestellt werden [App16].
Teilweise werden solche Systeme auch mit
einer weitergehenden Belohnung verknüpft.
Kudos können dann einen bestimmten mo-
netären Wert haben oder gegen andere Din-
ge (Bücher, Urlaubstage o. Ä.) eingetauscht
werden. Wir selbst setzen dies so noch nicht
ein. Erfahrungsberichte anderer Organi-
sationen zeigen jedoch, dass das System
weiterhin gut funktioniert und es nicht zu
Missbrauch kommt, wenn die vorgestellten
Regeln weiterhin berücksichtigt werden.
Als Manager erhält man hier ein sehr einfa-
ches Instrument, Mitarbeiter zu motivieren!
Das Bewusstsein für Wertschätzung steigert
sich unseren Erfahrungen nach deutlich. Es
werden zudem Dinge gelobt und belohnt,
die man als Manager sonst gar nicht wahr-
genommen hätte. Natürlich können auch
Führungspersonen dieses Werkzeug zur
Belohnung ihrer Teammitglieder nutzen,
selbst wenn sie damit streng genommen ge-
gen Regel 6 aus Tabelle 2 (Belohne Gleich-
gestellte, keine Untergebenen) verstoßen. In
der Regel ist die Menge an Karten im Kol-
legenkreis aber ohnehin deutlich höher, dies
fällt also kaum ins Gewicht.
Empower Teams – Identity Symbols
Es ist erwiesen, dass ein Symbol einer
Gruppe für eine gemeinsame Identität und
ein gesteigertes Zugehörigkeitsgefühl sorgt.
Gleichzeitig wird jedes Individuum seine
Aktivitäten am Wohl der Gruppe und ih-
ren Zielen ausrichten. Als Manager muss es
also das Ziel sein, innerhalb von Teams und
in einer Organisation eine solche Identität
zu schaffen. Je größer die Organisation,
desto mehr unterschiedliche Gruppen und
Identitäten wird es geben. Weitere Komple-
xität ergibt sich durch die Tatsache, dass
zusätzlich noch verschiedene Hierarchien
möglich sind. Eine Identität für das Un-
ternehmen selbst, für einzelne Geschäfts-
bereiche, Abteilungen und Teams. Es hilft
an dieser Stelle ebenfalls, diese Identitäten
durch klare Symbole zu verdeutlichen.
52
Management 3.0: Die Zukunft des Managements?
Abb. 2: Kudo Door.
Abb. 3: Sammlung von möglichen Symbolen.
Ein Grundproblem bleibt aber immer:
Wenn bei einer Weltmeisterschaft mein
Geburtsland gegen das Land, in dem ich
lebe, spielt, für wen werde ich jubeln? Dies
bedeutet: Es werden immer dann Probleme
auftreten, wenn verschiedene Identitäten
im Konflikt miteinander stehen. Dies sollte
innerhalb eines Unternehmens transparent
gemacht und adressiert werden!
Leider funktionieren Symbole zur Iden-
titätsstiftung nur dann besonders gut,
wenn sie auch als solche anerkannt wer-
den. Einfach ein Logo zu bestimmen und
einer Gruppe als ihres zu verkaufen, kann
funktionieren, muss es aber nicht. Eine
Erfahrung, die auch unser Manager auf
schmerzliche Art machen musste, als sein
selbstgewähltes Logo auf eine Mischung
aus Skepsis, mangelnder Euphorie und Wi-
derstand stieß.
Doch wie kann man feststellen, ob sich ein
Logo zur Schaffung einer gemeinsamen
Identität eignet? Eine simple Empfehlung
lautet, einfach den T-Shirt-Test durchzufüh-
ren. Wenn Personen aus einer Gruppe frei-
willig und mit Freude bereit sind, das Sym-
bol der Gruppe auf einem Kleidungsstück
zu tragen, dann ist es ein gutes! Die Ideen
für ein gutes Logo und eine starke gemein-
same Identität erwachsen am besten aus der
Gruppe heraus. Dieser Prozess lässt sich lei-
der nicht erzwingen, sondern von außen nur
unterstützen. Wir sind aktuell dabei, mögli-
che Symbole zu sammeln und uns auf eines
zu einigen (siehe Abbildung 3).
Als Manager sollte man seinen Teams ge-
nau diese Zusammenhänge verdeutlichen
und sie dazu animieren, sich selbst mit ei-
nem Symbol eine Identität zu schaffen. Für
den Weg dazu gibt es leider kein Patentre-
04/2016 53
www.objektspektrum.de
zept außer der Tatsache, dass nur ein vom
Team selbst gewähltes Logo den gewünsch-
ten Effekt erzielen wird.
Align Constraints –
Delagation Boards & Poker
Selbstorganisation ist ein erstrebenswer-
tes Ziel. Sie ist dazu geeignet, Menschen
glücklicher zu machen und sie intrinsisch
zu motivieren. Doch selbst wenn man da-
von absieht und lediglich wirtschaftliche
Überlegungen eine Rolle spielen, gibt es
auch unter diesem Gesichtspunkt gute
Gründe. Sie hilft uns dabei, mit komplexen
Problemstellungen adäquat umzugehen.
Verteilte Kontrolle ist weniger anfällig für
Ausfälle und Fehler. Die oft beschworene
„Schwarmintelligenz“ funktioniert auf-
grund des einfachen Prinzips, dass viele Ge-
hirne in der Regel schlauer sind, als eines
alleine. Ein komplexes System, in dem alle
Kontrolle von einer zentralen Instanz aus-
geht, wird aufgrund von Überlastung oder
Ausfällen über kurz oder lang zusammen-
brechen [App11].
Selbstorganisation kann jedoch auch ins
Chaos führen, wenn sie nicht richtig ein-
gesetzt wird. Doch wie ermögliche ich als
Manager einen hohen Grad von Selbstor-
ganisation in meinem Team, bleibe aber
trotzdem in der Lage, im Zweifel Entschei-
dungen zu treffen? Ziel ist es, eine Situa-
tion zu schaffen, in der Kontrolle verteilt
wird, nicht eine, die außer Kontrolle gerät.
Hier gibt es zwei passende Praktiken, die
in Kombination genau dieses Problem ad-
ressieren sollen: Das Delegation Board und
Delegation Poker.
Zunächst muss ein Manager (evtl. schon
in Zusammenarbeit mit seinem Team) sich
Gedanken darüber machen, welche Ent-
scheidungen er überhaupt zu treffen hat.
Es spielt in diesem ersten Schritt noch keine
Rolle, ob er diese delegieren oder die Ent-
Abb. 4: Delegation Board (© J. Appelo, Creative Commons 3.0 By [M3.0]).
Level Name Wie fällt die Entscheidung?
1 Tell Der Manager trifft die Entscheidung alleine.
2 Sell Der Manager trifft die Entscheidung und versucht danach, das Team zu überzeugen.
3 Consult Der Manager holt sich weitere Meinungen ein und trifft dann die Entscheidung.
4 Agree Die Entscheidung wird gemeinsam getroffen.
5 Advise Das Team trifft die Entscheidung, man gibt als Manager seine Meinung ab.
6 Inquire Das Team trifft die Entscheidung und teilt diese dem Manager mit.
7 Delegate Das Team trifft die Entscheidung, ohne den Manager explizit zu informieren.
Tabelle 3: Level der Delegation.
scheidungshoheit behalten möchte. Auch
erhebt diese Sammlung noch keinen An-
spruch auf Vollständigkeit. Ziel ist es, eine
erste Übersicht zu erhalten und transparent
zu machen, welche Entscheidungen über-
haupt zu treffen sind. Unsere erste Liste ist
die Basis für ein Delegation Board (siehe
Abbildung 4).
Ausgehend von dieser Übersicht kann nun
herausgearbeitet werden, wie diese Ent-
scheidungen im Einzelfall getroffen werden
sollen. Hierfür kommt die zweite Praktik,
das Delegation Poker, zum Einsatz. Die An-
nahme ist, dass es bei jeder Entscheidung
nicht nur Schwarz und Weiß betreffend der
Entscheidungskompetenz gibt („Ich allei-
ne als Manager entscheide“ vs. „Ich gebe
die Verantwortung komplett ab“), sondern
noch diverse Grautöne dazwischen. Um
diese zu illustrieren, wurde das Kartenset
für Delegation Poker entwickelt. Auf die-
sem finden sich sieben verschiedene Level
der Delegation, die die Verantwortung je-
weils unterschiedlich verteilen und aus der
Sicht des Managers zu sehen sind (siehe
Tabelle 3).
Um seine individuellen Delegation Levels
festzulegen, erhält jede Person (Manager
+ Teammitglieder) ein Kartenset. Eine zu
treffende Entscheidung (bzw. ein Themen-
gebiet, in dem Entscheidungen getroffen
werden) wird zunächst durch den Mana-
ger vorgestellt. Eventuelle Unklarheiten
oder Rückfragen werden diskutiert. Da-
nach wählt jede Person ein Level aus dem
Kartenset aus. Dies soll verdeckt erfolgen,
damit keine gegenseitige Beeinflussung im
Vorfeld stattfindet. Gemeinsam werden
die gewählten Karten aufgedeckt. So er-
hält man ein initiales, unverfälschtes Stim-
mungsbild, welches Level jede Person für
angemessen hält.
Darauf aufbauend finden weitere Diskus-
sionen statt. Im Idealfall kann man nach
einem oder mehreren Durchgängen Kon-
sens über das passende Delegation Level
erzielen. Das letzte Wort hat allerdings der
Manager, da er die Verantwortung abgibt
und nur selbst entscheiden kann, wie viel
Delegation er zu tragen bereit ist. Aus der
entstandenen Liste an Entscheidungen und
dem jeweils zugeordneten Level wird das
Delegation Board aufgebaut. Dieses ist wie
alle agilen Artefakte im Normalfall nicht
statisch, sondern wird stetig erweitert, falls
weitere Entscheidungen hinzukommen
oder bestehende angepasst werden müssen.
Bei uns war das Themengebiet der disku-
tierten Entscheidungen breit gefächert. Ein
auf den ersten Blick triviales Thema waren
transparent zu machen, empfehlen wir aus-
drücklich!
Mit der Zeit ist es natürlich das Ziel, ein
Team weiter in Richtung Delegation zu be-
wegen. Dies ist aber auch immer eine Frage
des Reifegrades. Ein Team muss sich ein ho-
hes Verantwortungslevel in der Regel erst
verdienen. Bei uns ist zu sehen, dass wir auf
diesem Weg schon relativ weit sind, da es
weder ein Tell noch ein Sell des Managers
gibt. Dies setzt Vertrauen und die erwähnte
Reife des Teams voraus, um der übertrage-
nen Verantwortung gerecht zu werden.
Einem Manager kann dieses Werkzeug hel-
fen, Kontrolle abzugeben und sie dennoch
nicht zu verlieren. Man muss sich jedoch
bewusst sein, dass Delegation auch als In-
vestition zu sehen ist. Erwartet man von
seinen Mitarbeitern die Fähigkeit, gute Ent-
scheidungen zu treffen, muss man ihnen die
Möglichkeit einräumen, auch einmal falsch
zu liegen und aus diesen Fehlern zu lernen.
Mit der Zeit wird sich die Entscheidungs-
kompetenz dann steigern und es kann mehr
Verantwortung delegiert werden [Rot05].
Develop Competence – Improvement
Dialogues & Copilot Programs
Jahresendgespräche gehören in fast allen
Unternehmen zu den etablierten Führungs-
instrumenten. Hier geht es in aller Regel
um die Einigung auf ein neues Gehalt, die
Bewertung von durchgeführten Projekten
54
Management 3.0: Die Zukunft des Managements?
Anschaffungen aus unserem Abteilungs-
budget. Hier konnte zunächst kein Konsens
gefunden werden. Uns half es, hier weiter
herunter zu brechen. So existieren nun zwei
verschiedene Delegation Level. Für An-
schaffungen unter (Inquire) und über (A-
gree) 100 Euro. Das heißt, kleine Dinge wie
Bücher können eigenverantwortlich durch
jedes einzelne Teammitglied beschafft wer-
den, wohingegen bei größeren Investitionen
eine Abstimmung mit dem gesamten Team
nötig ist. Interessant ist, dass unser Mana-
ger bei beiden Varianten nicht die Entschei-
dungshoheit besitzt, da er im zweiten Fall
auch als gleichwertiges Mitglied gesehen
wird.
Für uns hat es sich bewährt, klar heraus
zu arbeiten und transparent zu machen, ob
eine Entscheidung zwischen einzelnen Per-
sonen nötig ist oder das Team einbezogen
werden sollte. Während des Delegation Po-
kers kann dieser Unterschied beispielsweise
durch die Position im Raum deutlich ge-
macht werden (eine Ecke steht für Team-,
eine andere für Einzelentscheidung). Um
Änderungen an den beschlossenen Leveln
vorzunehmen, ist in unserem Fall eine ge-
meinsame Entscheidung mit Team und
Manager auf Augenhöhe vorgesehen und
wie alle anderen Fälle auf dem Board ver-
merkt (siehe Abbildung 5). Ein sehr hoher
Vertrauensbeweis. Sich darüber klar zu
werden und die getroffene Entscheidung
Abb. 5: Unser Delegation Board.
und die persönliche Weiterentwicklung des
Mitarbeiters. Das große Problem an dieser
Vorgehensweise ist der fehlende Fokus und
die nicht angemessene Frequenz. Durch die
Vermischung vieler Themengebiete wird
man in der Regel keinem davon wirklich
ausreichend Zeit einräumen. Geht es um
die Weiterentwicklung des Mitarbeiters,
also die Steigerung seiner Kompetenz, ist
es nicht sinnvoll, ein solches Gespräch nur
einmal im Jahr durchzuführen. Man muss
hier – ganz im Sinne einer agilen Vorge-
hensweise – ein schnelles Feedback etablie-
ren, um entsprechend schneller zu lernen.
Wir haben in unserem Team dafür eine sehr
gut funktionierende Praxis etabliert. Unser
Unternehmen ist in Teams gegliedert, die sich
mit bestimmten Fachgebieten beschäftigen
und einen Manager besitzen. In aller Regel
sind dies die Personen, die über das meiste
Fachwissen zum Thema verfügen. Jedes Mit-
glied unseres Teams kann entsprechend sei-
ner persönlichen Wünsche (bei den meisten
hat sich ein monatlicher Rhythmus etabliert)
ein Gespräch mit unserem Manager führen.
Damit ist bereits eine wichtige Anforderung
erfüllt: Um eine Person sinnvoll in seiner
persönlichen Weiterentwicklung in einem
Themengebiet zu beraten, sollte man selbst
über ein entsprechend großes Wissen verfü-
gen. Nur so kann man mögliche Optionen
aufzeigen, Ratschläge geben und bestmög-
lich bei der Weiterentwicklung unterstützen.
Solche Charaktere werden daher oftmals
auch als Competency Leaders bezeichnet
[Pop09]. Es ist übrigens nicht zwingend
notwendig – und manchmal auch gar nicht
möglich –, dass es sich bei einer solchen Per-
son um den direkten Vorgesetzten handelt.
In großen Linienorganisationen könnte dies
allein aufgrund der Anzahl an Mitarbeitern
zu einem zeitlichen Problem werden. Das
Format dieser Gespräche ist sehr individu-
ell und richtet sich nach den Bedürfnissen
der Person zum jeweiligen Zeitpunkt. Sie
reicht bei mir zum Beispiel von der Diskus-
sion möglicher Weiterbildungen über den
Austausch von Leseempfehlungen bis hin
zu Rollenspielen zur Verdeutlichung von
Problemstellungen.
Wir gehen noch einen Schritt weiter und
halten darüber hinaus jedes Mitglied unse-
res Teams dazu an, sich einen persönlichen
Mentor zu wählen. Dieser soll bei allen
möglichen Themen mit Rat und Tat zur Sei-
te stehen. Ich habe mit meinem Mentor Ge-
spräche in einem zweiwöchigen Rhythmus
vereinbart, bei denen wir uns in einem sehr
offenen Format über Dinge unterhalten, die
uns gerade bewegen, und gleichzeitig diver-
se Mentoring- und Coaching-Techniken,
wie den „Arc of Coaching Conversation“
(eine Art Ablaufplan zur Durchführung ei-
nes Gespräches zwischen Coach und Coa-
chee), einsetzen [Adk10]. Ein gutes Ver-
trauensverhältnis ist dafür unabdingbar,
die Beziehung ist aber ein großer Gewinn
für beide Seiten. Hier stehen vor allem all-
tägliche Themen aus Kundeneinsätzen im
Mittelpunkt, zu denen eine zweite Perspek-
tive oder der Rat eines erfahrenen Kollegen
erwünscht ist. Durch diese Yedi-Padawan-
Konstellation sorgen wir automatisch für
eine bessere Wissensverteilung innerhalb
unseres Teams und eine gegenseitige Wei-
terentwicklung unserer Kompetenz.
Eine der wichtigsten Aufgaben des Ma-
nagers in einem agilen Unternehmen ist
die zielgerichtete und individuelle Weiter-
entwicklung seiner Teammitglieder. Die
Kombination der beiden vorgestellten Vor-
gehensweisen entlastet unseren Manager
einerseits und bietet ihm andererseits die
Möglichkeit, dieser Aufgabe in einer ange-
messenen Form nachzukommen.
Grow Structure - Work Profiles
Wie man als Manager die persönliche Ent-
wicklung seiner Mitarbeiter vorantreiben
und unterstützen kann, wurde bereits um-
rissen. Man muss sich darüber hinaus aller-
dings auch oft mit der Frage beschäftigen,
welche Entwicklungsstufe ein bestimmter
04/2016 55
www.objektspektrum.de
Mitarbeiter einnimmt. Dies spiegelt sich in
den meisten Unternehmen in einem Titel
wieder, der immer „senioriger“ wird und
bei uns zum Beispiel in einem „Senior Ma-
naging Consultant“ mündet. Laut Appelo
gibt es aber vier entscheidende Probleme
bei solchen, an Karrierepfaden orientierten
Titeln:
n Inflationäre Verwendung von Titeln:
Auch wenn eine Unternehmenshierar-
chie normalerweise eher wie eine Py-
ramide gebaut ist und nach oben hin
schlanker wird, finden sich unzählige
Presidents, Chiefs, Seniors, Executives
und Directors. Das Resultat sind Mitar-
beiter, die ständig nach der nächsthöhe-
ren Stufe streben und sich automatisch
mit den – aus ihrer Sicht – leistungs-
schwächsten Personen darin vergleichen.
n Einengung in ein Titelkorsett: Ein zu-
gewiesener Titel kann dazu führen,
dass man bewusst oder unbewusst von
Dritten auf die darin beschriebenen Fä-
higkeiten reduziert wird. Ob ein Senior
Softwareentwickler auch über Fähig-
keiten im Bereich Scrum oder noch wei-
ter entfernten Dingen wie dem Schrei-
ben von Fachbüchern verfügt, spiegelt
sich hier nicht wieder.
n Keine Standardisierung: Titel sind sel-
ten über Unternehmen hinweg standar-
disiert. Zum Aufgabenbereich eines Ti-
Abb. 6 Titelinflation (© J. Appelo, Creative Commons 3.0 By [M3.0])
telträgers können in zwei verschiedenen
Organisationen völlig unterschiedliche
Tätigkeiten, Rechte und Pflichten gehö-
ren.
n Vorurteile: Ein Mitglied des Vorstands
ist in der Regel männlich, die Büroassis-
tenz weiblich. Junior Consultants sind
jung und unerfahren, während ihre Se-
nior Kollegen wesentlich kompetenter
sind und viel mehr Projekterfahrung
aufweisen können. Manche dieser An-
nahmen mögen stimmen, dies ist aber
nicht zwingend und manchmal sieht die
Realität völlig anders aus, als die erste
Annahme vermuten lässt.
Die einfachste Lösungsmöglichkeit wäre
natürlich, sämtliche Titel ad acta zu legen.
Alle sind nur noch Mitarbeiter. Das funk-
tioniert eventuell bei kleinen Organisatio-
nen. Bei einer größeren Mitarbeiteranzahl
wird man jedoch eine Möglichkeit benöti-
gen, Verantwortlichkeiten gegenseitig und
nach außen zu kennzeichnen, als Person
die eigene Marke zu schärfen und Gefühl
für den persönlichen Fortschritt zu erhalten
(siehe Abbildung 6).
Um diese Ziele zu erreichen, ohne die ne-
gativen Effekte in Kauf nehmen zu müs-
sen, schlägt Appelo eine „Seperation of
concerns“ vor. Menschen bestehen nicht
nur aus ihrem Jobtitel und Projektrollen
können von Titeln abweichen. Daher wird
eine Aufteilung in die drei Bestandteile Pro-
fil – Titel – Rolle vorgeschlagen [App14].
Ein Mitarbeiter verfügt über ein bestimm-
tes Profil, das seine Fähigkeiten beschreibt.
Dieses kann durch einen Titel ergänzt wer-
den, der diese Fähigkeiten zusammenfasst
oder ihnen mehr Gewicht verleiht. Projekt-
rollen sollten dann entsprechend der Fähig-
keiten gewählt werden, um diese bestmög-
lich einzubringen oder auszubauen.
Wir versuchen diese Anforderungen zu
erfüllen, indem jeder Mitarbeiter von uns
eine Projekthistorie pflegt. Darin finden
sich die letzten Kundenprojekte ebenso
wie eine generelle Auflistung seiner Fähig-
keiten. Diese werden dann unter anderem
auch an potenzielle Kunden weitergereicht,
die sich vorab einen Eindruck über einen
Kollegen verschaffen möchten.
Um diese Beschreibung noch zu ergän-
zen, haben wir die Technik der Work Pro-
files eingesetzt. Hier versucht man, einen
selbstgewählten Titel zu entwerfen, der
die persönlichen Fähigkeiten bestmöglich
beschreibt. Am Beispiel von Jurgen Appe-
lo wäre dies „Creative Networker“. Um
Work Profiles geben einer Person die Mög-
lichkeit, sich ein Profil zu geben, das dem
Leser kontextabhängig wertvolle Informa-
tionen liefert und falsche Anreize reduzieren
kann. Als Manager sollte man sich bewusst
sein, dass hier durchaus auch „Wildwuchs“
entstehen kann und das Tragen beziehungs-
weise Nichttragen von Titeln möglicher-
weise ein sehr sensibles Thema ist. Man
muss bereit sein, diese Nachteile in Kauf zu
nehmen, um die Vorteile von wirklich aus-
sagekräftigen Titeln zu nutzen.
Improve Everything – Retrospektiven
Anpassbarkeit und die schnelle Reaktion
auf Veränderung haben in der Softwareent-
wicklung zum Vormarsch agiler Methoden
56
Management 3.0: Die Zukunft des Managements?
Literatur & Links
[Adk10] L. Adkins, Coaching agile Teams: A Companion for Scrum Masters, Agile Coaches,
and Project Managers in Transition, Addison-Wesley, 2010
[App11] J. Appelo, Management 3.0: Leading agile developers, developing agile Leaders, Ad-
dison-Wesley, 2011
[App14] J. Appelo, #Workout: Games, Tools and Practices to Engage People, Improve Work,
and Delight Clients, Happy Melly Express, 2014
[App16] J. Appelo, Management 3.0 Kudo Cards, siehe:
https://management30.com/product/kudo-cards/
[Der06] E. Derby, D. Larsen, Agile Retrospectives: Making Good Teams Great, O‘Reilly UK
Ltd, 2006
[Fle11] N. Fleming, The bonus myth: How paying for results backfires, in: The New Scientist,
4/2011
[M3.0] Management 3.0, siehe: https://management30.com/
[Nova] B. Steiner, NovaTec Blog, siehe
http://blog.novatec-gmbh.de/wie-sieht-eigentlich-eine-gute-retrospektive-aus/
[Pin09] D. H. Pink, Drive: The Surprising Truth Abouth What Motivates Us, Riverhead Books,
2009
[Pop09] M. Poppendieck, T. Poppendieck, Leading Lean Software Development: Results are
Not the Point, Addison-Wesley, 2009
[Rot05] J. Rothman, E. Derby, Behind Closed Doors: Secrets of Great Management, Raleigh,
2005
hier kreativ zu werden und Inspirationen
zu erhalten, kann man in einem Workshop
über Titel für sein Team nachdenken. Bei
uns führte dies zu sehr interessanten Er-
gebnissen. Wir zählen beispielsweise den
„Agile Visualizer“ zu unserem Team. Ein
Zeichentalent, das es schafft, komplexe Zu-
sammenhänge auf den Punkt einfach visuell
aufzubereiten und Probleme zu verdeutli-
chen. Unser „Agile Reflector“ ist ein schar-
fer Beobachter, der die Verhaltensweise
seines Gegenüber wie kein anderer spiegelt,
transparent macht und einem dadurch oft-
mals die Augen öffnet. Wir denken aktuell
darüber nach, diese zusätzlich zu unseren
offiziellen Titeln auf unseren Visitenkarten
anzubringen.
Schritt Zweck
Set the stage Teilnehmer auf die Retrospektive einstimmen,
Ziele vereinbaren und abstecken.
Gather data Informationen aus dem Betrachtungszeitraum (im Normalfall
seit letzter Retrospektive) sammeln.
Generate Insights System in die erhobenen Informationen bringen und mögliche
Lösungsansätze herausarbeiten.
Decide what to do Entscheiden, welche Maßnahmen getroffen werden.
Close the retrospective Erreichen der Zielsetzung überprüfen und Abschluss des Termins.
Tabelle 4: Schema für den Ablauf einer Retrospektive.
geführt. Aber Organisationen bestehen
nicht nur aus IT-Abteilungen oder arbeiten
eventuell auf einem völlig anderen Gebiet.
Es gibt zahlreiche Vorgehensmodelle für
Verbesserungsinitiativen wie PDCA (Plan
– Do – Check – Act), QIP (Quality Impro-
vement Paradigm) oder DMAIC (Teil von
Six Sigma), die alle sehr ähnlich strukturiert
sind. Es wird eine mögliche Verbesserung
identifiziert, erprobt und das Resultat der
Veränderung überprüft. Um genau diese
Experimente herauszuarbeiten, hat sich das
Format der Retrospektive bewährt.
Wir setzen Retrospektiven in unserem Team
im Rahmen eines iterativen Vorgehens ein.
Obwohl wir als Berater im Normalfall alle
für verschiedene Kunden arbeiten, orga-
nisieren wir unsere gemeinsamen Themen
nach Scrum. Das heißt, wir erfassen sie in
einem Backlog, planen in einem Planning
konkrete Arbeitsschritte, führen mit unse-
ren Stakeholdern Reviews durch und versu-
chen, uns im Rahmen von Retrospektiven
zu verbessern. Die Zuständigkeit für die
Durchführung der Retrospektive wechselt
dabei innerhalb des Teams, die Termine fin-
den im Monatsrhythmus statt. Für uns hat
es sich bewährt, sich beim Ablauf an dem
bekannten 5-Schritte-Schema (siehe Tabelle
4) zu orientieren [Der06].
Durch diese Leitplanken ist sichergestellt,
dass eine Retrospektive zielgerichtet ab-
läuft und wertvolle Erkenntnisse gewonnen
werden können. Weitere Hinweise zu einer
guten Retrospektive findet man auch in ei-
nem ausführlicheren Blogpost [Nova] zu
diesem Thema.
Als Manager liegt einem die kontinuierliche
Verbesserung der Arbeit eines Teams am
Herzen. Auch die hier vorgestellten Prak-
tiken können ständig auf den Prüfstand
gestellt und angepasst werden. Die perfekte
Blaupause für jeden Kontext und jedes Pro-
blem existiert nun einmal nicht. Retrospek-
tiven sind ein sehr mächtiges Werkzeug, um
genau diesen Prozess zu etablieren und für
sich und sein Team zu nutzen.
Fazit
Management 3.0 ist kein revolutionäres
Thema, aber eine sehr stimmige Kombina-
tion von Theorien und Prinzipien, die Ant-
worten auf viele offene Fragen liefert.
Zusammenfassend lässt sich sagen, dass
hier – ähnlich wie bei agilen Methoden –
viele Dinge nicht grundlegend neu sind, in
dieser Kombination aber ein sehr gut funk-
tionierendes Ganzes bilden. Nicht zuletzt
deshalb ist es in der agilen Szene derzeit in
aller Munde. Dass es Antworten auf bisher
unbeantwortete Fragen liefert, trägt sicher-
lich entscheidend zu seiner Verbreitung bei.
Die Rolle eines Managers in einem agilen
Unternehmen ändert sich massiv. Manage-
04/2016 57
www.objektspektrum.de
|| Boris Steiner
(boris.steiner@novatec-gmbh.de)
ist Berater bei der NovaTec Consulting GmbH.
Er steht Entwicklungsteams, Scrum Mastern
und Product Ownern als Coach zur Seite und
führt Scrum- und Kanban-Schulungen durch.
Dabei hilft er Organisationen, ihren persönlichen
Weg zu finden und die Vorteile der agilen Kultur
für sich zu nutzen.
Der Autor
ment 3.0 hilft dabei, diesen Paradigmen-
wechsel zu verstehen und angemessen mit
ihm umzugehen.
Hierfür liefern die Praktiken konkrete Hil-
festellung und Ideen, wie sie sich im eige-
nen Unternehmen verwenden lassen. Der
Einblick in unsere Umsetzung kann Ihnen
helfen und aufzeigen, wie Ihre ersten Schrit-
te aussehen können! ||
SCRUM AUF
EINEN BLICK
BEDIENUNGSANLEITUNG FÜR
SCRUM MEETINGS UND ROLLEN
WWW.LEAD-
INNOVATION.COM
WWW.LEAD-INNOVATION.COM
ÜBERBLICK UND BEGRIFFE
SCRUM
Scrum ist ein agiles Vorgehens- und Projektmanagement-Modell, das seinen Ursprung in der
Softwareentwicklung hat und seit Jahren Einzug in das Innovationsmanagement hält. Rollen sowie
Scrum-Prozesse unterstützen das entwicklungsbegleitende Anforderungsmanagement.
ROLLEN
Scrum kennt drei Rollen (Verantwortlichkeiten) für direkt am Prozess Beteiligte:
1. Product Owner (PO): stellt fachliche Anforderungen und priorisiert sie; User Stories, Sicht des Kunden
2. Scrum Master (SM): managt den Prozess und beseitigt Hindernisse
3. Team: entwickelt das Produkt
Zusätzlich können Stakeholder als Beobachter und Ratgeber teilnehmen, sowie Kunden, um direktes
Feedback einzuholen.
WWW.LEAD-INNOVATION.COM
ARTEFAKTE
Scrum beschreibt drei zentrale Dokumente, um die Zusammenarbeit zu strukturieren:
1. Product Backlog: Liste aller Anforderungen an ein zu erstellendes Produkt
2. Sprint Backlog: Plan für die Sprintdurchführung, das beim Planning erstellt wird
3. Product Increment: Produktfunktionalität oder Projekt-Meilenstein, die/der während eines Sprints
entwickelt wird
SPRINT
Mit "Sprint" bezeichnet Scrum den wertschöpfenden Projektprozess, bei dem das Entwicklungsteam
innerhalb eines festgelegten Zeitraums (2 bis max. 4 Wochen) Anforderungen aus dem Produkt Backlog in
ein Product Increment/einen Projekt-Meilenstein umsetzt.
SCRUM EREIGNISSE
Neben den Artefakten existieren in Scrum vier Meetings zur Projektsteuerung:
1. Sprint Planning
2. Daily Scrum
3. Sprint Review
4. Sprint-Retrospective
Grafik: Dr. Ian Mitchell (https://creativecommons.org/licenses/by-sa/4.0/legalcode)
WWW.LEAD-INNOVATION.COM
1. SPRINT PLANNING
VERANTWORTUNG
Product Owner
DAUER
Maximal 8 Stunden (bei 4 Wochen Sprint)
TEILNEHMER
Team
Scrum Master
Product Owner
Partiell beteiligte Mitarbeiter, Kunden
und Anwender (falls gewünscht)
VORAUSSETZUNG
Priorisiertes Product Backlog
Product Owner ist gut vorbereitet und kennt
die funktionalen Details.
ZIEL
Das Team erarbeitet das Arbeitspaket für den
kommenden Sprint.
Input: Product Backlog → Output: Sprint Backlog
FRAGEN
Was kann in diesem Sprint fertiggestellt werden?
Wie wird die ausgewählte Arbeit erledigt?
WWW.LEAD-INNOVATION.COM
SPRINT PLANNING - ROLLEN
SCRUM MASTER
Der Scrum Master kann vor allem bei unerfahrenen Teams moderierend eingreifen, damit sich das Team
mit dem Workload nicht übernimmt (realistisches Ziel).
TEAM
Das Team plant autonom (ohne Mitsprache des Product Owners) im Detail, wie es sein gegebenes
Versprechen einlösen kann, indem es die betreffenden Anforderungen in Aufgabenstellungen bzw. User
Stories herunter bricht und letztere zu einem Sprint Backlog konsolidiert.
Der Product Owner präsentiert dem Team die Product Backlog Items mit der höchsten Priorität und
benennt (optional) sein Sprint Goal, mit dem das Team einverstanden sein muss. Gemeinsam bestimmen
beide Seiten, welchen Teil des Product Backlogs das Team im kommenden Sprint in ein Increment/einen
Meilenstein verwandeln kann. Das Team verpflichtet sich dann auf den besprochenen Lieferumfang,
welchen es soeben selbst mitbestimmt hat.
PRODUCT OWNER
WWW.LEAD-INNOVATION.COM
2. DAILY SCRUM
VERANTWORTUNG
Team
DAUER
Täglich 15 Minuten
TEILNEHMER
Team (Jeder Mitarbeiter, der für die geplanten
User Stories Arbeitspakete liefern muss.)
Scrum Master
Product Owner
Stakeholder, wenn gewünscht (nur als
Zuhörer).
VORAUSSETZUNG
Planung hat stattgefunden
Der Sprint hat begonnen
ZIEL
Die Teammitglieder haben sich gegenseitig
über den Arbeitsstand informiert.
Die Teammitglieder wissen, wo sie sich gegen-
seitig unterstützen können.
FRAGEN
Was habe ich seit dem letzten Meeting erledigt?
Was habe ich geplant, bis zum nächsten Meeting zu
erledigen?
Was hat mich bei der Arbeit behindert (Hindernisse)?
Hindernisse wurden analysiert, Lösungen erarbeitet.
Der Product Owner weiß, wie es um die Abarbeitung
seiner User Stories steht.
WWW.LEAD-INNOVATION.COM
DAILY SCRUM - ROLLEN
SCRUM MASTER
Der Scrum Master notiert sich genannte Hindernisse und greift moderierend ein, wenn es unbedingt
erforderlich ist. Er bespricht Hindernisse mit den betroffenen Teammitgliedern nach dem Meeting (keine
Diskussion während des Meetings!)
TEAM
Die Teammitglieder beantworten nacheinander obige Fragen. Der Fokus liegt dabei auf "erledigt / "nicht
erledigt". Details werden nach dem Daily Scrum besprochen.
Der Product Owner nimmt nach Möglichkeit teil, um auf dem neuesten Stand zu bleiben und
bei Bedarf Fragen zu beantworten.
PRODUCT OWNER
DAUER
VERANTWORTUNG
WWW.LEAD-INNOVATION.COM
FRAGEN
Was wurde im letzten Sprint erledigt?
Wie müssen wir das Product Backlog aufgrund der
Ergebnisse anpassen?
ZIEL
Überarbeitetes Product Backlog
Die Chance erhöhen, das bestmögliche Produkt
zu bauen.
VORAUSSETZUNG
TEILNEHMER
Team
Scrum Master
Product Owner
Stakeholder
Management
Weitere Interessierte
Product Owner (Team ist verantwortlich für
den Ablauf)
Max. 4 Stunden (bei 4 Wochen Sprint)
3. SPRINT REVIEW
Der Sprint muss abgeschlossen sein.
Scrum Team (PO, SM, Team) muss
vollständig anwesend sein.
Abnahme der Product Increments/Meilensteine
durch den Product Owner.
TEAM
WWW.LEAD-INNOVATION.COM
Das Team zeigt dem Product Owner und anderen interessierten Personen, was es innerhalb des Sprints
erreicht hat. Wichtig: Nur fertige Produktfunktionalität soll vorgeführt werden.
STAKEHOLDER KUNDE
Feedback seitens der Stakeholder und vor allem der direkten Kunden und anderer Anwesender ist erwünscht
und fließt in die weitere Arbeit ein.
Der Scrum Master fungiert als Moderator und greift nur dann ein, wenn Fragen zu Scrum auftreten oder
etwas nicht konform abläuft.
SCRUM MASTER
SPRINT REVIEW - ROLLEN
Der Product Owner gibt Feedback und nimmt dabei immer die Rolle des Kunden ein. Auf Basis des Gezeigten
entscheidet der Product Owner, ob das Increment produktiv gesetzt wird oder weiterentwickelt werden
soll. Diese Möglichkeit hat er nach jedem Sprint. So ist gewährleistet, dass in sich abgeschlossene
funktionale Bausteine eines Gesamtsystems möglichst früh einen Nutzen und somit einen Return on
Investment erzeugen.
PRODUCT OWNER
WWW.LEAD-INNOVATION.COM
4. SPRINT RETROSPECTIVE
VERANTWORTUNG
Team
DAUER
Max. 3 Stunden (bei 4 Wochen Sprint)
TEILNEHMER
Team
Scrum Master
Alle, die das Team neben dem Scrum
Master noch dabeihaben möchte.
VORAUSSETZUNG
Das Review hat stattgefunden.
Dem gesamten Team ist die Relevanz der
Sprint Retrospective klar.
ZIEL
Kontinuierliche Verbesserung des
Projektmanagements (Maßnahmenliste)
Überarbeitung der Abnahmekriterien ("Definition
of Done“)
FRAGEN
Was ist gut/schlecht gelaufen und was waren die
Gründe dafür?
Was wollen wir verbessern?
Was können wir tun, um den nächsten Sprint
produktiver zu machen?
TEAM
WWW.LEAD-INNOVATION.COM
Das Team reflektiert offen die Zusammenarbeit der Beteiligten und überlegt sich Lösungen, um den
nächsten Sprint (noch) erfolgreicher zu gestalten.
Der Scrum Master unterstützt das Team nicht nur als Moderator, sondern auch als Mediator und
Persönlichkeitsentwickler.
SCRUM MASTER
SPRINT RETROSPECTIVE - ROLLEN
Teilnahme auf Wunsch des Teams.
PRODUCT OWNER
IHRE
ANSPRECHPARTNERIN
WWW.LEAD-
INNOVATION.COM
Tanja ESCHBERGER
Innovation Manager
eschberger@lead-innovation.com
+43 676 574 5117
Future/Rating-Advisory 8.6.2
Führung Seite 1
RT-51-2015
New Leadership – Führung in der Arbeitswelt 4.0
Stephan Grabmeier *
Inhalt
n Beschleunigung und steigende Komplexität
n Die Führungskultur muss sich verändern, weil sich die Gesell-
schaft verändert
– Individualisierung und die neue Rolle der Frau
– Mangel an Fachkräften – der demografische Wandel
– Digitale Transformation
n Anforderungen an Führungskräfte
– Zehn Anforderungen an eine moderne Führungskultur
– 5 Typen der Führungskultur
n Schein und Sein: Wunsch und Wirklichkeit moderner Führung
– Führungskultur und die Wünsche von Mitarbeitern
– Die Modernisierung der Führungskultur – Ursachen für die
schleppende Umsetzung
n Ausblick: Was ist zu tun?
Beschleunigung und steigende Komplexität
Märkte innovieren heute um ein Vielfaches schneller als noch vor
zehn Jahren. Dreimal so häufig werden Marktführer von Konkurren-
ten verdrängt. Langjährige Stabilität gibt es immer seltener; Bedingung
für langfristigen und nachhaltigen Erfolg ist heute Innovation. Unter-
nehmen, die sich beständig wandeln, weiterentwickeln und neu erfin-
den, wachsen dreimal so schnell wie andere und erzielen höhere Ge-
winne.
Die Beschleunigung der Märkte und die steigende Komplexität von
Möglichkeiten und Anforderungen fordern Führungskräfte in bisher
nicht bekannter Form: Um mit den neuen Entwicklungen Schritt zu
halten, muss sich die Führungskultur wandeln. Nur dann gelingt es
Dynamik statt
Stabilität an den
Märkten
Neue
Anforderungen
an Führungs-
kultur
8.6.2 Future/Rating-Advisory
Seite 2 Führung
Unternehmen, im Wettbewerb um die besten Produkte und Dienst-
leistungen und um die besten Mitarbeiter im Prozess der Digitalisie-
rung und in der Arbeitswelt 4.0 zu bestehen. Moderne Führungskul-
tur muss deshalb zum einen mit der Komplexität der Märkte und der
immer weiter fortschreitenden Digitalisierung umgehen können und
zum anderen in Sachen Organisationsentwicklung, Mitarbeitergewin-
nung, -bindung, -führung und -entwicklung Defizite aufholen.
Um diesen Anforderungen gerecht zu werden, reicht es nicht, kluge
Hochglanz-Image-Strategien zu entwickeln, die das Unternehmen als
innovativ und mitarbeiterfreundlich ausweisen. Die Arbeitswelt 4.0 ist
gekennzeichnet durch eine hohe Komplexität, mit der moderne Wis-
sensarbeiter umgehen müssen. Außerdem werden Arbeitsformen und
Arbeitszeiten immer flexibler – auch das führt wiederum dazu, dass
sich die Komplexität durch Koordination und Abstimmung erhöht.
Notwendig ist deshalb die nachhaltige Neuausrichtung und Anpas-
sung der gesamten Organisation und damit auch der Führungskultur.
Beides muss, um wirklich erfolgreich zu sein, Hand in Hand gehen.
Die althergebrachten Muster einer autoritativen, profit-orientierten
Führungskultur sind zu träge und schwerfällig, um mit den neuen
Entwicklungen Schritt zu halten. Daher setzt eine moderne Füh-
rungskultur auf offene und flexible (Netzwerk-) Strukturen, Vertrauen
in die Mitarbeiter, Eigenverantwortung der Mitarbeiter und deren
Vernetzung untereinander sowie mit den Kunden.
Laut einer Studie des Forums Gute Führung der Initiative Qualität
der Arbeit (INQA) unter der Leitung von Prof. Dr. Peter Kruse be-
fürworten mehr als drei Viertel der Führungskräfte einen solchen
Wandel der Führungskultur. Sie sehen ihn als unabdingbar für den
zukünftigen Erfolg ihrer Unternehmen an. Gleichzeitig jedoch sehen
sie in der Praxis große Defizite, was die Umsetzung der geforderten
Veränderungen anbelangt. Ein paradoxes Ergebnis, wenn man be-
denkt, dass es ja die Führungskräfte selbst sind, die diesen Wandel
herbeiführen müssten. Welche gesellschaftlichen Prozesse den Wan-
del der Führungskultur erfordern, welche Anforderungen sich daraus
konkret für Führungskräfte von morgen ergeben, wo die Ursachen
für die geschilderten Diskrepanzen zwischen Wunsch und Wirklich-
keit liegen und wie die Zukunft von Führungs- und Unternehmens-
kultur aussehen könnte, damit befasst sich dieser Artikel.
Flexibilisierung
von Arbeit und
Führung
Wandel der
Führungskultur
ist Erfolgs-
bedingung
Future/Rating-Advisory 8.6.2
Führung Seite 3
RT-51-2015
Die Führungskultur muss sich verändern, weil sich die Ge-
sellschaft verändert
Prof. Kruse sieht die Ergebnisse der bereits oben zitierten Studie in
einem gesamtgesellschaftlichen Zusammenhang: Führungskultur bil-
det sich nicht im luftleeren Raum, sondern ist beeinflusst von einer
Vielzahl gesellschaftlicher Prozesse, die immer dynamischer und
gleichzeitig immer komplexer stattfinden.
Laut dem HR-Report 2014/2015 von Hays sehen 78 Prozent der be-
fragten Führungskräfte aus Deutschland, Österreich und der Schweiz
die sozialen Kompetenzen als wichtigstes Handlungsfeld in Sachen
Personal- und Unternehmensführung. Kein Wunder, denn Entwick-
lungen wie
n Individualisierung und Auflösen tradierter Rollenbilder
n demografischer Wandel und
n Digitalisierung
beeinflussen die Möglichkeiten, qualifizierte Mitarbeiter zu gewinnen
und zu halten, nachhaltig.
Abb. 1 Einfluss des demografischen Wandels; Quelle: HR-Report 2014/2015 von
Hays, Schwerpunkt Führung
Führungskultur
ist Teil der
Gesellschaft
8.6.2 Future/Rating-Advisory
Seite 4 Führung
Individualisierung und die neue Rolle der Frau
Biographien sind heute nicht mehr vorgezeichnet, jeder kann – zu-
mindest theoretisch – alles werden. Für den einzelnen bedeutet das
eine Vielzahl von Möglichkeiten und nahezu unüberschaubare Kom-
plexität. Wer gut ausgebildet ist, hat die Wahl zwischen verschiedens-
ten Arbeitgebern, die um ihn buhlen. Deshalb ist es für HR wichtig
zu wissen, was Mitarbeiter wollen. Abgeschlagen auf der Wunschliste
junger Menschen sind dabei ein hoher Verdienst und Statussymbole.
Wichtig hingegen sind laut dem Leadership Report 2015 von Franz
Kühmayer (Zukunftsinstitut)
n gute Zusammenarbeit im Team (90%)
n (empfundene) Sinnhaftigkeit der Arbeit (87%)
n Vereinbarkeit von Beruf und Familie (81%)
n persönliche und berufliche Weiterentwicklung, Lernen (75%)
Vor allem die geforderte Vereinbarkeit von Beruf und Familie geht
mit der veränderten Rolle der Frau einher. Gut ausgebildete junge
Frauen wollen es zu einem großen Teil nicht mehr hinnehmen, dass
Mutterschaft und Berufstätigkeit sich ausschließen. Unternehmen se-
hen sich aufgrund des demografischen Wandels vor der Aufgabe, die
Vereinbarkeit von Beruf und Familie zu erleichtern.
Aber nicht nur Frauen, auch Männer fordern von ihren Arbeitgebern
zunehmend flexible Arbeits(zeit)modelle, um Beruf, Familie und Pri-
vatleben besser miteinander in Einklang bringen zu können. Teilzeit-
arbeit, Ergebnis- statt Anwesenheitsorientierung und mehr Eigenver-
antwortung sind Faktoren, die das ermöglichen können. Gleichzeitig
stellen solche Veränderungen die Führungskultur vor neue Aufgaben.
Mangel an Fachkräften – der demografische Wandel
Sinkende Geburtenraten in den Industriestaaten führen zur Alterung
der Gesellschaft und damit auch zur Alterung der erwerbstätigen Be-
völkerung. Gleichzeitig werden wir aber immer jünger: Fitness und
Gesundheit lassen sich heute auch bis ins hohe Alter erhalten. Die
Phase der Erwachsenwerdens verlängert sich aufgrund immer länge-
rer Ausbildungszeiten („Postadoleszenz“).
Was bedeutet das für die Führungskultur? Zum einen bedeutet es ei-
nen Mangel an qualifizierten Fachkräften und Mitarbeitern, um die
sich HR und Führungskräfte bemühen müssen. Zum anderen brau-
Vielzahl von
individuellen
Möglichkeiten
Vereinbarkeit von
Familie und Beruf
Alternde
Gesellschaft?
Qualifizierte
Fachkräfte fehlen
Future/Rating-Advisory 8.6.2
Führung Seite 5
RT-51-2015
chen die veränderten Altersstrukturen eine andere Personalpolitik:
Generationen von jungen und älteren Arbeitnehmern treffen in
Teams und Projekten aufeinander – Generationen mit teils unter-
schiedlichen Auffassungen von Arbeit und Arbeitsorganisation. Ge-
nerationenkonflikte können die Folge sein. Hier wird eine Führungs-
kultur notwendig, der es gelingt, diese Konflikte zu moderieren und
verschiedene Interessen und Auffassungen auszubalancieren. Das gilt
im Übrigen nicht nur für Generationenkonflikte, sondern auch für
andere Konflikte, die die neue Diversität der Belegschaften (Frauen
und Männer, Mitarbeiter mit und ohne Familien, Mitarbeiter unter-
schiedlicher Herkunft) zur Folge haben kann.
Eine gesunde Organisation braucht zudem gesunde Mitarbeiter. Des-
halb wird in Unternehmen das Gesundheitsmanagement immer wich-
tiger. Gerade die alternde Gesellschaft und damit die alternde Beleg-
schaft von Firmen sorgt dafür, dass Gesundheitsmanagement und der
langfristige Erhalt der Arbeits- und Beschäftigungsfähigkeit („Emplo-
yability“) zu zentralen Führungsaufgaben werden.
Digitale Transformation
Die digitale Revolution, die vor über zehn Jahren mit der Verbreitung
des Web 2.0 einherging, hat massive Auswirkung auf die Arbeitswelt
und die Führungskultur. Sie ist sowohl Ursache als auch Wirkung,
was den Wandel von Führungs- und Unternehmenskultur angeht: Di-
gitale Kommunikation unterstützt die Flexibilisierungsprozesse, die
Mitarbeiter fordern. Grundmanifeste der Managementtheorien der
letzten Jahrzehnte verändern sich in der Arbeitswelt 4.0: Wissen ist
kein Reproduktionsfaktor mehr, sondern mehr und mehr Differenzie-
rungsfaktor – und zwar von jedem einzelnen Mitarbeiter. Wissensma-
nagement in seiner Ursprungsform hat schon lange ausgedient: Wis-
sen steht nicht mehr einer bestimmten Gruppe exklusiv zur Verfü-
gung und muss verwaltet werden, sondern es wird geteilt, gemeinsam
weiterentwickelt und ergänzt. Modernen effizienten Unternehmen
muss es gelingen, kollektive Intelligenz jederzeit zu nutzen und durch
eine offene Fehlerkultur aus Fehlern zu lernen. Das alles und nicht
weniger kennzeichnet eine moderne Unternehmens- und Führungs-
kultur.
Gleichzeitig sind Vernetzung und Digitalisierung, die durch soziale
Technologien möglich werden, auch die Voraussetzung dafür, dass
sich Führungskultur weg von der Hierarchie hin zu mehr Kooperati-
Gesundheits-
management
Web 2.0
revolutioniert
Management
8.6.2 Future/Rating-Advisory
Seite 6 Führung
on und Zusammenarbeit verschiebt. Die Digitalisierung ermöglicht
eine neue Form der Arbeitsorganisation: Unabhängig von Raum und
Zeit wird die Abstimmung in Projekten und Teams durch soziale
Technologien viel einfacher, schneller und effizienter möglich. Flexib-
lere Arbeitszeiten und -modelle sind dadurch zugleich Folge und Be-
dingung.
Moderne Unternehmensführung macht sich diese offenen, netzwerk-
basierten und nicht-hierarchischen Kommunikationskanäle zu Nutze
und tritt als Ermöglicher statt als Autorität auf.
Anforderungen an Führungskräfte
Individualisierung, die veränderte Rolle der Frau, höhere Diversität
der Mitarbeiter und der demografische Wandel fordern von einer
modernen Führungskultur vor allem soziale Kompetenzen.
Abb. 2: Anforderungen an Führungskräfte; Quelle: HR-Report 2014/2015 von
Hays, Schwerpunkt Führung
Die Hays-Studie 2014/2015 zeigte, dass Mitarbeiter von ihren Vorge-
setzten erwarten, dass
Soziale
Kompetenzen im
Blickpunkt
Future/Rating-Advisory 8.6.2
Führung Seite 7
RT-51-2015
n sie eine Feedbackkultur entwickeln,
n die Belegschaft motivieren
n und Entwicklungsmöglichkeiten aufzeigen.
Viel wichtiger als Durchsetzungsstärke und Autorität sind in einer
modernen Führungskultur Kompetenzen wie Empathie und Einfüh-
lungsvermögen. Statt hierarchisch den Kurs vorzugeben sollte eine
moderne Führungskraft Spielräume und Möglichkeiten aufzeigen, die
Kompetenzen der Mitarbeiter fördern, Sinnhaftigkeit und Werte der
Arbeit vermitteln, wie diese Aussagen zeigen.
Zehn Anforderungen an eine moderne Führungskultur
Dies zeigte auch die INQA-Studie unter der Leitung von Prof. Kruse:
In 400 Tiefeninterviews, die sowohl quantitativ als auch qualitativ für
eine hohe Validität und Reliabilität der Ergebnisse sorgen, identifizier-
te die Studie zehn Anforderungen, denen sich moderne Führungs-
kräfte heute und in Zukunft stellen müssen:
1. Moderne Führungskräfte müssen Flexibilität und Diversität zulas-
sen und ermöglichen.
2. Prozess- statt Ergebnisorientierung zeichnet eine moderne Füh-
rungskultur aus: ergebnisoffene Prozesse tragen dem beschleunigten
gesellschaftlichen und wirtschaftlichen Wandel Rechnung.
3. Netzwerkstrukturen und kollektive Intelligenz sorgen dafür, dass
die neue Dynamik verarbeitet und genutzt werden kann.
4. Hierarchie hat ausgedient: In einer modernen Führungskultur wer-
den Möglichkeiten und Spielräume geschaffen statt Vorgaben ge-
macht.
5. Moderne Führungskultur ermöglicht Kooperation.
6. Persönliches Coaching trägt zur Reflexion von Kompetenzen und
Arbeitsergebnissen bei. Die intensive Begleitung der persönlichen und
beruflichen Weiterentwicklung ist sowohl für Führungskräfte als auch
für Mitarbeiter eine zentrale Aufgabe.
7. Selbstbestimmung und Wertschätzung sind die Hauptmotivation
für die Mitarbeiter.
8. Gesellschaftliche Themen, wie der Ausgleich verschiedener Inte-
ressen werden auch innerhalb von Unternehmen immer wichtiger.
Anforderungen
an moderne
Führungskultur
8.6.2 Future/Rating-Advisory
Seite 8 Führung
9. Die Führungskräfte selbst wünschen sich einen Paradigmenwechsel
in der Führungskultur.
10. Führungskultur reflektiert sich selbst und wird kontrovers disku-
tiert.
Basierend auf diesen zehn Anforderungen die sich für die Moderni-
sierung der Führungskultur stellen, identifizierte die Studie mathema-
tisch fünf Präferenztypen von Führungskultur.
5 Typen der Führungskultur
Diese fünf Typen verdeutlichen die Schwerpunktverschiebung in Sa-
chen Führungskultur – reine Profitorientierung und traditionelle Füh-
rung weichen immer mehr der kooperativen, werteorientierten und
vernetzten Führungsdynamik.
1. „Traditionell absichernde Fürsorge“ (13,50 %)
Die traditionelle Führungskultur gibt ihren Mitarbeitern Sicherheit
und ist auf die langfristige Stabilisierung des Unternehmens und der
Arbeitsplätze gerichtet. Fachkompetenz und natürliche Autorität
zeichnen eine traditionelle Führungskraft aus. Durch ihre Vorbild-
funktion gewinnt sie die Loyalität ihrer Mitarbeiter.
2. „Steuern nach Zahlen“ (29,25 %)
Die Maximierung von Profit und Rendite ist das Ziel dieser Füh-
rungskultur. Hier soll es den Führungskräften gelingen, die Mitarbei-
ter so zu organisieren, dass das Unternehmen möglichst hohe Gewin-
ne erwirtschaftet. Mittels einer ausgeklügelten Strategie, Zielema-
nagement und zahlengestütztem Controlling soll das Unternehmen
im Wettbewerb um die größten Profite nach vorne gebracht werden.
Das übergeordnete Ziel: Attraktive Renditen für die Kapitaleigner.
3. „Coaching kooperativer Teamarbeit“ (15,50 %)
Die Transparenz von Wissen und Informationen, die Reflexion dar-
über im Team und die Nutzung der daraus entstehenden unterneh-
mensinternen und -übergreifenden Synergiepotenziale sind das Er-
gebnis vernetzter und flexibler Strukturen. Ein hoher Diversitätsgrad
bringt verschiedene Perspektiven und Blickwinkel in die Entwick-
lungsprozesse – aber er fordert von den Führungskräften auch die
Fähigkeit zur Moderation von Konflikten und zur Schaffung von
Handlungsspielräumen.
Präferenztypen
von Führungs-
kultur
Future/Rating-Advisory 8.6.2
Führung Seite 9
RT-51-2015
4. „Stimulation von Netzwerkdynamik“ (24 %)
Eigeninitative und Eigenverantwortung sollen durch die Vernetzung
der Mitarbeiter untereinander gefördert werden. Hierarchie tritt als
Interaktionsmodus zwischen Führungskräften und Mitarbeitern zu-
rück. Stattdessen setzt diese Führungskultur auf Kooperation, Flexibi-
lität und Dynamik. So soll auch der Komplexität der Märkte Rech-
nung getragen werden: Denn hier gilt es, flexibel zu reagieren. Das ge-
lingt nur mit flexiblen Netzwerkstrukturen in Unternehmen und
Unternehmensführung.
5. „Solidarisches Stakeholder-Handeln“ (17,75 %)
Solidarität und der Ausgleich verschiedener Interessen werden in der
werteorientierten Führungskultur gelebt. Die Mitarbeiter werden
durch die Sinnhaftigkeit ihrer Aufgabe, Wertschätzung, Freiräume in
der täglichen Arbeit und die Möglichkeit zur Mitbestimmung moti-
viert. Das zentrale Ziel dieser Führungskultur ist der Ausgleich aller
Stakeholder-Interessen.
Schein und Sein: Wunsch und Wirklichkeit moderner Füh-
rung
Obwohl die befragten Führungskräfte die Zukunft der Führungskul-
tur in den Typen 3, 4 und 5 sahen, ordneten sie sich selbst eher noch
den Typen 1 und 2 zu. Auch für die nahe Zukunft waren sie pessimis-
tisch, was die Modernisierung der Führungskultur betraf: Kooperati-
on, Teamwork, Vernetzung und Werteorientierung definierten sie
zwar als Herausforderungen an eine moderne Führungskultur, gleich-
zeitig sahen sie sich selbst aber nicht in der Lage, zum Bewältigen die-
ser Herausforderung beizutragen und diagnostizierten eine „Fehlent-
wicklung der Führungskultur“. Ein paradoxes, ja geradezu „schizo-
phrenes“ Ergebnis, wie Thomas Sattelberger es formuliert. Mangelt es
doch nicht an Problembewusstsein, wohl aber an Kompetenz (und
möglicherweise auch Willen), Maßnahmen zu ergreifen, um diesen
persönlichen Fehlentwicklungen gegenzusteuern.
8.6.2 Future/Rating-Advisory
Seite 10 Führung
Führungskultur und die Wünsche von Mitarbeitern
Die geschilderten Ergebnisse bezüglich der Frage, wie eine moderne
Führungskultur aussehen sollte und welche Anforderungen sich künf-
tig an Führung stellen, decken sich auch mit den Ansichten der Mit-
arbeiter. Während die INQA-Studie sich auf Aussagen von Füh-
rungskräften stützt, befragte die Hays-Studie 2014/2015 Mitarbeiter
bezüglich ihrer Vorstellungen über eine gute Führungskultur.
Die Mitarbeiter stellten dabei ebenfalls Sozialkompetenzen in den
Vordergrund. Einfühlungsvermögen, Impulse zur persönlichen und
beruflichen Weiterentwicklung, individuelles Coaching, Wertschät-
zung, Sinnhaftigkeit, die Schaffung von Spielräumen innerhalb derer
eigenverantwortlich agiert werden kann und der Ausgleich von ver-
schiedenen Interessen – insgesamt ein positives Arbeitsklima, harmo-
nische und gleichzeitig anregende Arbeit in flexiblen Teams und
Netzwerken – so lässt sich die Vision einer modernen Führungskultur
sowohl auf der Mitarbeiter- als auch auf der Führungsebene zusam-
menfassend charakterisieren.
Abb. 3: Ideal, Anforderungen und Praxis von Führung. (Quelle: Initiative Neue
Qualität der Arbeit (Hrsg.) 2014: Führungskultur im Wandel.
Das Wahrwerden dieser Vision ist dabei keinesfalls nur der Schritt zu
einer „besseren“ Arbeitswelt, sondern schiere Notwendigkeit: Denn
Unternehmen müssen, wollen sie im Wettbewerb um die besten Köp-
fe und in der Komplexität der Märkte bestehen, den Forderungen ih-
rer (potenziellen) Mitarbeiter entgegenkommen. Nur so wird es ihnen
gelingen, dem erhöhten Konkurrenzdruck der schnell innovierenden
Märkte Stand zu halten. Denn eine moderne Führungskultur trägt zur
Mitarbeiterrekrutierung und zu deren langfristigen Bindung an das
(Einigkeit in
Bezug auf
moderne
Führungskultur)
Sozialkompetenz
und individuelle
Förderung
Wandel
überlebens-
wichtig
Future/Rating-Advisory 8.6.2
Führung Seite 11
RT-51-2015
Unternehmen bei. Schließlich verkörpern die Führungstypen 3, 4 und
5 genau das, was jungen Talenten wichtig ist, nämlich:
n Flexibilität
n Vereinbarkeit von Beruf und Familie
n eine positive Zusammenarbeit im Team
n Motivation durch Sinnhaftigkeit und Wertschätzung der Aufgabe.
Aber warum ist es so schwer, diesen Paradigmenwechsel auch in der
Praxis zu vollziehen? Schließlich zeigten sowohl die Hays-Studie als
auch die INQA-Studie, dass zwischen Wunsch und Wirklichkeit in
Bezug auf die Führungskultur starke Diskrepanzen bestehen – und
das, obwohl der benötigte Wandel weitgehend Konsens zu sein
scheint.
Die Modernisierung der Führungskultur – Ursachen für die schlep-
pende Umsetzung
In der Hays-Studie gaben Führungskräfte drei „Stolpersteine“ an, die
den Wandel zu einer kooperativen, werteorientierten Führungskultur
bremsten. Diese waren:
n zu wenig Zeit für Führungsaufgaben
n die Übertragung von Eigenverantwortung auf Mitarbeiter gestalte
sich schwierig
n die Umsetzung von Ergebnisorientierung statt Anwesenheitsori-
entierung sei ebenfalls schwierig
Abgesehen von „zu wenig Zeit“ geben diese Aussagen jedoch keinen
Aufschluss darüber, warum es so schwierig ist, die Führungskultur zu
reformieren. Meiner Meinung nach liegt die Ursache in den Unter-
nehmen und den Führungskräften selbst. Wie Professor Kruse fest-
stellte, ist die Führungskultur eingebunden in die Gesamtgesellschaft,
sie ist beeinflusst von verschiedenen Faktoren, die sich derzeit im
Wandel befinden. Gleichzeitig ist die Führungskultur aber teils über
Jahrzehnte gewachsen, Unternehmensstrukturen ebenfalls. Sie haben
sich stabilisiert in Strukturen, in Organisationen und in den Köpfen.
Zu denken, man könne sie von heute auf morgen umwerfen und er-
neuern, ist naiv. Doch diese Trägheit wird immer mehr zum Problem:
Denn sowohl die Gesellschaft als auch die Märkte wandeln sich im-
mer schneller und Unternehmen tun es nicht. Junge, innovative Un-
Verkrustete
Strukturen
8.6.2 Future/Rating-Advisory
Seite 12 Führung
ternehmen und Start Ups haben es leichter, diese neue Führungskul-
turen zu leben, denn ihre Strukturen sind nicht verkrustet wie in be-
reits lange bestehenden Wirtschaftszweigen und Firmen. Sie leben die
Arbeitswelt 4.0 bereits. Sie agieren von Beginn mit einem anderen
Führungsverständnis, sind mit agileren Managementmethoden ausge-
bildet und haben den Mut Regeln zu brechen. Fehler zu machen ist
kein Stigma sondern gewollte Methodik um besser zu werden und
schneller vom Markt zu lernen. Always Beta ist eine Philosophie, die
neue Geschwindigkeiten bei der Entwicklung von Produkten und
Services mit sich bringt. Open Innovation ermöglicht es vernetzt in einer
Community zu geringeren Kosten, in schnelleren Zyklen und passge-
nauer für Zielgruppen Produkte zu entwickeln. Scrum, Design Thin-
king und andere agile Methoden stellen die soziale Komponente und
den Nutzer in den Vordergrund nicht das Produkt. Diese Unterneh-
men sind daher oftmals der Motor des Wandels und gehen in Sachen
Führungskultur in großen Schritten voraus. Von Start Ups zu lernen
ist bereits ein Schlüssel zur Entwicklung von Führungskräften.
Lange bestehende, große Unternehmen müssen sich schnell auf den
Weg machen und durch Selbstreflexion, Coaching und agile Beratung
dafür sorgen, dass Werte, Wertschätzung, Kooperation und Eigen-
verantwortung Teil ihrer neuen Führungskultur werden, wenn sie wei-
terhin erfolgreich sein wollen. Wenn Produktzentrierung der Nutzer-
zentrierung weicht werden massive Umbrüche in der Kultur, in Pro-
zessen und in der Führung von Unternehmen sichtbar.
Ausblick: Unternehmensführung der Zukunft – was ist zu tun?
Der Wandel der Führungskultur ist nicht nur eingebettet in den Wan-
del der Gesellschaft. Eine Stufe darunter ist der Wandel der Füh-
rungskultur aber vor allem Teil der Unternehmenskultur: Nur wenn
die Unternehmenskultur sich ändert, kann sich auch die Führungskul-
tur ändern und umgekehrt. Offenheit, Transparenz, Vernetzung und
Flexibilität sind keine Werte, die nur in einer einzelnen Abteilung um-
gesetzt werden können, sie müssen sich durch das ganze Unterneh-
men ziehen. Diese Werte müssen vor allem in der Führungsetage ver-
ankert sein, da sie als Vorbild für die Mitarbeiter dient.
Im vernetzten Unternehmen der Zukunft („Enterprise 2.0“) ist die
Führungskraft also zum einen abhängige, zum anderen unabhängige
Variable. Sie ist sowohl Objekt als auch Subjekt des Wandels. Sie
wandelt sich selbst und treibt den Wandel voran. Konkret bedeutet
Führungskultur
und
Unternehmens-
kultur gehen
Hand in Hand
Führungskultur:
Objekt und
Subjekt des
Wandels
Future/Rating-Advisory 8.6.2
Führung Seite 13
RT-51-2015
das: Selbstreflexion, individuelle Weiterentwicklung und Weiterbil-
dung, Coaching, Mentoring-Programme und ähnliches können dazu
beitragen, die Führungskultur so weiterzuentwickeln, dass sie sowohl
den Mitarbeitern als auch dem Unternehmenserfolg dient.
Im Unternehmen der Zukunft arbeiten verschiedene Mitarbeiter ver-
netzt, in wechselnden Teams, unabhängig von Raum und Zeit mithil-
fe digitaler, meist sozialer Technologien zusammen. Die Vereinbarkeit
von Familie und Beruf wird ermöglicht durch hohe Flexibilität – so-
wohl was den Arbeitsort, als auch was die Arbeitszeit und die Aufga-
ben angeht. Ermöglicht wird das durch eine Führungskultur, die nicht
auf Hierarchie und Status setzt, sondern auf die Schaffung von Spiel-
räumen, auf individuelle Förderung, auf Ausgleich und Moderation.
Diversität wird nicht als Last, sondern als Chance begriffen. Statt
Fachkompetenzen stehen bei Führungskräften soziale Kompetenzen
verstärkt im Mittelpunkt – dazu trägt auch die veränderte Verfügbar-
keit und das neue Management von Wissen bei. Möglich wird dieser
Wandel durch permanentes Hinterfragen von Zielen, durch die Be-
gleitung von ergebnisoffenen Prozessen – nicht nur hinsichtlich der
Arbeitsergebnisse, sondern auch in Bezug auf die persönliche und
kulturelle Entwicklung von Mitarbeitern und Führung.
Das bedeutet auch, dass die Grenzen zwischen den Hierarchieebenen
zunehmend verschwinden: In modernen Organisationen gibt es kein
oben und unten im klassichen Sinne mehr. Die klassische Führung,
die sagt, wo es langgeht, wird es wohl bald so nicht mehr geben. Ziele
werden gemeinsam, in basisdemokratischen Prozessen, austariert, de-
finiert, beständig reflektiert und überarbeitet. Das gleiche gilt für das
Wissensmanagement. Flexibilität zeigt sich damit nicht nur in Ar-
beitszeit und Arbeitsort, sondern auch in den Prozessen und Struktu-
ren.
Das beinhaltet große Herausforderungen, aber auch große Chancen.
Führungskräfte von heute haben bereits eingesehen, dass sich in Sa-
chen Führungskultur etwas ändern muss. Jetzt müssen sie es auch an-
packen und ihre Unternehmen reformieren. Je eher sie beginnen, um-
so besser.
Literatur:
Hays 2014: HR-Report 2014/2015 Schwerpunkt Führung. Eine empi-
rische Studie des Instituts für Beschäftigung und Employability IBE
Hierarchie-
grenzen
verschwinden
8.6.2 Future/Rating-Advisory
Seite 14 Führung
im Auftrag von Hays für Deutschland, Österreich und Schweiz.
http://www.hays.de/aktuelles/arbeitsmarkt.cfm (Stand 7.01.2014).
Initiative Neue Qualität der Arbeit (Hrsg.) 2014: Führungskultur im
Wandel. Kulturstudie mit 400 Tiefeninterviews. Monitor.
http://www.inqa.de/DE/Lernen-Gute-
Praxis/Publikationen/fuehrungskultur-im-wandel-monitor.html
(Stand: 7.01.2014).
Kühmayer, Franz 2014: Der Leadership Report 2015.
http://www.zukunftsinstitut.de/artikel/leadership-report-2015/
(Stand: 7.01.2014)
* Stephan Grabmeier ist Gründer und Geschäftsführer der Innovation Evange-
list GmbH. Sein Team und er beraten Unternehmen zu Social Enterprise und
helfen ihnen schneller zu innovieren. Grabmeier war über vier Jahre Head of Cul-
ture Initiatives bei der Deutschen Telekom AG. Dort leitete er u.a. das Center of
Excellence Enterprise 2.0 und trieb damit die Transformation der Deutschen Te-
lekom AG zu einer Enterprise 2.0 voran. Davor war der studierte Betriebswirt
Geschäftsführer der yourcha AG und Managing Director der Master Manage-
ment Deutschland GmbH. Die ersten Stationen seiner beruflichen Karriere waren
Head of High Tech Campus bei der Cortal Consors AG und Leiter Human Re-
sources bei der HypoVereinsbank FMIS GmbH.
Er wurde im Juni 2011 als "Social Media Innovator" von der W&V gekürt
und hat in diesem Jahr mit Frank Schabel und Prof. Jutta Rump das Buch "Auf
dem Weg zur Organisation 2.0 - Mut zur Unsicherheit" herausgegeben. Anfang
2012 hat er für seine Arbeit den "Corporate Web 2.0 Award" von IIR erhalten.
Als Vorstand der Selbst-GmbH e.V. trägt er seit Jahren zur Stärkung der In-
novationskraft innerhalb der Personalbranche bei.
Stephan Grabmeier ist anerkannter Vor- und Querdenker zur Zukunft der Ar-
beit. Er ist einer der wenigen Experten weltweit der Enterprise 2.0 für einen
Weltkonzern in Linienverantwortung eingeführt und umgesetzt hat. Als Business
Angel unterstützt er junge Start Ups.
Kunden von Innovation Evangelists: u.a. VW AG, Deutsche Post DHL, Axel
Springer, Deutsche Telekom AG, Robert Bosch GmbH, Eurest GmbH, AXA
AG, Bundeswehr, Bundesagentur für u.w.
Business Angel Engagements: viasto GmbH, managerfragen.org
stephan.grabmeier@innovation-evangelists.com | +49 171 9305126 |
www.innovation-evangelists.com
http://www.stephangrabmeier.de
BIG DATA & KÜNSTLICHE
INTELLIGENZ
© ELG E-Learning-Group GmbH © ELG E-Learning-Group GmbH
Von der Digitalisierung zur Automatisierung: Wie KI und Big
Data die Anwendungen von morgen ermöglichen
Das Thema KI ist einer der Megatrends der heutigen Zeit. Gepaart mit einem ständig anwachsenden Da-
tenbestand, dem Paradigma Big Data, können in durchwegs allen Branchen neue Geschäftsmodelle und
effizientere Geschäftsprozesse etabliert werden.
© ELG E-Learning-Group GmbH
© ELG E-Learning-Group GmbH
Big Data & Künstliche Intelligenz
I
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS ............................................................................................ III
ARBEITEN MIT DIESEN UNTERLAGEN............................................................................. IV
E RKLÄRUNG DER S YMBOLE : ..................................................................................................... IV
HINWEIS ZUR VERWENDETEN S PRACHE : ..................................................................................... IV
1 BIG DATA ALS TREIBER DER HEUTIGEN KÜNSTLICHEN INTELLIGENZ ........................ 1
1.1 E INFÜHRUNG ........................................................................................................... 1
1.2 B IG D ATA ................................................................................................................ 6
1.2.1 Neue Datenquellen .......................................................................................... 8
1.2.2 Infrastruktur und neue Datenquellen............................................................... 9
1.2.3 Cloud- und Edge-Computing .......................................................................... 10
1.2.4 Internet der Dinge (IoT).................................................................................. 11
1.3 K ÜNSTLICHE INTELLIGENZ .......................................................................................... 12
1.3.1 Voraussetzungen zur Anwendung von KI ....................................................... 15
1.3.2 Stetig ansteigende Rechenleistung ................................................................ 16
1.3.3 Verbesserte Algorithmen ............................................................................... 18
1.3.4 Treiber der Künstlichen Intelligenz ................................................................. 19
1.3.5 Anforderungen von Endanwendern und Kunden ........................................... 20
2 WAS IST KÜNSTLICHE INTELLIGENZ?..................................................................... 23
2.1 K ÜNSTLICHE INTELLIGENZ: HYPE ODER A LLHEILMITTEL ? .................................................. 23
2.2 V OM W INTER DER K ÜNSTLICHEN I NTELLIGENZ BIS ZUR R ENAISSANCE ................................ 24
2.3 CHANCEN UND R ISIKEN VON K ÜNSTLICHER INTELLIGENZ ................................................. 26
2.4 HISTORISCHE E NTWICKLUNG DER K ÜNSTLICHEN INTELLIGENZ ........................................... 28
2.5 S CHLÜSSELTRENDS IN DER K ÜNSTLICHEN INTELLIGENZ .................................................... 31
3 WARUM WIRD KÜNSTLICHE INTELLIGENZ HEUTZUTAGE BENÖTIGT? .................... 38
3.1 R OHSTOFFKNAPPHEIT UND OPTIMIERTER V ERBRAUCH .................................................... 38
3.2 K LIMAWANDEL ....................................................................................................... 40
3.3 D EMOGRAFISCHE A SPEKTE ........................................................................................ 41
3.4 W IRTSCHAFTSPOLITISCHE A SPEKTE ............................................................................. 42
3.5 PERSONALISIERUNG VON D IENSTLEISTUNGS- UND PRODUKTANGEBOTEN ........................... 43
3.6 M ODERNE W ERTSCHÖPFUNGSSYSTEME UND ENTSPRECHENDE A NFORDERUNGEN ............... 43
4 METHODEN DER KÜNSTLICHEN INTELLIGENZ UND ABGRENZUNG ........................ 45
4.1 K ATEGORIEN DER K ÜNSTLICHEN INTELLIGENZ ................................................................ 47
4.1.1 Supervised Learning ....................................................................................... 48
4.1.2 Unsupervised Learning ................................................................................... 48
4.1.3 Reinforcement Learning ................................................................................. 48
4.2 A KTUELLE M ETHODEN UND M ACHINE LEARNING -S YSTEME ............................................. 50
4.2.1 Computer Vision ............................................................................................. 50
4.2.2 Anomaly Detection......................................................................................... 50
4.2.3 Natural Language Processing (NLP) ............................................................... 52
4.3 K LASSISCHE A LGORITHMEN IM B EREICH M ACHINE LEARNING .......................................... 54
4.3.1 Decision Trees ................................................................................................ 54
Big Data & Künstliche Intelligenz
II
4.3.2 Support vector machines ............................................................................... 55
4.3.3 Naïve Bayes .................................................................................................... 56
4.3.4 k-Nearest Neighbors (k-NN) ........................................................................... 57
4.3.5 k-Means ......................................................................................................... 60
4.3.6 Artificial neural networks ............................................................................... 63
4.3.7 Convolutional neural networks ...................................................................... 64
4.3.8 Recurrent neural networks............................................................................. 65
5 FALLSTUDIEN UND PRAKTISCHE ANWENDUNGEN VON KÜNSTLICHER INTELLIGENZ..
........................................................................................................................... 67
5.1 K ÜNSTLICHE INTELLIGENZ IM K ONTEXT MIT S MART HOME .............................................. 68
5.1.1 Intelligente Fernsehsteuerung ....................................................................... 69
5.1.2 Intelligentes Badezimmer .............................................................................. 70
5.1.3 Intelligentes System zur Identifizierung von Lebensmitteln ........................... 71
5.2 K ÜNSTLICHE INTELLIGENZ ZUR INTELLIGENTEN F ABRIKSTEUERUNG ..................................... 72
5.2.1 Predictive Maintenance ................................................................................. 73
5.2.2 Kollaborative Roboter .................................................................................... 74
5.2.3 Qualitätskontrolle .......................................................................................... 75
5.2.4 Herausforderungen im Bereich der intelligenten Fertigung .......................... 76
5.3 K ÜNSTLICHE INTELLIGENZ ZUR INTELLIGENTEN V ERKEHRS - UND F AHRZEUGSTEUERUNG ......... 77
5.3.1 Autonomes Fahren ......................................................................................... 77
5.3.2 Verkehrsmanagement ................................................................................... 79
5.3.3 Herausforderungen im Bereich Smart Transportation................................... 80
5.4 K ÜNSTLICHE INTELLIGENZ IM B EREICH S MART E NERGY ................................................... 81
5.4.1 Netzverwaltung.............................................................................................. 81
5.4.2 Consumer und Dienstleistungen .................................................................... 82
5.4.3 Herausforderungen im Bereich Smart Energy................................................ 82
6 KÜNSTLICHE INTELLIGENZ IN DER GESUNDHEITSBRANCHE ................................... 84
6.1 W IE K ÜNSTLICHE INTELLIGENZ DEN GESUNDHEITSBEREICH REVOLUTIONIERT ....................... 84
6.2 M EHRWERTE DURCH K ÜNSTLICHE I NTELLIGENZ ............................................................. 84
6.3 A NWENDUNGSBEISPIEL R ADIOLOGIE ........................................................................... 85
7 HERAUSFORDERUNGEN BEI DER ANWENDUNG VON KÜNSTLICHER INTELLIGENZ . 88
7.1 S OZIAL BEHAFTETE HERAUSFORDERUNGEN ................................................................... 88
7.2 D ATENBEZOGENE HERAUSFORDERUNGEN .................................................................... 90
7.3 HERAUSFORDERUNGEN FÜR A LGORITHMEN .................................................................. 93
7.4 HERAUSFORDERUNGEN HINSICHTLICH VERWENDETER INFRASTRUKTUR .............................. 97
7.5 HERAUSFORDERUNGEN BZGL. DER V ERTRAUENSWÜRDIGKEIT KI-BEZOGENER S YSTEME ......... 99
7.6 R EGULATORISCHE HERAUSFORDERUNGEN .................................................................. 100
8 LITERATURVERZEICHNIS .................................................................................... 104
Big Data & Künstliche Intelligenz
III
Abbildungsverzeichnis
A BBILDUNG 1: KI-M ARKTVOLUMEN (QUELLE : M C K INSEY 2020) ........................................................ 2
A BBILDUNG 2: WELTWEITES D ATENAUFKOMMEN (QUELLE : S TATISTA 2020) ........................................ 7
A BBILDUNG 3: INFORMATIONSWERT IN B EZUG AUF Z EIT .................................................................. 10
A BBILDUNG 4: V ENN D IAGRAMM DER K ÜNSTLICHEN I NTELLIGENZ ..................................................... 14
A BBILDUNG 5: M EILENSTEINE DER KI-E NTWICKLUNGEN .................................................................. 26
A BBILDUNG 6: GARTNER HYPE CYCLE (QUELLE : GARTNER 2019) ...................................................... 32
A BBILDUNG 7: V ERSCHIEDENE K ATEGORIEN DES M ACHINE LEARNING ................................................ 47
A BBILDUNG 8: F UNKTIONSWEISE R EINFORCEMENT LEARNING ........................................................... 49
A BBILDUNG 9: B EISPIEL D ECISION TREE ........................................................................................ 55
A BBILDUNG 10: K LASSIFIZIERUNG K-NN-A LGORITHMUS .................................................................. 58
A BBILDUNG 11: K-M EANS-ITERATIONEN ...................................................................................... 61
A BBILDUNG 12: SETZEN DER S TARTPUNKTE ................................................................................... 61
A BBILDUNG 13: KI-A PPLIKATIONEN IN DER INDUSTRIE UND W IRTSCHAFT (QUELLE : M C K INSEY 2018) ..... 68
A BBILDUNG 14: K ÜNSTLICHE INTELLIGENZ IN DER R ADIOLOGIE (QUELLE : HAUBOLD 2019) .................... 87
Big Data & Künstliche Intelligenz
IV
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wobei
an einigen Stellen Symbole und Links zu weiterführenden Erklärungen,
Übungen und Beispielen zu finden sind. An den jeweiligen Stellen klicken Sie
bitte auf das Symbol – nach Beendigung des relevanten Teils kehren Sie bitte
wieder zum Studientext zurück. Stellen Sie sicher, dass auf Ihrem Rechner
ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Wichtiger Merksatz oder Merkpunkt
Hinweis zur verwendeten Sprache:
Aus Gründen der besseren Lesbarkeit werden die Sprachformen männlich,
weiblich und divers (m/w/d) im Wechsel verwendet. Sämtliche Personenbe-
zeichnungen gelten gleichermaßen für alle Geschlechter.
Big Data & Künstliche Intelligenz
1
1 Big Data als Treiber der heutigen Künstlichen
Intelligenz
1.1 Einführung
Der Megatrend Künstliche Intelligenz (KI) hat bereits heute Einzug in sehr
viele Bereiche des täglichen Lebens und auch in Unternehmen jeder Branche
erhalten. Oftmals werden diese Anwendungsfälle nach längerer Anwendung
schon gar nicht mehr als eine „Künstliche Intelligenz“, sondern als funktio-
nierende kleine Assistenten im täglichen Leben angesehen – ohne dass der
Endnutzer dies genauer hinterfragt.
Beispiele, die bereits nicht mehr aus unserem Alltag wegzudenken sind, ha-
ben sich über die letzten Jahre im täglichen Umgang mit ihnen manifestiert.
Dazu gehören beispielsweise Navigationssysteme, Sprachassistenten oder
aber auch die automatisierte Kategorisierung von Fotos auf einem Smart-
phone. Die berühmte Aussage von John McCarthy, einem der Mitbegründer
der Künstlichen Intelligenz in den 1960er Jahren, wird oft zitiert mit dem so-
genannten Dilemma der KI:
„As soon as it works, nobody calls it AI anymore.“1
Dies suggeriert, dass wir häufig schon weitverbreitete Anwendungen nut-
zen, diese aber letztlich nicht als KI-Anwendung wahrnehmen.
Abseits von den kleinen Alltagshelfern kann Künstliche Intelligenz jedoch
auch einen großen Mehrwert innerhalb von Unternehmen, speziell inner-
halb der Ausführung von Geschäftsprozessen, liefern. Im Zuge der täglich
anwachsenden Anforderungen und von zunehmendem Kostendruck sind
Unternehmen dazu angehalten, neue Konzepte hinsichtlich der Effizienzstei-
gerung und der damit einhergehenden Automatisierung von Routinetätig-
keiten zu etablieren. Aber wie können diese Potenziale innerhalb eines Un-
ternehmens effizient erkannt, ausgeschöpft und anschließend zielgerichtet
in die operativ wichtigen Prozesse der Wertschöpfung integriert werden?
Hierzu werden im Allgemeinen neueste Technologien zur Analyse von
Schwachstellen innerhalb ihres Unternehmens, Softwareroboter zur Auto-
matisierung von Routineaufgaben sowie die automatisierte Entscheidungs-
findung auf der Basis von Künstlicher Intelligenz angewendet. Diese Aspekte
1 Vgl. https://cacm.acm.org/blogs/blog-cacm/138907-john-mccarthy/fulltext
Big Data & Künstliche Intelligenz
2
sind heutzutage Teil jeder strategischen Unternehmensausrichtung, die ge-
nerelles Wachstum und Ressourcenoptimierung verfolgt.
Gleichwohl lässt sich erkennen, dass weltweit renommierte Marktfor-
schungseinrichtungen über die letzten Jahre mehrfach den enormen Wachs-
tumsmarkt der Künstlichen Intelligenz erfassen. Dies deckt sich auch mit
dem Investitionsverhalten von Unternehmen in durchwegs allen Branchen
und Größen. Weiterhin werden natürlich auch enorme Investitionen von der
öffentlichen Hand im Kontext der Forschung im Bereich KI getätigt.
Nach Befragungen von KI-Anwendern in einer Studie von McKinsey (2020)
sollen bis ca. 2025 Umsatzpotenziale auf zwischen 3,8 und 5,8 Milliarden
USD alleine unter den befragten Unternehmen gehoben werden können.
Dies unterteilt sich in 19 verschiedene Branchen. Beispielsweise sollen im
Kontext Retail und Healthcare enorme Potenziale vorhanden sein, dicht ge-
folgt von der Transport- und Logistik-Industrie, wie in Abbildung 1 darge-
stellt ist.
Abbildung 1: KI-Marktvolumen (Quelle: McKinsey 2020)2
2 Vgl. https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-
ai-frontier-applications-and-value-of-deep-learning#:~:text=We%20esti-
mate%20that%20the%20AI,business%20functions%20in%2019%20industries.)
Big Data & Künstliche Intelligenz
3
Die Anwendung der Methoden von Künstlicher Intelligenz bedarf der Vo-
raussetzungen einer passenden Problemstellung, der ausreichend vorhan-
denen Rechenleistung und natürlich der Verfügbarkeit von Daten.
Die Daten müssen in einer adäquaten Qualität und Menge vorhanden sein,
damit ein Ansatz der Künstlichen Intelligenz richtig trainiert werden kann
und dass die Ergebnisse auch einen fachlich zufriedenstellenden Mehrwert
generieren.
Durch die ständig anwachsende Datenmenge, exponentiell ansteigende Ver-
besserungen von Rechenleistung und letztlich die Verbesserungen von KI-
Algorithmen können bisherige Methoden und Konzepte des Geschäftspro-
zessmanagements teilweise mit disruptivem Charakter verbessert werden.
Durch die hohe Nachfrage und bereits gezeigte Anwendungen birgt das in-
telligente Geschäftsprozessmanagement starke Einsatzpotenziale und wird
zunehmend Einzug in Unternehmensprozesse in durchwegs allen Branchen
halten.
Die Hälfte der weltweit verfügbaren Daten ist in den letzten zwei Jahren ent-
standen. Der Wandel, dass heutzutage wichtige Entscheidungen auf der Ba-
sis von datenbasierten Analysen getätigt werden, schreitet damit weiter vo-
ran.3
Die Informationen, die heute verfügbar sind, können bei richtiger Anwen-
dung dieser Informationen zur richtigen Zeit essenzielle Wettbewerbsvor-
teile sichern! Daten entstehen heutzutage an den verschiedensten Stellen.
Egal ob Plattformen wie Social Media, Videostreaming oder durch Mes-
sagingdienste, die Menge weltweit verfügbarer Daten wächst enorm. Aber
Daten, die gerade wichtig für Entscheider innerhalb eines Unternehmens
sind, entstehen eben nicht unbedingt nur in den sozialen Medien etc., son-
dern vor allem auch in den tagtäglichen Geschäftsabläufen von Unterneh-
men. Durch zunehmendes Wirtschaftswachstum und den Drang, wettbe-
werbsfähig zu bleiben, sind Unternehmen dazu angehalten, ihre Best Prac-
tices gegenüber der Konkurrenz zunehmend weiter auszubauen, um die je-
weilige Marktposition halten und weiter stärken zu können.
Durch dieses zunehmende Wachstum und den dadurch entstehenden Druck
auf die internen Prozesse sind Unternehmen mehr denn je dazu angehalten,
ihre Geschäftsprozesse effizient zu gestalten.
In vielen Fällen werden über die Ausgestaltung dieser Effizienzsteigerung un-
ternehmensweit Digitalisierungskampagnen gestartet. Diese tragen im We-
sentlichen dazu bei, dass neue Daten in Folge der Ausführung von digitalen
3 Vgl. https://de.statista.com/statistik/daten/studie/819487/umfrage/prognose-zum-welt-
weit-gespeicherten-datenvolumen-in-rechenzentren/
Big Data & Künstliche Intelligenz
4
Prozessen entstehen. Letztlich profitieren somit auch die Unternehmen von
einem zunehmenden Anstieg der Datenmenge, sofern sie diese für die rich-
tigen Unternehmensentscheidungen einsetzen. Dabei spielen aus einer pra-
xisbezogenen Sicht zwei wesentliche Faktoren eine entscheidende und über-
geordnete Rolle. Zum einen muss ein vorab definiertes und fachlich sinnvol-
les Ziel der Analyse definiert sein. Diese sehr einfache, doch praktisch oft
schwer umsetzbare Prämisse ist absolut entscheidend für datengetriebene
Analysen.
Wenn es um Datenauswertungen im Allgemeinen oder auch um den Big
Data Bereich geht, haben die sogenannten Data Scientists oft einige Metho-
den und Analysen in ihren Software-Werkzeugkisten. Jedoch führt eine rein
statistisch durchgeführte Analyse der Daten mit entsprechenden Werkzeu-
gen zu sogenannten Scheinkorrelationen innerhalb der analysierten Daten-
menge. Praktisch heißt dies, dass Zusammenhänge innerhalb der Daten ge-
funden werden, die aus fachlicher Sicht aber keinerlei Relevanz haben. Dies
ist eine Gefahr, die in sogenannten Analytics Projekten oft eine Sackgasse
für Data Scientists darstellt. Deshalb muss schon früh in einem solchen Pro-
zess die Fachabteilung, die anschließend von diesen Analysen profitiert, hin-
zugezogen werden. Nur so kann verhindert werden, dass die aufbereiteten
Analysen in einer Sackgasse landen und die Ergebnisse im schlimmsten Falle
nur von geringem Mehrwert sind. Speziell in diesem Fall entsteht innerhalb
solcher Projekte ein gewisser Trade-off: Zum einen müssen innerhalb der
Daten neue Erkenntnisse gefunden werden und der jeweiligen Fachabtei-
lung präsentiert werden, dies führt häufig zu den beschriebenen Scheinkor-
relationen und die Fachabteilung muss einbezogen werden. Wenn aber die
Fachabteilung die Oberhand innerhalb der Analytics-Projekte besitzt, wer-
den oft nur Erklärungen innerhalb der Daten gesucht, die aus der Hypothese
einer Fachabteilung resultieren. Dieses Dilemma lässt sich nur dahingehend
lösen, dass möglichst viele Analysen durchgeführt werden, auch mit der Ge-
fahr, dass einige Scheinkorrelationen am Ende eines Projektes verworfen
werden müssen. Diese Vorgehensweise führt dazu, dass die Fachabteilung
auch wichtige neue Erkenntnisse innerhalb ihres Datenschatzes findet.
Nachteil ist aber auch, dass diese Analysen ‒ sofern sie gänzlich manuell
durchgeführt werden ‒ sehr viel Zeit in Anspruch nehmen und somit faktisch
teuer sind.
Letztlich kann festgehalten werden, dass die Anwendung im Kontext der
Künstlichen Intelligenz nur mittels des korrekten Einsatzes und der Aufbe-
reitung von vorhandenen und künftig entstehenden Datenquellen zum
Einsatz kommt.
Big Data & Künstliche Intelligenz
5
Dabei ist darauf zu achten, dass der Einsatz der richtigen Datenquelle gegen-
über dem Einsatz einer großen Datenmenge vorzuziehen ist. Nicht jede An-
wendung der Künstlichen Intelligenz bedarf eines sehr großen Datensatzes.
Oft reicht es auch aus, eine Datenquelle gezielt zum Einsatz zu bringen. So-
mit ist es Unternehmen möglich, ihren Endkunden neue effizientere Pro-
dukte und Dienstleistungen anzubieten.
Die Zielsetzung des vorliegenden Skriptums ist daher, das Themenfeld der
Künstlichen Intelligenz zu beleuchten und deren Anwendung in Bezug auf
Prozessdigitalisierung näher zu betrachten. Insbesondere werden die Zu-
sammenhänge zwischen Daten, Rechenleistung und neuen Methoden der
Künstlichen Intelligenz diskutiert. Hierzu wird das Themenfeld in aufeinan-
der aufbauende Phasen unterteilt und die folgenden Inhalte adressiert:
• Kapitel 1 gibt eine Einführung in aktuelle Entwicklungen der Künstli-
chen Intelligenz und Big Data. Weiterhin werden verschiedene Trei-
ber aufgezeigt. Darüber hinaus lassen sich diesbezügliche Potenziale
und Herausforderungen aufzeigen.
• Die Einordnung des Themenfelds Künstliche Intelligenz in den Be-
zugsrahmen eines allgemeinen Ablaufes der historischen Entwick-
lung erfolgt in Kapitel 2. Dabei wird auch Bezug auf den aktuellen
Hype rund um das Thema Künstliche Intelligenz genommen. Darüber
hinaus werden grundsätzliche Definitionen zum Themengebiet der
Künstlichen Intelligenz gegeben. Dazu gehören im weiteren Sinne
auch technologische Grundlagen, die in diesem Zusammenhang dar-
gelegt werden.
• Kapitel 3 diskutiert, warum gerade in der heutigen Zeit Methoden
aus dem Bereich Künstliche Intelligenz benötigt werden. Zu den In-
halten gehören unter anderem Knappheit von Ressourcen, demogra-
fische Faktoren sowie wichtige Aspekte des Klimawandels oder auch
neu geartete und personalisierbare Dienstleistungen in unterschied-
lichen Branchen wie beispielsweise der Gesundheitsbranche. Durch
die Darstellung der vielseitigen Einsetzbarkeit von Künstlicher Intelli-
genz wird in diesem Kapitel eingehend auf die Wichtigkeit dieses
Themengebietes hingewiesen und herangeführt.
• Innerhalb von Kapitel 4 werden anschließend verschiedene Metho-
den der Künstlichen Intelligenz behandelt. Generell werden Metho-
den aus dem Bereich Supervised Learning, Unsupervised Learning so-
wie auch Reinforcement Learning behandelt. Zu den einzelnen be-
handelten Methoden gehören historisch weit verbreitete Ansätze
wie beispielsweise K-Means Clustering und neue Verfahren (z.B.
Deep Learning), die in unterschiedlichen Kategorien zum Einsatz
kommen. Dabei werden einschlägige Beispiele erläutert. Weiterhin
erfolgt eine Einteilung der Methoden im Kontext der Typisierung des
Big Data & Künstliche Intelligenz
6
Methodenspektrums. Dieses Kapitel bildet die Basis für die darauf-
folgenden Anwendungsfälle der Künstlichen Intelligenz.
• In Kapitel 5 werden konkrete Anwendungsfälle aus den unterschied-
lichsten Branchen und Industrien aufgezeigt und erläutert. Dabei
wird der Fokus vor allem auf konkrete Anwendungsfälle aus der Pra-
xis mit einem entsprechenden unternehmerischen oder aber auch
gesellschaftlichen Mehrwert gelegt. Ziel des Kapitels ist, ein Gespür
für unterschiedlichste Anwendungsgebiete der Künstlichen Intelli-
genz zu bekommen und die Anwendungsfälle und Lösungswege ggf.
auch auf eigene interessante Problemstellungen übertragen zu kön-
nen.
• Nachfolgend werden in Kapitel 6 speziell die Anwendungsfälle der
Künstlichen Intelligenz im Kontext der Gesundheitsbranche eruiert.
Diese bilden einen essentiellen Vorsprung gegenüber der bisherigen
Arbeitsweise in verschiedenen Bereichen dieser Branche. Dabei wer-
den nicht nur Aspekte der Effizienzsteigerung im Sinne einer Arbeits-
erleichterung oder Beschleunigung verzeichnet, sondern auch bei-
spielsweise Verbesserungen von Diagnosen durch den Einsatz von
Kollektiver Intelligenz. Dabei ist anzumerken, dass der Einsatz der
Künstlichen Intelligenz zur Verbesserung unseres Gesundheits-stan-
des einen extrem wichtigen Einfluss auf zahlreiche gesellschaftliche
Fragestellungen mit sich bringt, die in diesem Kapitel aufgezeigt und
diskutiert werden.
• Abschließend werden in Kapitel 7 ergänzende Aspekte und Heraus-
forderungen der Künstlichen Intelligenz aufgezeigt. Diese werden in
Bezug auf Infrastrukturen, Algorithmen, aber auch bspw. aus ethi-
schen Blickwinkeln in Bezug auf Künstliche Intelligenz erörtert.
1.2 Big Data
Wegen des aktuell andauernden beispiellosen Wachstums der globalen
Konnektivität und Vernetzung werden immer mehr Daten erzeugt. Alleine in
den letzten beiden Jahren sind ca. 50% des weltweiten Datenbestandes, der
in Rechenzentren gespeichert ist, entstanden.4 Zum einen lässt sich der
Trend der stetig wachsenden Datenmenge erkennen (siehe hierzu Abb. 2),
anderseits lassen sich aber auch Trends im Bereich der Methodik zur Aus-
wertung dieser Datensätze festhalten.
4 Vgl. https://de.statista.com/statistik/daten/studie/819487/umfrage/prognose-zum-welt-
weit-gespeicherten-datenvolumen-in-rechenzentren/
Big Data & Künstliche Intelligenz
7
Neue Technologien ermöglichen es, diese sehr großen Datensätze mit Hilfe
verschiedener Techniken und Architekturen zu speichern, zu verwalten
und mittels Methoden der Künstlichen Intelligenz zu analysieren.
Big Data kann für Einzelpersonen und Organisationen von großem Nutzen
sein und neue Einblicke in viele Domänen ermöglichen, wie bspw. Smart Ci-
ties, für Healthcare-Anwendungen sowie in der Prozessoptimierung durch
effizientere Ressourcennutzung und Prozessabläufe bis hin zu einem neuen
Grad der Automatisierung mittels KI.
Abbildung 2: Weltweites Datenaufkommen (Quelle: Statista 2020)5
Viele Organisationen machen sich dieses Paradigma zu eigen und sind bei
der Entscheidungsfindung, Produkt- und Dienstleistungsentwicklung sowie
bei der Interaktion mit Kunden, Mitarbeitern, Lieferanten und anderen Inte-
ressengruppen zunehmend datengesteuert. Social-Media-Plattformen sind
großartige Beispiele dafür, wie Vermarkter heute auf ihre Kunden zugehen
und den Bereich des Marketings revolutionieren.6 Große Datenmengen wer-
den gemeinhin definiert als „ein Begriff, der große Mengen an schnellen,
komplexen und variablen Daten beschreibt, die fortgeschrittene Techniken
und Technologien erfordern, um die Erfassung, Speicherung, Verteilung, Ver-
waltung und Analyse der Informationen zu ermöglichen“.7
5 https://de.statista.com/statistik/daten/studie/819487/umfrage/prognose-zum-weltweit-
gespeicherten-datenvolumen-in-rechenzentren/
6 Vgl. [15]
7 [45]
Big Data & Künstliche Intelligenz
8
Große Datenmengen und deren Handhabung können durch Volumen, Viel-
falt, Geschwindigkeit und Wahrhaftigkeit (die vier Vs) wie folgt dargestellt
werden:8
• Datenmenge (Volume) ‒ die Menge der erzeugten Daten: Diese
Menge ist aufgrund der zunehmenden Anzahl z.B. der über das „In-
ternet of Things“ verbundenen Datenquellen, ihrer höheren Auflö-
sung sowie der Datentiefe explodiert. Die Herausforderung für KI-An-
wendungen besteht darin, diese sehr große Datenmenge zu verar-
beiten, zu analysieren und zu pflegen.
• Datenvielfalt (Variety) ‒ die Heterogenität der Daten: Verursacht
durch die Vielfalt der Datenquellen. Mehrere Datenquellen beschrei-
ben ein Ereignis und liefern unterschiedliche Datenformate in struk-
turierter oder sogar unstrukturierter Form. Diese Daten sind nicht
auf Sensordaten beschränkt, sondern können z.B. auch das Experten-
wissen eines Maschinenbedieners sein. Die KI muss daher Informati-
onen aus verschiedenen Quellen mit unterschiedlichen Datentypen
nutzen.
• Geschwindigkeit (Velocity) – Geschwindigkeit: Die Geschwindigkeit,
mit der Daten erzeugt werden, die derzeit in vielen Fällen in Echtzeit
erfolgt. Für einige Anwendungen ist die Geschwindigkeit der Daten-
generierung entscheidend, da sie die Gültigkeit der Daten bedingt.
Häufig führt dies zu einem Kompromiss zwischen der Geschwindig-
keit der Datenerzeugung und ihrer Verarbeitung. Die Latenzzeit zwi-
schen Generierung und Verarbeitung ist ein wichtiger Faktor für KI-
Anwendungen.
• Datenqualität für Analysen (Veracity) ‒ wie oben beschrieben, ist ein
KI-Algorithmus nur so leistungsfähig wie die Qualität der Daten, mit
denen er gefüttert bzw. trainiert wird. Da Anwendungen, die auf Da-
ten geringerer Qualität basieren, zu falschen Vorhersagen führen
können, muss die KI das Problem der Datenqualität mildern, um wei-
terhin brauchbare Ergebnisse zu liefern.
1.2.1 Neue Datenquellen
Bei der Ausgabe einer KI-Anwendung handelt es sich um Informationen, die
aus Algorithmen extrahiert werden, die auf bereitgestellten Daten basieren.
Daher wird die Verwendung unvollständiger oder fehlerhafter Daten immer
zu schlechten Ergebnissen führen, egal wie gut der Algorithmus ist.9 Ein
wichtiger Faktor bei der Erstellung und Bewertung neuer Algorithmen ist der
8 Vgl. [39]
9 Vgl. [29]
Big Data & Künstliche Intelligenz
9
Zugriff auf Datensätze und aussagekräftige Daten, die bereits klassifiziert
wurden. Eine der wichtigsten Entwicklungen, die die Verfügbarkeit von Da-
ten vorangetrieben haben, ist das Internet. Dies hat es großen Gemeinschaf-
ten ermöglicht, bei der Erstellung von Datensätzen zusammenzuarbeiten,
auf die Forscher auf der ganzen Welt zugreifen können.
Ein anschauliches Beispiel für eine Internet-Community, die ständig Daten
zur Bildklassifizierung erstellt, klassifiziert, kennzeichnet und uploaded, ist
die ImageNet-Community. Die Erstellung und Kennzeichnung von Trainings-
daten nahm in der Vergangenheit nicht nur viel Zeit in Anspruch, sondern
war auch für große Datensätze, die für das Training neuronaler Netze benö-
tigt werden, fast unmöglich. Während ein Bilddatensatz für die Gesichtser-
kennung 1997 aus etwa 165 Instanzen bestand, besteht ein ImageNet-Da-
tensatz für Gesichter bereits aus 1.570 vollständig klassifizierten Instanzen.10
Insgesamt liefert ImageNet allein fast 15 Millionen klassifizierte Bilder, auf
die leicht zugegriffen werden kann und die zum Training und zur Bewertung
von KI-Algorithmen verwendet werden können.11
Der leichte Zugang zu einer großen Datenmenge, die zum Trainieren und
Feinabstimmen von Algorithmen verwendet werden kann, bedeutet, dass
Forscher und Praktiker der KI ihre Zeit der Verbesserung und Entwicklung
neuer Algorithmen widmen und diese dann schnell testen und validieren
können. Dies war noch vor zwei Jahrzehnten nicht möglich.
1.2.2 Infrastruktur und neue Datenquellen
Letztlich spielt der Einfluss von neuen Technologien vor allem im Kontext mit
der Basisinfrastruktur durch Cloud Computing und technische Verbesserung
von Datenbanken eine maßgebliche Rolle im Kontext von Big Data. Wichtig
ist dabei, darauf zu achten, dass in den letzten Jahrzehnten auf Seite der Da-
tenbanken ein Vorsprung hinsichtlich Performance erreicht werden konnte.
Ein neues Paradigma, das sogenannte In-Memory-Computing, verhalf Da-
tenbanken, die bisher auf klassischen Festplatten organisiert wurden, zu
neuer, bisher nie dagewesener Performance. Erst durch diese infrastruktu-
relle und datenbanktechnische Neuerung wurden neue Kalkulationen im
Sinne von Big Data ermöglicht. Festzuhalten ist auch, dass diese Kalkulatio-
nen nicht möglich gewesen wären, wenn bestehende Algorithmen nicht an
neue Infrastrukturen angepasst worden wären ‒ und somit die Anfragen und
10 Vgl. [31], [32]
11 Vgl. [33]
Big Data & Künstliche Intelligenz
10
letztlich die Ergebnisse in einer adäquaten Zeit zur Verfügung gestellt wer-
den konnten.
Dabei ist die Interpretierbarkeit von Daten ein entscheidender Faktor und
deren Verfügbarkeit der Ergebnispräsentation spielt eine sehr wichtige
Rolle. Im Rahmen der Informationstechnologie wird mit fortschreitender
Zeit eine Information immer weniger Wert. Deswegen muss sichergestellt
werden, dass neue Berechnungen in sehr kurzer Zeit einem Entscheidungs-
träger zur Verfügung gestellt werden können. In Abbildung 3 wird gezeigt,
wie sich der Wert einer Information mit zunehmender Zeit rapide verringert.
Gleichwohl ist ein Trend zu erkennen, dass heutzutage auch wichtige Infor-
mationen durch den Einsatz von Big-Data-Konzepten immer schneller ver-
fügbar sind und somit zur proaktiven Handlungsfähigkeit von Unternehmen
beitragen.
Abbildung 3: Informationswert in Bezug auf Zeit
1.2.3 Cloud- und Edge-Computing
Edge-Computing ist eine verteilte offene Plattform am Rand eines Netz-
werks nahe an den beteiligten „Dingen“ oder Datenquellen, die die Fähig-
keiten von Netzwerken, Speichern und Anwendungen integriert. Durch den
Betrieb in unmittelbarer Nähe mobiler Geräte oder Sensoren ergänzt Edge-
Computing zentralisierte Cloud-Knoten und ermöglicht Analysen und Infor-
mationserzeugung nahe am Ursprung und Verbrauch von Daten. Dies
Big Data & Künstliche Intelligenz
11
ermöglicht die Erfüllung der Schlüsselanforderungen der Industriedigitalisie-
rung in Bezug auf agile Konnektivität, Echtzeitdienste, Datenoptimierung,
Anwendungsintelligenz, Sicherheit und Schutz der Privatsphäre. Cloud- und
Edge-Computing ermöglichen den Zugang zu kosteneffizienten, skalierbaren
Computing-Ressourcen sowie zu spezialisierten Diensten. KI profitiert von
der Nutzung von Edge-Computing auf folgende Weise:
• Die Lokalisierung der Datenerfassung und -speicherung ermöglicht
die Vorverarbeitung der Daten, sodass statt der Rohdaten nur Ent-
scheidungen oder Alarme an die Cloud-Server weitergeleitet wer-
den.
• Eine schnellere und effizientere Entscheidungsfindung kann durch
die Platzierung von Algorithmen des maschinellen Lernens auf den
Edge-Geräten erreicht werden, wodurch die Häufigkeit des Kontakts
mit den Cloud-Servern und die Auswirkungen der Round-Trip-Verzö-
gerung auf die Entscheidungsfindung stetig verringert werden.
• Daten können in der Nähe ihrer Quelle durch lokales Identitätsma-
nagement und anwendungsspezifische Zugriffsrichtlinien und unter
Einhaltung lokaler Vorschriften gesichert werden.
• Die Kommunikation zwischen Edge-Computing-Knoten ermöglicht
die Verteilung von KI-Fähigkeiten und die gemeinsame Nutzung von
Intelligenz zwischen den verteilten KI-Knoten.
1.2.4 Internet der Dinge (IoT)
Das IoT konzentriert sich auf das Sammeln von Daten von Geräten, was be-
sonders für die Produktion und die Verbraucherinformation relevant ist. Die
Entwicklung des IoT in den letzten Jahrzehnten hat zu einer Ausweitung der
Rechenkapazitäten auf kleinere und intelligentere Geräte geführt.12 Basie-
rend auf dieser Entwicklung wird das IoT von ISO/IEC definiert als die „Infra-
struktur von miteinander verbundenen Objekten, Menschen, Systemen und
Informationsressourcen zusammen mit intelligenten Diensten, die es ihnen
ermöglichen, Informationen der physischen und virtuellen Welt zu verarbei-
ten und zu reagieren“.13
Es wird erwartet, dass die Zahl der weltweit installierten angeschlossenen
Geräte von über 23 Milliarden im Jahr 2018 auf etwa 75 Milliarden im Jahr
12 Vgl. [47]
13 Vgl. [41]
Big Data & Künstliche Intelligenz
12
2025 steigen wird.14 Dies veranschaulicht den Einfluss des IoT auf die Daten-
erfassung. In Zukunft wird die Datenmenge, die in KI-Anwendungen verwen-
det werden kann, weiter zunehmen und damit die Leistung von Algorithmen
verbessern.
IoT-Anwendungen ermöglichen heute die Erfassung von Leistungs- und
umweltbezogenen Daten mit Hilfe von Sensoren, die an Geräten ange-
bracht sind. Dies ermöglicht die Analyse von Daten entweder lokal oder
über Cloud-Plattformen.
In Zukunft wird das Echtzeitverhalten solcher Systeme für zeitkritische An-
wendungen wie das autonome Fahren immer wichtiger werden.15
Angesichts der großen Datenmengen, die von diesen angeschlossenen Sen-
soren erzeugt werden, wird die Rolle des KI-Computing am Rand (oder Edge-
Computing) noch wichtiger werden. Wie bereits erwähnt, ist es unpraktisch
und manchmal sogar unmöglich, alle erzeugten Daten an eine zentrale Stelle
zu übertragen, diese Daten zu analysieren und dann die notwendigen Infor-
mationen an das Gerät zurückzuschicken. Daher wird es von entscheidender
Bedeutung sein, einfache Analysen oder Entscheidungen vor Ort durchfüh-
ren zu können. Dieser Trend wird auch zu einfacheren KI-Algorithmen füh-
ren, die lokal auf Geräten laufen, die auf Edge-Computing angewiesen sind.
KI am Rand wird das IoT auf das nächste Level an Fähigkeiten bringen.
1.3 Künstliche Intelligenz
Es gibt verschiedene Möglichkeiten, Künstliche Intelligenz zu definieren. Bis
heute haben sich auch die einzelnen Fachexperten auf keine eindeutige De-
finition einigen können.
ISO/IEC Joint Technical Committee (JTC) 1 bezieht sich auf „ein interdiszipli-
näres Feld, das gewöhnlich als ein Zweig der Informatik betrachtet wird und
sich mit Modellen befasst und Systeme für die Ausübung von Funktionen, die
im Allgemeinen mit der menschlichen Intelligenz in Verbindung gebracht
werden, wie z.B. logisches Denken und Lernen“.16
Im IEC-Weißbuch zur Kantenintelligenz wird der Begriff KI verwendet, wenn
„eine Maschine kognitive Funktionen nachahmt, die Menschen mit anderen
14 Vgl. [42], [43]
15 Vgl. [44]
16 Vgl. [11]
Big Data & Künstliche Intelligenz
13
menschlichen Köpfen assoziieren, wie z.B. Mustererkennung, Lernen und
Problemlösung“.17
Mit anderen Worten: Intelligenz wird durch vier grundlegende Fähigkeiten
demonstriert: Wahrnehmen, Verstehen, Handeln und Lernen.
Begreifen hat für Maschinen heute nicht mehr dieselbe Bedeutung wie für
Menschen. Typischerweise wird ein Modell trainiert, um zu „lernen“, wie es
im Vergleich zu konventionelleren Methoden bessere Leistungen erbringen
kann. Aber KI-Systeme können noch nicht den Anspruch erheben, die Welt
um sie herum zu „begreifen“. Praktiker der KI unterscheiden oft zwischen
starker KI und schwacher KI. Starke KI (auch allgemeine KI genannt) bezieht
sich auf das eher philosophische Konzept einer Maschine, die in der Lage ist,
menschliche Intelligenz exakt nachzuahmen. Eine solche Maschine wäre in
der Lage, jedes Problem in jedem Bereich zu lösen, der fortgeschrittene kog-
nitive Fähigkeiten erfordert. Diese Art der KI ist noch nicht entwickelt wor-
den und ist nur in verschiedenen Science-Fiction-Büchern oder Filmen zu fin-
den. Im Gegensatz dazu unterstützt die schwache KI (auch schmale KI ge-
nannt) den Menschen bei der Lösung spezifischer Probleme für einen be-
stimmten Anwendungsfall. Beispielsweise beherrscht AlphaGo das Brett-
spiel Go nahezu perfekt, kann aber kein anderes Problem lösen. Spracher-
kennungswerkzeuge wie Siri stellen eine Art hybride Intelligenz dar, die ver-
schiedene schwache KIs kombiniert. Diese Tools haben die Fähigkeit, gespro-
chene Sprache zu übersetzen und Wörter mit ihren Datenbanken zu verbin-
den, um verschiedene Aufgaben zu erfüllen. Dennoch stellen solche Systeme
keine allgemeine Form der Intelligenz dar.18 Andere Begriffe sind eng mit der
KI verbunden, wie z.B. maschinelles Lernen und Tiefenlernen. Um intelli-
gente Maschinen zu schaffen, ist eine bestimmte Art von Wissen erforder-
lich. In der Vergangenheit wurde dieses Wissen direkt in die Maschinen hart-
codiert, was zu gewissen Einschränkungen und Limitierungen führte. Der An-
satz des maschinellen Lernens besteht darin, dass die Maschine ihr Wissen
selbst auf der Grundlage eines gegebenen Datensatzes aufbaut. Da das Wis-
sen heutzutage zumeist aus Daten aus der realen Welt stammt, korreliert
die Leistung der Algorithmen des maschinellen Lernens in hohem Maße mit
der verfügbaren Information, die auch als Repräsentation bezeichnet wird.
Eine Repräsentation besteht aus allen Merkmalen, die einer bestimmten
Maschine zur Verfügung stehen (z.B. Ausgabe eines Temperatur- oder
Schwingungssensors in einer vorausschauenden Instandhaltungsanwen-
dung). Die Auswahl der richtigen Darstellung ist eine komplexe und zeitauf-
wändige Aufgabe, die hochspezialisierte Domänenkenntnisse erfordert. Ein
17 [12]
18 Vgl. [13]
Big Data & Künstliche Intelligenz
14
Gebiet des maschinellen Lernens, das als Repräsentationslernen bezeichnet
wird, automatisiert diese Aufgabe, indem es aus Rohdaten die für die Merk-
malserkennung oder -klassifizierung erforderlichen Repräsentationen ermit-
telt. Dieser Methodensatz basiert auf dem Lernen von Datenrepräsentatio-
nen, im Gegensatz zu traditionelleren aufgabenspezifischen Algorithmen.19
Die Auswahl der richtigen Merkmale ist jedoch in der Regel ein sehr schwie-
riger Vorgang, da sie von verschiedenen Umweltfaktoren abhängig sind. Bei-
spielsweise werden Farben in einer dunklen Umgebung unterschiedlich
wahrgenommen, was sich dann auf die Silhouette von Objekten auswirken
kann.
Als Unterkategorie des Repräsentationslernens wandelt tiefes Lernen Merk-
male um und arbeitet Abhängigkeiten auf der Grundlage der erhaltenen In-
puts heraus. Im Beispiel eines Bildes sind die Eingabemerkmale die Pixel. Bei
einem Deep-Learning-Ansatz werden die Pixel zunächst auf die Kanten des
Bildes, dann auf die Ecken und schließlich auf die Konturen abgebildet, um
ein Objekt zu identifizieren.
Abbildung 4 zeigt, wie diese Konzepte logisch zueinander in Beziehung ste-
hen, wobei Deep Learning immer eine Art „Representation Learning“ dar-
stellt, welches in der Kaskade wiederum dem Machine Learning zugeordnet
wird und dies eine Teildisziplin von „Artificial Intelligence“ ist.
Abbildung 4: Venn Diagramm der Künstlichen Intelligenz
19 Vgl. [14]
Artificial
Intelligence
Machine
Learning
Representation
Learning
Deep Learning
Big Data & Künstliche Intelligenz
15
1.3.1 Voraussetzungen zur Anwendung von KI
Während Verbesserungen bei der Hardware, den Algorithmen und der Da-
tenverfügbarkeit die wichtigsten Voraussetzungen für die KI sind, spielt das
eingesetzt Kapital eine wesentliche Rolle, damit entsprechende Projekte
auch umgesetzt werden können. Die rasante Entwicklung, die heute zu be-
obachten ist, wäre ohne eine Verstärkung des Hypes, den Einsatz von Risi-
kokapital und staatlicher Unterstützung für Vorhaben der KI wohl nicht mög-
lich gewesen. Dies dient dazu, sowohl die Finanzierung als auch den Markt
für neue Innovationen sicherzustellen. Es gibt ein wachsendes Interesse für
die Vorteile, die die KI denjenigen bringen kann, die in der Lage sind, sie ef-
fektiv zu nutzen. Infolgedessen übernehmen Unternehmens- und Technolo-
gieführer eine viel aktivere Rolle bei der Gestaltung der Zukunft der KI und
schaffen dadurch bessere Marktbedingungen für ihre Entwicklung.
• Höheres Interesse an KI: 78% der im Jahr 2017 befragten Organisati-
onen gaben an, dass sie Pläne zur Einführung der KI in der Zukunft
hätten, wobei fast 50% angaben, dass sie die Einführung aktiv prü-
fen.20 Tatsächlich investierten Unternehmen im Jahr 2016 insgesamt
bis zu 39 Milliarden USD in KI, insbesondere in maschinelles Lernen,
das fast 60% der Investitionen anzog.21 Ein zunehmendes Interesse
an der KI-Technologie und deren Übernahme durch kleine und mitt-
lere Unternehmen (KMU) wird dieses Wachstum zweifellos noch
viele Jahre lang fördern.22 Der potenzielle Markt für KI-Anwendun-
gen ist daher riesig und wird bis 2025 ein Marktvolumen von insge-
samt 127 Milliarden USD erreichen.23
• Verfügbarkeit von privatem Kapital: Mit Unternehmen, die ihr Ge-
schäft durch KI transformieren wollen und bereit sind, den Preis da-
für zu zahlen, war die Verfügbarkeit von Kapital für KI-Unternehmer
noch nie so hoch wie heute. Die weltweiten Risikokapitalinvestitio-
nen in KI verdoppelten sich 2017 auf 12 Milliarden USD, und die Zahl
der aktiven KI-Startups hat sich seit 2000 allein in den Vereinigten
Staaten um das 14-Fache erhöht.24 Auch Technologieunternehmen
haben sich bei der Ankündigung von Milliarden-Investitionen in ihren
KI-Abteilungen gegenseitig übertroffen.
• Unterstützung durch die Regierung: Es ist zu erwarten, dass diese
Verfügbarkeit von privatem Kapital nur zunehmen wird, da die
20 Vgl. [22]
21 Vgl. [23]
22 Vgl. [24]
23 Vgl. [23]
24 Vgl. [25]
Big Data & Künstliche Intelligenz
16
Regierungen um das Wachstum ihrer heimischen KI-Industrie kon-
kurrieren. Die Europäische Union, das Vereinigte Königreich,
Deutschland, Frankreich und Kanada haben sich dazu verpflichtet,
ihre heimische KI-Industrie zu stärken, nachdem China seinen ehrgei-
zigen Plan veröffentlicht hat, die Vereinigten Staaten bis 2030 als
weltweiten Führer in der KI zu überholen.25 Obwohl das Volumen der
zugesagten Investitionen von Land zu Land sehr unterschiedlich ist,
legt die zunehmende Aufmerksamkeit der Regierung den Grundstein
für öffentlich-private Partnerschaften und die Entwicklung von KI-
Anwendungen für den öffentlichen Sektor.
Heute ist es einfacher denn je, in die Welt der KI einzusteigen. Frameworks,
Toolkits und Bibliotheken stellen den Benutzern Algorithmen und verschie-
dene Programmiersprachen zur Verfügung. Sie pflegen solche Algorithmen
auch und erleichtern die Implementierung, was eine Gemeinschaft von Ent-
wicklern und Anwendern anzieht, um gemeinsam Open-Source-Software zu
verbessern.26
Das Interesse an KI hat einen neuen Höhepunkt erreicht. Fast jede Woche
werden neue Entdeckungen und neue Anwendungen publiziert. Tools und
Anwendungsfälle, die in der Vergangenheit undenkbar waren, werden nun
mit enorm hoher Geschwindigkeit umgesetzt. Zum Beispiel hat IBM Watson
die besten Spieler in Jeopardy geschlagen, einem Spiel, das hohe Sprach-
kenntnisse sowie Kenntnisse über Rätsel und Wortspiele erfordert.27 Es
bleibt die Frage, was eine so enorme Beschleunigung des Fortschritts der KI
in den letzten Jahren ermöglicht hat. Während die Kernkonzepte und An-
sätze der KI seit Jahrzehnten existieren, haben drei Schlüsselfaktoren dazu
beigetragen, den „KI-Winter“ zu umgehen und zu den heutigen spektakulä-
ren Entwicklungen geführt:
• Erhöhte Rechenleistung
• Verfügbarkeit von Daten
• Verbesserte Algorithmen
1.3.2 Stetig ansteigende Rechenleistung
Die meisten KI-Algorithmen erfordern eine große Menge an Rechenleistung,
insbesondere in der Trainingsphase. Mehr Rechenleistung bedeutet, dass
25 Vgl. [26]
26 Vgl. [27]
27 Vgl. [28]
Big Data & Künstliche Intelligenz
17
die Algorithmen schneller getestet und trainiert und dass komplexere Prob-
leme gelöst werden können.
Daher wurde die zunehmende Verbreitung der KI durch Fortschritte in der
Hardware-Technologie (z.B. integrierte Schaltungen, Halbleiterfertigung,
Servertechnologien) erst in der heutigen Form ermöglicht.
Die Zunahme der Rechenleistung wird üblicherweise durch das
Moore’sche Gesetz dargestellt, das diese Leistung mit der Dichte der Tran-
sistoren auf einem Chip in Beziehung setzt.28
Dem Moore’schen Gesetz folgend ist die Feature-Größe von Halbleitern von
10 μm in den 1970er Jahren auf 10 nm im Jahr 2017 geschrumpft, was be-
deutet, dass eine weitaus größere Anzahl von Transistoren auf derselben
Chipgröße integriert werden kann. Nicht nur die Anzahl der Transistoren
wurde erheblich erhöht, um eine viel höhere Rechenleistung zu erzielen,
sondern auch die Hardware-Architektur wurde verbessert, um eine bessere
Leistung für KI-Anwendungen zu bieten. Beispielsweise sind Mehrkernpro-
zessoren so ausgelegt, dass sie eine erhöhte Parallelität bieten.
Neben zentralen Verarbeitungseinheiten (CPUs) werden auch andere Arten
von Verarbeitungseinheiten wie Grafikverarbeitungseinheiten (GPUs), Field
Programmable Gateway-Arrays (FPGAs) und Anwendungsspezifische Inte-
grierte Schaltungen (ASICs) für verschiedene Auslastungsmuster eingesetzt.
GPUs werden für die Bearbeitung von Bildverarbeitungsaufgaben eingesetzt
und haben sich als sehr effektiv bei der Beschleunigung von KI-Algorithmen
wie z.B. tiefen neuronalen Netzen (DNNs) oder Convolutional Neural Net-
works (CNNs) erwiesen. Integrierte Schaltungen wie FPGAs sind nach der
Herstellung so konfigurierbar, dass sie für eine Vielzahl von Anwendungen
geeignet sind und im Vergleich zu herkömmlichen CPUs eine viel höhere Ge-
schwindigkeit bieten. ASICs umfassen verschiedene Varianten wie Tensor-
Processing-Units (TPUs) und Neural-Processing-Units (NPUs). Durch die An-
passung des Schaltungsentwurfs auf der Grundlage der Datenverarbeitungs-
muster können ASICs eine noch höhere Leistung als GPUs oder FPGAs erzie-
len. So wird beispielsweise behauptet, dass TPUs eine 15- bis 30-mal höhere
Leistung und eine 30- bis 80-mal höhere Leistung pro Watt liefern als mo-
derne CPUs und GPUs.29
28 Vgl. [29]
29 Vgl. [30]
Big Data & Künstliche Intelligenz
18
1.3.3 Verbesserte Algorithmen
Die jüngsten Fortschritte in der KI haben sich in Bereich Deep Learning erge-
ben. Obwohl das Konzept bereits seit mehreren Jahrzehnten existiert, ist der
eigentliche Durchbruch erst vor kurzer Zeit erfolgt. Zwar gab es in jüngster
Zeit keine größeren Meilensteine in der Erforschung neuronaler Netzwerke,
doch die Entwicklungen sind nicht zum Stillstand gekommen. Zahlreiche Ver-
besserungen an bestehenden Techniken und die Entwicklung von neuen
Konzepten und Techniken haben zu vielen erfolgreichen Implementierungen
neuronaler Netzwerke geführt. Ein Beispiel für eine kleine Änderung bei den
Algorithmen, die es neuronalen Netzen ermöglichte, Informationen schnel-
ler und effizienter zu verarbeiten, ist die Aktivierungsfunktion der Gleichrich-
ter (ReLu).
Eine Aktivierungsfunktion ist ein wesentlicher Bestandteil jedes Neurons,
aus dem neuronale Netze bestehen. Das ReLu-Konzept wurde im Jahr 2000
von Hahnloser eingeführt.30 Es hat die Form einer Rampenfunktion und be-
steht aus zwei linearen Teilen und stellt grafisch eine sogenannte Rampe
dar. Mathematisch gesehen wird also ein Neuron erst aktiviert, wenn ein
bestimmter Schwellenwert überschritten ist.
Seine erste erfolgreiche Implementierung wurde im Jahr 2011 demonstriert,
als es zum effizienteren Training eines neuronalen Netzes eingesetzt
wurde.31 Es ersetzt eine andere Aktivierungsfunktion, die logistische oder
Sigmoid-Funktion, und beschreibt eine logarithmische Kurve, die mehr Re-
chenleistung erfordert als eine lineare Funktion. Die ReLu-Aktivierungsfunk-
tion bietet viele Vorteile im Vergleich zur Sigmoid-Aktivierungsfunktion, wie
z.B. effiziente Programmierung, Skaleninvarianz und letztlich höhere Re-
chenleistung. Sie ist besonders nützlich bei Anwendungen mit komplexen
Datensätzen, da sie ein schnelleres und effizienteres Training in tiefen Netz-
werken ermöglicht.
Ein weiteres Beispiel für ein neues Konzept, das zur Entwicklung des Deep
Learning geführt hat, sind die CNNs, die erstmals 1989 eingeführt wurden.32
Diese werden vor allem für Bilderkennungsaufgaben verwendet, damit diese
in der Lage sind, Leistungen über dem menschlichen Niveau zu erzielen.33 All
diese Entwicklungen haben es der KI-Forschung ermöglicht, in den letzten
Jahren enorme Fortschritte zu erzielen. Die gestiegene Menge an
30 Vgl. [34]
31 Vgl. [35]
32 Vgl. [36], [37]
33 Vgl. [38]
Big Data & Künstliche Intelligenz
19
verfügbaren Daten wäre nutzlos gewesen ohne die Fähigkeit, sie mit geeig-
neten Algorithmen effizient zu verarbeiten und zu analysieren. Es liegt auf
der Hand, dass Fortschritte in der KI nicht das Ergebnis eines einzelnen Trei-
bers waren, sondern vielmehr die Folge einer Kombination verschiedener
Ideen und Technologien, die sich im Laufe der Zeit immer weiter verbesser-
ten.
1.3.4 Treiber der Künstlichen Intelligenz
Die drei oben beschriebenen Schlüsselfaktoren haben dazu beigetragen,
neuen Schwung in die KI-Forschung zu bringen, was sich heute eingehend
beobachten lässt. Neben dem wahrgenommenen wirtschaftlichen Wert der
KI wurden diese Entwicklungen auch durch eine Reihe von technologischen
und sozialen Triebkräften ermöglicht, die den Einsatz der KI in einem breiten
Spektrum von Anwendungen beschleunigt haben. Sie alle stehen im Zusam-
menhang mit den digitalen Transformationstrends, die die Industrie, die Ge-
sellschaft und auch das Leben des Einzelnen in den letzten zehn Jahren
durchdrungen haben.
IT-Entwicklungen haben die Einführung von KI-Anwendungen maßgeblich
unterstützt. Moderne IT-Infrastrukturen haben reichlich Ressourcen bereit-
gestellt, einschließlich – jedoch nicht beschränkt – Cloud Computing, Big
Data und das Internet der Dinge.
Cloud Computing ist eine flexible und skalierbare Infrastruktur, die Zugriff
auf gemeinsam genutzte Ressourcenpools und übergeordnete Dienste bie-
tet, die nach Bedarf und mit minimalem Verwaltungsaufwand bereitgestellt
werden können. Da sich die Computing-Anforderungen der KI auf der Grund-
lage von Datensätzen und Algorithmen erheblich unterscheiden, können be-
stimmte Anwendungsanforderungen durch verbesserte Ressourcennutzung
und Effizienz von Cloud-Infrastrukturen erfüllt werden.
Big Data stellt die Wissenschaft und Technik der Speicherung, Verwaltung
und Analyse großer Datensätze dar, die durch Volumen, Geschwindigkeit,
Vielfalt und/oder Variabilität gekennzeichnet sind.34 Es wurden Techniken
und Architekturen vorgeschlagen, die sich mit strukturierten, halbstruktu-
rierten und unstrukturierten Daten befassen. Dazu gehören z.B. relationale
Datenbankmanagementsysteme (RDBMS), verteilte Systeme (Datenban-
ken), Graphen-Datenbanken und verschiedene Datenverarbeitungs-Frame-
works zur Verarbeitung oder Analyse dieser Daten (z.B. Hadoop). Nicht
34 Vgl. [39]
Big Data & Künstliche Intelligenz
20
zuletzt ist das IoT das Netzwerk von physischen Geräten, Fahrzeugen oder
anderen elektrischen Geräten, welches diesen Objekten ermöglicht, mitei-
nander zu kommunizieren und zu interagieren. Es stellt die Infrastruktur be-
reit, um über geografisch verteilte Sensoren Daten über den Status dieser
Geräte zu sammeln und zu erfassen. Die Geräte können über Aktoren konfi-
guriert und gesteuert werden. Die Kombination von IoT-Infrastruktur und KI-
Technologien hat zu vielen Anwendungen geführt, wie z.B. intelligente Fer-
tigung, Smart Home und Häuser und neue Anwendungsfälle im Kontext der
Mobilität wie bspw. das autonome Fahren.
Wie jede technologische Entwicklung sind diese Veränderungen mit gesell-
schaftlichen Aspekten verschmolzen, die die Akzeptanz und den verbreite-
ten Einsatz datenintensiver Werkzeuge wie Social Media gefördert haben.
Dieser Trend war ein zusätzlicher Faktor, der den umfassenden Einsatz der
KI vorantrieb und erleichterte.
1.3.5 Anforderungen von Endanwendern und Kunden
Eine weitere Triebkraft der KI ist die zunehmende Bereitschaft der Verbrau-
cher und der Gesellschaft als Ganzes, neue Technologien zu nutzen, Daten
und Informationen auszutauschen und sich Gemeinschaften anzuschließen,
um KI-Anwendungen zu verbessern.
Die als „Digital Natives“ bezeichnete Generation, die mit Computern, Smart-
phones und anderen elektronischen Geräten aufgewachsen ist, steht der
Übernahme neuer Technologien und dem Austausch persönlicher Daten be-
reits sehr aufgeschlossen gegenüber. Obwohl Datenschutzbelange jetzt
mehr Beachtung finden, haben die jüngeren Generationen datenintensive
Aktivitäten (wie Social Media) bereits zu einem Teil ihres täglichen Lebens
gemacht. In einer aktuellen Studie von Deloitte hat sich die Bereitschaft, In-
formationen mit Unternehmen zu teilen, seit 2014 verdoppelt.
Fast 80% der befragten Personen gaben an, dass sie bereit sind, ihre per-
sönlichen Daten zu teilen, wenn sie direkt davon profitieren.35 Dies ist ei-
ner der Gründe, warum Social Media ein Hauptanwendungsfeld von Künst-
licher Intelligenz ist.
Social-Media-Plattformen sind für Einzelpersonen, Organisationen und Un-
ternehmen rasch zu beliebten und effizienten Möglichkeiten der gemeinsa-
men Nutzung, Kommunikation, Vernetzung und Zusammenarbeit
35 Vgl. [46]
Big Data & Künstliche Intelligenz
21
geworden. Sie ermöglichen Unternehmen das Erschaffen eines gesteigerten
Markenbewusstsein, verbessern Kundenanalysen und eröffnen auch neue
Vertriebskanäle. Darüber hinaus werden Journalisten, Wissenschaftler, Ge-
schäftsinhaber und die breite Öffentlichkeit, die früher isoliert voneinander
lebten und arbeiteten, immer stärker miteinander vernetzt. Soziale Medien
ermöglichen unmittelbare Verbindungen, die früher vielleicht über die kon-
ventionelle Reichweite hinaus in Betracht gezogen wurden.36
Aber die KI wird nicht nur eingesetzt, um Erkenntnisse über die Verbraucher
zu gewinnen, sondern sie ist bereits Teil der täglichen Routine der Men-
schen. Internet-Suchmaschinen verwenden bereits seit mehreren Jahren KI.
Sowohl Google als auch Baidu haben hochleistungsfähige Algorithmen ent-
wickelt, die die Genauigkeit von Suchanfragen verbessern.37 Andere Anwen-
dungen finden sich in einer Vielzahl von Sektoren. Betrug kann durch Algo-
rithmen des maschinellen Lernens zur Sicherung von Bankkonten aufge-
deckt werden.38
E-Mail-Konten werden durch Algorithmen, die Spams automatisch filtern,
sauberer gehalten.39 Facebook verwendet beispielsweise Gesichtserken-
nung, um Nutzer mit neuen hochgeladenen Bildern zu vergleichen.40 Pinte-
rest identifiziert automatisch bestimmte Objekte in Bildern und ordnet diese
bestimmten existierenden Kategorien zu.41 Somit kann sichergestellt wer-
den, dass Nutzer, die eine bestimmte Kategorie abonniert haben, fortlau-
fend mit neuen Informationen mit Bildinhalten und letztlich auch Links zu
entsprechenden Verkaufsportalen versorgt werden.
Twitter und Instagram haben Maschinen zur Analyse der Nutzerstimmung
entwickelt.42 Snapchat verfolgt Gesichtsbewegungen und ermöglicht dyna-
mische Überlagerungen.43 Viele andere Beispiele aus dem Alltag könnten ge-
nannt werden. Während die menschliche Interaktion mit einer KI in diesen
Fällen eher passiv ist, werden auch Anstrengungen unternommen, um die KI
viel proaktiver und interaktiver mit Menschen zu gestalten. Siri, Alexa,
Google Now oder Cortana können mit der Verarbeitung natürlicher Sprache
(NLP) umgehen und sich wie persönliche Assistenten bei der Beantwortung
36 Vgl. [15]
37 Vgl. [47]
38 Vgl. [48]
39 Vgl. [49]
40 Vgl. [50]
41 Vgl. [51]
42 Vgl. [52]
43 Vgl. [53]
Big Data & Künstliche Intelligenz
22
von Fragen jeglicher Art verhalten.44 Weitere Entwicklungen dieser Art wer-
den in der Zukunft sicherlich folgen.
44 Vgl. [54]
Big Data & Künstliche Intelligenz
23
2 Was ist Künstliche Intelligenz?
2.1 Künstliche Intelligenz: Hype oder Allheilmittel?
Künstliche Intelligenz (KI) ist heute eine der gehyptesten Technologien. Seit
dem Aufkommen der ersten Computer werden zunehmend mathematische
Modelle eingesetzt, um den Menschen bei einer immer größeren Zahl von
Entscheidungsprozessen zu unterstützen.
Ob diese im Personalbereich eingesetzt werden, um zu bestimmen, wer für
eine Stelle geeignet ist, oder im Bankensektor, um Genehmigungen für einen
Kredit-Empfänger zu erteilen, Maschinen haben sich in diesen Bereichen
manifestiert. Aufgaben, die bisher dem menschlichen Urteilsvermögen und
der Rechtsprechung vorbehalten waren, werden heutzutage fortlaufend au-
tomatisiert.
Mit der Digitalisierung vieler Industriezweige, durch die große Datensätze
verfügbar wurden, rückte die KI erneut in den Mittelpunkt des Interesses
aufgrund ihres Potenzials zur Lösung einer immer größeren Zahl von Prob-
lemen.
Die Techniken des maschinellen Lernens wurden immer leistungsfähiger und
ausgefeilter, insbesondere im Zusammenhang mit den sogenannten künstli-
chen neuronalen Netzen (KNNs). Neuronale Netze, die Mitte des 20. Jahr-
hunderts als ein von der Biologie inspiriertes mathematisches Modell entwi-
ckelt wurden, sind zu einem der Eckpfeiler der KI geworden. Doch erst ab
2010 ebneten dramatische Verbesserungen beim maschinellen Lernen, all-
gemein als Deep Learning bezeichnet, den Weg für eine Explosion der KI. Mit
stetig steigender Rechenleistung begannen sehr große („tiefe“) neuronale
Netze, Maschinen mit neuartigen Fähigkeiten auszustatten, die mit traditio-
nellen Programmiertechniken zu komplex oder sogar unmöglich zu imple-
mentieren gewesen wären. Seitdem haben sich Technologien wie Computer
Vision und Natural Language Processing (NLP) völlig verändert und werden
in großem Maßstab in vielen verschiedenen Produkten und Dienstleistungen
eingesetzt. Deep Learning wird heute in einer Vielzahl von Branchen wie der
Fertigung, dem Gesundheitswesen oder dem Finanzwesen angewandt, um
neue Muster aufzudecken, Vorhersagen zu treffen und eine Vielzahl von
Schlüsselentscheidungen zu steuern. Wie beeindruckend diese jüngsten Ent-
wicklungen auch gewesen sein mögen, die KI ist auch heute noch sehr auf-
gabenorientiert und konzentriert sich auf klar definierte Anwendungen der
Mustererkennung. Während die aktuelle Forschung dynamisch daran arbei-
tet, Maschinen mit menschenähnlichen Fähigkeiten wie Kontextbewusst-
sein oder Einfühlungsvermögen auszustatten, ist die Erreichung dieses Ziels
Big Data & Künstliche Intelligenz
24
nach Ansicht vieler KI-Wissenschaftler auch in Zukunft noch weit entfernt.
Trotz der heutigen Einschränkungen hat die KI bereits einen tiefgreifenden
Einfluss auf die Gesellschaft, die Unternehmen und den Einzelnen und es
wird erwartet, dass sie einen wachsenden Einfluss darauf ausüben wird, wie
Menschen leben, arbeiten und miteinander interagieren. Wie bei allen gro-
ßen technologischen Veränderungen wird die KI gleichzeitig vergöttert und
verteufelt. Alle möglichen Arten von existenziellen Bedrohungen, die von
der KI ausgehen, werden heutzutage entwickelt. Dazu gehören unter ande-
rem Roboter, die zunehmend Arbeitsplätze ablösen, bis hin zu KI-betriebe-
nen Maschinen, die im militärischen Bereich eingesetzt werden sollen. Lässt
man solche düsteren Szenarien beiseite, ist es dennoch unbestreitbar, dass
gleichzeitig mit den innovativen Entwicklungen der KI neue ethische und ge-
sellschaftliche Herausforderungen entstehen. Unternehmen, Regierungen,
Regulierungsbehörden und die Gesellschaft als Ganzes werden sich mit sol-
chen Fragen befassen müssen, um sicherzustellen, dass die KI wirklich der
gesamten Menschheit zugutekommt. In diesem Zusammenhang könnten
technische Standards und Konformitätsbewertungssysteme eine entschei-
dende Rolle bei der Gestaltung der Zukunft der KI spielen.
2.2 Vom Winter der Künstlichen Intelligenz bis zur Re-
naissance
Die KI stellt keine neue wissenschaftliche Disziplin dar, da ihre Ursprünge bis
in die 1950er Jahre zurückverfolgt werden können. In der Literatur werden
typischerweise drei historische Phasen der Entwicklung der KI identifiziert.
In der ersten Phase (1950er bis 1980er Jahre) ging die KI aus der abstrakten
mathematischen Argumentation programmierbarer digitaler Computer her-
vor. Der berühmte Computerpionier Alan Turing konzipierte den ersten Test,
um zu entscheiden, ob ein Programm als intelligent angesehen werden kann
oder nicht, den so genannten Turing-Test.45 Der Begriff „Künstliche Intelli-
genz“ wurde eigentlich ursprünglich von John McCarthy 1955 geprägt, der
später als einer der Väter der KI bekannt wurde. Dieser Begriff wurde als
Titel für die erste Konferenz über KI vorgeschlagen, die 1956 am Dartmouth
College stattfand.46 Ein wichtiger nächster Schritt in der Entwicklung der KI
war die Erfindung eines Algorithmus unter Verwendung des Konzepts der
neuronalen Netze (das „Perceptron“) durch Frank Rosenblatt im Jahr 1958.47
Aber erst 1967, mit der Entwicklung des Nearest-Neighbor(NN)-Algorithmus
45 Vgl. [1]
46 Vgl. [2]
47 Vgl. [3]
Big Data & Künstliche Intelligenz
25
durch Cover and Hart, begann der Einsatz von maschinellem Lernen in realen
Anwendungen.48 Trotz dieser frühen Errungenschaften und der raschen Ent-
wicklung der computergestützten Symbolik blieb die Reichweite der KI auf-
grund der Unfähigkeit, viele Konzepte formell auszudrücken oder darzustel-
len, dennoch begrenzt. In der zweiten Phase (1980er bis Ende der 1990er
Jahre), entwickelten sich Expertensysteme sehr rasch und es wurden bedeu-
tende Durchbrüche in der mathematischen Modellierung erzielt. NNs be-
gannen, auch in einer wachsenden Zahl von Anwendungen in größerem Um-
fang eingesetzt zu werden. In dieser Zeit wurden einige der Kerntechniken
und Algorithmen der KI entwickelt und weiter verfeinert: Das Erklärungsba-
sierte Lernen (EBL) 1981, der Backpropagation-Algorithmus 1986 und das
Prinzip der Support-Vektor-Maschine (SVM) 1995.49 Einer der bekanntesten
Meilensteine in dieser zweiten Phase war das 1996 von IBM entwickelte
Schachprogramm Deep Blue, das im folgenden Jahr den Weltmeister schla-
gen konnte.50 Dies war das erste Mal, dass ein Computerprogramm in der
Lage war, menschliche Spieler in Partien auf Weltmeisterschaftsniveau zu
besiegen.
Trotz dieses Erfolges führten Einschränkungen im Zusammenhang mit dem
Wissenserwerb und dem Denkvermögen in Verbindung mit den hohen
Kosten der eingesetzten KI-Systeme zu einer gewissen Ernüchterung, die
einige Beobachter dazu veranlasste, von einem „KI-Winter“ zu sprechen.
Erst in der dritten Phase der Entwicklung, die zu Beginn des 21. Jahrhunderts
anbrach, begann die KI, ihre anfänglichen Versprechen einzulösen. Im Jahr
2006 wurde das erste mächtige, schnell lernende Deep Belief Network in ei-
nem Papier von Hinton, Osindero und Teh vorgestellt.51
Der Algorithmus wurde verwendet, um Zahlen in einer Reihe von Bildern zu
erkennen und zu klassifizieren. Dieser Beitrag war maßgeblich an der Ent-
wicklung der KI beteiligt und wurde zu einem der einflussreichsten Werke
für die heutige KI-Forschung. Neuere Entwicklungen wie IBM Watson im Jahr
2010 und AlphaGo im Jahr 2016 haben seither große öffentliche Aufmerk-
samkeit erhalten. Mit der explosionsartigen Zunahme der gesammelten Da-
ten, der anhaltenden Innovation theoretischer Algorithmen und der ständig
steigenden Rechenleistung hat die KI in der Folge in vielen Anwendungsbe-
reichen bahnbrechende Fortschritte gemacht und scheint nun gut gerüstet
zu sein, um neue Herausforderungen anzunehmen. All diese Entwicklungen
48 Vgl. [4]
49 Vgl. [5], [6], [7]
50 Vgl. [8]
51 Vgl. [9]
Big Data & Künstliche Intelligenz
26
haben einige Analysten dazu veranlasst, von einer „Wiedergeburt der KI“ zu
sprechen. Abbildung 5 zeigt die wichtigsten Meilensteine in der KI-Entwick-
lung.
Abbildung 5: Meilensteine der KI-Entwicklungen
Der Erfolg der Algorithmen des maschinellen Lernens für die Sprach- und
Bilderkennung war ausschlaggebend dafür, dass sie bei der Forschungsge-
meinschaft, den Unternehmen und Regierungen auf großes Interesse stie-
ßen. Darüber hinaus unterstützten parallele Entwicklungen beim Cloud
Computing und bei großen Datenmengen den Übergang von computerge-
stützten KI-Simulationen zu komplexeren und intelligenteren Systemen, die
Maschinen und Menschen miteinander verbinden. Es ist nun abzusehen,
dass die KI zu einer der Kerntechnologien der vierten Industriellen Revolu-
tion sowie zu einer treibenden Kraft für Innovationen in den Bereichen Ver-
kehr, Gesundheitswesen, Einzelhandel, Bildung, Regierungsdienste und an-
deren Branchen werden wird.
2.3 Chancen und Risiken von Künstlicher Intelligenz
KI stellt ein enormes Marktpotenzial dar. Laut einer aktuellen Studie der In-
ternational Data Corporation (IDC) werden die weltweiten Ausgaben für KI-
Technologien im Jahr 2023 auf 97,9 Milliarden USD anwachsen, also das 2,5-
Fache des Niveaus von 2019.52 Weiterhin manifestieren sich diese Zahlen
auch laut der Meinung von führenden Experten:
- 73% der Führungskräfte sind der Meinung, dass KI schon heute für
ihr Unternehmen von entscheidender Bedeutung ist.
- 61% sagen, dass KI ihre Branche in den nächsten drei Jahren grund-
legend verändern wird.
52 Vgl. https://www.idc.com/getdoc.jsp?containerId=prUS45481219
Big Data & Künstliche Intelligenz
27
- 53% der Unternehmen, die KI bereits einsetzen, haben im vergange-
nen Jahr mehr als 20 Mio. US-Dollar für die Erweiterung und Feinab-
stimmung ihrer Strategien ausgegeben.
- 26% aller Unternehmen sagen, dass KI-Technologien es ihnen ermög-
lichen, einen Vorsprung gegenüber ihren Konkurrenten zu gewinnen.
Es wird erwartet, dass der Einzelhandel und der Bankensektor in den kom-
menden Jahren am meisten für KI ausgeben werden, gefolgt vom Fertigungs-
sektor, dem Gesundheitswesen und der Prozessautomatisierung. Diese fünf
Branchen werden laut IDC auch weiterhin die größten Verbraucher von KI-
Technologie sein, da ihre Investitionen zusammengenommen bis 2021 fast
55% aller weltweiten Ausgaben für diese Technologie ausmachen werden.
Berücksichtigt man die damit verbundene Dienstleistungsbranche der Ma-
schinenintelligenz, die Programmmanagement, Ausbildung, Schulung, Trai-
ning, Hardware-Installation, Systemintegration und Beratung umfasst, ist
der Markt tatsächlich viel größer, und es wird erwartet, dass sich die KI in
naher Zukunft zu einer der am schnellsten wachsenden Branchen entwickeln
wird. Während automatisierte Kundenservice- und Diagnosesysteme wahr-
scheinlich auch in den kommenden Jahren die Haupttreiber der KI-Ausgaben
bleiben werden, wird erwartet, dass die intelligente Fertigung eine starke
Position auf dem KI-Markt einnehmen wird. Tatsächlich sieht IDC die intelli-
gente Prozessautomatisierung bis 2021 zum drittgrößten Anwendungsfall
von KI-Systemen werden.53
Andere Anwendungsfälle, die ein schnelles Wachstum erfahren werden,
sind die öffentliche Sicherheit, Notfallreaktionen sowie Einkaufsberater und
-empfehlungen. Diese aufregenden Marktaussichten werden unweigerlich
auch eine Reihe von Risiken und Herausforderungen mit sich bringen. Die
Auswirkungen der KI auf die Arbeitskräfte werden häufig als potenzielle Be-
drohung für Gesellschaften genannt, wobei Spannungen in den sozialen Be-
ziehungen aus einer allmählichen Diversifizierung des Arbeitsmarktes resul-
tieren. Eine zunehmende Automatisierung und Vernetzung könnte auch zu
zusätzlichen oder verstärkten Wohlstandsunterschieden zwischen entwi-
ckelten und sich entwickelnden Volkswirtschaften führen. Wie unsicher sol-
che Szenarien heute auch immer erscheinen mögen, alle großen Volkswirt-
schaften der Welt haben begonnen, im Rahmen ihrer strategischen Techno-
logieplanungsaktivitäten umfangreiche Investitionen zur Unterstützung von
KI-Innovationen zu tätigen. So hat China beispielsweise im Jahr 2017 den
„Entwicklungsplan für eine neue Generation von KI“, den „Dreijahres-Akti-
onsplan zur Förderung einer neuen Generation der KI-Industrie (2018‒
2020)“ sowie verschiedene andere Maßnahmen zur Beschleunigung von
53 Vgl. [10]
Big Data & Künstliche Intelligenz
28
Forschung, Entwicklung und Industrialisierung der KI-Technologie verkün-
det.
2.4 Historische Entwicklung der Künstlichen Intelli-
genz
Die Geschichte der KI beginnt ca. um die 1950er Jahre, als der Begriff erst-
mals im Kontext der Domäne Informatik verwendet wurde. Es ist jedoch
sehr aufschlussreich, einen weitaus breiteren Blick auf die Entstehungsge-
schichte der KI zu werfen. Dabei ist diese Disziplin eng mit unseren philoso-
phischen Disziplinen verankert. Hier sind viele der wichtigsten Vordenker auf
diesem Gebiet, die bis 350 v. Chr. zurückreichen, sowie philosophische Er-
kenntnisse von Aristoteles involviert:
Der griechische Philosoph Aristoteles (384‒322 v. Chr.) etwa formalisierte
beispielsweise logische Schlussfolgerungen, indem er alle möglichen katego-
rialen Syllogismen zur damaligen Zeit vollständig aufzählte. Syllogismen stel-
len Regeln dar, um aus zwei oder mehr Sätzen zu brauchbaren Schlussfolge-
rungen zu gelangen. Dies steht in Relation mit der KI, da Algorithmen eben-
falls programmiert werden, um gültige logische Schlussfolgerungen auf
Grundlage eines gegebenen Regelwerks abzuleiten.
Leonardo da Vinci (1452‒1519) entwarf eine hypothetische Rechenma-
schine auf Papier. Dies galt als enormer Fortschritt seiner Zeit, da diese eine
grundlegende und notwendige Voraussetzung für Berechnungen im Allge-
meinen und natürlich Algorithmen der KI darstellte. Da Vinci entwarf eine
Rechenmaschine mit 13 Registern und demonstrierte damit, dass eine soge-
nannte Blackbox Eingaben akzeptieren und Ausgaben auf der Grundlage ei-
nes gespeicherten Programms im Speicher oder in der Mechanik erzeugen
kann.
René Descartes (1596‒1650) vertrat die Meinung, dass Rationalität und Ver-
nunft sich über Mechanik und Mathematik definieren lassen. Zielsetzungen
können bekanntermaßen in Form von Gleichungen formuliert werden. Ziele
in der linearen Programmierung oder in Agenten der KI werden mathema-
tisch definiert. Descartes beschrieb Rationalismus und Materialismus als
zwei Seiten ein und derselben Medaille. KI zielt ebenfalls auf eine rationale
Entscheidung ab und wird auf mathematischem Wege definiert.
David Hume (1711‒1776) hatte grundlegende Arbeiten zu Fragen der logi-
schen Induktion und des Begriffs der Kausalität abgeschlossen. Somit ver-
einte er die Prinzipien des Lernens mit wiederholter Exposition, die sich
Big Data & Künstliche Intelligenz
29
unter anderem in der Lernkurve manifestiert. Das Prinzip der Ableitung von
Mustern oder Beziehungen in Daten durch wiederholte Exposition ist die
Grundlage vieler Lernverfahren.
Die jüngste Geschichte der Künstlichen Intelligenz soll im Jahr 1956 begon-
nen haben, dem Jahr der bahnbrechenden Konferenz von Dartmouth. Auf
dieser Konferenz wurde der Begriff der Künstlichen Intelligenz erstmals
verwendet und eine vorläufige Definition des Begriffs vorgeschlagen.
Innerhalb dieser Dekade wurden zahlreiche wichtige Persönlichkeiten dieser
Disziplin zugeordnet. Dazu zählen beispielsweise:
• Alan Turing (1912‒1954)
• John McCarthy (1927‒2011)
• Marvin Minsky (1927‒2016)
• Noam Chomsky (geb. 1928)
Alan Turing war ein englischer Mathematiker und Informatiker, der rationale
Denkprozesse mechanisierte und formalisierte. Es war Turing, der 1950 die
berühmte Erfindung des gleichnamigen Turing-Tests machte. In diesem Test
wird beispielsweise eine KI geprüft, ob diese mit einem menschlichen Be-
obachter kommunizieren kann, ohne dass dieser menschliche Beobachter
merkt, dass es sich nicht um einen anderen Menschen handelt.
John McCarthy war ein amerikanischer Wissenschaftler, der sich mit Auto-
maten beschäftigte und als Erster den Begriff der KI prägte. Zusammen mit
IBM und dem Massachusetts Institute of Technology (MIT) machte er die KI
zu einem eigenständigen Studienfach. McCarthy wird auch die Erfindung der
Programmiersprache LISP im Jahr 1958 zugeschrieben, die 30 Jahre lang in
Anwendungen der Künstlichen Intelligenz (z.B. im Bereich Betrugserken-
nung) eingesetzt wurde. In den 1960er Jahren erfand er auch das Computer-
Timesharing und gründete das Stanford Artificial Intelligence Laboratory,
das eine zentrale Rolle bei der Erforschung menschlicher Fähigkeiten für Ma-
schinen, wie Sehen, Hören und Denken, spielte.54
Marvin Minsky war ein früher Forscher auf dem Gebiet der KI und Kogniti-
onswissenschaftler, der zusammen mit McCarthy an der ersten Konferenz
über KI am Dartmouth College teilnahm. Im Jahr 1959 gründeten sie gemein-
sam das MIT Artificial Intelligence Laboratory. Ihre Zusammenarbeit endete
jedoch, nachdem McCarthy an die Universität Stanford wechselte, während
Minsky am MIT blieb. Noam Chomsky ist ebenfalls eine kurze Erwähnung
wert, eher als Linguist und Philosoph denn als Wissenschaftler auf dem
54 Vgl. (Quelle)
Big Data & Künstliche Intelligenz
30
Gebiet der KI. Sein Beitrag zur Künstlichen Intelligenz leistet er in Form seiner
Kritik an sozialen Medien und als Beitrag zur Linguistik und Kognition.
Wichtige Institutionen
Zu den wichtigsten Institutionen, die an der Entwicklung KI beteiligt sind, ge-
hören Universitäten wie das Dartmouth College, der Gastgeber einflussrei-
cher Konferenzen über KI, und das MIT, an dem viele einflussreiche Persön-
lichkeiten der frühen Forschung über KI lehrten. Unternehmen wie IBM und
INTEL und staatliche Forschungseinrichtungen wie die Defense Advanced
Research Projects Agency (DARPA) in den Vereinigten Staaten, die grundle-
gende Forschungsprojekte im Bereich der dualen Technologie finanzieren,
haben ebenfalls eine entscheidende Rolle bei der Entwicklung der KI ge-
spielt.
Schlüsselideen zur Unterstützung der Entwicklung Künstlicher Intelligenz
Auch die Forschung in den Bereichen Entscheidungstheorie, Spieltheorie,
Neurowissenschaften und Verarbeitung natürlicher Sprache hat zur Entwick-
lung der KI beigetragen:
- Die Entscheidungstheorie kombiniert Wahrscheinlichkeit (Mathema-
tik) und Nutzen (Ökonomie), um Entscheidungen der KI im Hinblick
auf wirtschaftlichen Nutzen und Unsicherheit zu formulieren.
- Die Spieltheorie wurde von John von Neuman (1903‒1957), einem
amerikanisch-ungarischen Informatiker, und Oskar Morgenstern
(1902‒1977), einem amerikanisch-deutschen Mathematiker und
Spieltheoretiker, berühmt gemacht. Ihre Arbeit führte dazu, dass ra-
tionale Agenten Strategien zur Lösung von Spielen lernten.55
- Die Neurowissenschaft ist ein Wissensfundus über das Gehirn, den
einige Modelle der KI nachzuahmen versuchen, insbesondere die
Problemlösungs- und Informationsspeicherfähigkeiten des Gehirns.
- Die Verarbeitung natürlicher Sprache (NLP) ist eine Disziplin am Zu-
sammenfluss von Linguistik und Informatik, die darauf abzielt, Spra-
che sowohl in schriftlicher als auch in gesprochener Form zu analy-
sieren und zu verarbeiten.
Hochsprachen sind der menschlichen Sprache näher und ermöglichen Pro-
grammierern die Unabhängigkeit von den Befehlssätzen der Computer-
Hardware. Andere für KI spezifische Sprachen sind:
- LISP ist eine der älteren Computerprogrammiersprachen, die von
John McCarthy entwickelt wurde. LISP leitet sich von den Wör-
tern „Listenverarbeitung“ ab. LISP ist in einzigartiger Weise in der
Lage, Zeichenketten zu verarbeiten. Obwohl sie auf die 1960er
55 Vgl. (Quelle)
Big Data & Künstliche Intelligenz
31
Jahre zurückgeht, ist sie auch heute noch relevant und wurde für
die frühe Programmierung mit KI verwendet.
- Prolog ist eine frühe Programmiersprache mit KI, die zum Lösen
logischer Formeln und zum Beweisen von Theoremen entwickelt
wurde.
- Python ist eine allgemeine Programmiersprache, die heute eine
große Rolle in der KI spielt. Da Python als Open Source verfügbar
ist, verfügt diese über umfangreiche Bibliotheken, mit der Pro-
grammierer schnell wertschöpfende Applikationen schaffen kön-
nen.
Die jüngsten Fortschritte im Bereich der KI hängen mit drei Hauptfaktoren
zusammen. Der erste ist der Fortschritt bei der Verfügbarkeit massiver Da-
tenmengen in vielen Formaten, die als große Daten bezeichnet werden und
ständig zunehmen. Der zweite ist der Fortschritt in der Datenverarbeitungs-
kapazität von Computern, während der dritte sich auf neue Erkenntnisse be-
zieht, die durch Mathematik, Philosophie, Kognitionswissenschaften und
maschinelles Lernen gewonnen wurden.
2.5 Schlüsseltrends in der Künstlichen Intelligenz
Investitionen im Kontext mit KI sind für durchwegs alle Unternehmen, Uni-
versitäten und öffentlichen Einrichtungen durchaus sehr relevant. Es gibt
kaum noch Bereiche der Gesellschaft, der Wirtschaft und unseres persönli-
chen Lebens, die nicht bereits von dieser aufstrebenden Technologie unter-
stützt bzw. beeinflusst werden. Insbesondere Technologieführer wie Apple,
Amazon, Microsoft, Google und wichtige chinesische Unternehmen wie
Baidu und Tencent engagieren sich stark in der Forschung und Entwicklung
im Bereich KI.
Die Beurteilung der Zukunftsaussichten oder Auswirkungen einer Technolo-
gie oder eines Forschungsgebietes ist immer höchst spekulativ und wird von
kognitiven Vorurteilen und früheren Erfahrungen beeinflusst. Dabei wird
auch häufig im Kontext der KI auf die sogenannten KI-Winter in der vergan-
genen Zeit hingewiesen. Dabei ist darauf zu achten, dass die Voraussetzun-
gen für die Anwendung von KI in den vergangenen Jahrzehnten maßgeblich
vom heutigen Standard zu unterscheiden sind. Generell wird nicht versucht,
die langfristige Entwicklung zu 100% zu antizipieren, sondern vielmehr küm-
mern sich Forschungseinrichtungen und Marktanalyse-Firmen wie Gartner
darum, entsprechende Muster in vergangenen Entwicklungen von Innovati-
onen zu analysieren und auf neue Trends wie beispielsweise KI anzuwenden.
Big Data & Künstliche Intelligenz
32
Gartner fasst die Geschichte vieler Innovationen in Form einer Hype-Kurve
zusammen. Hype-Kurven werden in Phasen beschrieben, wie in der unten-
stehenden Abbildung 6 dargestellt wird. Die X-Achse stellt den Zeitverlauf
dar, welcher sich in die folgenden Phasen unterteilt:
1. eine Entdeckungsphase oder ein Bedürfnis auf dem Markt, das Inno-
vation auslöst,
2. eine Spitzenphase mit überhöhter Erwartungshaltung, die kürzer als
die anderen Phasen ist,
3. eine Periode der Desillusionierung,
4. eine Periode der Aufklärung, die den Wert einer Innovation aner-
kennt,
5. eine Periode der Novellierung, in der die Produktivität Fuß fasst und
zur Norm wird.
Abbildung 6: Gartner Hype Cycle (Quelle: Gartner 2019)56
56 Vgl. https://blogs.gartner.com/smarterwithgartner/fi-
les/2019/08/CTMKT_736691_Hype_Cycle_for_AI _2019.png (abgerufen: 10.09.2020)
Big Data & Künstliche Intelligenz
33
Mehrere Aspekte der KI sind entlang dieser Kurve positioniert. Bei genaue-
rem Hinsehen können wir z.B. die folgenden Trends beobachten:
- In der Innovationsauslösephase erscheinen Wissensgraphen,
neuromorphe Hardware, KI PaaS, Allgemeine Künstliche Intelli-
genz (die Fähigkeit einer Maschine, menschenähnliche intellek-
tuelle Aufgaben auszuführen), Edge-KI und intelligente Roboter.
- In der Hochphase überhöhter Erwartungen oder Hype finden wir
tiefe neuronale Netze, die in den letzten fünf bis sieben Jahren in
vielen Anwendungen des maschinellen Lernens zu neuen Leis-
tungshöchstwerten geführt haben.
- In der Phase der Desillusionierung, in der es bergab geht, stellen
wir fest, dass die Robotic Process Automation aufgrund der Tat-
sache, dass der Markt an dieser Stelle mit vielen Softwareanbie-
tern überflutet wird, eine abfallende Finanzierung erfahren
könnte.
- Auf dem Gebiet der KI hat noch nichts das Plateau der Produkti-
vität erreicht, das die allgemeine Akzeptanz und produktive Nut-
zung der Technologie darstellt.
Steuerung der Künstlichen Intelligenz und regulatorische Überlegungen
Nehmen wir an, dass die KI in Wirklichkeit eine breite technologische Revo-
lution ist, die nicht durch eine einzige Fähigkeit wie selbstfahrende Autos
definiert ist. Vielmehr handelt es sich um einen Zusammenschluss von vielen
Teilbereichen, die sich von verschiedenen Ausgangspunkten mit unter-
schiedlicher Geschwindigkeit durch denselben Prozess bewegen.
Es ist zu erwarten, dass es mit dem Fortschritt der Künstlichen Intelligenz
Gewinner und Verlierer geben wird. Ein geordnetes Wachstum erfordert
ethische Richtlinien für das menschliche Verhalten in Handel und Landes-
verteidigung.
Das Fehlen von Regeln für die Arbeit in britischen Fabriken während der In-
dustriellen Revolution führte z.B. zu Unruhe, Leid und letztlich zur utopi-
schen Ideologie des Kommunismus. Im Geiste des Lernens aus der Ge-
schichte, anstatt sie zu wiederholen, ist es jetzt an der Zeit, ethische Richtli-
nien für den Einsatz von Anwendungen Künstlicher Intelligenz zu definieren.
Ein praktisches Anliegen der Gesellschaft ist es, die Folgen des potenziellen
Missbrauchs KI zu verstehen, dem entweder durch staatliche Regulierung
oder durch selbst auferlegte Regeln begegnet werden kann. Die Allgemeine
Datenschutzverordnung der Europäischen Union (GDPR 2016/679) ist einer
der ersten von der Regierung initiierten Schritte zur Datenregulierung, die
sich zunächst darauf konzentrierte, den Schutz der Privatsphäre des
Big Data & Künstliche Intelligenz
34
einzelnen Verbrauchers zu gewährleisten. Selbstregulierung mit Schwer-
punkt auf Ethik wird derzeit am MIT und an der Stanford University in den
Vereinigten Staaten erforscht. Die Stanford University hat zudem vor kurzem
das Institut für Humanzentrierte Künstliche Intelligenz (HAI) gegründet, das
als interdisziplinäres Zentrum dienen soll, das Informatiker, Neurowissen-
schaftler und Rechtswissenschaftler mit Schwerpunkt auf sozialer Verant-
wortung vereint. Das MIT College of Computing verfolgt ähnliche Ziele, in-
dem es die positiven Aspekte der KI fördert und gleichzeitig negative Folgen
verhindert.
Ethische Fragen sind für alle kommerziellen und militärischen Anwendungen
von KI sowie für das Arbeitsleben von Angestellten relevant, die einer stark
von KI beeinflussten Wirtschaft unterliegen. Zu den relevanten Überlegun-
gen gehören die folgenden:
• Ethik in der Geschäftswelt lässt sich dadurch definieren, dass man
die Begriffe des richtigen und des falschen Verhaltens kennt und ent-
sprechend handelt. Die Wahlmöglichkeiten zwischen diesen beiden
Begriffen sind vielfältig und in ihrem Ausmaß quantifiziert; sie stehen
in ständigem Konflikt und betreffen das persönliche und das kollek-
tive Unternehmensgewissen. Zu den Beispielen für den unethischen
Einsatz KI gehören solche, die diskriminierendes Verhalten gegen-
über bestimmten Personengruppen unterstützen, Benachteiligte
ausnutzen, ungebremsten Eifer für den Wettbewerb „the winner
takes it all“ zeigen oder die zur Auflösung vorteilhafter Anwendun-
gen KI aufgrund unzureichender finanzieller Belohnung führen.
• Die Rechte beziehen sich auf den physischen menschlichen Körper,
das Recht auf Arbeit, das Recht auf Eigentum sowie auf Glück und
Gemeinschaft. Definierende Dokumente für unser Verständnis von
Rechten sind unter anderem die nationalen Verfassungen oder
Grundgesetze von Staaten, die Allgemeine Erklärung der Menschen-
rechte der Vereinten Nationen und die Genfer Konvention. Projekte
der KI müssen diese Rechte beachten. In Fällen, in denen dies nicht
der Fall ist, müssen die Projekte so geändert werden, dass sie diese
Rechte einhalten.
• Regierungen spielen aufgrund ihrer übergreifenden Regulierungs-
und Gesetzgebungsfunktionen natürlich eine wichtige Rolle bei der
Regulierung des technologischen Fortschritts. Per Definition sind Re-
gierungen mit der Aufgabe betraut, ein politisches Gremium zu er-
halten. KI ist eine Wissenschaft und daher ein gemeinsames Gut. Das
bedeutet, dass sie ohne staatliche Kontrolle nicht existiert und früher
oder später reguliert werden wird, wie es in der Europäischen Union
bereits geschehen ist. Die Zeitspanne zwischen industrieller Innova-
tion und ihrer wirksamen Regulierung ist jedoch in der Regel lang,
und darin liegt die Gefahr.
Big Data & Künstliche Intelligenz
35
• Unbeabsichtigte Ergebnisse, die sich aus den Technologien der KI er-
geben, stellen ein erhebliches Risiko für die Gesellschaft dar, das oft
aus einem Mangel sowohl an Aufsicht als auch an Weitsicht resul-
tiert. Das Fehlen von Aufsicht impliziert einen Mangel an menschli-
cher Kontrolle, sobald ein Algorithmus eingesetzt wurde.
• Auch wirtschaftliche Überlegungen sind wichtig. Zu den relevanten
Fragen in diesem Bereich gehören die Auswirkungen der KI auf den
Arbeitsmarkt und die ungleiche Verteilung des Reichtums.
Künstliche Intelligenz als Revolution
Wenn wir an Revolutionen denken, fallen uns gewaltsame politische Um-
stürze zugunsten eines neuen Paradigmas ein. Beispiele dafür sind die Fran-
zösische Revolution (1789), die den Sturz einer Monarchie zugunsten von
Freiheit, Gleichheit und Brüderlichkeit beinhaltete, die Russische Revolution
(1917), die das System der Zaren durch den Kommunismus ersetzte, und der
Amerikanische Bürgerkrieg (1775‒1783), die den Kolonialismus zugunsten
einer Republik beendete.
In ähnlicher Weise hat die Menschheit in der Vergangenheit technologische
und folglich auch wirtschaftliche Revolutionen durchlebt. Beispiele dafür
sind die Einführung des mechanischen Webstuhls und der Spinnereima-
schine Jenny (um 1770), die den globalen Baumwollmarkt ermöglichten, die
Dampfkraft, der Telegraf und das Telefon, der Verbrennungsmotor, die Näh-
maschinen und die Produktionslinien. Die Revolution der KI verspricht
schneller und tiefgreifender zu werden.
Technologische Revolutionen teilen den Umsturzaspekt des Begriffs Revo-
lution, aber sie werden nicht unbedingt durch Unzufriedenheit innerhalb
der Massen verursacht. Technologische Revolutionen sind das Ergebnis
kreativer Menschen, die basteln und anschließend Entdeckungen machen,
die den menschlichen Interessen und Bedürfnissen dienen.
Gutenbergs (1440) Erfindung des beweglichen Druckverfahrens, die zu einer
großen Verbreitung von Informationen, Literatur, Wissenschaft, Gelehrsam-
keit und zum Wachstum des Verlagswesens als Unternehmen führte, ist ein
Paradebeispiel für eine Innovation, die auch eine technologische Revolution
darstellte.
Zu den anderen technologischen Revolutionen gehören die Revolutionen,
die durch Fritz Habers Entdeckung eines funktionierenden Verfahrens zur
Ammoniaksynthese im Jahr 1910 und Ernest Rutherfords Spaltung des
Atoms im Jahre 1917 ausgelöst wurden. Habers Entdeckung führte zu einer
Steigerung der landwirtschaftlichen Erträge, wobei Ammoniak als
Big Data & Künstliche Intelligenz
36
chemischer Dünger eingesetzt wurde, was zu einer größeren Bevölkerung
und einem Wirtschaftswachstum führte. Im Gegensatz dazu führte Ru-
therford einen neuen Zweig der Physik ein, der zur Entwicklung der Atom-
bombe beitrug und zu einem großen Anteil den Zweiten Weltkrieg auf dra-
matische, katastrophale Art und Weise beendete.
Wir stehen am Anfang dessen, was öffentlich als eine technologische Revo-
lution der KI beschrieben wird. Wir wissen noch nicht, wer die Innovatoren
sein werden. Wir können jedoch sicher sein, dass es zu einer Zusammenar-
beit zwischen den Wissenschaften kommt, die zu einer neuen Welt führt, an
die wir uns anpassen müssen.
Was die Industrielle Revolution und die gegenwärtige Revolution im Bereich
der KI gemeinsam haben, ist, dass beide Perioden Erfindungen hervorbrach-
ten, die das Leben der Menschen verbesserten. Die Industrielle Revolution
nutzte Dampf und elektrische Energie, um Maschinen für die Massenpro-
duktion anzutreiben und damit die Grenzen der menschlichen Kraft zu über-
winden. Die Revolution der KI nutzt Computer zur Herstellung informations-
basierter Werkzeuge, um die Grenzen der Informationsverarbeitung des
menschlichen Gehirns zu überwinden.
Zu den bahnbrechenden Errungenschaften der Industriellen Revolution ge-
hören der Übergang von der Dampfmaschine zu elektrisch angetriebenen
Zügen und Schiffen, die Steigerung der landwirtschaftlichen Produktion
durch die Einführung mechanisierter Landmaschinen und chemischer Dün-
gemittel, die Entwicklung des Telefons und die Entwicklung von Arzneimit-
teln wie Penicillin. Als Ergebnis der Revolution im Bereich der KI können wir
die potentielle Ausrottung vieler weit verbreiteter Krankheiten, effizientere
Transportmittel, die Entwicklung fortschrittlicher Methoden zur Verbre-
chensbekämpfung und alle möglichen anderen Entdeckungen erwarten, wie
z.B. die Entwicklung militärischer Fähigkeiten zur Landesverteidigung und
territorialen Dominanz.
Es lohnt sich zu beobachten, dass fast alle neu entdeckten Technologien auf
einer früheren Entdeckung eines anderen beruhen, die sowohl von mensch-
lichen Bedürfnissen als auch von einer angeborenen Neugier getrieben wird.
KI ist da keine Ausnahme. In der Antike verbesserten die Finnen die Axt in
Bezug auf ihre Konstruktion und die Materialien, aus denen sie gebaut
wurde, um das Ernten von Bäumen effizienter zu machen. Die Axt führte zu
besseren Unterkünften und Fischerbooten, verbesserte die Ernährung der
Menschen und führte letztlich zu einer längeren Lebenserwartung. Die Axt
ist ein Werkzeug. Auch die KI ist ein Werkzeug, das der heutigen Generation
helfen kann, besser und länger zu leben. Doch so wie mit der Axt viel
Big Data & Künstliche Intelligenz
37
Schaden angerichtet werden kann, so kann auch die KI viel Schaden anrich-
ten. Wir können daher erwarten, dass die Revolution in der KI sowohl posi-
tive als auch negative Folgen für die Gesellschaft haben wird.
Big Data & Künstliche Intelligenz
38
3 Warum wird Künstliche Intelligenz heutzutage
benötigt?
Die heutigen Gesellschaften und Unternehmenslandschaften werden zu-
nehmend mit komplexen Herausforderungen konfrontiert. Gleichzeitig wer-
den aber neue, bisher nie dagewesene Möglichkeiten geschaffen, die zum
Teil Geschäftsbereiche oder auch unser tägliches Leben teilweise disruptiv
ändern.
Bestehende Märkte sind Störungen unterworfen und können in kurzer Zeit
sogar abrupt verschwinden. Wichtige globale Trends, die sich auf die Gesell-
schaft, die Wirtschaft, die Unternehmen, die Kulturen und das persönliche
Leben auswirken und oft als Megatrends bezeichnet werden, bestimmen die
zukünftige Welt der Menschheit und ihr zunehmendes Tempo des Wandels.
Megatrends stellen miteinander verbundene, globale Wechselwirkungen
dar, die dazu beitragen, die Auswirkungen wichtiger technologischer Ent-
wicklungen wie der KI abzustecken. Es wird erwartet, dass der gemeinsame
Effekt von Digitalisierung, Automatisierung und KI die Zukunft der Arbeit er-
heblich beeinflussen wird. Es wird davon ausgegangen, dass die Automati-
sierung und Digitalisierung viele Arbeitsplätze mit geringer Qualifikation be-
treffen wird, wobei die computergesteuerte Automatisierung in zahlreichen
Branchen und Umgebungen, einschließlich Fertigung, Planung und Entschei-
dungsfindung, immer weiter verbreitet sein wird.57 Das Wachstum der tech-
nologischen Fähigkeiten verändert bereits jetzt die Versorgungsketten,
formt die Arbeitskräfte um und definiert Arbeitsplätze neu. Die herausfor-
dernde Aussicht auf einen solchen Wandel liegt in der Tatsache, dass das
Wachstum nicht linear verläuft, sondern eher komplex ist und sich beschleu-
nigt.
Gleichzeitig wird die KI ein breites Spektrum von Anwendungen ermögli-
chen und verbessern, die einige der globalen Herausforderungen bewälti-
gen können, die sich aus diesen Megatrends ergeben: Umweltbelange, de-
mografische Veränderungen oder wirtschaftliche Ungleichheit, um nur ein
paar wenige zu nennen.
3.1 Rohstoffknappheit und optimierter Verbrauch
Die natürlichen Ressourcen des Planeten werden in alarmierendem Tempo
verbraucht. Und es wird erwartet, dass die meisten Länder ihren jährlichen
57 Vgl. [15]
Big Data & Künstliche Intelligenz
39
weltweiten Verbrauch solcher Ressourcen bis 2050 verdoppeln werden.58
Nicht nur die endlichen natürlichen Ressourcen neigen sich völliger Erschöp-
fung zu, die Menschen verbrauchen auch weit mehr Umweltressourcen, als
die Natur regenerieren kann. Während Ressourcenschutz in der Vergangen-
heit oft als nachteilig für die Wirtschaft angesehen wurde, schließen sich
beide heute keineswegs gegenseitig aus. Die KI hilft bereits heute unzähligen
Herstellern, Produktionsprozesse zu optimieren und dadurch Abfall zu redu-
zieren und dabei gleichzeitig „Output“ zu erhöhen. Darüber hinaus wird die
KI bald nicht nur zur Optimierung der Prozesse selbst, sondern auch zur Ana-
lyse der „Input“-Faktoren eingesetzt werden. Durch die Analyse des Zwecks,
der Eigenschaften und der Umweltauswirkungen der Eingangsmaterialien
einer Produktion wird die KI den Wissenschaftlern helfen können, Materia-
lien zu entwerfen, die den für eine nachhaltigere Produktion erforderlichen
Spezifikationen entsprechen. Es wurden sogar Ideen für die Verwendung der
KI vorgeschlagen, um eine zweite Verwendung für die materiellen Kompo-
nenten von Nebenprodukten, die von Maschinen erzeugt werden, zu identi-
fizieren und so eine nahezu zyklische Verwendung von Rohstoffen zu schaf-
fen.
Solche Effizienzsteigerungen in Produktionsprozessen sind nicht nur ein at-
traktiver Anreiz für Unternehmen, sie werden auch einen erheblichen Ein-
fluss auf den globalen Ressourcenverbrauch haben.
KI wird auch Versorgungsunternehmen in einer Zeit zunehmender Verstäd-
terung, wachsenden Stromverbrauchs, knapper Wasserressourcen und des
großflächigen Einsatzes erneuerbarer Energien helfen. Dies wird durch ein
intelligenteres Management von Angebot und Nachfrage erreicht werden.
Auf der Nachfrageseite führt die KI bereits zu erheblichen Energieeinsparun-
gen, z.B. durch die Reduzierung des Verbrauchs von Rechenzentren um 15%.
Auf der Angebotsseite werden dezentralisierte intelligente Energienetze in
der Lage sein, Ausfälle vorherzusagen und zu verhindern und Schwankungen
von Angebot und Nachfrage zu bewältigen, um das optimale Versorgungsni-
veau zu gewährleisten und gleichzeitig den Verbrauch fossiler Brennstoffe
zu minimieren.59
Weitere Beispiele sind die Optimierung der regenerativen Energieerzeugung
durch Solar- oder Windparks oder die Optimierung von Fahrzeugverkehrs-
strömen zur Reduzierung von Emissionen.
58 Vgl. [16]
59 Vgl. [17]
Big Data & Künstliche Intelligenz
40
3.2 Klimawandel
Die Prognosen führender Wissenschaftler waren eindeutig: Ohne eine kon-
sequente Antwort auf die Herausforderung des Klimawandels und eines ver-
antwortungsvolleren Umgangs mit Umweltressourcen werden unvorher-
sehbare Veränderungen den Planeten ‒ und damit die menschliche Existenz
‒ bedrohen. Dies wirft die Frage auf, wie wirtschaftliche Ziele mit ökologi-
scher Nachhaltigkeit in Einklang gebracht werden können. Ebenso wichtig
ist, wie sich die Menschheit auf unerwartete dramatische Naturereignisse in
der Zukunft vorbereiten kann.
Es wird erwartet, dass der Einsatz von KI in einer Vielzahl von Anwendungen
eine führende Rolle im Kampf gegen den Klimawandel spielen wird. KI kann
komplexe Entscheidungsprozesse im Umgang mit natürlichen Ressourcen
oder bei der Vorhersage unerwarteter Vorfälle unterstützen. So können z.B.
der Verbrauch und die Nutzung von Ressourcen bereits bei der Energiege-
winnung optimal koordiniert werden. KI ermöglicht es, zahlreiche Parameter
wie den kontextabhängigen Stromverbrauch und die Netzlast in Relation zu
Wettervorhersagen und Stromtarifen zu setzen. Dadurch lässt sich das Ver-
halten der Stromverbraucher besser bestimmen und effizienter steuern.
Aufbauend auf diesen Errungenschaften können intelligente Mobilitätslö-
sungen mit einem verantwortungsvolleren Umgang mit Ressourcen umge-
setzt werden, darunter auch die autonome Elektromobilität. Fahrzeuge und
Lastwagen können nicht nur optimal und effizient aufeinander abgestimmt
werden, sie können dank KI auch effizienter gefahren werden.
Ähnliche Entwicklungen können für einen effizienten Wasserverbrauch kon-
zipiert werden. In der Landwirtschaft z.B. erlaubt die KI die Bestimmung des
optimalen Wasserbedarfs in Abhängigkeit von den spezifischen Bedürfnis-
sen jeder einzelnen Pflanze, der Bodensituation und den aktuellen Wetter-
bedingungen. Darüber hinaus können mit Hilfe von KI-Techniken Versor-
gungsstrategien für Dürreperioden und Wasserknappheit in betroffenen Re-
gionen und Ländern entwickelt werden.
KI kann auch dazu beitragen, die Vorhersagen von Wetterszenarien und Na-
turkatastrophen zu verbessern. Wissenschaftler stehen zunehmend vor der
Herausforderung, zahlreiche Einflussfaktoren zu erfassen und zu verarbei-
ten, um die Genauigkeit von Wettervorhersagen zu erhöhen. Die KI wird den
Menschen effektiv dabei helfen, eine breite Palette von Messdaten zu ver-
arbeiten, um frühzeitige Vorhersagen für wetterbedingte Ereignisse und
Warnungen vor potenziellen Elementen wie Überschwemmungen, Luftver-
schmutzungsepisoden oder Stürmen zu liefern. Frühwarnsysteme können
dann intelligenter für unterschiedliche Geografien eingerichtet werden.
Big Data & Künstliche Intelligenz
41
3.3 Demografische Aspekte
Die Vereinten Nationen (UN) prognostizieren einen Bevölkerungszuwachs
von mehr als einer Milliarde bis 2030 aufgrund des demografischen Wachs-
tums in Schwellen- und Entwicklungsländern. Darüber hinaus wird die al-
ternde Bevölkerung (Anzahl der Personen ab 65 Jahren) um mehr als 390
Millionen zunehmen, da die Menschen länger leben und weniger Kinder ha-
ben. Die Auswirkungen der Bevölkerungsalterung wird in Europa, Asien und
Lateinamerika unmittelbarer zu spüren sein, was zu unterschiedlichen regi-
onalen Problemen führen wird. Der Trend bei der Zahl der Erwerbstätigen,
die jeden älteren Menschen unterstützen, wird sich von neun im Jahr 2015
auf eine Spanne von der Hälfte bis zu vier in Asien verlagern, was zu einer
viel stärkeren Abhängigkeit der älteren von der jüngeren Generation führen
wird. In Europa wird die Verfügbarkeit einer geeigneten Bevölkerung im er-
werbsfähigen Alter abnehmen und einen akuten Bedarf an einer neuen Ge-
neration von Arbeitskräften, d.h. Frauen und älteren Menschen, schaffen.
Das Verhältnis von vier Personen im erwerbsfähigen Alter pro älteren Men-
schen im Jahr 2015 wird bis 2050 um 50% sinken. Diese Bevölkerungsalte-
rungstendenzen werden zweifellos erhebliche Herausforderungen für Re-
gierungen und Industrie mit sich bringen.60
Ein weiterer wichtiger Aspekt solcher Trends hängt mit den großen regiona-
len Unterschieden in der Verfügbarkeit der Bevölkerung im erwerbsfähigen
Alter zusammen, wie z.B. 1,5 Personen im erwerbsfähigen Alter auf jeden
älteren Menschen in Japan im Jahr 2050 gegenüber 15 Personen im erwerbs-
fähigen Alter auf jeden älteren Menschen in Nigeria.
Der Trend zur Alterung der Bevölkerung wird zu höheren Ausgaben im Ge-
sundheitswesen führen. Es wird erwartet, dass innerhalb der G7-Länder die
Gesundheitsbudgets jedes Jahr um etwa 200 Milliarden US-Dollar steigen
werden. Technologische und wissenschaftliche Innovationen können jedoch
dazu beitragen, die Gesundheitskosten auf ein erschwinglicheres Niveau zu
senken. Die meisten Regierungen in Europa ermutigen nun ältere Arbeitneh-
mer im Erwerbsleben zu bleiben, indem sie das offizielle Rentenalter erhö-
hen und Altersdiskriminierung verbieten. Darüber hinaus wird die Industrie
finanzielle Anreize sowie Umschulungsprogramme für ältere Arbeitnehmer
bereitstellen müssen. Lebenslanges Lernen zum Erwerb neuer Fähigkeiten
während des Arbeitslebens des Einzelnen sowie die Betreuung jüngerer Kol-
legen werden für die Bemühungen, ältere Menschen in der Arbeitswelt zu
halten, von entscheidender Bedeutung sein.
60 Vgl. [18]
Big Data & Künstliche Intelligenz
42
3.4 Wirtschaftspolitische Aspekte
Es wurde bereits hervorgehoben, wie Automatisierung und immense Pro-
duktivitätssteigerungen den Ländern helfen werden, den Druck des demo-
grafischen Wandels zu mildern. Während dies für fortgeschrittene Volks-
wirtschaften, die mit einer alternden Bevölkerung zu kämpfen haben, sicher-
lich eine willkommene Entwicklung sein wird, gibt es für die KI unzählige
Möglichkeiten, für die ärmsten Länder der Welt etwas nachhaltig mit den
vorhandenen Ressourcen zu bewegen.
Die Ziele der Vereinten Nationen für eine nachhaltige Entwicklung versuchen
z.B., diese Herausforderungen durch die Verringerung von Armut und Hun-
ger und die Verbesserung der Bildung anzugehen. Der jüngste KI for Good
Global Summit 2017 hat deutlich gemacht, wie die KI diese Bemühungen un-
terstützen kann. Die Vorschläge reichten von Initiativen, die darauf abzielen,
die Fortschritte der internationalen Gemeinschaft bei der Erreichung dieser
Ziele zu überwachen und festzustellen, wo die Ressourcen am dringendsten
benötigt werden, bis hin zur prädiktiven Modellierung von Krankheitsaus-
brüchen.61
Die KI ist auch bereit, mit dem IoT, Drohnen und der synthetischen Biologie
zusammenzuarbeiten, um intelligente Landwirtschaft voranzutreiben und
Erkenntnisse darüber zu gewinnen, wann und wo Nutzpflanzen gepflanzt
und geerntet werden sollen, während gleichzeitig Ernährung, Pestizide und
Wasser optimiert werden, um die Erträge zu steigern und den Welthunger
zu bekämpfen.62
Das Interesse der Regierungen am Potenzial der KI nimmt immer mehr zu,
und es wird von der KI erwartet, dass sie Beiträge zur öffentlichen Politik,
insbesondere zur Wirtschaftspolitik, leistet. Bei der Erstellung eines Modells
beginnen Ökonomen gewöhnlich mit einer Reihe von Annahmen, die sie
dann zu überprüfen versuchen. Die KI bietet jedoch die Möglichkeit, Daten
zu analysieren und bisher unbekannte Wechselwirkungen zwischen Variab-
len aufzudecken, auf deren Grundlage dann ein Modell aus ersten Prinzipien
aufgebaut werden kann, das der Information der Öffentlichkeit und der
Geldpolitik dient. Die KI kann auch die Finanzaufsichtsbehörden bei ihren
Überwachungsaktivitäten unterstützen, indem sie die Bilanzen von Banken
auf Anomalien untersucht, die aus aufsichtsrechtlicher Sicht oder aus Sicht
des Verhaltens bedenklich sind.63 Solche Untersuchungen darüber, wie KI in
der Öffentlichkeit eingesetzt werden kann, sind zu begrüßen, da sie
61 Vgl. [19]
62 Vgl. [20]
63 Vgl. [21]
Big Data & Künstliche Intelligenz
43
Regierungen dabei helfen können, bewährte Praktiken zu erforschen, fun-
dierte Entscheidungen zur KI-Politik zu treffen und das Vertrauen der Öffent-
lichkeit aufzubauen.
3.5 Personalisierung von Dienstleistungs- und Pro-
duktangeboten
Die Integration von KI und fortschrittlicher Fertigung ermöglicht eine Mas-
senanpassung, die Lieferanten, Partner und Kunden problemlos verbindet
und individualisierte Anforderungen mit Effizienz und Kosten nahe der Mas-
senproduktion erfüllt. Die Anwendung der KI optimiert daher die Wert-
schöpfungskette in der Fertigung, so dass die Hersteller den Materialfluss in
Echtzeit verfolgen können. Außerdem können technische und Qualitäts-
probleme genauer beurteilt werden, überschüssige Bestände und logisti-
sche Verzögerungen reduziert, die Reaktionsfähigkeit auf Kundenbedürf-
nisse erhöht und bessere Geschäftsentscheidungen getroffen werden, die
Abfall und Kosten reduzieren. Die Unternehmen werden von der massenhaf-
ten Anpassung der Produktion profitieren, indem sie die mit dem Internet
verbundenen Verbraucher in die Lage versetzen, intelligente Fertigungspro-
zesse zu steuern und Produkte nach ihren gewünschten Spezifikationen zu
entwickeln. KI ermöglicht die Individualisierung von Produkten auf einer völ-
lig neuen Ebene. Betroffen sind nicht nur Produkt-Konfiguratoren, die Kun-
den online nutzen können. Der Einsatz von KI eröffnet auch völlig neue Mög-
lichkeiten der Individualisierung. Produkte, deren Individualisierung mit ho-
hen Entwicklungskosten verbunden wäre, können durch den Einsatz von KI
den Anforderungen angepasst werden.
Dienstleistungen können auch automatisch auf Kundenbedürfnisse zuge-
schnitten werden. Ein Beispiel ist die automatische Übersetzung von Texten.
Während bisher die Ergebnisse regelbasierter Techniken oft nur die Bedeu-
tung einzelner Wörter, nicht aber ganze Sätze wiedergeben konnten, die
kontextualisiert werden, können von der KI unterstützte Dienste die Über-
setzung auf der Grundlage der Bedeutung eines Textes durchführen.
3.6 Moderne Wertschöpfungssysteme und entspre-
chende Anforderungen
Im Kontext moderner Anwendungssysteme sind neue KI-Entwicklungen un-
erlässlich. Zunehmend kommt dazu, dass bestehende Anwendungssysteme
Big Data & Künstliche Intelligenz
44
auf evolutionärer Basis verändert werden. Bestehende Geschäftsprozesse
werden zunehmend mittels des Einsatzes von KI automatisiert.
Innerhalb unseres Alltags haben wir zunehmend mit enormem Effizienz-
druck zu kämpfen. Die Welt wird zunehmend schnelllebiger und fordert von
jedem einzelnen Individuum enorm viel Leistung in immer kürzerer Zeit.
Gleichzeitig ist festzustellen, dass wir für uns selbst immer weniger Zeit in
Anspruch nehmen können. Um den steigenden Herausforderungen der ak-
tuellen gesellschaftlichen und wirtschaftlichen Aspekte gerecht zu werden,
müssen wir uns mit Methoden der Automatisierung befassen, um nachhaltig
den erreichten Wohlstand halten zu können und den entsprechenden Wohl-
stand auch weiter auszubauen. Aber nicht nur das Halten des bestehenden
Wohlstandes, sondern auch die Schaffung von neuem Wohlstand für Grup-
pen und Länder, die bisher nur wenige Chancen hatten, kann mit der zuneh-
menden Digitalisierung und natürlich dem Einsatz von KI langfristig erreicht
werden. Dieses Ziel ist natürlich nicht über Nacht erreichbar, jedoch birgt die
Digitalisierung und Automatisierung ein enormes Potential, flächendecken-
den Wohlstand zu erzeugen und letztlich auch flächendeckend automatisiert
Wertschöpfung zu betreiben. Dies ist nicht beschränkt auf spezifische Bran-
chen und kann in der Produktion oder der verarbeitenden Industrie zum Ein-
satz kommen.
Wenn dieses Themenfeld kritisch betrachtet wird, kann natürlich abseits des
nachhaltigen und ständigen Wachstums der Märkte gefragt werden, ob eine
derartige Effizienzsteigerung überhaupt benötigt wird. Jedoch sind die An-
forderungen aktuell gegeben und die Möglichkeiten der KI und deren Einsatz
in den nächsten Dekaden mit enormem Wachstumspotential verbunden, so-
dass nach der aktuellen Lage der Investitionen und dem Aufbau von Kompe-
tenzen in diesen Bereichen davon auszugehen ist, dass dieses Themenfeld
nachhaltig in unsere alltägliche Unternehmens- und private Welt Einzug hält.
Wenn diese Entwicklung beibehalten wird, werden künftig beispielsweise
auch normale Abläufe ohne den Einsatz von KI kaum noch zu bewältigen
sein.
KI wird künftig ein wesentlicher, wenn nicht sogar entscheidender Faktor für
moderne Wertschöpfung sein. Alles, was automatisiert werden kann, wird
künftig nach und nach, wenn erste Hürden und Barrieren überwunden sind,
automatisiert werden.
Big Data & Künstliche Intelligenz
45
4 Methoden der Künstlichen Intelligenz und Ab-
grenzung
Wenn wir einen Blick in den Bereich der Methoden von KI werfen, reichen
die ersten grundlegenden anwendbaren Algorithmen bis in die 1940er Jahre
zurück. Jedoch hat sich etwa seit der Jahrtausendwende ein großer Boom
um die damit in Verbindung stehenden Technologien entwickelt. Hierfür gibt
es zahlreiche Gründe.
Der Bedarf an hochautomatisierten Systemen steigt immer weiter an. Durch
die fortschreitende Digitalisierung steigt die Menge der generierten Daten
rasant an und moderne Systeme wie das Internet bieten die Möglichkeit,
wesentlich mehr Daten als nur die selbst generierten zu betrachten. Um hie-
raus unternehmerische Vorteile zu erwirtschaften, müssen diese Daten
schnell analysiert und interpretiert werden. Hier können herkömmliche An-
sätze zur Datenanalyse nicht immer mithalten. Während herkömmliche An-
sätze effizient mit klar beschriebenen Problemen umgehen können, stellt
sich heute immer mehr die Frage, was für Muster und Informationen in den
Daten versteckt sind, die vielleicht nicht offensichtlich oder mit herkömmli-
chen Methoden überhaupt nicht analysierbar sind.
In den letzten Jahren hat die Rechenleistung von Systemen weiter stark zu-
genommen. Auch wenn sich möglicherweise ein Ende von Moore’s Law ab-
zeichnet, so sind die Leistungsgewinne der letzten Jahre dennoch enorm ge-
wesen. Zahlreiche KI-Algorithmen profitieren zudem von der ausgebauten
Computing-Leistung moderner CPUs und Grafikkarten oder sogar von dedi-
zierter Hardware, etwa Tensor Processing Units zur Beschleunigung von neu-
ronalen Netzwerken. Diese Leistungsgewinne machen bestehende Ansätze,
die vorher beispielsweise durch die Trainingsdauer bedingt nicht marktfähig
waren, möglich für Echtzeitanwendungen. Gleichzeitig fanden große Fort-
schritte bei neuronalen Netzen statt, etwa durch den Wechsel zu Rectified
Linear Units wurde die Genauigkeit der Modelle erhöht.
Cloudanbieter haben den Vorteil der ihnen bereitstehenden Infrastruktur.
Kleinere Anbieter können sich kaum durchsetzen, da die Investitionskosten
und Betriebskosten von entsprechend leistungsfähiger Hardware nicht zu
unterschätzen sind. Als Cloudanbieter wird die übrig gebliebene Hardware-
kapazität ausgenutzt oder zumindest die etablierte Kühltechnik in Rechen-
zentren mit standardisierten Komponenten hilft, die Kosten zu senken.
Gleichzeitig stellt dies aber auch die Cloudanbieter vor das Problem, dass
immer mehr Kunden KI auf ihren Ressourcen betreiben wollen, während die
Bandbreite zu den Rechenzentren nicht mitwächst. Um dies abzumildern,
Big Data & Künstliche Intelligenz
46
werden Berechnungen immer weiter aus dem zentralen Rechenzentrum hin
zu außenstehenden Geräten verlagert. Dieses als Edge-Computing bezeich-
nete Auslagern der Datenverarbeitung aus einem vormals zentralisierten
System ermöglicht es, die Rechenlast und Datenmenge im zentralen System
zu reduzieren und auf die sogenannte „Edge“ zu verlagern. So kann die Re-
chenleistung von kundennahen Netzwerkendpunkten genutzt werden, um
Services bereitzustellen, ohne das zentrale System zu überlasten. Beispiels-
weise können die durch IoT generierten Daten bereits vorverarbeitet wer-
den oder sogar gefiltert, so dass eine Dezentralisierung der Berechnung er-
wirkt wird.
Stück für Stück etabliert sich KI im Alltag vieler Menschen. Bereits jetzt nut-
zen viele Menschen Smart Speaker wie Alexa, Google Home oder Ähnliches.
Die Stimmerkennung dieser Systeme ist bereits eine konkrete und sehr gut
anwendbare Anwendung von KI. Ebenso ist die Ausgabesprache der Geräte
meist ebenfalls vollständig von einer KI synthetisiert. Gleiches gilt für
Sprachsteuerungsfunktionen bei Smartphones. Bestellvorschläge oder an
die Benutzer angepasste Werbung finden nicht mehr durch einfache Richtli-
nien statt, sondern durch eine KI.
Der Bereich der Automatisierung zeigt sich dem Privatanwender immer
mehr im Reifegrad des autonomen Fahrens. Die Situationen sind hierbei zu
komplex, als dass für jede Situation ein konkretes Verhalten programmiert
werden kann. So sind auch hier KIs am Werk, um passend auf Situationen
reagieren zu können. Für den regulären Anwender ist der Einsatz von KI im
Hintergrund kaum noch zu erkennen.
Für die softwareseitige Entwicklung von KI hat sich in den letzten Jahren eine
Vielzahl von Frameworks etabliert.
Diese Frameworks, beispielsweise PyTorch, TensorFlow oder Scikit-learn,
bieten den Entwicklern eine drastische Beschleunigung und Erleichterung
der Entwicklung, da diese die Entwicklung stark abstrahieren und gleich-
zeitig performant arbeiten.
So ist der Fokus bei der Entwicklung weniger technisch getrieben als fachlich,
da die grundlegenden Funktionen bereits in den Frameworks eingebettet
sind und der Benutzer hauptsächlich die Parameter dafür definiert, anstatt
selbst auf unterster Ebene ein neuronales Netz entwickeln zu müssen oder
den Clustering-Algorithmus selbst zu implementieren.
So kann die technische Seite abstrahiert betrachtet werden und „best prac-
tices“ können für die Frameworks erarbeitet werden. Dadurch sinkt die
Big Data & Künstliche Intelligenz
47
Durchlaufzeit von Projekten enorm, da nicht stark proprietäres Wissen be-
nötigt wird, sondern eine Gemeinschaft das Werkzeug bereitstellt.
4.1 Kategorien der Künstlichen Intelligenz
Im Feld der KI lassen sich die Methoden, die vor allem im Kontext des Ma-
chine Learning angewendet werden, in zwei Kategorien unterteilen. Diese
unterscheiden sich darin, wie die einzelnen konkreten Modelle trainiert und
wie sie weiter verbessert werden. Generell kann zwischen Supervised Lear-
ning und Unsupervised Learning unterschieden werden.
Abbildung 7: Verschiedene Kategorien des Machine Learning
Beim sogenannten Supervised Learning erhält ein Algorithmus einen be-
stimmten Input und einen dazugehörigen Output. Im Kontext des sogenann-
ten Trainingsprozesses wird das neuronale Netz, oder auch in vielen Anwen-
dungen das tiefschichtige neuronale Netz, sogenanntes Deep Learning, trai-
niert, damit der entsprechende Input zum gewünschten Output führt. Gene-
rell werden diese Methoden häufig im Kontext der Bildverarbeitung verwen-
det, sodass beispielsweise Bilder klassifiziert werden könnten ‒ siehe Bei-
spiel Pinterest ‒ oder aber auch die Bilder entsprechend analysiert und Ob-
jekte auf diesen Bildern gefunden werden können.
Big Data & Künstliche Intelligenz
48
4.1.1 Supervised Learning
Eine gängige Aufgabe, bei der „supervised learning“ angewendet wird, ist
die Klassifikation von Objekten oder Bildern. Dies bedingt jedoch, dass zum
Training bei jedem Input bereits der erwartete Output bekannt ist. Dies kann
beispielsweise eine manuell oder anderweitig klassifizierte Liste von Daten-
punkten sein. Beim Beispiel der Bilderkennung ist also für jedes Trainingsbild
bekannt, welches Objekt darauf zu sehen ist. Alle Bilder des Trainingssets für
unser Modell werden durchlaufen und das Modell jeweils nun so angepasst,
dass der korrekte Output entsteht. Am Ende entsteht so ein trainiertes Mo-
dell, welches jeden Input in eine der bekannten Klassen einordnen kann.
Dies funktioniert also am besten, wenn die möglichen Outputs bekannt sind,
also konkret benannt und interpretiert werden können. Ein so trainiertes
Modell kann nur in die ihm genannten Kategorien klassifizieren und wird
auch komplett neue Objekte in eine der bestehenden Klassen einordnen.
Das „supervised“ steht hierin für die „Überwachungsmöglichkeit“ anhand
der erwarteten Outputs. Wir können also durch das Outputsignal beurteilen,
ob unser Modell funktioniert.
4.1.2 Unsupervised Learning
Eine gänzlich andere Methode stellt das „unsupervised learning“ dar. Diese
Methodik wird dann verwendet, wenn zu einem bestehenden Input-Daten-
satz keine grundlegenden Output-Datensätze erhalten sind und primär nach
Mustern in den bestehenden Datensätzen gesucht werden soll. Eine be-
liebte Methode ist beispielsweise das Clustering. Es ist insoweit „unsupervi-
sed“, als dass wir ein Modell erhalten, dessen Outputs wir nicht vorbestimmt
haben und dadurch nicht mit Erwartungen abgleichen können. Beispiels-
weise kann beim Clustering der Kundendaten eine ganz neue, separate Kun-
dengruppe aufgedeckt werden, welche vorher nicht bekannt war.
4.1.3 Reinforcement Learning
Reinforcement Learning-Methoden zielen darauf ab, Beobachtungen aus
der Interaktion mit ihrer Umwelt zu nutzen, um Maßnahmen zu ergreifen,
die eine sogenannte Belohnungsfunktion maximieren oder das Risiko mini-
mieren. Der Reinforcement Learning-Algorithmus (der sogenannte Agent)
lernt kontinuierlich und iterativ von der Umgebung, in der er eingesetzt wird.
Big Data & Künstliche Intelligenz
49
Dabei lernt der Agent aus seinen Erfahrungen mit der Umwelt, bis er die
ganze Bandbreite möglicher Zustände erforscht.
Reinforcement Learning ist eine Form des maschinellen Lernens und damit
auch ein Zweig der KI. Es erlaubt Maschinen und Software-Agenten, auto-
matisch das ideale Verhalten in einem bestimmten Kontext zu bestimmen,
um seine Leistung zu maximieren. Damit der Agent sein Verhalten lernt, ist
eine einfache Belohnungsrückmeldung erforderlich, dies wird als Verstär-
kungssignal innerhalb des Algorithmus gewertet.
Abbildung 8: Funktionsweise Reinforcement Learning
Es gibt viele verschiedene Algorithmen, die dieses Problem angehen. Tat-
sächlich wird das Reinforcement Learning durch eine bestimmte Art von
Problem definiert, und alle seine Lösungen werden als Reinforcement Lear-
ning-Algorithmen klassifiziert. Bei diesem Problem soll ein Agent auf der
Grundlage seines aktuellen Zustands entscheiden, welche Aktion am besten
zu wählen ist. Wenn dieser Schritt wiederholt wird, wird das Problem als ein
Markov-Entscheidungsprozess bezeichnet.
Um intelligente Programme (auch Agenten genannt) zu erzeugen, durchläuft
das Reinforcement Learning die folgenden Schritte:
• Der Input-Zustand wird vom Agenten beobachtet.
• Die Entscheidungsfunktion wird verwendet, damit der Agent eine Ak-
tion ausführt.
• Nachdem die Aktion ausgeführt wurde, erhält der Agent eine Beloh-
nung bzw. Verstärkung aus der Umgebung.
• Die Zustände und Werte über die Belohnung sowie die Parameter
des Netzes werden gespeichert.
Big Data & Künstliche Intelligenz
50
Anwendungsfälle:
Einige Anwendungen von Reinforcement Learning-Algorithmen sind bei-
spielsweise Computerspiele, Brettspiele (Schach, Go), Roboterhände und
selbstfahrende Autos. Primär kann zusammengefasst werden, dass die sich
verstärkend lernenden Algorithmen immer gut für Anwendungsfälle eignen,
die klar ausdefiniert werden können und sich gemäß einem klar definierten
Ziel optimieren lassen.
Diese Algorithmen lassen sich auch in die Domäne der industriellen Ferti-
gung einbetten, da Produktionsprozesse hinsichtlich ihrer Produktionsab-
laufplanung und Steuerung, beispielsweise gemäß einer geringen Durchlauf-
zeit der Prozesse oder aber auch einem Minimum an Ausschuss, optimiert
und verstärkt werden können. Das Reinforcement Learning birgt ein enor-
mes Potenzial für Anwendungen der KI und steht noch am Anfang des Pra-
xistransfers.
4.2 Aktuelle Methoden und Machine Learning-Sys-
teme
4.2.1 Computer Vision
Computer Vision beschreibt die Methoden und Anwendungsgebiete im Kon-
text der maschinellen Bildverarbeitung. Viele Algorithmen auf Basis von
Deep Learning und sogenannten Convolutional Neuronal Networks werden
im Kontext der Bildverarbeitung bzw. der automatisierten Erkennung von
Objekten auf Bildern verwendet. Ein weitreichendes Anwendungsgebiet fin-
den diese Algorithmen in unterschiedlichen Branchen wie beispielsweise der
Gesundheitsbranche, der produzierenden Industrie, aber auch im autono-
men Fahren. Innerhalb des autonomen Fahrens sind diese Mechanismen un-
erlässlich. Ein Auto, welches permanent Auswertungen hinsichtlich der Um-
gebungsobjekte durchführen muss, ist auf solche trainierten neuronalen
Netze angewiesen, um die Umwelt durch die entsprechenden Kamerasys-
teme permanent in Beobachtung zu haben.
4.2.2 Anomaly Detection
Anomaly Detection oder zu Deutsch Anomalieerkennung ist ein Prozess der
Identifizierung unerwarteter Elemente oder Ereignisse in Datensätzen, die
Big Data & Künstliche Intelligenz
51
vom normalen Verhalten ausgehend vom Trainingsdatensatz abweichen.
Die Ansätze im Kontext der Anomalieerkennung basieren auf zwei Grundan-
nahmen: Die relative Häufigkeit, mit der Anomalien auftreten, ist sehr gering
und sie unterscheiden sich aufgrund ihrer spezifischen Merkmale von nor-
mal gearteten Datensätzen. Dies geschieht unter der Annahme, dass mul-
tidimensional nach Abweichungen innerhalb eines Datensatzes gesucht wer-
den kann, sprich, alle verwendeten Attribute eines Datensatzes werden mit
in die Analyse einbezogen.
Eine Anomalie kann beispielsweise auf kritische Vorfälle, wie Betrug, oder
potenzielle unternehmerische Gegebenheiten, wie eine Änderung des Kon-
sumverhaltens bei Kunden, hinweisen. So zeigen Studien, dass alleine im
deutschsprachigen Raum bei einem Betrugsversuch im Schnitt Kosten in
Höhe von über EUR 100.000,‒ anfallen können.
Heutzutage gibt es zahlreiche Tools und Programme, die den täglichen Ab-
lauf eines Unternehmens unterstützen, protokollieren und analysieren. So
kann die Leistung eines Unternehmens untersucht oder Prozesse auf Perfor-
mance und Compliance überprüfen werden. Das tägliche Geschäftsvorkom-
men wird auch als „Business as usual“ bezeichnet. Die Anomalieerkennung
zielt darauf ab, alle Abweichungen, die nicht mit dem „Business as usual“
übereinstimmen, zu identifizieren und zu analysieren. Aufgrund der hohen
Menge an Daten, die anfallen, und der steigenden Komplexität ist eine ma-
nuelle Durchführung nicht mehr vorstellbar.
Anomalien werden grundsätzlich in drei verschiedene Kategorien unter-
schieden. Die erste Kategorie ist die punktuelle bzw. lokale Anomalie. Dabei
sticht ein Punkt beispielsweise aufgrund seiner Abweichung zum Standard
aus einem bestehenden Datensatz heraus. Die univariate Anomalie kenn-
zeichnet sich hierbei nur durch eine Änderung in einer Datendimension.
Multivariate Anomalien kristallisieren sich hingegen erst durch die Betrach-
tung mehrere Dimensionen heraus. Eine isolierte Betrachtung einzelner Di-
mensionen würde sich hierbei jedoch als korrekt erweisen. Die zweite Kate-
gorie sind kontextuelle Anomalien. Anomalien fallen hierbei erst auf, wenn
sie in einem größeren Zusammenhang und dem jeweiligen Kontext gesehen
werden. So kann ein hoher Verbrauch an Strom in den Arbeitsbüros am
Abend als normal gesehen werden, in der Nacht allerdings nicht mehr. Dies
könnte beispielsweise der Tatsache geschuldet sein, dass ein Mitarbeiter im-
mer vergisst, das Licht auszuschalten. Die letzte Kategorie sind die kol-
lektiven Anomalien. In dieser Kategorie lassen sich einzelne Datenpunkte
auch mit unterschiedlichem Kontext nicht als Anomalie fassen. Erst durch
eine Gruppierung der Daten lassen sich hier Anomalien feststellen.
Big Data & Künstliche Intelligenz
52
4.2.3 Natural Language Processing (NLP)
NLP zählt zum Teilbereich der KI und ermöglicht es Computern, natürliche
Sprache zu verstehen. Dabei wird die natürliche Sprache in Form von Text-
oder Sprachdaten mit Hilfe von Techniken und Methoden maschinell verar-
beitet. Computer sind somit in der Lage, Sprache zu verstehen und mit dem
Menschen zu kommunizieren. Dabei wird NLP in zwei große Teilbereiche
aufgeteilt: Natural Language Understanding und Natural Language Genera-
tion. Ersteres beschäftigt sich mit dem Mapping von natürlicher Sprache als
Input zu einer sinnvollen Repräsentation und der Analyse (Mensch -> Ma-
schine).
Natural Language Generation beschäftigt sich mit der Erstellung sinnvoller
Ausdrücke und Sätze (Maschine -> Mensch). Ein Beispiel der Kommunikation
zwischen Menschen und Maschinen sind Chatbots. Der Chatbot muss in der
Lage sein, den von Menschen geschriebenen Text zu verstehen und zu die-
sem passend zu antworten. Das Verstehen der eigenen Sprache erscheint
für uns Menschen trivial, mathematische Berechnungen hingegen können
für uns sehr herausfordernd sein. Für den Computer ist es genau umgekehrt.
Mit komplexen mathematischen Berechnungen kommt der Computer zu-
recht, wobei das Verstehen eines einfachen Satzes mit Kontext bislang nicht
ohne weiteres möglich ist. Es gibt nämlich eine unendliche Kombinations-
möglichkeit an Wörtern zu möglichen Sätzen, zudem kommt die Bedeutung
des Geschriebenen bzw. Gesagten hinzu. Handelt es sich um Ironie, Mehr-
deutigkeit oder das Lesen zwischen den Zeilen? Das sind alles Herausforde-
rungen, die NLP versucht zu lösen. Dabei werden drei Aspekte für ein Ver-
ständnis angestrebt:
• Syntax: Beschreibt Regeln zur Bildung von Sprachkonstrukten
• Semantik: Beschreibt die Bedeutung der Sprachkonstrukte
• Pragmatik: Beschäftigt sich mit dem Kontext der Wörter
Bis 1980 basierten NLP-Techniken auf komplexen handgeschriebenen Re-
geln. Die Nutzung von Machine Learning revolutionierte in den späten
1980er die Anwendung von NLP-Algorithmen. Die steigende Zunahme der
Rechenleistung und der Einsatz von statistischen Modellen lösten die bishe-
rigen regelbasierten Techniken ab.
Für das tiefe Verständnis von Kontext in einem Text wurde BERT eingeführt.
BERT ist eine KI und beschreibt einen Algorithmus, der auf NLP und neuro-
nalen Netzen basiert. Eines der größten Hindernisse beim Erstellen neuer
Big Data & Künstliche Intelligenz
53
Modelle zur Spracherkennung im NLP-Bereich ist der Mangel an ungelabel-
ten Trainingsdaten. Hier kommt BERT ins Spiel, da BERT durch insgesamt 3,3
Milliarden ungelabelter Wörter aus Wikipedia-Artikeln und Büchern vortrai-
niert wurde. Das daraus entstandene Sprachmodell wurde als Open-Source-
Projekt von Google 2019 veröffentlicht. Sprachmodelle vor der Einführung
von BERT erstellten Wahrscheinlichkeiten des nächsten Wortes auf Basis al-
ler vorherigen Wörter in einem Satz. Das führte zur Problematik, dass alle
nachfolgenden Wörter nicht beachtet wurden. Durch das „bidirektionale
Lernen“ ist BERT das erste Modell, welches alle Vorgänger und Nachfolger
betrachtet. Dadurch lässt sich der Kontext des gesamten Satzes bestimmen
und BERT erzielte State-of-the-art-Performance in insgesamt elf verschiede-
nen NLP-Aufgaben wie beispielsweise Q&A-Systemen, Sentiment-Analyse
oder automatische Zusammenfassungen von Texten.
Die Architektur setzt sich aus aufeinandergestapeltem Encoder unter Ver-
wendung des Attention Mechanismus zusammen, um einen tiefen bidirekti-
onalen Zusammenhang zwischen den Wörtern herzustellen. Durch das „bidi-
rektionale Lernen“ ist das Modell in der Lage, bei jedem Wort den Kontext
von allen Vorgängern und Nachfolgern zu verstehen.
Das Training des BERT-Sprachmodells wird in zwei Phasen unterteilt, das
Pre-Training und das Fine-Tuning. In der Pre-Training-Phase wird das Ver-
ständnis der natürlichen Sprache entwickelt und in der Fine-Tuning-Phase
muss der Nutzer das Modell auf seinen speziellen Usecase trainieren. Im Fol-
genden wird zunächst das Pre-Taining beschrieben, das aus zwei Phasen be-
steht, die parallel ablaufen. Die erste Teil-Phase ist das Masked Language
Model (MLM). Dabei werden 15% aller Wörter „maskiert“ und durch das
[MASK] Token ersetzt. Das Ziel ist, eine genaue Vorhersage der maskierten
Wörter unter Berücksichtigung des Kontextes aller nicht maskierten Wörter
zu treffen. Die zweite Teil-Phase ist die Next Sentence Prediction (NPS). Hier-
bei wird bei zwei aufeinanderfolgenden Sätzen geprüft, ob der zweite Satz
ein sinnvoller Nachfolger des ersten ist. Nach Abschluss beider Phasen ist
das Sprachmodell in der Lage, natürliche Sprache zu verstehen. Google ver-
öffentlichte diese Sprachmodelle zur freien Verfügung. Die Anpassung die-
ser Modelle auf den bestimmten Anwendungsfall ist das sogenannte Fine-
Tuning. Auf diese Weise wird die letzte Schicht des neuronalen Netzwerks
angepasst, um die verschiedenen Daten, die zum Fine-Tuning verwendet
werden, genau zu verstehen. Angenommen, der genutzte Datensatz ist von
den Amazon Produktreviews, die unter anderem den Produktnamen, die Be-
wertung und Bewertungspunkte enthalten. In diesem fiktiven Szenario wird
das Modell trainiert, um Vorhersagen über die Bewertungspunkte auf Basis
des Produktes und der Bewertung zu treffen. So lassen sich jetzt
Big Data & Künstliche Intelligenz
54
Bewertungspunkte über Produkte vorhersagen, die BERT vorher noch nicht
gesehen hat.
4.3 Klassische Algorithmen im Bereich Machine Lear-
ning
Die Basis von verschiedensten Algorithmen im Kontext KI, speziell im Bereich
Machine Learning, ist auf die im folgenden beschriebenen Algorithmen-
Grundkonzepte zurückzuführen. Dies sind primär Methoden, die in klassi-
schen Data Analytics eingesetzt werden und schon seit geraumer Zeit in
praktischen Anwendungsfällen zum Einsatz kommen. Als charakteristisch
kann festgehalten werden, dass diese Algorithmen meist nicht trainiert wer-
den müssen, sondern auf geringen Datenmengen angewendet werden. Im
Folgenden werden diese näher erläutert.
4.3.1 Decision Trees
Unter einem Entscheidungsbaum versteht man eine baumartige Struktur zur
Modellierung von Entscheidungsfragen und den möglichen Antworten. Ent-
scheidungsbäume lassen sich in den Bereich des überwachten Lernens ein-
ordnen und unterstützen Klassifikations- und Regressionsprobleme. Ent-
scheidungsbäume zeichnen sich durch ihre hohe Genauigkeit und die einfa-
che Interpretation aufgrund der visuellen Darstellung aus. Statistische
Kenntnisse werden nicht benötigt, um Entscheidungsbäume zu lesen und zu
verstehen.
Der Entscheidungsbaum in Abbildung 9 hilft bei der Klassifizierung, ob eine
Person körperlich fit ist oder nicht. Der Entscheidungsbaum wurde mit Hilfe
von vorhandenen Daten aufgebaut. Ziel ist es, mit Hilfe der zugrundeliegen-
den Daten Vorhersagen über zukünftige Daten zu treffen. So würde sich in
diesem Beispiel eine 40-jährige Person, die keine Pizza isst, als fit klassifizie-
ren lassen. Der zugrundeliegende Algorithmus teilt die Daten durch gezielte
If-Then-Else-Entscheidungsregeln in kleinere Datenmengen auf und stellt ei-
nen Entscheidungsbaum dar. Der Entscheidungsbaum entspricht einem ge-
richteten Graphen mit Knoten und Kanten. Um eine Entscheidung zu treffen
bzw. die Klassifikation vorzunehmen, startet man an der Wurzel des Baumes
und folgt der Einteilung, bis man ein „Blatt“ erreicht hat. Das Blatt entspricht
der vorherzusagenden Variablen, also der Klassifizierung, wie in Abbildung 9
exemplarisch dargestellt wird.
Big Data & Künstliche Intelligenz
55
Abbildung 9: Beispiel Decision Tree
Abhängig von der Entscheidungsfrage wird die signifikanteste Variable iden-
tifiziert, anhand der die beste Partitionierung in homogene Populationsgrup-
pen erfolgt. Die Findung dieser Variablen als auch die Aufteilung erfolgt
durch verschiedene Algorithmen und beeinflusst die Qualität des erzeugten
Entscheidungsbaumes. Die grundlegende Idee ist, die Daten rekursiv und mit
dem Top-down-Ansatz zu partitionieren und dabei den Partitionierungs-
Baum zu erhalten. Pro Partitionierung wird die Qualität anhand eines Quali-
tätsmaßes bestimmt und die beste Option ausgewählt. Im Umkehrschluss
bedeutet das, dass es sich hierbei um einen Greedy-Algorithmus handelt,
der sich nur pro Split optimal entscheidet und nicht für alle gleichzeitig. So-
mit kann eine optimale Lösung nicht gewährleistet werden. Gini Impurity
und Entropy sind mögliche Kriterien für den Split eines Entscheidungsbau-
mes. Beide messen den Informationsgehalt für den Split eines Knotens, wer-
den allerdings unterschiedlich berechnet.
Somit ist die Wahl entscheidend für die Qualität des Entscheidungsbaumes.
Eine Herausforderung bei der Erstellung der Entscheidungsbäume ist das
Overfitten. Overfitting bedeutet, dass das Modell zu genau an den bestehen-
den Datensatz angepasst ist und für neue Werte ungenaue Ergebnisse vor-
hersagt. Eine Möglichkeit, dem Overfitting entgegenzuwirken, ist das
Pruning. Unter Pruning versteht man das Anpassen und Löschen weniger re-
levanter Teile des Entscheidungsbaumes. Das steigert nicht nur die Lesbar-
keit, sondern reduziert auch das Overfitting.
4.3.2 Support vector machines
Der SVM-Algorithmus gehört zur Kategorie der Supervised Learning-An-
sätze. Er kann für Klassifikations- und Regressionsaufgaben eingesetzt
Big Data & Künstliche Intelligenz
56
werden. Das Grundkonzept dieses Algorithmus besteht darin, verschiedene
Klassen linear zu unterteilen, wie in Abbildung 10 zu sehen ist. Hier werden
zwei Dimensionen und zwei Klassen, die linear getrennt sind, veranschau-
licht. Der Algorithmus maximiert den Abstand zwischen den Klassen, wel-
cher innerhalb eines Trainingsdatensatzes bereitgestellt und in den Klassifi-
zierer eintrainiert wird.
Dies wird anhand eines sogenannten Margin-Klassifikators durchgeführt.
Um eine optimale Klassifikation bereitzustellen, verwendet der Algorithmus
die Datenpunkte, die eine maximale Trennung zwischen den verschiedenen
Klassen ermöglichen. Die ausgewählten Datenpunkte, die die Geraden zwi-
schen den Klassen definieren, werden als Stützvektoren bezeichnet, von de-
nen der Algorithmus seinen Namen ableitet.64
Einer der Nachteile des Hard Margin Classifier-Ansatzes ist, dass er zu einer
Überanpassung führen kann (das bereits erwähnte Overfitting), da keine
Fehler erlaubt sind. Dies führt oft zu einer guten Leistung bei Trainingsdaten,
aber zu einer weniger guten bei neuen Datensätzen, die der Algorithmus
klassifizieren soll.
4.3.3 Naïve Bayes
Naïve Bayes-Klassifikatoren sind eine Klasse von überwachten Lernalgorith-
men, die auf dem Bayes-Theorem basieren. Es wird allgemein davon ausge-
gangen, dass alle diese Algorithmen zur Klassifizierung von Daten eingesetzt
werden. Jedes Merkmal der zu klassifizierenden Daten ist unabhängig von
allen anderen in der jeweiligen Klasse und vorhandenen Merkmalen. Diese
sogenannten Features sind unabhängig voneinander, wenn Änderungen im
Wert dieses Features keine Auswirkungen auf den Wert eines anderen
Merkmals haben.
Auf der Grundlage der Klasse eines Trainingsbeispiels im Datensatz berech-
net der Algorithmus auf der Grundlage dieser Werte die Wahrscheinlichkeit,
dass jedes Merkmal zu dieser bestimmten Klasse gehört. Wenn neue Daten-
punkte klassifiziert werden, berechnet der Algorithmus die Klassenwahr-
scheinlichkeit für jedes Merkmal separat. Für jede Klasse wird das Produkt
dieser Wahrscheinlichkeiten berechnet, und die Klasse mit der höchsten
Wahrscheinlichkeit wird ausgewählt. Dies ist ein generativer Ansatz der Klas-
sifizierung. Letztlich werden die Ergebnisse mit dem höchsten
64 Vgl. [57]
Big Data & Künstliche Intelligenz
57
Wahrscheinlichkeitswert als Ergebnis präsentiert und die Kategorisierung
entsprechend vorgenommen.
Bayes-Algorithmen werden für viele Aufgaben angewendet wie z.B. Text-
Retrieval oder Spam-Klassifikation.65 Ein großer Vorteil ist ihre Skalierbarkeit
für neue Merkmale, was besonders bei großen Datensätzen nützlich ist.66
Naïve Bayes-Klassifikatoren wurden früher sehr oft im Kontext der Klassifi-
zierung von natürlicher Sprache eingesetzt. Die Klassifikatoren werden aber
auch zur klassischen Klassifizierung von Daten in bestimmte Kategorien ver-
wendet, um beispielsweise Rückschlüsse darauf zu ziehen, ob eine Perso-
nengruppe, die sich nicht sportlich betätigt und raucht, tendenziell überge-
wichtig ist oder nicht. Die Klassifikatoren können aber auch generell dazu
verwendet werden, um Bildmaterialien nach vorgegebenen und festen Re-
geln zu klassifizieren. Dies erfordert natürlich eine spezielle Bereitstellung
der zu nutzenden Datensätze. Nachteile dieser Klassifikatoren sind die auf-
wändige Bereitstellung und die Vorverarbeitung der Daten. Wenn es sich um
Klassifizierung und Erkennung von Objekten auf Bildern handelt, dann sind
diese Klassifikatoren nicht mehr zu empfehlen und weichen aktuell den
neuen Methoden aus dem Bereich Deep Learning.
4.3.4 k-Nearest Neighbors (k-NN)
k-Nearest Neighbors ist ein Klassifikations- oder Regressions-Algorithmus,
der zur Klassifikation eines Datenpunktes durch mathematische Abstands-
berechnung seine k-nächsten Datenpunkte berechnet. Hierbei handelt es
sich um ein Verfahren aus dem Bereich Supervised Learning, welcher sich
grundsätzlich durch zwei verschiedene Merkmale von anderen Lern-Algo-
rithmen unterscheidet:
• Lazy Learning-Algorithmus: k-Nearest Neighbors wird auch als Lazy
Learning-Algorithmus bezeichnet, da im Trainingsprozess das Daten-
set lediglich gespeichert wird, aber keinerlei Berechnungen durchge-
führt werden.
• Nicht parametrisierte Algorithmen: Das Modell wird nur aus den vor-
handenen Daten erstellt und es werden keinerlei Annahmen getrof-
fen.
65 Vgl. [60]
66 Vgl. [61]
Big Data & Künstliche Intelligenz
58
k-NN wird schon seit 1970 zur Mustererkennung und für statistische Schät-
zungen genutzt. So kann mit einem bestehenden Datensatz mit gelabelten
Daten eine Vorhersage für einen neuen Datensatz getroffen werden. Wie
bei anderen Klassifikationsalgorithmen hat jeder Eintrag des Datensatzes
mehrere Eigenschaften (Features) und eine Klasse. Für ein einfacheres Ver-
ständnis siehe Abbildung 10:
Abbildung 10: Klassifizierung k-NN-Algorithmus
Alle Datensätze sind hier zum einfachen Verständnis in ein Koordinatensys-
tem abgetragen. Insgesamt beläuft sich der Datensatz auf zehn Einträge, wo-
bei jeweils fünf zu Klasse A und zu Klasse B gehören. Die Anzahl k muss vor
der Ausführung des k-NN spezifiziert werden. In diesem Fall wurde k = 3 ge-
wählt. Somit werden die drei nächsten Nachbarn betrachtet, um den Punkt,
der als Stern dargestellt ist, vorherzusagen. In diesem Fall gehören die nächs-
ten zwei Nachbarn des Stern-Punktes zu Klasse B und einer zu Klasse A und
das vorherzusagende Objekt wird als Klasse B klassifiziert.
Die Trainingsphase besteht nur aus der Speicherung der Features und den
entsprechenden Labeln. Während der Klassifikation wird anhand der k-
nächsten Nachbarn die Klassifizierung des vorherzusagenden Objektes
durchgeführt. Die Berechnung der nächsten Nachbarn erfolgt durch eine
Distanzfunktion. Dies ist abhängig von der Wahl der kontinuierlichen oder
numerischen Variablen. Eine mögliche Distanzfunktion ist beispielsweise die
Euklidische-, Manhattan- oder die Hamming-Distanz. Der k-NN-Algorithmus
ist folgendermaßen aufgebaut:
Big Data & Künstliche Intelligenz
59
• Laden aller Daten
• Auswahl der Anzahl an k-nächsten Nachbarn
• Für jedes Element:
o Berechne die Distanz zwischen dem aktuellen und dem zu
klassifizierenden Element
o Speichere die Distanz und den Index in einer geordneten
Sammlung
• Sortiere alle Elemente in absteigender Reihenfolge in Abhängigkeit
von der Distanz
• Entnimm die ersten k-Elemente
• Betrachte nur noch die Labels
o Falls Regression: Gib den Mittelwert der Labels zurück
o Falls Klassifizierung: Gib das am häufigsten vorkommende La-
bel zurück
Eine der Herausforderungen ist die richtige Wahl der Zahl für k. Die Daten
sind in den meisten Fällen zunächst unbekannt. Ein Lösungsvorschlag ist, das
Modell für mehrere k´s zu trainieren und manuell zu überprüfen, für welches
k die besten Ergebnisse erzielt werden.
Um eine gute Genauigkeit der Vorhersagen zu erhalten, werden zwei Merk-
male vorausgesetzt:
1. Die Daten liegen normalisiert vor. Die Features sollten beispielsweise
nur zwischen 0 und 1 liegen. Somit ist eine gleichmäßige Gewichtung
aller Features gewährleistet.
2. Die Menge an Features sollte angemessen klein sein. Bei einer hohen
Anzahl an Dimensionen werden die Vektoren aufgrund der Distanz-
berechnung zu ähnlich mit dem zu klassifizierenden Vektor. Somit
lassen sich keine genauen Aussagen über die Ähnlichkeiten bzw. Un-
terschiede treffen. Man spricht hier vom „Fluch der Dimensionali-
tät“.
Ein möglicher Einsatzbereich von k-NN ist innerhalb von Empfehlungssyste-
men. Ein Empfehlungssystem, welches den meisten Nutzern geläufig ist, ist
die Filmempfehlung von Netflix. Die Nutzerdaten bestehen aus gesehenen
Filmen und den Bewertungen. Auf Basis gemochter Filme lassen sich ähnli-
che Filme vorschlagen, die dem Nutzer gefallen könnten.
Big Data & Künstliche Intelligenz
60
Ein weiterer essenzieller Anwendungsfall spiegelt sich im Kontext der Kauf-
empfehlung, beispielsweise durch die Gruppierung von verschiedenen Kun-
dengruppen, wider. Somit können einem potenziellen Käufer proaktiv ähn-
liche Produkte sowie Produkte, die auch von anderen Kundengruppen ge-
kauft wurden, die an diesem Segment interessiert sind, beispielsweise einer
speziellen Einkommensgruppe unterliegen oder spezielle Vorlieben für Gü-
ter haben, unterbreitet werden.
4.3.5 k-Means
Bei der Clusteranalyse handelt es sich um eine sinnvolle Zuordnung von ei-
ner gegebenen Menge an Objekten bzw. Daten zu einzelnen oder mehreren
Clustern.
Beim Clustering wird die Eingabe in disjunkte Teilmengen klassifiziert (Clus-
ter), so dass diese sich maximal ähnlich sind. Eine Methode zur Durchfüh-
rung der Clusteranalyse ist beispielsweise der k-Means-Algorithmus. Diese
Methode zählt zur Gruppe des unüberwachten Lernens. Das bedeutet, dass
die Zielstruktur des auszuführenden Algorithmus nicht gegeben ist. Sprich,
das Ergebnis der Klassifizierung ist am Anfang nicht klar und wird erst durch
die Ausführung des Algorithmus bekannt. Dabei besteht die Hauptaufgabe
des Algorithmus im Finden von neuen Mustern, die sich aus den Rückschlüs-
sen von Daten erkennen lassen. Dabei klassifiziert der k-Mean-Algorithmus
einen Datensatz in k-Cluster, sodass sich in jedem der k-Cluster ähnliche Da-
ten befinden. Die Wahl des Parameters k, eine positive Zahl > 0, erfolgt durch
den Anwender. Die Wahl, k = 1 zu setzen, entspricht natürlich nur der ge-
samten Datenmenge. Aus diesem Grund wird empfohlen, k > 1 zu nehmen.
Nach der Auswahl von k erfolgt das Clustering über mehrere Schritte, die
teilweise iterativ ablaufen:
• Zufällige Bestimmung der k-Mittelpunkte
• Zuweisung neuer Elemente zum nächsten Mittelpunkt (geringster
Abstand)
• Neue Berechnung der Mittelpunkte aller Cluster
Die letzten zwei Schritte werden iterativ so lange ausgeführt, bis sich die Zu-
ordnungen der Datenelemente zu den Clustern nicht mehr ändern oder eine
vorgegebene Anzahl an Iterationen erreicht wurde. Bei jeder Iteration wer-
den die Abstände der Punkte innerhalb des gleichen Clusters minimiert und
die Abstände zum nächsten Cluster maximiert. In den ersten Iterationen
Big Data & Künstliche Intelligenz
61
treten hierbei die größten Änderungen hinsichtlich der Distanz auf, diese
werden nach jeder Iteration immer geringer.
Abbildung 11: k-Means-Iterationen
In Abbildung 11 wird die Funktionsweise des Algorithmus visualisiert. Vor
Iteration 1 werden die Startpunkte (k1, k2 und k3) zufällig gesetzt. Nach je-
der Iteration werden die vorhandenen Cluster evaluiert und die neuen Mit-
telpunkte berechnet. Nach Iteration 6 endet der Algorithmus für das gege-
bene Beispiel.
Eines der größten Probleme, die der k-Means-Algorithmus hat, ist die zufäl-
lige Auswahl der initialen Mittelpunkte. Je nachdem wie diese Punkte ge-
setzt werden, können sich im Resultat unterschiedliche Cluster bilden.
Abbildung 12: Setzen der Startpunkte
Wie in Abbildung 12 zu sehen ist, führt die Wahl der Mittelpunkte zu zwei
verschiedenen Ergebnissen. Optisch lässt sich in diesem Fall leicht erkennen,
dass das Ergebnis auf der linken Seite besser ist als das auf der rechten Seite.
Big Data & Künstliche Intelligenz
62
Ein weiteres Problem stellt die Bestimmung der Anzahl an k-Clustern dar.
Wie bereits erwähnt, liegt zu Beginn keine Information über das Aussehen
der Daten vor. Dadurch lässt sich nicht feststellen, wie hoch k gesetzt wer-
den soll. Eine ungeeignete Menge an Clustern führt zur Verfälschung der Er-
gebnisse. Ein Lösungsvorschlag ist, mehrere Durchläufe mit unterschiedli-
chen Mengen an Clustern durchzuführen. Zudem sind Ausreißer in den Da-
tensätzen problematisch, da sie das Ergebnis stark beeinflussen können. k-
Means ist leider nicht in der Lage, Ausreißer zu erkennen. So wird zunächst
ein Preprocessing-Schritt empfohlen, um diese zu finden und den Datensatz
zu bereinigen.
Aufgrund vieler praxisnaher Herausforderungen werden innerhalb der k-
Means-Familie zahlreiche Varianten des Algorithmus angeboten. Dazu gehö-
ren unter anderem K-means ++, K-mediods und Fuzzy C-means. k-Means fin-
det in unterschiedlichen Bereichen Anwendung. So wurden in klassischen
Ansätzen diese Methoden bereits in der Bildverarbeitung zur Segmentierung
von Bilddaten eingesetzt. Weitere Anwendungsmöglichkeiten sind Analysen
von Kundendaten. So können diese in homogenen Gruppen abgebildet wer-
den, um Kaufaktivitäten der Kunden zu bestimmen.
Wann und wo kommt der Algorithmus zum Einsatz?
Diese Art von Algorithmus kommt immer dann zum Einsatz, wenn Daten
nach verschiedenen Attributen und Dimensionen zusammengefasst werden
müssen. Sogenannte Klassifizierungsverfahren können beispielsweise im
Kontext von explorativer Datenanalyse gezielt angewendet werden. Wenn
man als Data Scientist beispielsweise einen Datensatz vorliegen hat und man
möchte sich einen Überblick verschaffen und Muster erkennen, die inner-
halb dieses Datensatzes eventuell bestehen, dann eignet sich dieser Ansatz
besonders gut. Somit kann der vorangegangenen Hypothese, dass es Grup-
pierungen innerhalb der Daten gibt, nachgegangen werden. Wenn es bspw.
darum geht, verschiedene Gruppen von Kundendaten eines Online-Shops zu
segmentieren, kommt der k-Means-Algorithmus zum Einsatz.
Wichtig bei der Anwendung von k-Means-Algorithmen im Kontext der Pra-
xisanwendung ist, dass diese Art von Algorithmen oft zum Einsatz kommt,
wenn sich ein Data Scientist in der explorativen Datenanalyse-Phase befin-
det. Dies stellt sicher, dass die Daten multidimensional anhand verschiede-
ner Attribute zusammengefügt werden und wichtige fachliche Zusammen-
hänge zwischen den Daten erkannt werden können. Dies hilft, gestellte Hy-
pothesen eines Data Scientist zu untermauern oder zu widerlegen. Zuletzt
ist zu erwähnen, dass in praktischen Anwendungsfällen auch häufig
Big Data & Künstliche Intelligenz
63
sogenannte Scheinkorrelationen innerhalb von Daten gefunden werden.
Dies gilt es, mittels Fachexperten innerhalb eines Analyseprojektes final zu
klären.
4.3.6 Artificial neural networks
Ein auf neuronalen Netzen basierender Algorithmus wurde bereits in den
ersten Jahren der KI-Forschung entwickelt. Sie können sowohl für Unsuper-
vised als auch für Supervised Learning-Ansätze verwendet werden. Allge-
mein sind Künstliche Neuronale Netze von den Prozessen und dem Aufbau
des menschlichen Gehirns inspiriert.
Ein neuronales Netzwerk besteht aus verschiedenen Schichten, die jeweils
aus künstlichen Neuronen bestehen, die mit allen künstlichen Neuronen in
der vorhergehenden Schicht verbunden sind. Die sogenannte Eingabe-
schicht stellt die Eingabedaten dar, die immer aus numerischen Werten be-
stehen. Die Eingabeschicht kann sowohl strukturierte Daten, wie z.B. die
Ausgabe eines Temperatursensors, als auch unstrukturierte Daten, wie z.B.
die Pixel eines Bildes, verarbeiten. Je nachdem, welche Einheiten in den ver-
borgenen Schichten aktiviert sind, liefert die Einheit der Ausgabeschicht eine
Vorhersage. Im Falle der Bilderkennung könnte dies z.B. ein im Bild identifi-
zierter Hund oder eine Katze sein. Dabei ist natürlich darauf zu achten, dass
die Inputdaten in einem entsprechenden eindimensionalen Vektor vorberei-
tet wurden, sodass der Eingabe-Layer des Netzes die Daten auch verarbeiten
kann.
Künstliche Neuronen stellen die Zellen jeder einzelnen Schicht dar. Sie ver-
arbeiten die Eingabedaten und ermöglichen eine Vorhersage. Der Input des
sogenannten Perceptrons sind entweder die Originaldaten aus der Eingangs-
schicht oder in einer tiefen Schicht von verknüpften Neuronen (siehe Deep
Learning). Deep Neural Networks sind neuronale Netze mit mehr als einer
nicht sichtbaren Schicht. Jeder Input wird durch ein spezifisches Gewicht an-
gepasst. Der gewichtete Input wird dann entsprechend verarbeitet und auf-
summiert. Ein Bias (feste Zahl) wird als Abstimmungsvariable hinzugefügt.
Der Ausgang der Zelle wird dann in der Aktivierungsfunktion verwendet, die
den Eingang für die nächste Schicht darstellt.
Um das Netzwerk zu trainieren, werden die Gewichte nach dem Zufallsprin-
zip initialisiert. Anschließend werden die ersten Trainingsdatensätze in das
neuronale Netz eingespeist. Das Ergebnis des Trainingsfalls wird dann mit
dem tatsächlich gewünschten Ergebnis verglichen. Ein Algorithmus namens
Backpropagation aktualisiert dann die Gewichte. Wenn jedoch viele
Big Data & Künstliche Intelligenz
64
Neuronen übereinandergestapelt werden, wird es sehr schwierig, die Ände-
rungen im Endergebnis des gesamten Netzwerks zu kontrollieren. Der we-
sentliche Schritt, um sicherzustellen, dass ein neuronales Netzwerk funktio-
niert, besteht darin, die Ausgangsänderung mit Hilfe einer kontinuierlichen
Aktivierungsfunktion zu glätten und somit Feedback über die Trainings-
schritte zu erhalten.
4.3.7 Convolutional neural networks
Convolutional Networks, auch bekannt als Convolutional Neural Networks
oder CNNs, sind eine spezielle Art von neuronalen Netzen zur Verarbeitung
von Daten, die einen gitterartigen Aufbau haben.67 Beispiele sind Daten zu
Zeitreihen, die man sich als ein eindimensionales Gitter vorstellen kann, das
in regelmäßigen Zeitintervallen Stichproben nimmt, und Bilddaten, die als
ein zweidimensionales Pixelgitter verstanden werden können. Convolutio-
nal Networks haben sich in der praktischen Anwendung als sehr erfolgreich
erwiesen. Der Name „Convolutional Neural Network“ deutet darauf hin,
dass das Netzwerk eine mathematische Operation namens Convolution ver-
wendet. Die Faltung ist eine spezielle Art von sogenannten linearen Opera-
tionen. Faltungsnetzwerke sind einfache neuronale Netzwerke, die in min-
destens einer ihrer Schichten die Faltung anstelle der allgemeinen Mat-
rixmultiplikation verwenden. Gewöhnlich entspricht die in einem neurona-
len Faltungsnetz verwendete Operation nicht genau der Definition der Fal-
tung, wie sie in anderen Anwendungen verwendet wird, z.B. in der Technik
oder in der reinen Mathematik. Wir beschreiben mehrere Varianten der Fal-
tungsfunktion, die in der Praxis für neuronale Netze weit verbreitet sind. Wir
zeigen auch, wie die Faltung auf viele Arten von Daten angewendet werden
kann, mit unterschiedlicher Anzahl der Dimensionen. Faltungsnetzwerke ra-
gen als Beispiel für neurowissenschaftliche Prinzipien heraus und beeinflus-
sen tiefes Lernen.
Die Forschung im Bereich der Architekturen von Convolutional Neural Net-
works schreitet sehr schnell voran, sodass nahezu monatlich bis wöchentlich
neue Architekturen, die für einen bestimmten spezifischen Anwendungsfall
besser geeignet sind, angekündigt werden. Dies wird anhand komplexer
Benchmarks festgehalten.
Aus Sicht der Praxis werden diese Netzwerke häufig im Kontext der Bilder-
kennung eingesetzt. Aber auch im Kontext der Klassifizierung und
67 Vgl. (LeCun, 1989)
Big Data & Künstliche Intelligenz
65
Segmentierung von Objekten auf Bildern werden diese Netztypen speziell
mit der Methodik Deep Learning verwendet. In Kapitel 6 werden einige Bei-
spiele aus der Gesundheitsbranche genannt.
4.3.8 Recurrent neural networks
Reccurent Neural Networks (RNN) gehören zu den klassischen Künstlichen
Neuronalen Netzwerken (KNN). Sie können für Supervised und Unsupervi-
sed Learning, aber auch für Reinforcement Learning eingesetzt werden.
Während Künstliche Neuronale Netzwerke ihre aktuellen Eingabedaten un-
ter der Voraussetzung berücksichtigen, dass sie unabhängig von früheren
Daten sind, sind RNNs in der Lage, frühere Daten zu berücksichtigen (Me-
mory Effekt). Während die Neuronen eines Künstlichen Neuronalen Netz-
werks nur die Eingänge aus früheren Schichten haben, hat das Neuron eines
RNN Abhängigkeiten von seinen früheren Ausgängen, da diese Ausgänge
Schleifen haben. Dies ermöglicht es dieser Art von Algorithmen, Sequenz-
vorhersageprobleme zu berücksichtigen, z.B. den Kontext von Wörtern oder
zeitliche Aspekte.68
Dies bedeutet auch, dass während der Trainingsphase die Reihenfolge der
Eingabedaten eine wichtige Rolle spielt. In der Praxis erhalten RNNs eine Ein-
gabe und berechnen ihren Zustand unter Verwendung aktueller und frühe-
rer Eingaben. Dies wird so lange wiederholt, bis alle gespeicherten früheren
Zustände verarbeitet sind und der Output berechnet ist. Während des Trai-
nings wird das erzielte Ergebnis dann mit dem tatsächlich korrekten Ergebnis
verglichen. Die Gewichte des Netzes können dann aktualisiert werden. Der
einzige Unterschied in Bezug auf übliche KNNs besteht darin, dass bei der
Backpropagation alle gespeicherten früheren Zeitschritte berücksichtigt
werden müssen.
Da es in der Realität nicht möglich ist, alle vorherigen Schritte in einem ge-
meinsamen RNN zu speichern, gehen mit der Zeit Informationen verloren.69
Um dieses Problem zu lösen, wurden verschiedene Architekturen entwi-
ckelt, wie bidirektionale RNNs oder LSTMs. Bidirektionale RNNs berücksich-
tigen nicht nur frühere, sondern auch zukünftige Elemente. Zu diesem Zweck
verwenden sie zwei Neuronen, eines für die Vorwärts- und eines für die
68 Vgl. [74]
69 Vgl. [76]
Big Data & Künstliche Intelligenz
66
Rückwärtsschleife. Sie werden dann mit dem nächsten Vorwärtsneuron ver-
bunden und umgekehrt.70
LSTM-Netzwerke enthalten sogenannte gated cells, in denen Informationen
gespeichert werden können. Während der Vorhersage entscheidet die Zelle,
welche Informationen gespeichert, verwendet oder vergessen werden. Die
Eingangs- und Ausgangsgates lassen die Information passieren oder blockie-
ren sie entsprechend der trainierten Gewichte. Durch die Kombination des
aktuellen Eingangs, des vorherigen Zustands und des Speichers der Zelle ist
diese Architektur in der Lage, die langfristigen Abhängigkeiten in Datensät-
zen zu identifizieren.71
70 Vgl. [77]
71 Vgl. [79]
Big Data & Künstliche Intelligenz
67
5 Fallstudien und praktische Anwendungen von
Künstlicher Intelligenz
KI hat schon heute eine breite Anwendung innerhalb verschiedener Bran-
chen und Themengebiete. Bei der Durchsicht der praktischen Anwendungs-
fälle lassen sich jedoch Schwerpunkte erkennen. Dabei stehen vor allem
stark automatisierte bzw. digitalisierte Branchen und Anwendungsfälle im
Fokus.
Dies liegt letztlich daran, dass in einer digitalisierten Branche bereits zahlrei-
che Datentöpfe und auch Zugriffe auf digitale Prozesse gegeben sind. Nichts-
destotrotz bieten beispielsweise Bereiche wie die Gesundheitsbranche, Fi-
nanzbranche oder Versicherungsbranche und natürlich auch die industrielle
Produktion etc. enorme Anwendungspotenziale für den Einsatz der KI.
In der Abbildung 13 werden verschiedenste Branchen und auch ver-
schiedenste Anwendungsgebiete nach spezifischen Kriterien aufgeteilt. Da-
bei wird unterschieden zwischen verschiedenen Anwendungsfällen und ex-
perimentierwürdigen Problemstellungen sowie auch der Anwendung von
dedizierten Prototypen.
Letztlich ist zu sagen, dass nach aktuellem Stand der Dinge schon heute viele
Anwendungsfälle aktiv genutzt werden und etabliert sind.
Wenn man die aktuelle Anwendungslandschaft betrachtet und dies mit
den potenziellen Möglichkeiten und Marktvolumen von Künstlicher Intel-
ligenz vergleicht, befinden wir uns heute noch auf der Spitze des Eisberges.
Künftig werden mehr und mehr Branchen sowie viele weitere Anwendungs-
fälle zum Tragen kommen, die nicht nur einen evolutionären Charakter im
Sinne einer Prozessverbesserung haben, sondern auch revolutionäre bzw.
disruptive Anwendungsfälle ausgearbeitet werden, die letztlich dazu führen,
dass sich teilweise komplette Geschäftsmodelle und Prozesse disruptiv ver-
ändern werden.
Big Data & Künstliche Intelligenz
68
Abbildung 13: KI-Applikationen in der Industrie und Wirtschaft (Quelle: McKinsey 2018)72
5.1 Künstliche Intelligenz im Kontext mit Smart Home
Innerhalb der Smart-Home-Domäne konnten in den letzten Jahren enorme
Fortschritte in Bezug auf die Vernetzung von verschiedenen Geräten und An-
wendungen erzielt werden. Während in den letzten Jahren der Einsatz von
Software in dieser Branche primär dazu genutzt wurde, einen Kontrollme-
chanismus und Dashboarding in diesem Bereich zu betreiben, kann durch
den Einsatz von KI nicht nur kontrolliert, sondern auch gezielt intelligent ge-
steuert werden. Dies führt letztlich dazu, dass die Smart-Home-Lösungen zu
einem vollständigen Ökosystem ausgebaut werden konnten.
Basierend auf dem Konzept des Internet of Things bestehen diese Ökosys-
teme aus Hardware (z.B. intelligente Geräte, Sicherheitskontrolle Ausrüs-
tung, Mobiliar), Softwaresystemen und cloudbasierten Plattformen.
Dieses Ökosystem integriert Spracherkennung, visuelle (Objekt-)Erkennung,
vortrainierte neuronale Netze, Nutzerprofile etc., um aktiv die Bedürfnisse
der Benutzer zu verstehen. Smart-Home-Anwendungen zielen primär auf die
Interoperabilität der Geräte ab. Weiterhin sind diese eingesetzten Anwen-
dungen und Geräte in der Lage, mittels KI selbst zu lernen. Durch die Samm-
lung und Analyse von Daten zum Nutzerverhalten können personalisierte
Dienstleistungen zur Verfügung gestellt werden. Dies führt letztlich dazu,
dass Häuser immer sicherer, komfortabler und energieeffizienter werden.
72 https://www.mckinsey.com/featured-insights/artificial-intelligence/ai-adoption-advan-
ces-but-foundational-barriers-remain
Big Data & Künstliche Intelligenz
69
Gleichzeitig können solche Systeme auch die Effizienz von Haushaltsgeräten
steuern, indem der Energieverbrauch optimiert wird, was letztlich zu einem
nachhaltigen Wohnstil führt. Die Smart-Home-Industrie kann auch die Ent-
wicklung des etablierten Haushaltsgerätemarktes und die kontinuierliche
Entwicklung beflügeln und auch nachhaltig zur breiten Anwendung von KI
beitragen.
Schon heute sind viele der wichtigsten Hersteller für Haushaltsgeräte aktiv
in die Entwicklung intelligenter Smart-Home-Lösungen und die Integration
dieser in bestehende Ökosysteme involviert. Ausgereifte Anwendungen um-
fassen intelligente Kühlschränke, intelligente Klimaanlagen, intelligente
Waschmaschinen, intelligente Warmwasserbereiter, intelligente Küchenge-
räte, intelligente Lautsprecher und viele andere Geräte, die das Konzept „al-
ler Dinge, die miteinander verbunden sind“ (Internet of Things), widerspie-
geln. Weiterhin gibt es Produkte, die sogar verschiedene Häuser miteinan-
der verbinden und gegenseitig Geräte kontrollieren und große Datenmen-
gen für Vorhersage- und Analyseaufgaben sammeln. Dies dient dazu, dass
nicht nur eine Optimierung aufgrund des Wissens aus einem Haushalt inner-
halb einer KI eintrainiert werden kann, sondern auch dazu, dass die Daten
eines Kollektivs genutzt werden können.
Die Bereiche Smart Home und KI passen aufgrund der befähigenden wech-
selseitigen Einflüsse optimal zueinander, was zu einer kontinuierlichen Wei-
terentwicklung führt. Aktuelle Fortschritte bei Machine Learning, Musterer-
kennung und der IoT-Technologie haben dazu geführt, dass die Interaktivität
ein höheres Niveau erreicht hat und auch die Handlungsfähigkeit sowie die
Benutzerfreundlichkeit enorm angestiegen sind. Dabei lässt sich vor allem
die Sprachsteuerung als neue Nutzerschnittstelle zwischen Menschen und
Maschinen erkennen. Die Interaktionen mit dem eigenen Haus können so-
mit bequem über die eigene natürliche Sprache gesteuert werden. Egal ob
es um die Lichtsteuerung in verschiedenen Räumen geht oder Bestellungen
getätigt werden müssen, all diese Anwendungsfälle sind bereits heute ohne
Probleme möglich. Somit wird es möglich, einige Haushaltsentscheidungen
aktiv oder passiv zu unterstützen.
5.1.1 Intelligente Fernsehsteuerung
Die sogenannte Intelligente Fernsehsteuerung zielt darauf ab, intelligent,
personalisiert und/oder energiesparend Fernsehdienste und Programme
anzubieten. Vor allem Konzepte und Techniken der Gesichtserkennung
Big Data & Künstliche Intelligenz
70
kommen hier zum Einsatz, da diese in den letzten Jahren deutliche Verbes-
serungen erfahren haben und somit in diesem Kontext optimal funktionie-
ren.
Im Vergleich zur Analyse von Fingerabdrücken bieten Methoden der Ge-
sichtserkennung einen höheren Grad an Genauigkeit und die Algorithmen
werden durch die multidimensionalen Merkmalsextraktionen weniger durch
Umwelteinflüsse beeinflusst wie beispielsweise Licht und Lärm.
Ein intelligenter Fernseher kann somit durch die eingebaute Kamera Ge-
sichtsbilder der einzelnen Familienmitglieder erfassen und durch die Inter-
pretation von Mimik und Gestik entsprechende Vorschläge bzgl. des TV-Pro-
grammes unterbreiten. Das intelligente System kann dann z.B. auf einen be-
vorzugten Fernsehkanal umschalten, je nachdem welche Person sich vor
dem Fernseher befindet und das Programm verfolgt. Weiterhin kann die
Kontrolle der Eltern durch diese Methoden automatisch aktiviert und ledig-
lich eine Auswahl von kindgerechten Fernsehprogrammen zur Verfügung ge-
stellt werden.
Diese Systeme können in Abhängigkeit von der aktuellen Szene innerhalb
des Programms die optimalen Betrachtungsperspektiven und Abstände be-
rechnen, was zu einem deutlich besseren Fernseherlebnis und geringerer Er-
müdung führt. Lautstärke, Helligkeit und Sättigung des Bildschirms können
automatisch angepasst werden, um dem Betrachter folglich ein optimiertes
Fernseherlebnis zu garantieren. Das System kann auch erkennen, ob der Be-
trachter eingeschlafen ist und anschließend Lautstärke, Helligkeit und Sätti-
gung anpassen oder eine Sendung stoppen. Wenn niemand zuschaut, kann
das System eine Anfrage stellen, und wenn keine Antwort eingeht, kann es
sich automatisiert abschalten.
5.1.2 Intelligentes Badezimmer
Das Badezimmer ist eine private, interaktive und häufig genutzte Fläche ei-
nes jeden Haushaltes. Beispielsweise erfordert das Baden, dass die Bewoh-
ner die Temperatur des Warmwasserbereiters dynamisch an Umweltgege-
benheiten und persönliche Befindlichkeiten anpassen können.
Gleichzeitig soll ein intelligentes Badezimmer dem Nutzer die Möglichkeit
bieten, auch andere Tätigkeiten während des Badens wahrnehmen zu kön-
nen. Dazu gehört beispielsweise durch die Integration von weiteren intelli-
genten Haushaltsdiensten, wie beispielsweise das intelligente und persön-
lich konfigurierbare Badezimmer, welches im chinesischen Markt bei
Big Data & Künstliche Intelligenz
71
Anwendern bereits getestet wurde, dass Informationen zum Alltag bspw.
über Termine, Verkehrssituationen, aber auch Nachrichten angeboten wer-
den.
Die Inhalte werden auf den jeweiligen Nutzer personalisiert und anhand der
Daten, die der KI als Trainingsinput bereitgestellt wurden, spezifisch zuge-
schnitten. Weiterhin lässt sich das Badezimmer der Zukunft auch über Spra-
che und Gestik steuern, wie beispielsweise die Intensität und der Winkel des
Duschstrahls sowie die Temperatur. Gleichzeitig kann der Anwender auch
inhaltliche Empfehlungen bzgl. Beauty-Produkten bei stark ausgeprägten
Hautverunreinigungen, die durch ein Kamerasystem mittels KI-Komponen-
ten identifiziert werden können, bis hin zu Musik und Fitnesstipps anhand
eines zugrundeliegenden Trainingsplans erlangen.
5.1.3 Intelligentes System zur Identifizierung von Lebens-
mitteln
Ein intelligentes System zur Erkennung von Lebensmittelzutaten beispiels-
weise innerhalb eines Kühlschranks wird primär mittels Methoden zur Ob-
jekterkennung und dafür geeigneten Kameras realisiert. Es benötigt lediglich
eine hochauflösende Kamera zur Analyse der im Kühlschrank vorhandenen
Zutaten und Lebensmittel.
Über die visuelle Inspektion und letztlich Identifizierung von Lebensmitteln
kann ein integriertes Softwaresystem per One-Click-Shopping den Einkaufs-
prozess unterstützen und sogar automatisieren. Weiterhin kann die Ein-
kaufsplanung bis hin zu speziellen Ernährungsplänen vollends automatisiert
werden. Die vorhandenen Daten innerhalb einer Cloud sowie die Anwen-
dung von KI-Verfahren sind hier die Voraussetzung.
Dies stellt natürlich mehrere Vorteile für einen Endanwender in den Vorder-
grund, darunter die Bequemlichkeit durch Automatisierung, aber auch die
Echtzeit-Aufzeichnung von Nahrung und die Beratung über gesundes Essen
und die Optimierung der Haushaltsausgaben. Die Echtzeit-Interaktion mit
dem Kühlschrank kann mit Hilfe eines Smartphones gesteuert und kontrol-
liert werden. Der Benutzer kann den Bestand des Kühlschranks beurteilen
und den Einkauf aus der Ferne von jedem Standort aus planen.
Weitere Vorteile sind Erinnerungen an Haltbarkeitsdaten von Lebensmit-
teln. Zur gleichen Zeit wird der tägliche Lebensmittelkonsum in einer Cloud-
Datenbank aufgezeichnet und kann mittels Big-Data-Analyse ausgewertet
werden, was zu potenziellen Einschätzungen der Essgewohnheiten und
Big Data & Künstliche Intelligenz
72
Ratschlägen bzgl. ausgewogener und gesünderer Ernährung genutzt werden
kann. Basierend auf Ernährungsgewohnheiten, saisonalen Angeboten und
Präferenzen kann das System auch personalisierte Rezepte für eine gesunde
Ernährung unterbreiten.
5.2 Künstliche Intelligenz zur intelligenten Fabriksteu-
erung
Intelligente Fertigung ist grundlegend für die Integration von IoT-Szenarien,
welche zunehmend wichtiger werden. Im Zuge der Automatisierung sind
durchwegs alle Fertigungsaktivitäten betroffen: Design, Produktion, Verwal-
tung und Service. Eine intelligente Fabrik ist eine vernetzte Fabrik, in der Da-
ten aus Lieferketten, Konstruktionsteams, Produktionslinien und die Quali-
tätskontrolle integriert in einer intelligenten Plattform zusammenlaufen und
somit neue Wege zur Produktion bis hin zur Neudefinition zukünftiger Pro-
duktionslinien ebnen.
Mit dem wachsenden Bedarf an Flexibilität, um einem vielfältigen Spektrum
verschiedener Produktionsbereiche gerecht zu werden, muss sich das pro-
duzierende Gewerbe eingehend mit Automatisierung und dabei speziell mit
Machine Learning und KI auseinandersetzen und die Herausforderungen fo-
kussiert annehmen.
Durch maschinelles Lernen haben Systeme die Fähigkeit, aus Erfahrungen
(welche implizit in den Daten vorhanden sind) zu lernen mit dem Ergebnis,
dass sie sich ständig verbessern (siehe Reinforcement Learning). Dies ermög-
licht, die Fertigung schneller, flexibler und spezifisch skalierbar durch die Be-
reitstellung von Vorhersagen zu verwalten. Dies reicht von der Anlagenef-
fektivität bis hin zur Auswahl optimaler Lieferanten und Preisfindung.73 Wei-
terhin lässt sich durch den Einsatz von selbstlernenden Systemen auch lang-
fristig der Mangel an Fachkräften kompensieren, da die wenigen vorhande-
nen Ressourcen bei der Betreuung der Prozesse kontinuierlich ihre Erfah-
rungswerte in die Prozesse einfließen lassen. Durch die Nutzung der Instanz-
daten der Prozesse lassen sich somit langfristig Verbesserungen erzielen.
Ein weiterer Vorteil des Einsatzes von KI in der industriellen Fertigung ist die
Unterstützung von Wirtschaftswachstum, wobei KI zur Verwaltung von Ka-
pitaleffizienz, einschließlich Arbeitsanforderungen und Maschinenzeitplä-
nen zur Realisierung von On-Demand-Produktion, Verbesserung der
73 Vgl. [87]
Big Data & Künstliche Intelligenz
73
Betriebseffizienz, Verkürzung der Produktzyklen, Verbesserung der Produk-
tionskapazität, Reduzierung von Ausfallzeiten und letztendlich Kostenein-
sparungen zum Einsatz kommt.
5.2.1 Predictive Maintenance
Traditionelle Fertigungslinien haben möglicherweise Probleme bei der Qua-
litätssicherung durch die Produktion von Teilen, die letztlich durch aufge-
schobene Wartungsintervalle im Ausschuss landen. Der Einsatz von KI in die-
sem Bereich soll im weitesten Sinne umfassend Abhilfe schaffen. Durch die
in Echtzeit gesammelten Betriebsdaten einer Fertigungsstraße und der ent-
sprechend verwendeten Maschinen und Werkzeugen können Algorithmen
der KI eine vorausschauende Instandhaltung durch die Identifikation von
Fehlersignalen und Anomalien in Echtzeit erkennen und somit Maßnahmen
zur Prävention einleiten.
Aufgrund von in Echtzeit gesammelten Betriebsdaten der Ausrüstung kann
Predictive Maintenance Fehler identifizieren und so zur Früherkennung
von potenziellen Produktionsfehlern eingesetzt werden.
Letztendlich würde dies zur Reduzierung von Wartungszeiten und Ausrüs-
tungskosten, Verbesserung der Nutzung der Ausrüstung und Vermeidung
von Verlusten durch Geräteausfälle führen.74 Die Vorhersage von Fehlern
und Fehlerlokalisierung und -diagnosen sind zwei wichtige Mechanismen für
die vorausschauende Instandhaltung.
Die wichtigsten Key Performance Indicators (KPIs) eines Geräts oder Netz-
werks in einer Fabrik weisen in der Regel auf einen allmählichen Trend zur
Verschlechterung dieser Prozesse hin. Mit jeglicher Hardware oder Dienst-
leistung, die versagt, geht in der Regel ein instabiler oder verschlechterter
Betriebszustand einher. Die Verarbeitung nach einem Fehler betrifft nicht
nur die Diensterfahrung, sondern nimmt auch viel Zeit in Anspruch, um die
Fehlerbehebung wieder vollumfänglich abzufangen.
Fehlerlokalisierung und Diagnose
Wenn ein Gerät oder eine Maschine innerhalb eines Werkes als defekt ge-
kennzeichnet oder falsch bzw. unsachgemäß betrieben wurde, kann dies zu
74 Vgl. [88], [89]
Big Data & Künstliche Intelligenz
74
einer Ausbreitung des Fehlers führen und weitere kausal zusammenhän-
gende Fehler verursachen.
Nach der Störung eines Arbeitsgerätes oder Dienstes, die in einer Fabrik auf-
getreten ist, werden die Netzwerkleistung und Statusdaten, wie z.B. Proto-
koll, Alarm, KPI oder Konfigurationen, zentral gesammelt und ausgewertet.
Dann wird eine umfassende Korrelationsanalyse durchgeführt und Aussagen
über verschiedene Metriken und Parameter getätigt, um ein Fehlverhalten
entsprechend eingrenzen zu können und letztlich die Ursache des Fehlers zu
identifizieren.
Es gibt zwei grobe Ausrichtungen einer Korrelationsanalyse für Fehlerlokali-
sierung und Diagnosen:
• In horizontaler Richtung, gemäß der Netzwerkdienst-Topologie, wer-
den die Metriken aller Geräte auf einem Produktionspfad entspre-
chend zusammengesetzt, um die zugehörige Fertigungslinienanalyse
mittels geeigneter Methoden durchführen zu können.
• In vertikaler Richtung müssen die verschiedenen physikalischen Pa-
rameter von Maschinen einer Fertigungslinie analysiert werden, um
im Gesamtkontext der Fertigungslinienanalyse eingeordnet und ins
Verhältnis gesetzt werden zu können. Somit lassen sich Ausreißer in-
nerhalb der Linien einfach identifizieren.
5.2.2 Kollaborative Roboter
Ein weiterer Anwendungsfall für KI ergibt sich aus der Entwicklung von kol-
laborativen Robotern, auch Cobots genannt.75 Cobots sind Industrieroboter,
die in der Lage sind, Zusammenarbeit mit Menschen innerhalb der Produk-
tionsprozesse ohne jegliche Schutzvorrichtungen „Hand in Hand“ zu ermög-
lichen. Das einzigartige Merkmal dieser Roboter ist, dass sie direkt mit Men-
schen interagieren und letztlich sensitiv und intelligent auf Berührungen etc.
reagieren können.
Es gibt eine wichtige Voraussetzung für diese Art von Zusammenarbeit zwi-
schen Mensch und Roboter. Es muss zu jeder Zeit sichergestellt werden, dass
der Roboter keine Verletzungen an Menschen verursacht. Sprich, die Genau-
igkeit dieser Systeme und die Fehlertoleranz müssen exakt geprüft werden.
Dies ist für kleine, leichtgewichtige Roboter oft kein Problem. Je schwerer
die Arbeit für den Roboter aber ist, desto größer muss dieser auch
75 Vgl. [90]
Big Data & Künstliche Intelligenz
75
ausgestaltet werden. Dies führt natürlich gleichzeitig dazu, dass der Roboter
auch genauer arbeiten muss und kein Fehlverhalten zulassen darf. Zum Bei-
spiel können Roboter, die schwere Gussteile heben, aufgrund ihrer Größe
und ihres Gewichtes erhebliche Schäden am menschlichen Körper verursa-
chen.
Um dieses Risikopotential zu minimieren, sind auch konventionelle Schutz-
vorrichtungen über Sensoren nicht ausreichend. In diesem Zusammenhang
bringt der Einsatz von KI verschiedene weitere Optionen zur Sicherung der
Mensch-Roboter-Interaktion. Techniken wie die intelligente Erkennung von
Gestik und die Antizipation von Bewegungsabsichten können zur Anpassung
des Bewegungsverhaltens eines Roboters verwendet werden.
Die Zusammenfügung von Kamerabildern und Radargeräten sowie die Aus-
wertung zusätzlicher Sensorik hilft z.B. dabei, dass sich der Roboter seiner
Umgebung dynamisch anpassen kann. Das Ziel ist nicht nur, dass die Roboter
auf ihre Umwelt intelligent reagieren, sondern auch faktisch darauf ausge-
legt sind, präventiv und aktiv Unfälle zu verhindern.
Diese Fusion von Sensordaten kann ebenfalls dazu verwendet werden, um
verschiedene Bewegungen und Abläufe zu klassifizieren. Somit kann der Be-
wegungsablauf dazu genutzt werden, um zu antizipieren, welcher Arbeits-
schritt als nächster ausgeführt wird und wann genau dies der Fall ist. Somit
lassen sich abseits der Unfallprävention weitere Potenziale zur Effizienzstei-
gerung nutzen.
Kritisch an den eingesetzten kollaborativen Robotern ist, dass diese beson-
ders komplex ausgestaltet und gebaut werden müssen und dass die Sicher-
heitsrichtlinien enorm hoch sind, was letztlich oft dazu führt, dass diese in
Wirtschaftlichkeitsbetrachtungen nicht gut abschneiden.
5.2.3 Qualitätskontrolle
Die Erkennung von Defekten, wie z.B. Oberflächenfehlern und Kantenschä-
den von Produkten, wird traditionell durch menschliche Inspektion durchge-
führt.
Klassischerweise führt dies häufig zu einer hohen Fehlerquote aufgrund von
Ermüdung und hohen Arbeitsanforderungen, insbesondere in der Zer-
spanungs-Industrie, der Haushaltsgeräteindustrie oder der Textilindustrie.
Intelligente Echtzeit-Erkennungstechniken sind auf Sensoren zur Erfassung
von Produktbildern, die auf Basis von Convolutional Neural Networks
Big Data & Künstliche Intelligenz
76
aufgebaut sind, zurückzuführen. Somit kann eine automatisierte Qualitäts-
kontrolle die Fehlerquote in Anwendungen, wie etwa im Bereich der Chip-
herstellung, effizient erkennen. Gleichzeitig wird durch die Analyse der Ur-
sachen, warum welche Produkte fehlerhaft sind, die Rücksendequote von
Produkten deutlich verringert werden. Weiterhin können auch bei häufig
auftretenden Problemen Rückschlüsse auf Verbesserungen im Produktde-
sign und allgemein im Herstellungsprozess gezogen werden. Dies wirkt sich
letztlich positiv auf die Kosten aus.
5.2.4 Herausforderungen im Bereich der intelligenten Ferti-
gung
Die Unterstützung von KI innerhalb der industriellen Fertigung bringt eine
Reihe von Herausforderungen mit sich, insbesondere beim produktiven Ein-
satz der KI-bezogenen Technologien. Als eines der Hauptanliegen lässt sich
zusammenfassen, dass der Mensch immer die Entscheidungen innerhalb ei-
nes Produktionsprozesses treffen muss und die Kommandos geben sollte. Es
muss immer sichergestellt sein, dass ein Mensch jederzeit die Kontrolle über
die produzierenden Maschinen übernehmen kann.
Die größte Herausforderung bei der Verwendung von KI für kollaborative Ro-
boter ist die Robustheit der Datenerfassung und Algorithmen. Es muss im-
mer sichergestellt sein, dass sie sich wie geplant verhalten. Eine Abweichung
kann für einen Menschen im schlimmsten Fall tödlich enden. Dies ist nach
wie vor eine große Herausforderung, insbesondere bei neuronalen Netzen,
die auch unerwartete Ergebnisse berechnen können oder falsch auf unvor-
hergesehene bzw. Schwankungen der Inputdaten reagieren.
Dieses Problem tritt z.B. auf, wenn das neuronale Netz während der Anwen-
dung mathematisch gesehen auf ein lokales Minimum fällt. Dies führt zu ei-
nem Fehlverhalten des Netzes und kann nicht beeinflusst werden.
Während die Entwicklung von KI und Robotik die industrielle Wettbewerbs-
fähigkeit erhöht, was in diesem Gebiet entsprechend zu neuen Arbeitsplät-
zen führt, besteht ein erhebliches Risiko, dass Arbeit, die derzeit von Men-
schen durchgeführt wird, zunehmend von Robotern übernommen wird.
Angesichts der sich verändernden Dynamik der Arbeitsmärkte werden die
Bildung und Ausbildung (einschließlich Berufsausbildung), das lebenslange
Lernen sowie Aus- und Weiterbildung und Umschulungen an konkreten Ar-
beitsplätzen wichtiger denn je. Neue Fähigkeiten und Kompetenzen werden
Big Data & Künstliche Intelligenz
77
künftig notwendig sein, um mit dem verstärkten Einsatz von Robotern und
der Automatisierung Schritt halten zu können.
Weitere Herausforderungen in der intelligenten Fertigung sind die Verfüg-
barkeit großer Mengen hochwertiger Daten zum Trainieren von KI-Algorith-
men sowie die Notwendigkeit, diese Daten in aussagekräftige Informationen
zu strukturieren und vortrainierte Domänenmodelle anbieten zu können
und diese langfristig zu etablieren.
5.3 Künstliche Intelligenz zur intelligenten Verkehrs-
und Fahrzeugsteuerung
Intelligente Verkehrsmittel haben eine hohe Relevanz und ein sehr großes
Marktpotential. Egal ob im Kontext von Privatfahrzeugen, der Nutzung von
öffentlichen Verkehrsmitteln oder auch im Bereich der Logistik, der Einsatz
von KI wird zunehmend wichtiger.
Der dramatische Anstieg der Anzahl von Fahrzeugen, insbesondere in Groß-
städten, Dienstleistungen wie Verkehrsmanagement und Staukontrolle so-
wie die Zunahme selbstfahrender Fahrzeuge fordern den Einsatz von Me-
thoden der KI wie z.B. Bild-Analyse, Routenoptimierung und Objekterken-
nung.
Die von KI angebotenen Methoden und Lösungen werden hierbei in Kombi-
nation mit Smartphones oder sonstigen Edge-Devices, wie dem Auto selbst,
aus der Cloud bezogen und genutzt.
5.3.1 Autonomes Fahren
Ein selbstfahrendes Auto, auch als fahrerloses Auto bekannt, ist ein Fahr-
zeug, das ein intelligentes Computersystem verwendet, um ohne menschli-
chen Einfluss und menschliches Einschreiten zu fahren. Solche Fahrzeuge
verfügen über intelligente Navigationstechnologie, Computer-Vision-Me-
thoden und GPS-Systeme, um durch die Kombination dieser Ansätze ein sol-
ches autonomes Agieren überhaupt erst möglich zu machen.
Selbstfahrende Fahrzeuge entwickeln sich rasch, mit Branchengiganten und
Start-ups, die in den Startlöchern stehen, wird an der Weiterentwicklung
und Freigabe autonomer Fahrzeuge gearbeitet.
Big Data & Künstliche Intelligenz
78
Fünf Stufen der Fahrzeugautomatisierung sind durch die Verkehrssicher-
heitsbehörde (NHTSA) definiert:76
• Nichtautomatisierung (Stufe 0). Der Fahrer hat die vollständige Kon-
trolle zu jedem Zeitpunkt der Fahrt.
• Funktionsspezifische Automatisierung (Stufe 1). Automatisierung ei-
ner oder mehrerer spezifischer Funktionen, bspw. Tempomat.
• Kombinierte Funktionsautomatisierung (Stufe 2). Automatisierung
von mindestens zwei Primärsteuerungsfunktionen, die auf Zusam-
menarbeit ausgelegt sind.
• Begrenzte selbstfahrende Automatisierung (Stufe 3). Der Fahrer
kann unter bestimmten Bedingungen die volle Kontrolle über alle si-
cherheitskritischen Funktionen temporär abtreten. Das Fahrzeug
überwacht die Bedingungen.
• Vollständig selbstfahrende Automatisierung (Stufe 4). Das Fahrzeug
ist entwickelt, um alle sicherheitskritischen Fahrten durchzuführen.
Es liegt auf der Hand, dass der Grad der Automatisierung umso höher ist, je
mehr Verantwortlichkeiten des Fahrens an die Fahrzeuge abgetreten wer-
den. Dies impliziert, dass KI-Technologien sowohl innerhalb der Fahrzeuge
als auch in der Cloud erforderlich sein müssen und zentral gesteuert werden
sollten:
• Übernahme der Kontrolle über das Fahrzeug. Dazu gehören Anfah-
ren, Bremsen, Wenden und andere Autopilot-Fähigkeiten ohne die
Intervention von Menschen (Entlastung der Fahrer oder eingreifen,
wenn der Mensch nicht in der Lage ist).
• Feststellung von Fahrerstatus, Fahrzeugzustand, Zustand von Stra-
ßen und Umgebung (z.B. Fußgänger, Tiere, Hindernisse). Die Identi-
fizierung und Analyse der Umgebung und von Objekten erfordert
den umfangreichen Einsatz von Machine Learning-Methoden. Dar-
über hinaus erfordert die Analyse aus Berechnungssicht eine sehr
niedrige Latenzzeit. Traditionelle CPUs sind nicht in der Lage, die er-
forderliche Rechenleistung zur Effizienz für die KI-Algorithmen be-
reitzustellen. Für das effiziente Trainieren der Modelle ist eine dedi-
zierte Beschleunigung erforderlich (sowohl innerhalb der Fahrzeuge
als auch in der Cloud).
76 Vgl. [95]
Big Data & Künstliche Intelligenz
79
5.3.2 Verkehrsmanagement
Verkehrsmanagement spielt eine wesentliche Rolle bei Szenarien des intel-
ligenten Transportmanagements. Mit dem ständigen weltweiten Anstieg
von Bevölkerungszahlen und Fahrzeugen sind die Verkehrsgegebenheiten in
Ballungsgebieten zunehmend angespannt und stellen eine enorme Heraus-
forderung für Regierungen, Polizeikräfte sowie Automobilhersteller dar.
Nach einem Bericht von The Economist sind verkehrsbedingte Ausgaben die
nur durch Staus verursacht werden, in Frankreich, Deutschland, dem Verei-
nigten Königreich und den Vereinigten Staaten im Jahr 2013 bereits auf 200
Milliarden USD (0,8% des BIP) angestiegen.77 Daher sind die Optimierung
des Verkehrsflusses, die Reduzierung von Staus und die Minimierung der
Emissionen von Fahrzeugen wesentliche Faktoren zur Steigerung von Le-
bensqualität und Umweltschutz.
Daher müssen die Möglichkeiten der KI genutzt werden, um diese Problem-
stellungen effizient zu lösen. Beispiele für Anwendungen von KI sind:
• Verkehrsflussanalyse: Durch Einsatz von maschinellem Lernen und
Data Mining von Echtzeit-Verkehrsdaten (z.B. über Fahrzeuge, Fuß-
gänger, Staus, Unfälle) in mehreren Straßen oder in einem größeren
Gebiet können Verkehrssituationen analysiert und verbessert wer-
den. Weiterhin können so Routenoptimierungen, Verkehrssteuerung
zur Vermeidung von Staus und Reduzierung der Emissionen erreicht
werden.
• Optimierung der Ampelanlagen: Statt einer statischen Bestimmung
der Ampelschaltung können KI-Algorithmen angewendet werden,
um sensitiv auf aktuelle Verkehrsgegebenheiten zu reagieren und
um eine effiziente dynamische Ampelschaltung zur Optimierung des
Verkehrsflusses von Fahrzeugen und Fußgängern zu realisieren.
• Automatische Prüfung von Verletzungen der Verkehrsregeln und
Vorschriften: Diese Aufgaben umfassen traditionell intensive
menschliche Arbeit. Selbst mit KI-Algorithmen in Bild- und Videover-
arbeitung kommt es aufgrund fehlender Ressourcen immer noch zu
Engpässen. Doch durch den Einsatz von leistungsstarken Verarbei-
tungsplattformen zur Beschleunigung der KI-Methoden zur Analyse
von Videos und Bilder in Echtzeit können diese Probleme gelöst wer-
den. Somit kann eine effiziente Gewährleistung des Einhaltens von
Regeln ermöglicht werden.
77 Vgl. [94]
Big Data & Künstliche Intelligenz
80
5.3.3 Herausforderungen im Bereich Smart Transportation
Sicherheit, Schutz und Privatsphäre sind einige der Hauptanliegen der Nut-
zer für den Bereich Smart Transportation. Mit den in jedem Fahrzeug einge-
bauten Sensoren und der Implementierung fortschrittlicher KI-Technologien
für selbstfahrende Fahrzeuge wird das Transportieren von Menschen voll-
ends in die Hände von Computern gegeben. Dabei generieren autonome
Fahrzeuge statistisch sogar weniger Unfälle als Fahrzeuge, die durch Men-
schen gesteuert werden. Somit können Fragen der Sicherheit und des Schut-
zes der Privatsphäre eingehend diskutiert werden.
Richtlinien, Gesetze, Vorschriften und Normen in Bezug auf intelligente Ver-
kehrsmittel sind eine weitere wichtige Herausforderung, die es zu bewälti-
gen gilt. Normen können sich auf die Technologie beziehen sowie auf die
Implementierungen von Smart-Transportation-Anwendungsfällen, die für
die Gewährleistung einer sicheren Übertragung, Speicherung und Verarbei-
tung der gesammelten Daten Garantie übernehmen. Vorschriften oder Ge-
setze können sich in diesem Kontext durch die Verwendung von KI z.B. durch
Autohersteller oder Dienstleistungsanbieter realisieren lassen.
Eine weitere Herausforderung ist die Verfügbarkeit von heterogenen Platt-
formen, die Rechenleistung zur Bewältigung der KI-Arbeitslasten auf Cloud,
Edge und Endgeräten zur Verfügung stellen. Wichtig ist dabei vor allem:
1) Integration einer zunehmenden Datenmenge generiert durch Fahrzeuge,
Fußgänger und Infrastruktur, und müssen in der Lage sein, diese Daten zu
übertragen, zu speichern und effizient zu analysieren.
2) Müssen in der Lage sein, KI-Workloads auszuführen (z.B. Training von Mo-
dellen) und die Anwendung der KI-Modelle zur Echtzeit-Entscheidungsfin-
dung für das Verkehrsmanagement in Bezug auf autonomes Fahren zu rea-
lisieren.
Auf der einen Seite müssen Plattformarchitekturen verbessert oder erneu-
ert werden, um den Rückstand gegenüber der Entwicklung von KI-Arbeits-
lasten und -Algorithmen abzufangen. Auf der anderen Seite muss die Leis-
tung ständig verbessert werden, um den steigenden Anforderungen der Be-
nutzer und von Anwendungen (z.B. Latenzzeit, Datenvolumen, Konnektivi-
tät) gerecht zu werden. Darüber hinaus müssen Plattformen auch skalierbar
sein, um neue Komponenten oder Funktionen fortlaufend integrieren zu
können.
Big Data & Künstliche Intelligenz
81
5.4 Künstliche Intelligenz im Bereich Smart Energy
Der Energiesektor kann kategorisch als Markt zur Herstellung von primärer
Energie (z.B. Öl, Gas, Kohle) und Sekundärenergie (z.B. Elektrizität) bezeich-
net werden. Wie bereits erwähnt, sind die Erschöpfung der natürlichen Res-
sourcen und die Auswirkungen durch den Klimawandel nicht mehr wegzu-
denken und seit Jahrzehnten ein immer größer werdendes Problem. Um die-
sen Problemen zu begegnen, müssen sich die Länder der Welt auf die Opti-
mierung der Energieversorgung konzentrieren.
Der Zweck von Smart Energie ist nicht nur die Steigerung der Effizient bei
Energieerzeugung, -übertragung und -verbrauch, sondern auch, ein effizien-
tes Energiemanagement zu ermöglichen. Die bisherigen Schwerpunkte la-
gen auf der Reduzierung der Energieverluste. KI hilft auch in diesem Bereich
enorm weiter, um diese Wertschöpfung ganzheitlich zu verbessern. Bei-
spielsweise kann eine Verbesserung der Vorhersage der Nachfrage von Ener-
gie erzielt werden, sodass unnötige Überproduktionen vermieden werden
können.
Darüber hinaus werden durch die Analyse der gesammelten Informationen
über Kommunikationstechnologien Optimierungen von Energieeinsparun-
gen auf ein bisher nie dagewesenes Niveau gehoben.
5.4.1 Netzverwaltung
Ein intelligentes Stromnetz ist ein System, welches die Effizienz in der Ener-
gieproduktion verbessert, Übertragung und Verbrauch durch Aktivierung,
Interaktionen zwischen Anbietern und Verbrauchern durch den Einsatz von
KI verbessert. Während traditionell Strom in einer Einbahnstraße über ein
Stromnetz vom Großkraftwerk bis zum Endkunden geliefert wird, ermöglicht
ein Smart Grid einen bidirektionalen Stromfluss. Mit anderen Worten, der
Endverbraucher ist nicht nur ein Verbraucher von externer Elektrizität, son-
dern auch ein Lieferant, der Strom ans Großnetz liefern kann, wenn es einen
lokalen Überschuss gibt.
KI-Technologie kann eingesetzt werden, um in Echtzeit die Überwachung,
den Betrieb und die Wartung der Stromversorgungsausrüstung innerhalb
des intelligenten Netzes zu realisieren. Weiterhin ist es möglich, durch die
bereitgestellten Methoden eine Fehlerdiagnose und Maßnahmen zur Behe-
bung zu etablieren. Somit kann die Betriebsstabilität dieser kritischen Infra-
struktur und letztlich die Erzeugungseffizienz von Energie sichergestellt bzw.
gesteigert werden. Maschinelles Lernen ermöglicht es, kleinere
Big Data & Künstliche Intelligenz
82
Musteränderungen bei verschiedenen Operationen zu identifizieren und Be-
dingungen für die Umsetzung wirksamer Predictive Maintenance Maßnah-
men zu eruieren.
Durch die Nutzung von leistungsstarken Prognosefunktionen des maschinel-
len Lernens konnten Dienstleiser und weltweit agierende, große Unterneh-
men ihre Energieinfrastruktur teilweise deutlich verbessern - in der Regel
um 10% bis 15%. Künstliche Intelligenz hilft weiterhin dabei, Vorhersagen
mit hoher Genauigkeit bei Nachfragespitzen in der Stromversorgung zu mi-
nimieren. Dies schlägt sich letztlich auch im Preis für den Endkunden nieder.
5.4.2 Consumer und Dienstleistungen
Smart Grids sind typischerweise mit verteilter fortschrittlicher Mess-Infra-
struktur und intelligenten Zählern ausgestattet, die eine bidirektionale Kom-
munikation zwischen Produzenten und Konsumenten von Energie unterstüt-
zen. Webportale werden verwendet, um energiebezogene Daten anzuzei-
gen sowie Muster zu analysieren und zu visualisieren, die Verbrauchsge-
wohnheiten und Vorschläge zur Anpassung des Verhaltens generieren. Wei-
terhin können auch Informationen in Bezug auf Produktions- und Verbrau-
cherpreise anhand verschiedener KI-Algorithmen effizient und zielgerichtet
angeboten werden. Fortgeschrittene Plattformen von großen industriellen
Verbrauchern ermöglichen, durch den KI-gestützten Handel mit Elektrizität
flexibel auf Lastspitzen zu reagieren und die Kosten gemäß den spezifischen
Geschäftsanforderungen anzupassen.
5.4.3 Herausforderungen im Bereich Smart Energy
Wie durch einige Anwendungsfälle veranschaulicht, können KI-Technologien
für verschiedene Anwendungen und Dienste im Energiesektor wesentliche
Verbesserungen bieten.
Angesichts des Umfangs und der Langlebigkeit von Energieinfrastrukturen
ist die Einführung von neuen Methoden und Infrastrukturkomponenten oft
langsam und kompliziert sowie letztlich auch sehr kostspielig. Das Erreichen
einer angemessenen Rendite auf Investitionen nimmt normalerweise viel
mehr Zeit in Anspruch als in anderen, sich schneller entwickelnden Bran-
chen. Wichtig dabei ist auch im Speziellen eine wirkungsvolle und effiziente
Zusammenarbeit zwischen dem öffentlichen und dem privaten Sektor.
Big Data & Künstliche Intelligenz
83
In vielen Fällen kommt der Handhabung und Auswertung von Daten eine es-
sentielle und wichtige Rolle zu. Denn solche Daten unterliegen entsprechen-
den Datenschutzbestimmungen und müssen besonders geschützt werden,
da die Stromverbrauchs- und Musteranalyse dazu verwendet werden kann,
um festzustellen, wann eine Person zu Hause ist und was diese dort tut.
Fortgeschrittene Analysen könnten zusätzlich verwendet werden, um zu be-
stimmen, welche Person im Haushalt anwesend ist ‒ auf der Basis von Vor-
hersagen des Energieverbrauchsverhaltens, auch wenn es nicht ausdrücklich
angegeben wurde, geschweige denn von der Person gewünscht ist. Dieser
besondere Datenschutz stellt Versorgungsunternehmen vor große Heraus-
forderungen.
Big Data & Künstliche Intelligenz
84
6 Künstliche Intelligenz in der Gesundheits-
branche
6.1 Wie Künstliche Intelligenz den Gesundheitsbe-
reich revolutioniert
Gerade im Kontext des Gesundheitsmanagements gibt es zahlreiche Anwen-
dungs- und Verbesserungspotenziale für bzw. durch KI. Zum einen lassen
sich verschiedene Prozesse, die teilweise schon in digitaler Form etabliert
sind, im Gesundheitsmanagement durch KI weiter automatisieren. Gerade
aber jedoch im Kontext der fachlichen Analyse, die meist durch Fachperso-
nal, in diesem Fall von Fachmedizinern, durchgeführt werden muss, können
KI-Anwendungen einen enormen Mehrwert bringen. Wenn wir beispiels-
weise die Radiologie betrachten, stellen wir schnell fest, dass die Analyse
von Röntgenbildern, die primär durch Radiologen manuell durchgeführt
werden muss, schon heute sehr gut mittels Computer Vision-Methoden aus
dem Bereich KI durchgeführt werden kann.
Diesbezüglich ist festzuhalten, dass beispielsweise große Datenmengen trai-
niert werden, indem diese Daten von Experten gelabled werden, sprich zum
Training vorbereitet und annotiert werden. Das bedeutet: Die Ergebnisse ei-
ner Analyse durch eine KI beinhalten immer mehrere Meinungen von diesen
Fachexperten, die im Trainingsprozess konsultiert wurden. Somit kann nicht
nur Effizienzsteigerung gewonnen, sondern auch die Ergebnisse signifikant
verbessert und Fehlentscheidungen vorgebeugt werden. Wenn man sich an
einem Beispiel orientieren möchte, dass etwa das Analysieren von Radiolo-
gie-Bildern durch einen Radiologen oder die Identifikation von beispiels-
weise Krebsgeschwüren auf einem Röntgenbild durchgeführt wird und
5.000 Radiologen etwa Testdaten vorbereiten, kann somit sichergestellt
werden, dass die 5.000 Radiologen ihre fachliche Meinung in die Testdaten-
sätze einfließen lassen. So ist immer gewährleistet, dass die KI zusammen-
gesetzt-kollektiv agiert und eine fachlich bessere Aussage treffen kann als
ein einziger Radiologe.
6.2 Mehrwerte durch Künstliche Intelligenz
KI bietet immer an jenen Stellen einen Mehrwert, wo kognitive Fähigkeiten
eines Menschen zum Einsatz kommen. Dabei ist es aus methodischer Sicht
der KI egal, ob es sich um einen bereits voll digitalisierten Prozess oder eine
voll digitalisierte Anwendung handelt oder ob der Transfer von manuellen
Big Data & Künstliche Intelligenz
85
Informationen in digitale Informationen erfolgen muss. Weiterhin ist es vor
allem in der Gesundheitsbranche essenziell, dass bestehende Befunde oder
auch bestehende Diagnosen gegen eine sehr große Wissensdatenbank ge-
gengecheckt werden müssen. Dabei kommt der Mensch kognitiv oft an seine
Grenzen. Während sich in der Vergangenheit ein Facharzt dadurch auszeich-
nete, dass er bereits möglichst viele Aspekte und möglichst viele Diagnosen
zu einer speziellen Krankheit erstellt hat, müssen diese großen Datenmen-
gen heutzutage entsprechend aufbereitet und auch gelesen werden können.
Dies führt dazu, dass Fachärzte immer mehr auf die technologischen Helfer
der KI zurückgreifen. Ein wichtiges Beispiel ist hier die Analyse von Bildinfor-
mationen und auch Textinformationen aus sogenannten Wissensdatenban-
ken. Wenn man sich vorstellt, dass ein Facharzt in der Vergangenheit nur so
gut war wie seine vorherigen Bücher und Diagnosen, die er bereits gestellt
hat, musste er über die Jahrzehnte seiner Berufspraxis ein entsprechendes
System für sich selbst entwickeln, wie er diese Daten aus der Vergangenheit
effizient abrufen konnte ‒ ohne eine digitale Komponente scheinbar unmög-
lich. Heute ist es viel einfacher, auch übergreifend Informationen durch die
Verwendung von KI anzuwenden. Am Beispiel von geteilten Wissensdaten-
banken und verteilt trainierten Netzwerken können somit Diagnosen und
Meinungen von verschiedenen Fachärzten zu einer speziellen Diagnose zu-
sammengetragen und nutzbar gemacht werden. Dies ist ein essenzieller Vor-
teil gegenüber einer einzelnen Betrachtung einer Diagnose durch einen
Facharzt. Somit wird zum einen durch die Digitalisierung der bestehenden
Informationen eine fortlaufende Sammlung von neuen Informationen und
Diagnosen und der Auswertungen mittels neuer Technologien der KI ge-
schaffen. Wichtig dabei ist anzumerken, dass natürlich ein gewisser Prozess
aus Sicht der Fachärzte durchlaufen werden muss. Jeder Facharzt, der Jahr-
zehnte oder erst seit kurzem in seinem Fachgebiet aktiv ist, möchte sich na-
türlich nicht von einer KI übertrumpfen lassen. Jedoch unterschätzt man oft
die sogenannte kollektive Intelligenz in dieser Branche und letztlich auch,
dass die resultierenden Entscheidungen, die dadurch vorgenommen wer-
den, einen enormen Mehrwert bringen können.
6.3 Anwendungsbeispiel Radiologie
Die Anwendung von KI im Bereich der Bildverarbeitung kommt nun auch im
Kontext der Gesundheitsbranche, konkret im Bereich der Radiologie, zum
Einsatz. Gerade dadurch, dass viele Fachärzte mit einem zunehmend hohen
Arbeitsaufkommen zu kämpfen haben, sind Effizienzsteigerungen zum
Wohle der Patienten sehr willkommen. Aber auch deshalb, dass Trainierte
neuronale Netze im Idealfall mit gelabelten Daten füttern, die von mehreren
Experten vorbereitet wurden, steht automatisch eine verbesserte Diagnose-
qualität, die durch kollektive Intelligenz erreicht wird, zur Verfügung. Die
Big Data & Künstliche Intelligenz
86
Entwicklungen tragen maßgeblich zur Akzeptanz der KI-Methoden bei und
liefern in diesem Fall einen konkreten Mehrwert in vielerlei Hinsicht.
Im klassischen Sinne werden in Standardverfahren der Radiologie im Kontext
der Computertomografie-Auswertungen regelbasierte Verfahren seit Jahr-
zehnten eingesetzt.78 Regelbasierte Verfahren sind insofern sehr gut in der
Anwendung, da die Regeln nicht durch einen KI-Ansatz implizit gelernt und
auf neue Datensätze angewendet, sondern diese aus bestehenden fachlich
korrekten Diagnosen abgeleitet und direkt auf Daten angewandt werden.
Vorteil der regelbasierten Verfahren ist, dass nur wenige falsch klassifizierte
Ausnahmen als Ergebnis der Verfahrensanwendung entstehen. Vielmehr
werden nur Bruchteile der Diagnosen mittels Regeln gefunden. Neue Er-
kenntnisse und beispielsweise Veränderungen auf einem Bild werden nicht
erkannt.
Dies stellt keine generelle Kritik an regelbasierten Verfahren dar, sondern
weist nur darauf hin, dass, sobald eine Regel für ein bestimmtes Problem
existiert, diese auch auf Datensätze angewandt werden sollte. Methoden
der KI hingegen sind darauf eingestellt, dass auch kleine Abweichungen in
Bezug auf eine potenzielle Diagnose erkannt und entsprechend als Diagnose
festgehalten werden können.
Letztlich können somit auch medizinisch relevante Befunde von beispiels-
weise permutierten und sich verändernden Krankheitsbildern festgestellt
werden. Konkret können somit auch Abweichungen auf Bildern, die in be-
stehenden Datensätzen eventuell nicht vorhanden sind, im Gegensatz zu
einem regelbasierten Ansatz erkannt werden.
Ein Beispiel könnte die Detektion bzw. Segmentierung von bestimmten radi-
ologischen Daten sein. Hierfür wurden in den letzten Jahren vorab program-
mierte (regelbasierte) CAD-Systeme beispielsweise zur Lungenrundherd-De-
tektion eingesetzt.
Heutzutage kann diese Analyse mittels Deep Learning-Methoden, etwa Con-
volutional Neural Networks, verbessert werden. Die feingranulare Aufspal-
tung der Bilddaten in einzelne Vektoren und die automatisierte Merkmals-
extraktion erlauben es, eine viel detailliertere Vergleichskomponente aufzu-
bauen und somit auch auf sehr geringe Unterschiede sensibel zu reagieren.
Dies führt dazu, dass, aus einer fachlichen Perspektive betrachtet, auch
kleine Unstimmigkeiten, die eventuell zu einer Erkrankung führen oder be-
reits eine Erkrankung in einem Anfangsstadium zeigen, aufgespürt werden
können. Dies schärft letztlich die Diagnose eines Facharztes und unterstützt
78 Vgl. https://link.springer.com/content/pdf/10.1007/s00117-019-00621-0.pdf
Big Data & Künstliche Intelligenz
87
bei der Entscheidungsfindung. Zahlreiche Studien belegen, dass trainierte
Netze in diesem Kontext sogar besser agieren als entsprechende Fachärzte.
Im Kontext des Einsatzes von KI in diesen Bereichen sind verschiedene Ex-
perten noch geteilter Meinung. Jedoch überwiegen die sehr guten Ergeb-
nisse von KI-basierten Verfahren deutlich denen von Fachärzten. In der Pra-
xis kommen oft mehrere vortrainierte Netze zum Einsatz, um eine umfas-
sende Diagnose zu ermöglichen. In Abbildung 14 wird ein Beispiel aus dem
Bereich der Lungenkrebserkennung vorgestellt. Zu sehen ist, dass eine ver-
schieden geartete Erkennung von diversen Diagnosen im Kontext der Bilda-
nalyse mittels KI ermöglicht wird.
Abbildung 14: Künstliche Intelligenz in der Radiologie (Quelle: Haubold 201979)
79 Vgl. https://link.springer.com/content/pdf/10.1007/s00117-019-00621-0.pdf
Big Data & Künstliche Intelligenz
88
7 Herausforderungen bei der Anwendung von
Künstlicher Intelligenz
Eine Reihe von technischen, ethischen, vertrauenswürdigen und regulie-
rungsbedingten Herausforderungen muss bewältigt werden, um KI-Techno-
logien branchenübergreifend einsetzen zu können.
Zum Beispiel gehören diese bei der Implementierung von KI im Transport-
wesen und Automobilsektor, bei Sicherheit und Gefahrenabwehr zu den
wichtigsten Herausforderungen. Für eine intelligente Fertigung sind Sicher-
heit und Vertrauenswürdigkeit wichtige Aspekte.
Einige Herausforderungen werden in Bezug auf Ethik und Soziales, Rechen-
leistung und Effizienz der KI-Infrastruktur, Verfügbarkeit und Qualität der
Daten etc. gesehen. Die Begegnung dieser Herausforderungen wird von ent-
scheidender Bedeutung und letztlich ein wesentlicher Treiber zur Beschleu-
nigung der Einführung von KI-Technologien in allen Branchen und Bereichen
sein.
7.1 Sozial behaftete Herausforderungen
KI hat das Potenzial, sowohl die Gesellschaft als auch die Märkte nachhaltig
zu beeinflussen. Durch die Möglichkeiten der Automatisierung in durchwegs
allen Bereichen, beginnend mit der Fertigung, aber auch in wissensintensi-
ven Branchen wie im Bereich des Legal-Tech, hat KI Einfluss auf die Arbeits-
weisen und kann Jobs teilweise in hohem Maße automatisieren. In dieser
Hinsicht werden bestimmte Fähigkeiten, die vom Menschen angewendet
werden, wie z.B. Kreativität, künftig noch wichtiger.
Es wird künftig eine zunehmende Zahl von Arbeitsplätzen, an denen Men-
schen mit KI zusammenarbeiten, geben und somit ein Zusammenspiel von
Künstlicher und menschlicher Intelligenz geben, was zu gänzlich neuen Ar-
beitsumgebungen führt.
Da die KI ihren Nutzern außerdem Waren und Dienstleistungen empfehlen
kann, führt KI letztlich auch dazu, dass Endverbraucher in Bezug auf ihre Kau-
fentscheidungen aktiv beeinflusst werden.
Änderungen in der Entscheidungsfindung
Von einer KI wird erwartet, dass sie sich zunehmend an Entscheidungsfin-
dungen, insbesondere bei Routineprozessen, beteiligt und diese
Big Data & Künstliche Intelligenz
89
automatisiert. Selbst bei sehr guten Trainingsprozessen kann auch diese
Technologie Fehler machen.
Die Frage ist, wie Menschen und KI-Systeme Entscheidungen kooperativ in
hinreichend sorgfältiger Art und Weise treffen können. Wie dies optimal
ausgestaltet werden kann, ist noch Bestandteil aktueller Forschung.
Für KI-Entwickler ist darüber hinaus auch die Herausforderung der Erstellung
eines optimalen und perfekten Algorithmus schwierig, da sehr viele Parame-
ter konfiguriert werden können und auch müssen. Je komplexer ein Algo-
rithmus ist, desto größer sind die Auswirkungen auf die Entscheidungsfin-
dung oder die Industrie, in der dieser eingesetzt wird. Es wird letztlich immer
noch menschliches Urteilsvermögen erforderlich sein, um sicherzustellen,
dass die Entscheidung durch die KI in angemessener Qualität getroffen
wurde.80
Dies hat erhebliche Auswirkungen auf die Verantwortung der Entschei-
dungsfindung. In einem komplexen System ist es schwer zu unterscheiden,
ob der Mensch oder das KI-System richtig liegt. KI kann den Eindruck vermit-
teln, dass ein System immer selbst für die Entscheidungsfindung verantwort-
lich ist, obwohl dem System letztlich statistische Werte zugrunde liegen. Dies
könnte dazu führen, dass Entscheidungsträger jegliche Verantwortung oder
rechtliche Pflichten von sich weisen und der KI die Schuld zusprechen.81
Erweiterte Supply-Chain-Operationen
Das Suchen von Produkten und Preisanfragen könnte künftig durch den Ein-
satz von KI automatisiert werden. Stattdessen müssen die Käufer lediglich
ein Foto von dem von ihnen gewünschten Gegenstand machen, dieses wird
anschließend automatisch mit dem verfügbaren Lagerbestand des Lieferan-
ten abgeglichen. Wenn der Käufer beabsichtigt, etwas Neues zu bestellen,
reicht eine einfache Beschreibung aus und das KI-System kann eingereichte
Preisanfragen automatisiert verarbeiten und Angebote erstellen. Wenn eine
bestimmte Variante eines Artikels benötigt wird, aber Schlüsselinformatio-
nen nicht vorhanden sind, um den Artikel neu zu bestellen, wie z.B. seine
Teilenummer oder Spezifikationen, könnte künftig auch die KI verwendet
werden, um den Gegenstand zu identifizieren und einen geeigneten Ersatz
zu suchen.
Wenn KI-Systeme in dieser Form praktisch zum Einsatz kommen und all
diese Entscheidungen treffen, werden in den kommenden Jahren einige
80 Vgl. [13]
81 Vgl. [13]
Big Data & Künstliche Intelligenz
90
Märkte tiefgreifend gestört werden und sich neu sortieren müssen. Die Ver-
braucher werden nicht mehr die physischen Läden besuchen und erhalten,
wie heute schon, alle Produkte über einen Mausklick. Intermediäre verlieren
an Relevanz, wenn sich Lieferketten verändern und autonom gesteuert wer-
den können.
Die Auswahl von Produkten für Endverbraucher wird zunehmend von KI-Al-
gorithmen beeinflusst. Jedoch stellt die Transparenz der Empfehlungen der
KI die Systemnutzer in Bezug auf die Entscheidungsfindung vor große Her-
ausforderungen. Wenn beispielsweise ein intelligenter Kühlschrank auto-
nom über den Kauf von Lebensmitteln und den entsprechenden Lieferanten
entscheidet und zusätzlich die Ernährung seines Besitzers beeinflusst, stellt
dies die Lebensmittelbranche gänzlich auf den Kopf. Auch diese Entschei-
dungen müssen letztlich durch den Endverbraucher noch einmal geprüft
werden, damit Fehlverhalten vermieden werden kann.
7.2 Datenbezogene Herausforderungen
KI erfordert umfangreiche Datensätze zum Training der verwendeten Me-
thoden und Algorithmen. Die kollektive Nutzung von Daten und die Vertei-
lung sind heute in verschiedenen Industriesektoren durch das Fehlen geeig-
neter Regeln und Vorschriften noch nicht so fortgeschritten, wie es eigent-
lich vonnöten wäre. Dies hat dazu geführt, dass praktische Anwender in ver-
schiedenen Industrien, um ihre Daten zu isolieren und Grenzen für die ge-
meinsame Nutzung von Daten zu setzen, ausschließlich nach ihren eigenen
kommerziellen Interessen handeln. Trotz der Anhäufung einer beträchtli-
chen Datenmenge ist in diesen Branchen das Problem weiterhin, dass Da-
teninseln entstehen und somit das volle Potenzial von KI-Anwendungen
nicht ausgeschöpft werden kann.
Darüber hinaus verursacht das allgemeine Problem der Datenverfügbarkeit
Schwierigkeiten beim Sammeln qualitativ hochwertiger Daten für das Trai-
nieren der KIs.
Da Algorithmen der KI anders arbeiten als das menschliche Gehirn und den
Dateninhalt normalerweise als richtig behandeln (ohne diesen reflektieren
zu können), führt dies oft zu einem Bias in den Daten. Dieser Bias führt
dazu, dass die Ergebnisse, die mittels einer KI erzeugt werden, zu Vorein-
genommenheit und Missverständnissen bei Anwendern führen.
Big Data & Künstliche Intelligenz
91
Beim Versuch der Lösung spezifischer Probleme ist der Anteil zuverlässiger
und glaubwürdiger Daten essenziell für den Erfolg eines solchen Projektvor-
habens.
Auswahl von Trainingsdaten
Fälle, in denen KI-Systeme ein Geschlecht oder eine Gruppe von Menschen
benachteiligt haben, die durch eine Verzerrung innerhalb der Daten provo-
ziert wurden, haben in den letzten Jahren eine erhöhte Medienaufmerksam-
keit genossen.82 Beispielsweise wurden bei der automatisierten Auswahl
von Bewerbern für eine Software-Entwickler-Stelle bevorzugt männliche
Kandidaten von der KI ausgewählt. Letztlich lag dies daran, dass das System
primär mit Lebensläufen von männlichen Entwicklern trainiert wurde. Bei
der Entwicklung eines KI-Modells sind die Relevanz, die Quantität und die
Qualität der Daten entscheidend.
Erstens müssen die verfügbaren Daten für die Lösung der Problemstellung
relevant und angesichts der Größe der beteiligten Datensätze ausgeglichen
sein. Die Größe des Datensatzes ist in erster Linie zwar entscheidend, prak-
tisch erweist sich aber ein qualitativ besserer Datensatz als wichtiger als die
tatsächliche Menge. Wobei eine kritische Datenmenge immer vorhanden
sein muss, was aber letztlich sehr stark von der vorliegenden Problemstel-
lung abhängt. Datenwissenschaftler benötigen daher eine Art Verständnis
dafür, wie und zu welchem Zweck die Daten verwendet werden und wie
hoch die fachliche Relevanz zu bewerten ist. Die Beurteilung der Relevanz
der Daten kann zu einer multidisziplinären Aufgabe werden, die nicht nur
Datenwissenschaftler, sondern vor allem auch Domänenexperten fordert.
Damit das Modell genau und gut funktioniert, muss es genügend Daten ge-
ben, damit es aus dem Datenbestand lernen und die abgeleiteten Regeln
verallgemeinern kann. Die Qualität des Trainingsdatensatzes muss repräsen-
tativ sein für die Daten, auf die das Modell nach der Produktivsetzung stoßen
wird.
Ob diese Bedingungen erfüllt sind, kann oft nur nach mehreren Runden ei-
nes initialen Trainings und nach eingehenden Tests mit einer Vielzahl ver-
schiedener Modelle und Parametrisierungen bestätigt werden. Dieser Pro-
zess ist in hohem Maße iterativ (wiederholend) und erfordert die mehrfache
iterative Anpassung aller Trainingsparameter und Daten. Die Testdaten
selbst können hier ein Problem darstellen, wenn diese nicht ordnungsgemäß
aus dem Originaldatensatz erstellt wurden.
82 Vgl. [96]
Big Data & Künstliche Intelligenz
92
Vor dem Training müssen die Datensätze aufgeteilt werden und in Trainings-
und Testdatensatz gesplittet werden. Die Trainingsdaten werden folglich
zum Trainieren und die Testdatensätze zum Validieren der KI verwendet. Da-
rauf basierend wird dann unter anderem die sogenannte Accuracy (also Ge-
nauigkeit) einer KI bestimmt, was die Genauigkeit eines Ansatzes beschreibt.
Um sicherzustellen, dass die Trainingsdaten die Qualität des Modells genau
testen können, sollte die Aufteilung so sein, dass die Testdaten, genau wie
die Trainingsdaten, die Bedingungen der realen Welt widerspiegeln.
Selbst wenn das trainierte Modell die Erwartungen erfüllt oder übertrifft, in-
dem es präzise arbeitet, ist es entscheidend, zusätzliche Zeit für Tests bzgl.
der Fehlertoleranz einzuplanen.
Wenn das Modell z.B. Bilder in 98% der Fälle korrekt und nur wenige Bilder
falsch klassifizieren würde, könnte dies dazu führen, dass ein Modell nicht
eingesetzt wird, da die Gesamtfehlerquote eventuell zu hoch sein kann.83
Wichtig ist somit die zielgerichtete Auswahl der Datensätze.
Solche Fälle werden oft das Ergebnis menschlicher Voreingenommenheit
sein.84 Auch das Entfernen von Attributen führt häufig zu Verzerrungen der
Trainingsdaten (z.B. Geschlecht, sexuelle Orientierung oder Religion). Ob-
wohl technische Methoden zur Kontrolle von Verzerrungen existieren, sind
diese nicht perfekt und weiterhin Gegenstand der aktuellen interdisziplinä-
ren Forschung.85
Bis dahin müssen manuelle Anpassungen an Datensätzen weiterhin entspre-
chend durchgeführt werden und weitere Iterationen im Bereich der Trai-
nings von KI-Algorithmen mit nachfolgenden Korrekturen der Datensätze
vorgenommen werden.
Standardisierte Daten
Wie bereits erwähnt, ist der Erfolg der KI von der Menge, der Vielfalt und
der Qualität der verwendeten Daten abhängig. Im Zuge der aktuellen digita-
len Transformation können große Datenmengen bereits über verschiedene
Kanäle (z.B. offene Datenquellen, Sensoren, bestehende Datenbanken) auf-
gerufen werden. Vielfalt ist im Kontext von Big Data gegeben, aber gleich-
zeitig auch eine Herausforderung. Daten entsprechend vorzubereiten und
zu beschreiben, ist für ein optimales Verständnis unerlässlich und verbessert
83 Vgl. [97]
84 Vgl. [98], [99]
85 Vgl. [100]
Big Data & Künstliche Intelligenz
93
die Ergebnisse jedes Vorhabens von Datenauswertung. Künftig wird dieser
meist sehr zeitaufwendige Schritt dank standardisierten Datentypen, For-
mularen und Informationsmodellen fortlaufend erleichtert. Nichtsdestot-
rotz stellt sich die Frage, wie heterogen die Informationen und Datensätze
interpretiert werden können, insbesondere über mehrere KI-Anwendungen
hinweg, ohne vorher die Bedeutung der relevanten Datensätze genau zu
kennen. Um dieses Ziel zu erreichen, sollten künftig herstellerunabhängige
und eindeutige Informationsmodelle der Daten entworfen werden.
Semantische Technologien haben sich hier bewährt, die eine einheitliche
Darstellung von Informationen sowie das einheitliche Verständnis für Ma-
schinen und Menschen sicherstellen. Darauf aufbauend können geeignete
semantische Werkzeuge zur Ableitung von implizitem Wissen und eine Form
der effizienten Datenvorverarbeitung erreicht werden.
Semantische Interoperabilität erfordert daher, dass Systeme nicht nur rele-
vante Daten austauschen oder diese zur weiteren Bearbeitung zur Verfü-
gung stehen, sondern dass die Interpretationen der vom Absender ausge-
tauschten Daten und dem Empfänger identisch sind. Trotzdem können se-
mantische Konflikte auftreten, z.B. wenn identische Datenpunkte durch un-
terschiedliche Begriffe oder unterschiedliche Daten beschrieben werden.
7.3 Herausforderungen für Algorithmen
Herausforderungen gibt es auch im Zusammenhang mit den verwendeten
Algorithmen im Bereich der KI. Einige der bemerkenswertesten Probleme
beim Einsatz dieser Algorithmen sind Robustheit, die Fähigkeit zur Anpas-
sung an neue Aufgaben und die mangelnde Interpretier- bzw. Erklärbarkeit.
Die Sicherheit von KI-Algorithmen und die daraus resultierenden Risiken für
Anwender stellen eine zunehmend wichtige Herausforderung für komplexe
Systeme dar. Es muss sichergestellt werden, dass sich die Algorithmen kor-
rekt verhalten, d.h., dass ein Algorithmus oder Programm das in seiner Spe-
zifikation beschriebene Problem für jede Dateneingabe korrekt löst. Dies ist
und bleibt eine enorme Herausforderung für Algorithmen des maschinellen
Lernens, insbesondere für neuronale Netze.
Darüber hinaus ist die Komplexität der Algorithmen ein zusätzlicher
Schwachpunkt in Bezug auf Verständlichkeit und Interpretierbarkeit der Er-
gebnisse, was es teilweise unmöglich macht, den Entscheidungsprozess ei-
nes KI-Systems zu verstehen. Einige dieser Herausforderungen werden nach-
folgend ausführlicher beschrieben.
Big Data & Künstliche Intelligenz
94
Robustheit
Der Begriff Robustheit in Verbindung mit maschinellem Lernen bedeutet,
dass der Algorithmus Entscheidungen, auch wenn die Inputs von den Trai-
ningsdaten abweichen, korrekt trifft. Ein robuster Algorithmus ist daher
stabil gegen einen Input und hat keine signifikante Abweichung in Bezug auf
die Leistung zwischen den Trainings- und Testdatensätzen.86 Während Ro-
bustheit bereits ein Thema in der Vergangenheit war, wird diese künftig wei-
terhin an Bedeutung gewinnen. Insbesondere hat der Erfolg des Reinforce-
ment Learning in diesem Bereich zur intensiveren Forschung an Robustheit
von Algorithmen geführt. Die Kategorie dieser verwendeten Algorithmen für
maschinelles Lernen, die mittels Agenten mit ihrer Umgebung interagieren,
führt zu einem sehr komplexen System von Interaktionen und sich verän-
dernden Variablen, was es schwierig macht, das Ergebnis vorherzusagen und
die Handlungen des Agenten zu verbessern.87
Der Trend zur Verwendung von Algorithmen für die Entscheidungsfindung
hat wahrscheinlich die größte Wirkung in Bezug auf Robustheit. Je mehr
Auswirkungen diese Entscheidungen haben, desto wichtiger ist ihre kor-
rekte Reaktionsfähigkeit in ihrer Umgebung.
Mit der Entscheidungsfindung sind zwei Szenarien verbunden: Entweder
empfiehlt das System eine Entscheidung an seinen Nutzer, der diese über-
prüft und verifiziert, oder das System setzt seine Entscheidungen automa-
tisch um. Letzteres stellt ein Problem dar, wenn im Falle neuer Eingabedaten
das System nicht unbedingt erkennt, dass ein Ergebnis fehlerhaft ist. Deshalb
sollten keine Entscheidungen automatisch getroffen werden, die zu Schäden
an kritischen Infrastrukturen oder sogar Menschen führen. Beispielsweise
könnten dies eine Fehlklassifikation von Scans für Patienten, die an Krebs
erkrankt sind und die möglicherweise keine ordnungsgemäße Behandlung
erhalten würden, oder durch Maschinen verursachte Unfälle sein.
Einige der Gründe für das Versagen von KI-Algorithmen in diesem Kontext
sind nicht übereinstimmende Datensätze, Ausreißer und eine fehlerhafte
Programmierung des Systems selbst.
Nicht übereinstimmende Datensätze stellen häufig Probleme bei der An-
wendung der Algorithmen dar. Algorithmen müssen in der Lage sein, sich an
Variationen in Datensätzen anzupassen, ohne allzu große Abweichungen in
den Outputs zu generieren.
86 Vgl. 101], [102], [103]
87 Vgl. [101]
Big Data & Künstliche Intelligenz
95
Derzeit werden mehrere Forschungsrichtungen im Bereich der Robustheit
von Algorithmen bearbeitet.
• Verifikation: Wurde das System richtig gebaut und erfüllt es die An-
forderungen?
• Gültigkeit: Treten keine unerwarteten oder unerwünschten Effekte
auf, um die gestellten Anforderungen zu erfüllen?
• Sicherheit: Wie verhindert man Manipulationen des Systems durch
eine dritte Partei?
• Kontrolle: Wie wird es dem Anwender ermöglicht, die Kontrolle über
das KI-System zu behalten und erlangen?88
Wendet man diese Ansätze mehrfach an, kann eine zunehmende Robustheit
von KI-Algorithmen festgestellt werden, wie z.B. Datenvorverarbeitung KI-
Systeme zu trainieren, Fehlanpassungen zu beseitigen und Ausreißer zu ver-
arbeiten sowie die Erkennung von Veränderungen und Anomalien als Hypo-
thesentest und Transferlernen.89
Transfer Learning
Umsetzungen in Form von Implementierungsprojekten im Kontext KI sind
meist kundenspezifische Produkte. Die Variablen werden anhand der Prob-
lemstellung ausgewählt, um genau die Lösung zum bestehenden Problem zu
liefern. Somit müssen die entsprechenden Trainingsdaten aus dem spezifi-
schen Anwendungsbereich stammen. Dies stellt sicher, dass der Algorithmus
für seine Anwendung perfekt funktioniert. Während Menschen in der Lage
sind, Wissen aus früheren Erfahrungen auf neue Probleme zu übertragen,
haben Maschinen diese Fähigkeit nicht. Wenn Änderungen der Umwelt die
bereitgestellten Daten fortlaufend beeinflussen, ändern sich auch die Trai-
ningsdaten, welche neu erfasst und dem Algorithmus erneut durch Trai-
ningsphasen beigefügt werden müssen. Um die Kosten und Aufwende zu re-
duzieren, kann das Transfer-Lernen in Projekten unterstützen. So können
Muster und Wissen von Problemen auf andere Probleme übertragen wer-
den.90
Ziel des Transfer-Learning ist es, die Nutzung von Trainingsdaten aus ver-
schiedenen Anwendungsbereichen mit teilweiser unterschiedlicher Vertei-
lung oder Ausprägung für andere Domänen und Anwendungsbereiche zu
nutzen.
88 Vgl. [104]
89 Vgl. [102]
90 Vgl. [105]
Big Data & Künstliche Intelligenz
96
Hierzu müssen vorab verschiedene Fragstellungen behandelt werden, bspw.
welche Wissensvorsprünge und Konzepte (bspw. die Klassifizierung von Ob-
jekten) lassen sich auf eine neue Problemstellung übertragen? Sind die Trai-
ningsdaten aus einem anderen Anwendungsfeld relevant oder nicht? Viele
Fragen sind in Bezug auf diesen Ansatz noch offen, z.B. wie und wann das
Wissen transferiert werden kann. Dies ist nach wie vor Gegenstand aktueller
Forschung. Durchbrüche im Transfer-Lernen könnten maschinelles Lernen
viel einfacher gestalten und die Kosten sowie Zeitaufwende in der Entwick-
lung reduzieren.
Interpretierbarkeit
Die meisten KI-Algorithmen, insbesondere neuronale Netze, werden als so-
genannte „Black Boxes“ bezeichnet. Dies bedeutet, dass die Input-Daten und
die Ergebnisse eines Netzes interpretiert und verstanden werden können,
aber nicht, wie der Algorithmus sein Ergebnis erreicht. Diese ist eine kriti-
sche Herausforderung für den Erfolg von KI.
Die Verständlichkeit und die Erklärbarkeit von KI-Modellen sind die wich-
tigsten Ansatzpunkte für eine Akzeptanz bei Endanwendern von Künstli-
cher Intelligenz.
Während einige Modelle, wie Regressions- oder Entscheidungsbäume, für
Datenwissenschaftler und KI-Experten sehr verständlich sind, sind die Mul-
tidimensionalität des Datenflusses und die Komplexität der meisten anderen
Algorithmen in der Regel zu hoch, um von Menschen einfach verstanden
werden zu können.
Dabei können aber auch künftig Konzepte aus dem Bereich Explainable AI
verwendet werden, um die Erklärbarkeit von Entscheidungsfindungsprozes-
sen von KI-Komponenten zu unterstützen.
Dies bedeutet, dass solche Algorithmen eine klare Erklärung für eine be-
stimmte Vorhersage liefern. Im Black Box Prozess liefern diese hingegen le-
diglich eine Wahrscheinlichkeit, die oft schwer zu interpretieren ist. Das
macht es schwierig und oft unmöglich zu verifizieren, dass ein trainierter Al-
gorithmus wie erwartet funktioniert. Manchmal sind Millionen von Modell-
parametern innerhalb des Trainings involviert und keine Abhängigkeiten der
Parameter vorgegeben. Daher sind Kombinationen aus mehreren Modellen
mit vielen Parametern oft schwierig eindeutig interpretierbar. Einige davon
erfordern auch eine große Datenmenge, um eine hohe Genauigkeit zu errei-
chen.
Big Data & Künstliche Intelligenz
97
Aber es ist nicht nur der Algorithmus selbst, der ein Problem für die Er-
klärbarkeit darstellt. Die Transformation von Daten, die durch mathemati-
sche Modelle verarbeitet werden können, ist für den Menschen oft schon
schwer interpretierbar. Es wurden einige Methoden vorgeschlagen, um die
Interpretation neuronaler Netze in Anwendungsbereichen wie NLP oder
Bilderkennung voranzutreiben. Andere Ansätze versuchen eine lokale Annä-
herung an komplexe Algorithmen durch einfache, verständliche Modelle zur
Verbesserung der Interpretation.91
Da KI-Algorithmen in einer wachsenden Zahl von Branchen, einschließlich
Gebieten mit hochsensiblen Daten wie Medizin oder Finanzen, eingesetzt
werden, wird die Interpretierbarkeit sicherlich an Bedeutung gewinnen und
weiter zu einer der großen konzeptionellen und technischen Herausforde-
rungen der KI in der Zukunft werden.92
7.4 Herausforderungen hinsichtlich verwendeter Inf-
rastruktur
Um KI-Anwendungen mit zufriedenstellender Leistung nutzen zu können
(insbesondere unter Echtzeitbedingungen), müssen die Rechengeschwindig-
keit und die Effizienz der Infrastruktur stetig an die bestehenden Anforde-
rungen angepasst werden. Dies trägt dazu bei, dass Applikationen auch
nachhaltig an ansteigende KI-Workloads (beispielsweise durch die Hinzu-
nahme neuer Datensätze) skalierbar angepasst werden müssen.
Dies stellt in Summe sicher, dass Anforderungen an eingesetzte Software
Stacks und Frameworks bzw. Software-Bibliotheken optimiert genutzt wer-
den können.
Herausforderungen im Kontext der verwendeten Hardware
KI und insbesondere Deep Learning erfordern die parallele Verarbeitung von
Daten. Wenn große Datenmengen verarbeitet werden müssen, reichen tra-
ditionelle Rechnerarchitekturen kaum mehr aus. Die derzeit verwendeten
GPUs und FPGAs haben eine Reihe von technischen Einschränkungen, die
die Implementierung der fortschrittlichsten KI-Algorithmen einschränken.
Zum Beispiel hat eine GPU, der zuerst in das Deep Learning eingeführt
wurde, drei Haupteinschränkungen:
91 Vgl. [106]
92 Vgl. [107]
Big Data & Künstliche Intelligenz
98
Sie kann die Vorteile des parallelen Rechnens nicht voll ausnutzen, die Hard-
warestruktur ist ohne Programmierbarkeit festgelegt und die Effektivität der
Algorithmen für das Deep Learning muss noch verbessert werden. In der
neuen Computer-Ära wird der Kern-Chip die Infrastruktur und das Ökosys-
tem der KI bestimmen. Prozessorfähigkeiten werden daher als ein wesentli-
cher Engpass bei der fortschreitenden KI-Entwicklung angesehen.
In dieser Hinsicht sind das Design und die Architektur heterogener Compu-
terplattformen (die eine Vielzahl von Beschleunigern integrieren, um unter-
schiedliche KI-Arbeitslasten zu bewältigen) ein wesentliches Thema für die
KI-Forschung und die kommerzielle Umsetzung. Darüber hinaus sind Hard-
wareressourcen, die innerhalb von Cloud-Infrastrukturen bereitgestellt wer-
den, angesichts ihrer Skalierbarkeit, Zuverlässigkeit und automatisierten
Ressourcenverwaltung zu einem neuen Trend geworden.
Außerdem werden Cloud-Native Application Programming Interfaces (APIs),
z.B. Container, verwendet, um konsistente Schnittstellen, umfassende Un-
terstützung und einfache Bereitstellung von KI-Anwendungen zu ermögli-
chen.
Da KI-Technologien auf verschiedenen Systemen oder Sub-Systemen (Cloud,
Edge oder Endgeräten) implementiert werden können, sollte das Plattform-
design auf die individuellen Bedürfnisse und Ressourcenbeschränkungen
des Systems zugeschnitten sein. So kann ein Cloud-Server beispielsweise
verbesserte Algorithmen ausführen und eine größere Datenmenge verarbei-
ten (z.B. für Trainingsphasen) als ein mobiles Gerät. Daher muss beim Hard-
ware-Design die Koordination der KI-Fähigkeiten auf den verschiedenen Sys-
temen oder Subsystemen berücksichtigt werden.
Herausforderungen im Kontext von Plattformen und Frameworks
Wiederverwendbare und standardisierte technische Frameworks, Plattfor-
men, Werkzeuge und Dienste für die KI-Entwicklung müssen erst noch wei-
ter reifen. Obwohl einige Open-Source-Ansätze und Bibliotheken von be-
kannten Technologiegiganten wie Google oder Amazon vollständig modu-
lare und standardisierte KI-Ökosysteme aus Architekturen, Frameworks, An-
wendungsmodellen, Bewertungs- und Visualisierungswerkzeugen und
Cloud-Diensten anbieten, sind diese teilweise noch nicht vollständig ausge-
reift, wenngleich hier natürlich stetige Verbesserungen vorgenommen wer-
den.
Big Data & Künstliche Intelligenz
99
7.5 Herausforderungen bzgl. der Vertrauenswürdig-
keit KI-bezogener Systeme
Bekannt ist, dass bei KI-Anwendungsfällen immer viele Akteure an der Ent-
wicklung beteiligt sind, die effizient zusammenarbeiten müssen.
Um KI-Algorithmen adäquat mit richtigen Daten zu versorgen, müssen so-
wohl Hersteller als auch Anwender Daten austauschen, Expertenwissen be-
reitstellen und gemeinsam auf eine effiziente Implementierung hinarbeiten.
Um diese Zusammenarbeit zu erleichtern, muss eine Reihe von Fragen, wie
z.B. die Sicherstellung des Vertrauens in Bezug auf Daten etc., behandelt
werden.
Algorithmen für maschinelles Lernen stützen sich auf die bereitgestellten
Daten. Vollständige und genaue Daten sind daher für eine automatisierte
Entscheidungsfindung unerlässlich. Mögliche Probleme wie schlechte Da-
tenqualität oder sogar absichtliche Manipulation können zu wertlosen Er-
gebnissen und sogar zu negativen Auswirkungen für den Anwender der KI-
Anwendung führen.
Vertrauen zwischen den beteiligten Akteuren ist unerlässlich. Lösungen, die
sich mit der Vertrauenswürdigkeit von Datenquellen befassen, könnten
möglicherweise durch Zertifizierungstechnologien angeboten werden.
Elektronische Zertifikate von einem zentralisierten und vertrauenswürdigen
Emittenten kombiniert mit Datensiegeln sind Optionen, um Vertrauen zwi-
schen den Parteien herzustellen. Diese Lösung zielt jedoch nur darauf ab,
Vertrauen zwischen den Partnern zu schaffen, und geht nicht auf die Frage
der Datenqualität ein. Zu diesem Zweck könnte man einen vertrauenswür-
digen Datenpool sammeln oder einen Auswertungs- oder Bewertungsalgo-
rithmus verwenden, um fehlerhafte Datenbanken zu vermeiden. Meta-Algo-
rithmen könnten dann dazu beitragen, KI-Systeme im Laufe der Zeit zuver-
lässig und transparent zu halten, indem sie Informationen über die Herkunft
und Verteilung der verwendeten Quellen liefern.93
Die Entwicklung der KI hängt von der Verwendung von Daten-Trainingsalgo-
rithmen ab. In diesem Prozess muss eine große Menge an Daten gesammelt,
analysiert und verwendet werden. Der Wert der Daten steht zunehmend im
Vordergrund. Entwickler, Plattformanbieter, Betriebssystem- und Endgerä-
tehersteller sowie andere Dritte in der Wertschöpfungskette haben Zugang
zu diesen Daten und sind in der Lage, die von den Benutzern bereitgestellten
93 Vgl. [13]
Big Data & Künstliche Intelligenz
100
Daten hochzuladen, auszutauschen, zu modifizieren, zu handeln und bis zu
einem gewissen Grad zu nutzen.
Da KI-Systeme im Allgemeinen höhere Rechenkapazitäten erfordern, haben
viele Unternehmen und Institutionen damit begonnen, Daten in der Cloud
zu speichern. Der Schutz der Privatsphäre in der Cloud birgt jedoch auch ver-
steckte Gefahren. Wie Daten legal und in Übereinstimmung mit bestehen-
den und zukünftigen Gesetzen gesammelt und verwendet werden können,
ist für jeden KI-Akteur eine entscheidende Frage.
Technischer Missbrauch, Fehler und die Entwicklung der zukünftigen Super-
KI stellen allesamt Bedrohungen für die menschliche Gesellschaft dar. Die
Auswirkungen der KI auf den Menschen hängen weitestgehend davon ab,
wie die Menschen sie nutzen. In den Händen von Kriminellen kann KI mit
Sicherheit zu großen Problemen führen. Zum Beispiel können Hacker Cybe-
rattacken mit Hilfe von Software starten, die das Verhalten der Benutzer von
KI-Systemen selbst erlernen und imitieren kann, und die Methode ständig
ändern, um so lange wie möglich im System zu bleiben.
7.6 Regulatorische Herausforderungen
In vielen KI-Bereichen fehlt es noch an einer angemessenen Regulierung. Die
Suche nach einem ausgewogenen regulatorischen Ansatz für KI-Entwicklun-
gen, die industrielle Innovation, Produktivität und Wettbewerbsfähigkeit
fördern und unterstützen und gleichzeitig ein hohes Maß an Sicherheit und
Gesundheit, Verbraucherschutz, sozialer Sicherheit und Schutz von Rechten
und Freiheiten gewährleisten, ist für viele Regierungen in der ganzen Welt
von höchster Priorität.
Zwar wurden in Bereichen wie autonomes Fahren und Drohnen einige frühe
gesetzgeberische Schritte unternommen, doch gibt es nirgendwo auf der
Welt eine KI-spezifische Regulierungsbehörde und es mangelt auch an juris-
tischer Forschung zur KI. In Europa werden beispielsweise Aspekte der Ro-
botik und KI von verschiedenen Regulierungsbehörden und Institutionen auf
nationaler und europäischer Ebene abgedeckt. Es gibt keine zentrale euro-
päische Stelle, die das technische, ethische und regulatorische Fachwissen
und die Aufsicht über die Entwicklungen in diesen Bereichen zur Verfügung
stellt. Dieser Mangel an Koordination behindert eine rechtzeitige und gut in-
formierte Reaktion auf die neuen Chancen und Herausforderungen, die sich
aus diesen technologischen Entwicklungen ergeben.
Big Data & Künstliche Intelligenz
101
Die im Bericht des Rechtsausschusses des Europäischen Parlaments über KI
genannten sechs zentralen, übergreifenden Regulierungsthemen betreffen
ein breites Spektrum von Politikbereichen. Zu den Bereichen, in denen nach
dem Standpunkt des Ausschusses prioritär Handlungsbedarf besteht, gehö-
ren der Automobilsektor, die Altenpflege sowie das Gesundheitswesen.
Die Fragen der Vorhersehbarkeit, Interpretierbarkeit und Kausalität, die bei
neuen KI-basierten Produkten auftauchen, werden es immer schwieriger
machen, Haftungsfragen wie Produktfehler zu beurteilen. Dies kann zu einer
gewissen Haftungslücke führen. Angesichts dieser zu erwartenden Heraus-
forderungen im Bereich der Haftung wird der Bedarf an neuen Regeln und
Vorschriften, z.B. im Delikts- und Vertragsrecht, für viele Branchen zuneh-
mend kritisch werden. Rechtssicherheit in Haftungsfragen ist für Innova-
toren, Investoren und Verbraucher von größter Bedeutung, um ihnen den
erforderlichen Rechtsrahmen zu bieten.
Aufgrund der Komplexität der digitalen Technologien ist es jedoch beson-
ders schwierig zu bestimmen, wer im Falle von Versäumnissen haftbar ge-
macht werden kann. Beispielsweise reichen die bestehenden rechtlichen Ka-
tegorien nicht aus, um die Rechtsnatur von Robotern angemessen zu defi-
nieren und folglich Rechte und Pflichten, einschließlich der Haftung für Schä-
den, zuzuordnen. Nach dem derzeitigen Rechtsrahmen können Roboter
nicht per se für Handlungen oder Unterlassungen haftbar gemacht werden,
die Dritten Schäden zufügen. In einem Szenario, in dem ein Roboter auto-
nome Entscheidungen treffen kann, reichen die traditionellen Regeln nicht
aus, um die Haftung eines Roboters zu regulieren.
Verordnungen wie die Allgemeine Datenschutzverordnung der Europäi-
schen Union sollen diese Probleme teilweise lösen, doch bleibt abzuwarten,
wie dies von den Datenschutzbehörden umgesetzt wird.94 Es muss ein emp-
findliches Gleichgewicht zwischen dem Datenschutz und der Ermöglichung
einer florierenden KI-Industrie gefunden werden. Tatsächlich wird die KI
selbst bald dazu beitragen, die Sicherheit persönlicher Daten zu gewährleis-
ten, indem sie ausgeklügelte Anonymisierungs- und Verschlüsselungsme-
thoden ermöglicht. Föderiertes Lernen könnte sicherstellen, dass personen-
bezogene Daten niemals die Geräte der Verbraucher verlassen müssen, um
ein KI-System zu trainieren, da das System parallel direkt auf jedem Gerät
trainiert wird.95 Darüber hinaus könnte die KI die Exposition von sensiblen
Informationen (z.B. Gesundheitsdaten) begrenzen, indem sie Aufgaben
94 Vgl. [24]
95 Vgl. [110]
Big Data & Künstliche Intelligenz
102
durchführt, ohne dass ein Mensch auf die Daten zugreifen muss, wodurch
der Schutz der Privatsphäre verbessert wird.
Das GDPR umfasst eine Reihe bedeutender regulatorischer Änderungen des
Datenschutzes und des Schutzes der Privatsphäre in der Europäischen
Union, die auch die automatisierte Entscheidungsfindung betreffen.
Obwohl unklar bleibt, wie die Datenschutzbehörden die GDPR in der Praxis
umsetzen werden, dürften die Transparenzanforderungen für die Entschei-
dungsfindung bei KI die größte Herausforderung sein, der sich sowohl Un-
ternehmen als auch Regulierungsbehörden stellen müssen. Dabei sollte das
Ziel darin bestehen, ein Gleichgewicht zwischen der Aufrechterhaltung des
Datenschutzes und der Transparenz herzustellen und datengesteuerte Ge-
schäftsmodelle gedeihen zu lassen. Die Zulassung eines gesunden KI-Öko-
systems ist nicht nur aus wirtschaftlicher Sicht relevant, sondern auch not-
wendig, um weitere technologische Forschung zu ermöglichen, die die Fä-
higkeit von Unternehmen zur Gewährleistung von Transparenz verbessern
kann.
Obwohl die gravierendsten Auswirkungen dieser Probleme nur in fortge-
schrittenen und futuristischen KI-Systemen zu sehen sein werden, ist ein
proaktiver Ansatz, sie so früh wie möglich anzugehen, nicht nur ein umsich-
tiger Ansatz, sondern kann auch eine kostspielige (wenn nicht gar unmögli-
che) Nachrüstung in der Zukunft vermeiden.
Ein unmittelbareres Anliegen ist die Notwendigkeit, dass KI-Systeme (z.B.
selbstfahrende Autos) in ihren Entscheidungsprozessen ethische Entschei-
dungen treffen müssen (z.B. einen Fußgänger zu verletzen oder den Fußgän-
ger zu meiden und möglicherweise den Fahrer oder die Mitfahrer zu verlet-
zen).96
Dieses Beispiel veranschaulicht, dass KI-Sicherheit nicht nur ein techni-
sches Problem, sondern auch eine politische und ethische Frage ist, die ei-
nen interdisziplinären Ansatz zum Schutz der Nutzer solcher Technologien,
neutraler Umstehender und der Unternehmen, die sie entwickeln werden,
erfordern wird, da letztere vor wichtigen rechtlichen Herausforderungen
stehen können.
Während Forschungsorganisationen und Unternehmen begonnen haben,
sich mit diesen Fragen zu befassen, ist eine engere Zusammenarbeit zwi-
schen allen betroffenen Parteien auf internationaler Ebene erforderlich.
96 Vgl. [113]
Big Data & Künstliche Intelligenz
103
Die KI ersetzt nach und nach den Menschen in verschiedenen Entschei-
dungsprozessen. Intelligente Roboter müssen auch die ethischen Zwänge
und Regeln der menschlichen Gesellschaft beachten, wenn sie Entscheidun-
gen treffen. Nehmen wir z.B. an, es befinden sich drei Fußgänger auf dem
Bürgersteig vor einem fahrerlosen Auto, das nicht rechtzeitig bremsen kann:
Soll sich das System dafür entscheiden, diese drei Fußgänger zu rammen
oder stattdessen auf einen Fußgänger auf der anderen Straßenseite auszu-
weichen? Die Anwendung der KI im täglichen Leben der Menschen steht im
Mittelpunkt grundlegender ethischer Herausforderungen, die es zu bewälti-
gen gilt.
Wenn die Gestaltung von KI-Systemen nicht an ethischen und sozialen
Zwängen ausgerichtet ist, können solche Systeme nach einer Logik funkti-
onieren, die sich von der des Menschen unterscheidet und zu dramati-
schen Konsequenzen führen kann.
Darüber hinaus werden Menschen nach der Gewährung von Entscheidungs-
rechten an Maschinen mit einer neuen ethischen Frage konfrontiert: Ist die
Maschine qualifiziert, solche Entscheidungen zu treffen? In dem Maße, wie
sich intelligente Systeme Wissen in bestimmten Bereichen aneignen, wer-
den ihre Entscheidungsfähigkeiten beginnen, die der Menschen zu übertref-
fen, was bedeutet, dass Menschen in immer mehr Bereichen von maschi-
nengeführten Entscheidungen abhängig werden können. Diese Art von ethi-
scher Herausforderung wird bei jeder künftigen Entwicklung der KI dringend
besondere Aufmerksamkeit erfordern.
Big Data & Künstliche Intelligenz
104
8 Literaturverzeichnis
[1] TURING, A. M., Computing Machinery and Intelligence, Mind, 49, 1950,
pp. 433-460.
[2] MCCARTHY, J., MINSKY, M. L., ROCHESTER, N., SHANNON, C. E., A Pro-
posal for the Dartmouth Summer Research Project on Artificial Intelligence,
Original from August 31, 1955, reprint in AI Magazine, 27 (4), 2006.
[3] ROSENBLATT, F., The Perceptron: A probabilistic model for information
storage and organization in the brain, Psychological Review, 65 (6), 1958, pp.
386-408.
[4] COVER, T. M., HART, O. E., Nearest Neighbor Pattern Classification, IEEE
Transactions on Information Theory, IT 13 (1), 1967, pp. 21-27.
[5] DEJONG, G. F., Generalizations based on explanations, Proceedings of the
Seventh International Joint Conference on Artificial Intelligence, 1981, pp.
67-70.
[6] RUMELHART, D. E., HINTON, G. E., WILLIAMS, R. J., Learning representa-
tions by back-propagating errors, Nature, 323 (9), 1986, pp. 533-536.
[7] CORTES, C., VAPNIK, V., Support-Vector Networks, Machine Learning, 20,
1995, pp. 273-297.
[8] CAMPBELL, M., HOANE Jr., A. J., HSU, F., Deep Blue, Artificial Intelligence,
134, 2002, pp. 57-83.
[9] HINTON, G. E., OSINDERO, S., TEH, Y. W., A Fast Learning Algorithm for
Deep Belief Nets, Neural Computation, 18 (7), 2006, pp. 1527-1554.
[10] IDC Spending Guide Forecasts Worldwide Spending on Cognitive and
Artificial Intelligence Systems to Reach $57.6 Billion in 2021.
[11] ISO/IEC 2382:2015, Information technology – Vocabulary.
[12] IEC, Edge intelligence, White Paper, 2017 [Online].
[13] Bitkom, Künstliche Intelligenz – Wirtschaftliche Bedeutung, gesell-
schaftliche Herausforderungen, menschliche Verantwortung.
[14] GOODFELLOW, I., BENGIO, Y., COURVILLE, A., Deep Learning, MIT Press,
2016.
Big Data & Künstliche Intelligenz
105
[15] HAJKOWICZ, S. A., REESON, A., RUDD, L., BRATANOVA, A., HODGERS, L.,
MASON, C., BOUGHEN, N., Tomorrow’s Digitally Enabled Workforce: Mega-
trends and scenarios for jobs and employment in Australia over the coming
twenty years, CSIRO, Brisbane, 2016.
[16] United Nations Environment Programme, With resource use expected
to double by 2050, better natural resource use essential for a pollution-free
planet [Online].
[17] WOLFE, F., How Artificial Intelligence Will Revolutionize the Energy In-
dustry [Online].
[18] PwC, Demographic and social change [Online].
[19] International Telecommunication Union, AI for Good Global Summit Re-
port [Online].
[20] World Economic Forum, Harnessing Artificial Intelligence for the Earth
[Online].
[21] CHAKRABORTY, C., JOSEPH, A., Bank of England: Staff Working Paper
No. 674, Machine learning at central banks.
[22] Statista, Adoption level of AI in business organizations worldwide, as of
2017.
[23] McKinsey Global Institute, Artificial Intelligence: implications for China.
[24] SAP, European Prosperity Through Human-Centric Artificial Intelligence.
[25] KPMG, Venture Pulse Q4 2017: Global analysis of venture funding.
[26] The State Council of the People’s Republic of China, China issues guide-
lines on artificial intelligence development.
[27] KOCHURA, Y., STIRENKO, S., ROJBI, A., ALIENIN, O., NOVOTARSKIY, M.,
GORDIENKO, Y., Comparative Analysis of Open Source Frameworks for Ma-
chine Learning with Use Case in Single-Threaded and Multi-Threaded
Modes, CSIT, 1, 2017, pp. 373-376.
[28] FERRUCCI, D., BROWN, E., CHU-CARROLL, J., FAN, J., GONDEK, D., KAL-
YANPUR, A. A., LALLY, A., MURDOCK, J. W., NYBERG E., PRAGER, J.,
SCHLAEFER, N., WELTY, C., Building Watson: An Overview of the Deep QA
Project, AI Magazine, 31 (3), 2010, pp. 59-79.
Big Data & Künstliche Intelligenz
106
[29] datascience@berkely, Moore’s Law and Computer Processing Power,
2014.
[30] Google, Cloud Big Data and Machine Learning Blog, An in-depth look at
Google’s first Tensor Processing Unit (TPU).
[31] GEORGHIADES, A., Yale face database, Center for computational Vision
and Control at Yale University, 1997.
[32] Face Dataset on Image-net [Online].
[33] Summary and Statistics of Image-net, 2010.
[34] HAHNLOSER, R. H. R., SARPESHKAR, R., MAHOWALD, M. A., DOUGLAS,
R. J., SEUNG, H. S., Digital selection and analogue amplification coexist in a
cortex-inspired silicon circuit, Nature, 405, 2000, pp. 947-951.
[35] GLOROT, X., BORDES, A., BENGIO, Y., Deep Sparse Rectifier Neural Net-
works, Proceedings of the 14th International Conference on Artificial Intelli-
gence and Statistics, 15, 2011, pp. 315-323.
[36] LECUN, Y., GALLAND, C. C., HINTON, G. E., GEMINI: Gradient estimation
through matrix inversion after noise injection, In: Advances in Neural Infor-
mation Processing Systems, Denver, 1989, pp. 141-148.
[37] LECUN, Y., Generalization and Network Design Strategies, In: PFEIFER,
R., SCHRETER, Z., FOGELMAN, F. and STEELS, L. (Eds), Connectionism in Per-
spective, Elsevier, Zurich, Switzerland, 1989.
[38] CIREGAN, D., MEIER, U., SCHMIDHUBER, J., Multi-column deep neural
networks for image classification, IEEE Transactions on Computer Vision and
Pattern Recognition, USA, 2012, pp. 3642-3649.
[39] ISO/IEC DIS 20546, Information technology – Big data – Overview and
vocabulary [under development].
[40] Promotorengruppe Kommunikation der Forschungsunion Wirtschaft –
Wissenschaft, Deutschlands Zukunft als Produktionsstandort sichern: Um-
setzungsempfehlungen für das Zukunftsprojekt Industrie 4.0: Abschlussbe-
richt des Arbeitskreises Industrie 4.0.
[41] ISO/IEC JTC 1: Internet of Things (IoT), Preliminary Report, 2014.
[42] PERERA, C., LIU, C. H., JAYAWARDENA, S., CHEN, M., A survey on Inter-
net of Things from industrial market perspective, IEEE Access, 2, 2014, pp.
1660-1679.
Big Data & Künstliche Intelligenz
107
[43] Statista, Internet of Things (IoT) connected devices installed base world-
wide from 2015 to 2025 (in billions).
[44] IEC, IoT 2020: Smart and secure IoT platform, White Paper, 2016.
[45] MILLS, S., LUCAS, S., IRAKLIOTIS, L., RAPPA, M., CARLSON, T., PERLO-
WITZ, B., Demystifying Big Data: A Practical Guide to Transforming the Busi-
ness of Government, TechAmerica Foundation, Washington, 2012.
[46] PINITORE, G., RAO, V., CAVALLARO, K., DWIVEDI, K., To share or not to
share: What consumers really think about sharing their personal information
[Online].
[47] Google, How Search algorithms work (Blogarticle).
[48] BRACHMAN, R. J., KHABAZA, T., KLOESGEN, W., PIATETSKY-SHAPIRO, G.,
SIMOUDIS, E., Mining business databases, Communications of the ACM, 39,
111996, pp. 42-48.
[49] GUZELLA, T. S., CAMINHAS, W. M., A review of machine learning ap-
proaches to spam filtering, Expert Systems with Applications, 36 (7), 2009,
pp. 10206-10222.
[50] BRADELY, T., Facebook Uses Facial Recognition to help you manage your
identity.
[51] MELENDEZ, S., How Pinterest Uses Machine Learning To Keep Its Users
Pinned.
[52] DAVIS, J. D., Sentiment analysis for Instagram and Twitter now available
to everyone.
[53] CADE, D. L., A Look at How Snapchat’s Powerful Facial Recognition Tech
Works.
[54] HABIB, O., Conversational Technology: Siri, Alexa, Cortana and the
Google Assistant.
[55] QUINLAN, J. R., Induction of decision trees, Machine Learning, 1 (1),
1986, pp. 81-106.
[56] BREIMAN, L., FRIEDMAN, J. H., OLSHEN, R. A., STONE, C. J., Classification
and regression trees. Wadsworth & Brooks/Cole Advanced Books & Soft-
ware, Monterey, CA, 1984.
Big Data & Künstliche Intelligenz
108
[57] BOSER, B. E., GUYON, I. M., VAPNIK, V. N., A training algorithm for opti-
mal margin classifiers, COLT ’92: proceedings of the fifth annual workshop
on Computational learning theory, pp. 144-152, 1992.
[58] DIETTRICH, T. G., An Experimental Comparison of Three Methods for
Constructing Ensembles of Decision Trees: Bagging, Boosting, and Random-
ization, Machine Learning, 40 (2), 2000, pp.139-158.
[59] NG, A., JORDAN, M., On Discriminative vs. Generative classifiers: A com-
parison of logistic regression and naïve Bayes, In: Advances in Neural Infor-
mation Processing Systems: Natural and Synthetic, Massachusetts Institute
of Technology Press, 2001, pp. 841-848.
[60] ANDROUTSOPOULOS, I., KOUTSIAS, J., CHANDRINOS, K., PALIOURAS, G.,
SPYROPOULOS, C., An Evaluation of Naïve Bayesian Anti-Spam Filtering, In:
Proceedings of the workshop on Machine Learning in the New Information
Age, 11th European Conference on Machine Learning, 2000, pp. 9-17.
[61] LIU, B., BLASCH, E., CHEN, Y., SHEN, D., CHEN, G., Scalable sentiment
classification for Big Data analysis using Naive Bayes Classifier, In: IEEE Inter-
national Conference on Big Data, USA, 2013.
[62] CUNNINGHAM, P., DELANY, S. J., k-Nearest neighbour classifiers, Tech-
nical Report UCD-CSI-2007-4, 2007.
[63] FORGEY, E., Cluster analysis of multivariate data: Efficiency vs. interpret-
ability of classification, Biometrics, 21 (3), 1965, pp. 768-769.
[64] MACQUEEN, J., Some methods for classification and analysis of multi-
variate observations, In: Proceedings of the Fifth Berkeley Symposium on
Mathematical Statistics and Probability, 1, 1967, pp. 281-297.
[65] HARTIGAN, J. A., WONG, M. A., A K-Means Clustering Algorithm, Applied
Statistics Journal of the Royal Statistical Society, 28 (1), 1979, pp. 100-108.
[66] RABINER, L. R., A tutorial on hidden Markov models and selected appli-
cations in speech recognition, Proceedings of the IEEE, 77 (2), 1989, pp. 257-
286.
[67] DURBIN, R., EDDY, S. R., KROGH, A., MITCHISON, G. J., Biological Se-
quence Analysis: Probabilistic Models of Proteins and Nucleic Acids. Cam-
bridge University Press, Cambridge UK, 1998.
[68] MILLER, D. R. H., LEEK, T., SCHWARTZ, R. M., A Hidden Markov Model
Information Retrieval System, Proceedings of the 22th annual international
Big Data & Künstliche Intelligenz
109
ACM SIGIR conference on Research and development in information re-
trieval, 1999, pp. 214-221.
[69] VARGA, A. P., MOORE, R. K., Hidden Markov model decomposition of
speech and noise, International Conference on Acoustics, Speech and Signal
Processing, USA, 1990.
[70] KARPATHY, A., Neural Networks, Part 1: Setting up the Architecture.
[71] NIELSEN, M., Using Neural nets to recognize handwritten digits.
[72] KARPATHY, A., Convolutional Neural Networks for Visual Recognition.
[73] KRIZHEVSKY, A., SUTSKEVER, I., HINTON, G. E., ImageNet classification
with deep convolutional neural networks, Proceedings of the 25th Interna-
tional Conference of Neural Information Processing Systems, 1, 2012, pp.
1097-1105.
[74] ELMAN, J. L., Finding Structure in Time, Cognitive Science, 14 (2), 1990,
pp. 179-211.
[75] WERBOS, P. J., Backpropagation Through Time: What It Does and How
to Do It, Proceedings of the IEEE, 78 (10), 1990, pp. 1550-1560.
[76] BENGIO, Y., SIMARD, P., FRASCONI, P., Learning long-term dependen-
cies with gradient descent is difficult, IEEE Transactions on Neural Networks,
5 (2), 1994, pp. 157-166.
[77] SCHUSTER, M., PALIWAL, K. K., Bidirectional recurrent neural networks,
IEEE Transactions on Signal Processing, 45 (11), 1997, pp. 2673-2681.
[78] McKinsey Global Institute, Artificial Intelligence – The next digital fron-
tier?
[79] HOCHREITER, S., SCHMIDHUBER, J., Long-short term memory, Neural
Computation, 9 (8), 1997, pp. 1735-1780.
[80] European Commission DG Connect, Call for a High-Level Expert Group
on Artificial Intelligence.
[81] ITU-T, Focus Group on Machine Learning for Future Networks including
5G.
[82] IEEE, Background, Mission and Activities of the IEEE Global Initiative.
Big Data & Künstliche Intelligenz
110
[83] SESHIA, S. A., SADIGH, D., SASTRY, S. S., Towards Verified Artificial Intel-
ligence, 2017.
[84] Partnership on AI (Blog).
[85] Royal Society for the encouragement of Arts, Manufacturers and Com-
merce, The Age of Automation: Artificial intelligence, robotics and the future
of low-skilled work.
[86] Information Technology Industry Council (ITI), AI Policy Principles.
[87] HOWELLS, Jan., Can AI make manufacturing smart?
[88] TU, Y., LI, X., Industrial Engineering and Management: Future Research
and Development in Maintenance Engineering and Management, Industrial
Engineering and Management, 4, 2004, pp. 7-12.
[89] GAO, H., LI, D., XU, M., Intelligent Monitoring System for Screw Life Eval-
uation, Journal of Southwest Jiaotong University, 45 (5), 2010, pp. 685-691.
[90] PESHKIN, M., COLGATE, J. E., Cobots, Industrial Robot, 26 (5), 1999, pp.
335-341.
[91] HONGYI, L., LIHUI, W., Gesture recognition for human-robot collabora-
tion: A review, International Journal of Industrial Ergonomics, 2017, pp. 1-
13.
[92] PIERSON, H. A, GASHLER, M. G., Deep Learning in Robotics: A Review of
Recent Research.
[93] IEC, Stable grid operations in a future of distributed electric power,
White Paper, 2018.
[94] The Economist, The cost of traffic jams, November 2014.
[95] NHTSA, U.S. Department of Transportation Releases Policy on Auto-
mated Vehicle Development.
[96] BURANYI, S., Rise of the racist robots – how AI is learning all our worst
impulses.
[97] BBC, Google apologises for Photos app’s racist blunder.
[98] ANGWIN, J. et al., Machine Bias.
[99] Executive Office of the President of the United States of America, Big
Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights.
Big Data & Künstliche Intelligenz
111
[100] BAROCAS, S., HARDT, M., Fairness in Machine Learning, NIPS 2017 Tu-
torial.
[101] AMODEI, D., OLAH, C., STEINHARDT, J., CHRISTIANO, P., SCHULMAN,
J., MANÉ, D., Concrete Problems in AI Safety.
[102] XU, H., MANNOR, S., Robustness and generalization, Machine Learn-
ing, 86 (3), 2012, pp. 391-423.
[103] ULIČNÝ, M., LUNDSTRÖM, J., BYTTNER, S., Robustness of Deep Convo-
lutional Neural Networks for Image Recognition, International Symposium
on Intelligent Computing Systems, 2016, pp. 16-30.
[104] RUSSELL, S., DEWEY, D., TEGMARK, M., Research Priorities for robust
and beneficial artificial intelligence, AI Magazine, 36 (4), 2015, pp. 105-114.
[105] PAN, S. J., YAN, Q., A Survey on transfer learning, IEEE Transactions on
Knowledge and Data Engineering, 22 (10), 2010.
[106] RIBEIRO, M., SINGH, S., GUESTRIN, C., Why Should I Trust You?: Ex-
plaining the Predictions of Any Classifier.
[107] LIPTON, Z., The Mythos of Model Interpretability.
[108] OpenAI, Concrete Problems in AI Safety.
[109] IEEE, Safety and Beneficience of Artificial General Intelligence (AGI)
and Artificial Superintelligence (ASI).
[110] MCMAHAN, B., RAMAGE, D., Federated Learning: Collaborative Ma-
chine Learning without Centralized Training Data.
[111] go.iec.ch/wpai057 [Online].
[112] go.iec.ch/wpai058 [Online].
[113] MIT Technology Review, Why Self-Driving Cars Must Be Programmed
to Kill.
DIGITAL BUSINESS
Konvergenzen digitaler Transformation
© ELG E-Learning-Group GmbH
Digital Business – Konvergenzen digitaler Transformation
I
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS ............................................................................................... II
ARBEITEN MIT DIESEN UNTERLAGEN .............................................................................. III
ERKLÄRUNG DER SYMBOLE: ..................................................................................................... III
HINWEIS ZUR VERWENDETEN SPRACHE: ..................................................................................... III
1 EINLEITUNG ............................................................................................................. 1
1.1 DAS TRENDWORT „DIGITALISIERUNG“ UND DER BEGRIFF „DIGITALE TRANSFORMATION“........ 1
1.2 KONVERGENZEN DES DIGITALEN – DIE IMMATERIELLE MARKTWIRTSCHAFT ........................... 4
1.3 ANSTEHENDE UMBRÜCHE: BEISPIEL ARBEITSMARKT....................................................... 10
1.4 AUFBAU DES SKRIPTS ............................................................................................... 17
2 VON DER INDUSTRIEGESELLSCHAFT ZUR WISSENSGESELLSCHAFT ..........................18
2.1 TECHNOLOGIE ALS KATALYSATOR GESELLSCHAFTLICHER VERÄNDERUNG ............................. 20
2.2 STRUKTURWANDEL DER VOLKSWIRTSCHAFT.................................................................. 26
2.3 WIE WIRD WERT GESCHAFFEN? ................................................................................. 29
2.4 DIE ENTWICKLUNGSSCHRITTE DER INDUSTRIELLEN REVOLUTION ....................................... 34
3 KONVERGENZEN DIGITALER TRANSFORMATION ....................................................38
3.1 KONVERGENZ – EINE BEGRIFFSKLÄRUNG ...................................................................... 38
3.2 INTERNET DER DINGE – INTERNET OF THINGS (IOT) ....................................................... 42
3.3 3D-DRUCK ............................................................................................................ 46
3.4 SPEICHER FÜR ALLE .................................................................................................. 47
3.5 BIG DATA .............................................................................................................. 49
3.6 KÜNSTLICHE INTELLIGENZ (KI) – ARTIFICIAL INTELLIGENCE (AI) ........................................ 53
3.7 NEUE MOBILITÄT .................................................................................................... 57
3.8 BLOCKCHAIN .......................................................................................................... 61
3.9 ROBOTIK ............................................................................................................... 63
3.10 AUGMENTED REALITY, VIRTUAL REALITY ...................................................................... 65
3.11 DNA-SEQUENZIERUNG ............................................................................................ 65
4 INNOVATIONSMANAGEMENT, INNOVATIONSRISIKEN – UND PERSONELLE
ADAPTIONEN .........................................................................................................68
4.1 WAS MEINT INNOVATION? ....................................................................................... 69
4.2 DIE DIFFERENZ ZWISCHEN FUNKTION UND ORGANISATION .............................................. 74
4.3 WARUM EIN CHIEF INNOVATION OFFICER (CINO)? ....................................................... 77
4.4 UND WAS WÄRE EIN CHIEF DIGITAL OFFICER (CDO)? .................................................... 80
4.5 FAIL-FAST-KULTUR .................................................................................................. 82
5 CASE STUDIES .........................................................................................................86
5.1 DAS DIGITALE MODEHAUS ........................................................................................ 86
5.2 DAS DIGITALE STAATSWESEN ..................................................................................... 95
5.3 WIE EIN TELEFONHERSTELLER DEN ANSCHLUSS NICHT ERREICHTE .................................... 100
5.4 DAS PRINZIP DER „SCHÖPFERISCHEN ZERSTÖRUNG“ .................................................... 104
LITERATURVERZEICHNIS ...............................................................................................111
INTERNETQUELLEN .......................................................................................................112
Digital Business – Konvergenzen digitaler Transformation
II
Abbildungsverzeichnis
ABBILDUNG 1: ABFOLGE VON INNOVATION ..................................................................................... 9
ABBILDUNG 2: GLOBALE INTERNETNUTZUNG BIP/KOPF................................................................... 18
ABBILDUNG 3: ANTEIL AN BEZAHLTER ONLINE-WERBUNG ................................................................ 21
ABBILDUNG 4: VERBREITUNG NEUER TECHNOLOGIEN INNERHALB EINES JAHRZEHNTS ............................. 24
ABBILDUNG 5: SEKTORALE WERTSCHÖPFUNG USA......................................................................... 27
ABBILDUNG 6: ENTWICKLUNGSSCHRITTE DER INDUSTRIELLEN REVOLUTION .......................................... 36
ABBILDUNG 7: DIGITALE TRENDS & GESELLSCHAFTLICHE IMPLIKATIONEN ............................................ 39
ABBILDUNG 8: DIE 3 ORDNUNGEN VON TECHNOLOGIE .................................................................... 44
ABBILDUNG 9: KOSTEN FÜR DATENSPEICHERUNG ........................................................................... 49
ABBILDUNG 10: KI-ZIRKEL ......................................................................................................... 56
ABBILDUNG 11: AUTOMOBILHERSTELLER, DIE BEREITS ELEKTRISCHE MODELLE PRODUZIEREN .................. 59
ABBILDUNG 12: NATIONALE ANSÄTZE BZGL. ENDE DES VERBRENNUNGSMOTORS ................................. 60
ABBILDUNG 13: AUSZUG AUS DEM PERSÖNLICHEN FRAGEBOGEN BEI DER REGISTRIERUNG AUF STITCH FIX. 88
ABBILDUNG 14: ABBILDUNG UNTERSCHIEDLICHER SACHBEREICHE BEI E-ESTONIA .................................. 97
ABBILDUNG 15: ENTWICKLUNG NATIONALER TELEFONMÄRKTE (FESTNETZANSCHLÜSSE OBEN,
MOBILTELEFONE UNTEN)................................................................................... 102
ABBILDUNG 16: UMSÄTZE DES MUSIKMARKTS (OHNE LIZENZGESCHÄFTE) IN ÖSTERREICH .................... 108
Digital Business – Konvergenzen digitaler Transformation
III
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wobei
an einigen Stellen Symbole und Links zu weiterführenden Erklärungen,
Übungen und Beispielen zu finden sind. An den jeweiligen Stellen klicken Sie
bitte auf das Symbol – nach Beendigung des relevanten Teils kehren Sie bitte
wieder zum Studientext zurück. Stellen Sie sicher, dass auf Ihrem Rechner
ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Wichtiger Merksatz oder Merkpunkt
Weiterführender Link zu einem Lernvideo in MPEG4
Übungsbeispiel oder Link zu einer interaktiven Übung
Hinweis zur verwendeten Sprache:
Aus Gründen der besseren Lesbarkeit werden die Sprachformen männlich,
weiblich und divers (m/w/d) im Wechsel verwendet. Sämtliche Personenbe-
zeichnungen gelten gleichermaßen für alle Geschlechter.
Digital Business – Konvergenzen digitaler Transformation
I
Technologie selbst ist weder gut noch schlecht –
was du damit machst, macht den Unterschied.
Marc Benioff, Gründer von Salesforce
Denken Sie darüber nach:
Das Tempo der Veränderung war noch nie so schnell,
aber es wird auch nie wieder so langsam sein.
Justin Trudeau, kanadischer Premierminister
Digital Business – Konvergenzen digitaler Transformation
1
1 Einleitung
Vorab bedingt es eine dezidierte Unterscheidung von Begriffen, um über das
Wesen der Digitalisierung angemessen nachdenken zu können. Ein erstes
Kapitel muss damit ansetzen, konkrete Definitionen zu erwirken. Begriffe,
die zu oft als Synonyme verwendet werden, bezeichnen faktisch unter-
schiedliche Sachverhalte. Darüber wird unmittelbar in der Einleitung Klarheit
erwirkt.
Im Anschluss daran werden die Entwicklungen in einem Marktsegment un-
tersucht, um zu verstehen, welche merklichen Veränderungen moderne
Technologien gegenwärtig bereits verursachen. Es handelt sich dabei um ei-
nen Markt, der aufgrund seiner integrativen Bedeutung eine Vielzahl von
Personen miteinschließt: den Arbeitsmarkt.
Diese Ausgangspunkte erlauben dann in Folge, in die Materie selbst tiefer
einzutauchen.
1.1 Das Trendwort „Digitalisierung“ und der Begriff
„Digitale Transformation“
Worin besteht das Wesen der Digitalisierung? Die Antwort auf diese Frage
lässt sich präzise auf den Punkt bringen.
Der Begriff Digitalisierung meint die Umwandlung von analogen Inhalten in
digitale Formate. Die so generierten Daten können informationstechnisch
verarbeitet werden – dieses Prinzip liegt sämtlichen Erscheinungsformen
der digitalen Revolution im wirtschaftlichen, gesellschaftlichen, professio-
nellen und privaten Bereich zugrunde.
Mittels Digitalisierung werden Informationen digital gespeichert und für die
elektronische Datenverarbeitung verfügbar gemacht. Schätzungen zufolge
waren im Jahr 2007 bereits 94 % der weltweiten technologischen Informati-
onskapazität digital. Etwa im Jahr 2002 wurde dabei der zivilisatorische
Bruchpunkt vollzogen, mehr Information war nunmehr digital als analog ar-
chiviert.
Das Schlagwort Digitalisierung bedeutet, dass Informationen in Form von
Bits und Bytes abgelegt werden, um sie dann vom Computersystem auszu-
werten. Auf diese Weise lassen sich Informationen vervielfältigen, austau-
schen, zugänglich halten, ablegen und speichern. Informationen werden
als Daten generiert.
Digital Business – Konvergenzen digitaler Transformation
2
Dieser technologische Entwicklungsschritt verursacht, dass sich bestehende
Strukturen, Verfahren und Prozesse substanziell verändern, und er erfasst
konsequent immer mehr Bereiche. Als ursächlicher Effekt betrachtet, hat er
konkrete Auswirkungen auf Unternehmen, Organisationen und Gesellschaf-
ten.
Der Fortschritt der Digitalisierung besteht nun zum einen darin, dass fortlau-
fend mehr Märkte und gesellschaftliche Bereiche als Datenlieferanten er-
schlossen werden, weil in diesen Zusammenhängen verbreitet Maschinen
zum Einsatz kommen, die Daten erzeugen und erfassen. Zum anderen führt
dieser Entwicklungsschritt dazu, dass Strukturen, Funktionslogiken, Ge-
schäftsmodelle und Organisationsformen sich in Unternehmen und Institu-
tionen ändern. In letzter Konsequenz erhalten Märkte eine andere Funkti-
onslogik verpasst. Diese Prozesse des Wandels werden mit dem Begriff digi-
tale Transformation bezeichnet.
Digitale Transformation meint den gesellschaftlichen Wandel, der eine
zentrale Folgewirkung der Digitalisierung bildet. Diese paradigmatische
Transformation, die unterschiedliche Facetten kennt und an Bedeutung
stetig gewinnt, muss strategisch gestaltet und initiiert werden.
Die Zugangsweise zum Thema digitale Transformation bestimmt jedenfalls
den Blickwinkel darauf. Jeder Versuch, das Prinzip der digitalen Transforma-
tion zu erklären, hängt also davon ab, welche Aspekte konkret verdeutlicht
werden sollen.
Selbstverständlich bewirkt die digitale Transformation, dass moderne Tech-
nologie in Bereichen Anwendung findet, die bisher davon ausgenommen
waren. Ein rein technologisches Verständnis ergibt immer Sinn. Diese Per-
spektive berücksichtigt aber eher den Verständnishorizont der fortschrei-
tenden Digitalisierung. Doch wenn neue technische Durchbrüche flächende-
ckend zum Einsatz kommen, adaptiert sich im Regelfall die Organisations-
struktur von Unternehmen entsprechend, Märkte bekommen eine neue
Funktionslogik verpasst und Gesellschaften wandeln sich. Die technologi-
sche Innovation veranlasst also strukturelle Veränderung in Organisationen,
beweist ökonomische Relevanz und zeigt soziologische Implikationen. Es
entstehen Rückkopplungseffekte. Wenn anschließend ein gesellschaftlicher
Diskurs oder eine organisationsinterne Debatte über die Konsequenzen von
Veränderungen durch neue Technologien geführt wird, dann gilt es, all diese
Implikationen angemessen zu berücksichtigen. Entscheidungen darüber,
welche Technologien angewendet werden, erhalten vor diesem Verständ-
nishintergrund eine strategische Qualität.
Digital Business – Konvergenzen digitaler Transformation
3
Dieser Überzeugung folgt die Lehrveranstaltung und sie soll darüber hinaus
dem Studium eine allgemeines Begriffsverständnis liefern. Die Lehrveran-
staltung bedenkt jedenfalls einen Digitalisierungsbegriff, der sich nicht auf
technologische Komponenten begrenzt. Vielmehr werden organisationsspe-
zifische, volkswirtschaftliche und soziologische Implikationen vergegenwär-
tigt. Die digitale Transformation weicht in ihrem Erkenntnisinteresse vom
Sachverhalt der Digitalisierung ab, auch wenn die Digitalisierung als techno-
logische Vorbedingung erkannt wird. Reflektiert und erklärt werden Metho-
dologien, die Innovation als eine strategische Aufgabenstellung erachten
und die in den Verantwortungsbereich der Geschäftsführung und des Mana-
gements fallen.
Die objektive Notwendigkeit, warum sich klassische Industriebetriebe wan-
deln müssen, liegt in der Tatsache einer umfassenden Umwandlung der so-
zio-ökonomischen Struktur der gegenwärtigen Gesellschaften begründet.
Der klassische Industriekapitalismus metamorphosiert in die Wissensgesell-
schaft. Wie sich diese Neuerung vollzieht und was sie bedeutet, wird in Folge
beschrieben.
Ein weiterer Sachverhalt, der verdeutlicht werden soll, liegt in der Tatsache,
dass Phasen des Umbruchs immer ein Zeitfenster bilden, um neue Ansätze
auszuprobieren. Es kristallisieren sich ungeahnte Möglichkeiten heraus, um
neue Projekte zu verwirklichen, neue Unternehmen zu gründen, Visionen
umzusetzen und andere Denkansätze zu wagen. Es handelt sich um Phasen
des Experimentierens und des Wagens, die gestalterische Fähigkeiten for-
dern. Der Anbruch einer neuen Epoche stattet den Einzelnen mit überdurch-
schnittlichen Einflussmöglichkeiten aus, sich an neuen Konzepten mutig zu
versuchen. Es herrscht Aufbruchsstimmung.
Die digitale Transformation repräsentiert für Unternehmen eine strategi-
sche Herausforderung, die sich nicht auf technologische Aspekte begren-
zen lässt. Denn die digitale Transformation weist eine fundamentale öko-
nomische Dimension auf und beweist eine tiefgreifende transformatori-
sche Kraft, die Gesellschaften gegenwärtig nachhaltig verändert. Wer
Technologie unter diesen Umständen nur als eine Frage von Bits und Bytes
liest, wird ihrer Bedeutung schwer gerecht und verwechselt digitale Trans-
formation mit Digitalisierung.
Technologische Entwicklungen, die grundlegend durch die Verwandlung von
Information in Daten vorangetrieben werden, implizieren also unternehme-
rische und gesellschaftliche Folgewirkungen. Diese Wechselwirkung be-
zeichnet die Abhängigkeit aus Digitalisierung und digitaler Transformation.
Digitalisierung im Wandel
der Zeit
Digital Business – Konvergenzen digitaler Transformation
4
Dieser Ansatz erklärt auch, warum eine technologische Begriffsauffassung
allein nicht ausreicht, um die Tiefenwirkung der digitalen Transformation zu
verstehen. Selbstverständlich erwirkt Wissen, das in den klassischen MINT-
Fächern erworben wird, eine solide Verständnisbasis, um die Grundlagen
abdecken zu können. MINT selbst steht als Akronym für Mathematik, Infor-
mation, Naturwissenschaften und technische Wissenschaften. Aber erst im
Dialog, bei gemeinsamer Reflexion und in Kooperation mit Einsichten und
Ansichten, die in sogenannten HASS-Fächern vermittelt werden, lässt sich
effektiv und vorteilhaft an der digitalen Transformation wirken. HASS wäre
ein Akronym, das auf Deutsch leicht unglücklich wirkt, aber auf die engli-
schen Bezeichnungen Humanities, Arts und Social Sciences verweist – also
auf die Geisteswissenschaften, die Kunst und die Sozialwissenschaften, die
auch volks- und betriebswirtschaftliche Fächer miteinschließt. Erst in inten-
siver Absprache und Rücksprache zwischen Personen, die jeweils unter-
schiedliche Perspektiven in unternehmerische und gesellschaftliche Debat-
ten einbringen, entsteht jenes Bewusstsein, das es voraussetzungsvoll
braucht, um die digitale Transformation umfassend, erfolgreich, effektiv, in-
novativ und human zu gestalten. Exakt diesem Credo muss auch die wissen-
schaftliche Analyse und praktische Umsetzung der digitalen Transformation
folgen. Es sind vielfältige Perspektiven gefordert, um die Komplexität des
Phänomens erst zu verstehen und dann verantwortungsvoll zu gestalten.
Warum es diese ernsthaften Debatten braucht, erklärt bereits als erster Ein-
druck das anschließende Kapitel.
1.2 Konvergenzen des Digitalen – die immaterielle
Marktwirtschaft
Zu Beginn der Ausführung eignet es sich, die Verständnisperspektive auf
eine Metaebene zu führen, um begreifbar zu machen, warum die derzeitigen
Veränderungen von einschneidender und einmaliger Qualität sind.
Im Zuge der digitalen Transformation handelt es sich um wesentliche Verän-
derungen, die Dynamiken des menschlichen Zusammenwirkens neu konsti-
tuieren. Als Effekt zeigt sich, dass gesellschaftliche und marktwirtschaftliche
Verbindungen anders organisiert werden und sich neu definieren.
Auch wenn es mittlerweile fast wie eine inflationäre Banalität wirkt: Die Wir-
kung moderner Technologie ist dabei von profunder Bedeutung.
Ein entscheidender Sachverhalt soll an dieser Stelle explizit genannt werden,
welcher der digitalen Transformation immanent und definitiv scheint: Die
Digital Business – Konvergenzen digitaler Transformation
5
bisher unauflösbare Einheit aus physischer und interaktiver Präsenz der Per-
son hat sich aufgelöst und ist nun teilbar. Es lässt sich physisch an einem Ort
sein, aber interagieren lässt sich an einem anderen Ort. In einer rein analo-
gen Welt war diese Differenzierung nicht denkbar, weil es sich um eine un-
auflösbare Einheit handelte.
Entweder war jemand im Büro anwesend oder nicht, Home-Office hat diese
Eindeutigkeiten aufgelöst. Entweder hat jemand eine Ordination für ärztli-
che Konsultation aufgesucht oder nicht – Telemedizin verändert das nun.
Technologie erlaubt also zwischen Präsenz und Lokalisierung zu unterschei-
den. Das „Wo ich bin“ und das „Wo ich mich im übertragenen Sinn befinde“
werden zu zwei unterschiedlichen Bezugsgrößen: Ich bin analog in meinem
Wohnzimmer, ich befinde mich aber digital im Büro durch die Praktiken des
Home-Office. Oder ich befinde mich beim Einkauf im Online-Shop oder im
Warteraum der Arztpraxis bei der Telemedizin. Ich lebe ein Onlife.1 Die Rea-
lität von Raum und Zeit der menschlichen Praktiken verändern sich.
Ganz objektiv führen diese Einschnitte dazu, dass sich soziale und ökonomi-
sche Beziehungen zwischen den Menschen neu aufsetzen. Die Trennschärfe
zwischen dem Analogen und dem Digitalen verschwindet nicht deshalb, weil
Technologie unbegrenzt in den Alltag einfließt, sondern weil die menschliche
Existenz mittlerweile durch analoge und digitale Praktiken gleich geformt
wird. Als gewöhnliche Alltags- und Welterfahrungen konstituieren digitale
und reale Zusammenhänge den gewöhnlichen menschlichen Erfahrungs-
schatz.
Die ursprüngliche Dualität aus reell und virtuell lässt sich unter diesen Be-
dingungen nur schwer aufrechterhalten. Das Wort virtuell bedeutete in sei-
ner Wortherkunft ursprünglich etwas, das nur theoretisch existiert und da-
mit im Gegensatz zum Reellen gedacht werden muss. Diese Trennung hebt
sich nun durch das Konzept des Onlife auf, Reelles und Virtuelles verschmel-
zen zur gemeinsamen Erfahrung.
Dabei muss gar nicht nur an digitale Zusammenhänge gedacht werden: Fak-
tisch ist der eigene Schuldenstand oder das Guthaben auf dem Bankkonto
eine im virtuellen Raum gespeicherte Zahl, die aber erfahrungsgemäß von
realer Signifikanz ist.
Die nachgezeichnete Entwicklung ist also geradezu von existenzieller Dimen-
sion, entsprechend auch von gesellschaftlicher Bedeutung und schlussend-
lich von ökonomischer Vehemenz.
1 Vgl. Floridi (2020), Kindle.
Digital Business – Konvergenzen digitaler Transformation
6
Hier zeigt sich eine entscheidende Konvergenz, die der digitalen Transforma-
tion definitorisch eigen ist: Sie führt Reelles und Virtuelles in eine einheitli-
che Alltagserfahrung über.
Die beschriebenen Umbrüche wären nicht möglich ohne einschneidende
technologische Fortschritte. Im Grund genommen basiert die Durchdringung
der alltäglichen Lebenswelt durch Technologie darauf, dass die Leistungser-
bringung von Computern exponentiell gestiegen ist. Faktisch wären es drei
Funktionen, die klassischerweise durch Computer vollbracht werden:
• Daten lassen sich speichern,
• Daten lassen sich verarbeiten,
• Daten lassen sich vervielfältigen.2
Für alle drei Funktionen lassen sich nun eindeutige Tendenzen beobachten:
• Im Verlauf der Zeit werden immer größere Datenmengen immer kos-
tengünstiger gespeichert. Die Kosten für die Datenspeicherung fallen
und die Nutzung von Datenspeichern wächst, weil die Ressource
günstiger wird.
• Im Verlauf der Zeit werden immer größere Datenmengen immer kos-
tengünstiger verarbeitet. Die Preise der Datenverarbeitung fällt, die
Nutzung der Datenverarbeitung steigt.
• Im Verlauf der Zeit wird die Vervielfältigung von Daten kontinuierlich
einfacher und unkomplizierter.
Wenn also die Speicherung von Daten günstiger und unkomplizierter wird,
dann werden mehr Daten aufgezeichnet und archiviert. Das ist schlicht eine
ökonomische Gesetzmäßigkeit: Fallen die Preise für ein Gut, dann steigt die
Nachfrage. Die gespeicherten Datenmengen werden schließlich einem
Zweck zugeführt, wenn sie sinnvoll verarbeitet und analysiert werden. Auf
diese Zusammenhänge wird das Skript an späterer Stelle im Bereich von Big
Data und Künstlicher Intelligenz eingehen.
An dieser Stelle soll auf den dritten Faktor eingegangen werden. So lässt sich
zeigen, welche massiven Implikationen eigentlich damit verbunden sind,
dass sich Daten kostengünstig vervielfältigen lassen, und welche entspre-
chenden Paradigmenwandel damit verbunden wären.
2 Quintarelli (2019), Kindle.
Digital Business – Konvergenzen digitaler Transformation
7
Wenn ein Text in Form einer Textdatei vorhanden ist, dann lässt sich dieser
nahezu kostenlos vervielfältigen. Faktisch kann nachfolgend nicht mal fest-
gestellt werden, welche Datei das Duplikat ist.
Angenommen, Sie kopieren eine PDF-Datei ohne Veränderungen dreimal.
Ist dann die erste Kopie originalgetreuer als die zweite Kopie oder die dritte?
Macht eine entsprechende Bewertung überhaupt noch Sinn? Die Differenz
zwischen Original und Kopie, der haptischen Gegenständen immanent eigen
ist, löst sich im digitalen Raum auf. 3
Die Frage hat nicht nur ontologische Bedeutung, sie zeigt Verschiebungen in
den Wirkmechanismen moderner Märkte an, die sich am Beispiel eines
Buchs deklinieren lassen.
Angenommen, Sie kaufen ein Buch, dann schließen Sie einen Kaufvertrag
über ein Objekt ab, bei dem die Eigentumsrechte übertragen werden. Ein
Objekt wandert in Ihren Besitz. Bis Sie das Buch bei einer Buchhändlerin er-
werben können, sind in die Wertschöpfungskette vielfältige andere Dienst-
leistungen eingegangen – das Wirken des Verlags, des Papierhändlers, der
Forstwirtschaft, der Grafikabteilung, der Druckerei, des Großhändlers, der
dazwischen geschalteten Logistikunternehmen usw. All diese vielfältigen Be-
standteile der Leistungserbringung konstituieren entsprechende Märkte
und subsumieren sich im Endpreis, der vom Konsumenten gezahlt wird.
Angenommen, das Werk wird statt der gedruckten Ausgabe schlicht über
einen Webshop auf den eigenen E-Reader geladen. Dann wird nunmehr kein
Vertrag über die Übertragung von Eigentumsrechten eines Objekts abge-
schlossen, sondern ein Text auf Basis eines Leihvertrags zur Verfügung ge-
stellt, wobei alle Zwischenschritte, die sonst bei der Leistungserbringung er-
forderlich wären, einfach obsolet erscheinen. Auch geschieht das Ganze zeit-
lich simultan, während die Prozesse bei der Leistungserbringung im realen
Raum Zeit beanspruchen, um Distanzen zu überwinden.
Es entsteht eine radikal anders strukturierte Wertschöpfungskette, die für
die Reproduktion eines vorhandenen Texts faktisch kaum Kosten verursacht,
keinen Ressourceneinsatz benötigt, gleichermaßen keine materielle Logistik
verlangt oder Lagerbestände verändern würde, die Planbarkeit voraussetzt.
Digitale Textdateien werden zwischen Geräten versandt. Die Transformation
einer Marktwirtschaft, die sich von der Bereitstellung realer Gegenstände
zur Inanspruchnahme virtuell bezogener Dienstleistungen wandelt, erzeugt
3 Vgl. Nassehi (2019), Kindle.
Digital Business – Konvergenzen digitaler Transformation
8
neue Geschäftsmodelle, andere kapitalistische Wirkweisen, verlagerte Kon-
sumentenbedürfnisse, verschobene Wertschöpfungsketten und ideelle Kon-
zepte.
Es lässt sich von einem immateriellen Kapitalismus reden.4 Denn die gerade
beschriebene Logik lässt sich vielfältig auf andere Bereiche übertragen –
vom Buchhandel hin zum Automarkt.
Wenn das Geschäftsmodell des Mobilitätssektors plötzlich nicht mehr darin
besteht, eine Vertriebspolitik zu strukturieren, die möglichst auf den Privat-
besitz von PKWs und auf der Leistungserbringung von Services durch Werk-
stätten zielt, sondern die unkomplizierte Zurverfügungstellung von Mobility-
as-a-Service bewerkstelligt, dann hat das sowohl Auswirkung auf die Einnah-
menstruktur in der Branche als auch auf das Produktdesign. Die denkbare
Langlebigkeit von Autos würde nun ein objektiv wünschenswertes Ziel aller
Marktteilnehmer darstellen.
Was zu einer nachfolgenden Frage verleitet, die an dieser Stelle symbolisch
mit dem Bezug auf das Auto ausformuliert werden soll: Wie funktioniert ei-
gentlich die Logik und Chronologie von Innovation, weil all diese Phänomene
im Endeffekt innovative Geschäftsmodelle generieren?
Bei wahrer Innovation handelt es sich um mehr als nur um die Erfindung
neuer Produkte. Das wäre die erste Feststellung.
Beim Auto verbleibend: Interessanterweise zeigte sich bereits anfänglich in
der Entwicklung von Autos eine intensive und experimentelle Diskussion
darüber, was denn eigentlich ein Auto ist – durchaus vergleichbar mit den
Auseinandersetzungen heute.
Es wurde bereits zu Beginn der Entwicklungsgeschichte mit unterschiedli-
chen Antriebstechniken experimentiert (Öl, Dampf, Elektrizität usw.) und
verschiedene Designvorschläge als Prototyp versucht (eher Lenkrad oder
Hebeln, wie viele Räder soll ein Auto haben, wie lassen sich die Sitze anord-
nen usw.). Es brauchte vielfältige und inhomogene Versuche, bevor sich
dann vor über hundert Jahren eine Art allgemeiner Konsens darüber gebil-
det hat, der festlegte, dass ein Auto auf vier Reifen fährt, ein Lenkrad nutzt
und auf Basis des Verbrennungsmotors operiert.
Erstmal diese Übereinstimmung hergestellt, nimmt die Intensität bezüglich
der Innovation der Produktentwicklung ab. Jetzt steht im Zentrum der
marktwirtschaftlichen Konkurrenzsituation nicht mehr die Aufgabe, wer die
4 Vgl. Quintarelli (2019), Kindle.
Digital Business – Konvergenzen digitaler Transformation
9
überzeugendste Idee generiert, was faktisch ein Auto sei – sondern die Kon-
kurrenzsituation konzentriert sich darauf, wer das allgemein akzeptierte
Auto nun am verlässlichsten und kostengünstigsten herstellen kann und an-
schließend die entsprechenden Distributionskanäle aufbaut, um es am
Markt abzusetzen.
Die Kernaufgabe bildet also nicht mehr die Produktinnovation, sondern die
Herausforderung besteht plötzlich im Aufbau einer Prozessinnovation, die
es versteht, ein maßgebliches Geschäftsmodell zu etablieren.
Abbildung 1: Abfolge von Innovation
Das Modell T von Ford wurde am Beginn des Automobilzeitalters nicht des-
halb zur zahlenmäßig größten Erfolgsgeschichte, weil es ganz objektiv das
beste Auto gewesen ist oder das Unternehmen schlicht bezüglich der Pro-
duktinnovation der Konkurrenz enteilt war. Der Grund ist ein anderer: Ford
hat erstmalig die Zusammenarbeit in Fabriken auf Grundlage der tayloristi-
schen Arbeitsteilung organisiert und einen Massenmarkt geschaffen. Mitar-
beiter wurden anteilig entlohnt, damit diese auch zu Kunden des eigenen
Unternehmens werden. Es wurden zuverlässige Produktionszeiten kalku-
liert, damit eine Steuerbarkeit in Großbetrieben erwirkt und ein Vertriebs-
netzwerk etabliert. Entscheidend für den Erfolg war also die Prozessinnova-
tion, die der Produktinnovation folgte.
Erst die Konvergenz aus Produktinnovation und Prozessinnovation vermag
es, ertragsträchtige und funktionale Märkte zu etablieren. Ertragreiches Ma-
nagement versteht es, beides zusammenzuführen. Weil das gegenwärtig im
Zusammenspiel aus Technologie und Prozessinnovation ansehnlich gelingt
und der Wirkmechanismus vor allem auch in Zukunft für viele Bereiche at-
traktive Potenziale birgt, steigt die Bedeutung der digitalen Transformation
rasant.
Digital Business – Konvergenzen digitaler Transformation
10
1.3 Anstehende Umbrüche: Beispiel Arbeitsmarkt
Einen weiteren Eindruck davon, wie tiefgreifend, rasant und weitreichend
moderne Technologie traditionelle Märkte erneuert, liefert der Arbeits-
markt. Das Beispiel eignet sich deshalb als Anschauungsmaterial, weil es die
Größenordnung einer anstehenden Veränderung verdeutlicht und je nach
Umgangsweise Chancen oder Gefahren für die Gesellschaft aufzeigt. Die Ar-
beitswelt erfasst auch einen Markt, dem sich kaum jemand entziehen kann.
Die Effekte der Digitalisierung bestimmen also über die Karrieremöglichkei-
ten und Lebenschancen der Einzelnen.5
Ein katholischer Dorfpfarrer in Österreich erzählt von einer aufschlussrei-
chen Beobachtung, wenn er wahrnehmbare Veränderungen beschreibt. Die
Verantwortung seines Amts besteht unter anderem darin, Hinterbliebenen
Trost zu spenden, wenn sie enge Angehörige verlieren. Im Zuge der Gesprä-
che erinnern Familienmitglieder immer wieder an den Lebensweg der kürz-
lich Verstorbenen. Biografien wurden dabei früher oft in einem einzigen Satz
zusammengefasst: Das Leben war nichts als Arbeit.
Mittlerweile lässt sich ein merklicher Unterschied ausmachen. Eindrücklich
wird von Hobbys erzählt, die leidenschaftlich praktiziert wurden. Oft werden
Vereine, Institutionen oder Organisationen genannt, denen persönliches En-
gagement gewidmet wurde. Es finden sich offenbar größere Spielräume, um
individuellen Interessen nachzugehen und die eigene Identität zu prägen.
Die Eindrücke, von denen der Pfarrer berichtet, lassen sich durch statisti-
sches Zahlenmaterial erklären: Die berufliche Beanspruchung nimmt konti-
nuierlich ab. Das bildet die Voraussetzung dafür, auch andere Vorlieben zu
verfolgen.
Ein Blick in die Vergangenheit hilft, die Gegenwart in Relation zu setzen.
Nachdem die industrielle Revolution den Ärmelkanal überquerte, war im
Jahr 1870 ein Arbeiter in einer belgischen Fabrik durchschnittlich 72,2 Stun-
den pro Woche beschäftigt. Der Wert hat sich bis zum Jahr 2000 nahezu auf
37 Stunden halbiert.6
Doch nicht nur die Dauer der normalen Arbeitswoche wurde sukzessive ver-
kürzt. Auch der relative Anteil an Personen, die aktiv am Arbeitsmarkt teil-
nehmen, geht stetig zurück. Beispielsweise kann nur jeder zweite Einwohner
Österreichs als Teil des nationalen Arbeitskräftepotenzials betrachtet wer-
den. Die andere Hälfte ist entweder zu jung, im Ruhestand, in Ausbildung
5 Vgl. Sterniczky (2018), URL.
6 Vgl. Roser (2018a), URL.
Digital Business – Konvergenzen digitaler Transformation
11
oder arbeitsunfähig. Nur 34 % der österreichischen Bevölkerung arbeiten in
Vollzeit. Ein ausgeprägter Sozialstaat, verlängerte Ausbildungszeiten, Vo-
raussetzungen, um anspruchsvollen Aufgaben nachzugehen, und alternde
westliche Gesellschaften sind entscheidende Faktoren, die diesen Trend be-
gründen.7
Das Zusammenwirken zwischen Technik und Marktwirtschaft hat einst aus
den engen Banden des Feudalismus hinausgeführt und den kollektiven Le-
bensstandard massiv angehoben. Das durchschnittliche Jahreseinkommen
in Italien im Jahr 1300 betrug beispielsweise kaufkraftbereinigt ungefähr
1.300 $. Das blieb mehr oder weniger unverändert so bis zur Mitte des 19.
Jahrhunderts. Auch damals misst das durchschnittliche und kaufkraftberei-
nigte Jahreseinkommen noch ungefähr 1.300 $.8 Spätestens mit Einführung
und Verbreitung der Dampfmaschine bildet die Moderne aber einen dialek-
tischen Prozess, der verlangt, weniger manuell zu arbeiten, um volkswirt-
schaftlich reicher zu werden. Tätigkeiten werden vom Menschen auf die Ma-
schine übertragen. Eine Erfolgsgeschichte setzt an. Unbekannte Produktivi-
tätssteigerungen werden erzielt.
Zwei zentrale Gründe berechtigen nun zur Erwartungshaltung, dass die Kurs-
richtung sich nicht nur fortsetzt, sondern sich auch beschleunigt.
Erstens wird zukünftig noch größere Effizienz aufgrund technologischer In-
novation realisiert als bisher. Dabei ist die Geschwindigkeit der Veränderung
so schnell wie nie zuvor in der menschlichen Zivilisationsgeschichte und wird
doch womöglich nie wieder so langsam sein wie gerade der Fall.
Zweitens, wie bereits oben erwähnt, werden zusätzliche Segmente der
Volkswirtschaft durch die Digitalisierung erfasst. Bereiche, die bisher keine
Wertsteigerungen durch technologische Mechanik verbuchen konnten, wer-
den nun teils oder vollständig ins Reich der Technik eingegliedert. Die Digi-
talisierung greift auf Märkte über, die bisher weitgehend oder gar vollkom-
men ausgeklammert waren. Wie angedeutet, verschieben sich nicht nur die
Schranken des technologisch Möglichen. Auch die Grenzkosten der Anwen-
dung sinken rasant. Der Arbeitsmarkt folgt konsequent dieser Logik.
Eine Untersuchung der Martin School der University of Oxford prognostiziert
in diesem Zusammenhang, dass heute fast jedem zweiten Berufsbild das Ri-
siko anhaftet, in Zukunft maschinell ersetzt zu werden. Die Autoren gründen
7 Vgl. Statistik Austria (2018), URL.
8 Vgl. Bregman (2017), S. 61.
Digital Business – Konvergenzen digitaler Transformation
12
ihren Ausblick auf einem betont zuversichtlichen Vertrauen hinsichtlich der
technologischen Durchbrüche, die in naher Zeit erwartet werden dürfen.9
Das McKinsey Global Institute hingegen beschränkt sich in seinen spezifi-
schen Einschätzungen auf die direkten Auswirkungen durch Robotics. Die
Marktforschungsagentur errechnete, dass allein bis zum Jahr 2030 weltweit
800 Millionen Jobs durch moderne und kostengünstige Roboter ersetzt wer-
den.10
Das World Economic Forum kalkuliert in Folge, dass womöglich zwei Drittel
aller Kinder, die gerade die Grundschule besuchen, einst Berufen nachgehen
werden, die heute noch gar nicht existieren.11 Wie kommt es zur Bewer-
tung? Den Umbruch verursachen vormals abgrenzbare Phänomene, die
mittlerweile zusammenwirken und sich wechselseitig verstärken. Die Kom-
bination aus Künstlicher Intelligenz, Robotik, Nanotechnologie, 3D-Druck
und Biotechnologie reorganisiert die ökonomische Struktur der Gesellschaft
gravierend, der Arbeitsmarkt reagiert dementsprechend. Ein späteres Kapi-
tel wird detailreicher darauf eingehen, welche Entwicklungen hinter den ge-
nannten Technologien stecken und welche Auswirkungen zu erwarten sind.
Die Vorhersagen der OECD wirken im Vergleich dazu fast bedächtig.12 Eine
konservative Grundhaltung gegenüber dem Ansatz, dass Jobs ersatzlos ge-
strichen werden, bestimmt die Analyse. Die OECD meint, dass jede zehnte
Stelle mit einer hohen Wahrscheinlichkeit Gefahr läuft, aufgrund von abseh-
barer Automatisierung eingespart zu werden. Im Vergleich zu den anderen
Urteilen erscheint dieser Befund geradezu zurückhaltend. Erst die Details
zeigen auch hier die Vehemenz, die erwartet wird. Für möglicherweise die
Hälfte aller Anstellungen wird vermutet, dass sich das Aufgabenprofil radikal
verändert, da Technologie eine zunehmend wichtige Rolle spielt. Die Aufga-
benstellung für Bildungsinstitutionen, öffentliche Körperschaften und pri-
vate Unternehmen erscheint enorm, wenn jeder zweite Beruf faktisch nach
anderen Fähigkeiten als bisher verlangen würde. Selbst vorsichtige Aussich-
ten wirken demgemäß wie eine radikale Prognose.
Die allgemeinen Einschätzungen über die Zukunft der Arbeit referieren drei
Grundideen, die jeweils unterschiedlich gewichtet werden. Auch in den vier
genannten Studien lassen sich die Ansätze deutlich wiedererkennen:
Ein Großteil der vorhandenen Berufe wird ersatzlos gestrichen. Anders als
bei bisherigen Umbrüchen, die unsere Arbeitswelt erfasst haben, sorgen
9 Vgl. Frey/Osborne (2013), URL.
10 Vgl. BBC (2017), URL.
11 Vgl. World Economic Forum (2016), URL.
12 Vgl. OECD (2018), URL.
Digital Business – Konvergenzen digitaler Transformation
13
diesmal Wesen und Ausmaß des technologischen Einschnitts dafür, dass
kein adäquater Ersatz nachkommt. Die bekannte Wechselwirkung, dass für
überholte Jobs schlicht neue geschaffen werden, gilt bei der bevorstehen-
den Disruption nicht mehr. Das macht die Transformation historisch einzig-
artig. Der Sohn des Gaslaternenanzünders wurde noch Elektriker. Die Toch-
ter des Kutschers konnte als Taxifahrerin anheuern. Was aber mag nun pas-
sieren, wenn Autos und Lastwagen zukünftig gar keine Lenker mehr brau-
chen? Das soll laut qualifizierter Vorhersage im Jahr 2025 der Fall sein. Allein
in den USA verdient mehr als ein halbes Prozent der Gesamtbevölkerung den
Lebensunterhalt damit, LKWs zu fahren.
Ein weiterer Blickwinkel ergänzt, dass die kommenden Veränderungen nicht
nur einen massiven Jobrückgang zur Folge haben, sondern einen tiefgreifen-
den Strukturwandel im Stellenmarkt erfassen. Neue Fähigkeiten werden ge-
fragt sein, Signale dafür lassen sich bereits ausmachen. Die Anzahl der Job-
anzeigen für Berufe, die keine spezifische Ausbildung voraussetzen, fiel bei-
spielsweise in den USA zwischen 2007 und 2015 um 55 %. Die Annoncen, die
Daten-Analysten suchen, stiegen über den vergleichbaren Zeitraum um
372 % und jene für Daten-Visualisierung gar um 2.574 %. Erprobte Ansätze,
einfach die tarifliche Arbeitszeit zu verkürzen, um mehr Personen in den Ar-
beitsmarkt zu integrieren, wirken vor diesem Hintergrund allein kaum er-
folgsversprechend. Zu sehr unterscheiden sich die Anforderungen zwischen
jenen Berufen, die vergehen, und jenen, die entstehen. Doch selbstverständ-
lich werden auch offene Debatten über Mittel und Wege der Arbeitszeitver-
kürzung geführt werden. Nur der einzige Ansatz kann er nicht bleiben.
Verbleibende Stellen werden ein vollkommen anderes Tätigkeitsprofil aus-
weisen. Selbst Aufgaben, die momentan weitgehend manuell ausgeführt
werden, müssen darauf gefasst sein, sich vermehrt in Mensch-Maschinen-
Interaktionen zu wandeln. Technologie dringt in Rahmenbedingungen vor,
die bisher kaum davon berührt oder vollständig ausgenommen waren. Gänz-
lich andere Fähigkeiten werden nunmehr verlangt. Parallel steigt jedoch die
Wertschöpfung in den einzelnen Berufsfeldern.
Das Prinzip der Automatisierung basiert auf einer einfachen Funktionsweise.
Manuelle Arbeit wird dann maschinell ersetzt, wenn eine bestimmte Tätig-
keit in gleichmäßige Abläufe zerlegt werden kann, die von einer Maschine
billiger, gleichermaßen zufriedenstellend oder sogar besser als von Men-
schen ausgeführt wird. Der Charakter einer solchen Tätigkeit lässt sich leicht
ausmachen, wenn ein bestimmter Beruf vor allem auf Fließbandarbeit ba-
siert. Es erscheint viel schwieriger, ähnliche Merkmale in der Dienstleis-
tungsbranche zu erkennen und zu kopieren. Die Grenzen des technologisch
Digital Business – Konvergenzen digitaler Transformation
14
Möglichen sparten intellektuelle Berufe bisher der Gefahr aus, schlicht ma-
schinell ersetzt zu werden. Das ändert sich gerade einschneidend, weil neu-
artige Technologien es vermögen, diese vorhandenen Einschränkungen auf-
zuheben.
Welche signifikante Bedeutung erwartet werden darf, dafür liefert die Zeit-
geschichte empirische Vergleichswerte: Als während der letzten Jahrzehnte
ausgereiftere Fertigungsmethoden im Industriesektor eingeführt wurden,
verursachte das merkliche Auswirkungen für die betroffenen Arbeiter. Die
Gesamtzahl der Beschäftigten allein in der US-Industrie hat sich von 1980 bis
2016 fast halbiert, während sich der faktische Produktionsoutput über den
Zeitraum mehr als verdoppelt hat. In den USA wurden jedenfalls zwischen
2000 und 2010 5,6 Millionen Arbeitsplätze in der Industrie ersatzlos gestri-
chen. Laut einer Studie der Ball State University dürfen 85 % aller Stellenver-
luste exklusiv der Automatisierung zugeschrieben werden.13 Um einen Ein-
druck von der Größenordnung zu gewinnen: Die gesamte Arbeiterschaft von
Finnland und der Republik Irland zusammen beläuft sich auf 5,3 Millionen.
Trotz Rückgang in der Beschäftigungszahl stieg der Output. Automatisierung
führte zu höherer Wertschöpfung.
Wie sich diese Aspekte nun auch in der Dienstleistungsbranche spiegelbild-
lich wiederholen, zeigt ein aktuelles Beispiel aus dem Versicherungswesen.
Die japanische Versicherungsgesellschaft Fukoku hat diesbezüglich eine rich-
tungsweisende Entscheidung getroffen.14 35 Angestellte waren bis vor Kur-
zem dafür zuständig, eingesandte Rechnungen von Versicherungsnehmern
dahingehend zu überprüfen, ob selbstbezahlte Kosten zurückerstattet wer-
den. Die gesamte Abteilung wurde inzwischen aufgelassen. Sämtliche Auf-
gaben werden stattdessen von einer Software übernommen, die Künstliche
Intelligenz nutzt. Die Investition wird sich umgehend amortisieren. Die jähr-
lichen Lohnkosten für die Gruppe der Sachbearbeiter beliefen sich insgesamt
auf 1,1 Millionen $. Die Anschaffung für das Programm schlägt hingegen ein-
malig mit 1,7 Millionen $ zu Buche und jährlich werden Betriebskosten von
170.000 $ aufgewendet.
Der vollständige Ersatz menschlicher Arbeitskraft in diesem spezifischen Sze-
nario kann der Anwendung technologischer Mittel in einem Rahmen zuge-
schrieben werden, der bisher als vollkommen geschützt vor jeder Gefahr von
vollständiger Automatisierung wirkte. Solche Bereiche weiten sich nun kon-
tinuierlich aus. Amazon eröffnete im Jahr 2017 einen Supermarkt vollständig
13 Vgl. Cocco (2016), URL.
14 Vgl. Mayer-Schönberger/Ramge (2017), S. 126 f.
Digital Business – Konvergenzen digitaler Transformation
15
ohne Kassen. Durch ausgeklügelte Verfahren werden alle Produkte regis-
triert, die sich in der Einkaufstasche befinden, wenn der Laden verlassen
wird. Der zu bezahlende Preis wird einfach vom eigenen Konto abgebucht.
Im Jahr 2016 waren ungefähr 3,5 Millionen Personen als Kassierer in den
USA angestellt. Ein britisches Start-up arbeitet zusammen mit der Universi-
tät Stanford an markttauglichen Roboterarmen, die in Küchen Einsatz finden
und komplizierte Handgriffe von Haubenköchen genau nachvollziehen. IBM
Watson, die Künstliche Intelligenz programmiert von IBM, wird auch darauf
trainiert, Krebs im Frühstadium zu erkennen, um die Diagnosearbeit von On-
kologen zu unterstützen.
Rückschlüsse lassen sich durch die historische Perspektive ziehen: Der Ein-
satz bahnbrechender Produktionsverfahren vermehrt kontinuierlich gesell-
schaftlichen Reichtum und verringert gleichzeitig den menschlichen Anteil
an der aggregierten Wertschöpfung. Geschichtsbücher bezeugen ebenso,
dass sich die zusätzlichen Profite erstmal an der Spitze der sozialen Pyramide
konzentrieren. Die industrielle Revolution führte unmittelbar zu einer Akku-
mulation der Wohlstandsgewinne in den Händen einiger weniger. Diese Un-
gerechtigkeit wurde schließlich effektvoll behoben, als zuverlässige Umver-
teilungsmechanismen gefordert und etabliert wurden. Erst nachdem die
Prinzipien der allgemeinen Gesundheitsversorgung und der progressiven Be-
steuerung garantiert waren, milderten sich die Folgen der Industriegesell-
schaft. Die Forderung nach einer kollektiv finanzierten Krankenversicherung
wurde diesbezüglich äußerst vernünftig begründet. Das Argument besagte
sinnigerweise, dass sich systemische Risiken gemeinschaftlich besser tragen
lassen. Einen gleichlautenden Appell an die Solidarität würde es heute ver-
langen. Die erwartbaren Umstellungen in der Arbeitswelt verantworten ein
individuelles Gefühl der Unsicherheit, das gerecht und vernünftig geteilt
werden sollte. Weil sich wenige der existenziellen Bedeutung der Sache ent-
ziehen können, findet sich faktisch ein weitreichendes Interesse daran, be-
lastbare Schutzmechanismen einzuziehen.
Zeitgleich und dringlich sind ressourcenschonende, intelligente und emissi-
onsneutrale Produktionsverfahren nötig. Solche Innovationen würden Aus-
wege aus der schädlichen Karbonwirtschaft aufzeigen, um die Folgewirkun-
gen des Klimawandels zu begrenzen. Der Begriff Karbonwirtschaft bezeich-
net dabei ein weltwirtschaftliches System, in der Kohlenstoffe eine wichtige
Rolle bei der Energieerzeugung und damit bei der Funktionsweise der ge-
samten globalen Wertschöpfung innehaben. Kohlenstoffe werden beispiels-
weise dann freigesetzt, wenn Erdöl oder Kohle verbrannt werden. Der An-
stieg an Kohlenstoffen in der Atmosphäre, der durch menschliche Aktivitä-
Digital Business – Konvergenzen digitaler Transformation
16
ten freigesetzt wird, gilt nach wissenschaftlichen Erkenntnissen als trei-
bende Hauptursache der globalen Erwärmung. Die Trendwende wird als De-
karbonisierung bezeichnet.
Zukünftige Technologien könnten verschwenderische und destruktive Pro-
duktionsmechanismen runderneuern. Effizienzgewinne und Sparpotenziale
kündigen sich an. Technologien, die sich gerade im jungen Entwicklungssta-
dium befinden, bilden die operative Basis für selbstdenkende Systeme, voll-
automatisierte Produktionsanlagen und alternative Energiegewinnung. Sie
ließen sich dafür modulieren, ertragreich nachhaltige Fertigungsmethoden
aufzubauen. Allein deshalb, weil sie in eine fortschrittliche Zukunft führen
mögen, sollten die anstehenden Veränderungen willkommen geheißen wer-
den. Unter der Vorgabe, Nachhaltigkeit zu erwirken, wird ihnen sogar eine
konkrete Stoßrichtung als Leitlinie vorgegeben. Dass sich diese immanenten
Potenziale aber tatsächlich verwirklichen, wird weder automatisch noch von
allein geschehen. Es bildet sich eine politische, volkswirtschaftliche und or-
ganisatorische Aufgabenstellung, die dafür Sorge zu tragen hat. Gelingt es,
dann würde Wandel plötzlich als Mittel zum progressiven Zweck gedeutet.
An dieser durchdachten Zielvorgabe würde sich der Wandel messen lassen
müssen.
Denn die demokratische Bestimmung findet sich genau dort: Wie lässt sich
der technologische Fortschritt in soziale und ökologische Verbesserungen
übersetzen? Wie werden neue Gestaltungsspielräume genutzt, um optimis-
tisch auf die Zukunft einzuwirken? Darüber nachzudenken, das bildet die ei-
gentliche Aufgabe, wenn der Sinn der Digitalisierung verstanden werden
mag. Dieser Anforderung möchte auch dieses Modul gehorchen.
In Hinblick auf den Arbeitsmarkt folgt der Gang der Entwicklung akkurat dem
Argumentationszusammenhang, der in Folge dargestellt wird: Der Einsatz
moderner Technologie führt dazu, dass sich Organisationen grundlegend er-
neuern. Das wiederum hat unmittelbare Auswirkungen auf die strukturelle
Verfassung unterschiedlicher Märkte – in diesem präzisen Fall auf den Ar-
beitsmarkt. Ändern sich die Verhältnisse dort, dann kommt es zu einem tief-
greifenden Wandel, der Gesellschaften erfasst. Darauf gilt es, Antworten zu
finden, um das Wesen des Wandels zu verstehen und progressiv voranzu-
treiben. Die gegenwärtige Epoche markiert einen Umbruch von der traditio-
nellen Industriegesellschaft hin zur Wissensgesellschaft. Auf welchen Indika-
toren diese Hypothese baut, analysiert das nächste Kapitel.
Digital Business – Konvergenzen digitaler Transformation
17
1.4 Aufbau des Skripts
Dieses Modul beschäftigt sich jedenfalls dezidiert damit, welche organisato-
rischen und exekutiven Herausforderungen für das Management im Rah-
men der digitalen Transformation erkannt werden. Dieser präzise Ausgangs-
punkt wird systematisch verfolgt. Nachdem die Einführung bereits mögliche
Implikationen für den Arbeitsmarkt und die Marktwirtschaft selbst darstellt,
wird im anschließenden Kapitel auf Ideen eingegangen, wie sich gesell-
schaftliche Veränderung konzeptionell erfassen lässt. Denn Technologie ver-
antwortet vor allem sozialen Wandel, der sich vielfältig und umfassend aus-
machen lässt. Dementsprechend werden unterschiedliche Perspektiven vor-
gestellt, die helfen sollen, Sinn und Essenz dieser Veränderungen zu verste-
hen.
Erstmal einen Begriff davon gewonnen, setzt der anschließende Abschnitt
damit fort, Technologien zu beschreiben, die sich gerade flächendeckend an-
kündigen und der Zukunft Gestalt verschaffen. Ein Grundverständnis anste-
hender Entwicklungen soll erwirkt werden: Was bedeuten sie? Welche
Trends werden tonangebend wirken? Darauf werden im Rahmen von zehn
Beispielen Antworten gegeben. Vor allem werden aber die Konvergenzen
dieser Entwicklungen skizziert. Auf diesen Ausführungen können nachfol-
gende Überlegungen aufbauen, welche personellen Voraussetzungen es
braucht, damit Organisationen Innovationen erfolgreich adaptieren. Welche
strukturellen und personellen Anpassungen wären dafür nötig?
An die theoretischen Betrachtungen knüpfen praktische Beispiele. Es wer-
den Case Studies rekapituliert. Die Darstellungen geben einen Eindruck da-
von, wie andere Unternehmen oder öffentliche Körperschaften auf wahr-
nehmbaren Veränderungsdruck erfolgreich reagiert haben. Um wissen-
schaftlichen Erkenntnisstandards ganzheitlich zu entsprechen, wird schließ-
lich noch die Theorie der „Schöpferischen Zerstörung“ dargestellt. Sie hilft
dabei, die geschehenden Veränderungen auf theoretischer Grundlage zu
konzeptualisieren.
Digital Business – Konvergenzen digitaler Transformation
18
2 Von der Industriegesellschaft zur Wissensge-
sellschaft
Wie nun zeigt sich die Transformation von der Industriegesellschaft zur Wis-
sensgesellschaft? Im Verlauf des letzten Jahrzehnts hat es das Internet ver-
mocht, global stetig mehr Menschen in Verbindung zu setzen. Die Ausbrei-
tung der Technologie korrespondiert dabei tendenziell mit dem Anstieg des
BIP/Kopf in einzelnen Staaten. Ob sich in diesem Zusammenwirken einfach
eine Korrelation ausmachen lässt, dass vernetzte Gesellschaften vermögen-
dere Gesellschaften wären, oder ob es sich um eine Kausalität handelt, dass
besser vernetzte Gesellschaften zwangsläufig zu vermögenderen Gesell-
schaften werden, muss in diesem Zusammenhang nicht eruiert werden. Es
gilt die Feststellung, dass ein Jahrzehnt rapider Vernetzung auch den globa-
len Wohlstand gefördert hat – trotz Einbrüchen im Zuge der Wirtschaftskrise
als Folge des drohenden Finanzkollapses im Jahre 2007.
Abbildung 2: Globale Internetnutzung BIP/Kopf15
Mit der rapiden und umfassenden Inklusion von Menschen in die Internet-
Infrastruktur wird zweifellos gerade die Funktionslogik von Märkten und Ge-
schäftsmodellen teils fundamental erneuert. Der amerikanische Journalist
Tom Goodwin beschreibt die Situation prägnant:
Uber, das größte Taxiunternehmen der Welt, besitzt keine
Fahrzeuge. Facebook, das weltweit beliebteste Medien-
15 Quelle: Murphy/Roser (2018), URL und Roser (2018b), URL.
Digital Business – Konvergenzen digitaler Transformation
19
haus, erstellt keine Inhalte. Alibaba, der wertvollste Händ-
ler, hat kein Inventar. Und Airbnb, der weltweit größte An-
bieter von Unterkünften, besitzt keine Immobilien. Etwas
Interessantes passiert.16
Diese Umbrüche beschreiben tiefgreifende Veränderungen bezüglich tra-
dierter Auffassungen, wie Volkswirtschaften und Unternehmen grundsätz-
lich zu operieren hätten und organisiert werden sollen. Den geschehenden
Wandel gilt es jedenfalls tätig zu gestalten. Durch Wissen, Analyse und Me-
thode lässt er sich als unternehmerische Chance identifizieren, der Fort-
schritt wird progressiv für die eigene Sache genutzt. Denn in der Essenz sym-
bolisiert Technologie einen nützlichen Baustein zur praktischen Umsetzung
der Unternehmensstrategie. Es verlangt nach Ideenträgern und Organisati-
onsstrukturen, die eine operative Anwendung digitaler Konzepte erdenken
und ermöglichen.
Welche Technologien beispielsweise zur Mitte des Jahrhunderts tonange-
bend die Gesellschaft formen, lässt sich nur schattenhaft antizipieren. Es
werden zweifellos andere sein als heute. Doch mit strategischer Perspektive,
mit Methode und Pragmatik werden Entscheidungsträger über die Fähigkei-
ten verfügen, Veränderung permanent zu fördern und technologische Pro-
zesse aktiv zu gestalten. Es bedingt, praxisnahes Wissen und pragmatisches
Verständnis zu schaffen, um den systemischen Wandel von der Industriege-
sellschaft zur Wissensgesellschaft im Geiste eines modernen Unternehmer-
tums und eines aufgeklärten Verantwortungsgefühls zu formen. Denn einige
Konstanten werden sich aller Voraussicht nach auch dann bewahrheiten,
wenn gänzlich neue Technologien praktische Umsetzung finden: Es setzt
überzeugte Ideenträger und adaptive Organisationsstrukturen voraus, die
den sinnvollen Einsatz digitaler Innovation unterstützen. Es erfordert neue
unternehmerische Konzepte, um auf veränderte Umstände angemessen zu
antworten. Unternehmen und Institutionen werden lernen, unter grundle-
gend anderen Bedingungen zu operieren, die durch die Digitalisierung ge-
schaffen werden.
Die funktionelle Bedeutung von Technologie realisiert sich quintessenziell
darin, dass die bestehende Produktivität gesteigert wird. Aus diesem Grund
entfaltet sie auch eine universelle Dynamik. Sie etabliert neue Konkurrenz-
bedingungen und Kostenstrukturen.
16 Goodwin (2015), URL.
Digital Business – Konvergenzen digitaler Transformation
20
2.1 Technologie als Katalysator gesellschaftlicher
Veränderung
Organisationen, denen es in Folge gelingt, auf neuartige Produktionsverfah-
ren oder Geschäftsmodelle effektiv zu reagieren, erzielen nicht nur einen
zeitlichen Startvorteil gegenüber Mitbewerbern. Sie schaffen es womöglich
auch, das Verhalten von Konsumenten zu formen. Manche konstruieren gar
neue Märkte oder etablieren eine Kulturtechnik. Diese beobachtbaren Ef-
fekte bezeichnen den Begriff First Mover Advantages.
First Mover Advantages bedeutet die dominierende Marktposition, dass
bei Einführung einer Dienstleistung, eines Produkts oder einer technologi-
schen Lösung keine vergleichbare Alternative vorhanden ist.
Es gibt hier manche Gegenstimmen, die erklären, dass faktisch der soge-
nannte First Mover Advantage eigentlich immer auf den Zweiten zutrifft. Im
Regelfall scheitert der wirkliche First Mover und wird oft von einem Zweiten
überholt, weil dieser aus den Fehlern und Unzulänglichkeiten des wirklichen
Ersten lernen kann. Deshalb hat Google dann Yahoo überholt oder Facebook
Myspace hinter sich gelassen. Sie waren, chronologisch betrachtet und ge-
nau genommen, Second Mover, nicht First Mover.
Die Zeitlinie der Ereignisse kann aber für die weiteren Ausführungen als
nachrangig betrachtet werden. Worin sowohl Google und Facebook zweifel-
los First Mover waren, das war in der Etablierung von tragfähigen Geschäfts-
modellen.
Google bestimmt aufgrund seiner Marktdominanz darüber, welche allge-
meinen Erwartungshaltungen hinsichtlich einer Suchmaschine gepflegt wer-
den. Konkurrenten müssen sich immanent und permanent daran messen
lassen, wie ihr Programm im Vergleich zu Google überzeugt. Auch Nutzer-
oberfläche und Funktionsweise einer Suchmaschine haben sich durch die
Anwendungen von Google nahezu standardisiert. Für die Geschäftsmodelle
gelten vergleichbare Voraussetzungen. Die vorhandene Reichweite und
Treffsicherheit, die Google erzielt, führt dazu, dass eine nahezu monopolar-
tige Stellung erwirkt wurde. Diese Vorrangstellung ermöglicht es wiederum,
durch Öffentlichkeitssegmentierung potenzielle Werbekunden, die auf der
Plattform inserieren, mit passgenauen Angeboten zu locken. Für das Jahr
2016 lässt sich festhalten, dass knapp 60 Cent jedes in Online-Werbung in-
vestierten Dollars an Facebook oder Google gezahlt wurden. Die Tendenz
der Marktdominanz von Facebook und Google ist steigend.
Bei dem Phänomen handelt es sich teils um Verdrängungswettbewerb.
Während die Einnahmen für Internetkonzerne konstant steigen, verliert der
First Mover Advantages
Digital Business – Konvergenzen digitaler Transformation
21
deutsche Zeitungsmarkt im Anzeigengeschäft kontinuierlich. Der jährliche
Umsatz, den alle deutschen Tageszeitungen durch den Anzeigenverkauf ge-
nerieren konnten, lag im Jahr 2015 bei 6,55 Milliarden €. Im Jahr 2016 ist die
Summe auf 2,53 Milliarden € gesunken. Wachstumsraten im Werbemarkt
werden mittlerweile zu mindestens 90 % ganz von Facebook und Google ab-
sorbiert, hält Mathias Döpfner fest (CEO von Axel Springer SE und Präsident
des Bundesverbands Deutscher Zeitungsverleger). Auch agiert Google als
Online-Werbevermittler und steuert und verteilt Anzeigen auf andere Web-
seiten. Für diese Dienstleistung wird eine Gebühr in Höhe von ungefähr 30%
verrechnet.
Abbildung 3: Anteil an bezahlter Online-Werbung17
Facebook wiederum hat eine vergleichbare Vormachtstellung im Bereich der
sozialen Medien inne, wie es Google bei Suchmaschinen entsprechen
würde. Beide Konzerne teilen ebenso die Eigenheit, dass sie den größten
Konkurrenten in ihrem jeweiligen Marktsegment akquiriert haben, um die
eigene Vormachtstellung sicherzustellen. Als zweitgrößte Suchmaschine
nach Google agiert die Videoplattform YouTube, mittlerweile Bestandteil
des Google-Mutterkonzerns Alphabet. Als soziales Netzwerk mit größter
Reichweite nach Facebook firmte eigenständig Instagram, bevor es ganz-
heitlich vom Facebook-Mutterkonzern übernommen wurde.
17 Eigene Grafik, Daten siehe Desjardins (2016), URL.
Google 41 %
Facebook 17 %
Microsoft 4 %
Yahoo 3 %
Twitter 2 %
Verizon 2 %
Amazon 1 %
Linkedin 1 %
Yelp 1 %
Snapchat 0,5 %
Andere
28 %
Anteil an bezahlter Online-Werbung 2016
Digital Business – Konvergenzen digitaler Transformation
22
Facebook eignet sich weiters, um die Rasanz darzustellen, mit der sich tech-
nologische Neuerungen auszubreiten verstehen. Das Unternehmen wurde
im Jahr 2004 gegründet. Es benötigte anfänglich sieben Jahre, bis es 500 Mil-
lionen Nutzer zählen konnte, die mindestens einmal monatlich auf den
Dienst zugriffen. Der Sprung von 500 Millionen Nutzer auf über eine Milli-
arde Nutzer dauerte dann hingegen nur noch drei weitere Jahre. Benötigte
es also zehn Jahre bis das Unternehmen eine Milliarde Nutzer gewinnen
konnte, wurde die Schwelle von einer auf zwei Milliarden Nutzer in ungefähr
vier Jahren geschafft.
Es handelt sich dabei um einen empirischen Beleg des hypothetischen Netz-
werkeffekts. Dieser besagt, dass die Anzahl der Nutzer und die Relevanz ei-
ner Technologie exponentiell wachsen, je mehr Leute sie verwenden.
Im Jahr 2013, als die eine Milliarde monatlicher Nutzer bei Facebook statis-
tisch erreicht wurde, verbuchte das Unternehmen dann einen Börsenwert
von ungefähr 100 Milliarden $. Es rechnet sich aliquot, dass einem Nutzer
ein Wert von ca. 100 $ zugemessen werden konnte. Im Jahr 2017, als Face-
book schließlich über zwei Milliarden Nutzer zählte, schaffte es das Unter-
nehmen, die Kapitalisierung über die Schwelle von 500 Milliarden $ zu he-
ben. Das bedeutet rückschließend, dass nicht nur die Anzahl der Nutzer sig-
nifikant zunahm, sondern dass ebenso der Wert, den diese Nutzer individu-
ell darstellen, überproportional gesteigert werden konnte. Ein Nutzer er-
fasste nunmehr einen Wert von 250 $ in Relation zur Unternehmenskapita-
lisierung.
Da die Anwendung weiterhin kostenlos blieb, lässt sich der Wertgewinn da-
rauf zurückführen, dass intensivere und smartere Analyseinstrumentarien
eingesetzt werden, um die Vorlieben der Nutzer zu entschlüsseln und sie als
Adressaten zielgerichteter Werbebotschaften zu segmentieren. Denn die
Möglichkeit, individuell passende Werbung zu platzieren, bildet aktuell die
Haupteinnahmequelle des Unternehmens. Vor diesem Verständnishinter-
grund macht es objektiv mehr Sinn, bei registrierten Personen nicht neutral
von Nutzern oder gar egalitär von Mitgliedern eines Netzwerks zu sprechen,
sondern sie als Produkte oder Absatzmärkte zu betrachten, die Werbekun-
den angeboten werden. Daten, die Nutzer generieren, werden hauptsäch-
lich dafür genutzt, Sozial- und Konsumverhalten im Detail zu bestimmen und
an Abnehmer zu veräußern, die Werbebotschaften präzise platzieren wol-
len. Außerdem wird in den westlichen Demokratien spätestens seit den Er-
fahrungen mit der amerikanischen Präsidentschaftswahl im Jahr 2016 allge-
meiner verstanden, welche manipulative und propagandistische Sicherheits-
Digital Business – Konvergenzen digitaler Transformation
23
risiken das Netzwerk impliziert und wie schädlich sich diese auf den öffent-
lichen Diskurs auswirken können. Destruktive Statements erhalten statis-
tisch mehr Aufmerksamkeit und Reaktion als gegenteilige Richtigstellungen.
Eine weitere Verhältnismäßigkeit sei in diesem Kontext auch nochmals be-
dacht. Der eigentliche Zweck von Technologie besteht, wie bereits anfäng-
lich dargestellt, genau in der Entlastung oder im Ersatz menschlicher Arbeits-
kraft durch Mechanik. Das zeigt sich selbst bei der eingehenden Betrachtung
einflussreicher IT-Konzerne. Ihre Geschäftstätigkeit basiert auf Produktivität
mittels moderner Technologie. Nochmals soll das Jahr 2016 als Vergleichs-
wert dienen: Wäre Facebook ein deutsches Unternehmen, dann würde es in
Anbetracht des erzielten Umsatzes nur den 22.-größten börsennotierten
Konzern des Landes repräsentieren. Das Unternehmen würde hingegen bei
Weitem das größte EBIT erwirtschaften und vor allem die höchste Umsatz-
rendite erwirken. Wird zusätzlich die Anzahl der Beschäftigten als Definiti-
onsmerkmal gewählt, würde Facebook hingegen gerade einmal Rang 37 ein-
nehmen. Folglich gilt für Facebook, wenn es mit deutschen Aktienkonzernen
gereiht werden würde – EBIT18: Nr. 1, ROI19: Nr. 1, Umsatz: Nr. 22, Anzahl
der Beschäftigten: Nr. 37. Selbst wenn also Europa zu einem attraktiven Bin-
nenmarkt bei der Gründung kommender IT-Titanen werden könnte, ein Job-
motor wäre damit nicht verbunden. Die dargestellten Verhältnismäßigkei-
ten liefern einen eindrücklichen Beleg dafür, dass moderne Technologien
zwar einen Wohlstands-, aber keinen Jobgenerator erfassen.
ROI steht für den Return on Investment. Dieser Kennwert setzt den erziel-
ten Gewinn in Vergleich zum eingesetzten Kapital. Wie viel Vermögen
wurde investiert, um den Gewinn zu erzielen? EBIT bildet das Akronym für
den englischen Begriff Earnings Before Interest and Taxes. Es wird also der
Verlust bzw. Profit errechnet, bevor dieser um den Steuerbetrag oder
durch Zinsen vermindert wird.
Dass sich intelligente technische Lösungen sehr schnell verbreiten und ihre
Massentauglichkeit rasant ansteigt, belegt schon die historische Erfahrung.
Neu und historisch einzigartig erscheint der gegenwärtige Erfahrungshori-
zont hinsichtlich dieser konkreten Verständnisgrundlage nicht. Die Vergan-
genheit kennt diesbezüglich vergleichbare Vorgänge. Wie unterschiedliche
Geräte und Innovationen rasant zum Bestandteil des gewöhnlichen Alltags
werden, lässt sich dokumentarisch nachvollziehen.
18 Earnings Before Interest and Taxes
19 Return On Investment
Digital Business – Konvergenzen digitaler Transformation
24
Als Referenzwert gelten in Folge immer Sprünge in Intervallen von zehn Jah-
ren und die Prozentsätze beziehen sich auf alle Haushalte in den USA.20
• Im Jahr 2005 nutzten 5 % aller amerikanischen Haushalte soziale
Medien. Zehn Jahre später waren es dann bereits fast zwei Drittel
aller Haushalte.
• Im Jahr 1917 besaßen 17 % aller Haushalte in den USA ein eigenes
Automobil. Ein Jahrzehnt später war es bereits über die Hälfte aller
Haushalte.
• Im Jahr 1925 fand sich in jedem zehnten Haushalt ein Radio. Genau
zehn Jahre später hatten bereits nahezu zwei von drei Haushalten ein
solches Gerät.
• Im Jahr 1934 zählte ein Fünftel aller Haushalte einen Kühlschrank
zum Inventar. Wiederum zehn Jahre später war es bereits die Hälfte
aller Haushalte.
• Die Mikrowelle hingegen fand sich im Jahr 1982 in gerade mal
20 % aller Haushalte. Zehn Jahre später dann bereits in über 82 %
aller Haushalte.
Abbildung 4: Verbreitung neuer Technologien innerhalb eines Jahrzehnts21
Es ist statistisch belegt, dass wegweisende und praktische Technik schnell
Akzeptanz erfährt. Der Reserviertheit und Vorsicht bezüglich des
technologischen Fortschritts lassen sich positive Folgewirkungen
entgegenstellen, die bereits mit der flächendeckenden Akzeptanz von
Haushaltsgeräten in der Vergangenheit gemacht wurden. Die
20 Für alle Werte vgl. Ritchie/Roser (2017), URL.
21 Eigene Grafik, basierend auf Ritchie/Roser (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
25
Inbetriebnahme praktischer Gerätschaften im Haushalt initiierte eine ganze
Reihe progressiver Kettenreaktionen. Signifikant ist die wöchentliche
Arbeitszeit gesunken, die es schon in einem Zweipersonenhaushalt dafür
braucht, Wäsche zu waschen, Essen zuzubereiten und aufzuräumen. Im Jahr
1900 wurden noch 68 Stunden pro Woche für diese Aufgaben aufgewendet.
Dieser Aufwand konnte bis zum heutigen Tag merklich reduziert werden.
Dieselben Aufgaben im gleichen Haushalt benötigen dank der Erfindung und
Verbreitung der Waschmaschine, des Kühlschranks, des Geschirrspülers, des
Staubsaugers und anderer Haushaltsgeräte derzeit nur noch 15 Stunden und
24 Minuten.22
Die Reduktion erwirkte in Folge gesellschaftliche Dynamik. Technik ließ die
praktischen Voraussetzungen dafür entstehen, dass über herrschende
Ungleichheit und vorhandene Benachteiligung zwischen den Geschlechtern
diskutiert wird. Die unumgängliche Aufgabe, standardisierte und repetitive
Arbeiten auszuführen, reduziert sich aufgrund der Automatisierung auch in
diesem Zusammenhang. Tradierte Rollenbilder kamen als Folgewirkung ins
Wanken. Die freigesetzten Kapazitäten werden erfüllenderen und
produktiveren Tätigkeiten gewidmet.
Noch eine weitere Analogie lässt sich auf die Jetztzeit übertragen. Die
Ausbreitung der neuen Technik hatte Konsequenzen für andere
Marktteilnehmer. Der Kühlschrank veränderte die Konsumgewohnheiten
hinsichtlich der Lebensmittelproduktion und des Verpackungswesens.
Praktische Kleidung musste von nun an waschmaschinentauglich sein und
auch mundgeblasene Gläser erwiesen sich plötzlich als Unikate, die sich nun
nur noch äußerst aufwendig reinigen ließen. Märkte und Gesellschaften
erlebten einen tiefgreifenden Wandel, veranlasst mittels Einführung neuer
Technologie. Immer kommt es zu Rückkoppelungseffekten.
Es existiert Veranlassung zur Annahme, dass in der anstehenden Zukunft
noch weniger Hausarbeit als aktuell nötig manuell zu erledigen sein wird. Ein
britisches Start-up-Unternehmen hat beispielsweise in Zusammenarbeit mit
der Stanford University und der Carnegie Mellow University einen agilen
Küchenroboter auf den Markt gebracht. Die Roboterarme können Abläufe
und Handhabungen eines Sternekochs exakt replizieren. Der Küchenroboter
kocht im Bedarfsfall selbstständig und präzise nach Rezept. Besitzer können
aus einer Vielzahl von Gerichten wählen, die für sie zubereitet werden. Ein
japanisches Start-up hat des Weiteren einen kleinen Roboter vorgestellt, der
es versteht, Wäsche zu falten und in Schränke zu legen.
22 Vgl. Roser (2018b), URL.
Digital Business – Konvergenzen digitaler Transformation
26
Die objektive Notwendigkeit, warum sich klassische Industriebetriebe wan-
deln müssen, liegt jedenfalls in der Tatsache einer umfassenden Transfor-
mation der sozio-ökonomischen Struktur der Gesellschaften begründet. Der
klassische Industriekapitalismus metamorphosiert in die Wissensgesell-
schaft. Wie sich diese Transformation vollzieht und was sie bedeutet, wird
in Folge beschrieben.
Ein weiterer Aspekt liegt in der Tatsache begründet, dass Phasen des Um-
bruchs immer ein Zeitfenster öffnen, um Neuansätze persönlich zu wagen.
Es kristallisieren sich ungeahnte Möglichkeiten heraus, um angedachte Pro-
jekte zu verwirklichen, Unternehmen zu gründen, Visionen umzusetzen, an-
dere Denkansätze zu riskieren. Es handelt sich um intensive Phasen des kol-
lektiven Experiments einer Gesellschaft, die gestalterische Fähigkeiten for-
dern. Der Anbruch einer neuen Epoche stattet Einzelne mit überdurch-
schnittlichen Einflussmöglichkeiten aus, sich an Konzepten couragiert zu ver-
suchen. Es herrscht Aufbruchsstimmung, eine Zeit, die von Pionieren und Vi-
sionären angeführt wird, um die sich abzeichnenden Entwicklungen als ei-
gene Möglichkeiten zu begreifen. Exakt solche Gestaltungsmöglichkeiten
treten aktuell auf.
2.2 Strukturwandel der Volkswirtschaft
Eine nachhaltige Transformation, die das letzte Jahrhundert verantwortet,
besteht im fortgesetzten Strukturwandel der Volkswirtschaft. Auf dieser
Vorgeschichte baut auch der Trend der digitalen Transformation auf und der
geschehende Wandel lässt sich in eine historische Perspektive setzen.
Zur Rekapitulation: Das volkswirtschaftlich produzierte Vermögen lässt sich
allgemein drei unterschiedlichen Sektoren zurechnen: Jeder Wert, der ent-
steht, wird entweder in der Landwirtschaft, der Industrie oder dem Dienst-
leistungssektor erzeugt. Das letzte Jahrhundert zeigt in diesem Zusammen-
hang tendenziöse Brüche, die zuerst zur Herausbildung der westlichen In-
dustriegesellschaften führten und nunmehr die sogenannte Wissensgesell-
schaft hervorbringt.
Für alle Industrienationen gilt, dass der relative Anteil, den die Landwirt-
schaft zur allgemeinen Wertschöpfung beiträgt, über das letzte Jahrhundert
markant gesunken ist und weiterhin kontinuierlich fällt. Auch der Anteil an
Personen, die im Landwirtschaftssektor beschäftigt sind, reduzierte sich si-
multan während des Verlaufs der letzten Jahrzehnte. Noch markanter zeigt
sich die Entwicklung, wenn beispielsweise der Zeitraum ab Mitte des 19.
Jahrhunderts betrachtet wird, wie die Grafik für die USA unten anzeigt.
Wissensgesellschaft
Digital Business – Konvergenzen digitaler Transformation
27
Abbildung 5: Sektorale Wertschöpfung USA23
Die Agrarökonomie formte über weite Strecken der menschlichen Kulturge-
schichte das einzig gängige Zivilisationsmodell. Diese Voraussetzung änderte
sich erst durch die Konsequenzen der industriellen Revolution, als die
Dampfmaschine ihre Wirkung zu entfalten begann und Produktionsverfah-
ren sich mechanisierten. Volkswirtschaften wurden rapide vermögender.
23 Quelle: Lippolis/Ortzi-Ospina (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
28
Für Einzelpersonen bedeutete die Erneuerung, dass landwirtschaftliche Tä-
tigkeiten durch Erwerbsarbeit in Industriebetrieben ersetzt wurde. Ländli-
che Regionen wurden massenhaft verlassen, um in den wachsenden Metro-
polen nach Anstellungen in Fabriken zu suchen. Vor allem die europäischen
Gesellschaften erlebten im Rahmen dieses Umbruchs eine Modernisierung
und Prosperität, wie sie zuvor schlicht unbekannt waren. Mit den neuen
Reichtümern setzte auch ein neues politisches Bewusstsein ein. Nicht nur
verlangte das aufstrebende Bürgertum, dass der Adel seine weltliche Macht
teilt. Auch begann sich die Arbeiterschaft zu gruppieren, forderte gerechtere
Verteilung und Teilhabe am produzierten Vermögen. Der technologischen
Revolution durch die Dampfmaschine folgte der gesellschaftliche Umbruch
und die politische Emanzipation.
Die Industriegesellschaft wiederum wandelte sich in kurzer Zeit weiter zur
Dienstleistungsgesellschaft. Die Grafiken oben lassen auch diese Transfor-
mation nachvollziehen.
Der volkswirtschaftliche Strukturwandel, der sich im Lauf des letzten Jahr-
hunderts vollzogen hat, bewirkte nachvollziehbar tiefgreifende und substan-
zielle Veränderungen. Entscheidend dabei: Der Übergang von der Agrarge-
sellschaft zur Industriegesellschaft begrenzte sich nicht auf Wertsteigerun-
gen, sondern verantwortete vielfältige Implikationen – seien sie politischer,
ökonomischer, sozialer, kultureller, gesellschaftlicher oder ideeller Natur.
Die Agrargesellschaft verlangte andere Organisationsprinzipien, andere Kon-
zepte bezüglich Hierarchie, andere Formen der Kooperation, andere Arbeits-
rhythmen als die Industriegesellschaft. Sie basierte auf anderen politischen
Partizipationsformen, anderen Technologien, anderen Innovationen, ande-
rer Arbeitsintensität, anderen Lebensverhältnissen, anderen Menschenbil-
dern, stellte andere Produktionsfaktoren in den Vordergrund im Vergleich
zur Industriegesellschaft. Aus Perspektive der Industriegesellschaft er-
scheint die Verfasstheit der Agrargesellschaft vormodern, ineffizient, klein-
teilig, unproduktiv, technologisch rückständig, ungerecht, vergleichsweise
arbeitsintensiv und ertragsarm. Die Transformation zur Industriegesellschaft
vollzog also einen nachhaltigen Produktivitätsschub, sie modernisierte die
Ökonomie fundamental, änderte die gängigen Formen des sozialen Zusam-
menlebens und allgemeine Vorstellungen über den Arbeitsbegriff.
Wenn nun die Industriegesellschaft selbst überholt wird, wenn sich die ope-
rativen Organisationsprinzipien erneuern, dann lässt sich antizipieren, dass
mit vergleichbarer Distanz und ähnlichem Verständnis wie die Industriege-
sellschaft auf die Agrargesellschaft blickt, zukünftig auf die Industriegesell-
schaft selbst geblickt wird.
Digital Business – Konvergenzen digitaler Transformation
29
Andere Tendenzen werden jedoch aller Voraussicht nach überdauern und
sich sogar beschleunigen: Der gesellschaftliche Wohlstand wird zweifellos
wachsen, Innovationszyklen sich weiter beschleunigen. Dabei gilt es zu be-
achten, dass technologischer Fortschritt nicht gleichzeitig politischen und
sozialen Fortschritt verursacht. Dieser muss eigens erstritten und erkämpft
werden. Ein Autoritarismus unter modernen technologischen Bedingungen
ist denkbar. Es bildet eine demokratische Aufgabe, ihn zu unterbinden.
Der Anteil manueller Arbeit an der volkswirtschaftlichen Wertschöpfung
wird aller Voraussicht nach weiterhin fallen. Stetig werden mehr Tätigkei-
ten von Menschen auf Maschinen übertragen. Das Zusammenwirken zwi-
schen Mensch und Maschine – die sogenannte Mensch-Maschinen-Inter-
aktion – wird sich intensivieren und in Bereiche vordringen, die bisher da-
von ausgenommen waren. So operieren die funktionellen Grundlagen des
neuen Zeitalters.
Und doch sei daran erinnert: Bisher hat jede Form der Übertragung manuel-
ler Tätigkeit auf maschinelle Abläufe zu größerer Produktivität geführt, den
Menschen Gestaltungsspielräume dafür geöffnet, sich erfüllenden Tätigkei-
ten zu widmen. Die Gesetzmäßigkeit des Wandels hat retrospektiv vor allem
dafür gesorgt, dass Gesellschaften sich permanent an neue Rahmenbedin-
gungen adaptierten und substanziell reicher wurden. Manuelle Tätigkeiten
in der Landwirtschaft wiesen eine merklich geringere Produktivität aus als
Berufe, die mit industrieller Fertigung verknüpft waren. Außerdem wurde
auch die landwirtschaftliche Produktion weitreichend automatisiert, durch
den Einsatz besserer Technologie wurden die Ernteerträge massiv erhöht.
Auch in diesem Bereich hat Technologie die Produktivität verbessert. Doch
um Produktivität zu messen, ist ein Wert nötig, der sich bestimmen lässt.
Wie entsteht dieser Wert unter den Bedingungen der Marktwirtschaft
grundsätzlich und warum sind herkömmliche Erklärungsansätze nur noch
bedingt geeignet, Aufschlüsse darüber zu geben?
2.3 Wie wird Wert geschaffen?
Jedes Unternehmen repräsentiert einen integrativen Bestandteil der grö-
ßeren Umwelt. Jedes Unternehmen ist in soziale Zusammenhänge einge-
bettet. Keines agiert in Isolation oder gedeiht durch Abkapselung.
Gravierende Veränderungen, die eine Gesellschaft erfassen, wirken folglich
direkt auf Organisationen. Es verlangt nach angemessenen Reaktionen, Ver-
ständnis der Vorgänge und strategischen Antworten, wie tiefgreifendem
Wandel begegnet werden kann.
Mensch-Maschinen-
Interaktion
Von der Industriegesell-
schaft zur Wissensgesell-
schaft
Übungen finden Sie auf Ih-
rer Lernplattform.
Soziale Zusammenhänge in
einem Unternehmen
Digital Business – Konvergenzen digitaler Transformation
30
Unternehmen sind permanent aufgefordert, gestaltend auf die Zukunft und
die Gesellschaft einzuwirken. Nur diese Voraussetzung ermöglicht es, Erwar-
tungshaltungen seitens der Kunden zu verstehen und zeitgemäß zu bedie-
nen.
Die Gegenwart erfasst in diesem Zusammenhang eine Ära des Umbruchs.
Die digitale Transformation verändert die Funktionslogik von Märkten und
genutzten Kommunikationskanälen radikal. Neues entsteht, die Fortdauer
des Herkömmlichen darf bezweifelt werden. Wir bauen eine Zukunft, die es
zu formen lohnt.
Was darf über die Zukunft behauptet werden? Bereits auf Basis der gegen-
wärtigen Entwicklungen lässt sich ermessen, dass perspektivisch andere
operative Prinzipien wirken werden, als das bisher in der modernen Markt-
wirtschaft der Fall war.
Um grundsätzlich anzusetzen:
Der Begriff Markt bezeichnet in einer knappen und schlichten Definition
nichts anderes als das Zusammentreffen von Angebot und Nachfrage. Er bil-
det einen institutionellen Mechanismus, der dazu dient, den Preis eines Pro-
dukts oder einer Dienstleistung zu eruieren.
Dieser Funktion bedarf es, weil im Regelfall konkurrierende Ansprüche über
begrenzte Güter in Abgleich gebracht werden müssen. Üblicherweise ver-
handelt der Markt Knappheiten. Das bedeutet: Es findet sich also weniger
Angebot als vorhandene Wünsche nach Ressourcen, Gütern oder Dienstleis-
tungen. Es braucht demnach allgemein akzeptierte Prinzipien, die festlegen,
wessen Anspruch sich im Zweifelsfall gegenüber anderen Ansprüchen legi-
tim durchsetzen kann.
Die Festlegung von Preisen bildet diesbezüglich ein wirksames Instrument.
Nur jene, die willens sind, einen gewissen Preis für einen gewünschten Ge-
genstand zu bezahlen, erwirken Nutzrechte oder Besitzanspruch darauf.
Preisgestaltungen manifestieren also ein wirkungsvolles Prinzip, um festzu-
stellen, wie Angebot und Nachfrage miteinander in Balance gebracht wer-
den können.
Der Markt dient als Wissensinstanz, der allgemein darüber informiert, wel-
che Bedürfnisse kollektiv vorhanden sind, wie viele Rohstoffe für die Bedürf-
nisbefriedigung verwendet werden sollen, wie sich Investitionen sinnvoll –
weil gewinnbringend – dirigieren lassen, woran profitabel gearbeitet wer-
den kann.
Digital Business – Konvergenzen digitaler Transformation
31
Der Markt produziert also Information. Er dient der Wertschöpfung und ini-
tiiert Wandel.
In unmittelbarem Zusammenhang steht, wie selbst traditionelle Erklärungen
darüber, wie der Markt Wert entstehen lässt, erweitert werden müssten:
Der schottische Philosoph Adam Smith lieferte im 18. Jahrhundert eine be-
deutsame Definition dessen, was als Wert einer Ware zu begreifen sei. Er
unterscheidet zwischen zwei Wertbegriffen, die einem Gegenstand zukom-
men: Jedes Produkt trägt einen Gebrauchswert und einen Tauschwert an
sich.24
Wie im Begriff angedeutet, meint der Gebrauchswert den praktischen Nut-
zen eines Gegenstands. Eine Schaufel eignet sich dafür, ein Loch zu graben.
Ein Bleistift lässt sich dafür gebrauchen, entweder ein Bild zu malen oder
Notizen zu memorieren.
Der Tauschwert fügt dem Gegenstand hingegen eine zweite Dimension zu,
die erst in Zusammenhang mit funktionierenden Märkten relevant er-
scheint. Ein Gegenstand kann nämlich gegen einen anderen getauscht wer-
den. Die besagte Schaufel ließe sich gegen eine gewisse Anzahl an Bleistiften
eintauschen. Alle Gegenstände umfassen also Werte, die miteinander in Ab-
gleich gesetzt werden können.
Adam Smith lieferte auch die Anweisung, wie sich die Werte kalkulieren und
vergleichen lassen. Er bestimmte nützliche Indikatoren.
Die Arbeit ist [...] der wahre Maßstab des Tauschwer-
tes aller Waren. [...]
Sie [die Güter, Anm.] enthalten den Wert einer be-
stimmten Quantität Arbeit, welche man gegen etwas
vertauscht, wovon man zurzeit glaubt, dass es den
Wert einer gleichen Quantität enthalte. 25
Adam Smith analysierte also, dass sich der eigentliche Vergleichswert bei
Gegenständen danach bemisst, wie viel Arbeit in ihre Herstellung investiert
wurde. Gleichwertig wären zwei Waren dann, wenn eine entsprechende
Menge an manueller Arbeit hätte aufgewendet werden müssen, um sie her-
zustellen.
24 Vgl. Smith (2005), S. 32.
25 Smith (2005), S. 33.
Digital Business – Konvergenzen digitaler Transformation
32
Die Wissenschaft spricht in diesem Zusammenhang von der Arbeitswertthe-
orie. Jedes Gut erschließt ein gewisses Ausmaß an Arbeit, die gesellschaftlich
für die Produktion aufgewendet und miteinander in Austausch gebracht
wird.
Die Theorie zusammengefasst: Was wir tauschen, wenn wir Waren tau-
schen, wäre die Arbeit, die ihre Herstellung benötigt. Die aufgewendete Ar-
beit bildet den Richtwert, an dem wir uns orientieren.
Selten findet diejenige, die gerade eine Schaufel im Überfluss hat, komplika-
tionslos denjenigen, der exakt dieses Werkzeug gegen überschüssige Blei-
stifte tauschen möchte. Individuelle Bedürfnisbefriedigung unter diesen
komplizierten Vorzeichen wäre mühsam und ineffizient. Wie behelfen wir
uns? Um Größenordnungen in Einklang zu bringen und da der direkte Aus-
tausch zwischen vorhandenen Gütern meist weder sinnvoll noch durchführ-
bar wäre, nutzen Gesellschaften Geld, um Werte abzubilden.
Durch Geldwerte lässt sich Wert speichern und universell in den unter-
schiedlichen Konstellationen verrechnen. Folglich muss ich mich nicht da-
rum kümmern, mein eigenes Gut gegen ein gewünschtes Produkt zu tau-
schen. Vielmehr setze ich es an Interessenten ab, erhalte Geldmittel und
kann diese, gemäß eigener Bedürfnisse, weiterverwenden. Der Geldkreislauf
wirkt. Die überflüssige Schaufel wird einfach verkauft und die Barmittel ge-
nutzt, um Bleistifte zu erwerben.
Was wirkt also entscheidend? Am Markt trifft Angebot auf Nachfrage. Viele
individuelle Handlungen erlauben es festzustellen, welchen Wert ein Pro-
dukt oder eine Dienstleistung haben kann, damit genug Nachfrage entsteht,
um gewinnbringend zu produzieren. Es wird ein soziales System institutio-
nalisiert, das geleisteten Arbeitsaufwand miteinander korrespondieren lässt
und in Abgleich bringt.
Was führt nun aber dazu, dass Werte an sich entstehen? Was setzt Wert
voraus?
Drei unabhängige Produktionsfaktoren werden laut klassischer Volkswirt-
schaftslehre benötigt, um Wert produzieren zu können:
• Boden
• Kapital
• Arbeit
Um Wert zu schaffen, kann beispielsweise der Boden bestellt, dessen
Früchte geerntet oder vorhandene Ressourcen extrahiert werden.
Digital Business – Konvergenzen digitaler Transformation
33
Es lässt sich aber auch Kapital investieren, damit Unternehmungen und Vor-
haben finanziert werden. Investitionen leitet selbstverständlich die Erwar-
tungshaltung, dass sich das investierte Kapital mehrt.
Schließlich, als dritter Faktor, wirkt die manuelle Arbeit selbst. Durch eigene
Tätigkeiten entsteht Wert. Vorhandenes wird in Form gebracht, gewandelt,
nutzbar gemacht oder Neues wird geschaffen.
Das Vermögen einer Gesellschaft wächst, wenn diese drei Prinzipien sinnvoll
und ertragreich zur Anwendung gebracht werden. Gegenwärtig werden zu
den drei klassischen Faktoren noch weitere hinzuaddiert. Dabei kann es sich
beispielsweise um den Faktor Umwelt oder Wissen handeln. Was interes-
santerweise im gängigen Verständnis (noch) keinen Produktionsfaktor an
sich darstellt, wäre die Komponente der Informationstechnologie selbst. Als
Produktionsfaktor gilt dieser Auffassung nach beispielsweise die Program-
mierleistung, um einen funktionstüchtigen Algorithmus zu schaffen. Ein er-
weiterter Arbeitsbegriff müsste nun die maschinelle Arbeit so weit umgren-
zen, dass auch das autonome Wirken von Technologie als Arbeit an sich er-
kannt wird. Ein erweiterter Arbeitsbegriff löst sich faktisch von einer
menschlichen Komponente.
Ein anderer Zugang wäre, Kapital als wesentlichen Produktionsfaktor zu be-
rücksichtigen, wenn beispielsweise ein neues Rechenzentrum aufgebaut
wird. Auch dieser Zugang definiert Technologie nicht als Produktionsfaktor
an sich, sondern bewertet die Investitionen, die getätigt werden.
Im Hinblick auf die Produktionsfaktoren gilt für das Management die strate-
gische Aufgabe, sie in ertragreichem und gewinnträchtigem Umfang auf die
Produktion von Wert in einer Organisation anzuwenden. Bei der Informati-
onstechnologie gilt also die Frage, welche Prozesse durch ihren Einsatz effi-
zient beschleunigt, verbessert, mechanisiert oder entwickelt werden kön-
nen, um Wert zu schaffen.
Boden, Kapital und Arbeit bilden die klassischen drei Produktionsfaktoren,
die genutzt werden, damit Wert entsteht. Eine Schwierigkeit dieser Auffas-
sung liegt darin, dass sie Technologie nicht als eigenständigen Faktor er-
achtet, der selbstständig Wohlstand schafft.
Es lässt sich erkennen, wie schwierig sich gegenwärtig die Voraussetzungen
von Wertschöpfung beschreiben lassen, wenn der Faktor Technologie aus
der Gleichung kategorisch herausgenommen wird. Digitale Transformation
bezeichnet in Wahrheit genau das: Es wird die Produktivität erhöht, indem
der Produktionsfaktor Technologie gehoben wird. Insofern werden Organi-
Produktionsfaktoren
Digital Business – Konvergenzen digitaler Transformation
34
sationen und Unternehmen einen direkten Vorteil hinsichtlich erzielter Pro-
duktivität gegenüber der Konkurrenz erfahren, wenn sie diesen Faktor zu
heben verstehen und die Mitbewerber nicht.
Im klassischen Verständnis repräsentiert der Einsatz von Technologie vor al-
lem in Industriebetrieben eine Investitionsentscheidung. Welche Maschine
würde es erlauben, am profitträchtigsten zu produzieren oder Prozesse kos-
teneffizient zu automatisieren? Technologie transformiert sich zum strategi-
schen Investment.
Dazu kommt natürlich die Komponente der erbrachten Arbeit, die für den
Aufbau und den Betrieb von IT-Prozessen benötigt wird.
Was aber in der Gleichung fehlt, sind faktische Werte, die durch Algorithmen
selbstständig geschaffen werden. Damit verfassen sich die Fundamente der
Volkswirtschaft neu. Die Grundstruktur der Wertschöpfung reformiert sich.
Sie vollzieht einen Strukturwandel, der sich historisch und soziologisch als
Entwicklungsstufen der industriellen Revolution konzeptualisieren lässt.
2.4 Die Entwicklungsschritte der industriellen Revolu-
tion
Was neue Technologien zweifellos verantworten: Eine beschleunigte Inno-
vationsspirale bzw. Möglichkeiten der Kostenoptimierung und Produktivi-
tätssteigerungen aufgrund des Einsatzes von Technologie in Arbeitsabläu-
fen, die bisher davon ausgenommen waren.
Als Industriekapitalismus lässt sich, wie angedeutet, historisch die Epoche
abgrenzen, deren Wohlstand auf arbeitsteiliger, industrieller Produktion
gründet. Anders als in der Agrargesellschaft, einer Ära, in der Boden der be-
deutsamste Produktionsfaktor war, basiert die Industriegesellschaft ver-
mehrt auf dem Einsatz der Produktionsfaktoren Arbeit und Kapital. Die In-
dustriegesellschaft nutzt Technologie vorrangig dafür, um industrielle Pro-
duktionsverfahren zu automatisieren und zu optimieren.
Gerade manuelle Tätigkeiten in industriellen Fertigungsprozessen zeigen
oft einen hohen Grad an Präzision, Normierung, Standardisierung und sich
wiederholenden Mustern. Diese Eigenarten ermöglichten es in der jüngs-
ten Vergangenheit, manuelle Tätigkeit durch maschinelle Arbeit zu erset-
zen. Die empirische Erfahrung erlaubt es, auch zukünftige Entwicklungen
anderer Bereiche vorwegzunehmen.
Manuelle Tätigkeiten und
maschinelle Arbeit
Digital Business – Konvergenzen digitaler Transformation
35
Waren bisher mehrheitlich Berufe in Zusammenhang mit klassischen Ferti-
gungsprozessen vom Risiko der Automatisierung bedroht, zeigt sich mittler-
weile, dass auch die Tätigkeiten, die zur Administration und Organisation
dieser Prozesse notwendig sind, zunehmend technisiert werden. Es wird der
Fortschritt und die Vehemenz technologischer Entwicklung bewiesen. Admi-
nistrative Tätigkeiten werden schon seit einigen Jahrzehnten durch die
elektronische Datenverarbeitung unterstützt, um relevante Informationen
präziser und schneller zu sammeln, zu administrieren, zu analysieren und zu
kategorisieren. Von dieser Grundlage ausgehend, lässt sich nun ein anstei-
gendes Niveau weiterer Automatisierung antizipieren. Die erwartbaren
Durchbrüche hinsichtlich Künstlicher Intelligenz berechtigen zu dieser Er-
wartungshaltung.
Beide einstigen Entwicklungen, die zunehmende Automatisierung in Ferti-
gungsprozessen und der Einsatz der elektronischen Datenverarbeitung, wer-
den oft als die III. industrielle Revolution bezeichnet. Wie kommt es dazu?
Unter der industriellen Revolution wird jenes Phänomen verstanden, das
einsetzte, als die Dampfmaschine plötzlich gängige Produktionsverfahren
grundlegend zu ändern begann. Manuelle Tätigkeiten wurden nun durch die
Kraft des Wasserdampfs mechanisiert. Mit diesem Verfahren begann sym-
bolhaft das Industriezeitalter im ausgehenden 18. Jahrhundert. Das Grund-
prinzip, Wasserdampf zu nutzen, hat sich im Laufe der letzten Jahrhunderte
fundamental weiterentwickelt. Auch wenn zweifellos die Nachwirkungen
der industriellen Revolution fortwirken und die politischen und strukturellen
Begleiterscheinungen überdauern, lässt sich schlicht widerlegen, dass aktu-
ell noch immer vor allem Wasser- und Dampfkraft die wesentlichen Antriebe
der industriellen Prozesse sind.
Um die markanten Unterschiede zum Ausdruck zu bringen, wird die Abfolge
und Steigerung der industriellen Revolution zum Zweck des besseren Ver-
ständnisses in Epochen untergliedert, gemäß der evolutionären Technik, die
zum Einsatz kommt. Verfahren gewinnen stetig an Komplexität, Organisati-
onen an Produktivität. Die Übergänge zwischen den Zeitabschnitten sind
eindrücklich auszumachen, weil die Nützlichkeit gewisser Technologien aus-
gedient erscheint. Wer es versteht, bessere und fortschrittlichere Produkti-
onsprozesse sinnvoll zum Einsatz zu bringen, wird im Regelfall über die Fort-
entwicklung des Marktes entscheidend mitbestimmen. Folgende Untertei-
lung kann getroffen werden:
• Mit dem Prädikat I. industrielle Revolution wird jene Phase bezeichnet,
als Wasser- und Dampfkraft die Arbeitsprozesse organisierten.
Digital Business – Konvergenzen digitaler Transformation
36
• Die II. industrielle Revolution setzt mit der Elektrifizierung von Produk-
tionsstätten Ende des 19. Jahrhunderts an. In Folge werden beispiels-
weise die Arbeitsabläufe durch die Einführung des Fließbands organi-
siert.
• Die III. industrielle Revolution bedeutet schließlich, dass ab den
1980er-Jahren der Personal Computer zum Einsatz kommt und indust-
rielle Fertigung zunehmend automatisiert wird. In diesen Abschnitt
fällt auch die Zeitenwende, in der das World Wide Web erstmals online
geschaltet wird.
• Die IV. industrielle Revolution basiert, anders als die Entwicklungen da-
vor, auf einem Bündel technologischer Entwicklungen.
Abbildung 6: Entwicklungsschritte der industriellen Revolution26
Der Beginn der IV. industriellen Revolution wird durch einen Katalog neuer
Technologien initiiert. Es wirkt kein einzig entscheidendes Paradigma, son-
dern ein Fächer an unterschiedlichen Entwicklungen modernisiert die
Grundfesten industrieller Produktionsverfahren. Breite und Facettenreich-
tum der technologischen Neuheiten, die zukünftig Anwendung finden, ver-
sprechen eine tiefgreifende Erneuerung der Produktionslogik – und sind den
Umbrüchen und Konsequenzen der I. industriellen Revolution mindestens
ebenbürtig.
26 Eigene Grafik.
Digital Business – Konvergenzen digitaler Transformation
37
Bezüglich der entscheidenden Konsequenzen der industriellen Revolution
sei nochmals angemerkt, dass Fortschritt nicht nur der Produktivitätssteige-
rung zuträglich war, sondern soziale Implikationen verantwortete. Die Sub-
stanz des sozialen Zusammenlebens wurde verändert.
Wenn die Massivität des geschehenden Wandels verdeutlicht wird und in
Folge die umfassenden Konsequenzen ermessen werden, dann lässt sich
feststellen, dass sich kein gradueller Umbau der industriellen Revolution
vollzieht. Vielmehr geschieht eine Epochenwende, die Arbeitsprozesse, Fer-
tigungsverfahren und soziale Kräfteverhältnisse vollkommen neu gruppie-
ren wird. Organisationen sehen sich mit einem Zusammenwirken von exter-
nen Faktoren konfrontiert, auf die strategische Antworten gefunden werden
sollten. Die industriellen Mutationen, die gegenwärtig kollektiv zu beobach-
ten sind, erfordern es zumindest, Geschäftsmodelle radikal neu zu denken,
gehen aber weit darüber hinaus.
Vor allem auf dieser Grundlage lässt sich verstehen, warum sich für die Be-
schreibung des kommenden Zeitalters der Begriff Wissensgesellschaft bes-
ser eignet als der Ansatz, einfach eine nächste Stufe der industriellen Re-
volution erkennen zu wollen. Zu tiefgreifend und umfassend wirken die
anstehenden Transformationen.
Wissensgesellschaft
Digital Business – Konvergenzen digitaler Transformation
38
3 Konvergenzen digitaler Transformation
3.1 Konvergenz – eine Begriffsklärung
Die Wirkweise von Technologie muss neu überdacht werden. Diese Hypo-
these bedarf einer Begründung. Wie kommt es zu der Einschätzung? Worin
besteht die Veränderung? Welche Technologien verantworten die anste-
henden Transformationen? Darauf wird dieses Kapitel Antworten geben.
Das industrielle Zeitalter unterscheidet sich von den vorangegangenen Epo-
chen durch Produktionsverfahren, die es zum Einsatz brachte. Die Ära setzt
damit an, Wasserdampf zu instrumentalisieren. Zuerst wandelte sich die
Technik, dann kam es zu Folgereaktionen. Metropolen entstanden, weil
Landarbeiter in Städte zogen, um Arbeit zu suchen. Die Migrationsbewegun-
gen machten den Aufbau einer modernen öffentlichen Verwaltung nötig.
Politische Gruppierungen, die Mitsprache für Bürger forderten, erlebten Zu-
lauf. Im Zentrum der Auseinandersetzung stand nicht nur der Streitpunkt,
wie sich Produktionsgewinne gerecht verteilen lassen. Es ging ebenso um die
grundsätzliche Frage, wie sich ökonomisches Gewicht in realpolitische
Macht umsetzen lässt. Die neue Produktionsweise setzte nicht nur Dynami-
ken in Fertigungsprozessen frei, vielmehr restrukturierte sie die Grundlagen
des sozialen Zusammenlebens. Umfassende Möglichkeiten, gestaltend auf
die Gesellschaft einzuwirken, wurden gefordert.
Als die Wirkung von Wasserdampf für Fertigungsprozesse funktionalisiert
wurde, entstand ungewollt eine radikal andere Gegenwart. Das wirkt rück-
blickend durchaus erstaunlich und lässt für die gegenwärtigen Technologie-
trends merkliche Zäsuren erwarten. Ein ganzes Bündel an neuen Technolo-
gien birgt nämlich gerade das Potenzial gravierender Umbrüche. In Folge
werden die Bedeutung und Relevanz einiger Technologien bündig darge-
stellt. Es soll ein Eindruck entstehen, welche Trends bestimmend wirken und
was von der Zukunft tendenziell erwartet werden kann. Die digitale Mo-
derne nötigt zur Kompetenz in diesen Sektoren, hier entstehen vielverspre-
chende Wachstumsmärkte.
Der amerikanische Autor und Journalist Kevin Kelly hält demgemäß fest,
dass wir in Hinblick auf die Technologie gerade die Phase des Beginns vom
Beginn abschließen und nunmehr am Beginn stehen. Er meint:
Die letzten 30 Jahre haben einen wunderbaren Ausgangs-
punkt geschaffen, eine solide Plattform, um wirklich große
Dinge zu bauen. Aber was kommt, wird unterschiedlich
Digital Business – Konvergenzen digitaler Transformation
39
sein, jenseits und anders. Die Dinge, die wir machen wer-
den, werden ständig und unerbittlich zu etwas anderem
werden. Und das Coolste von allem ist noch nicht erfun-
den.27
Diese Feststellung gründet auf einer Potenzialabschätzung digitaler Trends,
die sich eng miteinander verwoben zeigen. Technologische Entwicklungen
agieren nicht autonom oder eigenständig, sondern Fortschritte interagieren
und wirken aufeinander. Folgende Faktoren wären diesbezüglich zu beden-
ken:
Abbildung 7: Digitale Trends & gesellschaftliche Implikationen28
Anfänglich erfolgten die jeweiligen Entwicklungen noch autonom und unab-
hängig voneinander, mittlerweile verlaufen sie eng verflochten und können
nicht mehr trennscharf begrenzt werden. Fortschritte in einem Bereich wir-
ken auch auf andere. Kommt es zu massiven Sprüngen in einem Sektor, wird
der Entwicklungsschritt auch Impulse für andere Zweige verursachen. Resul-
tat wird es jedenfalls sein, dass sämtliche Ausprägungen durch die Vernet-
zung mittels Internet eine ähnliche Allgegenwart bekommt wie die Elektrizi-
tät. Es wird permanent präsent sein, zum unmerklichen Bestandteil des All-
tags werden und als Verknüpfung zwischen den unscheinbarsten Gegen-
ständen wirken. Das gilt es zu konventionalisieren.
Entscheidend dabei wäre das Verständnis von technologischen Konvergen-
zen.
27 Kelly (2016), S. 20 – Übersetzung durch deepl.com.
28 Eigene Grafik.
Digital Business – Konvergenzen digitaler Transformation
40
Was bezeichnet dieser Begriff? Er meint das Verständnis, dass nun Techno-
logien miteinander verschmelzen, die sich ursprünglich unabhängig vonei-
nander entwickelt haben.
In erster Linie meint diese Erfahrung, dass gesellschaftliche Bereiche und
Märkte einer disruptiven Erfahrung ausgesetzt sind, weil technologische Lo-
giken und Lösungen verstärkt Anwendung finden.
Ein Beispiel wäre dafür das Gesundheitswesen: Hier verschmelzen Techno-
logie und das Gesundheitswesen zusehends, zwei davor getrennte Bereiche
konvergieren miteinander. Methoden werden verschränkt. Zum einen zeigt
sich die Nützlichkeit von gewissen Technologien erst dann, wenn sie einem
sachgemäßen Zweck zugeführt werden (die Technologie der Bilderkennung
findet einen angemessenen Verwendungszweck darin, die medizinische Di-
agnostik zu unterstützen). Zum anderen warten gewisse gesellschaftliche
Bereiche darauf, sich durch Technologie zu verbessern (die Kunst der Diag-
nostik gelingt dann besser, wenn sich Hilfe durch die entsprechenden Tech-
nologien wahrnehmen lässt). Ein weiteres, anschauliches Beispiel wäre dies-
bezüglich die Art und Weise, wie beispielsweise Mobilität organisiert wird.
Der Einsatz von Künstlicher Intelligenz eröffnet die perspektivische Möglich-
keit, autonomes Fahren zu erwirken – gleichermaßen gilt, dass höhere Si-
cherheit, die Verhinderung von Stehzeiten und besseres Ressourcenma-
nagement es verlangen, dass sich Automobile digitalisieren. Auch hier also
die Konvergenz zwischen zwei Bereichen – Verkehr und Technologie – aus-
gehend von zwei unterschiedlichen Enden.
Werden Konvergenzen realisiert, dann entstehen neue dominante Ge-
schäftsmodelle – es ändert sich also, wie Wertschöpfung in einem gewis-
sen Markt organisiert wird.
Das Phänomen der Konvergenz kam nicht mit der Entwicklung moderner
Technologien auf. Marktmechanismen, die verstärkt miteinander ver-
schmelzen – dieses Phänomen ist der Entwicklung der modernen Marktwirt-
schaft und arbeitsteiligen Gesellschaft durchaus immanent. Ein illustratives
und zeitgemäßes Beispiel dafür wäre die zunehmende Finanzialisierung der
Wirtschaft.29 Darunter lässt sich verstehen, dass unterschiedliche Märkte
heute den Ertragsmodellen von Finanzinstitutionen folgen, obwohl sie fak-
tisch in ganz anderen Bereichen operieren: Der amerikanische Automobil-
hersteller Ford macht dementsprechend rund ein Drittel seines operativen
Gewinns aufgrund von Leasingmodellen, die von Ford selbst angeboten wer-
den. Die Ertragssituation eines Automobilherstellers hängt also wesentlich
29 Vgl. Mazzucato (2019), Kindle.
Konvergenz
Digital Business – Konvergenzen digitaler Transformation
41
auch von der Popularität angebotener Finanzinstrumente ab, die als inter-
nalisierte Dienstleistungen angeboten werden.30
Die Veränderung unterschiedlicher Märkte durch Technologien hingegen
bildet aber deshalb einen fundamentalen Paradigmenwechsel, weil es sich
eben nicht nur um eine strategische Erweiterung des Geschäftsmodells han-
delt oder um die Durchdringung einer dominanten Ertragslogik auch auf an-
dere Bereiche hin, wie es bei der Finanzialisierung geschieht. Vielmehr han-
delt es sich um eine so tiefgreifende Veränderung kommunikativer, ökono-
mischer und sozialer Logiken, dass sie nur vor dem Hintergrund der Dynami-
ken einer eigenen industriellen Revolution erfasst werden kann. Das zeigt
sich auch darin, dass allein das Phänomen der Konvergenz in diesem Zusam-
menhang mit doppelten Bezügen gedacht werden kann. Zum einen also die
feststellbare Beobachtung, dass Technologien zusehends in analoge Zusam-
menhänge und Märkte vordringen.
In zweiter Linie bedeutet Konvergenz im Zusammenspiel mit digitalen Tech-
nologien auch, dass nun technologische Entwicklungen verstärkt zusam-
menwirken, die ursprünglich unabhängige Forschungsfelder bildeten. Der
vermehrte Einsatz von Robotics in Produktionsverfahren lässt sich nur des-
halb realisieren, weil im Bereich zur Forschung an Künstlicher Intelligenz
markante Fortschritte erzielt wurden. Nun ergänzen und verweben sich die
beiden Bereiche zunehmend und profitieren von gegenseitigen Fortschrit-
ten.
Wenn also nachfolgend die Wirkweise einzelner Technologien erklärt wird,
dann braucht es im Hintergrund ein Bewusstsein davon, dass diese zwar in
der Erklärung denkbar strikt und sauber voneinander getrennt werden kön-
nen, in der erfahrbaren Wahrnehmung sich aber zunehmend Verschmelzun-
gen verwirklichen – sich Konvergenzen bilden, die den Fortschritt beschleu-
nigen.
Was wären also zehn maßgebliche technologische Trends, die der mittelfris-
tigen Zukunft Gestalt geben werden? Eine Annäherung daran liefern die
nachfolgenden Unterkapitel.
30 Vgl. Schmalz/Bram (2020), Kindle.
Neue Technologien –
Übungen finden Sie auf Ih-
rer Lernplattform.
Digital Business – Konvergenzen digitaler Transformation
42
3.2 Internet der Dinge – Internet of Things (IoT)
Das Internet der Dinge markiert den markanten Entwicklungsschritt, der be-
deutet, dass Gegenstände, Geräte und Maschinen miteinander eigenständig
zusammenarbeiten und durch Informationstechnik selbstständig kommuni-
zieren können. Es lässt sich folgendermaßen denken: Durch das Internet der
Dinge emanzipiert sich das Internet vom Computer. Es wird zur integrativen
Funktion von Alltagsgegenständen und Maschinen.
Die vernetzten Systeme, die das Internet der Dinge konstituieren, werden
Produktionsverfahren und alltägliche Abläufe optimieren. Es hebt die Aus-
gestaltung und Intensität der Automatisierung auf eine neue Ebene.
Der Aufbau von Fertigungsprozessen verlangt in Folge nicht mehr nach ad-
ministrativer Kontrolle in jetziger Form, sondern entfaltet sich unter der Be-
dingung einer kollektiven Rückkoppelung der involvierten Gegenstände
selbst. Physische und virtuelle Gegenstände werden miteinander vernetzt,
durch einheitliche Kommunikationstechniken werden sie eigenständig zu-
sammenarbeiten. Es entsteht eine globale Infrastruktur der vernetzten In-
formationsgesellschaft, die physische Gegenstände und Virtualität zusam-
menführt.
Das Internet der Dinge eignet sich auch dafür, um zwei generelle Entwick-
lungen umfassender zu beschreiben, die klarerweise nicht auf das Internet
der Dinge beschränkt sind, aber hier anschaulich nachvollzogen werden kön-
nen: Der erste Bezug, der sich darstellen lässt, wäre der Sachverhalt, warum
Entwicklungen wie das Internet der Dinge als Technologien dritter Ordnung
definiert werden können.
Der zweite Bezug bildet sich darin ab, wie nun das traditionelle Verständnis
betriebswirtschaftlicher Handlungsmaximen herausgefordert wird.
Zum ersten Kontext: Warum ist das Internet der Dinge eine Technologie
dritter Ordnung und was bedeutet das? Der in Oxford lehrende Philosoph
Luciano Floridi entwickelte und popularisierte das Konzept, dass sich der
Fortschritt von Technologien anhand von drei Ordnungen nachzeichnen
lässt.31
Eine Technologie erster Ordnung würde dann genutzt werden, wenn fak-
tisch das Verhältnis zwischen Menschen und der Natur durch Technologie
neu beschaffen wird. Als Beispiel bietet sich ein Pflug an. Denn durch die
Nutzung dieses Geräts entsteht ein wirksamer Zusammenhang: Erde – Pflug
31 Vgl. Floridi (2014), S. 50.
Digital Business – Konvergenzen digitaler Transformation
43
– Mensch. Das lässt sich abstrahieren zu: Natur – Technologie – Mensch.
Eine Technologie erster Ordnung würde sich also zwischen Menschen und
Natur schieben, um die Umwelt besser zu bearbeiten. Ein anderes Werkzeug
als der Pflug wäre diesbezüglich die Axt: Baum – Axt – Mensch. Abstrahiert
zeigt sich aber die gleiche Logik wie davor: Natur – Technologie – Mensch.
Die Technologie wird dem ursprünglich direkten Verhältnis zwischen Men-
schen und der Natur zwischengeschaltet.
Eine Technologie zweiter Ordnung wäre hingegen ein wesentlicher Sprung.
Es handelt sich dabei nicht um Technologie, die den Menschen mit der Natur
in Konnex setzt, sondern mit anderen Technologien in Verbindung bringt. Als
ein bewusst nicht digitales Beispiel kann diesbezüglich ein Schraubenzieher
dienen, um den Sachverhalt darzustellen. Ein Schraubenzieher schafft die
Verbindung zwischen Menschen und einer anderen Technologie – der
Schraube. Um es also darzustellen, wie die Beziehungen wirken, sei folgende
Reihenfolge erwähnt: Mensch – Schraubenzieher – Schraube. Abstrahiert
gedacht: Mensch – Technologie – Technologie. In dem Sinne wird plötzlich
eine Technologie zum Zugangstor für eine andere Technologie. Eine Compu-
termaus wäre diesbezüglich ein anderes Beispiel: Sie ermöglicht es, Be-
triebssysteme zu nutzen, was das Zusammenspiel aus Mensch – Computer-
maus – Betriebssystem ergibt, worin sich die Logik von Mensch – Technolo-
gie – Technologie spiegelt. Den ähnlichen Zweck erfüllt ein konventioneller
Thermostat in der eigenen Wohnung. Er dient Menschen dazu, die Heizung
zu steuern, was zur Struktur führt: Mensch – Thermostat – Heizung bzw.
Mensch – Technologie – Technologie.
Eine Technologie dritter Ordnung wäre nun ein geschlossener Kreislauf, der
sich rein technologisch organisiert: Technologie – Technologie – Technolo-
gie. Was meint das nun? Denken wir an ein Smart Home, das oft als anschau-
liches Beispiel für das Internet der Dinge genannt wird. Ein mit dem Internet
verbundenes Temperaturmessgerät erklärt dem Thermostat, dass ein kriti-
scher Schwellenwert hinsichtlich der Innentemperatur unterschritten
wurde, woraufhin der Thermostat selbstständig veranlasst, dass die Heizung
aktiviert wird: Technologie – Technologie – Technologie. Für das Internet der
Dinge bedeutet das beispielsweise, dass für die Herstellung eines Gutes zu-
erst ein digitaler Zwilling entwickelt wird – ein digitales Replikat eines herzu-
stellenden Gutes –, der dann über digitale Protokolle an den Maschinenpark
kommuniziert wird, bevor die selbstständig agierenden Maschinen im letz-
ten Schritt sich so adjustieren und arbeiten, dass das Produkt exakt produ-
ziert wird: Technologie – Technologie – Technologie. Der Mensch bewohnt
eine Infosphäre, die von selbststeuernden Maschinen organisiert und struk-
turiert wird. In einem Smart Home verbindet sich also die Technologie zu
Digital Business – Konvergenzen digitaler Transformation
44
einer autonom wirkenden Infrastruktur, einer Infosphäre, die schlicht vom
Menschen bewohnt wird.
Abbildung 8: Die 3 Ordnungen von Technologie
In Deutschland werden die praktische Umsetzung sowie die konkrete Imple-
mentierung des Internets der Dinge, wie bereits dargestellt, auch vielfältig
unter dem Begriff der Industrie 4.0 abgewickelt. Dabei gilt es zu bemerken,
dass Industrie 4.0 vor allem auf Produktionsabläufe im industriellen Sektor
zielt – wie der Name schon andeutet. Das Internet der Dinge reicht darüber
hinaus und erfasst essenziell auch Gegenstände des privaten Gebrauchs. Es
zeigt sich umfassender.
Der Ursprung der Technologie liegt jedenfalls im Bereich der Logistik. Vor
allem dort werden große Erfolgspotenziale für die Lösungen erkannt und ge-
nau hier zeigen sich auch die Potenziale der Technologien dritter Ordnung:
Selbstdenkende Lagerverwaltung – Lagerroboter – autonom fahrende Last-
wagen bzw. Technologie – Technologie – Technologie. Jeder einzelne Aspekt
wird auch dann erst seine Zweckmäßigkeit erreichen, wenn er in das Netz-
werk eingebettet ist.
Korrespondieren einzelne Gegenstände miteinander, dann entwickeln sich
im Endeffekt Systeme und Prozessabläufe mit kollektivem Informationsfluss,
mit Lieferketten und Prozessschritten, die gegenseitig ein einheitliches und
kongruentes System formen. Sie agieren vollkommen selbstständig und mit-
tels dauernder Berichterstattung, ohne dass es menschliches Bewusstsein
als Organisationsinstanz bräuchte. Der Informationsfluss, der entsteht, er-
Digital Business – Konvergenzen digitaler Transformation
45
laubt es, absehbare Engpässe auszugleichen, Fehler zu vermindern, Kon-
trollaufgaben und Qualitätssicherung zu mechanisieren, fortlaufende Sta-
tusupdates zu gewinnen und auf relevante Veränderungen in der Umwelt
unmittelbar zu reagieren.
Der zweite Bezug, der sich hier ankündigt, wäre folgender: Erst die industri-
elle Massenproduktion hat moderne Massenmärkte geschaffen und aktuelle
Konsummuster ermöglicht. Vor dem Hintergrund dessen, dass industrielle
Produktion vor allem gleichförmige Güter produziert, weil Produktionsstra-
ßen sich nur schwer adaptieren lassen, entstehen faktische Einheitspro-
dukte in großer Zahl (die können dann leicht variieren, beispielsweise die
Bezüge von Autosesseln, aber in der Form muss die Produktion einheitlich
geschehen). Klassischerweise gilt die Logik, wenn sich Produktionsmechanis-
men nicht standardisieren lassen, dann senken sich die Grenzkosten nicht
(Grenzkosten sind anfallende Kosten, die für jedes weitere produzierte Stück
entstehen). Ohne diese Standardisierung lassen sich keine Skaleneffekte
verwirklichen. Die Industriegesellschaft in ihrer bisherigen Form erlaubte es,
entweder uniforme Güter massenweise zu produzieren oder Einzelanferti-
gungen manuell herzustellen. Durch das Internet der Dinge wird diese Dua-
lität nun aufgehoben: Automatisierte Maschinenparks erlauben agile Pro-
duktion, was dahinführt, dass sich nunmehr Einzelstücke industriell fertigen
lassen und sich trotzdem Grenzkosten mindern.32
Das hat Auswirkungen auf entscheidende betriebswirtschaftliche Konzepte:
Bisher war für massenweise hergestellte Produkte die konsekutive Linearität
eines Produktlebenszyklus entscheidend, an dem sich Marketingentschei-
dungen zu orientieren hatten. Chronologisch durchlief ein Produkt unter-
schiedliche Marktphasen und damit waren unterschiedliche Ertragsszena-
rien verbunden: Einführung (Verlust) – Wachstumsphase (Break-even-Point
und wachsende Gewinne) – Reife (stagnierende Gewinne auf hohem Ni-
veau) – Sättigung (fallende Gewinne) – Degeneration (Verluste).
Dieser Zusammenhang erscheint nur konsequent bei einheitlicher Produk-
tion durch industrielle Fertigungsmethoden und der parallelen Entwicklung
von Massenmärkten.
Wenn aber nun individuelle Produkte industriell gefertigt werden können,
dann hat die Struktur eines Produktlebenszyklus ausgedient. Damit ändern
sich Paradigmen. Management und Marketing werden radikal anders ge-
dacht werden müssen. Die klassischen Vorstellungen von Produktpolitik
32 Vgl. Unger (2019), S. 23 f.
Digital Business – Konvergenzen digitaler Transformation
46
überholen sich. Die Zyklen verabschieden sich, wenn nun exakt den indivi-
duellen Bedürfnissen entsprechend produziert wird, und auch die Struktur
der Massenmärkte in ihrer bisher bekannten Form überholt sich.
Das Internet der Dinge würde also eine globale Infrastruktur für eine mehr-
dimensional vernetzte Gesellschaft formen, die auf Grundlage eines perma-
nenten Informationsaustausches zwischen Geräten, Vehikeln, Gegenstän-
den und Maschinen operiert. Selbstverständlich trägt gerade auch die Ent-
wicklung in Hinblick auf moderne Roboter und Künstliche Intelligenz wesent-
lich dazu bei, welche Zukunft das IoT erwarten wird.
3.3 3D-Druck
Eine prägnante Definition dessen, was 3D-Druck eigentlich ist, lautet
schlicht: Es handelt sich um ein Verfahren, das ganze Objekte ausdrucken
lässt.
Indem Schicht um Schicht eines gewissen Materials durch die Präzisionsar-
beit eines Druckers übereinandergelegt wird, lassen sich Gegenstände aller
erdenklichen Form und unterschiedlicher Größenordnung anfertigen. Aus
diesem Grund wird die Technologie des 3D-Drucks manchmal mit dem Sy-
nonym „additive Fertigung“ bezeichnet.
Unter diesen Voraussetzungen ändern sich manche Vorzeichen industrieller
Produktion. Standardabweichungen lassen sich viel unkomplizierter anferti-
gen, individuelle Maßgaben unkomplizierter berücksichtigen. Auch wenn es
keinen Sinn macht, durch das 3D-Druck-Verfahren alle herkömmlichen Fer-
tigungsweisen zu revolutionieren, zeigt es bereits in manchen Sektoren
merkliche Vorteile. Vor allem verkürzt sich die Zeit zwischen der Konzipie-
rung eines Gegenstands und seiner Herstellung eklatant – und auch die ent-
sprechenden Kosten sinken. Die Rolle und Funktion der Prototypisierung
wird sich radikal erneuern, Zeitaufwände sich radikal verdichten.
Etwa im medizinischen Bereich, wo passgenaue und individualisierte Anfer-
tigungen im Gesundheitsbereich benötigt werden, verspricht der 3D-Druck,
im Vergleich zu den bisher angefertigten Prothesen, Ersatzorganen oder ein-
fachen Zahnkronen, kostengünstige, zeitschnelle und passgenaue Alternati-
ven zu liefern.
Einen anderen Nutzen des Verfahrens erarbeitet das russisch-amerikanische
Start-up Apis Cor. Es forscht daran, den 3D-Druck für das Baugewerbe um-
zusetzen. Das Unternehmen hat im Jahr 2017 ein ganzes Haus durch 3D-
Internet der Dinge
Digital Business – Konvergenzen digitaler Transformation
47
Druck errichtet. Das fertige Gebäude misst knapp 40 Quadratmeter. Die Bau-
kosten beliefen sich auf ungefähr 10.000 $. Die gesamte Bauzeit betrug we-
niger als 24 Stunden. Der Bauprozess verlangte keinen einzigen manuellen
Handgriff und verursachte überdies keine CO2-Emissionen. Das ist vor allem
auch deshalb entscheidend, weil nach begründeten Schätzungen die Hälfte
der Emissionen und des Energiebedarfs eines Gebäudes alleine während der
Bauzeit und durch die Herstellung der benötigten Materialien entstehen. Die
gesamte Nutzungsdauer danach verursacht die zweite Hälfte.
In diesem Konnex erscheint es relevant, auch darüber nachzudenken, dass
die Zukunft in vielerlei Hinsicht andere Rohmaterialien nutzen wird, als es in
der Gegenwart der Fall ist. Der Umgang mit begrenzten Rohstoffen nötigt zu
neuen Denkansätzen. Auch verlangt es Produktionsverfahren, die endlich
weniger CO2 mehr ausstoßen, um den Klimawandel einzudämmen – gerade
in dieser Hinsicht liegt auf dem 3D-Druck große Erwartung.
3.4 Speicher für alle
Gerade auch in Hinblick auf das Internet der Dinge wartet eine weitere Zä-
sur: Die Menge an gespeicherten Daten wird exorbitant anwachsen und
auch die Relation bezüglich der Urheber wird sich ändern. Lange wurde die
größte Menge an Daten von privaten Nutzern generiert, die dann ausgewer-
tet wurden. Nunmehr werden es Unternehmen sein, die für die meisten Da-
ten verantwortlich zeichnen. Mehr Information seitens der Unternehmen
selbst führt zu agilerer Adaption, marktwirtschaftliche Entwicklungen wer-
den sich beschleunigen. Der Befund gilt vor allem auch in Verbindung mit
der Ausbreitung des Internets der Dinge. Die generierte Datenmenge steigt
simultan zur Anzahl an Objekten, die mit dem Internet verbunden sind. Also
finden faktisch zwei Transformationen statt: Nicht der Mensch, sondern Ge-
genstände werden zukünftig die meisten Daten generieren. Nicht im priva-
ten, sondern im professionellen Umfeld wird die Mehrheit davon gewonnen.
Vernetzte Geräte werden vermehrt zum Bestandteil des Alltags und doku-
mentieren diesen durch Datenspeicherung. Bereiche, die bisher analog voll-
zogen wurden, transformieren sich aktiv zu Ressourcen für neue Datenquel-
len. Gerade auch der Einbau von Sensoren in Gegenständen lässt die Grö-
ßenordnung gespeicherter Daten massiv ansteigen.
Damit wächst auch der Bedarf an Speicherkapazitäten und fortschrittlichen
Speicherlösungen. Speziell die Fortschritte bei Cloud-Lösungen zeigen mas-
sives Geschäftspotenzial und verlangen perspektivisch womöglich eine ei-
Digital Business – Konvergenzen digitaler Transformation
48
genständige europäische Infrastruktur, um Standards im Datenschutz garan-
tieren zu können. Das alles initiiert eine Gesellschaft, die winzige Details
scheinbar bedeutungsloser Vorgänge dokumentiert. Es handelt sich um eine
Gesellschaft, die auf technologischen Grundlagen ein vollkommenes Ge-
dächtnis schafft und sich selbst lückenlos und umfassend dokumentiert. Nur
verlangt diese unbekannte Quantität an Information auch nach einer neuen
Qualität an Analyse – die kognitiven Fähigkeiten des Menschen allein genü-
gen nicht. Dieses Mehr an Wissen, das über die Wirklichkeit produziert wird,
bedingt neue Erkenntnismethoden. Desperat gesammelte Daten machen
erst dann Sinn, wenn sie vernünftig mit anderen Informationen verbunden
werden können. Erst die Analyse mittels neuer Technologien führt also zur
Erkenntnis.
Entscheidend wäre es, nicht nur den technologischen Fortschritt zu bemer-
ken, sondern das Zusammenwirken aus technologischer Entwicklung und
ökonomischer Logik zusammenzudenken. Weil sich die Speichertechnologie
signifikant verbessert hat, wurde es entschieden günstiger, vorhandene
Speicherkapazitäten aufzubauen und zu nutzen.
Um die Dimension in Relation zu setzen, seien folgende Kennziffern ange-
führt: Alleine zwischen 2010 und 2012 haben sich die Kosten für die Spei-
cherung von Daten um den Faktor fünf gesenkt und eine ökonomische Ge-
setzmäßigkeit besagt, dass, wenn eine Sache so markant billiger wird, die
Nachfrage danach ebenso markant steigt bzw. kontinuierlich weiterwächst,
solange diese vorteilhafte Preisstruktur fortexistiert.33
Daten werden also deshalb in der Quantität gesammelt, wie das gegenwär-
tig geschieht, weil damit faktisch kaum Kosten verbunden sind. Das erlaubt
auch, viele zuerst mal unnütz erscheinende Daten zu speichern. Das wäre
klarerweise radikal anders, wenn dafür faktische Kosten entstünden – dann
würde der Ressourceneinsatz gegenteilig und umsichtig bewertet werden.
Der beschriebene Trend der Kostensenkung für Datenarchivierung wird an-
halten und damit auch die Konsequenz fortdauern, dass Daten in allen Be-
zügen umfassend archiviert werden.
33 Vgl. Schmalz/Bram (2020), Kindle.
Digital Business – Konvergenzen digitaler Transformation
49
Abbildung 9: Kosten für Datenspeicherung34
Die Konvergenzen, die also auch nachfolgend bezüglich Big Data und Künst-
licher Intelligenz bedacht werden müssen, lassen sich vor exakt diesem Hin-
tergrund verstehen.
3.5 Big Data
Big Data bezeichnet voluminöse Datenmengen, die in unterschiedlichen
Kontexten gesammelt, gespeichert und dokumentiert werden. Dabei gilt es,
den Sachverhalt zu berücksichtigen, dass sich laut Schätzung das Ausmaß
des gespeicherten und dokumentierten Datenvolumens alle zwei Jahre ver-
doppelt.35 Allein im Jahr 2017 soll eine derart hohe Quantität an Informati-
onen gesammelt und abgelegt worden sein, wie im Verlauf der insgesamt
5.000 Jahre Zivilisationsgeschichte davor.
Ab welcher Größenordnung lässt sich von Big Data sprechen? Wenn übliche
Verfahren der Datenverarbeitung nicht mehr für die Analyse ausreichen,
weil die Datenmenge schlicht zu groß oder unstrukturiert wäre. Das ist ein
entscheidendes Definitionsmerkmal. Es sind also sowohl unterschiedliche
wie auch umfassende Daten vorhanden, die mittels Algorithmen nach Er-
kenntnissen durchforstet werden. Durch algorithmengetriebene Kombina-
torik entstehen bei Big Data neue Einsichten und unvermutete Erkenntnisse.
Unentdeckte Zusammenhänge werden kenntlich gemacht. Die methodische
34 Vgl. ebd.
35 Vgl. Jüngling (2013), URL.
Digital Business – Konvergenzen digitaler Transformation
50
Vorgehensweise erlaubt beispielsweise komplexe soziale, physikalische, me-
teorologische, ökonomische, medizinische und politische Phänomene zu
analysieren, zu systematisieren, zu gruppieren und zu antizipieren.
Die Marktforschung von Unternehmen kann mittels dieses Erkenntniswegs
existierendes Kaufverhalten besser nachvollziehen und teils vorhersagen so-
wie auf vorhandene Konsumentenwünsche vortrefflich und vorausschauend
reagieren. Sollen durch Datenanalysen vor allem Trends vorhergesagt wer-
den, wird von Predictive Analytics gesprochen.
Auch verändert sich der Wertbestand von Unternehmen. Daten, die Unter-
nehmen schaffen, erzeugen wertvolle Ressourcen. Zu wenigen scheint das
bewusst. Wer immer es versteht, diese zu nutzen oder zu veräußern, er-
schließt für Organisationen Entwicklungsmöglichkeiten und Einkommens-
quellen.
Big Data lässt sich folglich als Mechanismus reflektieren, der tiefgreifendes
Wissen über gesellschaftliche Vorgänge befördert. Es bildet die Aufgabe von
Unternehmen, intelligente Erkenntnisse über Kundenbedürfnisse, die in Da-
ten kodiert sind, zu extrahieren, um dieses Verständnis für den eigenen Er-
folg zu nutzen. Die Informationsgrundlagen bei Investitionsentscheidungen
ändern sich fundamental, wenn Kundenwünsche anhand statistischer Präzi-
sion vorausgesagt und qualifiziert werden. Die prognostischen Fähigkeiten
unserer Gesellschaft werden wachsen.
Information selbst wird zum Produkt. Sie wandelt sich vom Beiwerk zur
wertvollen Ressource, die zunehmend kapitalisiert wird. Ein Wesensele-
ment, das der Markt immanent herstellt, gewinnt an signifikanter Relevanz.
In diesem Zusammenhang treten vor allem auch Fragen auf, welche Daten
öffentlich zugänglich gemacht werden und welche sich ausschließlich im Be-
sitz von Unternehmen finden sollen. Gerade im Umgang mit den sogenann-
ten GAFAs (GAFA wäre das Akronym für Google, Apple, Facebook, Amazon)
scheint es entscheidend, wie die breite Öffentlichkeit von deren Datenreich-
tum profitieren kann. Wie bereits angemerkt, könnten diese Unternehmen
durch eine neue Form der Datensteuer zur Preisgabe manch ihrer Ressour-
cen gezwungen werden. Auch in Hinblick auf die Entstehung neuer Unter-
nehmen, Standortvorteile für Start-ups und bessere Innovation scheint diese
rechtliche Regelung entscheidend. Wie lassen sich Daten fair aufteilen, ad-
ministrieren, besteuern?
Der italienische Internet-Pionier Stefano Quintarelli spricht in diesem Zu-
sammenhang von der Etablierung einer Info-Plutokratie, die einen Klassen-
Big Data
Digital Business – Konvergenzen digitaler Transformation
51
kampf der Zukunft strukturieren wird.36 Plutokratie meint als politisch-theo-
retischer Begriff eine Organisationsform, bei der die Reichen die Herrschaft
ausüben. Das droht auf Basis der gegenwärtigen Organisationsform der Da-
tenökonomie, wo faktisch Daten entscheidende Ressourcen repräsentieren.
Die bekannte Frage, wenn es zum Thema der Rohstoffe kommt, tritt in aktu-
eller Vehemenz wieder auf. Vor allem für die Datensouveränität von Bürgern
scheint dies entscheidend. Weiters verlangt es nach verständlicher Transpa-
renz, wie Algorithmen kalkulieren, die zur Datenauswertung herangezogen
werden. Wie funktioniert beispielsweise die Beurteilung individueller Kredit-
würdigkeit? Die Einstufung von Versicherungen? Über bedeutsame Ent-
scheidungen wie diese gilt es, volle Nachvollziehbarkeit zu erhalten. Nur
durch Transparenz und Verständnis lassen sich sowohl menschliche Einfluss-
möglichkeiten garantieren als auch Akzeptanz für einen humanen Fortschritt
schaffen.
Mit den Fragen: „Wer darf Daten nutzen? Wem gehören Daten?“ sind also
verschiedene Perspektiven verbunden. Oftmals konzentriert sich die Frage
bezüglich Big Data darauf, wie Datenbestände sinnvoll analysiert werden
dürfen. Das ist selbstverständlich sehr wichtig. Relevant wirkt aber auch die
Frage, wem Daten eigentlich gehören.
Im geopolitischen Umfeld scheinen sich darauf gerade drei konkurrierende
Antworten zu finden. Salopp kategorisiert: eine amerikanische Antwort, eine
chinesische Antwort und eine europäische Antwort.
Die amerikanische Praxis würde besagen, Daten gehören jenen Unterneh-
men, die diese Daten sammeln.
Die chinesische Praxis würde besagen, Daten gehören dem Staat und sind
den Zwecken der höheren Politikentscheidungen und offiziellen Autoritäten
kollektiv anheimzustellen.
Die europäische Logik würde besagen, Daten gehören dem Individuum. Sie
sind mit jener Person verbunden, von der sie erzeugt werden.
Der Philosoph Luciano Florid führt das grundlegende Verständnis aus, wel-
ches der europäischen Praxis zugrunde liegt: Die Bezeichnung „meine Da-
ten“ wäre zu denken wie „meine Augen“ – und nicht wie „meine Schuhe“.
Das Possessivpronomen „meine“ drückt in Bezug auf Daten eine innige Ver-
hältnismäßigkeit aus, eine im Wortsinne von Eigenheit und Zugehörigkeit,
die immanent und unauflöslich mit der Person ist. In einer virtuellen Welt ist
36 Vgl. Quintarelli (2019), Kindle.
Digital Business – Konvergenzen digitaler Transformation
52
das faktisch als Einheit zu konzipieren, Daten und ein Individuum. Wenn also
„meine Daten“ gesagt wird, dann handelt es sich damit nicht um ein Besitz-
verhältnis wie gegenüber „meinem Auto“, sondern um ein so konstitutives
Element der eigenen Existenz wie bei der Formulierung zum Ausdruck
kommt: „Das ist meine Nase.“37
Wenn das die Prämisse ist, auf der nachfolgende Praktiken aufbauen, dann
entstehen andere gesellschaftliche Erwartungshaltungen, kommerzielle
Verfahren, Marktmechanismen, Regularien und gesellschaftliche Umgangs-
weisen, als wenn der Ausgangspunkt darin liegt, dass Daten Waren sind oder
kodierte Informationsmaterialien über eine zentralistisch organisierte Ge-
sellschaft.
Das hat selbstverständlich auch wesentliche Implikationen für die Struktur
und Essenz von Geschäftsmodellen. Wenn die Geschäftspraktik von Face-
book darin besteht, persönliche Daten auszuwerten, die legal dem Unter-
nehmen gehören, um entsprechende Werbebotschaften zu platzieren, dann
ist das nur vor dem Hintergrund einer in Recht gegossenen Entscheidung
darüber möglich, wem die Daten gehören. In dem Fall Facebook. Nun, je
nachdem ob diese Rahmengesetzgebung noch weiter ausgedehnt oder ein-
geschränkt wird und ob die Rolle von persönlichen Daten zukünftig anders
interpretiert wird, entwickeln sich entsprechend auch die Ertragsaussichten
dieses Konzerns. Da handelt es sich um politische und nicht um technologi-
sche Entscheidungen, die getroffen werden – nicht ohne Grund ist Google
heute der Konzern mit den höchsten Ausgaben für Lobbying in Washington
D.C.
Die Schwierigkeit zeigt sich bei sozialen Medien und Suchmaschinen bereits
sehr eindrücklich, birgt aber auch eindrückliche Perspektiven für den Bereich
von Digital Health – der Zukunft des Gesundheitswesens. Hier betrifft es alle.
Entsprechend der politischen Einschätzung, was als legitime Praktik bezüg-
lich Datenmanagement erachtet werden kann und was nicht, werden die
Rahmengesetzgebungen geschaffen und die korrespondierenden Geschäfts-
modelle bzw. -praktiken entstehen. Rund um genuine Gesundheitsdaten
zeigt sich vehement, wie akut sich diese Fragestellung aufdrängt: Wer darf
über Krankheiten anhand von Datenmustern Bescheid wissen? Wem gehö-
ren die entsprechenden Daten? Sollen Daten wie diese kommerziell verwer-
tet werden? Ist es ethisch geboten, anhand von Datenmustern zu lernen, um
präventiv Krankheiten zu begegnen? Wer darf entscheiden, mit wem Daten
37 Vgl. Floridi (2020), Kindle.
Digital Business – Konvergenzen digitaler Transformation
53
geteilt werden? Geschieht das anonymisiert? Wer hebt die Daten ein? Wo
setzen Veräußerungsrechte an?
3.6 Künstliche Intelligenz (KI) – Artificial Intelligence
(AI)
Um das Wesen von Künstlicher Intelligenz zu verstehen, eignet es sich an-
fänglich, in Erinnerung zu rufen, was Intelligenz grundlegend bedeutet. Das
Wort kommt aus dem Lateinischen und meinte anfänglich nichts anderes als
verstehen und bezeichnet die Fähigkeit, auswählen zu können.
Künstliche Intelligenz meint nun die Automatisierung dieser Eigenschaften.
Es ist jenes Teilgebiet der Informatik, das sich mit der Automatisierung intel-
ligenten Verhaltens beschäftigt. Doch wirkt der Begriff so wenig abgrenzbar
wie die Bedeutung des Wortes Intelligenz selbst. Bessere Rechenleistungen
ermöglichen es, eine Vielzahl an Informationen zu verarbeiten, bevor eine
der vorhandenen Möglichkeiten gewählt wird. Es handelt sich also um eine
automatisierte Wesensart von Intelligenz, die ohne menschliches Bewusst-
sein agieren kann. Dieser Entwicklungsschritt erlaubt es, dass intellektuelle
Denkprozesse mechanisiert durchgeführt werden können, die bisher manu-
ell bewerkstelligt werden mussten. Die Folgewirkungen erscheinen vielsei-
tig, weil sich die Technologie unterschiedlich anwenden lässt. Sie bildet vor
allem einen Mechanismus, um bei umfassenden Big-Data-Mengen Korrela-
tionen zu entdecken. Algorithmen analysieren einen Datenpool, um ein-
sichtsvolle Korrelationen zu entdecken. Mittels Künstlicher Intelligenz soll es
dann beispielsweise möglich werden, dass sich Computerprogramme durch
gespeicherte Krankenakten scannen und eigenständig Diagnosen stellen.
Gerade bei der Früherkennung von Krebserkrankungen kann diese Fähigkeit
lebensrettend sein. Durch Künstliche Intelligenz werden Computerpro-
gramme die Regelwerke von Sprachen verstehen und den Sinn von Aussagen
begreifen lernen. Künstliche Intelligenz bildet die Grundlage autonomen
Fahrens, indem ein Prozessor permanent Entscheidungen aufgrund sensori-
scher Daten aus der Umwelt trifft. Es soll möglich sein, dass sich Technologie
autonom fortentwickelt, also die Prinzipien eigenständigen Lernens begreift.
Computerprogramme treffen dann nicht nur Entscheidungen, sondern sie
trainieren auch eigenständig, wie sie zu den objektiv besten Entscheidungen
kommen. Computerprogramme beginnen, ähnlich dem menschlichen Hori-
zont, aus Erfahrungen zu lernen und sich zu verbessern. Dieses Verfahren
nennt sich maschinelles Lernen. Das Unternehmen DeepMind hat es bei-
spielsweise vermocht, einem Programm mit dem Namen AlphaGo schlicht
Digital Business – Konvergenzen digitaler Transformation
54
zu vermitteln, wie das jahrtausendealte und anspruchsvolle Spiel Go funkti-
oniert. Erstmal die Regeln verinnerlicht begann das Programm, sich das Spiel
durch Anwendung von Monte-Carlo-Algorithmen selbst beizubringen. Es hat
sich permanent selbst herausgefordert, gegen sich selbst gespielt, seine
Spielweise kontinuierlich verbessert und schließlich ein Niveau erreicht, um
selbst den weltbesten Go-Spieler Lee Sedol in einem aufregenden Wett-
kampf zu schlagen.
Dabei sei auf die Entwicklungsgeschichte im Bereich der Künstlichen Intelli-
genz hingewiesen: Das ursprüngliche Ansinnen bestand darin, dass Compu-
ter oder Maschinen instand gesetzt werden, den menschlichen Verstand in
all seinen Facetten zu kopieren, um dann eventuell cleverer als der Mensch
selbst zu werden. Weil sich dieses Unterfangen noch immer als zentrale
Schwierigkeit, wenn nicht gar Unmöglichkeit, herausstellt, wird nun an Teil-
bereichen geforscht, in denen sich Künstliche Intelligenz sinnvoll einsetzen
lässt.
Gerade in der angelsächsischen Welt hat sich deshalb die Unterscheidung
zwischen zwei Ansätzen herauskristallisiert: Konkrete Forschung für einen
Anwendungsbereich wird Specialized AI genannt. Der andere Entschluss, an
dem großen Wurf weiterzuarbeiten, wird General AI genannt.
Wichtige Erfahrungen mit der Automatisierung von Prozessabläufen wurden
bereits im Bereich der Industrieproduktion gemacht, waren also bisher auf
den Fertigungsbereich begrenzt. Durch den Fortschritt der Künstlichen Intel-
ligenz lassen sich vergleichbare Entwicklungen nun für den Dienstleistungs-
sektor erwarten. Tätigkeiten, die im Büroalltag anfallen, werden sich teils
oder ganzheitlich maschinell erledigen lassen. Maschinelle Prozesse entwi-
ckeln kognitive Kapazitäten. Specialized AI ermöglicht es, genau solche Lö-
sungen für dezidierte Aufgabenfelder zu konzipieren.
Nur einige von vielen denkbaren Anwendungsfällen verdeutlichen bereits
die wirkende Systematik: Die Arbeit, in Anwaltskanzleien nach Präzedenzfäl-
len zu stöbern oder die passenden Paragraphen im Bürgerlichen Gesetzbuch
zu finden, kann zukünftig einem sprachgesteuerten Computerprogramm
übertragen werden. Ähnliches gilt für andere administrative Aufgaben. Wo
im Verwaltungsbereich komplexe Zusammenhänge basierend auf Sprache,
Information und Verständnis kombiniert werden müssen, lässt sich perspek-
tivisch die Implementierung Künstlicher Intelligenz andenken. Im Jahr 2014
wurde auf dieser Grundlage ein Computerprogramm zum Vorstandsmitglied
eines Investmentunternehmens in Hongkong berufen, da es versteht,
Markttrends auszuwerten. Bereits zu Beginn des Skripts wurde das Beispiel
der japanischen Versicherungsgesellschaft Fukoku vorgestellt, die eine
Digital Business – Konvergenzen digitaler Transformation
55
ganze Abteilung von Sachbearbeitern durch ein einziges Programm von IBM
ersetzt hat. Damit greift das Wesen der Automatisierung, manuelle Arbeits-
kraft durch technologische Prozesse zu ersetzen, mittlerweile auch auf die
Ebene des Managements über.
Wenn gegenwärtig über Künstliche Intelligenz gesprochen wird, dann wer-
den damit meist Verfahren von maschinellem Lernen gemeint. Das bedeu-
tet, aus empirischen Erfahrungen werden statistische Muster generiert. Ge-
setzmäßigkeiten, die sich in Daten finden, werden durch Programme in sta-
tistische Modelle übertragen und diese vergangenen Erfahrungen dafür ge-
nutzt, auch plausible Vorhersagen über die Zukunft zu treffen. Was also ma-
schinelles Lernen besonders gut vermag, ist, Muster zu entdecken, Regelmä-
ßigkeiten zu identifizieren und Voraussagen zu treffen, basierend auf großen
Datenmengen, die vergangene Vorkommnisse kodieren. Entsprechend lässt
sich auch verstehen, dass bei entsprechenden Machine-Learning-Projekten
faktisch 80 % der Arbeit darin besteht, die Daten zu sammeln, aufzubereiten
und zu säubern.38 Das verbleibt dann oft im Wesentlichen die Aufgabe
menschlicher Arbeitskraft – ebenso die gedankenvolle Interpretation der Er-
kenntnisse.
Ein eindrückliches Beispiel soll dazu dienen, den Zusammenhang zu verste-
hen, wie gerade die Kombination aus Künstlicher Intelligenz und der
menschlichen Fähigkeit zur Kombinatorik zu wahrlich sinnvollen Erkenntnis-
schlüssen führt. Um das zu illustrieren, reicht die prägnante Nacherzählung
einer Begebenheit, die sich vor dem Aufstieg von Künstlicher Intelligenz zu-
getragen hat: Der Statistiker Abraham Wald musste aus Österreich im Jahr
1938 fliehen, nachdem die Nationalsozialisten die Macht im Land ergriffen
hatten. In den USA beteiligte er sich aufgrund seiner Expertise an der Kriegs-
anstrengung der Alliierten gegen die Nationalsozialisten. Er wirkte dort als
Analytiker. Das erste Problem, dem er sich zu stellen hatte, bestand darin,
die amerikanische Luftwaffe im Verlauf des Krieges zu verbessern. Dabei
wurde als Ausgangssituation festgestellt: Die aus den Kampfeinsätzen be-
schädigt zurückgekehrten Flugzeuge hatten vor allem Einschusslöcher im
Rumpf aufzuweisen. Die logische Korrelation bestand also darin, dass die
Flugzeuge dann sicherer werden würden, wenn der Rumpf besser geschützt
wäre, denn hier tritt der erkenntliche Schaden und die Gefahr auf. Auf
Grundlage der vorhandenen Datenlage bildete diese Kombinatorik den lo-
gisch evidenten Rückschluss: Wenn Flugzeuge von feindlichen Geschützen
getroffen werden, dann meist im Rumpf.
38 Vgl. Schmalz/Bram (2020), Kindle.
Digital Business – Konvergenzen digitaler Transformation
56
Abraham Wald hingegen hielt diese Erkenntnis für fehlerhaft. Seiner Auffas-
sung nach zeigen die Einschüsse im Rumpf, dass genau die Maschinen trotz
Beeinträchtigung an diesen Stellen wieder den Rückflug schafften. Der Fokus
der Überlegung muss sich darauf konzentrieren, welche Flugzeuge es nicht
zurückschafften. Dann lässt sich wahrnehmen, dass alle retour geflogenen
Maschinen intakte Triebwerke haben – was zum Umkehrschluss führt, dass
Maschinen mit beschädigten Triebwerken offenbar zwangsweise abstürzen,
sie fallen aus der Datenerhebung raus. Wenn also die Maschinen verbessert
werden müssen, dann nicht im Bereich des Rumpfs, sondern beim Schutz
der Triebwerke.39
An dem Vorfall zeigt sich, dass Datenanalyse eine entscheidende Methode
zur Erkenntnisfindung darstellt, aber substanzielle Analyse sich mit mensch-
licher Kreativität und Interpretation gegenwärtig zu vereinigen hat. Exakt in
dem fruchtbaren Zusammenspiel aus menschlichem Talent und technologi-
schem Fortschritt gründet die perspektivische Erwartungshaltung, dass sich
die Entwicklung von AI weiterhin beschleunigen wird. Wechselseitige Dyna-
miken aus besserer Datenverarbeitung, fallende Kosten für Datenspeiche-
rung und eine ansteigende Attraktivität des Tätigkeitsfelds für Talente be-
fruchten sich. Das entwickelt einen vorteilhaften Zirkel, wie er in der unteren
Grafik dargestellt wird.
Abbildung 10: KI-Zirkel
Ein entsprechendes Einsatzfeld fortschreitender Künstlicher Intelligenz wäre
diesbezüglich die operative Reorganisation des Straßenverkehrs.
39 Vgl. Schmalz/Bram (2020), Kindle.
Digital Business – Konvergenzen digitaler Transformation
57
3.7 Neue Mobilität
Neue Zugänge zur Mobilität, an denen aktuell geforscht wird, können die
allgemeinen Vorstellungen hinsichtlich machbarer Distanzen radikal ändern.
Die Art und Weise, wie Mobilität zukünftig gestaltet wird, verspricht wesent-
liche Unterschiede zu den heute gängigen Vorstellungen.
Massive Umbrüche verspricht unter anderem das autonome Fahren. Dieser
Begriff bezeichnet die Innovation von selbstfahrenden Vehikeln. Die besagte
Technologie würde es erlauben, dass Autos, Busse oder Lastkraftwagen in
Zukunft keine Fahrer mehr brauchen, um im fließenden Verkehr zu navigie-
ren. Eine andere Entwicklungsstufe wäre es, das autonome Fahren mit der
Luftfahrt zu vergleichen. Flugzeuge laufen meist auf Autopilot und Piloten
greifen nur in kritischen Situationen ein. Ähnlich funktioniert heute noch das
Prinzip des autonomen Fahrens. Das Zusammenspiel zwischen Fahrer und
selbstlenkendem Fahrzeug in kritischen Situationen wird gegenwärtig als
Ebene 3 in der Entwicklungsgeschichte begriffen. In kritischen Situationen
übernimmt der Fahrer das Kommando. Das vollkommen vollständige auto-
nome Fahren wird als Ebene 5 definiert.
Ebene 3 wäre jedenfalls in Estland bereits legal, für reale Straßentests auf
Ebene 5 werden in dem baltischen Staat aktuell die rechtlichen Vorkehrun-
gen getroffen.40 Im amerikanischen Bundesstaat Arizona ist auch schon
Ebene 5 für Testzwecke legitimiert.
Der Durchbruch dieser Technologie hätte jedenfalls nicht nur Auswirkungen
auf die Strukturen des alltäglichen Verkehrs, da Staus in einem System mit-
einander korrespondierender Autos unwahrscheinlicher würden. Auch die
Zahl an folgenschweren Verkehrsunfällen würde sich drastisch reduzieren.
Vor allem besteht in einem System kollektiv denkender Gegenstände die
Möglichkeit, dass Lernprozesse universalisiert werden. Wenn ein selbstlen-
kendes Auto in einer kritischen Situation eine Fehlentscheidung trifft, dann
kann dieses Malheur zukünftig immer abgewendet werden. In einem Sys-
tem, das auf kollektiver Intelligenz beruht, wird jeder Fehler memoriert und
somit einmalig und nachfolgend vermieden. Ein Fahrschüler wird hingegen
Unachtsamkeiten, die ein anderer Fahrerschüler auch gemacht hat, nicht
per se verhindern können. Bei autonomen Autos wäre dieses geteilte und
übertragbare Lernen durchaus denk- und praktisch anwendbar.
Die vollständige Entwicklung würde jedenfalls auch merkliche Konsequen-
zen für den Arbeitsmarkt implizieren. Wenn es perspektivisch keine Fahrer
mehr braucht, verliert ein ganzes Jobprofil an Bedeutung. Als Referenz, um
40 Vgl. Heller (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
58
das Ausmaß darzustellen, können die USA dienen. Laut Berechnungen des
amerikanischen Amts für Arbeitsstatistik waren in den USA im Jahr 2014
noch 1,4 Millionen Personen allein als LKW-Fahrer beschäftigt – mehr als ein
halbes Prozent der Gesamtbevölkerung. Ungefähr 70 % des gesamten
Frachtaufkommens werden in den USA durch LKWs abgewickelt. Außerdem
konnte das Aufgabenprofil der LKW-Fahrer nicht in Billiglohnländer outge-
sourct werden.41 In ganzen 29 der 50 Bundesstaaten machen LKW-Fahrer
sogar den zahlenmäßig größten Berufsstand aus und insgesamt haben sämt-
liche LKW-Fahrer zusammen 67 Milliarden $ im Jahr 2014 in den USA ver-
dient.
Kostenstrukturen für Unternehmen ändern sich also durch das autonome
Fahren. Auch Nachtfahrverbote verlieren vieles von ihrem aktuellen Sinn-
gehalt, wenn LKWs weder Abgase produzieren noch auf Arbeitszeit-Regelun-
gen Rücksicht genommen werden muss. Außerdem senkt die nahtlose Koor-
dination des fließenden Verkehrs laufende Betriebskosten und die Ver-
schwendung kostbarer Ressourcen – egal ob nun Elektrizität oder Wasser-
stoff dafür gebraucht wird. Wie ist damit umzugehen? Das bleibt eine große
Zukunftsfrage.42
Ähnliches gilt beispielsweise auch für die Frage der Zustellung von Lieferun-
gen, wenn sich der Einsatz moderner Drohnentechnologie bewährt.
Selbstnavigierende Containerschiffe kreuzen bereits über die Ozeane.
Ein anderes Projekt, das zu neuen Formen der Mobilität beitragen würde,
wäre die Untertunnelung von Millionenstädten durch Hyperloops. Denkbar
scheint ebenso, dass sich Metropolen durch diese Röhren-Infrastruktur ver-
binden lassen. Dabei handelt es sich um Anlagen, in der Magnetschwebe-
bahnen verkehren sollen, die entfernte Städte miteinander eng verbinden.
Alle Ansätze basieren jedenfalls auch auf der Abkehr vom Verbrennungsmo-
tor. Das erscheint insofern entscheidend, da der Transportsektor der welt-
weit zweitgrößte Emittent von CO2-Gasen ist und damit die Zukunft des Kli-
mas wesentlich von den Veränderungen in diesem Bereich beeinflusst wird.
Allein im Jahr 2016 wurden weltweit insgesamt 750.000 Elektroautos ver-
kauft. Außerdem wird gerade eine Infrastruktur an ultraschnellen Ladestati-
onen in Europa aufgebaut, die sieben Staaten umschließt und lückenlos von
Norwegen bis Italien führt. Auf allen 120 bis 180 Kilometern soll eine solche
Station an den Autobahnen zur Verfügung stehen.
41 Vgl. Mayer-Schönberger/Ramge (2017), S. 213 f.
42 Vgl. Lee (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
59
Vorreiter in dieser Hinsicht ist Norwegen. Jeder dritte verkaufte Neuwagen
ist dort bereits im Jahr 2017 ein Elektroauto. Staatliche Förderprogramme
beschleunigen den Trend. Ein neuer VW Golf, der elektrische Mobilität nutzt,
ist beispielsweise bei der Anschaffung in dem skandinavischen Land auf-
grund des eingeführten Fördersystems günstiger als das gleiche Modell mit
Benzin- oder Dieselmotor. Außerdem bieten viele Kommunen Ladestationen
an, die gratis genutzt werden können. Für E-Autos fallen auch keine Park-
oder Mautgebühren an. Bis zum Jahr 2025 sollen dann alle Neuzulassungen
E-Autos sein. So sieht es das Gesetz vor. Den Kreis schließt schließlich das
Energieportfolio, das in Norwegen zur Anwendung kommt: 98 % des genutz-
ten Stroms stammen dort aus Wasserkraft. Nun wird dieses Portfolio durch
den Einsatz von Windenergie diversifiziert.43 Denn der Vollständigkeit hal-
ber: Der größte Emittent von CO2-Gasen global ist der Energiesektor.
Trotz des Mangels an ähnlichen Anreizen in der Bundesrepublik soll erwähnt
werden, dass in absoluten Zahlen im Jahr 2017 in Deutschland mehr Elekt-
roautos als in Norwegen verkauft wurden. Die Nachfrage scheint also vor-
handen.
Abbildung 11: Automobilhersteller, die bereits elektrische Modelle produzieren44
43 Vgl. Manager Magazin (2017), URL.
44 Eigene Grafik, basierend auf: Climate Reality Project Datenbank (2018).
Digital Business – Konvergenzen digitaler Transformation
60
Abbildung 12: Nationale Ansätze bzgl. Ende des Verbrennungsmotors45
Die Vision, die den Wandel im Mobilitätssektor anführt, ruht auf drei Säulen.
Für den Verkehr der Zukunft gilt das Vorhaben: keine Emissionen, keine Ver-
kehrstote, keine Staus. Diese Vorstellung soll durch neue Technologie reali-
siert werden. Die Technologie präsentiert ein Mittel für den höheren Zweck.
Allgemeine Vorstellungen von machbaren Distanzen verändern sich auch
durch die unternehmerische Erschließung des Weltalls, an der sich gegen-
wärtig verschiedene Organisationen versuchen. In dieser Hinsicht wirkt es
dann zweitrangig, ob Raketentechnik dafür verwendet wird, touristische Ex-
peditionen ins Weltall anzubieten, oder die Vorstellung verfolgt wird, den
Mars durch menschliche Pioniere besiedeln zu lassen, um den Homo sapiens
in eine interstellare Spezies zu verwandeln. Raketentechnologie soll auch da-
für genutzt werden, um dem transkontinentalen Flugverkehr Konkurrenz zu
machen. Keine einzige Flugverbindung weltweit sollte dann länger als eine
Stunde Reisezeit in Anspruch nehmen.
Daran arbeitet beispielsweise das Unternehmen SpaceX, das von Elon Musk
geleitet wird. Elon Musk ist auch der Mastermind hinter dem Automobilkon-
zern Tesla, der intensiv an der Forschung des autonomen Fahrens wirkt und
sich eng mit den Fortschritten im Batteriebereich abstimmt. Es zeigen sich
also wechselseitige Abhängigkeiten und Verbindungen.
45 Eigene Grafik, basierend auf: Climate Reality Project Datenbank (2018).
Digital Business – Konvergenzen digitaler Transformation
61
Folgewirkungen des autonomen Fahrens lassen sich auch für die Preisstruk-
tur am Immobilienmarkt erwarten. Wenn Autos sich eigenständig zu navi-
gieren verstehen, dann kann die tägliche Arbeit bereits auf dem Weg ins
Büro beginnen. Leerzeiten fallen weg und damit erodiert denkbar auch die
Grundlage des gegenwärtigen Konzepts, dass sich die Höhe der Immobilien-
preise vor allem an der Distanz zu einem gewissen Zentrum bemisst.
Ein anderes Wesenselement des heutigen Automobilmarkts lässt sich
ebenso anders denken. Es handelt sich dabei um die traditionelle Eigen-
tumsstruktur. Modelle von Car-Sharing werden populärer werden. Bei ei-
nem gewöhnlichen Privatauto handelt es sich um eine Anschaffung, die laut
statistischer Kalkulation nahezu 99 % der Zeit nicht genutzt wird. Anstatt Au-
tos in Zukunft zu besitzen, wird beispielsweise das selbstfahrende Auto ein-
fach über Apps gerufen, wenn man es benötigt. Die Ertragsstruktur von Au-
toherstellern würde sich damit radikal verändern. Nicht durch den Verkauf
werden dann Erlöse erzielt, sondern durch die permanente Vermietung der
Flotte. In einer Gesellschaft voll permanenter Information und Wissensver-
mittlung lässt sich schließlich auch genau bemessen, wann man wo zu sein
gedenkt. Das schafft gesellschaftliche Effizienz, führt zur Kostenreduktion
und könnte symbolhaft auf andere Bereiche wirken. Wer von einem Gegen-
stand einfach nur Gebrauch machen möchte, muss ihn in Zukunft nicht
zwangsweise besitzen, sondern kann ihn einfach mittels Verrechnung einer
Leihgebühr der Hersteller oder anderer Eigentümer nutzen. Dieser markt-
wirtschaftliche Ansatz nennt sich Sharing Economy. Gerade in den letzten
Jahren boomen Plattformen, die es verstehen, diese Bedürfnisse zwischen
Angebot und Nachfrage in Abgleich zu bringen. Beispielsweise versteht auch
Airbnb dieses Prinzip zu vermarkten, um private Zimmer für Kurzaufenthalte
zu vermieten und zu mieten.
3.8 Blockchain
Weithin populär wurde die Technologie der Blockchain in Form einer kon-
kreten Anwendung: durch die Kryptowährung Bitcoin.
Um das Entwicklungspotenzial der Technologie zu ermessen, verlangt es je-
doch die Einschränkung im reflektiven Bewusstsein, dass die Kryptowährung
nur eine plausible Anwendungsmöglichkeit der Technologie darstellt. Die
Technologie wird zweifellos auch dann überdauern, wenn ihr Nutzen als
operative Grundlage populärer Kryptowährungen in eine tiefe Glaubwürdig-
keitskrise schlittern sollte.
Digital Business – Konvergenzen digitaler Transformation
62
Die Blockchain selbst zeigt vielfältige Attribute auf, die ihre Popularität be-
gründen. Worin liegt ihre Besonderheit? Sie hilft in erster Linie, ein Defizit zu
beseitigen, das der ursprünglichen Informationstechnologie inhärent war.
Eine Unzulänglichkeit klassischer Informationstechnologie bestand darin,
dass sie Nutzer kaum dazu befähigte, fälschungssichere Informationen zu
übermitteln. Das Hemmnis gründet in einer essenziellen Eigenschaft von Da-
tensätzen. Diese sind meist so angelegt, dass sie sich einfach replizieren las-
sen. Doch manchen gesellschaftlichen Anforderungen wird diese Modalität
nicht gerecht.
Die Kryptowährung Bitcoin lässt nachvollziehen, wie das gemeint wäre.
Wenn eine gewisse Geldsumme zwischen zwei Personen transferiert wird,
dann bildet das einen exklusiven Akt. Es muss sichergestellt sein, dass ein
gewisser Geldbetrag beim Vermögen einer Person hinzugebucht und beim
Guthaben einer anderen Person abgebucht wird. Anders als vergleichsweise
bei der E-Mail, wo die gleiche Nachricht möglichst einfach an eine Vielzahl
verschiedener Adressaten verschickt werden kann, wäre dies bei Geldüber-
weisungen äußert nachteilig. Kein Währungssystem könnte überdauern,
wenn eine spezifische Summe, die ein Sender an einen Empfänger schickt,
sich vielfach auch als Eingang auf anderen Konten findet. So lassen sich zwar
E-Mails übertragen, bei Geldbeträgen erscheint diese Eigenheit jedoch
selbstzerstörerisch.
Eine Blockchain ermöglicht es nun, dass Informationen tatsächlich nur auf
nachvollziehbare, überprüfbare und dokumentarisch lückenlose Weise
übertragen werden. Diese Erklärung lässt begreifen, dass der fundamentale
Umbruch, der hinter Bitcoin steckt, weniger eine Neuerung des Finanzwe-
sens symbolisiert als einen technologischen Fortschritt namens Blockchain.
Die Blockchain erlaubt es, dass Informationen durch dezentrale Netzwerke
überprüft und verifiziert werden. Die konkrete Einzigartigkeit eines Daten-
satzes lässt sich durch diese Verfahrensweise bestätigen. Wie im Namen an-
gelegt, bildet die Blockchain also eine Kette an überprüfbaren Datensätzen.
Eine interessante Analogie zur Blockchain bildet beispielsweise das Bild ei-
nes selbstgestrickten Schals. Einzelne Maschen formen das Kleidungsstück.
Eine nach der anderen wird sorgfältig gestrickt. Jede neue Masche nutzt die
vorangegangenen. Eine einzige Masche lässt sich nun nicht mehr aus dem
Gewebe herauslösen.46
Einen ähnlichen Aufbau zeigt die Blockchain. Auch an diese Kette wird Teil
an Teil gefügt. Jede Blockchain trägt also die eigene Vorgeschichte mit sich.
46 Vgl. Heller (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
63
So lässt sich der Wahrheitsgehalt einer Information verifizieren, da sie nur
das letzte Glied einer größeren Reihe bildet. Bei der Absicht, eine Blockchain
zu fälschen, müsste der ganze Datensatz umgebaut werden. Es wäre ähnlich,
als würde man bei einem Schal im Nachhinein eine gewisse Masche auflösen
wollen. Nahezu ein Ding der Unmöglichkeit und mit Sicherheit auffällig, vor
allem unter den Bedingungen eines dezentralen und transparenten Netz-
werks. Hierin besteht nahezu eine garantierte Fälschungssicherheit.
Diese Funktionalität erweist sich als äußerst nützlich in Verbindung mit Fi-
nanzüberweisungen. Mittels Blockchain erscheint es außerdem nicht mehr
als Vorbedingung, über ein Bankkonto zu verfügen, um Geldtransfers durch-
führen zu können. Geldtransfers werden schneller, kostengünstiger, unkom-
plizierter und bedingen nicht mehr der Finanzinstitutionen selbst, sondern
nur noch einer virtuellen Geldbörse.
Die Blockchain wird auch Konsequenzen für die Dokumentation von Ver-
tragsunterzeichnungen oder die Übertragung von Eigentumsrechten mit
sich bringen. Falls die unzweifelhafte Belegbarkeit von Informationen benö-
tigt wird, dann handelt es sich oft um Dienstleistungen, die von öffentlichen
Einrichtungen oder Notaren übernommen werden. In Zukunft lässt sich
durchaus denken, dass der Blockchain eine ähnliche Rolle angedacht wird.
Denkbar erschiene beispielsweise, dass Grundbücher auf einer Blockchain
abgelegt werden. Dann würde die Legitimität von belegbaren Besitzansprü-
chen auch politische Revolutionen überdauern. Das wiederum könnte ge-
rade bei Bürgern in Staaten mit schwachen politischen Institutionen Ver-
trauen stiften. Solche Verfahren werden also durch die Blockchain struktu-
riert, die Anwendungsmöglichkeit entsprechend gefunden.
3.9 Robotik
Die Robotik forscht an der Herstellung von Entitäten, die durch integrierte
Sensoren, Aktoren und Informationsverarbeitung mit der Umwelt interagie-
ren können. Die Robotik baut also Roboter. Sie kümmert sich um deren Steu-
erung und Entwicklung.
Das Wort selbst stammt bereits aus den 1920er-Jahren. Damals hat es der
tschechische Dramatiker Karel Čapek in einem Theaterstück genutzt. Robota
steht im Tschechischen für Arbeit, Fronarbeit.
Roboter haben also von Beginn an den Zweck zugedacht bekommen, Arbei-
ten zu erledigen und menschliche Tätigkeiten zu übernehmen.
Digital Business – Konvergenzen digitaler Transformation
64
Wo und wie Roboter zukünftig Einsatz finden, bestimmen nicht nur Durch-
brüche, die in der technologischen Entwicklung erzielt werden. Es werden
auch Übereinkommen entscheidend sein, die im Rahmen gesellschaftlicher
Diskussionen entstehen. In welchem Ausmaß Roboter beispielsweise im Ge-
sundheitsbereich oder bei der Pflege verwendet werden, bildet nicht nur
eine Frage technischer Machbarkeit, sondern reflektiert auch einen Konsens
sozialer Akzeptanz.
In anderen Kontexten scheint die Herausforderung, vorab die gesellschaftli-
che Zustimmung zum Einsatz von Robotern erwirken zu müssen, eher nach-
rangig und bereits vorhanden. Moderne Lagerverwaltung wird bereits
durchaus mittels Robotertechnologie vollzogen. Es agieren selbstständige
Einheiten, die detailliertes Wissen über den Lagerbestand speichern, eigene
Systematiken bezüglich der besten Einordnung etablieren, die – im Vergleich
zum Menschen – schneller und fehlerfreier ihren Aufgaben nachkommen,
auch beim Transport sehr schwerer Güter oder Container belastbar und na-
hezu bei jeder Abnutzung agieren.
Der chinesische IT-Konzern Alibaba hat es beispielsweise vermocht, allein an
einem einzigen Tag im Jahr 2017 Produkte im Wert von 25 Milliarden $ zu
versenden. Das wäre ohne den Einsatz moderner Roboter kaum möglich, die
ungefähr 70 % der anfallenden Arbeiten im Lager übernehmen und dreimal
so effizient agieren, wie es vergleichsweise Arbeiter könnten. Es lässt sich
diesbezüglich von einem kollaborativen Ansatz zwischen Lagerarbeitern und
Robotern sprechen.
Auch der Onlineriese Amazon agiert genau unter diesen Vorzeichen. Robo-
ter kommen zum Einsatz, um Lagerarbeiter zu unterstützen, um deren Wege
zu verkürzen und die Lagerverwaltung zu vereinfachen. Selbstverständlich
sind die Ansprüche an die Technologie in diesem konkreten Zusammenhang
merklich geringer als an Roboter, die im Gesundheitsbereich eingesetzt wer-
den.
In Verbindung mit dem Internet der Dinge lassen sich perspektivisch Pro-
zessabläufe zwischen Produktion und Lager optimieren und Effizienz schaf-
fen.47
Doch gerade in Zusammenhang mit der Robotik tritt eine Frage fundamental
auf, die auch für die adaptive Durchsetzungsfähigkeit aller anderen Techno-
logien entscheidend wirkt: Wie neue Technologien eingesetzt werden und
47 Vgl. World Economic Forum (2016), URL.
Digital Business – Konvergenzen digitaler Transformation
65
wie sich ihre Zweckmäßigkeit bestimmen lässt, bleibt in Demokratien eine
gesellschaftlich zu treffende Entscheidung.
3.10 Augmented Reality, Virtual Reality
Weil die reale Welt als persönlicher Eindruck erfasst wird, können Compu-
terprogramme alternative Welten als sinnvolle Konzepte für den Menschen
replizieren, um in alternative Wirklichkeiten einzutauchen.
Virtuelle Realität bezeichnet das Verfahren, Eindrücke von interaktiven Um-
gebungen ausschließlich durch computergenerierte Impressionen zu er-
schaffen. Dies bedeutet, dass Welten durch Computerprogramme erzeugt
und durch spezifische Vorrichtungen dargestellt oder vermittelt werden, die
an die Wahrnehmung durch menschliche Sinnesorgane appellieren.
Bei der Virtual Reality handelt es sich in diesem Zusammenhang um vollstän-
dig audiovisuelle Welten, die eine Person ganzheitlich umschließen.
Bei der Augmented Reality wird die vorhandene Außenwelt durch Simulati-
onen angereichert. Es werden also virtuelle Attribute, grafische Zusätze, In-
formationen oder Gegenstände als Projektionen in die vorgefundene Um-
welt hineinplatziert.
Virtual Reality umschließt den Nutzer ganzheitlich mit computergenerierten,
alternativen Impressionen zur realen Umwelt. Eine spezifische Brille dient
als Instrument, um in imaginative Szenarien einzutauchen, andere Identitä-
ten oder Umgebungen als persönlichen Eindruck zu erleben. Die allgemeine
Vorstellung darüber, was die Konsistenz von Raum und Zeit bedeutet, sowie
die Methoden von Kooperation und sozialer Interaktion werden dadurch er-
neuert. Durch Augmented Reality lässt sich die Umwelt partiell adaptieren,
sie wird durch Projektionen visuell und informativ angereichert. Durch Vir-
tual Reality werden ganzheitliche Wahrnehmungen erzeugt.
3.11 DNA-Sequenzierung
Bei der Sequenzierung des Genoms handelt es sich um ein Analyseverfahren,
das bereits seit Ende des letzten Jahrhunderts angewendet wird.
Die molekularbiologische Methode ermöglicht es das im Genom kodierte
Erbgut eines Lebewesens zu entschlüsseln. Auf Grundlage dieser Vorgangs-
Digital Business – Konvergenzen digitaler Transformation
66
weise können Einschätzungen über die Krankheitsrisiken von Personen prä-
ventiv getroffen werden. Das Wissen befähigt, Diagnosen zu stellen, die
nicht nur daraufhin wirken, Krankheiten zu behandeln, sondern sie mög-
lichst im Vorhinein zu unterbinden. Es gilt zu verhindern, dass sie überhaupt
ausbrechen.
Auch dieser Paradigmenwechsel im medizinischen Bereich setzt die Möglich-
keiten von Big-Data-Analysen und umfassenden Rechenleistungen voraus,
um die DNA-Stränge von einer Vielzahl von Individuen zu vergleichen und
Gefahrenpotenziale durch Anomalien zu erkennen.
Durch die Entwicklungsprozesse wird sich das Bild, das wir uns von Krank-
heiten machen, nachhaltig verändern. Das Verständnis von physischer Kon-
stitution wird möglicherweise einen radikalen Wandel erfahren und das eu-
ropäische Gesundheitsmodell auf anderen Paradigmen beruhen.
Möglicherweise werden nicht alle diese Trends tatsächlich das Entwicklungs-
potenzial ausweisen, das ihnen gegenwärtig zugemessen wird. Denkbar,
dass manche Trends hinter das Versprechen zurückfallen könnten, das sie
bereits verkörpern.
Ebenso scheint es möglich, dass die Entwicklungszyklen bis zum finalen
Durchbruch längere Zeitspannen beanspruchen als gegenwärtig geschätzt
wird.
Dann existieren die inneren Verbindungen zwischen den einzelnen Aspek-
ten, die zu berücksichtigen sind. Viele der dargestellten Perspektiven sind
inhärent voneinander abhängig, da der technologische Fortschritt in einem
Bereich Entwicklungen in anderen Bereichen voraussetzt, um darauf aufzu-
bauen.
Auch wirkt es vorstellbar, dass zusätzliche technologische Trends an Bedeu-
tung gewinnen, die hier nicht dargestellt wurden. Das könnten beispiels-
weise die nächste Generation von mobilen Netzwerken (5G), der Quanten-
computer oder die drahtlose Energieübertragung sein. Keine Aufzählung
kann Vollständigkeit für sich behaupten.
Doch was sich mit kategorischer Sicherheit bestimmen lässt: dass sich die
Zukunft aufgrund der genutzten Technologie grundlegend von der Gegen-
wart unterscheiden wird.
Digital Business – Konvergenzen digitaler Transformation
67
Die technologischen Verfahren und organisatorischen Prozesse, die zu-
künftig zur Anwendung gebracht werden, werden sich radikal von den ge-
genwärtigen unterscheiden. Sie werden selbstständig denken, automa-
tisch und vernetzt operieren und Disruption in klassischen Märkten verur-
sachen.
Neue Technologien werden nicht nur zu neuen Produkten führen, sie wer-
den auch die Herstellungsverfahren existierender Produkte radikal reorgani-
sieren. Sie werden die menschliche Wahrnehmung herausfordern und un-
sere Stellung als Mensch in marktwirtschaftlichen Prozessen neu aufsetzen.
Wir finden uns zweifellos in einer Ära der vehementen „Schöpferischen Zer-
störung“ und industriellen Mutation. Bewährte Sicherheiten werden über-
holt, es nötigt zur Veränderung. Es braucht also den Willen zur Innovation.
Zukünftige Anwendung von
technologischen Verfahren
und organisatorischen Pro-
zessen
Digital Business – Konvergenzen digitaler Transformation
68
4 Innovationsmanagement, Innovationsrisiken
– und personelle Adaptionen
Der Begriff Innovation kommt ursprünglich aus dem Lateinischen und
stammt vom Verb innovare ab, das erneuern meint. Diese Wortwurzel legt
bereits die heutige Bedeutung offen.
Innovation meint grundsätzlich, dass etwas Bestehendes erneuert wird.
Das Prinzip von Innovation gründet in diesem grundsätzlichen Verständnis
nicht in der Betriebswirtschaft, sondern findet sich bereits in der anfängli-
chen Gedankenwelt unterschiedlicher Kulturen. In dem Sinne, dass Vorhan-
denes sich ändert, knüpft Innovation an vielfältige Vorstellungen vom Ver-
lauf und Rhythmus der Welt an. Nicht Statik wird also zum Prinzip gehoben,
sondern der Wandel des Seienden. Dabei gilt es, essenziell zu berücksichti-
gen, was als Gnadenlosigkeit der Innovation begriffen werden kann:
Innovation bedeutet nicht nur, dass sich Bestehendes erneuert. Das Wirk-
prinzip meint in weiterer Folge auch, dass bisher Gültiges und Vorhande-
nes obsolet und unnütz wird. Innovative Veränderungsprozesse führen
nicht zur Koexistenz von Neuem und Alten, sondern zum Ersatz des Alten
durch das Neue.
Die Lehren des Buddhas oder der Beginn der abendländischen Philosophie
bei Heraklit, um die beiden wirkmächtigsten Ursprünge zu nennen, also die
Grundlage manch westlicher und östlicher Denkprinzipien, ankern bereits
darin, dass sich die Welt in permanentem Veränderungszustand befindet.
Persönliche Erfahrungen bezeugen ebenso, dass sich Zustände transformie-
ren und die Gegenwart nie Bestand hat, sondern sich im tatsächlichen und
ansehnlichen Wandel befindet. An diese jahrtausendealte Denktradition
können nun auch die empirischen Befunde moderner Ökonomie anschlie-
ßen. Auch der zeitgemäße Markt bezweckt fortlaufende Transformationen
und Erneuerungen – getrieben durch Innovation.
Das aktuelle und betriebswirtschaftlich geprägte Begriffsverständnis von
Innovation meint, dass durch moderne Entwicklung neue Produkte, Ver-
fahren oder Dienstleistungen auf den Markt gebracht werden, die bisher
genutzte verdrängen.
Der Ökonom, der dieses Phänomen vermutlich am populärsten untersuchte,
war Joseph Schumpeter. Seine konkreten Theorien werden zu Ende des
Skripts dargestellt. Sie bieten eine theoretische Betrachtungsweise, wie die
nachfolgenden Fallstudien verstanden werden können.
Was ist Innovation?
Innovation
Innovation und das Wirk-
prinzip
Begriffsverständnis
Digital Business – Konvergenzen digitaler Transformation
69
Zu Beginn der Vertiefung über Innovation steht zuerst die Frage, welche
strukturellen Voraussetzungen in Organisationen gegeben sein müssen, da-
mit Innovation sich wirksam vollzieht. Anschließend folgen die Case Studies
als eindrückliches Anschauungsmaterial, bevor abschließend die betriebs-
wirtschaftlichen Theorien von Joseph Schumpeter dargestellt werden, um
dem Ganzen eine abschließende Klammer und Erklärung zu geben.
4.1 Was meint Innovation?
Eine Palette unterschiedlicher Technologien verändert aktuell die Funda-
mente sozialer und ökonomischer Prozesse. Die zentrale Herausforderung
für Organisationen besteht darin, die Entwicklungen profitabel zu nutzen
und Ideen zu konzipieren, die auf vielversprechenden Neuerungen auf-
bauen. Wie können die zukunftsträchtigen Trends also als Fortschritt inkor-
poriert werden? Dabei handelt es sich um sehr individuelle Strategien, die
zu definieren sind. Doch generelle Hilfe und Orientierung bieten Ratschläge
des Innovationsmanagements.
Innovationsmanagement bildet den systematischen Ansatz, Innovationen
in Organisationen entstehen zu lassen, sie zu sammeln und zu kontrollie-
ren.
Ein chronologischer Fragenkatalog steht dabei grundsätzlich am Anfang der
Überlegung:
• Welche Bedürfnisse sind seitens der Kunden vorhanden?
• Wie können diese bedient werden?
• Welchen Sinn hat die Innovation für die Gesellschaft?
• Wie wirkt sich Innovation auf die Konkurrenzsituation aus?
Innovationsmanagement kann vielfältige Vorhaben, die sich in Hinblick auf
den Umfang unterscheiden, in Organisationen unterstützen. Dabei lassen
sich unterschiedliche Tiefenschärfen ausmachen:
• Organisationsinterne Prozesse werden bezüglich des Optimierungs-
potenzials analysiert.
• Neue Produkte oder Dienstleistungen werden konzipiert.
• Es werden Möglichkeiten überlegt, bestehende Produkte oder
Dienstleistungen zu modernisieren oder zu verbessern.
• Gänzlich neue Geschäftsmodelle werden angedacht.
• Es können Kooperationen mit anderen Unternehmen oder Neugrün-
dungen geplant werden.
Innovationsmanagement,
Innovationsrisiken – und
personelle Adaptionen:
Übungen finden Sie auf Ih-
rer Lernplattform.
Innovationsmanagement
Digital Business – Konvergenzen digitaler Transformation
70
• Es handelt sich um unterschiedliche Kombinationen der verschiede-
nen Planvorhaben.
Ein tatsächlicher Unterschied besteht zwischen der Tiefenwirkung von wah-
rer Innovation und dem Wesen schlichter Veränderung.
Das entscheidende Differenzierungsmerkmal liegt darin, wie ausgeprägt der
Neuheitsgrad ist. Handelt es sich um eine Veränderung des Bestehenden
oder um einen kompletten Neuansatz, der versucht wird? Das gilt es zu ver-
merken, weil die Grenzen zwischen den Kategorien verschwimmen können
und sie außerdem auf ähnlichen Voraussetzungen aufbauen.
Innovationsmanagement basiert generell auf zwei Ebenen. Es verknüpft
strukturelle und prozessuale Aspekte, damit sich Ideen in Organisationen
entfalten können.
• Strukturelle Dimension:
Sie stellt sicher, dass ein Umfeld gestaltet wird, welches der Entwicklung und
Umsetzung von Ideen zuträglich ist. Sind Rahmenbedingungen, Kommunika-
tionskanäle und Arbeitsbedingungen vorhanden, die Innovationen entste-
hen lassen? Organisationen müssen sich in dieser Hinsicht selbstkritisch prü-
fen.
• Prozessuale Komponente:
Sie bewertet, ob eine Organisation konkrete Aufmerksamkeit auf den Sach-
verhalt legt, dass neue Ideen entstehen, vorgebracht und umgesetzt werden
können. Genügen die vorhandenen Prozesse, die Anwendung finden, diesen
Ansprüchen? Das gilt es, kritisch zu eruieren. Werden Defizite ausgemacht,
müssen sie beseitigt werden.
Eine wertvolle Ressource, um die eigenen Unzulänglichkeiten zu ermessen,
liegt im empirischen Erfahrungsschatz der Mitarbeiter selbst. Durch qualifi-
zierte Interviews lässt sich beispielsweise wertvolles Wissen heben, wo es
Verbesserungspotenziale gäbe. Es lässt sich eruieren, welche Gründe dafür
ausgemacht werden, warum frühere Ideen nicht realisiert werden konnten.
Woran sind Innovationen, die Mitarbeiter bereits hatten, bisher gescheitert?
Welche Hindernisse bildeten Blockaden?
Diese Vorgehensweisen, erstmals Mitarbeiter als Erkenntnisquelle heranzu-
ziehen, eignet sich für Unternehmen aller Größenordnungen. Denn Innova-
tion bildet ein universelles Phänomen, das keine kritische Organisations-
größe voraussetzt. Als Innovationsmotor können kleinere Einheiten oder
Digital Business – Konvergenzen digitaler Transformation
71
größere Verbände agieren. Innovationen bilden sogar ein effektives Instru-
ment, wie kleine Unternehmen große Organisationen herausfordern oder
kleine Abteilungen arrivierte Bereiche übertreffen können.
Drei Ansätze werden in Betracht gezogen, um die eigene Innovationsfähig-
keit zu bewerten:
Innovationsstrategie
Die Innovationsstrategie schafft innerhalb einer Organisation Klarheit dar-
über, welchem Zweck Innovation nachkommen soll. Was möchte durch In-
novation erzielt werden? Wofür wird sie benötigt? Sollen beispielsweise
Wachstumsmärkte erschlossen werden? Möchten Produkte verbessert wer-
den? Wirken in der eigenen Branche industrielle Mutationen? Oder zielt die
Veränderung bzw. Innovation auf Interna? Es verlangt nach einem verständ-
nisvollen Bild dessen, was als Ziel anvisiert und warum Innovation gefordert
wird. So lässt sich auch retrospektiv ermessen, ob die Ziele erreicht oder ver-
fehlt wurden.
Innovationskultur
Innovative Unternehmen verkörpern und kultivieren eine gewisse Haltung,
die eine Aufgeschlossenheit gegenüber der eigenen Umwelt und Entwick-
lungsperspektive bezeichnet. Innovation wird befördert, gefordert, ermu-
tigt, auf sie wird fokussiert. Eine der ersten Aufgabe seitens des Manage-
ments besteht also darin, aufrichtig darüber zu urteilen, ob eine solche Auf-
fassung innerhalb der eigenen Organisation ebenfalls geteilt wird. Zeigt man
sich eher aufgeschlossen gegenüber Neuerung oder gelten Vorbehalte und
Gewohnheiten, die schwer aufzubrechen sind?
Die Innovationskultur bildet eine Facette der größeren Unternehmenskul-
tur. Eine schwach ausgeprägte Innovationskultur lässt sich daher durch ei-
nen intendierten Bewusstseinswandel stärken. In dieser Hinsicht können
schon einzelne Projekte helfen, die zu schnellen Erfolgen führen, um Verän-
derung herbeizuführen. Auch lassen sich beispielsweise in Unternehmen
Vorträge organisieren, die darauf abzielen, den Bewusstseinswandel zu un-
terstützen. Ein geteilter Wissensstand über die Dringlichkeit des Wandels,
die durch aktuelle Trends erwirkt wird, etabliert Offenheit gegenüber der
Innovationskultur. In diesem Zusammenhang gilt es, aufrichtig darüber zu
urteilen, wie innerhalb der Organisation mit dem Prozess des Scheiterns um-
gegangen wird. Werden Freiräume geschaffen, die es erlauben, mutig Neues
auszuprobieren? Wird ein Projekt, das nicht sofort zum gewünschten Resul-
tat führt, als Misserfolg verstanden und folgen daraufhin Vorbehalte gegen-
über den Verantwortlichen? Wird mit nutzlosen Schuldzuweisungen gear-
beitet? Werden alle Angestellten mikrogemanagt und damit die Freiräume
Digital Business – Konvergenzen digitaler Transformation
72
beschnitten, die es zur Eigeninitiative braucht? Werden richtige und kost-
bare Lehren aus möglichen Zielverfehlungen gezogen? Ist ausreichend Ge-
duld vorhanden? Existiert der Mut, es nochmal zu wagen? Worauf bauen
Karrierechancen im Unternehmen? Das alles repräsentiert einen Schlüssel,
um die Innovationskultur in einem Unternehmen zu befördern.
Innovationskompetenz
Verfügt ein Unternehmen über das Know-how, um Innovationen zu gestal-
ten? Finden sich ausreichend technische, kommunikative und organisatori-
sche Kompetenzen, die Voraussetzung sind, um Innovationen zu ermögli-
chen? Oder müssen neue Fachkräfte dafür angeworben und eingestellt wer-
den? Können die fehlenden Fähigkeiten im Unternehmen durch Fortbildung
erwirkt werden? Gibt es Personen, die über die notwendige Integrität im
Unternehmen verfügen, den Veränderungsanspruch tatsächlich zu reprä-
sentieren? Zeigt das Organigramm Stellen, die dafür prädestiniert wären,
den Innovationsprozess zu übersehen und zu verantworten? Müssen neue
Positionen geschaffen werden? Funktioniert die Einbindung des Manage-
ments? Erweisen sich die Rückkopplungseffekte zwischen Management und
Team als ausreichend? Die Innovationskompetenz hängt eng mit der impli-
ziten Komplexität der Innovation zusammen, die anvisiert wird. Je diffiziler
oder einschneidender sich ein Vorhaben oder eine Entwicklung gibt, umso
höher sind die Ansprüche, die an das Management gestellt werden.
Innovation baut auf Koordination. Sie orientiert sich an strategischen Ziel-
setzungen und basiert auf unterschiedlichen unternehmerischen Prozes-
sen. Sie weist technologische, prozessuale, finanzielle, kommunikative As-
pekte auf, die zusammengeführt und geleitet werden müssen. Diese Koor-
dinationsfunktion muss das Innovationsmanagement übernehmen.
Abschließend soll in diesem Rahmen noch der Gegenstand der Herausforde-
rung durch Innovationsrisiken erklärt werden: Innovationsrisiken wirken vor
allem sehr spezifisch in unterschiedlichen Sach- und Bedeutungszusammen-
hängen. Aufgrund dieser Einschränkung seien nur die populärsten und häu-
figsten Innovationsrisiken in Kürze dargestellt.
Ein Risiko, das jedem technischen Innovationsprozess innewohnt, wäre das
technologische Risiko selbst. Innovationen lassen sich deshalb nicht realisie-
ren, weil die Technologie noch nicht den notwendigen Reifegrad aufweist,
um die geplanten Vorhaben praktisch umzusetzen. Oder es würde auf Vor-
leistungen bauen, die noch nicht geliefert, produziert, programmiert werden
können oder in benötigter Form oder Ausbaustufe vorhanden wären.
Innovation und
Koordination
Digital Business – Konvergenzen digitaler Transformation
73
Eine andere Herausforderung besteht darin, dass Vorplanung und anfängli-
che Investitionen mehr Aufwand als geplant verursachen, sodass die mögli-
che Rentabilität unwahrscheinlich und unerreichbar wird.
Oft passiert es auch, dass Projekte eingestellt werden, die bereits Fort-
schritte erzielt haben oder kurz vor dem Durchbruch stehen. Doch weil die
ursprüngliche Planung von kürzeren Zeitintervallen ausgegangen ist und die
zu erreichenden Milestones nicht termingerecht geschafft wurden, verlieren
die Verantwortlichen das Vertrauen in den Erfolg. Hier verlangt es Urteils-
kraft und Flexibilität seitens des Managements, um zu beschließen, ob das
Vorhaben weiter vorangetrieben werden soll.
Ein anderes Risiko bestünde darin, dass für eine technisch gelungene Inno-
vation kein passendes Geschäftsmodell oder genügend Absatzmärkte gefun-
den werden. Alle diese Risiken bilden Herausforderungen, denen durch Risi-
komanagement begegnet werden soll. Substanzielle Innovationsrisiken kön-
nen bereits in der Vorbereitung von Innovationsprozessen erkannt werden.
Ein vehementes Risiko, das a priori existiert, wäre die Gefahr, dass innova-
tive Ideen gar nicht aufgegriffen werden. Ein anderes wäre es, dass auf vor-
handene Entwicklungen zu zögerlich reagiert oder ihnen nur indifferent be-
gegnet wird. Das Risiko würde also im Sachverhalt bestehen, die disruptiven
Kräfte der Innovation durch andere sträflich zu unterschätzen.
Die starre Überzeugung hingegen, dass die digitale Transformation nur be-
grenzte Umbrüche verantworten wird und dass alles Wesentliche vermut-
lich so bleiben kann wie bisher, repräsentiert keine Einschätzung, deren
Tragweite sich allein durch das Risikomanagement ermessen lässt. Es han-
delt sich oft nicht nur um eine fatale Fehleinschätzung und irreführende
Hoffnung, sondern geradezu um eine Unterlassung. Dass diese Überzeugung
von Organisationen zu lange getragen wird, repräsentiert das größte aller
Risiken.
Weiters stellt sich für den Verantwortungsbereich des Managements auch
die Frage nach der Finanzierung von Innovation. Auch hier unterscheiden
sich die Richtwerte eklatant nach Branchen. Doch manche Überlegungen
scheinen universell: Findet sich ausreichend Kapitaldeckelung? Werden aus-
reichend Ressourcen eingeplant? Werden dafür Mittel des Fremd- oder Ei-
genkapitals genutzt? Soll um öffentliche Förderung geworben werden? Wer-
den in einem Unternehmen genügend Informationen aufbereitet, um per-
spektivische Innovationsentscheidungen zu treffen? Wurde ausreichend Da-
tenmaterial gesammelt, um die Entwicklungsperspektive technologischer
Prozesse auf das eigene Geschäftsfeld zu ergründen? Wurden die eigene Po-
sition, der absolute und relative Marktanteil und die Ertragsmöglichkeiten
Digital Business – Konvergenzen digitaler Transformation
74
am Markt unter der Perspektive versäumter und geglückter Innovation be-
wertet?
Diese Fragestellungen bedürfen der Klärung und strategischen Entschei-
dung. Besonders auch vor dem Hintergrund, dass nicht jeder Versuch ge-
lingt, Innovationen zum beabsichtigten Ergebnis zu führen. Nicht immer wird
die gewünschte Rendite auf Anhieb erzielt. Dieser Sachverhalt weist bereits
darauf hin, dass systematisches Innovationsmanagement enge Kooperation
mit umsichtigem Risikomanagement erfordert.
4.2 Die Differenz zwischen Funktion und Organisation
Jedes erfolgreiche Unternehmen liefert Dienstleistungen, baut Produkte
oder konzipiert Hilfestellungen, die von der Gesellschaft nachgefragt wer-
den. Man trägt auf diese Weise zum modernen Wohlstand der Gesellschaft
bei. Ohne diese präzisen Leistungen wären wir als Ganzes ärmer und rück-
schrittlicher. Es erfüllt also nachgefragte Funktionen. Um Bewusstsein dar-
über zu erlangen, was genau diese individuelle Funktion wäre, benötigt es
intensive Verständnisprozesse. Analytisches Denken setzt Methode voraus:
Dekonstruktivistische Leitprinzipien können sich dabei als ertragreich erwei-
sen.
Der Dekonstruktivismus repräsentiert eine wissenschaftliche Methodik, die
ihren Ursprung in der Literaturwissenschaft findet. Von dort wanderte die
Idee in die Architektur weiter. In Hinblick auf die Architektur lässt sich die
Funktionsweise des Dekonstruktivismus nachvollziehbar und pragmatisch
erklären. Der Dekonstruktivismus tritt als radikale Bautradition an, um ge-
wöhnliche Baukonzepte hinter sich zu lassen. Sein essenzieller Ansatz be-
steht darin, geometrische Körper, die sich in gewöhnlichen Bauten finden,
zu fragmentieren, um sie dann in neuer Kombination wieder zusammenzu-
setzen. Klare und ausdrucksvolle Figuren wie der Würfel, der Kegel, der Zy-
linder, die Kugel oder das Trapez werden eigenständig in ganze Bauensem-
bles eingebettet. Die Reduktion auf das Wesentliche, die dem Dekonstrukti-
vismus eigen ist, erlaubt es dann, eine neue Formsprache zu finden.
Der Dekonstruktivismus geht also folgendermaßen vor: Formen und Struk-
turen, die sich in gewöhnlichen Bauten finden, werden in ihre Grundele-
mente zerlegt – also dekonstruiert –, um sie anschließend neu zusammen-
zusetzen.
Der konzeptionelle Zugang kann auch dafür genutzt werden, moderne Ge-
schäftsmodelle besser zu verstehen. Entwicklungsperspektiven für ein Un-
ternehmen lassen sich dann erschließen, wenn die wesentliche Funktion er-
Was meint Innovation?
Übungen finden Sie auf Ih-
rer Lernplattform.
Digital Business – Konvergenzen digitaler Transformation
75
kannt wird, die der Betrieb verfolgt. Es verlangt nach trennscharfer Differen-
zierung zwischen der Funktion, die erfüllt wird, und der Organisation, durch
die sie umgesetzt wird.
Werden vorhandene Marktstrukturen und prognostizierbare Transformati-
onen betrachtet, lässt sich eine Dualität nutzen, um mit Tiefenschärfe be-
triebliche Angebote einzuordnen. Die Dualität, die Aufschluss darüber gibt,
lässt sich durch die Begriffe der Funktion und der Organisation unterschei-
den.
Die Funktion bildet jene Dimension einer Dienstleistung oder eines Pro-
dukts, die den tatsächlichen Nutzen und das Wirkprinzip erfasst. Die Orga-
nisation hingegen meint die Struktur, wie dieser Nutzenaspekt abgewi-
ckelt, aufgebaut und organisiert wird.
Anhand eines praktischen Beispiels lassen sich die Doppelbegriffe Funktion
und Organisation ansehnlich darstellen. Als Anschauungsobjekt soll eine ge-
wöhnliche Geldüberweisung betrachtet werden. Es handelt sich dabei um
eine grundlegende Dienstleistung, die von Finanzinstitutionen abgewickelt
wird. Ohne Geldüberweisungen könnten moderne Ökonomien prinzipiell
nicht funktionieren. Eine Person, die entweder Ausstände oder liquiden
Überschuss hat, überweist an eine andere Person einen Geldbetrag, der ge-
schuldet oder aus anderen Gründen übertragen wird. Geldüberweisungen
haben die Funktion, den Transfer denkbar unkompliziert abzuwickeln. Die
Personen müssen sich nicht tatsächlich treffen: Große Distanzen lassen sich
überbrücken, um genaue Summen in Abgleich zu bringen. Geldüberweisun-
gen bieten Sicherheit und Verlässlichkeit. Sie erlauben einer Gesellschaft,
den Haushalt an finanziellen Ressourcen zu balancieren. Dieser Funktion
kommen Geldtransfers in Zukunft im selben Maße nach, wie sie es bereits in
der Vergangenheit getan haben. Die Bedeutung der spezifischen Dienstleis-
tung wird aller Voraussicht nach in einer global vernetzten und beschleunig-
ten Welt sogar weiter ansteigen. Was sich aber durchaus anders gestalten
lässt, wäre der Aspekt, wie die Organisation dieser Funktion aufgebaut wird.
Im Regelfall setzt ein Geldtransfer voraus, dass alle beteiligten Parteien über
ein Bankkonto verfügen. Es benötigt eine spezifische Infrastruktur, die von
allen genutzt wird, und geteilte Standards. Die Übertragungen geschehen
beispielsweise dadurch, dass das SWIFT-System zur Anwendung kommt. Um
die Beträge übertragen zu können, brauchen die involvierten Personen Zu-
gang zu ihren Bankdaten und Verfügungsgewalt über ihre Konten. Sie kön-
nen sich online in ihr E-Banking einwählen, stationäre Automaten nutzen
oder sich an den Bankberater wenden, um das Notwendige zu veranlassen.
Funktion und Organisation
Digital Business – Konvergenzen digitaler Transformation
76
All diese Funktionsprinzipien lassen sich jedoch vollkommen anders struktu-
rieren und denken. Bitcoin ermöglicht beispielsweise, dass Empfänger oder
Sender kein eigenes Bankkonto mehr brauchen. Eine grundsätzlich andere
technologische Infrastruktur ließe sich anwenden. Das Verfahren könnte auf
größerer Transparenz aufbauen, die Abwicklung sich beschleunigen und Pro-
zesse vereinfacht werden. Die gleiche Funktion Geldüberweisung baut dann
auf einer anderen Organisation auf. Die beiden Ebenen Funktion und Orga-
nisation werden zu oft vermengt, fälschlich sogar als vereinheitlicht betrach-
tet. Stattdessen verlangt es nach sorgfältiger Differenzierung.
Die Organisation einer Funktion zu erneuern, bildet oft die Grundlage von
Innovation. Darüber nachzudenken, ein Selbstverständnis für die eigene
Funktionalität zu erwirken und die Organisation dieser Funktion kreativ neu
zu denken, bildet eine grundsätzliche Aufgabe für das betriebswirtschaftli-
che Verständnis der digitalen Transformation. Als Vorbedingung, um die
Konsequenz der digitalen Transformation für die eigene Geschäftstätigkeit
zu ermessen, verlangt es nach institutionellem Selbstbewusstsein. Es
braucht die Voraussetzung, dass die tatsächliche Funktion der Unterneh-
menstätigkeit verstanden wird. Diese Einsicht lässt sich dann mit den Pro-
zessen der digitalen Transformation in Einklang bringen. So lassen sich stra-
tegische Entscheidungen koordinieren. Digitale Transformation zielt dabei
nicht notwendigerweise auf die Funktion eines Produkts oder einer Dienst-
leistung, aber sie ändert oft die strukturellen Prinzipien der Organisation ei-
nes existierenden Produkts oder einer Dienstleistung.
Wie lassen sich die Fäden zusammenknüpfen? Dekonstruktivistische Denk-
ansätze zeigen auf, was die präzise Funktion wäre, die ein Unternehmen lie-
fert. Die Funktion einer Dienstleistung oder eines Produkts lässt sich von der
Organisation abtrennen. Die digitale Transformation setzt im Regelfall auf
Ebene der Organisation an. Die Funktion, die erwirkt wird, bleibt bestehen.
Die Organisation hingegen lässt sich durch Prozesse der digitalen Transfor-
mation alternativ denken. So entstehen neue Geschäftsmodelle.
Die Aufgabe für erfolgreiches Management besteht darin, durch Selbstrefle-
xion Richtungsentscheidungen treffen zu können. Aufbauend auf dem Ver-
ständnis der eigenen Funktion kann die Übereinstimmung mit technologi-
schen Trends eruiert werden.
Als Erklärungshilfe lassen sich dabei beispielweise Benchmarking-Studien
nutzen. Dabei handelt es sich um Untersuchungen von Marktforschungsin-
stituten, die Aufschluss darüber geben, wie andere Konkurrenten oder
Märkte auf ähnliche Veränderungen reagiert haben. Alle diese Prozesse las-
sen sich durch professionelles Consulting begleiten.
Digital Business – Konvergenzen digitaler Transformation
77
Doch nicht nur die Notwendigkeit des Wandels für bestehende Organisatio-
nen begründet sich durch die digitale Transformation. Zeiten tiefgreifender
ökonomischer Veränderung erfassen immer eine Ära neuen Gründergeists.
Wenn Bestehendes einen Transformationsprozess durchläuft und die Zu-
kunft einen offenen Prozess bildet, der gestaltet werden will, dann kristalli-
sieren sich markante wirtschaftliche Chancen heraus, die ergriffen werden
können. Die etablierte Hierarchie in Märkten gerät in Bewegung, diese Fra-
gilität hilft neuen Unternehmen dabei, ihre Position zu erkämpfen.
4.3 Warum ein Chief Innovation Officer (CINO)?
Technologie wirkt aktuell als rasante Triebkraft gesellschaftlicher Verände-
rung. Sie formt die operative Logik von Märkten substanziell neu. Als integ-
raler Teil der Umwelt bilden technologische Prozesse eine universelle Kraft,
die von privaten und öffentlichen Organisationen verstanden und intern im-
plementiert werden muss.
Es wäre unzureichend, Technologie gegenwärtig nur auf technische Kompo-
nenten zu reduzieren. Dieses Verständnis greift zu kurz. Es handelt sich viel-
mehr um ein soziales Phänomen, das einen holistischen Verständniszugang
bedingt. Technologie bildet demgemäß ein methodisches Kernelement, um
strategische Managemententscheidungen zu realisieren. Dieser angemes-
sene Begriff begründet einen konkreten Imperativ in Hinblick auf den orga-
nisatorischen Aufbau von Unternehmen. Technologie darf in vielerlei Fällen
nicht zu einem Sachverhalt verengt werden, um den sich schlicht die Tech-
nik-Abteilung zu kümmern hätte. Vielmehr verlangt es, sie in eine stringente
Unternehmensstrategie einzubinden. Es braucht Zielvorgaben durch die Un-
ternehmensführung und ein visionäres Bild davon, wohin sich die Organisa-
tion perspektivisch entwickeln soll. Ist dieser Rahmen angepasst, können die
technologischen Lösungen korrespondierend entwickelt werden. Technolo-
gie wird in diesem Sinn reines Mittel, darauf angewendet, dem Zweck der
Unternehmensziele nachzukommen.
Erfolgreiches Management verlangt gegenwärtig nach einem dezidierten
Technologieverständnis: Beim Phänomen der digitalen Transformation
handelt es sich um keine Aufgabe, die sich auf rein technische Implikatio-
nen verkürzen lässt. Vielmehr repräsentiert Technologie ein essenzielles
Werkzeug, das effektiv genutzt werden muss, um Unternehmensstrate-
gien umzusetzen.
Digitale Transformation als
Werkzeug des Manage-
ments
Digital Business – Konvergenzen digitaler Transformation
78
Die Frage nach neuen Antrieben im Automobilverkehr kann als Anschau-
ungsmaterial dienen, um die These praktisch zu verdeutlichen: Auch hier bil-
det die Technologie nichts anderes als ein Mittel zum Zweck. Die Verände-
rung erfolgt nicht der Veränderung selbst wegen. Der Zweck besteht viel-
mehr aus drei Säulen: „Null Emissionen. Null Staus. Null Verkehrstote.“ Ein
ganzer Sektor kann dieser definitiven Absicht folgen. Wenn die Vision erst-
mals so formuliert ist, wird die pragmatische Entscheidung getroffen, welche
Technologie genutzt oder entwickelt werden muss, um dieser Zieldefinition
nachzukommen. Auch aus diesem Grund wird der Ausstieg aus dem Ver-
brennungsmotor zur Vorgabe, da, basierend auf dieser veralteten Technik,
die dafür notwendigen technologischen Erneuerungen nicht eingesetzt wer-
den können.
Technologie bildet also einen Baustein, um die Unternehmensziele zu ver-
folgen. Im Idealfall wird sie instrumentell und pragmatisch genutzt und als
Werkzeug verwendet, um eigene Zielvorstellungen zu realisieren. Sie ist der
Erfüllungsgehilfe größerer Ambition. Intelligente Technologie oder neuwer-
tige technologische Lösungen bilden faktisch keinen Ersatz für eine ausge-
reifte Unternehmensstrategie, wie es oft fahrlässig verstanden wird. Viel-
mehr sind sie integrativer Bestandteil dieser. Diese Herangehensweise lässt
erkennen, dass es institutionalisierte und kompetente Schnittstellen
braucht, die kommunikativ und organisatorisch den Rückkopplungsprozess
zwischen der Unternehmensführung und der Technikabteilung steuern. Die-
ser Funktion kann ein dezidierter Chief Innovation Officer (CINO), gegebe-
nenfalls mit Team, nachkommen. Es handelt sich dabei um ein kommunika-
tives Rollenbild, um eine Schnittstellenfunktion. Die Verantwortung liegt de-
zidiert darin, Ansätze der Strategie, Technologie und Innovation zu vernet-
zen.
Beim Chief Innovation Officer (CINO) handelt es sich um eine Position, die
dem Aufgabenbereich vorsteht, Innovation und Change-Management zu
organisieren.
Anforderungsprofil wäre es, den Innovationsprozess zu managen und dafür
Sorge zu tragen, dass Ideen, die in Organisationen entstehen, zum Durch-
bruch kommen.
Der CINO agiert in permanenter Absprache mit der Geschäftsführung oder
kann selbst Teil dieser sein. Er versteht es, richtige Anreize im Unternehmen
zu setzen und garantiert, dass die involvierten Stellen sich in permanentem
Austausch miteinander befinden, um voneinander zu lernen. Er führt Ideen-
findungsprozesse an. Er arbeitet an dem Bewusstsein, dass man durch ei-
CINO
Digital Business – Konvergenzen digitaler Transformation
79
genständige Innovation nicht einfach Trends hinterherläuft, sondern eine er-
folgreiche Zukunft tatkräftig gestaltet. Durch Innovationsprozesse erwirken
Marktteilnehmer gestalterische Kraft.
Das entscheidende Element in diesem Zusammenhang: Der CINO ist dann
schließlich weder für die Programmierung noch für die Konzeption der tech-
nologischen Lösungen verantwortlich. Das obliegt weiterhin der Technik-
oder Technologieabteilung.
Ein CINO verfügt über technologisches Grundverständnis. Aber wichtiger
noch als solches Detailwissen wirkt die Fähigkeit, über kommunikative Über-
zeugungskraft zu verfügen, um Visionen bedenken, anstoßen und vermitteln
zu können. Seine Aufgabe liegt darin, das Wesen von Veränderungsprozes-
sen zu verstehen und strategische Leitgedanken zu erfassen, um den Glau-
ben daran zu befeuern, was machbar wäre. Die Anforderungen müssen be-
dacht werden, wenn diese Stelle besetzt oder geschaffen wird. Darin bemes-
sen sich die Chancen, erfolgreich in dieser Position agieren zu können. Es
braucht die Fähigkeit, prognostisch denken zu können und eine Organisation
davon zu überzeugen, dass die Zukunft Adaptionen verlangt.
Modernes Management basiert auf dem Grundsatz, dass die strukturelle
Verantwortung für strategische Entschlüsse innerhalb einer Organisation
auf Entscheidungsträger übertragen wird. Management verfügt dafür über
die notwendigen Durchgriffsrechte. Es erfährt weiters personelle Unterstüt-
zung, um Entschlüsse treffen und operativ vollziehen zu können. Gutes Ma-
nagement koordiniert in diesem Sinne als übergeordnete Instanz organisati-
onsinterne Prozesse. Es trifft Beschlüsse über die Zuteilung vorhandener
Ressourcen, nachdem aussagekräftige Informationen aufbereitet wurden –
immer in der begründeten Hoffnung, dass diese spezifische Investition die
sinnvollste und ertragreichste aller möglichen wäre. Management denkt und
handelt perspektivisch, kontrolliert und auf Zuschreibung von Autorität, die
durch verdientes Vertrauen erworben wird. Die kürzeste Tätigkeitsbeschrei-
bung von Management besteht in der knappen Formulierung, dass Manage-
ment schlicht meinen würde, Entscheidungen zu treffen. Je mehr Informati-
onen im Entscheidungsfindungsprozess gesammelt, bewertet und analysiert
werden, umso belastbarer wird die Entscheidungsgrundlage und umso er-
folgversprechender die Entscheidung selbst sein.
Nun finden sich im Kreis des professionalisierten und ausdifferenzierten Ma-
nagements beispielsweise Stellen, die
• für das Finanzportfolio zuständig wären (CFO – Chief Financial Officer),
• Strategien in operative Prozesse umsetzen (COO – Chief Operating
Officer),
Digital Business – Konvergenzen digitaler Transformation
80
• Marketing koordinieren (CMO – Chief Marketing Officer),
• technische Entwicklung verantworten (CTO – Chief Technology
Officer).
Diese Stellen stehen ganzen Abteilungen oder Fachbereichen vor, verfügen
über Weisungsbefugnisse und Entscheidungskompetenz. Sie steuern kom-
plexe Prozesse, auf denen unternehmerischer Erfolg gründet.
Unter einer vergleichbaren Perspektive muss nun die Aufgabe verstanden
werden, Innovation zu schaffen. Auch sie verlangt oft nach ähnlichen insti-
tutionalisierten Strukturen, wie es in anderen Bereichen bereits üblich ist.
Sie braucht klare Zuständigkeiten und Spielräume, weil sie inklusiver Be-
standteil der strategischen Richtungsweisung wäre. Genau diesem Aufga-
benbereich kommt ein Chief Innovation Officer nach.
Während Phasen intensiver und beschleunigter Innovationsdichte kann die
Position auch durch externe Consultants besetzt werden.
4.4 Und was wäre ein Chief Digital Officer (CDO)?
Neben dem CINO ließe sich modernes Management in einer Organisation
noch mittels einer anderen denkbaren Funktion ergänzen, um den digitalen
Wandel anzuführen. Es handelt sich um den Chief Digital Officer.
Liegt der Aufgabenbereich eines CINO auf der Förderung von Innovation,
wäre der CDO maßgeblich für die Transformation eines Unternehmens oder
einer Organisation in das digitale Zeitalter verantwortlich. Natürlich entste-
hen dabei vielfach inhaltliche Anknüpfungspunkte zum CINO. Gerade auch
bei Klein- und Mittelbetrieben zentralisieren sich die Aufgabenprofile in ei-
ner einzigen Position. Dann braucht es im Regelfall keine Abkopplung, dafür
umso dringlicher das Bewusstsein für die tätige Doppelfunktion. Die reinen
Definitionen und Aufgabenprofile wirken unterschiedlich. Über den CDO
heißt es:
Der CDO (Chief Digital Officer) zeichnet für Planung und Durchführung der
Transformation eines Unternehmens oder einer Institution in das digitale
Zeitalter verantwortlich. Er entwickelt neue Geschäftsmodelle und erar-
beitet die Digitalstrategie.
CDO
Digital Business – Konvergenzen digitaler Transformation
81
Gerade im deutschsprachigen Raum haben wenige Unternehmen dieses de-
zidierte Stellenprofil im eigenen Organigramm geschaffen. Es findet sich sta-
tistisch erst bei 2 % aller Großunternehmen mit über 500 Mitarbeitern.48
Dieser geringe Prozentsatz erlaubt den Rückschluss, dass mittelfristig viele
Unternehmen reagieren werden und eine solche Funktion noch einrichten.
Dabei sollten bisher gemachte Erfahrungen mitbedacht werden. Sie helfen,
unnötige Fehler zu vermeiden und Lehren zu ziehen. Die Einführung der Po-
sition hat bisher in vielen Fällen zur allseitigen Ernüchterung geführt. Wa-
rum? Auch wenn die Stelle etabliert worden ist, wurde sie selten mit der
notwendigen Entscheidungskompetenz ausgestattet, um die beabsichtigte
Transformation tatsächlich zu vollziehen. Wenn die Verantwortung für den
grundlegenden Wandel in einer Organisation bei einer Stelle zentralisiert
wird, müsste diese über weitreichende Durchgriffsrechte verfügen, um der
Aufgabe nachzukommen. Genau dieser Schritt, die Position mit ausreichend
Verfügungsgewalt und Gestaltungsspielraum auszustatten, wurde dann je-
doch meist verabsäumt. Personelle Expansion allein genügt nicht, es benö-
tigt auch die strukturellen Voraussetzungen, um tatsächlich transformativ
wirksam werden zu können.
In diesem Sinne haben sich CINOs oft wirksamer als CDOs erwiesen, da sie
die Innovation selbst verantworten, die den Wandel einleiten soll. Doch kein
Zweifel, die Zukunft wird den organisatorischen Modellen gehören, die sich
wirklich einer fundamentalen Transformation verschreiben. Es wird notwen-
dig sein, externe Trends in interne Entscheidungen zu übersetzen und dabei
strategisches Kalkül zu verfolgen. Dabei wirkt der Vorsatz entscheidend, die
Rolle des CDO nicht auf rein technologische Fähigkeiten zu beschränken. Das
Aufgabenprofil unterscheidet sich jedenfalls signifikant von jenem des CIO
(Chief Information Officer).
Der CIO ist für die Umsetzung und Umsetzbarkeit der strategischen Ent-
scheidung in Hinblick auf die Technologie verantwortlich – der CDO hinge-
gen für die strategischen Entscheidungen selbst, die zur Anwendung inno-
vativer Technologien führen. Der Unterschied in den Aufgabenprofilen ver-
langt nach anderen persönlichen Kompetenzen, Zugängen, Entscheidungs-
spielräumen, Budgets und Konzepten.
Werden agilere Formen der Unternehmensorganisation betrachtet, die sich
vom starren Korsett eines klassischen Organigramms und von fixen Hierar-
chien verabschieden, dann lassen sich die dargestellten Aufgaben des CINO
oder CDO weder strikt ein- noch abgrenzen. Sie kombinieren sich vielmehr
48 Vgl. Grimm (2016), URL.
CIO und CDO
Digital Business – Konvergenzen digitaler Transformation
82
mit vielfältigen Tätigkeitsbereichen. Die Haltung von vielen Mitarbeitern und
Managern zur Fragestellung hinsichtlich Innovation wird zentral darüber
mitentscheiden, ob notwendige Veränderungsprozesse in Organisationen
gelingen. Es lässt sich also erwarten, dass zukünftig neue und weitere Rol-
lenprofile entstehen, die genau der Aufgabe nachkommen werden, Organi-
sationen oder Teile von Organisationen an die neu geschaffenen Rahmen-
bedingungen durch die digitale Transformation anzupassen. Absehbar wer-
den in diesem Zusammenhang auch vermehrt Schnittstellen entstehen, die
eine Vermittlungsfunktion zwischen klassischer Geschäftsführung und Tech-
nikabteilung bilden. Doch neben der personellen und strukturierten Verant-
wortung benötigt es, wie angedeutet, auch dezidierte Verfahren und eine
authentische Unternehmenskultur, die den Geist der Erneuerung fördert
und mögliche Fehler frühzeitig erkennen lässt. Eine populäre und bewährte
Vorlage bildet diesbezüglich die sogenannte Fail-Fast-Kultur.
4.5 Fail-Fast-Kultur
Jede Investition, die getätigt wird, verfolgt ein gewisses Ziel, das erreicht
werden soll. Nun besteht bei Investitionen immer und immanent das Risiko,
dass der zuvor anvisierten Absicht nicht in intendierter Form entsprochen
wird. Vor allem in Bezug auf die Förderung von Innovation erscheint dieser
Sachverhalt wesentlich.
Da Innovationen ein Versprechen für die Zukunft sind, die sich von der Ge-
genwart unterscheidet, muss mit Ungewissheiten umgegangen werden. Wie
wären also Verfahren aufzubauen, die mehr Sicherheit und Stabilität in ein
System bringen, das auf Erneuerung zielt? Ein gewinnbringender Ansatz
wäre es, mögliche Fehler oder nutzlose Abweichung vom Planvorhaben früh
zu entdecken und die Substanz von Ideen dementsprechend zu bewerten.
Je jünger das Stadium einer Fehlentwicklung oder eines fehlgeleiteten Pro-
jekts ist, desto geringer ist der organisatorische Aufwand und finanzielle Ver-
lust, der eine Kurskorrektur oder ein Ende bedeutet. Genau diese zeitnahen
Korrekturen besorgt eine Fail-Fast-Kultur.
Die Fail-Fast-Methode selbst erkennt an, dass Innovationen in Unternehmen
an unterschiedlichen Stellen geschehen, meist auf Teamarbeit und kollek-
tive Intelligenz angewiesen sind, zur Investition nötigen, unumgänglich Ent-
wicklungen für den Unternehmenserfolg bilden. Darauf gilt es zu reagieren.
Wie aber sicherstellen, dass keine Energien und Ressourcen unnötig ver-
schwendet werden? Die Fail-Fast-Kultur versucht, wie der Name bereits ver-
Digital Business – Konvergenzen digitaler Transformation
83
rät, ein mögliches Scheitern oder denkbare Verbesserungen bei Innovatio-
nen unmittelbar auszumachen. Sie ermutigt dazu, Fehlentwicklungen zu ent-
decken und aus möglichen Misserfolgen effektive Schlüsse zu ziehen.
Folgende prinzipielle Vorgehensweise kennzeichnet das Verfahren: Es wird
beabsichtigt, bei neuen Ideen oder Prototypen möglichst unmittelbar das
Feedback von anderen einzuholen. Es gilt der Ansatz, dass ein Vorhaben sich
noch nie von Beginn an in Perfektion selbstständig ergab. Erst durch Experi-
ment und Rückmeldung werden die vorläufigen Versuche einer Umsetzung
tauglicher und adaptiver. Es benötigt Kritik, Transparenz, Diskussion und
Auseinandersetzung, um Verbesserungen an denkbaren Innovationen zu er-
wirken. Je früher diese eingeholt werden, desto effektiver, konstruktiver und
platzierter wirken sie. Kritik wird in diesem Sinne als unverzichtbarer Gestal-
tungs- und Erfolgsfaktor verlangt. Ohne Kritik geschieht kein Fortschritt.
Fail-Fast basiert auf dem Verständnis, dass jede Weiterentwicklung nicht nur
Interaktion verlangt, sondern nie geradlinig geschieht und sich nie ohne Brü-
che vollziehen kann. Scheitern wird als Ausweis verstanden, dass man sich
auf dem richtigen Weg befindet. Nur dort, wo sich Scheitern ausmachen
lässt, wird der Wille zur Veränderung angetroffen. Scheitern wird in diesem
Sinne nicht als Makel verstanden, sondern als Bedingung, um in schnell wan-
delnden Märkten erfolgreich agieren zu können. Es beinhaltet ein abgeklär-
tes und experimentelles Verständnis darüber, dass nur durch Versuch und
den Lehren daraus positive Rückschlüsse und Ergebnisse erwirkt werden
können. Diese Erkenntnisse sollen auch im größeren Rahmen geteilt wer-
den, denn nur durch gemachte Erfahrung lässt sich effektiv lernen.
Die Fail-Fast-Kultur kultiviert also das Verständnis, dass Scheitern ein not-
wendiger Zwischenschritt hin zum Erfolg wäre. Es sind die Lehren und Rück-
schlüsse, die aus Irrtümern und Irrwegen gezogen werden, die über den
Fortschritt entscheiden – nicht die Irrtümer und Irrwege selbst. Es handelt
sich um einen analytischen Lernprozess.
Ursprünglich fand die Fail-Fast-Methode vor allem bei der Software- und
Hardware-Entwicklung Anwendung. Vom Umfeld der Informatik hat sie sich
mittlerweile in andere und viele weitere Geschäftsbereiche hinein weiter-
entwickelt. Bei der Fail-Fast-Kultur handelt es sich also um eine Versuchsan-
ordnung, die eigentlich in Zusammenhang mit dem System Design entstan-
den ist. Was bedeutet das nun? Die historischen Hintergründe lassen auch
die Funktionsweise besser begreifen. System Design erfasst essenziell alle
relevanten Entscheidungen, wenn Module, Architektur, Komponenten, de-
ren Schnittstellen und die notwendigen Daten für ein System gemäß den
Digital Business – Konvergenzen digitaler Transformation
84
spezifischen Anforderungen definiert werden. Es handelt sich um den Pro-
zess der Entwicklung und Gestaltung von Systemen, die den spezifischen Be-
dürfnissen und Anforderungen eines Unternehmens oder einer Institution
entsprechen. Diesen Anforderungen zu entsprechen, hat es vor allem im Be-
reich der Softwareentwicklung gebraucht. Dort durfte auch festgestellt wer-
den, dass kurze Interaktionszyklen wesentlich zur Verbesserung der Qualität
des Produkts beigetragen haben. Also: Je schneller Reaktionen auf ein Ent-
wicklungsstadium der Software oder Hardware eingeholt wurden, umso ziel-
gerichteter und ertragreicher konnte an der Weiterentwicklung gearbeitet
werden. Aus diesem Bedeutungszusammenhang wurde Fail-Fast mittler-
weile zu einer Denkweise und einem Arbeitsprozess, der sich seit den Anfän-
gen universalisiert hat. Da die Arbeitsumwelt projektbasierter wurde, Inno-
vationsprozesse sich beschleunigen und immer mehr Märkte umfassen,
zeigt die Maxime stetig größere Wirksamkeit. Sie erlaubt es nicht nur,
schrittweise Verbesserungen anzudenken und umzusetzen. Sie eröffnet Or-
ganisationen auch die Möglichkeit, neue Projekte bereits dann einzustellen,
wenn sie absehbar zu keinem zufriedenstellenden Endergebnis führen wür-
den. Das spart Kosten.
• Fail-Fast ist also ein operatives Prinzip, das offene Diskussion und
wiederholte Rückmeldung in kurzen Zyklen zu konkreten Entwick-
lungsschritten fördert.
• Fail-Fast repräsentiert ein effektives Verfahren, das erste empirische
Erfahrungen anderer mit eigenen Ideen oder Produkten als Anregung
und Erkenntnisquelle erachtet.
• Fail-Fast basiert auf einer Organisationskultur, die gegenüber Inno-
vation aufgeschlossen ist und Kritik als Mittel des Fortschritts prakti-
ziert.
• Fail-Fast liefert ein effektives Tool, um Innovation zielgerecht zu för-
dern.
• Fail-Fast begründet Erkenntnisse, die treffsichere Ressourcenalloka-
tionen (Kapital und Arbeit) organisieren lassen.
Fail-Fast kann selbst gängige Einstellungen hinsichtlich der Marktwirtschaft
herausfordern. Speziell in Kontinentaleuropa wird unternehmerisches Schei-
tern mitunter allgemein als eine persönliche Verfehlung qualifiziert. Hier
braucht es einen Bewusstseinswandel. Ganz konkret sollte das Insolvenz-
recht Möglichkeiten schaffen, um den Wiedereintritt von Ideenträgern am
Markt nicht dauerhaft zu blockieren, nachdem ein erstes Projekt abgewi-
ckelt wurde. Gerade diejenigen, die schon mal scheitern mussten, haben
nicht nur Mut bewiesen, sie durften auch schmerzhafte Lehren ziehen. Auf
Fail-Fast
Digital Business – Konvergenzen digitaler Transformation
85
diese Kompetenz und den Erfahrungsschatz sollten dynamische Gesellschaf-
ten nicht verzichten. Es gilt, eine zweite Chance sicherzustellen.
Fail-Fast erfasst also einen Kulturwandel sinnbildlich für ein Zeitalter. Denn
oft besteht das größte Risiko einer Organisation nicht darin, dass Innovatio-
nen missglücken, sondern dass allein der Versuch der Erneuerung aufgrund
eines fatalen Gefühls der Selbstgefälligkeit unterlassen wird. Strategische
Veränderungen wären jedoch regelmäßig dann zu lancieren, wenn eine Or-
ganisation ertragreiche Geschäftsperioden durchläuft. Dann wäre der ope-
rative Gestaltungsspielraum vorhanden. Nachvollziehbarerweise sind das
genau jene Abschnitte, wenn die dringliche Auffassung kaum greift, dass
Veränderung notwendig wäre. Wie es trotzdem gelingen kann, Wandel an-
zustoßen, zu organisieren, durchzuführen und ihn abschließend in eine neue
Unternehmenskultur zu übersetzen, erklärt das nächste Kapitel.
Digital Business – Konvergenzen digitaler Transformation
86
5 Case Studies
Case Studies lassen begreifen, wie unterschiedliche Unternehmen bzw. eine
republikanische Gesellschaft es vermögen, auf die Anforderungen der digi-
talen Transformation zu reagieren oder welche Auswirkungen es haben
kann, wenn die Durchsetzungsfähigkeit innovativer Trends markant unter-
schätzt wird. Die davor dargestellten Theorien erhalten durch diese Bei-
spiele eindrückliche Praxis. Auch wenn sich in Hinblick auf die bereits erklär-
ten technologischen Grundlagen keine direkten Verbindungslinien mit den
neuen Techniktrends ausmachen lassen, viel interessanter und lehrreicher
scheinen die pragmatischen Zugangsweisen, die in den Beispielen zum Aus-
druck kommen. Als Case Studies wurden vordergründig Fälle gewählt, die
aufzeigen, wie unterschiedliche Märkte oder Entscheidungsträger auf tech-
nologische Trends reagieren. Die Beispiele erfassen vor allem Anschauungs-
material, wie sich Disruptionen als strategische Fragestellungen anerkennen
lassen, wie darauf mutige Antworten gefunden oder verabsäumt werden.
Die Technologie agiert hier nie als Zweck an sich, sondern als konstruktives
Mittel, um für einen höheren Zweck eingesetzt zu werden. Darin liegt die
universelle Qualität der dargestellten Vorgehensweise: Nicht die Technolo-
gie bildet das zentrale Element strategischer Richtungsentscheidungen, son-
dern sie wird handwerklich als Instrument genutzt, um neue Strategieset-
zungen zu verfolgen.
Den erfolgsversprechenden Zugang, mit Innovationspotenzial und veränder-
tem Bewusstsein auf Umbrüche zu reagieren, bezeichnen die ersten beiden
der nachfolgenden Szenarien. Die drohenden Konsequenzen, die sich bei
Versäumnissen oder fehlendem Vorstellungsvermögen realisieren, finden
sich im dritten Fallbeispiel konzentriert.
Bewusst wurden drei genuin unterschiedliche Beispiele aus distinktiven Zu-
sammenhängen gewählt, um die Universalität der Herausforderungen zu
kennzeichnen. Erstmal diese sehr spezifischen Fälle gedacht, lassen sich
dann selbstständige Rückschlüsse über die eigene Position, das eigene Auf-
gabenfeld und den eigenen größeren Tätigkeitsbereich treffen.
5.1 Das digitale Modehaus
Modetrends ändern sich fortlaufend. Jeder Stilwechsel, der sich vollzieht,
trägt auch dazu bei, den Modemarkt anwachsen zu lassen. Dabei entspricht
die globale Wertschöpfung der Bekleidungsindustrie aktuell bereits 3 % des
Welt-Bruttoinlandsprodukts und erwirtschaftete im Jahr 2016 einen Jahres-
Digital Business – Konvergenzen digitaler Transformation
87
umsatz in der Höhe von 2,4 Billionen $.49 Zum Vergleich: Dieser Wert ent-
spricht knapp dem zweifachen Bruttoinlandsprodukt der Russischen Föde-
ration im selben Jahr.
Doch nicht nur die schiere Größenordnung macht den Markt als Untersu-
chungsgegenstand interessant, auch lässt sich verstehen, wie moderne Un-
ternehmenskommunikation funktioniert und die Globalisierung Stilvorlie-
ben vereinheitlicht. Denn Präferenzen von Konsumenten werden zuneh-
mend online verhandelt und der virtuelle Raum agiert als eigentlicher Markt-
platz. Die digitale Transformation erweist also merkliche Konsequenzen für
die Geschäftspraxis.
Es existieren Modeunternehmen, die bereits als reines E-Commerce gegrün-
det wurden. Diese Unternehmen betreiben keinen stationären Handel und
können die relativen Vorteile hinsichtlich der Kostenstruktur – das Resultat
der Gründungsidee – direkt an Kunden weitergeben. Darüber hinaus genie-
ßen Kunden die Freiheit, dass bei Online-Einkäufen keine Beschränkungen
durch Ladenöffnungszeiten berücksichtigt werden müssen. Auch lässt sich
in hochpreisigen Angeboten stöbern, vor denen möglicherweise in Läden zu-
rückgeschreckt wird. Das persönliche Beratungsgespräch, das wegfällt, wird
durch ein großzügiges Rücksenderecht ersetzt.
Doch diese kundenfreundliche Regelung führt zu unternehmerischen Risi-
ken. Online gekauft wird Mode weitaus wahrscheinlicher retourniert als Klei-
dung, die im stationären Handel erworben wird. Fundierte Schätzungen ver-
muten, dass allein in Deutschland 70 % aller bestellten Waren bei Online-
Modehäusern wieder zurückgeschickt werden. Jede Rücksendung verur-
sacht dabei durchschnittlich Aufwände für das Unternehmen in Höhe von
ungefähr 15 €.50 Die variablen Kosten sinken zwar aufgrund von Fortschrit-
ten bezüglich der Vollautomatisierung der Lagerverwaltung kontinuierlich,
doch verursachen einzelne Sendungen noch immer Aufwände, die den Bi-
lanzgewinn massiv schmälern. Künstliche Intelligenz soll auch aus diesen
Gründen in Zukunft dafür genutzt werden, Kunden bessere Empfehlungen
anbieten zu können und Marketing und Administration stärker zu automati-
sieren.51
Einen abweichenden Ansatz, der sich von der fortschreitenden Tendenz hin
zur vollkommenen Automatisierung beim Online-Modehaus unterscheidet,
verfolgt das Unternehmen Stitch Fix. Die Geschäftspraxis versucht das Zu-
sammenspiel zwischen datenanalytischer Kaufempfehlung und persönlicher
49 Vgl. Amend (u. a.) (2017), S. 6.
50 Vgl. Uken (2014), URL.
51 Vgl. Jansen (2018), URL.
Digital Business – Konvergenzen digitaler Transformation
88
Beratung symbiotisch zu verbinden. Bevor sich ein Kunde dafür entscheidet,
die Services von Stitch Fix nutzen zu wollen, muss verpflichtend ein Frage-
bogen ausgefüllt werden.
Abbildung 13: Auszug aus dem persönlichen Fragebogen bei der Registrierung auf Stitch Fix52
Auf Grundlage der Antworten und der umfassenden Analyse weiterer Da-
tenströme werden persönliche Stilprofile erstellt sowie ästhetische Vorlie-
ben errechnet. Für die Analysemethoden zeichnet Eric Colson verantwort-
lich, der ursprünglich bei Netflix den Algorithmus verfeinerte, der Nutzern
die nächsten Filme empfiehlt. Stitch Fix selbst wurde von der Unternehmerin
Katrina Lake gegründet. Die Idee war es, die Vorzüge eines Personal Shop-
pers mit moderner Datenanalyse zu kombinieren, um damit eine gewisse
Käuferschicht anzusprechen. Weder kennt die Geschäftspolitik Rabatte noch
Abverkäufe. Dafür erhält jeder Kunde in regelmäßigen Abständen, die fest-
gelegt, aber selbstständig gewählt werden, persönlich zusammengestellte
Lieferungen kombinierter Outfits in Paketen zugestellt. Den Inhalt der Liefe-
rung bestimmt dabei nicht nur präzise Datenanalyse, die beispielsweise auch
die dokumentierten Vorlieben auf Pinterest miteinbezieht, sondern mensch-
liche Stylisten verfeinern jede Zusendung persönlich. Das Zusammenspiel
aus Datenanalytik auf Grundlage Künstlicher Intelligenz und der Erfahrung
professioneller Stylisten soll die persönlichen Geschmäcker der Kunden ge-
nau treffen. Für jede Rücksendung muss in Folge nicht nur gezahlt werden,
es wird auch Feedback verlangt, warum der persönlichen Stilvorliebe nicht
entsprochen wurde. Aus diesen Informationen und vor allem aus den Klei-
52 Eigene Grafik.
Digital Business – Konvergenzen digitaler Transformation
89
dungsstücken, die behalten werden, lassen sich die Profile der Kunden prä-
zisieren. Statt der vollkommenen Automatisierung von Lieferketten wird in
diesem Ansatz die Interaktion zwischen Mensch und Maschine als Ge-
schäftsgrundlage gefördert, um die Kundenbedürfnisse zu befriedigen.
Ein drittes Beispiel rekapituliert, wie mit einer grundsätzlich anderen Her-
ausforderung umgegangen wurde. Es handelt sich in diesem Fall um keine
Neugründung, die bereits anfänglich die Grundlage digitaler Geschäftsprin-
zipien mitbedenken konnte. Vielmehr zeigt sich, wie ein Unternehmen, das
als Inbegriff eines traditionsreichen Markenverständnisses wirkt, die Mög-
lichkeiten der digitalen Transformation für sich zu nutzen versteht: Burberry.
Gemeinhin wird das emblematische Karo, das den Auftritt der Marke Bur-
berry bestimmt, als Ausdruck Londoner Understatements und britischen
Stils angesehen. Den Eindruck von Gediegenheit und einen Begriff von zeit-
loser Eleganz versucht das Marketing des Modehauses zu kombinieren.
Die Beständigkeit, die das Unternehmen zu repräsentieren beabsichtigt, fußt
jedenfalls gemäß Selbstwahrnehmung auf dem permanenten Willen zur kri-
tischen Erneuerung. In interner und externer Kommunikation wird dabei oft
auf die eigene Firmengeschichte verwiesen. Der gelernte Textilhändler
Thomas Burberry gründet als junger Mann ein Stoffgeschäft im Jahr 1856
westlich von London. Nachdem er bereits 23 Jahre lang den eigenen Laden
betreibt und an der Weiterentwicklung von Gewebe forscht, entwickelt er
ein neuartiges Verfahren, bei dem der einzelne Faden vorab imprägniert
wird. Der neue Stoff, der entsteht, heißt Gabardine. Im Jahr 1888 meldet
Thomas Burberry Patent auf seine Erfindung an.
Gabardine wärmt, ist atmungsaktiv, erweist sich als wasserabweisend, ist
leicht im Gewicht und passt sich dem Körper flexibel an. Die Produkte von
Burberry werden deshalb anfänglich für die ersten Expeditionen zum Südpol
oder bei der Besteigung des Mount Everests genutzt.
Breite Verwendung findet der Stoff, da sich auch Regelmäntel damit produ-
zieren lassen. Der Nutzen für das Militär wird umgehend erkannt. Gabardine
wurde folglich dafür verwendet, Mäntel zu schneidern, die von englischen
Militärs im Ersten Weltkrieg getragen wurden. Gerade in der Nässe der
Schützengräben entlang der Frontstellungen erweist sich das Material als re-
sistenter und angenehmer im Vergleich zum gewöhnlichen Wollmantel. So-
bald es feucht wird oder Regen fällt, saugen sich die Wollmäntel voll. Der
neuartige Trenchcoat von Burberry ist deutlich besser für solche Situationen
geeignet. Die Bezeichnung Trenchcoat zeugt von dieser Produktgeschichte,
Digital Business – Konvergenzen digitaler Transformation
90
sie memoriert historische Verbindungen. Das englische Wort Trench bedeu-
tet nichts anderes als Schützengraben. Auch die Stilelemente eines klassi-
schen Trenchcoats hatten einst einen rein funktionellen Charakter. Die
Epauletten an den Schultern zeigen militärische Referenz. Die ganze Gestal-
tung der Schulter- und Halspartie soll regenabweisend sein, demselben
Zweck dient der aufstellbare Kragen. Die Karabiner ließen Waffen und Uten-
silien praktisch mitführen.
Nach Ende des Krieges findet der Trenchcoat Einzug in den Alltag. Der Auf-
stieg von Burberry zur populären Marke wird außerdem durch effektives
und frühes Marketing unterstützt. Das Unternehmen trägt dafür Sorge, dass
eindrucksvolle Stilikonen geschaffen werden. Audrey Hepburn trägt im Film
Breakfast at Tiffany’s Burberry, James Bond selbstverständlich auch.
Effektvolle Vermarktung versucht das Unternehmen seit dem Zeitpunkt der
Gründung zu verfolgen. Bereits im 19. Jahrhundert vereinbart Thomas Bur-
berry mit hohen Militärs, dass sie exklusiv seine Produkte tragen. Das Militär
stellt zu jener Zeit auch die angesehene Elite der Gesellschaft im viktoriani-
schen England dar. Es genießt in elitären Kreisen hohes, geradezu stilbilden-
des Ansehen. Der Strukturwandel der Öffentlichkeit führt später dazu, dass
internationale Filmschauspieler oder Musiker ähnliche Bekanntheit genie-
ßen werden. Der Ansatz also, das eigene Produkt durch Identifikationsper-
sonen zu popularisieren, bildet bereits den Ausgangspunkt jeder Öffentlich-
keitsarbeit des Unternehmens.
Der starke Fokus auf Kernidentität und Kernprodukt, der Burberry zu eigen
scheint, löst sich im Verlauf der Jahrzehnte auf. Lizenzgeschäfte machen
nunmehr einen wichtigen Bestandteil der operativen Geschäftsgrundlage
aus. Die Lizenzen erlauben anderen Unternehmen, das Burberry-Branding
exklusiv zu nutzen. Taugliche Mechanismen, um die Produkteinführungen zu
koordinieren und zu kontrollieren, existieren nicht. Die 23 gültigen Lizenzen,
die von Burberry veräußert werden, verursachen im Endeffekt merkliche Be-
liebigkeit und schwächen die Kundenbindung. In Folge der teils konzeptlo-
sen Diversifizierung firmt das Burberry-Karo auf Hundehalsbänder und Hun-
deleinen. Das Produktsortiment in Hongkong, für den asiatischen Markt her-
gestellt, unterscheidet sich wesentlich vom vorhandenen Angebot in den
Vereinigten Staaten. In den USA werden die Mäntel für den nationalen
Markt in einer Fabrik in New Jersey gefertigt. Solange das der Fall ist, findet
sich in den klassisch-britischen Burberry-Trenchcoats die Angabe Made in
the U.S.A. eingestickt, sofern sie in den USA erworben werden. Diese nach-
weisliche Indifferenz gegenüber der Identität der eigenen Marke verantwor-
tet, dass Burberry im Vergleich zur Konkurrenz konstant an Marktanteilen
verliert.
Digital Business – Konvergenzen digitaler Transformation
91
Die Entwicklungen werden jedenfalls im Rahmen einer personellen Erneue-
rung kritisch evaluiert. Als die Amerikanerin Angela Ahrendts, aus dem Mitt-
leren Westen stammend, im Jahr 2006 zur CEO des britischen Mutterkon-
zerns bestellt wird, wird die Unternehmensstrategie neu definiert. Sie ver-
folgt einen radikalen Wandel, vollführt Change-Management. Die Vision lau-
tet, dass das Unternehmen wieder zurück zu seinen Wurzeln geführt werden
soll, um modernen Ansprüchen zu genügen. Das mag wie ein Paradoxon klin-
gen, initiiert aber aufgrund strukturierter Umsetzung eine ertragreiche Er-
folgsgeschichte.
Als Bezugspunkt, um das Image der Marke neu zu prägen, dienen keine Be-
zugsgrößen von unmittelbaren Mitbewerbern, die es nachvollziehbar besser
gemacht hätten. Orientierung geben vielmehr Apple und Starbucks. Beide
Konzerne werden weltweit mit einem einheitlichen Produktportfolio assozi-
iert und ein überzeugendes Auftreten ist ihnen eigen. Sie etablieren demge-
mäß Kulturtechniken und Erwartungshaltungen des globalisierten Konsu-
menten. Während das Sortiment in den Flagshipstores von Burberry ver-
sucht, sich vermeintlich an lokale Vorlieben anzupassen, wählen Kunden bei
Starbucks oder Apple weltweit aus einem stringenten und gleichartigen An-
gebot, das starke Identifikation stiftet. Unter den Vorzeichen der Globalisie-
rung, weltumspannender Kommunikationskanäle und der beobachtbaren
Universalisierung von Modetrends beginnt Burberry, das eigene Unterneh-
mensprofil zu überdenken und die eigene Geschäftsgrundlage zu remodel-
lieren.
Punktuell zusammengefasst: Burberry konzentriert sich auf sein Kernge-
schäft als Hersteller von Trenchcoats. Es zentralisiert die Produktion des Klei-
dungsstücks in England und setzt vehement auf den Outdoor-Bereich. Es
kündigt Lizenzverträge und zentralisiert die Entscheidungshoheit darüber,
welche Produkte lanciert werden. Es konzentriert sich zu Beginn der eigenen
Kulturwende auf die Kundengruppe der unter 30-Jährigen, die von anderen
Luxusherstellern vernachlässigt wird. Das Unternehmen plant moderne Kun-
denerfahrungen, die mit anderen Marken gemacht wurden, im eigenen
Marktauftritt besser zu reflektierten. Essenziell erwartet und versteht ein
Kunde heute, dass sich bei Starbucks in Graz wie in Buenos Aires Latte Mac-
chiato bestellen lässt und dieser auch gleich schmeckt. Bei Burberry soll eine
ähnliche Erfahrung gemacht werden. Diese prinzipiellen Eckpunkte formen
nunmehr die Unternehmensstrategie des Modehauses.
Der konservative Ansatz wird mit progressiven Instrumenten umgesetzt. Di-
gitale Konzepte vervollständigen und verwirklichen, was strategisch geplant
Digital Business – Konvergenzen digitaler Transformation
92
wird. Innovative und nahtlose Verschränkungen zwischen digitaler und rea-
ler Welt ermöglichen es dem Unternehmen, die neuen Leitgedanken zu re-
alisieren. Wie wird dabei vorgegangen?
Burberry vereinheitlicht weltweit den Aufbau der eigenen Läden. Flag-
shipstores werden systematisch neu organisiert und erhalten verbindliche
Vorgaben. Doch geht Burberry einen entscheidenden Schritt weiter, als sich
auf identische Anordnung und Gestaltung zu beschränken. Der Aufbau des
stationären Handels wird stattdessen gemäß dem eigenen Internetauftritt
adaptiert. Weil Kunden im Regelfall zuerst über die Homepage mit dem Un-
ternehmen in Kontakt kommen, weil online stilbildende Eindrücke entste-
hen, weil gewöhnlich vorab der Online-Auftritt und dann erst das Geschäfts-
lokal besucht wird, dient der Aufbau der Homepage als maßgebliches Modell
für die Storekonzepte.
Was online als einzelne Rubrik aufgerufen wird, findet sich als eigene Abtei-
lung im stationären Handel wieder. Virtuelle und reale Einkaufserfahrung
sollen zu einem bruchlosen Gesamterlebnis fusionieren. Angela Ahrendts
und ihr Team wählen ideell einen anderen Zugang als den sonst üblichen:
Nicht die virtuelle Welt muss an reale Gegebenheiten anknüpfen, sondern
alle realen Erlebnisse mit der Marke haben den virtuellen Bereich zur Vor-
lage. Wenn Kundenbeziehungen unter dem Paradigma der digitalen Trans-
formation als kommunikativer Akt verstanden werden, dann gilt es, einheit-
liche Ansprache über alle Kanäle hinweg zu etablieren. Weil Erfahrungs-
werte und Erwartungshaltungen mit einem Unternehmen zuerst online ent-
stehen und sich so das individuelle Bildnis hinsichtlich einer Marke festigt,
müssen reale und virtuelle Erlebnisse exakt korrespondieren, um ein kohä-
rentes Bild abzugeben. Für die Neugestaltung des Haupthauses in der Lon-
doner Regent Street wurde die Devise ausgegeben, dass bei Kunden, sobald
sie den Laden tatsächlich betreten, das Gefühl erzeugt werden soll, sie wür-
den in die Webseite eintauchen.
Der Trenchcoat, wieder als Ausgangspunkt des Markenauftritts identifiziert,
wird entsprechend eines neuen Medienverständnisses junger Kunden insze-
niert. Keine bekannten Models wirken als Sujet der Werbekampagne, son-
dern Burberry richtet eine Internetplattform ein, auf der jeder ein Foto von
sich posten kann, wenn er den Trenchcoat trägt. Die Idee, inspiriert von den
Identifikationsverfahren der Nutzer sozialer Medien, zeigt Erfolg.
Gleicher Videocontent, um das gewünschte Image der Marke zu befördern,
findet sich nicht nur in den Internetauftritten integriert, sondern auch auf
Screens abgespielt, die in allen Läden eingebaut sind. Die Verkaufsteams im
stationären Handel werden mit iPads ausgestattet und intensiv in der neuen
Digital Business – Konvergenzen digitaler Transformation
93
Unternehmenspolitik geschult. Die interne Kommunikationspolitik wird
ebenso gänzlich geändert. Die Geschäftsführung, bestehend aus CEO und
Kreativdirektor, führt regelmäßig Videokonferenzen für das ganze Unter-
nehmen durch, um die Idee hinter getroffenen Entscheidungen zu erklären.
Wie die als radikal geltenden Konzepte in Frage gestellt werden, zeigt ein
anderes Beispiel. Neue Trends für die kommende Saison präsentieren re-
nommierte Modehäuser im Regelfall auf internationalen Modewochen ei-
nem exklusiv geladenen Publikum. Burberry bricht mit dieser Logik. Die Mo-
deschauen werden online einem interessierten Publikum live zugänglich ge-
macht und zeitgleich in den eigenen Läden mittels Satellitenübertragung auf
Riesenbildschirmen gezeigt. Auch werden bereits vor der Schau erste Bilder
von den Vorbereitungen samt Kleidungsstücken auf Snapchat ausgesendet.
Ein radikaler Bruch mit herkömmlichen, doch überholten Traditionen. Gene-
rell werden alle gängigen Kanäle der sozialen Medien intensiv und experi-
mentell bespielt und immer wieder neu versucht, sie direkt mit Funktionen
hinsichtlich E-Commerce zu kombinieren. Ein besonderes Gewicht liegt da-
bei auf dem Nachdruck von überzeugendem Storytelling, um die Beziehung
zwischen Kunde und Unternehmen zu personalisieren und in eine histori-
sche Dimension zu setzen. Um die Verbindung zu den Kunden zusätzlich zu
intensivieren, wird darüber hinaus die Möglichkeit geschaffen, mit dem Mo-
dehaus direkt in Kontakt treten zu können. Burberry selbst spricht von einer
Beziehungspflege, wie sie jede dauerhafte und befruchtende Beziehung
braucht. Außerdem wird die Zusammenarbeit mit aufstrebenden Musik-
gruppen gefördert und auf vielfältige Weise beworben. Das geschieht nicht
nur, um die eigene Britishness herauszustreichen, sondern auch, um explizit
und mittelbar die anvisierte Zielgruppe der unter 30-Jährigen umstandslos
zu erreichen.
Moderne Märkte nehmen die Form einer vielschichtigen und hochkomple-
xen sozialen Matrix an, die immer – manchmal sogar ausschließlich – tech-
nologische Verbindungslinien nutzt. Je intensiver und erinnernswerter eine
konkrete Beziehung in diesem weitreichenden Geflecht gestaltet wird, als
umso dauerhafter und belastbarer wird sich die Verbindung erweisen. Die-
ses Prinzip definiert als Wesensmerkmal auch jede Verbindung zwischen
Konsument und Unternehmen. Je besser sich beide kennen, umso vorteil-
hafter für beide. Verbindlichkeit entsteht in diesem Zusammenhang durch
Innigkeit und datengestützte Analyse.
Die Gegenwart ist durch eine soziale Komplexität gekennzeichnet, die für
vormoderne Gesellschaften faktisch unvorstellbar wirkt. Der unentrinnba-
ren Übersichtlichkeit der Stammeskultur, der unüberwindbaren Enge des
Digital Business – Konvergenzen digitaler Transformation
94
Agrarzeitalters setzt die Industriegesellschaft eine Struktur von vielgliedri-
gen Verbindungen entgegen, die durch privates, berufliches und institutio-
nelles Wirken geschaffen wird und unserer Existenz Gestalt gibt. Bis zum Be-
ginn der industriellen Revolution, die zur Neufundierung der westlichen Ge-
sellschaft führte, wurde der Mensch in ein soziales Gefüge hineingeboren
und war dazu verurteilt, das Vorgefundene als unabänderlich zu akzeptie-
ren. Mit dieser einst unüberwindlichen Einschränkung bricht das Industrie-
zeitalter. Das Wissenszeitalter hebt die Modularität auf eine höhere Ebene,
weil ein informelles Netz gespannt wird, das sich permanent neu zusammen-
setzt. In dem Maße, wie neue soziale Interaktionen stattfinden, erweitern
sich die Schnittpunkte. Auf diese neue Zivilisationsform müssen Organisati-
onen in ihrem Marktauftritt reagieren.
Bei Burberry wird neben Benchmarking-Studien, um die Konkurrenz besser
zu verstehen, auch Consulting durch Kulturanthropologen in Anspruch ge-
nommen. Der anthropologische Sinn hilft, besser zu verstehen, was die his-
torische Marke Burberry im kollektiven Bewusstsein repräsentiert und wie
sich diese Auffassung zeitgemäß interpretieren lässt.
Die holistische Vorgehensweise, die Absatzwege und Kommunikationska-
näle gravierend zu modernisieren und physische und virtuelle Welten zu-
sammenzuführen, rentiert sich. Burberry kann überdurchschnittliche Um-
satzsteigerungen verbuchen.
Angela Ahrendts schafft es während ihrer Funktionsperiode als CEO bei Bur-
berry, die von 2006 bis 2014 dauert, sowohl den Konzernumsatz als auch
den operativen Gewinn zu verdoppeln. Sie hat beim Modehaus eine Trend-
wende herbeigeführt, auf die sich auch zukünftig aufbauen lässt, um auch
neue technologische Trends in die Konzernstrategie zu integrieren.
Angela Ahrendts selbst wechselt schließlich vom britischen Modehaus in den
Vorstand des Technologiekonzerns Apple. Dort zeichnet sie für die Fortent-
wicklung des stationären Handels verantwortlich und versucht auch hier die
Integration aus virtueller und physischer Umgebung, um ein eingängiges
Kundenerlebnis zu schaffen.53
53 Vgl. für alle Angaben zu Burberry: Ahrendts (2013), URL und Economist (2012), URL.
Digital Business – Konvergenzen digitaler Transformation
95
5.2 Das digitale Staatswesen
Pragmatisches Verständnis der digitalen Transformation wandelt die Digita-
lisierung zu einem Instrument, das sich zweckvoll nutzen lässt, um soziale
Interaktion zeitgemäß zu organisieren.
Regelmäßig wird diese Verständnisgrundlage unzulässig verkürzt. Stattdes-
sen wird die Auffassung kultiviert, es handle sich bei der digitalen Transfor-
mation um die alleinige Aufgabe, Arbeitsabläufe durch technologische Inno-
vation zu automatisieren. Zusätzliche Aspekte würden jedoch nicht tangiert.
Kulturelle Gewohnheiten oder prozessuale Verfahren werden in Organisati-
onen dann weitestgehend auf diese Weise fortgesetzt, wie sie davor einge-
führt wurden, schlicht, dass sie nunmehr durch Technologien teils unter-
stützt oder ganzheitlich abgewickelt werden. Wird Technologie nicht als
multifaktorielles Phänomen erkannt, das auf und in Organisationen wirkt,
kann das vorhandene Entwicklungspotenzial nicht realisiert werden. Es er-
fordert vielmehr einen substanziellen Kulturwandel.54
Der Gegenstand der digitalen Transformation und die Aufgaben, die sie im-
pliziert, erweisen sich komplexer, als eine oberflächliche Betrachtung und
Umsetzung dies vermuten ließe. Es verlangt nach strategischen Konzepten,
wie Gesellschaften, Institutionen oder Unternehmen in einer sich verän-
dernden Welt der eigenen Zweckbestimmung nachkommen. Darin liegt die
Herausforderung in Zusammenhang mit modernen Umbrüchen. Wie kann
die Erbringung von Dienstleistungen, die Herstellung von Produkten, die Or-
ganisation interner und externer Kommunikation, das Zusammenwirken ei-
ner Zivilgesellschaft so gestaltet werden, dass sie einer erneuerten sozio-
ökonomischen Struktur mit fortschrittlichen Ansprüchen Genüge leistet?
Das wäre die strategische Fragestellung, mit der sich Entscheidungsträger
konfrontiert sehen. Es bedingt also konzeptioneller Antworten, die den Ein-
satz von Technologie pragmatisch bedenken. Die operative Umsetzung die-
ser Konzepte verlangt substanzielle Adaptierungen und einen eingehenden
Begriff davon, wie die Zukunft gestaltet werden kann.
Eine dezidiert innovative Antwort angesichts der Herausforderung sucht Est-
land. Der baltische Staat erlangte seine Unabhängigkeit im Jahr 1991 wieder,
in einer Zeit, als die Desintegration der Sowjetunion unumkehrbar voran-
schreitet. Heute an Russland und Lettland, vor allem aber an die Ostsee
grenzend zählt die Republik 1,3 Millionen Staatsangehörige – vergleichbar
viele Einwohner hat auch München. Der Staat ist sowohl Mitglied der Euro-
päischen Union als auch der NATO und verwirklicht eine Dynamik, was den
54 Vgl. für die Darstellung über Estland auch Heller (2017), URL und Hoe (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
96
Umbau des Staatswesens in ein digitales Zeitalter betrifft, die von der Euro-
päischen Kommission als Leitmodell für andere Mitgliedsstaaten betrachtet
wird. Technologiepolitik wird in diesem Zusammenhang nicht nur als Frage-
stellung verstanden, wie sich der Aufbau von Start-ups bürokratisch verein-
fachen oder durch Förderungen unterstützen lässt. Vielmehr folgt die balti-
sche Republik der Intention, demokratisch darüber nachzudenken, wie
Technologie sinnvoll zum gesellschaftlichen Fortschritt beitragen kann. Das
umfassende Projekt, das viele Varianten staatlich-privater Kooperation auf-
zeigt und zivilgesellschaftliche Kräfte aktiv einbindet, nennt sich e-Estonia.
Das Großprojekt bildet den Versuchsprozess, ein Land von einem physischen
Staatswesen in eine digitale Gesellschaft zu übertragen. Dafür wird Kreativi-
tät gefördert, die hauptsächlich der unternehmerischen Initiative erwächst.
In Clustern und Hubs arbeiten junge Unternehmen flexibel zusammen, es
entstehen neue Ideen, Software wird programmiert, Zweigstellen internati-
onaler Technologiekonzerne werden eröffnet. Die Wertschöpfung und inter-
nationale Verflechtung einer Volkswirtschaft, deren Export traditionell allein
auf der Forstwirtschaft lag, steigt damit deutlich. Die populärste Software,
die zwar von einem Schweden und einem Dänen erdacht wurde, aber in Est-
land entstanden ist, wäre der Instant-Messenger-Dienst Skype. Das Unter-
nehmen wurde im Jahr 2003 vertraglich in Luxemburg gegründet, doch in
Estland entwickelt, um schließlich im Jahr 2011 an Microsoft verkauft zu
werden.
Das eigentliche Kernwesen von e-Estonia liegt jedoch darauf, praktische Ant-
worten auf die radikale Transformation der Gesellschaft zu geben. Dabei er-
laubt sich der Staat, über Behördenwesen und die Idee von Staatsbürger-
schaft neu nachzudenken: Demokratische Entscheidungsfindungen oder
Leistungen der öffentlichen Hand werden für Bürger möglichst einfach zu-
gänglich gemacht. Alle bürokratischen und institutionellen Details werden
über eine öffentliche Online-Plattform miteinander verbunden und lassen
sich individuell einsehen.
Bürger erhalten über einen personalisierten Zugang beispielsweise Einblick
in relevante Themen wie die Gesetzgebung, Wahlen, Bildung, Justiz, Ge-
sundheitswesen, Bankwesen, Steuern, Polizeiarbeit – um nur einige Anwen-
dungen zu nennen.
Digital Business – Konvergenzen digitaler Transformation
97
Abbildung 14: Abbildung unterschiedlicher Sachbereiche bei e-Estonia55
Die öffentliche Plattform versteht es, alle relevanten Daten für Bürger online
zusammenzutragen. Dabei wird dem Prinzip der Datensouveränität zentrale
Bedeutung eingeräumt. Nur der einzelne Staatsbürger hat Einblick in sämt-
liche Informationen, die verschiedene Ämter und öffentliche Stellen über die
eigene Person ablegen und speichern.
Das dafür genutzte Programm X-Road wurde eigens für den Zweck entwi-
ckelt, alle relevanten Kanäle abzurufen, damit für Einzelne die individuali-
sierten Informationen einheitlich abgerufen werden können. Die entschei-
denden Aspekte der praktischen Umsetzung finden sich darin, dass Daten
nicht zentral gespeichert werden, sondern auf unterschiedliche Datenban-
ken zugegriffen wird, wann immer sie abgerufen werden. So lassen sich po-
tenzielle Missbräuche oder das Ausfallrisiko minimieren, auch erhält jeder
Staatsbürger umgehend Nachricht darüber, falls und wann Informationen
über ihn von öffentlichen Stellen angesehen werden. Schließlich obliegt es
laut estnischem Gesetz ausschließlich der Einzelperson, darüber zu bestim-
men, welche sensiblen Informationen von wem gesehen werden können.
Ein Beispiel: In der Datenbank finden sich alle Einträge zur Krankenge-
schichte einer Person, alle Rezepte, die verschrieben, alle Behandlungen, die
benötigt wurden. Nur die Person selbst hält die Verfügungsgewalt, darüber
zu entscheiden, ob beispielsweise alle Informationen mit dem eigenen Haus-
arzt geteilt werden sollen. Die Koordination des Projekts erscheint insofern
auch einfacher als in anderen Gesundheitssystemen, weil nur drei zentrale
55 Bildausschnitt: https://e-estonia.com/solutions/.
Digital Business – Konvergenzen digitaler Transformation
98
Stakeholder das nationale estnische Gesundheitssystem strukturieren: eine
einheitliche Krankenkasse (EHIF = Estonian Health Insurance Fund), das Ge-
sundheitsministerium und eine dem Gesundheitsministerium nachgeglie-
derte Behörde.
Um alle Informationen darzustellen, verbindet das Programm X-Road tech-
nisch einzelne Server über End-to-End verschlüsselte Pfade. So werden lokal
gespeicherte Daten zusammengeführt und ausschließlich die jeweilige Ein-
zelperson kann alle sie persönlich betreffenden Daten abrufen, einsehen
und nutzen. Insofern obliegt es ihr als Entscheidungsinstanz auch, anderen
legitime Einblicke in vorhandene Informationen zu gewähren. Es markiert
darüber hinaus eine Rechtsübertretung, Daten von anderen Personen ein-
fach aus Neugier oder ohne begründbaren Zusammenhang ansehen zu wol-
len.
Auf rein technischer Ebene speichert der estnische Zahnarzt Krankenakten
auf lokalen Servern ab. Gleiches gilt für den estnischen Dermatologen. Da X-
Road auf rigiden Zugangsbeschränkungen basiert, verfügen Ärzte auch nur
über die Möglichkeit, Gesundheitsdaten bezüglich ihrer Patienten einzuge-
ben. Weiteren Zugriff haben sie nicht. In Folge obliegt es schließlich ganz
dem Patienten, festzulegen, welche weiteren Ärzte Zugriff auf welche Diag-
nosen erhalten dürfen. Doch nicht nur im medizinischen Bereich wird um-
sichtige Sorgfalt angewendet. Auch Schulen, Banken, Finanzämter, Gerichte,
Polizeistellen, Universitäten und andere Institutionen haben sich an strikte
Vorgaben hinsichtlich Speicherverfahren und Nutzungsrechten zu halten.
Obwohl X-Road eine Plattform darstellt, die von der Regierung initiiert
wurde, um öffentliche Angelegenheiten leichter arrangieren zu lassen, set-
zen auch immer mehr private Unternehmen an, das Netzwerk für ihre Zwe-
cke zu adaptieren.
Die neue Technologie hilft jedenfalls den öffentlichen Behörden dabei, ad-
ministrative Prozesse entscheidend zu vereinfachen. Estland konnte ver-
gleichsweise rund zwei Prozent des jährlichen Bruttoinlandsprodukts an
Lohnkosten für Beamte sparen, die für andere Zwecke besser genutzt wer-
den dürfen. Auch wirkt das Prinzip als Vorgabe staatlichen Handelns, dass
Daten schlicht nur einmal eingegeben werden, um im Anschluss von unter-
schiedlichen Stellen eingesehen und weiterverarbeitet zu werden.
Nutzer rufen also dezentral gespeicherte Informationen ab und nur ihr per-
sönliches Konto führt alle sensiblen Informationen einheitlich zusammen.
Mittels verschiedener Rubriken, aber unter einem einzigen Zugriff auf die
Datenbank, lassen sich beispielsweise unkompliziert und zeitschonend die
Digital Business – Konvergenzen digitaler Transformation
99
Noten der letzten Uniprüfung ansehen, der eigene Kontostand kontrollieren
und Parkplätze im öffentlichen Bereich vorreservieren.
Die Dezentralisierung unterstützt auch eine organisatorische Vereinfachung
effektiv. Da die Technologie auf unterschiedliche Datenbanken zugreifen
kann, steht es jeder Institution offen, jenes Betriebssystem zu implementie-
ren, das den eigenen Ansprüchen am besten gerecht wird.
Zum einen genießen Datenschutz und Dezentralisierung hohe Prioritäten,
zum anderen folgt e-Estonia dem Prinzip dokumentarischer Transparenz. Je-
des Gesetzesvorhaben oder jede Änderung eines Gesetzesvorschlags wird
online publiziert. So stehen Parlamente und öffentliche Körperschaften in
der Rechtschaffenheitspflicht. Gemäß diesem Credo haben alle öffentlichen
Autoritäten die Verpflichtung, relevante Informationen online zu stellen.
So erklärt sich, dass ungefähr 85 % aller Daten, die von e-Estonia erfasst wer-
den, allgemein zugänglich und nicht personalisiert sind. Die anderen 15 %
der Datenmenge sind als sensibel qualifiziert, nur der Betroffene hat Zugriff
darauf, kann aber andere Personen situativ ermächtigen, ebenfalls Einblick
zu bekommen.
Die Vorteile für den Bürger wirken offensichtlich: Bürokratie wird merklich
vereinfacht, Behördenwege vereinheitlicht, Informationen aus losen Enden
werden übersichtlich zusammengetragen, eigene Souveränität über persön-
liche Daten garantiert. Beispielsweise füllen bereits 95 % aller Esten die ei-
genen Steuererklärungen online aus, was im Durchschnitt drei Minuten in
Anspruch nimmt.
Auch wurde gleich von Beginn der Implementierung an dafür Sorge getra-
gen, dass der Einsatz neuer Technologien nicht zum Ausschluss gewisser Be-
völkerungsgruppen führt. Seit bereits zwei Jahrzehnten erhalten alle Esten
Computerschulungen. Das wurde bildungspolitisch veranlasst. Anfänglich
haben sich die Trainings auf den PC konzentriert. Als sich bereits früh die
rasante Verbreitung von Smartphones und Tablets abzeichnete, wurden
nicht nur die Interfaces der Programme umgehend adaptiert, sondern auch
die Schulungsinhalte unmittelbar umgestellt. Hinter all diesen Überlegungen
steckt der ganzheitliche Ansatz: Digitale Transformation bedeutet nicht nur,
dass sich innovative Unternehmen oder staatliche Behördenwege automa-
tisieren. Vielmehr heißt es im Falle Estlands, strategische Entscheidungen zu
treffen, die eine radikale Transformation der Gesellschaft unterstützen.
In diesem Zusammenhang wurde auch grundlegend darüber nachgedacht,
was der Grundsatz von Staatsbürgerschaft im Zeitalter intensivierter Globa-
Digital Business – Konvergenzen digitaler Transformation
100
lisierung und facettenreicher Biographien meint. Estland ermöglicht es mitt-
lerweile sämtlichen Weltbürgern, einen digitalen „Wohnsitz“ im Land zu
wählen. Wer sich dafür entscheidet, kann alle Online-Dienstleistungen des
Staates in Anspruch nehmen. Selbst Unternehmen nach estnischem Recht
dürfen eigenständig gegründet werden. Um als digitaler Einwohner Estlands
betrachtet zu werden, muss man weder im Land sesshaft sein noch den Staat
auch nur einmal besuchen. Ein Antrag wird online ausgefüllt, die Bearbei-
tungsgebühr kostet um die 100 €, E-Card und die Dokumente werden in
Folge von den estnischen Botschaften ausgegeben. Mittlerweile ist es ein
Sachverhalt, dass Estland jährlich mehr Anträge auf virtuelle Staatsbürger-
schaft erhält, als Geburten im Land selbst gezählt werden.
Konzeptionelle Neuansätze und ein republikanisches Gesellschaftsverständ-
nis geben die Leitlinien vor, die dann von der Digitalstrategie des Landes
praktisch umgesetzt werden. Zuerst kommt die holistische Strategie, dann
wird die Technologie entsprechend bestimmt – nicht umgekehrt. Bezeich-
nend dafür ist, dass schon der hauptverantwortliche Berater der Regierung
für die Digitalisierungsfragen kein Informatiker ist. Es handelt sich stattdes-
sen um einen politischen Aktivisten, der sich ursprünglich für eine bessere
Infrastruktur im Radverkehr einsetzte. Sein ziviles Engagement führte
schließlich dazu, dass die Regierung anfragte, ob er nicht auch als Entschei-
dungsträger in Hinblick auf die digitale Erneuerung mitwirken möchte.
Diese Episode erfasst eine praktische Doktrin, die sich gegenwärtig in Estland
ausmachen lässt. Das Innovationspotenzial, das der estnische Staat freisetzt,
und die Möglichkeit, an der grundlegenden Erneuerung der Gesellschaft mit-
zuwirken, motivieren immer mehr Personen aus privaten Unternehmen, vo-
rübergehend in Behörden zu wechseln. So intensiviert sich das Kooperati-
onsfeld zwischen Staat und Bürgern, gemeinsam wird versuchsweise an der
digitalen Republik gebaut.
5.3 Wie ein Telefonhersteller den Anschluss nicht er-
reichte
Wie hingegen das Versäumnis eines Unternehmens, die Auswirkung der
„Schöpferischen Zerstörung“ durch technologische Innovation richtig einzu-
schätzen, eine Volkswirtschaft in Mitleidenschaft ziehen kann, erklärt ein an-
deres Beispiel: Es handelt sich um den finnischen Konzern Nokia.
Digital Business – Konvergenzen digitaler Transformation
101
Das Unternehmen wurde schon im Jahr 1871 gegründet. Anfänglich in der
Papierherstellung tätig, wurde drei Jahrzehnte nach Gründung damit begon-
nen, Elektrizität zu produzieren.56 Im Laufe des nächsten Jahrhunderts ent-
wickelte sich ein diversifiziertes Produktportfolio.
Bereits während der 1980er-Jahre startete Nokia jedenfalls damit, die Ent-
wicklungsmöglichkeiten der Mobiltelefonie zu erforschen. Zu diesem Zeit-
punkt handelte es sich bei dem Unternehmen um einen Mischkonzern, der
unter anderem Papier, Gummistiefel, Elektrizität, Radiergummis, Militär-
equipment, Autoreifen, Fernseher und auch das erste Autotelefon her-
stellte.
Im Jahr 1990 wurde dann seitens des Managements die strategische Ent-
scheidung getroffen, die Geschäftstätigkeit ausschließlich auf den Mobil-
funkbereich zu konzentrieren. Alle anderen Sparten wurden konsequent
verkauft. Früh wurde auf das Potenzial gesetzt, das der Mobilfunkmarkt ver-
sprach.
Die Entscheidung erwies sich retrospektiv als ertragreich, besonders im Ver-
gleich zur Konkurrenz. Der amerikanische Telekommunikationskonzern
AT & T beauftragte stattdessen in den 1980er-Jahren die Unternehmensbe-
ratung McKinsey damit, eine professionelle Schätzung zu liefern, wie groß
der globale Mobiltelefonmarkt im Jahr 2000 wäre. McKinsey prognosti-
zierte, dass zu Beginn des neuen Jahrtausends die Mobiltelefonie ungefähr
900.000 Nutzer zählen würde. Die Erwartung unterschätzte den Trend: Im
Endeffekt waren es 738 Millionen Personen, die im Jahr 2000 ein Mobiltele-
fon nutzten. AT & T veranlasste die falsche Einschätzung von McKinsey je-
doch dazu, das Marktsegment der Mobiltelefonie zu vernachlässigen.
Bei Nokia setzten mit dem gegensätzlichen Schritt, sich ganz auf die Herstel-
lung und den Vertrieb von Mobiltelefonen einzulassen, ertragreiche Jahr-
zehnte der Firmengeschichte ein. Infolge, zwischen 1998 und 2011, agierte
Nokia als unangefochtener Weltmarktführer im expansiven Mobiltelefon-
markt. Allein im Jahr 2007 erwirtschaftete das Unternehmen mehr als die
Hälfte aller Profite der weltweiten Mobiltelefonbranche.
56 Vgl. zur Geschichte von Nokia: Surowiecki (2013), URL und Monaghan (2013), URL.
Digital Business – Konvergenzen digitaler Transformation
102
Abbildung 15: Entwicklung nationaler Telefonmärkte
(Festnetzanschlüsse oben, Mobiltelefone unten)57
Doch noch aus einem weiteren Grund erscheint das Jahr 2007 einschnei-
dend für die Unternehmensgeschichte.
Apple Inc. präsentierte in diesem Jahr das erste iPhone und Nokia unter-
schätzte in Folge die Nachfrage nach Smartphones. Überzeugt davon, dass
Smartphones weiterhin ein luxuriöses Nischenprodukt darstellen würden
und für den Massenmarkt untauglich wären, wurde die Entwicklung eigener
Geräte vernachlässigt.
Denn bereits im Jahr 1996, über ein Jahrzehnt bevor Apple das iPhone ein-
führte, entwickelte Nokia eigenständig ein funktionstüchtiges Smartphone.
Früh wurde auch ein erster Touchscreen konstruiert und die Funktion, Tele-
fone online schalten zu können, in Prototypen integriert.
Verabsäumt wurde es hingegen, den Vorsprung in Hinblick auf Forschung
und Entwicklung in massentaugliche Produktneuheiten zu übersetzen. Vor-
rangig konzentrierte Nokia den Fokus der Produktentwicklung stark auf die
Handlichkeit der Hardware und vermochte es nicht, eine benutzerfreundli-
che Betriebssoftware zu konzipieren. Gleichermaßen wurde es nie verstan-
den, einen eigenen Marktplatz zu schaffen, um Lösungen von Drittanbietern
zu vertreiben und daran mitzuverdienen, so wie es Apple mit dem App-Store
gelungen ist.
57 Quelle: Murphy/Roser (2018), URL.
Digital Business – Konvergenzen digitaler Transformation
103
Aufgrund dieser Entwicklungen und einem Konsumverhalten von Endnut-
zern, das sich rapide änderte, geriet Nokia in nachhaltige Turbulenzen.
Der Betriebsgewinn von Nokia betrug noch im Jahr 2010 insgesamt 1,85 Mil-
liarden €. 2011 musste dann mit einem Verlust von 1,07 Milliarden € bilan-
ziert werden.
Die Trendumkehr, der Verlustzone wieder zu entkommen, gelang in den an-
schließenden Jahren nicht, da die Kundenpräferenzen, die durch Apples Pro-
duktpolitik geschaffen wurden, sich als zu manifest erwiesen.
Im Jahr 2013 übernahm schließlich Microsoft den Geschäftsbereich der Her-
stellung von Mobiltelefonen von Nokia für den Gesamtkaufpreis von 5,4 Mil-
liarden €.
Der einstige Weltmarktführer von Mobiltelefonen relativierte sich zu einer
Seitensparte im Angebotsportfolio von Microsoft. Der Verkauf des vormali-
gen Kerngeschäfts ermöglichte Nokia jedoch einen radikalen Wandel, um
sich von Altlasten zu befreien.
Aktuell agiert der finnische Konzern Nokia erfolgreich im Aufbau und als Aus-
rüster von Netzwerken. Auch Mobiltelefone werden in geringer Anzahl wie-
der vermarktet.
Von der Neupositionierung profitierte die finnische Volkswirtschaft merk-
lich, die aufgrund der zwangsweisen Redimensionierung bei Nokia nachhal-
tig in Mitleidenschaft gezogen wurde. Das finnische Wirtschaftswachstum
wurde ein ganzes Jahrzehnt lang durch die Schwierigkeiten bei Nokia ver-
langsamt. Die Epoche wird gemeinhin als Ära der „Nokia-Krise“ bezeichnet.58
Als der damalige finnische Handelsminister und spätere Premierminister
Alexander Stubb auf der Höhe der Rezession in seinem Land nach den kon-
kreten Ursachen für die Schwierigkeiten gefragt wurde, nannte er zwei
schlichte Gründe: das iPhone und das iPad. Das iPhone hätte Nokia ver-
drängt und das iPad würde die Nachfrage nach Papier schmälern, darunter
litt die wichtige Holzindustrie.
Die Produktlinie von Smartphones repräsentiert mittlerweile den größten
Anteil im Absatzmarkt bei Mobiltelefonen. Als globaler Marktführer firmiert
in diesem Bereich momentan das Unternehmen Samsung. Bei Samsung
selbst handelt es sich auch um einen diversifizierten südkoreanischen Misch-
konzern, dessen Marktkapitalisierung im Jahr 2016 ungefähr dem Wert von
58 Vgl. Charrel (2017), URL.
Digital Business – Konvergenzen digitaler Transformation
104
20 % des gesamten südkoreanischen BIP entsprach.59 Entstehen auch hier
ähnlich systemische Risiken für eine aufstrebende Nation, die durch ver-
nachlässigte Innovation schlagend werden würden? Umso wichtiger er-
scheint es auch in diesem Zusammenhang, woran dieser Lehrbrief appelliert:
Technologie gestaltet Gesellschaft und es liegt am sozialen Gemeinwesen,
die Frage zu stellen, zu welchen Zwecken das geschehen soll.
5.4 Das Prinzip der „Schöpferischen Zerstörung“
Alle drei Case Studies lassen die Bedeutung der Wirkung der digitalen Trans-
formation ermessen. Sie lässt sich ansehnlich als ein Katalysator begreifen,
der die Wirklogik von Märkten beschleunigt.
Dass der Markt Veränderung verantwortet, trifft nicht erst im Zuge der digi-
talen Transformation zu. Vielmehr vollzieht sich gerade eine Verschiebung
von der Industriegesellschaft zur Wissensgesellschaft, wie in Kapitel 2 dar-
gestellt.
Kapitalistische Märkte repräsentieren essenzielle Werkzeuge, die Transfor-
mationen ermöglichen. Aufgrund der Wirkung einer inneren Funktionslogik
können sie niemals unveränderliche Stabilität produzieren. Ihr permanenter
Zustand besteht stattdessen in der fortlaufenden Transformation.
Der Ökonom Joseph Schumpeter hält in diesem Zusammenhang einen wich-
tigen Sachverhalt fest. Es wären nicht nur gesellschaftliche Umbrüche oder
politische Zäsuren, die Veränderungen initiieren. Vielmehr entstehen durch
das Prozesswesen des Kapitalismus „primäre Triebkräfte“60, die für jedes
Unternehmen entscheidende Bedeutung besitzen. Seine Analyse besagt,
dass der Markt selbst Kräfte der Veränderung erzeugt. Der Wandel, den der
Markt formt, „kommt von den neuen Konsumgütern, den neuen Produkti-
ons- oder Transportmethoden, den neuen Märkten, den neuen Formen der
industriellen Organisation, welche die kapitalistische Unternehmung
schafft.“61 Genau hier ändert die digitale Transformation die überholten
Funktionsweisen der Industriegesellschaft und führt in ein neues Zeitalter.
Eine Kausalität, ein Abhängigkeitsverhältnis lässt sich unter diesen Bedin-
gungen umdrehen: Nicht weil sich Gesellschaften transformieren, verändert
sich die Struktur von Märkten. Es gilt ebenso, dass sich Gesellschaften wei-
59 Vgl. Financial Times (2017), URL.
60 Schumpeter (1980), S. 137.
61 Ebd.
Digital Business – Konvergenzen digitaler Transformation
105
terentwickeln, weil Märkte Neues produzieren. Stillstand kann folglich aus-
geschlossen werden. Fortlaufende Erneuerung wird zum stabilen Prinzip.
Andere Produkte begründen neue Konsumgewohnheiten. Innovation be-
dient bisher unentdeckte Erwartungshaltungen und macht existierende An-
gebote obsolet. Kundenbedürfnisse adaptieren sich fortlaufend, darauf
müssen Organisationen Antworten geben. Ebenso kann als Triebkraft der
Transformation gelten, dass Form und Funktion eines Produkts gleich blei-
ben, aber Produktionsverfahren, die zur Herstellung angewendet werden,
sich gänzlich überholen und modernisieren.
Neben neuen Produkten oder Verfahren zählt Joseph Schumpeter auch die
Nutzung fortschrittlicher Transportmethoden auf, die den Markt verändern.
Er berücksichtigt den Sachverhalt, dass Prozessoptimierungen oder Innova-
tionen im Transportsektor zu Beschleunigung führen, die geltende Maß-
stäbe neu messen lassen. Wenn es ein gewisses Unternehmen schafft, ge-
fragte Produkte binnen eines Tages an Abnehmer zu liefern, wohingegen alle
Konkurrenten zwei Tage dafür benötigen, dann wird sich der einzelne Tag
bald als neuer Standardwert durchsetzen, dem es zu entsprechen gilt. Wer
beispielsweise Drohnentechnologie bei der Zustellung von Konsumgütern
erstmalig großflächig einsetzen wird, formt Erwartungshaltungen von End-
abnehmern, die voraussichtlich branchenübergreifend Wirkung entfalten.
Eine spezifische Form der Transformation, die moderne Märkte verantwor-
ten, verortet der Ökonom Joseph Schumpeter also im Wirkmechanismus der
„industriellen Mutation“62. Damit bezeichnet er die Beobachtung, dass sich
Industrien und Branchen als solche im Lauf der Zeit strukturell ändern.
Schwerwiegende Konkurrenz entsteht nicht notwendigerweise dann, wenn
ein ähnliches Unternehmen vorhandene Kundenmärkte durch gleichartige
Angebote und bekannte Vertriebsmodelle anvisiert. Unabhängige Lebens-
mittelhändler in Dörfern und Städten haben sich nur bedingt gegenseitig
herausgefordert. Retrospektiv zeigt sich, dass kleinen und autonomen Le-
bensmittelhändlern durch die Ausbreitung des stationären Supermarkts
eine existenzbedrohliche Gefahr erwuchs. Nicht die gegenseitige Konkur-
renz zwischen Lebensmittelhändlern stellte ein formidables Risiko dar, viel-
mehr bildete die Mutation im Markt eine kritische Trendwende.
Die strategische Aufgabe seitens des betriebswirtschaftlichen Managements
besteht also darin, auf den Strukturwandel in eigenem Marktsegment mutig
zu reagieren und Kundenbedürfnisse zu verstehen. Wenn sich die Absatz-
62 Ebd.
Digital Business – Konvergenzen digitaler Transformation
106
und Vertriebswege ändern, andere Erwartungshaltungen gegenüber Pro-
dukten oder Dienstleistungen kultiviert werden, dann repräsentieren diese
Entwicklungen Tendenzen, auf die es Antworten verlangt.
Ein anderes Beispiel aus dem Handel kann als weitere Illustration dienen: Es
war nicht das Versandhandelsunternehmen Neckermann, das dem Versand-
haus Quelle gravierende Absatzeinbußen verursachte, die schließlich nicht
verkraftet werden konnten. Es war auch nicht der umgekehrte Fall, dass
Quelle aufgrund der Umtriebigkeit von Neckermann gezwungen war, den
operativen Geschäftsbetrieb einzustellen. Vielmehr wurde das gängige Ge-
schäftsmodell beider Versandhäuser durch Amazon radikal überholt. Das
Bedrohungsszenario wurde organisationsintern zu lange nicht verstanden.
Probate Antworten auf die Entwicklung wurden erst nicht gesucht, dann
nicht gefunden. Das führte schließlich zum Aus beider Konkurrenten. Diese
mächtige Wirkung meint Joseph Schumpeter, wenn er die „industrielle Mu-
tation“ skizziert.
Joseph Schumpeter erfasst die Wirkung des beschriebenen Prozesses mit
der griffigen und viel zitierten Formel von der „Schöpferischen Zerstörung“
des Kapitalismus.
Die „Schöpferische Zerstörung“ bezeichnet die Vergänglichkeit des Vorhan-
denen unter der Perspektive fortgesetzter Erneuerung. Es erscheint als we-
sentliches Merkmal des Kapitalismus, dass er andauernde Transformation
motiviert. Was abhandenkommt, wird nicht ersatzlos gestrichen oder aufge-
lassen, sondern mutiert in einer nächsten Entwicklungsstufe.
Innovation lässt Neues entstehen und bis dahin Populäres wird rasant obso-
let. Neue Werte zu schaffen, macht alte Werte bedeutungslos, sie haben
ausgedient. MP3 hat die CD ersetzt, das Mobiltelefon den Festnetzan-
schluss, der Personal Computer die Schreibmaschine. Der Markt erzeugt also
nicht nur Neues, er wickelt auch Altes ab. Fortschritt funktioniert auf Grund-
lage dieser Dialektik. Industrielle Mutation führt zu keiner Koexistenz, son-
dern zu radikaler Erneuerung.
Das wirkt als entscheidende betriebswirtschaftliche Aufgabe: Institutionelle
Antworten darauf zu erwirken, einer sich ändernden Gesellschaft brauch-
bare Angebote zu liefern, die ein rentables Geschäftsmodell bilden. Markt-
wirtschaftliche Rahmenbedingungen ändern sich fortlaufend, darauf müs-
sen Organisationen reagieren.
Ein ansehnliches Beispiel, um die Wirkweise der industriellen Mutation
nachvollziehbar zu beschreiben, bildet der Musikmarkt. In diesem Segment
hat sich im Lauf der letzten Jahre ein markanter Strukturwandel vollzogen.
„Schöpferische Zerstörung
des Kapitalismus“
Digital Business – Konvergenzen digitaler Transformation
107
Es änderten sich Konsumgewohnheiten grundlegend, vorangetrieben durch
die Fortentwicklung der digitalen Transformation: Denn der unabhängige
CD-Händler in der innerstädtischen Fußgängerzone wurde nicht durch einen
anderen CD-Händler in einer nahegelegenen Seitenstraße verdrängt. Kon-
kurrenz erwuchs dem tradierten Musikfachhandel vielmehr aus Einzelhan-
delsketten wie sie beispielsweise der Virgin Megastore, HVM, Libro, Saturn
oder MediaMarkt darstellen – um nur einige der Ketten zu nennen.
Diese Konzerne erlebten dann selbst, wie die Umsätze ihrer Musikabteilun-
gen merklich zu fallen begannen, zuerst aufgrund der Beliebtheit des Online-
Versandriesen Amazon. Dann wurde plötzlich das neueste Album der Lieb-
lingsband nicht mehr als physischer Tonträger erworben, sondern schlicht
im iTunes-Store gekauft, im MP3-Format heruntergeladen. Die Musikindust-
rie schien von der Entwicklung überfordert. Anfänglich wurde es vollkom-
men verabsäumt, tragfähige Geschäftsmodelle zu entwickeln, um den
neuen Kundengewohnheiten zu entsprechen. Stattdessen wurde strategisch
ein kontraproduktiver, nahezu destruktiver Ansatz gewählt: Die Verantwort-
lichen in der Industrie haben das Verhalten der eigenen Kunden kriminali-
siert, Downloads wurden ursprünglich als Raubkopien gebrandmarkt. Das
bedeutete in Konsequenz einen nachhaltigen Vertrauensverlust zwischen
Musikliebhabern und Musikindustrie.
Die Popularität des MP3-Formats initiierte auch eine zweite Veränderung,
die substanzielle Wirkung entfaltete. Nicht mehr die klassische Form eines
Albums wurde von Musikfans nachgefragt, sondern die neue Flexibilität, die
sich durch MP3 bietet, wurde dafür genutzt, persönliche Playlisten zu erstel-
len. Einzelne Songs wurden aus dem Konzept des Albums von den Hörern
herausgelöst und flexibel in eigene Playlists integriert. Was bereits bei Mu-
sikkassetten oder DJ-Sets den Anfang nahm, findet hier seine Vervielfälti-
gung und Demokratisierung. Streaming verstärkte diese Entwicklung.63
Das Musiklabel Warner Music erklärt im Geschäftsjahr 2015 erstmalig, dass
die eigenen Umsätze durch Streaming-Dienste jene der Download-Plattfor-
men übertreffen würden.64 Die Musikindustrie liefert ein illustratives Bei-
spiel dafür, wie die Digitalisierung die digitale Transformation eines spezifi-
schen Markts vorantreibt.
Zur Illustration sei die Zusammensetzung des Umsatzes (ohne Lizenzge-
schäft) im deutschen Musikmarkt in Perspektive dargestellt.
63 Vgl. Kelly (2016), 66 ff.
64 Vgl. Dredge (2015), URL.
Digital Business – Konvergenzen digitaler Transformation
108
Abbildung 16: Umsätze der deutschen Musikindustrie65
Nicht nur, dass sich Formate und Art der Tonträger verändert haben, auch
neue Distributionskanäle wurden aufgesetzt und das Marktvolumen redi-
mensioniert.
Die Konsumenten profitierten eindrücklich von der praktikablen, schnell ver-
fügbaren und leicht transportablen Weise, wie sich Musik mittlerweile hören
lässt. Simultan lässt sich auch ein neues Bedürfnis nach Authentizität ausma-
chen. Die Vinyl-Platten feiern ein Comeback. Anders stellt sich jedoch die
Situation für professionelle Musiker dar. Es wurde noch nie so viel Musik ge-
hört, wie das heute der Fall ist. Doch sinkt zeitgleich der Verdienst der Mu-
siker selbst. Ihnen wird die Möglichkeit erschwert, von der Kunst zu leben.
Der Datenjournalist David McCandless66 stellte eine aussagekräftige Kalku-
lation auf. Damit ein Musiker in den USA den gesetzlichen Mindestlohn von
1.200 $ verdienen kann, hat er die Möglichkeit, beispielsweise sein Album
selbst zu produzieren. Alle Einnahmen blieben in diesem Fall bei den Künst-
lern selbst. Bei einem Albumpreis von 12 $ sollten schlicht 100 Alben pro
Monat abgesetzt werden. Es wären diesbezüglich nur die Kosten aufzuwen-
den, um Rohlinge zu brennen. Wird ein Plattenvertrag unterzeichnet, erhal-
ten die Musiker im Regelfall ein Viertel der Umsätze, die das Musiklabel mit
ihren Alben erzielt. Wird das Album als Download gekauft, wären es schon
550 Alben pro Monat oder 5.500 Songs, die verkauft werden müssten, um
den Mindestlohn zu erwirtschaften. Bei Spotify erhalten Musiker nur noch
65 Quelle: https://www.musikindustrie.de/fileadmin/bvmi/upload/MiZ/Umsatzentwick-
lung.jpg
66 Vgl. McCandless (2015), URL.
Digital Business – Konvergenzen digitaler Transformation
109
minimale Beträge im Cent-Bereich, wenn ihr Song oder ein Album gehört
wird. Um Einkünfte in der Höhe des Mindestlohns zu erzielen, müssten die
Songs von Musikern über eine Million Mal pro Monat gestreamt werden.67
In der Verwertungskette ihres eigenen Schaffens stehen Musiker fast außen
vor. Doch auch hier finden bereits erste, selbstständige Versuche statt, die
Regeln des Wettbewerbs zu ändern.
Die britische Sängerin und Grammy-Gewinnerin Imogen Heap vertreibt bei-
spielsweise ihre Musik nun auf Basis der Blockchain-Technologie. Diese
Technologie erlaubt es der Künstlerin, angemessen für ihr Urheberrecht ent-
golten zu werden. Werden ihre Songs einfach gehört, erhält sie einen klei-
nen Betrag über die Blockchain zugewiesen, ohne eine Vermittlungsinstanz
oder einen Zwischenhändler einsetzen zu müssen. Nutzt man ihre Songs, um
sie beispielsweise in selbstproduzierte Videos einzufügen, steigt die verrech-
nete Summe.
Um es in Anklang an Joseph Schumpeter zu sagen: Die Musikindustrie durch-
lief industrielle Mutationen und wird sie weiterhin erleben – hoffentlich in
einem nächsten Schritt hin zu einer fairen Bezahlung für all jene, die durch
ihre Kreativität auditive Freuden schaffen. Erste Versuche und Schritte wer-
den bereits gesetzt.
In der Musikindustrie zeigen sich also symptomatisch vielfältige Szenarien,
die in Zusammenhang mit der digitalen Transformation wirksam werden und
über diesen Bereich selbstverständlich hinauswirken: Eingesessene Player
im Markt wurden von Dynamiken, die sich durch neue Technologien entwi-
ckelten, nicht nur herausgefordert, sondern überfordert. Was vor allem
nicht verstanden wurde, waren die Verschiebungen, die im Konsumenten-
verhalten stattgefunden haben. Diese lassen sich so beschreiben, dass Zu-
griffsrechte auf Musik von den Besitzrechten entkoppelt wurden. Also das
Recht auf Nutzung entkoppelte sich vom Recht auf Eigentum. Beides muss
nun nicht mehr unauflöslich miteinander verwoben sein und bildet in weite-
rer Folge die Grundlage des Konzepts der Sharing Economy.
Ebenso ergeben sich rechtliche Implikationen und Fragen zur Produktpolitik:
Das monatliche Abonnement, das beispielsweise mit einem Streamingdienst
eingegangen wird, stellt faktisch einen Dienstleistungsvertrag dar. Die Vinyl-
Platte, die erworben wird, bildet einen klassischen Kaufvertrag, der Eigen-
tumsrechte eines physischen Objekts überträgt. Ein Buch, das am Kindle ge-
lesen wird, ist faktisch eine Textdatei, die auf Basis eines Leihvertrags zur
Verfügung gestellt wird. Ein Buch, das im Handel erworben wird, befindet
67 Vgl. Sachs (2015), URL.
Digital Business – Konvergenzen digitaler Transformation
110
sich im Eigentum. Damit handelt es sich aus legalistischer Perspektive um
einen entschieden anderen Sachverhalt.
Anhand des Beispiels lässt sich auch über die exakten Vorteile sprechen, die
anfänglich im Skript erwähnt wurden: Die Vervielfältigung einer CD verur-
sacht Kosten, in der Pressung, im Vertrieb, in der Distribution, in der Lage-
rung. Eine Musikdatei hingegen lässt sich nahezu kostenlos vervielfältigen,
unkompliziert teilen und aufwandslos als Datenformat lagern bzw. ablegen.
Technologie erwirkt also nicht deshalb Marktvorteile, weil Digitales in einem
technologischen Sinne fortschrittlicher wäre als Analoges, sondern weil es
ökonomisch effizienter agiert. Der Verständnisschlüssel aus Perspektive des
Managements über die Wettbewerbsvorteile durch die digitale Transforma-
tion liegt in der Ökonomie – nicht in der Technologie.
Die Musikindustrie zeigt eindringlich, wie Märkte permanent durch struktu-
relle Veränderungen konfiguriert werden. Fortlaufende Veränderung ver-
antwortet die Destruktion des Vorhandenen, um es durch Neues zu erset-
zen. Der Kauf des Lieblingsalbums beim eigenen Plattenhändler wandelte
sich dahingehend, dass die bevorzugten Lieblingstitel nun einfach gestreamt
werden. Digitalisierung treibt den Prozess voran und erweist sich diesbezüg-
lich als eine massive Wirkkraft.
Der Theaterregisseur Peter Stein wurde wiederholt gefragt, warum er in sei-
nen Inszenierungen immer auf eine nahezu originalgetreue Textauslegung,
Ästhetik und Werkinterpretation besteht, ob diese Herangehensweise nicht
obsolet wäre. Seine Antwort besagt, dass es die Aufgabe und Verantwortung
des Publikums wäre, die Universalität der Botschaften beispielsweise von
Shakespeare auf die Jetztzeit zu übertragen. Seine Aufgabe bestünde darin,
die Botschaft zu vermitteln.
In dieser Form gilt der Musikmarkt, aber auch die anderen Beispiele als Sinn-
bild für die weiterführenden Änderungen, die anstehen. Die Case Studies
sind symbolisch zu denken und Verantwortungsträger, die sich der Zukunft
bewusst sind, finden genau darin einen Bezugspunkt für die eigene Reflexion
dessen, was für den eigenen Wirkungsbereich antizipiert werden kann.
Digital Business – Konvergenzen digitaler Transformation
111
Literaturverzeichnis
Amend, Iran (u. a.) (2017): The State of Fashion 2017, London: McKinsey.
Bregman, Rutger (2017): Utopien für Realisten. Die Zeit ist reif für die 15-
Stunden-Woche, offene Grenzen und das bedingungslose Grundeinkom-
men, 2. Auflage, Reinbek: Rowohlt Verlag.
Floridi, Luciano (2014): The 4th revolution. How the Infosphere is reshaping
human reality, Oxford: Oxford University Press.
Floridi, Luciano (2020): Il verde e il blu: Idee ingenue per migliorare la poli-
tica, Mailand: Raffaello Cortina Editore.
Kelly, Kevin (2016): The Inevitable. Understanding the 12 technological
forces that will shape our future, New York: Penguin Books.
Mayer-Schönberger, Viktor/Ramge, Thomas (2017): Das Kapital. Markt,
Wertschöpfung und Gerechtigkeit im Datenkapitalismus, Berlin: Econ.
Mazzucato, Mariana (2019): Wie kommt der Wert in die Welt? Von Schöp-
fern und Abschöpfern, Frankfurt/New York: Campus.
Nassehi, Armin (2019): Muster: Theorie der digitalen Gesellschaft, München:
C. H. Beck, Kindle.
Quintarelli, Steffano (2019): Capitalismo immaterialie. Le tecnologie digitali
e il nuovo conflitto sociale, Torino: Bollati Boringhieri.
Saam, Marianne (u. a.) (2016): Digitalisierung im Mittelstand: Status quo, ak-
tuelle Entwicklungen und Herausforderungen, Zentrum für Europäische
Wirtschaftsforschung: Mannheim.
Schmalz, Martin/Bram, Uri (2020): The Business of Big Data. How to Create
Lasting Value in the Age of AI, London: Capara Books.
Schumpeter, Joseph (1980): Kapitalismus, Sozialismus und Demokratie, 5.
Auflage, Stuttgart: UTB Francke.
Smith, Adam (2005): Reichtum der Nationen, Paderborn: Voltmedia.
Unger, Roberto Mangabeira (2019): The Knowledge Economy, London/New
York: Verso Economy.
Digital Business – Konvergenzen digitaler Transformation
112
Internetquellen
Ahrendts, Angela (2013): Burberry’s CEO on Turning an Aging British Icon
into a global Luxury Brand, in: Harvard Business Review, Jänner/Feber 2013,
URL: https://hbr.org/2013/01/burberrys-ceo-on-turning-an-aging-british-
icon-into-a-global-luxury-brand, abgerufen am: 10. April 2023.
BBC (2017): Robot automation will ‘take 800 million jobs by 2030’ - report,
URL: http://www.bbc.com/news/world-us-canada-42170100, abgerufen
am: 27. März 2023.
Charrel, Marie (2017): La Finlande s’extirpe enfin de la ‚crise Nokia‘, in: Le
Monde, URL: http://www.lemonde.fr/economie/article/2017/07/25/la-fin-
lande-s-extirpe-enfin-de-la-crise-nokia_5164695_3234.html, abgerufen am:
30. März 2023.
The Climate Reality Project (2018): Homepage, URL: https://www.clima-
terealityproject.org/, abgerufen am: 30. März 2023.
Cocco, Federica (2016): Most US manufacturing jobs lost to technology, not
trade, in: Financial Times, URL: https://www.ft.com/content/dec677c0-
b7e6-11e6-ba85-95d1533d9a62, abgerufen am: 28. März 2023.
Desjardins, Jeff (2016): The Dominance of Google and Facebook in one
Chart, URL: http://www.visualcapitalist.com/dominance-google-and-face-
book-one-chart/, abgerufen am: 21. März 2023.
Dredge, Stuart (2015): Warner Music reveals streaming income has over-
taken downloads, in: The Guardian, https://www.theguardian.com/technol-
ogy/2015/may/12/warner-music-spotify-streaming-income-downloads,
abgerufen am: 23. März 2023.
Economist (2012): Burberry goes digital, in: The Economist, 22. September
2012, URL: http://www.economist.com/node/21563353, abgerufen am: 8.
Jänner 2023.
Financial Times (2017): Arrest at Samsung is an opportunity for S Korea, in:
Financial Times, URL: https://www.ft.com/content/80f13c02-f693-11e6-
9516-2d969e0d3b65, abgerufen am: 29. März 2023.
Frey, Carl Benedikt/Osborne, Michael A. (2013): The Future of Employment:
How susceptible are jobs to computerisation?, URL: https://www.oxford-
martin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf,
abgerufen am: 27. März 2023.
Goodwin, Tom (2015): The Battle is for The Customer Interface, URL:
https://techcrunch.com/2015/03/03/in-the-age-of-disintermediation-the-
battle-is-all-for-the-customer-interface/, abgerufen am: 23. März 2023.
Digital Business – Konvergenzen digitaler Transformation
113
Grimm, Franz (2016): Chief Digital Officer – das digitale Unternehmen, URL:
https://www.it-times.de/news/chief-digital-officer-das-unbekannte-we-
sen-116204/, abgerufen am: 10. Oktober 2023.
Heller, Nathan (2017): Estonia. The Digital Republic, in: The New Yorker, 18.
Dezember 2017, URL:
https://www.newyorker.com/magazine/2017/12/18/estonia-the-digital-re-
public, abgerufen am: 13. April 2023.
Hoe, Wen (2018): E-stonia: One Small Country’s Digital Government Is Hav-
ing a Big Impact, in: Harvard Kennedy School Blog, URL: https://www.inno-
vations.harvard.edu/blog/estonia-one-small-country-digital-government-
having-big-impact-x-road, abgerufen am: 13. April 2023.
IFPI (2017): Österreichischer Musikmarkt: Umsatz-Plus von 4,5 % im ersten
Halbjahr, URL: https://ifpi.at/umsatz-plus-von-45-im-ersten-halbjahr-2/, ab-
gerufen am: 2. April 2023.
Jansen, Jonas (2018): Zalando baut radikal um, in: Frankfurter Allgemeine
Zeitung, 8. März 2018, URL: http://www.faz.net/aktuell/wirtschaft/digino-
mics/zalando-will-werbefachleute-durch-entwickler-ersetzen-
15483592.html, abgerufen am: 28. März 2023.
Jüngling, Thomas (2013): Datenvolumen verdoppelt sich alle zwei Jahre,
URL: https://www.welt.de/wirtschaft/webwelt/article118099520/Datenvo-
lumen-verdoppelt-sich-alle-zwei-Jahre.html, abgerufen am: 9. März 2023.
Lee, Joel (2015): Self Driving Cars Endanger Millions of American Jobs (And
That’s Okay), URL: http://www.makeuseof.com/tag/self-driving-cars-en-
danger-millions-american-jobs-thats-okay/, abgerufen am: 13. April 2023.
Lippolis, Nicolas/Ortzi-Ospina, Esteban (2017): Structural transformation:
how did today’s rich countries become ‘deindustrialized’?, URL: https://our-
worldindata.org/structural-transformation-and-deindustrialization-evi-
dence-from-todays-rich-countries/, abgerufen am: 28. März 2023.
Manager Magazin (2017): Warum Elektro-Autos in Oslo zum Problem wer-
den, in URL: http://www.manager-magazin.de/politik/europa/oslo-e-auto-
vereinigung-raet-vom-kauf-von-elektro-autos-ab-a-1168496.html, abgeru-
fen am: 17. März 2023.
McCandless, David (2015): Information is beautiful, URL: https://informati-
onisbeautiful.net/visualizations/how-much-do-music-artists-earn-online-
2015-remix/, abgerufen am: 27. März 2023.
Monaghan, Angela (2013): The rise and fall of a mobile phone giant, URL:
https://www.theguardian.com/technology/2013/sep/03/nokia-rise-fall-
mobile-phone-giant, abgerufen am: 29. Februar 2023.
Digital Business – Konvergenzen digitaler Transformation
114
Murphy, Julia/Roser, Max (2018): Internet, URL: https://ourworldin-
data.org/internet, abgerufen am: 10. April 2023.
OECD (2018): The future of work. Working paper: The effect of computer use
on job quality, URL: http://www.oecd-ilibrary.org/employment/the-effect-
of-computer-use-on-job-quality_1621d67f-en, abgerufen am: 27. März
2023.
Riedel, Donata (2017): Deutschland muss bei der Digitalisierung aufholen,
URL: http://www.handelsblatt.com/politik/international/industrielaender-
vergleich-der-oecd-deutschland-muss-bei-der-digitalisierung-aufho-
len/20440576.html?ticket=ST-646119-2m7n4u5eUlrCCyHNput0-ap1, abge-
rufen am: 6. April 2023.
Ritchie, Hannah/Roser, Max (2017): Technology Adoption, URL: https://our-
worldindata.org/technology-adoption/, abgerufen am: 3. Jänner 2023.
Roser, Max (2018a): ‘Working Hours’, URL: https://our-
worldindata.org/working-hours/ abgerufen am: 3. Jänner 2023.
Roser, Max (2018b): Economic Growth, URL: https://ourworldin-
data.org/economic-growth, abgerufen am: 10. April 2023.
Sachs, Kevin (2015): „Streaming“ bringt Musikern nicht das grosse Geld, URL:
https://www.srf.ch/news/wirtschaft/streaming-bringt-musikern-nicht-das-
grosse-geld, abgerufen am: 23. Februar 2023.
Statistik Austria (2018): Arbeitsmarkt, URL: http://www.statis-
tik.at/web_de/statistiken/menschen_und_gesellschaft/arbeitsmarkt/in-
dex.html, abgerufen am: 27. März 2023.
Sterniczky, Aaron (2018): Let the machine do it!, in: Green European Journal,
Volume 17, Spring 2018, URL: https://www.greeneuropeanjournal.eu/uber-
lasst-es-den-maschinen/, abgerufen am: 27. März 2023.
Surowiecki, James (2013): Where Nokia went wrong, in: The New Yorker,
URL: https://www.newyorker.com/business/currency/where-nokia-went-
wrong, abgerufen am: 29. März 2023.
Uken, Marlies (2014): Im Kaufrausch, in: Die Zeit, 30. September 2014, URL:
http://www.zeit.de/wirtschaft/2014-09/zalando-boerse-konsum-klima-
schutz, abgerufen am: 5. Jänner 2023.
WKO (2017): WKO Statistik. Europäische Wertschöpfung, URL:
http://wko.at/statistik/eu/europa-wertschoepfung.pdf, abgerufen am: 5.
April 2023.
Digital Business – Konvergenzen digitaler Transformation
115
World Economic Forum (2016): The Future of Jobs and Skills, URL: http://re-
ports.weforum.org/future-of-jobs-2016/chapter-1-the-future-of-jobs-and-
skills/, abgerufen am: 27. März 2023.
Zwittning, Christian (2008): Musikmarkt 2007: Musik leidet unter Umsatz-
einbrüchen, in: Die Presse, URL: https://diepresse.com/home/kul-
tur/popco/364422/Musikmarkt-2007_Musik-leidet-unter-Umsatzeinbrue-
chen, abgerufen am: 23. März 2023.
Digital Technology
Management
Neue Technologien
Heutzutage ist es die Aufgabe des Managements, die Konsequenzen des Einsatzes bestimmter
Technologien für das Unternehmen korrekt einschätzen zu können. Es ist folglich ein Muss für moderne
Führungskräfte, Know-how betreffend betrieblicher Software, Cloud-Computing und agiler Entwicklung
aufzubauen.
© ELG E-Learning-Group GmbH
Digital Technology Management – Neue Technologien
I
Inhaltsverzeichnis
Abbildungsverzeichnis ..................................................................................... III
Arbeiten mit diesen Unterlagen ........................................................................ IV
1 Einleitender Teil ........................................................................................ 1
1.1 Einleitung .................................................................................................. 1
1.2 Einordnung des Skriptums im Rahmen des MBA Fernstudiums .............. 1
1.3 Aufbau und Konzeption dieses Lehrbriefes .............................................. 2
1.4 Lernziele der LV „Neue Technologien“ ..................................................... 2
2 Interdisziplinarität der Wirtschafts-informatik als Managementaufgabe ....... 4
3 Überblick und Gegenstand des Informationsmanagements als Teilgebiet der
Wirtschaftsinformatik ................................................................................ 7
4 Cloudbasierte IT-Services als Baustein der Digitalisierungsstrategie ............ 10
4.1 Grundlagen ............................................................................................. 10
4.1.1 Virtualisierung ................................................................................ 12
4.1.2 Webservices.................................................................................... 17
4.2 Cloud-Architekturen ............................................................................... 21
4.3 Cloud-Management ................................................................................ 25
4.4 Ausgewählte Cloud-Angebote ................................................................ 27
5 Standardsoftware als Baustein der Digitalisierungsstrategie ....................... 30
5.1 Anwendungsbereiche für Standardsoftware ......................................... 30
5.2 Vor-/Nachteile ........................................................................................ 33
5.3 Anpassung von Standardsoftware.......................................................... 35
6 Grundlagen agiler Entwicklung ................................................................. 37
6.1 Vorgehensmodelle.................................................................................. 37
6.1.1 Extreme Programming .................................................................... 39
6.1.2 Scrum .............................................................................................. 45
6.2 Design Thinking....................................................................................... 49
6.2.1 Grundlagen ..................................................................................... 50
6.2.2 Wireframes ..................................................................................... 52
6.2.3 Mock-Ups........................................................................................ 54
7 Frameworks ............................................................................................ 55
7.1 Grundlagen ............................................................................................. 55
7.2 Application Frameworks ......................................................................... 56
7.3 Domain Driven Design ............................................................................ 58
7.4 Test Driven Development ....................................................................... 60
8 Fallstudie: mobile Entwicklung ................................................................. 62
Digital Technology Management – Neue Technologien
II
8.1 Hybrid Mobile APP Entwicklung ............................................................. 62
8.2 IONIC Framework ................................................................................... 64
8.3 Die Verwendung von IONIC anhand eines Beispiels .............................. 65
9 Ausblick .................................................................................................. 70
10 Übungsaufgaben ..................................................................................... 72
11 Lösungshinweise ..................................................................................... 73
Literaturverzeichnis ........................................................................................ 77
Digital Technology Management – Neue Technologien
III
Abbildungsverzeichnis
Abbildung 1: Interdisziplinarität der Wirtschaftsinformatik .................................... 6
Abbildung 2: System ohne Virtualisierung ............................................................. 13
Abbildung 3: Hardware-Virtualisierung .................................................................. 13
Abbildung 4: Virtuelle Maschine (Serverspace) ..................................................... 16
Abbildung 5: Containerumgebung (Serverspace) .................................................. 16
Abbildung 6: Applikationsvirtualisierung in einer Microsoft-Umgebung (fisc) ...... 16
Abbildung 7: Web-Service-Architektur................................................................... 17
Abbildung 8: SOAP-Datenpaket .............................................................................. 19
Abbildung 9: RESTful API Überblick (Schematic Wiring Diagram) .......................... 20
Abbildung 10: Cloud-Pyramide / -Architektur (Netzsieger) ................................... 21
Abbildung 11: Hybride-Cloud-Architektur (THEREDCLAY) ..................................... 26
Abbildung 12: Amazon-AWS-Dienste (Amazon) .................................................... 28
Abbildung 13: Vergleich On-Premise und Cloud Standard Software (Axxis
Consulting)....................................................................................... 34
Abbildung 14: Projektplanung (Extreme Programming) ........................................ 42
Abbildung 15: Projektablauf (Extreme Programming) ........................................... 43
Abbildung 16: Scrum-Ablauf zusammengefasst (Braintime).................................. 46
Abbildung 17: Wireframe einer Software APP (AppFutura)................................... 52
Abbildung 18: Verwendung eines Application Frameworks .................................. 57
Abbildung 19: Aufbau einer hybriden App (Packt) ................................................. 63
Abbildung 20: Mock-Up - IONIC Calculator App (Brezniak).................................... 65
Abbildung 21: Startbildschirm beim Erstellen einer App (IONIC)........................... 66
Abbildung 22: IONIC Creator-Oberfläche (IONIC) .................................................. 66
Abbildung 23: APP Erstellung - Summenfeld (Brezniak) ........................................ 67
Abbildung 24: APP Erstellung - Hinzufügen von Buttons (Brezniak) ...................... 67
Abbildung 25: APP Erstellung - kopieren von Zeilen (Brezniak) ............................. 68
Abbildung 26: APP Erstellung - Endprodukt (Brezniak) .......................................... 68
Abbildung 27: APP Erstellung – APP-Funktion für die Rechenaufgaben (Brezniak)69
Abbildung 28: APP Erstellung - Aufruf der APP-Funktion (Brezniak) ..................... 69
Digital Technology Management – Neue Technologien
IV
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wobei an
einigen Stellen Symbole und Links zu weiterführenden Erklärungen, Übungen und
Beispielen zu finden sind. An den jeweiligen Stellen klicken Sie bitte auf das Symbol
– nach Beendigung des relevanten Teils kehren Sie bitte wieder zum Studientext
zurück. Stellen Sie sicher, dass auf Ihrem Rechner ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Weiterführender Link zu einem Lernvideo in
MPEG4
Übungsbeispiel, oder Link zu einer interaktiven
Übung
Hinweis zur verwendeten Sprache:
Aus Gründen der leichteren Lesbarkeit wird im vorliegenden Skriptum die
gewohnte männliche Sprachform bei personenbezogenen Substantiven und
Pronomen verwendet. Dies impliziert jedoch keine Benachteiligung des
weiblichen Geschlechts, sondern soll im Sinne der sprachlichen Vereinfachung als
geschlechtsneutral zu verstehen sein.
Digital Technology Management – Neue Technologien
1
1 Einleitender Teil
In diesem Teil sollen zunächst die Basis und die Relevanz bezüglich der Einordnung
des Themas im Kontext der gesamten Lehrunterlagen erörtert werden.
1.1 Einleitung
Das Skript Neue Technologien soll aufzeigen, wie sich der Einsatz moderner
Informationstechnologie im Rahmen der Unternehmensprozesse positiv auf die
Effizienzsteigerung und somit den Erfolg auswirken kann. Oftmals führt in diesem
Zusammenhang kein Weg an einer betrieblichen digitalen Transformation vorbei.
Immerhin sind es besonders die bereits langfristig etablierten internen Prozesse
und Technologien, welche selten hinterfragt werden. Jedoch muss aufgrund der
Digitalisierung und der damit verbundenen neuen Möglichkeiten die Aussage
„Never change a running system“ grundlegend hinterfragt werden. Um bestehende
technologische Abläufe und Systeme überhaupt erst hinterfragen zu können,
benötigen Führungskräfte Wissen über moderne Technologien und wie diese
effizient eingesetzt werden können. Zu häufig ist dieses Wissen nicht vorhanden
oder wird ausschließlich in der IT-Abteilung gehortet.
Aufgrund der stetig steigenden Globalisierung der Märkte kommt es zu einem
extremen Kosten- und Wettbewerbsdruck zwischen Unternehmen. Die
Entwicklungszeiten, um innovative Produkte sowie Dienstleistungen für die interne
Prozessoptimierung bis zur Reife zu bringen, werden stetig kürzer. Darüber hinaus
müssen laufend und regelmäßig neue Arten der Zusammenarbeit in und zwischen
Unternehmen entwickelt und umgesetzt werden. Durch diese Dynamik ist eine
unternehmensweite Unterstützung der Geschäftsprozesse ein erfolgskritischer
Faktor für Unternehmen. Um diesen Erfolgsfaktor auch wirklich umzusetzen,
bedarf es des Einsatzes geeigneter Informations- und Kommunikationssysteme.
Denn so können komplexe Geschäftsabläufe greifbar und kosteneffizient
dargestellt werden.
Um die Strategien von Unternehmens- und IT-Architekturen umsetzen zu können,
ist es notwendig, dass man auch als Betriebswirt ein Basisverständnis der IT-Abläufe
hat. Dies wird auch durch den Umstand verdeutlicht, dass die IT in vielen
Unternehmen nicht mehr nur eine Support-Funktion einnimmt, sie wird sogar in
vielen Unternehmen in den Mittelpunkt der Transformationsstrategie gestellt.
1.2 Einordnung des Skriptums im Rahmen des
MBA Fernstudiums
Sie erhalten im Rahmen des Fernstudiums wesentliches Grundlagenwissen, um
eine digitale Transformation in Ihrem Unternehmen aktiv voranzutreiben. Das
Skriptum „Neue Technologien“ gewährt einen Einblick, wie sich der Einsatz
moderner Informationstechnologie im Rahmen der Unternehmensprozesse positiv
auf die Effizienzsteigerung und somit den Erfolg auswirken kann.
Digital Technology Management – Neue Technologien
2
Der Aufbau des Studiums erfolgt nach Modulen. Dieses Skriptum schließt an die
Einführung sowie die erste Lehrveranstaltung, Digital Business und
Innovationsmanagement, an. Sie sollten demnach die grundlegenden
Ausprägungen der Digitalisierung verstanden haben. Dieses Skriptum baut nun auf
dem Gelernten auf, erweitert dieses um konkretes Verständnis hinsichtlich neuer
Technologien und wie diese in verschiedenartigen Unternehmen zum Einsatz
gelangen. Ausschließlich Wissen über Digitalisierung und Digital Change
Management zu vermitteln, wäre zu kurz gegriffen. Somit besteht die Berechtigung
dieses Skriptums darin, gängige IT-Services vorzustellen.
1.3 Aufbau und Konzeption dieses Lehrbriefes
Der vorliegende Lehrbrief dient vornehmlich zur Einführung in das breite
Aufgabengebiet der Informatik und dessen unterstützende Aufgabe für das
moderne Management.
Nach der Einleitung erwartet Sie im zweiten und dritten Kapitel ein Überblick und
eine Abgrenzung der Informationswissenschaft zur übergeordneten Hauptdisziplin
der Wirtschaftsinformatik.
Im vierten Kapitel bekommen Sie einen Einblick in cloudbasierte IT-Dienste. Hier
werden Ihnen vor allem der Aufbau der Cloud-Pyramide sowie die Möglichkeiten
der Virtualisierung nähergebracht.
Im fünften Kapitel sollen Ihnen die Vor- und Nachteile des Einsatzes von
Standardsoftware im Vergleich zur Individualsoftware näher erläutert werden.
Das sechste Kapitel beschäftigt sich mit modernen Möglichkeiten, um die
geänderten Anforderungen in der Leitung von Softwareprojekten zu meistern. Hier
wird speziell auf die rasche Änderung der Anforderungen und deren Umgang im
Projektmanagement eingegangen.
Das siebte Kapitel soll einen kurzen Einblick geben, wie Frameworks bei der
Softwareerstellung die Entwicklungszeit verkürzen und dabei die Qualität erhöhen.
Im achten Kapitel sollen abschließend durch eine Fallstudie ein modernes
Entwicklungswerkzeug und dessen Vorteile gezeigt werden.
1.4 Lernziele der LV „Neue Technologien“
• Gemeinsamkeiten und Unterschiede der Wirtschaftsinformatik und des
Informationsmanagements kennen,
• Wirtschaftsinformatik als interdisziplinäre Wissenschaft definieren
können,
• Unterschiede der verschiedenen Arten der Virtualisierung kennen und
erklären,
• die Einsatzbereiche und den Zweck von Webservices beschreiben,
• die Begriffe IaaS, Paas und SaaS kennen und definieren,
Digital Technology Management – Neue Technologien
3
• Cloud-Management und dessen Notwendigkeit in modernen IT-
Umgebungen kennen,
• Unterschiede zwischen Standard- und Individualsoftware erläutern,
• Unterschiede bzw. Gemeinsamkeiten der beiden agilen Vorgehensmodelle
Scrum und Extreme Programming kennen,
• Design Thinking und dessen Ansatz kennen,
• den Unterschied zwischen Wireframes und Mock-Ups kennen und erklären
können,
• erklären können, wie ein Framework die moderne Softwareentwicklung
beeinflusst.
Digital Technology Management – Neue Technologien
4
2 Interdisziplinarität der Wirtschaftsinformatik
als Managementaufgabe
Die Wirtschaftsinformatik als solche wird sehr häufig als eine Art
Schnittstellendisziplin bezeichnet, welche aber zu anderen Wissenschaften offen
ist. Dies mag oberflächlich betrachtet auch stimmen, wird aber durch die beiden
Begriffsdefinitionen, „Gegenstand der Wirtschaftsinformatik sind Informations-
und Kommunikationssysteme in Wirtschaft und Verwaltung und im privaten
Bereich“1 und „Wirtschaftsinformatik ist die Wissenschaft von Entwurf,
Entwicklung und Einsatz computergestützter betriebswirtschaftlicher
Informationssysteme“2 widerlegt. Man erkennt, dass es um eine strukturierte und
organisierte Menge von Technologien geht, die den Zweck verfolgen, definierte
Ergebnisse zu liefern. Dabei wird versucht, Daten zu sammeln, zu strukturieren,
bereitzustellen, zu kommunizieren und zur Verfügung zu stellen, um daraus die
verschiedensten Erkenntnisse zu gewinnen. Die gewonnenen Informationen
unterstützen dadurch die Findung von Entscheidungen, koordinieren
Wertschöpfungsprozesse und steuern deren Automatisierung. Die richtige Nutzung
der durch IKT gewonnenen Informationen, und nicht per se der Einsatz dieser, kann
aber auch den Innovationsprozess in Unternehmen positiv beeinflussen.3
Das Zusammenspiel bzw. die Konkurrenz, die sich bei der Einführung
betriebswirtschaftlicher Systeme zwischen den theoretischen Konzepten und der
praktischen Einführung ergeben, wäre ein wesentliches Merkmal der
Wirtschaftsinformatik. Um aber die Disziplin noch etwas genauer zu definieren,
muss man auch die folgenden Ziele nennen:4
• Informations- und Kommunikationssysteme so einzurichten, dass deren
Nutzung im Unternehmen und in der Verwaltung einen Mehrwert schafft.
Dabei sollte aber stets auf die Kosten/Nutzenrechnung geachtet werden.
• Auch sollte das Management durch Bereitstellung der notwendigen
Informationen bei der Planung und Entscheidungsfindung sowie auch bei
deren Kontrolle unterstützt werden.
• Die operativen Bereiche sollten durch die Unterstützung und die mögliche
Automatisierung profitieren.
Die eben genannte Automatisierung bringt aber auch noch weitere Vorteile, wie
• die Verbesserung der Arbeitsabläufe für den Endbenutzer,
• die Verbesserung der Wirtschaftlichkeit und
• die Steigerung der Leistungsfähigkeit.
1 WKWI, (Profil der Wirtschaftsinformatik), online.
2 Scheer, A.W., (Wirtschaftsinformatik), S. 1.
3 Vgl. Krcmar, H. (Informationsmanagement), S. 1-3.
4 Vgl. Gabriel, R., Weber, P., Schreiber, N., Lux, T., (Basiswissen Wirtschaftsinformatik),
S. 8-9.
Digital Technology Management – Neue Technologien
5
Dies ist aber nur durch eine ausreichende Definierung von Qualitätszielen für die
Arbeitsprozesse sowie die erstellten Produkte und Dienstleistungen möglich.5
Aus den bisher gezeigten Zielen der Wirtschaftsinformatik, die sich eher auf den
betriebswirtschaftlichen Teilbereich bezogen haben, geht aber auch hervor, dass
die Informatik, aus der sich die Wirtschaftsinformatik entwickelt hat, einen
wichtigen Faktor widerspiegelt.
Der Begriff der Informatik ist den meisten Menschen bekannt. In der Regel setzen
Menschen die Informatik mit Computern und dem Programmieren von Software
gleich. Das ist im Kern auch richtig, aber kann man die Informatik und die
Wirtschaftsinformatik einfach so gleichsetzen? Dazu muss vorab die Informatik
genauer definiert werden.
„Die Informatik (engl. Computer Science) ist die Wissenschaft von der
systematischen Verarbeitung von Information, besonders der automatischen, mit
Hilfe von Computern.“6
Außerdem sollte man erwähnen, dass sich die Informatik im Kern mit den
folgenden drei Bereichen beschäftigt:7
• Theoretische Informatik: Dieses Teilgebiet befasst sich mit
mathematischen Fragen und deren Programmierbarkeit. Im Grunde geht
es darum, wie man existierende Probleme durch den Einsatz von
Computern lösen kann.
• Technische Informatik: Hier geht es vornehmlich um die Hardware bzw. die
Schaltungstechnik. Dazu gehören auch noch die Mikroprogrammierung
und die Rechnerorganisation.
• Praktische Informatik: Hier beschäftigt man sich hauptsächlich mit der
Umsetzung gegebener Probleme in Computerprogrammen.
Um nun die oben erwähnte Frage zu beantworten: Auch wenn die
Wirtschaftsinformatik ihre Wurzeln in der reinen Informatik und hier speziell in der
praktischen Informatik hat, so kann man sie trotz alledem nicht gleichsetzen. Dies
liegt auch daran, dass die Wirtschaftsinformatik zwar einerseits von der Informatik
und der Betriebswirtschaftslehre maßgeblich beeinflusst wird, andererseits spielen
jedoch auch die Kommunikations- und Systemwissenschaft eine wichtige Rolle
(siehe Abbildung 1).8
5 Vgl. Gabriel, R., Weber, P., Schreiber, N., Lux, T., (Basiswissen Wirtschaftsinformatik),
S. 9-10.
6 Müller, H., Weichert, F., (Vorkurs Informatik), S. 8.
7 Vgl. Schwarzer, B., Krcmar, H., (Wirtschaftsinformatik), S. 2-3.
8 Vgl. Abts, D., Mülder, W., Grundkurs Wirtschaftsinformatik: Eine kompakte und
praxisorientierte Einführung, S. 2-4.
Digital Technology Management – Neue Technologien
6
Abbildung 1: Interdisziplinarität der Wirtschaftsinformatik
Reflexionsaufgabe 1: Interdisziplinarität
Wie ordnet sich die Wirtschaftsinformatik in Managementaufgaben ein?
Interdisziplinarität der
Wirtschaftsinformatik als
Managementaufgabe
Übungen finden Sie auf
Ihrer Lernplattform.
Digital Technology Management – Neue Technologien
7
3 Überblick und Gegenstand des
Informationsmanagements als Teilgebiet der
Wirtschaftsinformatik
Unternehmen sind zunehmend von der Generierung von Informationen abhängig.
Dies gilt vor allem für solche Unternehmen, die sehr informationslastige Prozesse
haben. Aus diesem Grund ist das Management dieser Ressource ebenso wichtig wie
die Verwaltung aller anderen für das Unternehmen wichtigen
Produktionsressourcen. Da das Informationsmanagement (IM) im Bereich der
Führungsebene angesiedelt ist, hat es unter anderem einen planenden,
kontrollierenden und steuernden Charakter. Und das gilt sowohl für den
strategischen als auch für den operativen Bereich. Die besondere Bedeutung beim
richtigen Umgang mit Informationen wird von Nefiodow in seinem Buch über den
Übergang von der Industrie- hin zur Informationsgesellschaft anschaulich
beschrieben.
„In der Industriegesellschaft kam es primär darauf an, Rohstoffe zu
erschließen, Maschinen, Fließbänder, Fabriken, Schornsteine und Straßen
zu bauen, Energieflüsse zu optimieren, naturwissenschaftlich-technische
Fortschritte zu erzielen und das Angebot an materiellen Gütern zu steigern.
Vereinfacht ausgedrückt: Im Mittelpunkt des Strukturwandels der
Industriegesellschaft standen Hardware und materielle Bedürfnisse. In der
Informationsgesellschaft hingegen kommt es in erster Linie auf die
Erschließung und Nutzung der verschiedenen Erscheinungsweisen der
Information an – also von Daten, Texten, Nachrichten, Bildern, Musik,
Wissen, Ideen, Beziehungen und Strategien." 9
Die effiziente bzw. effektive Erfüllung der Informationsbereitstellung führt uns zu
den beiden Hauptbereichen des Informationsmanagements:10
• Koordination der Informationslogistik: Das IM (Informationsmanagement)
verantwortet die wirtschaftliche Belieferung der innerbetrieblichen
Entscheidungsprozesse. Im Zuge der „Informationsproduktion“ definiert
der Entscheidungsträger die Grundlage für das Sammeln von Daten, welche
dann den Nutzern dieser Information in der richtigen Qualität, zur richtigen
Zeit und am richtigen Ort über das notwendige Medium zur Verfügung
gestellt werden. Dieser Gesichtspunkt ist gerade unter Bedacht der rasant
steigenden Datenmengen und der daraus resultierenden Flut an
Informationen von großer Bedeutung für die „Informationsproduktion“.
• Durch eine an Kriterien gebundene wirtschaftliche Steuerung der
Informatik werden die definierten Unternehmensziele unterstützt: Die
Steuerung der Informatik und der damit verbundenen Informationen (z. B.
Mitarbeiter, Prozesse oder die eingesetzte IT-Technologie) wird durch das
richtige Informationsmanagement abgebildet. Die Informationslogistik
sollte ein Regelwerk beinhalten, das es ermöglicht, Strategie, Prozesse und
9 Nefiodow, L., (Der sechste Kondratieff: Wege zur Produktivität und Vollbeschäftigung im
Zeitalter der Information)
10 Vgl. Voss, S., Gutenschwager, K., (Informationsmanagement), S. 65-68.
Informationsmanagement
Digital Technology Management – Neue Technologien
8
Infrastruktur sowie eine an den Zielen des Unternehmens ausgerichtete
Informatik zu kreieren.
Aus den gerade genannten Bereichen kann man die für das IM notwendigen
Aufgaben ableiten:11
Modellierung der Informationslogistik: Wichtig für die Modellierung ist die
Darstellung der Entscheiderprofile, der Informationsobjekte und deren Abläufe.
Denn nur so ist es möglich, die Anwendungen bzw. die IT-Infrastruktur optimal auf
die Anforderungen der Informationslogistik abzustimmen.
Management der Schnittstelle zum Unternehmens-Controlling: Eine zentrale
Rolle für den Erfolg spielt die laufende Überprüfung der Anforderungen. Denn nur
so kann die Qualität des Systems der Informationsbereitstellung auf einem
kontinuierlichen Niveau gehalten werden.
Strategisches Informatik-Management: Das Strategische Informatik-Management
erfolgt in drei Schritten: Erstens müssen die Informationsstrategie und die
Geschäftsstrategie in Einklang gebracht werden. Zweitens soll eine IT-Governance
(d. h. ein Regelwerk zur Führung der IT) im Unternehmen implementiert werden.
Drittens muss es eine laufende Planung der weiteren Entwicklungsschritte geben;
diese kann mittels der strategischen Informationssystemplanung erreicht werden.
Operatives Informatik-Management: Der Rahmen der Informationslogistik wird
durch Prozesse, die Organisation und die vorhandenen Ressourcen in Verbindung
mit der Informatik-Strategie vorgegeben. Um diesen Rahmen ordnungsgemäß
steuern zu können, gibt es verschiedene Werkzeuge, wie zum Beispiel die IT
Infrastructure Library oder das COBIT, Control Objectives for Information and
Related Technology -Framework.
Qualitätsmanagement der Informatik: Die Qualitätssicherung stellt einen
Kernbereich dar, daher wird sie als eigenständiger Punkt geführt. Um die
definierten Qualitätsziele zu erreichen, müssen die vorhandenen Strukturen und
Aktivitäten mit entsprechenden Maßnahmen regelmäßig geprüft und evaluiert
werden. Aus diesem Grund ist es notwendig, mit den jeweiligen Fachbereichen im
Unternehmen zusammen zu arbeiten, weil es vorkommen kann, dass
Geschäftsprozesse angepasst werden müssen.
Man kann also festhalten, dass die entsprechende Erfüllung der IM-Aufgaben eine
wirtschaftliche und problemorientierte Führung der IT zulässt.
Der Stellenwert des IM war in der Vergangenheit nicht immer so hoch wie aktuell.
Die Veränderung über die Jahre zeigt sich sehr schön im IT-
Produktivitätsparadoxon:
• Strassmann (1990): IT-Investitionen (Budget) sind nicht entscheidend für
den Unternehmenserfolg.12
• Bharadwaj (2000): Es besteht ein positiver Zusammenhang zwischen
Informationsmanagement und Unternehmenserfolg.13
11 Vgl. Ferstl, O., Sinz, E.,(Grundlagen der Wirtschaftsinformatik), S. 74-80.
12 Vgl. Strassmann, P., (The Business Value of Computers: An Executive's Guide).
13 Vgl. Bharadwaj, A.S., (A Resource-Based Perspective on Information Technology
Capability and Firm Performance: An Empirical Investigation), S. 169-196.
Digital Technology Management – Neue Technologien
9
• Stratopoulos & Dehning (2000):14
o Positiver Zusammenhang zwischen erfolgreichem IT-Einsatz im
Unternehmen und Unternehmenserfolg,
o IT muss effizient eingesetzt werden,
o „schlechtes“ Informationsmanagement ist Grund für
Produktivitätsparadoxon.
• Brynjolfsson & Rock & Syverson (2017):15
o Der Einsatz von IT führt nicht zwingend zu einer
Produktivitätsrevolution.
o Erklärungen hierfür sind
▪ falsche Hoffnungen,
▪ falsche Messungen,
▪ Implementierung und Restrukturierungsversäumnisse.
Reflexionsaufgabe 2: Informationsmanagement
Nennen und erklären Sie die Aufgaben des Informationsmanagements!
14 Vgl. Stratopoulos, T., Dehning, B., (Does successful investment in information
technology solve the productivity paradox?), S. 103-117.
15 Vgl. Brynjolfsson, E., Rock, D., Syverson, C. (Artificial Intelligence and the Modern
Productivity Paradox), S. 1-6.
Digital Technology Management – Neue Technologien
10
4 Cloudbasierte IT-Services als Baustein der
Digitalisierungsstrategie
Wenn in Ihrem Unternehmen über eine Digitalisierungsstrategie nachgedacht wird
oder vielmehr nachgedacht werden soll, führt kein Weg an Cloud-Diensten vorbei.
Cloud-Dienste geben dem Unternehmen die Möglichkeit, IT-Services jedem
Mitarbeiter an jedem Ort der Welt zur Verfügung zu stellen. Sie stellen daher einen
wesentlichen Bestandteil einer jeden digitalen Transformation dar.
4.1 Grundlagen
Digitalisierung in Unternehmen – ein Trend? Eine Notwendigkeit? Oder einfach nur
ein Begriff, der wieder verschwinden wird? Bevor man auf diese Fragen eingehen
kann, muss der Begriff genauer definiert werden.
Der Begriff der Digitalisierung hat aber nicht nur eine, sondern mehrere
Bedeutungen. Er beginnt bei der einfachen digitalen Umwandlung und Darstellung
von Informationen bzw. Kommunikation und erstreckt sich bis hin zur vierten
industriellen Revolution (Industrie 4.0). Dazwischen liegen Evolutionsschritte, wie
verdrängende Technologien (auch bekannt als disruptive Technologien), innovative
Geschäftsmodelle oder Autonomisierung.16
Der digitale Fortschritt in Unternehmen ist immer an die IT gekoppelt und diese
hatte bis jetzt die Aufgabe, Tätigkeiten im Unternehmen zu unterstützen, indem sie
Softwares, wie zum Beispiel das bekannte ERP System SAP, zur Verfügung stellte.
Betrachtet man das Ganze aber aus einem anderen Blickwinkel, so erkennt man,
dass durch die Digitalisierung der IT eine weitaus größere Aufgabe zukommt. Zum
einen soll sie - idealerweise unbemerkt im Hintergrund - für eine Kostenreduktion
sorgen. Zum anderen ist ein weiterer, weitaus wichtigerer Teil, der durch die
richtige Einstellung zustande kommen kann, dass die IT zur Steigerung der
Ertragssituation durch Kostenreduktion und Effizienzsteigerung beitragen kann.
Das sogenannte „Cloud Computing“ erfreut sich seit nunmehr geraumer Zeit eines
stetig steigenden Zulaufs. Die Definition des Begriffes durch das „National Institute
of Standards and Technology“ NIST lautet wie folgt:
„Cloud Computing ist ein Modell, das den allgegenwärtigen, bequemen und
bedarfsgesteuerten Netzwerkzugriff auf einen gemeinsam genutzten Pool an
konfigurierbaren Datenverarbeitungsressourcen (z. B. Netzwerke, Server, Speicher,
Anwendungen und Dienste), welche schnell und mit minimalem
Verwaltungsaufwand bereitgestellt werden können, ermöglicht.“
Beim Durchlesen dieser Definition ist schnell zu erkennen, dass es beim Cloud-
Computing nicht einfach nur um die Auslagerung der IT bzw. die Virtualisierung
dieser geht.17 Vielmehr steht der schnelle, einfache und bedarfsgerechte Einsatz
von IT-Diensten im Vordergrund. Dies zeigen auch die fünf wesentlichen Merkmale,
16 Vgl. Gabler, online.
17 Das Prinzip der Virtualisierung wird in Folge noch detailgenauer erklärt.
Digital Technology Management – Neue Technologien
11
drei Servicemodelle und vier Bereitstellungsmodelle, die seitens des NIST zusätzlich
definiert wurden.
Wesentliche Merkmale:
• On-Demand Self Service: Ein Kunde kann Rechenmöglichkeiten, wie
Serverzeit und Netzwerkspeicher, ohne Interaktion des Cloudanbieters
automatisch bereitstellen.
• Breiter Netzwerkzugriff: Funktionen sind über Netzwerke verfügbar und
können über Standard-Zugriffsverfahren, welche Thin Client oder Thick
Client Plattformen nutzen, erreicht werden. Um die Sinnhaftigkeit der
Funktion begreifen zu können, wird als Voraussetzung ein Verständnis
davon benötigt, was Thin Clients oder Thick Clients sind: Ein Thick Client ist
ein voll leistungsfähiger Desktop-Computer mit ausreichender
Rechenkapazität, der eigenständig die von ihm verlangten Aufgaben
erfüllen kann.
Ein Thin Client hingegen ist ein Computer oder ein Programm, der/das auf
die Dienstleistung eines Servers angewiesen ist, um die Aufgaben zu
erfüllen.
Grundsätzlich handelt es sich bei der Dualität zwischen Servern und Clients
um ein zentrales Grundprinzip der Netzwerk-Architektur. Clients können
dabei vom Server Dienste anfordern und im Regelfall können auch mehrere
Clients auf die Dienste eines Servers zugreifen.
• Ressourcenzusammenlegung: Rechenressourcen der Anbieter werden
zusammengefasst, um gleichzeitig mehrere Kunden zu bedienen. Dies
geschieht unter Zuhilfenahme des sogenannten Multi-Tenant Modells, bei
dem verschiedene physische und virtuelle Ressourcen zusammengefasst
und bedarfsorientiert zugewiesen werden.
• Schnelle Elastizität: Funktionen können flexibel bereitgestellt und
freigegeben werden.
• Messbarer Service: Cloud-Systeme kontrollieren, messen und optimieren
den Ressourcenverbrauch automatisch. Dadurch ist Transparenz
gegenüber dem Kunden und auch dem Anbieter selbst garantiert.
Servicemodelle:
• Software as a Service (SaaS): Anwendungen, die auf der Infrastruktur des
Providers laufen, werden den Kunden zur Verfügung gestellt. Diese können
von den verschiedensten Client Devices (Laptop, Tablet etc.) genutzt
werden. Der Kunde hat hier keine Möglichkeit, die Cloud-Infrastruktur, wie
Netzwerk, Speicher oder Server, zu beeinflussen.
• Platform as a Service (PaaS): Dem Kunden wird die Möglichkeit gegeben,
selbst programmierte Anwendungen auf der Cloud-Infrastruktur des
Providers zu implementieren. Der Kunde hat auch hier keine Möglichkeit,
die Infrastruktur des Providers zu konfigurieren. Er hat jedoch die Kontrolle
über die implementierte Anwendung.
• Infrastructure as a Service (IaaS): Dem Kunden wird die Möglichkeit
gegeben, bereitgestellte Speicher, Netzwerke und andere Ressourcen zu
Digital Technology Management – Neue Technologien
12
konfigurieren. Der Kunde kann hier Anwendungen oder auch gesamte
Betriebssysteme installieren und konfigurieren. Zugriff auf die
darunterliegende Infrastruktur hat der Kunde jedoch nicht.
Bereitstellungsmodelle:
• Private Cloud: Die Cloud-Infrastruktur wird ausschließlich von der
Organisation, eventuell unter Zuhilfenahme von Partnern der eigenen
Organisation oder anderen Business Units, bereitgestellt. Die Infrastruktur
kann hier am Firmengelände oder auch beim Partner installiert werden.
• Community Cloud: Die Cloud-Infrastruktur wird ausschließlich für die
Verwendung von bestimmten Organisationen mit einem gemeinsamen Ziel
bereitgestellt. Die Infrastruktur wird hier entweder von einem oder
mehreren Unternehmen betrieben.
• Public Cloud: Infrastruktur und Dienste sind über das öffentliche Internet
für jeden Benutzer zugänglich. Dabei wird die Infrastruktur von Anbietern
in deren Räumlichkeiten betrieben.
• Hybrid Cloud: Hier werden zwei oder mehr der genannten Cloud-
Infrastrukturen kombiniert. Diese bleiben eigenständig, werden aber durch
standardisierte oder proprietäre Technologien verbunden. Dies ermöglicht
die Portabilität der Daten bzw. einen Lastenausgleich der Clouds.18
4.1.1 Virtualisierung
Virtualisierung ist ein Konzept, an welchem man in der modernen IT kaum noch
vorbeikommt. Dieses Konzept der Abstraktion ist aber keine Erfindung der
modernen IT. Es stammt ursprünglich aus den späten 1960er und frühen 1970er
Jahren und kommt von den damals entwickelten Mainframes. Was aber steckt
hinter diesem Konzept genau? Spricht man in der IT von „Virtualisierung“, so ist hier
grundsätzlich die Abstraktion einer physikalischen Ressource, wie zum Beispiel
Prozessoren, Speicher, Bildschirme etc., durch eine Software gemeint. Demzufolge
ist eine „virtuelle Maschine“ eine Software, die einen echten Computer simuliert.
Dabei sieht die virtuelle Maschine für das installierte Betriebssystem aus wie reale
Hardware.
Dabei setzt die Virtualisierung bei den verschiedenen Schichten moderner
Computersysteme an. Dies wird durch Abbildung 3 deutlich.19
18 Vgl. The NIST Definition of Cloud Computing, S. 2 ff.
19 Vgl. Meinl, C., Willems, C. (Virtualisierung und Cloud Computing: Konzepte,
Technologiestudie, Marktübersicht), S. 10.
Cloudbasierte IT-Services
als Baustein der
Digitalisierungsstrategie
Übungen finden Sie auf
Ihrer Lernplattform.
Digital Technology Management – Neue Technologien
13
Abbildung 2: System ohne Virtualisierung Abbildung 3: Hardware-Virtualisierung
Virtualisierung darf aber hier nicht auf virtuelle Maschinen (VM) reduziert werden,
weil es grundsätzlich darum geht, komplexe IT-Infrastrukturen zu vereinfachen und
als Gesamtes wirtschaftlicher und flexibler zu machen. Unter diesem Gesichtspunkt
muss man die verschiedenen Arten der Virtualisierung
• Hardwarevirtualisierung,
• Präsentationsvirtualisierung und
• Applikationsvirtualisierung
genauer betrachten. Denn nur so kann sichergestellt werden, dass durch eine
effiziente Verwaltung der unterschiedlichen Lösungen der gewünschte
Kostenvorteil entsteht. Wäre das nicht der Fall, würden die Einsparungen bei den
Hard- bzw. Softwareressourcen durch steigende Personalkosten in der Verwaltung
verpuffen.
Hardwarevirtualisierung:
Spricht man in der IT von Virtualisierung, ist hier meist die Hardwarevirtualisierung
gemeint. Das sind Hard- und Software-Techniken, die es ermöglichen sollen,
mehrere Instanzen von unterschiedlichen Betriebssystemen auf einem einzelnen
Rechner bzw. Server gleichzeitig nebeneinander zu betreiben.
Der sogenannte Gast (virtuelles Betriebssystem) wird vom darunterliegenden
Betriebssystem (Host) komplett abgekoppelt und kann somit einfach und flexibel
wie ein Softwarepaket behandelt werden. Diese Technik ermöglicht es, eine
virtuelle Maschine ohne großen Aufwand zum Beispiel zu klonen, um anstehende
Tests durchzuführen bzw. die virtuelle Maschine von einem physikalischen Rechner
zum anderen zu verschieben. Diese Tatsache hat den Vorteil, dass gerade bei
verfahrenskritischen Systemen, die eine Hochverfügbarkeit (Verfügbarkeitsklasse
AEC-2) von 99,99 % garantieren (ca. 5 Minuten Ausfallszeit pro Jahr), Kostenvorteile
auftreten.
Bei der Hardwarevirtualisierung gibt es aber auch noch eine Unterscheidung in zwei
grundlegende Systemarchitekturen: Da wären zum einen die Hosted-Lösung und
zum anderen die sogenannte Bare-Metal-Lösung. Bei der Hosted-Lösung läuft der
Virtual Machine Monitor als eigenständige Software in einem normalen
Betriebssystem (z. B. Windows 10). Die sogenannte Bare-Metal-Lösung betreibt
Digital Technology Management – Neue Technologien
14
den VM-Monitor direkt auf der Hardware und wird hier meist als Hypervisor
bezeichnet.
Der Vorteil solcher Bare-Metal-Lösungen liegt klar auf der Hand: Durch den Wegfall
des darunterliegenden Betriebssystems bei der Hosted-Lösung werden
Systemressourcen frei, welche wiederum für die virtuellen Maschinen genutzt
werden können.
Unabhängig von der verwendeten Architektur müssen beide Ansätze die von Popek
und Goldberg 1974 formulierten Anforderungen erfüllen:20
Äquivalenz: Das virtuelle System muss das gleiche Verhalten zeigen als wäre es
direkt auf der Hardware ausgeführt worden.
Isolation: Die virtuellen Systeme müssen untereinander zur Gänze isoliert sein,
denn nur so können Sicherheit, Vertraulichkeit21 und Konsistenz von Daten
gewährleistet werden. Zudem darf eine fehlerhafte virtuelle Maschine keinen
Einfluss auf andere laufende virtuelle Maschinen haben.
Kontrolle: Vorhandene Systemressourcen, wie CPU oder RAMs, müssen von den
virtuellen Maschinen kontrolliert und einzeln zugeordnet werden.
Effizienz: Die virtuellen Maschinen sollten annähernd so schnell laufen wie auf der
blanken Hardware. Es darf also kein allzu großer Overhead produziert werden.
Overhead wären in diesem Zusammenhang Daten, die nicht primär zu den
Nutzdaten zählen, sondern als Zusatzinformationen zur Übermittlung oder
Speicherung benötigt werden.
Präsentationsvirtualisierung:
Die Präsentationsvirtualisierung versucht, die Nachteile der bekannten Client
Server-Anwendungen, wie Office-Pakete, zu reduzieren. Bei dieser
Softwarearchitektur werden sehr häufig zu bearbeitende Dateien auf dem lokalen
Desktop abgelegt und im Idealfall regelmäßig auf dem zentralen Serverlaufwerk
gesichert. Zudem entsteht meist ein sehr hoher Aufwand, um die verteilten
Arbeitsplatzrechner zu warten.
Die Präsentationsvirtualisierung ermöglicht virtuelle Benutzersitzungen, bei denen
bestimmte Anwendungen oder sogar ganze Desktop-PCs eines Servers auf dem
lokalen PC wiedergegeben werden. Der Vorteil hier ist, dass entweder die ganze
Anwendung oder die zu bearbeitenden Daten zu jeder Zeit auf dem Server liegen.
Der eigene PC wird lediglich zur Anzeige und Bedienung des entfernten Rechners
benötigt. Dieses auch als Terminal Computing bekannte Prinzip bringt folgende
Vorteile mit sich, die in einem Kostenvorteil resultieren:
• Zentralität der Daten: Dies vereinfacht die Zugriffskontrolle, aber auch das
Backup der Daten, was zu erhöhter Sicherheit der Daten führt.
• Besseres Life Cycle Management: Da lediglich die zentralen Terminalserver
gewartet werden müssen, können enorme Kostenvorteile erzielt werden.
20 Vgl. Popek, G., Goldberg, R. (Formal Requirements for Virtualizable Third Generation
Architectures), S. 413 ff.
21 Informationen sind nur befugten Personen zugänglich.
Digital Technology Management – Neue Technologien
15
• Effizientere Durchsetzung von Sicherheitsrichtlinien: Da der lokale
Arbeitsplatzrechner - häufig auch als Thin Client bezeichnet - auf die
Benutzer-Ein- bzw. Ausgabe reduziert wird, verringert sich auch
automatisch die Angriffsfläche am Arbeitsplatz. Da ein Großteil der Angriffe
durch interne Mitarbeiter durchgeführt wird, ist dies ein nicht zu
unterschätzender Vorteil.
• Vermeidung von Netzwerküberlasten: Bei klassischen Client/Server-
Anwendungen kann es zu Spitzenzeiten zu extrem hohen Lasten und,
daraus resultierend, zu Zeitverzögerungen kommen. Dieser Punkt ist vor
allem bei verteilten Standorten relevant, weil es gerade hier zu
unangenehmen Wartezeiten kommen kann.
Terminal Computing hat aber nicht nur Vorteile. Der größte Nachteil ist sicherlich
die Abhängigkeit vom Netzwerk, denn ohne dieses ist keinerlei Arbeit möglich. In
so einem Szenario ist ein redundantes Netzwerk unumgänglich, was aber auf der
anderen Seite wieder die Kosten in die Höhe treibt. Ein redundantes Netzwerk
bezeichnet die mögliche Gewährleistung, dass beim Ausfall einer
Netzwerkinfrastruktur bereits ein zweiter Ersatz vorhanden wäre, der den Ausfall
schlagartig auffängt. Die Netzwerkinfrastruktur würde also für Bedarfsfälle kopiert
werden. Das hat die Entwicklung des VDI-Konzeptes (Virtual Desktop
Infrastructure) vorangetrieben. Dieses Konzept verbindet die Hardware- und
Präsentationsvirtualisierung. Zum einen werden für jeden Client eigene virtuelle
Maschinen erstellt, auf die von jedem Client-PC aus zugegriffen werden kann. Zum
anderen wird der Verwaltungsaufwand reduziert, weil dieser zentral verwaltet und
dynamisch auf die, je nach Systemauslastung und Ressourcenbedarf, notwendigen
Server verteilt wird.
Applikationsvirtualisierung:
Die Applikationsvirtualisierung zielt darauf ab, Anwendungen zu entkoppeln, um so
Probleme mit anderen Programmen oder dem Betriebssystem zu vermeiden. Im
Gegensatz zur Hardwarevirtualisierung wird in diesem Fall eine eigene
Abstraktionsschicht, ähnlich des Virtual Monitors, zwischen Betriebssystem und
Anwendung eingeführt.
Digital Technology Management – Neue Technologien
16
Abbildung 4: Virtuelle Maschine
(Serverspace)
Abbildung 5: Containerumgebung (Serverspace)
Die Anwendungen werden mit allen notwendigen Software-Bibliotheken und
Libraries, wie in Abbildung 5 gezeigt, in sogenannten Containern zusammengefasst.
Dadurch können diese sehr einfach zwischen den Systemen kopiert werden.
Abbildung 6: Applikationsvirtualisierung in einer Microsoft-Umgebung (fisc)
Abbildung 6 zeigt den Ansatz von Microsoft in diesem Zusammenhang, der aber bei
allen anderen Herstellern ähnlich aussieht. Hier ist schön zu sehen, dass
Anwendungen nicht mehr direkt auf den Client-Computern installiert werden; sie
werden vielmehr in Containern auf dem Application Virtualization Sequenzer
installiert und bei Bedarf auf den lokalen Desktop kopiert. Dies ermöglicht
• eine deutlich einfachere Softwareverteilung,
• vereinfachte Updates,
Digital Technology Management – Neue Technologien
17
• aber auch verschiedene Versionen nebeneinander laufen zu lassen sowie
• einfachere Integrationstests.
Reflexionsaufgabe 3: Virtualisierung
Erklären Sie die drei Arten der Virtualisierung genauer!
Reflexionsaufgabe 4: Virtualisierung
Erklären Sie die unterschiedlichen Bereitstellungsmodelle!
4.1.2 Webservices
Webservices sind in der modernen IT nicht mehr wegzudenken. Was aber genau
kann unter einem Webservice verstanden werden?
Webservices sind plattformunabhängige Softwarekomponenten, um verteilte
Anwendungen im WWW zu realisieren. In der Definition des World Wide Web
Consortium (W3C) bilden die Sprache Web Service Description Language (WSDL)
und die Interaktion über SOAP-Nachrichten die Kernelemente der Web-Services.22
SOAP wäre dabei ein Netzwerkprotokoll, um Daten zwischen Systemen
auszutauschen.
Abbildung 7: Web-Service-Architektur
Ein Webservice ist im Grunde eine Schnittstelle oder, einfach gesprochen, ein
Vermittler, der eine definierte Funktionalität in WSDL beschriebenen und über
SOAP-Nachrichten versendete Pakete anderen Anwendungen zur Verfügung stellt.
Daraus lassen sich drei Rollen bei der Verwendung von Webservices ableiten:
• Konsument: Dieser interagiert mit einem Web-Service oder einem
Anbieter.
22 Vgl. Haas, B., Brown, A., (W3C Web Services Glossary (2004)).
Digital Technology Management – Neue Technologien
18
• Anbieter: Stellt einen Dienst über eine definierte Schnittstelle zur
Verfügung.
• Verzeichnis: Beinhaltet eine logische Beschreibung des Dienstes und
sämtlicher Anbieter.
SOAP-Nachrichten bilden die Grundlage für die Kommunikation von und zu Web-
Services. Hierbei werden die Grundstruktur und die Verarbeitungsvorschriften von
Nachrichten vorgegeben. SOAP (Simple Object Access Protocol) ist laut W3C-
Definition plattform-unabhängig. SOAP-Nachrichten können über jegliche
Internetprotokolle auf der OSI-Anwendungsschicht übertragen werden. Was
bedeutet aber der Begriff OSI Anwendungsschicht?
Im OSI-Schichten-Modell wird beschrieben, welche Voraussetzungen
gegeben sein müssen, damit verschiedene Netzwerkkomponenten
miteinander kommunizieren können. OSI steht für „Open System
Interconnection“ und heißt übersetzt „Offenes System für
Kommunikationsverbindungen“.
Die Kommunikation geschieht folgendermaßen: Sender und Empfänger senden
bzw. erhalten Informationen in einer Anwendung, wie z. B. in ihrem E-Mail-
Programm. Diese Information läuft dann von der Anwendung zur Netzwerkkarte,
verlässt den Rechner über ein Übertragungsmedium (Kabel oder Funk), läuft
darüber vielleicht noch über andere Netzwerkkomponenten, wie beispielsweise
einen Hub, und erreicht dann über die Netzwerkkarte des Zielrechners die
Anwendung des Empfängers. Alle Schritte, die vom Sender bis zum Empfänger
gemacht werden müssen, werden während der Übertragung in einem Protokoll
festgehalten, damit jede einzelne Station auf diesem Weg weiß, wohin das Paket
möchte, woher es kommt und welche Eigenschaften es hat. Damit dieser Weg
funktioniert, muss dieser eindeutig festgelegt werden und alle Geräte und jede
Software, die in diesem Prozess involviert sind, müssen den Ablauf kennen und
dieselbe Sprache sprechen. Diese Normen legt das OSI-Schichten-Modell fest.23
Die SOAP-Nachricht selbst ist ein XML Dokument24 mit einem sogenannten
„Envelope“ als Ausgangspunkt und kann in weiterer Folge einen oder mehrere
sogenannte „Header“ besitzen. Der Header enthält sogenannte Meta- und
Kontrollinformationen, wie das „Actor attribute“ und das „MustUnderstand
attribute“. Darüber hinaus enthält das Dokument genau ein Body-Element, in
welchem die zu übertragenden Daten enthalten sind.
23 www.netzwerke.com (2018), https://www.netzwerke.com/OSI-Schichten-Modell.htm.
24 XML – Extensible Markup Language ist ein Format zur Darstellung hierarchisch
strukturierter Daten im Format einer Textdatei, die sowohl von Menschen als auch von
Maschinen lesbar ist.
Digital Technology Management – Neue Technologien
19
Abbildung 8: SOAP-Datenpaket
Webservice-Schnittstellen werden über WSDL beschrieben, um einen
Datenaustausch zu gewährleisten. Es muss hier definiert werden, wie eine
eingehende bzw. ausgehende Nachricht aussehen muss. Es werden hier aber auch
die möglichen Parameter, welche die Schnittstelle zur Verfügung stellt, definiert.
Diese bestimmen dabei das benötigte Datenset.25
Neben SOAP und WSDL hat sich ein weiterer Standard, RESTful, etabliert. REST
Webservices sind per Definition leicht zu warten und sehr skalierbar. Die
Hauptelemente von RESTful Webservices sind:
Resources: Das erste Schlüsselelement ist die Ressource, auf die zugegriffen
werden soll. Nehmen wir beispielsweise an, Ihre Web-URL lautet
http://demo.XYZ.at. Um also auf die Daten des ersten Studenten zuzugreifen,
müsste man folgende URL http://demo.xyz.at/student/1 verwenden. Diese URL
weist den Server an, die Informationen des Studenten mit der ID 1 bereit zu stellen.
Request Verbs: Mit den sogenannten Anfrage-Verben (z. B. GET, POST, DELETE etc.)
teilt man dem Server mit, was man mit der Ressource machen möchte. Im Falle des
GET-Verbs möchte man Daten vom Server empfangen.
Request Header: Mit dieser vordefinierten Header-Information kann man dem
Server weitere Anweisungen übermitteln. Dies kann zum Beispiel die Art der zu
erwartenden Antwort sein.
Request Body: Mit diesem Element sendet man direkt Daten an den Server. Dies
ist im Speziellen der Fall, wenn man einen Datensatz am Server erstellen möchte.
Hierzu wird das POST-Verb verwendet.
Response Body: Über den Antwort-Body wird die angeforderte Information an den
Initiator der Anfrage zurückgesendet. Dies kann, wie bei SOAP, via XML erfolgen
oder über ein anderes Format, wie zum Beispiel JSON.
Response Status Code: Diese Antwort-Codes dienen der Definition, ob bei der
Übermittlung eventuell Fehler aufgetreten sind oder diese erfolgreich war usw.
25 Vgl. Chinnici, R., Moreau, J., (Web Services Description Language (WSDL) Version 2.0:
Part 1 Core Language - W3C Recommendation (2007)), online.
Digital Technology Management – Neue Technologien
20
Abbildung 9: RESTful API Überblick (Schematic Wiring Diagram)
Zu den etablierten Services haben sich mittlerweile weitere Technologien für
spezifische Problemstellungen etabliert.
Warum sollte man aber wissen, was genau ein Web-Service ist? In der heutigen
schnelllebigen IT-Welt kommt es oft vor, dass es für bestimmte Problemstellungen,
die in Unternehmen benötigt werden, bereits fertig programmierte Anwendungen
gibt, die eventuell auch noch öffentlich zugänglich sind. In diesem Fall kann von der
eigenen Anwendung auf die andere Anwendung, welche nicht zwingend in
derselben Programmiersprache erstellt worden sein muss, zugegriffen werden.
Ein weiterer Vorteil kommt bei Systemupdates für die Anbieter von Webservices zu
tragen. In diesen Fällen muss der Anbieter lediglich den Web-Service anpassen, die
beziehenden Konsumenten können den Dienst danach ohne Änderungen an ihrem
System weiter nutzen.26
Reflexionsaufgabe 5: Webservices
Welchen Nutzen/Vorteil hat die Verwendung von Webservices?
Reflexionsaufgabe 6: Webservices
Beschreiben sie den Ablauf einer Webservice-Anfrage.
26 Vgl. Bettag, U., (Informatik-Spektrum), S. 302 ff.
Digital Technology Management – Neue Technologien
21
4.2 Cloud-Architekturen
Die in der Einleitung unter Grundlagen genannten Cloud-Service-Modelle bilden
zusammen die Pyramide der Cloud-Architektur. Die Pyramide in Abbildung 10 zeigt,
dass eine vollständige Cloud-Architektur auf den einzelnen Abstraktionsebenen
aufbaut.
Abbildung 10: Cloud-Pyramide / -Architektur (Netzsieger)
Diese Entkoppelung der einzelnen Schichten ermöglicht es den Konsumenten,
aufbauend auf eine der gezeigten Ebenen, eigene spezielle Angebote ihren
internen Abteilungen gegenüber anzubieten. Dabei werden die Vorteile der jeweils
genutzten Ebene auf die darunterliegenden Ebenen des Modells übertragen.
Nachfolgend werden die drei Cloud-Service-Modelle etwas genauer beschrieben,
um einen besseren Einblick in die jeweiligen Einsatzbereiche zu gewinnen.
Infrastructure as a Service (IaaS) ist die Lieferung von Hardware (Server, Speicher
und Netzwerk) sowie Software (Betriebssystem-Virtualisierungstechnologie,
Dateisystem) als Service. IaaS ist die Evolution vom traditionellen Hosting, welches
keine langfristigen Verpflichtungen erfordert und Benutzern ermöglicht,
Ressourcen nach Bedarf zu beziehen. Im Gegensatz zu PaaS-Diensten stellt der IaaS-
Anbieter nur sehr geringe Managementmöglichkeiten zur Verfügung. Der Anbieter
garantiert lediglich, dass das Rechenzentrum betriebsbereit ist. Alle weiteren
Verwaltungsaufgaben obliegen dem Kunden. Er muss sich also um
Softwarebereitstellung und Konfiguration selbst kümmern, so wie er es auch im
eigenen Rechenzentrum tun müsste. Bekannte Angebote solcher Dienste sind
Elastic Compute Cloud (EC2) und Secure Storage Service (S3) von Amazon.
IaaS ist also die moderne Form des klassischen Hostings. Es beinhaltet den
Netzwerkzugang, Routing-Dienste und Speicher. Der IaaS-Anbieter stellt im
Allgemeinen die Hardware und administrative Services zur Verfügung, um
Anwendungen zu speichern und diese auch zu betreiben. Die Skalierung der
Bandbreite, RAM-Speicher und Festplattenspeicher sind im Allgemeinen enthalten.
Die jeweiligen Anbieter konkurrieren über die Preisgestaltung ihrer dynamischen
Angebote. Der Dienstleister besitzt die Ausrüstung und ist für deren Unterbringung,
Betrieb und Wartung zuständig. IaaS-Angebote können über längerfristige
Verträge, aber auch auf Pay-as-you-go-Basis abgerechnet werden. In der Regel wird
Digital Technology Management – Neue Technologien
22
aber die Flexibilität der Preisgestaltung, bei der man nur die Ressourcen bezahlt,
die man auch gerade für den Betrieb benötigt, als Hauptvorteil für den Kunden
gesehen.27
Merkmale und Komponenten von IaaS sind:
• Ein ressourcenabhängiges Service- und Abrechnungsmodell,
• die dynamische Skalierung der Ressourcen,
• Desktopvirtualisierung sowie
• richtlinienbasierte Dienste.
Zusammenfassend kann man sagen, dass IaaS solide Kosteneinsparungen
ermöglicht, weil Infrastruktur im Zusammenhang mit der Bereitstellung von
Rechenleistung, Speicher und Netzwerk nicht gekauft und extra gewartet werden
muss. Zudem muss beim Kauf der Rechenleistung keine Reserve über den
jeweiligen Hardwarelebenszyklus eingerechnet werden, weil diese dynamisch ist
und jederzeit erweitert werden kann.
Platform as a Service (PaaS)-Angebote bieten grundsätzlich eine Umgebung, in der
Anwendungen bereitgestellt, entwickelt und betrieben werden können. PaaS-
Angebote umfassen darüber hinaus verschiedene Anwendungssoftware-
Infrastruktur (Middleware)-Funktionen. Diese können unter anderem
Integrationsplattformen, Business-Analyse-Plattformen oder auch Mobile-
Backend-Dienste sein. Diese beinhalten darüber hinaus auch Überwachungs-,
Verwaltungs- und Bereitstellungsfunktionen.
Dabei sind Möglichkeiten eines einfachen Zugriffs auf die
Anwendungsinfrastruktur, wie Anwendungsserver, Datenbankserver oder auch
Geschäftsprozessmanagementsysteme u. v. m., hervorzuheben. Die gebotene
Anwendungsschicht ermöglicht es dem Entwickler, schnell und mit moderatem
Aufwand seine eigene, auf diese Dienste aufbauende Software zu entwickeln.
Dabei charakterisieren sich PaaS-Dienste durch folgende Punkte: 28
• Unterstützung für die eigene Anwendung. Dies schließt den Support für
Entwicklung, Deployment und Betrieb dieser Anwendungen mit ein. PaaS-
Anwendungen sind meist sogenannte „born on the cloud“ oder „cloud
native“-Anwendungen. Das sind Anwendungen, die alle Möglichkeiten von
PaaS und IaaS nutzen.
• Rapid-deployment-Mechanismen: Hierbei bietet PaaS den Entwicklern und
Betreibern „push and run“-Mechanismen an, wo Ressourcen für die
Software dynamisch, je nach Bedarf, zugewiesen werden.
• Sicherheit ist ein zentraler Faktor bei jeglicher Business-Software. Daher ist
es nicht überraschend, dass PaaS-Angebote Sicherheitsfeatures, wie
Firewalls, verschlüsselte Protokolle oder auch Zugriffsregulierungen,
standardmäßig beinhalten.
27 Vgl. Sushil, B., Leena, J. (CLOUD COMPUTING: A STUDY OF INFRASTRUCTURE AS A
SERVICE (IAAS)), S 63. ff.
28 Vgl. Cloud Standars Customer Council, (Practical Guide to Platform-as-a-Service),
S. 10 ff.
Digital Technology Management – Neue Technologien
23
• Entwicklertools: Diese umfassen Code-Editoren, Code Repositories,
Implementierungs-Tools, Test-Tools und Security-Tools. Neben den
genannten Tools werden auch Monitoring-, Logging- und Analysetools
angeboten.
• Unterstützung bei der Portierung von vorhandenen Anwendungen in die
Cloud. Grundsätzlich sind PaaS-Angebote auf „cloud native“-Anwendungen
zugeschneidert. Gerade in letzter Zeit haben Anbieter ihr Angebot geändert
und bieten immer häufiger Unterstützung bei der Verlagerung
existierender Anwendungen auf PaaS-Dienste an. Die Frage, die sich aber
bei einer solchen Vorgehensweise stellt, ist, wie stabil die portierte
Anwendung laufen wird. Es gibt hier kein Patentrezept, um diesen Schritt
erfolgreich durchzuführen.
Abschließend kann man sagen, dass PaaS-Dienste folgende Vorteile bieten: Sie
verbessern im Allgemeinen die Produktivität von Entwicklern. Sie unterstützen
zudem die Unternehmensagilität, schnelle Entwicklung und rasche
Funktionalitätserweiterungen von Anwendungen, um die internen Prozesse zu
optimieren. Gerade auch komplexe Business-Anwendungen erfordern in der Regel
Zugriff auf die unterschiedlichsten Datenressourcen und auch hier unterstützt die
Architektur bei der Integration über Web-Services die Bereitstellung von
Informationen. All diese Punkte unterstützen die Steigerung der
Kundenzufriedenheit und führen somit zu einer längerfristigen Kundenbindung.
Software as a Service (SaaS) bietet eine Alternative zum traditionellen On-Premise-
Konzept, bei welchem das Unternehmen eine Software kauft und diese im eigenen
Rechenzentrum zur Verfügung stellt. Im SaaS-Modell werden die Anwendung und
auch die Verwaltung dieser an einen Dienstleister ausgelagert, wobei die
Unternehmen später über einen Webbrowser oder Web-Service Clients auf diese
zugreifen. Hosted Services haben schon in sehr viele Bereiche von Unternehmen
Einzug gehalten. Bekannte Dienste sind zum Beispiel Customer-Relationship-
Management (CRM), Enterprise Ressource Planing (ERP) oder Business Intelligence
(BI).
Dabei hat SaaS den besonderen Vorteil einer serviceorientierten Architektur, wo
die unterschiedlichen Anwendungen miteinander kommunizieren. Eine
Anwendung, welche man als Dienst ausführt, agiert zugleich als Dienstanbieter und
stellt wiederum Informationen anderen Dienstanforderern zur Verfügung, wenn
dies für die Integration von Daten und Funktionen aus anderen Anwendungen
erforderlich ist.29
SaaS, unter Zuhilfenahme moderner Technologien und Anwendungs-Frameworks,
kann die Markteinführungszeit sowie auch die Kosten bei der Umwandlung von On-
Premis-Servern in ein SaaS-basiertes Produkt wesentlich reduzieren. Microsoft ist
dabei der Meinung, dass die SaaS-Architektur, basierend auf ihren Reifegraden, wie
folgt klassifiziert werden kann:30
• Ad-hoc/benutzerdefiniert
29 Vgl. Mahesh, K. (SOFTWARE AS A SERVICE FOR EFFICIENT CLOUD COMPUTING), S. 178.
30 Vgl. Mahesh, K., S. 179.
Digital Technology Management – Neue Technologien
24
Die Ad-hoc- oder benutzerdefinierte Ebene ist die erste Stufe des
Reifegrades einer SaaS-Anwendung, auf der eine eindeutige bzw.
angepasste Version von Anwendungen auf den Servern zur Verfügung
gestellt wird. Diese Ebene unterstützt die Migration einer vorhandenen
Client-Server-Architektur. Da diese Stufe nicht zwingend einen eigenen
Systemadministrator benötigt, trägt sie zur Kostensenkung bei.
• Konfigurierbarkeit
Der zweite Reifegrad unterstützt die Flexibilität bei der Identifizierung
verschiedener Benutzer, welche dieselbe Anwendung bzw. denselben
Service benutzen. Diese wird durch die Konfiguration eindeutiger
Metadaten erreicht, die den Anbieter dabei unterstützen, unterschiedliche
Benutzer und deren Bedürfnisse zu erkennen. Hierbei kann der Anbieter
einen gleichen Kerncode der Anwendung, abstrahiert von den Benutzern
und ihren Anforderungen, verwalten. Des Weiteren hilft es dem Anbieter,
die Ressourcenzuteilung auf die Anforderungen der Benutzer
zuzuschneiden.
• Multi-Tenant-Effizient
Mehrmandantenfähigkeit ist bei der gemeinsamen Nutzung von Daten
bereits eine gängige Herangehensweise. Dieses Konzept unterstützt aber
trotzdem bei der Differenzierung einzelne Benutzer, Bedürfnisse,
Ressourcen sowie auch Anforderungen. Dies wiederum steigert die
Effizienz von SaaS-Anwendungen, weil dadurch die zur Verfügung
stehenden Ressourcen besser genutzt werden können.
• Skalierbarkeit
In diesem Reifegrad werden jegliche Ressourcen effizient genutzt, indem
einzelne Teilbereiche der Software, wie zum Beispiel Threads,
Netzwerkverbindung, Referenzdaten u. v. m., für die gemeinsame Nutzung
optimiert werden.31
Aus den bisherigen Ausführungen zu SaaS lassen sich drei prominente
Charakteristiken ableiten:
Netzwerk oder Online-Zugang
Auf SaaS-Anwendungen kann grundsätzlich von überall auf der Welt zugegriffen
werden. Sie benötigen nur einen Webbrowser oder eine Web-Service-Anwendung,
um auf die Daten zuzugreifen.
Zentrale Verwaltung
Eines der Hauptcharakteristika ist die zentrale Verwaltung und Management,
welches Aufgaben wie Überwachung, Controlling, Wartung und Updates
wesentlich vereinfacht. Wartung und Updates werden beim Cloud-Anbieter
gemacht und der Endbenutzer muss sich dabei keine Sorgen machen, weil er lokal
auf seinem Computer keine Version der Software installiert hat.
31 Vgl. Satyanarayana, S, (CLOUD COMPUTING: SAAS), S. 76-79.
Digital Technology Management – Neue Technologien
25
Weitreichende Kommunikations-Features
SaaS-Anwendungen sind auch bekannt für Messaging Services oder auch Voice-
over-IP (VOIP)-Anwendungen.
Abschließend kann man sagen, dass Unternehmen die Integration von SaaS-
Anwendungen in ihre bestehende IT-Infrastruktur in Erwägung ziehen sollten.
Gründe hierfür sind zum Beispiel die Dezentralisierung der Anwendungen und die
damit verbundene Steigerung der Ausfallssicherheit, die einfache und
kosteneffiziente Anpassung an die Bedürfnisse der Unternehmen, aber auch die
Kosten.
Reflexionsaufgabe 7: Cloud Architekturen
Geben Sie einen Überblick über die unterschiedlichen Cloud-Architekturen und
grenzen Sie diese ab.
4.3 Cloud-Management
Die richtige Verwaltung der genutzten Cloud Strukturen, unabhängig davon, ob sie
extern oder intern im Haus liegen, wird ein immer wichtigerer Faktor im IT-Umfeld.
Es reicht nicht mehr, nur den richtigen Anbieter für die entsprechenden Aufgaben
zu finden, man muss die Services der Anbieter auch kosteneffizient verwalten.
Laut Gartner, einem der führenden Forschungs- und Beratungsunternehmen,
liegen die Mindestanforderungen für eine Cloud-Management-Plattform in der
Bereitstellung und Integration von Schnittstellen für die Work-Load Optimierung
sowie auch für die Abrechnung der Leistungen. Basierend auf dem schnell
wachsenden Umfeld im Bereich der Hybrid-Clouds sind die genannten Features als
absolute Minimumanforderung für Cloud-Management-Plattformen zu sehen.
Basierend auf einer Studie von Infoholic Research USA nutzen Unternehmen bis zu
sechs verschiedene Cloud-Dienste.32 Dabei spielt es keine Rolle, ob es sich hier um
öffentliche Cloudanbieter handelt oder ob es Cloud-Dienste sind, welche von der
eigenen Unternehmens-IT zur Verfügung gestellt werden.
Diese Landschaft an verschiedenen Systemen entsteht meist aus der Tatsache
heraus, dass Unternehmen eine große Zahl an unterschiedlichsten Daten
benötigen, um strategisch wichtige Entscheidungen treffen zu können.
32 Vgl. Infoholic Research LLP, (Worldwide Hybrid Cloud Computing Market: Drivers,
Opportunities, Trends, and Forecasts), online.
Digital Technology Management – Neue Technologien
26
Abbildung 11: Hybride-Cloud-Architektur (THEREDCLAY)
Die erwähnte Verteilung der Infrastruktur (siehe Abbildung 11) birgt für die IT-
Abteilung auf der einen Seite große Chancen, auf der anderen Seite aber ebenso
große Gefahren. Durch die Automatisierung und erleichterte Verwaltung der
Systeme können Unternehmen den Arbeitsaufwand und die Kosten langfristig
spürbar senken. Die durch die zeit- und kosteneffektive Nutzung der IT
gewonnenen Ressourcen können wiederum in die Weiter- bzw. Fortentwicklung
von innovativen IT-Lösungen für das Unternehmen genutzt werden.
Die Risiken im Hinblick auf die Datensicherheit bzw. auf die generelle Sicherheit der
Informationen lässt den Druck auf die IT-Abteilung steigen. Denn gerade das Thema
Datensicherheit, das durch die neue Datenschutzrichtlinie noch verschärft wurde,
ist ein nicht unwesentlicher Punkt und kann bei Fahrlässigkeit das Image eines
Unternehmens nachhaltig schädigen. Aus diesem Grund ist es wichtig, dass bei
Cloud-Management-Systemen folgende Punkte unbedingt im Leistungsumfang
enthalten sind:
• Zugriffs- und Autorisierungsschutz,
• Ressourcenmanagement der gesamten hybriden Cloud-Infrastruktur,
• Finanzmanagement in Verbindung mit den gemieteten Cloud-Services,
• Integrationsmöglichkeiten von relevanten Cloud-Umgebungen und auch
interner Services,
• Service-Kataloge, um die Eigenverwaltung der Systeme bestens zu
automatisieren,
• Cloud-Brokerage, um das Unternehmen bei der Entscheidungsfindung,
basierend auf Regeln bei den Zuteilungen von Servern und sonstigen
Ressourcen, zu unterstützen.
Weitere zusätzliche Funktionen, um die unterschiedlichen Systeme zu verwalten,
die bei Integration, Service oder auch bei der Abrechnung helfen, hängen sehr oft
von den Anforderungen der einzelnen Unternehmen ab. Für den Auswahlprozess
eines Cloud-Management-Systems ist daher eine auf das Unternehmen Cloud-Management
Digital Technology Management – Neue Technologien
27
zugeschnittene und umfassende Feature List notwendig. Mit Hilfe dieser
Anforderungen lässt sich danach eine Auswahl des richtigen Anbieters treffen.
Die Kosten des jeweiligen Dienstes spielen zwar bei strategischen Entscheidungen
eine wichtige Rolle, aber gerade hier sollte man sich über das wirkliche
Einsparungspotential und die in weiterer Folge positiven Effekte, welche durch
etwaige Neuentwicklungen entstehen, im Klaren sein.
Reflexionsaufgabe 8 - Cloud-Management
Wozu dienen Cloud-Management Tools und worauf ist bei der Auswahl dieser zu
achten?
4.4 Ausgewählte Cloud-Angebote
Wenn man einen Überblick möglicher Cloud-Angebote bzw. -Anbieter geben
möchte, kommt man an Amazon, Microsoft und Google nicht vorbei. Diese 3 Big
Player sind in vielen Bereichen der Cloud-Entwicklung die Technologieleader bzw.
Innovatoren zahlreicher neuer Web-Services.
Die Frage, die man sich unter Berücksichtigung des vorherigen Teils des Cloud-
Managements stellen sollte, ist nicht zwingend, wer von den genannten Anbietern
der beste ist, sondern wer für die Bedürfnisse meines Unternehmens die besten,
sichersten und kosteneffizientesten Services zur Verfügung stellen kann.
Um diese Frage zu beantworten, werden die folgenden Punkte für Microsoft und
Amazon genauer beleuchtet. Google wird hier aufgrund des aktuell geringen
Marktanteils von ca. 5 % nicht im Detail beleuchtet, jedoch aber immer wieder
erwähnt.
• Infrastruktur,
• Features,
• Rechenressourcen/Speicher,
• Preis,
• Compliance.
Die Verteilung der Infrastruktur des Anbieters scheint auf den ersten Blick nicht
unbedingt wichtig zu sein. Betrachtet man diesen Punkt aber etwas genauer, so
kommt man schnell zu dem Schluss, dass die Anzahl der verfügbaren Datenzentren
des Anbieters eine Rolle bei der Auswahl spielen können. Punkte, die hier zum
Tragen kommen, sind die Verfügbarkeit der Daten und, damit verbunden, die
Performance. Denn vereinfacht gesagt: je näher das Datencenter, desto besser ist
es, gerade für global operierende Unternehmen. Denn die Nähe zu den Daten im
Hinblick auf die Geschwindigkeit kann gerade hier eine wichtige Rolle spielen. In
diesem Punkt sind Microsoft und Amazon in etwa gleich auf. Beide betreiben in
etwa 50 Regionen der Welt und auf allen wichtigen Kontinenten Rechenzentren,
wobei Amazon mit Stand Juni 2018 in Afrika noch kein Rechenzentrum betreibt.
Rechtliche Vorgaben, wie die in der EU neu geltende DSGVO, spielen bei der
Verteilung der Rechenzentren auch eine Rolle.
Digital Technology Management – Neue Technologien
28
Bei den verfügbaren Features fällt bei beiden Anbietern die Liste sehr üppig aus.
Abbildung 12 zeigt die Hauptbereiche des Amazon-Angebotes. Dieses reicht von
klassischen virtuellen Maschinen über Datenbankanwendungen und Maschinelles
Lernen bis zum Internet of Things und zur Spielentwicklung.33
Abbildung 12: Amazon-AWS-Dienste (Amazon)
Microsoft lässt mit seinem Azure-Angebot aber auch keine Wünsche offen. Es
bietet aktuell ca. 100 verschiedene Produkte, welche von AI über Datenbanken zu
IOT, Development-Tools, Verwaltungs-Tools u. v. m. gehen.34
Unabhängig vom breiten Angebot beider Anbieter gibt es doch einen Bereich, in
dem sie sich markant unterscheiden: die Hybrid-Clouds. In diesem Bereich ist
Microsoft aktuell – denn dieser Teilbereich unterliegt einem schnellen Wandel –
Amazon einen Schritt voraus. Der Grund hierfür ist, dass Amazon die Strategie eines
Cloud-Only-Ansatzes verfolgt. Microsoft hat vor dem Hintergrund der In-House-
Services einen hybriden Ansatz gewählt und ist somit hier im Vorteil.
Rechenleistung und Speicherkapazität spielen bei großen Unternehmen eine
wichtige Rolle, weil die meist sehr großen In-House-Dienste ohne
Performanceverlust ausgelagert werden müssen. Amazon bietet hier ein extrem
breites Spektrum an Möglichkeiten. Das Angebot kann hier auf generelles
Computing, CPU-optimiertes, RAM-optimiertes oder auch GPU-optimiertes
Computing abgestimmt werden.35
Microsoft bietet hier kein so detailliertes Angebot im Hinblick auf die Flexibilität,
jedoch muss es sich mit den gebotenen Möglichkeiten im Bereich CPU, RAM etc.
nicht wirklich geschlagen geben. Beim verwendbaren Festplattenspeicher bietet
Amazon mit möglichen 16 TB an verfügbarem Platz, relativ gesehen zu Microsoft,
wo die maximale Festplattengröße aktuell bei 4 TB liegt, doch beträchtlich mehr
an.36
33 Vgl. https//aws.amazon.com, 13.07.2017.
34 Vgl. https://azure.microsoft.com, 13.07.2017.
35 Vgl. https://aws.amazon.com, 15.07.2017.
36 Vgl. https://azure.microsoft.com.
Digital Technology Management – Neue Technologien
29
Der Preis hat sich in den letzten Jahren mehrheitlich, trotz der steigenden
Möglichkeiten, zum Vorteil der Kunden entwickelt. Aber nicht nur die Preise
sanken, auch die möglichen Verrechnungseinheiten sind dem Kunden
entgegengekommen. Dieser kann in der Zwischenzeit Leistungen auf Minutenbasis
abrechnen. Und dieser Faktor gibt dem Kunden die große Chance, auch kleine
Teilbereiche der Unternehmens-IT, welche nur selten benötigt werden,
kosteneffizient in die Cloud auszulagern.
Amazon bietet Services beginnend beim kleinen Kunden bis hin zu Enterprise-
Kunden an. Die angebotenen Verrechnungseinheiten gehen von Stunden, Tagen,
Wochen und Monaten bis hin zu längeren oder sogar individuell vereinbarten
Einheiten.
Microsoft bietet hier eine ähnliche und sogar noch kleinere Teilung der
Verrechnungseinheiten an. Bei Microsoft besteht die Möglichkeit, gewisse Dienste
auf Minutenbasis abzurechnen. Dies führt gerade bei wenig genutzten oder
speziellen Diensten zu einer wesentlichen Kosteneinsparung.
Wenn man sich einen genaueren Überblick über die Kosten verschaffen möchte, so
ist ein sehr guter Vergleichsrechner unter
https://www.cloudorado.com/vs/aws_vs_azure_vs_google zu finden.
Man hatte den Eindruck, dass das Thema Compliance in den letzten Jahren eher
stiefmütterlich behandelt worden ist. Aber Cloud-Security ist beim Outsourcing ein
wesentlicher Faktor und gerade in diesem Punkt haben Amazon und Microsoft in
den letzten Jahren sehr viel investiert. Beide erfüllen einen sehr hohen Standard,
jedoch dürfte aktuell Microsoft die Nase hier leicht vorne haben, gerade wenn es
um Enterprise-Kunden geht. In diesem Sektor kommt Microsoft seine große
Erfahrung mit dieser Art von Kunden zugute.37
Zusammenfassend kann man zu diesem Kapitel sagen, dass Cloud-Computing mit
all seinen Facetten viele Möglichkeiten bietet, um ein Unternehmen in die Zukunft
der Digitalisierung zu führen. Man darf dieses Thema aber nicht leichtfertig
angehen bzw. darf man sich von der scheinbaren Leichtigkeit der Dienste und
Vorteile, welche einem die Anbieter suggerieren, nicht täuschen lassen. Bevor man
sich dieses Themas annimmt, sollte eine Strategie zum Thema Digitalisierung
festgelegt werden, bei der auch die aktuelle IT-Umgebung mit einbezogen werden
muss. Denn, wie bereits mehrmals erwähnt, geht der Trend in Richtung Hybrid-
Cloud, um die Vorteile von beiden Welten zu nutzen.
Reflexionsaufgabe 9: Cloud Angebote
Nennen Sie einen bevorzugten Partner und erläutern Sie die Gründe dafür.
37 Vgl. https://azure.microsoft.com.
Digital Technology Management – Neue Technologien
30
5 Standardsoftware als Baustein der
Digitalisierungsstrategie
Die Digitalisierung bedeutet einen Aufbruch in eine neue Zeit und die Verwendung
einer Standardsoftware lässt diese Wirklichkeit werden. Neue und spontane
Arbeitsweisen bzw. schlanke interne Prozesse lassen meist keine Zeit für die
Entwicklung einer Individualsoftware. Die laufenden Änderungen und
Anpassungen der Arbeitsweisen an die sich rasch ändernde Digitalisierung verlangt
sofort eine Lösung.
5.1 Anwendungsbereiche für Standardsoftware
Um überhaupt auf die Besonderheiten von Standardsoftware eingehen zu können,
sollte man den gebräuchlichen Begriff „Software“ vielleicht genauer definieren
bzw. klassifizieren. Der Duden definiert diesen Begriff als „(im Unterschied zur
Hardware) nicht technisch-physikalischer Funktionsbestandteil einer
Datenverarbeitungsanlage (wie z. B. Betriebssystem und andere
[Computer]programme)“.
Grundsätzlich lässt sich eine Software in folgende zwei Hauptgruppen aufteilen:38
• Basis- oder Systemsoftware: Zur Systemsoftware gehören alle
Systemprogramme, die nicht anwendungsbezogen sind, das bedeutet alle
grundsätzlich für den Betrieb des Computers notwendigen Teile. Die
Betriebssystemsoftware wird dabei von einer Reihe sogenannter
Steuerprogramme unterstützt.
• Anwendungssoftware: Alle anderen anwendungsbezogenen Programme,
wie Textverarbeitung, Datenbanken oder Bildbearbeitungsprogramme,
werden als Anwendungssoftware bezeichnet.
Bei der Anwendungssoftware gibt es wiederum zwei Hauptgruppen, in die sie
unterschieden wird:39
• Standardsoftware: Als Standardsoftware bezeichnet man im Allgemeinen
eine Software, welche für den Massenmarkt erstellt wurde. Beim
enthaltenen Funktionsumfang kann hier nur auf den kleinsten
gemeinsamen Nenner aller berücksichtigten Zielgruppen eingegangen
werden.
• Individualsoftware: Individualsoftware wird in der Regel für den Kunden
von Grund auf neu konzipiert und erstellt. Dabei kann auf sämtliche
Bedürfnisse der Kunden eingegangen werden. Es muss aber auch
angemerkt werden, dass ein eigenes Software-Entwicklungsteam im
eigenen Haus nicht zwingend notwendig ist.
38 Vgl. Richter, V., (Grundlagen der Betriebssysteme), S. 18.
39 Vgl. Viereck A., Sonderhüsken, B., (Anwendungssoftware für Personalcomputer. In:
Informationstechnik in der Praxis. Informatik & Praxis), S. 156 ff.
Digital Technology Management – Neue Technologien
31
Die Anwendungsbereiche für Standardsoftware in Unternehmen sind sehr
vielseitig. Diese reichen von der einfachen Textverarbeitung über speziellere
Bildbearbeitung bis zu spezifischer CAD-Bearbeitung bzw. ERP-Systemen. Bevor
man sich aber über die Anschaffung Gedanken macht, sollte man klären, ob die
Voraussetzungen für den Einsatz einer Standardsoftware gegeben sind.40
Diese Voraussetzungen für die Einführung gliedern sich in den technischen und
organisatorischen Bereich:
Technisch muss die interne EDV die aktuell vorhandene Infrastruktur beleuchten,
um zu sehen, ob die gewünschte Software in der vorhandenen Umgebung
installiert werden kann bzw. welche Änderungen notwendig wären, um die neue
Software zu integrieren. Diese seitens der EDV vergebenen Parameter, wie
beispielsweise Protokolle, Schnittstellen oder verwendete Programmiersprache,
können die Auswahl des neuen Systems enorm einschränken.41
Organisatorisch ist es wichtig, dass sich zumindest ein Großteil der im
Unternehmen notwendigen Anforderungen mit der in Betracht kommenden
Standardsoftware deckt. Sollten hier Abweichungen auftreten, muss man klären,
ob diese für das Unternehmen unter Berücksichtigung des aktuellen
Wettbewerbsvorteils wichtig sind. Ist dies nicht der Fall, so kann überlegt werden,
den unternehmensinternen Prozess auf den der Software abzustimmen. Ist dies
jedoch der Fall muss geklärt werden, ob die Anpassung an die eigenen Bedürfnisse
möglich wäre.42
Die Sichtweise auf Standardsoftware unter Berücksichtigung der gerade erwähnten
Punkte ändert sich durch die Möglichkeiten, welche die Cloud bietet. Betrachtet
man die eingangs erwähnten technischen Voraussetzungen, so kann man sagen,
dass diese im Cloud-Umfeld fast zur Gänze wegfallen. Das soll jetzt aber nicht
bedeuten, dass es im Cloud-Umfeld überhaupt keine technischen Voraussetzungen
für den Einsatz von Standardsoftware gibt. Diese ändern sich einfach nur. Zukünftig
muss man Fragen, wie
• Behalte ich die Kontrolle über meine Daten?
• Ist die Sicherheit der Daten gewährleistet?
• Werden alle datenschutzrechtlichen Erfordernisse vom Anbieter erfüllt?
• Kann die Cloudlösung auf intern benötigte Schnittstellen zugreifen?
bei der Auswahl von Standardsoftware im Cloudumfeld beantworten.
Die Einsatzbereiche vorhandener Standardsoftware werden im nachfolgenden Teil
am Beispiel von zwei unterschiedlichen Unternehmensbereichen noch genauer
erläutert. Die Bereiche sind
• Standard Office Anwendungen am Beispiel Office 365 von Microsoft,
40 Vgl. Hansen, H; Neumann, G., (Wirtschaftsinformatik 1. Grundlagen und Anwendungen),
S. 666.
41 Vgl. Hansen, H; Neumann, G., (Wirtschaftsinformatik 1. Grundlagen und Anwendungen),
S. 146 ff.
42 Vgl. Hansen, H; Neumann, G., (Wirtschaftsinformatik 1. Grundlagen und Anwendungen),
S. 140 ff.
Digital Technology Management – Neue Technologien
32
• speziellere Entwicklungsanwendungen am Beispiel AUTO CAD Online.
Microsoft bietet im Office Bereich mit seinem Office 365-Angebot ein sehr breites
Spektrum an Funktionen und Features. Man darf sich in diesem Fall nicht vom
Namen täuschen lassen, denn die Office 365-Angebote beinhalten nicht einfach nur
die Möglichkeit, Office-Anwendungen, wie Word, Excel oder Power Point, online zu
nutzen. Diese Plattform bietet, je nach verwendetem Plan, auch notwendige
Enterprise Features, wie zum Beispiel:43
• OneDrive for Business: Daten sind überall verfügbar und können Benutzern
innerhalb und außerhalb der Organisation bereitgestellt werden.
• SharePoint Online: Dieser Dienst ermöglicht es einer Organisation, Daten
und Informationen im Projektumfeld leichter und übersichtlicher
darzustellen.
• StaffHub: Hiermit können Zeitpläne erstellt und freigegeben werden.
• Anwendungsverwaltung: Sie können damit Anwendungen einfach und mit
Hilfe von Gruppenregeln auf bereitgestellten Computern verwalten.
• Business Analyse: Es erweitert die Funktionen von Excel in Bezug auf
Datenauswertungen.
• Erweiterter Datenschutz: Schutz vor bösartiger Software ist ein zentrales
Thema in der modernen IT. Dieser Dienst bietet erweiterte Funktionen, um
Daten von Viren und Phishing-Angriffen zu schützen.
• Konferenzverbindungen mit PSTN-Telefonnetz: Ermöglicht es,
Konferenzschaltungen mit Skype und herkömmlichen Telefonnetzen zu
führen.
Auch wenn die gezeigten Funktionen nur einen Teil der verfügbaren Features
darstellen, so wird schnell klar, dass der Einsatz dieser Standardsoftware im
Unternehmensumfeld viele Möglichkeiten bietet, um interne Prozesse effizienter
und einfacher darzustellen.
AUTO CAD Online ist die Cloudvariante der bekannten Offline-Variante. Das Online-
Angebot deckt mittlerweile ein sehr breites Spektrum an Funktionen mit
eigenständigen APPs ab. Die Hauptbereiche, für die es mehrere eigenständige, aber
in weiterer Folge zusammenhängende Anwendungen gibt, sind:44
• Konstruktion,
• Bauplanung- und Ausführung,
• Produktentwicklung und Fertigung,
• Rendern,
• Medien und Unterhaltung.
Obwohl der Bereich der Konstruktion, Planung sowie Medienbearbeitung ein eher
spezieller ist, kann festgehalten werden, dass es auch hier ausreichende
Anwendungsbereiche von Standardsoftware gibt.
43 Vgl. https://products.microsoft.com/de-DE/business/.
44 Vgl. www.autodesk.com.
Digital Technology Management – Neue Technologien
33
Reflexionsaufgabe 10: Standardsoftware
Erklären Sie den Unterschied zwischen Standard- und Individualsoftware. Welche
organisatorischen Bereiche sind bei einer Neueinführung betroffen?
5.2 Vor-/Nachteile
In diesem Teil sollen nun auf die wesentlichen Vor- und Nachteile einer
Standardsoftware eingegangen werden. Manche der folgenden Punkte treffen nur
auf offline bzw. Cloud Software zu. Vorteile einer Standardsoftware sind:45
• Laufende Weiterentwicklung: Standardsoftware wird laufend
weiterentwickelt. Die neuen Features werden entweder durch ein Update,
entweder in der „Offline-Version“ oder automatisch in der Cloudvariante,
zur Verfügung gestellt. Je nach Lizenzmodell sind die neuen Funktionen
gratis bzw. kostenpflichtig. Sind diese kostenpflichtig, so ist dieser Anteil im
Vergleich zu den Anschaffungskosten in der Regel sehr gering.
• Kann bequem gekauft werden: Die eigentliche Anschaffung ist im Vergleich
zur Individualentwicklung wesentlich einfacher.
• Bietet einen umfassenden Support: Aufgrund der großen Nutzerzahlen
solcher Softwares ist der Support insofern besser, weil es hier weitaus
größere Erfahrungswerte gibt.
• Verfügt meist über eine bessere Qualität: Die Qualität der Software steigt
sehr oft mit der Anzahl der User. Der Grund hierfür ist, dass man auf
weitaus mehr Erfahrungen von Nutzern zurückgreifen kann als bei
Individualentwicklungen. Und die Wahrscheinlichkeit, dass Fehler der
Software entdeckt werden, ist bei vielen Benutzern einfach größer.
• Größere Anzahl an Dokumentationen sowie Schulungsmaterial.
• Ausgereifte Benutzeroberfläche.
• Schnelle Einführung im Unternehmen.
• Kostenvorteil.
Kosten spielen in Unternehmen bei der Anschaffung von Softwares immer eine
große Rolle. Studien belegen, dass die Kosten durch die Einführung von
Standardsoftwares signifikant gesenkt werden konnten.46 Dies bestätigt eine
Kostenerhebung der Raiffeiseninformatik, bei der eine Senkung von 25 % erreicht
wurde. Was sind aber die Faktoren, die zu einer solch erheblichen Kostenreduktion
führen? Betrachtet man dies anhand des Beispiels Office 365, so sind dies unter
anderem:
45 Vgl. Mertens, P., Bodendorf, F., König, W., Picot, A., Schumann, M., Hess, (Grundzüge
der Wirtschaftsinformatik), S. 136 f.
46 Vgl. Müller, C. Böhm, M., Schröer, M., Bakhirev, A., Baiasu, B., Krcmar, H., Welpe, I.,
(Geschäftsmodelle in der digitalen Wirtschaft), S. 10 f.
Digital Technology Management – Neue Technologien
34
• Zeitersparnis bei der Einführung: Die Einführung, gerade bei cloudbasierten
Standardanwendungen, ist, relativ gesehen, sehr hoch, weil hier in den
meisten Fällen Anpassungen der eigenen IT-Infrastruktur ausbleiben. Auch
entfallen in vielen Bereichen Personalkosten, weil eine Installation auf dem
lokalen System nicht mehr überall notwendig ist.
• Lizenz- bzw. Updatekosten: Da Neu- und Weiterentwicklungen
automatisch seitens des Anbieters erfolgen, kommt man, wie schon
erwähnt, je nach gewähltem Lizenzmodell gratis oder durch einen geringen
Betrag zu den jeweiligen Updates.
• Laufender Betrieb: Der laufende Betrieb stellt, je nach gewählter Variante
von Standardsoftware, sprich offline oder cloudbasiert, einen großen bis
teilweise sehr großen Faktor dar. Speziell bei cloudbasierter
Standardsoftware entfallen die Kosten für den laufenden Betrieb fast zur
Gänze.
Abbildung 13 zeigt den Vergleich der Kosten bei OnPremise- und Cloud-Lösungen.
In diesem Beispiel handelt es sich in beiden Fällen um eine ERP Standardsoftware.
Mit diesem Beispiel soll nur nochmals verdeutlicht werden, dass es bei
Cloudlösungen kaum versteckte Kosten gibt.
Abbildung 13: Vergleich On-Premise und Cloud Standard Software (Axxis Consulting)
Trotz der großen Vorteile von Standard-Softwareprodukten müssen auch deren
Nachteile genannt werden. Bezogen auf Offline-Produkte ergeben sich folgende
Nachteile:
• Die vorhandene Hardware passt nicht zu den Anforderungen der zu
beschaffenden Software und der Tausch der Hardware würde enorme
Kosten verursachen.
• Die Software passt unter Umständen nicht zu den Abläufen und Prozessen
im Unternehmen.
Bezieht man in die Betrachtung der Nachteile auch die Cloud-Standard-Anwendung
mit ein, gibt es noch weitere Punkte. Diese wären:
• Hohe Kosten bei der Anpassung an die Bedürfnisse der internen Prozesse,
• hohe Abhängigkeiten vom Softwarelieferanten.
Digital Technology Management – Neue Technologien
35
Die Anpassungskosten sind auch wieder getrennt zu sehen. Betrachtet man zuerst
die Offlinekosten, so können diese, je nach Änderungen, manch anderen
Kostenvorteil aufwiegen. Grund hierfür sind die speziellen Infrastrukturvorgaben
der jeweiligen Unternehmen, denn sehr oft hat sich in Firmen eine spezielle
Infrastruktur über die Jahre entwickelt, die Anpassungen durch die heterogene
Umgebung besonders aufwendig gestalten. Beispiele hierfür sind über die Jahre
entwickelte Kassenlösungen, die nur auf spezieller und unter Umständen oftmals
auch auf älterer Hardware laufen. Da kann es schon schwierig werden, einen
passenden Entwickler für diese Umgebung zu finden.
Im Cloud-Umfeld zeigt sich ein etwas anderes Bild. Wie man in Abschnitt 4.4 sehen
kann, ist das Angebot vorhandener Web-Services bei den Cloud-Anbietern schon
sehr groß, was hier wiederum positiv hinzukommt. Diese Tatsache macht trotz
individueller Anforderungen die Anpassung durch den Zugriff über Web-Services
auf bereits vorhandene Standardentwicklungen erschwinglich.
Reflexionsaufgabe 11: Standardsoftware
Welche Vorteile hat Standardsoftware im Gegensatz zur Individualsoftware?
5.3 Anpassung von Standardsoftware
Trotz aller Vorteile von Standard-Softwareprodukten ist in der Regel bei größeren
Unternehmen eine Anpassung der Software auf die eigenen Bedürfnisse
notwendig. Man unterscheidet beim Umfang des Customizings folgende drei
Stufen:47
• Möglichkeit zur Änderung von Sprache und Währung,
• Möglichkeit zur Abbildung von betrieblichen Organisations- und
Datenstrukturen,
• Darstellung der unternehmerischen Prozesse.
Ein wichtiger Aspekt bei der Anpassung von Standardsoftware ist, dass die
vorgenommenen Änderungen trotz Releasewechsel ihre Gültigkeit behalten.48 Die
andere Seite ist jedoch, wie sehr man sich in die Abhängigkeit des jeweiligen
Anbieters der Standardsoftware begibt. Grundsätzlich muss man für die
wirtschaftliche Nutzung einer Software von etwa zehn Jahren ausgehen, was eine
ebenso lange Abhängigkeit vom Anbieter bedeutet. Diese Abhängigkeiten sind
beim Einsatz einer Individualsoftware aber noch stärker, weil hier das Wissen des
Programmcodes vollständig beim Lieferanten liegt. Und gerade hier ist es oft sehr
schwer, einen anderen Anbieter für die Weiterentwicklung zu finden, weil oftmals
Teile des Codes nicht freigegeben werden.49
Aufpassen muss man jedoch bei der Kalkulation der Anpassungskosten, denn diese
nehmen sehr oft 50 % oder mehr des Gesamtbudgets ein und übersteigen in der
Regel die Lizenzkosten für die zugrundeliegende Standardsoftware. Kosten
47 Vgl. Hansen, H.; Neumann, G., (Wirtschaftsinformatik 1. Grundlagen und
Anwendungen), S. 668 ff.
48 Vgl. Görk, M., (Lexikon der Wirtschaftsinformatik), S. 126 f.
49 Vgl. Gronau, N., (Handbuch der ERP-Auswahl), S. 32-33.
Standardsoftware
Digital Technology Management – Neue Technologien
36
entstehen zum Beispiel bei der Anpassung von Schriftstücken oder auch bei
Schnittstellen zu anderen Systemen. Gerade hier zeigt sich häufig, ob die Wahl des
Systems richtig war, weil eine gute Software in diesem Punkt sehr flexibel an andere
Systeme anbindbar ist.50
Ob der Einsatz von Standardsoftware Wettbewerbsvorteile generieren kann, wird
in der Fachliteratur stark diskutiert. Grund hierfür ist die Anpassung verschiedener
interner Unternehmensabläufe an die neu integrierte Software. Man übersieht
aber bei dieser Diskussion sehr oft, dass nicht zwingend die internen Abläufe den
Wettbewerbsvorteil bilden, sondern die erstellten Güter und Dienstleistungen.51 In
diesem Fall generieren weder Standard- noch Individualsoftware
Wettbewerbsvorteile, denn selbst die beste Standardsoftware kann schlechte
Unternehmensabläufe nicht maßgeblich verbessern. Sie kann diese lediglich
verwalten und bis zu einem gewissen Grad effizienter gestalten.
Betrachtet man die gezeigten Punkte und auch die Vorteile von einer
Standardsoftware, spricht sehr vieles für den Einsatz einer solchen. Denn nur, wenn
durch den Einsatz einer Individuallösung ein beträchtlicher Wettbewerbsvorteil
generiert werden kann, ist dieser auch wirklich sinnvoll. Und das ist bei der
mittlerweile beträchtlichen Angebotsvielfalt von Standardlösungen kaum noch der
Fall, denn schlussendlich ist es günstiger, aber vor allem effizienter, eine
vorhandene Lösung an die eigenen Bedürfnisse anzupassen.52
Reflexionsaufgabe 12: Standardsoftware
Was muss bei der Anpassung von Standardsoftware beachtet werden?
50 Vgl. Gronau, N., (Handbuch der ERP-Auswahl), S. 33.
51 Vgl. Dorn, J., (Planung von betrieblichen Abläufen durch Standardsoftware – ein
Widerspruch?), S. 201.
52 Vgl. Arens, T.,(Methodische Auswahl von CRM Software), S. 154.
Digital Technology Management – Neue Technologien
37
6 Grundlagen agiler Entwicklung
Überlegen Sie einmal kurz, ob Sie vor einem Segelturn den Wind messen und den
Kurs berechnen würden, um dann das Ruder festzubinden, um im Anschluss nach
einer bestimmten Zeit zu evaluieren, ob Sie auch am Ziel angekommen sind.
Wahrscheinlich nicht! Was wäre, wenn sich der Wind gedreht oder das Wetter
umgeschlagen hätte und man somit an einem anderen Ziel anlegt?
So oder so ähnlich ergeht es Kunden mit herkömmlichen Softwareprojekten, bei
denen Ziele, Zeitabläufe und Anforderungen vor dem eigentlichen Start festgelegt
wurden. Diese Problematik soll durch die Verwendung agiler (anpassbarer)
Projektentwicklung vermieden werden.
6.1 Vorgehensmodelle
Aktuelle Rahmenbedingungen machen es nötig, kurzfristig auf Marktänderungen
zu reagieren. Man hat einfach nicht mehr die Zeit, ein Projekt vorab in aller Ruhe
zu planen, denn die zur Verfügung stehende Zeit, um ein Projekt erfolgreich am
Markt zu etablieren, wird immer kürzer. Zudem wachsen die Anforderungen an die
Dynamik sowie die Ziele in den Projekten und so muss man auch im
Projektmanagement kurzfristig Pläne ändern oder kann Projektdetails erst später
durchdenken und planen. Dies zwingt einen zu einem agilen Prozess.
Der Begriff der agilen Entwicklung ist seit einiger Zeit sehr modern. Viele Firmen
steigen, bzw. glauben es zumindest, auf einen agilen Prozess um. Man muss aber
hier festhalten, dass der Begriff der agilen Entwicklung häufig falsch interpretiert
wird, denn Pair-Programming oder der einfache Wegfall des Lastenheftes machen
noch lange keinen agilen Prozess aus. Denn auch in der agilen Entwicklung gibt es
klare Regeln und Vorgaben. Dies sind zwar nicht besonders viele, aber werden diese
nicht eingehalten, so ist die Wahrscheinlichkeit sehr hoch, dass das Projekt
scheitern wird. Aus diesem Grund soll im folgenden Abschnitt ein Überblick über
die agile Entwicklung gegeben werden.
Bevor man sich aber genauer mit dem Thema befasst, sollte man noch kurz
erklären, worum es sich bei der agilen Entwicklung genau handelt. Wie eingangs
schon erwähnt, wird im herkömmlichen Entwicklungsprozess der Funktionsumfang
der Software bis ins Detail vorab definiert und anschließend in einem Vorgang
entwickelt. Dabei werden Projektphasen, basierend auf den traditionellen
Vorgehensmodellen (z. B. das Wasserfallmodell), genau einmal durchlaufen. Gibt
jedoch der Markt innerhalb des Projektes eine andere Richtung vor, so bringt das
folgende Probleme mit sich:53
• Es wird zu viel Zeit mit der Dokumentation verbracht und die wichtigen
Komponenten des „Sehens“ und „Probierens“ einer Testversion
vernachlässigt.
53 Karsten, H., HMD Praxis der Wirtschaftsinformatik - Projektmanagement heute, S. 5 f.
Digital Technology Management – Neue Technologien
38
• Oftmals kommt man gerade in den letzten Phasen von Test und Integration
dahinter, dass die Kosten viel höher sind als geplant und auch der
Fertigungstermin nicht eingehalten werden kann.
• Die erste zur Verfügung stehende Testversion bietet nicht die gewünschte
Qualität und es fehlen Anforderungen, die sich kurzfristig ergeben haben.
• Der Aufwand für die IT, um das System zu betreiben, ist höher als
ursprünglich geplant.
Der Grund ist, dass die Kosten für neue IT-Technik in Verbindung mit neuen
Partnern zu Beginn oftmals nur schwer geschätzt werden können. All dies führt
dazu, dass in Projekten Zeiträume, Kosten, Aufwände und Risiken abschätzbar
gemacht werden müssen. Dies kann durch eine agile Herangehensweise an das
Projekt erreicht werden, denn damit wird das Lernen in einem evolutionären
Projekt in den Vordergrund gestellt.
Die Grundlage für die agile Projektentwicklung bildet das agile Manifest aus dem
Jahr 2007. Dieses wurde in Zusammenarbeit 17 namhafter Softwareentwickler
beschlossen und beinhaltet folgende Kernaussagen:
„Wir erschließen bessere Wege, Software zu entwickeln, indem wir es selbst tun
und anderen dabei helfen. Durch diese Tätigkeit haben wir diese Werte zu schätzen
gelernt:
• Individuen und Interaktionen sind mehr als Prozesse und Werkzeuge,
• funktionierende Software ist mehr als umfassende Dokumentation,
• Zusammenarbeit mit dem Kunden ist mehr als Vertragsverhandlung,
• Reagieren auf Veränderung ist mehr als das Befolgen eines Plans.“54
In diesem Manifest werden von den Autoren 12 Leitsätze bzw. Prinzipien
formuliert, welche die Grundlage der agilen Entwicklung bilden:55
1. Unsere höchste Priorität ist es, den Kunden durch frühe und kontinuierliche
Auslieferung wertvoller Software zufrieden zu stellen.
2. Heiße Anforderungsänderungen selbst spät in der Entwicklung
willkommen! Agile Prozesse nutzen Veränderungen zum
Wettbewerbsvorteil des Kunden.
3. Liefere funktionierende Software regelmäßig innerhalb weniger Wochen
oder Monate und bevorzuge dabei die kürzere Zeitspanne.
4. Fachexperten und Entwickler müssen während des Projektes täglich
zusammenarbeiten.
5. Errichte Projekte rund um motivierte Individuen! Gib ihnen das Umfeld und
die Unterstützung, die sie benötigen und vertraue darauf, dass sie die
Aufgabe erledigen.
54 Manifesto for Agile Software Development, online.
55 Manifesto for Agile Software Development, Prinzipien hinter dem Agilen Manifesto,
online.
Digital Technology Management – Neue Technologien
39
6. Die effizienteste und effektivste Methode, Informationen an und innerhalb
eines Entwicklungsteams zu übermitteln, ist im Gespräch von Angesicht zu
Angesicht.
7. Funktionierende Software ist das wichtigste Fortschrittsmaß.
8. Agile Prozesse fördern nachhaltige Entwicklung. Die Auftraggeber,
Entwickler und Benutzer sollten ein gleichmäßiges Tempo auf unbegrenzte
Zeit halten können.
9. Ständiges Augenmerk auf technische Exzellenz und gutes Design fördert
Agilität.
10. Einfachheit -- die Kunst, die Menge nicht getaner Arbeit zu maximieren --
ist essenziell.
11. Die besten Architekturen, Anforderungen und Entwürfe entstehen durch
selbstorganisierte Teams.
12. In regelmäßigen Abständen reflektiert das Team, wie es effektiver werden
kann und passt sein Verhalten entsprechend an.
Die nachfolgenden Vorgehensmodelle Extreme Programming und Scrum leiten sich
aus diesen 12 Prinzipien des agilen Manifestes ab.
Reflexionsaufgabe 13: Vorgehensmodelle
Welche Prinzipien liegen der agilen Entwicklung zugrunde?
6.1.1 Extreme Programming
Extreme Programming (XP) ist eine leichtgewichtige Entwicklungsmethode, die das
eigentliche Programmieren wieder zur Schlüsseltätigkeit erklärt. Die Entwicklung
dieses Konzeptes wird den drei Softwareentwicklungsgurus Kent Beck, Ron Jeffries
und Ward Cunningham zugeschrieben. Und obwohl der Name vielleicht vermuten
lässt, dass dieses Konzept einen Hacker-Hintergrund hat, zeigen die detaillierten
methodischen Ansätze das Gegenteil. Im Grunde geht es bei XP darum, mit
verhältnismäßig geringem Aufwand qualitativ hochwertige Software in möglichst
kurzer Zeit unter Einhaltung des Budgets zu entwickeln. Die dazu eingesetzten
Mittel im XP können in folgende vier Werte zusammengefasst werden:56
• Kommunikation: Dauernde und sehr intensive Kommunikation zwischen
den Entwicklern untereinander bzw. mit dem Kunden erlaubt es XP,
unnötige Funktionalität zu vermeiden, Probleme schnell zu erkennen und
zu verhindern und dadurch das Problem der fehlenden Dokumentation in
den Griff zu bekommen.
56 Vgl. Rumpe, B., (Extreme Programming – Back to Basics?).
Digital Technology Management – Neue Technologien
40
• Einfachheit: Die zu entwickelnde Software muss so einfach wie möglich
gestaltet sein und darf keine möglichen Erweiterungen, keine unnötigen
Strukturen oder redundante Funktionalität beinhalten. Hierdurch wird das
System einfach und somit besser wartbar. Man geht hierbei von der
Annahme aus, dass es einfacher ist, heute etwas Einfaches zu
programmieren und morgen etwas mehr Zeit zu investieren, um
Erweiterungen zu integrieren, als jetzt etwas Komplexes zu entwickeln, was
vielleicht morgen in dieser Form nicht mehr benötigt wird.
• Feedback: Aktuelle Projekte scheitern sehr häufig an Missverständnissen
zwischen dem Programmierer und den Kunden. Eine evolutionäre
Softwareentwicklung mit möglichst kleinen Releases erlaubt einen
permanenten Zugriff des Kunden auf die Software und gibt ihm dadurch die
Möglichkeit zu einfachem und schnellem Feedback. Es ist aber noch eine
weitere Ebene des Feedbacks essenziell, und zwar muss durch Unit-Tests
bzw. Test-Stories geprüft werden, ob die entwickelte Funktionalität korrekt
und robust ist sowie den gewünschten Anforderungen des Kunden
entspricht.
• Eigenverantwortung: Die Programmierer sind unter XP angehalten, auf
eigene Verantwortung zu handeln. Dies bezieht die Kommunikation mit
dem Kunden mit ein, um Funktionalitäten zu adaptieren, Prioritäten zu
ändern und existierende Pläne zu überdenken. Diese Eigenverantwortung
schließt eine Übersicht über die gesamte Anwendung mit ein und motiviert
Programmierer dazu, den Code eines anderen Entwicklers, falls notwendig,
zu adaptieren.
Aus diesen vier Grundwerten leiten sich die fundamentalen Grundprinzipien ab,
welche bei XP im Vordergrund stehen. Diese wären:57
• Schnelles Feedback: Feedback sollte zu allen Aktivitäten so schnell wie
möglich eingeholt werden, um so die Projektsteuerung u. a. durch
Priorisierung der Anforderungen zu unterstützen.
• Einfachheit: Dies fördert die Verständlichkeit des Codes. Außerdem kann
leichter das Feedback des Kunden eingeholt werden.
• Inkrementelle Änderungen: Hierdurch werden große Abhängigkeiten
innerhalb des Programms vermieden, wodurch ein kontinuierlicher
messbarer Fortschritt ermöglicht wird.
• Änderbarkeit unterstützen: Man muss Veränderungen offen und
aufgeschlossen gegenüberstehen. Dies erhöht die notwendige Flexibilität
im Projekt.
• Qualitativ hochwertige Ergebnisse: Wird dem Projektteam Qualitätsarbeit
ermöglicht, erhöht das in der Regel auch die Arbeitszufriedenheit, was
wiederum zu einem qualitativ besseren Ergebnis führt.
Auf Basis der Werte und Grundprinzipien von XP hat man schon einen groben
Überblick, wie sich ein solches Projekt von einem herkömmlichen unterscheidet.
57 Vgl. Rumpe, B., (Extreme Programming – Back to Basics?).
Digital Technology Management – Neue Technologien
41
Welche grundlegenden Phasen hat aber nun ein XP-Projekt? Grundsätzlich geht
man von drei wesentlichen Phasen/Strategien aus. Diese wären:
• Planungsstrategie,
• Entwicklungsstrategie,
• Teststrategie.
In der Planungsstrategie geht es im Wesentlichen darum, die vorhandenen
Programmierressourcen mit den Anforderungen des Kunden in Einklang zu bringen.
Um diese Anforderung zu managen bzw. den Aufwand zu schätzen, werden die
Anforderungen des Kunden in sogenannten Benutzergeschichten
zusammengefasst. Sollte es danach so sein, dass die vorhandenen Ressourcen mit
den Benutzergeschichten nicht vereinbar sind, so muss zusammen mit dem Kunden
herausgefunden werden, welche der Benutzergeschichten weggelassen werden
können. Sind aber wider Erwarten noch Ressourcen vorhanden, kann man noch
Benutzergeschichten in die Release-Planung mit aufnehmen.58
Was aber kann man unter einer Benutzergeschichte bzw. User Story genau
verstehen? Mit Hilfe von Stories fasst der Kunde seine Teilanforderungen in Form
einer Story/Geschichte zusammen und diese wird danach auf eine Art Karteikarte
geschrieben. Die Geschichte darf dabei keine Technik beschreiben, muss aber so
genau sein, dass man anhand dieser Karteikarte später den Aufwand für das
Release schätzen kann.59
Die genauen Details zu den einzelnen Stories werden danach im Zuge der Arbeiten
in enger Kooperation zwischen Programmierer und Kunden definiert.
Bei der Erstellung einer User Story sollte man sich an folgende Grundsätze halten:60
• Stories müssen in einer Sprache geschrieben sein, die vor allem für den
Kunden verständlich und klar ist. Sie sollten dabei so kurz wie möglich
gehalten werden, denn eine User Story ist im Grunde nichts anderes als ein
Agreement zwischen dem Programmierer und dem Kunden über ein
Feature des Programms.
• Der Kunde muss einen direkten Nutzen von jeder formulierten User-Story
haben.
• Der Kunde und nur der Kunde ist für das Schreiben der User Stories
verantwortlich. Der Programmierer bringt lediglich sein Wissen bzw.
Expertise ein.
• Die Reihenfolge von User Stories sollte unabhängig voneinander sein, um
sie damit in beliebiger Reihenfolge im Programm zu implementieren.
• Eine User Story sollte später für sich allein testfähig sein.
Abschließend kann man noch erwähnen, dass, basierend auf den Grundprinzipien
von XP, User Stories im Grunde zu jeder Zeit im Projekt erstellt werden können. Die
58 Vgl. Kocher, D., (Einfuhrung von XP 1 in der Praxis), S. 3.
59 Vgl. Kocher, D., (Einfuhrung von XP 1 in der Praxis), S. 3.
60 Vgl. Kocher, D., (Einfuhrung von XP 1 in der Praxis), S. 4.
Digital Technology Management – Neue Technologien
42
Erfahrung zeigt aber, dass der Großteil der Benutzergeschichten zu Beginn des
Projektes geschrieben wird.
Bei der Release-Planung geht es im Wesentlichen um die Bestimmung der
Zeitachse, wobei es hier zwei wesentliche Einflussfaktoren gibt: Zum einen gibt es
die externen Termine und zum anderen die in den User Stories definierten
Features. Externe Termine können zum Beispiel Messen, eine vertragliche
Abmachung oder finanzielle Gründe sein.
Es kommt außerdem häufig zu Diskussionen, ob man zu viele oder zu wenige im
Plan hat bzw. ob die Termine zu eng oder zu weit auseinander liegen. Gegen Ende
des Projektes gibt es dann noch das Problem, dass die Änderungen in den Releases
oft so klein sind, dass es für das Marketing schwierig wird, die Neuheiten richtig zu
verkaufen.
Aber wie so vieles in XP ist auch der Zeitplan alles andere als starr. Der eingangs
festgelegte Zeitplan ist lediglich eine Momentaufnahme und wird, basierend auf
den sich ändernden Vorgaben, zum Beispiel des Marktes, der Konkurrenz oder der
internen Anforderungen, angepasst.61
Abbildung 14: Projektplanung (Extreme Programming)
Der Plan eines Releases wird in einem Release Plan Meeting erstellt. Dieses setzt
sich aus drei wesentlichen Phasen zusammen:62
Explorationsphase: In dieser Phase gilt es, herauszufinden, welche neuen Features,
basierend auf den User Stories, ins Programm aufgenommen werden. Nach
Festlegung der Features muss noch der Aufwand geschätzt werden. Hier gibt es
auch beim XP kein wirkliches Patentrezept. Man muss, wie bei herkömmlichen
Projekten auch, auf vorhandene Erfahrungen ähnlicher Features zurückgreifen.
Commitment Phase: Diese Phase dient dazu, um Deadlines für das kommende
Release zu bestimmen. Dabei setzt man nicht, wie im klassischen
Projektmanagement, auf die Abhängigkeiten der einzelnen Tasks, sondern benutzt
folgende Faktoren für die Reihung der Aufgaben:
• Business Value: User Stories mit einem höheren Kundennutzen werden
bevorzugt.
61 Vgl. Kocher, D., (Einfuhrung von XP 1 in der Praxis), S. 5.
62 Vgl. www.extremeprogramming.org.
Digital Technology Management – Neue Technologien
43
• Technisches Risiko: Features mit einem höheren Risiko werden vorgezogen,
um noch Spielraum zum Handeln zu lassen.
Dabei hilft es, die vom Kunden geschriebenen Stories nach Kriterien, wie Wert,
Risiko, Geschwindigkeit und Umfang, zu sortieren.
Steuerung: Dieser Teil dient der laufenden Anpassung des aktuellen Plans an die
sich ändernden Umgebungsvariablen.
Die eigentliche Entwicklungsstrategie setzt auf das Hier und Jetzt und klammert die
mögliche Zukunft bewusst aus, um nicht den Fokus auf die aktuellen Aufgaben zu
verlieren. Um diese Vorgehensweise zu unterstützen, setzt man auf regelmäßige
Releases, Collective Code Ownership und Pair Programming. Jede dieser einzelnen
Maßnahmen dient dazu, die Qualität des Produktes auf einem hohen Niveau zu
halten.
Abbildung 15: Projektablauf (Extreme Programming)
Abbildung 15 zeigt die Variabilität in XP. Man versucht, keine starren Vorgaben im
Projekt zu implementieren. Diese führen meist zu Problemen, wenn es dann doch
zu notwendigen Anpassungen kommt. Man geht davon aus, dass kleinere Ziele
leichter zu erreichen sind und man dadurch flexibler auf Änderungen reagieren
kann.
Auch das eingangs erwähnte Collective Code Ownership dient ausschließlich der
Qualitätssteigerung. Hier geht es im Großen und Ganzen darum, wer für den Code
zuständig ist. In konventionellen Projekten ist hier meist ein Programmierer für
seinen und nur seinen Teil des Codes verantwortlich. Beim Collective Code
Ownership ist es jedem Programmierer möglich, jede Zeile des Codes zu ändern
und es ist sogar gewünscht. Dies hat nämlich die Vorteile, dass:
• ein komplexer und undurchsichtiger Code schneller vereinfacht wird,
• Programmierer nicht von anderen abhängig sind,
• nicht nur eine Person einen Teil des Codes kennt und
• während der Codings der Programmierer nicht den Eindruck bekommt,
er/sie arbeite an weniger wichtigen Teilen. 63
63 Vgl. www.extremeprogramming.org.
Digital Technology Management – Neue Technologien
44
Eine weitere Qualitätsmaßnahme ist das Pair-Programming. Hier soll jede/s
Feature/User Story von zwei Programmierern idealerweise am selben Computer
erstellt werden. Dies bedeutet aber nicht, dass einer programmiert und der zweite
nur zuschaut. Ziel ist es, dass während einer den definierten Programmcode
erstellt, sich der zweite bereits Gedanken über die weiteren Features und Probleme
macht, die noch anstehen.
All die genannten Planungsteile sehen den Kunden als Teil des Programmierteams.
Dadurch ist er in die laufende Kommunikation zwischen den Programmierern aktiv
eingebunden und kann ohne großen Aufwand an der Lösung eines Problems
mitarbeiten. Dass dies in der Praxis nur selten so funktionieren wird, liegt auf der
Hand. In diesem Fall sollte ein Programmierer, welcher die Idee des Kunden für das
Programm am besten kennt, die Schnittstelle zwischen Kunden und Entwicklerteam
einnehmen.64
Ziel der Teststrategie ist es, dass der Entwickler dem Kunden beweist, dass der
Code funktioniert. Es ist nicht Aufgabe des Kunden, dem Entwickler das Gegenteil
zu beweisen.65
Bei den Tests unterscheidet man zwei wesentliche Kategorien: Zum einen gibt es
die Unit Tests, um die Codequalität zu sichern, und zum anderen die
Akzeptanztests, um die Kundenanforderungen zu prüfen.66
Unit Tests sind der zentrale Punkt in der Qualitätssicherung. Hiermit sollen alle im
Programm vorhandenen Softwarefunktionalitäten automatisiert getestet werden.
Diese Testabläufe sollten zu Beginn des Projektes erstellt und regelmäßig
durchlaufen werden, um die definierte Funktionalität zu garantieren. Und auch das
bereits beschriebene Collective-Code-Ownership-Modell ist im Grunde nur durch
Unit Tests zu implementieren, denn nur so kann sichergestellt werden, dass
funktionierende Programmteile durch Änderungen nicht wieder zerstört werden.
Akzeptanztests sollen dem Kunden die Möglichkeit geben, zu prüfen, ob seine
Anforderungen erfüllt sind. Diese Tests werden von der Kundenseite erstellt und
müssen nicht, wie die Unit Tests, zu 100 % durchlaufen werden. Gegen Ende des
Projektes sollte dieser Prozentsatz jedoch nahezu 100 sein.
Abschließend müssen noch die personellen Rollen im Projekt definiert werden.
Man unterscheidet drei wesentliche Rollen:
• Projektleiter,
• Kunde,
• Entwickler.
Der Projektleiter ist für die Koordination und die Verwaltung des Gesamtprojektes
verantwortlich. Er übernimmt die Koordination von Zeitplänen, Ressourcen und
Kosten. Er ist aber nicht ausschließlich für die Organisation zuständig; in der Regel
ist er auch Teil des Programmierteams.
Die Entwickler planen, entwerfen und erstellen den Programmcode. Zudem
versuchen sie, bestens auf die flexiblen Anforderungen des Kunden einzugehen.
64 Vgl. Kocher, D., (Einfuhrung von XP 1 in der Praxis), S. 11.
65 Vgl. Beck, K., (Extreme Programming Explained: Embrace Change), S. 97.
66 Vgl. www.extremeprogramming.org.
Digital Technology Management – Neue Technologien
45
Dabei sollte der Programmierer möglichst lösungsorientiert arbeiten und so einfach
wie möglich planen können.
Der Kunde in einem XP-Projekt muss dem Entwicklerteam jederzeit für Fragen und
Diskussionen zur Verfügung stehen. Darum wäre es ideal, wenn der Kunde ein Teil
des Entwicklerteams ist. Das Hauptziel des Kunden ist es, seine Anforderungen als
User Stories zu verfassen und die späteren funktionalen Tests zu definieren.67
Reflexionsaufgabe 14: Extreme Programming
Zeigen Sie den Projektablauf von Extreme Programming und erklären Sie, wozu
User Stories verwendet werden.
Reflexionsaufgabe 15: Extreme Programming
Nennen und beschreiben Sie die wesentlichen Projektrollen bei XP.
6.1.2 Scrum
Scrum bedeutet im Englischen „a rugby play in which the forwards of each side
come together in a tight formation and struggle to gain possession of the ball when
it is tossed in among them“68, ist ein Teil des agilen Projektmanagements und
bedeutet auf wenige Sätze reduziert:
„In today’s fast-paced, fiercely competitive world of commercial new
product development, speed and flexibility are essential. Companies are
increasingly realizing that the old, sequential approach to developing new
products simply won’t get the job done. Instead, companies in Japan and
the United States are using a holistic method—as in rugby, the ball gets
passed within the team as it moves as a unit up the field.”69
Aus diesem ganzheitlichen Ansatz lassen sich sechs Hauptcharakteristiken ableiten:
• Eingebaute Instabilität,
• selbstorganisierte Projektteams,
• sich überlappende Entwicklungsphasen,
• multidimensionales Lernen,
• subtile Kontrolle,
• unternehmensweiter Wissenstransfer.
Was genau kann man sich unter diesem Begriff im Kontext des
Projektmanagements vorstellen? Scrum ist ein schrittweiser Prozess, um Software
in einem regellosen bzw. chaotischen und sich rasch ändernden Umfeld zu
entwickeln. In einem Scrum-Projekt geht man von 30-tägigen, sich ständig
wiederholenden Prozessen, sogenannten „Sprints“, aus.
67 Vgl. Rumpe, B., (Extreme Programming – Back to Basics?).
68 Merriam Webster Dictionary, online.
69 Harvard Business Review, (The New New Product Development Game), online.
Digital Technology Management – Neue Technologien
46
Am Ende eines jeden Sprints steht immer eine lauffähige Version, die dem Kunden
übergeben werden kann. Zwischen diesen Sprints werden die Anforderungen
seitens des Kunden und des Entwicklerteams geprüft und die neuen Anforderungen
angepasst.70
Die Projektaufgaben, die während des Projektes abgearbeitet werden müssen,
befinden sich im sogenannten „Sprint Backlog“. Dies ist im Grunde nichts anderes
als eine Liste mit Funktionalitäten. Dabei wird am Anfang eines Sprints immer ein
Sprint Planning Meeting abgehalten. In diesem priorisiert der Product Owner die
einzelnen Features und das Scrum Team legt die anstehenden Arbeiten fest, die
sich aus dem Sprint Backlog ableiten. Während der Entwicklung, dem Sprint, trifft
sich das Scrum Team zum täglichen Scrum Meeting. Dieses wird vom Scrum Master
geleitet. Zum Ende eines Sprints gibt es eine Präsentation, das Sprint Review
Meeting, mit den neuen Funktionalitäten.
Abbildung 16: Scrum-Ablauf zusammengefasst (Braintime)
Ein Scrum-Projekt beinhaltet folgende Elemente:71
• Scrum Master,
• Product Backlog und Product Owner,
• Scrum Team,
• Daily Scrum Meeting,
• Sprint Planning Meeting,
• Sprint,
• Sprint Review Meeting.
Der Scrum Master ist eine noch unbekannte Rolle im Management-Prozess. Er stellt
aber eine Schlüsselfigur im Projektablauf dar. Der Scrum Master sollte eine neutrale
Person sein, welche zentrale Managementaufgaben übernimmt, um damit das
Team zu entlasten. Er unterstützt zu Beginn des Projektes den Kunden bei der
70 Vgl. Harvard Business Review, (The New New Product Development Game), online.
71 Vgl. Schwaber, K., Sutherland, J., (Scrum Guide), S. 6 ff.
Digital Technology Management – Neue Technologien
47
Auswahl des geeigneten Product Owners. Er legt, gemeinsam mit dem Scrum Team,
den Backlog für den nächsten Sprint fest und plant diesen auch. In weiterer Folge
übernimmt er auch noch die Koordination des Teams und trifft anstehende
Entscheidungen, um das Projekt nicht zu verzögern.
Der Product Backlog ist eine Liste, welche die Aufgaben/Features, geordnet nach
Dringlichkeit, reiht. Die Aufnahme eines Punktes in den Product Backlog ist aber
nicht ausschließlich dem Scrum Master oder Product Owner vorbehalten. Jeder im
Team kann einen Punkt in die Liste aufnehmen. Dabei kommt es auch nicht
unbedingt darauf an, wie genau der zu bearbeitende Punkt ausformuliert ist. Je
höher jedoch die Priorität, desto detaillierter sollte die Formulierung sein.72
Neben den neuen Aufgaben für die Entwicklung beinhaltet der Backlog auch
projektkritische Probleme, die gelöst werden müssen, um mit dem Projekt
fortfahren zu können.
Die Rolle des Product Owners ist eine Art Schutzschirm des Entwicklungsteams vor
zu vielen Wünschen aus verschiedenen Richtungen. Seine Hauptaufgabe ist die
Kanalisierung der Kundenwünsche. Diese Rolle sollte an eine Person vergeben
werden, die analytisch denken kann, damit die neu aufgenommenen Features nicht
einfach ein Goodie darstellen, sondern auch wirklich die Qualität des Produktes
bzw. den Wettbewerbsvorteil wahren.
Das Scrum Team sollte nicht zu groß sein, um nicht die täglichen Scrum Meetings
durch eine zu hohe Komplexität zu gefährden. Es sollte aber auch nicht zu klein sein,
weil sonst kein geeigneter Erfahrungsaustausch stattfinden kann. Eine ideale Größe
liegt zwischen 3 und 10 Personen.
Die täglichen Scrum Meetings folgen einem ganz bestimmten Ablauf: So soll ein
solches Meeting nicht länger als 15 Minuten dauern und es sollen dabei auch nicht
direkt Probleme gelöst werden. Vielmehr geht es hierbei um einen
Erfahrungsaustausch zwischen den Teammitgliedern. Ziel ist grundsätzlich, die
Kommunikation zwischen den Mitgliedern zu verbessern und einen Überblick über
das Projekt zu bekommen. Dies wird durch folgende Fragen erreicht:73
• Was wurde seit dem letzten Meeting erreicht?
• Was wird bis zum nächsten Meeting erledigt?
• Welche Probleme behindern dich bei deiner Arbeit?
Die Aufgabe des Scrum Masters ist hier primär, den Dialog untereinander zu
fördern. Darüber hinaus muss er sich darum kümmern, dass auftretende Probleme
seinerseits gelöst werden. Sollten weitläufigere Fragen auftauchen, die während
des Meetings nicht gelöst werden können, muss ein Termin für später vereinbart
werden.
Das Sprint Planning Meeting hat den Zweck, die zu bearbeitenden Features für den
kommenden Sprint mit dem Scrum Team zu definieren. Wie das Team diese Ziele
erreicht, ist aber ganz dem Scrum Team selbst überlassen. Auch die
Rollenverteilung ist nicht zwingend festgeschrieben und kann sich im Laufe des
72 Vgl. Schwaber, K., Sutherland, J., (Scrum Guide), S. 15.
73 Vgl. Schwaber, K., Sutherland, J., (Scrum Guide), S. 10.
Digital Technology Management – Neue Technologien
48
gesamten Projektes ändern.74 Dabei teilt sich dieses in zwei Hauptteile auf: Im
ersten Teil bestimmen der Scrum Master, der Product Owner sowie Vertreter der
Kundenseite die Priorität der einzelnen Punkte. In weiterer Folge bestimmt nur der
Product Owner gemeinsam mit dem Team das nächste realistische Sprint-Ziel.
Dieses Ziel wird danach im Sprint Review Meeting geprüft und bestimmt somit, ob
der abgelaufene Sprint erfolgreich war.
Im zweiten Teil des Sprint Planning Meetings definiert der Product Owner
gemeinsam mit dem Team die Punkte aus dem Backlog, welche abgearbeitet
werden sollen. Es wird dabei versucht, die Aufgaben in 4- bis 16-Stunden-Blöcke
aufzubrechen, um ein überschaubares Arbeitspaket zu definieren.75
Der Sprint stellt das Herzstück eines Scrum Projektes dar. Dabei handelt es sich um
einen Zeithorizont, der nicht länger als 30 Tage dauern darf. Am Ende des Sprints
muss ein lauffähiges und auslieferbares Produkt zur Verfügung stehen.
Sinnvollerweise haben dabei alle Sprints innerhalb eines gesamten Projektes die
gleiche Länge und innerhalb eines solchen Sprints76
• dürfen keine Änderungen vorgenommen werden, die das Ziel des Sprints
gefährden,
• soll keine Qualitätsschmälerung passieren, jedoch
• kann sich der Umfang der Anforderungen zwischen Product Owner und
Entwicklerteam ändern, sofern es sich dabei um neue und wichtige
Erkenntnisse handelt.
Man kann also sagen: Ein Sprint ist ein 1 Monat dauerndes Projekt mit einem
flexiblen Ziel. Sollte sich während des Sprints herausstellen, dass der Zeitrahmen zu
groß definiert wurde, müssen die Anforderungen angepasst werden.
Der Abbruch eines Sprints ist äußerst selten und kann, wenn überhaupt, nur vom
Product Owner vorgenommen werden. Dies kommt dann vor, wenn sich die
gesamte Zielrichtung des Sprints ändert. Ein Abbruch ist aber aufgrund der relativ
kurzen Zeit eines Sprints nur selten sinnvoll.77
Am Ende eines jeden Sprints steht das sogenannte Sprint Review Meeting. In
diesem werden gemeinsam mit dem Scrum Team sowie der Kundenseite die Ziele
des Sprints geprüft. Dazu kann der Livetest des neuen Systems sinnvoll sein, weil
Feedback am laufenden Objekt leichter gemacht werden kann als auf Grundlage
von Demo-Tests. Dieses informelle Abschluss-Meeting hat einen Zeithorizont von
vier Stunden und unterliegt folgenden Rahmenbedingungen:78
• Die Teilnehmer umfassen das Scrum-Team und die wichtigsten Stakeholder
auf der Kundenseite,
74 Vgl. Scrum Master, online.
75 Vgl. Scrum Master, online
76 Vgl. Schwaber, K., Sutherland, J., (Scrum Guide), S. 9.
77 Vgl. Schwaber, K., Sutherland, J., (Scrum Guide), S. 10.
78 Vgl. Schwaber, K., Sutherland, J., (Scrum Guide), S. 13.
Digital Technology Management – Neue Technologien
49
• der Product Owner präsentiert den gegenwärtigen Stand des Product
Backlogs und er gibt dabei auch eine Schätzung über zukünftige Liefer- und
Zieltermine ab,
• das Entwicklerteam präsentiert, was während des Sprints gut lief und was
nicht,
• die Teammitglieder bestimmen gemeinsam die kommenden Ziele, um eine
Grundlage für den nächsten Sprint zu liefern,
• Kontrolle der Marktsituation auf eventuelle Änderungen, welche die
Ausrichtung des Produktes beeinflussen könnten,
• Erstellung eines Zeit- und Budgetplans für potenzielle neue Eigenschaften,
basierend auf der Marktsituation.
Das Ziel des Sprint-Reviews ist es, eine überarbeitete Liste des Backlogs zu erstellen,
die als Grundlage für neue Sprints dienen kann. Der Backlog kann dabei aber auch
völlig überarbeitet werden, um eventuell neue Chancen zu nutzen.
Reflexionsaufgabe 16: Scrum
Erklären Sie den Scrum-Projektablauf in wenigen Sätzen. Erklären Sie dabei den
sogenannten Sprint genauer.
Reflexionsaufgabe 17: Scrum
Definieren Sie das Sprint-Review-Meeting und nennen Sie die definierten
Rahmenbedingungen.
6.2 Design Thinking
Der Begriff des Design Thinkings wurde von der Innovationsagentur IDEO
entwickelt und bezeichnet einen Prozess, der kreative Ideen fördern soll. Dabei
konzentriert man sich, wie beim User-Centered-Design, auf die Methode,
Innovationen hervorzubringen, die sich sehr stark am User orientieren und dessen
Bedürfnisse in den Vordergrund stellen. Um dies zu gewährleisten, bedient man
sich Methoden aus dem herkömmlichen Design-Bereich, weil dieser explizit
nutzerorientiert arbeitet.79
79 Vgl. https://www.gruenderszene.de, online.
Digital Technology Management – Neue Technologien
50
6.2.1 Grundlagen
Design Thinking geht vom Grundsatz aus, dass gute Ideen kein Zufall sind, sondern
durch die Zusammenarbeit von unterschiedlichsten Teams entstehen. Dabei stützt
man sich auf die Annahme, dass verschiedenste Erfahrungen, Meinungen und
Ansichten eine umfassende Problemlösung ermöglichen. Dabei werden aber nicht
nur kreative Prozesse in die Überlegungen miteinbezogen, sondern auch
wirtschaftliche.80
Dieser Ansatz mag für viele als Widerspruch gelten, weil man in der Regel mit dem
Wort „Design“ Kreativität oder auch Inspiration in Verbindung bringt. Aber der
Prozess der Produktfindung war schon immer mehr als nur das Veredeln von
Produkten zum Ende eines Entwicklungsvorganges, um die Vermarktung zu pushen.
Beim Designprozess geht es mehr darum, gegebene Probleme mit kreativen
Ansätzen und innovativen Techniken zu lösen und daraus ein Produkt für den Markt
zu entwickeln.
Dieser Ansatz ermöglicht somit, Produkte und Services zu entwickeln, die einerseits
an die Bedürfnisse der Menschen und andererseits an die der Stakeholder
angepasst sind.81
Dabei orientiert sich der gesamte Prozess an drei Grundprinzipien:
1. Multidisziplinarität,
2. Nutzerzentriertheit,
3. lernend nach vorne gehen.
Die Multidisziplinarität fordert, dass sich am Entwicklungsprozess verschiedene
Unternehmensabteilungen einbringen, um so erfolgreicher auf die Bedürfnisse und
Problemstellungen der Nutzer einzugehen. Dabei wird aber Design Thinking nicht
mehr nur als strukturierte Methode gesehen, um Innovationen voranzubringen,
sondern auch als strukturierte und strategische Herangehensweise bei komplexen
Problemen. Und dies ist gerade in der modernen globalisierten und immer mehr
digitalisierten Welt notwendig, um am Markt bestehen zu können.82
Die Nutzerzentriertheit stellt den Kunden in den Mittelpunkt bzw. sieht ihn als den
Ausgangspunkt der Entwicklung. Man beschäftigt sich nicht mehr wie früher mit
rein technischen Aspekten, sondern versucht, die Bedürfnisse des Kunden zu
erforschen und zu bedienen.83
Lernend nach vorne gehen basiert auf der schrittweisen Vorgehensweise in der
Informationstechnik. Um als Unternehmen innovativ und erfolgreich am Markt
bestehen zu können, muss eine Kultur des Lernens implementiert werden. Dabei
80 Vgl. Bayazit, N., (Investigating Design: A Review of Forty Years of Design Research),
S. 16-29.
81 Vgl. Kelley, T., (The Art of Innovation. Lessons in Creativity from IDEO, America’s Leading
Design Firm, New York.), S. 1-5.
82 Vgl. Kerguenne, A., Schäfer, H., Taherivand, A., (Design Thinking: Die agile Innovations-
Strategie), S. 6-8.
83 Vgl. Kerguenne, A., Schäfer, H., Taherivand, A., (Design Thinking: Die agile Innovations-
Strategie), S. 9.
Digital Technology Management – Neue Technologien
51
dürfen Fehler nicht mehr als Versagen gesehen werden, sondern vielmehr als
Möglichkeit, die Innovation im Unternehmen voranzubringen.84
Um die drei Grundprinzipien des Design Thinking-Prozesses erfüllen zu können,
bedarf es einer offenen und gemeinsamen Sprache. Dabei geht es nicht nur darum,
eine für alle Teammitglieder vertretbare Sprache zu finden, sondern auch darum,
einen Raum für die Kommunikation zu schaffen. Dabei sollte dieser zum Beispiel
flexible Möbel und keine Trennwände enthalten. Es muss aber viel Raum für
Arbeitsmaterial gegeben sein, um seine Gedanken und Ideen schnell und
unkompliziert zu verschriftlichen.85
Der eigentliche Designprozess setzt sich aus sechs Schritten zusammen, die nicht
zwingend in der vorgegebenen Reihenfolge durchlaufen werden müssen. Es ist
sogar gewollt, dass einige Schritte wiederholt bzw. übersprungen werden.86
1. Verstehen: Hier geht es vornehmlich darum, das Problem zu erfassen und
zu verstehen.
2. Beobachten: In diesem Schritt geht es speziell darum, Kontakt mit den
Nutzern herzustellen, um die Anforderungen zu verstehen. Hier kommen
diverse Forschungsmethoden aus der qualitativen Sozialforschung, wie
zum Beispiel teilstrukturierte Interviews, zum Einsatz.
3. Synthese: Die aus Schritt 2 gewonnenen Erkenntnisse werden jetzt
zusammengeführt und in eine Struktur gebracht. Darüber hinaus werden
die einzelnen Anforderungspunkte gewichtet, um daraus einen eigenen
Standpunkt für das Team zu definieren.
4. Ideen: In diesem Schritt sollen seitens des Teams Ideen für das neue
Produkt, ähnlich wie beim Brainstorming, gesammelt werden. Aus den
gewonnenen Ideen wird dann im Team eine Liste mit Anforderungen für
das Produkt erstellt.
5. Prototypen: In dieser Phase werden die zusammengestellten
Anforderungen unter Zuhilfenahme verschiedenster Tools zum Leben
erweckt. Grundsätzlich ist hier alles, von Papier über Knete und Lego bis hin
zu Holz, erlaubt. In der IT kommen hier speziell Tools, wie Mock-Ups bzw.
Wireframes, zum Einsatz.
6. Testen: Nach dem bekannten Prinzip „Fail early to succeed sooner“ wird in
dieser Phase so früh wie möglich das Feedback der potenziellen User
eingeholt.
Um dem Prinzip der Nutzerzentriertheit gerecht zu werden, werden in der
Softwareentwicklung pro Stadium der Entwicklung zwei Designmethoden
verwendet, um so rasch wie möglich verwertbares Feedback des Users einzuholen.
In den frühen Stadien der Entwicklung kommen die sogenannten Wireframes zum
Einsatz, die einen groben Blick auf die Oberfläche zulassen. In einem späteren
84 Vgl. Kerguenne, A., Schäfer, H., Taherivand, A., (Design Thinking: Die agile Innovations-
Strategie), S. 10.
85 Vgl. https://kreativitätstechniken.info, online.
86 Vgl. Lonczewski, F., Fehrenbach, C., (Design Thinking: Nur Hype oder auch Chance für
die UX Community?), S. 2-3.
Digital Technology Management – Neue Technologien
52
Stadium der Entwicklung kommen dann Mock-Ups zum Einsatz: Mit diesen ist
bereits ein sehr genauer Blick auf die zu erwartende Software möglich.
Reflexionsaufgabe 18: Design Thinking
Nennen Sie die sechs wesentlichen Schritte des Design Thinking-Ansatzes.
Reflexionsaufgabe 19: Design Thinking
Nennen und beschreiben Sie die Grundprinzipien von Design Thinking.
6.2.2 Wireframes
Wireframes unterstützen die Designabteilung bei der grundlegenden Konzeption
einer Software. Ein Wireframe (deutsch: Drahtgerüst, Drahtmodell) bezeichnet
eine zweidimensionale Darstellung einer Softwareoberfläche, die sich speziell auf
die Content-Verteilung bzw. die Priorisierung von Inhalten, verfügbaren
Funktionalitäten und geplanten Abläufen konzentriert. Dies ist auch der Grund,
warum bei Wireframes in der Regel kein Styling und somit keinerlei Farben oder
Grafiken zum Einsatz kommen, siehe Abbildung 17. Sie zeigt auch die
Abhängigkeiten der einzelnen Softwaremodule/Seiten untereinander.87
Abbildung 17: Wireframe einer Software APP (AppFutura)
87 Vgl. Truppel, T., (Synchrone Internet-basierte Usability Tests - Mit wenig Aufwand den
Nutzer frühzeitig verstehen), S. 281-283.
Digital Technology Management – Neue Technologien
53
Der Vorteil bzw. der Zweck von Wireframes:88
• Verbindet die Informationsstruktur der Seite mit dem visuellen Design, weil
die Wege zwischen den Seiten gezeigt werden,
• klärt die Möglichkeiten zum Anzeigen verschiedener Arten von
Informationen auf der Oberfläche,
• bestimmt die beabsichtigte Funktionalität in der Benutzeroberfläche,
• man kann den Inhalt priorisieren, indem man ihm eine bestimmte Größe
auf der Benutzeroberfläche gibt.
Beim Erstellen von Wireframes sollte man einige Basisregeln befolgen. Es sind
grundsätzlich Richtlinien dafür, wo die wichtigsten Navigations- und
Inhaltselemente auf der Benutzeroberfläche platziert sein sollen. Es ist nicht das
Ziel, das visuelle Design darzustellen. Aus diesem Grund sollte man es einfach
halten und folgende Eckpunkte beim Design beachten:89
• Man sollte keine Farben verwenden. Wenn normalerweise Farben für die
Unterscheidung von Objekten verwendet werden, sollte man bei
Wireframes unterschiedliche Grautöne verwenden.
• Man sollte keine Bilder verwenden, weil diese den Blick vom eigentlichen
Zweck von Wireframes, die Vermittlung eines Grobkonzeptes, ablenken.
Man kann statt eines Bildes in der eigentlichen Größe ein „X“ vorsehen, um
den Platz zu reservieren.
• Es sollten keine finalen Schriftarten verwendet werden. Stattdessen sollte
auf generische Schriftarten zurückgegriffen werden, um nicht die
Diskussion auf diese zu lenken. Es können jedoch die Größen der Schriften
variieren.
Wireframes können von Papierskizzen bis zu Computerbildern bzw. der Menge an
Details variieren, die sie vermitteln. Es wird daher in sogenannte Low- und High-
Fidelity Wireframes unterschieden, um das Niveau der Genauigkeit bzw. deren
Funktionalität zu unterscheiden.90
Low-Fidelity Wireframes sollen die Kommunikation mit Projektteams erleichtern
und werden relativ schnell entwickelt. Sie sind im Grunde sehr abstrakt, weil sehr
oft Platzhalter für Bilder und Mock-Content (lorem ipsum) als Füllmaterial für
Überschriften und Textblöcke verwendet werden.
High-Fidelity Wireframes sind aufgrund der bereits hohen Detailgenauigkeit besser
für Dokumentationen geeignet. Sie enthalten Informationen über die bestimmten
Elemente auf der Seite, einschließlich Dimensionen, Abläufen und/oder Aktionen
eines interaktiven Elementes.
Reflexionsaufgabe 20: Wireframes
Was genau kann unter Wireframes verstanden werden?
88 Vgl. Garrett, J., (The Elements of User Experience), S. 128-132.
89 Vgl. www.webstyleguide.com, (Presenting Information Architecture), online.
90 Vgl. Garrett, J., (The Elements of User Experience), S. 128-132.
Digital Technology Management – Neue Technologien
54
6.2.3 Mock-Ups
Das Mock-Up stellt einen statischen, jedoch sehr ausgereiften Designentwurf einer
Software dar. Es wird dadurch die Struktur der Informationen sowie des Inhaltes
visualisiert und die grundlegenden Funktionalitäten der Oberfläche auf statische
Weise demonstriert. Mock-Ups bieten, im Gegensatz zu Wireframes, visuelle
Details, wie Farben, Bilder und die finalen Schriften. Mit Mock-Ups werden Modelle
erstellt, um dem Betrachter einen realistischen Eindruck des Endproduktes zu
vermitteln. Mock-Ups haben aber, neben der genaueren Dokumentation, einen
weiteren Vorteil: sie unterstützen das Team dabei, ihre Vision gegenüber den
Stakeholdern und Investoren zu verkaufen.
Was sind also die Vorteile, wenn man Mock-Ups verwendet?91
• Projektdetails organisieren: Mock-Ups helfen dem Designer, visuelle
Elemente aufzuspüren, die nicht mit dem geplanten finalen Design
zusammenspielen. Durch die Verwendung von Farben, Bildern und
Schriften kann die Idee der Oberfläche sehr gut transportiert werden.
• Fehler in frühen Entwicklungsstadien finden: Aufgrund der Einfachheit
von Mock-Ups ist eine schnelle und einfache Iteration der einzelnen Phasen
möglich, weil sie keinen endgültigen Code enthalten.
• Ideen für Stakeholder/Investoren übersetzen: Um dem Kunden oder
Stakeholder eine gute Idee des endgültigen Produktes zu vermitteln,
eignen sich Mock-Ups ausgezeichnet.
• Ideen im Team kommunizieren: Mock-Ups helfen nicht nur, die
Kommunikation zwischen der Entwicklungsabteilung und der
Kundenseite zu erleichtern. Sie helfen auch, die Kommunikation
zwischen den einzelnen Abteilungen im Unternehmen zu
vereinfachen.
• Design Implementierung: Wie funktioniert ihr gedachtes Design?
Diese Frage sollte bei der Betrachtung der Mock-Ups beantwortet
werden.
Reflexionsaufgabe 21: Mock-Ups
Erklären Sie den Unterschied zwischen Wireframes und Mock-Ups.
91 Vgl. www.justinmind.com, (Wireframes Vs Mock-Ups: what´s the difference?), online.
Digital Technology Management – Neue Technologien
55
7 Frameworks
Die Hauptaufgabe in der Softwareentwicklung liegt in der Umsetzung der Vision des
Kunden in ein lauffähiges Softwareprodukt. Dabei sollte der erstellte Code die
geforderten Ergebnisse liefern und sicher, reibungslos und stabil funktionieren. All
dies soll auch noch mit optimaler Effizienz und dem bestmöglichen Einsatz der
vorhandenen Ressourcen erfolgen.
Diese scheinbar utopischen Anforderungen können unter Verwendung von
Frameworks mit relativ einfachen Mitteln erzielt werden.
7.1 Grundlagen
Das Software Framework (deutsch: Programmiergerüst) gibt eine Art
Ordnungsrahmen für den Entwickler vor. Solche Frameworks kommen in der
objektorientierten bzw. bei der komponentenbasierten Softwareentwicklung vor.
Bischofberger definiert ein Framework wie folgt:92
„Ein Framework besteht aus einer Menge von Objekten, die eine
generische Lösung für eine Reihe verwandter Probleme implementieren. Es
legt die Rollen der einzelnen Objekte und ihr Zusammenspiel fest. Damit
definiert das Framework auch jene Stellen, an denen die Funktionalität
erweitert und angepasst werden kann.“
Daraus lassen sich die Eigenschaften eines solchen vorgegebenen Rahmens
ableiten. Ein Framework stellt Grundbausteine für die Entwicklung zur Verfügung,
wodurch die Designstruktur einer Software bestimmt wird. Dabei enthält es
abstrakte und konkrete Klassen, die bei der Entwicklung einer Software
unterstützen. Wichtig in diesem Zusammenhang ist, dass ein Framework noch
lange kein fertiges Programm ist, sondern es wird vom Entwickler als eine Art
Basismuster genutzt. Dabei ist es das Ziel von Frameworks,
softwarearchitektonische Muster in der Programmierung wiederzuverwenden.
Man unterscheidet daher Frameworks in zwei wesentliche Kategorien: in White-
Box Frameworks und Black-Box Frameworks.93
Von White-Box Frameworks spricht man, wenn das verwendete Framework
Möglichkeiten bietet, um Methoden zu überschreiben. In diesem Fall legt das
Framework spezielle Teile und Beziehungen fest, welche durch die Anwendung
erweitert werden müssen. Dies ist grundsätzlich die mächtigere Variante der
Wiederverwendung. Man muss aber hier das verwendete Framework und das
Zusammenspiel der einzelnen Teile verstanden haben, weil das Programm selbst
nicht wissen kann, welche Art von Daten verwendet wird.94
Ein Black-Box Framework wird durch verschiedene direkt benutzbare Klassen für
die Instanzierung und Parametrierung gekennzeichnet. Die Programmteile können
92 Vgl. Birrer, A., Bischofberger, W., Eggenschwiler, T., (Wiederverwendung durch
Frameworktechnik - vom Mythos zur Realität), S. 1.
93 Vgl. Birrer, A., Bischofberger, W., Eggenschwiler, T., (Wiederverwendung durch
Frameworktechnik - vom Mythos zur Realität), S. 1.
94 Vgl. Birrer, A., Bischofberger, W., Eggenschwiler, T., (Wiederverwendung durch
Frameworktechnik - vom Mythos zur Realität), S. 2.
Digital Technology Management – Neue Technologien
56
genutzt werden, ohne dass man diese versteht bzw. deren Zusammenspiel
verstanden hat. Dafür unterliegt man bei dieser Art einer gewissen Einschränkung.
Man kann diese Methoden nur beschränkt anpassen. Sollte aber die Funktionalität
der Black-Box nicht ausreichen, so kann man ohne großen Aufwand auf White-Box-
Funktionalitäten zurückgreifen. Der Übergang der beiden Kategorien ist somit
fließend.95
Reflexionsaufgabe 22: Frameworks
Was versteht man in der Softwareentwicklung unter Frameworks?
Reflexionsaufgabe 23: Frameworks
Erklären Sie den Unterschied zwischen einem White- und einem Black-Box
Framework.
7.2 Application Frameworks
Die Rechenleistung und die Bandbreite von Netzwerken sind in den letzten Jahren
massiv gestiegen. Im Vergleich dazu ist aber die Entwicklung komplexer Software
immer noch teuer und fehleranfällig. Ein Großteil der anfallenden Kosten fällt bei
der ständigen Wiederentdeckung und Neuentwicklung von bekannten
Kernkompetenzen in der Softwareindustrie an. Gerade die wachsende
Heterogenität von Hardwarearchitekturen und Kommunikationsplattformen macht
es oft schwierig, fehlerfreie, effiziente und kostengünstige Applikationen zu
entwickeln.
Objektorientierte Application Frameworks stellen dabei eine vielversprechende
Technologie dar, um die Kosten von Softwareimplementierung zu reduzieren und
die Qualität der Anwendungen zu steigern. Das Framework stellt dabei
wiederverwendbare, „halb-vollständige“ Anwendungen zur Verfügung, auf deren
Basis man durch eine einfache Anpassung benutzerdefinierte Anwendungen
erstellen kann. Application Frameworks sind dabei in der Regel auf bestimmte
Geschäftsabläufe und Anwendungsanforderungen ausgerichtet.96 Dies wird auch in
der Definition von Ted Lewis nochmals herausgehoben:97
„A Framework is more than a class hierarchy. It is a miniature application
complete with dynamic as well as static structure. It is a generic application
we can reuse as the basis of many other applications. And, before I forget
it, frameworks are specialized for a narrow range of applications, because
each model of interaction is domain-specific, e.g., designed to solve a
narrow set of problems. A framework is the product of many iterations in
design. It is not something that you invent in a big bang, and then go about
reusing for years. Frameworks evolve over long periods of time ...“
95 Vgl. Birrer, A., Bischofberger, W., Eggenschwiler, T., (Wiederverwendung durch
Frameworktechnik - vom Mythos zur Realität), S. 2.
96 Vgl. Johnson, R., Foote, B., (Designing Reusable Classes), S. 22-35.
97 Lewis, T., (Object-oriented application frameworks), S. 25.
Digital Technology Management – Neue Technologien
57
Application Frameworks bieten einige Vorteile, die sich aus Modularität,
Wiederverwendbarkeit, Erweiterbarkeit und der Kontrolle, die dem Entwickler
geboten wird, ergeben. Diese werden nachfolgend beschrieben:98
• Modularität: Durch die Modularität werden Frameworks verbessert,
indem vorrübergehende Details in der Implementierung durch stabile
Schnittstellen gekapselt werden. Die Modularität verbessert die Qualität
der Anwendung, weil die Auswirkungen von Änderungen im Design und der
Implementierung lokalisiert werden können. Außerdem trägt sie zur
Reduktion des Aufwands bei der Pflege der Anwendung bei.
• Wiederverwendbarkeit: Die bereitgestellten Schnittstellen tragen zur
Verbesserung der Wiederverwendbarkeit bei, indem standardisierte
Zugriffsschnittstellen definiert werden, um neue Software zu erstellen.
Dieser Punkt nutzt die Erfahrung und Bemühungen früherer
Entwicklungen, um herkömmliche Lösungen für scheinbar neue Probleme
nicht nochmals zu erstellen und zu validieren.
• Erweiterbarkeit: Ein Framework verbessert durch das Entkoppeln von
stabilen Schnittstellen und Verhaltensweisen von Variationen, die bei der
Instanzierung einer Anwendung erforderlich sind, die Qualität der
gesamten Anwendung.
• Kontrolle: Durch sogenannte Event-Handler-Objekte werden dem
Entwickler Möglichkeiten geboten, die eine standardisierte und
anwendungsspezifische Verarbeitung von Ereignissen ermöglichen.
Abbildung 18: Verwendung eines Application Frameworks
Reflexionsaufgabe 24: Application Frameworks
Wodurch zeichnen sich Application Frameworks aus?
98 Vgl. Pree, W., (Design Patterns for Object-Oriented Software Development), S. 663-664.
Digital Technology Management – Neue Technologien
58
7.3 Domain Driven Design
In der Softwareentwicklung liegt die größte Komplexität nicht zwingend bei den
technischen Belangen, sondern vielmehr in der Aktivität bzw. dem Geschäft des
Auftraggebers. Behandelt man diese „Domainkomplexität“ des Geschäfts nicht im
Softwaredesign, so spielt es keine Rolle, wie gut durchdacht der eigentliche
Softwarecode ist, denn die Wahrscheinlichkeit, dass das Endprodukt nicht zu 100 %
den Wünschen des Auftraggebers entspricht, ist sehr groß.
Die Grundlage von Domain Frameworks bildet das sogenannte Domain Driven
Design (DDD). Dieser Entwicklungsansatz ist aber nicht einfach nur eine Technik
oder Methode; man versteht darunter eher eine neue Denkweise, um die
Produktivität von Softwareprodukten in einem komplizierten Umfeld zu steigern.99
Der DDD-Ansatz hat zwei grundlegende Annahmen als Grundlage:
• In Softwareprojekten sollte der primäre Fokus auf den Domänen und der
Domänenlogik liegen, sprich auf der Fachlogik,
• komplexe Domänenentwürfe sollten auf einem Domänenmodell basieren.
Eine Software wird mit dem Ziel entwickelt, eine bestimmte Aufgabenstellung, eine
sogenannte Domäne, zu unterstützen. Um diese Herangehensweise erfolgreich
abzuschließen, muss die Anwendung mit der fachlichen Komponente in der
Anwendungsdomäne zusammenpassen. Der DDD-Ansatz gewährleistet dies durch
die Zusammenführung grundlegender Softwarekonzepte mit den Elementen der
Anwendungsdomäne.100
Die DDD-Architektur beinhaltet eine eigene Schicht der Geschäftslogik, um die
Domänenklassen von anderen Funktionen in der Software zu entkoppeln und sie
dadurch leichter sichtbar zu machen. Um diese Architektur zu visualisieren, können
verschiedene Herangehensweisen, wie zum Beispiel die Schichtenarchitektur oder
auch die hexagonale Architektur, gewählt werden.101 Die im DDD verwendeten
Klassen enthalten die gesamten Daten und auch die Softwarefunktionalität der in
den Fachabteilungen definierten Abläufe. Aus diesem Grund steht das DDD auch
im Gegensatz zu anderen Entwicklungsansätzen, die in der Regel ohne einen
speziellen Layer für die Anwendungslogik auskommen.102
Trotz der vielen zur Verfügung stehenden Konzepte, welche diesen Ansatz in der
Entwicklung unterstützen, liegt das Hauptaugenmerk auf der Einführung einer
Fachsprache, die in allen Bereichen der Softwareentwicklung angewendet werden
kann. Diese Sprache für die Definition der einzelnen Elemente, der Fachlichkeit
bzw. der Klassen und Methoden definiert sich durch die Prinzipien, dass sie um die
Anwendungsdomäne strukturiert ist und von allen Teammitgliedern verwendet
wird, um die einzelnen Aktivitäten zu verknüpfen.103 Die Hauptbestandteile des
DDD sind:
99 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software), S.
14.
100 Vgl. Marinescu, F., Avram, A., (Domain-Driven Design Quickly), S. 4.
101 Vgl. www.methodsandtools.com, (An Introduction to Domain Driven Design), online.
102 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software), S.
73-75.
103 Vgl. www.infoq.com, (Domain-Driven Design), online.
Digital Technology Management – Neue Technologien
59
Entitäten: Diese sogenannten Referenz-Objekte sind nicht grundsätzlich durch ihre
Attribute definiert, sondern durch einen Thread von Kontinuität und Identität. Ein
bereits definiertes Objekt, zum Beispiel eine Person, bleibt somit immer eine
Person, auch in dem Fall, dass sich die Eigenschaften ändern. Sie unterscheidet sich
aber von anderen Personen trotz möglicher Ähnlichkeiten bei den Attributen. Aus
diesem Grund werden für die Unterscheidung sehr oft Identifikatoren, wie etwa
eine Personenkennzahl oder Steuernummer, verwendet.104
Wertobjekte: Viele Objekte haben keine konzeptionelle Identität. Diese Objekte
beschreiben das Charakteristische einer Sache. Aus diesem Grund werden
Wertobjekte oder „Value Objects“ als nicht veränderbare Objekte definiert.
Dadurch sind sie in der Konzeption wiederverwendbar.105
Aggregate: Zusammengefasste Entitäten oder Wertobjekte werden als Aggregate
bezeichnet. Durch deren Verknüpfung untereinander verschmelzen diese zu einer
transaktionalen Einheit. Dabei definieren Aggregate eine Entität als einen Zugriff
auf das wiederum verknüpfte Aggregat. Alle restlichen Objekte dürfen daher extern
nicht referenziert werden.106
Assoziationen: Assoziationen stellen Beziehungen zwischen den einzelnen
Objekten dar. Dabei werden nicht nur statische, sondern auch dynamische
Beziehungen dargestellt.107
Serviceobjekte: In einigen Fällen umfasst das klarste und pragmatischste Design
Operationen, die nicht konzeptionell zu einem Objekt gehören. Anstatt das
Problem zu erzwingen, können wir den natürlichen Konturen des Problembereichs
folgen und SERVICES explizit in das Modell aufnehmen. Dabei bekommen diese
normalerweise zustandslosen Objekte die Wertobjekte und Methoden, die für die
Abarbeitung notwendig sind, übergeben. Ein gutes Serviceobjekt weist folgende
drei Charakteristika auf:108
• Die Operation bezieht sich auf ein Konzept, das kein natürlicher Teil eines
ENTITY- oder Wertobjektes ist,
• die Schnittstelle ist in Bezug auf andere Elemente des Domänenmodells
definiert,
• die Operation ist zustandslos.
Module: Hierdurch wird das gesamte Domänenmodell nicht in technische, sondern
in fachliche Bestandteile aufgeteilt. Module sind dabei durch eine gute logische
104 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 89-94.
105 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 97-99.
106 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 125-127.
107 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 82-83.
108 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 104-106.
Digital Technology Management – Neue Technologien
60
Teilung und eine geringe Zusammenführung zwischen den einzelnen Modulen
gekennzeichnet.109
Fabriken: Sollte die Erstellung eines Objektes oder eines gesamten Aggregates zu
kompliziert werden oder zu viel von der internen Struktur aufzeigen, sorgen die
Fabriken/Factories für eine Kapselung. Sie unterstützen dabei die Auslagerung von
speziellen Fachobjekten in Fabrik-Objekte. Gute Fabrik-Objekte beruhen auf zwei
Voraussetzungen:110
• Ein Fabrik-Objekt sollte nur in der Lage sein, ein Objekt in einem
konsistenten Zustand zu erzeugen,
• das Objekt sollte nur auf den gewünschten Typ abstrahiert werden und
nicht auf die konkrete Klasse.
Repositories: Repositories verallgemeinern die Möglichkeit, Daten bzw. logische
Verbindungen zwischen Objekten über längere Zeit zu speichern. Durch deren
Verwendung werden der Zugriff sowie die technische Infrastruktur von der
Geschäftslogik getrennt. Für Fachobjekte, die über den Infrastruktur-Layer
aufgerufen werden, stellt das Repository eine Klasse bereit, wodurch die Such- und
Ladetechnologien extern abgetrennt werden.111
Reflexionsaufgabe 25: Domain Driven Design
Erklären Sie das Prinzip des Domain Driven Designs.
7.4 Test Driven Development
Die heutigen Test-Frameworks basieren auf dem sogenannten „Test Driven
Development“ oder auch TDD. In diesem Ansatz geht man davon aus, dass die
durchzuführenden Softwaretests als Grundlage für den zu entwickelnden Code
dienen. Dieser Ansatz ist auch bekannt als „test first“-Ansatz.112
Warum aber ist der Test-Driven-Ansatz in der Softwareentwicklung sinnvoll? Dieser
Ansatz wird in der Praxis dazu verwendet, um Implementierungen und
Programmfunktionen zu steuern sowie um die langfristige Qualität der
entwickelten Software zu verbessern.
Gerade das Entwerfen der späteren Komponententests vor der eigentlichen
Erstellung des Codes gibt dem Entwickler die Möglichkeit, sich Gedanken über den
Ablauf der einzelnen Funktionen zu machen, bevor der Code dafür erstellt wird.
Dieser Ansatz beschleunigt in weiterer Folge den gesamten Erstellungsprozess, weil
die zuvor definierten Tests automatisiert ablaufen und relativ einfach ohne
Zeitaufwand wiederholt werden können.113
109 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 109-111.
110 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 136-139.
111 Vgl. Evans, E., (Domain-Driven Design. Tackling Complexity in the Heart of Software),
S. 147-154.
112 Vgl. Olan, M., (Unit testing: test early, test often), S. 319-328.
113 Vgl. Olan, M., (Unit testing: test early, test often), S. 319-328.
Digital Technology Management – Neue Technologien
61
Durch das Schreiben eines Codes mit dem Ziel, den zuvor definierten Test zu
bestehen, kann sich der Entwickler soweit sicher sein, dass der produzierte Code
auch sicher den Vorgaben entspricht. Der TDD-Ansatz führt dazu, dass die
Codebasis einer sehr hohen Testabdeckung unterliegt, weil der Code nur
hinzugefügt wird, wenn dieser auch die Tests bestanden hat, weil jedes Modul mit
zumindest einem Test verknüpft ist. Eine dabei von Microsoft erstellte Studie zeigt,
dass das generelle Vertrauen in den Code bei der Verwendung von TDD steigt.114
Der TDD-Workflow geht in der Regel von schnellen Iterationen bei der Erstellung
von kleinen Teilen von Codes aus. Der Arbeitsablauf bei diesem Muster ist wie
folgt:115
1. Erstellen der Komponententests, die den geplanten Ablauf des Moduls
wiedergeben.
2. Alle Tests sollen durchgeführt werden. Sind alle bestanden, kann wieder zu
Punkt 1 gegangen werden, andernfalls folgt Punkt 3.
3. Beheben Sie den aufgetretenen Fehler und versuchen Sie, den
fehlgeschlagenen Test zu bestehen. Danach geht man wieder zu Schritt 2.
Der Entwickler führt die definierten Tests durch, um fehlgeschlagene
Komponententests zu finden. Danach versucht er, die entdeckten Fehler zu
beheben. Es wird dabei versucht, die Implementierung mit dem geringsten
Aufwand zu verändern, um den Test zu bestehen. Das Schreiben des minimalen
Codes, der die Tests bestehen muss, ist wichtig, vereinfacht die Implementierung
und verhindert das Hinzufügen von nicht getesteten Features zum Code. Der
genannte Zyklus soll solange fortgesetzt werden, bis eine Implementierung
abgeschlossen ist, die alle Komponententests besteht.
Nach Fertigstellung des Moduls werden in weiterer Folge systemweite Tests
durchgeführt, um sicherzustellen, dass auch alle Programmteile ordnungsgemäß
funktionieren. Weitere Integrationstests sollen erstellt und durchgeführt werden,
um sicherzustellten, dass neue Module mit bereits vorhandenen auch richtig
funktionieren. Dabei sollten alle vorhandenen Probleme mit einer eigenen Reihe an
Komponententests geprüft werden, um auch wirklich nur die minimale Menge an
Code zu ändern. Sobald alle verfügbaren Teile getestet und fehlerfrei sind, können
sie an ein beliebiges Versionskontrollsystem übergeben werden.
Reflexionsaufgabe 26: Test Driven Development
Erklären Sie den Test Driven Development-Ansatz genauer.
114 Vgl. Bhat, T., Nagappan, N., (Evaluating the efficacy of test-driven development:
industrial case studies.), S. 356-363.
115 Vgl. Olan, M., (Unit testing: test early, test often), S. 319-328.
Digital Technology Management – Neue Technologien
62
8 Fallstudie: mobile Entwicklung
Die mobile Entwicklung ist die Zukunft von heute! Am Ball der Zeit zu bleiben, ist
keine Frage des Wollens oder Könnens mehr. Es ist vielmehr ein Muss, um in der
rasch voranschreitenden Digitalisierung der internen Prozesse nicht ins
Hintertreffen zu gelangen.
8.1 Hybrid Mobile APP Entwicklung
Der Begriff „Website“ ist ein Wort, das in der heutigen Zeit überholt ist. Das neue
Schlagwort, welches die Welt bewegt, ist „APP“. Allgemein kann man aber sagen,
dass eine Anwendung in Form einer Software mehr ist als die einfache Darstellung
statischer Informationen. Es werden dem Benutzer in der Regel mehr
Möglichkeiten zur Verfügung gestellt.
Bei der Kategorie der Web-Apps muss man einige Einschränkungen in Kauf
nehmen, wie zum Beispiel die Notwendigkeit einer ständigen Verbindung zum
Internet. Auch kann auf die Hardware des genutzten PCs nur eingeschränkt
zugegriffen werden. Mobile Anwendungen auf der anderen Seite überwinden
genau diese Probleme.
Der Begriff des „Going Mobile“ ist in einem modernen Unternehmen nicht mehr als
optional zu sehen. Es geht im Grunde nur mehr darum, ob man sich für einen der
drei folgenden Wege entscheidet:
• Mobile-First (das Hauptaugenmerk liegt auf einer mobilen Plattform)
• Mobile-Only (es wird nur eine mobile Lösung angeboten)
• Mobile-After (die mobile Lösung wird nach der Einführung einer Web-App
angeboten)
Unternehmen, die überlegen, ob sie eine „Native“ App entwickeln sollen oder eine
„Hybride“, sollten folgenden Punkt bedenken: Native Apps bringen, trotz des
Vorteils der vollen Nutzung der Betriebssystem Features, zwei große Nachteile mit
sich. Erstens ist das Erlernen der notwendigen Programmiersprache aufwendig und
zweitens muss nachher die Anwendung für andere Betriebssysteme zu einem
großen Teil neu programmiert werden. In so einer Situation bietet die Entwicklung
einer hybriden App den idealen Ausweg.116
In vielen Fällen kommt es zu dem Missverständnis, dass hybride Mobile-Lösungen,
wie zu Beginn der Entwicklung von hybriden Frameworks, nicht direkt am Mobile-
Gerät installiert werden können. Eine hybride App ist aber, wie jede andere native
App, direkt am Endgerät installiert, kann über die jeweiligen App-Stores bezogen
werden und ermöglicht die Nutzung der angebotenen Gerätehardware, wie
Kamera, GPS oder Mikrofon.
Hybride Apps werden für verschiedene Plattformen (Apple: iOS, Google: Android
etc.) entwickelt, nutzen aber eine Codebasis. Um jedoch alle Möglichkeiten des
116 Vgl. Khanna, R., Yusuf S., & Phan, H., (Ionic: Hybrid Mobile App Development), online.
Digital Technology Management – Neue Technologien
63
darunterliegenden Betriebssystems nutzen zu können, müssen einige Teile der
Software dafür umgeschrieben werden.
Hybride Apps werden in zwei grundlegende Kategorien eingeteilt:
• WebView-based Hybrid Apps: Jede native mobile Plattform verfügt über
eine gemeinsame Kontrollkomponente/Web View. Diese wird verwendet,
um lokal gehosteten Inhalt, wie z. B. eine HTML-Seite oder JavaScript Code,
zu öffnen.
• Cross-Compiled Hybrid Apps: In diesem Ansatz werden hybride Apps unter
Verwendung einer gemeinsamen Codebasis für die jeweiligen
Betriebssysteme extra kompiliert. Das bedeutet, dass der Programmierer
die App mit der Softwaresprache A erstellt und dieser Programmcode wird
danach bei Kompilierung in den nativen Code des Betriebssystems
konvertiert.
Wie eingangs schon erwähnt, unterscheiden sich hybride Apps nicht von nativen
Apps, die auf einer mobilen Plattform, wie iOS oder Android, installiert sind. Jede
Plattform nutzt Kerngeräte-APIs (Webservices) für Hardware, wie GPS, NFC, oder
die Kamera, welche vom mobilen Betriebssystem bereitgestellt werden (siehe
Abbildung 19).117
Abbildung 19: Aufbau einer hybriden App (Packt)
Reflexionsaufgabe 27: Hybrid Mobile APP Entwicklung
Unterscheiden Sie die Hybrid Mobile APP-Entwicklung vom Native Development-
Ansatz.
117 Vgl. Khanna, R., Yusuf S., & Phan, H., (Ionic: Hybrid Mobile App Development), online.
s
Digital Technology Management – Neue Technologien
64
8.2 IONIC Framework
Das IONIC Framework ist ein Hybrid-App-Entwicklungsframework, wodurch
Softwareentwickler native-aussehende mobile Anwendungen unter Verwendung
von bekannten Webtechnologien, wie CSS, HTML5 und JavaScript, erstellen
können. Der Vorteil von IONIC ist, dass es ein Open-Source-Produkt ist und somit
bei der Entwicklung Kosten gespart werden können.
Die Basis von IONIC bildet dabei das ebenfalls bekannte AngularJS Framework,
welches auf Apache Cordova für die Erstellung von mobilen Apps mit Web-Inhalten
aufbaut. Die starke Anlehnung von IONIC an AngularJS erleichtert dabei die
Entwicklung von mobilen Applikationen. Beispiele hierfür sind der ListView, Side
Menus, Tab und mobilspezifische Elemente.118
IONIC ermöglicht durch eine Benutzeroberfläche eine rasche Erstellung von
Anwendungen für Handys. Um ein betriebssystem-spezifisches Design zu
ermöglichen, verwendet IONIC ein Natives Stylesheet, welches auf dem darunter
verwendeten Betriebssystem aufbaut.
Die mittlerweile vorhandenen Tools des mobilen Entwicklungswerkzeuges wurden
gemeinsam mit dem Basisframework entwickelt und auch weiterentwickelt. Die
IONIC CLI stellt dem Entwickler erstaunliche Möglichkeiten zur Verfügung; dazu
zählen etwa IONIC Lab (bietet unter anderem eine App-Vorschau, Login Tools oder
App Building Tools) oder auch der LiveReload (ermöglicht ein einfaches Update der
Apps). Das komplett cloud-basierte Backend-Service zur Verwaltung der Apps
ermöglicht eine leichte Verwaltung mehrerer unterschiedlicher Anwendungen.119
Ein weiteres nützliches Tool ist der IONIC Creator: Dieser gibt dem Entwickler die
Möglichkeit, seine Anwendungsoberfläche per Drag & Drop zu erstellen. Dies
bedeutet eine weitere Zeiteinsparung bei der Entwicklung von Apps.
Bei all diesen Vorteilen muss aber auch erwähnt werden, dass die Entwicklung mit
IONIC Programmierkenntnisse voraussetzt.
118 Vgl. Khanna, R., Yusuf S., & Phan, H., (Ionic: Hybrid Mobile App Development), online.
119 Vgl. Khanna, R., Yusuf S., & Phan, H., (Ionic: Hybrid Mobile App Development), online.
Digital Technology Management – Neue Technologien
65
8.3 Die Verwendung von IONIC anhand eines
Beispiels
Das nun folgende Beispiel eines Taschenrechners soll die Möglichkeiten von IONIC
besser erklären und verdeutlichen, wie zeiteffizient man damit arbeiten kann.
Bevor man eine App entwickelt, sollte man sich Gedanken über das zu erwartende
Endprodukt machen. Dabei ist es hilfreich, eine Idee über das Design zu haben.
Daher wurde ein erstes handgezeichnetes Mock-Up der Oberfläche erstellt.
Abbildung 20: Mock-Up - IONIC Calculator App (Brezniak)
Nachdem die Oberfläche für die App soweit definiert wurde, wird nun das Projekt
im IONIC Creator erstellt. Es gibt die Möglichkeit, bei der Erstellung des Projektes
diverse Projekttypen mit einem vordefinierten Aufbau von Seiten zu wählen.
Digital Technology Management – Neue Technologien
66
Abbildung 21: Startbildschirm beim Erstellen einer App (IONIC)
Die nächste Abbildung zeigt den Hauptbildschirm der IONIC-Creator-Oberfläche.
Abbildung 22: IONIC Creator-Oberfläche (IONIC)
Der IONIC Creator bietet eine Drag & Drop-Oberfläche, mit der Sie jede
Komponente auf der linken Seite auf das abgebildete Telefonbild ziehen und fallen
lassen können. Mit Hilfe dieser Funktion werden nun die benötigten Komponenten,
wie etwa das Textfeld für das Ergebnis sowie die Buttons für die Ziffern, in der
gewünschten Reihenfolge auf die Oberfläche gezogen.
Digital Technology Management – Neue Technologien
67
Abbildung 23: APP Erstellung - Summenfeld (Brezniak)
Abbildung 24: APP Erstellung - Hinzufügen von Buttons (Brezniak)
Um nicht jeden einzelnen Button auf die Oberfläche ziehen zu müssen, gibt es die
Möglichkeit, ganze Zeilen zu kopieren. Dies geschieht unter Nutzung des gezeigten
Icons.
Digital Technology Management – Neue Technologien
68
Abbildung 25: APP Erstellung - kopieren von Zeilen (Brezniak)
Abbildung 26: APP Erstellung - Endprodukt (Brezniak)
Nachdem jetzt die grafische Oberfläche soweit erstellt ist, geht es an die Umsetzung
des Programmiercodes für die eigentlichen Funktionen der App, das Rechnen.
In diesem Fall wurde eine Funktion mit drei Hauptteilen erstellt:
• if (btn == 'C') prüft, ob der Löschbutton gedrückt wurde. Ist dies der Fall,
wird das Ergebnistextfeld gelöscht.
Digital Technology Management – Neue Technologien
69
• else if (btn == '=') prüft, ob die ENTER-Taste gedrückt wurde. Wenn dies der
Fall ist, wird das Ergebnis der Rechenfunktion unter Verwendung einer im
Framework vorhandenen Funktion eval() in das Ergebnistextfeld
geschrieben.
• Das else zum Schluss ist der Teil der Funktion, wenn die zuvor definierten
Abfrageteile nicht zutreffen. In diesem Fall wird der Text (z. B. die Zahl bzw.
der Rechenoperand) des gedrückten Buttons im Textfeld angefügt.
Abbildung 27: APP Erstellung – APP-Funktion für die Rechenaufgaben (Brezniak)
Es muss natürlich noch die gerade gezeigte Click-Funktion bei den jeweiligen
Buttons als Aktion hinterlegt werden. Dies geschieht, indem man zum jeweiligen
Button (click)=“btnClicked('C')“ hinzufügt.
Abbildung 28: APP Erstellung - Aufruf der APP-Funktion (Brezniak)
Nach etwas Übung sollte die Erstellung dieser APP für die verschiedenen
Betriebssysteme iOS und Android mit IONIC ca. 30 Minuten in Anspruch nehmen.
Würde man im Vergleich dazu eine native APP mit den jeweiligen
Entwicklungswerkzeugen erstellen, so kann man zumindest das Doppelte an Zeit
veranschlagen, weil die Anwendung im Prinzip zweimal von Neuem erstellt werden
muss. Daraus lassen sich schon sehr deutlich Zeit und Kostenersparnis für das
Unternehmen ableiten.
Digital Technology Management – Neue Technologien
70
9 Ausblick
Das Thema der Digitalisierung in Unternehmen ist eine Herausforderung, der sich
Unternehmen in allen Bereichen stellen müssen, denn der Wandel wird auch vor
dem traditionellen Handwerk nicht haltmachen. Der Grund für die Veränderung
sind die Erwartungen des Kunden an die Anbieter von Dienstleistungen und
Produkten. Die junge Generation kennt es nicht anders und die Älteren erkennen
die Vorteile des Einsatzes von digitalen Inhalten.
Grundsätzlich kann man davon ausgehen, dass folgende Ebenen von der
Digitalisierung betroffen sein werden:
1. Benutzer- und Kundenverhalten
Durch den ständigen Kontakt der Menschen mit den angebotenen Dienstleistungen
und Produkten können diese Personen jederzeit ein kaufrelevantes Verhalten
zeigen. Um dieses Verhalten des Kunden zu nutzen, müssen seitens des Anbieters
die richtigen verhaltenswirksamen Signale gesetzt werden, um die Kaufmotivation
aufrecht zu erhalten. Denn gerade in der neuen, jetzt schon digitalisierten Welt ist
es ein Leichtes, den Kunden an einen anderen Anbieter zu verlieren.
Um den Kunden nicht zu verlieren, sollten Unternehmen Zeit und Geld in die
Aufwertung bzw. Verbesserung der digitalen Kontaktpunkte zwischen
Unternehmen und Kunden investieren.120
2. Unternehmensinterne Prozesse und Schnittstellen
Die Umsetzung des digitalen Wandels in Unternehmen fällt oft schwerer als im
privaten Bereich. Ein Grund hierfür könnte die Schwerfälligkeit von Unternehmen
beim Wandel sein, auch wenn die oft antiquierten Arbeitsprozesse für die
Mitarbeiter demotivierend und hinderlich sind.
Würde man gerade bei internen Abläufen mehr auf Digitalisierung setzten, könnte
man zum einen die Motivation der Mitarbeiter fördern und zum anderen die
Effizienz und dadurch die internen Kosten senken, was wiederum einen
Wettbewerbsvorteil zur Folge hat.121
3. Einführung digitaler Produkte
Die zunehmende Digitalisierung der Gesellschaft wird auch in absehbarer Zukunft
kein Ende nehmen. Im Gegenteil, die Zyklen, in denen sich Innovationen bis zur
Marktreife ausbilden, werden immer kürzer. Aus diesem Grund ist es notwendig,
dass Unternehmen ihre Geschäftsmodelle und Produkte in immer kürzeren
Zeiträumen an die Markgegebenheiten anpassen.
Dabei ist aber der blinde Sprung in den eCommerce nicht immer ratsam, weil der
Aufwand in diesem Bereich oft massiv unterschätzt wird. Man sollte sich gerade in
diesem Bereich einen Überblick über alle Möglichkeiten verschaffen, denn unter
Umständen ist die Anwendung einer alternativen digitalen Struktur passender für
die vorhandene Unternehmensstruktur.122
120 Vgl. Oswald, G. (Digitale Transformation), S. 122-132.
121 Vgl. Oswald, G. (Digitale Transformation), S. 130-140.
122 Vgl. Oswald, G. (Digitale Transformation), S. 50-63.
Digital Technology Management – Neue Technologien
71
4. Digitale Schulung von Mitarbeitern und Führungskräften
Um Vorurteile, wie „Das funktioniert mit unseren Kunden nicht“ oder „Unsere Art
zu arbeiten ist eine andere“, abzuschaffen, bedarf es einer entsprechenden
Schulung der Mitarbeiter. Denn nur das Wissen und das Verständnis digitaler
Transformation bringen die Mitarbeiter und Führungskräfte dazu, die
Möglichkeiten digitaler Produkte und Strategien zu erkennen.
Zusammenfassend kann man daher die eingangs in Abschnitt 4.1 gestellte Frage,
ob Digitalisierung in Unternehmen nur ein vorübergehendes Phänomen ist, wie
folgt beantworten: Die Digitalisierung in Unternehmen wird langsam, aber sicher
kommen bzw. wird diese kommen müssen, um am Markt weiterhin erfolgreich zu
sein. Dies ist unabhängig von Unternehmen, Branche und Größe der jeweiligen
Unternehmen. Dabei gibt es kein Patentrezept für einen erfolgreichen Wandel; es
kommt vielmehr auf Flexibilität und die offene Herangehensweise der
Führungskräfte sowie auf die absehbaren und laufenden Änderungen bzw.
Möglichkeiten an.123
123 Vgl. Oswald, G. (Digitale Transformation), S. 188-192.
Digital Technology Management – Neue Technologien
72
10 Übungsaufgaben
Aufgabe 1: Erläutern Sie, wie sich das Teilgebiet des Informationsmanagements in
die Wirtschaftsinformatik integriert.
Aufgabe 2: Um Kosten im Unternehmen zu sparen, ist eine Virtualisierung von
Applikationen im Gespräch. Was spricht für diese Art der Virtualisierung und was
dagegen?
Aufgabe 3: Eine vorhandene Softwarelösung soll um den Punkt Datenanalyse
erweitert werden. Durch Verwendung welcher Technik können hier Kosten gespart
werden?
Aufgabe 4: Im Unternehmen plant man den Einsatz einer ERP-Software auf der
vorhandenen Hardware. Argumentieren Sie für den Einsatz in einer Cloud-
Umgebung. Berücksichtigen Sie dabei Punkte, wie Sicherheit, Compliance,
Datenschutz und Einbindung interner Hardware.
Aufgabe 5: Beschreiben Sie die Aufgabe von Cloud-Management.
Aufgabe 6: Welche Vorteile bzw. Nachteile bringt der Einsatz von
Standardsoftware?
Aufgabe 7: Inwieweit kann Scrum bei der Einführung einer Standardsoftware im
Unternehmen unterstützen? Erläutern Sie, wann der Einsatz von Standardsoftware
im Unternehmen Sinn macht.
Aufgabe 8: Erläutern Sie den Unterschied zwischen Extreme Programming und
Scrum.
Aufgabe 9: Skizzieren Sie den Ablauf eines Designprozesses im „Design Thinking“-
Ansatz.
Aufgabe 10: Differenzieren Sie den Unterschied von Wireframes und Mock-Ups
und erklären Sie, wann diese zum Einsatz kommen.
Aufgabe 11: Welches Ziel verfolgen die unterschiedlichen
Entwicklungsframeworks? Erläutern Sie den Unterschied zwischen White- und
Blackbox-Framework.
Aufgabe 12: Erarbeiten Sie den Unterschied zwischen einem Application
Framework und dem Domain Driven Design.
Digital Technology Management – Neue Technologien
73
11 Lösungshinweise
Zu Aufgabe 1:
Der Umgang mit Daten spielt schon in der Wirtschaftsinformatik eine wesentliche
Rolle. Das wird auch in der Definition „Wirtschaftsinformatik ist die Wissenschaft
von Entwurf, Entwicklung und Einsatz computergestützter, betriebswirtschaftlicher
Informationssysteme.“ deutlich. Aus dieser Definition lässt sich ableiten, dass es in
der Wirtschaftsinformatik um das Sammeln, Aufbereiten und Darstellen von Daten
geht. Und genau hier vertieft das Informationsmanagement die Sichtweise auf die
Daten. Beim IM versucht man, aus den gewonnenen Daten Schlussfolgerungen zu
ziehen und diese für die verschiedenen Abteilungen aufzubereiten.
Zu Aufgabe 2:
Ziel der Applikationsvirtualisierung ist es, die Anwendungen vom
darunterliegenden Betriebssystem zu entkoppeln. Dies wird durch eine eigene
Abstraktionsschicht erreicht. Die Applikationen werden dann mit den notwendigen
Softwareteilen (Bibliotheken, Libraries etc.) in Container zusammengefasst.
Dadurch ergibt sich der Vorteil, dass die Anwendung ohne großen Aufwand
zwischen verschiedenen Servern verschoben werden kann. Es ist aber auch die
Zuteilung von Ressourcen ohne großen Aufwand möglich. Dies führt zu einer
Kostenersparnis, weil man die Hardware dynamisch an die Anforderungen
anpassen kann.
Zu beachten ist, dass die Umstellung einer vorhandenen OnPremise-Lösung
gegebenenfalls nicht möglich ist bzw. eine Individuallösung einen zusätzlichen
Kosten- und Zeitaufwand mit sich bringt. Es muss auch sichergestellt werden, dass
das nötige Know-how für eine Umstellung bzw. für den späteren Betrieb im
Unternehmen vorhanden ist.
Zu Aufgabe 3:
Um eine bestehende Lösung so kosteneffizient wie möglich um den Punkt der
Datenanalyse, die unter Umständen viel Rechenzeit benötigt, zu erweitern, kann
man auf Webservices zurückgreifen. Diese bieten über standardisierte
Schnittstellen Zugriff auf vorhandene Lösungen.
Zu Aufgabe 4:
ERP-Lösungen können für Unternehmen nicht nur wichtig, sondern auch
lebensnotwendig sein. Und genau hier bietet eine Cloudlösung Vorteile. Einerseits
kann man das Ausfallsrisiko über entsprechende Serviceverträge komplett
auslagern und andererseits können Kosten gespart werden, weil man bei der
Hardware nicht schon in die Zukunft denken/investieren muss. Die notwendigen
Ressourcen, wie Rechenzeit, Speicher, RAM usw., können an die aktuellen
Anforderungen angepasst werden. Der Punkt der Datensicherheit ist zwar immer
wieder ein Thema, aber mit der Auswahl des richtigen Anbieters kann dieses
Argument einfach entkräftet werden. Sollte es notwendig sein, interne Hardware
Digital Technology Management – Neue Technologien
74
einzubinden, so ist das bei den meisten Softwareanbietern kein Problem, weil hier
Schnittstellen zur Verfügung gestellt werden. Es besteht auch die Möglichkeit eines
hybriden Ansatzes, bei dem Teile im Unternehmen auf eigenen Servern laufen, die
Hauptanwendung jedoch in der Cloud.
Zu Aufgabe 5:
Das Cloud-Management kümmert sich um die Kombination von internen und
externen Clouddiensten. Wichtig in diesem Zusammenhang ist aber, dass das
verwendete Tool folgende Features bietet:
• Zugriffs- und Autorisierungsschutz,
• Ressourcenmanagement der gesamten hybriden Cloud-Infrastruktur,
• Finanzmanagement in Verbindung mit den gemieteten Cloud-Services,
• Integrationsmöglichkeiten von relevanten Cloud-Umgebungen sowie auch
internen Services,
• Service-Kataloge, um die Eigenverwaltung der Systeme bestens zu
automatisieren.
Weitere Features, welche die Integration der Services oder auch die Abrechnung
unterstützen, sind Zusatzfunktionen, die unter Umständen die Entscheidung für
oder gegen eine Software beeinflussen.
Zu Aufgabe 6:
Unter einer Standardsoftware versteht man eine Anwendung, welche für den
Massenmarkt erstellt wurde. Der dabei enthaltene Funktionsumfang ist daher auf
den kleinsten gemeinsamen Nenner aller Zielgruppen reduziert.
Der Einsatz einer Standardsoftware hat folgende Vorteile:
• Laufende Weiterentwicklung,
• bequemer Kauf,
• ein umfassender Support ist vorhanden,
• sehr hohe Qualität,
• bessere Dokumentation,
• ausgereifte Benutzeroberfläche,
• schnelle Einführung und dadurch ein Kostenvorteil.
Auch wenn in der Regel die Vorteile überwiegen, gibt es auch Nachteile, wie
beispielsweise:
• Die vorhandene Hardware passt nicht zu den Anforderungen,
• interne Abläufe passen nicht zu den in der Software abgebildeten,
• eventuell hohe Kosten bei der Anpassung.
Digital Technology Management – Neue Technologien
75
Zu Aufgabe 7:
Scrum folgt einem schrittweisen Prozessansatz, bei dem Anwendungen in einem
sich rasch ändernden Umfeld entwickelt bzw. angepasst werden. Dabei folgt man
einem 30-tägigen, sich ständig wiederholenden Entwicklungszyklus. Die Grundlage
für einen solchen Zyklus bilden die sogenannten „Sprints“. In einem Sprint sind die
Anforderungen für den Zyklus definiert.
Dieser Ansatz kann bei der Einführung einer Standardsoftware insofern
unterstützen, weil das Feedback der zukünftigen Anwender regelmäßig im
Implementierungsprozess mitberücksichtigt wird. Dies führt in weiterer Folge auch
zu einer besseren Kundenakzeptanz, weil der Kunde/Mitarbeiter das Gefühl
bekommt, am Implementierungsprozess aktiv mitgewirkt zu haben.
Zu Aufgabe 8:
Da beide Ansätze als Basis das agile Projektmanagement haben, sind sie in ihren
Grundprinzipien ähnlich. Beide gehen von relativ kurzen Entwicklungsphasen aus,
die sich wiederholen, um auf Feedback und den Markt schnell reagieren zu können.
Beim Extreme Programming wird die eigentliche Programmiertätigkeit wieder in
den Vordergrund gestellt. Die Arbeit erfolgt dabei aber nicht allein, sondern im Pair
Programming. Hier wechseln sich idealerweise Aufgaben, Planung und
Programmierung im Team ab. Die Grundlage für jeden Entwicklungszyklus bilden
die sogenannten „User Stories“. Das sind im Grunde kurze Geschichten, die das
gewünschte Feature beschreiben. Diese User Stories werden nur vom Kunden
erstellt und deren Reihenfolge im Projekt sollte keine Rolle in der Entwicklung
spielen.
Beim Extreme Programming sieht der Basisablauf wie folgt aus: Standup Meeting,
Collective Code Ownership, New Functionality bzw. Bug Fixes.
Scrum ist im Grunde nichts anderes als ein schrittweiser Prozess, um Software in
einem unvorhersehbaren Umfeld zu erstellen. Scrum baut auf Sprints auf. Das sind
30-tägige, sich ständig wiederholende Prozesse. Die Basis für Sprints bildet der
sogenannte Product Backlog. Dieser beinhaltet Features, die nach Dringlichkeit
geordnet sind. Features können vom Scrum Master, Product Owner, aber auch von
Teammitgliedern in den Product Backlog aufgenommen werden.
Der Scrum-Ablauf kurz zusammengefasst ist: Product Backlog, Sprint Backlog,
Sprint, Product Increment.
Zu Aufgabe 9:
Der Designprozess im „Design Thinking“ folgt sechs Schritten:
1. Verstehen: Das Problem soll erfasst werden.
2. Beobachten: Kundenanforderungen erarbeiten.
3. Synthese: Strukturierung der unter Schritt 2 generierten Anforderungen.
4. Ideen: Das Team erstellt eine Liste von Anforderungen für das Produkt.
5. Prototypen: Idee durch Wireframe und Mock-Ups zum Leben erwecken.
Digital Technology Management – Neue Technologien
76
6. Testen: Kundenfeedback einholen.
Zu Aufgabe 10:
Wireframes und Mock-Ups kommen beim sogenannten Design Thinking-Ansatz
zum Einsatz. Die Grundlage dieses Ansatzes ist, dass gute Ideen kein Zufall sind,
sondern durch die Zusammenarbeit von unterschiedlichsten Teams entstehen.
Wireframes unterstützen dabei die Designabteilung bei der grundlegenden
Konzeption der Software. Es handelt sich hierbei um eine vereinfachte 2D-
Darstellung der Oberfläche. Es wird hier bewusst auf Details, wie Schriftarten,
Farben oder Bilder, verzichtet, um nicht von der eigentlichen Struktur der
Oberfläche abzulenken.
Mock-Ups sind eine Weiterführung von Wireframes. Hier wird die Struktur von
Informationen und deren Inhalt visualisiert. Die vorhandenen Wireframes werden
also durch die zuvor ausgesparten Designelemente der Schriften, Farben und Bilder
erweitert.
Zu Aufgabe 11:
Das Hauptziel von Frameworks ist es, Grundbausteine für die Entwicklung zur
Verfügung zu stellen. Es geht, vereinfacht gesagt, darum, das Rad nicht ständig neu
zu erfinden. Dadurch wird die Entwicklung von Software maßgeblich vereinfacht
und die Qualität verbessert.
White-Box Frameworks geben dem Entwickler die Möglichkeit, vorhandene
Programmteile zu überschreiben bzw. anzupassen.
Black-Box-Frameworks bieten spezielle Klassen (kleine Programmteile), die
verwendet werden können, ohne dass man deren genauen Aufbau verstanden hat.
Zu Aufgabe 12:
Application-Frameworks bieten eine Möglichkeit, durch „halb-vollständige“
Programmteile die Entwicklung von Software vorteilhaft zu beeinflussen. Diese
Vorteile können eine geringere Entwicklungszeit oder auch eine bessere Qualität
sein. Darüber hinaus sind Punkte wie Modularität, Wiederverwendbarkeit,
Erweiterbarkeit und Kontrolle wichtig.
Beim Domain Driven Design geht es grundlegend darum, die Komplexität des
Unternehmens richtig abzubilden. Denn dies ist oftmals ein weitaus größerer
Stolperstein bei der Entwicklung moderner Software, als die rein technischen
Herausforderungen.
Digital Technology Management – Neue Technologien
77
Literaturverzeichnis
Abts, D., Mülder, W., (Grundkurs Wirtschaftsinformatik), Grundkurs
Wirtschaftsinformatik: Eine kompakte und praxisorientierte Einführung, 9. Auflage,
Wiesbaden 2017
Arens, T., (Methodische Auswahl von CRM Software), Methodische Auswahl von
CRM Software: Ein Referenz-Vorgehensmodell zur methodengestützten
Beurteilung und Auswahl von Customer Relationship Management
Informationssystem, Göttingen 2004
Bayazit, N., (Investigating Design: A Review of Forty Years of Design Research),
Investigating Design: A Review of Forty Years of Design Research, in: Design Issues,
Heft 01/04, S. 16-29
Bettag, U., (Web-Services), Web-Services, in: Informatik Spektrum, Heft 05/01, S.
302-304
Birrer, A., Bischofberger, W. R., Eggenschwiler, T., (Wiederverwendung durch
Frameworktechnik - vom Mythos zur Realität), Wiederverwendung durch
Frameworktechnik - vom Mythos zur Realität, in: Objektsprektrum, Heft 05/95,
S. 1-9
Bharadwaj, A.S., (A Resource-Based Perspective on Information Technology
Capability and Firm Performance: An Empirical Investigation), A Resource-Based
Perspective on Information Technology Capability and Firm Performance: An
Empirical Investigation, in: MIS Quarterly, Heft 01/00, S. 169-196
Bhat, T., & Nagappan, N., (Evaluating the efficacy of test-driven development:
industrial case studies.), Evaluating the efficacy of test-driven development:
industrial case studies., in: ISESE, S. 356-363
Dorn, J., (Planung von betrieblichen Abläufen durch Standardsoftware – ein
Widerspruch?), Planung von betrieblichen Abläufen durch Standardsoftware – ein
Widerspruch?, in: Wirtschaftsinformatik, Heft 42/00, S. 201-209
Evans, E., (Domain-Driven Design), Domain-Driven Design - Tackling Complexity in
the Heart of Software, Boston 2003
Ferstl, O. K.; Sinz, E. J., (Grundlagen der Wirtschaftsinformatik), Grundlagen der
Wirtschaftsinformatik, 7. Auflage, Oldenbourg 2013
Floyd M., Abel A., (Domain-Driven Design Quickly), Domain-Driven Design Quickly,
Morrisville 2006
Gabriel, R., Weber, P., Schreiber, N., Lux, T., (Basiswissen Wirtschaftsinformatik),
Basiswissen Wirtschaftsinformatik, 2. Auflage, Dortmund 2014
Garrett, J., (The Elements of User Experience), The Elements of User Experience -
User-Centered Design for the Web and Beyond, 2nd edition, Berkelley 2010
Görk, M. (Customizing), Customizing, in: Mertens, P. (Hrsg.): (Lexikon der
Wirtschaftsinformatik), Lexikon der Wirtschaftsinformatik, 4. Auflage, Berlin 2001
Gronau, N., (Handbuch der ERP-Auswahl), Handbuch der ERP-Auswahl, Berlin 2012
Hansen, H. R.; Neumann, G., (Wirtschaftsinformatik 1), Wirtschaftsinformatik 1. -
Grundlagen und Anwendungen, 11. Auflage, Stuttgart 2015
Digital Technology Management – Neue Technologien
78
Karsten, H., (Projektmanagement heute), Projektmanagement heute, in: HMD
Praxis der Wirtschaftsinformatik, Heft 02/08, S. 5-16
Kelley, T., (The Art of Innovation), The Art of Innovation - Lessons in Creativity from
IDEO, Profile Books, Main 2016
Kent, B., (Extreme Programming Explained), Extreme Programming Explained -
Embrace Change, 2nd edition, Boston 2004
Khanna, R., Yusuf S., Phan, H., (Ionic: Hybrid Mobile App Development), Ionic:
Hybrid Mobile App Development, Birmingham 2017
Krcmar, H., (Informationsmanagement), Informationsmanagement, 6. Auflage,
Berlin 2015
Mahesh, K., (SOFTWARE AS A SERVICE FOR EFFICIENT CLOUD COMPUTING),
SOFTWARE AS A SERVICE FOR EFFICIENT CLOUD COMPUTING, in: International
Journal of Research in Engineering and Technology, Heft 01/14, S. 178-181
Mertens, P.; Bodendorf, F.; König, W.; Picot, A.; Schumann, M.; Hess, T., (Grundzüge
der Wirtschaftsinformatik), Grundzüge der Wirtschaftsinformatik, 12. Auflage,
Berlin 2017
Müller, H., Weichert, F., (Vorkurs Informatik), Vorkurs Informatik – Der Einstieg ins
Informatikstudium, 4. Auflage, Wiesbaden 2015
Müller, S. C., Böhm, M., Schröer, M., Bakhirev, A., Baiasu, B.-C., Prof. Krcmar, H.,
Prof. Welpe, I. M., (Geschäftsmodelle in der digitalen Wirtschaft),
Geschäftsmodelle in der digitalen Wirtschaft - Studien zum deutschen
Innovationssystem Nr. 13-2016, München 2016
Nefiodow, L.A., (Der sechste Kondratieff), Der sechste Kondratieff - Wege zur
Produktivität und Vollbeschäftigung im Zeitalter der Information, 7. Auflage, St.
Augustin 2014
Olan, M., (Unit testing: test early, test often), Unit testing: test early, test often, in:
Journal of Computing Sciences in Colleges, Heft 19/03, S. 319-328
Oswald, G. (Digitale Transformation), Fallbeispiele und Branchenanalysen, 1.
Auflage, Wiesbaden 2018
Popek, G., Goldberg, R., (Formal Requirements for Virtualizable Third Generation
Architectures), Formal Requirements for Virtualizable Third Generation
Architectures, in: Communications of the ACM, Heft 07/74, S. 412-421
Pree, W., Sikora, H., (Design Patterns for Object-Oriented Software Development),
Design Patterns for Object-Oriented Software Development, in: Proceedings of the
(19th) International Conference on Software Engineering, 05/97, 663-664
Ralph, J., Brian, F., (Designing Reusable Classes), Designing Reusable Classes, in:
Journal of Object-Oriented Programming, Heft 02/88, S. 22-35
Satyanarayana, S., (CLOUD COMPUTING: SAAS), CLOUD COMPUTING: SAAS, in:
Journal of Computer Science and Telecommunications, 04/12, S. 76-79
Scheer, A.W., (Wirtschaftsinformatik), Wirtschaftsinformatik - Referenzmodelle für
industrielle Geschäftsprozesse, 7. Auflage Berlin 2011
Digital Technology Management – Neue Technologien
79
Strassmann, P., (The Business Value of Computers), The Business Value of
Computers: An Executive's Guide, New Canaan 1990
Stratopoulos, T., Dehning, B., (Does successful investment in information
technology solve the productivity paradox?), Does successful investment in
information technology solve the productivity paradox?, in: Information&
Management, Heft 02/00, S. 103-117
Sushil B., Leena, J., Sandeep, J., (CLOUD COMPUTING), CLOUD COMPUTING: A
STUDY OF INFRASTRUCTURE AS A SERVICE (IAAS), in: International Journal of
Engineering and Information Technology, Heft 02/10, S. 60-63
Ted, G. L., (Object-oriented application frameworks), Object-oriented application
frameworks“, London 1995
Viereck A., Sonderhüsken B., (Informationstechnik in der Praxis),
Informationstechnik in der Praxis: Eine Einführung in die Wirtschaftsinformatik,
Wiesbaden 2001
www.netzwerke.com (2018): OSI-Schichten-Modell, URL:
https://www.netzwerke.com/OSI-Schichten-Modell.htm, abgerufen am: 29.
November 2018
Über die nchst
INFORMATIONSETHIK
© ELG E-Learning-Group GmbH
In diesem Wissensmodul erfahren Sie, welche ethischen und moralischen Implikationen die digitale Trans-
formation nach sich zieht. Diskutiert werden Zusammenhänge zwischen Technologie und Freiheit, die Mo-
ral der Disruption und welche Rolle der Staat in einer zunehmend digitalisierten Welt einnehmen soll
Gesellschaftliche Folgewirkungen der Digitalisierung
Informationsethik
zur Plattform I
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS ............................................................................................... II
ARBEITEN MIT DIESEN UNTERLAGEN .............................................................................. III
ERKLÄRUNG DER SYMBOLE: .................................................................................................... III
1 EINLEITUNG .......................................................................................................... 1
1.1 REKAPITULATION: DER BEGRIFF ETHIK .............................................................................. 3
1.2 INHALTLICHE THEMENSETZUNG DER LEHRVERANSTALTUNG ................................................. 11
2 PERMANENTE VERÄNDERUNG AUFGRUND HISTORISCHER BESCHLEUNIGUNG ...13
3 AUSGLEICH ZWISCHEN ÖKONOMIE UND ÖKOLOGIE – DIE EXISTENZBEDINGUNG
IM 21. JAHRHUNDERT ..........................................................................................22
4 UNGLEICHHEIT, PRODUKTIONSFAKTOREN UND EINE MODERNE ROLLE DES
STAATS.................................................................................................................47
5 TECHNOLOGIE UND FREIHEIT – DAS LIBERALE DILEMMA .....................................66
6 DIE MORAL DER DISRUPTION ...............................................................................79
7 FAZIT ....................................................................................................................88
LITERATURVERZEICHNIS .................................................................................................96
Informationsethik
zur Plattform II
Abbildungsverzeichnis
ABBILDUNG 1: BEISPIEL DES MORAL MACHINE FRAGEBOGENS ............................................................ 9
ABBILDUNG 2: ZEITACHSE DER 20 UNTERNEHMEN MIT DEN MEISTEN INTERNETAUFRUFEN IN USA .......... 17
ABBILDUNG 3: ABFOLGE DER INDUSTRIELLEN REVOLUTION ............................................................... 18
ABBILDUNG 4: ENTWICKLUNG DURCHSCHNITTSTEMPERATUR, CO2, MEERESSPIEGEL ............................. 24
ABBILDUNG 5: CO2 KONZENTRATION IN DER ATMOSPHÄRE .............................................................. 25
ABBILDUNG 6: GRÖßENORDNUNG DES CARBONBUDGETS ................................................................. 34
ABBILDUNG 7: GLOBALER ENERGIEVERBRAUCH UND ENERGIETRÄGER................................................. 39
ABBILDUNG 8: CO2 EMISSIONEN ANHAND VON ENERGIETRÄGERN ..................................................... 39
ABBILDUNG 9: UNTERNEHMEN, DEREN PRODUKTE VERANTWORTLICH SIND FÜR DIE MEHRHEIT DES VOM
MENSCHEN VERURSACHTEN CO2 AUSSTOßES ............................................................ 43
ABBILDUNG 10: ENTWICKLUNG DER LOHNQUOTE IN DEN OCED LÄNDERN (HIER BEZEICHNET ALS
ADVANCED ECONOMIES) ..................................................................................... 47
ABBILDUNG 11: MUFFINS ODER CHIHUAHUAS ............................................................................... 71
ABBILDUNG 12: MINUTEN, DIE NUTZERINNEN AUF SOZIALEN NETZWERKEN TÄGLICH VERBRINGEN
(BEZUG: ANDROID NUTZERINNEN IN DEN USA) ....................................................... 75
ABBILDUNG 13: NETWORK-GRAPH - DIE LINIEN ZEIGEN GRUPPENVERBINDENDE RETWEETS AN, DIE FARBE
DER PUNKTE ORDNEN TWEETS ANHAND DER INHALTLICHEN AUSSAGE IHREN POLITISCHEN
PRÄFERENZEN ZU ............................................................................................... 92
ABBILDUNG 14: ILLUSTRATION EINES TAUCHSTUHLS ........................................................................ 93
Informationsethik
zur Plattform III
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wo-
bei an einigen Stellen Symbole und Links zu weiterführenden Erklärungen,
Übungen, und Beispielen zu finden sind. An den jeweiligen Stellen klicken
Sie bitte auf das Symbol – nach Beendigung des relevanten Teils kehren Sie
bitte wieder zum Studientext zurück. Stellen Sie sicher, dass auf Ihrem
Rechner ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Wichtiger Merksatz oder Merkpunkt
Weiterführender Link zu einem Lernvideo in MPEG4
oder einer MP3-Audiodatei
Zusammenfassung
Übungsbeispiel oder Link zu einer interaktiven Übung
.
Informationsethik
zur Plattform 1
1 Einleitung
Die Digitale Transformation konzentriert sich auf zwei zentrale Fragestel-
lungen, die bereits in der Wortfolge angedeutet werden.
‚Digital‘ bezeichnet in diesem Zusammenhang die fortschreitende Techno-
logisierung vermehrter Lebensräume. Als einfaches Schlagwort bezeichnet
‚Digitalität‘ die Technologisierung realer Lebenswelten und Alltagserfah-
rungen. Der Begriff erfasst eine Entwicklung, die sich selbstverständlich
nicht auf kommerzielles oder unternehmerisches Handeln beschränkt.
Stattdessen verändern sich als Folgewirkung der Digitalität die allgemeinen
und umfassenden Lebensverhältnisse radikal und rasant.
Was zur zweiten Dimension führt, die in der Bezeichnung ‚Digitale Trans-
formation‘ zum Ausdruck kommt. Der Ursprung des Worts Transformation
findet sich im Lateinischen. Im Wort Transformation findet sich die Idee
von Formation mitbezeichnet. Formation bedeutet in der lateinischen
Wortwurzel sinngemäß etwas zu bilden, zu gestalten, zu formen. Trans-
formation meint dann die Umwandlung des davor Bestehenden, die Ver-
wandlung, die Veränderung des bereits Geformten. Jede Transformation
symbolisiert konsequenterweise den Wandel des Seienden. Transformati-
on meint im Wortsinn also nicht die Schaffung von Neuem, sondern die
Veränderung von Vorhandenen.
Digitale Transformation führt immer diese beiden Dimensionen und Be-
deutungsstränge zusammen, die sich wirkungsvoll verknüpfen. Digitalität
verantwortet Veränderung und zeitgemäßer Wandel denkt sich immer digi-
tal. Die wahrnehmbaren Folgen dieser Verbindung gehen nun über den
Bedeutungsrahmen hinaus, der für strategische Organisationsentscheidun-
gen allein relevant erschienen. Oder anspruchsvoller gedacht: Nur wer die
gesellschaftlichen Konsequenzen der Digitalisierung konzeptionell zu be-
greifen sucht, kann die Herausforderungen für die eigene Organisation an-
gemessen erkennen.
Drei Begriffsdefinitionen lassen sich unterscheiden:
Digitalisierung meint schlicht den Vorgang, Informationen in Bits und
Bytes abzulegen, damit sie von Computern gelesen werden.
Digitalität meint die Technologisierung unserer Lebenswelt.
Digitale Transformation bezeichnet die unternehmerischen, organisatori-
schen und gesellschaftlichen Folgewirkungen, die durch diese breiten-
wirksamen Phänomene veranlasst werden.
Die tiefgreifenden Umbrüche, die einer verunsicherten Gesellschaft ge-
genwärtig Gestalt geben, verlangen nach vernünftiger Reflexion. Sie bedin-
Informationsethik
zur Plattform 2
gen seitens engagierter BürgerInnen ein Verantwortungsbewusstsein und
Interesse an der Materie, die über den nur scheinbar begrenzten Bezugs-
punkt des eigenen Tätigkeitsbereichs hinausreichen. Wesen und Ausmaß
der digitalen Transformation begründen neue Seins- und Wesensformen
der Gesellschaft an sich. Die Veränderung aktiv zu gestalten, ihre Wirkwei-
se verständnisvoll zu erfassen, um Chancen und Risiken zu ermessen, das
bildet den essenziellen Auftrag an jene Personen, die tätig an der Zukunft
wirken.
Es leitet ein grundsätzliches Verständnis: Fortschritt bündelt sich nicht in
einem Gesamtpaket. Technologischer Fortschritt, der sich so umfassend
abzeichnet, übersetzt sich weder zwangsweise noch notwendigerweise in
politischen oder gesellschaftlichen Fortschritt. Vielmehr bedarf es einer
gewissen Art von Übersetzungsleistung und eines unabhängigen Engage-
ments in allen Bereichen, damit technologischer Progress zur gesellschaftli-
chen Weiterentwicklung führt.
Die Philosophie des aufgeklärten Konservatismus basiert auf der Überzeu-
gung, dass nicht jede Veränderung an sich immer Fortschritt bedeuten
muss. Progressives Denken hingegen sieht in der Zukunft immer ein Ver-
sprechen, dass sowohl Gegenwart als auch Vergangenheit überflügeln wird
– allein schon weil die Zukunft jener zeitliche Horizont ist, der das Resultat
eigenen Engagements ausmacht. Beide Positionen, die aus der Einsicht in
historische Verläufe und Erfahrungen geboren wurden, können dem Nach-
denken über die gesellschaftlichen Umbrüche im Rahmen der digitalen
Transformation Orientierung liefern.
Denn es gilt von den Chancen mutig Gebrauch zu machen, ohne auf naive
Weise die vorhandenen Risiken zu ignorieren, zu übertünchen oder zu ver-
nachlässigen. Vor allem darf das Bewusstsein und die Überzeugung leiten,
dass die digitale Transformation vielversprechende Potenziale für eine bes-
sere Zukunft in sich trägt, wenn ihre vorhandenen Schattenseiten aufrichtig
erkannt werden – und Personen mit aufgeklärtem Geist und abgeklärtem
Verantwortungsbewusstsein sich sinnvoll dafür einsetzen, dass greifbare
Verbesserung realisiert wird.
Dieses Skript beabsichtigt diesbezüglich keine abschließenden oder ganz-
heitlichen Antworten zu liefern. Es möchte vielmehr und stattdessen Denk-
anstöße aufzeigen, welche Herausforderungen sich aus ethischer Perspek-
tive nachweislich aufdrängen und wie diese im Geiste humanen Denkens
angegangen werden können.
Im Zuge einer Lehrveranstaltung, die Inhalte wie diese zu vermitteln beab-
sichtigt, lässt sich keine Trennschärfe zwischen wissenschaftlicher Objekti-
vität und persönlicher Präferenz ziehen. Allein die Auswahl der Themen aus
Informationsethik
zur Plattform 3
einer Fülle von Themenvarianten spiegelt individuelle Gewichtungen selbst
dann ab, wenn die allgemeine Relevanz den eigentlichen Maßstab bilden
soll. Die Deskription solcher Sachverhalte vermittelt immer eine normative
Position mit – die Beschreibung von brisanten Sachlagen transportiert eine
immanente Werthaltung.
Die wissenschaftliche Belastbarkeit der Argumente wird durch Datenmate-
rial garantiert. Quellen werden dabei nachvollziehbar offengelegt, wie es
der Standard wissenschaftlicher Verfahren verlangt. Die Schlussfolgerun-
gen, die gezogen werden, müssen jedoch nicht unbedingt geteilt werden.
Eine wichtige Unterscheidung: Über statistisches Material kann es keinen
Zweifel geben, es beschreibt die Quantifizierung von objektivierbaren
Sachverhalten. Die Rückschlüsse hingegen, die auf dieser Grundlage getrof-
fen werden, versuchen sich im logischen Denken und müssen jedoch nicht
zwangsweise gutgeheißen werden. Es gilt sinngemäß die Wahrheit, die der
US-Senator Daniel Patrick Moynihan einst ausgesprochen hat: „Jeder ist
berechtigt, seine eigene Meinung zu haben. Keiner ist berechtigt seine ei-
genen Fakten zu erfinden.“
Erkenntnis wächst durch Widerspruch und Diskussion. Fakten bilden dafür
die unerlässliche Grundlage, sofern der Diskurs den Mindestanspruch auf-
geklärter Vernunft verfolgt. Eine Anregung für einen faktensatten und zivi-
len Diskurs über gesellschaftliche Zukunftsthemen soll diese Lehrveranstal-
tung liefern, darin besteht ihr Zweck.
1.1 Rekapitulation: Der Begriff Ethik
Die Lehrveranstaltung Informationsethik baut als besondere Voraussetzung
auf den inhaltlichen Grundlagen auf, die bereits in der Lehrveranstaltung
Compliance vermittelt wurden.
Dort wurden einführend die Grundlagen erklärt, was als Ethik faktisch zu
verstehen sei. An dieser Stelle kann deshalb eine prägnante Rekapitulation
genügen, um zu erinnern, was Ethik eigentlich meint. Eine historische Per-
spektive kann helfen:
Den ersten Versuch, ein konzises Verständnis von Ethik zu systematisieren,
unternimmt der griechische Philosoph Aristoteles. Seine wichtigste Studie
zum Thema markiert das Werk Nikomachische Ethik. Aristoteles widmet
den bedeutsamen Text seinem Sohn Nikomachos - daher der ungewöhnli-
che Name. Die Darstellung lässt sich als Handreichung des Vaters an den
Sohn betrachten, wie gut zu wirken sei.
Informationsethik
zur Plattform 4
Was erachtet Aristoteles als richtiges Tun? Seiner Meinung nach findet es
sich immer dort, wo Tugend anzutreffen sei. Tugend repräsentiert, so seine
Analyse, immer den Ausgleich zweier Laster. Sie steht mittig zwischen
Übermaß und Mangel. Tugend findet sich beispielsweise zwischen den Ext-
remen Verschwendung und Geiz. Sie sitzt dort, wo wir auf Freigiebigkeit
treffen. Sie bildet das Zentrum zwischen Schmeichelei und Streitsucht, wird
dort entdeckt, wo Freundlichkeit herrscht. Ethisches Handeln besteht nach
Auffassung von Aristoteles im Ausgleich zweier Gegenpole, in der Mäßi-
gung, in der Unterlassung des absolut Machbaren.
Die Erkenntnis zeigt bereits ein Prinzip, das für die nachfolgenden Diskussi-
onsgegenstände relevant erscheint. Um den Gesichtspunkt umzumünzen:
Nicht alles was (technologisch) machbar wäre, sollte getan werden. Ein
ähnlicher Ansatz regelt vergleichsweise den Umgang unserer Zivilisation
mit Atomwaffen. Die internationale Gemeinschaft würde über die Hand-
lungsoption der atomaren Apokalypse verfügen, ohne bisher von ihr Ge-
brauch zu machen. Eine klare, vernünftige, freiwillige, ethische Selbstbe-
schränkung unserer technologischen Möglichkeiten wird hier abgesichert
durch internationale Verträge und eine transnationale Institution.
Um ethisch zu handeln, verlangt es nach den Grundsätzen von Aristoteles,
also Vernunft und Erkenntnis. Nur durch reflektiertes Begreifen lässt sich
das eigene Verhalten gestalten und zur balancierenden Mitte hin orientie-
ren. Bei all dem lässt Aristoteles über eine Einschätzung keinen Zweifel:
Ethik bildet seiner Meinung nach den einzigen Weg, ein guter Mensch zu
werden, um ein glückliches Leben zu führen. Seit der griechischen Antike
gilt nun auch das Verständnis, dass Ethik eine bewusste Entscheidung vo-
raussetzt und sich von unethischen Handlungen abgrenzen lässt.
Das Mittelalter befördert anschließend ein anderes Konzept im Verständnis
der Ethik. Es gilt in dieser Epoche, das Leben auf die Gefälligkeit Gottes hin
auszurichten. Ethisch handelt, wer durch sich selbst die Werke Gottes voll-
bringt. Ethisch agiert, wer sich selbst zum Werkzeug eines göttlichen Prin-
zips macht, als Instrument einer höheren Instanz arbeitet, finale Rechen-
schaft ablegen wird.
Auch dieser Zugang zur Ethik basiert auf der Überzeugung, dass der
Mensch eigene Entscheidungen trifft, doch agiert er nicht im Namen seiner
selbst, sondern hinsichtlich göttlicher Wirkung.
Von dieser Ausgangsposition kommt schließlich die Aufklärung ab. Sie er-
kennt im Menschen ein autonomes Wesen, das über ein wahrnehmbares
Bewusstsein für einen sittlichen Kodex verfügt. Das Motiv, ethisch zu han-
Informationsethik
zur Plattform 5
deln, existiert, weil der Mensch mit Würde ausgestattet ist, weil wir Rechte
und Pflichten haben, die uns zu richtigem Verhalten anleiten, weil wir auf
Grundlage von Freiheit entscheiden. Wir agieren ethisch, weil auf diese
Weise der eigenen und der universellen Würde des/der Anderen entspro-
chen wird.
Der deutsche Philosoph Immanuel Kant hat uns genau diesen Zusammen-
hang bewusst gemacht. Er hat als Erster entdeckt und begriffen, dass wir
ethisch handeln sollen, um der universellen Würde des Menschen zu ent-
sprechen. Wenn wir ethisch handeln, dann geschieht dies aus freien Stü-
cken, weil wir mit Vernunft ausgestattet sind, die uns richtiges Verhalten
erkennen lässt.
Zusammenfassend: Wir können ethisch handeln, weil uns Vernunft leitet,
und wir sollten ethisch handeln, um der Würde des Menschen zu entspre-
chen. Beides lässt sich begreifen, weil wir als Menschen über die Fähigkeit
der Erkenntnis verfügen.
Die Frage, die sich nun aufdrängt, lautet, wie sich ethisches Handeln er-
gründen lässt. Was gibt den entscheidenden Hinweis darauf? Für Immanuel
Kant lässt sich der moralische Wert einer Handlung ermessen, wenn die
Intention bewertet wird, die eine Handlung veranlasst. Immanuel Kant
schreibt in seiner Abhandlung Metapyhsik der Sitten: „Der gute Wille ist
nicht durch das, was er bewirkt, oder ausrichtet [...] sondern allein durch
das Wollen [...] an sich gut [...].“1 Ethisch verhalten sich Menschen dann,
wenn die Motive, die eine Handlung veranlassen, lauter wären. Nur die
Intentionen, die anstoßen, geben Aufschluss über den moralischen Wert
von Taten. Da Entscheidungen in Handlungsmotiven gründen, müssen die-
se Handlungsmotive allgemeinen Wertvorstellungen entsprechen, um
ethisch zu sein. Nur wenn universellen Prinzipen genügt wird, wird richti-
gen Veranlassungen gefolgt. Immanuel Kant geht in seinem Argument so
weit, dass er keine Ausnahme von der Regel akzeptiert.
Sein Rigorismus wird von Kritikern durch ein exemplarisches Beispiel her-
ausgefordert: Angenommen ein Freund verstecke sich im eigenen Haus,
weil er vor einem Mörder flieht. Der Mörder klopft an die Tür und fragt, ob
man wisse, wo sich der Freund aufhalte. In diesem Fall wäre es doch zwei-
fellos eine ethische Handlung, den Mörder zu belügen und von der Vorga-
be, die Unwahrheit zu verpönen, abzuweichen.
1 Kant (2018), URL.
Informationsethik
zur Plattform 6
Immanuel Kant verneint. Er behauptet, es brauche moralische Bedingungs-
losigkeit. Kein Ausnahmefall kann es erlauben, von grundsätzlichen Devisen
abzuweichen. Wird nur in einem einzigen Fall die Lüge als legitim erachtet,
dann verabschieden wir uns von unumstößlichen Standpunkten und wissen
in Folge nicht mehr, wann gelogen und wann die Wahrheit gesagt wird. Da
die Essenz der Ethik im Grundmotiv des Vorgehens zu eruieren sei, wirken
keine Abweichungen von diesem Prinzip zulässig oder begründbar.
Nachvollziehbar, dass sich in der philosophischen Auseinandersetzung ab-
weichende Haltungen von der Position Immanuel Kants finden. Einen mas-
siven Widerspruch formuliert der Konsequentialismus. Die Idee besagt: Der
moralische Wert einer Handlung bemisst sich nicht nach der Intention,
sondern der Konsequenz einer Tat. Die Wirkung und nicht der Ausgangs-
punkt müssen Entscheidungskriterium sein, um zu ermessen, ob ethisch
gehandelt wird. Ethik wird durch ein Duopol bestimmt. Intentionalismus
steht der Überzeugung des Konsequentialismus entgegen, wie im Skript zur
Lehrveranstaltung Compliance ausführlicher dokumentiert ist.
Fassen wir den Unterschied der Ansätze anhand von zwei illustrativen Bei-
spielen zusammen:
Angenommen wir wären ChirurgInnen in der Notaufnahme eines Kranken-
hauses und es kommt zu einem tragischen Autounfall. Fünf schwer verletz-
te Personen werden ins Spital gebracht. Eine Person erleidet extrem tragi-
sche Verletzungen, sie zu operieren würde den ganzen Tag in Anspruch
nehmen und die anderen vier Personen würden, während wir operieren,
mit Sicherheit ihr Leben verlieren. Oder aber wir operieren die anderen
vier Personen und akzeptieren, dass wir damit die eine Person sterben las-
sen. Wie würde man entscheiden?
Nun verändern sich die Bedingungen. Jemand arbeitet als Transplantation-
schirurgin, ein kerngesunder Patient kommt im Nachbarzimmer zum re-
gelmäßigen Check-up und schläft dort auf der Bank für ein kurzes Nicker-
chen ein. Die Transplantationschirurgin sorgt sich in diesem Moment um
vier Verletze des Autounfalls, die dringend eine Organspende brauchen,
weil ihr Zustand äußerst kritisch ist und sich zusehends verschlechtert. Nun
ließe sich, da sich eine Person im Tiefschlaf befindet, Nutzen daraus ziehen.
Der Person ließe sich Herz, Lunge, Leber, Niere entwenden, um sie den
anderen PatientInnen zu implantieren. Der Tod einer Person wird in Kauf
genommen, um das Leben von den anderen vier zu retten.
Informationsethik
zur Plattform 7
Nehmen Sie sich einen Augenblick Zeit, die eigene Position zu ordnen. Wie
würden Sie entscheiden, wenn Sie ihren eigenen ethischen Überzeugungen
folgen wollen?
Wie entscheiden sich andere im Vergleich, wenn sie ihren ethischen Über-
zeugungen folgen? Erfahrungen zeigen ein eindeutiges, aber kein einstim-
miges Bild.
Im ersten Fall tendiert eine Mehrheit befragter Personen dazu, die vier
verletzten Personen zu operieren und zu akzeptieren, dass die tragisch
schwerverletzte Person sterben würde.
Im zweiten Beispiel hingegen nimmt die Mehrheit der Personen davon Ab-
stand, dem kerngesunden Menschen die Organe zu entwenden, um das
Leben der anderen vier zu retten.
Wie lässt sich im analytischen Rahmen dieser Unterschied reflektieren? Im
ersten Beispiel stehen die tatsächlichen Konsequenzen der Entscheidung
im Vordergrund. Das eigene Handeln wird durch die Rettung der vier be-
gründet.
Im zweiten Fall leiten andere moralische Prinzipien, die kategorisch gelten
und als Begründung vorab Entscheidungen anstoßen. Man müsste bereit
sein, den Tod eines anderen Menschen willentlich herbeizuführen, um vier
andere zu retten. Vor der Handlung wird zurückgeschreckt, weil sie einen
Entschluss voraussetzt, der als unethisch betrachten wird.
Im dem einen Fall motiviert die Konsequenz, in der anderen Situation führt
die anfängliche Intention. Intentionalismus und Konsequentialismus bilden
also keine unumstößlichen Direktiven, sondern sie begründen Verhalten
situationsabhängig und haben beide ihre Berechtigung.
Wo treffen ähnliche Zusammenhänge abseits der theoretischen Überle-
gung auf?
Das deutsche Innenministerium hat vor einigen Jahren einen Gesetzesent-
wurf vorbereitet, der vorsieht, dass entführte Passagiermaschinen abge-
schossen werden dürfen, wenn davon auszugehen ist, dass ein Flugzeug als
terroristische Waffe gegen von Menschen frequentierte Einrichtungen ge-
steuert wird. Der Bundestag hat das Gesetz verabschiedet, das Bundesver-
fassungsgericht es jedoch für nichtig erklärt. Aufgrund der Würde des Men-
schen, die als Grundprinzip im deutschen Grundgesetz verankert ist, kann
nicht Menschenleben mit Menschenleben aufgerechnet werden. Das Bun-
Informationsethik
zur Plattform 8
desinnenministerium reflektierte also auf einer konsequentialistischen Ba-
sis, indem es mathematisch kalkuliert. Es muss der Tod von Menschen her-
beigeführt werden, um andere Menschen zu retten. Das Bundesverfas-
sungsgericht hält eine intentionalistische dagegen, indem es argumentiert,
Menschenleben lässt sich nicht gegen Menschenleben subtrahieren. So
funktioniert unser Verständnis von Würde nicht. Die Idee von menschlicher
Würde wäre laut Grundgesetz kein mathematisches Modell, sondern Wür-
de wäre immer unteilbar und ihre Bewahrung muss oberstes Prinzip staat-
lichen Handelns sein.
Das Massachusetts Institute of Technology führt aktuell eine großangelegte
Studie online durch, an der sich jede/r ohne Vorbedingung beteiligen kann.
Die Untersuchung möchte querschnittsartig herausfinden, was beispiels-
weise von selbstfahrenden Autos erwartet wird, wenn es zu brenzligen
Situationen kommt. Wie soll ethisch entschieden werden? Das ganze Mo-
del baut auf einem konsequentialistischen Fundament auf. Das Experiment
verhandelt ähnliche Fragen, wie die oben gestellte.
Gerade bei der Fragestellung hinsichtlich des gewünschten Verhaltens von
autonomen Vehikeln zeigt sich die Komplexität der Fragestellung, wie mit
autonomisierten Entscheidungen umzugehen wäre. Um ein Beispiel direkt
aus dem Fragebogen zu entwenden, der vom Massachusetts Institute of
Technology konzipiert wurde, sei folgende Situation dargestellt:
Ein selbstfahrendes Auto kann einen Zusammenprall mit tödlichem Aus-
gang nicht abwenden. Es stehen nun zwei Optionen offen. Entweder
rammt das Auto einen Block, der mitten auf der Straße steht und die Insas-
sin verliert das Leben, oder das Auto wechselt intentional die Fahrspur, um
dem Block auszuweichen, überfährt jedoch einen Fußgänger, der die Stra-
ße auf dem Zebrastreifen überquert.
Informationsethik
zur Plattform 9
Abbildung 1: Beispiel des Moral Machine Fragebogens2
Die Situation impliziert faktisch mehrere zentrale Herausforderungen.
Neben der vordringlichen Entscheidung, ob die Fahrspur gewechselt wer-
den soll oder nicht, stellt sich auch die Frage, wer dies festlegen darf. Sollen
Gesellschaften in Form eines gesetzlichen Regelwerks beschließen, wie ein
autonomes Fahrzeug in diesem Fall zu reagieren hat? Braucht es also ge-
setzliche Bestimmungen? Wenn ja, dann müssen konsequenterweise nati-
onale Parlamente darüber befinden und verbindliche Entscheidungen tref-
fen. Das könnte bedeuten, dass bei einer knapp vierstündigen Fahrt von
Wilna nach Riga auf litauischem Gebiet andere Regelwerke gelten könnten
als in Lettland. Also braucht es eher internationale Standards.
Oder wird es den Autoherstellern selbst überlassen, als Unternehmen, ei-
genständige Festlegungen über das Verhalten ihres Autos zu treffen und
diese dann zu bewerben? Wie würden dann Autokäufer darauf reagieren,
dass bei einem Hersteller die Insassen, bei anderen die Fußgänger ge-
schützt würden? Wird das plötzlich zum Wesensgehalt der Kaufentschei-
dung?
Oder aber wird den KonsumentInnen die Entscheidung autonom anheim-
gestellt? Wird heute beim Autokauf beispielsweise darüber befunden, wel-
2 Quelle: http://moralmachine.mit.edu/.
Informationsethik
zur Plattform 10
che Innenausstattung gefällt, dann könnte zukünftig beim Erwerb eines
Autos die individualisierte Ausführung so wählbar sein, dass die Fahrzeug-
halter darüber bestimmen, wie ihr Wagen in einer kritischen Situation wei-
terverfahren würde. Würde sich die Einschätzung ändern, wenn die Besit-
zerInnen eines Fahrzeugs beispielsweise als Eltern das Kleinkind mit dem
Auto zum Kindergarten bringen?
Wie steht es im Falle von Haftbarkeiten bei selbstverschuldeten Unfällen?
Wer trägt dann die Verantwortung – die FahrerInnen, der Hersteller, die
ProgrammiererInnen?
Es zeigt sich, welche komplexe Folgewirkungen ethische Fragestellungen
unter technologischen Zukunftsbedingungen annehmen.
Nehmen Sie sich bitte die Zeit, um den Moral Machine Test zu absolvieren:
Wie soll Ihrer persönlichen Auffassung nach ein autonom fahrendes Auto
entscheiden? http://moralmachine.mit.edu/
Das System des autonomen Fahrens zeigt einen weiteren Entwicklungs-
schritt. Beim regulären Autoverkehr treffen bisher Individuen eigenständi-
ge Entscheidungen. Diese Organisationsgrundlage wird durch die Wirkwei-
se von autonom agierenden Fahrzeugen vollkommen überholt. Anstatt der
Entscheidungen von Individuen, auf denen das System heute beruht, trans-
formiert sich der Personenverkehr zu einem selbstständig denkenden und
organisierenden Gesamtsystem, operierend mit permanentem Datenaus-
tausch. Die digitale Transformation begründet auch hier einen systemi-
schen Wandel.
Während bisher Einzelpersonen, die hinter dem Lenkrad saßen, Informati-
onen durch Sinneseindrücke aufgenommen, kognitiv verarbeitet und dem-
entsprechende Entscheidungen getroffen haben, wird durch vernetzte
Technologie ein verknüpftes Netz zwischen selbstständig agierenden Ma-
schinen in einem sich selbst denkenden Gesamtsystem etabliert. Vernet-
zung und Datenverarbeitung ermöglichen es in diesem Zusammenhang,
separierte Einzelentscheidungen zugunsten eines abstrahierten und algo-
rithmisch kalkulierbaren Gesamtinteresses aufzulösen. Technologie befä-
higt folglich dazu, disparate Informationen in der Form zu aggregieren, dass
sie der Entscheidungsgrundlage für maschinelle Aktionen im kollektiven
Interesse dienen. Die Welt operiert systemischer, weil mehr Daten aufge-
zeichnet und diese durch Algorithmen ausgewertet werden. Das ist ein
ganz anderes Prinzip, als wenn Einzelpersonen aufgefordert sind, eigen-
ständige Entschlüsse im fließenden Straßenverkehr zu treffen.
Informationsethik
zur Plattform 11
Diese Betrachtungsweise führt schließlich auch zum spezifischen Gegen-
stand des Exzerpts zurück.
Ethik begrenzte bisher immer einen humanen Begriff, ausschließlich einge-
grenzt auf den Menschen. Es erschiene sinnlos, das Benehmen eines Fi-
sches, Hunds, einer Schnecke, eines Bleistifts, Zebrastreifens oder Autora-
dios als sittlich zu betrachten. Diese Festlegung basiert auf dem Stand-
punkt, dass die kognitiven Fähigkeiten, die es zur Reflexion voraussetzt, nur
dem Menschen eignen.
Gegenwärtig sehen wir uns mit einem gravierenden Sprung in der Debatte
konfrontiert. Eine Überlegung, die seit ihrem Beginn vor ungefähr 2400
Jahren im antiken Griechenland immer auf den Menschen konzentriert,
wird nun womöglich auf eine andere Intelligenz ausgeweitet: Die Techno-
logie. Dabei scheint bezeichnend, dass Technologie eine Form von Intelli-
genz manifestiert, die ohne Bewusstsein agieren kann. Bisher waren Be-
wusstsein und Intelligenz gekoppelt und immanent verbunden. Nun ent-
steht eine Art von technologischer Intelligenz, die es versteht, ohne Be-
wusstsein zu operieren. Dieser monumentale Bruch mag einer der zentra-
len Gründe dafür sein, warum es aktuell so schwierig zu begreifen scheint,
welche Veränderung der Menschheit hier gerade durch eigene Gestaltung
widerfährt.
Wie damit umzugehen? Wie lässt sich die Idee der Selbstbestimmung und
individueller Entscheidungsfreiheit in Zeiten prognostizierter und kalkulier-
ter Verhaltensweisen verteidigen? Wie wirkt Freiheit, die es für ein Kon-
zept von Ethik braucht, im digitalen Zeitalter? Diese Fragestellungen sollen
systematisch untersucht werden. Welche Themenschwerpunkte dafür ge-
wählt werden, erklärt das nächste Kapitel.
1.2 Inhaltliche Themensetzung der Lehrveranstal-
tung
Fragestellungen zur Informationsethik kennen keine letzten Rückschlüsse.
Nicht nur weil das Prinzip von Ethik keine Eindeutigkeit zulässt, da hier be-
reits zwischen konsequentialistischen und intentionalistischen Ansätzen
entschieden werden muss, sondern weil eigenständige Untersuchungsge-
genstände aufgrund ihrer Besonderheit unterschieden werden müssen. In
Folge untersuchen also die anschließenden Kapitel konkrete Aspekte, die
hinsichtlich ihrer gesellschaftlichen Bedeutung im Rahmen der digitalen
Transformation zu bewerten wären.
Informationsethik
zur Plattform 12
Kapitel 2 bewertet die geschehenden Umbrüche vor einer historischen
Verständnisgrundlage, dabei dokumentiert sich vor allem eine Chronologie
der permanenten Beschleunigung.
Kapitel 3 unternimmt den Versuch, die technologische und ökologische
Debatte zu verknüpfen. Ein gesonderter Fokus wird auf die zentrale Her-
ausforderung durch die potenzielle Klimakatastrophe gelegt. Es wird die
Fragestellung verfolgt, wie die digitale Transformation für die Milderung
der Problematik genutzt werden kann.
Ökologie und die digitale Transformation bilden die zentralen gesell-
schaftlichen Seinsbestimmungen und Seinsformen im 21. Jahrhundert.
Kapitel 4 überlegt, wie die soziale Schieflage, die durch moderne Produkti-
onsmethoden verschärft wird, sich ausgleichen oder wenigstens angemes-
sen denken ließe. In diesem Zusammenhang werden nicht nur die aktuel-
len Differenzen bemessen, sondern die Gegenwart wird in eine historische
Perspektive gesetzt. Eine soziale Perspektive gesellschaftlicher Verände-
rung zeigt sich oder präziser formuliert: Es wird nachvollzogen, wie Techno-
logie als Triebkraft sozialen Wandels auf einer sehr fundamentalen Ebene
wirkt und warum staatlichen Organisationen bei diesen Fortschrittsprozes-
sen eine zentrale Rolle zukommt.
Kapitel 5 analysiert, dass technologische Entwicklungen, wie sie durch Pre-
dictive Analytics erfahrbar werden, das liberale Freiheitsverständnis her-
ausfordern.
Kapitel 6 untersucht abschließend die Fragestellung, welche kritische Ge-
sichtspunkte sich rund um die Wirkweise von disruptiven Geschäftsmodel-
len identifizieren lassen. Welche legalen und legalistischen Implikationen
finden sich hinter den aggressiven Geschäftsmodellen entscheidender
Marktakteure und wie reagieren öffentliche Institutionen darauf? Ist Dis-
ruption also weniger eine Wirkweise als vielmehr eine Ideologie?
All diese unterschiedlichen Ansätze sollen zusammenwirken, um eine soli-
de Basis dafür zu schaffen, final nochmals die gesellschaftlichen Implikatio-
nen dieses Wandels zu bestimmen.
Informationsethik
zur Plattform 13
2 Permanente Veränderung aufgrund histori-
scher Beschleunigung
Speziell die deutsche Geschichtsphilosophie, die im Zeitalter der Aufklä-
rung ansetzt und nach klassischer Auffassung mit Karl Marx schließt, geht
von der Prämisse aus, dass die Geschichte unumwunden und immanent
einem inhärenten Ziel zuschreitet.
Wie in der Lehrveranstaltung Change Management bereits dargelegt, zeigt
sich der Philosoph Immanuel Kant überzeugt, dass der menschlichen Natur
erfahrbare Konfliktpotenziale im sozialen Zusammenleben eingewoben
wären. Denn erst störrischer Widerwille am Bestehenden setzt den Gestal-
tungswillen frei, der jeder Verbesserung vorangeht. Es braucht Missmut
mit dem Vorhandenen, um die Intention zu kreieren, den Stand der Dinge
zu wandeln.
Georg Wilhelm Friedrich Hegel, der zeitlich nach Kant wirkte, sah hingegen
nicht eine Eigenart der menschlichen Natur am Wirken, die den Gang der
Geschichte vorantreibe. Stattdessen vermutete er einen metaphysischen
Weltgeist, der in der Geschichte wirksam wäre. Fortschritt erkannte er als
unumgänglich, weil die Geschichte als Instrument der Vernunft wirke. Die
Vernunft wiederum wird durch die Geschichte selbst zur Wirklichkeit. Alles
was damit Wirklichkeit wird, materialisiert den Fortschritt.
Karl Marx erkennt die Grundlage der wirksamen Veränderungskräfte statt-
dessen weder in individuellen Persönlichkeitsmerkmalen noch in einem
metaphysischen Konzept wie jenem des Weltgeists. Der Philosoph dachte
vielmehr, dass ein antagonistischer Klassenkampf den Fortschritt von Ge-
sellschaften begründe. Die letzte Stufe vor dem zielführenden Abschluss
der historischen Entwicklung machte Karl Marx konsequenterweise im Ka-
pitalismus fest. Denn jede Form von Gesellschaft zeichnet bisher immer
eine Dualität zweier gesellschaftlicher Pole aus, die als herrschende und
beherrschte Klasse im strukturellen Widerstreit stehen. Der Kapitalismus
bildet insofern die vorletzte Stufe dieser Entwicklung, als in seiner Ära Pro-
duktivitätskräfte geschaffen werden, die den Menschen von den Gänge-
lungen durch Entbehrungen befreien. Erstmalig in der Geschichte der
Menschheit werden produktive Kräfte geschaffen, die es erlauben, Mangel
zu überwinden. Durch den Kapitalismus entwickelt sich konsequent ein
Wohlstandsniveau, das es ermöglicht, bisherigen Entsagungen abzuschwö-
ren. Nach Auffassung von Karl Marx wird, von diesem Standard ausgehend,
eine unumwundene kommunistische Revolution zur Abschaffung der Dia-
lektik aus Herrschenden und Beherrschten führen. Erstmal Überfluss er-
zielt, verlangt es seiner Auffassung nach keine Trennung mehr zwischen
Informationsethik
zur Plattform 14
Herrschenden und Beherrschten, denn bei Marx ist gesellschaftliche Macht
immer direkt an die Verfügungsgewalt über ökonomischen Wohlstand ge-
koppelt. Die kommunistische Revolution führt also seiner Auffassung nach
nicht zum Austausch der Herrschenden, sondern zur Abschaffung der Herr-
schaft an sich, weil unter den Bedingungen des Überflusses auch die Moda-
litäten von konventioneller Herrschaft überflüssig werden.
Alle Denker, die im fortschrittsgläubigen 19. Jahrhundert davon ausgingen,
dass Fortschritt unumgänglich wäre, strafte das 20. Jahrhundert Lügen.
Anstatt eines Fortschritts hin zu einem größeren Humanismus und finaler
Freiheit, führte die totalitäre Ideologie des Faschismus in den menschlichen
Abgrund und der real existierende Kommunismus entpuppte sich nicht als
Reich der Herrschaftslosigkeit sondern als Großgefängnis und Unterdrü-
ckungsmechanismus.
Diese gemachten Erfahrungen helfen dabei, die gegenwärtige Situation in
einen reflektierten Kontext zu setzen: Auch das 20. Jahrhundert zeigt we-
sentliche technologische Durchbrüche, die nicht unumwunden und auto-
matisch zu politischen und sozialen Verbesserungen wurden. Fortschritt in
einem Bereich begründet nicht zwangsweise Fortschritte in anderen Berei-
chen. Wie sich technologischer Fortschritt in sozialen, politischen, ökologi-
schen Fortschritt übersetzen lässt, bleibt eine gesondert zu erzielende und
bedeutsame Aufgabe.
Was in diesem Kapitel interessiert, ist weniger das Wesen des Fortschritts
als solches, sondern die permanente Erhöhung der Geschwindigkeit, mit
der Veränderung wirksam wird. Veränderung ist dem modernen Zeitalter
immanent, denn Wandel wirkt als Konstante.
Bereits das Zeitalter vor dem Ersten Weltkrieg lässt sich frappierend mit
der Jetztzeit vergleichen. Die Neuerungen in der Telekommunikation durch
die Erfindung und Verbreitung des Telefons, die intensive Verflechtung des
internationalen Handels, Jahrzehnte der internationalen politischen Stabili-
tät und eine damit einhergehende fatale Unterschätzung von Kriegsrisiken
bei zwischenstaatlichen Konflikten, Neuerungen im Transportwesen, das
Gefühl der technologischen Veränderung und des sozialen bzw. politischen
Stillstands führten zu einem gesellschaftlichen Mix, der schließlich den
Nährboden für die Urkatastrophe des Ersten Weltkriegs bildete.
Das Neuartige an der Jetztzeit liegt folglich nicht in der Technologisierung
der Lebensumstände, auch weniger in der Digitalisierung der vorhandenen
Technologien – der massive Unterschied lässt sich in der Rasanz des Wan-
dels bestimmen und durch die Folgewirkungen dieser Umbrüche ausma-
Informationsethik
zur Plattform 15
chen. Nicht dass Wandel stattfindet, ist also die Besonderheit der Gegen-
wart, sondern wie schnell er agiert. Tiefgreifende Erneuerungen führen
häufig zu nachhaltigen Machtverschiebungen, Hierarchien geraten ins
Wanken.
Anhand vergangener Entwicklungen lässt sich diese Wirkweise dokumen-
tieren.
Die I. Industrielle Revolution, deren operative Grundsätze bereits in ande-
ren Lehrveranstaltungen dieses Studiums dokumentiert wurden, baute auf
der Durchsetzung der Dampfmaschine auf. Diese technische Veränderung
führte in Folge nicht nur dazu, dass England zur führenden Weltmacht auf-
stieg, auch die kontinentalen Wege verkürzten sich durch die Durchsetzung
der Dampfeisenbahn zeitlich. Die Dampfeisenbahn ersetzte mühsame
Überlandreisen in Kutschen. Im ersten Dow Jones Index, der noch vor der
II. Industriellen Revolution gemessen wurde, fanden sich aufgrund der Po-
pularität dieser Reisemethode und ihrer wirtschaftlichen Signifikanz fast
ausschließlich Dampfeisenbahnen – nur das Telegraphenunternehmen
Western Union bildete diesbezüglich eine Ausnahme.
Der Dow Jones Index selbst erfasst einen Aktienindex, der über die Kurs-
entwicklung des Aktienmarkts Aufschluss geben soll, indem die Perfor-
mance der Leitaktien von 30 Unternehmen mit Gewichtung zusammenge-
fasst wird und diese führenden Unternehmen symptomatisch für die Ent-
wicklung der amerikanischen Gesamtindustrie selbst gelten. Berücksichtigt
werden also für den Dow Jones Index vor allem Unternehmen, deren Tätig-
keit als maßgeblich und beispielhaft für die Entwicklung der amerikanische
Volkswirtschaft erscheinen.
Dass der Dow Jones Index maßgeblich durch Dampfunternehmen bestimmt
wurde, war beispielsweise zu Anfang des 20. Jahrhunderts der Fall. In der
kurzen Ära zwischen Jahrhundertwende und vor dem Ersten Weltkrieg, der
1914 beginnt, setzte dann eine Dynamik unterschiedlicher Entwicklung ein,
die durch verschiedene Innovationen begründet wird. Die Dynamiken füh-
ren dazu, dass am Ende des Ersten Weltkriegs im Jahr 1918 nur noch ein
Unternehmen im Aktienindex erfasst wird, das bereits zum Jahrhundertbe-
ginn dazu gezählt wurde: Das Telegraphenunternehmen Western Union,
auch damals schon bekannt für Geldüberweisungen, die sich mittels des
Unternehmens organisieren lassen. Die Dampfunternehmen hingegen wa-
ren mittlerweile allesamt aussortiert. Innovation agiert folglich gnaden-
und rücksichtlos. Sie besorgt nicht nur, dass Neues entsteht, sondern auch
das Bestehendes obsolet wird und unwiederbringlich vergeht, als sich die
Bedürfnisse einer Gesellschaft ändern. Waren im Jahr 1900 also Eisenbah-
Informationsethik
zur Plattform 16
nen noch die bedeutsamsten Unternehmen in den USA, war das knappe
zwei Jahrzehnte später bereits nicht mehr der Fall.
Wird das 20. Jahrhundert durch den Blickwinkel eines anderen US-
amerikanischen Aktienindexes betrachtet, zeigen sich ähnliche Muster und
Auffälligkeiten.
Der S & P 500 erfasst als instruktiver und auskunftsstarker Leitindex die 500
größten börsennotierten US-Unternehmen, ausgewählt anhand ihrer
Marktkapitalisierung. Dabei wirkt es aussagekräftig, wie lange die durch-
schnittliche Erwartungshaltung besagte, dass die Aktie eines Unterneh-
mens als Teil des S & P 500 registriert werden konnte.
Im Jahr 1935 waren es durchschnittlich 90 Jahre, die als Erwartungshaltung
galten, wie lange ein Unternehmen im S & P 500 Index gelistet blieb.
Im Jahr 1955 reduzierte sich dieser Wert bereits auf 45 Jahre.
Im Jahr 1975 sank er auf 30 Jahre.
Im Jahr 1995 waren es nunmehr 22 Jahre.
Im Jahr 2005 sind es dann schließlich noch 15 Jahre, die der Aktie eines
Unternehmens als Verweildauer im S & P 500 zugemessen wird.
Der Bedeutungszeitraum der Relevanz eines Unternehmens sinkt kontinu-
ierlich.
Kräfteverhältnisse und Bedeutungsverschiebungen im Online-Bereich er-
scheinen dabei noch gravierender und rasanter als diese Vergleichswerte
nahelegen. Die untere Abbildung zeigt an, welche 20 Unternehmen in den
USA die häufigsten Internetaufrufe über den Verlauf von zwei Jahrzehnten
auf sich vereinigen. Es handelt sich dabei selbstverständlich um einen an-
deren Referenzwert als durch die Marktkapitalisierung erfasst. Doch besit-
zen unter volkswirtschaftlichen Umständen, die Aufmerksamkeit zu kapita-
lisieren versteht, diese Referenzwerte entscheidende Bedeutung.
Informationsethik
zur Plattform 17
Abbildung 2: Zeitachse der 20 Unternehmen mit den meisten Internetaufrufen in USA3
Die permanente Beschleunigung, denen der Wandel der Gesellschaften in
größeren Zyklen als diesen unterliegt, zeigt sich auch in der Abfolge der
industriellen Revolutionen. Die unterschiedlichen Zyklen, die einer konkre-
ten Entwicklungsstufe der industriellen Revolution zugeschrieben werden
können, verkürzen sich sukzessive. Oder anders formuliert: Die Abfolge der
Entwicklungsschritte beschleunigt sich.
Eine Grafik, entnommen aus der Lehrveranstaltung Digital Business und
Innovationsmanagement, zeigt exakt die immanente Verkürzung dieser
Zyklen an.
3 Quelle: Duden (2019), URL.
Das Internet
Informationsethik
zur Plattform 18
Abbildung 3: Abfolge der Industriellen Revolution
Die technischen Grundlagen der I. Industriellen Revolution bildeten über
einen konstanten und beachtlichen Zeitraum hinweg die federführenden
Standards im Hinblick auf die Praxis industrieller Fertigung.
Die II. Industrielle Revolution repräsentiert demgemäß eine Effizienzsteige-
rung, verursacht durch den flächendeckenden Einsatz von Fließbändern
und der Elektrifizierung von Anlagen. Zwischen den beiden Ansätzen liegt
jedoch mehr als ein Jahrhundert.
Es benötigte dann den ungefähren Zeitraum von sieben kurzen Jahrzehn-
ten, bevor sich die die gängigen Produktionsbedingungen der II. Industriel-
len Revolution durch den Einsatz von EDV erneuerten und die III. Industriel-
le Revolution anbricht.
Weniger als fünf Jahrzehnte, wenn großzügig bemessen, brauchte es dann
schließlich, bevor die Grundlagen der III. Industriellen Revolution sich als
gleichermaßen überholt und veraltet beweisen.
Die Zeiträume zwischen den einzelnen industriellen Entwicklungsschritten
werden zunehmend kürzer. Es lässt sich antizipieren, dass der Sprung von
der IV. Industriellen Revolution zur V. Industriellen Revolution kürzer sein
wird, als jener von der III. zur IV. Der wiederum war kürzer als jener von der
II. zur III. Der wiederum war merklich schneller als jener von der I. zur II.
Immanente Beschleunigung markiert das verbindliche Wirkprinzip.
Worin liegt nun die ethische Komponente dieser zunehmenden Rasanz?
Der Soziologe Hartmut Rosa diagnostiziert der Gesellschaft eine Dichoto-
mie aus Beschleunigung und Entfremdung.
Informationsethik
zur Plattform 19
Hartmut Rosa referiert, dass es vor allem der Faktor Zeit sei, der unsere
gegenwärtige Gesellschaft prägt. Zeit wird persönlich jedoch nur noch als
permanente Beschleunigung erfahren. Hartmut Rosa formuliert entspre-
chend, dass nicht nur der fortlaufende Wandel die definitive Konstante der
Moderne sei. Er erkennt auch, dass sich Zyklen des Wandels permanent
verkürzen.
Joseph Schumpeter analysiert, dass die Marktwirtschaft keine Stabilität
erwirken kann, als ihr der Modus permanenter Erneuerung eingewoben
sei. Innovation wirkt als kontinuierliches Manifest marktwirtschaftlicher
Logik.
Hartmut Rosa präzisiert dieses Verständnis, als er nicht nur das Wesen der
Erneuerung ergründet, sondern auch die Dimension von Zeitlichkeit mitbe-
denkt. Nicht nur dass Innovation die stetige Veränderung des Markts be-
wirkt, sondern die Innovationszyklen verdichten sich. Es lässt sich eine stei-
gende Rasanz des Wandels ausmachen, unaufhaltsam. Das bedeutet, die
Veränderung agierte noch nie so schnell wie in der Gegenwart, wird aber in
Zukunft nie wieder so langsam sein wie heute. Hartmut Rosa vermerkt hin-
sichtlich der definitorischen Eigenart der Moderne:
Eine moderne Gesellschaft ist dadurch gekennzeichnet, dass sie sich nur
dynamisch zu stabilisieren vermag. Was bedeutet, die heutige Gesell-
schaft ist strukturell auf Wachstum, Beschleunigung und Innovationsver-
dichtung angewiesen, um sich zu erhalten und zu reproduzieren.4
Hierin besteht die Paradoxie der gängigen Veränderung:
Eine beschleunigende Dynamik durch Innovation verändert radikal Ange-
bot, Struktur und Produktionserfahrung des Markts.
Simultan erfüllt der Wandel jedoch die Funktion, dass die Grundprinzipien,
auf denen die Gesellschaft aufbaut, überdauern. Die Fortdauer der politi-
schen Ökonomie der Verhältnisse verlangt nach Veränderung. Prägnanter
ausgedrückt: Es muss sich alles wandeln, um die Erwartung zu erfüllen,
dass substanziell alles gleichbleibt. Das immer schnellere In-Bewegung-
Setzen der materiellen, sozialen und geistigen Welt zielt darauf, die beste-
henden Verhältnisse durch Wandel zu stabilisieren. Die Paradoxie liegt da-
rin, dass die eigentlichen Verhältnisse erst durch rasante Veränderung
überdauern werden. Es mögen zwar vier Abfolgen der industriellen Revolu-
tion gezählt werden. Doch sie alle bestärken die Rahmenbedingungen der
industriellen Revolution fortlaufend und unverändert. Sie basieren auf
marktwirtschaftlichem Handel, Unternehmertum, moderner Staatlichkeit,
4 Zit. nach: Kienzler (2018), S. 25.
Informationsethik
zur Plattform 20
Kapitalakkumulation, Konsumlogik. Diese Konstanten überdauern in verän-
derter Form.
Der demokratische Imperativ liegt nun darin, diese immanente Verände-
rung auf gesellschaftlicher Ebene ausgleichend mitzugestalten. Demokra-
tisch verfasste Gesellschaften verstehen es, die Konsequenzen ertragrei-
cher Investitionen und marktwirtschaftlicher Tätigkeit durch Ansprüche
auszugleichen, zu korrigieren, zu verändern und sie als unumgängliche und
legitime Interessen des Gemeinwohls darzustellen.
Im Zusammenhang mit der permanenten Beschleunigung der Jetztzeit
stellt sich also die Aufgabe, eine nunmehr unleugbare und denkbare Kon-
kurrenzsituation im Geiste der zivilen Humanität aufzulösen: Es handelt
sich dabei um das präsente Verhältnis zwischen Mensch und Maschine.
Wenn Mensch und Maschine gegeneinander in einem direkten Konkur-
renzverhältnis stehen, verliert der Mensch, weil er keine ähnlichen Leistun-
gen und Produktivitätssteigerungen erwirken kann, wie es der Maschine
gelingt. Ein solches Verhältnis macht aber auch wenig Sinn und denkt die
Bezüge falsch. Ein kopfrechnender Kassier im Supermarkt wird gegen den
Laserscanner permanent den Kürzeren ziehen. Wenn aber solche Verhält-
nisse geschaffen werden, die diese abstrusen Konkurrenzsituationen in
allerlei Umfeldern determinieren, dann wurde schlicht der Zweck von Ma-
schinen verkannt.
Vielmehr braucht es ein Abhängigkeitsverhältnis, dass die Maschine zum
Erfüllungsgehilfen menschlicher Ambitionen degradiert. Nicht im maschi-
nellen Funktionieren des Menschen, aber auch nicht in der Vermenschli-
chung der Maschine liegt das humanistische Gebot der Zukunft – vielmehr
in der zweckmäßigen und bedarfsgerechten Nutzung von Maschinen durch
den Menschen. Dieses Zusammenwirken zeigt gegenwärtig bereits vielver-
sprechende Potenziale im Umgang mit Künstlicher Intelligenz. Die Produk-
tivität wird gehoben durch das ertragreiche Zusammenwirken von Mensch
und Maschine.
Wie das funktionieren könnte, beweist beispielsweise die gegenwärtige
Weltspitze der Schachspieler. Sie repräsentieren die erste Generation an
Spielern, deren Fähigkeiten seit den Anfängen auch von Computern trai-
niert wurden. Auf diese Weise wurden Intelligenz und Spielstärke im Ver-
gleich zu den alten Großmeistern markant gesteigert.
Die zentrale Fragestellung besteht also darin, ein kooperatives Verhältnis
zwischen Mensch und Maschine zu etablieren, wobei die rechtlichen Rah-
menbedingungen und gesellschaftlichen Bedingungen so zu konstituieren
sind, dass maschinelle Arbeit zum unzweifelhaften Nutzen der Menschen
Informationsethik
zur Plattform 21
geschehen sollte. Wie folglich der maschinell oder digital erwirkte Wohl-
stand sich ansprechend verteilen ließe und welche Redistributionsmecha-
nismen dabei sinnvoll wirksam werden könnten, bleibt eine gesellschaftlich
zu treffende Entscheidung, Ideen und Vorschläge dazu folgen im Rahmen
dieses Skripts noch. Bevor jedoch der Fokus immanent auf Veränderungs-
potenziale und diesbezügliche Konzepte gelegt wird, soll vorab eine andere
Ursache gesellschaftlicher Veränderung skizziert werden und ein Zusam-
menhang mit der digitalen Transformation mitbedacht werden. Das nächs-
te Kapitel konzentriert sich auf die Wirkmacht und die Massivität des Kli-
mawandels und erläutert, wie die Wissensgesellschaft zur Milderung der
sich abzeichnenden Klimakrise beitragen kann.
Informationsethik
zur Plattform 22
3 Ausgleich zwischen Ökonomie und Ökologie
– die Existenzbedingung im 21. Jahrhundert
Um die Auswirkungen des menschgemachten Klimawandels zu verstehen,
setzt es ein Verständnis über das natürliche Phänomen des Treibhausef-
fekts voraus. Erst wenn dieser verstanden wird, lässt sich nachvollziehen,
wie menschliches Handeln dazu beiträgt, diese Wirkung massiv zu verstär-
ken und damit eine natürliche Balance radikal sowie dauerhaft aus dem
Gleichgewicht bringt.
Die schlichte Physik, die dem Treibhauseffekt zugrunde liegt, lässt sich ein-
fach und unkompliziert erklären. Sonnenstrahlung passiert in der Form von
Lichtwellen die Atmosphäre. Die Erde absorbiert diese Energie und strahlt
sie in Form von Infrarot wieder zurück in die Atmosphäre. Ein Teil der
Energie wird jedoch durch die Atmosphäre gespeichert, damit wird die
Erdatmosphäre aufgeheizt. Ohne diesen Treibhauseffekt, ohne die Funkti-
on der Atmosphäre würde die mittlere Temperatur auf unserem Planeten
bei minus 18 Grad liegen, anstatt bei der globalen und bodennahen Durch-
schnittstemperatur von 15 Grad.5 Beim natürlichen Treibhauseffekt han-
delt es sich also um eine Wirkung, die für die Entwicklung organischen Le-
bens auf der Erde unerlässlich zeichnet. Er erlaubt, dass Wasser in flüssiger
Form in natürlicher Umgebung vorkommt und auf diese Weise organisches
Leben entstehen konnte. Der Treibhauseffekt schafft die Voraussetzungen
für jene klimatischen Bedingungen, die unsere Lebenswelt formen.
Ein Gas, das auf natürliche Weise zum Treibhauseffekt beiträgt, ist Kohlen-
dioxid (CO2). Es handelt sich bei diesem farb- und geruchlosen Molekül um
eine chemische Verbindung aus den Elementen Kohlenstoff und Sauerstoff.
Das Molekül besitzt als solches die Eigenschaft, Wärmestrahlungen zu ab-
sorbieren. Genau diese Fähigkeit sorgt dafür, dass CO2 als Treibhausgas
wirkt. Es speichert solare Wärmeenergie und strahlt sie ab.
CO2 kommt schlicht in der Biosphäre vor. Es stabilisiert als solches nicht nur
den Temperaturhaushalt der Erde, sondern gestaltet organisches Leben
selbst. Beispielsweise wird es vom Menschen als Abfallprodukt des Stoff-
wechsels ausgeatmet. Es stabilisiert aber auch den pH-Wert im Blut, hilft
der menschlichen Physis und wird durch die pflanzliche Photosynthese
wieder in Sauerstoff umgewandelt. Der Prozess der Evolution hat diesbe-
züglich ein austariertes und harmonisches System aufgebaut, einen biologi-
schen Kreislauf geschaffen.
5 Vgl. Umweltbundesamt (2014), URL.
Informationsethik
zur Plattform 23
In der Atmosphäre machen die Treibhausgase Kohlendioxid (CO2), Ozon
(O3), Lachgas (N2O) und Methan (CH4) nur einen Bruchteil der vorhandenen
Bestandteile aus. Sie repräsentierten insgesamt nur knapp 0,04 % aller
Stoffe.
Den weitaus größten Anteil der Bestandteile der Atmosphäre bilden zu-
sammengenommen Stickstoff und Sauerstoff. Sie bündeln mehr als 99 %
aller atmosphärischen Komponenten, haben aber auf das Klima keine wei-
tere Auswirkung. Sie sind weder fähig, Wärme zu speichern noch diese zu
absorbieren.
Ein äußerst fragiles Gleichgewicht und eine filigrane Zusammensetzung der
Atmosphäre zeichnen also für die zyklische Stabilität des Klimas verant-
wortlich und begründen die bodennahen Temperaturverhältnisse.
Die massive Problematik setzt an, als dieses natürliche Gleichgewicht durch
menschliche Aktivität rasant und wirkmächtig zum Kippen kommt, sie aus
der Balance gebracht wurde. Dabei ist das Klima als solches weder dauer-
haft stabil noch gleichbleibend, sondern es ändert sich zyklisch.
Die Zyklen jedoch, die dabei beschritten werden, vollziehen sich in planeta-
rischen Intervallen. Diese sind schlicht anders als zivilisatorische oder gar
kulturelle Zeithorizonte.
Natürliche Klimaveränderungen bilden sich im Laufe von Jahrtausenden.
Das Muster von fallendem und steigendem CO2-Gehalt in der Atmosphäre,
dass sich weit zurückliegend nachweisen lässt, vollzieht sich als natürliches
Phänomen über den Spielraum von Jahrtausenden.
Weil CO2 wesentlich bei der Speicherung und Verteilung von Hitze wirkt,
korrespondiert die Konzentration von CO2 unmittelbar mit der globalen
Durchschnittstemperatur. Die genaue Rückdatierung und Rückberechnung
veränderlicher Klimaszenarien lässt sich mittels Bestimmung der Auswer-
tung von Sauerstoff-Isotopenstufen im Rahmen von Eiskernbohrungen er-
rechnen, die im antarktischen Eis vorgenommen wurden. Analysen, die auf
Grundlage der gehobenen Materie durchgeführt werden, lassen mittler-
weile präzise Kalkulationen über die klimatischen Entwicklungen der letz-
ten 800.000 Jahre zu und die ermittelten Temperaturen zeigen den unmit-
telbaren Zusammenhang mit der nachweisbaren Konzentration an CO2 an.
Für den Zeithorizont der letzten 800.000 Jahre erweisen sich nachfolgende
Trendkurven. Es darf bei der Betrachtung der Grafik auf der nächsten Seite
mitbedacht werden, dass die ältesten Fossilien, die über die Ursprünge des
Homo Sapiens informieren, knapp 300.000 Jahre alt wären.
Informationsethik
zur Plattform 24
Die Dokumentation der klimatischen Bedingungen reicht also weit vor den
Beginn unserer menschlichen Spezies zurück. Es ergibt sich eine recht sim-
pel verständliche Äquivalenz. Je mehr CO2 sich in der Atmosphäre kon-
zentriert findet, umso höher die gemessene bzw. erforschte Durchschnitts-
temperatur. Je kleiner die CO2 Menge in der Atmosphäre, desto geringer
die Durchschnittstemperatur. An diesen Abhängigkeiten und Entsprechun-
gen gibt es keinen relevanten wissenschaftlichen Zweifel.
Die Rückschlüsse selbst sind deshalb möglich, weil sich in der Antarktis
Schneemengen befinden, die den gesamten Zeitraum rückeruieren und
überbrücken lassen. Anhand dieser Bestände lassen sich die wechselhaften
Zusammenhänge zwischen CO2 und Temperatur aufgrund von Sauerstoff-
Isotopen und Schneeeigenschaften mittels ausgereifter wissenschaftlicher
Verfahren bestimmen. Wie also wirken die Trends? Die Grafik gibt Antwort
darauf.
Abbildung 4: Entwicklung Durchschnittstemperatur, CO2, Meeresspiegel6
Es zeigt sich nahezu eine Gleichförmigkeit der Verläufe zwischen CO2, der
Durchschnittstemperatur und der Höhe des Meeresspiegels.
Seit Beginn der industriellen Revolution wurde dieser Trend durch den
Menschen nun mächtig verschoben. Dafür verantwortlich zeichnet die
Verbrennung von fossilen Energieträgern wie Erdöl, Erdgas und Kohle. Die-
6 Nelles/Serrer (2018), S. 33.
Informationsethik
zur Plattform 25
se Vorgangsweise veränderte die chemische Konstitution der Atmosphäre
binnen kurzer Jahrhunderte. Denn Erdöl, Erdgas und Kohle enthalten über-
proportional viel CO2, das durch Verbrennung freigesetzt wird.
Fast 80 % des globalen Primärenergieverbrauchs wird gegenwärtig durch
die Verbrennung von fossilen Energieträgern gedeckt. Das führt nicht nur
zur Freisetzung von CO2, das vorher in den unterirdischen Lagerstätten der
Ressourcen gebunden war, sondern auch zur Ablagerung von CO2 in der
Atmosphäre.
Jeden Tag verursacht menschliches Handeln, dass 110.000 Millionen Ton-
nen an hitzeabsorbierender und treibhausaktiver Verschmutzung in die
Atmosphäre gepustet werden und dort verbleiben. In Konsequenz führt
das zu massiven Folgewirkungen. Heute bereits misst sich eine Dichte und
Menge an CO2 in der Atmosphäre, wie sie im Verlauf der letzten 800.000
Jahre nicht festgestellt werden konnte. Die Grafik unten, publiziert von der
NASA, die als Organisation eine eindrückliche Forschung zum Sachverhalt
des Klimawandels leistet, zeigt einen Zeithorizont von 400.000 Jahren auf:
Abbildung 5: CO2 Konzentration in der Atmosphäre7
Die gegenwärtige Konzentration von CO2 in der Atmosphäre zeigt eine
Dichte, die für die letzten 400.000 Jahre nicht einmal nachgewiesen wer-
den kann. Seit Beginn der menschlichen Spezies lässt sich kein ähnlicher
hoher Wert nachprüfen. Hauptursache dieser Tendenz: Die Verbrennung
von kohlenstoffhaltigen fossilen Energieträgern durch den Menschen.
Bei diesem nachweisbaren Effekt handelt es sich weder um eine Laune der
Natur, noch um einen ungewöhnlichen Ausreißer, der chemische Gesetz-
mäßigkeiten in Frage stellt. Stattdessen lässt sich die Folge davon beobach-
ten, wie die wachsende Verbrennung von fossilen Energieträgern seit Be-
7 NASA (2019), URL.
Informationsethik
zur Plattform 26
ginn der industriellen Revolution zur zunehmenden Ablagerung von CO2 in
der Atmosphäre führte.
Wie wird denn CO2 eigentlich gemessen? Die Konzentration wird in Refe-
renz gesetzt: wenn eine Million durchschnittlicher Bestandteile aus der
Atmosphäre genommen werden, wie viele davon sind CO2 Moleküle? Da-
her der Ausdruck parts per million (ppm) – Bestandteile pro Million.
Laut Auskunft der NASA bemisst sich der Stand mit Januar 2019 auf 410
ppm. Im Verlauf der Erdgeschichte der letzten 800.000 Jahre und innerhalb
der entsprechenden natürlichen Zyklen, die für langfristige Klimaverände-
rungen verantwortlich zeichnen, wurde nach Erkenntnissen wissenschaftli-
cher Forschung nie der Wert von 300 ppm überstiegen. Eine natürliche
Veränderung um 100 ppm benötigt normalerweise zwischen 5.000 und
20.000 Jahren. Der aktuelle Anstieg um 100 ppm hat hingegen nur 120 Jah-
re benötigt, der Anstieg von 408 auf 409 hat dann nur noch 26 Wochen
gebraucht – auf natürliche Weise würde eine solche Veränderung den Zeit-
rahmen zwischen 50 und 200 Jahren beanspruchen.
Die Brisanz der Entwicklung besteht darin, in welch kurzem Zeitraum ein
Teil der Menschheit es erwirkt hat, die zyklische Konstanz klimatischer
Trends aus der langfristigen Balance zu stürzen. Seit Beginn der industriel-
len Revolution intensiviert sich der Energiebedarf, der weitreichend auf der
Verbrennung fossiler Energieträger beruht. Die Moderne gründet bisher
auf einer direkten Proportionalität: Durch ansteigendes Wirtschaftswachs-
tum wächst der Energiehunger von Volkswirtschaften. Die bedeutsame
Aufgabe besteht jetzt darin, diese Tendenzen und Wirkmechanismen von-
einander zu entkoppeln. Warum liegt darin ein gesellschaftlicher Auftrag?
Der Anstieg der CO2 Konzentration in der Atmosphäre führt zwangsläufig
zu einem Temperaturanstieg mit fatalen Konsequenzen. Steigende Tempe-
raturen verursachen den Anstieg des Meeresspiegels, Küstenlagen drohen
unbewohnbar zu werden.
Der Meeresspiegel steigt aufgrund unterschiedlicher Faktoren: Zum einen
wirkt das thermodynamische Gesetz, dass sich wärmende Gegenstände
schlicht ausdehnen. Wird also das Ozeanwasser wärmer, dehnt es sich
aus. Zum anderen führen das Abschmelzen von Gletschern und der Arktis
durch die Erwärmung zur Verflüssigung von Wassermengen, die bisher als
Eis gebunden waren. Je intensiver die Erderwärmung voranschreitet, um-
so vehementer wird sich diese Folgewirkung zeigen.
Einige amerikanische Banken weigern sich bereits, Hypothekarkredite für
Immobilien in Miami Beach zu gewähren. Das Risiko, dass sich die belehn-
ten Grundstücke innerhalb der Laufzeit der Kredite einfach in Sumpfland
Informationsethik
zur Plattform 27
verwandeln, wirkt zu wahrscheinlich und unvermeidlich. Wetterkapriolen
werden extremer, Schäden durch Schlechtwetterfronten nehmen signifi-
kant zu. Land, das sich zum landwirtschaftlichen Anbau eignet, nimmt ab.
Wüsten dehnen sich aus. Klimatische Extremsituationen belasten die
menschliche Physis. Viren und Krankheitsträger können in Regionen aus-
gemacht werden, die bisher nicht davon berührt waren.
Die beschleunigte Veränderung der klimatischen Umstände geschieht in
einem Tempo, sodass die Evolution darauf nicht angemessen reagieren
kann. Für die Artenvielfalt zeitigt die Wirkung der globalen Erwärmung
enorme Konsequenzen. Manche Tierarten verlieren ihr natürliches Habitat,
das erlaubt, Futter zu finden und sich fortzupflanzen. Manche können sich
retten, indem sie entlang der Verschiebung von Klimazonen weiterwan-
dern. Für Pflanzen und auf dem Land lebende Tiere kann beispielsweise
belegt werden, dass sie mittlerweile innerhalb eines Jahrzehnts elf Meter
in die Höhe und etwa siebzehn Kilometer Richtung Pole wandern. Sie fol-
gen also den klimatischen Bedingungen und Klimaregionen. Nicht alle
schaffen diese Wanderung oder können sie antreten, vorhersehbare Folge
wäre ein Artsterben, wie es in den letzten 540 Millionen Jahren der Evolu-
tionsgeschichte schlicht fünf Mal geschehen ist. Nur wenige Organismen
können sich an unterschiedliche klimatische Bedingungen adaptieren –
unter anderem die Ratte, der Mensch, die Kellerassel und der Rabe.8
Über die nächsten acht Jahrzehnte könnte die Hälfte aller existierenden
Spezies aussterben, die heute den Planeten bewohnen. Evolutionsge-
schichtlich gilt es als erforscht, dass über den Verlauf der großen Erdzeital-
ter mittlerweile 99,5 % aller Spezies ausgestorben sind. Das Ende von Le-
bensarten ist also nicht nur vorstellbare, es ist evolutionsgeschichtliche
Erfahrung. ForscherInnen sprechen mittlerweile vom sechsten großen
Massenaussterben, das in diesem Jahrhundert erlebt wird. Das letzte Ar-
tensterben einer vergleichbaren Größenordnung fand vor 66 Millionen
Jahren statt, als die Kreidezeit zu Ende ging. Damals schlug ein zehn bis
fünfzehn Kilometer großer Asteroid auf der Halbinsel Yukatan ein. Dieser
Vorfall zerstörte eine ganze ökologische Welt, als unmittelbare Folge davon
gilt beispielsweise das Aussterben der Saurier. Von einer ähnlichen Wir-
kung für die Ökologie sprechen aktuell WissenschaftlerInnen, wenn das
Ausmaß des durch den Menschen verursachten Klimawandels auf die Bio-
sphäre begriffen werden soll.
Besonders betroffen von den klimatischen Verheerungen zeigen sich dabei
die Ozeane. Sie sind es, die den Großteil der zusätzlichen Energie, die durch
8 Blom (2017), Kindle Version.
Informationsethik
zur Plattform 28
den menschverursachten Klimawandel auf der Erde gehalten wurde, auf-
genommen haben.
Das sind nur einige Folgewirkungen, die im Rahmen der globalen Erwär-
mung bereits vorfallen. Das einflussreiche Think Tank World Economic Fo-
rum analysiert vor der Jahrestagung in Davos sowohl im Jahr 2017 als auch
im Jahr 2018, dass das größte Risiko für die Weltwirtschaft und die
Menschheit von Wetterkapriolen ausgehen würde, die der Klimawandel
verantwortet. Dieses Phänomen wirkt in seiner Gesamtheit bedrohlicher
als zwischenstaatliche Konflikte oder Cyberangriffe.
Das sind nur einige Aspekte, die durch den Klimawandel hervorgerufen
wurden. Die voraussehbaren Verheerungen sind umfassender, komplexer,
universeller und gleichermaßen radikaler. Der Klimawandel bildet ein Uni-
versalphänomen, der vielfältige gesellschaftliche und biologische Bereiche
berührt, verändert, herausfordert.
Wie also handeln und weiterdenken im Angesicht dieses Szenarios? Ein
ungebremster CO2 Ausstoß, die schonungslose Verbrennung fossiler Ener-
gien, beschleunigt durch das rasante Wachstum der Weltwirtschaft, das
vor allem durch den Aufstieg der Entwicklungsländer verstärkt wird, könnte
bis zum Ende des 21. Jahrhunderts einen Temperaturanstieg um 5 Grad
Celsius verantworten. Die Massivität des Temperaturunterschieds lässt ein
bezeichnender Vergleichswert begreifen. Der Unterschied zwischen dem
heutigen Klima und der letzten natürlichen Eiszeit, die ungefähr vor
115.000 Jahren begann und vor 15.000 Jahren endete, bemisst sich durch-
schnittlich auf 6 Grad. Darin beweist sich mittlerweile der Extremismus der
Normalität.
Zur Pragmatik wird, was dem 1,5 Grad Ziel dient. Das oft zitierte 1,5 Grad
Ziel wurde im Pariser Klimaabkommen festgelegt.
Das 1,5 Grad Ziel im Pariser Klimaabkommen besagt, dass die durch-
schnittliche Erderwärmung bis zum Ende des Jahrhunderts auf 1,5 Grad
Celsius gegenüber dem vorindustriellen Zeitalter eingedämmt werden
soll. Das wäre Idealziel. Falls das nicht erreicht wird, dann müssen als
letzte Obergrenze 2 Grad gelten.
Der Weltklimarat, dessen nobelpreisgekrönte Arbeit darin besteht, für poli-
tische Entscheidungsträger auf internationaler Ebene den Stand der wis-
senschaftlichen Forschung zum Klimawandel zusammenzufassen, errech-
net, dass noch ein Zeitfenster bis ins Jahr 2030 offen wäre, um die extre-
men Folgeschäden präventiv zu verhindern und das 1,5 Grad Ziel zu errei-
chen. Dafür braucht es jedoch eine grundlegende Umkehr.
Informationsethik
zur Plattform 29
Seit Beginn der industriellen Revolution wurde also der Anteil an CO2 in der
Atmosphäre durch die Verbrennung von fossilen Energieträgern markant
gesteigert, vor allem seit Ende des Zweiten Weltkriegs hat der globale Aus-
stoß an von Menschen verursachten CO2 radikal zugenommen.
Dabei sollte immer reflektiert werden, dass nur ein Bruchteil des freige-
setzten CO2 vom Menschen verursacht wird. Den weitaus größten Teil setzt
die Natur selbst frei. Die Menge, die aber durch natürliche Prozesse freige-
setzt wird, versteht die Natur wieder zu absorbieren und aufzubereiten. Es
hat sich hier ein Gleichgewicht etabliert, das nun durch die menschliche
Aktivität aus der Balance gebracht wird. Der zusätzliche CO2 Ausstoß, der
vom Menschen zu verantworten ist, lässt sich nicht durch den etablierten
Kohlenstoffkreislauf verarbeiten, ein Großteil davon verbleibt also in der
Atmosphäre, da die Kapazitäten der natürlichen Absorption überfordert
werden. Den natürlichen CO2 Ausstoß kompensiert die Natur durch pflanz-
liche Photosynthese und Absorption in den Ozeanen. Faktisch absorbiert
sich auf natürliche Weise sogar mehr CO2 als auf natürliche Weise emittiert
wird. Was aber vom natürlichen Kohlenstoffkreislauf nicht mehr vollkom-
men verarbeitet werden kann, ist die schlichte Menge an anthropogenen,
also menschverursachten Treibhausgasen. Folglich: Die Atmosphäre wird
vom Menschen zur Müllhalde für CO2 Ablagerungen degradiert, die sein
eigenes Handeln verantwortet.
Die unmittelbare Reaktion besteht darin, dass auf größere CO2 Konzentra-
tionen ein Temperaturanstieg zwangsweise folgt. Das geschieht unver-
meidbar, doch für das menschliche Zeitverständnis mit Verzögerung, denn
Unmittelbarkeit bezeichnet in diesem Fall planetarische Zyklen. Wie die
Abbildung 4 oben anzeigt, folgt der Trendentwicklung von CO2 die Tendenz
der Durchschnittstemperatur. Das ökologische System agiert jedoch mit
verlängerten Reaktionszeiten. Das bedeutet, die konsequenten und un-
ausweichlichen Folgewirkungen des bereits jetzt vorhandenen CO2 werden
noch in Jahrhunderten und Jahrtausenden eine verschärfte Erderwärmung
zu verantworten haben. Diese Reaktionszeit sorgt auch dafür, dass nicht
die unmittelbaren Verursacher von den massivsten Verheerungen betrof-
fen sind, sondern die nachfolgenden Generationen den Schaden tragen
werden. Diese Zeitverzögerung erhöht die Komplexität des Problems um
ein weiteres ethisches Dilemma.
Um die bedrohliche Entwicklung zu verlangsamen und ihr schließlich Ein-
halt zu gebieten, einigte sich die Weltgemeinschaft beim Klimagipfel in Pa-
ris im Jahr 2015 darauf, den globalen Temperaturanstieg auf 1,5 Grad ge-
genüber dem Beginn des Industriezeitalters zu begrenzen. Wenn die 1,5
Grad nicht erreicht werden, dann wird als zweites Ziel eine Grenze von 2
Grad Erwärmung alternativ angeführt. Eine Erwärmung um 2 Grad würde
Informationsethik
zur Plattform 30
laut Einschätzung zu Verheerungen und Umbrüchen im merklichen, doch
überschaubaren Ausmaß führen. Jede weitere Erwärmung wäre mit sich
exponentielle Risiken für die Weltgemeinschaft, die internationale Entwick-
lung und die Natur behaftet. In diesem Wissen gründet der ratifizierte Ver-
such und die Verpflichtung, die Erderwärmung zu begrenzen. Dabei gilt es
auch zu verstehen, dass eine globale Erwärmung um 1,5 Grad nicht statisch
bedeutet, dass sie in allen Weltregionen gleichermaßen erwartet werden
kann, dass es schlicht 1,5 Grad gegenüber dem vorindustriellen Zeitalter
wärmer würde. Eine Erwärmung um 1 Grad im Bereich des Äquators be-
deutet faktisch eine Erwärmung um 3 Grad in der Arktis, denn das globale
Klima konstituiert sich durch unterschiedliche Zusammenhänge und kom-
plexe Abhängigkeiten. Eine Schwierigkeit in der Berechnung und Vorhersa-
ge der weiteren Folgen zeigt sich genau darin, dass es eine wesentliche
Herausforderung symbolisiert, wie die existierende klimatische Systematik
durch Trendveränderungen sich wandeln wird. Gerade Big Data und die
Anwendung Künstlicher Intelligenz tragen zum besseren Verständnis bei,
liefern immer akkuratere Berechnungen und Prognosen.
Wenn also der immanente Zusammenhang zwischen Digitalisierung und
dem Klimawandel bedacht wird, zeigt sich hier bereits eine wesentliche
Verknüpfung. Das beweist Wirksamkeit nicht nur für Vorhersagen über
perspektivische Entwicklungen, sondern es hilft beispielsweise im Ver-
ständnis von drohenden Wetterkapriolen. Wie genau wird der Kurs eines
Hurrikans sein? Welche Regenmengen sind in einer Region zu erwarten?
Das alles lässt sich aufgrund der verfügbaren Datenverarbeitung mit viel
exakterer Präzision vorherbestimmen als dies lange der Fall war. Diese
computergestützten Analysemethoden retten Leben. Die materiellen
Schäden durch Naturkatastrophen nehmen kontinuierlich zu. Der Verlust
an Menschenleben kann jedoch aufgrund präziser, datenbasierter Berech-
nungen, die zum besseren und antizipativen Verständnis von Wetterereig-
nissen entscheidend beitragen, minimiert werden und durch das Handeln
staatlicher Organe effektiv eingeschränkt werden.
Ein anderer Zusammenhang, der sich zwischen moderner Technologie und
dem Klimawandel ausmachen lässt, besteht in einer sehr grundlegenden
Reflexion über das Thema: Der Klimawandel repräsentiert eine nicht inten-
dierte, doch unmittelbare und konsequente Folgewirkung der Industriege-
sellschaft. Der massenhafte Ausstoß von CO2 reflektiert die Art und Weise,
wie die Industriegesellschaft produziert, sich fortbewegt, Energie konsu-
miert, Waren verbraucht, Produktionsprozesse organisiert, sich ernährt,
sozial interagiert. All diese Faktoren begründen das Phänomen. Wenn also
die Industriegesellschaft die Ursache für den ungebremsten Klimawandel
bildet, dann könnte ein progressiver Weg vorwärts in der Überholung der
Informationsethik
zur Plattform 31
Industriegesellschaft selbst liegen. Der Ausweg mag in einer radikalen Ver-
änderung hin zu einer innovationsgetriebenen Wissensgesellschaft liegen.
Technologischer Fortschritt geht im Regelfall mit weniger Energiever-
schwendung, besserer Nutzung von vorhandenen Wertschöpfungspotenzi-
alen und intelligenteren Technologien zusammen. Im Rahmen der digitalen
Transformation ökonomischer Prozesse und sozialer Interaktion stellt sich
genau diese Frage, wie die Neuerungen zur ökologischen Trendumkehr
effektiv beitragen können – alles würde selbstverständlich auf der Voraus-
setzung basieren, dass Gesellschaften den willentlichen und demokrati-
schen Entschluss fassen, Veränderung zu gestalten, um Nachhaltigkeit zu
erwirken. Die technologischen Entwicklungen und die freigesetzten Innova-
tionspotenziale gerade bei der alternativen Energiegewinnung verantwor-
ten verstärkt, dass auf fossile Energieträger kontinuierlich verzichtet wer-
den kann. Die Produktionskosten von alternativen Energien sinken rapide,
die Kostenstruktur von fossilen Energieträgern erscheint dabei nicht mehr
kompetitiv.
Im Jahr 2018 analysiert das deutsche Finanzunternehmen Wermuth Asset
Management, dass eine Kilowattstunde Solarenergie mittlerweile in Dubai
2 Cent kostet, in der Bundesrepublik kostet sie 6 Cent. Bei diesem Preisni-
veau wäre Erdöl faktisch nur bei einer Kostenstruktur von 4 Dollar/Barrel
kompetitiv.9 Auf für den Energiemarkt gilt, was bereits für den Bereich der
Produktion und des Handels festgestellt werden durfte: Der intelligente
Einsatz moderner Technologien führt zu tiefgreifenden Umbrüchen. Tra-
dierte Verfahrensmuster und Produktionsmechanismen, die ein Markt-
segment bisher strukturierten, werden erneuert. Die technischen und wis-
sensbasierten Grundlagen, um folglich von den fossilen Energien abzukeh-
ren, sind vorhanden. Diese grundlegende Transformation des Energiesek-
tors wirkt weder simpel noch geradlinig, aber sie erscheint möglich und vor
allem geboten. Der Wandel lässt sich auch nicht isoliert betrachten. Er re-
präsentiert einen Bestandteil der umfassenderen Transformation, die sich
gesamtgesellschaftlich vollzieht. Nur wenn der Umbau in den größeren
Zusammenhang selbstdenkender Systeme, interagierender Netze und au-
tomatisierter Kommunikation eingebettet wird, erschließt sich die Relevanz
und eigentliche Größenordnung der absehbaren Veränderung.
Es sind mittlerweile entscheidende Kräfte im Markt, die den Prozess zur
nachhaltigen Trendumkehr voranbringen und auf die wahrnehmbaren
Entwicklungen reagieren. Dieser Zugang eröffnet auch eine legitime Inter-
pretation, um Signifikanz und Funktion des Klimaabkommens von Paris zu
9 Erdöl wird in der Mengenangabe „Barrel“ gehandelt. Barrel steht für Fass und entspricht
einer Quantität von 159 Litern Rohöl.
Informationsethik
zur Plattform 32
erklären. Denn zweifellos lässt sich die gegenwärtige Epoche als kyberneti-
sches Zeitalter begreifen. Durch die Verarbeitung und Übermittlung von
Information werden Soll-Zustände herbeigeführt. Bewusste Kommunikati-
on veranlasst gewünschtes soziales Handeln. Der Markt agiert dabei als
Instanz, der Information verarbeitet und Reaktionen gemäß eigener Er-
kenntnis initiiert. Er veranlasst Reaktionen und Handlungsweisen entspre-
chend vorhandener Kenntnisse. Wie Friedrich August von Hayek analysiert
hat, agieren Märkte als Aggregate, um Information prozessual zu verarbei-
ten. Aus holistischer Perspektive werden isolierte Entscheidungen Einzelner
durch strukturelle und komplexe Verflechtungen zu einem konsequenten
Gesamtprozess zusammengeführt, der als Ganzes den Markt konstituiert.
Auf diese Weise, mittels Verbindung von Einzelakten, erzeugt die Gesell-
schaft Wissen über vorhandene Bedürfnisse und entsprechende Reaktio-
nen werden diesbezüglich veranlasst.
Angesichts dieser Verständnisperspektive lässt sich das Klimaabkommen
von Paris auf Grundlage des folgenden Interpretationsansatzes verstehen:
Es handelt sich um eine bewusst gesetzte Botschaft, formuliert von der
internationalen Staatengemeinschaft, adressiert an die Finanzmärkte, dass
die Erdöl- und Erdgasindustrie sukzessive abgewickelt werde. Die kodifi-
zierten Ziele, die in diesem internationalen Vertrag klar definiert werden,
lassen sich quantifizieren und rückrechnen. Wenn folglich der Verpflich-
tung entsprochen werden soll, dass bis zum Ende des Jahrhunderts die ma-
ximale Erderwärmung auf 1,5 Grad gegenüber dem vorindustriellen Zeital-
ter begrenzt wird, dann wird die Menge an Treibhausgasen, die der
Mensch noch ausstoßen darf, signifikant limitiert. Auch eine Begrenzung
der Erwärmung um 2 Grad würde dem möglichen Treibhausgasausstoß
enge Grenzen setzen.
Der potenzielle Treibhausgasausstoß lässt sich direkt in Verbindung set-
zen zur Menge an fossilen Energieträgern, die verbrannt und anschlie-
ßend in der Atmosphäre abgelagert werden können. Ein Großteil der
heute bekannten Reserven an fossilen Energieträgern muss deshalb un-
genutzt bleiben. Wird also die Vorgabe von 1,5 Grad eingehalten, dann
dürfen beispielsweise nur noch 2 % der vorhandenen Reserven faktisch
verbrannt werden. Sollen die weit kritischeren 2 Grad bis zum Ende des
Jahrhunderts erreicht werden, dann dürfen insgesamt nur rund 20 % der
gegenwärtig vorhandenen fossilen Energieträger zur treibhausgasemittie-
renden Energiegewinnung herangezogen werden.
Beim 1,5 Grad Ziel erscheinen also 98 % aller fossilen Energiereserven als
gegenstandslos.
Informationsethik
zur Plattform 33
Beim 2 Grad Ziel kalkulieren sich 80 % aller fossilen Energiereserven als
wertlos.
Der Sachverhalt, auf den seitens unterschiedlicher Analysten und öffentli-
cher Institutionen aufmerksam gemacht wird, besteht darin, dass die mo-
mentane Kapitalisierung in diesen Märkten auf Annahmen und Berechnun-
gen baut, die sich nicht als realisierbare erweisen lassen. Warum? Die
Marktkapitalisierung von Erdöl- und Erdgaskonzernen hängt im Wesentli-
chen mit der Menge an Ressourcen und Reserven zusammen, die durch
vertragliche Ansprüche als Eigentum der jeweiligen Unternehmen gelten.10
Nur ein Bruchteil dieser Reserven lässt sich jedoch in Zukunft tatsächlich
fördern und verbrennen, wenn der internationalen Klimavereinbarung von
Paris entsprochen werden soll. Die faktischen Kosten, wenn sich die heuti-
gen Investitionen im Erdöl- und Erdgasmarkt als Gewinne realisieren sollen,
wären die ökologische Verheerung der Erde für die nächsten Generationen.
Im Zuge der letzten Finanzkrise, die ihren Ausgang damit nahm, dass un-
haltbare Immobilienpreise im US-Häusermarkt abgeschrieben werden
mussten, kam es zu einer Wertberichtigung von 4 Billionen US-Dollar. Die
Krise bestand essenziell in der Vernichtung dieser Vermögenswerte und
den Folgewirkungen, die sich in fataler Zwangsläufigkeit daraufhin einstell-
ten.
Die Überbewertung des Erdöl- und Erdgasmarktes, basierend auf den Kal-
kulationen rund um das Pariser Klimaabkommen, werden beispielsweise
von der Nachrichtenseite ThinkProgress im Jahr 2012 auf 22 Billionen Dol-
lar beziffert.11 Das wäre die zu erwartende Größenordnung der anstehen-
den Wertberichtigung. Die Summe berechnet sich anhand der verfügbaren
Menge eines Carbonbudgets, dass in die Atmosphäre geblasen werden
kann, um die definierten Klimaziele zu erreichen. Dieser Wert lässt sich
dezidiert auf die Größenordnung umrechnen, wieviel Erdöl und Erdgas folg-
lich noch verbrannt werden dürfen. Im Jahr 2012 zeigt sich folgendes Bild:
10 Der Unterschied zwischen Reserven und Ressourcen besteht darin, dass Reserven alle
Mengen an fossilen Energieträgern sind, die sich gegenwärtig kostendeckend fördern
lassen. Ressourcen hingegen bemessen die Größe aller vorhandenen und bekannten
Vorkommen, die ein Erdöl- und Erdgaskonzern in den natürlichen Lagerstätten vermu-
tet. Es werden also auch jene Mengen in diese Kennzahlen miteingeschlossen, die sich
nicht kostendeckend fördern lassen.
11 Vgl. Johnson (2012), URL.
Informationsethik
zur Plattform 34
Abbildung 6: Größenordnung des Carbonbudgets
Der Großteil dieser vorhandenen Ressourcen zeigt sich nun substanzlos.
Aufgrund eng begrenzter Nutzmöglichkeiten sind sie faktisch wertlos und
damit erheblich überbewertet. Eine massive Wertberichtigung darf erwar-
tet und existierende Vermögenswerte müssen entsprechend vernichtet
werden. Der damalige Gouverneur der Bank of England, Mark Carney, er-
klärte bereits im Jahr 2014 im Rahmen eines Seminars bei der Weltbank,
dass „die große Mehrheit der fossilen Energieträger nicht verbrannt wer-
den kann.“12 Er formuliert eine ausdrückliche Botschaft, die von relevanten
Marktteilnehmern leicht angemessen interpretiert werden kann. Die Stadt
New York City, ein entscheidendes globales Finanzzentrum, hat mittlerwei-
le den Entschluss gefasst, öffentliche Pensionsgelder nicht mehr in fossilen
Energiewerten zu binden und die Investments sukzessive zu reduzieren.
Die Stadtregierung von London hat einen ähnlichen Beschluss gefasst. Bei-
de Städte fordern auch offen alle anderen Städte auf, die gleiche Entschei-
dung zu treffen.13 Die beiden maßgeblichen Bankenzentren der Welt ver-
ständigen sich also darauf, ihre öffentlichen Investments in fossile Energie-
träger abzuziehen und neu zu veranlagen. Das geschieht nicht nur aus mo-
ralischen Motiven und ethischen Impulsen, sondern auch aus nachvollzieh-
barem, finanziellem Kalkül und einem sorgsamen Umgang mit öffentlichen
Geldern. Das Finanzunternehmen Citigroup kalkuliert, dass Werte in der
Höhe von 100 Billionen Dollar als Stranded Assets zu qualifizieren wären,
wenn die Verpflichtungen des Pariser Klimaabkommens eingehalten wer-
den. In diese Berechnung fließen nicht nur die überhöhten Wertannahmen
für die unbrauchbaren Ressourcen ein, sondern auch die überflüssige Infra-
12 Zitiert nach Shankleman (2014), URL.
13 Vgl. de Blasio/Khan (201), URL.
Informationsethik
zur Plattform 35
struktur, die damit verbunden ist, wertlose Patente und nutzlose Förderan-
lagen werden miteinkalkuliert.14
Die Wirtschaftswissenschaft spricht mittlerweile von Stranded Assets,
wenn die Überbewertungen im fossilen Energiemarkt schlagend werden.
Stranded Assets sind Vermögenswerte, die unerwartete oder vorzeitige
Abschreibungen, Abwertungen oder Umwandlungen in Verbindlichkeiten
erfahren, weil umweltbezogene Risiken zur Wertberichtigung führen.
Die Citibank rechnet folglich mit der umfangreichsten Wertberichtigung
der modernen Geschichte, die erwartet werden muss. Es handelt sich eben
um Stranded Assets, also um Vermögenswerte, die sich durch unvorherge-
sehene oder vorzeitige Abschreibungen, Abwertungen oder Umwandlun-
gen in Verbindlichkeiten nicht amortisieren und einen beschleunigten
Wertverlust aufgrund von Umweltrisiken erleiden. Ursache dieser Entwick-
lung kann maßgeblich die Wirkweise der schöpferischen Zerstörung sein,
wie sie Joseph Schumpeter beschrieben hat. Das würde nun für den Ener-
giemarkt ansehnlich zutreffen. Durch innovative Lösungen werden beste-
hende Verfahren obsolet. Innovation erwirkt Erneuerung und Bestehendes
wird wirkungslos, die damit verbundenen vorhandenen Werte werden ge-
genstandslos. Bei der Abwicklung der Erdölindustrie stellt sich also die Fra-
ge, wie effektiv und rapide die Kräfte des Markts als Verfahren nachhaltiger
Veränderung wirksam werden. Weil es sich hier um eine Auseinanderset-
zung handelt, an deren Ende entweder die Abwicklung der mächtigen Pet-
rochemie steht oder die Fortsetzung einer industriellen Produktionsweise,
die zum unvermeidbaren ökologischen Kollaps führt, wird die Auseinander-
setzung so intensiv zwischen den involvierten Parteien geführt.
Die Menschheit hat eine massive Menge an CO2, Methan und anderen
Treibhausgasen durch Verbrennung in die Atmosphäre abgelagert, um die
Lebensweise auf Grundlage industrieller Produktion zu schaffen. Mittler-
weile findet sich ein solches Ausmaß an zusätzlichen Treibhausgasen in
der Atmosphäre abgelagert, dass stetig mehr Sonnenenergie dort ver-
bleibt. Das führt zum menschverursachten Klimawandel, der sich rapider
verwirklicht, als wenn natürliche Klimazyklen wirksam wären.
Der Zusammenhang aus moderner Technologie und der ökologischen De-
batte liegt in einem anderen Zusammenhang darin, dass der technologi-
sche Fortschritt dafür benötigt wird, ausgediente Formen der Energiege-
winnung radikal zu überholen. Nur technologisch ausgefeilte Verfahren, die
neben der Energiegewinnung auch neue Formen der Mobilität und innova-
tive Produktionsverfahren einschließen, die in hochindustriellen Ländern
14 Vgl. Parkinson (2015), URL.
Informationsethik
zur Plattform 36
gleichermaßen angewandt werden, wie sie sich in Entwicklungsländern
flächendeckend durchsetzen, werden die Menschheit instand setzen, die
schlimmsten und düstersten Auswirkungen dieses bedrohlichen Phäno-
mens zu schmälern, teils sogar zu verhindern. Die Transformation wirkt
maßgeblich und hat laut aktueller Berechnung rasant zu geschehen.
Ein anderes Zusammenspiel zwischen Ökologie und digitaler Transformati-
on zeigt sich in der faktischen Bedeutung neuer Technologie als Investiti-
onsmöglichkeit. Je schneller investiertes Kapital aus den fossilen Energie-
märkten abzieht, weil sich die Gewinnaussichten schmälern, desto dringli-
cher verlangt es andere Veranlagungsformen, die ein Versprechen auf die
Zukunft bilden. Exakt dieses Versprechen bündelt sich in moderner Techno-
logie. Sie repräsentiert ein Investitionsversprechen, das vernünftige Veran-
lagungen rechtfertigt. Durch diese Bewegung wiederum werden die For-
schungsbudgets neuer Technologien konstant erhöht, was die Entwicklung
fortschrittlicher Innovationen wahrscheinlicher macht.
Ein letzter Aspekt findet sich im gesellschaftlichen Überbau verankert, der
sich in der anstehenden Transformation abzeichnet. Die Möglichkeiten der
IV. Industriellen Revolution kündigen die Wahrscheinlichkeit eines Wandels
an, der seine eigentliche und substanzielle Ausgestaltung in Form der Wis-
sensgesellschaft finden wird. Wertschöpfung basiert größtenteils auf wis-
sensbasierter Arbeit. Selbst die Mehrheit der Tätigkeiten im industriellen
Umfeld wandeln sich von klassischer, körperbetonter Industriearbeit hin zu
Bürotätigkeiten. Produktionsverfahren wandeln sich radikal, die Arbeits-
welt verändert sich, eine graduelle Entkopplung zwischen Erwerbstätigkeit
und Einkommen lässt sich denken. Die Prinzipien, auf denen die Industrie-
gesellschaft gründet, überholen sich also und werden durch andere Grund-
lagen ersetzt. Das Versprechen wirkt gerade für Staaten, die bisher vom
Import fossiler Energieträger abhängig waren, verlockend. Sie möchten die
Trendumkehr schaffen. Speziell bei mächtigen Volkswirtschaften, wie jene
des europäischen Binnenmarkts oder Japans, trägt der Energieimport
merklich zum negativen Ergebnis der Leistungsbilanz bei. Es besteht also
ein politisches Interesse, diese Verhältnisse umzukehren.15
Sowohl die Realität des Klimawandels als auch die Fortschritte in der Tech-
nologie manifestieren radikale Agenten des Wandels, sie erneuern die
Grundstruktur der Gesellschaft fundamental. Aufgrund des technologi-
schen Fortschritts steht die menschliche Zivilisation vor dem historischen
Bruch, dass Gegenstände, die im Alltag genutzt werden, in konkreter und
15 Die Leistungsbilanz ist jene Kennziffer, die besagt, wie viele Exporte den Importen einer
Volkswirtschaft gegenüberstehen.
Informationsethik
zur Plattform 37
funktionaler Hinsicht schlauer agieren, als es Menschen können. Das Ver-
hältnis zwischen Mensch und Gegenstand ändert sich radikal. Durch den
Klimawandel wird nun die Beziehung zwischen Mensch und Umwelt neu
ausverhandelt. Die Idee des Anthropozän wird stetig plausibler.
Das Anthropozän meint die erdgeschichtliche Epoche, die sich gegenwär-
tig im Anbruch befindet, in der das menschliche Handeln einen entschei-
denden Einflussfaktor auf die biologischen, geologischen und atmosphä-
rischen Prozesse manifestiert.
Aus ethischer Perspektive erwächst den Menschen die Verantwortung, sich
dieser Konsequenz des eigenen Handelns bewusst zu werden. Ethik wächst
innerhalb des ökologischen Bedeutungsrahmens zu einem Verständnis, der
einen erweiterten Verständniszusammenhang referieren wird. Diese Erwei-
terung gilt es, im menschlichen Bewusstsein zu erwirken, um die Folgewir-
kungen des eigenen Tuns zu begreifen.
Eine weitere expansive Tendenz der Ethik liegt exakt darin, dass nun Ma-
schinen Handlungen verantworten, die eine moralische Auswahl verant-
worten können. Ethik braucht sowohl Eigenständigkeit für Entscheidungen
als auch autonomes Handeln in kritischen Situationen auf Grundlage kriti-
scher Reflexion. Bei einem autonom fahrenden Auto treffen diese Voraus-
setzung zu, weil auf Basis sensorisch erfasster Daten und Rückschlüssen,
durch einen wirksamen Algorithmus eine bewusste Auswahl an unter-
schiedlichen Möglichkeiten getroffen werden kann. Diese Entscheidung
verlangt nun nach einem moralischen Fundament und bewirkt die Frage-
stellung, wer für die Festlegung dieser moralischen Standards verantwort-
lich zeichnen soll.
Mit dieser Transformation, die durch moderne technologische Entwicklung
verantwortet wird, verbindet sich auch ein sozialer Umbruch, der sich ge-
genwärtig gesellschaftlich statistisch ausmachen lässt. Was das nun genau
besagt und wie möglicherweise darauf reagiert werden kann, soll ein
nächstes Kapitel versuchen, komprimiert zu analysieren.
Abschließend zu diesem Kapitel: Seit Beginn der industriellen Revolution
bis zum Jahr 2015 hat die Weltgemeinschaft eine solches Ausmaß an fossi-
len Brennstoffen verbrannt, das vom ökologischen System nicht abgebaut
werden konnte, sodass sich 365 Milliarden Tonnen an zusätzlichen Kohlen-
stoffen in der Atmosphäre abgelagert haben. Hinzu kommen noch 180 Mil-
liarden Tonnen, die durch die Entwaldung verursacht werden. Für das Be-
zugsjahr 2015 gilt, dass allein in diesem Jahr 9 Milliarden Tonnen an
menschverursachten Kohlenstoffen in der Atmosphäre abgelagert werden,
die jährliche Steigerungsrate liegt bei bis zu 6 Prozent.
Informationsethik
zur Plattform 38
Wird der Trend ungebremst fortgesetzt, dann darf bis zur Mitte des Jahr-
hunderts kalkuliert werden, dass der Anteil von CO2 in der Atmosphäre auf
500 ppm anwachsen wird. Dieser Wert ergäbe eine Verdoppelung gegen-
über der vorindustriellen Epoche. Die Folgewirkungen lassen sich konse-
quent und logisch antizipieren: Ein rasanter Anstieg der Temperaturen
führt zu Verschärfung natürlicher Kippeffekte, Gletscher und das arktische
Eisschild schmelzen, der Meeresspiegel steigt, Wetterextreme nehmen zu.
Was in dieser Aufzählung nur zu leichtfertig vergessen wird, wäre der Kau-
saleffekt dieser Tendenzen auf die Ozeane.
Das Meer nimmt Gase aus der Atmosphäre auf und gibt dann im Wasser
gelöste Gase auch wieder ab. Sofern das in Balance geschieht, wird die
gleiche Menge aufgenommen wie ausgestoßen. Wenn sich nun die chemi-
sche Zusammensetzung der Atmosphäre verändert, weil der Bestand an
Kohlendioxid in der Atmosphäre steigt, dann gerät dieses Gleichgewicht in
Schieflage. Die Ozeane nehmen in Folge mehr Kohlenstoffe auf, als sie ab-
stoßen können. Damit verändert sich die Konsistenz des ozeanischen Was-
sers, der Säure-Basen-Haushalt gerät in Schieflage.
Durch diese zusätzliche Kohlendioxidzufuhr ist der durch-
schnittliche pH-Wert des Oberflächenwassers der Meere
bereits von 8,2 auf 8,1 gefallen. Da die pH-Skala logarith-
misch ist, steht selbst eine so geringe Differenz des Zah-
lenwertes für eine erhebliche Veränderung in der realen
Welt. Eine Abnahme um 0,1 bedeutet, dass die Meere nun
dreißig Prozent saurer sind als im Jahr 1800. Nach einem
„Weiter-wie-bisher“ -Emissionsszenario […] werden die
Meere [bis zur Jahrhundertmitte, Anm.] um hundertfünf-
zig Prozent saurer sein als zu Beginn der industriellen Re-
volution.16
Dieser Bruch hätte zur Folge, dass die Ozeane sich als Habitat des organi-
schen Lebens massiv verändern und die neuen Bedingungen ein Umfeld
bilden, an das sich wenige Arten in der Rasanz werden anpassen können.
Das hat natürlich auch kritische Folgewirkungen für Volkswirtschaften, de-
ren Einkommen essenziell von den Ozeanen abhängt. Diesen düsteren
Konsequenzen ließe sich mittels grundlegender Transformation der Ener-
giegewinnung und einer anders operierenden Ökonomie entgegenwirken.
16 Kolbert (2015), S. 119 f.
Informationsethik
zur Plattform 39
Wie tiefgreifend sich der Wandel des Energiesektors realisieren muss, zeigt
die Grafik unten, die den globalen Energieverbrauch auf die Energiequellen
zurückführt. Die Angaben auf den Skalen entsprechen Terawatt-Stunden.
Abbildung 7: Globaler Energieverbrauch und Energieträger17
Dieser Energiemix, der die enorme Abhängigkeit von fossilen
Energieträgern anzeigt, übersetzt sich nun in den Ausstoß von CO2-Emissio-
nen, die verursacht werden.
Abbildung 8: CO2 Emissionen anhand von Energieträgern18
17 Grafik: Ritchie/Roser (2019), URL.
18 Grafik: Ritchie/Roser (2017), URL – Solid Fuel: z.B. Kohle, Liquid: z.B. Erdöl, Flaring: Abfa-
ckeln von Gasen.
Informationsethik
zur Plattform 40
Es zeigt sich auf der Zeitachse, wie sehr die I. Industrielle Revolution noch
nahezu ausschließlich auf der Nutzung von Kohle basierte, während im
weiteren Verlauf der II. Industriellen Revolution die Nutzung von Erdöl kon-
tinuierlich ausgeweitet wurde.
Worin liegt also die zentrale Verantwortung im Rahmen der digitalen
Transformation im Hinblick auf eine mittelfristige Perspektive? Der Welt-
klimarat, kurz IPCC, hat diesbezüglich konkrete Berechnungen erwirkt, die
Orientierung liefern. IPCC steht als Akronym für die Bezeichnung Inter-
governmental Panel on Climate Change. Wie bereits oben erwähnt, aber
hier nochmals zur Erinnerung:
Der Weltklimarat bildet eine zwischenstaatliche Organisation, die unter
dem Dach der Vereinten Nationen agiert. Der Auftrag, dem die Organisa-
tion nachzukommen hat, besteht darin, für politische Entscheidungsträ-
gerInnen den wissenschaftlichen Stand der Forschung bezüglich der Er-
kenntnisse des Klimawandels konzis zusammenzufassen. Im Jahr 2007
wurde dem Weltklimarat in Anerkennung seiner Bemühungen der Frie-
densnobelpreis verliehen.
In regelmäßigen Abständen veröffentlicht der Weltklimarat Studien, die
prägnant den aktuellen Erkenntnisstand der Wissenschaft zusammenfas-
sen, um damit auch eine breite Öffentlichkeit darüber zu informieren, was
über das Phänomen gewusst wird und wie ihm beizukommen wäre.
Die Berichte unterscheiden zwei Strategien, die jeweils andere Ansätze
darstellen, aber erst in der Kombination eine angemessene Reaktion erlau-
ben.
Die zwei strategischen Ansätze, die helfen sollen, mit dem Klimawandel
umzugehen, werden mit den Schlagworten Vermeidung und Anpassung
bezeichnet.
Vermeidung (englisch: mitigation) meint in diesem Zusammenhang alle
effektiven Maßnahmen, die getroffen werden, um die Situation nicht
weiter zu verschlimmern. Es handelt sich also um die notwendige Wende
in unterschiedlichen gesellschaftlichen Feldern, um die Klimaänderung zu
begrenzen.
Anpassung (englisch: adaption) bezeichnet alle konstruktiven Maßnah-
men, die gesetzt werden, um auf unvermeidbare und eintretende Folgen
des Klimawandels möglichst angemessen zu reagieren.
Die Kosten für diese Maßnahmen lassen sich den Kosten gegenüberstellen,
die ein ungebremster Klimawandel verursachen würde. Eine Studie, die
ursprünglich von der britischen Regierung in Auftrag gegebenen wurde und
Informationsethik
zur Plattform 41
im Jahr 2006 unter Federführung des ehemaligen Chefökonomen der
Weltbank, Nicholas Stern, veröffentlicht wurde, beziffert den Gesamtauf-
wand, den der ungebremste Klimawandel verursachen würde im Extremfall
auf 20 % des globalen Bruttoinlandsprodukts. Die Kosten der notwendigen
Maßnahmen, um die CO2 Emissionen zu begrenzen, werden mit rund 2 %
des globalen Bruttoinlandsprodukts veranschlagt.
Hinter den ökonomischen Kennziffern verbergen sich auch harte Fakten,
die menschliche Lebensrealitäten formen und globale Umbrüche meinen.
Die Ausdehnung von Wüsten, die Unbewohnbarkeit mancher Landstriche,
die Zunahme von Dürreperioden, die Veränderung von Jahreszyklen und
die unbekannten Auswirkungen auf die Landwirtschaft, Ernteausfälle, die
Zunahmen von schlagartigen Regenfällen und Überschwemmungen, die
Überflutung von Küstengebieten, Gesundheitsrisiken durch Hitzeperioden,
die Zunahmen von Wetterextremen, ökonomische Unsicherheiten, die Zu-
nahme von Versicherungsschäden und ihre Auswirkungen auf volatile Fi-
nanzmärkte, das sind nur einige der tatsächlichen Konsequenzen, die sich
hinter den Kennzahlen verbergen, die dem Klimawandel eigen sind. Was
sich im Zuge der Begrenzung der Erwärmung erreichen lässt, wäre die Grö-
ßenordnung und Intensität dieser fatalen Phänomene. Das ist entschei-
dend.
In Anbetracht der fortgeschrittenen Situation bedarf es beider Maßnah-
menpakete, also Mitigation und Adaption, um mit den fatalsten Folgen der
Klimakrise umzugehen. Die digitale Transformation, sofern intelligent an-
gewandt, könnte für beide Weichenstellungen entscheidende Beiträge lie-
fern.
Die Schritte, die in der Anpassung gesetzt werden, bedürfen belastbarer
Modelle, die klimatische Entwicklungen prognostizieren. Bessere Rechen-
leistungen, umfassendere Rechenmodelle, Datenaustausch zwischen priva-
ten und öffentlichen Organisationen liefern in diesem Zusammenhang sehr
konkrete Beiträge.
Im Hinblick auf die Vermeidung verlangt es eine durchdachte Perspektive,
die objektive Notwendigkeiten mit den vorhandenen Möglichkeiten in Ab-
gleich zu bringen versteht. Der zeitlichen Rahmen, der dabei zur Verfügung
steht, wird durch den IPCC Report klar abgegrenzt, der im Jahr 2018 veröf-
fentlicht wurde. Wird der vertraglichen Verpflichtung des Pariser Abkom-
mens Folge geleistet und das Ziel anerkannt, dass die globale Erwärmung
bis zum Ende des Jahrhunderts auf 1,5 Grad beschränkt wird, dann müsste
spätestens im Jahr 2050 der menschverursachte CO2 Ausstoß nahezu auf
Null reduziert sein. Das ist der Zeithorizont, den es anzuerkennen gilt, um
die Prinzipien der Vermeidung effektvoll zu verfolgen. Das 1,5 Grad Ziel
Informationsethik
zur Plattform 42
würde auch die Schritte hinsichtlich Anpassung innerhalb eines bewältigba-
ren, weil planbaren Rahmens halten.
Wie lässt sich aber nun der Zielvorgabe entsprechen? Die akute Schwierig-
keit besteht erfahrungsgemäß darin, Wirtschaftswachstum vom Treibhaus-
gasausstoß zu entkoppeln. Der Weltgemeinschaft ist es in den letzten Jahr-
zehnten nur im Zuge der letzten globalen Rezession gelungen, den globalen
Treibhausgasausstoß gegenüber den Vorjahren zu reduzieren. Die Lösung
kann jedoch nicht darin bestehen, absichtlich die Weltwirtschaft in die Re-
zession schlittern zu lassen, um die Ansprüche von Ökonomie und Ökologie
miteinander zu harmonisieren.
Stattdessen bedarf es einer effektiven Kooperation zwischen staatlichen
Akteuren, agilen Märkten, veränderungswilligen Gesellschaften, einer kriti-
schen Öffentlichkeit und demokratischen Machtverschiebungen. Es bedarf
neuer Investitionen, die sich auch dadurch finanzieren lassen, dass Kapital
aus den überbewerteten fossilen Energiemärkten abzieht.
Gerade auch weil die ökologische Wende nach zielgerichteten Invest-
ments verlangt, muss die Tatsache zur Kenntnis genommen werden, dass
71 % aller menschverursachten Emissionen seit dem Jahr 1988 sich fak-
tisch auf die Geschäftspraktiken und Geschäftsmodelle von 100 Unter-
nehmen zurückverfolgen lässt. Die Geschäftspraktiken von 100 Unter-
nehmen wären also für 71 % der menschverursachten CO2 Emissionen sei
1988 bis zum Jahr 2017 verantwortlich.
Es zeigt, wie sehr ein grundlegender Umbruch stattfinden muss. Die nach-
folgende Grafik zeigt dabei die 15 größten Verschmutzer und dokumentiert
den relativen Wert, wieviel die jeweilige Geschäftspraxis zu den anthropo-
genen CO2 Emissionen beigetragen hat. Als Bezugswert gilt der Zeitraum
zwischen 1988 und 2017. Würde sich das in den Unternehmen gebundene
Kapital weiterhin als Profit ungebremst realisieren und das Geschäftsmo-
dell dieser Unternehmen fortbestehen, dann wären die wahren Kosten die
absehbare Zerstörung des natürlichen Lebensraums.
Informationsethik
zur Plattform 43
Abbildung 9: Unternehmen, deren Produkte verantwortlich sind für die Mehrheit des vom Menschen
verursachten CO2 Ausstoßes19
Um also den notwendigen Wandel zu realisieren, setzt es perspektivisches
Denken voraus. Die nachhaltige Kurskorrektur kann dann gelingen, wenn
einerseits die Möglichkeiten technologischen Fortschritts ausgeschöpft
werden und andererseits der Zeithorizont bis zur Mitte des Jahrhunderts
durch Etappenziele gruppiert wird. Die vereinbarten Meilensteine lassen
sich entsprechend den einzelnen Jahrzehnten setzen, um die Epoche bis
zur Mitte des Jahrhunderts in konkrete Zeitabschnitte mit entsprechenden
Arbeitsprogrammen zu teilen. Mit jedem Jahrzehnt, beginnend mit dem
Jahr 2021, müsste die globalen Treibhausgasemission um die Hälfte redu-
ziert werden. Einen solchen Plan hat eine Gruppe international hoch aner-
kannter Wissenschaftler bereits im Jahr 2017 im renommierten Magazin
Science veröffentlicht.20 Die Grundannahme ist dabei, dass die Vereinba-
rungen des Pariser Klimaabkommens in Emissionsbudgets von 600 Milliar-
den Tonnen CO2 (600 Gigatonnen) übertragen werden. Bei dieser Kalkula-
tion gilt es zu bedenken, dass jenes CO2, das durch menschliches Handeln
bereits in der Atmosphäre abgelagert wurde, dort weiterhin verweilt. Es
19 Quelle: Riley (2017), URL.
20 Vgl. Rockström (u. a.) (2017), S. 1269 ff.
Informationsethik
zur Plattform 44
stellt sich also die kritische Frage, welches vorhandene Budget ausge-
schöpft werden kann, das die Atmosphäre noch zur Verfügung stellen wür-
de, wenn dem 1,5 Grad Ziel bis zum Ende des Jahrhunderts entsprochen
werden soll.
Hans Schellnhuber, Gründer des Potsdam-Instituts für Klimafolgenfor-
schung, und Stefan Rahmstorf, Abteilungsleiter für Erdsystemanalyse am
selben Institut, haben diese Ansätze in einem anderen Buch weiter zu-
sammengefasst.21
Das Jahrzehnt zwischen 2021 und 2030 würde demgemäß als Zeitraum der
„heroischen Anstrengung“ gelten müssen. Es ist die entscheidende Dekade.
Von einem Höhepunkt im Jahr 2020 ausgehend, wenn 40 Gigatonnen
menschverursachtes CO2 jährlich ausgestoßen werden, wird bis zum Jahr
2030 dieses Ausmaß auf 20 Gigatonnen halbiert. Dazu braucht es neben
der Wiederaufforstung von Regionen, auch die Transformation der indust-
riellen Landwirtschaft und den wirksamen Stopp massiver Abholzungen,
um gravierende Einschnitte zu schaffen. „Rodung von Wäldern und Um-
wandlung von Grünland in Ackerland, der Ausstoß der Klimakiller Lachgas
(N2O, 300-facher CO2- Effekt) aus Mineraldüngung sowie Methan (CH4, 20-
facher CO2-Effekt) durch Wiederkäuer und Nassreisanbau“22 – denn durch
all diese Effekte trägt die konventionelle Landwirtschaft verantwortlich
zum Klimawandel bei.
Bis 2030 müssen […] auf alle Fälle die Kohleverstromung
weltweit beendet und der Verbrennungsmotor auf allen
Straßen ausgemustert sein. Gleichzeitig müssen aber auch
die Grundlagen für strategische Innovationen im darauf-
folgenden Jahrzehnt geschaffen werden, etwa Materialien
und Techniken für das klimaneutrale Bauen von Städten
und Infrastruktur. Das heißt, dass in dieser Phase endgül-
tig alle F&E Investitionen von fossilnuklearen Unterneh-
mungen abzuziehen und in nachhaltige Wertschöpfungen
umzulenken sind.23
Auf Grundlage dieses Ansatzes müsste dann in der Dekade zwischen 2031
und 2040 fortgesetzt werden, die anthropogenen Treibhausgasemissionen
müssen sich bis zum Jahr 2040 auf 10 Gigatonnen reduzieren. Die Ära wird
als „Durchbruchphase“ tituliert. Nicht nur das andere Materialien wie
21 Vgl. Rahmstorf / Schellnhuber (2018), S. 129 ff.
22 Vgl. Weltagrarbericht (2018), URL.
23 Rahmstorf / Schellnhuber (2018), S. 120
Informationsethik
zur Plattform 45
Lehm und Holz den Hoch- und Tiefbau dominieren werden, auch haben
sich Privathaushalte zu energetischen Selbstversorgern gewandelt. Additive
Fertigungsverfahren (also der 3D-Druck) lassen klimaneutral produzieren.
Das IoT liefert die neuartige Infrastruktur, auf der sowohl Mobilität ge-
schieht, was aber auch die Herstellung von Gütern betrifft. Es werden also
nicht nur die Fertigungsverfahren verändert, sondern auch die genutzten
Materialien erneuern sich. Die Zusammenarbeit zwischen Menschen wird
sich weiter automatisieren bzw. durch virtuelle Meetings und verteiltes
Arbeiten bestimmt sein. Die Landwirtschaft wird zunehmend ökologischer,
die produzierten Lebensmittel hochwertiger. Was also stattfinden wird,
wäre ein nachhaltiger Umbruch der industriellen Gesellschaft, die anderen
Leitprinzipien folgen würde.
Ab dem Jahr 2040 wird dann entscheidend nachgebessert. Es folgt die Pe-
riode der „Vertiefungsdekade“. Unerwünschte Entwicklungen werden
adaptiert, aber vor allem entsteht im Umfeld der markanten Transformati-
on ein neuer Innovationsgeist, getrieben von neuen technologischen Mög-
lichkeiten, günstigen Energiekosten und anderen Verfahren. Es entwickeln
sich Chancen, Möglichkeiten und Gestaltungsperspektiven als Konsequenz
dieses industriellen Aufbruchs, der auch die digitale Transformation von
Gesellschaften und Märkten permanent voranbringt.
Wenn also auf die konventionelle Epochenfolge der industriellen Revoluti-
on gezählt wird, dann besteht das Wesen der digitalen Transformation da-
rin, der IV. Industriellen Revolution Gestalt zu geben. Neue Funktionslogi-
ken greifen in Produktion und Handel, Märkte operieren mit neuen Struk-
turen, ausgediente Technologien und Organisationsformen werden durch
agilere und adaptivere Systeme ersetzt. Doch diese IV. Industrielle Revolu-
tion findet ihre zweckvolle Bestimmung darin, wenn sie es vermag, die
schädlichen Folgewirkungen der industriellen Revolution einzudämmen
und diesbezüglich eine Kurskorrektur vornehmen. Die IV. Industrielle Revo-
lution wirkt deshalb exzeptionell, weil sie die ökologische Kursrichtung der
anderen industriellen Revolutionen ändern mag. Sie bildet in diesem Sinne
nicht nur eine Erweiterung und Erneuerung, sondern repräsentiert eine
radikalen Neuansatz, sie verändert die immanente Konsequenz.
Die digitale Transformation bildet nun die Erwartungshaltung, die existie-
renden Systematiken auch in diesem Zusammenhang zu verändern. Der
Wandel, der benötigt wird, besteht nur in einem progressiven und fort-
schrittlichen Neuansatz, wie sich die Ansprüche von Ökologie und Ökono-
mie im 21. Jahrhundert anders denken und innovativ aufsetzen lassen. Die
genutzten Technologien erhalten diesbezüglich eine Zweckvorgabe, deren
volles Potenzial sich erst durch unternehmerische Fantasie entfalten ließe.
Neben dem unternehmerischen Wirken braucht es aber auch klare rechtli-
Informationsethik
zur Plattform 46
che Rahmenbedingungen, die Orientierung darüber geben, wohin die Ent-
wicklung steuern soll.
Die Vorstellung, dass sich die Welt schlicht zurückdrehen ließe, um den
dringlichen Problemen zu begegnen, bildet aller Wahrscheinlichkeit nach
eine fatale Illusion. Vielmehr besteht die zentrale Verantwortung darin, von
Kreativität, Erfindungsreichtum, bewährten Mitteln, Gerechtigkeitssinn und
Neuansätzen mutig Gebrauch zu machen, um die Trendwende aktiv zu ge-
stalten.
Der Klimawandel repräsentiert die zentrale Herausforderung des 21.
Jahrhunderts. Nichts Vergleichbares wird dieses Jahrhundert so sehr be-
stimmen und die eigentliche Verantwortung für den Menschen begrün-
den. Die digitale Transformation erfasst entsprechend den wesentlichen
Umbruch dieses 21. Jahrhunderts. Insofern verlangt es nach einem Mit-
tel-Zweck Verhältnis. Die digitale Transformation wäre jenes Mittel, das
zum Zweck der Eindämmung des Klimawandels effektiv genutzt werden
muss.
Wie das vergleichbar auch in anderen Zusammenhängen wirksam wird,
erklärt das nachfolgende Kapitel.
Informationsethik
zur Plattform 47
4 Ungleichheit, Produktionsfaktoren und eine
moderne Rolle des Staats
Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung –
kurz OECD – hält in einem Bericht, der bereits im Jahr 2011 veröffentlicht
wurde, folgende Erkenntnis fest: „Die ungleiche Verteilung des Wachstums
von Arbeits- und Kapitaleinkommen, die mit dem Rückgang des Arbeitsan-
teils einherging, deutet darauf hin, dass diese Trends den sozialen Zusam-
menhalt gefährden könnten.“24
Die Einkommenszuwächse in Form von Lohneinkommen fielen in den letz-
ten Jahren hinter die Einkommenszuwächse durch Kapitalerträge zurück.
Die Internationale Arbeitsorganisation hat in einer Studie 2017 festgestellt,
dass in 91 von 133 Ländern der Anteil der Lohnquote in den letzten Jahren
vergleichsweise gesunken ist.
Abbildung 10: Entwicklung der Lohnquote in den OCED Ländern
(hier bezeichnet als Advanced economies)25
Die Lohnquote ist jene volkswirtschaftliche Kennzahl, die darlegt, welchen
Anteil die Arbeitnehmerentgelte am Volkseinkommen ausmachen. Das
Volkseinkommen bemisst hingegen alle errechneten Erwerbs- und Vermö-
genseinkommen, die von StaatsbürgerInnen im In- und Ausland erworben
werden. Je geringer also der Anteil am Volkseinkommen durch Erwerbsar-
24 OECD (2011) , S. 147.
25 Grafik: Thorwaldsson (2018), URL.
Informationsethik
zur Plattform 48
beit, desto höher die Erträge durch andere Einkünfte wie Vermögens- oder
Unternehmenseinkommen.
Die renommierte britische Zeitschrift Economist berechnet, dass der Rück-
gang der Einkommensquote zu einer nachweislichen Verlagerung von Ver-
mögenswerten führte. Seit dem Jahr 1975 sind über den Bemessungszeit-
raum bis ins Jahr 2018 durchschnittlich zwei Billionen Dollar pro Jahr in den
vermögenden Ländern aufgrund der unterschiedlichen Dynamiken zwi-
schen Lohneinkommen und Kapitaleinkommen als gewachsenes Kapital-
einkommen zu verbuchen.
Auch diese soziale Entwicklung reflektiert teils einen technologischen Hin-
tergrund. Der Einsatz von Maschinen und moderner Technologie hilft, die
Lohnkosten zu senken und sukzessive mehr Tätigkeiten in Produktionspro-
zessen automatisiert zu bewerkstelligen. Die Grundlagen der Wertschöp-
fung verschieben sich: Die Boston Consulting Group analysiert für die Situa-
tion in den Vereinigten Staaten von Amerika im Jahr 2015, dass eine Ar-
beitsstunde menschlicher Arbeitskraft durchschnittlich Aufwände von $ 28
verursacht. Hingegen, wenn ein Roboter die gleiche Arbeitsleistung voll-
bringt, der Gesamtaufwand samt aller Abschreibungen, Anschaffungs- und
Betriebskosten mit rund $ 8 zu Buche schlägt.26 Die Tendenz für die Ge-
samtkostenrechnung der Roboter gibt sich fallend, die Lohnkosten steigen
hingegen kontinuierlich. Neben der Erhöhung der Produktivität, die mit
dem Einsatz von Maschinen einhergeht, zeigen sich auch die laufenden
Kosten im Vergleich als günstiger.
Wenn jedoch diese Differenz kontinuierlich an Größe gewinnt, dann stellt
sich die Frage, ob die konventionellen Formen der Redistribution von
volkswirtschaftlicher Wertschöpfung noch effektiv operieren. Bisher wur-
den durch die jährliche Erhöhung des Lohnniveaus die ArbeitnehmerInnen
an den Produktivitätsgewinnen beteiligt. Ob dieser institutionalisierte Me-
chanismus auch dann noch greift, wenn die Disparitäten zwischen Kapital
und Arbeit sich weiterhin beschleunigen, erscheint offen.
Die Debatte rund um die Einführung des bedingungslosen Grundeinkom-
mens, die global an aktueller Wahrnehmbarkeit zunimmt, wäre auch exakt
vor diesem Hintergrund zu verstehen. Die Diskussion stellt immanent die
Frage, wie faktisch mit anwachsender Wertschöpfung und Produktivitäts-
steigerung umgegangen werden kann, die kontinuierlich weniger menschli-
che Arbeitskraft bedarf. Wie lassen sich die Ergebnisse der Produktivitäts-
fortschritte distributiv verteilen und andere Ansätze hinsichtlich der ge-
samtgesellschaftlichen Arbeitstätigkeiten denken? Ein solcher gesellschaft-
26 Sirkin (u. a.) (2015), URL.
Informationsethik
zur Plattform 49
licher Schritt, wie es die Einführung des bedingungslosen Grundeinkom-
mens darstellt, hätte gerade auch für den Bereich der Mitarbeiterführung
massive Konsequenzen.
Generell wird die volkswirtschaftliche Wertschöpfung als eine Funktion des
Einsatzes der Produktionsfaktoren Arbeit und Kapital verstanden. Adam
Smith, einer der ersten Theoretiker, der über die Funktionsweise der Märk-
te nachdachte, hat diesbezüglich im 18. Jahrhundert Leitprinzipien formu-
liert, die noch immer Relevanz zeigen. Der Wirkzusammenhang aus Kapital
und Arbeit, den Adam Smith skizziert, wirkt noch immer wie ein praktischer
Imperativ für erfolgreiches Management. Seine Ausführungen:
Jeder Kapitalbesitzer, der viele Arbeiter beschäftigt, ist
ganz zwangsläufig aus eigenem Interesse bestrebt, die an-
fallende Arbeit so sinnvoll aufzuteilen und zu organisieren,
daß die Arbeiter in die Lager versetzt werden, das Größt-
mögliche zu leisten. Darum ist er auch bemüht, sie mit den
denkbar besten Werkzeugen und Maschinen auszustat-
ten. Was im kleinen für die Arbeiter in einer einzelnen
Werkstatt gilt, das trifft auch im großen und ganzen für
ein ganzes Land zu. […] Da nun mehr Köpfe darüber nach-
denken, welche Maschine und Werkzeuge für jeden Ar-
beitsplatz am besten geeignet sind, ist die Aussicht weit
größer, daß diese auch erfunden werden.27
Damit der Wohlstand einer Volkswirtschaft steigt, braucht es folglich die
möglichst effektive Verwendung von materiellen und immateriellen Mit-
teln und Dienstleistungen, um effektive Wertschöpfung zu generieren. Da-
bei wirken also die Faktoren von menschlicher Arbeitskraft und investier-
tem Kapital zusammen, das beispielsweise die Anschaffung neuer Geräte
und Maschinen finanziert.
Diese Faktoren ließen sich jetzt fallweise intensivieren oder ihr Wert erhö-
hen. Beispielsweise lässt sich der Faktor Arbeit durch die Investition in
Fortbildung intensivieren und der Faktor Kapital steigern, indem neue Ge-
räte angeschafft werden. Wird ein Faktor gestärkt oder angehoben, dann
folgt die logische Konsequenz, dass die Gesamtwertschöpfung steigt. In
eine mathematische Formel gewandelt, würde sich die Wertschöpfung, wie
folgt abbilden lassen:
27 Smith (2018), S. 125.
Informationsethik
zur Plattform 50
Y = F(A, K)
Y bezeichnet in diesem Fall das Bruttoinlandsprodukt, also jene ökonomi-
sche Kennziffer, die den Gesamtwert aller Waren und Dienstleistungen
misst, die eine Volkswirtschaft faktisch produziert hat.
Dieser Wert bildet eine Funktion der Faktoren Arbeit (A) und Kapital (K). Je
nach Höhe des Inputs der beiden Faktoren sinkt oder steigt das Bruttoin-
landsprodukt. Adam Smith zählt auch den Boden als Produktionsfaktor. Die
effektive Zusammenführung dieser drei Produktionsfaktoren, um Wert zu
erzeugen, bildete lange die gängige Erklärung dafür, wie Wert in modernen
Ökonomien geschaffen wurde. Folglich ist Wertschöpfung nichts anderes
als der zielgerichtete und zweckmäßige Einsatz von Arbeit und Kapital.
Es dauerte faktisch bis zur Mitte des 20. Jahrhunderts, dass dieses Modell
noch um einen weiteren, entscheidenden Faktor ergänzt wurde. Der Öko-
nom Robert Solow, im Jahr 1987 mit dem Nobelpreis für Wirtschaftswis-
senschaften ausgezeichnet, erkennt, dass dieses jahrhundertealte Erklä-
rungsmodell ergänzungsbedürftig sei. Er führt einen dritten Faktor ein, der
neben Arbeit und Kapital über das Ausmaß der Wertschöpfung mitent-
scheidet: Den wachsenden Entwicklungsstand der Technologie. Ein Anstieg
der Produktion wird folglich nicht nur durch intensivierte Arbeit und erhöh-
te Kapitalbildung erwirkt, sondern auch durch den Fortschritt der Techno-
logie begründet.
Entsprechend den Analysen von Robert Solow basiert Wertschöpfung auf
der Nutzung von drei unterschiedlichen Input-Faktoren: Kapital, Arbeit,
dem Entwicklungsstand der genutzten Technologie.
Die Funktion der Wertschöpfung würde sich also folgendermaßen definie-
ren:
Y = F(A, K, T)
Für die Berechnung der Leistungskraft einer Volkswirtschaft wurde ent-
sprechend die Kennzahl der Totalen Faktorenproduktivität entwickelt. Sie
lässt das Ausmaß an Produktivität erfassen, das eine Volkswirtschaft er-
wirkt, ohne den Einsatz der Produktionsfaktoren Kapital und Arbeit zu stei-
gern. Die Kennzahl ließe sich folglich als Stand des technologischen Fort-
schritts reflektieren.
Wertschöpfung geschieht also nicht nur, indem Arbeit und Kapital inves-
tiert werden, sondern es ist auch entscheidend, auf welchem technologi-
schen Stand sich eine Volkswirtschaft bewegt. Es lässt sich noch so viel in
Informationsethik
zur Plattform 51
Arbeit und Kapital investieren, wenn der technologische Fortschritt nicht
effektiv genutzt wird, dann verschleißen sich die Mühen und die Produkti-
vität fällt hinter ihr denkbares Potenzial zurück.
Dabei gilt es zu berücksichtigen, dass Arbeit und Kapital als Ressourcen
oft eng begrenzt sind. Wenn also die FunktionsträgerInnen in Organisati-
onen verstanden werden sollen, die für die digitale Transformation ver-
antwortlich zeichnen, dann braucht es ein manifestes Bewusstsein: Sie
sind diejenigen, die sich um die Hebung des dritten – oft vergessenen,
aber immer entscheidenden – Produktionsfaktors kümmern. Sie besorgen
die Nutzung der totalen Faktorenproduktivität. Ihre Aufgabe liegt in der
Intensivierung dieses Faktors.
Der Wirtschaftswissenschaftler Jeremy Rifkin erwirkt in diesem Zusam-
menhang interessante und erklärende Einsichten. Anders als üblicherweise
und häufig konzipiert, erklärt Jeremy Rifkin, dass sich gegenwärtig nicht die
vierte Entwicklungsstufe der industriellen Revolution abzeichnen würde,
sondern sich das Zeitalter der III. Industriellen Revolution ausmachen lässt.
Wie begründet Jeremy Rifkin diese Einschätzung? Er definiert nicht nur die
Mechanik der genutzten Produktionsverfahren als Definitionsmerkmal der
Entwicklungsschritte der industriellen Revolution. Stattdessen müssen ge-
mäß seinem Verständnis unterschiedliche Komponenten zusammengeführt
werden, um die eigentlichen Bedeutungsverschiebungen zu verstehen, die
sich im Rahmen der industriellen Revolution entfalten. Wird die Betrach-
tungsweise also auf diese Weise substantiviert, dass nicht nur die Verände-
rung der Produktionsmechanik als Definitionsmerkmal herangezogen wird,
dann zeigen sich mehrere Ausgangspunkte, die der Entwicklungsgeschichte
der industriellen Revolution eigen wären.
Jeremy Rifkin erklärt, dass bei den anfänglichen durch die industrielle Pro-
duktion freigesetzten Mechanismen, mehrere Aspekte schlagend wurden:
Durch Innovationen verändern sich die Raum-Zeit-Wahrnehmungen. Grö-
ßere Distanzen als bisher werden plötzlich überbrückt, damit lassen sich in
Folge größere soziale Einheiten in einen gesellschaftlichen Verband integ-
rieren. Der Einsatz von Innovation beschleunigt außerdem die Verbreitung
von Information, wissensbasierte Prozesse verändern sich. Sowohl die
Strukturen der gesellschaftlichen Integration als auch die politischen Ent-
scheidungsmechanismen werden erweitert und transformiert.
Die I. Industrielle Revolution bildet diesbezüglich ansehnlich ab, wie durch
den Einsatz von neuen Technologien faktisch unterschiedliche Verände-
rungspotenziale wachgerufen werden. Denn die Dampfmaschine revoluti-
onierte nicht nur die angewandten Verfahren der Herstellungsweisen in
der Industrie. Ihr Beschleunigungspotenzial fand beispielsweise auch in der
Informationsethik
zur Plattform 52
Produktion von Druckerzeugnissen Einsatz. Beschleunigte Druckverfahren
führten dazu, dass Druckwerke billiger und schneller vervielfältigt werden
konnten. Das moderne Zeitungswesen entstand. Informationen zirkulierten
also schneller im größeren Rahmen als bisher der Fall. Diese Entwicklung
wurde dann nochmals durch den Aufbau eines Telegraphensystems inten-
siviert. Dampfbetriebene Druckverfahren und die Ausbreitung des Telegra-
phensystems gingen mit der Nutzung einer neuen Energiequelle einher.
Kohle wurde als Energieträger entdeckt und in unterschiedlichen Zusam-
menhängen instrumentalisiert. Auch um den Abbau von Kohle voranzu-
bringen, wurde an der Weiterentwicklung der Dampfmaschine gewirkt.
Waren dann erstmal diese technischen Verfahren in Verbindung mit der
Dampfmaschine perfektioniert, verstehen es innovative Geister, die neuen
technologischen Lösungen auch für andere Nutzbereiche anzuwenden. Die
Dampfmaschine wird in Folge beispielsweise zur Grundlage einer neuen
Form der Mobilität, sie wird zum Betrieb von Zügen eingesetzt, sie wird auf
Schiene gebracht. Transport und Logistik verändern sich in Folge, auch sie
bekommen neue operative Grundlagen verpasst.
Nach Auffassung von Jeremy Rifkin hat die Erste Industrielle Revolution
gleich wie die nachfolgenden beiden industriellen Revolutionen drei Fun-
damente, die ihr jeweils eigen waren. Alle Entwicklungsstufen der industri-
ellen Revolution zeigen Besonderheiten und entscheidende Definitions-
merkmale in dreifacher Hinsicht.
• Eine maßgebliche Energiequelle liefert die Energie für vielfältige Pro-
duktionsprozesse,
• Ein neues Transportsystem begründet logistische Verfahren anders,
• Kommunikationsverfahren beschleunigen sich und verstehen es, bis-
her weite Distanzen komplikationslos zu überbrücken.
Diese Veränderungen bewirken zusammen, dass die Vorstellungen und
Wahrnehmungen von Raum und Zeit sich durch Erweiterung und Be-
schleunigung verändern. Auf dieser Basis entsteht als Folgewirkung eine
andere Selbstwahrnehmung von Gesellschaft. Die Kombination aus Ener-
giesystemen, gängigen Kommunikationsverfahren und Logistiksystemen
prädisponiert auch die Art und Weise, wie Macht und gesellschaftliche
Teilhabe in Gesellschaften verwirklicht werden.
Für die I. Industrielle Revolution, die dem 19. Jahrhundert Gestalt gibt, fun-
giert als entscheidender Energieträger Kohle. Die Eisenbahn verändert das
Transportsystem grundlegend. Modernes Pressewesen und Informations-
übermittlung mittels Telegraphen geben der Gesellschaft eine vollkommen
Informationsethik
zur Plattform 53
veränderte Kommunikationslogik. Ihren Ursprung findet diese Revolution
in Großbritannien.
Im 20. Jahrhundert folgt dann die II. Industrielle Revolution. Jeremy Rifkin
erklärt der griffigen Einfachheit halber die Entwicklungslinie der industriel-
len Revolutionen anhand des Ablaufs der Jahrhunderte. Die Bezugsgrößen
Transport, Energiequelle und Kommunikation bleiben gleich, doch erhalten
sie eine radikal andere Bedeutung und Wirkung verpasst. Für die II. Indust-
rielle Revolution, die dem 20. Jahrhundert Form gibt, wurden die Fabriken
elektrifiziert. Diese Energieversorgung wurde zentralisiert organisiert und
als wichtigster Energieträger nicht mehr Kohle, sondern Erdöl verwendet.
Die Ausbreitung des Telefons ermöglichte es nunmehr, verbale Mitteilun-
gen über weite Distanzen in Echtzeit zu transportieren. Dieser Bruch war
markant. Plötzlich konnten Mitmenschen über weite Distanzen miteinan-
der in Echtzeit verbal interagieren, ohne dass physische Präsenz dafür Vo-
raussetzung wäre. In weiterer Folge kam es dann zur Ausbreitung von
Fernsehen und Radio. Damit etablierte sich eine vereinheitlichte Kommu-
nikationsarchitektur, wo von einem Zentrum aus mit einer gleichlautenden
Botschaft ganze Gesellschaften in Direktübertragung ohne Zeitverlust er-
reicht werden konnten. Die Kommunikation erfolgte im Zuge dieser Mas-
senmedien immer monodirektional – einem Absender stand eine Fülle an
Empfängern gegenüber. Ergänzend findet nicht nur ein Umbruch bezüglich
des meistgenutzten Energieträgers und der verwendeten Kommunikati-
onsarchitektur statt, in weiterer Folge wird durch die von Henry Ford ange-
stoßene Revolution die Gesellschaft auf Grundlage des eigenen Autos mo-
bil. Transport und Logistik erhalten eine vollkommen individualisierte
Grundstruktur verpasst. Der Begriff von machbaren Distanzen erhält plötz-
lich einen radikal anderen Ausgangspunkt. Symbol für die Zweite Industriel-
le Revolution wurden die Vereinigten Staaten von Amerika, es war das
amerikanische Jahrhundert – medial, hinsichtlich des Rohmaterials Erdöl,
dem Auto als individueller Besitz. Die Attraktivität dieses anziehenden
American Way of Life strahlte auch über den Atlantik und über den Pazifik
hinweg aus. Amerika war die maßgebliche Macht, auch bezüglich der Or-
ganisation des Markts in Form von Konzernstrukturen.
Laut Theorie von Jeremy Rifkin gipfelt und endet diese Entwicklungsge-
schichte im Jahr 2008, als die Finanzmärkte implodieren. Den Beginn dieser
Krisenentwicklung setzt Jeremy Rifkin jedoch nicht mit dem Platzen der
Subprime-Krise und in weiterer Folge mit der Liquidierung der Investment-
bank Lehman Brothers im September 2008 an. Stattdessen identifiziert er
den Bruchpunkt im Juli 2008, als der Preis für ein Barrel Brent Rohöl auf $
147 stieg. Dieser Rekordpreis erschütterte die Märkte, als die Energiepreise
sich basierend auf Rohöl als perspektivisch unfinanzierbar erwiesen. Das
Informationsethik
zur Plattform 54
begriffen, schlitterten die Märkte in eine langanhaltende und tiefgreifende
Krise, die zu niedriger Produktivität führte. Wie nun den Ausweg aus dieser
Abwärtsspirale finden? Die Lösung findet sich in der transformativen Alter-
native der III. Industriellen Revolution. Sie bildet den notwendigen Um-
bruch, den es braucht, um aus der ökonomischen und gesellschaftlichen
Ermattung herauszufinden, die sich mit dem Ende des erschöpften Systems
der II. Industriellen Revolution verbindet. Allein der drohende ökologische
Kollaps macht aus dem Denken in Alternativen einen unumgänglichen Im-
perativ. Doch finden sich auch schlicht ökonomische Beweggründe, warum
eine radikale Transformation unumgänglich wird: Die Produktivität lässt
sich auf Grundlage existierender Systematiken nicht mehr heben. Wie Ro-
bert Solow analytisch erkannt hat, hängt der Fortschritt der Produktivität
eben nicht vom Einsatz der Arbeitskraft und dem Investment von Kapital in
Sachanlagen oder Finanzbestände allein ab. Produktivität gründet auch auf
dem Stand der Technologie, die instrumentell genutzt wird. Was sich also
in der Krise im Jahr 2008 und in den nachfolgenden Jahrzehnten voller Pro-
duktivitätsengpässe und Folgekrisen reflektiert, wäre die finale Auslastung
und Erschöpfung einer systemischen Struktur. Die ökonomische Wert-
schöpfung lässt sich auf Grundlage der II. Industriellen Revolution nicht
mehr weiter steigern, weil die totale Faktorenproduktivität schlicht nicht
weiter gehoben werden kann. Die Technologien, die in der II. Industriellen
Revolution genutzt werden, stoßen an die Grenzen möglicher Entwick-
lungspotenziale.
Die volkswirtschaftliche Entwicklung wird folglich durch den Nutzungsgrad
entscheidend bestimmt, der erzielt werden kann. Die Volkswirtschaftslehre
spricht von der Aggregate Efficiency. Unter Aggregate Efficiency wird der
Quotient verstanden, der sich zwischen der potenziellen Arbeit und der
tatsächlich effektiven Arbeit zeigt. Wieviel von der Energie und Arbeitskraft
wird wahrlich genutzt, wenn ein Produkt entlang der Wertschöpfungskette
von einem Stadium ins nächste gebracht wird? Denn der größte Teil des
investierten Aufwands geht verloren und wird verschwendet. Das Wesen
der Fortentwicklung der industriellen Revolution liegt also darin, die Aggre-
gate Efficiency zu haben. Das Wirken an der digitalen Transformation hat
genau diese Aufgabe. Es steigert die Produktivität zu einem Ausmaß, wie es
in bestehenden und vergangenen Strukturen nicht möglich war. Jeremy
Rifkin hält Folgendes fest:
Die zweite industrielle Revolution in den USA begann 1903
mit einer Aggregate Efficiency von 3%. Das bedeutet, dass
bei jedem Prozess entlang der Wertschöpfungskette
(Extrahierung der Rohmaterialien, Lagerung, Transport,
Informationsethik
zur Plattform 55
Produktion, Verbrauch, Recycling) etwa 97% der Energie
verloren gegangen sind.
Bis 1990 erreichten dann die USA eine Aggregate Effi-
ciency von etwa 13%, Deutschland von 18,5% und Japan
von 20%. Seitdem hat sich an diesem Verhältnis nichts
mehr geändert. Arbeitsmarktreformen, Marktreformen,
Steuerreformen oder neue Arten von Anreizen oder auch
die besten Technologien werden nicht dazu beitragen,
dass die Gesamteffizienz steigt, solange wir auf der Platt-
form der II Industriellen Revolution arbeiten. Wir werden
nie die Obergrenze von 20% Gesamteffizienz überschrei-
ten, die den größten Teil der Produktivität ausmacht.28
Die digitale Transformation einer entwickelten Volkswirtschaft wird benö-
tigt, weil das Entwicklungspotenzial der II. Industriellen Revolution ausge-
schöpft ist. Insofern markiert die digitale Transformation einen grundle-
genden Wandel bestehender Systeme. Ökologisch erscheint die Ver-
schwendung dieser Energiemengen, der benötigen Ressourcen und Mate-
rialien fatal und ökonomisch wirkt sie kontraproduktiv. Aus diesem Grund
braucht es nun den radikalen Wandel der bestehenden Strukturen. Die
nächste Entwicklungsstufe der industriellen Revolution beruht also nicht
nur allein auf den neuen Technologien. Die anstehenden Erneuerungen,
die im Zuge der digitalen Transformation erwartet werden können, zeigen
laut Jeremy Rifkin Umbrüche bezüglich aller Definitionsmerkmale der in-
dustriellen Wertschöpfung – Transport, Energie, Kommunikation:
Die Energieressource, die genutzt wird, besteht in der alternativen Ener-
giegewinnung. Dieser Entwicklungsschritt verlangt ein dezentralisiertes
Versorgungs- und Verteilungssystem. Datenaustausch und Energieübertra-
gung werden neu gekoppelt, um dieses dezentrale Netzwerk zu organisie-
ren.
Transport und Logistik werden durch die Automatisierung und den Einsatz
Künstlicher Intelligenz auf Basis von Elektromobilität radikal erneuert.
Schließlich begründet die Fortentwicklung der Digitalisierung neue Formen
der Datenerhebung und beschleunigte Verfahren der Datenübertragung.
Daten von Maschinen, Gegenständen und Personen werden integriert und
ausgewertet, um das Wissensaggregat einer Gesellschaft zu heben.
28 Zit. nach: Galoppin (2016), URL.
Informationsethik
zur Plattform 56
I. Industrielle
Revolution
II. Industrielle
Revolution
III. Industrielle
Revolution
Transportsystem Eisenbahn Auto Autonomes Fah-
ren
Energieträger Kohle Erdöl Alternative
Energie
Kommunikation Tageszeitung,
Telegraph
Telefon, Radio
und Fernsehen Internet
Die notwendige Infrastruktur, die all diesen Prozessen der III. Industriellen
Revolution, dem Datenaustausch und der Datenverarbeitung zugrunde
liegt, liefert das Internet der Dinge. Auf Grundlage dieser Infrastruktur ent-
steht eine verbesserte Logik der Wertschöpfung. Speziell im Zusammen-
wirken mit anderen technologischen Entwicklungen zeigt sich das Potenzial
eines signifikanten Umbruchs, der die Grundlagen ökonomischen Handelns
radikal verändern wird. Auf dieser Grundlage wird sich a) die totale Fakto-
renproduktivität heben und b) die Aggregat Efficiency markant steigern.
Diese Erwartungshaltung erlaubt radikale Denkmuster: Der moderne Markt
ist jener Ort, an dem Angebot und Nachfrage zusammengeführt werden.
So lautet die griffigste Definition. Diese Funktion braucht es, weil im Regel-
fall weniger Angebot als Nachfrage vorhanden ist. Insofern benötigt es
Festlegungen, die bestimmen, welche Nachfrage durch Angebote gedeckt
wird und welche Bedürfnisse unbefriedigt bleiben. Eine potenzielle und
denkbare Veränderung durch die enormen Produktivitätsgewinne im Zuge
des Fortschritts der digitalen Transformation kann nun darin bestehen,
dass es keinen institutionalisierten Ausgleich zwischen Angebot und Nach-
frage in unterschiedlichen marktwirtschaftlichen Zusammenhängen mehr
bräuchte, weil sich auf Grundlage der verbesserten totalen Faktorenpro-
duktivität günstig genau so viel produzierten lässt, wie als Nachfrage benö-
tigt wird. Wo heute noch der Markt als Instanz des Ausgleichs agieren
muss, kann zukünftig günstig und durch gesteigerte Produktivität schlicht
die Nachfrage selbst gedeckt werden.
Warum ist also diese Signifikanz dieser Umbrüche so entscheidend? Über
den Zeithorizont der industriellen Revolution hinausgedacht, entdecken die
kanadischen Ökonomen Kenneth Carlaw und Richard Lipsey, 24 unter-
schiedliche Universaltechnologien, die den zivilisatorischen Fortschritt be-
gründen. Eine Universaltechnologie kennzeichnen unterschiedliche Eigen-
schaften:29
29 Vgl. Lipsey (u. a.) (2005), S. 131 ff.
Informationsethik
zur Plattform 57
• Es handelt sich um eine einzigartige, klar bestimmbare, allgemein
nutzbare Technologie,
• Sie zeigt bereits anfänglich schnelle Durchsetzungsfähigkeit, obwohl
durchaus noch enormes Verbesserungspotenzial vorhanden wäre,
• Sie erweist Nützlichkeit in verschiedenen Anwendungsfällen,
• Die Universaltechnologie verursacht vielfältige und unterschiedliche
Folgewirkungen.
Universaltechnologie Folgewirkung Zeitraum
Domestizierung von Pflanzen Neolithische Revolution -
Beginn Ackerbau 9000 v. Chr.
Domestizierung von Tieren Neolithische Revolution
– Beginn Viehzucht 8000 v. Chr.
Schmelzen von Erz Herstellung von einfa-
chen Metallwerkzeugen 7000 v. Chr.
Erfindung des Rads Mechanisierung,
Potter Rad 4000 v. Chr.
Entwicklung der Schrift Dokumentation, Handel 3300 v. Chr.
Nutzung von Bronze Neue Waffen und Werk-
zeuge 2800 v. Chr.
Nutzung von Eisen Neue Waffen und Werk-
zeuge 1200 v. Chr.
Erfindung des Wasserrads Mechanische Systeme,
maschinelle Arbeitskraft Mittelalter
Bau von Dreimaster-
Segelschiffen
Maritimer Handel, Kolo-
nialismus 15. Jhdt.
Ausbreitung des Buchdrucks
Wissenschaftsrevolution,
Umbruch im Kreditwe-
sen
16. Jhdt.
Entstehung von Fabriken
Austauschbarkeit und
Reproduzierbarkeit von
Gegenständen
18. Jhdt.
Dampfmaschine Erneuerung der Produk-
tionserfahrung 18. Jhdt.
Bahnverbindungen Pendeln, Entstehung von
Vorstädten, Logistik 19. Jhdt.
Dampfschiff Globaler Agrarhandel,
Tourismus 19. Jhdt.
Verbrennungsmotor Flugzeug, Automobil,
mobile Kriegsführung 20. Jhdt.
Elektrizität Telegraphische Über- 20. Jhdt.
Informationsethik
zur Plattform 58
mittlung, Elektrifizierung
Automobil Suburbanisierung, Ein-
kaufszentren 20. Jhdt.
Flugzeug Internationalisierung des
Verkehrsaufkommens 20. Jhdt.
Massenproduktion Konsumismus 20. Jhdt.
Computer Elektronische Datenver-
arbeitung 20. Jhdt.
Lean Production Systematisierte Produk-
tionsorganisation 20. Jhdt.
Internet Umbrüche in der Kom-
munikation 20. Jhdt.
Biotechnologie Nutzbarmachung biolo-
gischer Prozesse 20. Jhdt.
Business Virtualization Papierloses Büro, Tele-
arbeit 20. Jhdt.
Nanotechnologie Medizintechnik, chemi-
sche Industrie 21. Jhdt.
Künstliche Intelligenz Datenauswertung, Robo-
tics, autonomes Fahren 21. Jhdt.
Alle diese Entwicklungen veranlassen, dass gesellschaftliche Prozesse an
Komplexität gewinnen. Vor dem Hintergrund dieser Innovationen gewin-
nen technologische Verfahren stetig an gesellschaftlicher Bedeutung und
Produktivität wächst.
Digitale Transformation bildet folglich einen Bestandteil des technologi-
schen Fortschritts, der nicht nur wesentlich zum zivilisatorischen Prozess
beiträgt, sondern die entscheidende Intensivierung der Produktivität im
21. Jahrhundert bildet. Unternehmen, Organisationen und Volkswirt-
schaften, die auf dieser Grundlage zu operieren verstehen, vermögen es
leichter und effektiver, Produktivität zu erwirken als vergleichbare Orga-
nisationen, die darauf verzichten. Kapital ist begrenzt und manuelle Ar-
beit ausgeschöpft, nur wenn Gesellschaften effektiv an der digitalen
Transformation wirken, dann kann die Funktion der totalen Faktorenpro-
duktivität gehoben werden und damit effektive Verbesserungen erwirkt
werden.
Im Wesentlichen handelt es sich also bei der digitalen Transformation um
einen Umbruch, dessen Verständnis in größere gesellschaftliche und um-
fassende zivilisatorische Zusammenhänge eingebettet werden muss. Ge-
genwärtig repräsentiert dieser Wandel doch nicht nur einen ökonomischen
Informationsethik
zur Plattform 59
oder maschinellen Fortschritt. Er erfasst einen Ausweg aus der ökologi-
schen Prekäre, in die die industrielle Revolution besonders seit der Mitte
des 20. Jahrhunderts aufgrund der massenhaften Verbrennung von fossilen
Energieträgern geführt hat.
Wenn also die soziale Dimension der digitalen Transformation reflektiert
wird, dann braucht es gesellschaftliches Bewusstsein, wie die volkswirt-
schaftlichen Umbrüche inklusiv gestaltet werden können. Es geht um die
Fragestellung, wie die neue Rasanz der technologischen Verbesserungen zu
einer inklusiven Gesellschaft führt. Diese Art des Ausgleichs scheint nicht
nur innerstaatlich geboten, sondern auch die Aufgabe für eine Weltgesell-
schaft, die sich aufgrund globaler Technologien stetig mehr integriert und
engere Interdependenzen schafft.
Speziell die Finanzierung öffentlicher Haushalte beruht auf der Besteue-
rung der Produktionsfaktoren Arbeit und Kapital, wobei der Faktor Arbeit
im Regelfall höher besteuert wird als der Faktor Kapital. Die Frage über
zeitgemäße Finanzierungsmodalitäten stellt sich also nicht nur vor dem
Hintergrund dysfunktionaler Umverteilungsmechanismen, die einer sozia-
len Schere kaum entgegenwirken, sondern auch aufgrund der Notwendig-
keit solider öffentlicher Ausgaben. Wie also die Erträge durch den dritten
Produktionsfaktor „totale Faktorenproduktivität“ zu besteuern wären – die
Frage scheint wesentlich.
Denn gerade eine solide Ausstattung des öffentlichen Haushalts wirkt für
eine wirksame digitale Transformation entscheidend. Diese Einschätzung
gründet auf zwei nachweisbaren Überlegungen: Fortschritte in der digita-
len Transformation basieren auf innovativen Unternehmen. Innovatives
Unternehmertum, das an der digitalen Transformation wirkt, benötigt aber
eine belastbare und radikal erneuerte Infrastruktur.
Bereits der liberale Denker Adam Smith hat erkannt, dass dem modernen
Staat drei faktische Aufgaben zufallen. Dazu zählen die militärische Vertei-
digung, die Etablierung einer zivilen Ordnung im Inneren und schließlich die
Bereitstellung von Services oder Institutionen, „die einzurichten und zu
erhalten niemals das unmittelbare Interesse von [sic] einzelnen oder einer
kleinen Zahl von [sic] einzelnen sein kann.“30 Eine funktionstüchtige Gesell-
schaft verlangt also als Voraussetzung nach Dienstleistungen, die zwar von
vielen dringlich benötigt werden, die aber nicht von einzelnen Personen
oder Unternehmen zur Verfügung gestellt oder organisiert werden können.
Ein funktionierender Markt setzt also Bedingungen voraus, die er zwar
selbst nicht direkt erwirken kann, die er jedoch für die eigene Funktions-
30 Vgl Smith (2018), S. 349 f.
Informationsethik
zur Plattform 60
tüchtigkeit zweifellos benötigt. In maroden Staaten oder in Gebieten, wo
staatliche Herrschaft zusammengebrochen ist, finden sich aufgrund der
Unsicherheiten und Rechtlosigkeit keine Bedingungen, die vorausschauen-
des Handeln und marktwirtschaftliche Kapitalakkumulationen gestatten
würden. Das allein ist Ausweis, wie sehr ein funktionierender Markt von
einem effektiven Staat abhängt. Doch nicht nur innere Stabilität und au-
ßenpolitische Sicherheitsgarantien sind Faktoren, die laut Adam Smith sei-
tens des Staates sicherzustellen wären. Er identifiziert ebenso einen dritten
Bereich an öffentlichen Dienstleistungen, der besorgt werden muss, ohne
den eine moderne Gesellschaft nicht angemessen funktioniert.
Eine zeitgemäße öffentliche Infrastruktur markiert exakt eine solche Vor-
bedingung, die mittels öffentlicher Hand garantiert und entwickelt werden
sollte. Entwicklungen wie die Infrastruktur für das Internet der Dinge, ein
funktionstüchtiges 5G Netzwerk wären beispielsweise Fundamente, auf
denen anschließend unternehmerische Entwicklung aufbauen kann, um
von den unternehmerischen Möglichkeiten tatsächlich Gebrauch zu ma-
chen, die sich im Zuge der nächsten Entwicklungsstufe der digitalen Trans-
formation eröffnen. Wie die Durchsetzung des Autos den Bau von Straßen
benötigte, so brauchen fortschrittlichere Arten der Mobilität nun sicheren
Datentransfer durch das Internet der Dinge. Infrastruktur verändert sich
also.
Dafür braucht es zum einen eine erträgliche Kooperation zwischen staatli-
chen und privaten Akteuren, um eine moderne Infrastruktur zu etablieren,
deren Bereitstellung sich nicht unmittelbar gewinnträchtig finanzieren lie-
ße. Allein aus diesem Grund agiert der Staat als maßgeblicher Akteur. Zum
anderen zeigt sich besonders im Rahmen der digitalen Transformation,
dass innovative Durchbrüche einer Grundlagenforschung bedürfen, die
besonders in öffentlichen Institutionen vorangetrieben und auf diese Wei-
se durch die Öffentlichkeit finanziert wird.
Die britisch-italienische Ökonomin Mariana Mazzucato hat beispielsweise
den Erfolg des iPhones untersucht und überraschende Details ausmachen
können.31 Das iPhone galt als maßgebliche Innovation, als es beispielsweise
bei Mobiltelefonen die herkömmlichen Displays durch Touchscreens er-
setzte. Eine neue Benutzerschnittstelle wurde implementiert. NutzerInnen
konnten nun das Gerät direkt am Bildschirm mittels Einsatzes der eigenen
Finger navigieren. Eine andere Neuerung, die sich durch spätere Modelle
des iPhones verwirklicht sah, war die Befehlseingabe durch Sprachbedie-
nung.
31 Mazzucato (2013), S. 115 ff.
Informationsethik
zur Plattform 61
Beide Technologien wurde aber nun nicht von Apple entwickelt. Stattdes-
sen verstand es das Unternehmen, bestehende Forschung innovativ und
ertragreich in einem massentauglichen Konsumprodukt zu integrieren,
dessen Verkaufserfolg auch das Ergebnis einer intelligenten Marketing-
kampagne ist. Wenn aber nicht das Unternehmen selbst die Forschung
bestritt, die für den Erfolg mitausschlaggebend war, welche Organisationen
steckten dann anfänglich dahinter?
Die Anfänge des Touchscreens liegen in einem Forschungsansatz, der als
Doktorarbeit in öffentlichen US-Instituten ermöglicht wurde. Ein Studien-
programm der National Science Foundation (NSF) und der Central Intelli-
gence Agency (CIA) erlaubte dem Doktoranten Wayne Westermann an der
öffentlichen University of Delaware seinem Interesse an neuromorphen
Systemen nachzugehen. Die Erkenntnisse der Doktorarbeit, deren For-
schung aus öffentlichen Geldern finanziert wurde, führten dann weiter zur
Gründung des Unternehmens FingerWorks. Als anfängliche Geschäftsfüh-
rer wirkten der Doktorand und sein Doktorvater John Elias. Die gemachten
Entdeckungen wurden schließlich patentiert und das „Startup“ im Jahr
2005 von Apple übernommen.
Die technische Grundlagenforschung für das Touchscreen, das sich dann
in iPhones verarbeitet findet, wurde durch öffentliche Forschung finan-
ziert und ermöglicht.
Die Anfänge der Spracherkennungssoftware Siri zeigen einen vergleichba-
ren Hintergrund. Siri sollte die Aufgabe eines persönlichen Assistenten er-
füllen, der in das Telefon integriert ist, als mit der Software verbal kommu-
niziert werden kann. Die Software basiert auf Künstlicher Intelligenz, „die
lernfähig ist und über einen Algorithmus zur Websuche verfügt.“32Auch
dieses Programm hat Anfänge in staatlicher Forschung und Finanzierung.
Das Forschungsprojekt, das zur Entwicklung von Siri führte, wurde anfäng-
lich von DARPA (Defense Advanced Research Projekts Agency) initiiert.
DARPA bildet eine Behörde des US-amerikanischen Verteidigungsministeri-
ums, die Grundlagenforschung in der Absicht finanziert, moderne Techno-
logien für militärische Zwecke zu entwickeln. DARPA etabliert dabei ein
Software-Ökosystem, dessen Mission darin besteht, mit privaten Partnern
Soft- und Hardwareentwicklung voranzubringen. Das leitende Interesse ist
dabei die militärische Nutzung der Technologie, die später oft auch ziviles
Potenzial zeigt. Siri wurde ursprünglich als virtueller Büroassistent für Mili-
tärangehörige konzipiert, an dem 20 Universitäten in den USA unter Lei-
tung des Stanford Research Institutes wirkten. Die Forschungsresultate
32 Mazzucato (2013), S. 136.
Informationsethik
zur Plattform 62
wurden schließlich vom Stanford Research Institute in ein Startup Unter-
nehmen übertragen, das den bezeichnenden Namen „SIRI“ trug und mit
dem Investment von Wagniskapital finanziert wurde. „2010 kaufte Apple
SIRI für eine Summe, über die beide Seiten sich in Schweigen hüllen.“33
Die Chronologie der Ereignisse erscheint bedeutsam, weil sie eine generali-
sierbare Logik beschreibt, wenn das Zusammenspiel zwischen privaten und
öffentlichen Akteuren bzw. der entsprechenden Finanzierungslogiken re-
kapituliert werden soll. Die anfängliche Grundlagenforschung kennzeichnet
ein Stadium von markanter Ungewissheit. Eine wissenschaftliche Idee wird
verfolgt, die als Unterfangen mit solchen Unsicherheiten und Unbekannten
behaftet ist, dass private Anleger davor zurückscheuen und keine Anschub-
finanzierungen wagen. Die einzigen Investoren, die sich für diese Art von
Forschung finden, sind öffentliche Institutionen im Bereich von universitä-
ren, institutionellen oder öffentlichen Forschungsprogrammen. Zeigen die
Bemühungen Erfolge und bezeugen somit weitere Entwicklungspotenziale,
dann erst setzt das Interesse von Wagniskapital ein. Das Unterfangen
selbst, eine erfolgreiche Grundlagenforschung zu marktreifen Anwendun-
gen zu verwandeln, wäre immer noch riskant genug. Die eigentliche und
ungewisse Grundlagenforschung wird von privaten Investoren deshalb
nicht getragen, weil in diesem Stadium die Ungewissheit noch schlicht zu
hoch wäre, als dass darin investiert werden könnte.
Zentrale technologische Durchbrüche bilden oft das Resultat einer ge-
wagten Grundlagenforschung, die private Investoren nicht zu finanzieren
vermögen. Die direkte Rentabilität wirkt zu ungewiss, das Risiko für pri-
vate Investoren oder institutionelle Anleger ist schlicht zu hoch. Stattdes-
sen sind es öffentliche Investitionen von Forschungseinrichtungen, die als
Anschubfinanzierung wirken. Erst wenn sich weitere Nutzpotenziale von
neuartigen Forschungsarbeiten ausmachen lassen, wird das Interesse von
Wagniskapitalgebern geweckt.
Nochmals kann das iPhone als Anschauungsmaterial genutzt werden. In
diesem Gerät finden sich nicht nur eine Spracherkennungssoftware und der
Touchscreen als Facetten integriert, die von öffentlicher Forschung anfäng-
lich entwickelt wurden. Auch das GPS-System, Halbleiterelemente auf Sili-
ziumbasis, Akkus auf Lithium-Ionen-Basis, ja selbst Datenübertragung mit-
tels Internet, all diese Entwicklungen markierten zu Beginn öffentliche For-
schungsprojekte.
Die unternehmerische Leistung von Apple im Hinblick auf das iPhone be-
stand also darin, unterschiedliche Innovationen, die durch öffentliche For-
33 Mazzucato (2013), S. 137.
Informationsethik
zur Plattform 63
schung angestoßen wurden, in einem massentauglichen Produkt zu integ-
rieren und durch geschicktes Marketing globale Absatzmärkte dafür zu kre-
ieren.
Das Problem an diesen erfolgreichen Private-Public Partnerschaften be-
steht nun darin, dass sie zu oft übersehen werden und die komplexe Wirk-
weise nicht verstanden wird. Zu oft werden technologischer Innovations-
geist schlicht dem genialen Handeln von UnternehmerInnen zugeschrie-
ben. Damit wird die Erzählung unzulässig vereinfacht. Vielmehr gilt es, ein
institutionelles Setting in modernen Gesellschaften zu bedenken, indem
unterschiedliche Akteure unterschiedliche Verantwortlichkeiten wahrneh-
men. Erst in der ergänzenden Wirkung dieses wirksamen Handelns werden
die Entfaltungsmöglichkeiten technologischer Durchbrüche vorangebracht.
Vor diesem Verständnishintergrund bemängelt nun die Ökonomin Mariana
Mazzucato auch das institutionelle Verhalten von Technologiekonzernen –
vor allem was, euphemistisch gesprochen, die Steueroptimierung dieser
Großkonzerne betrifft. Die Kritik an den Praktiken der Steuervermeidung
der Technologieriesen besteht darin, dass sie einen Deal brechen, von dem
sie selbst profitieren. Ihr innovativer Erfolg und ihre bemerkenswerte un-
ternehmerische Leistung geschieht auf Grundlage der Nutzbarmachung
öffentlich finanzierter Forschung und der Integration von Forschungspro-
jekten, die dann weiterverfolgt werden, wenn öffentliche Institutionen
über entsprechende Ressourcen verfügen. Durch Steuervermeidung und
die reine Privatisierung erzielter Profite wird der Kreislauf nun seitens der
Unternehmen aufgekündigt und Voraussetzungen für den eigenen Erfolg
kurzsichtig unterminiert. Die öffentliche Hand finanziert Grundlagenfor-
schung, die private Unternehmen aufgrund des damit verbundenen Risikos
nicht tragen können. Damit der Staat nun diese Tätigkeiten fortsetzen
kann, braucht es eine solide Finanzierungsgrundlage in Form von bezahlten
Steuern. Diese lässt sich nur aufrechterhalten, wenn die Gewinner dieser
Entwicklungen sich bereit und willens zeigen, einen ansprechenden Anteil
an der Finanzierung durch ihre Steuerleistung zu tragen. Nur wenn der Zir-
kel auf diese Weise geschlossen wird, lassen sich auch die Ausgaben des
Staates als sinnvolle Investition rechtfertigen, die sich durch erzielte Steu-
ereinnahmen selbst trägt.34
Die anfänglichen Risiken bezüglich technologischer Grundlagenforschung
werden also in der Form sozialisiert, als die Gemeinschaft sie finanziell
trägt. Die erzielten Profite, die auf diesen überwundenen Risiken bauen,
34 Mazzucato (2013), S. 231 ff.
Informationsethik
zur Plattform 64
werden dann schließlich vollends privatisiert. Diese Logik zeigt sich als
wenig nachhaltig.
Staatlichen Institutionen kommt eine wesentliche Rolle zu, wenn es um
Fragen wie Innovation und Wachstum geht. Öffentlichen Institutionen
kommt also eine entscheidende Aufgabe zu betreffend Wirksamkeit des
digitalen Wandels. Dieser Zusammenhang muss im Rahmen der digitalen
Transformation mitbedacht sein. Wie bereits erklärt, baut volkswirtschaft-
liche Produktivität auf den drei Faktoren Arbeit, Kapital und der totalen
Faktorenproduktivität auf. Fortschrittliche Maschinen, die als Kapitalanlage
gelten, vermögen nur dann ihr Entwicklungspotenzial zu realisieren, wenn
sie in eine fortschrittliche Infrastruktur eingebunden werden. In all diesen
Zusammenhängen wirkt also keine Gegnerschaft, sondern eine komplexe
Abhängigkeit wird wirksam, die speziell von verantwortungsvollen Ent-
scheidungsträgerInnen verstanden werden muss.
Doch nicht nur diese komplexe Wirkweise entscheidet über die Zukunft der
digitalen Transformation. Gesellschaftliche Entwicklungen können unter
demokratischen Rahmenbedingungen dann ihr volles Potenzial entfalten,
wenn sie allgemeine Akzeptanz erfahren. Der digitale Fortschritt wird dann
wesentlich und human erscheinen, wenn er merklich gesellschaftliche Ver-
besserungen erwirkt.
Eine wesentliche Fragestellung, der sich moderne Gesellschaften gegen-
wärtig stellen sollten, lautet, wie sich der technologische Fortschritt für
die ökologische Trendumkehr nutzen lässt und wie in diesem Rahmen
soziale Verbesserungen erwirkt werden können. Darin liegt die ethische
Aufgabe, die Technologie nicht allein vollbringen kann, sondern die das
Engagement von progressiven BürgerInnen in Demokratien verlangt.
Gegenwärtig zeigt sich, dass der technologische Fortschritt gesamtgesell-
schaftlich mitunter eine soziale Schieflage verstärkt, ein breites Gefühl der
Unsicherheit erzeugt und auf die erfolgreichen Aktivitäten einzelner, globa-
ler Unternehmen verkürzt wird. Diese Versäumnisse sind jedoch nicht der
Technologie selbst anzulasten. Sie symbolisieren stattdessen Veranlassun-
gen, um wirksam und aktiv zu werden. Wie in einer anderen Lehrveranstal-
tung bereits vermeint, hat Immanuel Kant bereits richtig erkannt, dass Un-
zufriedenheit das notwendige Motiv dafür bildet, um Verbesserungen er-
reichen zu wollen.
Vor dem Hintergrund der sich abzeichnenden Entwicklungen werden also
Neuansätze bedacht werden müssen, wie sich die Steuereinnahmen diver-
sifizieren lassen, um volkswirtschaftliche Realitäten besser abzubilden. Die
Einnahmengrundlage muss sich diesbezüglich ändern bzw. ausweiten. Un-
ter den Bedingungen, dass die manuelle Arbeitskraft durch technologische
Informationsethik
zur Plattform 65
Prozesse zunehmend unter Druck gerät, wird dieser Effekt noch zuneh-
mend verstärkt da manuelle Wertschöpfung in den europäischen Steuer-
systemen im Regelfall höher besteuert wird als Profite auf eingesetztes
Kapital. Die Grundzüge der Finanzierung der Sozialversicherungssysteme in
Deutschland und Österreich gründen sogar auf einer Herangehensweise,
die im 19. Jahrhundert erdacht wurde. Diese Grundlagen werden sich
durch die anstehenden Umbrüche der Zukunft aller Voraussicht nach sub-
stanziell verändern müssen. Fragen der Redistribution, der Einheit aus bzw.
Abhängigkeit von Einkommen und Arbeit, die Finanzierungsstruktur des
verteidigenswerten und verdienstvollen Wohlfahrtsstaates, die Einführung
eines bedingungslosen Grundeinkommens. Demokratien sind angehalten,
diese Debatten offen unter neuen Zugängen und Erkenntnissen zu führen.
Nicht nur dass diese Diskussionen anstehen, sie werden sich auch durch
neue Rahmenbedingungen menschlicher Selbstwahrnehmung gestalten.
Zum einen entsteht zusehends bei jüngeren Generationen das erfahrbare
Bewusstsein, Bestandteil einer Biosphäre zu sein, deren Funktionstüchtig-
keit durch menschliches Verhalten kritisch herausgefordert ist. Zum ande-
ren stellt sich die Frage, wie sich ein aufgeklärter Begriff von Freiheit ver-
teidigen lässt, wenn technologische Entwicklungen die Vorstellung von der
Autonomie des Menschen herausfordern.
Mehr dazu liefert das nächste Kapitel.
Informationsethik
zur Plattform 66
5 Technologie und Freiheit – das liberale Di-
lemma
Der Begriff Freiheit hat eine etymologisch interessante Entwicklungsge-
schichte. Das Wort stammt vom Gotischen freihals und dem Alt- bzw. Mit-
telhochdeutschen frihals ab. Beide Begriffe standen für Rechtsbezeichnun-
gen. Denn im Mittelalter waren Sklaven verpflichtet, Ringe um den Hals zu
tragen. Das war zuerst Instrument der Unterdrückung, dann als Erken-
nungsmerkmal Symbol ihres Status. Wenn sie freigelassen wurden, dann
legten sie diesen Ring ab. Freie waren eben durch den freien Hals gekenn-
zeichnet. Der freie Hals war das Merkmal des freien Bürgers. Er war frei der
Einschränkung und Brandmarkung, der andere unterlagen. Freiheit meint
in diesem Zusammenhang das Ablegen von äußeren Zwängen.
Die Wortwurzel zeigt also an, dass Freiheit ursprünglich die Abwesenheit
einer Einschränkung meinte, die ein Herr gegenüber Sklaven ausüben
konnte. Im heutigen Begriffsverständnis erscheint dieses Kriterium wie ein
Mindeststandard, um Freiheit denken und ausmachen zu können. Es gilt in
diesem Sinne, dass niemand, der/die unter der Kuratel einer anderen Per-
son stünde, sich als frei bezeichnen ließe. Aber das allein genügt nicht, wie
ein Rückschluss beweist. Jede und jeden allein dann als frei zu erachten,
wenn er oder sie nicht unter der Kuratel einer Person stünde, wäre dem
Anspruch der Sache nicht gerecht.
Es lässt sich also ausmachen, dass Freiheit im heute gängigen Verständnis
über mehrere Wesenszüge und Definitionsmerkmale verfügt. Allein das
Fehlen eines Ringes um den Hals wirkt als keine ausreichende und erschöp-
fende Vorbedingung, um Freiheit zu erfahren. Die Ansprüche sind höher,
weitreichender, substanzieller. Auf dieser Verständnisgrundlage zeigt sich
auch, dass der Begriff Freiheit mehrere Facetten impliziert. Freiheit im poli-
tischen Sinne meint essenziell etwas anderes als persönliche Freiheit oder
die Wahlfreiheit, die ein Konsument vor einem Supermarktregal erfährt.
Politische Freiheit basiert nach heute gängiger Auffassung beispielsweise
auf dem Grundgedanken demokratischer Einhegungen von institutioneller
Macht. Diese Bedingung, die sich im Rahmen des historischen Verlaufs der
letzten Jahrhunderte herausbildete, besagt, dass keine politische Instituti-
on so viel Macht auf sich vereinigen darf, dass sie diese unkontrolliert und
regellos ausüben kann. Die Idee von politischen Institutionen, die sich ge-
genseitig ausbalancieren, sich in der Ausübung und Anwendung von Macht
kontrollieren und beschränken, fußt exakt auf diesen Grundlagen. Unab-
hängige Organisationen kontrollieren die an Gesetze gebundene Macht-
ausübung von einzelnen Institutionen. Dass die Gesetzgebung (Legislative)
von der ausführenden Gewalt (Exekutive) und der Rechtsprechung (Judika-
Informationsethik
zur Plattform 67
tive) jeweils in Form von eigenständigen Organen getrennt wurde, diese
Entwicklung gründet exakt in der Überlegung, die unbestrittene Dominanz
einer Institution zu unterbinden. Wenn die Erlaubnis, Gesetze zu beschlie-
ßen, diese auszuführen und diese zu kontrollieren, nur einer einzigen Insti-
tution übertragen werden würde, hätte diese unbegrenzte Macht zur legi-
timen Anwendung von Willkür. Ein Grundsatz, auf dem die Demokratie
folglich fußt, besteht darin, dass institutionelle Macht so verteilt werden
muss, dass keine Institution legitimerweise gesetzlos und übergriffig han-
deln kann. Zum einen basieren also demokratische Verfahrensweisen auf
der Autonomie von Institutionen, die im Geiste ihre eigenen Auftrags-
Kontrollfunktionen ausüben. Dieses Prinzip der gegenseitigen Kontrolle
und der institutionellen Ausgewogenheit wird als Checks and Balances
bezeichnet. Zum anderen besitzen BürgerInnen unumgängliche Rechte, die
sie unter keinen Umständen verwirken. Die Bürgerrechte konstituieren die
zivile Basis eines demokratischen Gemeinwesens. Sie definieren, welche
unabkömmlichen Garantien die BürgerInnen eines Staates kennzeichnen
und wo sich legitime Grenzen staatlichen Handelns befinden.
Ein praktisches Beispiel diesbezüglich: Das Recht auf freie und geheime
Wahl bildet ein solches Bürgerrecht, es ist unabkömmlich. Was meint, es
wäre unzulässig in geheimer und freier Wahl darüber abzustimmen, ob
dieses Wahlrecht schlicht aufgehoben wird. Da die Demokratie auf der An-
erkennung von Bürgerrechten beruht, diese Bürgerrechte gar im Wesentli-
chen den Kern des demokratischen Gedankens bilden, wäre es selbst bei
Einstimmigkeit undemokratisch, das Wahlrecht einfach aufzuheben.
Freiheit bedeutet also in einer gesellschaftlichen Rahmensetzung, dass
Willkür durch machtvolle aber eingehegte Institutionen unterbunden wird.
Zum einen, weil die Gewaltenteilung wirksam wird. Zum anderen, weil sich
alle handelnden Akteure an geltende Regeln zu halten haben. Zum Weite-
ren, weil BürgerInnen mit unabdingbaren Rechten ausgestattet sind, die
ihnen nicht streitig gemacht werden können. Diese Grundrechte bilden das
eigentliche und wirksame Fundament demokratischer Zivilität. Die univer-
selle Überzeugung würde nun besagen, dass nur in jenen Zusammenhän-
gen die Bedingungen der Freiheit erwirkt werden, wo diese legalistischen
Grundsätze erfahrbar sind und einklagbar wären.
Dieser Ansatz steht im radikalen Gegensatz zur Annahme, dass sich immer
dort ein größeres Ausmaß an Freiheit findet, wo möglichst wenig Regeln
gelten. Diese Auffassung von Freiheit meint, dass jedes wirksame Gesetz
faktisch und unumstößlich eine Einschränkung darstelle und damit konse-
quent die Freiheit begrenzt werde. Das Problem dieser Auffassung besteht
schlicht darin, dass die vollkommene Regellosigkeit im Regelfall dann nicht
Informationsethik
zur Plattform 68
zur letzten Expansion der Freiheit führt, sondern diese Form der Anarchie
die Vorbedingung dafür bildet, dass sich die Herrschaft des Stärkeren her-
ausbildet. Aus diesem Grund lässt sich Freiheit nicht als einfaches Null-
summenspiel denken: Mehr Gesetz gleich weniger Freiheit – oder anders,
mehr Freiheit verlangt nach weniger Gesetz. Vielmehr gründen moderne
und aufgeklärte Auffassungen von Freiheit darin, dass ein spezifisches Ar-
rangement an Institutionen und Gesetzen die Bedingungen gesellschaftli-
cher Freiheit eröffnet.
Ist also Freiheit, weil sie teils politisch zu denken wäre, nur in Gemeinschaft
erlebbar? Das wäre ein irrender Ansatz. Freiheit konzentriert sich stattdes-
sen immer auf das Individuum. Nur als Individuum lässt sich Freiheit erfah-
ren, im Rahmen der Ausschöpfung der eigenen Möglichkeiten und Veran-
lagungen. Aber damit dies wirksam werden kann, braucht es eine geteilte
und gesicherte gesellschaftliche Basis und an dieser Grundlage lässt sich
permanent progressiv fortwirken. Ihre Entwicklung bildet sogar wesentlich
den Prozess des Fortschritts der Moderne ab.
Denn das moderne Zeitalter bildet genaugenommen einen kontinuierli-
chen, nicht bruchlosen, aber stetigen Prozess, der es versteht, die Wirkung
der Freiheit auszuweiten. Im 18. Jahrhundert wird gegen die absolutisti-
schen Herrscher ein Kanon an liberalen Grundrechten erstritten. Ganz im
Geiste der Aufklärung wird den absolutistischen Herrschern abverlangt,
ihre Macht zu beschränken, um die Freiheit der BürgerInnen anzuerken-
nen. Im 19. Jahrhundert wird entdeckt, dass diese erzielten liberalen
Grundrechte erst Sinn ergeben, wenn sie durch politische ergänzt werden.
Das Recht auf freie Meinungsäußerung führt konsequent zum gleichen
Stimmrecht. Im 20. Jahrhundert folgt dann die Ergänzung um die sozialen
Grundrechte. Fortschritt liegt also in der permanenten Ausweitung von
Bürgerrechten im Geiste der Freiheit.
Über die Entwicklungsgeschichte zeigt sich auch, dass diese Form der Frei-
heit kein finales Stadium erreichen kann. Es gilt als gesellschaftlicher Auf-
trag, permanent an ihr fortzuwirken, die Freiheit in ihrer Unvollkommen-
heit fortlaufend zu verbessern.
All diese Prozesse sind aber ohne eine grundsätzliche Einsicht nicht denk-
bar, die von der Aufklärung erkannt wurde: Es handelt sich um das auto-
nome Individuum, dessen Würde sich nur in Freiheit realisiert. Freiheit ist
laut dieser Logik der entsprechende Ausdruck menschlicher Selbstbestim-
mung.
Informationsethik
zur Plattform 69
Diese Autonomie lässt sich nur vor dem Hintergrund der Überzeugung
denken, dass der Mensch ein vernunftbegabtes Wesen besitzt. Durch Lo-
gik, Argument, Sinneswahrnehmung begründet sich die Selbstbestimmung
des Menschen, die Fähigkeit und die Verpflichtung frei zu agieren. Analyse,
Erfahrung, Versuch führen zur Erkenntnis der Welt, in der Absicht, den
Wissenshorizont zu erweitern. Genau dafür braucht es die Stimmen abwei-
chender Meinungen und selbst irrender Positionen, damit der Fortschritt
weiterhin wirksam wird, Argumente sich schärfen und die besseren Erklä-
rungen entdeckt werden. Deshalb sind auch gerade Gespräche zwischen
abweichenden Meinungen und Diskussionen zwischen gegensätzlichen
Positionen ertragreicher, solange sie der Grundlage vernunftbasierter Ak-
zeptanz objektiver Fakten folgen und einem unvoreingenommenen Er-
kenntnisinteresse gehorchen.
Worauf gründet nun Erkenntnis? Wie in anderen Lehrveranstaltungen be-
reits reflektiert, meint Erkenntnis vorrangig die Einsicht in den eigenen Irr-
tum bzw. die Korrektur von Fehlannahmen. Wissen entsteht aufgrund der
Auflösungen falscher Vorstellungen, wenn bessere Einsichten erschlossen
werden.
Neues Wissen bricht also überholte Überzeugungen auf. Es verändert die
Wahrnehmung und korrigiert falsche Gewissheiten. Wissen bewirkt Verän-
derung, denn durch Einsicht werden neue Überzeugungen gewonnen,
Meinungen ändern sich. Das Prinzip von Freiheit meint genau in diesem
Zusammenhang, dass reflektierte Entscheidungen von autonom handeln-
den Personen getroffen werden.
Bedeutsam scheint in diesem Zusammenhang jene Wirkbeziehung, dass
durch neue Erfahrung und andere Einsichten reflektiertes Wissen entsteht,
voreingenommene Überzeugungen sich auflösen und in logischer Folge
sich persönliche Meinungen ändern. Eine Grundlage aufgeklärten Denkens
besteht exakt in dem Zusammenhang, dass sich vernunftbetontes Wissen
verändert und der Mensch willens sei, auf Grundlage eines besseren Ver-
ständnisses seine eigenen Ansichten zu ändern. Da Wissen kein fixiertes
und abschließendes Stadium an Erkenntnis meint, sondern sich anhand
besserer Erklärungen adaptiert, verändern sich persönliche Gewissheiten
durch eingehenderes Verständnis eines Sachverhalts. Dieser Reflexionszu-
sammenhang determiniert ein aufgeklärtes Verständnis der Überzeugun-
gen, die den Menschen prägen und sein Handeln leiten. In dieser Wirkung
entfaltet sich die autonome Freiheit des Menschen. Dieser Zusammenhang
wird nun jedoch durch den aktuellen Aufbau von Technologie fundamental
herausgefordert.
Informationsethik
zur Plattform 70
Vor allem die sozialen Netzwerke manifestieren ein illustratives Beispiel
dafür, wie diese Prinzipien durch die gegenwärtige Funktionslogik und
wirksame Zweckbestimmung von sozialen Netzwerken herausgefordert
werden. Warum?
Zum einen gründet das ökonomische Fundament der sozialen Netzwerke
auf dem Verkauf von Werbung. Die Werbebotschaften lassen sich dabei
denkbar ideal platzieren, als exakt jene Personenkreise adressiert werden
können, die vom Marketing als die relevanten Zielgruppen identifiziert
werden. Denkbar vielfältige sozio-ökonomische Kriterien lassen sich als
Identifikationsmerkmal wählen, um eine relevante Personengruppe zu
konstituieren. Die präzise Segmentierung der NutzerInnen von sozialen
Netzwerken geschieht anhand der Analyse von Interessen, die individuell
auf den Plattformen verfolgt werden, und den Persönlichkeitsmerkmalen,
die preisgegeben werden. Diese Informationen werden nicht nur einge-
hend analysiert und ausgewertet, sie lassen sich auch zu dezidierten und
wahlweisen Personengruppen zusammenfassen. Den Werbekunden wer-
den also exakte InteressentInnen angeboten, die mit präzis platzierten Bot-
schaften erreicht werden.
Der Ansatz, dezidierte Personengruppen mit passenden Schlüsselbot-
schaften in sozialen Netzwerken zu erreichen, wird mit dem Begriff
Mikrotargeting umschrieben. Dieses Verfahren erlaubt es, eng begrenzte
Mittel der Öffentlichkeitsarbeit möglichst effektiv einzusetzen und einen
eingrenzbaren Interessentenkreis mit abgestimmten Nachrichten zu ad-
ressieren.
Bei weitgehend sprachbasierten Netzwerken, wie es beispielweise Face-
book darstellt, lässt sich die Analyse von Persönlichkeitsprofilen sehr direkt
und einfach gestalten. Komplizierter gestaltet sich das Verfahren, wenn
beispielsweise das Netzwerk rein bildbasiert operiert – Instagram, rechtlich
zu Facebook gehörend, ist diesbezüglich ein ansehnliches Beispiel. Ver-
stärkte Investitionen in Bilderkennung erklären sich auch genau vor diesem
Hintergrund. Erst wenn sich effektive Software dafür einsetzen lässt, den
Inhalt von Bildern zu erkennen, dann können tiefgreifende und datenba-
sierte Analysen über Vorlieben und Verbindungen wirksam werden, die auf
Plattformen wie Instagram zur Schau gestellt sind. Dafür müssen Pro-
gramme über die Fähigkeit verfügen, einzelne Pixel im Zusammenhang mit
den umliegenden Pixeln zu verknüpfen. Auf diese Weise werden Zusam-
mengehörigkeiten erkannt und die dargestellte Abbildung digital analysiert.
Dieser Informationswert erlaubt es, intensive Persönlichkeitsprofile anzu-
legen. Wie schwierig das teilweise ist und wie präzise die Datenanalysen
arbeiten müssen, zeigt das Schaubild unten. Es ist gegenwärtig enorm auf-
Informationsethik
zur Plattform 71
wändig, bei Softwareprogrammen jene Exaktheit zu erreichen, die es
braucht, um wesentliche Unterscheidungsmerkmale anhand von Bildmate-
rialien zu treffen. Das Bild unten, das Muffins oder Chihuahuas zeigt, illus-
triert die Diffizilität.
Abbildung 11: Muffins oder Chihuahuas35
Darüberhinausgehend lässt sich auch die Reaktion auf konkrete Maßnah-
men oder Stellungnahmen exakt bestimmen, testen und gegebenenfalls
die eigene Message nachadaptieren. Damit diese Funktion nun denkbar
ausgereift und interessant angeboten werden könnte, setzt es manche
Vorbedingungen voraus: Ein Netzwerk sollte möglichst viele NutzerInnen
auf die eigenen Plattformen locken. Im Zuge von marketingbasierten Wert-
schöpfungsketten wächst investierte Aufmerksamkeit zu einem entschei-
denden Kennwert. Auf den Plattformen sollte deshalb denkbar viel Zeit
verbracht und persönliche Informationen preisgegeben werden. Das ge-
schieht vor allem dann, wenn persönlicher Austausch gefördert wird, Ver-
bindungen entstehen und persönliche Vorlieben freiwillig dokumentiert
werden.
Was erscheint also als wirksames, theoretisches und ideelles Prinzip hinter
den erfolgreichen Netzwerken? Um folglich die gewünschten Verhaltens-
weisen von NutzerInnen zu befördern und zu initiieren, reflektieren soziale
Netzwerke die intellektuellen Grundlagen des Behaviorismus.
Behaviorismus verfolgt den Ansatz, dass menschliches und tierisches
Verhalten das Ergebnis von verstärkenden und abschwächenden Fakto-
ren sei. Gewünschtes Verhalten lässt sich also methodisch durch gezielte,
manipulative Anreize schaffen.
35 Quelle: Yao (2017), URL.
Informationsethik
zur Plattform 72
Diese Anreize werden in den sozialen Netzwerken durch die kalkulierte
Anzeige von Informationen geschaffen. Algorithmen treffen diesbezüglich
Entscheidungen, was in den persönlichen Feeds angezeigt wird, wie das
individuelle Interesse geweckt und Interaktion motiviert wird. Das bedeu-
tet die Logik der gängigen Netzwerke basiert nicht vorrangig auf der Ver-
knüpfung von Einzelpersonen, sondern auf der Beobachtung von individu-
ellem Verhalten, das gezielt moduliert wird, um möglichst viel ökonomi-
schen Nutzen zu generieren. Diese Wirkung wird erzielt, indem ein ausge-
klügeltes System aus Strafe und Anerkennung etabliert wurde, dass die
individuelle Verhaltensweise formt. Anerkennung geschieht in dieser Form
vor allem durch ansprechende Reaktionen von anderen, die erfahren wer-
den. Strafe besteht darin, dass unangenehme Reaktionen in Gestalt von
Gegenantworten hervorgerufen werden. Diese intendierten Reaktionen
wirken wie Stimuli, die bewusst gesucht und durch die Modifikation des
Verhaltens von NutzerInnen herbeigeführt werden. Sie erzeugen ein kon-
kretes Verhalten, das dann von den Plattformen selbst kommerzialisiert
wird. Deshalb lässt sich die Wirkweise von sozialen Netzwerken nicht als
reine Werbeplattform verstehen. Vielmehr muss die Tiefenwirkung begrif-
fen werden, dass individuelles Verhalten tendenziös und inkrementell mo-
duliert wird. Der Virtual Reality Pionier und Technikphilosoph Jaron Lanier
argumentiert mittlerweile vor diesem Verständnishintergrund dafür, dass
sich NutzerInnen von den bestehenden Plattformen lösen müssen, weil die
manipulativen Verfahren zur Erosion gesellschaftlichen Ausgleichs und zur
Manipulation von Individuen führen.36 Die bedeutsame Idee von sozialen
Netzwerken und der Verbindung von Individuen über das konventionelle
Internet wurde durch dieses Geschäftsmodell überdeckt. Jaron Lanier be-
zeichnet deshalb Unternehmen wie Facebook nicht als soziale Plattformen.
Er erkennt in ihnen auch keine Anzeigenverkäufer, deren Geschäftsmodell
schlicht im Vertrieb von Werbeflächen bestehen würde. Vielmehr qualifi-
ziert er die Praxis dieser multinationalen Konzerne als „Imperien zur Ver-
haltensänderung“.37
In Referenz auf das Freiheitsverständnis, das sich seit Beginn der Aufklä-
rung herauszubilden begann, zeigt sich eine vehemente Schwierigkeit, die
Mikrotargeting bei der politischen Bewusstseinsbildung verursacht. Die
Idee, dass wenn persönliche Vorlieben einer Person erstmal entziffert wur-
den, diese dann durch Anzeigen und Informationen gezielt bedient und
verstärkt werden können, widerspricht in letzter Konsequenz dem Prinzip
neuer Einsichten. Nachdem Einstellungen und ideelle Merkmale einer Per-
36 Lanier (2018), S. 8 ff.
37 Zit. nach Versai (2018), URL.
Informationsethik
zur Plattform 73
son entschlüsselt sind, werden jene Nachrichten eingeblendet und darge-
stellt, die der eigenen Auffassung entsprechen oder radikal andere Ansich-
ten präsentieren, die zur Widerrede aufrufen. So entsteht eine Bipolarität,
die vor allem bezweckt, dass im Netzwerk affirmative Aktion und aggressi-
ve Reaktion entsteht, Zeit in den Netzwerken verbracht wird, die Plattfor-
men mit Inhalten gefüllt werden, Stimuli in Form von Bestätigung oder Ab-
lehnung erhalten werden. All das geschieht, um den ökonomischen Wert
einer Plattform steigen zu lassen, je mehr Zeit darauf verbracht wird, je
mehr Informationen preisgegeben werden, je größer die Zahl der Nutze-
rInnen, umso interessanter wirkt ein soziales Netzwerk für potenzielle An-
zeigekunden.
Was diese Logik nicht zu berücksichtigen versteht, ist die Wirkweise der
autonomen Entscheidungsfindung, wie sie konzeptionell von aufgeklärten
Menschen getroffen wird. Auf Grundlage von besserer Einsicht verändern
sich Meinungen und Überzeugungen. Wissen agiert transformativ, vertief-
tes Verständnis ändert Auffassungen, neue Perspektiven führen zu neuen
Ansichten. Diese Logik der Veränderung und des besseren Verständnisses
begründet aufgeklärtes Denken, dass dem freien Menschen eigen ist. Die
Funktionsweise von sozialen Netzwerken hingegen rückt die bestehende
Auffassung in den Mittelpunkt und entsprechend werden für NutzerInnen
Beiträge bzw. Werbebotschaften arrangiert, die diese vorgefassten Mei-
nungstendenzen verstärken. Die Netzwerke zerfallen in sich selbst als ab-
grenzende Kammern. Nicht durch neue, weitere oder andere Erkenntnisse
wird das eigene Bewusstsein herausgefordert, sondern durch die Einblen-
dung von genehmen Positionen entstehen Echokammern, schlicht darauf-
hin ausgerichtet, vorgefasste Meinungen zu bestärken, radikale Gegen-
standpunkte aufeinanderprallen zu lassen, Auffassungen zu zementieren,
anstatt sie zivil herauszufordern und inkrementell zu verändern. Darin liegt
eine wesentliche Herausforderung für das Bild eines autonom agierenden
Menschen, der fähig wäre auf Basis qualifizierter Analysen und umsichtiger
Informationsverarbeitung, ethisch zu agieren.
Die Anzeige von Beiträgen in den sozialen Netzwerken repräsentiert folg-
lich einen kalkulierten und berechneten Ausschnitt an verfügbaren Infor-
mationen in den sozialen Netzen, darauf zielend, konkrete Verhaltenswei-
sen der NutzerInnen zu befördern. All das geschieht in der Absicht, Nutze-
rInnen an die Plattform zu binden, um im Rahmen einer digitalen und Algo-
rithmus basierten Aufmerksamkeitsökonomie, Wertsteigerungen zu erwir-
ken. Nicht nur, dass persönliches Verhalten modifiziert wird und gefasste
Vorurteile gekonnt bespielt werden, auch gründen darauf Geschäftsmodel-
le. Darin besteht eine enorme Herausforderung erwirkter Freiheit.
Informationsethik
zur Plattform 74
Die ethische Herausforderung liegt also darin, dass die Prinzipien reflek-
tierter Wissensbildung der gängigen Funktionslogik von sozialen Netz-
werken entgegenstehen. Verständnis für einen Sachverhalt wächst dann,
wenn sich durch verbesserte Einsichten Meinungen ändern. Die kommu-
nikative Routine auf den sozialen Plattformen hingegen baut auf der De-
duktion vorhandener Auffassungen und der entsprechenden Verstärkung
dieser durch ein Schema, das auf Anerkennung und radikaler Konfronta-
tion aufbaut, auf.
Das Setup ist also kein Zufall, nicht der Technologie per se zuzuschreiben,
die bestimmbaren Folgewirkungen nicht zwangsläufig oder unvermeidbar,
wenn soziale Medien genützt werden sollen. Es handelt sich stattdessen,
um eine bewusste Entscheidung seitens der Technologiekonzerne, im Inte-
resse des eigenen Marktwerts getroffen. Als fatale Kettenreaktion wirkt die
rasante Verbreitung von Falschmeldungen oder ungeprüfter Gerüchte, die
Ununterscheidbarkeit zwischen verifizierbaren Tatsachenberichten und
haltlosen Behauptungen, die Entstehung von diskursiven Parallelgesell-
schaften. Soziale Netzwerke, die einst die öffentlichkeitswirksame Mission
für sich selbst definierten, die Menschheit zu vernetzen, zerfallen zuse-
hends in starre Kleinverbindungen. Plattformen strukturieren also nicht ein
gemeinsames Netzwerk, sondern erscheinen vielmehr als die operative
Grundlage für segregierte und thematisch abgekapselte Subnetze, zerfallen
in zahllose Echokammern.
Ein entscheidender Aspekt, wenn über diese Eigenheit nachgedacht wird,
besteht darin, dieses Merkmal nicht als einen unumgänglichen Makel der
technologischen Entwicklung zu betrachten, sondern die ökonomische
Verwertungslogik zu reflektieren, die das Setup begründete. Anfänglich war
es eine rasante Wachstumslogik, die dazu führte, NutzerInnen anzuhalten,
möglichst viel ihrer begrenzten Zeit auf Aktivitäten in den sozialen Medien
zu verwenden. Dafür mussten Anreize wie ein Belohnungssystem in Form
von der wahrnehmbaren Eigenwirkung geschaffen werden – sei es in Form
von verdienten Likes. Als dann die Business-Modelle intensiviert und ver-
bessert wurden, verstärkte sich die bewährte Logik zusätzlich.
Auch aktuell zeigt sich ein Wachstumstrend, wenn die durchschnittliche
Zeit ermessen wird, die NutzerInnen von sozialen Medien auf den unter-
schiedlichen Plattformen verbringen.
Informationsethik
zur Plattform 75
Abbildung 12: Minuten, die NutzerInnen auf sozialen Netzwerken täglich verbringen
(Bezug: Android NutzerInnen in den USA)38
Eine der essenziellen und wunderbaren Dienstleistungen, die das konven-
tionelle Internet ermöglicht, besteht darin, Personen in flexiblen Netzwer-
ken über globale Distanzen zu verbinden. Gemeinsame Interessen lassen
sich teilen, Informationen übertragen, mono- oder multithematische Grup-
pen können sich konstituieren, die Reichweite erlaubt es, von der lokalen
Ebene bis zur interkontinentalen Distanz soziale Einheiten zu integrieren.
Diese Schlüsselfunktion wirkt als ein fortschrittliches und attraktives We-
sensmerkmal, dass der Nutzung des Internets eignet. Form, Verfahren und
Strukturen, wie diese Prozesse gegenwärtig abgewickelt werden, entspre-
chen einer gewissen Form der Kommerzialisierung und der politischen
Ökonomie der bestehenden Verhältnisse. Es ließe sich auch anders denken
und realisieren.
Das nächste Kapitel zeigt diesbezüglich eine vergleichbare Vorgehensweise
im Hinblick auf die Geschäftspraktiken maßgeblicher Startup-Konzerne, die
gerne als Sinnbild für disruptive Geschäftsmodelle in einer Branche ver-
standen werden.
Abschließend: Die Darstellung von Inhalten in den sozialen Netzwerken, die
Einzelpersonen angezeigt bekommen, basiert auf der Kalkulation von Algo-
rithmen, die einfach versuchen, persönlichen Erwartungshaltungen zu ent-
sprechen. Die Funktionsweise der Algorithmen zielt darauf, jene Beiträge
zu erkennen, die eine Person bevorzugt lesen möchte. Es werden also Mus-
ter erkannt und dann plausible Vorhersagen abgeleitet, Vorlieben und vor-
38 Molla/Wagner (2018), URL.
Informationsethik
zur Plattform 76
gefasste Meinungen werden extrapoliert. Dieser Erkenntniszusammenhang
wirkt nun nicht nur im Umfeld der sozialen Medien. Auch andere Big Data
Analysen zielen genau darauf ab, anhand von empirischen Datenbestän-
den, konkrete Handlungsweisen in der Zukunft vorherzusagen. Diese Ent-
wicklung wird mit dem Schlagwort Predictive Analytics umschrieben.
Was genau meint Predictive Analytics? Predictive Analytics umfasst eine
Vielzahl von statistischen Techniken aus den Bereichen Data Mining, Pre-
dictive Modelling und Machine Learning. Aktuelle und historische Fakten
bzw. vergangene Verhalten werden analysiert, um Vorhersagen über zu-
künftige oder sonst unbekannte prognostizierbare Ereignisse zu treffen.
Predictive Analytics erlaubt also auf Grundlage einer umfassenden Daten-
auswertung, Muster zu deduzieren, die mit gewisser Plausibilität zukünfti-
ge Verhaltensmuster antizipieren lassen.
Dieses Wissen lässt sich nun beispielsweise dafür nutzen, dass KundInnen
individualisierte Angebote gemacht werden, da das weitere Konsumverhal-
ten von Einzelpersonen sich anhand vergangenen Benehmens eruiert lässt.
Es lässt sich dafür nutzen, politische Präferenzen zu bestimmen und diese
geschickt zu adressieren. Predictive Analytics wird häufig gerade dann kri-
tisch thematisiert, wenn es in Verbindung mit dem Vorschlag von Predicti-
ve Policing auftritt. Statistische Datenauswertungen werden in diesem Zu-
sammenhang dafür genutzt, um potenzielle Verbrechen zu verhindern.
Predictive Policing analysiert individuelles Benehmen, kombiniert dieses
mit modernen GPS-Daten und anderen dokumentierten Verstößen von
Einzelpersonen, um die Wahrscheinlichkeiten von anstehenden Gesetzes-
übertritten zu ermessen. Die Polizeiarbeit wandelt sich also von der Ahn-
dung von Verbrechen hin zur Verhinderung derselben. Es wird folglich an-
hand von multiplen Datenbeständen die Wahrscheinlichkeit von Zwangs-
läufigkeiten determiniert, um auf dieser Grundlage dem Sicherheitsbedürf-
nis moderner Gesellschaften genüge zu leisten.
Speziell Predictive Policing zeigt nun immanente Konsequenzen für die Auf-
fassungen davon, wie Menschen eigentlich agieren. Wenn sich aus aufge-
zeichneten Verhaltensmustern denkbar exakte Vorhersagen treffen lassen,
dann wird das Rollenbild eines autonom agierenden Menschen entschei-
dend herausgefordert. Wenn sich aufgrund vergangenen Verhaltens zu-
künftiges Benehmen abstrahieren lässt, dann wird die wesentliche Auffas-
sung manifest herausgefordert, die ein liberales Menschenbild begründet –
nämlich der Sachverhalt, dass ein Mensch selbstbestimmt und frei auf Basis
eigener und ungezwungener Entscheidungen agiert.
Informationsethik
zur Plattform 77
Predictive Analytics operiert zwar in Wahrscheinlichkeiten, aber oft wird
dem Phänomen speziell im öffentlichen Diskurs ein gewisses Maß an De-
terminismus zuerkannt.
Determinismus meint die Auffassung von der kausalen Vorbestimmtheit
allen Geschehens und Handelns. Als solche steht diese Überzeugung quer
zum Ansatz der Willensfreiheit.
Freier Wille, freie Entscheidung, die Überzeugung, dass menschliches Han-
deln auf diesen Paradigmen beruht, bildet die theoretische und praktizierte
Voraussetzung dafür, dass Demokratien realisierbar werden. Eine freie Ge-
sellschaft baut auf dem Grundton, dass mündige BürgerInnen autonome
und vernünftige Entscheidungen treffen werden.
Wird dieser gedankliche Grundsatz nun durch die Praxis von vortrefflichen
Predictive Analytics zunehmend bedrängt oder gar widersprüchlich zur
erfahrbaren Welt, dann könnten Grundsätze des aufgeklärten Weltbilds zu
erodieren beginnen.
Deshalb sei an dieser Stelle eines vermerkt: Freiheit im essenziellen Sinne
meint vor allem die Anerkennung der Fähigkeit des Menschen, das eigene
Leben vernunftbasiert, individuell und eigenständig zu gestalten. Es meint
nicht, aus einem vorgegebenen Sortiment von Produkten eine bevorzugte
Auswahl zu treffen. Wird Freiheit darauf reduziert, dann sind ideelle Um-
brüche zu erwarten.
Überspitzt formuliert: Predictive Analytics mag dabei helfen, Konsumver-
halten zu entschlüsseln. Wenn also eine Zeit lang Windeln für Säuglinge
gekauft werden, dann ist daraufhin zu erkennen, dass bald die Nachfrage
nach Holzspielzeug entsteht, das lässt sich mit Big Data erwirken. Wie aber
ein modernes, ethisches, vernünftiges, nachhaltiges Leben im 21. Jahrhun-
dert geführt werden kann, dafür bedingt es der autonomen Entscheidun-
gen aufgeklärter Individuen. Wenn Big Data nun dabei hilft, komplexe Ent-
scheidungsgrundlagen aufzubereiten, um neue und ergänzende, auch ge-
winnträchtige Perspektiven zu erschließen, dann hat bereits eine Techno-
logie effektiv zum zivilen Fortschritt beitragen können. Doch die Autonomie
der Entscheidung obliegt dem Menschen, auch weil er sich aus der Ver-
antwortung für die Welt nicht stehlen kann.
Doch nicht nur Predictive Analytics zeigt diesbezüglich vehemente Konse-
quenzen für die Selbstwahrnehmung des Menschen betreffend Gestaltung
und Erfahrung von Wirklichkeit. Predictive Analytics nutzt Big Data, umfas-
sende und disparate Datenbestände werden also darauf verwandt, konkre-
te Aussagen zu treffen.
Informationsethik
zur Plattform 78
Die Schwierigkeit für das menschliche Selbstbewusstsein wartet nun darin,
dass Maschinen Aussagen über die Wirklichkeit treffen können, die den
kognitiven Erkenntniswegen des Menschen schlicht verschlossen bleiben.
Der menschliche Verstand fungiert somit nicht mehr als alleinige und ent-
scheidende Richtinstanz der Analyse weltlicher Prozesse, sondern er stützt
seine Einschätzung auf computergestützten Operationen. Big Data meint
die Aufzeichnung von einer Fülle an Datenbeständen, die nur noch dann
informativ verarbeitet werden können, wenn auch dafür computergestütz-
te Verfahren zur Anwendung kommen.
Das Wissen, das aktuell dokumentiert wird, zeigt Ausmaß und Fülle, die
sich nur noch dann gewinnbringend auswerten lassen, wenn technologi-
sche Verfahren zur Anwendung kommen. Die aussagekräftige Aufberei-
tung von Information benötigt bereits technologische Unterstützung. Da-
nach werden dann Kreativität, Einschätzung und Interpretation durch den
menschlichen Geist verlangt. Dieser Einschnitt markiert eine Zäsur.
Das 21. Jahrhundert dokumentiert also den Übergang in ein neues Zeital-
ter, das dem Menschen neue Rollen zudenkt. Für den Bruch überholter
Konventionen zeigen sich zwei zentrale Faktoren entscheidend:
Die digitale Transformation bewirkt, dass Gegenstände, die wir nutzen, in
konkreter Hinsicht intelligenter agieren können als der Mensch selbst. Das
Verhältnis zwischen Menschen und Gegenständen, die genutzt werden,
verändert sich damit nachhaltig. Nicht nur das: Bisher war der Weiterent-
wicklung jedes Gegenstands menschlichem Erfindungsgeist zuzuschreiben,
Künstliche Intelligenz hingegen trainiert sich selbst und wird eigentätig
schlauer.
Der Klimawandel redefiniert zusätzlich das Verhältnis zwischen Menschen
und Natur. Die ältesten fossilen Funde, die die Existenz der Spezies Homo
Sapiens belegen, finden sich in Afrika und lassen sich 300.000 Jahre rückda-
tieren. Der Klimawandel ändert nun die thermischen und klimatischen Be-
dingungen im natürlichen Lebensraum des Menschen, wie es innerhalb
dieses Zeitraums vergleichbar nicht vorgekommen ist.
Beides wird nachhaltige Veränderungen bewirken.
Informationsethik
zur Plattform 79
6 Die Moral der Disruption
Wird über Veränderung im Rahmen der digitalen Transformation nachge-
dacht, dann fällt regelmäßig der Begriff Disruption. Das Schlagwort stammt
aus dem Englischen, auf Deutsch übertragen bezeichnet disruption Zu-
sammenbruch, Störung, Diskontinuität.
In Verbindung mit der digitalen Transformation meint Disruption den
Umbruch und die Erneuerung von konventionellen Geschäftsmodellen
durch den Einsatz neuer Technologien.
In der Verlagsbranche wurde durch neue Mechanismen der Informations-
beschaffung die Relevanz der gedruckten Tageszeitung oder konventionel-
ler Nachrichtensendungen gesenkt. Bedeutungen haben sich radikal ver-
schoben. Der Anzeigenmarkt, der für Tageszeitungen und Magazine neben
den Vertriebserlösen die bedeutsamste Einkommensquelle bildete, erfuhr
radikale Umwälzungen. Soziale Medien und Suchmaschinen verdienen
mittlerweile eindrücklich an den Umbrüchen und Abstürzen der anderen.
Facebook veröffentlicht Kennzahlen, die belegen, dass im Jahr 2018 rund
55 Milliarden Dollar an Werbeumsätzen erzielt wurden. Google kassierte
im selben Jahr 116 Milliarden Dollar an Werbeeinnahmen.39 Bei beiden
Unternehmen muss berücksichtigt werden, dass sie, anders als Verlagshäu-
ser, keine eigenen Inhalte produzieren. Sie verstehen sich auch nicht als
solche, sondern agieren ihrem Rechtscharakter nach als reine Plattformen,
die für Inhalte nicht haftbar zu machen sind. Vielmehr sind es die NutzerIn-
nen, die Inhalte zur Verfügung stellen, die entweder das soziale Netzwerk
beleben oder auf Suchmaschinen hinweisen können.
Das Prinzip, dass NutzerInnen Inhalte kostenlos produzieren und zur Verfü-
gung stellen, Inhalte, die dann von den Plattformen selbst kommerzialisiert
werden, nutzen beispielsweise einige DenkerInnen als einen Begründungs-
zusammenhang für eine Art des bedingungslosen Grundeinkommens.40
Durch effizientes Steuerregime und der Redistribution mittels Grundein-
kommen würden die VerfasserInnen von Inhalten für ihre Aktivitäten ent-
lohnt. Das Verfassen von Inhalten wäre die anzuerkennende entlohnende
Arbeit, die Netzwerke vermarkten. Die Plattformen würden dementspre-
chend als Verwerter der Inhalte zu einem Medium werden, das die Beiträ-
ge effektiv monetarisiert, bevor die erzielten Einnahmen dann weiterver-
teilt werden.
39 Vgl. Fidler (2018), URL.
40 Vgl. Lobe (2017), URL.
Informationsethik
zur Plattform 80
Wie in einer anderen Lehrveranstaltung bereits vermerkt, eignet sich auch
die Musikindustrie als Sinnbild eines Marktes, der durch die Logik der Dis-
ruption essenziell erneuert wurde: In der zweiten Januarwoche 2019
schaffte es der New Yorker Musiker A Boogie wit da Hoodie auf Platz 1 der
amerikanischen Album Charts Billboard 200 mit gerade einmal 823 ver-
kauften Tonträgern. Die Spitzenposition erhielt er insofern, als seine Popu-
larität bei den Streamingdiensten sich in Albumäquivalente übertragen
lässt. Billboard verbuchte für das Album Hoodie SZN in der besagten Wo-
che 58.000 Albumäquivalente in den Streamingdiensten und 823 verkaufte
Tonträger.41
Disruption wird also dann wirksam, wenn sich innovative Technologien mit
neuartigen Geschäftsmodellen so verbinden, dass bestehende Prozesse
und Absatzwege nahezu schlagartig obsolet werden.
Ein Unternehmen, das vielen als Inbegriff disruptiver Geschäftspraktiken
gilt, ist Uber. Doch was verbirgt sich hinter dem Erfolg des einstigen Star-
tups und was erzählt die Entwicklungsgeschichte über die Moral der Dis-
ruption?
Die Geschichte von Uber fängt gemäß dem eigenen Narrativ damit an, dass
die beiden Freunde Travis Kalanick und Garrett Camp zusammen die Le
Web Konferenz in Paris im Jahr 2008 besuchen. Beide sind zu diesem Zeit-
punkt bereits aufgrund des Verkaufs erster Startups vermögend. Das nutzt
an einem Konferenzabend jedoch denkbar wenig, denn es finden sich nach
Ende eines Veranstaltungstages keine Taxis, die sie hätten nutzen können,
um ins Zentrum der Stadt zurückzukehren. Diese Erfahrung veranlasst die
Beiden darüber nachzudenken, wie sich denn eine App aufsetzen ließe, die
Fahrten mit Limousinenservices teilt.
Diese Idee führte auch zum ursprünglichen Geschäftsfeld des Unterneh-
mens. Es sollten damit ausschließlich Fahrten an Fahrer vermittelt werden,
die üblicherweise in schwarzen, eleganten Personenwagen Flugpassagiere
von Flughäfen in ein Stadtzentrum bringen. Diese Tätigkeit ist normaler-
weise mit langen Wartezeiten verbunden. Um also höhere Effizienz zu er-
wirken, war es angedacht, diesen Limousinenfahrern weitere Fahrgäste
weiterzuvermitteln. Der Rechtsrahmen war abgesteckt, die Standards ge-
setzt, das Optimierungspotenzial klar ersichtlich.
Die Leerläufe und Stehzeiten von Flughafenlimousinen zu verkürzen, indem
zusätzliche Fahrten vermittelt werden, darin bestand anfänglich das Ge-
41 Vgl. Sokolov (2019), URL.
Informationsethik
zur Plattform 81
schäftsmodell von Uber. Diese Idee wurde dann auch präsentiert, um In-
vestoren zu gewinnen, die den Aufbau und die Geschäftstätigkeit des Un-
ternehmens finanzieren sollten.
Die Schwierigkeit fand sich darin, dass nahezu parallel und simultan ein
anderes Startup eine Idee zu vermarkten begann, das weit ambitionierter
als Uber wirkte. Das Unternehmen nennt sich Lyft und das Geschäftsmodell
dahinter bestand darin, dass eine Software programmiert wurde, die Per-
sonen schlicht erlaubt hat, eine Fahrt bei anderen Personen zu buchen. Lyft
erneuerte den Mobilitätssektor, da das Unternehmen nicht nur Limousi-
nenfahrerInnen als Service-Provider in die Plattform miteinbezog, sondern
es jeder Person freistellte, sich nicht nur als KundIn sondern auch als Fahre-
rIn zu registrieren. Der Ansatz besagte also, dass sich Mobilität so neu den-
ken lassen müsste, dass Fahrten schlicht miteinander geteilt werden, jeder
unkompliziert sowohl Anbieter als auch Nutzer solcher Dienste sein solle.
Lyft verstand es als Unternehmen folglich, bestehende Hardware in Form
der genutzten Autos gleich zu belassen, doch diese anders und intensiver
durch vernetzende Software zu nutzen. Die operative Auslastung der vor-
handenen Bestände wurde durch den Einsatz neuer Software umgestaltet.
Was bisher Taxameter, Call-Center und eigene Fahrzeugflotten besorgen,
ließe sich durch bestehende Fahrzeuge, einfach bedienbare Apps und ko-
operativ agierende Personen ersetzen.
Das essenzielle Problem dieser Geschäftsidee bestand darin, dass es sich
faktisch um Rechtsbruch handelt. Das Beförderungswesen unterliegt kom-
plexen legalistischen Regelungen, die deshalb Sinn ergeben, weil Passagie-
re besondere Versicherungsstandards genießen. Insofern zeigen sich im
Taxiwesen ausdifferenzierte juristische Regelungen für welche Schäden die
FahrerInnen, wann das Taxisunternehmen und wann die Passagiere selbst
haften würden. Es ist schwierig aber notwendig, rechtlich aufzuschlüsseln,
wann und ab welchem Zeitpunkt im Falle von Verletzungen oder Unfällen
der Passagier selbst haftet, ob es im Verantwortungsbereich des Len-
kers/der Lenkerin liegen würde oder ob eine potenzielle Versicherungsleis-
tung durch das Taxiunternehmen selbst zu decken wäre. Geschieht es bei-
spielsweise beim Einsteigen oder Verlassen des Fahrzeugs oder erst wenn
sich das Auto in Bewegung setzt? Aus diesen Gründen war das Mobilitäts-
gewerbe reglementiert – teils auch zweifellos überreglementiert.
Lyft begründete also eine Geschäftspraxis, die einen bewussten Rechts-
bruch darstellte. Uber erkannte, dass das eigene Geschäftsmodell dagegen
nicht erfolgreich konkurrieren konnte und folgte der Praxis von Lyft. Der
Unterschied bestand darin, dass Uber noch aggressiver und konsequenter
Informationsethik
zur Plattform 82
im Aufbau des eigenen Geschäftsmodells vorging, als es Lyft jemals getan
hat.
Die Frage, die sich nun stellt, um diese Vorgänge zu bewerten, lautet: War
sich Uber der Tatsache bewusst, dass mit dem eigenen Geschäftsmodell
gegen rechtliche Regelungen verstoßen wird?
Benjamin Edelman, ein in Harvard lehrender Jurist und Ökonom, belegt in
seiner Arbeit, dass Uber die Illegalität des eigenen Handelns nicht nur be-
wusst war, sondern dass sie auch offen im Zuge interner Kommunikation
thematisiert wurde. Die Illegalität des eigenen Handels wurde sogar als
Vorteil verstanden. Aufwändige Prüfungen für LenkerInnen, gesonderte
Registrierungen, die Taxiautos verlangen, Unternehmensversicherungen,
die verschärften Inspektionen für Fahrzeuge, die zur kommerziellen Beför-
derung von Passagieren genutzt werden, all das konnte Uber umgehen. Die
Ignoranz gegenüber verbindlichen Standards erlaubte im Preiskampf mit
bestehenden Unternehmen, die gängigen Tarife zu unterbieten. Der
Rechtsbruch führte zu strategischen Vorteilen im Wettbewerb.
Der US-amerikanische Ökonom Peter Drucker hielt für Organisationen und
Unternehmen eine entscheidende Wahrheit fest: „Cultur eats strategy for
breakfast.“ Die Kultur, die in einem Unternehmen oder einer Organisation
gepflegt wird, ist also die entscheidende Richtgröße, um Verhaltensnormen
zu definieren. Werden Strategien definiert, die im Gegensatz zur Kultur
stehen, gilt es als sicher, dass ihnen wenig Erfolg beschieden sein wird. Die
Kultur repräsentiert gemäß dieser Auffassung das kollektive Selbstver-
ständnis einer Organisation. Bei Uber war und ist diese Verständnisgrund-
lage des eigenen Tuns davon grundlegend mitbestimmt, dass die eigene
Geschäftstätigkeit sich in der Illegalität bewegt. Benjamin Edelman fast
seine Forschung über Uber in knappen Sätzen zusammen:
Darüber hinaus konzentrierten sich Ubers ausgeprägtes-
ten Fähigkeiten auf die Verteidigung der Rechtswidrigkeit.
Uber baute Personal, Verfahren und Softwaresysteme auf,
deren Zweck es war, Passagiere und Fahrer zu befähigen
und zu mobilisieren, Regulatoren und Gesetzgeber zu be-
einflussen – eine politische Katastrophe für jeden, der U-
bers Ansatz in Frage stellte. Die Phalanx der Anwälte des
Unternehmens brachte Argumente [in unterschiedlichen
Gerichtsverfahren und Anhörungen, Anm.] vor, die aus
früheren Streitigkeiten perfektioniert wurden, während
jede Gerichtsbarkeit Uber unabhängig und von einer lee-
Informationsethik
zur Plattform 83
ren Tafel aus ansprach, meist mit einem bescheidenen
Prozessteam. Uber-Publizisten präsentierten das Unter-
nehmen als Inbegriff von Innovation und stilisierten Kriti-
ker zu etablierten Marionetten, die in der Vergangenheit
stecken geblieben waren.42
Die Intention der Geschäftsstrategie baut auf einer stringenten Logik auf:
Das Geschäftsmodell steht zwar geltenden Regularien entgegen, ignoriert
und bricht diese, aber der Rechtsbruch selbst gilt insofern als vernachlässi-
genswert, als Regulatoren und öffentlichen Autoritäten eine geballte und
erprobte Verteidigung entgegengehalten wird.
Neben diesem wirkmächtigen Vorgehen vervollständigt sich die Vorge-
hensweise um eine zweite Erfahrung: KundInnen selbst beginnen die
Dienste wertzuschätzen. Die illegale oder dubiose Geschäftspraxis erfährt
Popularität, weil eine wachsende Anzahl an Personen, die Services zu nut-
zen beginnen. Jene Behörden, die also die Achtung von Gesetzen einfor-
dern, sehen sich plötzlich nicht nur einem erfolgreichen Konzern gegen-
über, sondern sie erleben auch Widerspruch seitens einer partikularen Öf-
fentlichkeit, die sich mittlerweile an die angebotenen Dienstleistungen ge-
wöhnt hat und in Zukunft nicht mehr darauf verzichten möchte. Aus dieser
Position der populären Stärke agiert das Unternehmen dann gegen öffent-
liche Regulatoren, diese wiederum werden dafür angegriffen, dass sie be-
stehendem Recht Geltung verschaffen.
Disruption meint im Falle von Uber, ein Geschäftsmodell zu initiieren, das
faktisch bewusst gegen Gesetze verstößt und diesen praktizierten Unter-
nehmensgeist als disruptive Avantgarde sowohl in der internen wie exter-
nen Kommunikation darstellt. Je größer der erzielte Erfolg, als umso un-
wahrscheinlicher wird es in strategischer Folge erachtet, dass die Regulato-
ren nicht darauf hinwirken könnten, ihrer eigentlichen Aufgabe nachzu-
kommen und die Geschäftstätigkeiten einschränken oder gar einstellen
würden.
Disruption wird häufig als Synonym für kreatives, gewagtes, innovatives,
vielversprechendes Unternehmertum verstanden. Der Fall Uber zeigt, wie
verwegen die faktischen Hintergründe jedoch auch sein können. Wenn
das Prinzip von Disruption zur Ideologie verkommt, die nicht mehr hinter-
fragt wird, lassen sich selbst zweifelhafte und illegale Maßnahmen legiti-
mieren und die Effektivität vernünftiger Regulierungen unterminieren.
Uber ist in diesem Fall Symbol für ein ideelles Phänomen.
42 Edelman (2017), URL.
Informationsethik
zur Plattform 84
Vor diesem Verständnishintergrund lassen sich vermutlich bereits die
nächsten Schritte antizipieren, die das Unternehmen perspektivisch setzen
wird. Uber ist weitestgehend ein defizitäres Unternehmen. Im Jahr 2016
wurde ein Bilanzverlust von drei Milliarden Dollar ausgewiesen. Nur in eini-
gen wenigen Städten konnte ein operativer Profit erwirtschaftet werden.
Marktanalysten sagen, dass die Geschäftstätigkeit von Uber nur dann Ge-
winn erzielen könnte, wenn sich die technologische Entwicklung des auto-
nomen Fahrens in naher Zukunft realisieren ließe. Nur durch eine verän-
derte Kostenstruktur, die mittels Einsatzes dieser Technologie wirksam
werden würde, ließe sich Profitabilität bei Uber erwirken und der Fahrpreis
um 80 % senken.43 Weil es die Nutzung dieser Technologie benötigt, um
eine profitable Existenz des Unternehmens zu sichern, lässt sich unter
Kenntnisnahme vergangener Verhaltensweisen vermuten, dass der Kon-
zern illegale Praxis auch dann einsetzen wird, wenn die rechtlichen Rah-
menbedingungen für das autonome Fahren noch vage oder ungenügend
erscheinen.
Auch im Hinblick auf einen anderen Trend wird Uber als disruptive Macht
erachtet: Es handelt sich dabei um die Transformation der Arbeitswelt,
noch bevor die absehbaren Konsequenzen des autonomen Fahrens schla-
gend werden. Der praktizierte Ansatz besagt, dass jede Person faktisch un-
gebunden ins Mobilitätsgeschäft einsteigen kann und sei es auch nur, um
Fahrten anderen anzubieten, die sowieso absolviert werden müssen. Diese
Form der Flexibilität soll es sowohl AnbieterInnen als aus NutzerInnen von
Diensten flexibel erlauben, vorhandene Ressourcen effektiv zu teilen – im
Falle von Uber wären das nun die Zeitressource, ein Vehikel, Geld oder
Wege, die zu bewältigen wären. Bei Airbnb, das den Nächtigungsmarkt
umkrempelt und eine ähnliche disruptive Strategie in Europa wie Uber ver-
folgt, wären es dann Wohnraum, Geld und Übernachtungsmöglichkeit.
Beide Unternehmen, wie unzählige andere auch, betrachten sich als reine
Plattformen. Ihrem Argument nach agieren sie als schlichte Vermittler von
Dienstleistungen. Das geschieht deshalb, weil sie sonst, wenn sie wie ande-
re Branchenreisen erschienen, anderen Branchenregulierungen Folge leis-
ten müssten und in den USA andere Steuertarife wirksam wären.
Entscheidend wirkt es, den Erfolg dieser Plattformen auch vor dem Hinter-
grund sozialer Entwicklungen zu sehen. Bereits in Kapitel 4 dieser Lehrver-
anstaltung wurde dargestellt, wie im Verlauf des letzten Jahrzehnts der
soziale Ausgleich abgenommen hat, Lohneinkommen gegenüber Kapitaler-
trägen markant zurückgehen. Diese gesellschaftliche Disparität verstärkte
43 Coren (2018), URL.
Informationsethik
zur Plattform 85
zweifellos die erwiesenen Erfolgspotenziale der Plattformen: Airbnb bietet
als willkommener Service viele Vorteile. Es flexibilisiert Reisen und moder-
nes Wohnen, setzt gerade der zyklischen Preisentwicklung im Hotelsektor
bei beliebten Destinationen eine wirksame Kraft im Interesse der Touris-
tInnen entgegen. Doch sollte diese Perspektive nicht übersehen, dass für
viele Airbnb schlicht eine notwendige Lösung dafür darstellt, mit stagnie-
renden Löhnen und steigenden Mietpreisen in Ballungszentren umzuge-
hen. Wenn ein Zimmer nicht aus freien Stücken vermietet wird, sondern
deshalb, weil sonst die Kosten für die eigene Wohnung nicht mehr bestrit-
ten werden können, dann zeigt sich ein ganz anderes Bild: Soziale Schiefla-
gen und verschobene politische Machtverhältnisse würden nicht mehr als
gesellschaftliche Unzulänglichkeiten erkannt, die offen diskutiert werden
sollten, sondern schlicht als eine unternehmerische Chance genutzt, der
disruptiv entgegengewirkt werden muss. Darin besteht die Kommerzialisie-
rung aller gesellschaftlichen Herausforderungen in Form einer Business-
Opportunity und die Entpolitisierung sozialer Schieflagen.
Der Erfolg von Plattformen zeigt sich beispielsweise in den USA gerade da-
rin,
angesichts stagnierender Einkommen und einer Beschrän-
kung der Konsumentenkredite nach erschwinglichen Mög-
lichkeiten zu suchen. Die Reallöhne der amerikanischen
Arbeiter sind seit 1979 niedrig. Ein beträchtlicher Rück-
gang des gewerkschaftlichen Organisationsgrads, die Aus-
lagerung der Produktion im Rahmen der Globalisierung
und die Verringerung des Anteils der Arbeitseinkommen
sind Faktoren, die zu dieser Stagnation beigetragen ha-
ben.
[Weiters, Anm.] […] gibt es ein auf Abruf verfügbares Ar-
beitskräftepotential. In Amerika sind 37 Prozent der arbei-
tenden Bevölkerung, also 92 Millionen Menschen, ohne
dauerhafte Beschäftigung und scheinen die Suche nach
Vollzeitjobs aufgegeben zu haben. Daneben gibt es viele
andere, die von einem einzigen Job nicht leben können.44
Die vermeintliche Flexibilität, die Plattformen bieten – oft auch Plattform-
Ökonomie genannt - werden vor diesem Erklärungshintergrund zu einer
Ökonomisierung des Umgangs mit gesellschaftlichen Fehlentwicklungen.
44 Zuboff (2015), URL.
Informationsethik
zur Plattform 86
Sharing Economy hätte zweifellos das Potenzial, unsere Gesellschaften
nachhaltiger, ressourceneffizienter, egalitärer, flexibler, wohlhabender zu
machen. Die Idee würde auch mit der gelebten Einstellung von Personen-
gruppen oder Generationen korrespondieren, die es für ein einleuchtendes
Konzept halten, dass Gegenstände nicht unbedingt als Besitz benötigt wer-
den, nur um sie zu brauchen. Doch markiert es einen bedeutsamen Unter-
schied, ob diese Entscheidung aus überlegten und freiwilligen Motiven
heraus geschieht oder ob sie ein Anzeichen wachsender Bedrängnis ist.
Vermietet jemand sein Gästezimmer, um mit Leuten aus aller Welt in Kon-
takt zu kommen, einladend in der eigenen Stadt zu wirken, ein flexibles
Zusatzeinkommen nach Wunsch zu generieren, dann stellt sich die Situati-
on radikal anders da, als wenn jemand den Schlafplatz deshalb regelmäßig
anbietet, weil sonst die eigenen Wohnkosten nicht mehr bestritten werden
können. Die eine Entscheidung bildet eine Wahl in Freiheit, die andere wä-
re Ausdruck einer objektiven Notwendigkeit und damit Gängelung der Un-
freiheit.
Der weißrussische Publizist Evgeny Morozov definiert den Wesenszug, jede
gesellschaftliche Schieflage vor allem als ein potenzielles Anwendungsfeld
wirksamer Technologie zu erachten, als Solutionismus.
Solutionismus meint dabei die ideologische Auffassung, dass allen existie-
renden Problemen eine klar definierbare und eindeutige technologische
Lösung zugedacht werden kann45.
Dieser Ansatz verkennt, dass manche gesellschaftlichen Mechanismen
schlicht vermeintliche und merkliche Ineffizienzen begründen. Nicht alle
Phänomene, die schwerfällig wirken, können sinnvoll beschleunigt werden.
Die Verfahrensweisen demokratischer Institutionen sind beispielsweise
bewusst auf Ausgleich und damit Verzögerung angelegt. Um es übertrie-
ben, aber eindrücklich zu formulieren: Wenn Schnelligkeit also zum einzi-
gen Gebot wird, dann macht die zweite und dritte Lesung eines Gesetzes in
parlamentarischen Kammern keinen Sinn. Insofern erscheint es wichtig,
anzuerkennen, warum manche Verfahren schlicht ihre eigene Logik durch-
laufen und manche Ineffizienz durchaus ihre Berechtigung hätte und Be-
deutung erfährt.
Das soll nun nicht dahin führen, dass alle existierenden Prozesse sich damit
immunisieren lassen, dass sie bereits gelebte Praxis und somit erzielbares
Optimum darstellen. Aber das andere Extrem liegt in dem technophilen
Ansatz des Solutionismus, dass sich alles radikal aufgrund von Technologie
45 Vgl. Morozov (2013), S. 605 ff.
Informationsethik
zur Plattform 87
erneuern muss, weil beispielsweise jede Prozessverzögerung ausgemerzt
gehört. Warum Berufungsgerichte, wenn anhand einer Software bereits im
ersten Verfahren, ein Urteil gefunden werden kann? Diese Art zu denken
wäre fatal, ideologisch vernebelt und würde einen radikalen Rückbau zivi-
ler Grundlagen unserer Gesellschaft bewirken. Wie gesagt, demokratische
Verfahren benötigen ihre Reflexionszeit und wo Menschen gestalterisch
wirken, da werden ihre Eigenarten erkenntlich. Das gilt es zu berücksichti-
gen.
Informationsethik
zur Plattform 88
7 Fazit
Ethik und Technologie stellt die Gesellschaft vor neue zentrale Überlegun-
gen, die im Geiste gesellschaftlichen Denkens und Fortschritts bedacht
werden müssen. Es stellt sich die Frage nach einem neuen Ausgleich zwi-
schen öffentlichen Akteuren und unternehmerischem Handeln, geleitet
von der Frage, wie eine wirksame Arbeitsteilung zwischen diesen Kräften
beschaffen sein kann.
Der klassische Begriff von Informationsethik selbst würde anfänglich darauf
zielen, konkrete Festlegungen zu treffen, wie Daten sicher übertragen, ge-
speichert und genutzt werden können. Diese Frage stellt sich gerade im
Rahmen des Ausbaus des Internets der Dinge wesentlich. Die Anzahl an
Daten, die durch Kommunikation zwischen Maschinen und der Anwendun-
gen von Sensoren erhoben wird, erreicht ein davor unbekanntes Ausmaß.
Informationsethik würde also vor allem darauf fokussieren, legale Sicher-
heitsstandards für diesen Sachverhalt zu erwirken. Die Datenschutzgrund-
verordnung, die von der Europäischen Union lanciert wurde, bildet diesbe-
züglich bereits einen globalen Standard.
Informationsethik gemäß eines weiteren Begriffsverständnisses reicht über
diese Perspektive hinaus. Es ist wie der Unterschied zwischen Digitalisie-
rung und digitaler Transformation selbst.
Digitalisierung meint den schlichten Prozess, Informationen in Form von
Daten abzulegen, sie in Form von Bits und Bytes zu speichern, verfügbar
und zugänglich zu halten.
Digitale Transformation hingegen bezeichnet die gesellschaftlichen und
unternehmerischen Wandlungsprozesse, die sich auf Grundlage dieses
technologischen Fortschritts materialisieren.
Informationsethik in dieser Lehrveranstaltung nimmt genau diese Phäno-
mene in Betracht. Die digitale Transformation verlangt von demokratischen
Gesellschaften sich selbst zu befragen, wie von den technologischen Mög-
lichkeiten abseits ideologischer Rhetorik nützlich Gebrauch gemacht wer-
den kann. Es stellt sich die wesentliche Frage, welche Entscheidungen pri-
vaten Akteuren überlassen werden und wann gesellschaftliche Rahmenbe-
dingungen festzulegen sind, die einen gemeinsamen Standard definieren.
Gerade für Europa zeigt sich, dass entsprechende allgemein verbindliche
Prinzipien entscheidend wären. Oft wird die technologische Zukunft als
eine Konfrontation der wiederaufstrebenden Supermacht China und der
vermeintlich absteigenden Supermacht USA gelesen. Während amerikani-
sche Technologiekonzerne den europäischen Binnenmarkt in einer Form
bespielen, dass die europäische Konkurrenz kaum zum Zuge kommt, agiert
Informationsethik
zur Plattform 89
das zentralistische China in Form von Privat-Public Partnerschaften, um die
eigene digitale Transformation voranzubringen. Die chinesische Vorge-
hensweise zielt darauf, möglichst viele Daten über gesellschaftliche Vor-
gänge zu aggregieren, um a) die Vormachtstellung der kommunistischen
Staatspartei abzusichern, b) durch das bessere Verständnis von Kunden-
wünschen die entstehende Mittelklasse mittels eigener Unternehmen zu
bedienen und c) über exorbitante Datenmengen zu verfügen, um die beste
Künstliche Intelligenz zu entwickeln – alles in der Absicht, bei dieser indust-
riellen Revolution Vorreiter zu sein und nicht wie bei der I. Industriellen
Revolution von anderen Mächten überholt zu werden und zwei Jahrhun-
derte lang in den Rückstand zu geraten. Diese strategische Überlegung
führt die Entscheidungen.
Wo also könnte sich Europas Perspektive finden? Das entscheidende Expe-
riment für Europa mag darin liegen, die Vorteile der technologischen Revo-
lution eigenständig so anzuwenden, dass sie mit den Grundprinzipien de-
mokratischer Gesellschaften einen lebenswerten Ausgleich findet. Diese
Aufgabe und der Imperativ, dass Technologie dann Sinn ergibt, wenn sie
vor allem dabei unterstützt, den ökologischen Kollaps abzuwenden, mögen
Leitplanken des eigenen Entwicklungshorizonts sein.
Wie bereits an anderer Stelle erwähnt: Die Nutzung von Technologie re-
flektiert immer die politische Ökonomie bestehender Verhältnisse. Sie wird
durch manifeste Interessen strukturiert. Wenn heute grundsätzliche Funk-
tionen des Internets, seien es die Suche nach Informationen oder die Ver-
netzung von Personen vor allem privatisiert, monopolisiert und ökonomi-
siert wurden, stellt sich die Frage, ob das weiter so gehandhabt werden soll
oder ob es sich um einen so notwendigen Service handelt, dass er öffent-
lich und nicht kommerziell organisiert werden sollte. In diesem Zuge wird
der oligopolistische Zugang, den die dominanten US-Konzerne zeigen an-
ders sein als der zentralistische Instanzenzug in China. Europa wird auf Ba-
sis eines eigenen Selbstbewusstseins womöglich eigenständig herausfinden
müssen, welchen Anforderungen Technologie zu entsprechen hat. Diese
resultierenden Lösungen können nicht nur Interesse am Weltmarkt we-
cken, sondern auch den Fortschritt in ein besseres Zeitalter weisen. Das
darf nicht im Geiste eines solipsistischen Übermuts geschehen, der meint,
Europa wäre weiterhin das eigentliche Zentrum der Welt. Weit gefehlt.
Vielmehr geht es darum, sich eine mutige Rolle zuzumessen, in unterneh-
merische Vielfalt zu vertrauen, öffentliche Akteure mit Selbstbewusstsein
auszustatten, um der digitalen Weltgemeinschaft einen interessanten
Selbstversuch zu präsentieren.
Denn eines gilt es auch schonungslos anzuerkennen: Momentan machen
wir von den vorhandenen Möglichkeiten nicht nur zu wenig, sondern vor
Informationsethik
zur Plattform 90
allem zu unreflektiert Gebrauch. Technologischer Fortschritt führt zur sozi-
alen Ausdifferenzierung, soziale Netzwerke begründen politische Radikali-
sierung, Mobilität belastet das Ökosystem, Software unterstützt manchmal
den menschlichen Geist weniger, als dass sie verlangt, gegen ihn erfolglos
zu konkurrieren.
Außerdem fordern uns zwei grundlegende und abweichende Erzählungen
darüber heraus, was die anstehenden Veränderungen bedeuten. Das eine
Narrativ, dass die Gegenwart von sich selbst in Bezug auf die digitale Trans-
formation erzählt, besagt, dass die Gesellschaft am Beginn eines exzeptio-
nellen Zeitalters stehe. Die ubiquitäre Verfügbarkeit von Information und
Wissen wäre in der Geschichte menschlicher Zivilisation ohne Vorbild und
kenne keine ähnlich gelagerte Erfahrung. Die Überzeugung, ohne Vorbild
zu agieren, verursacht den Eindruck, nicht nur einen Bruchpunkt in der ge-
schichtlichen Entwicklung menschlicher Gesellschaften zu markieren, son-
dern aus der bisherigen Geschichte selbst auszutreten.
Was meint diese Hypothese? Als technologische Zivilisation betrachten wir
uns weniger als Teil eines historischen Prozesses, sondern als eine Art Neu-
start und Neubeginn. Als ökonomisches Erklärungsmuster mag diese Auf-
fassung Berechtigung haben, auch wenn sich hier immanente und be-
schleunigte Kontinuitäten ausmachen. Als historische Entwicklungsge-
schichte hingegen erscheint die Auffassung irreführend.
Bezeichnenderweise lässt sich anhand der Argumentationslinien von zwei
renommierten Historikern ein zweiter Erklärungshorizont ausmachen. Der
Ansatz besagt, dass sich auch die heutigen Transformationen sowohl durch
historische Vergleiche kanonisieren ließen, als auch durch die Permanenz
klassischer Realpolitik ein Erklärungsmuster findet.
Timothy Snyder, ein in Yale lehrender Historiker, erklärt, wie die Ausbrei-
tung des Internets und die Entwicklung von Demokratien zusammenhän-
gen. Ausgehend vom Jahr 2018 stellt er rückblickend fest, dass in den zwölf
Jahren davor der Anteil der Weltbevölkerung, der regelmäßig im Internet
surft, von knapp 20 % auf rund 60 % angestiegen sei. Im selben Zeitraum
lässt sich gemäß der Analyse von Freedom House, eine renommierte und
unabhängige NGO, ein globaler Rückzug demokratischer Standards und der
verstärkte Aufstieg des Autoritarismus beobachten. Die einzige Region, die
diesbezüglich eine Ausnahme darstellen würde, wäre der afrikanische Kon-
tinent. Interessanterweise jener Erdteil, wo der Zugang zum Internet noch
am wenigsten ausgebaut ist. Hier lässt sich zumindest eine Korrelation
feststellen, wenn nicht sogar eine Kausalität ausmachen. Der Historiker
führt diese einschneidende Entwicklung unter anderem darauf zurück, dass
Austausch im Internet unter anderem den faktenbasierten Diskurs zerstö-
Informationsethik
zur Plattform 91
ren würde, der demokratisches Agieren ermöglicht. Fakten und die Rele-
vanz von Fakten wären aber auch die Voraussetzung dafür, machthabende
Institutionen für ihr Handeln verantwortlich zu halten. Nur wenn Fakten
Bedeutung haben, lassen sich Mächtige zur Verantwortung ziehen. Form
und Handhabung des Internets wirken diesem faktenbasierten Diskurs aus
zwei Gründen entgegen: Internetbasierte Kommunikation fördert Ablen-
kung. Wenn beispielsweise der eigene Newsfeed auf den sozialen Platt-
formen betrachtet wird, dann zeigt sich, dass dort entscheidende Nachrich-
ten gleichgereiht mit Trivialität und schlichten Falschbehauptungen rangie-
ren. Das führt zur Ablenkung, verunmöglicht Konzentration und begründet
die Verkennung der Bedeutung von wahren Sachverhalten. Die demokrati-
sche Urteilskraft kritischer BürgerInnen schwindet. Der andere entschei-
dende Grund liegt seiner Auffassung nach in der bereits beschriebenen
Stärkung der eigenen Vorurteile durch die Darstellung bevorzugter Suchre-
sultate und Inhalte entsprechend eigener Vorlieben. Das Internet wird also
nicht mehr zum geteilten Gemeinschaftsraum, sondern zersplittert in indi-
vidualisierte Erfahrungswelten aufgrund von algorithmischer Segregation.
Diese Faktoren erschweren die demokratische Auseinandersetzung und
stützen eher autoritäre Strömungen, die gerade auch bei freien Wahlen vor
allem soziale Medien mit entsprechenden Botschaften geschickt zu bespie-
len verstehen. Sie profitieren von der Polarisierung. Was also heute den
Internet-Diskurs bestimmt, wäre eine politische Auseinandersetzung, die
dem zivilen Austausch besserer Argumente entgegensteht.46
Die Grafik unten visualisiert die entsprechenden Ergebnisse einer Studie,
die dokumentiert, wie oft und von wem Tweets mit moralischen Aussagen
zu Themen wie dem Klimawandel, Schusswaffenkontrolle und gleichge-
schlechtlicher Ehe in den USA geteilt werden. 563.312 Tweets von ameri-
kanischen Twitter-NutzerInnen wurden dabei ausgewertet. Die roten Punk-
te sind einer konservativen Einstellung zuzuordnen, die blauen einer libera-
len. Es zeigt sich, dass nur die wenigsten Botschaften übergreifend geteilt
werden, vielmehr finden die Messages innerhalb der klar teilbaren, fast
hermetischen Präferenzgruppen Verbreitung, eine ausgleichende Mitte
erodiert.47
46 Vgl. Snyder (2018), S. 111 ff.
47 Vgl. Goldhill (2017), URL.
Informationsethik
zur Plattform 92
Abbildung 13: Network-Graph - die Linien zeigen gruppenverbindende Retweets an, die Farbe der
Punkte ordnen Tweets anhand der inhaltlichen Aussage ihren politischen Präferenzen zu48
Gleich seinem in Stanford lehrenden Kollegen, Niall Ferguson, erkennt auch
Timothy Snyder für die gegenwärtigen Entwicklungen einen Bezugspunkt in
der Entdeckung des Buchdrucks. Niall Ferguson dekliniert des Weiteren,
dass in der heutigen Erwartungshaltung durch allgemeine Vernetzung eine
gleichgesinnte und progressive Gemeinschaft entstehen würde, die sich
durch naive Fehlannahmen wie einst beim Beginn des Buchdrucks wieder-
holt. Der Buchdruck selbst begründet die Reformation. Martin Luther gab
sich überzeugt davon, dass die eigenständige Lektüre der Bibel zwangsläu-
fig in der Eintracht des Priestertums aller Gläubigen resultieren würde, von
der die Bibel spricht. Die Folge war stattdessen ein Jahrhundert an Glau-
benskriegen. Denn nicht nur die Bibel fand plötzliche rasante Verbreitung
durch die Vervielfältigung mittels Druckerpresse, sondern in Folge gingen
auch schlichte Falschmeldungen viral. Beispielsweise diejenige, dass Hexen
mitten in Gemeinschaften leben würden, und diese unbedingt getötet
werden müssten.49 Großer Beliebtheit erfreute sich beispielsweise das
Werk Malleus Maleficarum – zu Deutsch: Der Hexenhammer. In 29 Aufla-
gen erschienen, erstmals 1486 veröffentlicht, bildet das Werk 200 Jahre
lang einen Bestseller, übertroffen nur durch die Absatzzahlen der Bibel. In
dem Werk selbst erklärte der Theologe Dominik Krammer, wie sich Hexen,
die mit Satan im Bunde stehen, identifizieren lassen und plädiert für die
Todesstrafe, als wirksamstes Gegenmittel gegen die Übel der Hexerei. Die
Popularität des Buches und seine schändlichen Folgen belegen, wie sehr
die reformatorische Erwartungshaltung unterlaufen wurde, dass schlicht
48 Quelle: Goldhill (2017), URL.
49 Vgl. Ferguson (2018), S. 111 ff.
Informationsethik
zur Plattform 93
aufgrund der Vervielfältigung der Bibel, Friedfertigkeit automatisch obsie-
gen müsse.
Im britischen Canterbury findet sich noch immer eine grausame Hinterlas-
senschaft, die die Manie just dieses Zeitalters begreifen lässt. Das besagte
Gerät, das dort als Mahnmal steht, nennt sich Old Witches‘ Ducking Stool.
Der Old Witches‘ Ducking Stool befindet sich noch immer direkt im Zent-
rum der mittelalterlichen Stadt, am Ufer des Flusses Stour. Es handelt sich
dabei um einen Tauchstuhl, der dafür genutzt wurde, Frauen zu quälen
oder zu ermorden, die als Hexen denunziert wurden.
Das exerzierte Verfahren lief dabei immer gleich ab: Wenn eine Person in
der Stadt als Hexe gebrandmarkt war, dann wurde sie öffentlich abgeführt,
die ekstatische und hysterische Menge bewarf die Person häufig mit Ex-
krementen und Dreck. Die Frau wurde in Folge an den Stuhl gebunden und
in den Fluss getaucht. Überlebte sie die Qualen, dann galt das als unwider-
legbarer Beleg dafür, dass die Angeklagte über übernatürliche Kräfte ver-
fügte, mit Satan im Bunde stand, ihr der Prozess wegen Hexerei gemacht
und sie schließlich am Scheiterhaufen verbrannt wurde. Starb die Person
hingegen bereits, als sie noch am Stuhl angebunden war und getaucht
wurde, dann wurde der Irrtum offiziell bedauert, die Person galt als un-
schuldig und die Hinterbliebenen erhielten ein offizielles Entschuldigungs-
schreiben seitens der Kirche.
Abbildung 14: Illustration eines Tauchstuhls50
50 Grafik: Snowden (2016), URL.
Informationsethik
zur Plattform 94
Sowohl Timothy Snyder als auch Niall Ferguson argumentieren, dass die
gegenwärtigen Entwicklungstendenzen durchaus mit historischem Beispiel
und politischer Vergleichbarkeit ausgestattet wären. Alle Entwicklungen im
Zuge der digitalen Transformation sind als Teil der geschichtlichen Vorgän-
ge des menschlichen Zivilisationsprozesses zu verstehen – und dieser Zivili-
sationsprozess agiert nun mal auf Vor- und Rückschritte, auf Grundlage
menschlicher Fähigkeiten.
Eine andere Erkenntnis, die sich ergänzen ließe, wäre, dass sich durch jene
Zeit, die in soziale Medien investiert wird, das politische Engagement von
Individuen aufbraucht. Was ist damit gemeint? Ist eine Person über eine
Angelegenheit auch noch so berechtigt empört, ein Facebook-Post zum
Thema wird die reale Situation nicht ändern. Zivilgesellschaftliches Enga-
gement findet noch immer im realen Raum statt, verlangt nach physischer
Präsenz. Die misslungene Revolution in Ägypten, die zum Symbol für das
Scheitern des Arabischen Frühlings wurde, wirkt als bezeichnender Sach-
verhalt dafür. Um sie skizzenhaft zu rekapitulieren: Der Aufstand in Ägyp-
ten setzte damit an, dass der Unmut gegen den Machthaber Hosni Muba-
rak immer virulenter wurde. Die Opposition begann, die sozialen Medien
gekonnt zu bespielen, gleichgesinnte Gruppen fanden sich zusammen und
tauschten ihre Empörung miteinander aus. Die Sicherheitsorgane im Land
sahen sich gezwungen, darauf zu reagieren. Sie versuchten das Land vom
Netz zu nehmen, indem die Telekommunikation eingeschränkt oder ver-
suchsweise unterbunden wurde. Als Reaktion darauf, dass die interaktive
Kommunikation erschwert wurde, entschlossen sich die oppositionellen
Gruppen, sich vom virtuellen Raum auf die Straße zu begeben. So entstand
die Massenbewegung, die sich am Tharir-Platz einfand, und plötzlich zur
national und international wahrnehmbaren Kraft anwuchs. Erstmals wahr-
nehmbar im öffentlichen Raum präsent, verkörperte die Gruppe eindrück-
lich den großen Unmut einer Gesellschaft mit den Machthabern. Die Grup-
pe wurde zum politischen Faktor, dem sich immer mehr BürgerInnen an-
schlossen und der schließlich zum Sturz des autoritären Regimes unter
Hosni Mubarak führte. Der weitere Gang der Ereignisse führte zur Macht-
übernahme zuerst von theokratischen Antidemokraten, die schließlich vom
Militär gestürzt wurden, das nun weiterhin im Jahr 2019 auch die zivile
Macht innehat. Eine Diktatur – gestützt auf Geheimdienste, Sicherheitsap-
parat und Militär unter Führung des General Abd al-Fattah as-Sisi. Wer
heute mit ägyptischen AktivistInnen spricht, erfährt, dass die Situation im
Hinblick auf die bürgerliche Freiheit manchmal restriktiver erscheint, als
unter der Herrschaft von Hosni Mubarak. Die Revolution hat teils zur Ver-
schlechterung der Lebensrealitäten geführt. Wenn das tatsächlich der Fall
wäre, warum findet sich die ägyptische Bevölkerung nicht wieder im öf-
fentlichen Raum ein, um für die demokratische Veränderung gleich coura-
Informationsethik
zur Plattform 95
giert wie einst aufzustehen? AktivistInnen erklären, dass die Sicherheitsap-
parate vor allem eine Lehre aus dem Sturz des Mubarak-Regimes gezogen
hätten. Diese Lehre würde lauten, dass sich Unmut ruhig im virtuellen
Raum breit machen kann. Solange er sich dort kanalisiert, stellt die Kritik
keine Bedrohung dar. Der entscheidende Fehler, der einst geschehen ist,
wäre es gewesen, die Leute auf die Straße zu bringen, weil sie gezwungen
waren, ihre Online-Welt zu verlassen. Wichtig wäre es stattdessen, die Per-
sonen genau dort zu belassen – im virtuellen Raum. Dort echauffieren sie
sich zwar über die unerträglichen Verhältnisse, ihr Aktivismus verhallt je-
doch gefahrlos, an der realen Situation ändert sich wenig, für die autoritä-
ren Machthaber besteht also wenig Gefahr und kein Grund zum Einschrei-
ten.
Die Geschehnisse, die gegenwärtig den Lauf der Zeit bestimmen, lassen
sich in historischer Perspektive als eine Auseinandersetzung über die Aus-
gestaltung des menschlichen Zusammenlebens interpretieren. Die techno-
logische Zukunft gehört also neu gedacht und auf Basis gemachter Erfah-
rungen Veränderungen erwirkt. So wirkt Fortschritt. Die Schwierigkeit, der
wir heute oft begegnen, besteht darin, dass bereits verstanden wird, wie
radikal anders die Ordnung der Dinge sein wird können. Wir sehen also
bereits, was alles vergehen wird – ohne bisher erkennen zu können, was
stattdessen Besseres entstehen könne. Daher rührt die Verunsicherung.
Die Zeiten künden von einer radikalen Zäsur, die aber überfällig ist.
Progressivität bedeutet nun, der Einstellung anzuhängen, dass die Zukunft
besser wäre als die Vergangenheit oder Gegenwart, weil an ihr gewirkt
werden kann und aus den gemachten Fehlern Lehren gezogen werden.
Fortschritt meint in diesem Sinne nicht die Perfektionierung der Verhältnis-
se, sondern allein die schlichte Verbesserung wäre der nützliche Maßstab.
Wer sich für den Nutzen der digitalen Transformation einsetzt, wird auch
die kommunikative Überzeugungsarbeit leisten müssen, diese Einstellung
zu vermitteln und sich der ethischen Folgewirkung mutig zu stellen.
Informationsethik
zur Plattform 96
Literaturverzeichnis
Blom, Phillipp (2017): Was auf dem Spiel steht, München: Hanser Verlag,
Kindle Version.
Coren, Michael (2018): Uber’s need for self-driving cars before running out
of money may endanger the entire industry, URL:
https://qz.com/1233951/ubers-need-to-deploy-self-driving-cars-before-it-
runs-out-of-money-may-endanger-the-entire-industry/, abgerufen am: 14.
April 2020.
de Blasio, Bill/Khan, Sadiq (2018): As New York and London mayors, we call
on all cities to divest from fossil fuels, URL:
https://www.theguardian.com/commentisfree/2018/sep/10/london-new-
york-cities-divest-fossil-fuels-bill-de-blasio-sadiq-khan, abgerufen am: 13.
April 2020.
Durden, Tyler (2019): A Visual History Of The 20 Internet Giants That Ruled
The Web From 1998 To 2008, URL:
https://www.zerohedge.com/news/2019-01-05/visual-history-20-internet-
giants-ruled-web-1998-2018, abgerufen am: 08. März 2020.
Ferguson, Niall (2018): Türme und Plätze: Netzwerke, Hierarchien und der
Kampf um die globale Macht, Berlin: Propyläen Verlag.
Fidler, Harald (2019): Die großen Probleme von Vice, Buzzfeed und Co:
Google, Facebook und Amazon, URL:
https://www.derstandard.at/story/2000097577100/das-grosse-problem-
von-vice-buzzfeed-und-co-google-facebook?ref=rss, abgerufen am: 07. Fe-
bruar 2020.
Galoppin, Luc (2016): Jeremy Rifkin on the Third Industrial Revolution and a
Zero Marginal Cost Society, URL:
http://www.reply-mc.com/shortcuts/jeremy-rifkin-on-the-third-industrial-
revolution-and-a-zero-marginal-cost-society/, abgerufen am: 22. Jänner
2020.
Goldhill, Olivia (2017): One graph shows how morally outraged tweets stay
within their political bubble, URL:
Informationsethik
zur Plattform 97
https://qz.com/1024117/one-visualization-shows-how-morally-outraged-
tweets-stay-within-their-political-bubble/, abgerufen am: 09. Februar 2020.
Johnson, Brad (2012): Infographic: The $22 Trillion Carbon Bubble, URL:
https://thinkprogress.org/infographic-the-22-trillion-carbon-bubble-
d15a0837295f/, abgerufen am: 15. Jänner 2020.
Kant, Immanuel (2018): Grundlegung zur Metaphysik der Sitten, URL:
http://www.zeno.org/Philosophie/M/Kant,+Immanuel/Grundlegung+zur+
Metaphysik+der+Sitten?hl=grundlegung+zur+metaphysik+der+sitten, ab-
gerufen am: 09. Februar 2020.
Kienzler, Klaus (2018): Glaube – Wie geht das? Phänomenologie des Glau-
bens, Münster: Lit Verlag.
Kolbert, Elizabeth (2015): Das sechste Sterben. Wie der Mensch Naturge-
schichte schreibt, Berlin: Suhrkamp Verlag.
Lanier, Jaron (2018): Zehn Gründe, warum du deine Social Media Accounts
sofort löschen musst, Hamburg: Hoffmann und Campe.
Lipsey, Richard (u.a) (2005): Economic Transformation: General Purpose
Technologies and Long Term Economic Growth, Oxford: Oxford University
Press.
Lobe, Adrian (2017): Soll Facebook uns ein Grundeinkommen bezahlen?,
URL:
https://www.spektrum.de/kolumne/soll-facebook-uns-ein-
grundeinkommen-bezahlen/1507893, abgerufen am: 07. Februar 2020.
Mazzucato, Mariana (2013): Das Kapital des Staates. Eine andere Geschich-
te von Innovation und Wachstum, München: Kunstermann Verlag.
Molla, Rani/Wagner, Kurt (2018): People spend almost as much time on
Instagram as they do on Facebook, URL:
https://www.vox.com/2018/6/25/17501224/instagram-facebook-
snapchat-time-spent-growth-data, abgerufen am: 05. Februar 2020.
Informationsethik
zur Plattform 98
Morozov, Evgeny (2013): Smarte neue Welt. Digitale Technik und die Frei-
heit des Menschen, München: Karl Blessing Verlag.
NASA (2019): Global Climate Change. Vital Signs of the Planet, URL:
https://climate.nasa.gov/evidence/, abgerufen am: 09. Jänner 2020.
Nelles, David/Serrer, Christian (2018): Kleine Gase – große Wirkung. Der
Klimawandel, KlimaWandel: Friedrichshafen.
OECD (2011): Employment Outlook 2012, URL:
http://www.oecd.org/els/emp/EMO%202012%20Eng_Chapter%203.pdf,
abgerufen am: 15. April 2020.
Parkinson, Giles (2015): Citigroup sees $100 trillion of stranded assets if
Paris succeeds, URL: https://reneweconomy.com.au/citigroup-sees-100-
trillion-of-stranded-assets-if-paris-succeeds-13431/, abgerufen am: 15.
März 2020.
Rahmstorf, Stefan/Schellnhuber, Hans-Joachim (2018): Der Klimawandel.
Diagnose, Prognose, Therapie, München: C. H Beck.
Riley, Tess (2017): Just 100 companies responsible for 71 % of global emis-
sions, study says, URL: https://www.theguardian.com/sustainable-
business/2017/jul/10/100-fossil-fuel-companies-investors-responsible-71-
global-emissions-cdp-study-climate-change, abgerufen am: 06. April 2020.
Ritchie, Hannah/Roser, Max (2017): CO2 and other Greenhouse Gas Emis-
sions, URL: https://ourworldindata.org/co2-and-other-greenhouse-gas-
emissions, abgerufen am: 01. April 2020.
Ritchie, Hannah/Roser, Max (2019): Energy Production & Changing Energy
Sources, URL:
https://ourworldindata.org/energy-production-and-changing-energy-
sources, abgerufen am: 01. April 2020.
Rockström, Johan (u. a.) (2017): A roadmap for rapid decarbonization, in:
Scinece Magazine, Volume 355, Issue 6332, S. 1269 – 1271.
Informationsethik
zur Plattform 99
Shankleman, Jessica (2014): Mark Carney: most fossil fuel reserves can't be
burned, URL:
https://www.theguardian.com/environment/2014/oct/13/mark-carney-
fossil-fuel-reserves-burned-carbon-bubble, abgerufen am: 15. März 2020.
Sirkin, Hal (u. a.) (2015): How Robots Will Redefine Competitiveness, URL:
https://www.bcg.com/de-at/publications/2015/lean-manufacturing-
innovation-robots-redefine-competitiveness.aspx, abgerufen am: 18. März
2020.
Smith, Adam (2018): Der Wohlstand der Nationen, München: dtv Verlag.
Snowden, Dave (2016): The ducking stool, URL: https://cognitive-
edge.com/blog/to-the-ducking-stool/, abgerufen am: 13. April 2020.
Snyder, Timothy (2018): Der Weg in die Unfreiheit. Russland, Europa, Ame-
rika, München: C. H. Beck.
Sokolov, Daniel (2019): US-Hitparade: Mit 823 verkauften Alben zur Num-
mer 1, URL: https://www.heise.de/newsticker/meldung/US-Hitparade-Mit-
823-verkauften-Alben-zur-Nummer-1-4274898.html, abgerufen am: 14.
April 2020.
Thorwaldsson, Karl-Petter (2018): Sweden's secret to keeping wages high,
URL: https://www.weforum.org/agenda/2018/01/swedens-secret-keeping-
wages-high/, abgerufen am: 14. April 2020.
Umweltbundesamt (2014): Klima und Treibhausgaseffekt, URL:
https://www.umweltbundesamt.de/themen/klima-
energie/klimawandel/klima-treibhauseffekt#textpart-1, abgerufen am: 08.
März 2020.
Versai, Anna (2018): How Google, Facebook Turned into Behavior Modifi-
cation Empires, URL: https://www.technowize.com/how-google-facebook-
turned-into-behavior-modification-empires/, abgerufen am: 14. April 2020.
Weltagrarbericht (2018): Klima und Energie, URL:
https://www.weltagrarbericht.de/themen-des-weltagrarberichts/klima-
und-energie.html, abgerufen am: 13. April 2020.
Informationsethik
zur Plattform 100
Yao, Mariya (2017): Chihuahua or muffin? My search for the best computer
vision API, URL: https://www.freecodecamp.org/news/chihuahua-or-
muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d/,
abgerufen am: 10. März 2020.
Zuboff, Shoshana (2015): Die Vorteile der Nachzügler, URL:
https://www.faz.net/aktuell/feuilleton/debatten/die-digital-
debatte/shoshana-zuboff-ueber-sharing-economy-und-europa-
13499357.html, abgerufen am: 08. März 2020.
SCHWERPUNKT: INFORMATIONSETHIK THEMA
04/2012 © netzmedien ag 25
4
Die Teildisziplin der Informatik mit dem sper-
rigen Namen «Informatik und Gesellschaft»
behandelt informationstechnische Phäno-
mene aus ethischer und soziologischer Pers-
pektive. Man könnte meinen, dass ihre Bedeu-
tung proportional zur Bedeutung der ganzen
Disziplin und zur Zunahme moralischer und
gesellschaftlicher Umbrüche durch ICT und
digitale Medien gewachsen wäre – dass sie
geradezu explodiert wäre durch die Spreng-
kraft von Internet und Web. Aber das Gegen-
teil ist der Fall: Nach einem verheissungsvol-
len Anfang ist sie in den Dornröschenschlaf
gesunken. Sie wartet auf den Prinzen, der sie
wachküsst, den engagierten Wissenschaftler
oder aufgeklärten Unternehmer. Der Compu-
ter- und Gesellschaftskritiker Joseph Weizen-
baum ist gestorben, und Informationsethiker
verabschieden sich in den Ruhestand. Durch-
aus aktiv sind immerhin Publizisten, die die
Informationsgesellschaft kritisch hinterfragt
und profunde Artikel und Bücher vorgelegt
haben.
Ich bin froh, dass ich an meiner Hoch-
schule das mit der Teildisziplin verwandte
Fach der Informationsethik unterrichten
kann. Und glücklich wäre ich, wenn es flä-
chendeckend eingeführt würde, an Schulen
und Hochschulen. Froh bin ich auch darüber,
dass die Studierenden, nach anfänglichen
Bedenken, die denkende Menschen aus-
zeichnen, durchaus für solche Themen zu
gewinnen sind. Voller Zweifel belegen sie den
Kurs, und voller Zweifel beenden sie ihn –
nun in Bezug auf die schöne neue Welt, in der
wir leben. Ich bin auch überzeugt, dass man
Mitarbeitende sensibilisieren kann, und dass
es Vorgesetzte gibt, die dies wollen. Gerade
Internet und Web sind wunderbare Erfindun-
gen, und man sollte das Feld nicht den Nerds
überlassen.
Zum Begriff der Informationsethik
Der Begriff «Informationsethik» hat sich
in diesem Kontext etabliert, während sich
der umfassendere Begriff «Informatik und
Gesellschaft» vielleicht selbst im Wege steht.
Aber was ist überhaupt Informationsethik?
Was ist Ethik? Und was Moral? Ich will es kurz
machen und mich auf Otfried Höffe beru-
fen: Die philosophische Ethik «sucht … auf
methodischem Weg … und ohne letzte Beru-
fung auf politische und religiöse Autoritäten
… oder auf das von alters her Gewohnte und
Bewährte allgemeingültige Aussagen über
das gute und gerechte Handeln» (Otfried
Höffe, Lexikon der Ethik, 2008). Statt von
philosophischer Ethik kann man auch von
wissenschaftlicher Ethik sprechen, und die
wissenschaftliche Ethik ist eine Teildisziplin
der Philosophie.
An der zitierten Definition ist jedes Wort
wichtig, was typisch für philosophische Texte
ist. Höffe unterteilt im Folgenden in empiri-
sche und normative Ethik. Die empirische
suche «die mannigfachen Phänomene von
Moral und Sitte der verschiedenen Grup-
pen, Institutionen und Kulturen zu beschrei-
ben» und «in ihrer Herkunft und Funktion zu
erklären und eventuell zu einer empirischen
Theorie menschlichen Verhaltens zu verall-
gemeinern». Das Ziel der normativen Ethik
sei es, «die jeweils herrschende Moral im
Vorgriff auf eine zu Recht geltende, kritische
Moral zu beurteilen», sie «gegebenenfalls zu
kritisieren» oder «ein begründetes Sollen»
darzulegen.
Moral und Sitte stellen nach Höffe «den
normativen Grundrahmen für das Verhal-
ten vor allem zu den Mitmenschen, aber
auch zur Natur und zu sich selbst dar». Sie
«bilden im weiteren Sinn einen der Will-
kür der einzelnen entzogenen Komplex
von Handlungsregeln, Wertmassstäben,
auch Sinnvorstellungen». Ich bezeichne
die Moral gerne als Gegenstand der Ethik;
diese beschäftigt sich eben wissenschaftlich
mit ihr. Eine religiöse Ethik beschäftigt sich
ebenfalls mit Moral. Sie hat aber einen ent-
scheidenden Nachteil, nämlich die Berufung
auf «religiöse Autoritäten», also auf das, was
Höffe zu Recht für eine philosophische Ethik
ablehnt. Das macht sie nicht nur besonders
angreifbar, sondern auch für unsere Zwecke
unbrauchbar.
Zur Klärung des Begriffs der Informati-
onsethik bemühe ich erneut den Begriff der
Informationsgesellschaft. Die Informations-
gesellschaft ist eine Wirtschafts- und Gesell-
schaftsform, in der die Gewinnung, Speiche-
rung, Verarbeitung, Vermittlung, Verbreitung
und Nutzung von Informationen und Wis-
sen einschliesslich wachsender technischer
Möglichkeiten der Kommunikation, Koope-
ration und Transaktion eine wesentliche
Rolle spielen. Wie bei diesem Kompositum
meint der Bestandteil «Information» eigent-
lich die Informations- und Kommunikations-
technologien. Die Informationsethik hat die
Moral (in) der Informationsgesellschaft zum
Gegenstand. Sie untersucht, wie wir uns, ICT
und digitale Medien anbietend und nutzend,
in moralischer Hinsicht verhalten und ver-
halten sollen.
Die Moral in der Informationsgesellschaft
Wir brauchen die Informationsethik, um
Lösungen für aktuelle Herausforderungen
zu finden beziehungsweise vorzubereiten.
Informationsethik im Unternehmen
Die Wissenschaft der Ethik ist 2500 Jahre alt. Eine Teildisziplin untersucht seit Jahrzehnten die moralischen Implika
tionen des Einsatzes von Informations und Kommunikationstechnologien und neuen Medien: die Informationsethik.
Deren Methoden und Inhalte können auch für Unternehmen nützlich sein. Oliver Bendel
Oliver Bendel ist
Professor für Wirt
schaftsinformatik
an der Hochschule
für Wirtschaft
FHNW.
Bildquelle: Fotolia
Wenn unsere Freunde, Mitarbeitenden und
Kunden zu Schaden kommen, weil wir sozi-
ale Netzwerke oder Überwachungsdienste
benutzen, müssen wir die Probleme auf der
moralischen (und der rechtlichen) Ebene
identifizieren und diskutieren. Wichtig ist
die Übernahme von Verantwortung. Debora
Weber-Wulff schreibt in ihrem Buch «Gewis-
sensbisse: Ethische Probleme der Informa-
tik»: «Gegenstand der Informatik ist auch der
Mensch; aus der isolierten Wissenschaft ist
eine interdisziplinäre geworden. Das tech-
nische Handeln eines Individuums kann
einen grossen Einfluss auf die Gesellschaft
haben. In der Konsequenz daraus müssen
Informatiker bereit sein, Verantwortung für
die Folgen ihres technischen Handelns zu
übernehmen.» Und nicht nur die Informati-
ker, sondern auch die Betriebswirtschaftler
– und alle, die Informationssysteme planen,
umsetzen, einführen und nutzen. Zwischen
den Informatikern und den Betriebswirten
vermitteln, so die Theorie, die Wirtschaftsin-
formatiker. In der Praxis schlagen sie sich oft
auf die eine oder andere Seite.
Informationsethik ist in zahlreiche
Gebiete untergliedert, in denen unzählige
Anschauungsobjekte zu finden sind. Es gibt
genügend Material zu Diensten wie Face-
book und Google Street View, zu Themen
wie Cybermobbing und Onlinesucht, zu
Phänomenen wie Verlust von Privatheit und
Überwachung am Arbeitsplatz, im Internet
und in der Stadt. In einem neuen Fachbuch
werde ich 30 dieser Gebiete durchstreifen,
zweifelnd, grübelnd, und manchmal habe
ich Antworten, manchmal nur Fragen. Ich
möchte einen Schritt zurücktreten und ein
paar grundsätzliche Aspekte nennen:
• Wir nehmen Einbussen bei der Qualität in
Kauf.
• Wir verschwenden Zeit und Aufmerksam-
keit.
• Wir gleichen uns an in unserem Denken
und Verhalten.
• Wir schaffen Alternativen ab und stellen
Abhängigkeiten her.
• Wir verlieren unsere Erkenntnisse und
unsere Fähigkeiten.
• Wir lassen Kunden, Mitarbeiter und
Freunde zu Schaden kommen.
Diese Probleme sind für Privatpersonen und
für (anbietende und nutzende) Unterneh-
men gleichermassen relevant. Sie bestehen
seit langem; aber durch den Einsatz und die
Nutzung von ICT und digitalen Medien ent-
stehen neue Möglichkeiten, neue Qualitäten
und Quantitäten. Und genau hier wird die
Beschäftigung mit Informationsethik inter-
essant.
Netiquetten, Kodizes, Richtlinien
Wenn man als Anbieter im Internet oder
als Verantwortlicher im Unternehmen den
Schluss gezogen hat, dass Handlungsbedarf
besteht, bleibt die Frage der Umsetzung. Wie
erreicht man im Rahmen der normativen
Ethik, dass sich Menschen so verhalten, wie
man es sich wünscht? Wie beteiligt man die
Menschen, wie nimmt man sie ernst?
Im Internet kursieren Netiquetten aller Art.
Die «klassische Netiquette» ist für das Use-
net mit seinen Newsgroups entstanden, also
für Diskussionsforen. Als eine der Mütter gilt
Arlene H. Rinaldi, die die vorhandenen Texte
und Ansätze zusammengeführt beziehungs-
weise -geschrieben hat. Die zentralen Gebote
regten zum Nachdenken an und taugten als
Hilfe und Stütze in Foren. Sie waren mehr als
ein Knigge und weniger als ein Gesetz. Das Netz
hat sich stark verändert, so wie das Verhalten
der Benutzer darin. Manche Gebote werden
nicht mehr beachtet, manche umgeschrie-
ben, bis hin zum Gegenteil ihrer ursprüngli-
chen Bedeutung. In Unternehmen kann die
Netiquette beziehungsweise ihre jeweilige
Adaption durchaus sinnvoll sein, etwa um die
Kommunikation in den internen Communitys
zu regeln. Wichtig ist, dass die Netiquette nicht
das Ende, sondern der Anfang ist: der Anfang
einer nicht endenden Diskussion.
Die Kodizes vermögen eine Innen- und
Aussenwirkung zu entfalten. Der Begriff
«Kodex» bezeichnet die Gesamtheit der
Regeln, die in einer Gesellschaftsgruppe
(z. B. Berufsständen oder Unternehmen)
massgebend sind. Man kann von einem Nor-
menkatalog sprechen, der für eine Gruppe
gilt. Es existieren verschiedene Arten von
Kodizes wie Ehrenkodizes oder Ethikkodi-
zes. Von Kodizes hat schon Albert Einstein,
der berühmteste Sohn meiner Heimatstadt,
wenig gehalten. Im Sommer 1944, etwa ein
Jahr vor Hiroshima, schrieb Max Born an Ein-
stein, dass die Wissenschaftler einen interna-
tionalen Verhaltenskodex zur Ethik bräuch-
ten, um nicht länger blosse «Werkzeuge der
Industrien und Regierungen» zu sein. Die
Leistungen der Techniker und Naturwissen-
schaftler der letzten Jahre und die eingetrete-
nen und zu erwartenden Folgen hatten Born
zu dieser Aussage getrieben. Einstein antwor-
tete im September lapidar: «Mit einem ethical
code haben die Mediziner erstaunlich wenig
ausgerichtet, und bei den eigentlichen Wis-
senschaftlern mit ihrem mechanisierten und
spezialisierten Denken dürfte noch weniger
eine ethische Wirkung zu erwarten sein.»
(Das Buch, aus dem die beiden Zitate sind,
trägt den Titel «Briefwechsel 1916 – 1955» und
ist 1982 in Frankfurt/Main erschienen.)
Sicher ist es so, dass sich vor allem solche
Unternehmen, Organisationen und Stände
einen Kodex geben, die besonders sensibi-
lisiert für das Thema sind. Und sensibilisiert
kann man auf die eine oder andere Weise
werden. Ein Kodex sollte einen auf jeden
Fall hellhörig machen und einen geschärften
Blick werfen lassen. Manchmal handelt es
sich um einen Baum, an den man sich leh-
nen oder auf den man sich retten kann. Und
manchmal nur um ein Blatt – um ein Feigen-
blatt, um genau sein –, um Peinlichkeiten und
Missstände dahinter zu verbergen.
Die Social-Media-Richtlinien, die in
immer mehr Unternehmen installiert wer-
den, unter mehr oder weniger intensiver
Beteiligung der Mitarbeitenden, haben eben-
falls mit Informationsethik zu tun. Wenn die
private und berufliche Nutzung geregelt, an
die Eigenverantwortlichkeit appelliert, die
Herstellung von Transparenz oder die Dekla-
ration von privaten Meinungsäusserungen
gefordert wird, ist man im Zentrum der Infor-
mationsethik und der Rechtswissenschaft
gleichermassen. Überhaupt können aus ethi-
schen Überlegungen rechtliche Bestimmun-
gen werden; umgekehrt ist aber längst nicht
alles, was Recht ist, auch auf dem Boden der
Gerechtigkeit gewachsen.
Diskurs statt Dekret
Wie eingangs angedeutet, tut sich der Wis-
senschaftsbetrieb schwer, sich in angemesse-
nem Umfang informationsethischen Themen
zu widmen. Das liegt auch daran, dass es zu
wenige Philosophen gibt, die sich für Infor-
matik interessieren, und zu wenige (Wirt-
schafts-)Informatiker, die auf dem Gebiet
der Philosophie reüssieren. Wir bräuchten
eine Aus- und Weiterbildung, die auf wis-
senschaftlichem Fundament ethische Fragen
aufgreift. Die nicht einzelnen Unternehmen
verpflichtet ist, sondern neutral informati-
onsethische Inhalte vermittelt. Es geht nicht
um die Produktion von Gutmenschen, son-
dern um aufgeklärte, reflektierende Schüle-
rinnen und Schüler, Studierende und Mitar-
beitende – und allgemeiner um aufgeklärte,
reflektierende User. Es geht auch nicht um
noch mehr Regeln und Vorschriften, um noch
mehr Bürokratie innerhalb und ausserhalb
von Organisationen. Die empirische Infor-
mationsethik schafft Verständnis für alterna-
tive Verhaltensweisen und Lebensentwürfe,
und die normative mündet in Entwürfe, die
wir im Internet und im Unternehmen zusam-
men weiterdiskutieren und -entwickeln. Und
sie liefert, und das ist ihr Kerngeschäft, nach-
vollziehbare und brauchbare Begründungen.
Diskurs statt Dekret, das ist die Devise. <
SCHWERPUNKT: INFORMATIONSETHIK
04/2012 © netzmedien ag 26
THEMA
4
PROZESSDIGITALISIERUNG
Digitale Transformation im Kontext des
Geschäftsprozessmanagements
Die Digitalisierung transformiert das Management von Geschäftsprozessen. Das Thema Prozessdigitalisierung
wird anhand der drei Bereiche „Modellierung digitaler Prozesse“, „Analyse und Monitoring von realen Pro-
zessabläufen“ sowie „Intelligente Automatisierung" umfassend und anhand praktischer Beispiele behandelt.
© ELG E-Learning-Group GmbH
Prozessdigitalisierung
I
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS .............................................................................................. III
ARBEITEN MIT DIESEN UNTERLAGEN .............................................................................. IV
ERKLÄRUNG DER SYMBOLE: ..................................................................................................... IV
HINWEIS ZUR VERWENDETEN SPRACHE: ..................................................................................... IV
1 PROZESSDIGITALISIERUNG ...................................................................................... 1
1.1 EINFÜHRUNG ........................................................................................................... 1
1.2 WARUM PROZESSDIGITALISIERUNG? ............................................................................. 3
1.3 TREIBER DER DIGITALISIERUNG ..................................................................................... 5
1.4 CHARAKTERISTIKEN DIGITALER PROZESSE ....................................................................... 6
1.5 INDUSTRIESPEZIFISCHE POTENTIALE DER PROZESSDIGITALISIERUNG ..................................... 7
1.5.1 Prädiktive Wartung im Rahmen der Industrie 4.0............................................ 7
1.5.2 Track & Trace von Prozessen im Gesundheitsbereich ...................................... 9
2 EINORDNUNG UND MODELLIERUNG VON DIGITALISIERTEN PROZESSEN ...............10
2.1 EINORDNUNG DIGITALISIERTER PROZESSE..................................................................... 10
2.1.1 Übersicht ........................................................................................................ 10
2.1.2 Geschäftsprozessmanagement ...................................................................... 11
2.1.3 Abgrenzung digitalisierte und automatisierte Prozesse ................................ 12
2.2 GRUNDLAGEN DER PROZESSMODELLIERUNG ................................................................. 14
2.3 MODELLIERUNGSKONVENTIONEN ............................................................................... 16
2.3.1 EPK ................................................................................................................. 16
2.3.2 BPMN, CMMN und DMN ............................................................................... 17
2.3.3 Petri-Netze ..................................................................................................... 18
2.4 MODELLIERUNG VON ENTSCHEIDUNGSSTRUKTUREN DIGITALER PROZESSE .......................... 20
2.5 VON DER MODELLIERUNG ZUR AUSFÜHRUNG ............................................................... 22
3 THEORETISCHE GRUNDLAGEN ................................................................................23
3.1 DATA MINING ........................................................................................................ 23
3.2 SEQUENCE MINING ................................................................................................. 23
3.3 TRADITIONELLE MACHINE-LEARNING-VERFAHREN ......................................................... 24
3.3.1 Decision Tree Learning ................................................................................... 25
3.3.2 Anomalieerkennung ....................................................................................... 26
3.4 QUALITÄTSMAßE FÜR KLASSIFIKATIONEN ..................................................................... 27
3.5 DEEP-LEARNING-VERFAHREN .................................................................................... 30
3.6 EXKURS: MASCHINELLES LERNEN AUF SEQUENZDATEN ................................................... 31
4 PROCESS MINING ZUR KI-GESTÜTZTEN PROZESSDATENANALYSE ..........................33
4.1 EINFÜHRUNG: DATA SCIENCE IN ACTION ..................................................................... 33
4.2 EINORDNUNG VON PROCESS MINING.......................................................................... 37
4.2.1 Positionierung im Geschäftsprozessmanagementzyklus ............................... 37
4.2.2 Vorgehensmethodik zu Process-Mining-Projekten ........................................ 38
4.3 DATENGRUNDLAGE .................................................................................................. 43
4.3.1 Aufbau von Ereignislogs ................................................................................. 43
4.3.2 Qualität und Reifegrad von Logdateien ......................................................... 46
4.3.3 Datenformat XES ............................................................................................ 49
4.4 PROCESS MINING LIFECYCLE ...................................................................................... 50
4.4.1 Überblick ........................................................................................................ 50
4.4.2 Process Discovery ........................................................................................... 51
4.4.2.1 Problemstellung und Motivation ....................................................................... 51
4.4.2.2 Alpha Miner ....................................................................................................... 54
4.4.2.3 Heuristics Miner................................................................................................. 57
Prozessdigitalisierung
II
4.4.3 Process Conformance Checking ..................................................................... 60
4.4.3.1 Problemstellung und Motivation ....................................................................... 60
4.4.3.2 Token Replay ..................................................................................................... 63
4.4.3.3 Alignments ......................................................................................................... 66
4.4.4 Process Enhancement .................................................................................... 69
4.4.5 Operational Process Mining ........................................................................... 70
4.5 PROCESS MINING IN DER PRAXIS ................................................................................ 73
4.5.1 Marktübersicht .............................................................................................. 73
4.5.1.1 Akademische Process-Mining-Software ............................................................ 74
4.5.1.2 Kommerzielle Process-Mining-Software ............................................................ 76
4.5.2 Methodenübersicht Process Mining............................................................... 77
5 INTELLIGENTE PROZESSAUTOMATISIERUNG DURCH ROBOTIC PROCESS
AUTOMATION ................................................................................................................84
5.1 DEFINITION UND EINFÜHRUNG .................................................................................. 84
5.2 MERKMALE VON RPA-SYSTEMEN UND ABGRENZUNG .................................................... 87
5.3 AUSWAHL VON AUTOMATISIERBAREN PROZESSEN ......................................................... 93
5.4 EVOLUTION VON RPA-SYSTEMEN............................................................................... 95
5.4.1 Überblick ........................................................................................................ 95
5.4.2 Regelbasierte Systeme ................................................................................... 96
5.4.3 Wissensbasierte Systeme ............................................................................... 97
5.4.4 KI-basierte Systeme ........................................................................................ 98
5.5 MARKTÜBERSICHT ................................................................................................... 99
6 DEFINITION EINER PROZESSDIGITALISIERUNGSSTRATEGIE ...................................102
6.1 BEWERTUNG VON DIGITALISIERUNGSREIFE ................................................................. 102
6.2 VORGEHEN ZUR PROZESSDIGITALISIERUNG ................................................................. 103
6.3 SKILL SET IM RAHMEN DER PROZESSDIGITALISIERUNG................................................... 106
6.4 ZUSAMMENFASSUNG UND AUSBLICK......................................................................... 110
7 FALLSTUDIEN ........................................................................................................112
7.1 VERBESSERUNG VON BEHANDLUNGSPROZESSEN IN KLINIKEN DURCH PROCESS MINING ...... 112
7.1.1 Ausgangslage und Szenario ......................................................................... 112
7.1.2 Datenauswahl und -extraktion .................................................................... 113
7.1.3 Analyse des Prozessverhaltens und der Performance .................................. 113
7.1.4 Interpretation der Ergebnisse und nächste Schritte ..................................... 115
7.2 RPA-BASIERTE AUTOMATISIERUNG DER ABWICKLUNG VON VERSICHERUNGSANSPRÜCHEN .. 116
7.2.1 Ausgangslage und Szenario ......................................................................... 116
7.2.2 Projektvorgehen und Prozessauswahl ......................................................... 116
7.2.3 Ergebnis der Automatisierung ..................................................................... 118
7.2.4 Weitere Anwendungen von RPA im Gesundheitswesen .............................. 118
LITERATURVERZEICHNIS ...............................................................................................120
Prozessdigitalisierung
III
Abbildungsverzeichnis
ABBILDUNG 1: EINFLUSS DER PROAKTIVEN WARTUNG AUF DIE VERFÜGBARKEIT VON INDUSTRIEANLAGEN ... 8
ABBILDUNG 2: BPM-LEBENSZYKLUS ZUR STRUKTURIERUNG DES GESCHÄFTSPROZESSMANAGEMENTS ....... 12
ABBILDUNG 3: GRUNDELEMENTE DER EREIGNISGESTEUERTEN PROZESSKETTE (EPK) ............................. 16
ABBILDUNG 4: GRUNDELEMENTE DER BUSINESS PROCESS MODEL AND NOTATION (BPMN) .................. 17
ABBILDUNG 5: GRUNDELEMENTE DER PETRI-NETZ-NOTATION .......................................................... 19
ABBILDUNG 6: EINFACHES BEISPIEL EINER IN DMN MODELLIERTEN ENTSCHEIDUNSSTRUKTUR ................. 20
ABBILDUNG 7: KOMPLEXES BEISPIEL EINER IN DMN MODELLIERTEN ENTSCHEIDUNGSSTRUKTUR.............. 21
ABBILDUNG 8: BEISPIEL EINES DECISION REQUIREMENTS DIAGRAM (DRD) FÜR MEHRSTUFIGE
ABHÄNGIGKEITEN ............................................................................................................ 21
ABBILDUNG 9: ZUSAMMENHANG ZWISCHEN TYP- UND INSTANZEBENE VON PROZESSEN ......................... 22
ABBILDUNG 10. BEISPIELDATEN ZUR VORHERSAGE VON ERZIELBAREN MIETPREISEN (AUSZUG)................ 25
ABBILDUNG 11: BEISPIELHAFTER ENTSCHEIDUNGSBAUM ZUR VORHERSAGE VON ERZIELBAREN MIETPREISEN
.................................................................................................................................... 26
ABBILDUNG 12: QUALITÄTSMAßE ZUR BEURTEILUNG EINER KLASSIFIKATION ........................................ 28
ABBILDUNG 13: BEISPIELHAFTE DARSTELLUNG DER UNTER- UND ÜBERANPASSUNG EINES MODELLS ........ 29
ABBILDUNG 14: PROCESS MINING ALS SCHNITTSTELLE ZWISCHEN DATA SCIENCE UND PROCESS SCIENCE .. 35
ABBILDUNG 15: CUSTOMER-JOURNEY-ANALYSE MITTELS PROCESS MINING ........................................ 36
ABBILDUNG 16: EINORDNUNG DER PROCESS-MINING-METHODIK IN DEN BPM-LEBENSZYKLUS .............. 37
ABBILDUNG 17: PM2-PROJEKTMETHODIK FÜR PROCESS MINING ...................................................... 39
ABBILDUNG 18: BEISPIEL LOGDATEI, JEDE ZEILE ENTSPRICHT EINEM EREIGNIS IM EREIGNISLOG ................ 45
ABBILDUNG 19: REIFEGRADSTUFEN FÜR EREIGNISLOGS.................................................................... 48
ABBILDUNG 20: BEISPIEL EINES EREIGNISLOGS IM XES-FORMAT ....................................................... 50
ABBILDUNG 21: ÜBERBLICK PROCESS MINING LIFECYCLE ................................................................. 51
ABBILDUNG 22: MITTELS PROCESS DISCOVERY ERZEUGTE PROZESSMODELLE ALS PETRI-NETZ (LINKS) UND
ALS PROCESS MAP (RECHTS) .............................................................................................. 52
ABBILDUNG 23: BEISPIEL EINER DURCH DEN ALPHA MINER ERZEUGTEN ABHÄNGIGKEITSMATRIX DER
PROZESSAKTIVITÄTEN........................................................................................................ 55
ABBILDUNG 24: BEISPIELE FÜR PROZESSMUSTER AUF BASIS VON FUßABDRÜCKEN................................. 56
ABBILDUNG 25: BEISPIEL EINER DURCH DEN HEURISTICS MINER ERZEUGTEN ABHÄNGIGKEITSMATRIX DER
PROZESSAKTIVITÄTEN ZUM EREIGNISLOG L ............................................................................ 58
ABBILDUNG 26: BEISPIEL EINER DURCH DEN HEURISTICS MINER ERZEUGTEN ABHÄNGIGKEITSMATRIX DER
PROZESSAKTIVITÄTEN ZUM EREIGNISLOG L ............................................................................ 59
ABBILDUNG 27: ÜBERSICHT PROCESS CONFORMANCE CHECKING ...................................................... 62
ABBILDUNG 28: BEISPIELPROZESS FÜR PROCESS-CONFORMANCE-ANALYSEN MITTELS ALIGNMENTS ......... 67
ABBILDUNG 29: OPERATIONAL PROCESS MINING ........................................................................... 71
ABBILDUNG 30: ÜBERSICHT ZU AKADEMISCHEN PROCESS-MINING-LÖSUNGEN .................................... 75
ABBILDUNG 31: ÜBERSICHT ZU KOMMERZIELLEN PROCESS-MINING-LÖSUNGEN ................................... 77
ABBILDUNG 32: PROCESS MAP ................................................................................................... 78
ABBILDUNG 33: VORGÄNGER-/NACHFOLGER-MATRIX .................................................................... 79
ABBILDUNG 34: TRACE-ANALYSE................................................................................................. 80
ABBILDUNG 35: ZEITLICHE VERTEILUNGEN .................................................................................... 81
ABBILDUNG 36: RESOURCE MAP ................................................................................................. 82
ABBILDUNG 37: RESSOURCEN-MATRIX ......................................................................................... 83
ABBILDUNG 38: BEISPIELPROZESS VOR UND NACH DER AUTOMATISIERUNG DURCH RPA ........................ 85
ABBILDUNG 39: EINORDNUNG DER VON RPA IN DEN BPM-LEBENSZYKLUS ......................................... 88
ABBILDUNG 40: DURCH RPA AUTOMATISIERBARE GESCHÄFTSPROZESSE ............................................. 94
ABBILDUNG 41: ÜBERSICHT ZU RPA-SOFTWARE-LÖSUNGEN ............................................................ 99
ABBILDUNG 42: ÜBERSICHT ZU KOMMERZIELLEN RPA-LÖSUNGEN ................................................... 101
ABBILDUNG 43: ZUSAMMENWIRKEN DER BAUSTEINE ZUR PROZESSDIGITALISIERUNG ........................... 104
ABBILDUNG 44: ZEITLICHE VERTEILUNG DER BEHANDLUNGSZEITEN .................................................. 114
Prozessdigitalisierung
IV
Arbeiten mit diesen Unterlagen
In diesem Dokument finden Sie den Studientext für das aktuelle Fach, wobei
an einigen Stellen Symbole und Links zu weiterführenden Erklärungen,
Übungen und Beispielen zu finden sind. An den jeweiligen Stellen klicken Sie
bitte auf das Symbol – nach Beendigung des relevanten Teils kehren Sie bitte
wieder zum Studientext zurück. Stellen Sie sicher, dass auf Ihrem Rechner
ein MPEG4-Decoder installiert ist.
Erklärung der Symbole:
Wichtiger Merksatz oder Merkpunkt
Zusammenfassung
Hinweis zur verwendeten Sprache:
Aus Gründen der leichteren Lesbarkeit wird im vorliegenden Skriptum die
gewohnte männliche Sprachform bei personenbezogenen Substantiven und
Pronomen verwendet. Dies impliziert jedoch keine Benachteiligung des
weiblichen Geschlechts, sondern soll im Sinne der sprachlichen Vereinfa-
chung als geschlechtsneutral zu verstehen sein.
Prozessdigitalisierung
1
1 Prozessdigitalisierung
1.1 Einführung
Der „Megatrend Digitalisierung“ führt zu einer zunehmenden Durchdrin-
gung nahezu aller Lebensbereiche mit Informationstechnologie. Gerade im
betrieblichen Umfeld sehen sich Unternehmen aller Branchen mit tiefgrei-
fenden Veränderungen im Zuge dieser als digitale Transformation bezeich-
neten Entwicklung konfrontiert. Diese Entwicklungen nehmen großen Ein-
fluss auf die Möglichkeiten zur Gestaltung, Ausführung und Auswertung von
Arbeitsabläufen und Geschäftsprozessen innerhalb von Unternehmen.
Gleichzeitig bieten sich aufgrund neuer digitaler Technologien vielfältige Po-
tentiale zur gezielten Analyse, Vereinfachung und Effizienzsteigerung von
Prozessen. Auch eine weitreichende Automatisierung von Abläufen und eine
intelligente Entscheidungsunterstützung während der Prozessausführung
können auf der Basis von Technologiekonzepten wie Process Mining, Robotic
Process Automation und Machine Learning realisiert werden (vgl. Berti et al.,
2019).
Die Konsequenzen dieser Entwicklung lassen sich sowohl innerhalb von Un-
ternehmen als auch unternehmensübergreifend in Wertschöpfungsnetz-
werken beobachten. Digitale, internetbasierte Geschäftsmodelle entstehen
auf der Grundlage verschiedener Bausteine, welche jeweils unterschiedliche
Rollen einnehmen (Appelfeller & Feldmann, 2018, S. 9ff.): Digitale Enabler
wie IT-Systeme und Kommunikationsinfrastruktur bilden die technische
Grundlage und definieren damit die notwendige Ausgangssituation für eine
umfassende Digitalisierung. Darauf aufbauend werden entstehende Daten
sowie digitalisierte Maschinen und Produkte als Gegenstände der digitalen
Transformation bezeichnet, die durch digitale Technologien erweitert wer-
den. Die Einbindung von Mitarbeitern, Kunden und Lieferanten als Akteure
berücksichtigt Veränderungen bezüglich der Interaktionen und notwendi-
gen IT-Kompetenzen, welche die beteiligten Handelnden betreffen. Die um-
fassende Klammer über die drei skizzierten Elemente stellen die Verwender
der digitalen Transformation dar, in deren Zentrum digitale Geschäftsmo-
delle und Prozesse stehen.
Digitalisierte Prozesse bilden den Kern des digitalen Unternehmens und
sind essentieller Bestandteil der digitalen Transformation.
In der Praxis werden bislang viele Geschäftsprozesse nicht vollständig digital
unterstützt durch Software ausgeführt. Häufig finden sich manuelle Zwi-
schenschritte, Medienbrüche oder nicht definierte Systemschnittstellen, die
einer umfassenden und ganzheitlichen digitalen Abbildung im Wege stehen.
Und selbst wenn alle Schritte eines Prozesses digital durch Informationssys-
teme unterstützt sind, bestehen oftmals Probleme der Daten- und Daten-
strukturintegration: Informationen sind auf eine Vielzahl von Systemen ver-
teilt, Daten werden redundant und in verschiedenen Formaten abgelegt und
sind einer automatischen Auswertung nicht zugänglich. Der Großteil der
Prozessdigitalisierung
2
heute in Unternehmen vorliegenden Datenbestände ist unstrukturiert (Van
der Aalst, 2016, S. 4f.). Eine große Herausforderung für Unternehmen be-
steht darin, Daten zu extrahieren und zu entscheidungsrelevanten Informa-
tionen anzureichern. Die prozessbezogene Auswertung und Zuordnung von
Informationen zu bestimmten Ereignissen innerhalb eines Prozesses ist da-
mit ein Schlüsselaspekt für eine gezielte und ganzheitliche Prozessdigitalisie-
rung.
Die Zielsetzung des vorliegenden Skriptums ist es daher, das Themenfeld der
Prozessdigitalisierung im Kontext der digitalen Transformation zu strukturie-
ren und wichtige Kernbestandteile zu identifizieren. Insbesondere werden
die Zusammenhänge zwischen der digitalen Modellierung, der Analyse und
dem Monitoring von realen Prozessabläufen und der intelligenten Automa-
tisierung fokussiert. Hierzu wird das Themenfeld in aufeinander aufbauende
Phasen unterteilt und die folgenden Inhalte adressiert:
• In Kapitel 1 werden eine Einführung in aktuelle Trends der digitalen
Transformation und eine Übersicht über die Treiber der Digitalisie-
rung präsentiert. Anhand einiger Beispiele werden darüber hinaus
die spezifischen Potentiale einer Prozessdigitalisierung sowie die da-
mit einhergehenden Herausforderungen und neue Anforderungen
aufgezeigt.
• Die Einordnung des Themenfelds Prozessdigitalisierung in den Be-
zugsrahmen eines allgemeinen Konzepts zum Geschäftsprozessma-
nagement erfolgt in Kapitel 2. Diese dient zunächst dazu, begriffliche
Grundlagen zu klären und unterschiedliche Aspekte der Prozessdigi-
talisierung voneinander abzugrenzen. Anschließend werden Metho-
den anhand der Notationssprachen EPK, BPMN und Petri-Netze kon-
krete Modellierungskonventionen vorgestellt und in Bezug auf die
Abbildung digitaler Prozesse bewertet. Eine strukturierte Konzeption
und Modellierung von digitalen Prozessen ist die Grundlage für die
nachfolgenden Schritte der Analyse, des Monitorings und der intelli-
genten Automatisierung von Prozessabläufen.
• Um ein einheitliches Verständnis theoretischer Grundlagen aus den
Bereichen Data Mining und Machine Learning zu etablieren, wird in
Kapitel 3 eine Zusammenfassung wichtiger Kernkonzepte präsen-
tiert. Die Darstellung wurde um die spezifische Perspektive auf Pro-
zessdaten komplettiert, um insbesondere die nachfolgend behan-
delte Analysemethode Process Mining zu motivieren und zu kontex-
tualisieren. Auch werden beispielhaft die Grundlagen zur Anwen-
dung von maschinellen Lernverfahren auf prozessbezogene Se-
quenzdaten thematisiert.
• Innerhalb von Kapitel 4 werden anschließend verschiedene metho-
dische Ansätze zur Auswertung und Bewertung realer Prozessabläufe
durch die KI-gestützte Prozessdatenanalyse Process Mining vorge-
stellt. Zunächst erfolgt eine Positionierung von Process Mining im
Rahmen des Geschäftsprozessmanagements aus Kapitel 2, um Ein-
Prozessdigitalisierung
3
satzpotentiale deutlich zu machen. Anschließend werden die Grund-
lagen von sogenannten Ereignislogs behandelt, die historische Aus-
führungsdaten beinhalten und für Process-Mining-Analysen zwin-
gend notwendig sind. Darauf aufbauend werden die drei Methoden
Process Discovery zur Entdeckung von Prozessstrukturen, Process
Conformance Checking zur Verifikation von Prozessverhalten in der
Realität und Process Enhancement zur gezielten Verbesserung von
Geschäftsprozessen vorgestellt. Die Darstellung wird durch eine Aus-
wahl aktuell verfügbarer Process-Mining-Software sowie eine Über-
sicht zu Methoden innerhalb dieser Software-Tools komplettiert.
• In Kapitel 5 wird die intelligente Prozessautomatisierung durch Ro-
botic Process Automation (RPA) behandelt. Aufbauend auf der in Ka-
pitel 4 dargestellten Analyse von Prozessstrukturen bildet sie den
nächsten Schritt zur Realisierung von Automatisierungspotentialen
in digitalisierten Prozessen. Neben einer Darstellung von charakteris-
tischen Merkmalen von RPA-Systemen und einer Abgrenzung der
Systeme untereinander werden die Evolution von RPA-Systemen so-
wie Beispiele für mögliche Automatisierungsszenarien beschrieben.
Eine Übersicht zur Marktlage aktueller Software-Tools komplettiert
auch dieses Kapitel.
• Abschließend wird in Kapitel 6 eine Vorgehensmethodik zur Entwick-
lung einer Prozessdigitalisierungsstrategie präsentiert, welche ein
praktisch anwendbares Modell zur Identifizierung von Digitalisie-
rungspotentialen und deren Realisierung beschreibt. Weiterhin wer-
den Möglichkeiten zur Fortbildung und Schulung von Mitarbeitern
beschrieben sowie Fertigkeiten zur Prozessdigitalisierung in Form ei-
nes Skill-Sets zusammengefasst.
• In Kapitel 7 werden ergänzend noch einige Fallstudien zur erfolgrei-
chen Anwendung der vorgestellten Techniken aus der Praxis anhand
der Anwendungsdomäne Healthcare vorgestellt, um das Verständnis
für deren praktische Anwendbarkeit zu vertiefen.
1.2 Warum Prozessdigitalisierung?
Digitalisierte Prozesse und strukturierte Abläufe sind die Grundbausteine für
die Umsetzung der digitalen Transformation. Mit der zunehmenden Digitali-
sierung von Geschäftsmodellen und dem Angebot an digitalen Dienstleistun-
gen rücken Prozesse als wichtige Bausteine für die Operationalisierung die-
ser Initiativen in den Mittelpunkt der Betrachtung. Für Unternehmen exis-
tieren unterschiedliche Gründe und Motivationen, ihre Anstrengungen im
Bereich der Prozessdigitalisierung gezielt zu hinterfragen und auszurichten.
Neben technologiegetriebenen Veränderungen (vgl. Abschnitt 1.3) existiert
aufgrund gesellschaftlicher und wirtschaftlicher Veränderungen darüber
hinaus ein starker Bedarfssog, der marktgetriebene Anpassungen notwendig
macht. Hierzu zählen beispielsweise verkürzte Innovations- und
Prozessdigitalisierung
4
Entwicklungszeiten, eine stärkere Individualisierung der Kundennachfrage
sowie die Notwendigkeit, die Effizienz von internen Abläufen weiter zu stei-
gern:
• Der zunehmende Wandel von Geschäftsmodellen und die damit ein-
hergehende Kernausrichtung auf digitale Wertversprechen bedingen
eine durchgehende Digitalisierung von Geschäftsprozessen. Ein Bei-
spiel hierfür ist die Bereitstellung von digitalen Services, etwa zur
Speicherung von Daten, zur Übersetzung von Dokumenten oder im
Bereich E-Commerce.
• Eine geänderte Anspruchshaltung seitens der Kunden zeigt sich bei-
spielsweise in der Erwartung schneller und transparenter Lieferun-
gen von Waren. Geringe Vorlaufzeiten bei Bestellungen und ein de-
tailliertes Tracking einzelner Versandschritte stellen hohe Anforde-
rungen an die digitale Durchgängigkeit und Automatisierung von Pro-
zessabläufen.
• Die zunehmende Individualisierung von Produkten und die bedarfs-
gerechte Konfiguration und Ausführung von Prozessen beschreiben
einen anderen zentralen Aspekt im Kontext der Prozessdigitalisie-
rung. Ein Beispiel hierfür ist die kundenindividuelle Produktion, wie
sie bei der Produktion von Druckerzeugnissen und Fotoprodukten
heute schon Realität ist: Produktionsprozesse werden in diesen Sze-
narien durch die Bestellung des Kunden automatisch initiiert und auf
einer Anlage ausgeführt, ohne dass eine manuelle Prüfung oder Frei-
gabe erfolgen muss.
• Die Integration von Geschäftsprozessen wird zunehmend zu einem
entscheidenden Wettbewerbsfaktor und Unterscheidungskriterium
gegenüber Konkurrenten. Beispiele hierfür sind die engere Vernet-
zung mit Partnern, Lieferanten und Kunden in Wertschöpfungsnetz-
werken oder die Etablierung von sogenannten Plattformgeschäfts-
modellen, auf denen Dienstleistungen (z. B. freie Ladekapazitäten in
der Logistikbranche) bedarfsgerecht angeboten und nachgefragt
werden.
Eine umfassende Prozessdigitalisierung stellt eine essentielle Anforderung
für die Sicherung der Wettbewerbsfähigkeit von Unternehmen im Kontext
sich ändernder Geschäftsmodelle und Kundenanforderungen dar.
Zentrale Zielsetzung ist es, Prozesse nicht nur durch separate IT-Systeme zu
unterstützen, sondern eine durchgängig digitale Abbildung von Geschäfts-
abläufen zu realisieren. Prozessdigitalisierung erfolgt demnach nicht zum
reinen Selbstzweck, sondern stellt vielmehr die Grundlage für ein tiefgehen-
des Datenverständnis und die Entscheidungsunterstützung dar. In der Lite-
ratur wird in diesem Zusammenhang auch von datenzentrischem Prozess-
management gesprochen (Brucker-Kley et al., 2018, S. 10).
Prozessdigitalisierung
5
1.3 Treiber der Digitalisierung
Die zunehmende Durchdringung von Unternehmensabläufen und Ge-
schäftsprozessen durch Informations- und Kommunikationstechnologie
(IKT) ist per se keine neue Entwicklung und dauert seit Jahrzehnten an. Im
Zuge der digitalen Transformation lassen sich aber einige Bereiche erken-
nen, die zu disruptiven Veränderungen und Durchbrüchen führen. Diese ak-
tuellen Entwicklungen im Bereich der Prozessdigitalisierung lassen sich auf
eine Reihe von technologischen Entwicklungen der letzten Jahre zurückfüh-
ren. Die im Folgenden skizzierten Schlüsselfaktoren sind maßgeblich für die
transformativen Fortschritte verantwortlich:
• Dramatisch reduzierte Kosten für Rechenleistung, Konnektivität
und Speicher. Die in den letzten Jahren zunehmende Nutzung von
Cloud Computing sorgt für eine Verschiebung von IT-Services und
Softwareangeboten zu zentralisierten Cloud-Anbietern. Die Ange-
bote reichen von der Bereitstellung von Hardware-Ressourcen (Inf-
rastructure-as-a-Service [IaaS]) und Dienstleistungen wie z. B. Lauf-
zeitumgebungen für Web-Anwendungen (Platform-as-a-Service
[PaaS]) bis hin zu direkt nutzbaren Anwendungssystemen (Software-
as-a-Service [SaaS]).
Als Folge des großen Wettbewerbs zwischen den Anbietern sind
stark sinkende Preise für den Zugriff auf Rechenleistung, Übertra-
gungs- und Speicherkapazitäten zu beobachten. Weiterhin ergeben
sich aufgrund der Zentralisierung entsprechender Hardware und in-
telligenter Möglichkeiten zu deren Administration zudem neuartige
Skalierungseffekte, die es beispielsweise ermöglichen, die verfüg-
bare Rechenleistung bei Bedarf schnell zu erhöhen und wieder abzu-
senken, ohne hohe Investitionen in den Aufbau eigener Ressourcen
zu machen. Durchbrüche im Bereich von hoch parallelisierten Re-
cheneinheiten ermöglichen darüber hinaus exponentielle Leistungs-
sprünge z. B. bei der Verarbeitung von großen Datenmengen.
In der Folge ergibt sich ein günstiger und nahezu unbeschränkter
Zugriff auf Rechenleistung, welche die digitale Ausführung und
Analyse von Geschäftsprozessen unterstützen kann.
• Verfügbarkeit großer Datenmengen („Big Data“). Die Zunahme der
weltweiten Datenmenge folgt einer exponentiellen Wachstums-
kurve. Global betrachtet betrug die durchschnittliche jährliche
Wachstumsrate des Datenvolumens seit dem Jahr 2010 mehr als
50%. Die Tendenz dieser Entwicklung ist stark steigend: 90% aller
heute gespeicherten Daten wurde in den letzten zwei Jahren erzeugt.
Diese Datenmengen entstammen einer Vielzahl von Quellen, bei-
spielsweise industriellen Sensor-Aktor-Netzwerken, mobilen Endge-
räten wie Smartphones, Interaktionen in sozialen Netzwerken oder
Geschäftsanwendungen wie prozessorientierten Workflow- oder
ERP-Systemen.
Einhergehend mit dem bereits thematisierten Preisverfall für die
Speicherung großer Datensammlungen ermöglicht diese
Prozessdigitalisierung
6
Entwicklung den Aufbau umfassender, hochaufgelöster Datenbasen.
Moderne Verfahren zur Datenanalyse (Advanced Analytics, Machine
Learning etc.) erlauben eine umfassende Auswertung dieser Daten-
bestände, um beispielsweise Ineffizienzen in Abläufen zu erkennen,
zu beheben und eine konsequente Automatisierung umzusetzen.
Zusammenfassend bleibt festzuhalten, dass eine wachsende Datenmenge
sowie Möglichkeiten zu deren gezielter Auswertung große Potentiale für
die Analyse und Automatisierung von digitalisierten Geschäftsprozessen
bieten.
• Technologische Reife von Basistechnologien und Software. Aufbau-
end auf den zuvor genannten Entwicklungen haben sich am Markt
verschiedenste Lösungen etabliert, die grundlegende Funktionalitä-
ten zur Prozessdigitalisierung einfach zugänglich machen. Dies be-
trifft einerseits Basistechnologien zur Auswertung von Daten wie bei-
spielsweise Machine-Learning-Ansätze zur Datensegmentierung, zur
Vorhersage von prozessbezogenen (Sequenz-)Daten oder graphen-
basierte Process-Mining-Analysen. Ein Ökosystem aus einer wach-
senden Anzahl an freien und kommerziellen Software-Tools und
Frameworks ermöglicht es, diese Technologien mit vergleichsweise
geringem Aufwand für individuelle Lösungen zu implementieren. An-
dererseits zählt hierzu auch Standardsoftware, welche grundlegende
Konzepte des Geschäftsprozessmanagements abbildet und beispiels-
weise digitale Modellierung, Workflow-Unterstützung sowie die
durchgehende Erstellung von Logdaten zur detaillierten Auswertung
und Verbesserung von Prozessen erlaubt.
Die wachsende Zahl an Basistechnologie und Anwendungssoftware für die
digitale Unterstützung von Geschäftsprozessen führt zu einer dramati-
schen Reduzierung der Einstiegshürden für die Prozessdigitalisierung.
1.4 Charakteristiken digitaler Prozesse
Aufgrund der genannten Treiber der Digitalisierung sind signifikante Ände-
rungen bei der Umsetzung und Ausführung von Geschäftsprozessen zu er-
warten. Wie sich diese Änderungen für konkrete Prozesse genau manifestie-
ren, hängt von einer Reihe von Faktoren ab. Beispielsweise bestehen viele
branchen- und industriespezifische Potentiale im Rahmen der Digitalisie-
rung. Diese werden innerhalb des folgenden Abschnitts behandelt. Darüber
hinaus lassen sich auch einige allgemeine Charakteristiken für Veränderun-
gen im Rahmen der Prozessdigitalisierung identifizieren (vgl. Appelfeller &
Feldmann, 2018, S. 19ff.; Janiesch et al., 2017, S. 3).
Prozessdigitalisierung
7
• Prozessschritte werden digital durch IT-Systeme unterstützt, sodass
Aktivitäten nicht mehr unstrukturiert und ad hoc unter Verwendung
verschiedener Software-Tools durchgeführt werden,
• Prozessabläufe werden zunehmend automatisiert, beispielsweise
durch die automatische Versendung von Mitteilungen oder den Aus-
tausch von Daten,
• Prozessschritte werden mit vorangehenden und nachfolgenden Akti-
vitäten stärker systemtechnisch integriert, sodass manuelle Schnitt-
stellen und Medienbrüche reduziert werden,
• die Integration zwischen „realer“ und „digitaler“ Prozessausführung
nimmt zu, indem auch manuelle und physische Tätigkeiten eine digi-
tale Spur in einem IT-System hinterlassen,
• die Ausführungen von Prozessen sind aufgrund der digitalen Abbil-
dung transparent, durchgängig und in Echtzeit nachvollziehbar,
• Prozesse können aufgrund der digitalen Spuren, die sie bei ihrer Aus-
führung hinterlassen, detailliert ausgewertet und analysiert werden,
um z. B. unerwünschte Abweichungen frühzeitig zu erkennen,
• Prozesse weisen ein höheres Maß an Selbststeuerung auf, sodass
Entscheidungen innerhalb eines Prozessablaufs automatisiert wer-
den können und
• die bedarfsgerechte Ausführung von Prozessen nimmt eine wichtige
Rolle bei der Planung und Durchführung von periodisch wiederkeh-
renden Aktivitäten ein.
Die Beispiele innerhalb des folgenden Abschnitts illustrieren, wie die ange-
führten Charakteristiken die Ausführung von Prozessen in bestimmten Bran-
chen verändern und unter dem Einsatz moderner Technologien transformie-
ren. Hierzu werden Szenarien aus dem Bereich Industrie 4.0 und dem Ge-
sundheitsbereich betrachtet.
1.5 Industriespezifische Potentiale der Prozessdigita-
lisierung
1.5.1 Prädiktive Wartung im Rahmen der Industrie 4.0
Das erste Anwendungsszenario bezieht sich auf Wartungsprozesse industri-
eller Anlagen und illustriert das Charakteristikum der bedarfsgerechten Aus-
führung. Wartungsprozesse in industriellen Anlagen werden typischerweise
nach festgelegten Zeitintervallen durchgeführt (z. B. alle sechs Monate) oder
an bestimmte technische Parameter geknüpft (z. B. nach 10.000 auf einer
Maschine gefertigten Bauteilen). Das Problem bei dieser Art der Festlegung
Prozessdigitalisierung
8
von Wartungsintervallen besteht darin, dass die spezifischen Einsatzbedin-
gungen einer Anlage nicht berücksichtigt werden. In Bezug auf die techni-
schen Parameter könnte es beispielsweise einen großen Unterschied ma-
chen, welche Art von Produkten auf der Anlage gefertigt wurde; während
10.000 Einheiten von Produkt A zu einem eher geringen Verschleiß führen,
könnten bereits 5.000 Einheiten von Produkt B den gleichen Verschleiß her-
vorrufen. Im Ergebnis besteht bei fixen Wartungsintervallen also die Gefahr,
eine Wartung entweder zu früh durchzuführen – und dadurch unnötige Res-
sourcen zu verschwenden sowie einen nicht notwendigen Stillstand der An-
lage zu verursachen – oder aber einen verschleißbedingten Ausfall der An-
lage außerhalb der Wartungsintervalle zu riskieren.
In Abbildung 1 sind die Einflüsse verschiedener Wartungsmodelle auf die An-
lageneffektivität (engl. Original Equipment Effectiveness, OEE) dargestellt.
Während eine reaktive Wartung nach Auftreten eines Defekts zu einer ge-
ringen Effektivität führt, erreicht auch die heute verbreitete Art der geplan-
ten Wartung nur eine durchschnittliche Effektivität im Bereich von 50‒75%.
Abbildung 1: Einfluss der proaktiven Wartung auf die Verfügbarkeit von Industrieanlagen
(Quelle: Deloitte, 2017)
Eine proaktive Wartung kann in einem übermäßig häufigen Austausch mög-
licherweise defekter Komponenten bestehen, geht aber zulasten der Res-
sourceneffizienz. Eine prädiktive Wartung stellt in diesem Szenario das Wun-
schergebnis dar und beruht auf der ständigen Überwachung von techni-
schen Parametern der Anlage, um einen drohenden Defekt zu erkennen, be-
vor er tatsächlich auftritt.
Dieses Beispiel verdeutlicht die dynamische Reaktion von Wartungsprozes-
sen in Abhängigkeit bestimmter Variablen im Prozesskontext. Eine Über-
wachung kritischer Anlagenparameter, z. B. Schwingungen, Temperatur,
Druck, kann in Verbindung mit Machine-Learning-Methoden eine präzise
Prozessdigitalisierung
9
Vorhersage von drohenden Defekten und eine flexible Prozesssteuerung er-
möglichen.
1.5.2 Track & Trace von Prozessen im Gesundheitsbereich
Das zweite Beispiel illustriert die Charakteristiken der durchgehenden IT-Un-
terstützung, systemtechnischen Integration sowie Nachvollziehbarkeit von
Prozessschritten in Echtzeit. Es entstammt einer Fallstudie zur Prozessimple-
mentierung am DNU Hospital in Aarhus/Dänemark, welches mit mehr als
10.000 Angestellten zu den größten Krankenhäusern in Europa zählt (vgl.
Meister et al., 2019, S. 329ff.).
Ziel der Implementierung war eine vertikale und horizontale Integration von
Prozessen durch eine einheitliche Informationsarchitektur. Ein besonderer
Fokus lag auf der Unterstützung der operativen Prozessdurchführung im Be-
reich Logistik. Im Bereich der Service-Logistik wurde ein System zur Nachver-
folgung (Tracking & Tracing) von Infrastruktur (z. B. Betten, Essen, Wäsche)
implementiert, welches eine Echtzeitlokation von Objekten ermöglicht. Die
Objekte wurden dazu mit technischer Funktionalität zur drahtlosen Kommu-
nikation ausgestattet. Ein System zur Aufgabenverwaltung unterstützt bei-
spielsweise die Auslieferung von Wäsche auf dem Weg zur Reinigung: Die
entsprechenden Container sind mit Funktechnologien ausgestattet, sodass
sie bei Erreichen der Laderampe automatisch eine Nachricht an den Trans-
porteur versenden, um über die Abholbereitschaft zu informieren. Auch der
weitere Weg bis zur Wiederanlieferung der Container kann schrittweise in-
nerhalb des Systems nachvollzogen werden. Die Auswahl der bei den ent-
sprechenden Schritten zu informierenden Personen kann darüber hinaus dy-
namisch an deren Verfügbarkeit angepasst werden.
Die digitale Abbildung aller Prozesse erlaubt es außerdem, Auswertungen
der Daten durchzuführen und Erkenntnisse über eine weitere Optimierung
der Abläufe zu erhalten. Neben der durchgängigen IT-Unterstützung auf Sei-
ten des DNU ist die technische Integration von Systemen von externen
Dienstleistern wie Transportunternehmen eine notwendige Voraussetzung
für die Realisierung dieser Prozessdigitalisierung.
Prozessdigitalisierung
10
2 Einordnung und Modellierung von digitali-
sierten Prozessen
2.1 Einordnung digitalisierter Prozesse
2.1.1 Übersicht
Die digitale Transformation betrifft alle Bereiche eines Unternehmens und
verändert verschiedene Aspekte in unterschiedlicher Weise. Wie in Ab-
schnitt 1.1 bereits einleitend erwähnt, lässt sich hierbei zwischen den fol-
genden Elementen unterscheiden (vgl. Appelfeller & Feldmann, 2018, S. 9):
• Enabler der digitalen Transformation legen die technische Grundlage
zur Realisierung der digitalen Transformation. Hierzu zählen IT-Sys-
teme, die analoge Daten in digitale Daten verwandeln und Produkten
und Maschinen durch eingebettete Komponenten zu einer digitalen
Repräsentation verhelfen. Ebenfalls fallen Elemente zur digitalen
Vernetzung in die Kategorie der Enabler, da sie die Grundvorausset-
zung für den Datenaustausch und die Kommunikation von digitalen
Objekten untereinander bilden.
• Objekte der digitalen Transformation werden durch digitale Techno-
logien transformiert und verändern dadurch ihren Charakter.
Dadurch werden zum einen digitale Daten als Ergebnis von Interakti-
onen mit Produkten und Maschinen entstehen, welche „digital enab-
led“ wurden. Zum anderen gelten die digitalisierten Produkte und
Maschinen selbst als digitale Objekte.
• Verwender der digitalen Transformation profitieren von der digita-
len Transformation und nutzen die sich daraus ergebenden Vorteile.
Hierzu zählen Prozesse, die – unterstützt durch IT-Systeme und digi-
tale Kommunikationsinfrastruktur – effizienter und besser ausge-
führt werden können. Weiterhin fallen Geschäftsmodelle als Ganzes
in diese Kategorie, welche sich beispielsweise zu Plattformmodellen
wandeln können, indem sie die Möglichkeiten der digitalen Transfor-
mation nutzen.
• Akteure der digitalen Transformation sind schließlich beteiligte Per-
sonen, die von der transformativen Entwicklung betroffen sind, ein-
gebunden werden und Unterstützung erfahren. Hierzu zählen z. B.
Mitarbeiter, Kunden und Lieferanten.
Digitale Prozesse stehen als Verwender im Fokus der Betrachtung, da sie
eine zentrale Rolle für neuartige Service-Angebote, Ablaufstrukturen und
veränderte Wertschöpfungsangebote von Unternehmen einnehmen.
Prozessdigitalisierung
11
Die digitale Unterstützung von Prozessen durch IT-Systeme führt zu einem
digitalen Abbild dieser Abläufe. Diese durchgehende Digitalisierung ermög-
licht es, einzelne Schritte transparent nachzuvollziehen, zu analysieren und
von verschiedenen Standorten aus Einblicke in den aktuellen Stand und Sta-
tus eines Prozesses zu erhalten. Kerngedanke hierbei ist, dass jede in der
Realität durchgeführte Aktion zu einer digitalen Spur in einem IT-System füh-
ren muss. Bei physischen Prozessschritten – beispielsweise dem Warenein-
gang oder einem Verarbeitungsschritt bei der Produktion eines Produktes –
ist hierbei eine Protokollierung der entsprechenden Aktion notwendig. Be-
vor die unterschiedlichen Arten von digitalisierten Prozessen in Abschnitt
2.1.3 näher erläutert werden, ordnet der nächste Abschnitt die einzelnen
Phasen zum Management von Prozessen in ein Rahmenwerk ein.
2.1.2 Geschäftsprozessmanagement
Für den Begriff Geschäftsprozessmanagement (engl. Business Process Ma-
nagement, BPM) existieren verschiedene Auffassungen und Definitionen,
weshalb im Folgenden zunächst eine Arbeitsdefinition entwickelt werden
soll. Allgemein bezeichnet BPM ein integriertes System zum Management
von unternehmerischen Aktivitäten, insbesondere mit einem Schwerpunkt
auf der Kontrolle und Steuerung von performancekritischen Geschäftspro-
zessen. Ein Geschäftsprozess stellt nach SCHEER in diesem Zusammenhang
eine „zusammengehörige Abfolge von Unternehmensverrichtungen zum
Zweck einer Leistungserstellung“ dar (Scheer, 2002, S. 3). Als umfassender
Managementansatz stellt BPM Methoden, Techniken und Software-Werk-
zeuge bereit, um den Entwurf, die Ausführung und die Analyse von Unter-
nehmensprozessen unter Einbeziehung der beteiligten Personen, Anwen-
dungen, Ressourcen und Informationsquellen zu unterstützen. Im Mittel-
punkt eines modernen Geschäftsprozessmanagements steht, im Gegensatz
zu disruptiven und meist einmalig durchgeführten Maßnahmen wie Business
Process Reengineering, eine kontinuierliche Verbesserung von Geschäfts-
prozessen. Damit werden die Ziele verfolgt, Unternehmensprozesse an ge-
änderte Bedingungen anzupassen, die Prozesseffizienz zu steigern und eine
kontinuierliche Ausrichtung der Prozesse an der Unternehmensstrategie si-
cherzustellen Die methodische Grundlage hierfür bieten sogenannte BPM-
Life-Cycle-Modelle, welche den Lebenszyklus eines Prozesses in verschie-
dene Phasen unterteilen (vgl. Abbildung 2).
Ausgehend von der Definition einer Unternehmensstrategie (Strategieent-
wicklung) erfolgt der Entwurf von Geschäftsprozessen unter Berücksichti-
gung entsprechend definierter Prozessziele (Definition und Modellierung).
Die anschließende Implementierung und Ausführung entsprechen der tech-
nischen und organisatorischen Realisierung des Prozesses und werden durch
eine Auswertung laufender und historischer Prozessabläufe überwacht und
durch Maßnahmen wie Soll-Ist-Vergleiche oder Benchmarking analysiert
(Monitoring und Controlling). Im nächsten Schritt erfolgt ein Abgleich mit zu-
vor definierten Indikatoren zur Prozessperformance und zum Grad der
Prozessdigitalisierung
12
Zielerreichung, welcher die Ausgangsbasis für eine Prozessoptimierung und
eventuelle Neuausrichtung entlang der Strategie darstellt (Optimierung und
Weiterentwicklung).
Abbildung 2: BPM-Lebenszyklus zur Strukturierung des Geschäftsprozessmanagements
(Quelle: in Anlehnung an Houy et al., 2010, S. 623)
Der dargestellte Zyklus bildet den Rahmen für die ganzheitliche Konzeption,
Umsetzung und Weiterentwicklung von Geschäftsprozessen. Obwohl die be-
schriebenen Phasen grundsätzlich auch für analoge und nicht digital unter-
stützte Prozesse anwendbar sind, ergeben sich für digitalisierte Prozesse
vielfältige Potentiale in Bezug auf die Analyse und Automatisierbarkeit. Im
nächsten Abschnitt werden diese Aspekte daher näher charakterisiert.
2.1.3 Abgrenzung digitalisierte und automatisierte Prozesse
Digitale Prozesse lassen sich nach APPELFELLER & FELDMANN anhand verschie-
dener Kriterien weiter differenzieren (vgl. Appelfeller & Feldmann, 2018, S.
20f.). Diese sind jeweils als verhältnismäßiger Anteil derjenigen Prozessakti-
vitäten zur Gesamtzahl der Aktivitäten definiert, der dem jeweiligen Krite-
rium entspricht.
Das erste Kriterium stellt hierbei der Digitalisierungsgrad dar, der angibt,
welcher Anteil der in einem Prozess enthaltenen Aktivitäten digital durch ein
IT-System unterstützt ist. Das Spektrum reicht hier von analogen Prozessen,
bei denen alle Aktivitäten ohne IT-Unterstützung durchgeführt werden und
die damit auch keine auswertbaren digitalen Spuren hinterlassen, über teil-
digitalisierte Prozesse, bei denen einzelne Schritte digital unterstützt wer-
den, bis hin zu volldigitalisierten Prozessen, die vollumfänglich durch IT-Sys-
teme abgedeckt sind. Volldigitalisierte Prozesse ermöglichen eine vollstän-
dige und transparente Untersuchung von Abläufen, da keine analogen Brü-
che die Nachvollziehbarkeit verhindern.Strategie-
entwicklung
Definition und
Modellierung
Implementierung
Ausführung
Monitoring und
Controlling
Optimierung und
Weiterentwicklung
Prozessdigitalisierung
13
Als zweites Kriterium lässt sich der digitale Automatisierungsgrad von Pro-
zessen unterscheiden, welcher angibt, welcher Anteil von Aktivitäten inner-
halb eines Prozesses automatisch, d. h. ohne manuelle Beteiligung eines
Menschen, stattfindet. Die Automatisierbarkeit von einzelnen Prozessschrit-
ten bedingt in nahezu allen Fällen eine Digitalisierung der entsprechenden
Schritte, da die automatisierte Verarbeitung auf Eingabedaten angewiesen
ist, um eine Entscheidung zu treffen. Beispiele hierfür sind die automati-
sierte Übernahme von Daten aus einem System über eine definierte Schnitt-
stelle oder die Abfrage von Reporting-Informationen. Analog zum Digitalisie-
rungsgrad kann auch hier wiederum zwischen vollautomatisierten, teilauto-
matisierten und manuellen Prozessen unterschieden werden. Mit Robotic
Process Automation (kurz: RPA) erfährt die Automatisierung von komplexen
Prozessschritten gerade große Beachtung und wird im späteren Verlauf de-
taillierter behandelt (vgl. Abschnitt 5).
Das dritte Kriterium wird als digitaler Integrationsgrad bezeichnet. Dieser
gibt Aufschluss darüber, ob Prozessaktivitäten durch ein einheitliches und
integriertes IT-System unterstützt werden oder über viele verschiedene Sys-
teme hinweg begleitet werden. Eine vollständige Abbildung in einem System
bringt den Vorteil, dass notwendige Daten und Informationen in einer zent-
ralen Datenbasis abgelegt sind und im Verlauf der einzelnen Prozessschritte
damit immer auf eine aktuelle Grundlage zurückgegriffen werden kann.
Auch wenn keine zentrale Datenbasis vorliegt, kann eine vollständige digi-
tale Integration erreicht werden, falls Schnittstellen zwischen den jeweiligen
Einzelsystemen derart implementiert sind, dass ein Datenaustausch trans-
parent und automatisiert erfolgt und es nicht zu redundanter oder inkonsis-
tenter Datenhaltung kommt. Das Spektrum der Ausprägungen des digitalen
Integrationsgrads reicht von vollintegrierten digitalen Prozessen über teilin-
tegrierte digitale Prozesse bis hin zu nicht integrierten digitalen Prozessen,
welche eine manuelle und damit fehlerträchtige Datenübernahme zwischen
einzelnen IT-Systemen notwendig machen.
Mit dem vierten Kriterium wird der digitale Selbststeuerungsgrad von Pro-
zessen charakterisiert. Dieses Kriterium bezeichnet den größten Umbruch
im Zuge der digitalen Transformation, da im Unterschied zu den drei voran-
gegangenen Kriterien nicht mehr nur die Digitalisierbarkeit, Automatisier-
barkeit und Integrationsfähigkeit von Prozessaktivitäten betrachtet werden,
sondern auch die darüber liegende Entscheidungslogik als Fähigkeit zur ei-
genständigen Steuerung von Prozessabläufen. Am Beispiel eines vollständig
digital unterstützten Produktionsprozesses lässt sich dieser Gedanke folgen-
dermaßen illustrieren: Ein mit RFID-Sensorik ausgerüstetes Werkstück kann
an verschiedenen Stationen innerhalb eines Produktionsprozesses ausgele-
sen werden und auf Basis dieser Informationen von den Maschinen an der
entsprechenden Station individuell verarbeitet werden; z. B. können Vorga-
ben für Bohrungen einer bestimmten Tiefe auf dem Sensor gespeichert sein
und daher für jedes Werkstück individuell unterschiedlich interpretiert wer-
den. Eine dermaßen ausgerüstete Produktionsstraße erlaubt die Selbststeu-
erung der Prozesse durch das jeweilige Werkstück, ohne dass eine zentrale
Steuerung oder eine fixe Vorgabe von Prozessschritten in einer definierten
Prozessdigitalisierung
14
Reihenfolge oder mit definierten Prozessparametern notwendig ist. Not-
wendige Voraussetzungen für diese Art der Selbststeuerung sind eine voll-
ständige Digitalisierung der einzelnen Prozessaktivitäten, eine Vernetzung
der beteiligten Komponenten sowie die Konfigurierbarkeit von Prozesspara-
metern in Abhängigkeit von den ausgelesenen Sensorwerten. Analog zu den
drei vorherigen Kriterien kann auch bei der digitalen Selbststeuerung zwi-
schen den Ausprägungen der vollen, der teilweisen sowie der fehlenden
Selbststeuerung unterschieden werden.
Die vier genannten Kriterien können unabhängig voneinander für einen ge-
gebenen Prozess bewertet und anschließend entsprechend einer beliebig
wählbaren Gewichtung zu einem Gesamtwert verdichtet werden. Dieser als
Reifegrad bezeichnete Wert kann zur Einschätzung und zum Vergleich des
Digitalisierungsstandes für verschiedene Prozesse herangezogen werden.
2.2 Grundlagen der Prozessmodellierung
Die Modellierung von Geschäftsprozessen nimmt als eigene Phase im Le-
benszyklus des Geschäftsprozessmanagements direkt nach der Strategiede-
finition eine zentrale Rolle ein. Ziel der Modellierung ist es, die Konzeption
von Prozessen durch die Verwendung einer einheitlich definierten Notation
zu unterstützen.
Grundsätzlich kann ein Modell als die Abbildung der Realität bzw. eines Re-
alitätsausschnittes definiert werden. Die Modellbildung dient vor allem zur
Beherrschung der Komplexität, da nicht alle Bestandteile der Realität in ei-
nem Modell abgebildet werden können. Komplexität bezieht sich hier auf
die unterschiedlichen Bestandteile und Komponenten eines Systems, die in
vielfältigen Wechselwirkungen zueinander stehen. Zu den Maßnahmen für
die Komplexitätsbeherrschung zählen unter anderem
• die Partitionierung zur Aufteilung von komplexen Systemen in klei-
nere Einheiten z. B. Daten, Abläufe etc.,
• die Projektion, um Sachverhalte aus unterschiedlichen Perspektiven
zu betrachten, z. B. der Perspektive des Benutzers, Managements,
Programmierers oder Administrators,
• die Abstraktion zur Konzentration auf bestimmte Aspekte eines Sys-
tems und zur Ausblendung nicht relevanter Aspekte, z. B. Klassenbil-
dung (Klasse „Kunden“ als Abstraktion von individuellen Kunden)
Der Begriff Modellierung beschreibt den Abbildungsprozess, der in der Er-
stellung des Modells resultiert. Wichtig ist hierbei insbesondere der direkte
Bezug, d. h. die Ähnlichkeit zwischen Modell und Realität. Je nach intendier-
tem Zweck kann ein Modell Vorbild oder Nachbild der Realität sein. Als Vor-
bild dient das Modell der Vorgabe.
Prozessdigitalisierung
15
Unter Prozessmodellierung wird im Allgemeinen eine Methode zur Be-
schreibung und zum Austausch über den aktuellen oder zukünftigen Stand
eines Geschäftsprozesses verstanden. Sie verwendet eine definierte Nota-
tion zur Darstellung der Schritte, Teilnehmer und Logik in Geschäftsprozes-
sen sowie zur Beschreibung der Beziehungen zwischen Ressourcen (z. B.
Anwendungssystemen) und Prozessschritten.
Prozessmodellierung unterstützt durch eine Formalisierung von Abläufen
zur Analyse und Verbesserung von Prozessen deren Umsetzung in IT-Syste-
men und verfolgt damit die folgenden Zielsetzungen:
• die Prozesskommunikation durch eine gemeinsame und definierte
Sprache zu verbessern und dadurch den Wissenstransfer und die Ein-
arbeitung neuer Mitarbeiter zu erleichtern,
• die Kontrolle und Konsistenz durch die Formalisierung von „implizi-
tem Wissen“ zu erhöhen und eine konsistente Prozessausführung
unabhängig von Einzelpersonen sicherzustellen, um dadurch doku-
mentierte Ausnahmebehandlungen, regulatorische Compliance und
rechtliche Rahmenbedingungen zu erreichen,
• die Effizienz zu verbessern, indem Optimierungen, eine Verringerung
des Ressourceneinsatzes, die Verringerung von Prozessdurchlaufzei-
ten sowie die kontinuierliche Betrachtung von Prozessen durch Simu-
lation und Analysen ermöglicht werden.
Zur Modellierung existieren unterschiedliche Notationen, von denen im
nachfolgenden Abschnitt beispielhaft einige vorgestellt werden.
Prozessdigitalisierung
16
2.3 Modellierungskonventionen
2.3.1 EPK
Die Ereignisgesteuerte Prozesskette (EPK, engl. Event-driven Process Chain
[EPC]) ist eine grafische Modellierungssprache für Geschäftsprozesse, die im
Rahmen des ARIS-Konzeptes (Architektur Integrierter Informationssysteme)
zur Beschreibung von ablauflogischen Strukturen entwickelt wurde. Zu den
Grundelementen der Notation gehören die in Abbildung 3 dargestellten
Konstrukte.
Abbildung 3: Grundelemente der Ereignisgesteuerten Prozesskette (EPK)
Eine Funktion bezeichnet eine Aktivität innerhalb eines Prozesses. Sie wird
immer durch ein Ereignis ausgelöst und von einem Ereignis gefolgt. Ein Er-
eignis ist ein Zustand, der vor und nach einer Funktion angenommen wird.
Ein Prozess beginnt und endet immer mit mindestens einem Ereignis. Der
Kontrollfluss wird als gerichtete Kante dargestellt und verbindet alle Ele-
mente der Modellierungssprache in logischer Reihenfolge. Konnektoren
dienen zum Aufspalten oder Vereinigen des Kontrollflusses, wobei zwischen
einer parallelen Ausführung von zwei Prozesspfaden (AND), der exklusiven
Entscheidung (XOR – nur einer der zur Auswahl stehenden Prozesspfade
wird ausgeführt) und der inklusiven Entscheidung (OR – einer oder bis zu alle
zur Auswahl stehenden Prozesspfade werden ausgeführt) unterschieden
wird.
Die Vorteile der EPK als Modellierungsnotation liegen in der einfachen Ver-
ständlichkeit der Prozessmodelle aufgrund der geringen Anzahl an verwen-
deten Grundelementen sowie in der einfachen Erweiterbarkeit um zusätzli-
che Prozessperspektiven. Beispielsweise können gesonderte Symbole zur
Modellierung von Datenaspekten oder IT-Systemen angefügt werden, um
einzelne Funktionen genauer zu charakterisieren und Informationsflüsse im
Modell darzustellen. Als Nachteil der EPK ist die Unübersichtlichkeit bei gro-
ßen Prozessabläufen zu nennen. Bedingt durch die zwingend vorgeschrie-
bene Abfolge von Ereignissen und Funktionen wächst das Modell mit jeder
neuen Aktivität um zwei Elemente an.
Prozessdigitalisierung
17
2.3.2 BPMN, CMMN und DMN
Die Business Process Management and Notation (BPMN) bezeichnet eine er-
weiterbare und standardisierte grafische Modellierungsnotation. Sie wurde
im Jahr 2005 durch die internationale Object Management Group (OMG) zur
Pflege übernommen und wird seitdem in regelmäßigen Abständen weiter-
entwickelt. Die Konvention besitzt eine eingebaute Semantik sowie Regeln,
welche die Bedeutung der Formen, Symbole und Verbindungselemente in-
nerhalb der Spezifikation präzise festlegen. Eine Auswahl der Grundele-
mente der BPMN ist in Abbildung 4 dargestellt; eine vollständige Übersicht
zu allen verfügbaren Elementen und Symbolen ist online verfügbar.1
Abbildung 4: Grundelemente der Business Process Model and Notation (BPMN)
(Quelle: OMG, 2019)
Die als Flow Objects bezeichneten Elemente dienen zur Beschreibung der
Ablauflogik eines Geschäftsprozesses. Events entsprechen wichtigen auslö-
senden oder resultierenden Ereignissen im Prozessverlauf; im Gegensatz zur
EPK-Notation werden Ereignisse aber sparsamer bei der Modellierung ver-
wendet und treten nicht nach jeder durchgeführten Aktivität im Prozess auf.
Prozessaktivitäten werden durch Activities dargestellt, die im Wesentlichen
den Funktionen der EPK-Notation entsprechen. Zur Modellierung des Kon-
trollflusses inklusive Verzweigungen werden Gateways analog zu den
Konnektoren der EPK verwendet. Im Bereich Connecting Objects werden un-
terschiedliche gerichtete Kantenbeziehungen definiert, welche die Pro-
zessablauflogik (Sequence Flow), den Austausch von Nachrichten (Message
Flow) und die Zuordnung von Artifacts zu anderen Elementen (Association)
modellieren. Die als Swimlanes bezeichneten Elemente Pool und Lanes die-
nen der Strukturierung von Prozessmodellen und fassen Events und Activi-
ties zusammen, die von der gleichen Organisationseinheit ausgeführt wer-
den.
Zu den Vorteilen von BPMN gehört die bei großen Modellen erhöhte Über-
sichtlichkeit aufgrund der verfügbaren Strukturierungselemente für die Zu-
sammenfassung von Prozesselementen, die von der gleichen Organisations-
einheit ausgeführt werden. Weiterhin bietet BPMN die Möglichkeit, aus der
Prozessdarstellung maschinenlesbare Prozessbeschreibungen in der Ausfüh-
rungssprache WS-BPEL (Business Process Execution Language) zu generie-
ren. Diese stellen eine automatisierte Methode dar, um von der
1 http://www.bpmb.de/images/BPMN2_0_Poster_DE.pdf
Prozessdigitalisierung
18
Modellierung zu einer Implementierung des Prozesses in einem Software-
System zu gelangen. Ein Nachteil der BPMN besteht im anfänglich höheren
Aufwand für das Erlernen und Interpretieren der Modellierungselemente.
Als Ergänzung zur Prozessmodellierung in BPMN wurden vonseiten der OMG
zwei weitere Standards definiert. Insbesondere DMN als Standard zur Mo-
dellierung von Entscheidungen innerhalb von Prozessen hat für die Model-
lierung von digitalen Prozessen (vgl. Abschnitt 2.4) große Bedeutung:
• Case Management Model and Notation (CMMN) ist eine grafische
Notation zur Erfassung von Szenarien, die auf der Bearbeitung von
Fällen (engl. Cases) basiert. Fälle erfordern verschiedene Aktivitäten,
die, anders als Prozessaktivitäten, in einer unvorhersehbaren Rei-
henfolge als Reaktion auf sich ändernde Situationen ausgeführt wer-
den können. Mit einem ereigniszentrierten Ansatz und dem Konzept
einer Fallakte (engl. Case File) erweitert CMMN die Grenzen dessen,
was mit BPMN modelliert werden kann, einschließlich weniger struk-
turierter Arbeitsaufwendungen und solcher, die von Wissensarbei-
tern betrieben werden. Die Verwendung einer Kombination aus
BPMN und CMMN ermöglicht es dem Anwender, ein breiteres Spekt-
rum von Anwendungsfällen abzudecken.
• Decision Model and Notation (DMN) ist eine Modellierungssprache
und Notation zur präzisen Spezifikation von Geschäftsentscheidun-
gen und Geschäftsregeln. Sie ist leicht verständlich und für die Kom-
munikation zwischen verschiedenen Prozessbeteiligten geeignet.
Ziel der Notation ist es, die Modellierung von Entscheidungsregeln
von der Modellierung von Ablaufstrukturen und der Prozesslogik zu
entkoppeln. Dies ermöglicht eine leichtere Pflege und Anpassung von
Regelkriterien, ohne die Prozessmodelle selbst modifizieren zu müs-
sen. DMN wurde für den Einsatz neben BPMN und CMMN entwickelt
und bietet einen Mechanismus zur Modellierung der mit Prozessen
und Fällen verbundenen Entscheidungen.
2.3.3 Petri-Netze
Petri-Netze sind gerichtete Graphen und dienen der Modellierung, Analyse
und Simulation von dynamischen Systemen speziell mit nebenläufigen Vor-
gängen. Sie sind nicht auf die Modellierung von Geschäftsprozessen be-
schränkt, sondern finden beispielsweise auch bei der Beschreibung von Au-
tomaten in der Information oder der Modellierung von technischen Schalt-
vorgängen Anwendung. Kernelement der Notation ist ein Marken-Konzept
(engl. Token), welches den Fluss von Elementen durch das modellierte Sys-
tem beschreibt. Im Gegensatz zu den beiden zuvor dargestellten Modellie-
rungskonventionen EPK und BPMN besitzen Petri-Netze die besondere Ei-
genschaft, dass ihre Ausführungssemantik mathematisch-formal beschrie-
ben werden kann. Die Grundelemente der Petri-Netz-Notation sind in Abbil-
dung 5 dargestellt.
Prozessdigitalisierung
19
Abbildung 5: Grundelemente der Petri-Netz-Notation
Stellen (auch Platz, Zustand, Speicher oder Kanal) bezeichnen passive Ele-
mente und dienen als Speicherplatz für eine oder mehrere Marken. Transi-
tionen (auch Hürde oder Zustandsübergang) bezeichnen aktive Elemente,
welche eine oder mehrere Marken von verbundenen Eingangsstellen konsu-
mieren und eine oder mehrere Marken in jeder verbundenen Ausgangsstelle
produzieren. Stellen und Marken sind durch gerichtete Kanten verbunden,
welche den Prozessfluss darstellen.
Der Vorteil der Petri-Netz-Notation liegt in der Möglichkeit zur mathema-
tisch-formal korrekten Beschreibung der Modellsemantik. So kann beispiels-
weise für jeden definierten Anfangszustand – der durch eine Menge von
Marken auf den im Netz enthaltenen Stellen spezifiziert wird – bewiesen
werden, ob ein erlaubter Endzustand erreichbar ist. Diese Eigenschaft ist ins-
besondere für die korrekte Funktionsweise von Process-Discovery-Algorith-
men wie dem Alpha Miner (vgl. Abschnitt 4.4.2.2) oder der Bestimmung der
Process Conformance, d. h. der Realitätstreue eines Prozessmodells (vgl. Ab-
schnitt 4.4.3.2), von Relevanz.
Als Nachteil der Petri-Netz-Notation ist die hohe Komplexität der Notations-
elemente zu nennen; im Gegensatz zu einfachen grafischen Modellierungs-
konventionen wie den vorgestellten EPK- und BPMN-Notationen ist für die
Interpretation der Prozesslogik nicht nur die Reihenfolge der verbundenen
Elemente zu beachten, sondern zusätzlich die Verteilung der einzelnen Mar-
ken innerhalb des Netzes zu berücksichtigen. Weiterhin ist die Modellierung
von Verzweigungen innerhalb des Prozessflusses aufgrund fehlender dedi-
zierter Elemente für AND-, XOR- und OR-Entscheidungen nur durch kom-
plexe Strukturen abbildbar, was insbesondere bei großen Modellen die
Übersicht erschwert.
Prozessdigitalisierung
20
2.4 Modellierung von Entscheidungsstrukturen digi-
taler Prozesse
Bei der Unterscheidung von Prozessen hinsichtlich ihres Digitalisierungs-,
Automatisierungs-, Integrations- und Selbststeuerungsgrads wurde der Digi-
talisierungsgrad als maßgeblich, vor allem für eine weitergehende Automa-
tisierung und Selbststeuerung, hervorgehoben. Eine Besonderheit in diesem
Zusammenhang stellt die explizite Modellierung von Entscheidungsstruktu-
ren und -regeln mittels der erwähnten DMN dar.
Im Kontext mit Prozessdigitalisierung erlaubt die Modellierung von Entschei-
dungsstrukturen mittels DMN eine über den reinen Prozessablauf hinausge-
hende Abbildung von Entscheidungsvariablen und -mechanismen. Auf
diese Weise kann die Entscheidung an Verzweigungspunkten innerhalb ei-
nes Prozesses spezifiziert werden, was die Grundlage für eine intelligente
Automatisierung mittels RPA darstellen kann (vgl. Abschnitt 5). DMN bietet
hierzu die Möglichkeit, Abhängigkeiten zwischen verschiedenen Parametern
im Prozesskontext (sog. Eingabevariablen) zu modellieren und auf ge-
wünschten Ausgabezuständen abzubilden. Einen Prozessparameter kann
beispielsweise eine Dateneingabe darstellen, die zu einer bestimmten Pro-
zessaktivität vorliegt, oder eine Ressource, die eine Aktivität ausführt. Wei-
terhin ist denkbar, dass auch numerische Werte, wie die bislang angefallene
Durchlaufzeit eines Prozesses, als Eingabevariablen für eine Entscheidung
herangezogen werden. Abbildung 6 enthält ein Beispiel dazu (eine detail-
lierte Anleitung inklusive Online-Simulator findet sich bei Camunda2).
Kleidung #1
Eingabe Ausgabe Annotation
Wetter Kleidungsstück
1 Regen Regenjacke
2 Wind Windjacke
3 Sonne Shorts nur privat …
Abbildung 6: Einfaches Beispiel einer in DMN modellierten Entscheidunsstruktur
Das Beispiel zeigt eine Entscheidungsstruktur Kleidung #1, die in Abhängig-
keit vom Wetter als Eingabevariable das passende Kleidungsstück als Aus-
gabe vorschlägt. Dieses einfache Beispiel kann um beliebig komplexe Kom-
binationen von Variablen erweitert werden. Die nachfolgende Abbildung 7
modifiziert das Eingangsbeispiel um kombinierte Abhängigkeiten und Inter-
vallabfragen von Temperaturwerten.
Kleidung #2
Eingabe Ausgabe Annotation
2 https://camunda.com/de/dmn/ (abgerufen am: 14.10.2020).
Prozessdigitalisierung
21
Wetter Temperatur Kleidungsstück
1 Regen ≤ 15 Regenjacke
2 Wind ≤ 10 Windjacke
3 Sonne > 20 Shorts nur privat …
4 Regen & Wind > 15 Leichte Regenjacke
ausreichend
für Tempera-
tur
5 Sonne < 10 Lange Hose sonst zu kalt
Abbildung 7: Komplexes Beispiel einer in DMN modellierten Entscheidungsstruktur
Das Beispiel zur Entscheidungsstruktur Kleidung #2 verdeutlicht, wie Werte
von Eingabevariablen kombiniert werden können. So liegen Regen & Wind
als Eingaben parallel vor und führen in Kombination mit einem Temperatur-
wert von > 15 zu einer individuellen Ausgabe im Vergleich zum separaten
Auftreten von Regen oder Wind.
Zur Modellierung von mehrstufigen Abhängigkeiten existiert innerhalb der
DMN eine vereinfachte Darstellung namens Decision Requirements Diagram
(DRD), welche die Beziehungen von individuellen Entscheidungsstrukturen
untereinander abbildet. Im folgenden Beispiel in Abbildung 8 dient die be-
reits bekannte Entscheidungsstruktur Kleidung wiederum als Eingabevari-
able für die Entscheidungsstruktur Schuhe, welche zusätzlich noch eine se-
parate Eingabe Lange Wanderung? (Wertebereich ja/nein) erhält. Die
Schachtelung lässt sich beliebig fortsetzen und um weitere Elemente ergän-
zen, sodass sehr komplexe Konstellationen aus Prozessparametern abgebil-
det werden können.
Abbildung 8: Beispiel eines Decision Requirements Diagram (DRD) für mehrstufige AbhängigkeitenKleidung
Wetter Temperatur
Schuhe
Lange Wanderung?
Prozessdigitalisierung
22
2.5 Von der Modellierung zur Ausführung
Eine wichtige begriffliche Unterscheidung im Rahmen der Prozessmodellie-
rung besteht zwischen Prozessmodellen einerseits und den in der Realität
ausgeführten Prozessen andererseits. Prozessmodelle bilden die allgemeine
Struktur und Vorlage für Prozessabläufe, sie modellieren grundsätzlich er-
laubtes Verhalten und Regeln für die Entscheidung zwischen unterschiedli-
chen Prozesspfaden. Man spricht in diesem Zusammenhang von der Typ-
ebene. Demgegenüber ist von Prozessen oder präziser von Prozessinstanzen
die Rede, wenn es um die individuelle Ausführung eines Prozessmodells
geht, die in der konkreten Ausprägung eines Pfades durch ein Modell be-
steht. Diese Ebene wird als Instanzebene bezeichnet.
Die Ausführung von modellierten Prozessen durch unterstützende IT-Sys-
teme hinterlässt digitale Spuren in Form von sogenannten Ereignislogs, die
mit Methoden aus dem Bereich Process Mining verarbeitet und analysiert
werden können. Weiterhin bildet eine vollständig digitale Abbildung von
Prozessabläufen und den darin enthaltenen Entscheidungsstrukturen die
Basis für eine Automatisierung von Prozessaktivitäten. Robotic Process Au-
tomation (RPA) stellt hierzu eine moderne Möglichkeit dar und wird in Ab-
schnitt 5 behandelt.
Während sowohl Process Mining und RPA vorrangig auf der Instanzebene
von Prozessen operieren, also mit der Analyse von Ausführungsdaten bzw.
der Automatisierung von Prozessaktivitäten befasst sind, haben sie ebenfalls
starken Einfluss auf die Typebene: Die Ergebnisse von Process-Mining-Ana-
lysen können helfen, Prozessmodelle gegenüber der Realität zu verifizieren,
um Abweichungen und mögliche Fehler in der Modellierung zu erkennen.
Sie bieten gleichzeitig eine Möglichkeit, beobachtbares Prozessverhalten in-
nerhalb von RPA-Anwendungen in Bezug auf Automatisierungspotentiale
hin zu überprüfen. In Kombination mit verifizierten Prozessmodellen stellt
RPA zudem ein mächtiges Werkzeug zur Überwachung und zum Monitoring
von laufenden Prozessinstanzen dar. Abbildung 9 verdeutlich diesen Zusam-
menhang grafisch.
Abbildung 9: Zusammenhang zwischen Typ- und Instanzebene von Prozessen
Prozessdigitalisierung
23
3 Theoretische Grundlagen
3.1 Data Mining
Der Begriff Data Mining fasst verschiedene Ansätze zur systematischen
Sammlung, Verarbeitung und Analyse von großen Datenmengen zusam-
men. Das grundsätzliche Ziel besteht darin, Erkenntnisse und Zusammen-
hänge in unstrukturierten Datenbeständen zu identifizieren und gezielt
Wissen über bestimmte Anwendungsbereiche aus diesen zu extrahieren.
Im Rahmen eines als Knowledge Discovery bezeichneten Prozesses werden
verschiedene Schritte definiert, um aus Datenbeständen unterschiedlicher
Quellen handlungsrelevante Informationen zu gewinnen: Den ersten Schritt
stellen die Integration verschiedener Quelldaten und die Bereinigung der in-
tegrierten Datenbasis durch das Entfernen fehlerhafter und inkonsistenter
Daten dar. Im Anschluss erfolgt die Auswahl relevanter Datenaspekte unter
Berücksichtigung des jeweils anwendungsspezifischen Erkenntnisinteresses
(vgl. Hypothesengenerierung). Daran anknüpfend kommen verschiedene
analytische Verfahren zur Extraktion von Wissen zum Einsatz, beispielsweise
zur Erkennung von Mustern, Assoziationen oder Korrelationen zwischen Da-
tenpunkten. Weitere Beispiele stellen die Erkennung von Anomalien im Da-
tenbestand, die automatische Erkennung zusammengehöriger Elemente
(Clustering) oder die Klassifikation von Daten in homogene Gruppen dar.
Data Mining stellt ein interdisziplinäres Forschungsfeld dar und bedient sich
Methoden aus den unterschiedlichen Bereichen der Statistik, Datenbank-
technologien, Machine Learning und Datenvisualisierung. Abhängig von der
spezifischen Anwendung und dem damit einhergehenden Erkenntnisinte-
resse werden weitere Ansätze, beispielsweise zur Wissensrepräsentation
und zum Hochleistungsrechnen, angewendet, um Informationen über Da-
tenstrukturen und -zusammenhänge zu identifizieren.
3.2 Sequence Mining
Der Begriff Sequence Mining (auch Sequential pattern mining) bezeichnet
einen Teilbereich des Data Mining, der sich mit der Identifikation von Mus-
tern in Sequenzdaten, d. h. Datenpunkten, die in einer bestimmten Rei-
henfolge auftreten, befasst. Ein verwandter Spezialbereich ist die Zeitrei-
henanalyse.
Sequence Mining adressiert verschiedene Problemfelder bei der Verarbei-
tung und Analyse von Sequenzdaten. Hierzu zählen der Aufbau von effizien-
ten Datenstrukturen zur Speicherung und Suche, die Identifikation sich wie-
derholender Muster und Teilsequenzen, der Vergleich von Sequenzen sowie
die Bestimmung der längsten gemeinsamen Teilfolgen. Zu den Anwendungs-
bereichen zählen beispielsweise die natürliche Sprachverarbeitung: Im Rah-
men der Rechtschreibkorrektur müssen in gängigen Programmen zur
Prozessdigitalisierung
24
Textverarbeitung häufig bestimmte Wörter in Teilsequenzen eines längeren
Wortes identifiziert werden. Auf diese Weise lassen sich auch zusammenge-
setzte Begriffskombinationen, die in der deutschen Sprache möglich, oft-
mals aber nicht in einem Lexikon zu finden sind, korrekt bewerten. Ein wei-
teres Beispiel stellt die Analyse von DNA-Sequenzen oder Aminosäuren im
Bereich der Biologie dar. Anhand der längsten gemeinsamen Teilfolgen
zweier DNA-Proben kann beispielsweise ein Verwandtschaftsverhältnis zwi-
schen zwei Personen bestimmt werden.
Bei der Analyse von Prozessausführungsdaten durch Process Mining werden
Daten mit ähnlichen Strukturen verarbeitet, weshalb die dort verwendeten
Algorithmen Konzepte aus dem Bereich Sequence Mining aufgreifen. Eine
Einführung in die mathematischen Grundlagen findet sich bei Van der Aalst
(2016, S. 107ff.)
3.3 Traditionelle Machine-Learning-Verfahren
Der Terminus Machine Learning fasst eine Menge von Methoden zusam-
men, die eigenständig aus einer Menge von Beispieldaten Muster, Regeln
und Zusammenhänge extrahieren und im Anschluss daran in der Lage sind,
auf Basis ähnlicher Daten eigenständig Entscheidungen zu treffen.
Die jeweiligen Ansätze lassen sich grundsätzlich in zwei Gruppen einteilen.
Überwachte Lernansätze benötigen eine Menge von sogenannten „Ein-
gabe-/Ausgabepaaren“ als Beispiele für das zu erlernende Verhalten. Soll ein
System beispielsweise darauf trainiert werden, aus den verschiedenen Ei-
genschaften einer Wohnung – Anzahl der Schlafzimmer, Jahr der letzten Re-
novierung, Wohnfläche, Postleitzahl der Wohnung – eine Vorhersage über
die erzielbare Kaltmiete zu treffen, so sind Beispiele dieser Art als Trainings-
daten für den Algorithmus als Eingabe, zusammen mit der in dem jeweiligen
Beispiel tatsächlich erzielbaren Miete, notwendig. Der Algorithmus ist in der
Lage, aus den Eingabe-/Ausgabepaaren ein mathematisches Modell zu ge-
nerieren, welches die Struktur und Beziehungen der Daten abbildet. Dieses
kann für neue Eingabedaten verwendet werden, um die erzielbare Miete zu
prognostizieren.
Unüberwachte Lernverfahren arbeiten ohne die Trennung zwischen Ein-
gabe- und Ausgabedaten und versuchen, auf Basis einer Gesamtdaten-
menge Zusammenhänge und Strukturen zu identifizieren. Beispiele hierfür
sind die eigenständige Aufteilung von Daten in unterschiedliche Cluster mit
zusammengehörigen Eigenschaften oder die Bestimmung der Verteilung der
Daten aufgrund statistischer Korrelationen.
Wichtig zum Verständnis der Ansätze ist, dass überwachte und unüber-
wachte Verfahren im Allgemeinen nicht zur Lösung der gleichen Problem-
stellung angewendet werden können. Ein häufiger Irrtum besteht in der An-
nahme, bei Eingabe-/Ausgabepaaren in nicht ausreichender Menge generell
Prozessdigitalisierung
25
auf unüberwachte Verfahren zurückgreifen zu können. Die Vorhersage von
Mietpreisen auf Basis des obengenannten Beispiels wird ohne existierende
historische Beispiele nicht funktionieren, da ein Algorithmus keine Ansatz-
punkte für eine fundierte Vorhersage finden kann.
3.3.1 Decision Tree Learning
Decision Tree Learning stellt eine schnelle und intuitive Machine-Learning-
Methode dar, um aus einem Datensatz Entscheidungsregeln abzuleiten. Im
Gegensatz zur Ausgabe vieler anderer Ansätze sind die Ergebnisse von
Menschen interpretierbar und können einfach nachvollzogen werden.
Die Darstellung erfolgt in Form sogenannter Entscheidungsbäume, einer
Struktur gerichteter Bäume zur Darstellung von Entscheidungsregeln. Diese
bilden mehrstufige Folgen von Entscheidungen ab und ermöglichen eine
Klassifizierung von Dateneingaben in vordefinierte Klassen. Die grafische
Baumdarstellung visualisiert ausgehend von einer initialen Entscheidung die
Abfolge der Regeln entlang der einzelnen Äste des Baums, die letztendlich
zu einer Entscheidung in den Blattknoten der Struktur führen.
Es existieren verschiedene algorithmische Verfahren zur Konstruktion von
Entscheidungsbäumen. Zu den verbreitetsten Ansätzen zählt beispielsweise
das ID3-Verfahren, das die Maßzahl Entropie verwendet, um dasjenige Attri-
but zu finden, welches den Datensatz am besten aufspaltet, sodass die re-
sultierenden Teilmengen möglichst homogen in Bezug auf die vorherzusa-
genden Klassen sind. Die Entropie ist hierbei ein Maß für die Unsicherheit
einer Datenmenge nach einem Split, d. h. dafür, wie viel eindeutiger eine
Entscheidung nach einem erfolgten Split getroffen werden kann. Anhand der
in Abbildung 10 dargestellten Beispieldaten soll das Verfahren verdeutlicht
werden.
Schlafzimmer
(Anzahl)
Renovierung
(Jahr) Wohnfläche (m2) Postleitzahl Miete
(klassiert)
4 2015 100 56153 950‒1.050 €
3 1997 80 14966 750‒850 €
1 2018 54 66182 800‒850 €
3 2002 102 47928 800‒850 €
5 1996 85 87772 950‒1.050 €
… … … … …
… … … … …
Abbildung 10. Beispieldaten zur Vorhersage von erzielbaren Mietpreisen (Auszug)
In einem ersten Schritt ist derjenige Parameter innerhalb der Daten zu fin-
den, der für einen initialen Split geeignet ist. Nehmen wir an, dass das Jahr
der Renovierung den größten Einfluss auf die erzielbare Miete hat und daher
für den ersten Split ausgewählt wird. Im Beispiel kommt der Algorithmus zu
der Erkenntnis, dass das Jahr 2001 die bestmögliche Grenze darstellt, um
Prozessdigitalisierung
26
Wohnungen mit hohen Mietpreisen von Wohnungen mit niedrigen Miet-
preisen zu unterscheiden. Für die jeweils verbleibenden Teilmengen wird
das Verfahren wiederholt, bis an den Blattknoten des Baums eine eindeutige
Zuordnung in eine Klasse der Miethöhe vorgenommen werden kann. Ein Bei-
spiel eines Baumes ist in Abbildung 11 dargestellt.
Abbildung 11: Beispielhafter Entscheidungsbaum zur Vorhersage von erzielbaren Mietpreisen
3.3.2 Anomalieerkennung
Methoden zur Anomalieerkennung bezeichnen einen Teilbereich des Data
Mining. Sie verfolgen das Ziel, abweichendes Verhalten sowie ungewöhn-
liche Konstellationen in großen Datenbeständen und somit mögliche Prob-
lemfälle zu identifizieren.
Anomalien sind grundsätzlich kontextabhängig, d. h., in Abhängigkeit von ei-
nem konkreten Anwendungsfall muss die Frage, was unter anomalem Ver-
halten zu verstehen ist, unterschiedlich behandelt werden. Ein sehr einfa-
ches Beispiel stellt die typischerweise lineare Beziehung zwischen dem Ge-
wicht und der Größe einer Person dar: Eine sehr große Person ist im Allge-
meinen auch deutlich schwerer als eine vergleichsweise kleinere Person. Die
Beziehung der beiden Variablen Gewicht und Größe wird annährend durch
eine Gerade beschrieben. Eine extreme Abweichung von dieser Geraden
könnte als Anomalie und möglicher Messfehler in Bezug auf eine der beiden
Variablen interpretiert werden; diese Abweichung kann relativ zur konkre-
ten Ausgestaltung der Geraden definiert werden.
In Abhängigkeit von der Art von Anomalien lassen sich verschiedene Techni-
ken zur Identifikation unterscheiden. Überwachte Methoden lernen aus ei-
ner Menge an Beispielen, „normales“ und „anormales“ Verhalten zu unter-
scheiden. Sie benötigen vorab eine entsprechende Zahl von Beispielen aus
beiden Klassen, was voraussetzt, dass anormales Verhalten auch bereits
vorab bekannt ist. Unüberwachte Methoden arbeiten hingegen unter der
Annahme, dass die Daten innerhalb eines Datensatzes überwiegend korrekt
sind und keine Anomalien darstellen. Sie versuchen, durch die Anwendung
von Datenkompressionsverfahren (z. B. Autoencoder) diejenigen
Prozessdigitalisierung
27
Datenpunkte zu identifizieren, welche im Vergleich zum übrigen Datensatz
die größte Abweichung aufweisen.
Zur Erkennung von Abweichungen innerhalb von Prozessverläufen sind
grundsätzlich beide Arten der Anomalieerkennung relevant, wobei in vielen
Fällen das gewünschte Prozessverhalten a priori bekannt ist.
3.4 Qualitätsmaße für Klassifikationen
Im Rahmen einer Klassifikation durch Machine-Learning-Algorithmen wer-
den einzelne Datenpunkte einer bestimmten Klasse zugeordnet. Bei dieser
Zuordnung kann es zu Fehlern kommen, welche letztendlich die Qualität des
Klassifikators bestimmen: Je höher die Fehlerrate ist, desto schlechter wird
die Qualität üblicherweise bewertet werden. Je nach Anwendungsfall kön-
nen Fehlklassifikationen darüber hinaus ein unterschiedliches Gewicht ha-
ben: Bei der Klassifikation einer Person als „krank“ oder „gesund“ anhand
verschiedener vorliegender Symptome ist eine fehlerhafte Klassifikation als
„gesund“ im Falle einer Krankheit folgenschwerer als eine fälschliche, über-
vorsichtige Fehldiagnose als „krank“, obwohl der Patient eigentlich gesund
ist.
Zur Unterscheidung von Fehlklassifikationen wird bei der Bewertung eines
Klassifikators eine Unterscheidung der Ergebnisse in vier Klassen vorgenom-
men. Diese Unterscheidung kann anhand eines Beispielsdatensatzes vorge-
nommen werden, bei dem die tatsächlichen Ergebnisse bekannt sind:
• True positives (TP) bezeichnen die korrekterweise als einer Klasse zu-
gehörig klassifizierten Objekte (im Beispiel: Klassifikation „krank“,
wenn eine Person tatsächlich krank ist),
• False Positives (FP) bezeichnen die Objekte, die von einem Klassifi-
kator fälschlicherweise als einer Klasse zugehörig gekennzeichnet
wurden („krank“, obwohl eine Person tatsächlich gesund ist),
• False Negatives (FN) bezeichnen die Objekte, die vom Klassifikator
fälschlicherweise als einer Klasse zugehörig erkannt wurden („ge-
sund“, wenn eine Person tatsächlich krank ist) und
• True Negatives (TN) bezeichnen Objekte, die von einem Klassifikator
nicht als einer Klasse nicht zugehörig erkannt wurden („gesund“ im
Fall, dass eine Person tatsächlich gesund ist)
Prozessdigitalisierung
28
Abbildung 12: Qualitätsmaße zur Beurteilung einer Klassifikation
Abbildung 12 visualisiert die Einteilung in die vier Klassen grafisch. Die aus-
gewählten Elemente sind die vom Klassifikator als „krank“ bewerteten Ob-
jekte im Datensatz. Auf Basis dieser Einteilung lassen sich abgeleitete Quali-
tätsmaße definieren, welche die getrennte Bewertung einer möglichst um-
fassenden Klassifikation der tatsächlich relevanten Objekte oder eine mög-
lichst geringe Fehlerrate ermöglichen. Die genannten Qualitätsmaße stam-
men ursprünglich aus dem Bereich des Information Retrieval, welches sich
mit der Identifikation relevanter Dokumente zu einem gegebenen Sachver-
halt befasst.
• Die Genauigkeit (engl. precision) bezeichnet die Wahrscheinlichkeit,
mit der ein gefundenes Element tatsächlich relevant ist. Sie wird be-
rechnet als Quotient der korrekt positiv klassifizierten Elemente und
der Summe aus allen als korrekt klassifizierten Elementen:
𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = 𝑇𝑃
𝑇𝑃+𝐹𝑃
• Die Trefferquote (engl. recall) bezeichnet die Wahrscheinlichkeit, mit
der ein relevantes Element korrekt klassifiziert wird. Sie wird berech-
net als Quotient der korrekt positiv klassifizierten Elemente und der
Summe aus allen relevanten Elementen innerhalb des Datensatzes:
𝑟𝑒𝑐𝑎𝑙𝑙 = 𝑇𝑃
𝑇𝑃+𝐹𝑁
• Das F-Maß (engl. F-Measure) als harmonisches Mittel aus der Genau-
igkeit und der Trefferquote: 𝐹 = 2 ∗ (𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 ∗ 𝑟𝑒𝑐𝑎𝑙𝑙)
(𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑟𝑒𝑐𝑎𝑙𝑙)
Aufgrund wechselseitiger Beeinflussungen ist es nicht möglich, die Qualitäts-
maße einzeln und unabhängig voneinander zu optimieren. Zur Veranschau-
lichung betrachten wir einen naiven Klassifikator, der alle Personen unab-
hängig von der konkreten Datenausprägung als „krank“ klassifiziert. Dieser
würde über eine Trefferquote von 100% verfügen, da definitiv alle kranken
Personen als solche identifiziert werden würden. Aufgrund der sehr hohen
Zahl an fälschlicherweise als krank klassifizierten Personen (false positives)
wäre die Genauigkeit des Klassifikators allerdings sehr gering.TP FP
false negatives true negatives
Ausgewählte
Elemente
Prozessdigitalisierung
29
Ein weiteres wichtiges Qualitätsmaß für die Beurteilung von Machine-Lear-
ning-Modellen ist die Anpassung des Modells an den zum Modelltraining
verwendeten Datensatz. Wie in Abschnitt 3.3 thematisiert, wird im Rahmen
des überwachten Lernens ein Modell an einem Trainingsdatensatz trainiert,
für den sowohl die Eingabe- als auch die Ausgabeparameter bekannt sind.
Das Ziel des Modells ist es jedoch, nach der Trainingsphase auch auf neuen
Daten, die nicht Teil der Menge an Trainingsbeispielen waren, angewendet
zu werden. Eine zu starke Anpassung des Modells äußert sich darin, dass von
den spezifischen Datenausprägungen der Trainingsmenge nicht weit genug
abstrahiert werden kann, um auch auf unbekannten Daten eine Klassifika-
tion mit einer bestimmten Güte vorzunehmen. Zwei Formen der Anpassung
können unterschieden werden:
• Eine Überanpassung (engl. overfitting) liegt vor, wenn das Modell zu
stark an die spezifischen Parameter des Trainingsdatensatzes ange-
passt ist. Dies kann beispielsweise der Fall sein, wenn für die Be-
schreibung einer Abhängigkeit zwischen Eingabe- und Ausgabewer-
ten zu viele Parameter für die Modellbildung herangezogen werden.
Dies kann beispielsweise durch die Wahl einer sehr komplexen ma-
thematischen Funktion höherer Ordnung oder mit vielen linear kom-
binierten Variablen geschehen, wenn ein Zusammenhang innerhalb
der Daten auch durch eine wesentlich einfachere Funktion beschrie-
ben werden könnte.
• Eine Unteranpassung (engl. underfitting) liegt vor, wenn das unter
Verwendung der Trainingsdaten erstellte Modell nicht in der Lage ist,
die Abhängigkeiten zwischen Eingabe- und Ausgabedaten adäquat in
ihrer Struktur abzubilden. Dieser Fall tritt analog zum Beispiel der
Überanpassung ein, wenn eine zu einfache mathematische Funktion
(z. B. eine lineare Funktion) auf ein höherdimensionales Problem
übertragen wird. Die erzielbare Performance wird nicht den Anfor-
derungen an eine präzise Klassifikation der Daten genügen.
Abbildung 13: Beispielhafte Darstellung der Unter- und Überanpassung eines Modells
Die Zusammenhänge sind in Abbildung 13 grafisch dargestellt. Als wie rele-
vant eine Über- bzw. Unteranpassung eines Modells auf einen Datensatz be-
wertet werden muss, hängt vom konkreten Anwendungsfall ab.Unteranpassung Robustes Modell Überanpassung
Prozessdigitalisierung
30
3.5 Deep-Learning-Verfahren
Verfahren aus dem Bereich Deep Learning stellen eine Teilmenge von Ma-
chine Learning dar. Als konzeptuelle Grundlage für Deep Learning dienen so-
genannte künstliche neuronale Netzwerke. Diese bestehen aus einer An-
sammlung vieler miteinander verbundener Elemente (Neuronen), die
schichtenweise in einer Netzarchitektur angeordnet sind. Beginnend bei der
Eingangsschicht (engl. Input layer), die auch als „sichtbare“ Sicht bezeichnet
wird und alle Eingabevariablen enthält, die als Eingabe für das neuronale
Netzwerk dienen. Bei der Bildklassifikation können die einzelnen Pixel eines
Bildes z. B. als Eingabevariablen dienen, welche einzelne Neuronen der Ein-
gabeschichte aktivieren. Ausgehend von der Eingangsschicht leiten die akti-
vierten Neuronen ihre Ausgabe an Neuronen der folgenden Schichten (engl.
Hidden layers) weiter. Entlang dieser Strukturen breiten sich Informationen
im Netzwerk bis zur letzten Schicht (engl. Output layer) aus. An dieser Stelle
erfolgt die finale Klassifikation der Eingangsinformation, z. B. die Zuordnung
eines Eingabebildes zu einer Klasse „Hund“. Besonderheiten im Rahmen des
Deep Learning betreffen die Anzahl an Hidden layers: Traditionelle neuro-
nale Netze bestehen aus wenigen Ebenen (beispielsweise drei Ebenen),
während Deep-Learning-Verfahren eine weitaus größere Netztiefe mit weit
über 100 Ebenen erreichen.
Bedingt durch technische Fortschritte in den vergangenen Jahren gewinnen
Deep-Learning-Verfahren zunehmend an Bedeutung und sorgen für große
Durchbrüche beispielsweise in den Bereichen Computer Vision, Spracher-
kennung, Verarbeitung natürlicher Sprache sowie Audio- und Bilderken-
nung, aber auch in der Erkennung von Anomalien und Vorhersage von Pro-
zessverhalten. Ein maßgeblicher Unterschied zu traditionellen Lernverfah-
ren besteht darin, dass die manuelle Vorgabe der zu berücksichtigenden Ein-
gabeparameter (Feature Extraction) entfällt. Im Beispiel der Mietpreisvor-
hersage (vgl. Abschnitt 3.3) müssen die einzelnen Eingaben explizit vorgege-
ben werden, während die relevanten Muster bei der Anwendung von Deep
Learning eigenständig aus den Daten konstruiert werden.
Nach ihrer grundsätzlichen Funktionsweise werden sogenannte Convolutio-
nal Neural Networks (faltende neuronale Netze, CNN) und Recurrent Neu-
ral Networks (rückgekoppelte neuronale Netze, RNN) unterschieden. CNN
konstruieren vereinfacht gesprochen in jeder weiteren Schicht aus den Er-
gebnissen der vorangegangenen Schicht zusammengesetzte Muster und er-
lauben auf diese Weise die aufbauende Erkennung von Strukturen. RNN er-
lauben Verbindungen von Neuronen einer Schicht zu anderen Neuronen
derselben oder einer vorangegangenen Schicht. Auf diese Weise wird die
Berücksichtigung von zeitlich kodierten Informationen innerhalb der Daten
ermöglicht, was insbesondere bei Sequenzdaten von Bedeutung ist. Ein Bei-
spiel hierfür ist die Übersetzung von Texten, bei der das Auftreten eines
Wortes relevant für die Wahrscheinlichkeit der folgenden Wörter im glei-
chen Satz ist.
Prozessdigitalisierung
31
3.6 Exkurs: Maschinelles Lernen auf Sequenzdaten
Die Vorhersage von Prozessverhalten basierend auf den Erfahrungen ver-
gangener Prozessausführungen stellt eine wichtige Funktion zur effizienten
Planung von unternehmerischen Abläufen dar. Je nach Anwendungsfall kön-
nen verschiedene Parameter einer Prozessausführung vorhergesagt wer-
den, beispielsweise das zu erwartende Ergebnis, die verbleibende Zeit bis
zum Abschluss des Prozesses oder die nächste auszuführende Aktivität. Die
Vorhersage nutzt dazu historische Ablaufinformationen, um darauf basie-
rend Einschätzung aktuell laufender Prozessinstanzen zu treffen.
Bei industriellen Fertigungsprozessen, wo einzelne Prozessschritte direkt in-
dividuellen, physischen Aktivitäten zugeordnet werden können, ist die Vor-
hersage der verbleibenden Zeit bis zum Prozessende eine wichtige Informa-
tion, um Ressourcen effizient zur Verfügung zu stellen und die Belegung von
Maschinen zu planen. Auch für IT-gestützte Dienstleistungsprozesse wie die
Bearbeitung von Kundenanfragen durch einen Service-Mitarbeiter kann eine
genaue zeitliche Abschätzung eine bessere interne Ressourcen-Auslastung
sowie für den Kunden eine transparentere Abwicklung seiner Anfrage er-
möglichen.
Eine Schwierigkeit bei der Anwendung von Machine-Learning-Verfahren auf
die skizzierten Problemstellungen besteht insbesondere in der Art und
Struktur der Eingabedaten. Gegenüber dem in Abschnitt 3.3.1 aufgeführten
Beispiel für die Vorhersage von erzielbaren Mietpreisen basierend auf den
Eigenschaften der jeweiligen Wohnungen haben Prozessablaufdaten eine
zeitliche Komponente, die im Rahmen einer Vorsage berücksichtigt werden
muss. Eine Analogie besteht zum Bereich der Natürlichen Sprachverarbei-
tung (NLP), wo die Vorhersage des nächsten Wortes zu einem gegebenen
Satzanfang (engl. next word prediction) eine gängige Problemstellung ist, z.
B. bei der intelligenten Vorschlagsfunktion für das nächste Wort auf Smart-
phone-Tastaturen.
Historisch gesehen verwendeten viele Ansätze zur next word prediction eine
explizite Repräsentation der jeweiligen Sprache. Im Falle von probabilisti-
schen Sprachmodellen werden beispielsweise Wahrscheinlichkeitsverteilun-
gen über Wortfolgen berechnet, sodass der Kontext eines Wortes die Wahr-
scheinlichkeit für das nächste Wort beeinflusst. In einer solchen Verteilung
ist das Wissen gespeichert, dass nach der Wortfolge „Das ist ein“ das Wort
„Haus“ wesentlich wahrscheinlicher ist als das Verb „gehen“. Durch die In-
terpretation von Ereignislogs mit Prozessinstanzdaten als Text, Prozessin-
stanzen als Sätze und Prozessereignisse als Wörter können diese Techniken
übertragen werden, um zukünftige Prozessereignisse vorherzusagen.
Die meisten Ansätze verwenden hierzu ebenfalls eine explizite Modelldar-
stellung wie z. B. Hidden Markov Models (HMM). Ein möglicher Ansatz sieht
beispielsweise vor, in einem durch Process Mining erstellten Prozessmodell
(vgl. Abschnitt 4.4.2) für jeden XOR-Split im Modell einen Entscheidungs-
baum zu bilden. Diese Bäume werden dann verwendet, um die
Prozessdigitalisierung
32
Übergangswahrscheinlichkeit zwischen Zuständen innerhalb eines HMM für
eine laufende Prozessinstanz zu berechnen und dadurch das nächste Ereig-
nis vorherzusagen. In den letzten Jahren hat sich die NLP-Forschung von der
expliziten Darstellung von Sprachmodellen zu statistischen Methoden fort-
entwickelt und verwendet insbesondere rückgekoppelte neuronale Netze
(RNN) zur Vorhersage des nächsten Wortes. Dieser Ansatz lässt sich auch auf
die Vorhersage von Prozessverhalten übertragen (vgl. Evermann et al.,
2016). In Evaluationsszenarien der Autoren konnte bei einer ausreichend
großen Anzahl an Trainingsdaten eine Genauigkeit (vgl. precision) von mehr
als 80% erreicht werden, was bisherige Ansätze in diesem Bereich weit über-
trifft. Es ist davon auszugehen, dass die erzielten Fortschritte bei NLP auch
für andere Problemstellungen zu einer signifikanten Verbesserung der Vor-
hersageleistung führen und sich zukünftig noch weiter verbessern werden.
Prozessdigitalisierung
33
4 Process Mining zur KI-gestützten Prozessda-
tenanalyse
4.1 Einführung: Data Science in Action
Das Themenfeld „Data Science“ hat in den letzten Jahren stark an Bedeutung
gewonnen und hat sich als wichtige Disziplin für die Analyse von Daten und
die Gewinnung von handlungsrelevanten Informationen entwickelt. Data
Science umfasst – im Gegensatz zum verwandten Begriff „Data Analytics“,
der sehr auf die operative Datenanalyse ausgerichtet ist – Konzepte und The-
orien aus verschiedenen wissenschaftlichen Nachbardisziplinen (Van der
Aalst, 2016, S. 12). Hierzu gehören unter anderem:
• Statistik und Mathematik als grundlegende Lehre zum Umgang mit
quantitativen Informationen und Methoden zur Datenauswertung,
• Algorithmen-Lehre als Handlungsvorschriften zur strukturierten Lö-
sung und Berechnung von Problemstellungen,
• Data Mining als die Anwendung statistischer und algorithmischer
Methoden auf große (unstrukturierte) Datenmengen,
• Machine Learning als Teilgebiet der Künstlichen Intelligenz zur Mus-
tererkennung und Wissensgenerierung aus historischen Daten,
• Datenbanksysteme als Datenquelle und Methode zur Strukturierung
und effizienten Berechnung von mehrdimensionalen Auswertungen,
• datenschutzrechtliche und ethische Aspekte im Umgang mit Daten
und dem Schutz personenbezogener Informationen.
Die Zielsetzung von Data Science liegt in der Gewinnung neuer Erkennt-
nisse aus vorhandenem Datenmaterial, welches explorativ untersucht
wird, um Muster, Unregelmäßigkeiten oder Zusammenhänge zu identifi-
zieren. Hierbei wird häufig ein iteratives Vorgehen gewählt, bei dem, aus-
gehend von ersten Hypothesen, verschiedene Untersuchungsrichtungen
verfolgt und weiter präzisiert werden. Im Ergebnis stehen konkrete Er-
kenntnisse und Handlungsempfehlungen auf Basis der vorhandenen Da-
ten.
Der Fokus von Data-Science-Projekten berücksichtigt im Allgemeinen aber
keine zeitbezogenen Aspekte und beschäftigt sich nicht mit der Analyse von
prozessualen Abläufen. Im betrieblichen Umfeld steht eine große Zahl von
Daten und Informationen aber in direktem oder mindestens mittelbarem
Zusammenhang zu Geschäftsprozessen, Workflows oder sonstigen Abläu-
fen, die eine Reihenfolge und zeitliche Komponente auf die Daten ergänzen.
Beispiel: Data-Science-Analysen innerhalb eines Bestellprozesses
Prozessdigitalisierung
34
Betrachten wir als Beispiel den folgenden vereinfachten Bestellprozess in
einem Unternehmen. Im ersten Schritt ist eine Bestellung durch einen
Mitarbeiter anzustoßen, indem eine Bestellanforderung (BANF) gestellt
wird, welche anschließend durch das Controlling geprüft wird. Ist diese
korrekt und vom Controlling nicht zu beanstanden, erfolgt eine Freigabe,
welche anschließend durch den Fachbereich genehmigt werden muss.
Liegt diese Genehmigung vor, so wird die Bestellung getätigt und der Be-
stellprozess abgeschlossen.
Traditionelle Methoden aus dem Bereich Data Science fokussieren im
Rahmen einer Analyse dieses Prozesses insbesondere auf statische As-
pekte der Daten. Beispielsweise könnte der Zusammenhang zwischen den
Inhalten einer BANF und einer entsprechenden Ablehnung durch das Con-
trolling oder den Fachbereich untersucht werden, um mithilfe von Ma-
chine Learning eine Prognosekomponente zu implementieren und fehler-
hafte BANF bereits vor der Einreichung erkennen zu können. Ein weiteres
Beispiel wäre ein automatisches Clustering von BANF auf Basis der enthal-
tenen Bestellpositionen, um einen Überblick über die meistbestellten Ob-
jekte zu erhalten.
Demgegenüber stehen zeit- und prozessbezogene Auswertungen übli-
cherweise nicht im Betrachtungsfokus. Fragen nach der Durchlaufzeit ei-
nes Prozesses („Wie lange dauert normalerweise eine Freigabe?“), der
Einhaltung des gewünschten Prozessverhaltens („Werden alle Schritte im-
mer wie vorgesehen durchlaufen?“) oder Performanceeinbußen im Pro-
zess („An welchen Stellen hakt es?“) werden damit nicht beantwortet. In
der Literatur wird an dieser Stelle auch davon gesprochen, Data Science
tendiere dazu, „process agnostic“ zu sein.
Parallel zum Bereich Data Science hat sich mit dem Themenfeld Process Sci-
ence auch eine eigene Forschungsdisziplin etabliert, welche die Betrachtung
von End-to-End-Prozessen in den Mittelpunkt stellt (Van der Aalst, 2016, S.
15).
Der Begriff „Process Science“ bezeichnet eine Sammlung von Konzepten
und Methoden zur formalen Beschreibung, operativen Implementierung
und laufenden Optimierung von Geschäftsprozessen. Ähnlich wie im Be-
reich Data Science werden Ansätze aus unterschiedlichen Disziplinen kom-
biniert, um alle Aspekte abzudecken.
Hierzu zählen unter anderem die folgenden Subdisziplinen:
• statistische Verfahren zur Modellierung von Prozessabläufen unter
Unsicherheit der Entscheidungen im Prozessverhalten,
• formale Methoden zur formal-logischen Beschreibung von Prozessen
und Korrektheitsbeweisen, beispielsweise aus den Bereichen Auto-
matentheorie, Transitionssysteme und Petri-Netze,
• Optimierungsverfahren zur Bestimmung optimaler Lösungen auf for-
mal beschriebenen Prozessabläufen, z. B. kürzeste Pfade in gewich-
teten Graph-Modellen,
Prozessdigitalisierung
35
• Operations Research als Forschungsdisziplin für den Einsatz quanti-
tativer Modelle und Methoden zur Entscheidungsunterstützung,
• Geschäftsprozessmanagement als ganzheitlicher Ansatz zur Pro-
zessausrichtung und kontinuierlichen Verbesserung,
• Prozessautomation durch die informationstechnische Unterstützung
von Prozessen und die operative Ausführung z. B. durch Workflow-
Management-Systeme.
Während Data-Science-Analysen üblicherweise prozessunabhängig agieren,
verfolgen Process-Science-Methoden häufig stark formale, modellgetrie-
bene Ansätze und berücksichtigen keine prozessualen Instanzdaten (vgl. Ab-
schnitt 0). An der Schnittstelle zwischen Data Science und Process Science
hat sich mit dem Bereich Process Mining eine Methode etabliert, welche
diese Lücke schließt und die jeweiligen Teilbereiche miteinander verbindet
(vgl. Abbildung 14).
Abbildung 14: Process Mining als Schnittstelle zwischen Data Science und Process Science
(Grafik in Anlehnung an Van der Aalst, 2016, S. 16)
Aus methodischer Sicht transferiert Process Mining statistische Verfahren
und Methoden zur formalen Beschreibung von Abläufen in Form graphen-
basierter Darstellungen auf zeit- und ablaufbezogene Daten und ermög-
licht damit eine Anwendung von explorativen Data-Mining- und -Analytics-
Ansätzen für eine detailliertere Analyse digitaler Prozesse.
Welche Art von Analysen kann durch Process Mining durchgeführt werden?
Anhand des folgenden Anwendungsbeispiels sollen einige Ansatzpunkte auf-
gezeigt werden.
Beispiel: Customer-Journey-Analyse mittels Process Mining
Das folgende Beispiel ist aus der Publikation von Dadashnia et al. (2016)
entnommen, bei der der Autor dieses Skriptums Co-Autor ist. Es zeigt ei-
nen Ausschnitt aus einer Process-Mining-Analyse eines frei verfügbarenStatistik und Mathematik
Algorithmen
Data Mining
Machine Learning
Datenbanksysteme
Datenschutz und Ethik
Statistik
Formale Methoden
Optimierungsverfahren
Geschäftsprozessmanagement
Prozessautomation
Operations Research
Data Science Process Science
Process Mining Process Mining
Prozessdigitalisierung
36
Realdatensatzes der UWV, einem Leistungsträger für die Arbeitnehmer-
versicherungen in den Niederlanden. Der Datensatz stellt einen Export aus
einer Web-Anwendung dar, über die Nutzer ein Profil erstellen und ver-
schiedene Aufgaben im Zusammenhang mit einer Job-Bewerbung wahr-
nehmen können. In Dadashnia et al. (2016) wird eine detailliertere Be-
schreibung von Analysen in diesem Szenario präsentiert und konkrete
Handlungsempfehlungen zur Beantwortung der Fragen des Process Ow-
ners vorgestellt.
Abbildung 15 zeigt ein durch Process-Mining-Algorithmen erstelltes Mo-
dell (vgl. Abschnitt 4.4.2 zum Thema „Process Discovery“). Das Modell
zeigt den Ablauf zwischen verschiedenen Aktivitäten im Prozessfluss; Ak-
tivitäten werden durch Rechtecke mit unterschiedlicher Einfärbung dar-
gestellt, wobei eine dunklere Farbe eine höhere Frequenz dieser Aktivität
symbolisiert. Zu erkennen sind der Prozessbeginn (markiert durch die Zahl
„1“) und das Prozessende („2“) sowie die durch gerichtete Pfeile beschrie-
benen Abläufe zwischen diesen Elementen. Die Zahl an den Pfeilen (z. B.
bei „3“) bezeichnet die Anzahl, mit der ein bestimmter Pfad durchlaufen
wird. Auf einen Blick zu erkennen sind beispielsweise Bündelungspunkte
an zentralen Aktivitäten („4“) und Wiederholungen in Form von Prozess-
schleifen („5“) im Ablauf.
Abbildung 15: Customer-Journey-Analyse mittels Process Mining
(Quelle: Dadashnia et al., 2016, S. 12)
Die Visualisierung stellt den ersten Schritt im Rahmen einer explorativen
Prozessanalyse mittels Process Mining dar. An diese „Discovery“ genannte
Phase kann sich beispielsweise eine Conformance-Analyse anschließen,
die einen Abgleich zwischen tatsächlichem („gelebtem“) Ist-Prozess und1
2
3
4 5
Prozessdigitalisierung
37
einem ggf. modellierten Soll-Prozess vornimmt. Eine andere Möglichkeit
besteht in der gezielten Untersuchung von abweichenden Prozessvarian-
ten, um potentielle Anomalien im Ablauf oder Schwachstellen im Prozess
(sogenannte Bottlenecks) zu identifizieren.
Process Mining ist eine relativ junge Forschungsdisziplin, die sich zwischen
Data Mining und algorithmischer Datenauswertung einerseits und Prozess-
modellierung und -analyse andererseits bewegt. Process Mining verfolgt
die Zielsetzung, reale Ist-Prozesse (d. h. nicht angenommene Soll-Prozesse)
zu entdecken, auf Konformität zu prüfen und zu verbessern, indem Wissen
aus Ereignislogs extrahiert wird, die in heutigen IT-Systemen leicht verfüg-
bar sind.
4.2 Einordnung von Process Mining
4.2.1 Positionierung im Geschäftsprozessmanagementzyklus
Wie zuvor dargelegt, fokussiert Process Mining auf die Analyse von Prozess-
verhalten auf der Basis von sogenannten Prozessinstanzdaten, die als Ergeb-
nis der Prozessausführung durch IT-Systeme entstehen. Anhand des in Ab-
schnitt 2.1.2 eingeführten BPM-Lebenszyklus lassen sich verschiedene Be-
rührungspunkte zwischen Process Mining und den Aktivitäten des Ge-
schäftsprozessmanagements aufzeigen.
Abbildung 16: Einordnung der Process-Mining-Methodik in den BPM-Lebenszyklus
Durch die Ausführung der Prozesse entstehen Ereignislogs, die durch Pro-
cess Mining ausgewertet und für die verschiedenen Phasen wie folgt ver-
wendet werden können:Strategie-
entwicklung
Definition und
Modellierung
Implementierung
Ausführung
Monitoring und
Controlling
Optimierung und
Weiterentwicklung
Process
Mining
Prozessdigitalisierung
38
• Strategieentwicklung: Unterstützung durch die Analyse von Ereig-
nisprotokollen, indem die Identifizierung von wichtigen Prozess-
strukturen erfolgt. Diese können wiederum Input für die strategische
Anpassung und Verbesserung von Geschäftsprozessen darstellen.
Weiterhin lassen sich aus der quantitativen Anzahl von Prozessaus-
führungen sowie einzelner Prozessbestandteile Rückschlüsse auf die
Bedeutung bestimmter Abläufe ziehen.
• Definition und Modellierung: Durch Anreicherung von Erkennungs-
methoden kann die Definition und Konstruktion von Prozessmodel-
len gestützt werden. Schwachstellen in bestehenden Modellen oder
Abweichungen vom modellierten Soll-Zustand können in der Überar-
beitung von Modellen berücksichtig werden: So können Vorkehrun-
gen getroffen werden, die verhindern, dass Prozesse anders, als im
Soll modelliert, ausgeführt werden können. Alternativ können eine
grundsätzliche Überarbeitung der Modelle und eine Anpassung an
die Realität erfolgen, sofern dies aus fachlicher Sicht sinnvoll ist.
• Monitoring und Controlling: Durch den Vergleich von aus den Ereig-
nislogs erhobenen Ist-Prozessen mit den definierten Soll-Prozessen
kann zur Laufzeit die korrekte Einhaltung eines Prozesses geprüft
werden. Abweichungen können somit frühzeitig erkannt und ggf.
noch zur Ausführungszeit eines Prozesses korrigiert werden. Durch
eine kontinuierliche Überwachung des Prozesses können auch Kenn-
zahlen zu Performance und Ressourcenauslastung permanent beo-
bachtet werden, um mögliche Auswirkungen auf nachgelagerte Pro-
zesse oder relevante Geschäftsentscheidungen a priori kommunizie-
ren zu können (beispielsweise Nichteinhaltung von Lieferzeiten).
• Optimierung und Weiterentwicklung: Als Ergebnis einer umfassen-
den Process-Mining-Analyse sind konkrete Handlungsempfehlungen
für die Optimierung und Weiterentwicklung von Prozessen zu erwar-
ten. Im Gegensatz zu anderen Untersuchungsmethoden, wie inter-
viewgestützte Befragungen, Prozessbeobachtungen oder punktuelle
Messungen von Prozessdurchläufen, bietet Process Mining den gro-
ßen Vorteil, dass die Ergebnisse auf reale Prozessausführungsdaten
gestützt sind. Diese Daten erlauben zum einen eine wesentlich ob-
jektivere Bewertung von Prozessinstanzen und ermöglichen es zum
anderen, eine sehr große Anzahl an Ausführungsdaten zu sehr gerin-
gen Grenzkosten zu untersuchen; während der Aufwand für die Aus-
wertung beispielsweise bei Befragungen mindestens im gleichen
Maß zunimmt wie die Anzahl der Teilnehmer, bietet Process Mining
ein massendatentaugliches Ökosystem für die Prozessanalyse.
4.2.2 Vorgehensmethodik zu Process-Mining-Projekten
Eine verbreitete Vorgehensweise bei der Planung und Umsetzung von Pro-
cess-Mining-Projekten ist die sogenannte PM2-Methodik. Diese umfasst ins-
gesamt sechs Stufen, die im Sinne einer idealtypischen Umsetzung in einem
Unternehmen sequentiell durchgeführt werden (vgl. Abbildung 217). Sie
Prozessdigitalisierung
39
umfasst weiterhin eine Übersicht zur Einbindung unterschiedlicher Team-
mitglieder und deren Rollen im Projekt. Essentiell für den Erfolg eines Pro-
cess-Mining-Projektes ist die effektive Zusammenarbeit zwischen interdis-
ziplinär aufgestellten Experten, insbesondere Fachexperten (engl. Business
experts) und Prozessexperten (engl. Process experts).
Abbildung 17: PM2-Projektmethodik für Process Mining
(Quelle: van Eck et al., 2015)
Nachfolgend werden die Inhalte der einzelnen Stufen dargestellt (vgl. van
Eck et al., 2015):
• Stufe 1: Planung: Ziel der Planungsphase ist die Initiierung des Pro-
jekts und die Festlegung von zu untersuchenden Forschungsfragen.
Dabei gibt es zwei Hauptziele: die Verbesserung der Leistungsfähig-
keit eines Geschäftsprozesses und die Überprüfung der Einhaltung
bestimmter Regeln und Vorschriften. Innerhalb der ersten Phase
werden drei Aktivitäten durchgeführt: die Festlegung von For-
schungsfragen und Hypothesen, die Auswahl von Geschäftsprozessen
und die Zusammenstellung eines Projektteams. Die Reihenfolge die-
ser Aktivitäten variiert in Abhängigkeit vom Geschäftsprozess.
1. Ein Process-Mining-Projekt beginnt in der Regel mit der Aus-
wahl des Geschäftsprozesses. Nicht nur die Charakteristiken
des Prozesses selbst spielen eine wichtige Rolle, sondern
auch die Qualität der vorliegenden Log-Dateien. Dabei kön-
nen die nachfolgenden vier Probleme bei vorhandenen Daten
vorliegen: fehlende Daten, fehlerhafte Daten, ungenaue Da-
ten und irrelevante Daten. Wenn beispielsweise die in der
Log-Datei enthaltenen Zeitstempel (vgl. Abschnitt 4.3.1) nicht
der tatsächlichen Zeit der Durchführung entsprechen, kön-
nen möglicherweise Engstellen im Ablauf nicht als solche
identifiziert werden. Eine weitere Voraussetzung für die
Durchführung von Process Mining stellt die Möglichkeit zur
Prozessdigitalisierung
40
Beeinflussung von Geschäftsprozessen seitens des Unterneh-
mens dar – wenn das Unternehmen auf bestimmte Prozesse
keinen Einfluss nehmen kann, dann könnte die Durchführung
eines Process-Mining-Projekts keinen Mehrwert oder Ver-
besserungen für dieses mit sich bringen.
2. In der Planungsphase sind außerdem die Forschungsfragen
bzw. das Erkenntnisinteresse in Abhängigkeit von den ausge-
wählten Prozessen zu ermitteln, um den Schwerpunkt des
Projekts bestimmen zu können. Dieser kann beispielsweise
im Bereich der Untersuchung der Qualität eines Geschäfts-
prozesses, seines Zeitaufwands, aber auch im Bereich von
Ressourcenverbrauch und Kosten liegen.
3. Schließlich muss ein Projektteam zusammengestellt werden,
das nachfolgende Personen beinhaltet: Process Owner, die
für die untersuchten Geschäftsprozesse verantwortlich sind;
Fachexperten, welche die Ausführung der Prozesse aus fach-
licher Sicht verantworten; Systemexperten, die mit den IT-As-
pekten der Prozesse und unterstützenden Systeme vertraut
sind; und Prozessanalysten, die in der Analyse von Prozessen
und der Anwendung von Process Mining qualifiziert sind. Die
wichtigste Rolle spielt die Zusammenarbeit zwischen Fachex-
perten und Prozessanalysten, um Analyseergebnisse bewer-
ten und relevante und nutzbare Ergebnisse sicherstellen zu
können.
• Stufe 2: Extraktion: Hier werden Ereignisdaten und eventuell vor-
handene (Soll-)Prozessmodelle aus relevanten IT-Systemen extra-
hiert. Ausgangspunkte für diese Stufe stellen die Forschungsfragen
und die Informationssysteme dar, als Output stehen dagegen die
Logdateien eines Prozesses (vgl. Abschnitt 4.3.1). An dieser Stelle ist
es wichtig, den Umfang der Extraktion zu bestimmen, diesen dann
aus dem System zu extrahieren und das Prozesswissen anschließend
zu übertragen:
1. Bei der Bestimmung des Umfangs der Extraktion von Logda-
teien sind viele Fragen zu berücksichtigen, beispielsweise:
Welcher Zeitraum soll bei der Extraktion berücksichtig wer-
den? Welche Datenattribute werden extrahiert?
2. Sobald der Extraktionsumfang bestimmt wurde, kann die ei-
gentliche Extraktion der Logs durchgeführt werden, indem
die ausgewählten prozessbezogenen Daten aus den relevan-
ten Informationssystemen gesammelt und z. B. in Form einer
Tabelle zusammengefasst werden.
3. Die Übertragung von Prozesswissen kann zeitlich mit der Ex-
traktion der Logs durchgeführt werden. Prozesswissen kann
in unterschiedlicher Form vorliegen: Neben implizitem Pro-
zesswissen, das nur durch Interviews mit
Prozessdigitalisierung
41
Prozessverantwortlichen expliziert werden kann, können
auch schriftliche Dokumentationen oder Prozessmodelle
existieren.
• Stufe 3: Datenverarbeitung: Das Hauptziel der Datenverarbeitung ist
es, die Log-Dateien so zu verarbeiten, dass diese in optimalen Zu-
stand für die Anwendung von Process-Mining-Methoden gebracht
werden. Gegebenenfalls kann man die Log-Dateien zur besseren
Übersicht nach Prozessmodellen, die hier als Input hinzugezogen
werden, filtern. Auf dieser Stufe gibt es vier Arten von Aktivitäten:
1. Das Erstellen von Sichten kann durchgeführt werden, um zu
erkennen, welche Datenquelle eine bestimmte Ansicht des
betrachteten Prozesses liefern kann: Sollen die Durchlaufzei-
ten eines Prozesses analysiert werden, wird vorrangig der
Prozess des zeitlichen Ablaufs betrachtet; bei einer Analyse
von Ressourcennutzung ist die Ressource selbst für die Unter-
suchung von Bedeutung.
2. Das Aggregieren von Ereignissen kann dazu beitragen, Kom-
plexität zu reduzieren und somit die Struktur von Ergebnissen
des Process Mining zu verbessern. Es werden zwei Arten von
Aggregation unterschieden: is-a und part-of. Bei einer is-a-
Aggregation betrachtet man verschiedene Arten von Ereig-
nissen, die zu einer äquivalenten, aber allgemeineren Ereig-
nisklasse gehören, während die Anzahl der Ereignisse gleich
bleibt. Zum Beispiel werden zwei Ereignisse, die mit „Simple
Manual Analysis“ und „Complex Manual Analysis“ bezeichnet
sind, als Instanzen der Ereignisklasse „Manual Analysis“ be-
trachtet – diese bleiben dabei als zwei Ereignisse bestehen.
Bei einer part-of-Aggregation werden im Gegenzug mehrere
Ereignisse zu größeren, wie bei Teilprozessen, verschmolzen.
3. Bei der Anreicherung von Ereignislogs werden zusätzliche At-
tribute ergänzt. Hierbei gibt es zwei Möglichkeiten: Ableiten
oder Bereitstellen von zusätzlichen Ereignissen und Daten-
attributen auf der Grundlage des existierenden Ereignislogs
oder aber durch das Hinzufügen von externen Daten.
4. Das Filtern von Ereignislogs stellt einen häufig genutzten Da-
tenverarbeitungsschritt dar, um die Komplexität zu reduzie-
ren und die Analyse auf bestimmte Teile eines Datensatzes zu
konzentrieren. Man unterscheidet drei Arten von Filtertech-
niken: Attributfilterung, varianz- und Compliance-basierte Fil-
terung. Attributfilterung wird verwendet, um Ereignisse mit
bestimmten Ausprägungen von Prozessattributen zu entfer-
nen, die varianzbasierte Technik untersucht hingegen ähnli-
che Prozessinstanzen, z. B. durch Clustering, um ein Ereig-
nisprotokoll aufteilen und einfachere Prozessmodelle für je-
den Teil eines komplexen Prozesses entdecken zu können.
Eine flexible Form stellt die Filterung unter Beachtung von
Prozessdigitalisierung
42
Compliance-Vorschriften dar, die Spuren oder Ereignisse ent-
fernen kann, welche der Vorschrift der Untersuchung oder ei-
nem bestimmten Prozessmodell nicht entsprechen.
• Stufe 4: Process Mining und Analyse: In der vierten Phase werden
Process-Mining-Techniken aufbauend auf der Datenvorbereitung
eingesetzt. Ziele dieser Phase sind die Beantwortung der Forschungs-
fragen und Einblicke in die realen (Ist-)Prozesse. Wenn die For-
schungsfragen im Projekt abstrakt formuliert sind, dann können ex-
plorative Techniken wie Process Discovery angewendet werden, um
konkrete Fragen in einem iterativen Verfahren zu erarbeiten. Sobald
spezifische Forschungsfragen definiert sind, kann sich die Analyse auf
die Beantwortung dieser konzentrieren. Als Input werden an dieser
Stelle die aufbereiteten Ereignislogdateien verwendet. Falls Prozess-
modelle verfügbar sind, können sie zur Analyse herangezogen wer-
den. Den Output bilden hier Erkenntnisse, die Forschungsfragen im
Zusammenhang mit Performance- und Compliance-Zielen beantwor-
ten.
• Stufe 5: Bewertung: Ziel der Evaluierungsstufe ist es, die Analyseer-
gebnisse unter Beachtung der Projektziele in Hinblick auf Möglichkei-
ten zur Prozessverbesserung zu bewerten. Die Ergebnisse sind dabei
Verbesserungsideen für einen Prozess oder neue Forschungsfragen,
die in der Zukunft beantwortet werden sollten. Die Aktivitäten dieser
Phase sind die Diagnose und die Evaluation:
1. Die Diagnose umfasst folgende Schritte: (1) korrekte Inter-
pretation der Ergebnisse (z. B. durch das fachliche Verständ-
nis des Prozessmodells), (2) Unterscheidung interessanter
oder ungewöhnlicher Ergebnisse von den erwarteten Ergeb-
nissen und (3) Ermittlung oder Verfeinerung von Forschungs-
fragen für mögliche weitere Iterationen.
2. Bei der Evaluation wird die Korrektheit der (unerwarteten)
Befunde sichergestellt und plausibilisiert. Die Verifizierung
vergleicht die Analyseergebnisse mit den ursprünglichen Sys-
temimplementierungen, während die Validierung die Ergeb-
nisse mit den Ansprüchen der Prozessbeteiligten vergleicht.
Die Herausforderung bei der Überprüfung besteht darin, dass die
Prozessanalysten häufig keine Domänenexperten für den Prozess
sind, den sie analysieren, wodurch es zu Schwierigkeiten bei der Be-
wertung von unerwarteten Analyseergebnissen kommen kann. Aus
diesem Grund sollten die Fachexperten bei der Überprüfung und Va-
lidierung der Ergebnisse beteiligt sein, idealerweise sollte eine Betei-
ligung bei vorherigen Phasen des Process Mining bestehen.
• Stufe 6: Prozessverbesserung und Support: Ziel der Prozessverbes-
serung und Prozessunterstützung ist es, die gewonnenen Erkennt-
nisse zur Verbesserung der eigentlichen Prozessausführung zu nut-
zen. Die Inputs dieser Phase sind die Verbesserungsideen aus der
Prozessdigitalisierung
43
Bewertungsphase, die Outputs sind die vorgeschlagenen Prozessan-
passungen. Zwei Aktivitäten werden unterschieden:
1. Implementierung von Prozessänderungen: Das Erreichen von
Prozessverbesserungen ist oft die Hauptmotivation für Pro-
cess-Mining-Projekte. Allerdings ist die tatsächliche Umset-
zung von Prozessänderungen in der Regel ein separates Pro-
jekt. Die Ergebnisse eines Process-Mining-Projekts bilden die
faktische Basis der Prozessverbesserungen. Nach Implemen-
tierung von Verbesserungen im aktuellen Projekt kann an-
schließend ein erneutes Analyseprojekt durchgeführt wer-
den, um die Erreichung der Verbesserungsziele zu messen.
2. Operativer Support: Process Mining kann eine operative Un-
terstützung durch die Erkennung problematischer Abläufe,
die Vorhersage für die Entwicklung in der Zukunft oder die
vorgeschlagenen Maßnahmen liefern. Um Process Mining für
eine operative Unterstützung verwenden zu können, ist es
notwendig, Analyseergebnisse zu auftretenden Ereignissen in
Echtzeit der Prozesslaufzeit zuordnen zu können.
4.3 Datengrundlage
4.3.1 Aufbau von Ereignislogs
Process-Mining-Methoden verarbeiten, wie bereits erwähnt, Daten aus In-
formationssystemen, die mindestens einen zeitlichen Bezug zu Events auf-
weisen und damit Auskunft über die Art und Reihenfolge bestimmter Aktivi-
täten innerhalb eines Prozessablaufs geben. Weitere Informationen (soge-
nannte Prozessattribute), beispielsweise welche Person oder Rolle eine Ak-
tivität ausgeführt hat, welche Kosten dabei entstanden sind oder welche Da-
ten dabei verarbeitet wurden, können im Rahmen von Analysen ausgewer-
tet werden, sind aber für grundlegende Process-Mining-Analysen nicht not-
wendig. Diese Eingabedaten werden üblicherweise als Logdaten oder
Logdateien bezeichnet, da sie im Idealfall der automatischen Protokollierung
von bestimmten Prozessen in einem (Informations-)System entstammen.
Logdateien sind nicht an bestimmte Datenformate oder -strukturen gebun-
den, sondern können in einer Vielzahl unterschiedlicher Formen vorliegen,
wie beispielsweise Datenbanktabellen (dies ist insbesondere bei transakti-
onsorientierten Anwendungssystemen wie ERP-Systemen der Fall), Webser-
ver-Logs, E-Mail-Archive oder andere Quellen (Van der Aalst et al., 2012, S.
179). Entscheidender als die Struktur der Daten ist deren Qualität (vgl. Ab-
schnitt 4.3.2).
Zu den minimalen Anforderungen an eine Process-Mining-geeignete Logda-
tei zählen die folgenden Informationen innerhalb des Logs:
Prozessdigitalisierung
44
• Fall-ID (engl. Case ID): Die Fall-ID hat üblicherweise eine numerische
oder alphanumerische Darstellung. Wie bereits erwähnt, arbeitet
Process Mining auf der Basis von Prozessinstanzdaten, das bedeutet,
dass individuelle Durchführungen eines Prozesses als solche erkenn-
bar und eindeutig identifizierbar sein müssen. Zwei Durchführungen
des gleichen Prozesses resultieren demnach in zwei separaten Fall-
IDs, welche die jeweilige Durchführung eindeutig charakterisieren.
Dies verdeutlicht noch einmal den Unterschied zwischen der Model-
lierung von Prozessen auf der Typebene und der Analyse tatsächlich
ablaufender Prozessvarianten auf der Instanzenebene (vgl. Abschnitt
2.2). Alle Aktivitäten, die Teil einer bestimmten Prozessinstanz sind,
werden über die gleiche Fall-ID charakterisiert.
• Zeitstempel (engl. Timestamp): Der Zeitstempel hat eine zeitbezo-
gene Darstellung und wird verwendet, um einem Ereignis einen ein-
deutigen Zeitpunkt zuzuordnen. Beispiele hierfür sind UNIX-Zeit-
stempel oder andere Systemzeitangaben aus Informationssystemen,
die eine eindeutige Ordnung von zugehörigen Ereignissen erlauben.
• Aktivitätsname (engl. Activity name): Der Aktivitätsname wird teil-
weise auch als Event ID bezeichnet und beschreibt unterschiedliche
Schritte innerhalb eines Prozesses. Wichtig ist hierbei, dass einzelne
Aktivitäten eindeutig benannt sind, um diese klar voneinander unter-
scheiden zu können. In der Praxis werden die Begriffe Aktivität und
Ereignis häufig synonym verwendet. Dies ist darin begründet, dass
eine Aktivität die jeweiligen Schritte innerhalb des Prozesses bezeich-
net, die wiederum zu einem Ereignis im Log führen – entscheidend
ist sozusagen die Betrachtungsperspektive.
Die drei genannten Attribute charakterisieren die minimalen Anforderun-
gen an eine Logdatei, um Process-Mining-Methoden anwenden zu können.
Sie können um beliebige weitere Informationen ergänzt werden, welche
dann wiederum für weitere Analysen genutzt werden können.
Ein weiteres typisches Attribut ist beispielsweise die ausführende Ressource
(engl. Resource). Diese entspricht der Person (z. B. Mitarbeiter Müller), der
Rolle (z. B. Rolle Sachbearbeiter) oder dem System (z. B. SAP ERP Transaktion
VF01), die für die Erzeugung eines Ereignisses verantwortlich war. Liegen
diese Informationen vor, so lassen sich beispielsweise Aussagen über die Art
und Häufigkeit der Zusammenarbeit zwischen verschiedenen Mitarbeitern
treffen und in Form von sozialen Netzwerken aufbereiten. Dadurch kann die
rein ablauforientierte Prozessanalyse um eine organisatorische Kompo-
nente erweitert werden (detaillierte Informationen hierzu finden sich in Ab-
schnitt 4.5.2)
Abbildung 18 zeigt exemplarisch einen Ausschnitt aus einer Logdatei zu ei-
nem Bestellprozess mit unterschiedlichen Prozessinstanzen. Neben den drei
notwendigen Minimalanforderungen Fall-ID, Zeitstempel und Aktivitäts-
name sind darüber hinaus noch zwei weitere Prozessattribute (Ressource
Prozessdigitalisierung
45
und Kosten) angegeben. Zur besseren Übersicht sind die Ereignisse innerhalb
des Logs bereits nach der Fall-ID gruppiert – dies ist in realen Logdaten nicht
zwingend der Fall und dient hier lediglich dem leichteren Verständnis. Diese
erste, grau hinterlegte Spalte dient nur zur Referenzierung auf einzelne Zei-
leneinträge und ist nicht Teil des Ereignislogs.
# Fall-ID Zeitstempel Aktivitätsname mit Präfix Ressource Kosten
1 1 30-12-2010:11.02 A. Eingang Bestellanforderung Nutzer A 10
2 31-12-2010:10.06 B. Eingang Prüfung Controlling Controlling 30
3 05-01-2011:15.12 C. Freigabe Controlling 10
4 06-01-2011:11.18 D. Genehmigung Fachbereich Fachbereich 20
5 07-01-2011:14.24 E. Freigabe zur Bestellung Fachbereich 10
6 09-01-2011:09.14 F. Bestellung abgeschlossen Fachbereich 5
…
8 45 15-01-2011:09:10 B. Eingang Prüfung Controlling Controlling 30
9 15-01-2011:10:34 G. Feststellung fehlende BANF Controlling 10
10 15-01-2011:10:34 H. Ablehnung Controlling 5
11 17-01-2011:15:50 A. Eingang Bestellanforderung Nutzer A 10
12 19-01-2011:11:23 B. Eingang Prüfung Controlling Controlling 20
13 19-01-2011:19:57 C. Freigabe Controlling 10
14 21-01-2011:13:09 D. Genehmigung Fachbereich Fachbereich 20
15 23-01-2011:15:01 E. Freigabe zur Bestellung Fachbereich 10
16 24-01-2011:11:12 F. Bestellung abgeschlossen Fachbereich 5
Abbildung 18: Beispiel Logdatei, jede Zeile entspricht einem Ereignis im Ereignislog
Der Beispielprozess beschreibt den Ablauf einer Bestellung, die üblicher-
weise in den folgenden Schritten abläuft: (1) Eingang einer Bestellanforde-
rung (BANF) durch Nutzer, (2) Eingang der BANF und Prüfung im Controlling,
(3) Freigabe der BANF durch Controlling, (4) Genehmigung durch den Fach-
bereich, (5) Abschluss der Bestellung. Der Fall mit der ID „1“ folgt genau die-
sem Ablauf (Zeilen 1 bis 6). Zu jedem Ereignis sind der Zeitstempel sowie die
angefallenen Kosten aufgeführt, sodass die Reihenfolge der Aktivitäten und
die Kosten der Durchführung zweifelsfrei bestimmt werden können. Der Fall
mit der ID „45“ weist ein anderes Verhalten auf, da der erste Schritt „Eingang
Bestellanforderung“ nicht durchgeführt wurde; in der Folge kommt es zu ei-
ner Ablehnung der BA durch das Controlling (Zeile 10), bevor der Prozess,
wie ursprünglich vorgesehen, durchlaufen kann (Zeile 11 bis 16).
Process-Mining-Algorithmen für die Entdeckung von Prozessstrukturen
(Process Discovery) sind in der Lage, die in Abbildung 18 dargestellten In-
formationen in Prozessmodelle zu transferieren.
Zu diesem Zweck wird die Darstellung in eine sogenannte Trace-Notation
überführt, welche die Reihenfolge der einzelnen Aktivitäten verwendet, um
deren Ordnung im Modell zu erzeugen. Die beiden Prozessinstanzen mit den
Fall-IDs „1“ und „45“ entsprechen beispielsweise den folgenden Traces (es
werden aus Gründen der Übersichtlichkeit nur die Präfixe aus Abbildung 18
verwendet):
Prozessdigitalisierung
46
Fall-ID „1“ <A, B, C, D, E, F>
Fall-ID “45” <B, G, H, A, B, C, D, E, F>
An diesem Beispiel wird deutlich, welche Bedeutung die Zeitstempel für die
Erzeugung der Trace-Strukturen besitzen und welche Probleme sich auf-
grund einer unzureichenden Qualität des Ereignislogs ergeben können. Be-
trachten wir die folgenden Fragestellungen:
• Vergleich Zeile 9 und 10 in Abbildung 18: Die Aktivitäten G und H be-
sitzen den gleichen Zeitstempel (jeweils 15-01-2011:10:34). Wie lässt
sich nun zweifelsfrei bestimmen, ob Aktivität G vor H oder H vor G
stattgefunden hat? Um solche Probleme – und damit auch Ungenau-
igkeiten im Rahmen der Process Discovery und der nachfolgenden
Analysen – zu vermeiden, ist es notwendig, auf eine ausreichende
Detaillierung der Zeitstempel zu achten. In diesem Fall hätte eine fei-
nere Auflösung der Zeitstempel in Sekunden dieses Problem wohl
verhindert.
• Parallelität vs. Exklusivität von Ereignissen (Van der Aalst et al., 2011,
S. 181): Nehmen wir an, G und H hätten eindeutig unterschiedliche
Zeitstempel. Wie ist damit umzugehen, falls in zwei unterschiedli-
chen Traces trotzdem die Aktivität G einmal vor H und einmal nach H
auftritt? Dieser Fall tritt in der Praxis häufig auf, beispielsweise wenn
frei entschieden werden kann, ob zuerst H und dann G oder umge-
kehrt zuerst G und dann H ausgeführt werden soll. Für die Erstellung
des Modells ist hierbei wichtig zu beachten, dass aus dem Log keine
Rückschlüsse auf die Semantik gezogen werden können (vgl. Ab-
schnitt 4.4.2.2): Das bedeutet, es ist zunächst einmal nicht ersicht-
lich, ob es sich in einem Fall (z. B. „G vor H“) um einen Fehler handelt
oder ob dies eine korrekte Möglichkeit der Prozessausführung dar-
stellt.
Darüber hinaus lassen sich am Beispiel von Abbildung 18 auch bereits einige
inhaltliche Fragestellungen andiskutieren. Vergleichen wir Zeile 2 mit Zeile
12, so fällt auf, dass für die gleiche Aktivität unterschiedliche Kosten bei der
gleichen Ressource angefallen sind. Dies stellt einen interessanten Einstiegs-
punkt in eine fachliche Diskussion mit dem Process Owner dar. Weiterhin
kann an dieser Stelle verifiziert werden, dass es sich nicht um inkorrekte
Werte handelt, die auf eine geringe Qualität des Ereignislogs schließen las-
sen. Im folgenden Abschnitt werden die Qualität und der Begriff des „Reife-
grads“ für Logdateien weiter detailliert.
4.3.2 Qualität und Reifegrad von Logdateien
Wie bei allen Data-Science-Projekten kommt der Qualität der Eingangsdaten
eine sehr hohe Bedeutung zu. Für den bestmöglichen Erfolg und eine große
Aussagekraft von Process-Mining-Analysen ist hierbei die Qualität der Ereig-
nislogdaten entscheidend. In der Literatur werden verschiedene allgemeine
Prozessdigitalisierung
47
Kriterien zur Beurteilung des Niveaus von Logdaten definiert (Van der Aalst
et al., 2011, S. 179):
• Vertrauenswürdig (engl. trustworthy): Die aufgezeichneten Daten
entsprechend der Realität und es kann davon ausgegangen werden,
dass Ereignisse auch tatsächlich wie angeben stattgefunden haben.
• Vollständig (engl. complete): Für den gewählten Betrachtungszeit-
raum (z. B. eine bestimmte zeitliche Periode) sollten die Daten voll-
ständig sein und alle relevanten Attribute enthalten.
• Semantisch korrekt (engl. well-defined semantics): Die Semantik der
aufgezeichneten Daten sollte korrekt und konsistent sein, z. B. soll-
ten Wertebereiche von Attributen sinnvoll interpretierbar sein.
• Sicher (engl. safe): Bedenken in Bezug auf Sicherheit und Daten-
schutz sollten vor der Aufzeichnung ausgeräumt werden.
Auf der Grundlage der allgemeinen Kriterien lässt sich darüber hinaus für
Ereignislogs eine Bewertung in Form eines sogenannten Reifegrads ermit-
teln (Van der Aalst et al., 2011, S. 180). Dieser bewertet auf einer fünfstufi-
gen Skala Qualität und Eignung des Logs für Process-Mining-Analysen. Die
fünf Stufen sind in Abbildung 19 dargestellt:
Level Charakterisierung
5 Das Ereignislog ist insgesamt von ausgezeichneter Qualität und
erfüllt die Kriterien „vertrauenswürdig“ und „vollständig“ voll-
kommen. Die Ereignisse sind semantisch klar definiert und ihre
Protokollierung erfolgt automatisch, systematisch und sicher. Es
findet eine vollumfängliche Berücksichtigung von Datenschutz-
und Sicherheitsaspekten statt.
Beispiel: semantisch annotierte Ereignislogs aus Informationssys-
temen mit dedizierten Funktionalitäten zum Geschäftsprozess-
management (BPM-System).
4 Die Qualität des Ereignislogs ist sehr gut. Ereignisse werden auto-
matisch, systematisch und zuverlässig erfasst. Die Kriterien „ver-
trauenswürdig“ und „vollständig“ sind erfüllt. Die Konzepte von
„Prozessinstanzen“ (definiert über eine eindeutige Fall-ID) und
„Aktivitäten“ werden explizit durch das ausführende Informati-
onssystem unterstützt (Process Awareness).
Beispiel: Ereignislogs aus BPM/Workflow-Systemen, die eine Aus-
führungskomponente für Prozessinstanzen besitzen.
3 Das Ereignislog ist von mittelmäßiger Qualität. Ereignisse werden
durch Informationssysteme automatisch aufgezeichnet, es wird
aber kein systematischer Ansatz verfolgt. Das bedeutet beispiels-
weise, dass keine explizite Logging-Komponente vorhanden ist
und Konzepte wie „Prozessinstanzen“ und „Aktivitäten“ nicht ex-
plizit im System verwendet werden. Im Gegensatz zu Protokollen
auf der vorangegangenen Ebene kann aber mit hoher Sicherheit
Prozessdigitalisierung
48
davon ausgegangen werden, dass die aufgezeichneten Ereignisse
der Realität entsprechen (d. h. das Kriterium „vertrauenswürdig“
ist erfüllt, aber nicht zwangsläufig auch das Kriterium „vollstän-
dig“). Beispiele für diese Reifegradstufe finden sich häufig bei
ERP-Systemen: Da die Systeme keine Process Awareness im Sinne
eines BPM-Systems besitzen, müssen Ereignisse aus einer Viel-
zahl von Tabellen extrahiert werden. Es kann aber davon ausge-
gangen werden, dass die Informationen korrekt sind (vom ERP
erfasste Zahlung existiert tatsächlich und umgekehrt).
Beispiele: Tabellen in ERP-Systemen, Ereignisprotokolle von
CRM-Systemen, Transaktions-Protokolle von Messaging-Syste-
men, Ereignisprotokolle von High-Tech-Systemen.
2 Die Qualität des Ereignislogs ist mäßig und erfolgt nicht systema-
tisch, sondern als Nebenprodukt eines Informationssystems. Er-
eignisse werden vom System automatisch aufgezeichnet, aller-
dings wird kein systematischer Ansatz verfolgt, um zu entschei-
den, welche Ereignisse aufgezeichnet werden. Die Nutzung des
Informationssystems ist nicht zwingend bzw. es ist möglich, das
System zu umgehen. Aus diesem Grund kann nicht sichergestellt
werden, dass die Kriterien „vertrauenswürdig“ und „vollständig“
sicher erfüllt sind. Diese Reifegradstufe findet sich häufig bei In-
formationssystemen, die an spezifischen Stellen innerhalb eines
Prozesses eingesetzt werden, selbst aber keine Prozessausfüh-
rungskomponente besitzen und das Konzept einer Prozessinstanz
nicht unterstützen. Interaktionen mit dem System werden nicht
per se einer einzelnen Instanz zugeordnet.
Beispiele: Ereignisprotokolle von Dokumenten- und Produktma-
nagementsystemen, Fehlerprotokolle von Embedded Systems,
Arbeitsblätter von Servicetechnikern.
1 Das Ereignislog weist eine schlechte Qualität auf. Die Erfüllung
der Kriterien „vertrauenswürdig“ und „korrekt“ kann nicht beur-
teilt werden, es ist aber davon auszugehen, dass diese häufig
nicht erfüllt werden. In der Konsequenz entsprechen die aufge-
zeichneten Ereignisse möglicherweise nicht der Realität. Häufig
finden sich Logs dieser Reifegradstufe bei Prozessen, in denen
eine Aufzeichnung von Ereignissen händisch und manuell ge-
schieht, beispielsweise papierbasiert.
Beispiele: Spuren in Papierdokumenten, die durch das Unterneh-
men geleitet werden („gelbe Zettel“), papierbasierte Krankenak-
ten, protokollierte Telefonanrufe.
Abbildung 19: Reifegradstufen für Ereignislogs
(Quelle: Van der Aalst et al., 2011, S. 180)
Die Beurteilung eines vorliegenden Ereignislogs anhand der aufgezeigten
Kriterien und die daraus folgende Verortung innerhalb der fünf Reifegrad-
stufen können Aufschluss über die zu erwartende Qualität der Analyseer-
gebnisse geben.
Prozessdigitalisierung
49
Als allgemeine Empfehlung lässt sich festhalten, dass für sinnvolle und ver-
trauenswürdige Analysen durch Process-Mining-Methoden mindestens
eine Reifegradstufe von 3 erreicht werden sollte. Abhängig vom konkreten
Prozess und den beteiligten IT-Systemen kann eine Analyse aber auch erst
bei höheren oder bereits bei niedrigeren Reifegradstufen belastbare Er-
gebnisse liefern.
4.3.3 Datenformat XES
Ereignislogs können, wie zuvor bereits erwähnt, in einer Vielzahl unter-
schiedlicher Formate vorliegen, unter anderem als Datenbankexporte, Ta-
bellenstrukturen, CSV- oder Textdateien. Daneben haben sich auch dedi-
zierte Datenstrukturformate auf Basis der XML-Auszeichnungssprache ent-
wickelt, welche eine standardisierte Auszeichnung von Prozessattributen
wie Zeitstempel, Aktivitäten und Ressourcen definieren. Ab dem Jahre 2003
wurde der sogenannte MXML (Mining eXtensible Markup Language)-Stan-
dard entwickelt, der schnell Einzug in die Open Source Software ProM fand.
Durch diverse Erweiterungen wurden schließlich verschiedene Abwandlun-
gen des MXML-Formats verwendet, die aber nicht auf einem einheitlichen
Standard basierten, was in der Folge zu unterschiedlichen Versionen und
Problemen beim Datenaustausch führt.
Aus diesem Grund wurde die Entwicklung des XES (eXtensible Event Stream)
genannten Nachfolgers von MXML lanciert. XES verfolgt einen offeneren An-
satz und ist im Kern auf die Erweiterung des Standards ausgelegt. Im Jahre
2010 wurde im Rahmen der Arbeitsgruppe IEEE Task Force on Process Mi-
ning der Weg für eine offizielle Positionierung als IEEE Standard eingeschla-
gen, welcher seit November 2016 in Kraft ist (IEEE 1849-2016 XES Stan-
dard).3
Ein XES-Dokument (z. B. in Form einer XML-Datei) beschreibt ein Ereignislog
mit Prozessinstanzdaten und besteht aus einer beliebigen Anzahl von
Traces-Elementen. Jedes dieser Elemente enthält wiederum eine geordnete
Liste von Aktivitäten (im Standard als events bezeichnet) des Ereignislogs,
die einem bestimmten Fall über die eindeutige ID zugeordnet sind. Jedes der
genannten Elemente kann beliebige Attribute aufweisen und dadurch näher
spezifiziert werden, wobei auch eine Verschachtelung von Attributen mög-
lich ist. Als Grunddatentypen für Attribute stehen Strings, Datumsformate,
Integer, Float und Boolean zur Verfügung.
3 Siehe hierzu https://xes-standard.org (abgerufen am: 14.10.2020).
Prozessdigitalisierung
50
Abbildung 20: Beispiel eines Ereignislogs im XES-Format
(Quelle: Open XES Developer Guide, 2014)
XES wird von einer Vielzahl gängiger Process Mining Softwares wie Celonis,
Disco und ProM unterstützt und kann durch freie Konvertierungslösungen
zwischen verschiedenen Formaten umgewandelt werden. Gegenüber rein
textbasierten Dateiformaten wie CSV hat XES den großen Vorteil, dass die
serialisierten Ereignisprotokolle sehr wenige Informationsverluste aufwei-
sen. Alle Informationselemente im Format sind stark typisiert, wodurch eine
maschinelle semantische Interpretation und Verarbeitung ermöglicht wird.
Zusätzlich bleiben die erzeugten Dateien menscheninterpretierbar und ein-
fach verständlich.
4.4 Process Mining Lifecycle
4.4.1 Überblick
Analog zu den Aktivitäten des Geschäftsprozessmanagements lassen sich
auch die unterschiedlichen Phasen im Rahmen von Process-Mining-Projek-
ten entlang eines geschlossenen Lebenszyklus ausrichten. Abbildung 21
zeigt das Zusammenspiel zwischen der Modellierung von Prozessen, deren
Abbildung in betrieblichen Software-Systemen und der Erzeugung von Ereig-
nislogs, welche die Eingabe für Process Mining darstellen.
Prozessdigitalisierung
51
Abbildung 21: Überblick Process Mining Lifecycle
Wie bereits erwähnt, können Modelle von Geschäftsprozessen als Vor- und
Nachbild der Realität dienen und werden in abstrakter Form, d. h. ohne Be-
zug zu einzelnen konkreten Prozessabläufen oder Personen, definiert. Man
spricht an dieser Stelle – als Abgrenzung zu konkreten Prozessinstanzen und
deren Daten (sog. Instanzebene) – von der Typebene der Modelle. Diese Soll-
Prozessmodelle definieren gewünschte Prozessabläufe und dienen zur Ge-
staltung von betrieblichen Software-Systemen, welche diese Abläufe tech-
nisch unterstützen (vgl. Implementierungsphase im BPM-Lebenszyklus, in
Abschnitt 2.1.2). Die bei der Ausführung von Prozessen innerhalb der Sys-
teme entstehenden Ereignisse werden als Prozessinstanzdaten aufgezeich-
net und in strukturierter Form abgelegt. Auf der Grundlage dieser Daten
können anschließend verschiedene Methoden des Process Mining ange-
wendet werden: Das Discovery dient der Entdeckung von Prozessstrukturen
aus historischen Instanzdaten, mittels Conformance Checking wird ein Ab-
gleich zwischen modellierten Soll- und tatsächlich ablaufenden Ist-Prozessen
ermöglicht und im Rahmen des Enhancement kommt es schließlich zu einer
Verbesserung von Prozessmodellen auf Basis der Ergebnisse aus den zuvor
durchgeführten Analysen. In den folgenden Abschnitten werden diese drei
Techniken detaillierter vorgestellt.
4.4.2 Process Discovery
4.4.2.1 Problemstellung und Motivation
Die „Entdeckung“ von Prozessen aus historischen Ausführungsdaten eines
Ereignislogs wird im englischen Sprachgebrauch als Process Discovery be-
zeichnet und stellt eine der anspruchsvollsten Aufgaben innerhalb des Pro-
cess Mining dar. Sie bezeichnet die Konstruktion eines Prozessmodells durch
die Anwendung von Algorithmen, um einen Einblick in die Struktur des Pro-
zesses zu erlangen. Insbesondere findet die Methode Einsatz bei Prozessen,
bei denen keine Definition oder Beschreibung vorliegt.X
___ ____ ___
__ ____ ___
___ ____ ___
__ ____ ___
__________
_________
__________
_________
__________
_________
__________
_________
___ ____ ___
__ ____ ___
___ ____ ___
__ ____ ___
__________
_________
__________
_________
__________
_________
__________
_________
Discovery
Conformance
Enhancement
Prozessinstanzdaten Prozessmodelle
Betriebliche
Software
Gestaltung
Aufzeichnen
von Ereignissen
Typebene
Instanzenebene
Process Mining
Prozessdigitalisierung
52
Mittels Process Discovery werden aus den historischen Ausführungsdaten
eines Ereignislogs die Abläufe und Strukturen (= der Kontrollfluss) eines
Prozesses rekonstruiert. Diese Methode dient insbesondere der „Entde-
ckung“ von Unternehmensprozessen, ohne dass hierfür weitere Informati-
onen oder Vorwissen über vorhandene Prozesse notwendig sind. Auf diese
Weise wird eine objektive, schnelle und präzise Darstellung von tatsächlich
ablaufenden Ist-Prozessen auf Grundlage von Daten ermöglicht. Zur For-
malisierung des Problems sei auf Van der Aalst (2016, S. 163) verwiesen.
In Abbildung 22 sind zwei Visualisierungen in unterschiedlichen Modellie-
rungskonventionen als Ergebnis von Process-Discovery-Verfahren darge-
stellt. Der linke Teil der Abbildung zeigt die Ausgabe des Alpha Miners (vgl.
Abschnitt 4.4.2.2) als Petri-Netz, die mithilfe des Software-Pakets PM4PY er-
zeugt wurde, während der rechte Teil die Darstellung einer Process Map be-
inhaltet, die unter Verwendung der R-Bibliothek bupaR erstellt wurde.
Abbildung 22: Mittels Process Discovery erzeugte Prozessmodelle als Petri-Netz (links) und als
Process Map (rechts)
(Quelle: PM4PY, 2019; Janssenswillen, 2017)
Die folgenden Absätze gehen auf Details der Darstellungen ein und diskutie-
ren einige essentielle Charakteristiken und Anforderungen, die einen maß-
geblichen Einfluss auf das Ergebnis von Process-Discovery-Analysen haben.
• Zur Konstruktion von Prozessstrukturen aus Instanzdaten existieren
verschiedene algorithmische Ansätze, die sich je nach Art der Pro-
zesse (Anzahl der Aktivitäten) sowie Größe und Beschaffenheit des
Logs (Anzahl der Prozessinstanzen, Strukturinformationen) für ein
Discovery eignen. Die beiden prominentesten Vertreter dieser soge-
nannten Mining-Algorithmen – der Alpha Miner sowie der Heuristics
Miner – werden in den folgenden Abschnitten vorgestellt.
• Die verschiedenen Algorithmen unterscheiden sich neben dem Vor-
gehen zur Modellrekonstruktion auch in der Art der ausgegebenen
Modellnotation. Die Ausgabe des Alpha Miner ist ein Stellen-Transi-
tionen-Petri-Netz (engl. place/transition [PT] net). Diese Notation be-
sitzt eine genaue mathematische Definition ihrer Ausführungsse-
mantik und ermöglicht eine Prozessanalyse auf Basis etablierter
Prozessdigitalisierung
53
mathematischer Theorie. Im Ergebnis sind die erzeugten Prozessmo-
delle semantisch sehr ausdrucksstark und erfassen z. B. Parallelität
und Exklusivität von Aktivitäten. Im Gegenzug sind sie aber häufig
sehr komplex und schwer verständlich.
Exkurs: Modelldarstellung in gängigen Process-Mining-Anwendungen
In der Praxis finden häufig sogenannte Process Maps Anwendung, da sie
leicht verständlich sind und sich bezüglich der Komplexität nach verschie-
denen Kriterien sehr schnell einschränken lassen (vgl. auch Abbildung 15).
Beispielsweise kann über die beiden Parameter „Pfade“ und „Aktivitäten“
die jeweilige Anzahl der im Modell enthaltenen Kantenbeziehungen und
Prozessaktivitäten quantitativ beschränkt werden. Auf diese Weise kön-
nen etwa nur diejenigen Aktivitäten ins Modell aufgenommen werden, die
in mindestens 70% aller Prozesse auftauchen oder die 10% der häufigsten
Pfade. Damit ist diese Darstellung besonders für explorative Analysen ge-
eignet und kann zur Erkundung der Prozesse eingesetzt werden.
Ein wichtiger Unterschied zu den angesprochenen PT nets, die von Algo-
rithmen wie dem Alpha Miner erzeugt werden, ist die im Vergleich sehr
eingeschränkte Erfassung der Modellsemantik. Üblicherweise beschrän-
ken sich Process Maps auf die reine Darstellung von Vorgänger-Nachfol-
ger-Beziehungen im Prozessablauf. In der Folge kann aus der Darstellung
ohne weitere Zusatzinformationen nicht mehr abgeleitet werden, ob sich
zwei Aktivitäten beispielsweise ausschließen und innerhalb einer konkre-
ten Prozessinstanz nie gleichzeitig enthalten sein können.
• Neben einem Gesamtüberblick über die Prozessabläufe in Form ei-
nes Prozessmodells erlaubt Process Discovery auch die gezielte Ana-
lyse von einzelnen Prozessvarianten. Eine Variante fasst alle Pro-
zessabläufe zusammen, welche die gleichen Aktivitäten in der iden-
tischen Reihenfolge aufweisen. Hierdurch sind alle Möglichkeiten,
wie die analysierten Prozesse in der Vergangenheit durchlaufen wur-
den, detailliert ersichtlich und können hinsichtlich verschiedener Kri-
terien (z. B. Performance, Anzahl an notwendigen Wiederholungen
einzelner Aktivitäten, Fehler im Prozessablauf) miteinander vergli-
chen werden.
• Ein wichtiges Qualitätsmaß, um zu beurteilen, wie „gut“ ein aus In-
stanzdaten rekonstruiertes Prozessmodell ist, ist die Repräsentativi-
tät, die das Modell für das Prozessverhalten im Ereignislog hat. Hier-
bei geht es um die Frage, wie gut das Modell alle möglichen Verhal-
tensweisen erklären kann, ohne im Umkehrschluss zu viel Verhalten
zuzulassen. Dieses Problem ist mit dem Konzept von „Overfitting“
und „Underfitting“ aus dem Bereich Machine Learning vergleichbar
(siehe Abschnitt 3.4). Die Qualität eines durch die Anwendung von
Process Discovery entstandenen Prozessmodells kann als Trade-off
zwischen den folgenden vier Kriterien verstanden werden (vgl. Van
der Aalst, 2016, S. 166):
Prozessdigitalisierung
54
o Fitness: Das erstellte Modell sollte in der Lage sein, das im Er-
eignislog enthaltene Verhalten zu erklären.
o Precision: Das erstellte Modell sollte kein Verhalten zulassen,
das in keinem Zusammenhang mit dem im Ereignislog zu be-
obachtenden Verhalten steht.
o Generalization: Das erstellte Modell sollte generell gut genug
sein, um vom Beispielverhalten des Ereignislogs zu abstrahie-
ren.
o Simplicity: Das erstellte Modell sollte so einfach wie möglich
gestaltet sein.
Es ist offensichtlich, dass eine Verbesserung eines Kriteriums zwangsläufig
zu einer Verschlechterung eines anderen Kriteriums führt. Beispielsweise ist
ein präzises Modell in der Lage, das Verhalten des Ereignislogs sehr gut wie-
derzugeben, ist auf der anderen Seite aber so restriktiv, dass es nicht mehr
generalisierbar ist. Die Gewichtung der jeweiligen Kriterien hängt auch stark
von der Zielsetzung bei der Untersuchung ab und kann je nach Erkenntnisin-
teresse variieren.
In den beiden folgenden Abschnitten werden zwei unterschiedliche Algorith-
men zur Process Discovery vorgestellt und im Hinblick auf verschiedene Ein-
satzzwecke kritisch beleuchtet.
4.4.2.2 Alpha Miner
Der Alpha-Algorithmus gilt als einer der ersten Process-Discovery-Ansätze
zur Bestimmung eines Prozessmodells, welches die Ausführungssemantik
des Ereignislogs, insbesondere Parallelität von Aktivitäten, angemessen be-
rücksichtigt. Er verwendet einen eher naiven, aber einfach zu verstehenden
Ansatz, um Prozessmodelle aus Ereignislogs zu erstellen (Van der Aalst et al.,
2004). Das Ergebnis des Alpha Miner besteht aus:
1) Einem Petri-Netz-Modell, bei dem alle Übergänge sichtbar und ein-
deutig sind und den Aktivitäten des Ereignislogs entsprechen.
2) Einer ersten Markierung, die den Status des Petri-Netz-Modells be-
schreibt, wenn eine Ausführung beginnt.
3) Einer abschließenden Markierung, die den Status des Petri-Netz-
Modells beschreibt, wenn eine Ausführung endet.
Die Punkte 2 und 3 bilden zusammengenommen die Ausführungssemantik
des Modells ab, was ein wesentliches Element der Petri-Netz-Darstellung ist.
Vorgehensweise: Der Algorithmus erwartet als Eingabe ein Ereignislog L,
dessen Elemente (die Aktivitäten des Prozesses) als Menge A bezeichnet
werden. Damit bezeichnet a ∈ A eine einzelne Aktivität aus dem Ereignislog.
Prozessdigitalisierung
55
Der Algorithmus durchläuft das Ereignislog L und sucht nach bestimmten
Mustern, um Regeln zur Reihenfolge von Aktivitäten zu bestimmen. Tritt
Aktivität a beispielsweise nie nach Aktivität b auf, so kann eine kausale Ab-
hängigkeit zwischen a und b angenommen werden. Insgesamt werden vier
verschiedene Muster für Reihenfolgen definiert:
• a > b, genau dann, wenn eine Prozessvariante in L existiert, in der b
unmittelbar auf a folgt.
• a → b, genau dann, wenn a > b und b ≯ a, d. h., es existiert eine Pro-
zessvariante in L, in der b unmittelbar auf a folgt, aber a folgt nie-
mals unmittelbar auf b.
• a # b, genau dann, wenn a ≯ b und b ≯ a, d. h., es existiert keine Pro-
zessvariante in L, in der a und b unmittelbare Vorgänger oder Nach-
folger voneinander sind.
• a ∥ b, genau dann, wenn, a > b und b > a, d. h., es existieren jeweils
Prozessvarianten in L, in denen a unmittelbarer Vorgänger von b ist
und umgekehrt.
Die vier genannten Muster werden für alle Paarkombinationen von Aktivitä-
ten in L geprüft. Abbildung 23 zeigt beispielhaft, wie eine solche abgeleitete
Regelkonstruktion – die Abhängigkeitsmatrix der Prozessaktivitäten – für
ein Ereignislog mit den fünf Aktivitäten a, b, c, d und e aussehen kann. Diese
Darstellung wird auch als Fußabdruck (engl. footprint) eines Ereignislogs be-
zeichnet.
a b c d e
a # → → # →
b # ∥ → #
c ∥ # → #
d # #
e # # → #
Abbildung 23: Beispiel einer durch den Alpha Miner erzeugten Abhängigkeitsmatrix der
Prozessaktivitäten
Die abgeleiteten Informationen des Fußabdrucks können zur Bestimmung
von Prozessmustern für die Petri-Netz-Darstellung verwendet werden (vgl.
Abbildung 24). Diese werden anschließend zu größeren Konstrukten zusam-
mengeführt, sodass iterativ das gesamte Prozessmodell auf der Basis kleine-
rer Prozessmuster entsteht.
Prozessdigitalisierung
56
Abbildung 24: Beispiele für Prozessmuster auf Basis von Fußabdrücken
(in Anlehnung an Van der Aalst, 2016, S. 169)
Im letzten Schritt des Algorithmus werden die initiale und die abschließende
Markierung des Petri-Netzes ermittelt. Auf diese Weise werden konsistente
Zustände des Modells bestimmt, um die Ausführungssemantik korrekt ange-
ben zu können. Da die konkrete Bestimmung der Markierungen eher akade-
mische Relevanz besitzt, sei an dieser Stelle für die formale Herleitung auf
Van der Aalst (2016, S. 171ff.) verwiesen.
Einschränkungen und praktische Relevanz: Beim praktischen Einsatz des Al-
pha Miner sind einige Besonderheiten und Limitationen zu beachten, die
wichtig für die Interpretation der erzeugten Modelle sind. Bereits ab einer
mittleren Anzahl an Aktivitäten und einer mittleren Anzahl unterschiedlicher
Prozessvarianten werden die vom Algorithmus erzeugten Modelle bereits
sehr komplex. Dies ist darin begründet, dass jede Verbindung zwischen zwei
Aktivitäten im Prozess Teil des erstellten Modells wird, unabhängig davon,
wie oft sie tatsächlich ausgeführt wird. Häufiges und sehr seltenes Prozess-
verhalten (sog. Rauschen) sind in der Folge nicht zu unterscheiden und er-
schweren eine visuelle Analyse aufgrund der hohen Anzahl an Pfaden.
Zudem eignet sich die verwendete Petri-Netz-Notation nur bedingt für kom-
plexe Prozessstrukturen mit Verzweigungen und Schleifen. Strukturell be-
dingt kann der Algorithmus zudem nicht mit Schleifen der Länge 2 umgehen,
wohingegen Schleifen größerer Länge, d. h. über mindestens drei Aktivitäten
im Zyklus, keine Probleme verursachen. Zur Adressierung des Problems von
Schleifen der Länge 2 existiert mit dem Alpha+-Algorithmus eine Alternative,
die eine Vor- und eine Nachbereitungsphase zur Anpassung der Schleifen-
strukturen vornimmt.
Der Alpha Miner bietet den Vorteil, dass die erzeugten Prozessmodelle ei-
ner klaren Ausführungssemantik folgen und durch die verwendete Petri-
Netz-Notation den Ansprüchen einer formalen Überprüfbarkeit genügen.
Als Nachteile zu nennen sind insbesondere die hohe Komplexität und die
mangelnde Übersichtlichkeit, welche bereits bei mittlerer Anzahl an Akti-
vitäten und Prozessvarianten im Ereignislog eintreten.a b
a
b
c
XOR-Split: a → b, a → c und b # c
Vorgänger/Nachfolger: a → b
Prozessdigitalisierung
57
4.4.2.3 Heuristics Miner
Der Heuristics Miner (vgl. Weijters et al., 2006) stellt eine Weiterentwicklung
und Verbesserung des Alpha-Miner-Algorithmus dar und versucht insbeson-
dere, dem Problem der hohen Komplexität der erzeugten Modelle zu begeg-
nen. Hierzu werden einige grundsätzliche Erweiterungen vorgenommen und
auf Basis des Ereignislogs weitere Eigenschaften bestimmt, welche zur Prio-
risierung von spezifischen Prozessstrukturen verwendet werden können.
Gegenüber dem Alpha Miner sind insbesondere die folgenden Aspekte her-
vorzuheben (vgl. FutureLearn, 2019):
• Explizite Berücksichtigung der Häufigkeiten von Prozesspfaden: Im
Gegensatz zum Alpha Miner bietet der Heuristics Miner die Möglich-
keit, nur Prozesspfade ab einer bestimmten Auftretenshäufigkeit im
Prozessmodell zu berücksichtigen. Prozesspfade sind dabei definiert
als die Beziehung zwischen zwei Aktivitäten, z. B. könnten seltene
Abläufe (engl. infrequent behavior) herausgefiltert werden, um einen
klareren Blick auf die häufigsten Prozessabläufe zu erhalten. Ebenso
können auch gerade seltene Prozessabläufe gezielt untersucht wer-
den, da in der Praxis häufig seltene Abweichungen vom Standardver-
halten als anomal gelten können.
• Erkennung von kurzen Schleifen: Eine Problematik des Alpha Miner
liegt in dessen Unfähigkeit, Prozessschleifen der Länge 2 zu erkennen
und korrekt im Modell aufzunehmen. Durch diverse Schritte im Rah-
men der Datenaufbereitung des Ereignislogs wird dieser Aspekt
durch den Heuristics Miner behoben.
• Erkennung von übersprungenen Aktivitäten: Eine weitere Beson-
derheit liegt in der Möglichkeit, übersprungene bzw. ausgelassene
Aktivitäten in einzelnen Fällen des Ereignislogs zu identifizieren und
zu berücksichtigen.
Im Gegensatz zum Alpha Miner ergibt sich aufgrund der drei dargestellten
Eigenschaften die abweichende Situation, dass die erstellten Modelle nicht
zwangsläufig den formalen Anforderungen der Petri-Netz-Modellierungs-
konvention genügen. Man spricht auch davon, dass die Soundness-Eigen-
schaft des Modells verletzt ist, was insbesondere bei der Untersuchung der
Ausführungssemantik des Modells einige Einschränkungen mit sich bringt.
Mit Blick auf den praktischen Einsatz des Algorithmus ist die Einschränkung
aber in den meisten Fällen nicht relevant. Zum einen besitzt die formale Kor-
rektheit der Petri-Netz-Notation aufgrund der damit einhergehenden Kom-
plexität der Modellierungskonvention ohnehin eher einen akademischen
Wert als praktische Relevanz. Zum anderen steht im Vordergrund der meis-
ten Process-Discovery-Vorhaben insbesondere die Entdeckung von Modell-
strukturen und gelegten Ist-Prozessen; diese Anforderung kann durch den
Algorithmus ohne Einschränkungen bedient werden.
Prozessdigitalisierung
58
Vorgehensweise: Wie der Alpha Miner erwartet der Algorithmus als Eingabe
ein Ereignislog L, dessen Elemente (die Aktivitäten des Prozesses) als Menge
A bezeichnet werden. Damit bezeichnet a ∈ A eine einzelne Aktivität aus
dem Ereignislog.
Ebenfalls analog zum Alpha-Miner-Algorithmus wird das Ereignislog L nach
Mustern durchsucht, um Regeln zur Reihenfolge von Aktivitäten zu bestim-
men. Hierbei wird allerdings ausschließlich die unmittelbare Vorgänger-
/Nachfolger-Beziehung gemäß
• a > b, genau dann, wenn eine Prozessvariante in L existiert, in der b
unmittelbar auf a folgt,
betrachtet. Weiterhin erfolgt die Erstellung der Abhängigkeitsmatrix unter
Berücksichtigung der Häufigkeiten von Aktivitäten. Abbildung 25 zeigt die
Abhängigkeitsmatrix zu einem Ereignislog L, welches die folgenden fünf Pro-
zessinstanzen (Traces) beinhaltet:
Ereignislog L
# Traces Anzahl in L
1
2
3
4
5
<a,b,c,d,e,g>
<a,b,c,d,f,g>
<a,c,d,b,f,g>
<a,b,d,c,e,g>
<a,d,c,b,f,g>
6
38
2
12
4
Jeder Trace in L wird durch den Algorithmus nicht nur darauf hin untersucht,
ob zwei Aktivitäten in einer unmittelbaren Vorgänger-/Nachfolger-Bezie-
hung stehen, sondern es wird zusätzlich die Anzahl mit einbezogen, mit der
ein Trace in L insgesamt auftritt. Am Beispiel des Ereignislogs L in obiger Dar-
stellung tritt der erste Trace <a,b,c,d,e,g> beispielsweise insgesamt sechs-
mal auf, der zweite Trace 38-mal usw. Zur Bestimmung der Werte in der Ab-
hängigkeitsmatrix werden nun alle Abfolgen von Aktivitäten und die Häufig-
keiten der Traces mit den Mustern multipliziert. Betrachten wir z. B. die Be-
ziehung a > b, so zeigt sich, dass a als unmittelbarer Vorgänger von b insge-
samt 56-mal auftritt (6-mal im ersten Trace, 38-mal im zweiten Trace und
12-mal im vierten Trace).
> a b c d e f g
a 56 2 4
b 44 12 6
c 4 46 12
d 2 4 18 38
e 18
f 44
g
Abbildung 25: Beispiel einer durch den Heuristics Miner erzeugten Abhängigkeitsmatrix der Prozess-
aktivitäten zum Ereignislog L
Abschließend wird die erstellte Abhängigkeitsmatrix auf Basis der Häufigkei-
ten erweitert, um die Signifikanz einer Beziehung zu bestimmen. Hierzu wird
Prozessdigitalisierung
59
die folgende Formel verwendet, um die Signifikanz der Vorgänger-/Nachfol-
ger-Beziehung a > b zu berechnen:
𝑆𝑖𝑔𝑛𝑖𝑓𝑖𝑘𝑎𝑛𝑧 (𝑎 > 𝑏) = |𝑎 > 𝑏| − |𝑏 > 𝑎|
|𝑎 > 𝑏| + |𝑏 > 𝑎| + 1
Durch die Formel wird das Verhältnis der betragsmäßigen Abweichung zwi-
schen den Beziehungen a > b und b > a bestimmt. Kommen beide Beziehun-
gen gleich häufig vor, so ist die Signifikanz gleich 0, je größer die Abwei-
chung, desto größer (mehr Signifikanz) bzw. kleiner (weniger Signifikanz)
werden die Werte. Für das Beispiel a > b ergibt sich nach der Formel folgende
Berechnung:
56 − 0
56 + 0 + 1 = 56
57 = 0,98
Abbildung 26 zeigt die gesamten Werte auf Basis der Abhängigkeitsmatrix
aus Abbildung 25.
> a b c d e f g
a 0,98 0,67 0,80
b -0,98 0,82 067 0,86
c -0,67 -0,82 0,90 0,92
d -0,80 -0,67 -0,90 0,95 0,97
e -0,92 -0,95 0,95
f -0,86 - 0,97 0,98
g -0,95 -0,98
Abbildung 26: Beispiel einer durch den Heuristics Miner erzeugten Abhängigkeitsmatrix der Prozess-
aktivitäten zum Ereignislog L
Wie erwähnt, deutet ein hoher Signifikanzwert stark darauf hin, dass es eine
Abhängigkeitsbeziehung zwischen Aktivität a und b gibt. Welcher Schwel-
lenwert aber ist geeignet, um „hohe“ von „niedrigen“ Werten zu unterschei-
den? Ein zu hoher Schwellenwert abstrahiert von Prozessstrukturen, die nur
selten im Ereignislog auftreten. Umgekehrt lässt ein zu niedriger Schwellen-
wert viele Strukturen zu, die nur sehr selten auftreten – und von diesen
Strukturen kann es sehr viele geben. Viele Prozesse folgen einer Long-Tail-
Verteilung, das bedeutet, dass ein großer Teil der Gesamtanzahl der Pro-
zesse bestimmte Strukturen aufweist, die und viele Prozesse darüber hinaus
sehr viele verschiedene unterschiedliche, wenig verbreitete Strukturen. Für
die Bestimmung des Schwellenwerts bedeutet dies, dass ein niedriger Wert
häufig unmittelbar zu einem wesentlich komplexeren Prozessmodell führt.
Praktische Relevanz: Aufgrund der einfachen Konfigurierbarkeit des Dis-
covery-Ergebnisses eignet sich der Heuristics Miner in der Praxis deutlich
besser zur explorativen Analyse von Ereignislogs als der zuvor diskutierte Al-
pha Miner. Maßgeblich dafür verantwortlich sind zwei Aspekte:
1) Durch die im Algorithmus verankerte Berücksichtigung von Schwel-
lenwerten bei der Entscheidung, ob bestimmte Prozessstrukturen in
das entdeckte Modell aufgenommen werden sollen oder nicht, lässt
sich schnell zwischen verschiedenen Abstraktionsebenen in der
Prozessdigitalisierung
60
Prozessvisualisierung wechseln. Viele am Markt verfügbare Process-
Mining-Lösungen bieten für den Bereich Process Discovery die Funk-
tionalität, den Schwellenwert für die Signifikanz von Aktivitäten und
Verbindungen zwischen Aktivitäten (Pfade) über Schieberegler dyna-
misch anzupassen. Damit wird in einer explorativen Analyse bei-
spielsweise möglich, zu anfangs einen hohen Schwellwert zu wählen,
um mit einem sehr einfachen Modell zu starten. Durch sukzessives
Absenken des Schwellenwerts können mehr und mehr Prozessstruk-
turen in das Modell aufgenommen und die Komplexität damit
schrittweise erhöht werden. Auf diese Weise kann der Grobüberblick
über den grundsätzlichen Prozessablauf verfeinert und um seltene,
abweichende Prozessvarianten ergänzt werden.
2) Die subjektive Festlegung von Schwellenwerten führt dazu, dass die
strengen formalen Kriterien für die Prozessdarstellung in der Petri-
Netz-Notation nicht mehr garantiert werden können. Dies hat zur
Folge, dass für die Visualisierung von Prozessstrukturen als Ergebnis
des Heuristics Miner alternative Notationen entwickelt wurden. Zu
nennen sind hier beispielsweise Heuristic Nets, welche optisch stär-
ker an visuell eingängigere Notationen wie EPK oder BPMN ange-
lehnt sind. Dies erleichtert in der Praxis die Interpretierbarkeit der
Ergebnisse und erhöht durch die fehlenden Transitionselemente die
Übersichtlichkeit.
Der Heuristics Miner erzeugt auf der Basis eines Ereignislogs eine gewich-
tete Repräsentation von Vorgänger-/Nachfolger-Beziehungen für Prozess-
aktivitäten und erlaubt damit eine bedarfsbezogene Analyse von Abläufen.
Durch die Festlegung unterschiedlicher Schwellenwerte wird es ermög-
licht, Prozessstrukturen überblicksartig zu erfassen, indem von seltenem
Verhalten abstrahiert wird. Genauso ist aber eine Konzentration auf selten
auftretende Prozessstrukturen möglich, was beispielsweise eine Analyse
von anomalem Verhalten erlaubt.
4.4.3 Process Conformance Checking
4.4.3.1 Problemstellung und Motivation
Der automatisierte Abgleich von Prozessinstanzdaten eines Ereignislogs mit
zuvor modellierten Soll-Prozessen wird als Process Conformance Checking
bezeichnet. Diese Methode stellt im Process Mining Lifecycle (vgl. Abbildung
21) die zweite Phase dar und erfolgt meistens im Anschluss an ein Process
Discovery, nachdem ein grundlegender Überblick über das Prozessverhalten
innerhalb des Ereignislogs vorliegt.
Process Conformance Checking verfolgt das Ziel, ein existierendes Soll-Pro-
zessmodell mit den Instanzdaten eines Ereignislogs des gleichen Prozesses
zu vergleichen. Durch den Vergleich sollen insbesondere
Prozessdigitalisierung
61
Gemeinsamkeiten und Unterschiede zwischen Ereignislog und Soll-Modell
identifiziert werden. Hierdurch soll überprüft werden, ob das im Soll-Pro-
zess intendierte Verhalten tatsächlich mit der Realität übereinstimmt und
umgekehrt. Beispielsweise kann auf diese Weise festgestellt werden, ob
alle notwendigen Aktivitäten innerhalb eines Prozesses ausgeführt werden
und ob regulatorisch vorgeschriebene Prüfungen (z. B. Vier-Augen-Prinzip)
eingehalten werden. Dies erlaubt es, potentielle Verstöße und Regelver-
letzungen automatisiert zu identifizieren.
Eine notwendige Voraussetzung, um Process Conformance Checking durch-
zuführen, ist die Existenz von Prozessmodellen in einem Format, das algo-
rithmisch verarbeitet werden kann. Die Herkunft der Modelle kann unter-
schiedlich sein und beispielsweise manuell von einem Prozessexperten mo-
delliert worden sein. Ebenso ist auch denkbar, dass das Modell als Ergebnis
eines Process-Discovery-Algorithmus automatisch erzeugt wurde. Wichtig
ist hierbei allerdings, dass die Qualität des Soll-Modells als gesichert ange-
sehen werden kann und eine Art „Goldstandard“ darstellt, der als richtiges
Verhalten gilt. Keinen Sinn ergibt es hingegen, ein Modell auf der Basis eines
Ereignislogs automatisiert zu erzeugen und anschließend mittels Confor-
mance Checking gegen dieses Ereignislog zu testen. Da beide Eingaben (Mo-
dell und Ereignislog) auf den gleichen Eingabedaten (den Prozessinstanzda-
ten) basieren, wird es immer zu einer vollen Übereinstimmung zwischen bei-
den Datenquellen kommen.
Conformance Checking wird vor allem verwendet, um ungewünschte, fach-
liche Abweichungen von einem gewünschten Prozessverhalten zu identifi-
zieren (man spricht davon, dass das Soll-Modell „normativen Charakter“ be-
sitzt). Diese Einschränkung ist insbesondere deshalb wichtig, da eine Abwei-
chung von einem im Soll-Prozess definierten Verhalten nicht zwangsläufig
eine fachliche Regelverletzung oder unerwünschtes Verhalten darstellen
muss. Manche Abweichungen mögen im Soll-Prozess anders oder überhaupt
nicht definiert sein, fachlich aber nicht zu beanstanden sein (das Modell hat
dann vor allem „deskriptiven Charakter“). Damit wird gleichzeitig auch eine
wichtige Anforderung an die zum Conformance Checking verwendeten Soll-
Prozessmodelle gestellt: Diese müssen fachlich wichtige Prozessstrukturen
und Regelstrukturen semantisch vollumfänglich abbilden (d. h. in Bezug auf
notwendige Aktivitäten, deren Reihenfolge etc.).
Nicht zwangsweise notwendig ist hingegen, dass jedes mögliche Prozessver-
halten im Modell abgebildet ist. Gerade wenn keine detailliert modellierten
Prozesse vorliegen, sondern beispielsweise nur eine schriftliche Dokumen-
tation, kann die Erstellung geeigneter Soll-Modelle einen erheblichen Auf-
wand darstellen. Dem wird durch die Einschränkung auf fachlich unbedingt
notwendige Entscheidungsstrukturen als Mindestanforderung Rechnung ge-
tragen. Wichtig zu betonen ist an dieser Stelle, dass auch tolerierte Abwei-
chungen transparent und für alle Prozessbeteiligten nachvollziehbar sein
sollten, sodass Conformance Checking ein wichtiges Mittel zur Unterstüt-
zung der Kommunikation unter den Prozessbeteiligten darstellen kann.
Prozessdigitalisierung
62
Abbildung 27: Übersicht Process Conformance Checking
(in Anlehnung an Van der Aalst, 2016, S. 244)
Abbildung 27 zeigt die Beziehung zwischen Spuren innerhalb der Ereignislogs
(unterer Teil der Grafik) und den entsprechenden Teilen innerhalb des Soll-
Prozessmodells (oberer Teil der Grafik). Die Conformance-Analyse führt zu
zwei unterschiedlichen Erkenntnissen:
• Lokale Erkenntnisse, z. B. dass eine Aktivität laut Instanzdaten mehr-
fach ausgeführt wurde, obwohl dies laut Soll-Modell kein korrektes
Verhalten darstellt,
• Globale Erkenntnisse, z. B. dass insgesamt 95% der im Ereignislog
enthaltenen Prozessinstanzen einem laut Soll-Modell korrekten Pro-
zessverhalten entsprechen.
Die Interpretation von lokalen und globalen Erkenntnissen aus der Confor-
mance-Analyse hängt, wie beschrieben, von der fachlichen Bedeutung der
Abweichung ab. Nachfolgend werden drei zentrale Einsatzzwecke von Pro-
cess Conformance Checking thematisiert (vgl. Van der Aalst, 2016, S. 244ff.),
bevor in den nächsten beiden Abschnitten zwei konkrete Ansätze zur Con-
formance-Analyse vorgestellt werden.
Als Teil von GRC-Initiativen (Governance, Risk, Compliance) gewinnt die
nachweisliche Einhaltung von regulatorischen Vorgaben in einer Vielzahl an
Branchen an Bedeutung. Hierzu zählen beispielsweise internationale Stan-
dards wie die allgemeine Familie der ISO-9000-Standards oder branchenspe-
zifische Regulatorien wie das deutsche Bilanzmodernisierungsgesetz (Bil-
MoG) oder die europäischen finanzregulatorischen Vorgaben zu Basel III und
MiFID. Die Sicherstellung von Process Conformance kann als Instrument zum
Nachweis der Einhaltung bestimmter Vorgaben und Kontrollen eingesetzt
werden und ermöglicht – falls es auf der Ebene von Instanzdaten implemen-
tiert wird – einen lückenlosen Nachweis von einzelnen Prozessen.X
X
X
X
X
X
X
Prozessdigitalisierung
63
Der regelmäßige Einsatz von Process Conformance Checking kann auch dazu
beitragen, dass Geschäftsprozesse und deren Implementierung innerhalb
von Anwendungssystemen weniger stark auseinanderdriften (engl. Business
Alignment). In der Praxis werden zur Abbildung bestimmter Prozesse häufig
Standard-Software-Systeme wie beispielsweise SAP ERP eingesetzt, welche
nicht immer perfekt an die Besonderheiten eines Unternehmens angepasst
werden können. Stattdessen werden als best practices bezeichnete Stan-
dardverfahren implementiert, welche unter Umständen den spezifischen
Besonderheiten bestimmter Branchen nicht gerecht werden können.
Der allgemeinere Begriff Auditing bezeichnet darüber hinaus die Prüfung
und Evaluation der Prozesspraktiken eines Unternehmens, um sicherzustel-
len, dass externe und interne Vorgaben erfüllt werden. Heutzutage erfolgt
die Durchführung externer Audits meist auf Basis der Dokumentationen von
Prozessbeschreibungen und ggf. stichprobenartigen Tests einer kleinen Teil-
menge von Prozessausführungen. Process Conformance Checking stellt Au-
ditoren ein mächtiges Instrument bereit, um die Auditierung schneller, um-
fassender und effizienter durchzuführen.
4.4.3.2 Token Replay
Das Konzept des Token Replay basiert auf der formalen Definition der Petri-
Netz-Notation und kann beispielsweise auf die Ergebnisse der Ausführung
des Alpha Miner angewendet werden. Es basiert auf einer Erweiterung der
Definition des Fitness-Kriteriums (vgl. Abschnitt 4.4.2.1) und erweitert dieses
um eine explizite Berücksichtigung von im Netz vorhandenen und fehlenden
Token (vgl. Van der Aalst, 2016, S. 246ff.). Die Fitness als Maß dafür, welcher
Anteil des im Ereignislog vorhandenen Verhaltens durch ein Modell erklärt
werden kann, ist am stärksten mit dem Konzept der Process Conformance
verwandt. Das folgende Beispiel illustriert, warum Fitness für sich alleine
aber nicht ausreichend ist, um das Maß der Conformance zu bestimmen.
Hierzu greifen wir das in Abschnitt 4.4.2.3 vorgestellte Ereignislog L wieder
auf.
Prozessdigitalisierung
64
Ereignislog L
# Traces Anzahl in L
1
2
3
4
5
<a,b,c,d,e,g>
<a,b,c,d,f,g>
<a,c,d,b,f,g>
<a,b,d,c,e,g>
<a,d,c,b,f,g>
6
38
2
12
4
62
Nehmen wir an, dass die Conformance von Ereignislog L gegenüber drei ver-
schiedenen Prozessmodellen M1, M2 und M3 überprüft werden soll. Zur Be-
rechnung der Fitness wird nun die Anzahl der Traces betrachtet, die durch
die jeweiligen Modelle abgebildet werden können. Nehmen wir nun weiter
an, dass durch M1 alle Traces aus L, durch M2 die Traces 1, 2, 3 und 5 und
durch M3 die Traces 2, 4 und 5 erklärt werden können, dann ergeben sich
die folgenden Fitness-Werte:
𝑀1 = 62
62 = 1 𝑀2 = 50
62 = 0,806 𝑀3 = 54
62 = 0,871
Das Problem dieser Berechnung liegt darin, dass nur die exakte Reproduk-
tion eines Trace dazu führt, dass diese positiv in das Maß der Conformance
einfließt. Beispielsweise kann das Modell M2 nicht Trace 4 erklären; Trace 4
enthält aber die Teilsequenzen <a,b> und <e,g>, welche aber auch Teil von
Trace 1 sind, die von M2 erklärt wird.
In das Maß der Fitness fließen also Teilübereinstimmungen nicht mit ein,
was vor dem Hintergrund des eigentlichen Zwecks dieser Metrik auch kein
Problem ist. Für den hier betrachteten Fall der Process Conformance ist sie
aber zu restriktiv und widerspricht der Intuition: Ein Modell, welches 99 von
100 Aktivitäten eines Trace erklären kann, sollte durch ein geeignetes Con-
formance-Maß höher bewertet werden als ein Modell, welches nur 10 von
100 Aktivitäten des gleichen Trace erklären kann. Aus diesem Grund wird
das Maß der Fitness auf die Betrachtung von Aktivitäten erweitert. Dies er-
laubt eine genauere Analyse von abgebildeten Teilsequenzen eines Trace
und vermittelt unter Realbedingungen einen wesentlich besseren Eindruck
von der Conformance eines Modells.
Hierbei wird das folgende Vorgehen angewandt: Genau wie bei der Berech-
nung der Fitness wird versucht, alle Traces eines Ereignislogs anhand der
Prozessmodelle, deren Conformance berechnet werden soll, durchzuspie-
len. Tritt hierbei ein Fehler auf, wird die Trace aber nicht wie bislang als nicht
erfüllt gewertet. Vielmehr werden die Fehler genauer betrachtet, indem auf
Basis der Token im Petri-Netz die folgenden Werte ermittelt werden:
p produced tokens: Anzahl der Token, die vom initialen Zustand des
Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines
Trace insgesamt durch Transitionen erzeugt werden.
Prozessdigitalisierung
65
c consumed tokens: Anzahl der Token, die vom initialen Zustand des
Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines
Trace insgesamt durch Transitionen konsumiert werden.
m missing tokens: Anzahl der Token, die vom initialen Zustand des
Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines
Trace insgesamt fehlten, d. h., die zur korrekten Auslösung von
Transitionen notwendig gewesen wären.
r remaining tokens: Anzahl der Token, die vom initialen Zustand des
Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines
Trace insgesamt für das Auslösen von Transitionen fehlten.
Nach dem vollständigen Durchlaufen eines Trace innerhalb eines Modells M
wird anhand der folgenden Formel die Fitness des Trace t berechnet (vgl.
Rozinat, Van der Aalst, 2005, S. 14ff.):
𝑓𝑖𝑡𝑛𝑒𝑠𝑠 (𝑡, 𝑀) = 1
2 (1 − 𝑚
𝑐 ) + 1
2 (1 − 𝑟
𝑝)
Der erste Teil der Formel berechnet den Anteil der fehlenden Token m im
Verhältnis zur Gesamtzahl aller konsumierten Token c. Dieser Wert wird von
1 subtrahiert, um die korrekten Beziehungen abzubilden: 1 − 𝑚
𝑐 = 1, wenn
kein Token verloren geht (m = 0), und 1 − 𝑚
𝑐 = 0, wenn alle konsumierten
Token verloren gehen (m = c). Das Gleiche gilt für den zweiten Teil der For-
mel, der das Verhältnis der verbleibenden Token r zur Anzahl der produzier-
ten Token p angibt. Hierbei gilt: 1 − 𝑟
𝑝 = 0, wenn keines der produzierten
Token auch tatsächlich konsumiert wurde, und 1 − 𝑟
𝑝 = 1, wenn alle produ-
zierten Token konsumiert wurden. Beide Teile der Formel werden gleich
stark gewichtet (jeweils mit dem Faktor 1
2), um Fehlen von notwendigen To-
ken (angegeben durch die Anzahl m) und das Überbleiben von Token (ange-
geben durch die Anzahl r) gleichermaßen negativ in die erreichte Fitness des
Modells einfließen zu lassen.
Die vorgestellte Formel wurde bislang zur Berechnung der Fitness eines
Trace t bezogen auf ein Prozessmodell M dargestellt. Darüber hinaus kann
auch die Fitness eines vollständigen Ereignislogs L auf die gleiche Weise be-
rechnet werden. Hierzu werden die Werte p, c, m und r der in L enthaltenen
Traces aufaddiert und die gleiche Formel 𝑓𝑖𝑡𝑛𝑒𝑠𝑠 (𝐿, 𝑀) zur Berechnung der
Fitness von M bezogen auf L verwendet.
Wichtig für die Interpretation der Ergebnisse der Fitness-Berechnung ist die
in Abschnitt 4.4.3.1 bereits erwähnte Unterscheidung zwischen dem norma-
tiven und dem deskriptiven Charakter eines Modells.
• Besitzt das Modell einen normativen Charakter, d. h., formalisiert es
zwingend einzuhaltende Vorgaben, von denen in der Realität nicht
abgewichen werden darf, dann kann ein geringer Fitness-Wert wie
Prozessdigitalisierung
66
folgt interpretiert werden: Das Ereignislog, also die Realität des Pro-
zesses, verhält sich nicht konform zum Modell.
• Ist das Modell deskriptiv, d. h., beschreibt es das in der Realität beo-
bachtete Verhalten eines Prozesses, dann beschränkt sich die Inter-
pretation des Fitness-Wertes auf die Tatsache, dass das Modell nicht
in der Lage ist, die Realität vollumfänglich zu erklären.
Die Berechnung der Conformance eines Modells nach der Methode des To-
ken Replay kann dazu genutzt werden, das Ereignislog für weitere Analy-
sen vorzustrukturieren und neue Hypothesen für die Untersuchung zu ge-
nerieren.
Beispielsweise können abweichende von nicht abweichenden Prozessin-
stanzen getrennt und anschließend separat untersucht werden. Auf diese
Weise kann das Ereignislog in homogenere Teilmengen aufgeteilt werden,
die weniger Rauschen enthalten und besser interpretierbare Ergebnisse lie-
fern. So kann untersucht werden, welche Gemeinsamkeiten zwischen ab-
weichenden Prozessinstanzen bestehen und welche Charakteristika mög-
licherweise für die beobachtbaren Abweichungen verantwortlich sind.
Hierzu eignen sich z. B. Resource-Map-Analysen zur Untersuchung der Zu-
sammenarbeit verschiedener Prozessbeteiligter.
Weiterhin kann die Klassifizierung von abweichendem und nicht-abweichen-
dem Prozessverhalten auch als Eingabe für die Anwendung von Machine-
Learning-Algorithmen wie Decision Trees verwendet werden (vgl. Abschnitt
3.3.1). Basierend auf den im Ereignislog enthaltenen Prozessattributen (Ein-
gabevariablen) kann damit eine Vorhersage von Abweichungen realisiert
werden, welche dann wiederum bereits zur Laufzeit eines Prozesses mögli-
ches Fehlverhalten und ungewünschte Abweichungen identifizieren kann.
4.4.3.3 Alignments
Die im vorherigen Abschnitt vorgestellte Methode Token Replay besitzt den
großen Vorteil, dass sie für Prozessmodelle in der Petri-Netz-Notation formal
nachweisbar ist und die Korrektheit eindeutig nachweisbar ist. Auch ist die
Berechnung der Fitness-Metrik sowohl für einzelne Traces als auch für ganze
Ereignislogs schnell durchführbar und leicht nachzuvollziehen.
Gleichzeitig bringt die Methode aber zwei entscheidende Nachteile mit sich,
die eine große Bedeutung für den Einsatz in der Praxis haben. Erstens ist sie
auf den Einsatz innerhalb der Petri-Netz-Notation beschränkt und eignet sich
nicht für den Conformance-Abgleich mit Prozessmodellen, die in anderen
Notationen erstellt wurden. Zweitens existiert bei der Anwendung auf Petri-
Netzen die Tendenz, dass wenig restriktive Modelle stark bevorzugt werden.
Beispielsweise erreichen Modelle, die jedes beliebige Prozessverhalten zu-
lassen (also nicht stark auf das zu prüfende Ereignislog angepasst sind), in
Prozessdigitalisierung
67
Bezug auf die Process Conformance einen hohen Fitness-Wert; dies ist im
Sinne einer hohen Aussagekraft der Metrik aber nicht erwünscht.
Um die genannten Probleme zu überwinden, wurde das Alignment-Konzept
entwickelt. Es verfolgt die Zielsetzung, das im Ereignislog enthaltene Pro-
zessverhalten besser mit dem modellierten Verhalten des Modells abzuglei-
chen und dadurch eine detailliertere Diagnose der Process Conformance zu
ermöglichen. Insbesondere sollen abweichende Prozessinstanzen genauer
untersucht werden, um festzustellen, an welchen Stellen Differenzen zwi-
schen Ereignislog und Prozessmodell vorliegen. Dadurch kann beispiels-
weise festgestellt werden, ob einzelne Aktivitäten übersprungen werden
oder ob exklusive Prozesspfade in der Realität parallel ausgeführt werden.
Im Gegensatz zur Token Replay Methode können Alignments auf alle Pro-
zessmodellierungsnotationen angewendet werden und sind damit für den
Einsatz in der Praxis häufig besser geeignet. Im Folgenden wird zunächst eine
intuitive Einführung in das Konzept der Alignments vorgenommen, um die
grundlegende Idee und Funktionsweise zu erläutern. Anschließend werden
Eigenschaften „guter“ und „schlechter“ Alignments definiert, um aus der
Güte Rückschlüsse auf die Process Conformance ziehen zu können.
Abbildung 28: Beispielprozess für Process-Conformance-Analysen mittels Alignments
Zur Verdeutlichung von Process Alignments betrachten wir den in Abbildung
28 dargestellten Beispielprozess. Nach den semantischen Regeln der ver-
wendeten EPK-Notation (vgl. Abschnitt 2.3.1) erlaubt dieses Modell nach der
Ausführung der Aktivität a die parallele Ausführung der Prozesspfade <b,c>
und <d,e>, bevor der Prozess mit der Aktivität f beendet wird. Demzufolge
können die Traces t1 = <a,b,c,d,e,f> und t2 = <a,d,e,b,c,f> durch das Modell
erklärt werden, ebenso wie t3 = <a,b,d,c,e,f> und t4 = <a,b,d,e,c,f>. Da die
parallelen Teilpfade keine pauschale Aussage über die Reihenfolge der Akti-
vitäten zulassen, muss also nicht zwingend <b,c> oder <d,e> ausgeführt wer-
den, bevor eine Aktivität aus einem anderen Pfad auftreten darf.
Es ist ebenfalls ersichtlich, dass nicht jede beliebige Trace durch das Modell
erklärt werden kann; ein Beispiel für ein nicht abbildbares Trace ist t5 =
<b,c,d,e,f,a>, da jeder Prozess mit der Aktivität a starten muss. Die Traces t1,
t2, t3 und t4 werden in Kombination mit dem Beispielprozess als perfekte A-
lignments bezeichnet, da sie vollumfänglich durch das Modell erklärt wer-
den können. Alignments werden mit dem Buchstaben γ bezeichnet und
durch zweizeilige Tabellenstrukturen, wie nachfolgend dargestellt, beschrie-
ben (vgl. Van der Aalst, 2016, S. 257ff.).
Prozessdigitalisierung
68
γ1 = a b c d e f
a b c d e f
Die obere Zeile entspricht einem Prozesspfad innerhalb des Ereignislogs,
während die untere Zeile einem Prozesspfad innerhalb des Modells ent-
spricht. Das Alignment γ1 entspricht dem Trace t1 und ist optimal, da jeder
Schritt im Ereignislog durch einen entsprechenden Schritt im Modell erklärt
werden kann. Ebenso ist das folgende Alignment γ2 optimal, welches dem
Trace t3 entspricht:
γ2 = a b d c e f
a b d c e f
Die mit dem Modell nicht abbildbare Trace t5 würde gemäß der Darstellung
zum folgenden Alignment γ3 führen:
γ3 = >> b d c e f
a b d c e f
Durch das Symbol >> wird eine Diskrepanz zwischen den Prozesspfaden des
Ereignislogs und dem Modell ausgedrückt; im Fall von γ3 wird beispielsweise
die durch das Modell vorgeschriebene Aktivität a vor der folgenden Aktivität
b nicht im Ereignislog abgebildet, wodurch es zu einer Verschiebung der Ak-
tivitäten kommt. Diskrepanzen können in beiden Zeilen auftauchen. Im vor-
liegenden Fall ist γ3 die beste Lösung und stellt daher das sogenannte opti-
male Alignment dar.
Optimale Alignments bezeichnen die Ausrichtung zwischen den Prozess-
pfaden eines Ereignislogs und eines Prozessmodells, d. h. diejenige Aus-
richtung, welche die geringste Anzahl an Diskrepanzen aufweist.
Zu jeder Kombination von Prozesspfaden aus Ereignislog und Prozessmodell
existiert eine unendliche Anzahl an Alignments. Zur Bestimmung eines opti-
malen Alignments werden Diskrepanzen mit Kosten belegt und anschlie-
ßend dasjenige Alignment mit den geringsten Kosten ausgewählt. Wird bei-
spielsweise jede >> Aktion mit den Kosten 1 und jede perfekte Ausrichtung
(gleiche Aktivität in Ereignislog und Modell) mit den Kosten 0, so hat das
perfekte Alignment ebenfalls Gesamtkosten von 0 und das optimale Align-
ment die minimalen Kosten ≥ 0. Zur Errechnung einer mit der Fitness-Met-
rik vergleichbaren Kennzahl kann eine Transformation der Gesamtkosten
auf den Wertebereich zwischen 0 und 1 durchgeführt werden. Kosten kön-
nen darüber hinaus dazu verwendet werden, das Conformance Checking
nach spezifischen Anforderungen zu konfigurieren. Aus fachlicher Sicht
wichtige Prozessaktivitäten können mit höheren Kosten belegt werden, so-
dass Abweichungen zwischen diesen Aktivitäten zu einer überproportional
stärkeren Abnahme der Conformance führen.
Die Beispiele veranschaulichen die Vorteile von Alignments: Durch die de-
taillierte Berücksichtigung von Abweichungen auf der Ebene einzelner Pro-
zesspfade kann eine genauere Analyse für den Gesamtprozess durchgeführt
Prozessdigitalisierung
69
werden. So lässt sich beispielsweise zwischen dem Überspringen von Aktivi-
täten, einer geänderten Reihenfolge bei der Durchführung oder zusätzlichen
Aktivitäten in Ereignislog und Modell sicher unterscheiden.
4.4.4 Process Enhancement
Die Verbesserung von Prozessen und Prozessmodellen (engl. Process Enhan-
cement) auf Basis der Analyse durch Process Discovery, Process Conformance
Checking sowie anderer Methoden stellt den letzten Schritt innerhalb des
Process Mining Lifecycle dar (vgl. Abbildung 21). Im Gegensatz zu den bishe-
rigen beiden Phasen lassen sich für diesen Schritt keine konkreten Metho-
den oder allgemeingültigen Empfehlungen aussprechen. Die Verbesserung
eines Prozesses hängt von der spezifischen Zielsetzung und einer Reihe or-
ganisatorischer Rahmenbedingungen ab:
• Ziel der Untersuchung: Hierbei muss festgelegt werden, welches Ziel
durch die Prozessverbesserung erreicht werden soll. Beispielsweise
könnten im Rahmen der Analysen verschiedene Schwachstellen in-
nerhalb der untersuchten Prozesse identifiziert worden sein, die nun
entsprechend korrigiert werden sollen. Beispiele hierfür sind perma-
nente Verzögerungen in bestimmten Prozessschritten, welche durch
das Fehlen von notwendigen Daten begründet sind. An dieser Stelle
kann eine verpflichtende Prüfung auf Vollständigkeit im Rahmen der
Datenerfassung zu einer Verbesserung des Prozesses führen.
• Beeinflussbarkeit des Prozesses: Neben der grundsätzlichen Zielset-
zung muss ebenfalls berücksichtig werden, welche Teile des Prozes-
ses durch mögliche Verbesserungsmaßnahmen überhaupt beein-
flusst werden können. Handelt es sich um externe Prozesse, die au-
ßerhalb der Zuständigkeit des eigenen Unternehmens liegen, bietet
sich in der Praxis häufig keine Möglichkeit, direkten Einfluss auf die
Ausgestaltung des Prozesses zu nehmen. Eine Verbesserung kann in
einem solchen Fall aber z. B. in einer Optimierung der Schnittstelle
zwischen internen und externen Prozessabläufen liegen.
• Unterstützende Software: Im Rahmen der Bewertung von Verbesse-
rungsmaßnahmen ist außerdem zu berücksichtigen, welchen Einfluss
diese auf die Implementierung in der verwendeten Software haben.
Bei der Umsetzung weiterer Prüfschritte innerhalb einer Standard-
Software spielt etwa die technische Realisierbarkeit bzw. die Mög-
lichkeiten des Customizing (beispielsweise im SAP-Kontext) eine
zentrale Rolle.
• Modellintention: Besitzt das Modell einen normativen Charakter
und modelliert es unbedingt einzuhaltendes Verhalten, von dem aus
fachlicher Sicht nicht abgewichen werden darf, so sind Fragen nach
der Prozessanpassung anders zu handhaben als bei deskriptiven Mo-
dellen. Bei normativen Modellen müssen sich die Anpassungen da-
rauf konzentrieren, Mechanismen zur Sicherstellung der korrekten
Prozessdigitalisierung
70
Ausführung zu implementieren. Sind die Vorgaben des Modells nicht
so strikt, kann über eine Änderung des Modells selbst nachgedacht
werden, wenn in der Realität eine abweichende, aber fachlich sinn-
volle Alternative zum modellierten Verhalten beobachtet werden
konnte.
Eine große Bedeutung kommt der Anpassung der Prozessmodelle zu. Hier-
bei geht es insbesondere darum, existierende Modelle um die aus der Ana-
lyse von Ereignislogs gewonnenen Informationen zu erweitern. Stellt sich als
Ergebnis einer Process-Conformance-Analyse beispielsweise heraus, dass
das in der Realität gelebte Prozessverhalten vom modellierten Soll-Verhal-
ten abweicht, so kann eine Anpassung dieser Modelle notwendig werden.
Grundsätzlich lassen sich zwei verschiedene Anpassungstypen unterschei-
den:
(1) Anpassung des Modells an die Realität, um sicherzustellen, dass
diese korrekt abgebildet wird. Je nach Art der Anpassung am Modell
und der Art der Modellierung durch eine entsprechende Software
kann diese durch Vorschläge unterstützt oder automatisiert durch-
geführt werden. Zeigt sich im Rahmen der Analyse beispielsweise,
dass ein bestimmter Prozesspfad niemals ausgeführt wird, kann das
Entfernen aus dem Modell automatisch geschehen. Auch neue
Pfade, die im aktuellen Modell nicht enthalten sind, können automa-
tisiert hinzugefügt werden. Wichtig ist, dass jegliche Art der Pro-
zessanpassung unter direkter Einbeziehung des Prozessverantwortli-
chen sowie des zuständigen Fachbereichs geschieht.
(2) Erweiterung des Modells zur Verbesserung seiner Aussagekraft. Bei
dieser Art der Modellanpassung werden aus dem Ereignislog abge-
leitete Daten verwendet, um Zusatzinformationen zu annotieren.
Zum Beispiel können Performance-Informationen zur durchschnittli-
chen, maximalen und minimalen Durchlaufzeit an einzelne Prozess-
aktivitäten angefügt werden, um ein besseres Prozessverständnis im
Rahmen von Schulungen zu vermitteln. Außerdem können häufig
von weniger häufig ausgeführten Prozessschritten unterschieden
werden, um einen genaueren Eindruck von der Relevanz bestimmter
Prozessstrukturen zu vermitteln.
Um die Wirksamkeit von Enhancement-Aktivitäten in der Praxis zu überprü-
fen und sinnvoll evaluieren zu können, kann eine Operationalisierung von
Process-Mining-Ansätzen eingesetzt werden. Diese können eine Überwa-
chung von zentralen Kennzahlen und die Einhaltung von gewünschtem Pro-
zessverhalten ermöglichen und bei Abweichungen frühzeitig auf mögliche
Probleme hinweisen.
4.4.5 Operational Process Mining
Die in den vorangegangenen Abschnitten präsentierten Methoden zeigen
verschiedene Möglichkeiten auf, wie Prozesse auf der Basis von Ereignislogs
nach ihrer Ausführung analysiert werden können. Während diese
Prozessdigitalisierung
71
Untersuchung von historischen Daten viele wertvolle Informationen für die
Verbesserung von Prozessen liefern kann, wird die Ausführung von aktuell
laufenden Prozessinstanzen dadurch nicht beeinflusst. Das Process Mining
Manifesto definiert als sechstes Guiding Principle „Process Mining Should be
a Continuous Process“ und hebt damit die Notwendigkeit einer kontinuierli-
chen Prozessbetrachtung hervor (Van der Aalst et al., 2012, S. 184).
Dies motiviert die Entwicklung des sogenannten Operational Process Mi-
ning, welches auf operative Geschäftsabläufe ausgerichtet ist und den
Zweck hat, aktiv in laufende Prozessinstanzen einzugreifen. Im Gegensatz zu
den bislang betrachteten Ereignislogs, welche nur abgeschlossene Prozess-
instanzen beinhalteten und offline analysiert wurden, werden hierzu auch
laufende, noch nicht abgeschlossene Prozessinstanzen online betrachtet.
Dadurch ergeben sich verschiedene Möglichkeiten zur Beeinflussung laufen-
der Prozessausführungen, die in Abbildung 29 zusammengefasst sind (vgl.
Van der Aalst, 2016, S. 301ff.).
Die betrachtete Prozessinstanz ist noch nicht abgeschlossen, dementspre-
chend liegen zu einem bestimmten Zeitpunkt (in der Grafik durch die gestri-
chelte Linie symbolisiert) gesicherte Informationen über die Prozesshistorie
vor, die sowohl die Prozessablauflogik als auch den Prozesskontext betreffen
(„Welche Aktivitäten wurden ausgeführt?“, „Wie lange dauerte die Ausfüh-
rung?“, „Wer war an der Ausführung beteiligt?“).
Abbildung 29: Operational Process Mining
Aus der bisher bekannten Prozesshistorie lassen sich verschiedene Erkennt-
nisse für die Zukunft des Prozesses ableiten.
Eine Vorhersage von Prozessabläufen oder Prozessparametern kann bei-
spielsweise durch Vorhersagemodelle ermöglicht werden. Hierzu werden
auf einer großen Anzahl an historischen Prozessdaten Modelle trainiert, die
als Eingabe eine noch nicht abgeschlossene Prozessinstanz erwarten und auf
Basis der bislang vorliegenden Informationen (der bekannten Prozesshisto-
rie für diese Instanz) eine Vorhersage für den weiteren Ablauf treffen. Bei-
spiele für mögliche Vorhersagen sind die:
Prozessdigitalisierung
72
• erwartete Durchlaufzeit einer Prozessinstanz bis zur Beendigung,
• Wahrscheinlichkeit, dass eine bestimmte Frist eingehalten wird,
• voraussichtlichen Kosten der Prozessausführung,
• wahrscheinlichste nächste Aktivität im Prozessverlauf oder
• Wahrscheinlichkeit, dass eine bestimmte Aktivität noch ausgeführt
wird.
Zur Vorhersage selbst können je nach Art der vorhergesagten Variable un-
terschiedliche Methoden eingesetzt werden. Sollen beispielsweise numeri-
sche Werte vorhergesagt werden (z. B. Anzahl der Minuten bis zum Prozess-
ende oder die Kosten der Prozessausführung), so eignen sich Regressions-
verfahren für die Prädiktion. Bei kategorialen Daten (z. B. wird eine Frist ein-
gehalten oder nicht) können Klassifikationsverfahren wie Entscheidungs-
bäume zum Einsatz kommen. Liegen sehr viele historische Ausführungsda-
ten vor, mit denen Machine-Learning-Modelle angelernt werden können, so
ist auch der Einsatz von Deep-Learning-Verfahren denkbar.
Eine zweite Möglichkeit besteht in der Erkennung von Prozessabweichun-
gen zur Laufzeit. Ein Beispiel hierfür ist das Auslassen von erwarteten Aktivi-
täten wie eine vorgeschriebene Prüfung im Prozessverlauf. Damit entspricht
die Erkennung von Abweichungen in gewissem Sinne einer Process-Confor-
mance-Prüfung während der Ausführung einer Prozessinstanz. Zur Behand-
lung der erkannten Abweichung sind verschiedene Alternativen denkbar.
Über eine Nachricht könnte dem Prozessausführenden ein Hinweis auf einen
möglichen Regelverstoß gegeben werden, sodass dieser noch einmal geprüft
werden kann. Alternativ könnte auch die gesamte Prozessausführung ge-
stoppt werden, bis die notwendige Aktivität ausgeführt wurde und der Pro-
zess damit der vorgesehenen Logik folgt.
Die dritte Möglichkeit, eine laufende Prozessausführung operativ zu unter-
stützen, liegt in der Empfehlung von sinnvollen Handlungsalternativen ba-
sierend auf dem bisherigen Prozessverlauf. Diese Option ist ähnlich zur Vor-
hersage in dem Sinne, dass die bisher ausgeführten Schritte der laufenden
Prozessinstanz dazu verwendet werden, um eine mögliche Vorhersage dar-
über zu treffen, welche Handlungen als nächste empfohlen werden können.
Beispiele hierfür sind Handlungen zur:
• Minimierung der verbleibenden Prozessdurchlaufzeit,
• Minimierung der Ressourcennutzung oder
• Maximierung des Anteils korrekter Prozessdurchläufe.
Empfehlungen können in den meisten Fällen niemals optimale Ergebnisse
garantieren, da sich eine Empfehlung mit dem Fortschreiten der
Prozessdigitalisierung
73
Prozessausführung in der Zukunft auch ändern kann. Sie ist daher immer als
eine zeitbezogene Handlungsanweisung zu betrachten und nicht als sichere
Entscheidung für eine bestimmte Alternative.
4.5 Process Mining in der Praxis
4.5.1 Marktübersicht
Heute verfügbare Process-Mining-Software lässt sich grundsätzlich in Tools
aus dem akademischen Umfeld und kommerzielle Anwendungen untertei-
len. Da Process Mining seinen Ursprung in der Wissenschaft hat, handelt es
sich nicht nur um eine außerordentlich formale und detailliert dokumen-
tierte Methode, sondern es existiert auch eine breit ausdifferenzierte Land-
schaft an quelloffenen Software-Lösungen.
Nach einer Schätzung des Marktforschungsunternehmens Gartner aus dem
Jahr 2018 beträgt das geschätzte Marktvolumen für Process-Mining-Soft-
ware etwa 160 Millionen US-Dollar (Gartner, 2019). Durch die zunehmende
Bekanntheit von Process Mining und die damit einhergehende Marktadap-
tion entsprechender Lösungen geht Gartner zudem von einer Verdreifa-
chung bis Vervierfachung des Marktvolumens innerhalb der nächsten zwei
Jahre aus. Als Problem für das schnelle Erreichen dieser Volumina wird ak-
tuell vorrangig das vergleichsweise langsame Wachstum der Software-An-
bieter gesehen, welche den Bedarf am Markt nur unzureichend bedienen
können. Weiterhin gehen die Experten davon aus, dass um das Geschäftsfeld
der Software-Lizenzen ein Markt für Beratungs- und Dienstleistungen ent-
stehen wird, dessen Größe die des Lizenzgeschäfts deutlich übersteigen
wird.
In den beiden folgenden Abschnitten wird eine Auswahl von Process-Mining-
Lösungen aus dem akademischen und dem kommerziellen Marktumfeld
präsentiert. Diese soll einen Eindruck der heute verfügbaren, unterschiedli-
chen Software vermitteln und erhebt nicht den Anspruch auf eine vollstän-
dige Beschreibung der Tool-Landschaft. Umfassende und aktuelle Darstel-
lungen von Software-Anbietern im Bereich Process Mining finden sich z. B.
bei Gartner (2019) und Peters & Nauroth (2018, S. 41ff.).
Basierend auf der Untersuchung der aktuell verfügbaren Marktlösungen hat
Gartner zehn Potentiale (engl. Capabilities) zusammengestellt, welche durch
Process-Mining-Software abgebildet werden (vgl. Gartner, 2019).
• Automatisiert Entdeckung von Prozessmodellen, Ausnahmen und
Prozessinstanzen unter der Angabe von einfachen Ausführungshäu-
figkeiten und statistischen Auswertungen,
• Automatisierte Entdeckung und Analyse von Kundeninteraktionen
und Abgleich mit internen Prozessen,
Prozessdigitalisierung
74
• Erweiterung der Fähigkeiten zur Datenaufzeichnung für Aktivitäten,
die keine strukturierten Transaktionen oder Ereignislogs erzeugen (z.
B. E-Mail oder Microsoft Excel),
• Untersuchung der Process Conformance und Fehleranalyse nicht nur
durch grafische Verfahren, sondern auch durch detaillierte Daten-
und Performance-Analysen,
• Intelligente Unterstützung für die Verbesserung von Prozessmodel-
len durch zusätzliche Informationen, die aus der Analyse der Ereig-
nislogs gewonnen werden,
• Unterstützung für die Datenvor- und -aufbereitung, insbesondere bei
großen Datenmengen (Big Data),
• Bereitstellung von Dashboards zur Visualisierung wichtiger Kennzah-
len und kontinuierliche Überwachung von Prozessen zur Entschei-
dungsunterstützung,
• Prädiktive Analysen zur Vorhersage und Simulation verschiedener
Szenarien unter Einbezug von Daten aus dem Prozesskontext,
• Bereitstellung einer Plattform zur Erweiterung von Process-Mining-
Funktionalitäten über verschiedene Prozesse hinweg durch Advan-
ced Analytics; Bereitstellung von API-Schnittstellen zu Basisfunktio-
nalität, um die Entwicklung von dedizierten Process-Mining-Anwen-
dungen für Anwendungsszenarien wie Finanzprüfungen zu ermögli-
chen,
• Unterstützung für die Untersuchung von Interaktionen zwischen un-
terschiedlichen Prozessen und deren wechselseitige Beeinflussung
(im Unterschied zu verschiedenen Instanzen des gleichen Prozesses).
Nicht jede der genannten Funktionen ist durch jede Software abgebildet,
vielmehr zeigt die Liste der Fähigkeiten das heute am Markt verfügbare
Spektrum an Funktionalitäten.
4.5.1.1 Akademische Process-Mining-Software
Wissenschaftliche Software-Lösungen wie bupaR und ProM haben einen
anderen Fokus als kommerziell nutzbare Tools. Beispielsweise dient ProM
der Forschung und Erprobung von wissenschaftlichen Erkenntnissen in prak-
tisch anwendbaren Implementierungen. Die Zielgruppe der Software sind
insbesondere Wissenschaftler und interessierte Anwender, die über ein
technisches Grundlagenverständnis der verwendeten Konzepte verfügen.
Dementsprechend bietet auch die grafische Nutzeroberfläche der Software
viele Möglichkeiten zur Anpassung der enthaltenen Funktionen und legt kei-
nen Fokus auf eine möglichst intuitive Benutzbarkeit. Die Software-Biblio-
thek bupaR ermöglicht die Nutzung von Process-Mining-Algorithmen inner-
halb von Data-Science-Projekten, indem sie eine Anbindung an die
Prozessdigitalisierung
75
statistische Skriptsprache R bietet. Durch die enge Anbindung an diese Öko-
systeme kann das Tool schnell mit bestehenden Analyse-Workflows inte-
griert werden. Die Zielgruppe stellen auch hier Nutzer mit einer hohen tech-
nischen Expertise dar, die hohe Flexibilität bei der Konfiguration der Algo-
rithmen benötigen. Abbildung 30 stellt die zwei zentralen und frei verfügba-
ren Software-Lösungen aus dem akademischen Umfeld näher vor.
Software/ Anbieter Beschreibung
bupaR4
Hasselt University
Research Group Business
Informatics
bupaR ist eine quelloffene Sammlung von integrierten R-Pa-
keten zur Verarbeitung von Prozessdaten. Sie besteht aus
insgesamt acht verschiedenen Paketen, die unterschiedliche
Stufen innerhalb von Process-Mining-Projekten unterstüt-
zen.
Neben der Kernfunktionalität enthält bupaR Pakete zum
schnellen Zugriff auf frei verfügbare Ereignislogdaten (event-
dataR), zur animierten Visualisierung von Prozessdurchläu-
fen (processanimateR) und zur Realisierung von Prozess-
Dashboards zur Darstellung von Kennzahlen (processmo-
nitR).
Ein Vorteil der Implementierung innerhalb der R-Software-
Umgebung ist die Möglichkeit zur Nutzung beliebiger R-
Funktionen zum Datenimport, zur Datenvorverarbeitung so-
wie zur Datenmanipulation (z. B. Listen, Matrizen, Datafra-
mes).
ProM5
Process Mining Groups
at TUE and RWTH
ProM (als Abkürzung für Process Mining Framework) stellt
ein quelloffenes Framework für Process-Mining-Algorith-
men dar. Historisch gesehen ist ProM eine der ältesten Soft-
ware-Lösungen und hat ihren Ursprung in der akademischen
Forschung. ProM ist als Standalone-Software konzipiert und
kann als Anwendung auf einer Vielzahl von Betriebssyste-
men lokal ausgeführt werden.
Das Framework ist modular aufgebaut und kann durch ei-
gene Plug-ins beliebig erweitert werden. Nahezu alle in der
Wissenschaft diskutierten Process-Mining-Algorithmen sind
als Plug-in für ProM verfügbar und können in der Umgebung
ausgeführt werden. Darüber hinaus finden sich für die meis-
ten Plug-ins wissenschaftliche Publikationen, welche die
technischen Details der Ansätze und Konfigurationsmöglich-
keiten erläutern.
Neben der eigentlichen Software verfügt ProM über eine ak-
tive Community, die sowohl aus Vertretern der Wissenschaft
als auch Praxisvertretern besteht. Diese diskutieren die Ent-
wicklung aktueller Ansätze und sorgen für eine regelmäßige
Veröffentlichung neuer Software-Versionen.
Abbildung 30: Übersicht zu akademischen Process-Mining-Lösungen
4 https://www.bupar.net (abgerufen am: 14.10.2020).
5 http://www.promtools.org/ (abgerufen am: 14.10.2020).
Prozessdigitalisierung
76
4.5.1.2 Kommerzielle Process-Mining-Software
Der Markt für kommerzielle Process-Mining-Software ist relativ jung und
war in den vergangenen Jahren einem massiven Wandel unterworfen. Im
Gegensatz zu wissenschaftlichen Software-Lösungen sind kommerzielle Lö-
sungen für den schnellen Einsatz in der Unternehmenspraxis optimiert. Sie
erlauben es, mit relativ geringem Aufwand und einer benutzerfreundlichen
Bedienoberfläche Process-Mining-Analysen auszuführen und die Ergebnisse
schnell und übersichtlich zu visualisieren.
Die Bandbreite reicht hierbei von Einzelplatzanwendungen über Web-ba-
sierte Systeme mit einer zentralen Komponente zur Datenverarbeitung bis
hin zu vollintegrierten Lösungen, die Daten aus operativen Systemen repli-
zieren oder direkt auf diesen aufsetzen. Häufig existieren hierbei auch stan-
dardisierte Schnittstellen für die Anbindung an ERP-Systeme wie SAP.
Einzelplatzanwendungen wie Disco werden auf einem einzelnen Computer
ausgeführt und eignen sich insbesondere für die flexible Analyse mittelgro-
ßer Datenbestände und die schnelle Exploration eines Datensatzes. Mehr
Flexibilität in Bezug auf den Zugriff und die Skalierbarkeit der Rechenleistung
bringen Web-basierte Systeme wie Minit oder PAFnow, welche die notwen-
dige Rechenleistung an einem zentralen Server bündeln und für verschie-
dene Client-Anwendungen bereitstellen, was insbesondere die Analyse von
größeren Datenmengen und die gemeinsame Arbeit an einem Datensatz er-
laubt. Vollintegrierte Lösungen wie Celonis Process Mining besitzen dedi-
zierte Komponenten zum automatisierten Import von Daten aus operativen
Systemen und zur Integration von verschiedenen Datenquellen in einer ein-
heitlichen Datenbasis. Sie eignen sich für den regelmäßigen Einsatz von Pro-
cess Mining, beispielsweise in Form einer permanenten Prozessüberwa-
chung mittels Dashboard-Lösungen und einer laufenden Kontrolle auf uner-
wünschte Abweichungen. Celonis arbeitet auf Basis einer sogenannten In-
Memory-Datenbank (SAP HANA), welche es erlaubt, große Datenmengen im
Terabyte-Bereich mit sehr geringen Zugriffszeiten zu verarbeiten. Die Lösung
ist daher vor allem für Anwendungsszenarien geeignet, in denen sehr viele
Daten anfallen und laufend analysiert werden müssen.
Abbildung 31 stellt die zwei zentralen Process-Mining-Lösungen aus dem
kommerziellen Bereich als Beispiele für eine Einzelplatzanwendung sowie
eine vollintegrierte Lösung näher vor.
Software/ Anbieter Beschreibung
Disco6
Fluxicon
Disco ist eine einfach zu verwendende Einzelplatzanwen-
dung zur Durchführung von Process-Mining-Analysen, die als
kommerzieller Ableger aus dem quelloffenen ProM hervor-
gegangen ist. Sie hat einen starken Fokus auf die Bereiche
Process Discovery und Conformance Checking und richtet
6 https://fluxicon.com/disco/ (abgerufen am: 14.10.2020).
Prozessdigitalisierung
77
sich mit der Art der Visualisierung auch an technisch weniger
versierte Fachanwender.
Zur Vereinfachung von komplexen Prozessmodellen, die als
Resultat von Process Discovery entstehen, verfügt Disco
über eine konfigurierbare Darstellung, um die Zahl der dar-
zustellenden Aktivitäten sowie der Pfade des Modells zu be-
einflussen.
Darüber hinaus bietet Disco eine große Zahl an Möglichkei-
ten, um Ereignislogs nach konfigurierbaren Kriterien zu fil-
tern (z. B. Performance, Varianten, Zeitabschnitte im Log)
und die Ergebnisse in einer Vielzahl von Formaten zu expor-
tieren.
Celonis Process Mi-
ning
Celonis
Celonis ist mit Stand September 2019 der Marktführer im
Bereich Process Mining und bei mehr als 600 Kunden welt-
weit im Einsatz.
Der Schwerpunkt der als Intelligent Business Cloud bezeich-
neten Plattform liegt in der Integration von Process-Mining-
Funktionalität mit anderen Micro-Services der Plattform.
Diese erlauben die Nutzung der Prozessdaten für Machine-
Learning-Anwendungen oder die automatische Analyse von
Kennzahlen auf Basis historischer Daten.
Bedingt durch den starken Fokus auf Großunternehmen
bringt Celonis eine Vielzahl von Komponenten zur nativen In-
tegration in beispielsweise SAP HANA oder Salesforce-Sys-
teme mit. Durch diese direkt einsetzbaren Schnittstellen
werden der schnelle Zugriff auf Daten aus operativen Syste-
men und die Überwachung von Prozessen in Echtzeit ermög-
licht, ohne den Umweg über einen (manuellen) dateibasier-
ten Datenexport und -import in einer Process-Mining-An-
wendung zu gehen.
Abbildung 31: Übersicht zu kommerziellen Process-Mining-Lösungen
Die vorgestellten Process-Mining-Lösungen beinhalten eine Vielzahl unter-
schiedlicher Methoden zur Prozessdatenanalyse und eignen sich zur Unter-
suchung und Visualisierung verschiedener Prozessaspekte sowie deren Zu-
sammenhängen und Ablaufstrukturen. Die im folgenden Abschnitt beschrie-
benen Methoden sind in unterschiedlichen Software-Werkzeugen, sowohl
im Bereich von kommerziellen Lösungen als auch von Open-Source-Projek-
ten, enthalten.
4.5.2 Methodenübersicht Process Mining
Im Folgenden wird eine Auswahl an Methoden beispielhaft anhand des
quelloffenen Frameworks bupaR vorgestellt und inhaltlich erläutert (vgl. bu-
paR, 2019). Einige der behandelten Methoden bieten unterschiedliche Visu-
alisierungsformen für gleichartige Sachverhalte, setzen dabei aber einen an-
deren Fokus. Der Vorteil dieser großen Bandbreite möglicher Visualisierun-
gen liegt insbesondere darin, dass sie für die visuelle Inspektion eines
Prozessdigitalisierung
78
Ereignislogs genutzt werden können und durch die Fokussierung unter-
schiedlicher Perspektiven jeweils einen anderen Zugang zu den analysierten
Prozessdaten bieten. Aus diesem Grund können sie gerade im Rahmen der
Exploration und Hypothesengenerierung (vgl. Phase 1 in Abschnitt 4.2.2)
wirkungsvoll eingesetzt werden.
Process Map: Die Process-Map-Darstellung (Abbildung 32) dient zur Visuali-
sierung des tatsächlichen Prozessflusses basierend auf den importierten Er-
eignislogdaten.
Abbildung 32: Process Map
• Im Log enthaltene Aktivitäten werden durch Knoten in der Darstel-
lung repräsentiert, hierbei gibt die Farbe des Knotens Aufschluss
über die Häufigkeit des Auftretens (je dunkler, desto häufiger).
• Kantenbeziehungen zwischen den Knoten kennzeichnen den Pro-
zessfluss, d. h. die mögliche Abfolge einzelner Events im zeitlichen
Verlauf.
• Für die Kantenbeziehungen lassen sich verschiedene Maßzahlen an-
zeigen, bspw. die absolute Anzahl der Übergänge zwischen Events
oder die durchschnittliche Dauer eines Übergangs.
Diese Darstellung dient insbesondere zur Analyse von Prozessstrukturen, de-
ren Zusammenhängen und der Ablaufreihenfolge von Prozessaktivitäten.
Durch die Darstellung von Ausführungshäufigkeiten an den Kanten zwischen
einzelnen Aktivitäten und deren visueller Färbung sind zentrale Prozessbe-
standteile zudem schnell erkennbar. Wie in Abschnitt 4.4.2.1 ausführlich be-
schrieben, besitzt die Process-Map-Darstellung keine Semantik im Sinne
Prozessdigitalisierung
79
einer Modellierungskonvention und enthält daher keine expliziten Prozess-
verzweigungen, sodass Exklusivität und Parallelität von Aktivitäten nicht er-
kennbar sind.
Vorgänger-/Nachfolger-Matrix: Die Vorgänger-/Nachfolger-Matrix (Abbil-
dung 33) erlaubt eine Visualisierung von direkten Beziehungen zwischen
zwei einzelnen Events innerhalb des Logs.
• Hierdurch lässt sich ein Überblick über Verteilungen von Vorgänger-
/Nachfolger-Beziehungen erstellen, wobei die Intensität der farbli-
chen Markierung eines Eintrags wiederum mit der Anzahl der Ein-
träge zusammenhängt.
• Die Darstellung gibt einen Überblick zur Stringenz eines Prozessab-
laufs und zum Zusammenhalt einzelner Pfade: Viele Vorgän-
ger/Nachfolger zu einer Aktivität weisen gegenüber wenigen Vorgän-
gern/Nachfolgern auf häufigere Verzweigungen hin.
Abbildung 33: Vorgänger-/Nachfolger-Matrix
Die Darstellung der direkten Vorgänger und Nachfolger einzelner Prozessak-
tivitäten in einer Matrix vermittelt einen schnellen Überblick über die Zu-
sammenhänge von Prozessstrukturen. Darüber hinaus ermöglicht die Daten-
struktur die einfache Filterung von Aktivitäten nach Häufigkeiten, sodass
beispielsweise nur Aktivitäten mit einer bestimmten Mindestzahl an Vorgän-
gern oder Nachfolgern für weitere Analysen berücksichtig werden können.
Trace-Analyse: Mit Hilfe einer Trace-Darstellung (Abbildung 34) lassen sich
einzelne Prozessvarianten gegenüberstellen.
Prozessdigitalisierung
80
Abbildung 34: Trace-Analyse
• Gleiche Prozesspfade werden entsprechend zusammengefasst und
die relative Häufigkeit in prozentualer Form angegeben.
• Ein Vorteil dieser Darstellung ist unter anderem die direkte Erkenn-
barkeit von Überschneidungen in einzelnen Prozessvarianten, in die-
ser Ansicht z. B. die immer gleich durchgeführten Startereignisse.
• Weiterhin lassen sich auch einzelne Prozessfragmente in den Cases
entsprechend analysieren und somit gleiche Aktivitätsabfolgen in-
nerhalb verschiedener Cases identifizieren.
Die Trace-Darstellung von Prozessvarianten vermittelt einen schnellen Über-
blick über die im Ereignislog vorhandenen Prozessstrukturen und deren Ver-
teilung. Durch die Einfärbung gleicher Teil-Traces in gleicher Farbe sind Ent-
scheidungs- und Bündelungspunkte im Prozessverlauf gut erkennbar. Wei-
terhin lassen sich Wiederholungen und Schleifen von Aktivitäten leicht iden-
tifizieren.
Prozessdigitalisierung
81
Zeitliche Verteilungen (Abbildung 35): Visualisierung der Verteilungen von
Prozessinstanzen und deren einzelnen Aktivitäten geordnet nach Durchlauf-
zeit oder prozentualer Verteilung.
Abbildung 35: Zeitliche Verteilungen
• Ziel dieser Methode ist es, eine direkte Darstellung der Verteilung
von zeitlichen Ausreißern zu erstellen.
• Ein weiterer Vorteil ist die Darstellung von Liegezeiten innerhalb ein-
zelner Cases, bis eine Folgeaktivität im Prozess durchgeführt wird.
• Der Farbverlauf der einzelnen Aktivitäten gibt einen ersten Eindruck
über Start- und Endereignisse sowie welche Aktivitäten in welcher
Reihenfolge abgearbeitet wurden.
Die Darstellung kann dabei helfen, eine strukturell bedingte Verzerrung der
Datenbasis in Bezug auf die Durchlaufzeiten der Prozessinstanzen zu erken-
nen und im Rahmen der Datenvorbereitung entsprechend zu berücksichti-
gen. Im obigen Beispiel ist eine sogenannte Short-Head-Long-Tail-Verteilung
zu erkennen. Bei dieser Form der Datenverteilung wird ein Großteil der Da-
ten durch den Short Head charakterisiert, dessen Datenpunkte relativ nahe
zusammenliegen (im Beispiel Prozessvarianten mit weniger als einer Woche
Durchlaufzeit). Der übrige Teil der Daten liegt im Long Tail und besitzt eine
wesentlich größere Streuung und umfasst weniger zusammengehörige Da-
tenpunkte. Bezogen auf die Durchlaufzeiten eines Prozesses könnte eine Zu-
ordnung zum Short Head oder Long Tail darüber Aufschluss geben, wie eine
Abweichung beispielsweise auf ungewöhnliches Prozessverhalten zu beur-
teilen ist. Eine stark überdurchschnittliche Durchlaufzeit deutet üblicher-
weise auf ein grundsätzliches Problem hin, welches auch eine Erklärung für
Unterschiede im Prozessablauf darstellen könnte.
Prozessdigitalisierung
82
Resource Map (Abbildung 36): Zur Process Map analoge Darstellung vorhan-
dener Ressourcen und deren Beziehungen untereinander.
Abbildung 36: Resource Map
• Hier wird auf einen Blick ersichtlich, welche Abteilungen bzw. Res-
sourcen innerhalb eines Prozesses in Abhängigkeit zueinanderstehen
und interagieren.
• Die Darstellung lehnt sich an die Process-Map-Darstellung an, lässt
jedoch keine Rückschlüsse über einen tatsächlichen Prozessablauf
zu, sondern über das Zusammenspiel der Prozessbeteiligten.
• Die Farbgebung lässt wie gewohnt Aussagen zur relativen Häufigkeit
zu, je dunkler der Farbe der einzelnen Ressource, desto häufiger die
Frequentierung.
Die Darstellung innerhalb der Resource Map erlaubt die visuelle Analyse von
Zusammenhängen und Strukturen innerhalb der Ausführung von Prozessak-
tivitäten. Somit wird ersichtlich, welche Abteilungen als Bündelungspunkte
fungieren und welche als Verteilpunkte. Zusammen mit einer Betrachtung
der Durchlaufzeiten anstelle der Häufigkeiten der Interaktionen lässt dies
eine unmittelbare Analyse von Engpässen im Prozessablauf zu (sogenannte
Bottlenecks), die in der Überlastung von Ressourcen begründet sind. Dane-
ben können auf diese Weise auch nicht ausgelastete Ressourcen identifiziert
und in der Ressourcenplanung berücksichtigt werden.
Prozessdigitalisierung
83
Ressourcen-Matrix: Zusätzlich zur Darstellung in Form einer Map können die
Ressourcen und die dazugehörigen Frequenzen in einer Matrixdarstellung
(Abbildung 37) veranschaulicht werden.
Abbildung 37: Ressourcen-Matrix
• Die Darstellung ermöglicht einen direkten Überblick über die Bünde-
lungspunkte der einzelnen Ressourcen sowie die Darstellung der Vor-
gänger-/Nachfolgerbeziehung.
• Somit können abhängige und unabhängige Ressourcen schnell be-
stimmt und ggf. reorganisiert werden.
Ähnlich zur Vorgänger-/Nachfolger-Matrix vermittelt die Ressourcen-Matrix
einen schnellen Überblick über Zusammenhänge zwischen Ressourcen.
Auch hier können die Eigenschaften dieser Datenstruktur genutzt werden,
um gezielt diejenigen Ressourcen zu untersuchen, die eine bestimmte Häu-
figkeit an Beziehungen zu anderen Ressourcen eingehen oder beispielsweise
keine Vorgänger bzw. Nachfolger haben.
Prozessdigitalisierung
84
5 Intelligente Prozessautomatisierung durch
Robotic Process Automation
5.1 Definition und Einführung
Die Automatisierung von Prozessabläufen und Aufgaben ist ein zentraler As-
pekt im Kontext der digitalen Transformation von Unternehmen. Frühere
Entwicklungen im Bereich der Automatisierungstechnik fokussierten häufig
die Standardisierung und Automatisierung von physischen Abläufen durch
mechanische Systeme. Beispiele hierfür finden sich in der industriellen Fer-
tigung, welche durch den Einsatz von Robotern signifikante Produktionszu-
wächse verzeichnen konnte. Dieses Prinzip der Automatisierung wird, be-
dingt durch die zunehmende Digitalisierung von Abläufen und die damit ein-
hergehende Verfügbarkeit automatisch auswertbarer Datenbestände, ver-
stärkt auf den Bereich von wissensintensiven Prozessen übertragen.
Die Automatisierung komplexer Geschäftsprozesse mit dem Ziel, die Aufga-
ben von Menschen innerhalb des Prozesses durch die Implementierung fort-
schrittlicher Software zu übernehmen, wird unter dem Begriff Robotic Pro-
cess Automation (RPA) zusammengefasst. In Anlehnung an die mechanische
Roboterisierung von Fertigungsprozessen übernehmen Software-Roboter
hierbei die Aufgaben von Menschen und imitieren deren Verhalten im Pro-
zess. Bei RPA handelt es sich um eine Methode aus dem Bereich der klassi-
schen Prozessautomatisierung, die durch die Möglichkeiten moderner Tech-
nologien wie Process Mining und Machine Learning ergänzt wird. Dies führt
zu signifikanten Effizienzsteigerungen und der Entlastung von Mitarbeitern
bei repetitiven, kognitiv anspruchsvollen Aufgaben.
Das Ziel von RPA ist die selbstständige Ausführung von wiederkehrenden,
repetitiven und regelbasierten Aktivitäten innerhalb eines Geschäftspro-
zesses auf der Basis von strukturierten Daten durch dedizierte Software-
Roboter, die speziell für diese Aufgaben implementiert wurden.
Die grundlegende Funktionsweise von RPA-Systemen besteht in der Auf-
zeichnung des Verhaltens eines menschlichen Bearbeiters im Prozess und
der anschließenden Automatisierung dieser Verhaltensweisen. Um diese
Verhaltensmuster zu identifizieren, können unterschiedliche Verfahren ein-
gesetzt werden. Eine Möglichkeit besteht in der Verwendung von existieren-
den Prozessmodellen, die den Ablauf, die einzelnen Aktivitäten sowie die re-
levanten Entscheidungsstrukturen innerhalb des Prozesses beschreiben.
Hierzu eignen sich beispielsweise die zuvor behandelten Modellierungskon-
ventionen in BPMN und DMN. Eine andere bzw. ergänzende Möglichkeit be-
steht in der Anwendung von Process-Discovery-Algorithmen, um das aktu-
elle Prozessverhalten aus Instanzdaten zu rekonstruieren. Diese Methode
bringt den Vorteil mit sich, dass sicher davon ausgegangen werden kann,
dass das rekonstruierte Verhalten der tatsächlichen Arbeitsweise der Pro-
zessbeteiligten entspricht.
Prozessdigitalisierung
85
Sobald ein klares Bild des zu automatisierenden Verhaltens vorliegt, können
die folgenden Schritte innerhalb eines RPA-Systems umgesetzt werden:
• Die einzelnen Prozessschritte werden regelbasiert erfasst und in den
Software-Roboter eingepflegt,
• Über Recorder-Funktionalitäten können ergänzend Anwenderinter-
aktionen mit IT-Systemen im Prozessverlauf aufgezeichnet werden,
• Anschließend können die erfassten Regeln manuell ergänzt und ggf.
vor dem Einsatz abgeändert werden,
• Der Software-Roboter nutzt die bestehenden IT-Systeme inklusive
der existierenden Benutzerschnittstellen,
• Menschliche Interaktionen mit den Benutzerschnittstellen der Soft-
ware werden durch den Software-Roboter imitiert und über die glei-
chen Kontrollinstrumente (z. B. Maus und Tastatur) umgesetzt.
Diese Schritte sollen am Beispiel eines typischen Prozesses zur Rechnungs-
erstellung veranschaulicht werden (vgl. CapGemini, 2016, S. 13). Zur Erstel-
lung einer Rechnung muss sich ein Sachbearbeiter von seinem Arbeitsplatz-
rechner aus in verschiedenen Systemen anmelden, beispielsweise über eine
Remote-Desktop-Verbindung wie Citrix in einem ERP-System, welches die
Kundenstammdaten vorhält. In diesem System muss der entsprechende
Stammdatensatz des Kunden aufgerufen werden, der als Rechnungsemp-
fänger vorgesehen ist. Anschließend müssen diese Daten in das System zur
Rechnungserstellung übertragen werden, wobei Informationen aus ver-
schiedenen Feldern in die korrekten Systemmasken eingefügt werden müs-
sen. Im nächsten Schritt müssen die einzelnen Rechnungspositionen aus der
Bestellübersicht des ERP-Systems einzeln übernommen und übertragen
werden, was wiederum einen Wechsel zwischen den Anwendungen not-
wendig macht. Nach der Datenübernahme erfolgt abschließend die Finali-
sierung der Rechnung und der Prozess endet (vgl. Abbildung 38).
Abbildung 38: Beispielprozess vor und nach der Automatisierung durch RPALogin in System Kopieren der
Stammdaten
Wechsel zwischen
Anwendungen
Einfügen der
Informationen
Finalisierung der
Rechnung
20s 40s 30s 20s 60s
Systemwechsel Systemwechsel Systemwechsel Systemwechsel
Wiederholung für jede Rechnungsposition (10x)
Manueller IST-Prozess
Login in System Kopieren der
Stammdaten
Wechsel zwischen
Anwendungen
Einfügen der
Informationen
Finalisierung der
Rechnung
20s 5s 5s 5s 5s
Systemwechsel Systemwechsel Systemwechsel Systemwechsel
Wiederholung für jede Rechnungsposition (10x)
Durch RPA automatisierter SOLL-Prozess
Prozessdigitalisierung
86
In Abbildung 38 sind unterhalb der einzelnen Prozessschritte die geschätzten
Bearbeitungszeiten angegeben. Betrachten wir beispielhaft die Erstellung
einer Rechnung mit zehn Rechnungspositionen, so ergibt sich ein zeitlicher
Gesamtaufwand von 20s + 40s + 10 * (30s + 20s) + 60s = 620s. Ein Sachbear-
beiter ist mit der Erstellung einer Rechnung also mehr als zehn Minuten be-
fasst. Der Prozess der Rechnungserstellung ist damit nicht nur zeitintensiv,
sondern bindet darüber hinaus auch wertvolle Ressourcen, die nicht für
wertschöpfende Tätigkeiten zur Verfügung stehen. Im Gegensatz zu den re-
petitiven Aktivitäten innerhalb des Rechnungserstellungsprozesses können
kreative oder entscheidungsbezogene Handlungen nicht sinnvoll automati-
siert werden und sollten daher den Schwerpunkt der Arbeit von menschli-
chen Prozessbearbeitern darstellen.
Der dargestellte Prozess kann durch den Einsatz einer RPA-Lösung automa-
tisiert werden. Hierzu werden die Prozessschritte durch den Software-Robo-
ter aufgezeichnet und über die gleichen Systemschnittstellen ausgeführt wie
von einem Sachbearbeiter: Die Anmeldung im System, das Kopieren der
Stammdaten, die Übernahme der einzelnen Rechnungspositionen sowie die
finale Erstellung der Rechnung werden vom System übernommen. In Abbil-
dung 38 sind für den automatisierten Prozess ebenfalls Bearbeitungszeiten
angegeben, welche einen Eindruck vom Grad der Effizienzsteigerung gegen-
über einer manuellen Bearbeitung geben. So ist im Zuge der Automatisie-
rung mit einem zeitlichen Gesamtaufwand von 20s + 5s + 10 * (5s + 5s) + 5s
= 130s zu rechnen, was einer Steigerung um den Faktor 5 entspricht.
Die tatsächlichen Bearbeitungszeiten im Rahmen der Automatisierung kön-
nen in der Praxis abweichen. Dies liegt in der eingeschränkten Reaktionsfä-
higkeit der verwendeten Systemoberflächen begründet: Während die Bear-
beitung einzelner Aufgaben durch einen Software-Roboter prinzipiell ohne
zeitliche Verzögerung geschehen kann (z. B. < 1s für das Kopieren und Einfü-
gen einer Rechnungsposition), erzeugt der Wechsel zwischen einzelnen Fel-
dern auf der Benutzeroberfläche sowie der Wechsel zwischen verschiede-
nen Anwendungen des Systems eine Verzögerung, da diese auf die Bearbei-
tung durch menschliche Benutzer ausgelegt sind. Software-Roboter müssen
in diesen Fällen also gewissermaßen auf die Aktualisierung der Oberfläche
warten, bevor sie mit der nächsten Aktivität fortfahren können.
Im Rahmen der Automatisierung im beschriebenen Szenario ergeben sich
unmittelbar folgende Vorteile gegenüber der Bearbeitung durch einen Sach-
bearbeiter:
• eine gesteigerte Effizienz der Bearbeitung durch die realisierten zeit-
lichen Einsparungen, da durch einen Software-Roboter die Bearbei-
tung um den Faktor 5 beschleunigt wird,
• die dauerhafte und unterbrechungsfreie Einsetzbarkeit der Lösung,
da keine Bearbeitungspausen oder sonstigen zeitlichen Restriktionen
beachtet werden müssen (24/7 Dauerbetrieb) sowie
Prozessdigitalisierung
87
• eine geringe Fehleranfälligkeit aufgrund fehlender Ermüdungser-
scheinungen und Konzentrationsschwächen
Weiterhin entstehen durch die automatisierte Prozessausführung detail-
lierte Ereignislogdaten der einzelnen Prozessinstanzen, sodass deren Nach-
vollziehbarkeit erhöht und die Transparenz der Abläufe gesteigert wird.
Hierdurch wird die Durchführung von Prozessen eindeutig nachweisbar,
ohne dass die Notwendigkeit einer aufwendigen manuellen Protokollierung
besteht. Die Nachvollziehbarkeit der Abläufe ersetzt allerdings keine Kon-
trolle und Verifikation der Ergebnisse.
Zusammenfassend können RPA-Systeme als eine von Software-Robotern
übernommene Automatisierung von Prozessen verstanden werden, die
menschliches Verhalten imitieren und dadurch in der Lage sind, beste-
hende IT-Systeme und deren Benutzeroberflächen zu verwenden. Als Vor-
teile lassen sich insbesondere eine gesteigerte Effizienz, geringere Fehler-
anfälligkeit und die Möglichkeit für einen Dauereinsatz feststellen. Dar-
über hinaus können frei werdende Ressourcen effektiver eingesetzt wer-
den und beispielsweise Aufgaben wahrnehmen, die ein hohes Maß an Kre-
ativität oder Entscheidungskompetenz benötigen.
5.2 Merkmale von RPA-Systemen und Abgrenzung
Nachdem im vorherigen Abschnitt die grundsätzliche Idee von Robotic Pro-
cess Automation vorgestellt und anhand eines Anwendungsszenarios bei-
spielhaft illustriert wurde, werden nachfolgend die Charakteristika von RPA-
Systemen dargestellt und voneinander abgegrenzt. Dieses Verständnis ist
wichtig, um die Eignung von RPA für die Automatisierung von Prozessen im
eigenen Unternehmen beurteilen und bewerten zu können.
Trotz der Vielzahl an verschiedenen RPA-Lösungen und der verwendeten
methodischen Ansätze lassen sich die folgenden Kernelemente als Gemein-
samkeiten der Systeme zusammenfassen:
• Die Systeme arbeiten regelbasiert in dem Sinne, dass keine komple-
xen Entscheidungen im Prozessverlauf erstmalig getroffen werden,
sondern es steht die effiziente Bearbeitung von Routineprozessen im
Vordergrund,
• RPA-Systeme eignen sich für die Automatisierung von repetitiven
Geschäftsprozessen, die mit hoher Regelmäßigkeit und Frequenz,
aber stark standardisiert durchgeführt werden,
• die Systeme benötigen strukturierte Daten als Eingaben und produ-
zieren strukturierte Daten als Ausgabe; ändert sich diese Struktur, ist
im Allgemeinen auch eine Anpassung des Systems notwendig, und
Prozessdigitalisierung
88
• sie eignen sich insbesondere zur Automatisierung von komplexen
Prozessketten, die systemübergreifend durchgeführt werden, also
die Interaktion zwischen mehreren IT-Systemen beinhalten.
Die identifizierten Gemeinsamkeiten definieren damit auch einige Anforde-
rungen für den Einsatz von RPA. Der Fokus liegt auf der Automatisierung
von repetitiven, d. h. sich oft wiederholenden und im Kern gleichen oder
sehr ähnlichen Abläufen. Standardisierte Prozessabläufe stellen damit eine
klare Grundvoraussetzung für RPA dar, da häufig wechselndes Prozessver-
halten nicht in klaren, durch Regeln definierten Strukturen abgebildet wer-
den kann. Weiterhin ist hervorzuheben, dass die Einführung von Software-
Robotern mit standardisierten Aufgaben nicht zu einer Automatisierung des
Prozesses selbst führt. RPA fungiert als Möglichkeit zur Prozessautomatisie-
rung und nicht als Werkzeug für die Identifikation von Prozessschwachstel-
len oder Potentialen zur Standardisierung. Eine Standardisierung und ggf.
Überarbeitung von Prozessabläufen muss daher im Vorfeld der Automatisie-
rung durch den Einsatz von RPA erfolgen und kann beispielsweise durch Pro-
cess-Mining-Analysen unterstützt werden.
Robotic Process Automation kann als wichtiger Bestandteil eines ganzheit-
lichen Geschäftsprozessmanagements im Sinne des in Abschnitt 2.1.2 ein-
geführten BPM-Lebenszyklusmodells fungieren. Die Entscheidung für die
Automatisierung eines Prozesses geht in der Praxis mit verschiedenen Impli-
kationen einher, die bezüglich der strategischen Gesamtausrichtung, ihren
Auswirkungen auf andere Prozesse sowie der technischen Umsetzung über-
prüft werden müssen. Abbildung 39 zeigt die Beziehungen zwischen RPA und
den einzelnen Phasen des BPM-Lebenszyklus.
Abbildung 39: Einordnung der von RPA in den BPM-Lebenszyklus
Die Richtung der Pfeile zeigt die Beeinflussung zwischen RPA und den einzel-
nen Phasen des Lebenszyklus.Strategie-
entwicklung
Implementierung
Ausführung
Monitoring und
Controlling
RPA
Definition und
Modellierung
Optimierung und
Weiterentwicklung
Prozessdigitalisierung
89
• Strategieentwicklung: Im Rahmen der Strategieentwicklung sollten
Unternehmen eine korrekte Priorisierung von Prozessen in Bezug auf
die zu erwartenden Mehrwerte durch eine RPA-gestützte Automati-
sierung durchführen. Die Relevanz eines Prozesses bleibt das wich-
tigste Effizienzkriterium, unabhängig davon, ob die Ausführung durch
eine weitergehende Automatisierung schneller und weniger fehler-
anfällig durchgeführt wird. Gleichzeitig bietet RPA den großen Vor-
teil, dass der Einsatz ohne die Veränderung von Prozessen selbst er-
folgen kann; dadurch wird die strategische Ausrichtung nicht durch
eine technische Implementierung beeinflusst, sondern diese kann
vielmehr als Anlass genommen werden, die Prozessstrategie auf Ak-
tualität hin zu überprüfen.
• Definition und Modellierung: Bei der Einführung von RPA innerhalb
eines Prozesses können manuell modellierte oder durch die Anwen-
dung von Process Discovery entstandene Prozessmodelle als Grund-
lage für die Auswahl der zu automatisierenden Aktivitäten verwen-
det werden. Die Implementierung von RPA-Systemen innerhalb ei-
nes Prozesses kann wiederum im entsprechenden Prozessmodell zu
Dokumentationszwecken annotiert werden.
• Implementierung: Da der Einsatz von RPA ohne die Anpassung oder
Entwicklung von Systemschnittstellen erfolgt, wird die Implementie-
rung der Geschäftsprozesse nicht beeinflusst.
• Ausführung: Die Ausführung von Prozessen kann aufgrund der Auto-
matisierung aktiv unterstützt und signifikant beschleunigt werden
(vgl. Beispiel des Rechnungserstellungsprozesses in Abschnitt 5.1).
• Monitoring und Controlling: RPA stellt eine Möglichkeit dar, ohne
den expliziten Einsatz eines Workflow-Management-Systems eine
Überwachung von Geschäftsprozessen zur Laufzeit (Monitoring) und
die Auswertung von historischen Ausführungen (Controlling) zu rea-
lisieren. Zu beachten ist, dass nur bei vollständig automatisierten
Prozessen eine digitale Abbildung innerhalb des RPA-Systems erfolgt.
RPA adressiert insbesondere manuelle und nicht vollständig digital
integrierte Prozesse (vgl. Abschnitt 5.3) und eröffnet damit häufig
erstmalig die Möglichkeit einer statistischen Auswertung von Teil-
prozessen. Da die rein manuelle Ausführung durch Sachbearbeiter
unter Verwendung verschiedener IT-Systeme und Tools die Erstel-
lung von auswertbaren Ereignislogs verhindert, kann RPA damit auch
die Datenbasis für die Anwendung von Process Mining liefern.
• Optimierung und Weiterentwicklung: Die Erfahrungen aus der An-
wendung können eine Weiterentwicklung und Optimierung von Pro-
zessen unterstützen; umgekehrt wirken sich Veränderungen an Pro-
zessen auch direkt auf deren Umsetzung innerhalb des RPA-Systems
aus.
Prozessdigitalisierung
90
Zusammenfassend kann RPA für das Geschäftsprozessmanagement von
entscheidender Bedeutung sein. Es kann dazu beitragen, Prozessabläufe
transparenter zu machen, und bei der Identifikation von Verbesserungs-
potentialen helfen. Ein großer Vorteil gegenüber anderen Technologien
liegt in der geringen Eintrittshürde bei der Umsetzung, da keine zwin-
gende Notwendigkeit für Änderungen an der strategischen Ausrichtung
oder den bestehenden Prozessimplementierungen besteht. Gleichzeitig
bleibt die Relevanz einer Aufgabe wichtig, auch wenn sie von RPA schnel-
ler und präziser ausgeführt werden kann. Weiterhin stellen die Priorisie-
rung und die Standardisierung von Prozessen wichtige Voraussetzungen
für die prinzipielle Anwendbarkeit von RPA dar.
In Ergänzung zu den in Abschnitt 5.1 am Beispiel des Rechnungserstellungs-
prozesses identifizierten Vorteilen existieren die folgenden allgemeinen
Vorteile von RPA-Systemen:
• Simulation von menschlichen Verhaltensweisen: Durch die genaue
Nachbildung menschlicher Interaktionen mit einem IT-System erfolgt
der Einsatz von RPA im Prozess transparent. Dies bietet beispiels-
weise die Möglichkeit, dass gezielt nur bestimmte Prozessschritte au-
tomatisiert werden können, etwa unternehmensinterne Schritte, die
keine Berührungspunkte zu externen Prozessbeteiligten wie Kunden
oder Lieferanten besitzen. Somit ist für diese Prozessteilnehmer
keine Änderung erkennbar und es muss keine Abstimmung erfolgen.
Gleichermaßen können aber auch passive externe Interaktionen, bei
denen beispielsweise Daten aus einem externen System abgefragt
werden, automatisiert werden, ohne dass auf der Seite des anderen
Systems eine programmiertechnische Anpassung geschehen muss.
• Keine Anpassung von Prozessen: Als weitere Folge der Simulation
von menschlichen Verhaltensweisen müssen auch die zu automati-
sierenden Prozesse selbst nicht angepasst werden und können direkt
im aktuellen Zustand als Eingabe für RPA dienen. Obwohl eine kriti-
sche Prüfung der zu automatisierenden Prozesse immer sinnvoll ist
(vgl. den folgenden Abschnitt zu den Nachteilen von RPA-Systemen),
senkt dies die möglichen Eintrittshürden weiter ab.
• Keine technische Implementierung notwendig: Die Nutzung der
existierenden Benutzeroberflächen von IT-Systemen erlaubt es, Pro-
zessverhalten zu automatisieren, ohne technische Anpassungen und
aufwendige Implementierungen machen zu müssen. Im Vergleich zur
Implementierung einer Datenschnittstelle, über die Informationen in
einem spezifizierten Format abgefragt werden können, bedeutet
dies einen immensen Vorteil in Bezug auf die anfallenden Kosten so-
wie den zeitlichen Vorlauf für die technische Umsetzung.
• Schnelle und unkomplizierte Nutzung: Am Markt verfügbare Soft-
ware-Lösungen sind einfach zu bedienen und erlauben eine schnelle
und unkomplizierte Anwendung, ohne ein tiefes technisches Ver-
ständnis vorauszusetzen. Tools zum Monitoring der implementierten
Prozessdigitalisierung
91
Software-Roboter ermöglichen eine zentrale Überwachung und
Steuerung von deren Arbeitsweise. Sie ermöglichen weiterhin ein
schnelles Eingreifen bei auftretenden Fehlern oder unerwarteten
Probleme z. B. durch unpassende Dateneingaben.
• Erhöhte Effizienz und bessere Prozessverfügbarkeit: Viele Aufga-
ben, wie das Einfügen von Informationen oder die Übertragung von
Daten zwischen verschiedenen Eingabemasken, lassen sich durch
Software-Roboter schneller erledigen, als Sachbearbeiter dazu in der
Lage wären. Außerdem benötigen die Systeme keinerlei Pausen und
können im Dauerbetrieb eingesetzt werden, was im Ergebnis zu einer
gesteigerten Prozessverfügbarkeit und einer schnelleren Bearbei-
tung von Fällen führt. Die Kosten für die Einführung von RPA amorti-
sieren sich durch die Einsparungen oftmals bereits innerhalb weniger
Monate.
• Verbesserte Nutzung von Ressourcen: Die Automatisierung von sich
wiederholenden Prozessen kann Mitarbeiter von „monotonen“ und
„langweiligen“ Aufgaben entbinden und zu einer besseren Nutzung
ihrer Arbeitsleistung führen. Durch die Konzentration auf komplexe,
schwierige Probleme oder kommunikative Aufgaben, z. B. im Service-
Bereich bei der Beantwortung von Anfragen, kann die Prozessquali-
tät insgesamt gesteigert werden. Letztendlich ist auch eine verbes-
serte Mitarbeiterzufriedenheit ein wesentlicher Vorteil, der durch
Automatisierung erzielt werden kann.
• Flexibilität und Skalierbarkeit: Bestimmte Prozesse werden dauer-
haft oder periodisch mit sehr hoher Frequenz ausgeführt. Im Beispiel
der Rechnungserstellung könnten beispielsweise zum Ende eines
Monats verstärkt Rechnungen erstellt werden. Diese Umstände stel-
len hohe Anforderungen an die Verfügbarkeit der beteiligten Res-
sourcen: Kommt es etwa zu krankheitsbedingten Ausfällen von Mit-
arbeitern oder zu einer außergewöhnlich hohen Zahl an zu bearbei-
tenden Prozessen, kann die fristgerechte Ausführung häufig nicht ga-
rantiert werden. RPA bietet Möglichkeit, die für einen Prozess allo-
kierten Ressourcen flexibel zu skalieren und dadurch hohe Belastun-
gen in Spitzenzeiten abzufedern. Einzelne Software-Roboter können
bedarfsweise zu- oder abgeschaltet werden, um der aktuellen Ar-
beitsbelastung gerecht zu werden.
Je nach Art des zu automatisierenden Prozesses und der speziellen fachli-
chen Anforderungen des Szenarios kann die Bedeutung der genannten As-
pekte variieren. Gleichzeitig lassen sich auch einige allgemeine Nachteile
identifizieren, die der Einsatz von RPA-Systemen mit sich bringen kann.
• Skalierung von Fehlern: Als Folge der drastisch beschleunigten Aus-
führung von Prozessen besteht die Gefahr, dass sich Fehler bei Prob-
lemen mit der gleichen Geschwindigkeit ausbreiten. Da die Ausfüh-
rung zudem in den meisten Fällen ohne permanente Überwachung
durch einen menschlichen Prozessbeteiligten erfolgt, kann bis zur
Prozessdigitalisierung
92
Entdeckung des Fehlers eine gewisse Zeit vergehen. Beim Beispiel
des Rechnungserstellungsprozesses könnte eine geänderte Reihen-
folge der Eingabeformularfelder in einem der IT-Systeme dazu füh-
ren, dass Daten bei der Übernahme an einer falschen Stelle eingefügt
werden. Aus diesem Grund ist, wie bereits angesprochen, eine regel-
mäßige Ergebniskontrolle und Verifikation essentiell.
• Fehlende Sicherheit bei Release-Wechseln: Im Gegensatz zu einer
technischen Integration von IT-Systemen oder der Implementierung
einer dedizierten Schnittstelle zum Datenaustausch setzt RPA an der
Oberfläche der jeweiligen IT-Systeme an. Dies führt dazu, dass keine
direkte Verbindung zu den verarbeiteten Daten besteht und keine
Spezifikation darüber existiert, welche Daten in welchem Format und
an welcher Stelle gespeichert werden. Im Rahmen eines Software-
Release-Wechsels kann eine Änderung an der Benutzeroberfläche,
beispielsweise eine geänderte Eingabemaske, dazu führen, dass Da-
ten durch RPA falsch verarbeitet werden. Für kritische Prozesse mit
sich häufig ändernden Systemoberflächen stellt RPA damit teilweise
keine äquivalente Alternative zu einer umfangreichen technischen
Systemintegration dar.
• RPA führt zu keiner Prozessverbesserung per se: Der Einsatz von Au-
tomatisierungstechnik führt für sich genommen niemals zu einer
Verbesserung des automatisierten Vorgangs. Dieser Umstand gilt
auch für RPA, sodass alleine aus dessen Einsatz keine Prozessverbes-
serung erzielt werden kann. Prozesse werden effizienter ausgeführt,
was aber nicht bedeutet, dass keine weitergehenden Optimierungs-
potentiale existieren. Im Extremfall besteht die Gefahr, dass in sich
problematische, aus fachlicher Sicht ineffiziente Prozessstrukturen
durch die Automatisierung zementiert werden oder gar fehlerhaftes
Prozessverhalten automatisiert wird.
• Aktuell eher für einfache Automatisierungen geeignet: Heute ver-
fügbare RPA-Lösungen eignen sich mit Blick auf die Komplexität eher
für die Automatisierung einfacher Aufgaben bei sich wiederholenden
Prozessen. Aufgaben, die komplexe Entscheidungen, die Auswertung
und Gegenüberstellung verschiedener Informationen oder die krea-
tive Lösung einer erstmalig auftretenden Problemstellung beinhal-
ten, sind durch RPA aktuell nicht lösbar. Die Entwicklung im Bereich
von KI-basierten RPA-Systemen bringt aber auch für bestimmte kom-
plexere Anwendungsszenarien große Fortschritte (vgl. Abschnitt
5.4.4).
Die dargestellten allgemeinen Vor- und Nachteile sind beim konkreten Ein-
satz von Systemen sowie bei der Auswahl von Prozessen für eine Automati-
sierung jeweils kritisch zu prüfen. Hierbei spielen auch spezifische Anforde-
rungen des jeweiligen Anwendungsszenarios eine bedeutende Rolle. Im
nächsten Abschnitt werden verschiedene Kriterien für die Auswahl von
Prozessdigitalisierung
93
Prozessen präsentiert, die für eine Automatisierung durch RPA grundsätzlich
geeignet sind.
5.3 Auswahl von automatisierbaren Prozessen
Der Fokus von RPA liegt aktuell auf der Automatisierung von sogenannten
Back-Office-Prozessen. Zu den klassischen Anwendungsszenarien zählen
beispielsweise die Übertragung von Informationen zwischen mehreren IT-
Systemen, die Dateneingabe in vordefinierte Eingabemasken, die Generie-
rung von Massen-E-Mails, die Konvertierung von Dokumenten zwischen ver-
schiedenen Formaten oder die Durchführung von Transaktionen innerhalb
von ERP-Systemen. Diesen Prozessen und Aktivitäten ist gemein, dass sie
häufig nach bestimmten Vorgaben, gleichen oder sehr ähnlichen Schemata
und unter Verwendung der gleichen IT-Systeme ablaufen.
Zum Beispiel wird die Konvertierung eines Dokumentes aus einem Eingangs-
format (z. B. Microsoft Word .docx) in ein bestimmtes Zielformat (z. B. Adobe
PDF .pdf) immer durch die Abfolge der gleichen Befehle innerhalb einer be-
stimmten Software (z. B. Adobe Acrobat Professional) durchgeführt werden.
Häufig bietet die genutzte Software aber keine Möglichkeit zur Automatisie-
rung der gewünschten Funktionen (sog. Scripting) an. Auch die Verwendung
einer anderen Software-Alternative (z. B. Linux-basierte Tools mit Scripting-
Funktion) scheidet für viele unternehmerische Bereiche aus, da bestimmte
Vorgaben (z. B. PDF-Zertifizierungen nach einem rechtssicheren Standard)
nur durch die vorhandene Software abgebildet werden können. An dieser
Stelle kann RPA diese Aufgabe übernehmen. Dieses einfache Beispiel ver-
deutlicht die grundsätzlichen Überlegungen für die Auswahl von geeigneten
Aufgaben und kann für komplexere Prozessabläufe entsprechend erweitert
werden.
Anhand der beiden Kriterien Prozessstruktur und Prozesshäufigkeit sowie
der notwendigen Technologie spannt Abbildung 40 ein Bewertungsraster für
die Auswahl von automatisierbaren Prozessen auf. Wie bereits dargestellt,
nehmen mit abnehmender Prozessstruktur die Freiheitsgrade und die Ent-
scheidungsfreiheit bei der Prozessausführung zu; während stark struktu-
rierte Prozesse innerhalb von ERP-Systemen und Workflow-Systemen gut
abgebildet werden können, ist für Prozesse, die weniger stark durch IT-Sys-
teme unterstützt sind (vgl. die einleitenden Beispiele, die zwar eine klare
Struktur aufweisen, aber nicht durch IT-Systeme „geführt“ werden), der Ein-
satz von heute verfügbaren RPA-Technologien zielführend. Um sehr
schwach strukturierte Prozesse abbilden zu können, die zusätzlich ein tiefes
Prozessverständnis benötigen oder beispielsweise Daten aus unstrukturier-
ten Dokumenten interpretieren müssen, sind KI-basierte RPA-Ansätze not-
wendig (vgl. Abschnitt 5.4.4).
In Bezug auf das Kriterium Prozesshäufigkeit sind zunächst solche Prozesse
interessant, die mit einer hohen Frequenz ausgeführt werden. Prozesse, die
mit einer hohen Häufigkeit ausgeführt werden, sind üblicherweise durch
existierende ERP- oder Workflow-Systeme unterstützt und in diesen
Prozessdigitalisierung
94
abgebildet. Je „seltener“ und spezieller ein Prozess ist, desto stärker müssen
im Allgemeinen auch spezifische Prozessinformationen ausgewertet wer-
den. RPA kommt insbesondere in denjenigen Prozessen zum Einsatz, die
nicht häufig genug ausgeführt werden, um Teil einer Standardlösung zu wer-
den, aber häufig genug, dass ihre Ausführung einen hohen Aufwand für die
Prozessbeteiligten bedeutet.
Die beiden Kriterien sind nicht als komplett trennscharfe und exklusive Ab-
grenzung zwischen verschiedenen Prozesstypen zu interpretieren; vielmehr
sollen sie das Betrachtungsspektrum bei der Wahl zu automatisierender Pro-
zesse begrenzen und erste Anhaltspunkte für die Auswahl liefern.
Abbildung 40: Durch RPA automatisierbare Geschäftsprozesse
Die Unternehmensberatung CapGemini definiert zusätzlich die folgenden
Kriterien für die Auswahl von Prozessen und Aufgaben, die sich für eine
Automatisierung durch RPA-Systeme eignen (vgl. CapGemini, 2019, S. 15):
• Prozesse, in denen das Arbeiten mit mehreren IT-Systemen notwen-
dig ist, um beispielsweise Daten aus einem System in ein anderes Sys-
tem zu übertragen,
• Prozesse, in denen häufig menschliche Fehler auftreten, beispiels-
weise durch Unachtsamkeit oder nachlassende Konzentration auf-
grund der hohen Repetitivität der durchgeführten Aufgaben,
• Prozesse, die in eine Reihe von eindeutigen Regeln und Vorschriften
aufgeteilt werden können; ein guter Anhaltspunkt für dieses Krite-
rium ist die Möglichkeit, Entscheidungsstrukturen durch DMN zu mo-
dellieren (vgl. Abschnitt 0),
• Prozesse, die bereits eine relativ hohe Automatisierungsrate auf-
weisen und nach dem Start nur wenig menschliches Eingreifen in den
Prozessverlauf notwendig machen,
Prozessdigitalisierung
95
• Prozesse, die nur in seltenen Fällen eine Ausnahmebehandlung be-
nötigen, d. h., bei denen nur eine beschränkte Zahl möglicher Prob-
leme auftreten kann und welche in ihren Auswirkungen überschau-
bar sind (keine kritischen Prozesse),
• Prozesse, die dauerhaft in großer Zahl (Massenprozesse) oder in be-
stimmten Zeiten sehr häufig (Spitzenauslastungen) ausgeführt wer-
den müssen, oder
• Prozesse, für die eine Automatisierung durch dedizierte IT-Systeme
sinnvoll ist, die aber in mittlerer Zukunft durch neue Systeme abge-
löst werden; dieser Fall tritt oftmals ein, wenn rechtliche Rahmenbe-
dingungen geändert werden oder ein absehbarer Release-Wechsel
ansteht (z. B. Umstellung auf SAP S/4HANA). Auch wenn diese Ände-
rungen erst in einigen Jahren umgesetzt sein werden, machen auf-
wendige Neuentwicklungen an dieser Stelle häufig keinen Sinn mehr.
RPA kann hier eine schnelle Lösung für die Prozessoptimierung dar-
stellen (Quick win).
Im nächsten Abschnitt werden die Unterschiede zwischen den verschiede-
nen Formen von RPA-Systemen erläutert und die heute bestehenden Sys-
teme gegenüber den zukünftig zu erwartenden Weiterentwicklungen positi-
oniert.
5.4 Evolution von RPA-Systemen
5.4.1 Überblick
Im Zuge von Strategien zur Kostensenkung lagerten viele Unternehmen, be-
ginnend in den 1990er Jahren, routinemäßige Arbeitstätigkeiten in Länder
mit einem niedrigeren Lohnniveau aus (Outsourcing). Hierbei wurden insbe-
sondere diejenigen operativen Aktivitäten ausgelagert, die keine wertschöp-
fenden Tätigkeiten des Kerngeschäfts eines Unternehmens betreffen. Die
Tätigkeiten wurden beispielsweise in Osteuropa, Lateinamerika oder Asien
(CapGemini, 2016, S. 10) erledigt, dort fanden sich die Kernmärkte, wohin
Aktivitäten ausgelagert wurden. Je nach Distanz und Zeitzone der Länder, in
die ausgelagert wird, unterscheidet man hierbei zwischen Nearshoring und
Offshoring. Häufig werden die outgesourcten Tätigkeiten in sogenannten
Shared-Service Center gebündelt, die eine spezielle Unternehmensfunktion
wie Buchhaltung, Personal oder IT abbilden. Im Zuge der genannten Out-
sourcing-Aktivitäten wurden vielfach umfangreiche Standardisierungsinitia-
tiven sowie Maßnahmen zur Harmonisierung von IT-Systemen und Prozes-
sen durchgeführt, um einheitliche Ergebnisstandards für die outgesourcten
Tätigkeiten zu definieren.
RPA bietet nun die Möglichkeit, die im Unternehmen verbliebenen Routine-
aufgaben, welche beispielsweise aus Gründen der Vertraulichkeit nicht für
Prozessdigitalisierung
96
ein Outsourcing in Frage kommen, intelligent zu automatisieren. Mit der
Evolution von RPA-Systemen erlangen diese immer größere Fähigkeiten im
Umgang mit weniger strukturierten Prozessabläufen und treten aufgrund
möglicher weiterer Kosteneinsparungspotentiale in Konkurrenz zum klassi-
schen Outsourcing.7
5.4.2 Regelbasierte Systeme
Regelbasierte RPA-Systeme stellen heute die Mehrzahl der am Markt ver-
fügbaren Angebote dar. Sie verfolgen den relativ einfachen Ansatz, einen zu-
vor im System hinterlegten Prozess Schritt für Schritt abzuarbeiten. Darüber
hinaus können weitere Regeln im System hinterlegt werden, beispielsweise
können unterschiedliche Aktionen ausgelöst werden, je nachdem, welcher
Wert vom System aus einem bestimmten Dateneingabefeld gelesen wurde.
Charakteristisch für regelbasierte RPA-Systeme sind insbesondere die fol-
genden Punkte:
• Jegliches Systemverhalten muss vorab spezifiziert werden: Das Sys-
tem ist nicht in der Lage, eigenständig auf bestimmte Vorfälle im Pro-
zess zu reagieren, sondern befolgt lediglich die hinterlegten Regeln.
Sollte zu einer Ausnahmesituation keine Regel hinterlegt sein, ist das
System nicht in der Lage, eine angepasste Entscheidung zu treffen;
im Regelfall wird dann auf eine standardisierte Fehlerbehandlung zu-
rückgegriffen (z. B. eine Nachricht an den Prozessverantwortlichen)
und die Ausführung des Prozesses bis auf weiteres gestoppt.
• Änderungen an der Benutzeroberfläche der verwendeten IT-Systeme
machen eine Anpassung der Software-Roboter notwendig: Ändert
sich die Benutzeroberfläche, beispielsweise indem ein Eingabefeld
an eine andere Position verschoben wird oder ein Button an eine an-
dere Stelle wandert, so muss diese Änderung manuell im Roboter
nachgepflegt werden.
Die beiden angesprochenen Charakteristiken zeigen die Schwachstellen, die
heutige RPA-Systeme häufig haben. Sie sind für ein bestimmtes Anwen-
dungsszenario und bestimmte Software-Versionen optimiert und müssen
bei Änderungen manuell angepasst werden. Aktuelle Marktlösungen begeg-
nen diesen Problemen aber mit verschiedenen Konzepten wie einer aktuell
gepflegten Bibliothek an Vorlagen für Benutzeroberflächen, die automatisch
in die Software-Roboter eingespielt werden können. Ändert sich eine Ober-
fläche, so wird diese Änderung in der Vorlage vom Hersteller des RPA-Sys-
tems nachgepflegt, sodass die korrekte Funktion weiterhin sichergestellt
werden kann.
7 Zur Diskussion siehe beispielsweise Deloitte (2016)
Prozessdigitalisierung
97
Die Erstellung der Regeln, nach denen die Software-Roboter arbeiten, er-
folgt meistens über eine Rekorder-Funktion, die das Verhalten bei einem
menschlichen Benutzer beobachtet und in eine vom RPA-System verwert-
bare Logik übersetzt. Alternativ existiert auch hier je nach System die Mög-
lichkeit, verfügbare Vorlagenaktivitäten zu verwenden, mit denen ein auto-
matisierter Prozess mit einem grafischen Werkzeug zusammengestellt, mo-
difiziert und getestet werden kann.
5.4.3 Wissensbasierte Systeme
Die nächste Evolutionsstufe von RPA-Systemen liegt in der Automatisierung
von wissensintensiven Prozessen, welche über die reine regelbasierte Abar-
beitung von Prozessschritten hinausgeht. Wissensbasierte Software-Robo-
ter sind in der Lage, mit Sonderfällen in der Prozessausführung (beispiels-
weise bislang nicht aufgetretene Datenkonstellationen, geänderte Eingabe-
masken) umzugehen und darauf intelligent zu reagieren.
Weiterhin sind sie in der Lage, den Kontext eines Prozesses auszuwerten und
in die Entscheidungsfindung für die nächste durchzuführende Prozessaktivi-
tät miteinzubeziehen. Ein Beispiel aus dem Bereich der Kundenbetreuung
verdeutlicht dies: Zu einer textuellen Anfrage eines Kunden, die z. B. per E-
Mail in der Kundenbetreuung eintrifft, kann ein Software-Roboter eine ent-
sprechende Vorselektion basierend auf dem Inhalt der Anfrage und weite-
ren Parametern, wie der Klassifizierung des Kunden und der Dringlichkeit,
treffen. Weiterhin denkbar sind die Suche nach Antworten auf die Kunden-
anfrage in einer Wissensdatenbank zu bereits beantworteten Fragen und die
(teil-)automatisierte Beantwortung der Kundenanfrage.
Die Umsetzung von wissensbasierten RPA-Systemen erweitert das Spektrum
möglicher Anwendungsszenarien für die Prozessautomatisierung signifikant.
Gleichzeitig sind zwei wichtige Aspekte zu beachten:
• Der Einsatz verschiedener Technologien unter anderem aus den Be-
reichen Informationsextraktion, Natürliche Sprachverarbeitung,
Kontexterkennung und Machine Learning ist notwendig, um die skiz-
zierten Anwendungsfälle abzubilden. Diese Technologien erzielen
nach aktuellen Entwicklungen für viele Daten und Szenarien sehr
gute Resultate, die konkrete Eignung für den praktischen Einsatz in
einem Unternehmen muss aber im Einzelfall überprüft werden.
• Bedingt durch die Nutzung der zuvor aufgeführten fortgeschrittenen
Technologien ist eine spezifischere Anpassung an den jeweiligen Un-
ternehmensprozess notwendig. Im Vergleich zu regelbasierten Sys-
temen muss außerdem mit einer aufwendigeren und zeitintensive-
ren Installation der Software-Roboter gerechnet werden.
Prozessdigitalisierung
98
Einige der heute am Markt verfügbaren RPA-Systeme besitzen bereits Teile
der dargestellten Funktionalität. Ebenso wie die im nächsten Abschnitt dar-
gestellten KI-basierten Systeme zählen diese Funktionen aber nicht zum di-
rekt nutzbaren Standardumfang der Software, sondern bedürfen einer spe-
zifischen Anpassung an die Unternehmensprozesse.
5.4.4 KI-basierte Systeme
Der Bereich der KI-basierten RPA-Systeme wird im Englischen als Cognitive
RPA bezeichnet. Dieser Begriff betont die stärkere funktionale Fokussierung
der Software-Roboter auf kognitive Aspekte wie die Wahrnehmung und In-
terpretation visueller oder auditiver Inhalte. Der Einsatz von Methoden aus
dem Bereich der Künstlichen Intelligenz wie Machine Learning, Deep Learn-
ing und Computer Vision ermöglicht eine intelligente Reaktion auf Ereignisse
im Prozessverlauf sowie Änderungen der Benutzeroberfläche der verwende-
ten IT-Systeme. Da sich die Funktionalitäten von KI-basierten Systemen
ebenso wenig anhand eindeutiger Kriterien festmachen lassen wie Metho-
den des Bereiches Künstliche Intelligenz allgemein, werden diese nachfol-
gend anhand zweier Beispiele illustriert.
Das erste Beispiel betrifft die automatische Erkennung von Veränderungen
an Benutzeroberflächen von IT-Systemen und die darauf aufbauende Selbst-
heilung von Software-Robotern. Durch den Einsatz von Computer Vision
werden die Systeme in die Lage versetzt, Teile der Benutzeroberfläche wahr-
zunehmen und einzelne Bereiche (z. B. Applikationsfenster, Menüleisten,
Buttons, Eingabefelder) voneinander zu unterscheiden. Durch die Kombina-
tion mit Methoden zur Verarbeitung natürlicher Sprache kann weiterhin der
Beschriftungstext der einzelnen Elemente erschlossen werden. Dadurch ist
ein Software-Roboter nicht mehr nur darauf beschränkt, eine einfache Regel
abzuspeichern, die zum Speichern eines Datensatzes einen Mausklick an ei-
ner bestimmte Stelle vorsieht, sondern er wird in die Lage versetzt, den But-
ton zum Speichern als solchen zu erkennen und an einer beliebigen Stelle
auf dem Bildschirm zu identifizieren (vgl. UiPath, 2019a). Dieses Verfahren
wird als „Selbstheilung“ bezeichnet, da es oftmals zum Einsatz kommt, um
starre Beschreibungen von einzelnen Elementen auf der Benutzeroberfläche
zu ersetzen und damit bei Änderungen der Oberfläche weiterhin eine kor-
rekte Funktion zu ermöglichen.
Das zweite Beispiel befasst sich mit der Interpretation und Extraktion von
relevanten Informationen aus Dokumenten. Trotz zunehmender Digitalisie-
rung werden in der Praxis viele Informationen weiterhin papierbasiert aus-
getauscht. Bei der Zustellung von Steuerbescheiden ist beispielsweise die
Papierform weiterhin stark verbreitet und es ist für Unternehmen notwen-
dig, diese Dokumente zu akzeptieren und im Anschluss zu digitalisieren, um
sie einer weiteren Verarbeitung zugänglich zu machen. Hierzu müssen die
im Schreiben enthaltenen Daten erkannt und die jeweils relevanten Infor-
mationen extrahiert werden. Bei klassischen Verfahren zur Texterkennung
Prozessdigitalisierung
99
(engl. Optical Character Recognition, OCR) besteht das Problem, dass bei ei-
ner vollständigen Erfassung des Dokuments die semantische Zuordnung der
einzelnen Datenfelder fehlt und es keine Möglichkeit gibt, die erfassten Da-
tenfelder für die weitere Datenverarbeitung korrekt zu kategorisieren und
zu klassifizieren. Bei der Erfassung der Zeichenkette „01.01.2020“ ist damit
zunächst nicht klar, um welche Art von Datum es sich handelt: das Datum,
an dem der Steuerbescheid ergangen ist, das Datum des beabsichtigten Zah-
lungseingangs, oder ein anderes Datum, das bei der Formulierung eines
Steuerbescheides eine Rolle gespielt hat (vgl. Houy et al., 2019, S. 67). Ein KI-
basierter Software-Roboter ist in der Lage, die relevanten Informationen aus
dem digitalisierten Papierbeleg zu extrahieren und entsprechend zu verwer-
ten; die Automatisierung geht an dieser Stelle über die reine Extraktion hin-
aus und betrifft vor allem die semantisch korrekte Interpretation der Daten.
Während KI-Funktionalitäten aktuell noch nicht Teil aller am Markt verfüg-
baren Software-Systeme sind, verdeutlichen die beiden Beispiele die wei-
tere Entwicklung und die zukünftigen Potentiale, die aus der Kombination
von RPA und KI entstehen werden. Im folgenden Abschnitt wird eine Aus-
wahl relevanter Marktteilnehmer im Bereich RPA präsentiert.
5.5 Marktübersicht
Die folgende Übersicht zu aktuell am Markt verfügbaren Software-Lösungen
stellt eine Auswahl von drei Tools dar, die laut dem Marktforschungsunter-
nehmen Gartner zu den Technologieführern im Bereich RPA zählen (vgl. Ab-
bildung 41).
Abbildung 41: Übersicht zu RPA-Software-Lösungen
(Quelle: UiPath, 2019b)
Prozessdigitalisierung
100
Die Lösungen der Unternehmen Blue Prism und UiPath zeichnen sich durch
einen sehr breiten Funktionsumfang sowie die klare Ausrichtung auf den
skalierbaren Einsatz in großen IT-Systemlandschaften aus. Wichtig in die-
sem Zusammenhang ist z. B. die Wahl zwischen einer lokalen Installation der
Plattform (sogenanntes on-premise) und dem Betrieb der Services in einer
privaten oder öffentlichen Cloud (z. B. Microsoft-Azure-Instanz oder Cloud
des RPA-Anbieters, sogenanntes on-demand).
Daneben bieten die Anbieter eine Zertifizierung nach IT-Sicherheitskriterien
sowie den rechtssicheren Umgang und die datenschutzrechtlich konforme
Datenhaltung in entsprechenden Cloud-Anwendungen. Teilweise kommen
spezielle Zertifizierungen hinzu, die den Einsatz in stark regulierten Berei-
chen erlauben. Die weiteren in Abbildung 41 aufgeführten Anbieter legen
teilweise einen speziellen Fokus auf die Automatisierung von Abläufen in
Spezialsoftware, die Anbindung von branchenspezifischen Systemen oder
die individuelle Erweiterbarkeit durch Eigenimplementierungen. Für eine
umfassende Software-Auswahl unter Berücksichtigung konkreter Anforde-
rungen im eigenen Unternehmen sollten alle verfügbaren Lösungen einer
gründlichen Untersuchung unterzogen und miteinander verglichen werden.
Software/Anbieter Beschreibung
Intelligent RPA Plat-
form8
Blue Prism
Die Intelligent RPA Platform von Blue Prism stellt
eine integrierte Plattform zum Einsatz von RPA in
Unternehmen dar. Der Betrieb der Plattform kann
lokal oder in der Cloud erfolgen. Funktionalitäten
sind zwischen den drei Komponenten Object Stu-
dio (Erstellung automatisierter Prozesse, Konfigu-
ration von Services), Control Room (Überwachung
der Ausführung, Skalierung der Roboter) und Digi-
tal Workforce (einzelne Software-Roboter) aufge-
teilt.
Die Basisvariante der Plattform kann kostenlos
verwendet werden und besitzt gegenüber der
kommerziellen Vollversion einen eingeschränkten
Funktionsumfang.
Eine Besonderheit der Lösung ist, dass sie sich
durch die explizite Berücksichtigung von Standards
wie FIPS (Federal Information Processing Stan-
dards) der US-Regierung auch für den Einsatz in
stark regulierten Bereichen eignet, in denen eine
hohe Compliance-Sicherheit eine große Rolle
spielt. Daneben verfügt Blue Prism über verschie-
dene kognitive Services, beispielsweise zur Adap-
tion von Prozessverhalten aus Ereignislogs und zur
visuellen Verarbeitung von Eingabedaten wie
8 https://www.blueprism.com (abgerufen am: 14.10.2020).
Prozessdigitalisierung
101
Bildern oder unstrukturierten Dokumenten. Diese
sind in Form sogenannter Skills verfügbar, die vor-
gefertigte Bausteine darstellen und ohne Imple-
mentierungsaufwand eingesetzt werden können.
UiPath Enterprise
RPA Platform9
UiPath
Die UiPath Enterprise RPA Platform unterteilt die
Funktionalitäten zur Verwaltung, Ausführung und
Überwachung von Software-Robotern ähnlich wie
Blue Prism in die drei Komponenten Studio, Or-
chestrator und Robots.
Die Studio-Komponente enthält neben einem Mo-
dellierungswerkzeug für die Erstellung automati-
sierter Prozessvarianten auch eine Bibliothek mit
vorgefertigten Lösungen für Standardprozesse.
Eine Besonderheit stellt die Möglichkeit zur Erwei-
terung durch Eigenimplementierungen in unter-
stützten Programmiersprachen wie VB.Net, C#,
Python und Java dar.
Innerhalb der Orchestrator-Komponente kann die
Ausführung von Software-Robotern in Echtzeit
überwacht und nach einem Zeitplan gesteuert
werden. Je nach Art der Installation (lokal, private
oder öffentliche Cloud) können außerdem erwei-
terte Analysefunktionalitäten direkt eingebunden
und die Zahl der eingesetzten Software-Roboter
zur Laufzeit skaliert werden.
Die Robots-Komponente betrifft die Gestaltung
der Software-Roboter selbst. Hierbei ist insbeson-
dere die weit fortgeschrittene Möglichkeit zur un-
überwachten Ausführung im Hintergrund ein Al-
leinstellungsmerkmal. Daneben bietet die Kompo-
nente die Möglichkeit zur Anbindung verschiede-
ner kognitiver Services wie Computer Vision zum
Auslesen von unstrukturierten Informationen aus
verschiedenen Quellsystemen sowie Verfahren
zur Bilderkennung für die Extraktion von relevan-
ten Daten aus Dokumenten und Bildern.
Abbildung 42: Übersicht zu kommerziellen RPA-Lösungen
9 https://www.uipath.com (abgerufen am: 14.10.2020).
Prozessdigitalisierung
102
6 Definition einer Prozessdigitalisierungsstra-
tegie
6.1 Bewertung von Digitalisierungsreife
In den voranstehenden Abschnitten wurden verschiedene Bausteine für die
Digitalisierung von Geschäftsprozessen vorgestellt. Bei der Frage, wie diese
zusammengebracht werden können, um eine Strategie für eine ganzheitli-
che Prozessdigitalisierung zu entwickeln, bietet sich die strukturierte Be-
trachtung des Themenfelds Digitale Transformation an.
Wie in Abschnitt 2.1.1 bereits erwähnt, verändert die Digitalisierung ver-
schiedene Bereiche eines Unternehmens. Demnach lassen sich Enabler, Ob-
jekte, Verwender und Akteure unterscheiden, die alle miteinander in Bezie-
hung stehen, sich gegenseitig beeinflussen und zu wechselseitigen Abhän-
gigkeiten führen. Weiterhin erreichen Unternehmen im Allgemeinen nicht
in allen genannten Aspekten die gleichen Fortschritte und befinden sich
demzufolge auf unterschiedlichen Entwicklungsständen. Beispielsweise kön-
nen bei den Enablern große Defizite im Bereich der Vernetzung, der Verfüg-
barkeit von Kommunikationstechnologien, dem Datenaustausch oder der
Ausstattung mit modernen Computersystemen und -schnittstellen beste-
hen. Objekte müssen die Möglichkeit bieten, Daten zu generieren, das Un-
ternehmen muss in der Folge aber auch in der Lage sein, diese Daten struk-
turiert zu erfassen, zu verwalten und sinnvoll auszuwerten. Schließlich müs-
sen die Akteure – Mitarbeiter im Unternehmen, Lieferanten, Kunden – bereit
sein, die notwendigen Veränderungen mitzutragen. Wenn diese Vorausset-
zungen gegeben sind, muss ferner sichergestellt werden, dass sie auch dazu
befähigt werden, was beispielsweise durch Schulungen, Weiterbildungen
und Trainings im Umgang mit neuen Technologien ermöglicht werden kann.
Der Fokus des vorliegenden Skriptums liegt im Bereich der Digitalisierung
von Prozessen als Verwender der digitalen Transformation. Aufgrund der
Menge verfügbarer Daten sowie neuer Technologien aus dem Bereich Ad-
vanced Analytics und der Automatisierungstechnik können digitale Prozesse
vollkommen neu gestaltet, transparent und jederzeit nachverfolgt und intel-
ligent automatisiert werden. Allerdings bestehen auch in diesem Bereich Ab-
hängigkeiten zu anderen Digitalisierungsinitiativen innerhalb eines Unter-
nehmens. Im Rahmen der Diskussion des BPM-Lebenszyklusmodells ist bei-
spielsweise das Thema der strategischen Ausrichtung von Prozessen bereits
angeklungen; die Digitalisierung von Prozessen kann also nicht losgelöst von
der Gesamtunternehmensstrategie geschehen und muss außerdem in Rela-
tion zu den verfügbaren Ressourcen und Kompetenzen der Mitarbeiter im
Umgang mit digitalen Technologien stehen.
Als Werkzeug zur systematischen Untersuchung der aufgezeigten Beziehun-
gen und zur Bewertung und gezielten Weiterentwicklung einzelner Bereiche
der digitalen Transformation haben sich Reifegradmodelle etabliert. Diese
Prozessdigitalisierung
103
verfügen typischerweise über eine Menge von Kriterien, um verschiedene
Betrachtungsbereiche wie die Strategie eines Unternehmens, seine Pro-
zesse, die verfügbaren Daten und Technologien sowie die Unternehmens-
kultur strukturiert zu bewerten und auf einer Reifegradstufe einzuordnen.
Reifegradmodelle definieren außerdem eine geordnete Sequenz einzelner
Stufen, welche den Weg von einer anfänglich geringen Reife über mehrere
Zwischenschritte bis hin zu einer hohen Reife beschreiben. Zusätzlich zur
rein deskriptiven Verortung innerhalb einer Stufe und Dimension enthält ein
Reifegradmodell konkrete Handlungsempfehlungen, um die Reife bezüglich
eines bestimmten Kriteriums zu verbessern und damit insgesamt eine hö-
here Reifegradstufe zu erreichen.
Einen Ansatzpunkt kann das Reifegradmodell nach Appelfeller & Feldmann
(2018, S. 23) darstellen. Dieses teilt das Konzept Digitale Transformation in
die neun Teilbereiche Lieferanten, digitale Maschinen & Roboter, digitali-
sierte Mitarbeiter, digitalisierte Produkte & Dienstleistungen, digitale Daten,
digitale Vernetzung, IT-Systeme, digitalisierte Prozesse sowie Kunden. Für je-
den dieser Teilbereiche wird eine Stufendarstellung erarbeitet, um jedes Ele-
ment anhand einer Kriterienliste in eine von vier Entwicklungsstufen einzu-
ordnen. Am Beispiel des Geschäftsmodells definieren die Autoren die fol-
genden Abstufungen: (1) analoges Geschäftsmodell, (2) analoges Geschäfts-
modell mit digitalen Prozessen, (3) digital erweitertes Geschäftsmodell und
(4) digitales Geschäftsmodell.
Eine Bewertung des eigenen Unternehmens in Bezug auf den aktuellen Digi-
talisierungsstand anhand eines Reifegradmodells kann helfen, eine objek-
tive Standortbestimmung durchzuführen. Dieser aktuelle Stand kann für die
gezielte Analyse von Verbesserungspotentialen in einzelnen Bereichen ge-
nutzt werden und die Grundlage für eine Priorisierung von Digitalisierungs-
aktivitäten darstellen. Hieraus lassen sich anschließend konkrete Zielsetzun-
gen für eine Digitalisierungsstrategie ableiten.
6.2 Vorgehen zur Prozessdigitalisierung
Das Zusammenwirken der drei in diesem Skriptum behandelten Bausteine
zur Prozessdigitalisierung – Modellierung digitaler Prozess, Process-Mining-
Analysen und Automatisierung mittels RPA – wurde an verschiedenen Stel-
len bereits punktuell erwähnt. Abbildung 43 fasst die unterschiedlichen Ein-
flüsse und Wechselwirkungen der drei Bausteine zusammen.
Prozessdigitalisierung
104
Aus dem Zusammenwirken der einzelnen Elemente kann anschließend ein
generisches Vorgehensmodell zur Digitalisierung von Prozessen abgeleitet
werden.
Abbildung 43: Zusammenwirken der Bausteine zur Prozessdigitalisierung
Die aus der Strategieentwicklung abgeleiteten Zielsetzungen fließen typi-
scherweise im Rahmen der Konzeption in die Modellierung digitaler Pro-
zesse ein. Diese stellt damit den ersten Schritt zur Prozessdigitalisierung dar
und ermöglicht eine gezielte Auswahl und Priorisierung von Prozessen. Die
Modellierung wiederum dient als Vorlage für die technische Umsetzung und
Ausführung von Prozessen, aus der wichtige Erkenntnisse über die tatsäch-
lichen Abläufe in der Realität gezogen werden können. Process-Mining-Ana-
lysen stellen ein Werkzeug dar, um digitalisierte Prozesse bezüglich ihrer Re-
gelkonformität und Performance zu untersuchen und unerwünschte Abwei-
chungen zwischen modellierten Soll-Prozessen und tatsächlichen Ist-Prozes-
sen zu identifizieren. Damit stellt die detaillierte Analyse des Prozessverhal-
tens in der Realität den zweiten Schritt zur Prozessdigitalisierung dar. Die Er-
gebnisse der Analysen werden im Rahmen der Modellierung aufgegriffen
und zur Verbesserung und Aktualisierung bestehender Modelle verwendet,
bilden gleichzeitig aber auch die Grundlage für eine Automatisierung mittels
RPA und stellen damit den dritten Schritt zur Prozessdigitalisierung dar. Die
Wahl der zu automatisierenden Prozesse muss sowohl unter Einbezug stra-
tegischer Rahmenvorgaben als auch auf Basis der Analyseergebnisse des tat-
sächlichen Prozessverhaltens geschehen. Aus der Automatisierung ergibt
sich ein direkter Einfluss auf die Ausführung der Prozesse. Darüber hinaus
besteht folgender wechselseitiger Einfluss zwischen der Modellierung und
der Automatisierung: Modelle stellen die ideale Ausgangsbasis für die Abbil-
dung von automatisierten Prozessen in RPA-Software dar und können teil-
weise sogar direkt in diese importiert werden. Andererseits müssen Auto-
matisierungsschritte und der Einsatz von RPA innerhalb der Modelle aus Do-
kumentationsgründen gepflegt werden.Process-Mining-Analysen
Automa sierung mi els RPA
Modellierung digitaler Prozesse
Ausführung
Strategie-
entwicklung
Prozessdigitalisierung
105
Zusammenfassend lässt sich das Vorgehen zur Prozessdigitalisierung an-
hand der drei vorgestellten Bausteine in den folgenden Schritten zusam-
menfassen:
1. Modellierung digitaler Prozesse unter Beachtung der strategischen
Prozessausrichtung und Priorisierung von Prozessen,
2. Process-Mining-Analysen zur Prüfung der Übereinstimmung zwi-
schen modelliertem und gelebtem Prozessverhalten sowie zur trans-
parenten Prozessüberwachung und frühzeitigen Identifikation mög-
licher Abweichungen und
3. Automatisierung mittels RPA auf der Grundlage der modellierten
Prozesse unter Berücksichtigung der Analyseergebnisse und des in
der Realität verifizierten Prozessverhaltens.
Weiterhin sollten die folgenden allgemeinen Aspekte bei der Durchführung
eines Projektes zur Prozessdigitalisierung beachtet werden. Diese Aspekte
sind nicht auf eine bestimmte Phase im Rahmen der Digitalisierung be-
schränkt und müssen im Verlauf eines Projektes teilweise iterativ durchlau-
fen werden:
• Klare Zieldefinition: Bei der Durchführung eines Digitalisierungspro-
jektes sollte das Ziel und damit das erwartete Ergebnis klar definiert
sein (vgl. auch den folgenden Punkt). Dies betrifft insbesondere den
zweiten und dritten Schritt: Die Analyse von Prozessverhalten mittels
Process Mining sollte immer mit einer klaren Intention durchgeführt
werden und die Ergebnisse dementsprechend verwertet werden.
Wenn beispielsweise die explorative Analyse von möglichem Pro-
zessverhalten erkundet werden soll, muss im Anschluss entschieden
werden, wie mit abweichendem Verhalten umgegangen werden soll.
Sollen Performance-Probleme bei bestimmten Prozessinstanzen ge-
nauer untersucht werden, sollten diese im Anschluss behoben wer-
den. Diese Fragestellungen lassen sich klassischen Data-Science-Pro-
jekten zuordnen, bei denen als Ergebnis eine detaillierte Problem-
analyse und eine Menge an Handlungsempfehlungen stehen. Etwas
anderes ist die Implementierung von Process Mining als permanen-
tes Werkzeug zur Prozessüberwachung und Konformanzprüfung.
• Digitalisierung ist kein Selbstzweck: Die Digitalisierung und insbe-
sondere die Automatisierung eines Prozesses sollte immer in Abstim-
mung mit der grundsätzlichen Prozessstrategie stehen und unter Be-
achtung wirtschaftlicher Rahmenbedingungen durchgeführt werden.
Nicht jede technisch realisierbare Prozessautomatisierung unter Ver-
wendung von RPA mag aus wirtschaftlicher Sicht sinnvoll sein. Im All-
gemeinen bietet es sich an, diejenigen Prozesse für eine Digitalisie-
rung zu wählen, die eine hohe (wirtschaftliche) Relevanz für das Un-
ternehmen haben und beispielsweise aufgrund häufiger oder zeitin-
tensiver Ausführung hohe Kosten verursachen. Weiterhin sollten die
vorgestellten Methoden immer in ihrer Gesamtheit betrachtet
Prozessdigitalisierung
106
werden, um die bestmögliche Prozessunterstützung zu ermöglichen.
Beispielsweise kann eine Process-Mining-Analyse, die einer RPA-Im-
plementierung vorausgeht, aufzeigen, dass das angenommene Pro-
zessverhalten in der Praxis anders gelebt wird. Bevor ein in der Rea-
lität nicht vorkommendes Verhalten automatisiert wird, kann die
Möglichkeit einer gezielten Prozessoptimierung ausgeschöpft wer-
den und im Anschluss dieser optimierte Prozess als Grundlage für
eine Automatisierung verwendet werden.
• Relevante Daten und IT-Systemen: In allen Phasen der Prozessdigi-
talisierung spielen IT-Systeme und die darin verarbeiteten, prozess-
bezogenen Daten eine wichtige Rolle. Bei der Analyse von Prozess-
verhalten mittels Process Mining ist die Identifikation relevanter Da-
ten oftmals eine große Herausforderung, da für die Erstellung eines
kompletten Ereignislogs, das alle Schritte eines Geschäftsprozesses
enthält, häufig die Kombination von Daten aus verschiedenen IT-Sys-
temen notwendig ist. In der Praxis muss hier auch häufig auf eine
iterative Vorgehensweise zurückgegriffen werden, um relevante Da-
tenbestände zu identifizieren, in ersten Analysen zu untersuchen und
ggf. um weitere Daten zu erweitern, um ein vollständiges Bild zu er-
halten. Gleiches gilt für die Automatisierung von Prozessen und ein-
zelnen Aufgaben mittels RPA. Die vorhandenen Systeme sind von
enormer Bedeutung für die konkrete Implementierung der RPA-Lö-
sung. Aus den genannten Gründen sollte die Berücksichtigung der für
das Projekt notwendigen Daten und zu berücksichtigenden IT-Sys-
teme bereits frühzeitig erfolgen. Dies umfasst ebenso organisatori-
sche Rahmenbedingungen wie erforderliche Zugriffsrechte, admi-
nistrative Ansprechpartner oder den tatsächlichen Zugang zum Sys-
tem (lokal vs. Cloud).
Das dargestellte Vorgehensmodell für die Umsetzung von Projekten zur Pro-
zessdigitalisierung setzt die drei Bausteine Modellierung digitaler Prozess,
Process-Mining-Analysen und Automatisierung mittels RPA zueinander in
Beziehung. In Kombination mit einer systematischen Evaluation des aktuel-
len Standes der Digitalisierung (beispielsweise über ein Reifegradmodell)
kann dadurch eine gezielte digitale Unterstützung von Prozessen erreicht
werden.
6.3 Skill Set im Rahmen der Prozessdigitalisierung
Im Zuge der Prozessdigitalisierung und der Durchführung von Digitalisie-
rungsprojekten nach dem im vorherigen Abschnitt beschriebenen Vorge-
hensmodell kommen auch auf die Mitarbeiter von Unternehmen neue Her-
ausforderungen zu. Die nachfolgenden Punkte skizzieren wichtige Schritte,
die in der Kommunikation mit Mitarbeitern im Rahmen einer Technologie-
erprobung oder -einführung adressiert werden sollten.
Prozessdigitalisierung
107
• Commitment der Mitarbeiter sichern: Wie bei allen Digitalisierungs-
initiativen besteht auch bei der Prozessdigitalisierung eine wesentli-
che Herausforderung darin, das Commitment der beteiligten Mitar-
beiter zu sichern. Es ist essentiell, dass diese die Ziele und Maßnah-
men, z. B. bei der Einführung neuer Technologien oder der Verände-
rung von Prozessabläufen, aktiv unterstützen und mittragen. Pro-
zessabläufe gegen den Willen von Mitarbeitern zu optimieren, die
täglich in diesen Strukturen arbeiten, wird auf Dauer nicht zu einer
Verbesserung führen, auch wenn die Optimierung aus sachlogischer
Sicht gerechtfertigt erscheint. Gleiches gilt für den Einsatz von Pro-
cess-Mining-Analysen, mit denen Mitarbeiter im ersten Moment
auch die Gefahr einer sehr detaillierten Überwachung und die Vor-
stellung, „gläsern“ zu werden, verbinden können. Wie beschrieben,
kann der Einsatz von Process Mining nur in enger Kooperation zwi-
schen Fachexperten und Prozessanalysten sinnvoll erfolgen; eine ge-
genseitige Unterstützung beider Partner ist darum sehr wichtig. Glei-
ches gilt für den Einsatz von RPA, der sich in Absprache mit Mitarbei-
tern insbesondere auf die Bereiche fokussieren sollte, wo eine tat-
sächliche Entlastung von Routinetätigkeiten mit mehr Zeit für kom-
munikative oder komplexe Aufgaben einhergehen kann.
• Bewusstsein für technologische Potentiale schaffen: Ein wichtiger
Baustein in der Zusicherung des Commitments von Mitarbeitern ist
das Schaffen eines einheitlichen Verständnisses und Bewusstseins
für technologische Potentiale. Nur wenn die Möglichkeiten einer
neuen Technologie verstanden und Vorteile darin für die eigene Tä-
tigkeit erkannt werden, wird eine aktive Unterstützung seitens der
Mitarbeiter einsetzen. Genauso wie die Digitalisierung keinen Selbst-
zweck darstellt (vgl. Abschnitt 6.2), ist auch eine technologische Neu-
erung per se nicht faszinierend, sondern gewinnt durch ihren prakti-
schen Nutzen an Relevanz. Weiterhin ist für viele Fälle auch gerade
die aktive Einbindung von Fachexperten ohne technischen Hinter-
grund von immenser Bedeutung, um technische Potentiale über-
haupt zu realisieren. Ein Beispiel hierfür ist die Definition von Use
Cases anhand praktischer Problemstellungen, die aus einer rein tech-
nischen Perspektive ohne Kenntnisse der Fachprobleme überhaupt
nicht bekannt sind. Zur Implementierung von RPA-Anwendungen
beispielsweise ist eine enge Abstimmung mit den Sachbearbeitern
des zu automatisierenden Prozesses notwendig, um fachlich kor-
rekte Prozesse zu automatisieren.
• Ängste und Bedenken ernst nehmen: Ein Bewusstsein für technolo-
gische Potentiale und ein Begreifen der Möglichkeiten, aber auch
Grenzen einer Technologie können dabei helfen, mögliche Bedenken
abzubauen. In jedem Fall ist es notwendig, diese Bedenken und
Ängste ernst zu nehmen und geeignet zu adressieren. Während Mit-
arbeiter bei der Einführung von Automatisierungslösungen vielleicht
befürchten, zukünftig mit einer Software konkurrieren zu müssen
oder durch diese ersetzt zu werden, bestehen beim Einsatz von
Prozessdigitalisierung
108
Process Mining oftmals Ängste gegenüber zu hoher Transparenz.
Eine Befürchtung ist hier, dass Fehler im eigenen Verhalten in den
Daten sichtbar gemacht werden können und zu negativen Konse-
quenzen führen. Diese Bedenken lassen sich nur durch einen aktiven
Einbezug der Mitarbeiter und eine offene Kommunikation über die
Ziele und angestrebten Verbesserungen insgesamt zerstreuen.
Um die zuvor genannten Punkte angemessen zu berücksichtigen, bieten sich
gezielte Schulungen und Fortbildungen für Mitarbeiter an, um ein Skill Set
für die Herausforderungen der Prozessdigitalisierung zu entwickeln.
An erster Stelle zu nennen sind hierbei technische Grundlagenschulungen,
um Ängste und Bedenken gegenüber neuen Technologien abzubauen und
ein Bewusstsein für deren Möglichkeiten zu schaffen. Dieses bildet die
Grundlage, Fürsprache seitens der Mitarbeiter zu sicher, denn diese müssen
von den Möglichkeiten der Technologie tatsächlich überzeugt sein. Inhalte
einer technischen Grundlagenschulung sollten insbesondere die allgemei-
nen Funktionsweisen von Methoden wie Process Mining oder RPA sein.
Hierbei geht es nicht darum, die Teilnehmer in der praktischen Anwendung
der Methoden auszubilden, sondern vielmehr darum, ein grundsätzliches
Verständnis zu schaffen, beispielsweise um dann in gemeinsamen Work-
shops nach geeigneten Use Cases und Anwendungsmöglichkeiten im Unter-
nehmen zu suchen. Nur wer eine Technologie und ihre Möglichkeiten ver-
steht und Potentiale für die eigene Arbeit bewerten kann, ist auch in der
Lage, wertvolle Beiträge aus Sicht der Fachseite zu liefern. Aus diesem Grund
sollte diese Form der Schulung auch breit angelegt werden und allen Mitar-
beitern zugänglich sein, die mit einer der betreffenden Techniken in Kontakt
kommen.
Darauf aufbauend kann eine technische Expertenschulung für eine Teil-
gruppe der Mitarbeiter durchgeführt werden, die tatsächlich mit den betref-
fenden Technologien arbeiten. Hierzu zählen beispielsweise Weiterbildun-
gen im Umgang mit Software-Werkzeugen zur Modellierung von Geschäfts-
prozessen oder zur explorativen Prozessdatenanalyse mittels Process Mi-
ning. Bei diesen Technologien ist davon auszugehen, dass ein dezentraler
Einsatz und eine häufige Verwendung stattfinden. So müssen z. B. Prozess-
beschreibungen oftmals von verschiedenen Abteilungen aktualisiert oder
verfeinert werden, sie dienen als Eingabe für Diskussionen oder zur Kommu-
nikation mit internen und externen Parteien. Ähnliches gilt für Process Mi-
ning, das von verschiedenen Anwendern in periodischen Abständen einge-
setzt werden kann, um bestimmte Sachverhalte zu überprüfen (z. B. „Wa-
rum benötigt ein bestimmter Bestellprozess gerade so viel Zeit?“). Dement-
sprechend macht es Sinn, das Wissen im Umgang mit diesen Technologien
intern und dezentral aufzubauen, anstatt eine zentrale Fachgruppe zu
etablieren. Eine Weiterbildung kann über verschiedene Ansätze realisiert
werden, wobei sich initial eine Schulung durch externe Berater oder Trainer
anbietet. Diese kann anschließend über Train-the-Trainer-Konzepte im Un-
ternehmen weitergetragen werden, sodass nur noch in größeren zeitlichen
Prozessdigitalisierung
109
Abständen Input von außen notwendig ist, beispielsweise bei neuen techno-
logischen Entwicklungen.
Für spezielle Technologiethemen, die eher den Charakter einer einmaligen
Implementierung aufweisen, bietet sich die technische Expertenschulung
eines Fachteams an. Eine Prozessautomatisierung mittels RPA erfolgt übli-
cherweise als klar umgrenztes Projekt, welches mit der Implementierung ei-
nes Software-Robots endet, der im Regelfall nicht in kurzen Abständen an-
gepasst werden muss. Aus diesem Grund kann das technische Wissen zur
Implementierung und Administration intern in einem kleineren Team ge-
bündelt oder sogar komplett extern bezogen werden (insbesondere, wenn
eine Software-Lösung ebenfalls on-demand aus der Cloud bezogen wird).
Unabhängig von den genannten Differenzierungen der Schulungs- und Fort-
bildungsmaßnahmen lassen sich einige Fertigkeiten zur Prozessdigitalisie-
rung in Form eines Skill Sets zusammenfassen:
• Problembewusstsein für die Gestaltung und Modellierung von Pro-
zessabläufen,
• Fähigkeit zur Strukturierung von Abläufen und Entscheidungsstruk-
turen in formalen Notationen,
• Wissen um die Abbildung von Geschäftsprozessen in IT-Systemen,
• Verständnis von Daten- und Prozessschnittstellen in IT-Systemen,
• Fähigkeiten in der Extraktion und Auswertung von großen Daten-
mengen in strukturierten Datenformaten,
• Wissen zur Auswertung und Interpretation von Daten (Data Analy-
tics, statistische Kenntnisse) und
• Fähigkeit zur Kommunikation von Analyseergebnissen und der Ablei-
tung von Verbesserungsmaßnahmen.
Nicht alle der genannten Fertigkeiten müssen für alle Rollen gleichermaßen
ausgebildet sein, auch können die Fertigkeiten mit einer unterschiedlichen
Tiefe an Fachexpertise zum Kerngeschäft eines Unternehmens kombiniert
werden. Gerade für die Weiterentwicklung der genannten Fähigkeiten exis-
tieren diverse Weiterbildungsangebote auf Lernplattformen wie Coursera,
Udemy oder edX, die professionelle und zertifizierte Kurse renommierter
Universitäten wie der Columbia University oder des Massachusetts Institute
of Technology (MIT) anbieten. Diese ermöglichen eine berufsbegleitende
Weiterbildung von Mitarbeitern und ein Training on the Job.
Prozessdigitalisierung
110
6.4 Zusammenfassung und Ausblick
Die Digitalisierung von Geschäftsprozessen ist nur eine Ausprägung der digi-
talen Transformation innerhalb eines Unternehmens. Geschäftsprozesse
stehen aufgrund der direkten Beziehungen zu den operativen Tätigkeiten ei-
nes Unternehmens als Verwender der neuen technologischen Möglichkeit
aber im direkten Fokus dieser Entwicklungen. Sie nehmen damit eine zent-
rale Rolle für neuartige Service-Angebote, Ablaufstrukturen und veränderte
Wertschöpfungsangebote von Unternehmen ein.
Wie in den vorangegangenen Abschnitten aufgezeigt wurde, umfasst das
Thema Prozessdigitalisierung unterschiedliche Aspekte. Im Verlauf dieses
Skriptums wurden insbesondere die Zusammenhänge zwischen der digita-
len Modellierung, der Analyse und dem Monitoring von realen Prozessabläu-
fen und der intelligenten Automatisierung mittels RPA fokussiert.
Hierbei wurde insbesondere die Zielsetzung verfolgt, das Themenfeld der
Prozessdigitalisierung im Kontext der digitalen Transformation zu strukturie-
ren und wichtige Kernbestandteile zu identifizieren. Aufeinander aufbauend
wurden hierzu die folgenden Punkte behandelt:
• Eine Einführung in aktuelle Trends der digitalen Transformation so-
wie eine Übersicht über aktuelle Treiber der Digitalisierung wurden
in Kapitel 1 präsentiert. Dort wurden weiterhin die spezifischen Po-
tentiale einer Prozessdigitalisierung sowie neue Anforderungen an
digitalisierte Geschäftsprozesse formuliert.
• In Kapitel 2 erfolgte die Einordnung des Themenfelds Prozessdigita-
lisierung in den Bezugsrahmen eines allgemeinen Konzepts zum Ge-
schäftsprozessmanagement. Diese Einordnung bildete die Ausgangs-
basis für die Modellierung von digitalisierten Prozessen sowie die Klä-
rung begrifflicher Grundlagen, um unterschiedliche Aspekte der Pro-
zessdigitalisierung voneinander abzugrenzen. Anhand der Notations-
sprachen EPK, BPMN und Petri-Netze wurden anschließend konkrete
Modellierungskonventionen vorgestellt und in Bezug auf die Abbil-
dung digitaler Prozesse bewertet. Die explizite Modellierung von Ent-
scheidungsstrukturen mittels DMN, die als Grundlage für eine digi-
tale Abbildung und Automatisierung von Prozessen dient, stellte
hierbei eine Vertiefung dar.
• Um ein einheitliches Verständnis theoretischer Grundlagen aus den
Bereichen Data Mining und Machine Learning zu etablieren, wurde
eine Zusammenfassung wichtiger Kernkonzepte in Kapitel 3 präsen-
tiert. Die Darstellung wurde um die spezifische Perspektive auf Pro-
zessdaten komplettiert, welche insbesondere zur Motivation der
Analysemethode Process Mining dient und darüber hinaus eine wei-
tergehende Nutzung von Prozessdaten, beispielsweise zur Verwen-
dung als Eingabeparameter für maschinelle Lernverfahren, beispiel-
haft illustriert.
Prozessdigitalisierung
111
• Kapitel 4 befasste sich mit der KI-gestützten Prozessdatenanalyse
mittels verschiedener Methoden aus dem Bereich Process Mining.
Zunächst erfolgte eine grundsätzliche Positionierung von Process Mi-
ning innerhalb des Geschäftsprozessmanagements, um dessen Ein-
satz zu kontextualisieren. Anschließend wurden die Grundlagen von
geeigneten Ereignislogs behandelt, welche historische Ausführungs-
daten beinhalten und als Eingabe für Analysen dienen. Darauf auf-
bauend wurden die drei Methoden Process Discovery zur Entdeckung
von Prozessstrukturen aus Prozessinstanzdaten, Process Confor-
mance Checking zur Verifikation von Prozessverhalten in der Realität
und zur Erkennung von möglichen Abweichungen sowie Process En-
hancement als Sammelbegriff für Methoden zur gezielten Verbesse-
rung und Optimierung von Geschäftsprozessen vorgestellt. Die Dar-
stellung wurde komplettiert durch eine Auswahl aktuell verfügbarer
Process-Mining-Software sowohl aus dem akademischen als auch
dem kommerziellen Bereich sowie durch eine Übersicht über Metho-
den, die innerhalb dieser Software-Tools zur Verfügung stehen.
• Die intelligente Prozessautomatisierung mittels Robotic Process Au-
tomation (RPA) wurde innerhalb von Kapitel 5 behandelt. Nach einer
einführenden Darstellung charakteristischer Merkmale von RPA-
Software sowie einer Abgrenzung der Systeme untereinander erfolg-
ten die Darstellung eines möglichen Automatisierungsszenarios so-
wie eine Übersicht über die Evolution von RPA-Systemen. Das Kapitel
schloss mit einer Übersicht über die drei führenden Software-Anbie-
ter in diesem Bereich.
• Im abschließenden Kapitel 6 wurde ein Vorgehensmodell für die Di-
gitalisierung von Prozessen anhand der zuvor eingeführten Einzelme-
thoden Modellierung, Analyse und Automatisierung vorgestellt. Wei-
terhin wurden diverse Möglichkeiten zur Umsetzung von Fortbil-
dungs- und Schulungsmaßnahmen sowie verschiedene Fertigkeiten
zur Prozessdigitalisierung in Form eines Skill Sets zusammengefasst.
Prozessdigitalisierung
112
7 Fallstudien
7.1 Verbesserung von Behandlungsprozessen in Kli-
niken durch Process Mining
7.1.1 Ausgangslage und Szenario
Die vorliegende Fallstudie wurde in den Krankenhauskliniken der Isala Clinics
durchgeführt, welche den größten nicht-akademischen Klinikkomplex der
Niederlande darstellen. Die Kliniken verfügen über insgesamt sieben ver-
schiedene Standorte mit einer Gesamtzahl von knapp 1.000 Betten (vgl. Pro-
cessMining.org [2014]).
Innerhalb der einzelnen Kliniken werden erhebliche Anstrengungen unter-
nommen, um die Qualität der Prozesse zu verbessern. Zu diesem Zweck sind
beispielsweise detaillierte Beschreibungen dieser Prozesse erforderlich. Um
Einblicke in laufende Behandlungsprozesse zu erhalten, ist allerdings viel
Zeit für die Kommunikation zwischen behandelnden Ärzten und das Studium
von Patientenakten notwendig. Innerhalb der Isala-IT-Systeme standen
große Mengen an Prozessdaten zur Verfügung, die sich für eine Auswertung
durch Process Mining als vielversprechender Ansatzpunkt herausstellten.
Im Rahmen der Fallstudie wurden die fünf am häufigsten durchgeführten
Behandlungsprozesse der urologischen Abteilungen analysiert. Hierbei han-
delte es sich sowohl um medizinisch komplexe Abläufe für Patienten, die
eine stark individualisierte Behandlung benötigen (Krebserkrankungen, Nie-
rensteine), als auch um medizinisch weniger komplexe Abläufe, bei denen
eine standardisierte Behandlung ausreichend ist (Phimose, Hydrozele, Ho-
denhochstand). Diese fünf Prozesse sind den fünf Patientengruppen 1:1 zu-
geordnet.
Die Anwendung von Process Mining sollte explorativ ausgerichtet werden,
d. h., der Ist-Zustand der Prozessabläufe sollte ohne die gezielte Überprü-
fung von vorab definierten Hypothesen untersucht werden. Gleichzeitig
wurden aber die folgenden Fragestellungen vonseiten des Klinikpersonals
im Rahmen der Analysen berücksichtigt:
• Wie ist das regelmäßige Verhalten für jede Patientengruppe?
• Gibt es obligatorische medizinische Schritte, die nicht bei Patienten
durchgeführt werden?
• Gibt es irgendwelche Schritte, die vermieden werden sollten?
• Können durch Optimierungen Zeiteinsparungen realisiert werden?
Prozessdigitalisierung
113
7.1.2 Datenauswahl und -extraktion
Die Auswahl geeigneter Datenbestände für die Anwendung von Process-Mi-
ning-Analysen geschah in Zusammenarbeit zwischen Datenanalyseexperten
und den Fachexperten innerhalb der Kliniken (vgl. Abschnitt 4.2.2). Die Kon-
zentration auf Behandlungsprozesse innerhalb der urologischen Abteilun-
gen erlaubte eine gezielte Einschränkung auf relevante Abläufe bei über-
schaubarer Fallzahl, ohne weitere Filterkriterien anlegen zu müssen. Für
eine erste Analyse und Potentialabschätzung für weitere Prozesse in ande-
ren Fachbereichen stellte sich diese Fokussierung als ideal heraus.
Die Daten wurden aus dem Finanzmodul des in den Kliniken verwendeten
Informationssystems entnommen, um für jeden Patienten die von der Klinik
erbrachten Leistungen zu identifizieren. Diese Daten wurden um Informati-
onen aus einem Belegungssystem ergänzt, um für die Patienten den Beginn
und das Ende ihres Klinikaufenthalts zu ermitteln. Im finalen Datensatz wa-
ren alle Aktivitäten enthalten, die über einen Zeitraum von Januar 2009 bis
Dezember 2011 für die fünf ausgewählten Patientengruppen durchgeführt
wurden.
• 1.386 Fälle (behandelte Patienten)
• 31.378 Ereignisse (Aktivitäten, die für diese Patienten durchgeführt
wurden)
• 232 verschiedene Aufgaben (z. B. Untersuchungen, Behandlungen,
Aufnahme auf einer Pflegestation)
• 1.124 verschiedene Ablaufsequenzen (von insgesamt 1.386 Sequen-
zen)
Die große Anzahl an einzelnen Ablaufsequenzen deutet bereits auf eine sehr
hohe Variation zwischen den einzelnen Prozessabläufen hin. Diese wurde
anschließend detaillierter untersucht.
7.1.3 Analyse des Prozessverhaltens und der Performance
Als eine der ersten Analysen für jede Patientengruppe wurden die zeitlichen
Verteilungen der Prozessdurchläufe nach ihrer Durchlaufzeit visualisiert
(vgl. Abschnitt 4.5.2). Hierdurch wurde ersichtlich, dass sich zwei Prozess-
muster identifizieren lassen:
• Für Patienten mit weniger komplexen Erkrankungen (Phimose, Hyd-
rozele, Hodenhochstand) beträgt die durchschnittliche Behandlungs-
zeit ca. 4 Monate. Darüber hinaus gibt es eine hohe Varianz in der
Behandlungszeit, beispielsweise werden einige Patienten bereits
nach einem Monat entlassen, während andere Patienten für mehr
als ein Jahr in Behandlung waren.
Prozessdigitalisierung
114
• Für die medizinisch komplexen Erkrankungen (Blasenkrebs, Nieren-
steine) war die durchschnittliche Behandlungszeit deutlich kürzer
(ca. 2 Monate) und wies weiterhin auch eine geringere Variation auf.
Abbildung 44: Zeitliche Verteilung der Behandlungszeiten
(Quelle: ProcessMining.org, 2014)
In Abbildung 44 ist die Verteilung der Behandlungszeiten für die Patienten-
gruppe mit Phimose visuell dargestellt. Die y-Achse stellt einzelne Patienten
dar, während auf der x-Achse durch farbige Punkte einzelne Aktivitäten auf-
geführt sind, die im Rahmen eines Behandlungsprozesses durchgeführt wur-
den. Die hohe Varianz der Durchlaufzeiten ist hier direkt erkennbar.
In einem weiteren Schritt wurde die Prozess-Performance für jede Patien-
tengruppe untersucht. Dadurch sollte unter anderem ergründet werden,
warum es zu Wartezeiten für Patienten kommt und welche Maßnahmen zur
Diagnose und Behandlung einen Einfluss auf die erzielte Durchlaufzeit der
Behandlungsprozesse haben. Für jede Patientengruppe wurde daher durch
die Anwendung von Process Discovery ein Prozessmodell aus den Ereignis-
logdaten erstellt und anhand von Performance-Kennzahlen analysiert (vgl.
Abschnitt 4.5.2). Die folgenden Erkenntnisse konnten hieraus gewonnen
werden:
• Für Patienten mit medizinisch weniger komplexen Erkrankungen lie-
ßen sich die zeitlichen Verzögerungen in den meisten Fällen auf Eng-
pässe bei der Operation zurückführen, für die die durchschnittliche
Wartezeit 1,5 Monate betrug. Einen weiteren Grund für Verzögerun-
gen stellte die präoperative Beurteilung mit einer durchschnittlichen
Wartezeit von etwa 22 Tagen dar.
• Obwohl es für alle Patientengruppen eine hohe Variation der Warte-
zeiten gab, war die durchschnittliche Wartezeit für Patienten mit me-
dizinisch komplexen Erkrankungen sowohl für die Operation als auch
für die präoperative Beurteilung deutlich geringer.
• Bei Patienten mit medizinisch weniger komplexen Erkrankungen war
die Anzahl der vor einer Operation durchgeführten Maßnahmen
Prozessdigitalisierung
115
(Aktivitäten im Prozessablauf) sehr gering. Bei allen drei untersuch-
ten Patientengruppen wurden für mehr als 90% der Patienten höchs-
tens vier verschiedene Aktivitäten durchgeführt. Diese Zahl war für
Patienten mit komplexen medizinischen Erkrankungen wesentlich
größer.
Insgesamt wurde deutlich, dass es bei den medizinisch nicht komplexen Er-
krankungen hohe Wartezeiten für die Operation und die präoperative Beur-
teilung gab, obwohl die Anzahl der vor der Operation durchgeführten Maß-
nahmen gering ist. Für medizinisch komplexe Erkrankungen zeigt sich das
genaue Gegenteil. An dieser Stelle scheint laut den Ergebnissen der Fallstu-
die eine sinnvolle Möglichkeit für Verbesserungen im Prozess zu bestehen.
7.1.4 Interpretation der Ergebnisse und nächste Schritte
Die Ergebnisse der erfolgten Analysen wurden im Anschluss mit den Fachex-
perten besprochen und auf Plausibilität überprüft. Anschließend erfolgte
eine Präsentation vor verschiedenen Urologen und dem Leiter der Urologie
der Kliniken.
Die hohe Transparenz der Abläufe verdeutlichte aktuelle Missstände aus
Sicht der Patienten (wie beispielsweise die hohe Wartezeit vor Operatio-
nen), die dem Klinikpersonal so nicht bewusst waren. Dieses zeigte sich
überrascht von der detaillierten Aufbereitung der Analysen; insbesondere
die mögliche Detailbetrachtung der Behandlungsprozesse von einzelnen
Patienten und die beliebige Aggregation zu Patientengruppen und Filterung
nach diversen weiteren Attributen (Alter, Vorerkrankung etc.) kann zu einer
maßgeblichen Verbesserung der Prozessqualität führen.
Als weiterer Schritt wurde innerhalb der Isala-Kliniken ein Business Case er-
stellt, um die Einstellung von Mitarbeitern zu ermöglichen, die Process Mi-
ning zur Durchführung von Analysen für andere medizinische Disziplinen
nutzen. Da das verwendete Klinikinformationssystem keine Möglichkeit zur
Verfolgung und Statusabfrage einzelner Behandlungsprozesse bietet (z. B.
die durchschnittliche Zeit zwischen der Operation und der vorherigen Unter-
suchung), sollte geprüft werden, ob sich diese Funktionalität durch Process-
Mining-Komponenten nachrüsten lässt. Die geplante Verwendung der er-
zielten Analyseergebnisse demonstriert den praktischen Nutzen von Process
Mining im Gesundheitsbereich.
Prozessdigitalisierung
116
7.2 RPA-basierte Automatisierung der Abwicklung
von Versicherungsansprüchen
7.2.1 Ausgangslage und Szenario
Innerhalb der vorliegenden Fallstudie wird das Potential von Robotic Process
Automation (RPA) für die Automatisierung verschiedener Schritte innerhalb
der Abwicklung von Versicherungsansprüchen bei Krankenversicherungen
demonstriert. Die folgenden Ausführungen beruhen auf den Beschreibun-
gen von The Lab (2019). Um neu eingehende Anträge eines Arztes oder Kran-
kenhauses für ein Verfahren zu überprüfen, sind hohe Aufwände für die
Transkription und den Abgleich von Patienteninformationen notwendig.
Hierzu müssen verschiedene Informationssysteme genutzt werden, um alle
relevanten Informationen zusammenzutragen. Der typische Bearbeitungs-
prozess umfasst dabei die folgenden Schritte:
• Eingang eines neuen PDF-Antragsformulars per E-Mail vom Arzt oder
Krankenhaus,
• Ablage der PDF-Daten im eigenen Informationssystem zur Antrags-
bearbeitung,
• Manuelle Suche, um zu überprüfen, ob für die geschädigte Person
bereits ein Stammdatensatz im System existiert und ob der Scha-
densfall bereits beantragt wurde,
• Manuelle Übertragung der Informationen aus dem PDF-Antragsfor-
mular in die Standardfelder des Informationssystems zur Antragsbe-
arbeitung,
• Manuelle Benachrichtigung des Kunden per Outlook-E-Mail, dass
sein Schadensfall bearbeitet wird.
7.2.2 Projektvorgehen und Prozessauswahl
Der erste Schritt besteht in der Identifikation geeigneter Prozesse, die sich
für eine Automatisierung durch RPA innerhalb der Versicherung eignen. Wie
in Abschnitt 5.3 dargelegt, eignen sich verschiedene Kriterien für die Über-
prüfung, ob ein Prozess für eine Automatisierung geeignet ist. Insbesondere
repetitive Prozesse, die wenig menschliches Zutun erfordern und häufig auf-
treten, sind gute Kandidaten für RPA. Durch die sukzessive Überprüfung aller
Backoffice-Prozesse konnte im Rahmen der Fallstudie eine überschaubare
Liste von Prozessen identifiziert werden. Der im vorherigen Abschnitt be-
schriebene Prozess der Abwicklung von Versicherungsansprüchen wurde auf
diese Weise identifiziert und für die Implementierung eines ersten Automa-
tisierungsprojektes ausgewählt.
Der zweite Schritt umfasst die Bestimmung der aktuellen Prozesskosten,
um die Einsparungen durch die RPA-Implementierung beziffern zu können.
Prozessdigitalisierung
117
Zur Bestimmung der aktuellen Prozesskosten wurde in Abstimmung mit der
Personalabteilung ein Berechnungsmodell erstellt, welches die Personalkos-
ten eines Mitarbeiters für die Abwicklung des identifizierten Prozesses ins
Verhältnis zur Anzahl der bearbeiteten Prozesse setzt. Dieses Modell kann
zur Darstellung der erzielten Einsparungen und der sich ergebenden Amor-
tisationszeit verwendet werden.
Im dritten Schritt erfolgt die Analyse und Modellierung des aktuellen Pro-
zesses, um die Anforderungen an den automatisierten Prozess bis auf die
Ebene einzelner Mausklicks in den verwendeten IT-Systemen zu dokumen-
tieren. Üblicherweise liegt keine derart detaillierte Beschreibung der Pro-
zessabläufe vor, die direkt für eine RPA-Implementierung verwendet wer-
den kann. Aus diesem Grund wurde zunächst eine Modellierung des identi-
fizierten Prozesses in der BPMN-Notation vorgenommen. Zur Identifikation
der einzelnen Schritte wurden Beobachtungen eingesetzt, die entweder per-
sönlich vor Ort durch eine Begleitung von Schadenssachbearbeitern bei de-
ren täglicher Arbeit oder per Screen-Sharing-Software durch eine Beobach-
tung der Tätigkeiten innerhalb der Informationssysteme durchgeführt wur-
den. Alle Schritte geschahen nach ausdrücklicher Einwilligung der Mitarbei-
ter und dienten lediglich zur Erfassung der durchgeführten Arbeitsschritte.
Eine weitergehende Verwendung der Daten, etwa zur Überwachung der
Leistungsfähigkeit, wurde ausgeschlossen. Prinzipiell ist an dieser Stelle auch
der Einsatz von Process Mining denkbar, allerdings liefern die meisten Infor-
mationssysteme keine ausreichende Detailprotokollierung von Aktivitäten
auf der Ebene von Mausklicks. Als Empfehlung für die Zahl der zu beobach-
tenden Prozessdurchläufe wird in der Fallstudie von 50 bis 500 Fällen ge-
sprochen.
Die Standardisierung des beobachteten Prozessverhaltens stellt den vier-
ten Schritt im Projektvorgehen dar. Bei der Beobachtung von verschiedenen
Sachbearbeitern kann der Fall auftreten, dass diese einzelne Prozessschritte
in unterschiedlicher Reihenfolge durchführen, z. B. Daten zwischen dem An-
tragsformular und dem Informationssystem in abweichender Reihenfolge
kopieren und einfügen. Für die Implementierung der RPA-Software muss
eine Variante als Standard ausgewählt werden. Als Ergebnis der ersten vier
Phasen entsteht ein standardisierter, bis auf Mausklickebene modellierter
Prozess in einer einheitlichen Modellierungskonvention, der als Vorlage für
die Implementierung in einer geeigneten RPA-Software dienen kann.
Die Implementierung des Prozesses in einer RPA-Software stellt den letzten
Schritt dar. In der vorliegenden Fallstudie wurde die Software UiPath für die
Implementierung ausgewählt.
Prozessdigitalisierung
118
7.2.3 Ergebnis der Automatisierung
Der zuvor skizzierte typische Bearbeitungsprozess stellt sich nach der Imple-
mentierung der RPA-Lösung wie folgt dar:
• Der Software-Bot öffnet die E-Mail-Anwendung und das PDF-An-
tragsformular, welches die Daten des Geschädigten enthält,
• Informationen aus dem Formular werden vom Software-Bot kopiert
und in das webbasierte Dokumentenmanagementsystem der Kran-
kenversicherung eingefügt, wobei das eigentliche Antragsformular
automatisch angehängt wird,
• Der Software-Bot durchsucht das Antragsbearbeitungssystem, um zu
überprüfen, ob für den Geschädigten bereits ein Stammdatensatz
existiert; hierzu wird dessen Name aus der Rechnung kopiert und im
Antragsbearbeitungssystem gesucht,
• Schließlich sendet der Software-Bot den Antrag zur Genehmigung an
das Back-Office und erstellt automatisch eine Outlook-E-Mail an den
Geschädigten, die ihn über die Bearbeitung des Antrags informiert.
Die erzielten Einsparungen in Bezug auf Mitarbeiter sind stark von der kon-
kreten Qualifikation der Mitarbeiter sowie dem Gehaltsgefüge der Gesell-
schaft abhängig. Als grober Richtwert wird in der Fallstudie angenommen,
dass ein Software-Bot 20% der FTE (Full-Time Equivalent)-Kosten eines in-
ländisch beschäftigen Mitarbeiters und 30% der FTE-Kosten eines Mitarbei-
ters aus einer outgesourcten Gesellschaft verursacht. Als weitere Ergebnisse
werden eine mögliche Reduktion der Fehlerraten von 20% sowie die Entlas-
tung von Mitarbeitern von lästigen Aufgaben genannt.
7.2.4 Weitere Anwendungen von RPA im Gesundheitswesen
Eine weitere ähnliche Anwendung von RPA im Gesundheitswesen wird in
Cognizant (2019) beschrieben. Zielsetzung war die Automatisierung von Pro-
zessen bei einem der führenden US-Dienstleister für die Überprüfung der
Leistungsberechtigung bei Schadensmeldungen von Versicherten. Zur Prü-
fung eines Anspruchs mussten die Mitarbeiter des Dienstleisters sich manu-
ell in die Portale der jeweiligen Gesundheitsdienstleister der Patienten ein-
loggen, um deren Berechtigung und deren Begünstigung für anstehende Ter-
mine zu überprüfen, und die Portalnotizen mit den notwendigen Informati-
onen aktualisieren. Ein großes Problem ist hierbei die hohe Anzahl von mehr
als 120 Portalen, mit denen die Mitarbeiter vertraut sein müssen und deren
Aufbau sich routinemäßig ändert.
Die eigentliche Überprüfung der Leistungsberechtigung umfasste die An-
wendung von mehr als 250 komplexen Entscheidungsregeln auf mehr als 35
Felder in den entsprechenden Formularen. Hierbei mussten Informationen
zu Mitversicherten, jährliche Selbstbehalte, verbleibende Selbstbehalte
Prozessdigitalisierung
119
usw. ausgewertet werden. Bei kurzfristigen Patientenanfragen musste diese
Prüfung innerhalb eines Tages geschehen. In der Konsequenz war der Pro-
zess zeitaufwändig und fehleranfällig, was dazu führte, dass Patienten fal-
sche Informationen erhielten und Anbieter ungenaue Angaben machten, die
zu einer Ablehnung von Anträgen führten.
Zur Automatisierung dieses Prozesses wurde eine RPA-Lösung implemen-
tiert, welche die folgenden Aktivitäten ausführt:
• Extrahieren der Patienteninformationen aus den Portalsystemen der
einzelnen Anbieter über alle Anbieterstandorte hinweg,
• Priorisieren der Termine für die weitere Bearbeitung,
• Extrahieren von Termindetails unter Verwendung von zwei Informa-
tionssystemen und 14 unterschiedlichen Formularen,
• Konsolidierung der Ausgabeberichte und Bestätigung, ob Patienten
Anspruch auf Leistungen haben,
• Validieren und Aktualisieren der Details zur Anspruchsberechtigung
innerhalb der Portale.
Insgesamt wurden 23 Software-Bots für diesen Prozess implementiert, wel-
che an fünf Tagen die Woche je 22 Stunden täglich ausgeführt werden. Sie
verarbeiten damit mehr als 5.000 Transaktionen pro Tag und ersparen dem
RCM-Dienstleister 17.000 Stunden manueller Arbeit jährlich.
Prozessdigitalisierung
120
Literaturverzeichnis
Appelfeller, W., & Feldmann, C. (2018). Die digitale Transformation des Un-
ternehmens. Systematischer Leitfaden mit zehn Elementen zur Strukturie-
rung und Reifegradmessung. Berlin, Heidelberg.
Berti, A., van Zelst, S. J., & Van der Aalst, W. (2019). Process Mining for Py-
thon (PM4Py): Bridging the Gap Between Process- and Data Science. arXiv
preprint arXiv:1905.06169.
Brucker-Kley, E., Keller, T., & Kykalová, D. (2018). Prozessmanagement als
Gestaltungshebel der digitalen Transformation? In Kundennutzen durch di-
gitale Transformation (pp. 3-17). Springer Gabler, Berlin, Heidelberg.
bupaR (2019). Technische Dokumentation, erreichbar unter:
https://www.bupar.net/materials/20170904%20poster%20bupaR.pdf (ab-
gerufen am: 14.10.2020).
Cognizant (2019). RPA Speeds Healthcare Revenue Cycle Management, er-
reichbar unter: https://www.cognizant.com/case-studies/pdfs/rpa-speeds-
healthcare-rcm-codex3827.pdf (abgerufen am: 14.10.2020).
Dadashnia, S., Evermann, J., Fettke, P., Hake, P., Mehdiyev, N., & Niesen, T.
(2016). Identification of Distinct Usage Patterns and Prediction of Customer
Behavior. Sixth International Business Process Intelligence Challenge
(BPIC’16). Business Process Intelligence Challenge (BPIC-2016), located at
BPI/BPM.
Deloitte (2016). Blog-Artikel – Process improvement through robotic process
automation, erreichbar unter: https://www2.deloitte.com/us/en/pages/op-
erations/articles/robotic-process-automation-and-outsourcing.html
(abgerufen am: 14.10.2020).
Deloitte (2017). Blog-Artikel – Making maintenance smarter, erreichbar un-
ter https://dupress.deloitte.com/content/dam/dup-us-en/artic-
les/3828_Making-maintenance-smarter/figures/3828_fig1.png (abgerufen
am: 14.10.2020).
Evermann, J., Rehse, J. R., & Fettke, P. (2017). Predicting process behaviour
using deep learning. Decision Support Systems, 100, 129-140.
FutureLearn (2019). Blog-Artikel – Heuristics Miner, erreichbar unter
https://www.futurelearn.com/courses/process-mining/0/steps/15639 (ab-
gerufen am: 14.10.2020).
Gartner (2019). Market Guide for Process Mining, erreichbar unter
https://www.gartner.com/en/documents/3939836/market-guide-for-pro-
cess-mining (abgerufen am: 14.10.2020).
Prozessdigitalisierung
121
Houy, C., Fettke, P., & Loos, P. (2010). Empirical research in business pro-
cess management – analysis of an emerging field of research. Business Pro-
cess Management Journal, 16(4), 619-661.
Houy, C., Hamberg, M., & Fettke, P. (2019). Robotic Process Automation in
Public Administrations. Digitalisierung von Staat und Verwaltung.
Janiesch, C., Koschmider, A., Mecella, M., Weber, B., Burattin, A., Di Ciccio,
C., & Oberweis, A. (2017). The internet-of-things meets business process
management: mutual benefits and challenges. arXiv preprint
arXiv:1709.03628.
Janssenswillen, G. (2017). Blog-Artikel - bupaR: Business Process Analysis
with R, erreichbar unter https://www.r-bloggers.com/bupar-business-pro-
cess-analysis-with-r/ (abgerufen am: 14.10.2020).
Meister, S., Burmann, A., & Deiters, W. (2019). Digital Health Innovation En-
gineering: Enabling Digital Transformation in Healthcare: Introduction of an
Overall Tracking and Tracing at the Super Hospital Aarhus Denmark. In Digi-
talization Cases (pp. 329-341). Springer, Cham.
OMG (2019). Technische Dokumentation, erreichbar unter
http://www.omg.org/bpmn/Samples/Elements/Core_BPMN_Ele-
ments.htm (abgerufen am: 23.10.2020).
Open XES Developer Guide (2014). Technische Dokumentation, erreichbar
unter https://xes-standard.org/_media/openxes/openxesdeveloperguide-
2.0.pdf (abgerufen am: 14.10.2020).
Peters, R., & Nauroth, M. (2018). Process-Mining: Geschäftsprozesse: smart,
schnell und einfach. Springer-Verlag.
PM4PY (2019). Technische Dokumentation, erreichbar unter
http://pm4py.pads.rwth-aachen.de/documentation/process-discovery/al-
pha-miner/ (abgerufen am: 23.10.2020).
ProcessMining.org (2014). Process Mining at Isala Clinics, erreichbar unter:
http://www.processmining.org/health/isala_case_study (abgerufen am:
23.10.2020).
Rozinat, A., & Van der Aalst, W. M. (2005). Conformance testing: Measuring
the fit and appropriateness of event logs and process models. In Interna-
tional Conference on Business Process Management (pp. 163-176). Springer,
Berlin, Heidelberg.
Scheer, A.-W. (2002). ARIS ‒ vom Geschäftsprozess zum Anwendungssys-
tem. 4. Aufl., Springer, Berlin.
The Lab (2019). Robotic process automation for health insurance – robotics
use case in claims, erreichbar unter: https://thelabconsulting.com/health-
insurance-rpa-use-case/ (abgerufen am: 14.10.2020).
Prozessdigitalisierung
122
UiPath (2019a). Blog-Artikel – The Evolution of Robotic Process Automation
(RPA): Past, Present, and Future, erreichbar unter https://www.ui-
path.com/blog/the-evolution-of-rpa-past-present-and-future (abgerufen
am: 14.10.2020).
UiPath (2019b). Blog-Artikel – 2020 Gartner Magic Quadrant for Robotic Pro-
cess Automation, erreichbar unter https://www.uipath.com/de/com-
pany/rpa-analyst-reports/gartner-magic-quadrant-robotic-process-auto-
mation (abgerufen am: 14.10.2020).
Van der Aalst, W., Weijters, T., & Maruster, L. (2004). Workflow mining: Dis-
covering process models from event logs. IEEE Transactions on Knowledge
and Data Engineering, 16(9), 1128-1142.
Van Der Aalst, W., Adriansyah, A., De Medeiros, A. K. A., Arcieri, F., Baier, T.,
Blickle, T., ... & Burattin, A. (2011). Process mining manifesto. In Interna-
tional Conference on Business Process Management (pp. 169-194). Springer,
Berlin, Heidelberg.
Van Der Aalst, W. (2016). Data science in action. 2. Aufl., Springer, Berlin,
Heidelberg.
van Eck, M. L., Lu, X., Leemans, S. J., & Van der Aalst, W. M. (2015). PM2 A
Process Mining Project Methodology. In International Conference on Ad-
vanced Information Systems Engineering (pp. 297-313). Springer, Cham.
Weijters, A. J. M. M., Van Der Aalst, W. M., & De Medeiros, A. A. (2006).
Process mining with the heuristics miner-algorithm. Technische Universiteit
Eindhoven, Tech. Rep. WP, 166, 1-34.
Leadership im digitalen Zeitalter
Kontrollfragen zur LV "Leadership im digitalen Zeitalter"
Begonnen am
Freitag, 3. November 2023, 00:30
Status
Beendet
Beendet am
Freitag, 3. November 2023, 00:41
Verbrauchte Zeit
10 Minuten 46 Sekunden
Bewertung
8,17 von 20,00 (40,83%)
Frage 1
Richtig
Erreichte Punkte 1,00 von 1,00
Frage markieren
Fragetext
Was ist der Unterschied zwischen "Ego" und "Eco" Leadership?
a. "Ego" Leadership ist eine heroische Form der Führung, während "Eco" Leadership auf Zusammenarbeit und gemeinsame Eigenschaften setzt.
b. "Ego" Leadership basiert auf individuellen Fähigkeiten, während "Eco" Leadership die Organisation als Teil eines größeren Systems betrachtet.
c. "Ego" Leadership ist eine neue Führungsmethode, während "Eco" Leadership traditionelle Ansätze beinhaltet.
d. "Ego" Leadership ist auf Vorhersagbarkeit und Erfahrungen ausgerichtet, während "Eco" Leadership radikale Unsicherheit erfordert.
Feedback
Die richtigen Antworten sind: "Ego" Leadership basiert auf individuellen Fähigkeiten, während "Eco" Leadership die Organisation als Teil eines größeren Systems betrachtet., "Ego" Leadership ist eine heroische Form der Führung, während "Eco" Leadership auf Zusammenarbeit und gemeinsame Eigenschaften setzt.
Frage 2
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Welche Eigenschaften sind Teil des VOPA+ Modells?
a. Vernetzung, Ordnung, Präzision, Agilität, Vertrauen
b. Vernetzung, Offenheit, Partizipation, Agilität, Vertrauen
c. Vision, Organisation, Produktivität, Analyse, Verantwortung
d. Vorsicht, Ordnung, Präzision, Anpassungsfähigkeit, Verantwortung
Feedback
Die richtige Antwort ist: Vernetzung, Offenheit, Partizipation, Agilität, Vertrauen
Frage 3
Richtig
Erreichte Punkte 1,00 von 1,00
Frage markieren
Fragetext
Welche der folgenden Aussagen ist/sind korrekt?
a. Arbeit 4.0 befasst sich mit den technologischen Entwicklungen und Veränderungen, die die Arbeitswelt prägen.
b. Arbeit 4.0 und New Work gelten als Synonyme.
c. Das Konzept von Arbeit 4.0 wurde erstmals im November 2001 veröffentlicht.
d. Im deutschsprachigen Raum sind New Work und Arbeit 4.0 als zwei eng miteinander verbundene Konzepte zu betrachten.
Feedback
Die richtigen Antworten sind: Im deutschsprachigen Raum sind New Work und Arbeit 4.0 als zwei eng miteinander verbundene Konzepte zu betrachten., Arbeit 4.0 befasst sich mit den technologischen Entwicklungen und Veränderungen, die die Arbeitswelt prägen.
Frage 4
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Welche Aussage/n in Bezug auf die agile Personalarbeit ist/sind korrekt?
a. Transparenz und Selbstorganisation sind zentrale Bausteine agiler Methoden.
b. Die agile Personalarbeit ist ein Teilbereich des strategischen Managements.
c. Ziel der agilen Methoden ist die Iteration von internen Prozessen.
d. Agile Personalarbeit macht Führung im klassischen Sinn obsolet.
Feedback
Die richtige Antwort ist: Transparenz und Selbstorganisation sind zentrale Bausteine agiler Methoden.
Frage 5
Teilweise richtig
Erreichte Punkte 0,33 von 1,00
Frage markieren
Fragetext
Welche der folgenden Aussagen zur Stacey-Matrix ist/sind korrekt?
a. Mögliche Ausprägungen der Stacey-Matrix sind „einfach“, „kompliziert“, „neu“ und „bekannt“.
b. Die Stacey-Matrix definiert sich über die Achsen „Technologie“ und „Anforderungen“.
c. Die Stacey-Matrix ordnet Entscheidungssituationen bestimmte Eigenschaften zu.
d. Die Stacey-Matrix ist ein wirkungsvolles Instrument, um zu einer ersten Einschätzung eines Projektes oder eines Vorhabens zu gelangen.
Feedback
Die richtigen Antworten sind: Die Stacey-Matrix definiert sich über die Achsen „Technologie“ und „Anforderungen“., Die Stacey-Matrix ordnet Entscheidungssituationen bestimmte Eigenschaften zu., Die Stacey-Matrix ist ein wirkungsvolles Instrument, um zu einer ersten Einschätzung eines Projektes oder eines Vorhabens zu gelangen.
Frage 6
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Wie unterteilen Heyse und Erpenbeck die Kompetenzen in ihrem Werk "Kompetenztraining"?
a. In angeborene und erlernte Fähigkeiten, Fertigkeiten und Kenntnisse.
b. In personale, aktivitäts- und handlungsbezogene, sozial-kommunikative und fachliche Kompetenzen.
c. In explizites und implizites Wissen, geistige und praktische Anlagen.
d. In automatisierte Komponenten von Tätigkeiten, explizites und implizites Wissen.
Feedback
Die richtige Antwort ist: In personale, aktivitäts- und handlungsbezogene, sozial-kommunikative und fachliche Kompetenzen.
Frage 7
Richtig
Erreichte Punkte 1,00 von 1,00
Frage markieren
Fragetext
Was sind neue Methoden für den digitalen Wandel?
a. Effectuation
b. Kanban
c. Lean Startup
d. Taylorismus
Feedback
Die richtigen Antworten sind: Lean Startup, Kanban, Effectuation
Frage 8
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Welche der folgenden Aussagen zu den Effekten der Digitalisierung auf Humankapital ist/sind korrekt?
a. Humankapital ist heutzutage aufgrund der digitalen Möglichkeiten von geringer Bedeutung.
b. Humankapital ist weiterhin ein bedeutender Erfolgsfaktor – nicht zuletzt aufgrund der Wissensarbeit.
c. Die Digitalisierung sorgt dafür, dass mittelfristig alle Arbeitnehmer profitieren.
d. Die Digitalisierung führt zu einem einfachen „Entkoppeln“ von Berufs- und Freizeitmodus.
Feedback
Die richtige Antwort ist: Humankapital ist weiterhin ein bedeutender Erfolgsfaktor – nicht zuletzt aufgrund der Wissensarbeit.
Frage 9
Richtig
Erreichte Punkte 1,00 von 1,00
Frage markieren
Fragetext
Welche der folgenden Aussagen zu „New Work“ ist/sind korrekt?
a. New Work ist ein Konzept, das die Veränderung der Arbeit an sich und die daraus resultierenden Anforderungen an das HR beschreibt.
b. New Work forciert als Konzept vor allem Intrapreneurship.
c. New Work beschreibt eine zentrale Anforderung der modernen Personalarbeit.
d. Scrum ist ein Beispiel für New Work.
Feedback
Die richtigen Antworten sind: New Work ist ein Konzept, das die Veränderung der Arbeit an sich und die daraus resultierenden Anforderungen an das HR beschreibt., New Work beschreibt eine zentrale Anforderung der modernen Personalarbeit., New Work forciert als Konzept vor allem Intrapreneurship.
Frage 10
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Was sind die drei wichtigsten Coaching-Prinzipien für Digital Leader?
a. Hierarchie, Direktive Führung, Zielsetzung
b. Aktives Zuhören, Problemlösung, Autorität
c. Enabler-Rolle, reflexives Verhalten, psychological safety
d. Delegieren, Kontrolle, Feedback
Feedback
Die richtige Antwort ist: Enabler-Rolle, reflexives Verhalten, psychological safety
Frage 11
Teilweise richtig
Erreichte Punkte 0,33 von 1,00
Frage markieren
Fragetext
Die Anforderungen der modernen Personalarbeit lassen sich in folgende/n Teilbereich/e aufgliedern:
a. Agilität
b. New Work
c. Personalentwicklung
d. Transparenz
Feedback
Die richtigen Antworten sind: Personalentwicklung, New Work, Agilität
Frage 12
Richtig
Erreichte Punkte 1,00 von 1,00
Frage markieren
Fragetext
Was verstehen Sie unter OKR?
a. Operative Kontrolle und Reporting.
b. Objectives and Key Results.
c. Objectives and Key Reports.
d. Operations and Key Results.
Feedback
Die richtige Antwort ist: Objectives and Key Results.
Frage 13
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Welcher Führungsstil konzentriert sich darauf, Teammitglieder positiv zu verändern und ihre individuellen Bedürfnisse, Wünsche und Motivatoren zu berücksichtigen?
a. Transaktionale Führung
b. Laissez-Faire
c. Laterale Führung
d. Transformationale Führung
Feedback
Die richtige Antwort ist: Transformationale Führung
Frage 14
Teilweise richtig
Erreichte Punkte 0,50 von 1,00
Frage markieren
Fragetext
Welche Aussagen beschreiben das SCARF-Modell von David Rock?
a. Bietet einen Überblick über fünf Dimensionen, die sowohl als positive als auch als negative Auslöser wirken können.
b. Es basiert auf den fünf Dimensionen: Status, Certainty, Autonomy, Relatedness und Fairness.
c. Es wurde entwickelt, um die digitale Transformation in Unternehmen zu unterstützen.
d. Es konzentriert sich hauptsächlich auf das Bedürfnis nach Anerkennung.
Feedback
Die richtigen Antworten sind: Es basiert auf den fünf Dimensionen: Status, Certainty, Autonomy, Relatedness und Fairness., Bietet einen Überblick über fünf Dimensionen, die sowohl als positive als auch als negative Auslöser wirken können.
Frage 15
Richtig
Erreichte Punkte 1,00 von 1,00
Frage markieren
Fragetext
Wodurch unterstützt die Führungskraft die Verinnerlichung agiler Methoden beim Personal?
a. Bestrafen
b. Feedback
c. Erkennen
d. Erziehen
Feedback
Die richtigen Antworten sind: Erkennen, Erziehen, Feedback
Frage 16
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Was bedeutet "Work-Life Harmony" in Bezug auf Arbeit 4.0?
a. Eine Trennung von Arbeit und Privatleben.
b. Eine Work-Life-Balance, bei der Arbeit und Privatleben gleichgewichtet sind.
c. Eine strikte Trennung zwischen Arbeit und Privatleben.
d. Eine nahtlose Verbindung zwischen Arbeit und Privatleben.
Feedback
Die richtige Antwort ist: Eine nahtlose Verbindung zwischen Arbeit und Privatleben.
Frage 17
Teilweise richtig
Erreichte Punkte 0,67 von 1,00
Frage markieren
Fragetext
Welchen Punkten müssen moderne Unternehmen besondere Beachtung schenken?
a. Kompromisslose Kundenorientierung.
b. Produkte werden radikal in den Mittelpunkt gerückt.
c. Globales Denken / Expansion.
d. Absehen von traditionellen Geschäftsmodellen.
Feedback
Die richtigen Antworten sind: Absehen von traditionellen Geschäftsmodellen., Kompromisslose Kundenorientierung., Globales Denken / Expansion.
Frage 18
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Welche der folgenden Aussagen zum digitalen Reifegrad ist/sind korrekt?
a. Ein hoher digitaler Reifegrad steht für eine weit fortgeschrittene digitale Transformation.
b. Der digitale Reifegrad wird in der Regel für Produkte eines Unternehmens ermittelt.
c. Der digitale Reifegrad entspricht vereinfacht gesagt dem Digitalisierungsgrad einer Organisation.
d. Anhand der sog. Stacey-Matrix kann der digitale Reifegrad eines Unternehmens bestimmt werden.
Feedback
Die richtigen Antworten sind: Ein hoher digitaler Reifegrad steht für eine weit fortgeschrittene digitale Transformation., Der digitale Reifegrad entspricht vereinfacht gesagt dem Digitalisierungsgrad einer Organisation.
Frage 19
Teilweise richtig
Erreichte Punkte 0,33 von 1,00
Frage markieren
Fragetext
Was können Führungskräfte tun, um eine positive Wirkung auf das "innere Arbeitsleben" der Mitarbeiter zu erzielen?
a. Sinnvolle Arbeit ermöglichen und Fortschritte fördern.
b. Die Arbeitszeiten flexibilisieren.
c. Die Anzahl der gehaltenen Präsentationen steigern.
d. Die Gehälter erhöhen.
Feedback
Die richtigen Antworten sind: Die Gehälter erhöhen., Die Anzahl der gehaltenen Präsentationen steigern., Die Arbeitszeiten flexibilisieren.
Frage 20
Falsch
Erreichte Punkte 0,00 von 1,00
Frage markieren
Fragetext
Was kennzeichnet die vierte industrielle Revolution?
a. Eine Phase radikaler Unsicherheit.
b. Eine Rückkehr zu früheren Problemlösungsansätzen.
c. Eine vorhersehbare und kontrollierbare Situation für Manager.
d. Eine Bevorzugung von traditionellen Führungsmethoden.
Feedback
Die richtige Antwort ist: Eine Phase radikaler Unsicherheit.
Verkaufe deinen Prüfern eine Rolex!
Mündliche Prüfungen im Studium
PBXStudio - stock.adobe.com
21.03.2023
Die mündliche Prüfung steht an? Kein Grund nervös zu werden! Mit der richtigen Vorbereitung auf die Inhalte aber auch auf das Setting der Prüfung klappt das. Sabine Grotehusmann schlägt vor, sich die Begegnung als Verkaufsgespräch vorzustellen. Wie dieses Rollenspiel klappen soll, liest du hier.
Inhalt
Inhaltliche und mentale Vorbereitung
Prüfungsinhalt: Antworten antizipieren
Der Dreischritt als Antwortstruktur
Wenn die Prüfungskommission reglos bleibt...
Auf die inhaltliche und mentale Vorbereitung kommt es an!
Der Termin einer mündlichen Prüfung nähert sich – und das flaue Gefühl im Magen wird mit jedem Tag immer größer? Kein Problem, wenn du dich darauf vorbereitest: Um auf die Fragen in der Prüfung antworten zu können, ist ausreichend Lernen unabdingbar – Tipps hierzu findest du in unserer großen Artikelreihe Lerntipps.
Daneben ist es ebenfalls hilfreich, wenn du dich vorab mental mit dem Setting der Prüfung auseinandersetzt. Eine mündliche Prüfung kann für manche durch den direkten Kontakt mit den DozentInnen eine sehr herausfordernde Situation darstellen, während andere mit schriftlichen Klausuren auf Kriegsfuß stehen. Je nach dem, welcher Prüfungstyp du bist, gilt es einen individuellen Umgang heraus zu arbeiten. Die Prüfungscoachin Sabine Grotehusmann schlägt vor, sich die Begegnung als Verkaufsgespräch vorzustellen.
Eine mündliche Prüfung ist ein Verkaufsgespräch. Die Ware, die angeboten wird, ist das Prüfungswissen. Es geht folglich darum, das eigene Wissen möglichst überzeugend darzustellen. Die Prüfer sollen den Eindruck bekommen, dass die Ware solide ist und von hoher Qualität. Wenn sie das Wissen entgegennehmen, sollten sie ein gutes Gefühl haben, wie beim Einkauf eines Qualitätsproduktes.
Kleinere Mängel gilt es bei einer Prüfung – wie bei einem Verkaufsgespräch – zu übergehen. Kein Verkäufer wird von sich aus auf die Schwachstellen seines Produktes hinweisen!
Leichter fällt die mündliche Prüfung, wenn man sie als ein Rollenspiel versteht. Der Prüfling übernimmt dabei die Rolle des Verkäufers, selbst wenn er kein Verkäufertyp ist. Der erste Schritt des Rollenspiels ist die Vorbereitung. Es gilt, sich über die Rahmenbedingungen zu informieren.
sabine-grotehusmann (Köln) arbeitet als Autorin, Studienrätin und Trainerin mit den Schwerpunkten: Lernen und Kreativität.
www.derpruefungserfolg.de
Informationen zur Prüfung und ihrem Ablauf einholen
Um dich gut vorzubereiten, hole mithilfe der folgenden Checkliste zunächst möglichst viele prüfungsrelevanten Informationen ein.
Allgemeines zur Prüfung
Prüfungsort, -raum (falls online: Plattform und Zugangsdaten)
Prüfungsbeginn (Wann muss ich spätestens von zuhause losgehen?)
Prüfungsdauer
Zeitvorgabe für die einzelnen Prüfungsteile und deren Gewichtung
Vorbereitungszeit
Erlaubte Hilfsmittel (Gesetzestexte, Wörterbuch, Taschenrechner, Stifte…)
Anzahl der Prüfer, davon frageberechtigte Personen
Die Wellenlänge Deiner Prüfer
Spezialgebiete und Lieblingsthemen der Prüfer
Gibt es einen (ungeschriebenen) Dresscode?
Haben die Prüfer Humor?
Der Prüfungsverlauf
Nimm vorher als Gast an anderen Prüfungen teil (Das ist oft erlaubt, jedoch vielen Studierenden unbekannt).
Wird ein Kurzvortrag gewünscht?
Ist die Prüfung als Gespräch angelegt?
Wird mehr Detail- oder Überblickswissen abgefragt?
Welche Fragen wurden ehemaligen Prüflingen gestellt? (Besorge dir Prüfungsprotokolle oder nehme Kontakt mit ehemaligen (erfolgreichen) Prüflingen auf.)
Der Prüfungsinhalt: Antworten antizipieren
Der wichtigste Punkt ist natürlich die inhaltliche Vorbereitung. Die geht am leichtesten, wenn man weiß, wonach gefragt wird. Versuche, die Antworten zu antizipieren. Auch wenn du die genauen Fragen nicht kennst, kannst du die Antworten gut vorbereiten. Der gute Verkäufer kennt auch nicht die Fragen seiner Kunden. Er kennt jedoch alle Eigenschaften und Vorzüge seines Produktes. Er weiß genau, was er dem Kunden erzählen wird!
Kenne die wichtigsten Teilbereiche deiner Fachgebiete!
Verinnerliche die dazugehörigen Schlüsselbegriffe und Fachvokabeln!
Beherrsche die Namen der wichtigsten VertreterInnen des Fachgebietes! (Bei ausländischen Namen vergewissere dich vorher, wie man sie ausspricht. Das verleiht dir Souveränität und Sicherheit).
Sammle gute Beispiele! (Ein gutes Beispiel zeichnet sich dadurch aus, dass es zu 100% auf den dargestellten Sachverhalt passt. Gute Beispiele sind einfach und klar. Standardbeispiele aus Lehrbüchern eignen sich meistens sehr gut. Übernehme sie und versuche nicht, dir kreative Beispiele auszudenken. Deine Kreativität kannst du zum Beispiel bei der Bewertung von Theorien einsetzen. Prüfer knüpfen an Beispiele übrigens gern weitere Fragen. Sollte dein Beispiel nicht genau passen, könnten sie dich auf dem falschen Fuß erwischen!)
Überlege dir, wo es Verknüpfungspunkte zwischen den einzelnen Teilbereichen gibt!
Verdeutliche dir die Gemeinsamkeiten und Unterschiede verschiedener Theorien!
Wo liegen Schwachstellen bei den Theorien? Wie ist deine eigene Position?
Das Prüfungsgespräch:
Verkaufe deinen Prüfern eine Rolex
andreas - Fotolia.com (stock.adobe.com)
Verkaufe das richtige Modell ;)
Versuche die Kommission von deinem Wissen zu begeistern. Je nachdem, welche Note du anstrebst, verkaufe deinen Prüfern eine Rolex – oder halt 'ne Swatch ... 😅. Gerade wenn du kein geborener Verkäufer bist, mache dir bewusst, dass du nicht deine Person verkaufen willst, sondern dein Wissen. In vielen Ratgebern steht, dass es in der mündlichen Prüfung um Selbstdarstellung geht. Das ist nicht richtig. Es geht nicht um die Darstellung deiner Persönlichkeit, sondern um die überzeugende Darstellung eines Themengebietes.
Das Prüfungsgespräch entwickelt sich in der Regel zum Großteil aus dem, was du sagst. Deine Antworten inspirieren die Prüfer zur nächsten Frage. Aus diesem Grund lohnt es sich, das Verhalten in der Prüfung vorher zu trainieren. Das kannst du praktisch in einer Prüfungssimulation oder mental tun. Trainiere ein aktives Verhalten!
Übernehme als Prüfling eine aktive Rolle! Dazu gehört, das eigene Wissen anzubieten. Damit ist gemeint, dass du auf eine Frage nicht nur knapp antwortest, sondern dein weiteres Wissen mitlieferst. Hier zwei Beispiele einer Prüfung zum Thema Kommunikation:
Negativbeispiel
Prüfer: Wie würden Sie diese Aussage einstufen? Eine Frau steht mit ihrem Auto an der Ampel. Es wird grün. Ihr Mann sagt: „Die Ampel ist grün.“
Prüfling: Der Mann appelliert an die Frau loszufahren.
Die Antwort ist zwar richtig, doch versäumt es der Prüfling, sein geballtes Wissen zu präsentieren. Außerdem gibt er die Zügel wieder aus der Hand und versucht nicht, das Gespräch zu lenken.
Positivbeispiel
Prüfling: „Nach dem Vier-Seiten-Modell (= Schlüsselbegriff) von Schulz von Thun (= wichtiger Vertreter) steht hier für mich die Appellseite (= Fachvokabel) im Vordergrund.
Der Mann fordert seine Frau auf, loszufahren. Die anderen drei Seiten einer Nachricht sind die Beziehungsseite, der Sachinhalt und die Selbstoffenbarung“ (Aufzählung weiterer Fachvokabeln als Angebot zu weiterführender Frage und zum Zeigen des komprimierten Fachwissens).
Der Dreischritt als Antwortstruktur
Es gibt keine allgemeingültige Regel für Prüfungsantworten. Zum Trainieren eines aktiven Prüfungsverhaltens hat sich jedoch der Dreischritt als hilfreich erwiesen.
Schritt: Ordne die gestellte Frage zunächst allgemein ein. Nenne das übergeordnete Gebiet, zu dem die Frage gehört. Verwende dazu einen Schlüsselbegriff.
Zähle als nächstes die wichtigsten Punkte auf, die die Frage beantworten. In der Regel werden hier Fachvokabeln erforderlich.
Gib zuletzt ein gutes Beispiel, das den Sachverhalt der Frage erhellt.
In der Prüfung kannst du nach jedem Punkt unterbrochen werden. Deshalb dient der Dreischritt als eine gute Richtlinie. Klammere dich jedoch nicht daran fest, denn es wird auch deine Flexibilität geprüft. Verlasse deine Linie, sobald deine Prüfer das Gespräch in eine andere Richtung lenken.
Aktives Prüfungsverhalten
Biete Dein Wissen an. Komprimiere es in Aufzählungen. Es geht darum, in kurzer Zeit einen kompetenten Eindruck zu hinterlassen.
Leite zu anderen Fragen über: „In dem Zusammenhang stellt sich auch die Frage nach …“.
Sage das Wichtigste zuerst. Deine Prüfer können dich jederzeit unterbrechen.
Gib anschauliche Beispiele, besonders zu theoretischen Ausführungen. Daran erkennt die Kommission, dass du verstehst, wovon du redest.
Stell dich auf Gedankensprünge der Prüfer ein. Nur so kann die Kommission sehen, ob du die Zusammenhänge verstanden hast.
Verwende Fachvokabeln.
Nenne von dir aus nur die Schlüsselwörter und Fachvokabeln, die du auch erklären kannst. Es ist möglich, dass der Prüfer an einer Stelle nachhakt.
Sende positive Körpersignale. Sieh dem Prüfer in die Augen. Sitze aufrecht, nach vorne gelehnt und lächle, falls es sich anbietet. (Vermeide es, auf die Uhr zu schauen. Das könnte deine Prüfer zu weiteren Fragen provozieren.)
Schreckgespenst Blackout
Die Angst vor einem Blackout in der mündlichen Prüfung ist weit verbreitet. Falls es eintritt, geschieht dies meistens in den ersten fünf Minuten. Manchmal wird es gerade durch eine gut gemeinte Einstiegsfrage ausgelöst.
Viele Prüfer stellen als erstes eine sehr allgemeine Frage, damit der Prüfling sich gut in die Situation einfindet. Gerade damit rechnen die wenigsten. Fragen wie: Was haben Sie als letztes gelernt? Erzählen Sie uns etwas über die Epoche der Romantik! oder ähnlich offene Fragen verwirren manchen Prüfling. Stelle dich auf eine derartige Eröffnung ein.
mooshny - Fotolia.com (stock.adobe.com)
Artikeltipp: Blackout bei Prüfungen
Viele Studierende erleben bei Prüfungen große Anspannung – erst recht bei letzten Versuchen, den sogenannten Totprüfungen. Bei Einigen ist der Druck so stark, dass plötzlich ein Blackout eintritt und alles Wissen wie weggeblasen scheint. Lies hier, was du dagegen machen kannst. weiter
Wenn die Prüfungskommission reglos bleibt: Wie läuft die Prüfung gerade?
Einstieg mißglückt? Unser Tipp aus der Redaktion:
Die Prüfung wird ausgerechnet mit einem für dich unbeliebten Thema eingeleitet, von welchem du fast nichts weißt. Sowas kann passieren. Eine vorzeitige Kapitulation ist jetzt aber nicht angeraten: Immerhin werden in der Regel in einer Prüfung mehrere Themen abgehandelt – und wer bei Frage 1 schon aufgibt, verschenkt den sämtlichen Rest.
Allgemeine Tipps hier zu geben ist schwer, da auch der Stil der PrüferInnen mit einbezogen werden muss und recht fach-disziplinär geprägt ist. Hier musst du entscheiden, ob du durch das Einwerfen von Stichpunkten verwandter Gebiete den Prüfungsverlauf auf ein für sich sicheres Terrain zu lenken versuchst.
Aber bedenke: Hier liegt die Unsicherheit drin, dass darauf die PrüferInnen nicht eingehen (möchten).
Oder du fragst direkt an, ob ihr dieses Thema nach hinten verschiebt und mit einem anderen Thema startet, damit du zuerst in den Redefluss kommst, der für die Prüfungssituation ziemlich wichtig ist. Somit verschenkst du keine wertvolle Zeit mit einem unsicheren Gestammel – sondern zeigst, dass du viel im Kopf hast!
Laut Prüfungsordnung ist es den Prüfern in der Regel nicht gestattet zu zeigen, ob das Gesagte richtig oder falsch ist. Es kann durchaus vorkommen, dass weder verbal noch mit einem Lächeln oder Kopfnicken auf deine Antworten reagiert wird. Lass dich davon nicht beeinflussen. Es gibt andere Zeichen, an denen du ablesen kannst, wie die Prüfung gerade läuft.
Wenn du Theorien bewerten sollst, also keine Wiedergabe oder Anwendung von Wissen mehr gefragt wird, bist du bei der Problematisierung angekommen. Das ist eindeutig ein gutes Zeichen, denn sie entspricht der höchsten Anforderungsstufe.
Solltest du kein gelerntes Wissen wiedergeben können, werden die Prüfer sehr lange bei dieser ersten Stufe verweilen. Sie werden versuchen, irgendetwas zu finden, was du weißt. Das ist kein gutes Zeichen.
Ein weiteres Signal sind die sogenannten „Einhilfen“. Der Prüfer macht eine Einhilfe, wenn er dir mit einer Frage bei der Beantwortung der vorigen hilft. Je weniger Einhilfen dir gegeben werden, desto besser ist in der Regel das Prüfungsergebnis.
Was auch immer passiert – viel Erfolg bei deiner mündlichen Prüfung!
Zum Weiterlesen auf Studis Online
Buchtipp (*Werbung*)
Buchtipps sind redaktionell ausgewählt. Wir erhalten eine kleine Provision, wenn über den Link auf Amazon eingekauft wird.
Der Prüfungserfolg – Die optimale Prüfungsvorbereitung für jeden Lerntyp
Sabine Grotehusmann
Gebraucht oder als elektronische Version erhältlich. Via Amazon.de
Quelle:
https://www.studis-online.de/Studieren/Lernen/muendliche_pruefung.php
BIG DATA & KÜNSTLICHE INTELLIGENZ
Von der Digitalisierung zur Automatisierung: Wie KI und Big Data die Anwendungen von morgen ermöglichen
Das Thema KI ist einer der Megatrends der heutigen Zeit. Gepaart mit einem ständig anwachsenden Datenbestand, dem Paradigma Big Data, können in durchwegs allen Branchen neue Geschäftsmodelle und effizientere Geschäftsprozesse etabliert werden.
1 Big Data als Treiber der heutigen Künstlichen Intelligenz
1.1 Einführung
Der Megatrend Künstliche Intelligenz (KI) hat bereits heute Einzug in sehr viele Bereiche des täglichen Lebens und auch in Unternehmen jeder Branche erhalten. Oftmals werden diese Anwendungsfälle nach längerer Anwendung schon gar nicht mehr als eine „Künstliche Intelligenz“, sondern als funktionierende kleine Assistenten im täglichen Leben angesehen – ohne dass der Endnutzer dies genauer hinterfragt.
Beispiele, die bereits nicht mehr aus unserem Alltag wegzudenken sind, haben sich über die letzten Jahre im täglichen Umgang mit ihnen manifestiert.
Dazu gehören beispielsweise Navigationssysteme, Sprachassistenten oder aber auch die automatisierte Kategorisierung von Fotos auf einem Smartphone. Die berühmte Aussage von John McCarthy, einem der Mitbegründer der Künstlichen Intelligenz in den 1960er Jahren, wird oft zitiert mit dem sogenannten Dilemma der KI: „As soon as it works, nobody calls it AI anymore.“
Dies suggeriert, dass wir häufig schon weitverbreitete Anwendungen nutzen, diese aber letztlich nicht als KI-Anwendung wahrnehmen.
Abseits von den kleinen Alltagshelfern kann Künstliche Intelligenz jedoch auch einen großen Mehrwert innerhalb von Unternehmen, speziell innerhalb der Ausführung von Geschäftsprozessen, liefern. Im Zuge der täglich anwachsenden Anforderungen und von zunehmendem Kostendruck sind Unternehmen dazu angehalten, neue Konzepte hinsichtlich der Effizienzsteigerung und der damit einhergehenden Automatisierung von Routinetätigkeiten zu etablieren. Aber wie können diese Potenziale innerhalb eines Unternehmens effizient erkannt, ausgeschöpft und anschließend zielgerichtet in die operativ wichtigen Prozesse der Wertschöpfung integriert werden?
Hierzu werden im Allgemeinen neueste Technologien zur Analyse von Schwachstellen innerhalb ihres Unternehmens, Softwareroboter zur Automatisierung von Routineaufgaben sowie die automatisierte Entscheidungsfindung auf der Basis von Künstlicher Intelligenz angewendet. Diese Aspekte sind heutzutage Teil jeder strategischen Unternehmensausrichtung, die generelles Wachstum und Ressourcenoptimierung verfolgt.
Gleichwohl lässt sich erkennen, dass weltweit renommierte Marktforschungseinrichtungen über die letzten Jahre mehrfach den enormen Wachstumsmarkt der Künstlichen Intelligenz erfassen. Dies deckt sich auch mit dem Investitionsverhalten von Unternehmen in durchwegs allen Branchen und Größen. Weiterhin werden natürlich auch enorme Investitionen von der öffentlichen Hand im Kontext der Forschung im Bereich KI getätigt.
Nach Befragungen von KI-Anwendern in einer Studie von McKinsey (2020) sollen bis ca. 2025 Umsatzpotenziale auf zwischen 3,8 und 5,8 Milliarden USD alleine unter den befragten Unternehmen gehoben werden können.
Dies unterteilt sich in 19 verschiedene Branchen. Beispielsweise sollen im Kontext Retail und Healthcare enorme Potenziale vorhanden sein, dicht gefolgt von der Transport- und Logistik-Industrie, wie in Abbildung 1 dargestellt ist.
Die Anwendung der Methoden von Künstlicher Intelligenz bedarf der Voraussetzungen einer passenden Problemstellung, der ausreichend vorhandenen Rechenleistung und natürlich der Verfügbarkeit von Daten.
Die Daten müssen in einer adäquaten Qualität und Menge vorhanden sein, damit ein Ansatz der Künstlichen Intelligenz richtig trainiert werden kann und dass die Ergebnisse auch einen fachlich zufriedenstellenden Mehrwert generieren.
Durch die ständig anwachsende Datenmenge, exponentiell ansteigende Verbesserungen von Rechenleistung und letztlich die Verbesserungen von KI-Algorithmen können bisherige Methoden und Konzepte des Geschäftsprozessmanagements teilweise mit disruptivem Charakter verbessert werden.
Durch die hohe Nachfrage und bereits gezeigte Anwendungen birgt das intelligente Geschäftsprozessmanagement starke Einsatzpotenziale und wird zunehmend Einzug in Unternehmensprozesse in durchwegs allen Branchen halten.
Die Hälfte der weltweit verfügbaren Daten ist in den letzten zwei Jahren entstanden. Der Wandel, dass heutzutage wichtige Entscheidungen auf der Basis von datenbasierten Analysen getätigt werden, schreitet damit weiter voran.
Die Informationen, die heute verfügbar sind, können bei richtiger Anwendung dieser Informationen zur richtigen Zeit essenzielle Wettbewerbsvorteile sichern! Daten entstehen heutzutage an den verschiedensten Stellen.
Egal ob Plattformen wie Social Media, Videostreaming oder durch Messagingdienste, die Menge weltweit verfügbarer Daten wächst enorm. Aber Daten, die gerade wichtig für Entscheider innerhalb eines Unternehmens sind, entstehen eben nicht unbedingt nur in den sozialen Medien etc., sondern vor allem auch in den tagtäglichen Geschäftsabläufen von Unternehmen. Durch zunehmendes Wirtschaftswachstum und den Drang, wettbewerbsfähig zu bleiben, sind Unternehmen dazu angehalten, ihre Best Practices gegenüber der Konkurrenz zunehmend weiter auszubauen, um die jeweilige Marktposition halten und weiter stärken zu können.
Durch dieses zunehmende Wachstum und den dadurch entstehenden Druck auf die internen Prozesse sind Unternehmen mehr denn je dazu angehalten, ihre Geschäftsprozesse effizient zu gestalten.
In vielen Fällen werden über die Ausgestaltung dieser Effizienzsteigerung unternehmensweit Digitalisierungskampagnen gestartet. Diese tragen im Wesentlichen dazu bei, dass neue Daten Prozessen entstehen. Letztlich profitieren somit auch die Unternehmen von einem zunehmenden Anstieg der Datenmenge, sofern sie diese für die richtigen Unternehmensentscheidungen einsetzen. Dabei spielen aus einer praxisbezogenen Sicht zwei wesentliche Faktoren eine entscheidende und übergeordnete Rolle. Zum einen muss ein vorab definiertes und fachlich sinnvolles Ziel der Analyse definiert sein. Diese sehr einfache, doch praktisch oft schwer umsetzbare Prämisse ist absolut entscheidend für datengetriebene Analysen.
Wenn es um Datenauswertungen im Allgemeinen oder auch um den Big Data Bereich geht, haben die sogenannten Data Scientists oft einige Methoden und Analysen in ihren Software-Werkzeugkisten. Jedoch führt eine rein statistisch durchgeführte Analyse der Daten mit entsprechenden Werkzeugen zu sogenannten Scheinkorrelationen innerhalb der analysierten Datenmenge. Praktisch heißt dies, dass Zusammenhänge innerhalb der Daten gefunden werden, die aus fachlicher Sicht aber keinerlei Relevanz haben. Dies ist eine Gefahr, die in sogenannten Analytics Projekten oft eine Sackgasse für Data Scientists darstellt. Deshalb muss schon früh in einem solchen Prozess die Fachabteilung, die anschließend von diesen Analysen profitiert, hinzugezogen werden. Nur so kann verhindert werden, dass die aufbereiteten Analysen in einer Sackgasse landen und die Ergebnisse im schlimmsten Falle nur von geringem Mehrwert sind. Speziell in diesem Fall entsteht innerhalb solcher Projekte ein gewisser Trade-off: Zum einen müssen innerhalb der Daten neue Erkenntnisse gefunden werden und der jeweiligen Fachabteilung präsentiert werden, dies führt häufig zu den beschriebenen Scheinkorrelationen und die Fachabteilung muss einbezogen werden. Wenn aber die Fachabteilung die Oberhand innerhalb der Analytics-Projekte besitzt, werden oft nur Erklärungen innerhalb der Daten gesucht, die aus der Hypothese einer Fachabteilung resultieren. Dieses Dilemma lässt sich nur dahingehend lösen, dass möglichst viele Analysen durchgeführt werden, auch mit der Gefahr, dass einige Scheinkorrelationen am Ende eines Projektes verworfen werden müssen. Diese Vorgehensweise führt dazu, dass die Fachabteilung auch wichtige neue Erkenntnisse innerhalb ihres Datenschatzes findet.
Nachteil ist aber auch, dass diese Analysen ‒ sofern sie gänzlich manuell durchgeführt werden ‒ sehr viel Zeit in Anspruch nehmen und somit faktisch teuer sind.
Letztlich kann festgehalten werden, dass die Anwendung im Kontext der Künstlichen Intelligenz nur mittels des korrekten Einsatzes und der Aufbereitung von vorhandenen und künftig entstehenden Datenquellen zum Einsatz kommt.
Dabei ist darauf zu achten, dass der Einsatz der richtigen Datenquelle gegenüber dem Einsatz einer großen Datenmenge vorzuziehen ist. Nicht jede Anwendung der Künstlichen Intelligenz bedarf eines sehr großen Datensatzes.
Oft reicht es auch aus, eine Datenquelle gezielt zum Einsatz zu bringen. Somit ist es Unternehmen möglich, ihren Endkunden neue effizientere Produkte und Dienstleistungen anzubieten.
Die Zielsetzung des vorliegenden Skriptums ist daher, das Themenfeld der Künstlichen Intelligenz zu beleuchten und deren Anwendung in Bezug auf Prozessdigitalisierung näher zu betrachten. Insbesondere werden die Zusammenhänge zwischen Daten, Rechenleistung und neuen Methoden der Künstlichen Intelligenz diskutiert. Hierzu wird das Themenfeld in aufeinander aufbauende Phasen unterteilt und die folgenden Inhalte adressiert:
• Kapitel 1 gibt eine Einführung in aktuelle Entwicklungen der Künstlichen Intelligenz und Big Data. Weiterhin werden verschiedene Treiber aufgezeigt. Darüber hinaus lassen sich diesbezügliche Potenziale und Herausforderungen aufzeigen.
• Die Einordnung des Themenfelds Künstliche Intelligenz in den Bezugsrahmen eines allgemeinen Ablaufes der historischen Entwicklung erfolgt in Kapitel 2. Dabei wird auch Bezug auf den aktuellen Hype rund um das Thema Künstliche Intelligenz genommen. Darüber hinaus werden grundsätzliche Definitionen zum Themengebiet der Künstlichen Intelligenz gegeben. Dazu gehören im weiteren Sinne auch technologische Grundlagen, die in diesem Zusammenhang dargelegt werden.
• Kapitel 3 diskutiert, warum gerade in der heutigen Zeit Methoden aus dem Bereich Künstliche Intelligenz benötigt werden. Zu den Inhalten gehören unter anderem Knappheit von Ressourcen, demografische Faktoren sowie wichtige Aspekte des Klimawandels oder auch neu geartete und personalisierbare Dienstleistungen in unterschiedlichen Branchen wie beispielsweise der Gesundheitsbranche. Durch die Darstellung der vielseitigen Einsetzbarkeit von Künstlicher Intelligenz wird in diesem Kapitel eingehend auf die Wichtigkeit dieses Themengebietes hingewiesen und herangeführt.
• Innerhalb von Kapitel 4 werden anschließend verschiedene Methoden der Künstlichen Intelligenz behandelt. Generell werden Methoden aus dem Bereich Supervised Learning, Unsupervised Learning sowie auch Reinforcement Learning behandelt. Zu den einzelnen behandelten Methoden gehören historisch weit verbreitete Ansätze wie beispielsweise K-Means Clustering und neue Verfahren (z.B. Deep Learning), die in unterschiedlichen Kategorien zum Einsatz kommen. Dabei werden einschlägige Beispiele erläutert. Weiterhin erfolgt eine Einteilung der Methoden im Kontext der Typisierung des Methodenspektrums. Dieses Kapitel bildet die Basis für die darauffolgenden Anwendungsfälle der Künstlichen Intelligenz.
• In Kapitel 5 werden konkrete Anwendungsfälle aus den unterschiedlichsten Branchen und Industrien aufgezeigt und erläutert. Dabei wird der Fokus vor allem auf konkrete Anwendungsfälle aus der Praxis mit einem entsprechenden unternehmerischen oder aber auch gesellschaftlichen Mehrwert gelegt. Ziel des Kapitels ist, ein Gespür für unterschiedlichste Anwendungsgebiete der Künstlichen Intelligenz zu bekommen und die Anwendungsfälle und Lösungswege ggf. auch auf eigene interessante Problemstellungen übertragen zu können.
• Nachfolgend werden in Kapitel 6 speziell die Anwendungsfälle der Künstlichen Intelligenz im Kontext der Gesundheitsbranche eruiert.
Diese bilden einen essentiellen Vorsprung gegenüber der bisherigen Arbeitsweise in verschiedenen Bereichen dieser Branche. Dabei werden nicht nur Aspekte der Effizienzsteigerung im Sinne einer Arbeitserleichterung oder Beschleunigung verzeichnet, sondern auch beispielsweise Verbesserungen von Diagnosen durch den Einsatz von Kollektiver Intelligenz. Dabei ist anzumerken, dass der Einsatz der Künstlichen Intelligenz zur Verbesserung unseres Gesundheitsstandes des einen extrem wichtigen Einfluss auf zahlreiche gesellschaftliche Fragestellungen mit sich bringt, die in diesem Kapitel aufgezeigt und diskutiert werden.
• Abschließend werden in Kapitel 7 ergänzende Aspekte und Herausforderungen der Künstlichen Intelligenz aufgezeigt. Diese werden in Bezug auf Infrastrukturen, Algorithmen, aber auch bspw. aus ethischen Blickwinkeln in Bezug auf Künstliche Intelligenz erörtert.
1.2 Big Data
Wegen des aktuell andauernden beispiellosen Wachstums der globalen Konnektivität und Vernetzung werden immer mehr Daten erzeugt. Alleine in den letzten beiden Jahren sind ca. 50% des weltweiten Datenbestandes, der in Rechenzentren gespeichert ist, entstanden. Zum einen lässt sich der Trend der stetig wachsenden Datenmenge erkennen (siehe hierzu Abb. 2), anderseits lassen sich aber auch Trends im Bereich der Methodik zur Auswertung dieser Datensätze festhalten.
Neue Technologien ermöglichen es, diese sehr großen Datensätze mit Hilfe verschiedener Techniken und Architekturen zu speichern, zu verwalten und mittels Methoden der Künstlichen Intelligenz zu analysieren.
Big Data kann für Einzelpersonen und Organisationen von großem Nutzen sein und neue Einblicke in viele Domänen ermöglichen, wie bspw. Smart Cities, für Healthcare-Anwendungen sowie in der Prozessoptimierung durch effizientere Ressourcennutzung und Prozessabläufe bis hin zu einem neuen Grad der Automatisierung mittels KI.
Viele Organisationen machen sich dieses Paradigma zu eigen und sind bei der Entscheidungsfindung, Produkt- und Dienstleistungsentwicklung sowie bei der Interaktion mit Kunden, Mitarbeitern, Lieferanten und anderen Interessengruppen zunehmend datengesteuert. Social-Media-Plattformen sind großartige Beispiele dafür, wie Vermarkter heute auf ihre Kunden zugehen und den Bereich des Marketings revolutionieren. Große Datenmengen werden gemeinhin definiert als „ein Begriff, der große Mengen an schnellen, komplexen und variablen Daten beschreibt, die fortgeschrittene Techniken und Technologien erfordern, um die Erfassung, Speicherung, Verteilung, Verwaltung und Analyse der Informationen zu ermöglichen“.
Große Datenmengen und deren Handhabung können durch Volumen, Vielfalt, Geschwindigkeit und Wahrhaftigkeit (die vier Vs) wie folgt dargestellt werden:
• Datenmenge (Volume) ‒ die Menge der erzeugten Daten: Diese Menge ist aufgrund der zunehmenden Anzahl z.B. der über das „Internet of Things“ verbundenen Datenquellen, ihrer höheren Auflösung sowie der Datentiefe explodiert. Die Herausforderung für KI-Anwendungen besteht darin, diese sehr große Datenmenge zu verarbeiten, zu analysieren und zu pflegen.
• Datenvielfalt (Variety) ‒ die Heterogenität der Daten: Verursacht durch die Vielfalt der Datenquellen. Mehrere Datenquellen beschreiben ein Ereignis und liefern unterschiedliche Datenformate in strukturierter oder sogar unstrukturierter Form. Diese Daten sind nicht auf Sensordaten beschränkt, sondern können z.B. auch das Expertenwissen eines Maschinenbedieners sein. Die KI muss daher Informationen aus verschiedenen Quellen mit unterschiedlichen Datentypen nutzen.
• Geschwindigkeit (Velocity) – Geschwindigkeit: Die Geschwindigkeit, mit der Daten erzeugt werden, die derzeit in vielen Fällen in Echtzeit erfolgt. Für einige Anwendungen ist die Geschwindigkeit der Datengenerierung entscheidend, da sie die Gültigkeit der Daten bedingt.
Häufig führt dies zu einem Kompromiss zwischen der Geschwindigkeit der Datenerzeugung und ihrer Verarbeitung. Die Latenzzeit zwischen Generierung und Verarbeitung ist ein wichtiger Faktor für KI-Anwendungen.
• Datenqualität für Analysen (Veracity) ‒ wie oben beschrieben, ist ein KI-Algorithmus nur so leistungsfähig wie die Qualität der Daten, mit denen er gefüttert bzw. trainiert wird. Da Anwendungen, die auf Daten geringerer Qualität basieren, zu falschen Vorhersagen führen können, muss die KI das Problem der Datenqualität mildern, um weiterhin brauchbare Ergebnisse zu liefern.
1.2.1 Neue Datenquellen
Bei der Ausgabe einer KI-Anwendung handelt es sich um Informationen, die aus Algorithmen extrahiert werden, die auf bereitgestellten Daten basieren.
Daher wird die Verwendung unvollständiger oder fehlerhafter Daten immer zu schlechten Ergebnissen führen, egal wie gut der Algorithmus ist. Ein wichtiger Faktor bei der Erstellung und Bewertung neuer Algorithmen ist der Zugriff auf Datensätze und aussagekräftige Daten, die bereits klassifiziert wurden. Eine der wichtigsten Entwicklungen, die die Verfügbarkeit von Daten vorangetrieben haben, ist das Internet. Dies hat es großen Gemeinschaften ermöglicht, bei der Erstellung von Datensätzen zusammenzuarbeiten, auf die Forscher auf der ganzen Welt zugreifen können.
Ein anschauliches Beispiel für eine Internet-Community, die ständig Daten zur Bildklassifizierung erstellt, klassifiziert, kennzeichnet und uploaded, ist die ImageNet-Community. Die Erstellung und Kennzeichnung von Trainingsdaten nahm in der Vergangenheit nicht nur viel Zeit in Anspruch, sondern war auch für große Datensätze, die für das Training neuronaler Netze benötigt werden, fast unmöglich. Während ein Bilddatensatz für die Gesichtserkennung 1997 aus etwa 165 Instanzen bestand, besteht ein ImageNet-Datensatz für Gesichter bereits aus 1.570 vollständig klassifizierten Instanzen.
Insgesamt liefert ImageNet allein fast 15 Millionen klassifizierte Bilder, auf die leicht zugegriffen werden kann und die zum Training und zur Bewertung von KI-Algorithmen verwendet werden können.
Der leichte Zugang zu einer großen Datenmenge, die zum Trainieren und Feinabstimmen von Algorithmen verwendet werden kann, bedeutet, dass Forscher und Praktiker der KI ihre Zeit der Verbesserung und Entwicklung neuer Algorithmen widmen und diese dann schnell testen und validieren können. Dies war noch vor zwei Jahrzehnten nicht möglich.
1.2.2 Infrastruktur und neue Datenquellen
Letztlich spielt der Einfluss von neuen Technologien vor allem im Kontext mit der Basisinfrastruktur durch Cloud Computing und technische Verbesserung von Datenbanken eine maßgebliche Rolle im Kontext von Big Data. Wichtig ist dabei, darauf zu achten, dass in den letzten Jahrzehnten auf Seite der Datenbanken ein Vorsprung hinsichtlich Performance erreicht werden konnte.
Ein neues Paradigma, das sogenannte In-Memory-Computing, verhalf Datenbanken, die bisher auf klassischen Festplatten organisiert wurden, zu neuer, bisher nie dagewesener Performance. Erst durch diese infrastrukturelle und datenbanktechnische Neuerung wurden neue Kalkulationen im Sinne von Big Data ermöglicht. Festzuhalten ist auch, dass diese Kalkulationen nicht möglich gewesen wären, wenn bestehende Algorithmen nicht an neue Infrastrukturen angepasst worden wären ‒ und somit die Anfragen und letztlich die Ergebnisse in einer adäquaten Zeit zur Verfügung gestellt werden konnten.
Dabei ist die Interpretierbarkeit von Daten ein entscheidender Faktor und deren Verfügbarkeit der Ergebnispräsentation spielt eine sehr wichtige Rolle. Im Rahmen der Informationstechnologie wird mit fortschreitender Zeit eine Information immer weniger Wert. Deswegen muss sichergestellt werden, dass neue Berechnungen in sehr kurzer Zeit einem Entscheidungsträger zur Verfügung gestellt werden können. In Abbildung 3 wird gezeigt, wie sich der Wert einer Information mit zunehmender Zeit rapide verringert.
Gleichwohl ist ein Trend zu erkennen, dass heutzutage auch wichtige Informationen durch den Einsatz von Big-Data-Konzepten immer schneller verfügbar sind und somit zur proaktiven Handlungsfähigkeit von Unternehmen beitragen.
Abbildung 3: Informationswert in Bezug auf Zeit
1.2.3 Cloud- und Edge-Computing
Edge-Computing ist eine verteilte offene Plattform am Rand eines Netzwerks nahe an den beteiligten „Dingen“ oder Datenquellen, die die Fähigkeiten von Netzwerken, Speichern und Anwendungen integriert. Durch den Betrieb in unmittelbarer Nähe mobiler Geräte oder Sensoren ergänzt Edge-Computing zentralisierte Cloud-Knoten und ermöglicht Analysen und Informationserzeugung nahe am Ursprung und Verbrauch von Daten. Dies ermöglicht die Erfüllung der Schlüsselanforderungen der Industriedigitalisierung in Bezug auf agile Konnektivität, Echtzeitdienste, Datenoptimierung, Anwendungsintelligenz, Sicherheit und Schutz der Privatsphäre. Cloud- und Edge-Computing ermöglichen den Zugang zu kosteneffizienten, skalierbaren Computing-Ressourcen sowie zu spezialisierten Diensten. KI profitiert von der Nutzung von Edge-Computing auf folgende Weise:
• Die Lokalisierung der Datenerfassung und -speicherung ermöglicht die Vorverarbeitung der Daten, sodass statt der Rohdaten nur Entscheidungen oder Alarme an die Cloud-Server weitergeleitet werden.
• Eine schnellere und effizientere Entscheidungsfindung kann durch die Platzierung von Algorithmen des maschinellen Lernens auf den Edge-Geräten erreicht werden, wodurch die Häufigkeit des Kontakts mit den Cloud-Servern und die Auswirkungen der Round-Trip-Verzögerung auf die Entscheidungsfindung stetig verringert werden.
• Daten können in der Nähe ihrer Quelle durch lokales Identitätsmanagement und anwendungsspezifische Zugriffsrichtlinien und unter Einhaltung lokaler Vorschriften gesichert werden.
• Die Kommunikation zwischen Edge-Computing-Knoten ermöglicht die Verteilung von KI-Fähigkeiten und die gemeinsame Nutzung von Intelligenz zwischen den verteilten KI-Knoten.
1.2.4 Internet der Dinge (IoT)
Das IoT konzentriert sich auf das Sammeln von Daten von Geräten, was besonders für die Produktion und die Verbraucherinformation relevant ist. Die Entwicklung des IoT in den letzten Jahrzehnten hat zu einer Ausweitung der Rechenkapazitäten auf kleinere und intelligentere Geräte geführt. Basierend auf dieser Entwicklung wird das IoT von ISO/IEC definiert als die „Infrastruktur von miteinander verbundenen Objekten, Menschen, Systemen und Informationsressourcen zusammen mit intelligenten Diensten, die es ihnen ermöglichen, Informationen der physischen und virtuellen Welt zu verarbeiten und zu reagieren“. Es wird erwartet, dass die Zahl der weltweit installierten angeschlossenen Geräte von über 23 Milliarden im Jahr 2018 auf etwa 75 Milliarden im Jahr 2025 steigen wird. Dies veranschaulicht den Einfluss des IoT auf die Datenerfassung. In Zukunft wird die Datenmenge, die in KI-Anwendungen verwendet werden kann, weiter zunehmen und damit die Leistung von Algorithmen verbessern.
IoT-Anwendungen ermöglichen heute die Erfassung von Leistungs- und umweltbezogenen Daten mit Hilfe von Sensoren, die an Geräten angebracht sind. Dies ermöglicht die Analyse von Daten entweder lokal oder über Cloud-Plattformen.
In Zukunft wird das Echtzeitverhalten solcher Systeme für zeitkritische Anwendungen wie das autonome Fahren immer wichtiger werden.
Angesichts der großen Datenmengen, die von diesen angeschlossenen Sensoren erzeugt werden, wird die Rolle des KI-Computing am Rand (oder Edge-Computing) noch wichtiger werden. Wie bereits erwähnt, ist es unpraktisch und manchmal sogar unmöglich, alle erzeugten Daten an eine zentrale Stelle zu übertragen, diese Daten zu analysieren und dann die notwendigen Informationen an das Gerät zurückzuschicken. Daher wird es von entscheidender Bedeutung sein, einfache Analysen oder Entscheidungen vor Ort durchführen zu können. Dieser Trend wird auch zu einfacheren KI-Algorithmen führen, die lokal auf Geräten laufen, die auf Edge-Computing angewiesen sind. KI am Rand wird das IoT auf das nächste Level an Fähigkeiten bringen.
1.3 Künstliche Intelligenz
Es gibt verschiedene Möglichkeiten, Künstliche Intelligenz zu definieren. Bis heute haben sich auch die einzelnen Fachexperten auf keine eindeutige Definition einigen können.
ISO/IEC Joint Technical Committee (JTC) 1 bezieht sich auf „ein interdisziplinäres Feld, das gewöhnlich als ein Zweig der Informatik betrachtet wird und sich mit Modellen befasst und Systeme für die Ausübung von Funktionen, die im Allgemeinen mit der menschlichen Intelligenz in Verbindung gebracht werden, wie z.B. logisches Denken und Lernen“.
Im IEC-Weißbuch zur Kantenintelligenz wird der Begriff KI verwendet, wenn „eine Maschine kognitive Funktionen nachahmt, die Menschen mit anderen menschlichen Köpfen assoziieren, wie z.B. Mustererkennung, Lernen und Problemlösung“.
Mit anderen Worten: Intelligenz wird durch vier grundlegende Fähigkeiten demonstriert: Wahrnehmen, Verstehen, Handeln und Lernen.
Begreifen hat für Maschinen heute nicht mehr dieselbe Bedeutung wie für Menschen. Typischerweise wird ein Modell trainiert, um zu „lernen“, wie es im Vergleich zu konventionelleren Methoden bessere Leistungen erbringen kann. Aber KI-Systeme können noch nicht den Anspruch erheben, die Welt um sie herum zu „begreifen“. Praktiker der KI unterscheiden oft zwischen starker KI und schwacher KI. Starke KI (auch allgemeine KI genannt) bezieht sich auf das eher philosophische Konzept einer Maschine, die in der Lage ist, menschliche Intelligenz exakt nachzuahmen. Eine solche Maschine wäre in der Lage, jedes Problem in jedem Bereich zu lösen, der fortgeschrittene kognitive Fähigkeiten erfordert. Diese Art der KI ist noch nicht entwickelt worden und ist nur in verschiedenen Science-Fiction-Büchern oder Filmen zu finden. Im Gegensatz dazu unterstützt die schwache KI (auch schmale KI genannt) den Menschen bei der Lösung spezifischer Probleme für einen bestimmten Anwendungsfall. Beispielsweise beherrscht AlphaGo das Brettspiel Go nahezu perfekt, kann aber kein anderes Problem lösen. Spracherkennungswerkzeuge wie Siri stellen eine Art hybride Intelligenz dar, die verschiedene schwache KIs kombiniert. Diese Tools haben die Fähigkeit, gesprochene Sprache zu übersetzen und Wörter mit ihren Datenbanken zu verbinden, um verschiedene Aufgaben zu erfüllen. Dennoch stellen solche Systeme keine allgemeine Form der Intelligenz dar. Andere Begriffe sind eng mit der KI verbunden, wie z.B. maschinelles Lernen und Tiefenlernen. Um intelligente Maschinen zu schaffen, ist eine bestimmte Art von Wissen erforderlich. In der Vergangenheit wurde dieses Wissen direkt in die Maschinen hartcodiert, was zu gewissen Einschränkungen und Limitierungen führte. Der Ansatz des maschinellen Lernens besteht darin, dass die Maschine ihr Wissen selbst auf der Grundlage eines gegebenen Datensatzes aufbaut. Da das Wissen heutzutage zumeist aus Daten aus der realen Welt stammt, korreliert die Leistung der Algorithmen des maschinellen Lernens in hohem Maße mit der verfügbaren Information, die auch als Repräsentation bezeichnet wird.
Eine Repräsentation besteht aus allen Merkmalen, die einer bestimmten Maschine zur Verfügung stehen (z.B. Ausgabe eines Temperatur- oder Schwingungssensors in einer vorausschauenden Instandhaltungsanwendung). Die Auswahl der richtigen Darstellung ist eine komplexe und zeitaufwändige Aufgabe, die hochspezialisierte Domänenkenntnisse erfordert. Ein Gebiet des maschinellen Lernens, das als Repräsentationslernen bezeichnet wird, automatisiert diese Aufgabe, indem es aus Rohdaten die für die Merkmalserkennung oder -klassifizierung erforderlichen Repräsentationen ermittelt. Dieser Methodensatz basiert auf dem Lernen von Datenrepräsentationen, im Gegensatz zu traditionelleren aufgabenspezifischen Algorithmen.
Die Auswahl der richtigen Merkmale ist jedoch in der Regel ein sehr schwieriger Vorgang, da sie von verschiedenen Umweltfaktoren abhängig sind. Beispielsweise werden Farben in einer dunklen Umgebung unterschiedlich wahrgenommen, was sich dann auf die Silhouette von Objekten auswirken kann.
Als Unterkategorie des Repräsentationslernens wandelt tiefes Lernen Merkmale um und arbeitet Abhängigkeiten auf der Grundlage der erhaltenen Inputs heraus. Im Beispiel eines Bildes sind die Eingabemerkmale die Pixel. Bei einem Deep-Learning-Ansatz werden die Pixel zunächst auf die Kanten des Bildes, dann auf die Ecken und schließlich auf die Konturen abgebildet, um ein Objekt zu identifizieren.
Abbildung 4 zeigt, wie diese Konzepte logisch zueinander in Beziehung stehen, wobei Deep Learning immer eine Art „Representation Learning“ darstellt, welches in der Kaskade wiederum dem Machine Learning zugeordnet wird und dies eine Teildisziplin von „Artificial Intelligence“ ist.
Abbildung 4: Venn Diagramm der Künstlichen Intelligenz
1.3.1 Voraussetzungen zur Anwendung von KI
Während Verbesserungen bei der Hardware, den Algorithmen und der Datenverfügbarkeit die wichtigsten Voraussetzungen für die KI sind, spielt das eingesetzt Kapital eine wesentliche Rolle, damit entsprechende Projekte auch umgesetzt werden können. Die rasante Entwicklung, die heute zu beobachten ist, wäre ohne eine Verstärkung des Hypes, den Einsatz von Risikokapital und staatlicher Unterstützung für Vorhaben der KI wohl nicht möglich gewesen. Dies dient dazu, sowohl die Finanzierung als auch den Markt für neue Innovationen sicherzustellen. Es gibt ein wachsendes Interesse für die Vorteile, die die KI denjenigen bringen kann, die in der Lage sind, sie effektiv zu nutzen. Infolgedessen übernehmen Unternehmens- und Technologieführer eine viel aktivere Rolle bei der Gestaltung der Zukunft der KI und schaffen dadurch bessere Marktbedingungen für ihre Entwicklung.
• Höheres Interesse an KI: 78% der im Jahr 2017 befragten Organisationen gaben an, dass sie Pläne zur Einführung der KI in der Zukunft hätten, wobei fast 50% angaben, dass sie die Einführung aktiv prüfen. Tatsächlich investierten Unternehmen im Jahr 2016 insgesamt bis zu 39 Milliarden USD in KI, insbesondere in maschinelles Lernen, das fast 60% der Investitionen anzog. Ein zunehmendes Interesse an der KI-Technologie und deren Übernahme durch kleine und mittlere Unternehmen (KMU) wird dieses Wachstum zweifellos noch viele Jahre lang fördern. Der potenzielle Markt für KI-Anwendungen ist daher riesig und wird bis 2025 ein Marktvolumen von insgesamt 127 Milliarden USD erreichen.
• Verfügbarkeit von privatem Kapital: Mit Unternehmen, die ihr Geschäft durch KI transformieren wollen und bereit sind, den Preis dafür zu zahlen, war die Verfügbarkeit von Kapital für KI-Unternehmer noch nie so hoch wie heute. Die weltweiten Risikokapitalinvestitionen in KI verdoppelten sich 2017 auf 12 Milliarden USD, und die Zahl der aktiven KI-Startups hat sich seit 2000 allein in den Vereinigten Staaten um das 14-Fache erhöht. Auch Technologieunternehmen haben sich bei der Ankündigung von Milliarden-Investitionen in ihren KI-Abteilungen gegenseitig übertroffen.
• Unterstützung durch die Regierung: Es ist zu erwarten, dass diese Verfügbarkeit von privatem Kapital nur zunehmen wird, da die Regierungen um das Wachstum ihrer heimischen KI-Industrie konkurrieren. Die Europäische Union, das Vereinigte Königreich, Deutschland, Frankreich und Kanada haben sich dazu verpflichtet, ihre heimische KI-Industrie zu stärken, nachdem China seinen ehrgeizigen Plan veröffentlicht hat, die Vereinigten Staaten bis 2030 als weltweiten Führer in der KI zu überholen. Obwohl das Volumen der zugesagten Investitionen von Land zu Land sehr unterschiedlich ist, legt die zunehmende Aufmerksamkeit der Regierung den Grundstein für öffentlich-private Partnerschaften und die Entwicklung von KI-Anwendungen für den öffentlichen Sektor.
Heute ist es einfacher denn je, in die Welt der KI einzusteigen. Frameworks, Toolkits und Bibliotheken stellen den Benutzern Algorithmen und verschiedene Programmiersprachen zur Verfügung. Sie pflegen solche Algorithmen auch und erleichtern die Implementierung, was eine Gemeinschaft von Entwicklern und Anwendern anzieht, um gemeinsam Open-Source-Software zu verbessern.
Das Interesse an KI hat einen neuen Höhepunkt erreicht. Fast jede Woche werden neue Entdeckungen und neue Anwendungen publiziert. Tools und Anwendungsfälle, die in der Vergangenheit undenkbar waren, werden nun mit enorm hoher Geschwindigkeit umgesetzt. Zum Beispiel hat IBM Watson die besten Spieler in Jeopardy geschlagen, einem Spiel, das hohe Sprachkenntnisse sowie Kenntnisse über Rätsel und Wortspiele erfordert. Es bleibt die Frage, was eine so enorme Beschleunigung des Fortschritts der KI in den letzten Jahren ermöglicht hat. Während die Kernkonzepte und Ansätze der KI seit Jahrzehnten existieren, haben drei Schlüsselfaktoren dazu beigetragen, den „KI-Winter“ zu umgehen und zu den heutigen spektakulären Entwicklungen geführt:
• Erhöhte Rechenleistung
• Verfügbarkeit von Daten
• Verbesserte Algorithmen
1.3.2 Stetig ansteigende Rechenleistung
Die meisten KI-Algorithmen erfordern eine große Menge an Rechenleistung, insbesondere in der Trainingsphase. Mehr Rechenleistung bedeutet, dass die Algorithmen schneller getestet und trainiert und dass komplexere Probleme gelöst werden können.
Daher wurde die zunehmende Verbreitung der KI durch Fortschritte in der Hardware-Technologie (z.B. integrierte Schaltungen, Halbleiterfertigung, Servertechnologien) erst in der heutigen Form ermöglicht. Die Zunahme der Rechenleistung wird üblicherweise durch das Moore’sche Gesetz dargestellt, das diese Leistung mit der Dichte der Transistoren auf einem Chip in Beziehung setzt.
Dem Moore’schen Gesetz folgend ist die Feature-Größe von Halbleitern von 10 μm in den 1970er Jahren auf 10 nm im Jahr 2017 geschrumpft, was bedeutet, dass eine weitaus größere Anzahl von Transistoren auf derselben Chipgröße integriert werden kann. Nicht nur die Anzahl der Transistoren wurde erheblich erhöht, um eine viel höhere Rechenleistung zu erzielen, sondern auch die Hardware-Architektur wurde verbessert, um eine bessere Leistung für KI-Anwendungen zu bieten. Beispielsweise sind Mehrkernprozessoren so ausgelegt, dass sie eine erhöhte Parallelität bieten.
Neben zentralen Verarbeitungseinheiten (CPUs) werden auch andere Arten von Verarbeitungseinheiten wie Grafikverarbeitungseinheiten (GPUs), Field Programmable Gateway-Arrays (FPGAs) und Anwendungsspezifische Integrierte Schaltungen (ASICs) für verschiedene Auslastungsmuster eingesetzt.
GPUs werden für die Bearbeitung von Bildverarbeitungsaufgaben eingesetzt und haben sich als sehr effektiv bei der Beschleunigung von KI-Algorithmen wie z.B. tiefen neuronalen Netzen (DNNs) oder Convolutional Neural Networks (CNNs) erwiesen. Integrierte Schaltungen wie FPGAs sind nach der Herstellung so konfigurierbar, dass sie für eine Vielzahl von Anwendungen geeignet sind und im Vergleich zu herkömmlichen CPUs eine viel höhere Geschwindigkeit bieten. ASICs umfassen verschiedene Varianten wie Tensor- Processing-Units (TPUs) und Neural-Processing-Units (NPUs). Durch die Anpassung des Schaltungsentwurfs auf der Grundlage der Datenverarbeitungsmuster können ASICs eine noch höhere Leistung als GPUs oder FPGAs erzielen. So wird beispielsweise behauptet, dass TPUs eine 15- bis 30-mal höhere Leistung und eine 30- bis 80-mal höhere Leistung pro Watt liefern als moderne CPUs und GPUs.
1.3.3 Verbesserte Algorithmen
Die jüngsten Fortschritte in der KI haben sich in Bereich Deep Learning ergeben. Obwohl das Konzept bereits seit mehreren Jahrzehnten existiert, ist der eigentliche Durchbruch erst vor kurzer Zeit erfolgt. Zwar gab es in jüngster Zeit keine größeren Meilensteine in der Erforschung neuronaler Netzwerke, doch die Entwicklungen sind nicht zum Stillstand gekommen. Zahlreiche Verbesserungen an bestehenden Techniken und die Entwicklung von neuen Konzepten und Techniken haben zu vielen erfolgreichen Implementierungen neuronaler Netzwerke geführt. Ein Beispiel für eine kleine Änderung bei den Algorithmen, die es neuronalen Netzen ermöglichte, Informationen schneller und effizienter zu verarbeiten, ist die Aktivierungsfunktion der Gleichrichter (ReLu).
Eine Aktivierungsfunktion ist ein wesentlicher Bestandteil jedes Neurons, aus dem neuronale Netze bestehen. Das ReLu-Konzept wurde im Jahr 2000 von Hahnloser eingeführt. Es hat die Form einer Rampenfunktion und besteht aus zwei linearen Teilen und stellt grafisch eine sogenannte Rampe dar. Mathematisch gesehen wird also ein Neuron erst aktiviert, wenn ein bestimmter Schwellenwert überschritten ist.
Seine erste erfolgreiche Implementierung wurde im Jahr 2011 demonstriert, als es zum effizienteren Training eines neuronalen Netzes eingesetzt wurde. Es ersetzt eine andere Aktivierungsfunktion, die logistische oder Sigmoid-Funktion, und beschreibt eine logarithmische Kurve, die mehr Rechenleistung erfordert als eine lineare Funktion. Die ReLu-Aktivierungsfunktion bietet viele Vorteile im Vergleich zur Sigmoid-Aktivierungsfunktion, wie z.B. effiziente Programmierung, Skaleninvarianz und letztlich höhere Rechenleistung. Sie ist besonders nützlich bei Anwendungen mit komplexen Datensätzen, da sie ein schnelleres und effizienteres Training in tiefen Netzwerken ermöglicht.
Ein weiteres Beispiel für ein neues Konzept, das zur Entwicklung des Deep Learning geführt hat, sind die CNNs, die erstmals 1989 eingeführt wurden.
Diese werden vor allem für Bilderkennungsaufgaben verwendet, damit diese in der Lage sind, Leistungen über dem menschlichen Niveau zu erzielen. All diese Entwicklungen haben es der KI-Forschung ermöglicht, in den letzten Jahren enorme Fortschritte zu erzielen. Die gestiegene Menge an verfügbaren Daten wäre nutzlos gewesen ohne die Fähigkeit, sie mit geeigneten Algorithmen effizient zu verarbeiten und zu analysieren. Es liegt auf der Hand, dass Fortschritte in der KI nicht das Ergebnis eines einzelnen Treibers waren, sondern vielmehr die Folge einer Kombination verschiedener Ideen und Technologien, die sich im Laufe der Zeit immer weiter verbesserten.
1.3.4 Treiber der Künstlichen Intelligenz
Die drei oben beschriebenen Schlüsselfaktoren haben dazu beigetragen, neuen Schwung in die KI-Forschung zu bringen, was sich heute eingehend beobachten lässt. Neben dem wahrgenommenen wirtschaftlichen Wert der KI wurden diese Entwicklungen auch durch eine Reihe von technologischen und sozialen Triebkräften ermöglicht, die den Einsatz der KI in einem breiten Spektrum von Anwendungen beschleunigt haben. Sie alle stehen im Zusammenhang mit den digitalen Transformationstrends, die die Industrie, die Gesellschaft und auch das Leben des Einzelnen in den letzten zehn Jahren durchdrungen haben.
IT-Entwicklungen haben die Einführung von KI-Anwendungen maßgeblich unterstützt. Moderne IT-Infrastrukturen haben reichlich Ressourcen bereitgestellt, einschließlich – jedoch nicht beschränkt – Cloud Computing, Big Data und das Internet der Dinge.
Cloud Computing ist eine flexible und skalierbare Infrastruktur, die Zugriff auf gemeinsam genutzte Ressourcenpools und übergeordnete Dienste bietet, die nach Bedarf und mit minimalem Verwaltungsaufwand bereitgestellt werden können. Da sich die Computing-Anforderungen der KI auf der Grundlage von Datensätzen und Algorithmen erheblich unterscheiden, können bestimmte Anwendungsanforderungen durch verbesserte Ressourcennutzung und Effizienz von Cloud-Infrastrukturen erfüllt werden.
Big Data stellt die Wissenschaft und Technik der Speicherung, Verwaltung und Analyse großer Datensätze dar, die durch Volumen, Geschwindigkeit, Vielfalt und/oder Variabilität gekennzeichnet sind. Es wurden Techniken und Architekturen vorgeschlagen, die sich mit strukturierten, halbstrukturierten und unstrukturierten Daten befassen. Dazu gehören z.B. relationale Datenbankmanagementsysteme (RDBMS), verteilte Systeme (Datenbanken), Graphen-Datenbanken und verschiedene Datenverarbeitungs-Frame-works zur Verarbeitung oder Analyse dieser Daten (z.B. Hadoop). Nicht zuletzt ist das IoT das Netzwerk von physischen Geräten, Fahrzeugen oder anderen elektrischen Geräten, welches diesen Objekten ermöglicht, miteinander zu kommunizieren und zu interagieren. Es stellt die Infrastruktur bereit, um über geografisch verteilte Sensoren Daten über den Status dieser Geräte zu sammeln und zu erfassen. Die Geräte können über Aktoren konfiguriert und gesteuert werden. Die Kombination von IoT-Infrastruktur und KI-Technologien hat zu vielen Anwendungen geführt, wie z.B. intelligente Fertigung, Smart Home und Häuser und neue Anwendungsfälle im Kontext der Mobilität wie bspw. das autonome Fahren.
Wie jede technologische Entwicklung sind diese Veränderungen mit gesellschaftlichen Aspekten verschmolzen, die die Akzeptanz und den verbreiteten Einsatz datenintensiver Werkzeuge wie Social Media gefördert haben.
Dieser Trend war ein zusätzlicher Faktor, der den umfassenden Einsatz der KI vorantrieb und erleichterte.
1.3.5 Anforderungen von Endanwendern und Kunden
Eine weitere Triebkraft der KI ist die zunehmende Bereitschaft der Verbraucher und der Gesellschaft als Ganzes, neue Technologien zu nutzen, Daten und Informationen auszutauschen und sich Gemeinschaften anzuschließen, um KI-Anwendungen zu verbessern.
Die als „Digital Natives“ bezeichnete Generation, die mit Computern, Smart-phones und anderen elektronischen Geräten aufgewachsen ist, steht der Übernahme neuer Technologien und dem Austausch persönlicher Daten bereits sehr aufgeschlossen gegenüber. Obwohl Datenschutzbelange jetzt mehr Beachtung finden, haben die jüngeren Generationen datenintensive Aktivitäten (wie Social Media) bereits zu einem Teil ihres täglichen Lebens gemacht. In einer aktuellen Studie von Deloitte hat sich die Bereitschaft, Informationen mit Unternehmen zu teilen, seit 2014 verdoppelt.
Fast 80% der befragten Personen gaben an, dass sie bereit sind, ihre persönlichen Daten zu teilen, wenn sie direkt davon profitieren. Dies ist einer der Gründe, warum Social Media ein Hauptanwendungsfeld von Künstlicher Intelligenz ist.
Social-Media-Plattformen sind für Einzelpersonen, Organisationen und Unternehmen rasch zu beliebten und effizienten Möglichkeiten der gemeinsamen Nutzung, Kommunikation, Vernetzung und Zusammenarbeit geworden. Sie ermöglichen Unternehmen das Erschaffen eines gesteigerten Markenbewusstsein, verbessern Kundenanalysen und eröffnen auch neue Vertriebskanäle. Darüber hinaus werden Journalisten, Wissenschaftler, Geschäftsinhaber und die breite Öffentlichkeit, die früher isoliert voneinander lebten und arbeiteten, immer stärker miteinander vernetzt. Soziale Medien ermöglichen unmittelbare Verbindungen, die früher vielleicht über die konventionelle Reichweite hinaus in Betracht gezogen wurden.
Aber die KI wird nicht nur eingesetzt, um Erkenntnisse über die Verbraucher zu gewinnen, sondern sie ist bereits Teil der täglichen Routine der Menschen. Internet-Suchmaschinen verwenden bereits seit mehreren Jahren KI.
Sowohl Google als auch Baidu haben hochleistungsfähige Algorithmen entwickelt, die die Genauigkeit von Suchanfragen verbessern. Andere Anwendungen finden sich in einer Vielzahl von Sektoren. Betrug kann durch Algorithmen des maschinellen Lernens zur Sicherung von Bankkonten aufgedeckt werden. E-Mail-Konten werden durch Algorithmen, die Spams automatisch filtern, sauberer gehalten. Facebook verwendet beispielsweise Gesichtserkennung, um Nutzer mit neuen hochgeladenen Bildern zu vergleichen. Pinterest identifiziert automatisch bestimmte Objekte in Bildern und ordnet diese bestimmten existierenden Kategorien zu. Somit kann sichergestellt werden, dass Nutzer, die eine bestimmte Kategorie abonniert haben, fortlaufend mit neuen Informationen mit Bildinhalten und letztlich auch Links zu entsprechenden Verkaufsportalen versorgt werden.
Twitter und Instagram haben Maschinen zur Analyse der Nutzerstimmung entwickelt. Snapchat verfolgt Gesichtsbewegungen und ermöglicht dynamische Überlagerungen. Viele andere Beispiele aus dem Alltag könnten genannt werden. Während die menschliche Interaktion mit einer KI in diesen Fällen eher passiv ist, werden auch Anstrengungen unternommen, um die KI viel proaktiver und interaktiver mit Menschen zu gestalten. Siri, Alexa, Google Now oder Cortana können mit der Verarbeitung natürlicher Sprache (NLP) umgehen und sich wie persönliche Assistenten bei der Beantwortung von Fragen jeglicher Art verhalten. Weitere Entwicklungen dieser Art werden in der Zukunft sicherlich folgen.
2 Was ist Künstliche Intelligenz?
2.1 Künstliche Intelligenz: Hype oder Allheilmittel?
Künstliche Intelligenz (KI) ist heute eine der gehyptesten Technologien. Seit dem Aufkommen der ersten Computer werden zunehmend mathematische Modelle eingesetzt, um den Menschen bei einer immer größeren Zahl von Entscheidungsprozessen zu unterstützen.
Ob diese im Personalbereich eingesetzt werden, um zu bestimmen, wer für eine Stelle geeignet ist, oder im Bankensektor, um Genehmigungen für einen Kredit-Empfänger zu erteilen, Maschinen haben sich in diesen Bereichen manifestiert. Aufgaben, die bisher dem menschlichen Urteilsvermögen und der Rechtsprechung vorbehalten waren, werden heutzutage fortlaufend automatisiert.
Mit der Digitalisierung vieler Industriezweige, durch die große Datensätze verfügbar wurden, rückte die KI erneut in den Mittelpunkt des Interesses aufgrund ihres Potenzials zur Lösung einer immer größeren Zahl von Problemen.
Die Techniken des maschinellen Lernens wurden immer leistungsfähiger und ausgefeilter, insbesondere im Zusammenhang mit den sogenannten künstlichen neuronalen Netzen (KNNs). Neuronale Netze, die Mitte des 20. Jahrhunderts als ein von der Biologie inspiriertes mathematisches Modell entwickelt wurden, sind zu einem der Eckpfeiler der KI geworden. Doch erst ab 2010 ebneten dramatische Verbesserungen beim maschinellen Lernen, allgemein als Deep Learning bezeichnet, den Weg für eine Explosion der KI. Mit stetig steigender Rechenleistung begannen sehr große („tiefe“) neuronale Netze, Maschinen mit neuartigen Fähigkeiten auszustatten, die mit traditionellen Programmiertechniken zu komplex oder sogar unmöglich zu implementieren gewesen wären. Seitdem haben sich Technologien wie Computer Vision und Natural Language Processing (NLP) völlig verändert und werden in großem Maßstab in vielen verschiedenen Produkten und Dienstleistungen eingesetzt. Deep Learning wird heute in einer Vielzahl von Branchen wie der Fertigung, dem Gesundheitswesen oder dem Finanzwesen angewandt, um neue Muster aufzudecken, Vorhersagen zu treffen und eine Vielzahl von Schlüsselentscheidungen zu steuern. Wie beeindruckend diese jüngsten Entwicklungen auch gewesen sein mögen, die KI ist auch heute noch sehr aufgabenorientiert und konzentriert sich auf klar definierte Anwendungen der Mustererkennung. Während die aktuelle Forschung dynamisch daran arbeitet, Maschinen mit menschenähnlichen Fähigkeiten wie Kontextbewusstsein oder Einfühlungsvermögen auszustatten, ist die Erreichung dieses Ziels nach Ansicht vieler KI-Wissenschaftler auch in Zukunft noch weit entfernt.
Trotz der heutigen Einschränkungen hat die KI bereits einen tiefgreifenden Einfluss auf die Gesellschaft, die Unternehmen und den Einzelnen und es wird erwartet, dass sie einen wachsenden Einfluss darauf ausüben wird, wie Menschen leben, arbeiten und miteinander interagieren. Wie bei allen großen technologischen Veränderungen wird die KI gleichzeitig vergöttert und verteufelt. Alle möglichen Arten von existenziellen Bedrohungen, die von der KI ausgehen, werden heutzutage entwickelt. Dazu gehören unter anderem Roboter, die zunehmend Arbeitsplätze ablösen, bis hin zu KI-betriebenen Maschinen, die im militärischen Bereich eingesetzt werden sollen. Lässt man solche düsteren Szenarien beiseite, ist es dennoch unbestreitbar, dass gleichzeitig mit den innovativen Entwicklungen der KI neue ethische und gesellschaftliche Herausforderungen entstehen. Unternehmen, Regierungen, Regulierungsbehörden und die Gesellschaft als Ganzes werden sich mit solchen Fragen befassen müssen, um sicherzustellen, dass die KI wirklich der gesamten Menschheit zugutekommt. In diesem Zusammenhang könnten technische Standards und Konformitätsbewertungssysteme eine entscheidende Rolle bei der Gestaltung der Zukunft der KI spielen.
2.2 Vom Winter der Künstlichen Intelligenz bis zur Renaissance
Die KI stellt keine neue wissenschaftliche Disziplin dar, da ihre Ursprünge bis in die 1950er Jahre zurückverfolgt werden können. In der Literatur werden typischerweise drei historische Phasen der Entwicklung der KI identifiziert.
In der ersten Phase (1950er bis 1980er Jahre) ging die KI aus der abstrakten mathematischen Argumentation programmierbarer digitaler Computer hervor. Der berühmte Computerpionier Alan Turing konzipierte den ersten Test, um zu entscheiden, ob ein Programm als intelligent angesehen werden kann oder nicht, den so genannten Turing-Test. Der Begriff „Künstliche Intelligenz“ wurde eigentlich ursprünglich von John McCarthy 1955 geprägt, der später als einer der Väter der KI bekannt wurde. Dieser Begriff wurde als Titel für die erste Konferenz über KI vorgeschlagen, die 1956 am Dartmouth College stattfand. Ein wichtiger nächster Schritt in der Entwicklung der KI war die Erfindung eines Algorithmus unter Verwendung des Konzepts der neuronalen Netze (das „Perceptron“) durch Frank Rosenblatt im Jahr 1958. Aber erst 1967, mit der Entwicklung des Nearest-Neighbor(NN)-Algorithmusdurch Cover and Hart, begann der Einsatz von maschinellem Lernen in realen Anwendungen. Trotz dieser frühen Errungenschaften und der raschen Entwicklung der computergestützten Symbolik blieb die Reichweite der KI aufgrund der Unfähigkeit, viele Konzepte formell auszudrücken oder darzustellen, dennoch begrenzt. In der zweiten Phase (1980er bis Ende der 1990er Jahre), entwickelten sich Expertensysteme sehr rasch und es wurden bedeutende Durchbrüche in der mathematischen Modellierung erzielt. NNs begannen, auch in einer wachsenden Zahl von Anwendungen in größerem Umfang eingesetzt zu werden. In dieser Zeit wurden einige der Kerntechniken und Algorithmen der KI entwickelt und weiter verfeinert: Das Erklärungsbasierte Lernen (EBL) 1981, der Backpropagation-Algorithmus 1986 und das Prinzip der Support-Vektor-Maschine (SVM) 1995.49 Einer der bekanntesten Meilensteine in dieser zweiten Phase war das 1996 von IBM entwickelte Schachprogramm Deep Blue, das im folgenden Jahr den Weltmeister schlagen konnte. Dies war das erste Mal, dass ein Computerprogramm in der Lage war, menschliche Spieler in Partien auf Weltmeisterschaftsniveau zu besiegen.
Trotz dieses Erfolges führten Einschränkungen im Zusammenhang mit dem Wissenserwerb und dem Denkvermögen in Verbindung mit den hohen Kosten der eingesetzten KI-Systeme zu einer gewissen Ernüchterung, die einige Beobachter dazu veranlasste, von einem „KI-Winter“ zu sprechen.
Erst in der dritten Phase der Entwicklung, die zu Beginn des 21. Jahrhunderts anbrach, begann die KI, ihre anfänglichen Versprechen einzulösen. Im Jahr 2006 wurde das erste mächtige, schnell lernende Deep Belief Network in einem Papier von Hinton, Osindero und Teh vorgestellt. Der Algorithmus wurde verwendet, um Zahlen in einer Reihe von Bildern zu erkennen und zu klassifizieren. Dieser Beitrag war maßgeblich an der Entwicklung der KI beteiligt und wurde zu einem der einflussreichsten Werke für die heutige KI-Forschung. Neuere Entwicklungen wie IBM Watson im Jahr 2010 und AlphaGo im Jahr 2016 haben seither große öffentliche Aufmerksamkeit erhalten. Mit der explosionsartigen Zunahme der gesammelten Daten, der anhaltenden Innovation theoretischer Algorithmenl und der ständig steigenden Rechenleistung hat die KI in der Folge in vielen Anwendungsbereichen bahnbrechende Fortschritte gemacht und scheint nun gut gerüstet zu sein, um neue Herausforderungen anzunehmen. All diese Entwicklungen haben einige Analysten dazu veranlasst, von einer „Wiedergeburt der KI“ zu sprechen. Abbildung 5 zeigt die wichtigsten Meilensteine in der KI-Entwicklung.
Abbildung 5: Meilensteine der KI-Entwicklungen
Der Erfolg der Algorithmen des maschinellen Lernens für die Sprach- und Bilderkennung war ausschlaggebend dafür, dass sie bei der Forschungsgemeinschaft, den Unternehmen und Regierungen auf großes Interesse stießen. Darüber hinaus unterstützten parallele Entwicklungen beim Cloud Computing und bei großen Datenmengen den Übergang von computergestützten KI-Simulationen zu komplexeren und intelligenteren Systemen, die Maschinen und Menschen miteinander verbinden. Es ist nun abzusehen, dass die KI zu einer der Kerntechnologien der vierten Industriellen Revolution sowie zu einer treibenden Kraft für Innovationen in den Bereichen Verkehr, Gesundheitswesen, Einzelhandel, Bildung, Regierungsdienste und anderen Branchen werden wird.
2.3 Chancen und Risiken von Künstlicher Intelligenz
KI stellt ein enormes Marktpotenzial dar. Laut einer aktuellen Studie der International Data Corporation (IDC) werden die weltweiten Ausgaben für KI-Technologien im Jahr 2023 auf 97,9 Milliarden USD anwachsen, also das 2,5-Fache des Niveaus von 2019.52 Weiterhin manifestieren sich diese Zahlen auch laut der Meinung von führenden Experten:
- 73% der Führungskräfte sind der Meinung, dass KI schon heute für ihr Unternehmen von entscheidender Bedeutung ist.
- 61% sagen, dass KI ihre Branche in den nächsten drei Jahren grundlegend verändern wird.
- 53% der Unternehmen, die KI bereits einsetzen, haben im vergangenen Jahr mehr als 20 Mio. US-Dollar für die Erweiterung und Feinabstimmung ihrer Strategien ausgegeben.
- 26% aller Unternehmen sagen, dass KI-Technologien es ihnen ermöglichen, einen Vorsprung gegenüber ihren Konkurrenten zu gewinnen.
Es wird erwartet, dass der Einzelhandel und der Bankensektor in den kommenden Jahren am meisten für KI ausgeben werden, gefolgt vom Fertigungssektor, dem Gesundheitswesen und der Prozessautomatisierung. Diese fünf Branchen werden laut IDC auch weiterhin die größten Verbraucher von KI-Technologie sein, da ihre Investitionen zusammengenommen bis 2021 fast 55% aller weltweiten Ausgaben für diese Technologie ausmachen werden.
Berücksichtigt man die damit verbundene Dienstleistungsbranche der Maschinenintelligenz, die Programmmanagement, Ausbildung, Schulung, Training, Hardware-Installation, Systemintegration und Beratung umfasst, ist der Markt tatsächlich viel größer, und es wird erwartet, dass sich die KI in naher Zukunft zu einer der am schnellsten wachsenden Branchen entwickeln wird. Während automatisierte Kundenservice- und Diagnosesysteme wahrscheinlich auch in den kommenden Jahren die Haupttreiber der KI-Ausgaben bleiben werden, wird erwartet, dass die intelligente Fertigung eine starke Position auf dem KI-Markt einnehmen wird. Tatsächlich sieht IDC die intelligente Prozessautomatisierung bis 2021 zum drittgrößten Anwendungsfall von KI-Systemen werden.
Andere Anwendungsfälle, die ein schnelles Wachstum erfahren werden, sind die öffentliche Sicherheit, Notfallreaktionen sowie Einkaufsberater und -empfehlungen. Diese aufregenden Marktaussichten werden unweigerlich auch eine Reihe von Risiken und Herausforderungen mit sich bringen. Die Auswirkungen der KI auf die Arbeitskräfte werden häufig als potenzielle Bedrohung für Gesellschaften genannt, wobei Spannungen in den sozialen Beziehungen aus einer allmählichen Diversifizierung des Arbeitsmarktes resultieren. Eine zunehmende Automatisierung und Vernetzung könnte auch zu zusätzlichen oder verstärkten Wohlstandsunterschieden zwischen entwickelten und sich entwickelnden Volkswirtschaften führen. Wie unsicher solche Szenarien heute auch immer erscheinen mögen, alle großen Volkswirtschaften der Welt haben begonnen, im Rahmen ihrer strategischen Technologieplanungsaktivitäten umfangreiche Investitionen zur Unterstützung von KI-Innovationen zu tätigen. So hat China beispielsweise im Jahr 2017 den „Entwicklungsplan für eine neue Generation von KI“, den „Dreijahres-Aktionsplan zur Förderung einer neuen Generation der KI-Industrie (2018‒2020)“ sowie verschiedene andere Maßnahmen zur Beschleunigung von Forschung, Entwicklung und Industrialisierung der KI-Technologie verkündet.
2.4 Historische Entwicklung der Künstlichen Intelligenz
Die Geschichte der KI beginnt ca. um die 1950er Jahre, als der Begriff erstmals im Kontext der Domäne Informatik verwendet wurde. Es ist jedoch sehr aufschlussreich, einen weitaus breiteren Blick auf die Entstehungsgeschichte der KI zu werfen. Dabei ist diese Disziplin eng mit unseren philosophischen Disziplinen verankert. Hier sind viele der wichtigsten Vordenker auf diesem Gebiet, die bis 350 v. Chr. zurückreichen, sowie philosophische Erkenntnisse von Aristoteles involviert:
Der griechische Philosoph Aristoteles (384‒322 v. Chr.) etwa formalisierte beispielsweise logische Schlussfolgerungen, indem er alle möglichen kategorialen Syllogismen zur damaligen Zeit vollständig aufzählte. Syllogismen stellen Regeln dar, um aus zwei oder mehr Sätzen zu brauchbaren Schlussfolgerungen zu gelangen. Dies steht in Relation mit der KI, da Algorithmen ebenfalls programmiert werden, um gültige logische Schlussfolgerungen auf Grundlage eines gegebenen Regelwerks abzuleiten.
Leonardo da Vinci (1452‒1519) entwarf eine hypothetische Rechenmaschine auf Papier. Dies galt als enormer Fortschritt seiner Zeit, da diese eine grundlegende und notwendige Voraussetzung für Berechnungen im Allgemeinen und natürlich Algorithmen der KI darstellte. Da Vinci entwarf eine Rechenmaschine mit 13 Registern und demonstrierte damit, dass eine sogenannte Blackbox Eingaben akzeptieren und Ausgaben auf der Grundlage eines gespeicherten Programms im Speicher oder in der Mechanik erzeugen kann.
René Descartes (1596‒1650) vertrat die Meinung, dass Rationalität und Vernunft sich über Mechanik und Mathematik definieren lassen. Zielsetzungen können bekanntermaßen in Form von Gleichungen formuliert werden. Ziele in der linearen Programmierung oder in Agenten der KI werden mathematisch definiert. Descartes beschrieb Rationalismus und Materialismus als zwei Seiten ein und derselben Medaille. KI zielt ebenfalls auf eine rationale Entscheidung ab und wird auf mathematischem Wege definiert.
David Hume (1711‒1776) hatte grundlegende Arbeiten zu Fragen der logischen Induktion und des Begriffs der Kausalität abgeschlossen. Somit vereinte er die Prinzipien des Lernens mit wiederholter Exposition, die sich unter anderem in der Lernkurve manifestiert. Das Prinzip der Ableitung von Mustern oder Beziehungen in Daten durch wiederholte Exposition ist die Grundlage vieler Lernverfahren.
Die jüngste Geschichte der Künstlichen Intelligenz soll im Jahr 1956 begonnen haben, dem Jahr der bahnbrechenden Konferenz von Dartmouth. Auf dieser Konferenz wurde der Begriff der Künstlichen Intelligenz erstmals verwendet und eine vorläufige Definition des Begriffs vorgeschlagen.
Innerhalb dieser Dekade wurden zahlreiche wichtige Persönlichkeiten dieser Disziplin zugeordnet. Dazu zählen beispielsweise:
• Alan Turing (1912‒1954)
• John McCarthy (1927‒2011)
• Marvin Minsky (1927‒2016)
• Noam Chomsky (geb. 1928)
Alan Turing war ein englischer Mathematiker und Informatiker, der rationale Denkprozesse mechanisierte und formalisierte. Es war Turing, der 1950 die berühmte Erfindung des gleichnamigen Turing-Tests machte. In diesem Test wird beispielsweise eine KI geprüft, ob diese mit einem menschlichen Beobachter kommunizieren kann, ohne dass dieser menschliche Beobachter merkt, dass es sich nicht um einen anderen Menschen handelt.
John McCarthy war ein amerikanischer Wissenschaftler, der sich mit Automaten beschäftigte und als Erster den Begriff der KI prägte. Zusammen mit IBM und dem Massachusetts Institute of Technology (MIT) machte er die KI zu einem eigenständigen Studienfach. McCarthy wird auch die Erfindung der Programmiersprache LISP im Jahr 1958 zugeschrieben, die 30 Jahre lang in Anwendungen der Künstlichen Intelligenz (z.B. im Bereich Betrugserkennung) eingesetzt wurde. In den 1960er Jahren erfand er auch das Computer-Timesharing und gründete das Stanford Artificial Intelligence Laboratory, das eine zentrale Rolle bei der Erforschung menschlicher Fähigkeiten für Maschinen, wie Sehen, Hören und Denken, spielte.
Marvin Minsky war ein früher Forscher auf dem Gebiet der KI und Kognitionswissenschaftler, der zusammen mit McCarthy an der ersten Konferenz über KI am Dartmouth College teilnahm. Im Jahr 1959 gründeten sie gemeinsam das MIT Artificial Intelligence Laboratory. Ihre Zusammenarbeit endete jedoch, nachdem McCarthy an die Universität Stanford wechselte, während Minsky am MIT blieb. Noam Chomsky ist ebenfalls eine kurze Erwähnung wert, eher als Linguist und Philosoph denn als Wissenschaftler auf dem Gebiet der KI. Sein Beitrag zur Künstlichen Intelligenz leistet er in Form seiner Kritik an sozialen Medien und als Beitrag zur Linguistik und Kognition.
Wichtige Institutionen
Zu den wichtigsten Institutionen, die an der Entwicklung KI beteiligt sind, gehören Universitäten wie das Dartmouth College, der Gastgeber einflussreicher Konferenzen über KI, und das MIT, an dem viele einflussreiche Persönlichkeiten der frühen Forschung über KI lehrten. Unternehmen wie IBM und INTEL und staatliche Forschungseinrichtungen wie die Defense Advanced Research Projects Agency (DARPA) in den Vereinigten Staaten, die grundlegende Forschungsprojekte im Bereich der dualen Technologie finanzieren, haben ebenfalls eine entscheidende Rolle bei der Entwicklung der KI gespielt.
Schlüsselideen zur Unterstützung der Entwicklung Künstlicher Intelligenz
Auch die Forschung in den Bereichen Entscheidungstheorie, Spieltheorie, Neurowissenschaften und Verarbeitung natürlicher Sprache hat zur Entwicklung der KI beigetragen:
- Die Entscheidungstheorie kombiniert Wahrscheinlichkeit (Mathematik) und Nutzen (Ökonomie), um Entscheidungen der KI im Hinblick auf wirtschaftlichen Nutzen und Unsicherheit zu formulieren.
- Die Spieltheorie wurde von John von Neuman (1903‒1957), einem amerikanisch-ungarischen Informatiker, und Oskar Morgenstern (1902‒1977), einem amerikanisch-deutschen Mathematiker und Spieltheoretiker, berühmt gemacht. Ihre Arbeit führte dazu, dass rationale Agenten Strategien zur Lösung von Spielen lernten.
- Die Neurowissenschaft ist ein Wissensfundus über das Gehirn, den einige Modelle der KI nachzuahmen versuchen, insbesondere die Problemlösungs- und Informationsspeicherfähigkeiten des Gehirns.
- Die Verarbeitung natürlicher Sprache (NLP) ist eine Disziplin am Zusammenfluss von Linguistik und Informatik, die darauf abzielt, Sprache sowohl in schriftlicher als auch in gesprochener Form zu analysieren und zu verarbeiten.
Hochsprachen sind der menschlichen Sprache näher und ermöglichen Programmierern die Unabhängigkeit von den Befehlssätzen der Computer-Hardware. Andere für KI spezifische Sprachen sind:
- LISP ist eine der älteren Computerprogrammiersprachen, die von John McCarthy entwickelt wurde. LISP leitet sich von den Wörtern „Listenverarbeitung“ ab. LISP ist in einzigartiger Weise in der Lage, Zeichenketten zu verarbeiten. Obwohl sie auf die 1960er Jahre zurückgeht, ist sie auch heute noch relevant und wurde für die frühe Programmierung mit KI verwendet.
- Prolog ist eine frühe Programmiersprache mit KI, die zum Lösen logischer Formeln und zum Beweisen von Theoremen entwickelt wurde.
- Python ist eine allgemeine Programmiersprache, die heute eine große Rolle in der KI spielt. Da Python als Open Source verfügbar ist, verfügt diese über umfangreiche Bibliotheken, mit der Programmierer schnell wertschöpfende Applikationen schaffen können.
Die jüngsten Fortschritte im Bereich der KI hängen mit drei Hauptfaktoren zusammen. Der erste ist der Fortschritt bei der Verfügbarkeit massiver Datenmengen in vielen Formaten, die als große Daten bezeichnet werden und ständig zunehmen. Der zweite ist der Fortschritt in der Datenverarbeitungskapazität von Computern, während der dritte sich auf neue Erkenntnisse bezieht, die durch Mathematik, Philosophie, Kognitionswissenschaften und maschinelles Lernen gewonnen wurden.
2.5 Schlüsseltrends in der Künstlichen Intelligenz
Investitionen im Kontext mit KI sind für durchwegs alle Unternehmen, Universitäten und öffentlichen Einrichtungen durchaus sehr relevant. Es gibt kaum noch Bereiche der Gesellschaft, der Wirtschaft und unseres persönlichen Lebens, die nicht bereits von dieser aufstrebenden Technologie unterstützt bzw. beeinflusst werden. Insbesondere Technologieführer wie Apple, Amazon, Microsoft, Google und wichtige chinesische Unternehmen wie Baidu und Tencent engagieren sich stark in der Forschung und Entwicklung im Bereich KI.
Die Beurteilung der Zukunftsaussichten oder Auswirkungen einer Technologie oder eines Forschungsgebietes ist immer höchst spekulativ und wird von kognitiven Vorurteilen und früheren Erfahrungen beeinflusst. Dabei wird auch häufig im Kontext der KI auf die sogenannten KI-Winter in der vergangenen Zeit hingewiesen. Dabei ist darauf zu achten, dass die Voraussetzungen für die Anwendung von KI in den vergangenen Jahrzehnten maßgeblich vom heutigen Standard zu unterscheiden sind. Generell wird nicht versucht, die langfristige Entwicklung zu 100% zu antizipieren, sondern vielmehr kümmern sich Forschungseinrichtungen und Marktanalyse-Firmen wie Gartner darum, entsprechende Muster in vergangenen Entwicklungen von Innovationen zu analysieren und auf neue Trends wie beispielsweise KI anzuwenden.
Gartner fasst die Geschichte vieler Innovationen in Form einer Hype-Kurve zusammen. Hype-Kurven werden in Phasen beschrieben, wie in der untenstehenden Abbildung 6 dargestellt wird. Die X-Achse stellt den Zeitverlauf dar, welcher sich in die folgenden Phasen unterteilt:
1. eine Entdeckungsphase oder ein Bedürfnis auf dem Markt, das Innovation auslöst,
2. eine Spitzenphase mit überhöhter Erwartungshaltung, die kürzer als die anderen Phasen ist,
3. eine Periode der Desillusionierung,
4. eine Periode der Aufklärung, die den Wert einer Innovation anerkennt,
5. eine Periode der Novellierung, in der die Produktivität Fuß fasst und zur Norm wird.
Abbildung 6: Gartner Hype Cycle (Quelle: Gartner 2019)56
Mehrere Aspekte der KI sind entlang dieser Kurve positioniert. Bei genauerem Hinsehen können wir z.B. die folgenden Trends beobachten:
- In der Innovationsauslösephase erscheinen Wissensgraphen, neuromorphe Hardware, KI PaaS, Allgemeine Künstliche Intelligenz (die Fähigkeit einer Maschine, menschenähnliche intellektuelle Aufgaben auszuführen), Edge-KI und intelligente Roboter.
- In der Hochphase überhöhter Erwartungen oder Hype finden wir tiefe neuronale Netze, die in den letzten fünf bis sieben Jahren in vielen Anwendungen des maschinellen Lernens zu neuen Leistungshöchstwerten geführt haben.
- In der Phase der Desillusionierung, in der es bergab geht, stellen wir fest, dass die Robotic Process Automation aufgrund der Tatsache, dass der Markt an dieser Stelle mit vielen Softwareanbietern überflutet wird, eine abfallende Finanzierung erfahren könnte.
- Auf dem Gebiet der KI hat noch nichts das Plateau der Produktivität erreicht, das die allgemeine Akzeptanz und produktive Nutzung der Technologie darstellt. Steuerung der Künstlichen Intelligenz und regulatorische Überlegungen
Nehmen wir an, dass die KI in Wirklichkeit eine breite technologische Revolution ist, die nicht durch eine einzige Fähigkeit wie selbstfahrende Autos definiert ist. Vielmehr handelt es sich um einen Zusammenschluss von vielen Teilbereichen, die sich von verschiedenen Ausgangspunkten mit unterschiedlicher Geschwindigkeit durch denselben Prozess bewegen.
Es ist zu erwarten, dass es mit dem Fortschritt der Künstlichen Intelligenz Gewinner und Verlierer geben wird. Ein geordnetes Wachstum erfordert ethische Richtlinien für das menschliche Verhalten in Handel und Landesverteidigung.
Das Fehlen von Regeln für die Arbeit in britischen Fabriken während der Industriellen Revolution führte z.B. zu Unruhe, Leid und letztlich zur utopischen Ideologie des Kommunismus. Im Geiste des Lernens aus der Geschichte, anstatt sie zu wiederholen, ist es jetzt an der Zeit, ethische Richtlinien für den Einsatz von Anwendungen Künstlicher Intelligenz zu definieren.
Ein praktisches Anliegen der Gesellschaft ist es, die Folgen des potenziellen Missbrauchs KI zu verstehen, dem entweder durch staatliche Regulierung oder durch selbst auferlegte Regeln begegnet werden kann. Die Allgemeine Datenschutzverordnung der Europäischen Union (GDPR 2016/679) ist einer der ersten von der Regierung initiierten Schritte zur Datenregulierung, die sich zunächst darauf konzentrierte, den Schutz der Privatsphäre des einzelnen Verbrauchers zu gewährleisten. Selbstregulierung mit Schwerpunkt auf Ethik wird derzeit am MIT und an der Stanford University in den Vereinigten Staaten erforscht. Die Stanford University hat zudem vor kurzem das Institut für Humanzentrierte Künstliche Intelligenz (HAI) gegründet, das als interdisziplinäres Zentrum dienen soll, das Informatiker, Neurowissenschaftler und Rechtswissenschaftler mit Schwerpunkt auf sozialer Verantwortung vereint. Das MIT College of Computing verfolgt ähnliche Ziele, indem es die positiven Aspekte der KI fördert und gleichzeitig negative Folgen verhindert.
Ethische Fragen sind für alle kommerziellen und militärischen Anwendungen von KI sowie für das Arbeitsleben von Angestellten relevant, die einer stark von KI beeinflussten Wirtschaft unterliegen. Zu den relevanten Überlegungen gehören die folgenden:
• Ethik in der Geschäftswelt lässt sich dadurch definieren, dass man die Begriffe des richtigen und des falschen Verhaltens kennt und entsprechend handelt. Die Wahlmöglichkeiten zwischen diesen beiden Begriffen sind vielfältig und in ihrem Ausmaß quantifiziert; sie stehen in ständigem Konflikt und betreffen das persönliche und das kollektive Unternehmensgewissen. Zu den Beispielen für den unethischen Einsatz KI gehören solche, die diskriminierendes Verhalten gegenüber bestimmten Personengruppen unterstützen, Benachteiligte ausnutzen, ungebremsten Eifer für den Wettbewerb „the winner takes it all“ zeigen oder die zur Auflösung vorteilhafter Anwendungen KI aufgrund unzureichender finanzieller Belohnung führen.
• Die Rechte beziehen sich auf den physischen menschlichen Körper, das Recht auf Arbeit, das Recht auf Eigentum sowie auf Glück und Gemeinschaft. Definierende Dokumente für unser Verständnis von Rechten sind unter anderem die nationalen Verfassungen oder Grundgesetze von Staaten, die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Genfer Konvention. Projekte der KI müssen diese Rechte beachten. In Fällen, in denen dies nicht der Fall ist, müssen die Projekte so geändert werden, dass sie diese Rechte einhalten.
• Regierungen spielen aufgrund ihrer übergreifenden Regulierungs und Gesetzgebungsfunktionen natürlich eine wichtige Rolle bei der Regulierung des technologischen Fortschritts. Per Definition sind Regierungen mit der Aufgabe betraut, ein politisches Gremium zu erhalten. KI ist eine Wissenschaft und daher ein gemeinsames Gut. Das bedeutet, dass sie ohne staatliche Kontrolle nicht existiert und früher oder später reguliert werden wird, wie es in der Europäischen Union bereits geschehen ist. Die Zeitspanne zwischen industrieller Innovation und ihrer wirksamen Regulierung ist jedoch in der Regel lang, und darin liegt die Gefahr.
• Unbeabsichtigte Ergebnisse, die sich aus den Technologien der KI ergeben, stellen ein erhebliches Risiko für die Gesellschaft dar, das oft aus einem Mangel sowohl an Aufsicht als auch an Weitsicht resultiert. Das Fehlen von Aufsicht impliziert einen Mangel an menschlicher Kontrolle, sobald ein Algorithmus eingesetzt wurde.
• Auch wirtschaftliche Überlegungen sind wichtig. Zu den relevanten Fragen in diesem Bereich gehören die Auswirkungen der KI auf den Arbeitsmarkt und die ungleiche Verteilung des Reichtums.
Künstliche Intelligenz als Revolution
Wenn wir an Revolutionen denken, fallen uns gewaltsame politische Umstürze zugunsten eines neuen Paradigmas ein. Beispiele dafür sind die Französische Revolution (1789), die den Sturz einer Monarchie zugunsten von Freiheit, Gleichheit und Brüderlichkeit beinhaltete, die Russische Revolution (1917), die das System der Zaren durch den Kommunismus ersetzte, und der Amerikanische Bürgerkrieg (1775‒1783), die den Kolonialismus zugunsten einer Republik beendete.
In ähnlicher Weise hat die Menschheit in der Vergangenheit technologische und folglich auch wirtschaftliche Revolutionen durchlebt. Beispiele dafür sind die Einführung des mechanischen Webstuhls und der Spinnereimaschine Jenny (um 1770), die den globalen Baumwollmarkt ermöglichten, die Dampfkraft, der Telegraf und das Telefon, der Verbrennungsmotor, die Nähmaschinen und die Produktionslinien. Die Revolution der KI verspricht schneller und tiefgreifender zu werden.
Technologische Revolutionen teilen den Umsturzaspekt des Begriffs Revolution, aber sie werden nicht unbedingt durch Unzufriedenheit innerhalb der Massen verursacht. Technologische Revolutionen sind das Ergebnis kreativer Menschen, die basteln und anschließend Entdeckungen machen, die den menschlichen Interessen und Bedürfnissen dienen.
Gutenbergs (1440) Erfindung des beweglichen Druckverfahrens, die zu einer großen Verbreitung von Informationen, Literatur, Wissenschaft, Gelehrsamkeit und zum Wachstum des Verlagswesens als Unternehmen führte, ist ein Paradebeispiel für eine Innovation, die auch eine technologische Revolution darstellte.
Zu den anderen technologischen Revolutionen gehören die Revolutionen, die durch Fritz Habers Entdeckung eines funktionierenden Verfahrens zur Ammoniaksynthese im Jahr 1910 und Ernest Rutherfords Spaltung des Atoms im Jahre 1917 ausgelöst wurden. Habers Entdeckung führte zu einer Steigerung der landwirtschaftlichen Erträge, wobei Ammoniak als chemischer Dünger eingesetzt wurde, was zu einer größeren Bevölkerung und einem Wirtschaftswachstum führte. Im Gegensatz dazu führte Rutherford einen neuen Zweig der Physik ein, der zur Entwicklung der Atombombe beitrug und zu einem großen Anteil den Zweiten Weltkrieg auf dramatische, katastrophale Art und Weise beendete.
Wir stehen am Anfang dessen, was öffentlich als eine technologische Revolution der KI beschrieben wird. Wir wissen noch nicht, wer die Innovatoren sein werden. Wir können jedoch sicher sein, dass es zu einer Zusammenarbeit zwischen den Wissenschaften kommt, die zu einer neuen Welt führt, an die wir uns anpassen müssen.
Was die Industrielle Revolution und die gegenwärtige Revolution im Bereich der KI gemeinsam haben, ist, dass beide Perioden Erfindungen hervorbrachten, die das Leben der Menschen verbesserten. Die Industrielle Revolution nutzte Dampf und elektrische Energie, um Maschinen für die Massenproduktion anzutreiben und damit die Grenzen der menschlichen Kraft zu überwinden. Die Revolution der KI nutzt Computer zur Herstellung informationsbasierter Werkzeuge, um die Grenzen der Informationsverarbeitung des menschlichen Gehirns zu überwinden.
Zu den bahnbrechenden Errungenschaften der Industriellen Revolution gehören der Übergang von der Dampfmaschine zu elektrisch angetriebenen Zügen und Schiffen, die Steigerung der landwirtschaftlichen Produktion durch die Einführung mechanisierter Landmaschinen und chemischer Düngemittel, die Entwicklung des Telefons und die Entwicklung von Arzneimitteln wie Penicillin. Als Ergebnis der Revolution im Bereich der KI können wir die potentielle Ausrottung vieler weit verbreiteter Krankheiten, effizientere Transportmittel, die Entwicklung fortschrittlicher Methoden zur Verbrechensbekämpfung und alle möglichen anderen Entdeckungen erwarten, wie z.B. die Entwicklung militärischer Fähigkeiten zur Landesverteidigung und territorialen Dominanz.
Es lohnt sich zu beobachten, dass fast alle neu entdeckten Technologien auf einer früheren Entdeckung eines anderen beruhen, die sowohl von menschlichen Bedürfnissen als auch von einer angeborenen Neugier getrieben wird.
KI ist da keine Ausnahme. In der Antike verbesserten die Finnen die Axt in Bezug auf ihre Konstruktion und die Materialien, aus denen sie gebaut wurde, um das Ernten von Bäumen effizienter zu machen. Die Axt führte zu besseren Unterkünften und Fischerbooten, verbesserte die Ernährung der Menschen und führte letztlich zu einer längeren Lebenserwartung. Die Axt ist ein Werkzeug. Auch die KI ist ein Werkzeug, das der heutigen Generation helfen kann, besser und länger zu leben. Doch so wie mit der Axt viel Schaden angerichtet werden kann, so kann auch die KI viel Schaden anrichten. Wir können daher erwarten, dass die Revolution in der KI sowohl positive als auch negative Folgen für die Gesellschaft haben wird.
3 Warum wird Künstliche Intelligenz heutzutage benötigt?
Die heutigen Gesellschaften und Unternehmenslandschaften werden zunehmend mit komplexen Herausforderungen konfrontiert. Gleichzeitig werden aber neue, bisher nie dagewesene Möglichkeiten geschaffen, die zum Teil Geschäftsbereiche oder auch unser tägliches Leben teilweise disruptiv ändern.
Bestehende Märkte sind Störungen unterworfen und können in kurzer Zeit sogar abrupt verschwinden. Wichtige globale Trends, die sich auf die Gesellschaft, die Wirtschaft, die Unternehmen, die Kulturen und das persönliche Leben auswirken und oft als Megatrends bezeichnet werden, bestimmen die zukünftige Welt der Menschheit und ihr zunehmendes Tempo des Wandels.
Megatrends stellen miteinander verbundene, globale Wechselwirkungen dar, die dazu beitragen, die Auswirkungen wichtiger technologischer Entwicklungen wie der KI abzustecken. Es wird erwartet, dass der gemeinsame Effekt von Digitalisierung, Automatisierung und KI die Zukunft der Arbeit erheblich beeinflussen wird. Es wird davon ausgegangen, dass die Automatisierung und Digitalisierung viele Arbeitsplätze mit geringer Qualifikation betreffen wird, wobei die computergesteuerte Automatisierung in zahlreichen Branchen und Umgebungen, einschließlich Fertigung, Planung und Entscheidungsfindung, immer weiter verbreitet sein wird. Das Wachstum der technologischen Fähigkeiten verändert bereits jetzt die Versorgungsketten, formt die Arbeitskräfte um und definiert Arbeitsplätze neu. Die herausfordernde Aussicht auf einen solchen Wandel liegt in der Tatsache, dass das Wachstum nicht linear verläuft, sondern eher komplex ist und sich beschleunigt.
Gleichzeitig wird die KI ein breites Spektrum von Anwendungen ermöglichen und verbessern, die einige der globalen Herausforderungen bewältigen können, die sich aus diesen Megatrends ergeben: Umweltbelange, demografische Veränderungen oder wirtschaftliche Ungleichheit, um nur ein paar wenige zu nennen.
3.1 Rohstoffknappheit und optimierter Verbrauch
Die natürlichen Ressourcen des Planeten werden in alarmierendem Tempo verbraucht. Und es wird erwartet, dass die meisten Länder ihren jährlichen weltweiten Verbrauch solcher Ressourcen bis 2050 verdoppeln werden.
Nicht nur die endlichen natürlichen Ressourcen neigen sich völliger Erschöpfung zu, die Menschen verbrauchen auch weit mehr Umweltressourcen, als die Natur regenerieren kann. Während Ressourcenschutz in der Vergangenheit oft als nachteilig für die Wirtschaft angesehen wurde, schließen sich beide heute keineswegs gegenseitig aus. Die KI hilft bereits heute unzähligen Herstellern, Produktionsprozesse zu optimieren und dadurch Abfall zu reduzieren und dabei gleichzeitig „Output“ zu erhöhen. Darüber hinaus wird die KI bald nicht nur zur Optimierung der Prozesse selbst, sondern auch zur Analyse der „Input“-Faktoren eingesetzt werden. Durch die Analyse des Zwecks, der Eigenschaften und der Umweltauswirkungen der Eingangsmaterialien einer Produktion wird die KI den Wissenschaftlern helfen können, Materialien zu entwerfen, die den für eine nachhaltigere Produktion erforderlichen Spezifikationen entsprechen. Es wurden sogar Ideen für die Verwendung der KI vorgeschlagen, um eine zweite Verwendung für die materiellen Komponenten von Nebenprodukten, die von Maschinen erzeugt werden, zu identifizieren und so eine nahezu zyklische Verwendung von Rohstoffen zu schaffen.
Solche Effizienzsteigerungen in Produktionsprozessen sind nicht nur ein attraktiver Anreiz für Unternehmen, sie werden auch einen erheblichen Einfluss auf den globalen Ressourcenverbrauch haben.
KI wird auch Versorgungsunternehmen in einer Zeit zunehmender Verstädterung, wachsenden Stromverbrauchs, knapper Wasserressourcen und des großflächigen Einsatzes erneuerbarer Energien helfen. Dies wird durch ein intelligenteres Management von Angebot und Nachfrage erreicht werden.
Auf der Nachfrageseite führt die KI bereits zu erheblichen Energieeinsparungen, z.B. durch die Reduzierung des Verbrauchs von Rechenzentren um 15%.
Auf der Angebotsseite werden dezentralisierte intelligente Energienetze in der Lage sein, Ausfälle vorherzusagen und zu verhindern und Schwankungen von Angebot und Nachfrage zu bewältigen, um das optimale Versorgungsniveau zu gewährleisten und gleichzeitig den Verbrauch fossiler Brennstoffe zu minimieren.
Weitere Beispiele sind die Optimierung der regenerativen Energieerzeugung durch Solar- oder Windparks oder die Optimierung von Fahrzeugverkehrsströmen zur Reduzierung von Emissionen.
3.2 Klimawandel
Die Prognosen führender Wissenschaftler waren eindeutig: Ohne eine konsequente Antwort auf die Herausforderung des Klimawandels und eines verantwortungsvolleren Umgangs mit Umweltressourcen werden unvorhersehbare Veränderungen den Planeten ‒ und damit die menschliche Existenz ‒ bedrohen. Dies wirft die Frage auf, wie wirtschaftliche Ziele mit ökologischer Nachhaltigkeit in Einklang gebracht werden können. Ebenso wichtig ist, wie sich die Menschheit auf unerwartete dramatische Naturereignisse in der Zukunft vorbereiten kann.
Es wird erwartet, dass der Einsatz von KI in einer Vielzahl von Anwendungen eine führende Rolle im Kampf gegen den Klimawandel spielen wird. KI kann komplexe Entscheidungsprozesse im Umgang mit natürlichen Ressourcen oder bei der Vorhersage unerwarteter Vorfälle unterstützen. So können z.B. der Verbrauch und die Nutzung von Ressourcen bereits bei der Energiegewinnung optimal koordiniert werden. KI ermöglicht es, zahlreiche Parameter wie den kontextabhängigen Stromverbrauch und die Netzlast in Relation zu Wettervorhersagen und Stromtarifen zu setzen. Dadurch lässt sich das Verhalten der Stromverbraucher besser bestimmen und effizienter steuern.
Aufbauend auf diesen Errungenschaften können intelligente Mobilitätslösungen mit einem verantwortungsvolleren Umgang mit Ressourcen umgesetzt werden, darunter auch die autonome Elektromobilität. Fahrzeuge und Lastwagen können nicht nur optimal und effizient aufeinander abgestimmt werden, sie können dank KI auch effizienter gefahren werden.
Ähnliche Entwicklungen können für einen effizienten Wasserverbrauch konzipiert werden. In der Landwirtschaft z.B. erlaubt die KI die Bestimmung des optimalen Wasserbedarfs in Abhängigkeit von den spezifischen Bedürfnissen jeder einzelnen Pflanze, der Bodensituation und den aktuellen Wetterbedingungen. Darüber hinaus können mit Hilfe von KI-Techniken Versorgungsstrategien für Dürreperioden und Wasserknappheit in betroffenen Regionen und Ländern entwickelt werden.
KI kann auch dazu beitragen, die Vorhersagen von Wetterszenarien und Naturkatastrophen zu verbessern. Wissenschaftler stehen zunehmend vor der Herausforderung, zahlreiche Einflussfaktoren zu erfassen und zu verarbeiten, um die Genauigkeit von Wettervorhersagen zu erhöhen. Die KI wird den Menschen effektiv dabei helfen, eine breite Palette von Messdaten zu verarbeiten, um frühzeitige Vorhersagen für wetterbedingte Ereignisse und Warnungen vor potenziellen Elementen wie Überschwemmungen, Luftverschmutzungsepisoden oder Stürmen zu liefern. Frühwarnsysteme können dann intelligenter für unterschiedliche Geografien eingerichtet werden.
3.3 Demografische Aspekte
Die Vereinten Nationen (UN) prognostizieren einen Bevölkerungszuwachs von mehr als einer Milliarde bis 2030 aufgrund des demografischen Wachstums in Schwellen- und Entwicklungsländern. Darüber hinaus wird die alternde Bevölkerung (Anzahl der Personen ab 65 Jahren) um mehr als 390 Millionen zunehmen, da die Menschen länger leben und weniger Kinder haben. Die Auswirkungen der Bevölkerungsalterung wird in Europa, Asien und Lateinamerika unmittelbarer zu spüren sein, was zu unterschiedlichen regionalen Problemen führen wird. Der Trend bei der Zahl der Erwerbstätigen, die jeden älteren Menschen unterstützen, wird sich von neun im Jahr 2015 auf eine Spanne von der Hälfte bis zu vier in Asien verlagern, was zu einer viel stärkeren Abhängigkeit der älteren von der jüngeren Generation führen wird. In Europa wird die Verfügbarkeit einer geeigneten Bevölkerung im erwerbsfähigen Alter abnehmen und einen akuten Bedarf an einer neuen Generation von Arbeitskräften, d.h. Frauen und älteren Menschen, schaffen.
Das Verhältnis von vier Personen im erwerbsfähigen Alter pro älteren Menschen im Jahr 2015 wird bis 2050 um 50% sinken. Diese Bevölkerungsalterungstendenzen werden zweifellos erhebliche Herausforderungen für Regierungen und Industrie mit sich bringen.
Ein weiterer wichtiger Aspekt solcher Trends hängt mit den großen regionalen Unterschieden in der Verfügbarkeit der Bevölkerung im erwerbsfähigen Alter zusammen, wie z.B. 1,5 Personen im erwerbsfähigen Alter auf jeden älteren Menschen in Japan im Jahr 2050 gegenüber 15 Personen im erwerbsfähigen Alter auf jeden älteren Menschen in Nigeria.
Der Trend zur Alterung der Bevölkerung wird zu höheren Ausgaben im Gesundheitswesen führen. Es wird erwartet, dass innerhalb der G7-Länder die Gesundheitsbudgets jedes Jahr um etwa 200 Milliarden US-Dollar steigen werden. Technologische und wissenschaftliche Innovationen können jedoch dazu beitragen, die Gesundheitskosten auf ein erschwinglicheres Niveau zu senken. Die meisten Regierungen in Europa ermutigen nun ältere Arbeitnehmer im Erwerbsleben zu bleiben, indem sie das offizielle Rentenalter erhöhen und Altersdiskriminierung verbieten. Darüber hinaus wird die Industrie finanzielle Anreize sowie Umschulungsprogramme für ältere Arbeitnehmer bereitstellen müssen. Lebenslanges Lernen zum Erwerb neuer Fähigkeiten während des Arbeitslebens des Einzelnen sowie die Betreuung jüngerer Kollegen werden für die Bemühungen, ältere Menschen in der Arbeitswelt zu halten, von entscheidender Bedeutung sein.
3.4 Wirtschaftspolitische Aspekte
Es wurde bereits hervorgehoben, wie Automatisierung und immense Produktivitätssteigerungen den Ländern helfen werden, den Druck des demografischen Wandels zu mildern. Während dies für fortgeschrittene Volkswirtschaften, die mit einer alternden Bevölkerung zu kämpfen haben, sicherlich eine willkommene Entwicklung sein wird, gibt es für die KI unzählige Möglichkeiten, für die ärmsten Länder der Welt etwas nachhaltig mit den vorhandenen Ressourcen zu bewegen.
Die Ziele der Vereinten Nationen für eine nachhaltige Entwicklung versuchen z.B., diese Herausforderungen durch die Verringerung von Armut und Hunger und die Verbesserung der Bildung anzugehen. Der jüngste KI for Good Global Summit 2017 hat deutlich gemacht, wie die KI diese Bemühungen unterstützen kann. Die Vorschläge reichten von Initiativen, die darauf abzielen, die Fortschritte der internationalen Gemeinschaft bei der Erreichung dieser Ziele zu überwachen und festzustellen, wo die Ressourcen am dringendsten benötigt werden, bis hin zur prädiktiven Modellierung von Krankheitsausbrüchen.
Die KI ist auch bereit, mit dem IoT, Drohnen und der synthetischen Biologie zusammenzuarbeiten, um intelligente Landwirtschaft voranzutreiben und Erkenntnisse darüber zu gewinnen, wann und wo Nutzpflanzen gepflanzt und geerntet werden sollen, während gleichzeitig Ernährung, Pestizide und Wasser optimiert werden, um die Erträge zu steigern und den Welthunger zu bekämpfen.
Das Interesse der Regierungen am Potenzial der KI nimmt immer mehr zu, und es wird von der KI erwartet, dass sie Beiträge zur öffentlichen Politik, insbesondere zur Wirtschaftspolitik, leistet. Bei der Erstellung eines Modells beginnen Ökonomen gewöhnlich mit einer Reihe von Annahmen, die sie dann zu überprüfen versuchen. Die KI bietet jedoch die Möglichkeit, Daten zu analysieren und bisher unbekannte Wechselwirkungen zwischen Variablen aufzudecken, auf deren Grundlage dann ein Modell aus ersten Prinzipien aufgebaut werden kann, das der Information der Öffentlichkeit und der Geldpolitik dient. Die KI kann auch die Finanzaufsichtsbehörden bei ihren Überwachungsaktivitäten unterstützen, indem sie die Bilanzen von Banken auf Anomalien untersucht, die aus aufsichtsrechtlicher Sicht oder aus Sicht des Verhaltens bedenklich sind.63 Solche Untersuchungen darüber, wie KI in der Öffentlichkeit eingesetzt werden kann, sind zu begrüßen, da sie Regierungen dabei helfen können, bewährte Praktiken zu erforschen, fundierte Entscheidungen zur KI-Politik zu treffen und das Vertrauen der Öffentlichkeit aufzubauen.
3.5 Personalisierung von Dienstleistungs- und Produktangeboten
Die Integration von KI und fortschrittlicher Fertigung ermöglicht eine Massenanpassung, die Lieferanten, Partner und Kunden problemlos verbindet und individualisierte Anforderungen mit Effizienz und Kosten nahe der Massenproduktion erfüllt. Die Anwendung der KI optimiert daher die Wertschöpfungskette in der Fertigung, so dass die Hersteller den Materialfluss in Echtzeit verfolgen können. Außerdem können technische und Qualitätsprobleme genauer beurteilt werden, überschüssige Bestände und logistische Verzögerungen reduziert, die Reaktionsfähigkeit auf Kundenbedürfnisse erhöht und bessere Geschäftsentscheidungen getroffen werden, die Abfall und Kosten reduzieren. Die Unternehmen werden von der massenhaften Anpassung der Produktion profitieren, indem sie die mit dem Internet verbundenen Verbraucher in die Lage versetzen, intelligente Fertigungsprozesse zu steuern und Produkte nach ihren gewünschten Spezifikationen zu entwickeln. KI ermöglicht die Individualisierung von Produkten auf einer völlig neuen Ebene. Betroffen sind nicht nur Produkt-Konfiguratoren, die Kunden online nutzen können. Der Einsatz von KI eröffnet auch völlig neue Möglichkeiten der Individualisierung. Produkte, deren Individualisierung mit hohen Entwicklungskosten verbunden wäre, können durch den Einsatz von KI den Anforderungen angepasst werden.
Dienstleistungen können auch automatisch auf Kundenbedürfnisse zugeschnitten werden. Ein Beispiel ist die automatische Übersetzung von Texten.
Während bisher die Ergebnisse regelbasierter Techniken oft nur die Bedeutung einzelner Wörter, nicht aber ganze Sätze wiedergeben konnten, die kontextualisiert werden, können von der KI unterstützte Dienste die Übersetzung auf der Grundlage der Bedeutung eines Textes durchführen.
3.6 Moderne Wertschöpfungssysteme und entsprechende Anforderungen
Im Kontext moderner Anwendungssysteme sind neue KI-Entwicklungen unerlässlich. Zunehmend kommt dazu, dass bestehende Anwendungssysteme auf evolutionärer Basis verändert werden. Bestehende Geschäftsprozesse werden zunehmend mittels des Einsatzes von KI automatisiert.
Innerhalb unseres Alltags haben wir zunehmend mit enormem Effizienzdruck zu kämpfen. Die Welt wird zunehmend schnelllebiger und fordert von jedem einzelnen Individuum enorm viel Leistung in immer kürzerer Zeit.
Gleichzeitig ist festzustellen, dass wir für uns selbst immer weniger Zeit in Anspruch nehmen können. Um den steigenden Herausforderungen der aktuellen gesellschaftlichen und wirtschaftlichen Aspekte gerecht zu werden, müssen wir uns mit Methoden der Automatisierung befassen, um nachhaltig den erreichten Wohlstand halten zu können und den entsprechenden Wohlstand auch weiter auszubauen. Aber nicht nur das Halten des bestehenden Wohlstandes, sondern auch die Schaffung von neuem Wohlstand für Gruppen und Länder, die bisher nur wenige Chancen hatten, kann mit der zunehmenden Digitalisierung und natürlich dem Einsatz von KI langfristig erreicht werden. Dieses Ziel ist natürlich nicht über Nacht erreichbar, jedoch birgt die Digitalisierung und Automatisierung ein enormes Potential, flächendeckenden Wohlstand zu erzeugen und letztlich auch flächendeckend automatisiert Wertschöpfung zu betreiben. Dies ist nicht beschränkt auf spezifische Branchen und kann in der Produktion oder der verarbeitenden Industrie zum Einsatz kommen.
Wenn dieses Themenfeld kritisch betrachtet wird, kann natürlich abseits des nachhaltigen und ständigen Wachstums der Märkte gefragt werden, ob eine derartige Effizienzsteigerung überhaupt benötigt wird. Jedoch sind die Anforderungen aktuell gegeben und die Möglichkeiten der KI und deren Einsatz in den nächsten Dekaden mit enormem Wachstumspotential verbunden, sodass nach der aktuellen Lage der Investitionen und dem Aufbau von Kompetenzen in diesen Bereichen davon auszugehen ist, dass dieses Themenfeld nachhaltig in unsere alltägliche Unternehmens- und private Welt Einzug hält.
Wenn diese Entwicklung beibehalten wird, werden künftig beispielsweise auch normale Abläufe ohne den Einsatz von KI kaum noch zu bewältigen sein.
KI wird künftig ein wesentlicher, wenn nicht sogar entscheidender Faktor für moderne Wertschöpfung sein. Alles, was automatisiert werden kann, wird künftig nach und nach, wenn erste Hürden und Barrieren überwunden sind, automatisiert werden.
4 Methoden der Künstlichen Intelligenz und Abgrenzung
Wenn wir einen Blick in den Bereich der Methoden von KI werfen, reichen die ersten grundlegenden anwendbaren Algorithmen bis in die 1940er Jahre zurück. Jedoch hat sich etwa seit der Jahrtausendwende ein großer Boom um die damit in Verbindung stehenden Technologien entwickelt. Hierfür gibt es zahlreiche Gründe.
Der Bedarf an hochautomatisierten Systemen steigt immer weiter an. Durch die fortschreitende Digitalisierung steigt die Menge der generierten Daten rasant an und moderne Systeme wie das Internet bieten die Möglichkeit, wesentlich mehr Daten als nur die selbst generierten zu betrachten. Um hieraus unternehmerische Vorteile zu erwirtschaften, müssen diese Daten schnell analysiert und interpretiert werden. Hier können herkömmliche Ansätze zur Datenanalyse nicht immer mithalten. Während herkömmliche Ansätze effizient mit klar beschriebenen Problemen umgehen können, stellt sich heute immer mehr die Frage, was für Muster und Informationen in den Daten versteckt sind, die vielleicht nicht offensichtlich oder mit herkömmlichen Methoden überhaupt nicht analysierbar sind.
In den letzten Jahren hat die Rechenleistung von Systemen weiter stark zugenommen. Auch wenn sich möglicherweise ein Ende von Moore’s Law abzeichnet, so sind die Leistungsgewinne der letzten Jahre dennoch enorm gewesen. Zahlreiche KI-Algorithmen profitieren zudem von der ausgebauten Computing-Leistung moderner CPUs und Grafikkarten oder sogar von dedizierter Hardware, etwa Tensor Processing Units zur Beschleunigung von neuronalen Netzwerken. Diese Leistungsgewinne machen bestehende Ansätze, die vorher beispielsweise durch die Trainingsdauer bedingt nicht marktfähig waren, möglich für Echtzeitanwendungen. Gleichzeitig fanden große Fortschritte bei neuronalen Netzen statt, etwa durch den Wechsel zu Rectified Linear Units wurde die Genauigkeit der Modelle erhöht.
Cloudanbieter haben den Vorteil der ihnen bereitstehenden Infrastruktur. Kleinere Anbieter können sich kaum durchsetzen, da die Investitionskosten und Betriebskosten von entsprechend leistungsfähiger Hardware nicht zu unterschätzen sind. Als Cloudanbieter wird die übrig gebliebene Hardwarekapazität ausgenutzt oder zumindest die etablierte Kühltechnik in Rechenzentren mit standardisierten Komponenten hilft, die Kosten zu senken.
Gleichzeitig stellt dies aber auch die Cloudanbieter vor das Problem, dass immer mehr Kunden KI auf ihren Ressourcen betreiben wollen, während die Bandbreite zu den Rechenzentren nicht mitwächst. Um dies abzumildern, werden Berechnungen immer weiter aus dem zentralen Rechenzentrum hin zu außenstehenden Geräten verlagert. Dieses als Edge-Computing bezeichnete Auslagern der Datenverarbeitung aus einem vormals zentralisierten System ermöglicht es, die Rechenlast und Datenmenge im zentralen System zu reduzieren und auf die sogenannte „Edge“ zu verlagern. So kann die Rechenleistung von kundennahen Netzwerkendpunkten genutzt werden, um Services bereitzustellen, ohne das zentrale System zu überlasten. Beispielsweise können die durch IoT generierten Daten bereits vorverarbeitet werden oder sogar gefiltert, so dass eine Dezentralisierung der Berechnung erwirkt wird.
Stück für Stück etabliert sich KI im Alltag vieler Menschen. Bereits jetzt nutzen viele Menschen Smart Speaker wie Alexa, Google Home oder Ähnliches.
Die Stimmerkennung dieser Systeme ist bereits eine konkrete und sehr gut anwendbare Anwendung von KI. Ebenso ist die Ausgabesprache der Geräte meist ebenfalls vollständig von einer KI synthetisiert. Gleiches gilt für Sprachsteuerungsfunktionen bei Smartphones. Bestellvorschläge oder an die Benutzer angepasste Werbung finden nicht mehr durch einfache Richtlinien statt, sondern durch eine KI.
Der Bereich der Automatisierung zeigt sich dem Privatanwender immer mehr im Reifegrad des autonomen Fahrens. Die Situationen sind hierbei zu komplex, als dass für jede Situation ein konkretes Verhalten programmiert werden kann. So sind auch hier KIs am Werk, um passend auf Situationen reagieren zu können. Für den regulären Anwender ist der Einsatz von KI im Hintergrund kaum noch zu erkennen.
Für die softwareseitige Entwicklung von KI hat sich in den letzten Jahren eine Vielzahl von Frameworks etabliert.
Diese Frameworks, beispielsweise PyTorch, TensorFlow oder Scikit-learn, bieten den Entwicklern eine drastische Beschleunigung und Erleichterung der Entwicklung, da diese die Entwicklung stark abstrahieren und gleichzeitig performant arbeiten.
So ist der Fokus bei der Entwicklung weniger technisch getrieben als fachlich, da die grundlegenden Funktionen bereits in den Frameworks eingebettet sind und der Benutzer hauptsächlich die Parameter dafür definiert, anstatt selbst auf unterster Ebene ein neuronales Netz entwickeln zu müssen oder den Clustering-Algorithmus selbst zu implementieren.
So kann die technische Seite abstrahiert betrachtet werden und „best practices“ können für die Frameworks erarbeitet werden. Dadurch sinkt die Durchlaufzeit von Projekten enorm, da nicht stark proprietäres Wissen benötigt wird, sondern eine Gemeinschaft das Werkzeug bereitstellt.
4.1 Kategorien der Künstlichen Intelligenz
Im Feld der KI lassen sich die Methoden, die vor allem im Kontext des Machine Learning angewendet werden, in zwei Kategorien unterteilen. Diese unterscheiden sich darin, wie die einzelnen konkreten Modelle trainiert und wie sie weiter verbessert werden. Generell kann zwischen Supervised Learning und Unsupervised Learning unterschieden werden.
Abbildung 7: Verschiedene Kategorien des Machine Learning
Beim sogenannten Supervised Learning erhält ein Algorithmus einen bestimmten Input und einen dazugehörigen Output. Im Kontext des sogenannten Trainingsprozesses wird das neuronale Netz, oder auch in vielen Anwendungen das tiefschichtige neuronale Netz, sogenanntes Deep Learning, trainiert, damit der entsprechende Input zum gewünschten Output führt. Generell werden diese Methoden häufig im Kontext der Bildverarbeitung verwendet, sodass beispielsweise Bilder klassifiziert werden könnten ‒ siehe Beispiel Pinterest ‒ oder aber auch die Bilder entsprechend analysiert und Objekte auf diesen Bildern gefunden werden können.
4.1.1 Supervised Learning
Eine gängige Aufgabe, bei der „supervised learning“ angewendet wird, ist die Klassifikation von Objekten oder Bildern. Dies bedingt jedoch, dass zum Training bei jedem Input bereits der erwartete Output bekannt ist. Dies kann beispielsweise eine manuell oder anderweitig klassifizierte Liste von Datenpunkten sein. Beim Beispiel der Bilderkennung ist also für jedes Trainingsbild bekannt, welches Objekt darauf zu sehen ist. Alle Bilder des Trainingssets für unser Modell werden durchlaufen und das Modell jeweils nun so angepasst, dass der korrekte Output entsteht. Am Ende entsteht so ein trainiertes Modell, welches jeden Input in eine der bekannten Klassen einordnen kann.
Dies funktioniert also am besten, wenn die möglichen Outputs bekannt sind, also konkret benannt und interpretiert werden können. Ein so trainiertes Modell kann nur in die ihm genannten Kategorien klassifizieren und wird auch komplett neue Objekte in eine der bestehenden Klassen einordnen.
Das „supervised“ steht hierin für die „Überwachungsmöglichkeit“ anhand der erwarteten Outputs. Wir können also durch das Outputsignal beurteilen, ob unser Modell funktioniert.
4.1.2 Unsupervised Learning
Eine gänzlich andere Methode stellt das „unsupervised learning“ dar. Diese Methodik wird dann verwendet, wenn zu einem bestehenden Input-Datensatz keine grundlegenden Output-Datensätze erhalten sind und primär nach Mustern in den bestehenden Datensätzen gesucht werden soll. Eine beliebte Methode ist beispielsweise das Clustering. Es ist insoweit „unsupervised“, als dass wir ein Modell erhalten, dessen Outputs wir nicht vorbestimmt haben und dadurch nicht mit Erwartungen abgleichen können. Beispielsweise kann beim Clustering der Kundendaten eine ganz neue, separate Kundengruppe aufgedeckt werden, welche vorher nicht bekannt war.
4.1.3 Reinforcement Learning
Reinforcement Learning-Methoden zielen darauf ab, Beobachtungen aus der Interaktion mit ihrer Umwelt zu nutzen, um Maßnahmen zu ergreifen, die eine sogenannte Belohnungsfunktion maximieren oder das Risiko minimieren. Der Reinforcement Learning-Algorithmus (der sogenannte Agent) lernt kontinuierlich und iterativ von der Umgebung, in der er eingesetzt wird.
Dabei lernt der Agent aus seinen Erfahrungen mit der Umwelt, bis er die ganze Bandbreite möglicher Zustände erforscht.
Reinforcement Learning ist eine Form des maschinellen Lernens und damit auch ein Zweig der KI. Es erlaubt Maschinen und Software-Agenten, automatisch das ideale Verhalten in einem bestimmten Kontext zu bestimmen, um seine Leistung zu maximieren. Damit der Agent sein Verhalten lernt, ist eine einfache Belohnungsrückmeldung erforderlich, dies wird als Verstärkungssignal innerhalb des Algorithmus gewertet.
Abbildung 8: Funktionsweise Reinforcement Learning
Es gibt viele verschiedene Algorithmen, die dieses Problem angehen. Tatsächlich wird das Reinforcement Learning durch eine bestimmte Art von Problem definiert, und alle seine Lösungen werden als Reinforcement Learning-Algorithmen klassifiziert. Bei diesem Problem soll ein Agent auf der Grundlage seines aktuellen Zustands entscheiden, welche Aktion am besten zu wählen ist. Wenn dieser Schritt wiederholt wird, wird das Problem als ein Markov-Entscheidungsprozess bezeichnet.
Um intelligente Programme (auch Agenten genannt) zu erzeugen, durchläuft das Reinforcement Learning die folgenden Schritte:
• Der Input-Zustand wird vom Agenten beobachtet.
• Die Entscheidungsfunktion wird verwendet, damit der Agent eine Aktion ausführt.
• Nachdem die Aktion ausgeführt wurde, erhält der Agent eine Belohnung bzw. Verstärkung aus der Umgebung.
• Die Zustände und Werte über die Belohnung sowie die Parameter des Netzes werden gespeichert.
Anwendungsfälle:
Einige Anwendungen von Reinforcement Learning-Algorithmen sind beispielsweise Computerspiele, Brettspiele (Schach, Go), Roboterhände und selbstfahrende Autos. Primär kann zusammengefasst werden, dass die sich verstärkend lernenden Algorithmen immer gut für Anwendungsfälle eignen, die klar ausdefiniert werden können und sich gemäß einem klar definierten Ziel optimieren lassen.
Diese Algorithmen lassen sich auch in die Domäne der industriellen Fertigung einbetten, da Produktionsprozesse hinsichtlich ihrer Produktionsablaufplanung und Steuerung, beispielsweise gemäß einer geringen Durchlaufzeit der Prozesse oder aber auch einem Minimum an Ausschuss, optimiert und verstärkt werden können. Das Reinforcement Learning birgt ein enormes Potenzial für Anwendungen der KI und steht noch am Anfang des Praxistransfers.
4.2 Aktuelle Methoden und Machine Learning-Systeme
4.2.1 Computer Vision
Computer Vision beschreibt die Methoden und Anwendungsgebiete im Kontext der maschinellen Bildverarbeitung. Viele Algorithmen auf Basis von Deep Learning und sogenannten Convolutional Neuronal Networks werden im Kontext der Bildverarbeitung bzw. der automatisierten Erkennung von Objekten auf Bildern verwendet. Ein weitreichendes Anwendungsgebiet finden diese Algorithmen in unterschiedlichen Branchen wie beispielsweise der Gesundheitsbranche, der produzierenden Industrie, aber auch im autonomen Fahren. Innerhalb des autonomen Fahrens sind diese Mechanismen unerlässlich. Ein Auto, welches permanent Auswertungen hinsichtlich der Umgebungsobjekte durchführen muss, ist auf solche trainierten neuronalen Netze angewiesen, um die Umwelt durch die entsprechenden Kamerasysteme permanent in Beobachtung zu haben.
4.2.2 Anomaly Detection
Anomaly Detection oder zu Deutsch Anomalieerkennung ist ein Prozess der Identifizierung unerwarteter Elemente oder Ereignisse in Datensätzen, die vom normalen Verhalten ausgehend vom Trainingsdatensatz abweichen.
Die Ansätze im Kontext der Anomalieerkennung basieren auf zwei Grundannahmen: Die relative Häufigkeit, mit der Anomalien auftreten, ist sehr gering und sie unterscheiden sich aufgrund ihrer spezifischen Merkmale von normal gearteten Datensätzen. Dies geschieht unter der Annahme, dass multidimensional nach Abweichungen innerhalb eines Datensatzes gesucht werden kann, sprich, alle verwendeten Attribute eines Datensatzes werden mit in die Analyse einbezogen.
Eine Anomalie kann beispielsweise auf kritische Vorfälle, wie Betrug, oder potenzielle unternehmerische Gegebenheiten, wie eine Änderung des Konsumverhaltens bei Kunden, hinweisen. So zeigen Studien, dass alleine im deutschsprachigen Raum bei einem Betrugsversuch im Schnitt Kosten in Höhe von über EUR 100.000,‒ anfallen können.
Heutzutage gibt es zahlreiche Tools und Programme, die den täglichen Ablauf eines Unternehmens unterstützen, protokollieren und analysieren. So kann die Leistung eines Unternehmens untersucht oder Prozesse auf Performance und Compliance überprüfen werden. Das tägliche Geschäftsvorkommen wird auch als „Business as usual“ bezeichnet. Die Anomalieerkennung zielt darauf ab, alle Abweichungen, die nicht mit dem „Business as usual“ übereinstimmen, zu identifizieren und zu analysieren. Aufgrund der hohen Menge an Daten, die anfallen, und der steigenden Komplexität ist eine manuelle Durchführung nicht mehr vorstellbar.
Anomalien werden grundsätzlich in drei verschiedene Kategorien unterschieden. Die erste Kategorie ist die punktuelle bzw. lokale Anomalie. Dabei sticht ein Punkt beispielsweise aufgrund seiner Abweichung zum Standard aus einem bestehenden Datensatz heraus. Die univariate Anomalie kennzeichnet sich hierbei nur durch eine Änderung in einer Datendimension.
Multivariate Anomalien kristallisieren sich hingegen erst durch die Betrachtung mehrere Dimensionen heraus. Eine isolierte Betrachtung einzelner Dimensionen würde sich hierbei jedoch als korrekt erweisen. Die zweite Kategorie sind kontextuelle Anomalien. Anomalien fallen hierbei erst auf, wenn sie in einem größeren Zusammenhang und dem jeweiligen Kontext gesehen werden. So kann ein hoher Verbrauch an Strom in den Arbeitsbüros am Abend als normal gesehen werden, in der Nacht allerdings nicht mehr. Dies könnte beispielsweise der Tatsache geschuldet sein, dass ein Mitarbeiter immer vergisst, das Licht auszuschalten. Die letzte Kategorie sind die kollektiven Anomalien. In dieser Kategorie lassen sich einzelne Datenpunkte auch mit unterschiedlichem Kontext nicht als Anomalie fassen. Erst durch eine Gruppierung der Daten lassen sich hier Anomalien feststellen.
4.2.3 Natural Language Processing (NLP)
NLP zählt zum Teilbereich der KI und ermöglicht es Computern, natürliche Sprache zu verstehen. Dabei wird die natürliche Sprache in Form von Text-oder Sprachdaten mit Hilfe von Techniken und Methoden maschinell verarbeitet. Computer sind somit in der Lage, Sprache zu verstehen und mit dem Menschen zu kommunizieren. Dabei wird NLP in zwei große Teilbereiche aufgeteilt: Natural Language Understanding und Natural Language Generation. Ersteres beschäftigt sich mit dem Mapping von natürlicher Sprache als Input zu einer sinnvollen Repräsentation und der Analyse (Mensch -> Maschine).
Natural Language Generation beschäftigt sich mit der Erstellung sinnvoller Ausdrücke und Sätze (Maschine -> Mensch). Ein Beispiel der Kommunikation zwischen Menschen und Maschinen sind Chatbots. Der Chatbot muss in der Lage sein, den von Menschen geschriebenen Text zu verstehen und zu diesem passend zu antworten. Das Verstehen der eigenen Sprache erscheint für uns Menschen trivial, mathematische Berechnungen hingegen können für uns sehr herausfordernd sein. Für den Computer ist es genau umgekehrt.
Mit komplexen mathematischen Berechnungen kommt der Computer zurecht, wobei das Verstehen eines einfachen Satzes mit Kontext bislang nicht ohne weiteres möglich ist. Es gibt nämlich eine unendliche Kombinationsmöglichkeit an Wörtern zu möglichen Sätzen, zudem kommt die Bedeutung des Geschriebenen bzw. Gesagten hinzu. Handelt es sich um Ironie, Mehrdeutigkeit oder das Lesen zwischen den Zeilen? Das sind alles Herausforderungen, die NLP versucht zu lösen. Dabei werden drei Aspekte für ein Verständnis angestrebt:
• Syntax: Beschreibt Regeln zur Bildung von Sprachkonstrukten
• Semantik: Beschreibt die Bedeutung der Sprachkonstrukte
• Pragmatik: Beschäftigt sich mit dem Kontext der Wörter
Bis 1980 basierten NLP-Techniken auf komplexen handgeschriebenen Regeln. Die Nutzung von Machine Learning revolutionierte in den späten 1980er die Anwendung von NLP-Algorithmen. Die steigende Zunahme der Rechenleistung und der Einsatz von statistischen Modellen lösten die bisherigen regelbasierten Techniken ab.
Für das tiefe Verständnis von Kontext in einem Text wurde BERT eingeführt.
BERT ist eine KI und beschreibt einen Algorithmus, der auf NLP und neuronalen Netzen basiert. Eines der größten Hindernisse beim Erstellen neuer Modelle zur Spracherkennung im NLP-Bereich ist der Mangel an ungelabelten Trainingsdaten. Hier kommt BERT ins Spiel, da BERT durch insgesamt 3,3 Milliarden ungelabelter Wörter aus Wikipedia-Artikeln und Büchern vortrainiert wurde. Das daraus entstandene Sprachmodell wurde als Open-Source- Projekt von Google 2019 veröffentlicht. Sprachmodelle vor der Einführung von BERT erstellten Wahrscheinlichkeiten des nächsten Wortes auf Basis aller vorherigen Wörter in einem Satz. Das führte zur Problematik, dass alle nachfolgenden Wörter nicht beachtet wurden. Durch das „bidirektionale Lernen“ ist BERT das erste Modell, welches alle Vorgänger und Nachfolger betrachtet. Dadurch lässt sich der Kontext des gesamten Satzes bestimmen und BERT erzielte State-of-the-art-Performance in insgesamt elf verschiedenen NLP-Aufgaben wie beispielsweise Q&A-Systemen, Sentiment-Analyse oder automatische Zusammenfassungen von Texten.
Die Architektur setzt sich aus aufeinandergestapeltem Encoder unter Verwendung des Attention Mechanismus zusammen, um einen tiefen bidirektionalen Zusammenhang zwischen den Wörtern herzustellen. Durch das „bidirektionale Lernen“ ist das Modell in der Lage, bei jedem Wort den Kontext von allen Vorgängern und Nachfolgern zu verstehen.
Das Training des BERT-Sprachmodells wird in zwei Phasen unterteilt, das Pre-Training und das Fine-Tuning. In der Pre-Training-Phase wird das Verständnis der natürlichen Sprache entwickelt und in der Fine-Tuning-Phase muss der Nutzer das Modell auf seinen speziellen Usecase trainieren. Im Folgenden wird zunächst das Pre-Taining beschrieben, das aus zwei Phasen besteht, die parallel ablaufen. Die erste Teil-Phase ist das Masked Language Model (MLM). Dabei werden 15% aller Wörter „maskiert“ und durch das [MASK] Token ersetzt. Das Ziel ist, eine genaue Vorhersage der maskierten Wörter unter Berücksichtigung des Kontextes aller nicht maskierten Wörter zu treffen. Die zweite Teil-Phase ist die Next Sentence Prediction (NPS). Hierbei wird bei zwei aufeinanderfolgenden Sätzen geprüft, ob der zweite Satz ein sinnvoller Nachfolger des ersten ist. Nach Abschluss beider Phasen ist das Sprachmodell in der Lage, natürliche Sprache zu verstehen. Google veröffentlichte diese Sprachmodelle zur freien Verfügung. Die Anpassung dieser Modelle auf den bestimmten Anwendungsfall ist das sogenannte Fine-Tuning. Auf diese Weise wird die letzte Schicht des neuronalen Netzwerks angepasst, um die verschiedenen Daten, die zum Fine-Tuning verwendet werden, genau zu verstehen. Angenommen, der genutzte Datensatz ist von den Amazon Produktreviews, die unter anderem den Produktnamen, die Bewertung und Bewertungspunkte enthalten. In diesem fiktiven Szenario wird das Modell trainiert, um Vorhersagen über die Bewertungspunkte auf Basis des Produktes und der Bewertung zu treffen. So lassen sich jetzt Bewertungspunkte über Produkte vorhersagen, die BERT vorher noch nicht gesehen hat.
4.3 Klassische Algorithmen im Bereich Machine Learning
Die Basis von verschiedensten Algorithmen im Kontext KI, speziell im Bereich Machine Learning, ist auf die im folgenden beschriebenen Algorithmen-Grundkonzepte zurückzuführen. Dies sind primär Methoden, die in klassischen Data Analytics eingesetzt werden und schon seit geraumer Zeit in praktischen Anwendungsfällen zum Einsatz kommen. Als charakteristisch kann festgehalten werden, dass diese Algorithmen meist nicht trainiert werden müssen, sondern auf geringen Datenmengen angewendet werden. Im Folgenden werden diese näher erläutert.
4.3.1 Decision Trees
Unter einem Entscheidungsbaum versteht man eine baumartige Struktur zur Modellierung von Entscheidungsfragen und den möglichen Antworten. Entscheidungsbäume lassen sich in den Bereich des überwachten Lernens einordnen und unterstützen Klassifikations- und Regressionsprobleme. Entscheidungsbäume zeichnen sich durch ihre hohe Genauigkeit und die einfache Interpretation aufgrund der visuellen Darstellung aus. Statistische Kenntnisse werden nicht benötigt, um Entscheidungsbäume zu lesen und zu verstehen.
Der Entscheidungsbaum in Abbildung 9 hilft bei der Klassifizierung, ob eine Person körperlich fit ist oder nicht. Der Entscheidungsbaum wurde mit Hilfe von vorhandenen Daten aufgebaut. Ziel ist es, mit Hilfe der zugrundeliegenden Daten Vorhersagen über zukünftige Daten zu treffen. So würde sich in diesem Beispiel eine 40-jährige Person, die keine Pizza isst, als fit klassifizieren lassen. Der zugrundeliegende Algorithmus teilt die Daten durch gezielte If-Then-Else-Entscheidungsregeln in kleinere Datenmengen auf und stellt einen Entscheidungsbaum dar. Der Entscheidungsbaum entspricht einem gerichteten Graphen mit Knoten und Kanten. Um eine Entscheidung zu treffen bzw. die Klassifikation vorzunehmen, startet man an der Wurzel des Baumes und folgt der Einteilung, bis man ein „Blatt“ erreicht hat. Das Blatt entspricht der vorherzusagenden Variablen, also der Klassifizierung, wie in Abbildung 9 exemplarisch dargestellt wird.
Abbildung 9: Beispiel Decision Tree
Abhängig von der Entscheidungsfrage wird die signifikanteste Variable identifiziert, anhand der die beste Partitionierung in homogene Populationsgruppen erfolgt. Die Findung dieser Variablen als auch die Aufteilung erfolgt durch verschiedene Algorithmen und beeinflusst die Qualität des erzeugten Entscheidungsbaumes. Die grundlegende Idee ist, die Daten rekursiv und mit dem Top-down-Ansatz zu partitionieren und dabei den PartitionierungsBaum zu erhalten. Pro Partitionierung wird die Qualität anhand eines Qualitätsmaßes bestimmt und die beste Option ausgewählt. Im Umkehrschluss bedeutet das, dass es sich hierbei um einen Greedy-Algorithmus handelt, der sich nur pro Split optimal entscheidet und nicht für alle gleichzeitig. Somit kann eine optimale Lösung nicht gewährleistet werden. Gini Impurity und Entropy sind mögliche Kriterien für den Split eines Entscheidungsbaumes. Beide messen den Informationsgehalt für den Split eines Knotens, werden allerdings unterschiedlich berechnet.
Somit ist die Wahl entscheidend für die Qualität des Entscheidungsbaumes.
Eine Herausforderung bei der Erstellung der Entscheidungsbäume ist das Overfitten. Overfitting bedeutet, dass das Modell zu genau an den bestehenden Datensatz angepasst ist und für neue Werte ungenaue Ergebnisse vorhersagt. Eine Möglichkeit, dem Overfitting entgegenzuwirken, ist das Pruning. Unter Pruning versteht man das Anpassen und Löschen weniger relevanter Teile des Entscheidungsbaumes. Das steigert nicht nur die Lesbarkeit, sondern reduziert auch das Overfitting.
4.3.2 Support vector machines
Der SVM-Algorithmus gehört zur Kategorie der Supervised Learning-Ansätze. Er kann für Klassifikations- und Regressionsaufgaben eingesetzt werden. Das Grundkonzept dieses Algorithmus besteht darin, verschiedene Klassen linear zu unterteilen, wie in Abbildung 10 zu sehen ist. Hier werden zwei Dimensionen und zwei Klassen, die linear getrennt sind, veranschaulicht. Der Algorithmus maximiert den Abstand zwischen den Klassen, welcher innerhalb eines Trainingsdatensatzes bereitgestellt und in den Klassifizierer eintrainiert wird.
Dies wird anhand eines sogenannten Margin-Klassifikators durchgeführt.
Um eine optimale Klassifikation bereitzustellen, verwendet der Algorithmus die Datenpunkte, die eine maximale Trennung zwischen den verschiedenen Klassen ermöglichen. Die ausgewählten Datenpunkte, die die Geraden zwischen den Klassen definieren, werden als Stützvektoren bezeichnet, von denen der Algorithmus seinen Namen ableitet.
Einer der Nachteile des Hard Margin Classifier-Ansatzes ist, dass er zu einer Überanpassung führen kann (das bereits erwähnte Overfitting), da keine Fehler erlaubt sind. Dies führt oft zu einer guten Leistung bei Trainingsdaten, aber zu einer weniger guten bei neuen Datensätzen, die der Algorithmus klassifizieren soll.
4.3.3 Naïve Bayes
Naïve Bayes-Klassifikatoren sind eine Klasse von überwachten Lernalgorithmen, die auf dem Bayes-Theorem basieren. Es wird allgemein davon ausgegangen, dass alle diese Algorithmen zur Klassifizierung von Daten eingesetzt werden. Jedes Merkmal der zu klassifizierenden Daten ist unabhängig von allen anderen in der jeweiligen Klasse und vorhandenen Merkmalen. Diese sogenannten Features sind unabhängig voneinander, wenn Änderungen im Wert dieses Features keine Auswirkungen auf den Wert eines anderen Merkmals haben.
Auf der Grundlage der Klasse eines Trainingsbeispiels im Datensatz berechnet der Algorithmus auf der Grundlage dieser Werte die Wahrscheinlichkeit, dass jedes Merkmal zu dieser bestimmten Klasse gehört. Wenn neue Datenpunkte klassifiziert werden, berechnet der Algorithmus die Klassenwahrscheinlichkeit für jedes Merkmal separat. Für jede Klasse wird das Produkt dieser Wahrscheinlichkeiten berechnet, und die Klasse mit der höchsten Wahrscheinlichkeit wird ausgewählt. Dies ist ein generativer Ansatz der Klassifizierung. Letztlich werden die Ergebnisse mit dem höchsten Wahrscheinlichkeitswert als Ergebnis präsentiert und die Kategorisierung entsprechend vorgenommen.
Bayes-Algorithmen werden für viele Aufgaben angewendet wie z.B. Text-Retrieval oder Spam-Klassifikation.65 Ein großer Vorteil ist ihre Skalierbarkeit für neue Merkmale, was besonders bei großen Datensätzen nützlich ist.
Naïve Bayes-Klassifikatoren wurden früher sehr oft im Kontext der Klassifizierung von natürlicher Sprache eingesetzt. Die Klassifikatoren werden aber auch zur klassischen Klassifizierung von Daten in bestimmte Kategorien verwendet, um beispielsweise Rückschlüsse darauf zu ziehen, ob eine Personengruppe, die sich nicht sportlich betätigt und raucht, tendenziell übergewichtig ist oder nicht. Die Klassifikatoren können aber auch generell dazu verwendet werden, um Bildmaterialien nach vorgegebenen und festen Regeln zu klassifizieren. Dies erfordert natürlich eine spezielle Bereitstellung der zu nutzenden Datensätze. Nachteile dieser Klassifikatoren sind die aufwändige Bereitstellung und die Vorverarbeitung der Daten. Wenn es sich um Klassifizierung und Erkennung von Objekten auf Bildern handelt, dann sind diese Klassifikatoren nicht mehr zu empfehlen und weichen aktuell den neuen Methoden aus dem Bereich Deep Learning.
4.3.4 k-Nearest Neighbors (k-NN)
k-Nearest Neighbors ist ein Klassifikations- oder Regressions-Algorithmus, der zur Klassifikation eines Datenpunktes durch mathematische Abstandsberechnung seine k-nächsten Datenpunkte berechnet. Hierbei handelt es sich um ein Verfahren aus dem Bereich Supervised Learning, welcher sich grundsätzlich durch zwei verschiedene Merkmale von anderen Lern-Algorithmen unterscheidet:
• Lazy Learning-Algorithmus: k-Nearest Neighbors wird auch als Lazy Learning-Algorithmus bezeichnet, da im Trainingsprozess das Datenset lediglich gespeichert wird, aber keinerlei Berechnungen durchgeführt werden.
• Nicht parametrisierte Algorithmen: Das Modell wird nur aus den vorhandenen Daten erstellt und es werden keinerlei Annahmen getroffen.
k-NN wird schon seit 1970 zur Mustererkennung und für statistische Schätzungen genutzt. So kann mit einem bestehenden Datensatz mit gelabelten Daten eine Vorhersage für einen neuen Datensatz getroffen werden. Wie bei anderen Klassifikationsalgorithmen hat jeder Eintrag des Datensatzes mehrere Eigenschaften (Features) und eine Klasse. Für ein einfacheres Verständnis siehe Abbildung 10:
Abbildung 10: Klassifizierung k-NN-Algorithmus
Alle Datensätze sind hier zum einfachen Verständnis in ein Koordinatensystem abgetragen. Insgesamt beläuft sich der Datensatz auf zehn Einträge, wobei jeweils fünf zu Klasse A und zu Klasse B gehören. Die Anzahl k muss vor der Ausführung des k-NN spezifiziert werden. In diesem Fall wurde k = 3 gewählt. Somit werden die drei nächsten Nachbarn betrachtet, um den Punkt, der als Stern dargestellt ist, vorherzusagen. In diesem Fall gehören die nächsten zwei Nachbarn des Stern-Punktes zu Klasse B und einer zu Klasse A und das vorherzusagende Objekt wird als Klasse B klassifiziert.
Die Trainingsphase besteht nur aus der Speicherung der Features und den entsprechenden Labeln. Während der Klassifikation wird anhand der k-nächsten Nachbarn die Klassifizierung des vorherzusagenden Objektes durchgeführt. Die Berechnung der nächsten Nachbarn erfolgt durch eine Distanzfunktion. Dies ist abhängig von der Wahl der kontinuierlichen oder numerischen Variablen. Eine mögliche Distanzfunktion ist beispielsweise die Euklidische-, Manhattan- oder die Hamming-Distanz. Der k-NN-Algorithmus ist folgendermaßen aufgebaut:
• Laden aller Daten
• Auswahl der Anzahl an k-nächsten Nachbarn
• Für jedes Element:
o Berechne die Distanz zwischen dem aktuellen und dem zu klassifizierenden Element
o Speichere die Distanz und den Index in einer geordneten Sammlung
• Sortiere alle Elemente in absteigender Reihenfolge in Abhängigkeit von der Distanz
• Entnimm die ersten k-Elemente
• Betrachte nur noch die Labels
o Falls Regression: Gib den Mittelwert der Labels zurück
o Falls Klassifizierung: Gib das am häufigsten vorkommende Label zurück Eine der Herausforderungen ist die richtige Wahl der Zahl für k. Die Daten sind in den meisten Fällen zunächst unbekannt. Ein Lösungsvorschlag ist, das Modell für mehrere k´s zu trainieren und manuell zu überprüfen, für welches k die besten Ergebnisse erzielt werden.
Um eine gute Genauigkeit der Vorhersagen zu erhalten, werden zwei Merkmale vorausgesetzt:
1. Die Daten liegen normalisiert vor. Die Features sollten beispielsweise nur zwischen 0 und 1 liegen. Somit ist eine gleichmäßige Gewichtung aller Features gewährleistet.
2. Die Menge an Features sollte angemessen klein sein. Bei einer hohen Anzahl an Dimensionen werden die Vektoren aufgrund der Distanzberechnung zu ähnlich mit dem zu klassifizierenden Vektor. Somit lassen sich keine genauen Aussagen über die Ähnlichkeiten bzw. Unterschiede treffen. Man spricht hier vom „Fluch der Dimensionalität“.
Ein möglicher Einsatzbereich von k-NN ist innerhalb von Empfehlungssystemen. Ein Empfehlungssystem, welches den meisten Nutzern geläufig ist, ist die Filmempfehlung von Netflix. Die Nutzerdaten bestehen aus gesehenen Filmen und den Bewertungen. Auf Basis gemochter Filme lassen sich ähnliche Filme vorschlagen, die dem Nutzer gefallen könnten.
Ein weiterer essenzieller Anwendungsfall spiegelt sich im Kontext der Kaufempfehlung, beispielsweise durch die Gruppierung von verschiedenen Kundengruppen, wider. Somit können einem potenziellen Käufer proaktiv ähnliche Produkte sowie Produkte, die auch von anderen Kundengruppen gekauft wurden, die an diesem Segment interessiert sind, beispielsweise einer speziellen Einkommensgruppe unterliegen oder spezielle Vorlieben für Güter haben, unterbreitet werden.
4.3.5 k-Means
Bei der Clusteranalyse handelt es sich um eine sinnvolle Zuordnung von einer gegebenen Menge an Objekten bzw. Daten zu einzelnen oder mehreren Clustern.
Beim Clustering wird die Eingabe in disjunkte Teilmengen klassifiziert (Cluster), so dass diese sich maximal ähnlich sind. Eine Methode zur Durchführung der Clusteranalyse ist beispielsweise der k-Means-Algorithmus. Diese Methode zählt zur Gruppe des unüberwachten Lernens. Das bedeutet, dass die Zielstruktur des auszuführenden Algorithmus nicht gegeben ist. Sprich, das Ergebnis der Klassifizierung ist am Anfang nicht klar und wird erst durch die Ausführung des Algorithmus bekannt. Dabei besteht die Hauptaufgabe des Algorithmus im Finden von neuen Mustern, die sich aus den Rückschlüssen von Daten erkennen lassen. Dabei klassifiziert der k-Mean-Algorithmus einen Datensatz in k-Cluster, sodass sich in jedem der k-Cluster ähnliche Daten befinden. Die Wahl des Parameters k, eine positive Zahl > 0, erfolgt durch den Anwender. Die Wahl, k = 1 zu setzen, entspricht natürlich nur der gesamten Datenmenge. Aus diesem Grund wird empfohlen, k > 1 zu nehmen.
Nach der Auswahl von k erfolgt das Clustering über mehrere Schritte, die teilweise iterativ ablaufen:
• Zufällige Bestimmung der k-Mittelpunkte
• Zuweisung neuer Elemente zum nächsten Mittelpunkt (geringster Abstand)
• Neue Berechnung der Mittelpunkte aller Cluster
Die letzten zwei Schritte werden iterativ so lange ausgeführt, bis sich die Zuordnungen der Datenelemente zu den Clustern nicht mehr ändern oder eine vorgegebene Anzahl an Iterationen erreicht wurde. Bei jeder Iteration werden die Abstände der Punkte innerhalb des gleichen Clusters minimiert und die Abstände zum nächsten Cluster maximiert. In den ersten Iterationen treten hierbei die größten Änderungen hinsichtlich der Distanz auf, diese werden nach jeder Iteration immer geringer.
Abbildung 11: k-Means-Iterationen
In Abbildung 11 wird die Funktionsweise des Algorithmus visualisiert. Vor Iteration 1 werden die Startpunkte (k1, k2 und k3) zufällig gesetzt. Nach jeder Iteration werden die vorhandenen Cluster evaluiert und die neuen Mittelpunkte berechnet. Nach Iteration 6 endet der Algorithmus für das gegebene Beispiel.
Eines der größten Probleme, die der k-Means-Algorithmus hat, ist die zufällige Auswahl der initialen Mittelpunkte. Je nachdem wie diese Punkte gesetzt werden, können sich im Resultat unterschiedliche Cluster bilden.
Abbildung 12: Setzen der Startpunkte
Wie in Abbildung 12 zu sehen ist, führt die Wahl der Mittelpunkte zu zwei verschiedenen Ergebnissen. Optisch lässt sich in diesem Fall leicht erkennen, dass das Ergebnis auf der linken Seite besser ist als das auf der rechten Seite.
Ein weiteres Problem stellt die Bestimmung der Anzahl an k-Clustern dar.
Wie bereits erwähnt, liegt zu Beginn keine Information über das Aussehen der Daten vor. Dadurch lässt sich nicht feststellen, wie hoch k gesetzt werden soll. Eine ungeeignete Menge an Clustern führt zur Verfälschung der Ergebnisse. Ein Lösungsvorschlag ist, mehrere Durchläufe mit unterschiedlichen Mengen an Clustern durchzuführen. Zudem sind Ausreißer in den Datensätzen problematisch, da sie das Ergebnis stark beeinflussen können. k-Means ist leider nicht in der Lage, Ausreißer zu erkennen. So wird zunächst ein Preprocessing-Schritt empfohlen, um diese zu finden und den Datensatz zu bereinigen.
Aufgrund vieler praxisnaher Herausforderungen werden innerhalb der k-Means-Familie zahlreiche Varianten des Algorithmus angeboten. Dazu gehören unter anderem K-means ++, K-mediods und Fuzzy C-means. k-Means findet in unterschiedlichen Bereichen Anwendung. So wurden in klassischen Ansätzen diese Methoden bereits in der Bildverarbeitung zur Segmentierung von Bilddaten eingesetzt. Weitere Anwendungsmöglichkeiten sind Analysen von Kundendaten. So können diese in homogenen Gruppen abgebildet werden, um Kaufaktivitäten der Kunden zu bestimmen.
Wann und wo kommt der Algorithmus zum Einsatz?
Diese Art von Algorithmus kommt immer dann zum Einsatz, wenn Daten nach verschiedenen Attributen und Dimensionen zusammengefasst werden müssen. Sogenannte Klassifizierungsverfahren können beispielsweise im Kontext von explorativer Datenanalyse gezielt angewendet werden. Wenn man als Data Scientist beispielsweise einen Datensatz vorliegen hat und man möchte sich einen Überblick verschaffen und Muster erkennen, die innerhalb dieses Datensatzes eventuell bestehen, dann eignet sich dieser Ansatz besonders gut. Somit kann der vorangegangenen Hypothese, dass es Gruppierungen innerhalb der Daten gibt, nachgegangen werden. Wenn es bspw. darum geht, verschiedene Gruppen von Kundendaten eines Online-Shops zu segmentieren, kommt der k-Means-Algorithmus zum Einsatz.
Wichtig bei der Anwendung von k-Means-Algorithmen im Kontext der Praxisanwendung ist, dass diese Art von Algorithmen oft zum Einsatz kommt, wenn sich ein Data Scientist in der explorativen Datenanalyse-Phase befindet. Dies stellt sicher, dass die Daten multidimensional anhand verschiedener Attribute zusammengefügt werden und wichtige fachliche Zusammenhänge zwischen den Daten erkannt werden können. Dies hilft, gestellte Hypothesen eines Data Scientist zu untermauern oder zu widerlegen. Zuletzt ist zu erwähnen, dass in praktischen Anwendungsfällen auch häufig sogenannte Scheinkorrelationen innerhalb von Daten gefunden werden.
Dies gilt es, mittels Fachexperten innerhalb eines Analyseprojektes final zu klären.
4.3.6 Artificial neural networks
Ein auf neuronalen Netzen basierender Algorithmus wurde bereits in den ersten Jahren der KI-Forschung entwickelt. Sie können sowohl für Unsupervised als auch für Supervised Learning-Ansätze verwendet werden. Allgemein sind Künstliche Neuronale Netze von den Prozessen und dem Aufbau des menschlichen Gehirns inspiriert.
Ein neuronales Netzwerk besteht aus verschiedenen Schichten, die jeweils aus künstlichen Neuronen bestehen, die mit allen künstlichen Neuronen in der vorhergehenden Schicht verbunden sind. Die sogenannte Eingabeschicht stellt die Eingabedaten dar, die immer aus numerischen Werten bestehen. Die Eingabeschicht kann sowohl strukturierte Daten, wie z.B. die Ausgabe eines Temperatursensors, als auch unstrukturierte Daten, wie z.B. die Pixel eines Bildes, verarbeiten. Je nachdem, welche Einheiten in den verborgenen Schichten aktiviert sind, liefert die Einheit der Ausgabeschicht eine Vorhersage. Im Falle der Bilderkennung könnte dies z.B. ein im Bild identifizierter Hund oder eine Katze sein. Dabei ist natürlich darauf zu achten, dass die Inputdaten in einem entsprechenden eindimensionalen Vektor vorbereitet wurden, sodass der Eingabe-Layer des Netzes die Daten auch verarbeiten kann.
Künstliche Neuronen stellen die Zellen jeder einzelnen Schicht dar. Sie verarbeiten die Eingabedaten und ermöglichen eine Vorhersage. Der Input des sogenannten Perceptrons sind entweder die Originaldaten aus der Eingangsschicht oder in einer tiefen Schicht von verknüpften Neuronen (siehe Deep Learning). Deep Neural Networks sind neuronale Netze mit mehr als einer nicht sichtbaren Schicht. Jeder Input wird durch ein spezifisches Gewicht angepasst. Der gewichtete Input wird dann entsprechend verarbeitet und aufsummiert. Ein Bias (feste Zahl) wird als Abstimmungsvariable hinzugefügt.
Der Ausgang der Zelle wird dann in der Aktivierungsfunktion verwendet, die den Eingang für die nächste Schicht darstellt.
Um das Netzwerk zu trainieren, werden die Gewichte nach dem Zufallsprinzip initialisiert. Anschließend werden die ersten Trainingsdatensätze in das neuronale Netz eingespeist. Das Ergebnis des Trainingsfalls wird dann mit dem tatsächlich gewünschten Ergebnis verglichen. Ein Algorithmus namens Backpropagation aktualisiert dann die Gewichte. Wenn jedoch viele
Neuronen übereinandergestapelt werden, wird es sehr schwierig, die Änderungen im Endergebnis des gesamten Netzwerks zu kontrollieren. Der wesentliche Schritt, um sicherzustellen, dass ein neuronales Netzwerk funktioniert, besteht darin, die Ausgangsänderung mit Hilfe einer kontinuierlichen Aktivierungsfunktion zu glätten und somit Feedback über die Trainingsschritte zu erhalten.
4.3.7 Convolutional neural networks
Convolutional Networks, auch bekannt als Convolutional Neural Networks oder CNNs, sind eine spezielle Art von neuronalen Netzen zur Verarbeitung von Daten, die einen gitterartigen Aufbau haben.67 Beispiele sind Daten zu Zeitreihen, die man sich als ein eindimensionales Gitter vorstellen kann, das in regelmäßigen Zeitintervallen Stichproben nimmt, und Bilddaten, die als ein zweidimensionales Pixelgitter verstanden werden können. Convolutional Networks haben sich in der praktischen Anwendung als sehr erfolgreich erwiesen. Der Name „Convolutional Neural Network“ deutet darauf hin, dass das Netzwerk eine mathematische Operation namens Convolution verwendet. Die Faltung ist eine spezielle Art von sogenannten linearen Operationen. Faltungsnetzwerke sind einfache neuronale Netzwerke, die in mindestens einer ihrer Schichten die Faltung anstelle der allgemeinen Matrixmultiplikation verwenden. Gewöhnlich entspricht die in einem neuronalen Faltungsnetz verwendete Operation nicht genau der Definition der Faltung, wie sie in anderen Anwendungen verwendet wird, z.B. in der Technik oder in der reinen Mathematik. Wir beschreiben mehrere Varianten der Faltungsfunktion, die in der Praxis für neuronale Netze weit verbreitet sind. Wir zeigen auch, wie die Faltung auf viele Arten von Daten angewendet werden kann, mit unterschiedlicher Anzahl der Dimensionen. Faltungsnetzwerke ragen als Beispiel für neurowissenschaftliche Prinzipien heraus und beeinflussen tiefes Lernen.
Die Forschung im Bereich der Architekturen von Convolutional Neural Networks schreitet sehr schnell voran, sodass nahezu monatlich bis wöchentlich neue Architekturen, die für einen bestimmten spezifischen Anwendungsfall besser geeignet sind, angekündigt werden. Dies wird anhand komplexer Benchmarks festgehalten.
Aus Sicht der Praxis werden diese Netzwerke häufig im Kontext der Bilderkennung eingesetzt. Aber auch im Kontext der Klassifizierung und Segmentierung von Objekten auf Bildern werden diese Netztypen speziell mit der Methodik Deep Learning verwendet. In Kapitel 6 werden einige Beispiele aus der Gesundheitsbranche genannt.
4.3.8 Recurrent neural networks
Reccurent Neural Networks (RNN) gehören zu den klassischen Künstlichen Neuronalen Netzwerken (KNN). Sie können für Supervised und Unsupervised Learning, aber auch für Reinforcement Learning eingesetzt werden.
Während Künstliche Neuronale Netzwerke ihre aktuellen Eingabedaten unter der Voraussetzung berücksichtigen, dass sie unabhängig von früheren Daten sind, sind RNNs in der Lage, frühere Daten zu berücksichtigen (Memory Effekt). Während die Neuronen eines Künstlichen Neuronalen Netzwerks nur die Eingänge aus früheren Schichten haben, hat das Neuron eines RNN Abhängigkeiten von seinen früheren Ausgängen, da diese Ausgänge Schleifen haben. Dies ermöglicht es dieser Art von Algorithmen, Sequenzvorhersageprobleme zu berücksichtigen, z.B. den Kontext von Wörtern oder zeitliche Aspekte.
Dies bedeutet auch, dass während der Trainingsphase die Reihenfolge der Eingabedaten eine wichtige Rolle spielt. In der Praxis erhalten RNNs eine Eingabe und berechnen ihren Zustand unter Verwendung aktueller und früherer Eingaben. Dies wird so lange wiederholt, bis alle gespeicherten früheren Zustände verarbeitet sind und der Output berechnet ist. Während des Trainings wird das erzielte Ergebnis dann mit dem tatsächlich korrekten Ergebnis verglichen. Die Gewichte des Netzes können dann aktualisiert werden. Der einzige Unterschied in Bezug auf übliche KNNs besteht darin, dass bei der Backpropagation alle gespeicherten früheren Zeitschritte berücksichtigt werden müssen.
Da es in der Realität nicht möglich ist, alle vorherigen Schritte in einem gemeinsamen RNN zu speichern, gehen mit der Zeit Informationen verloren. Um dieses Problem zu lösen, wurden verschiedene Architekturen entwickelt, wie bidirektionale RNNs oder LSTMs. Bidirektionale RNNs berücksichtigen nicht nur frühere, sondern auch zukünftige Elemente. Zu diesem Zweck verwenden sie zwei Neuronen, eines für die Vorwärts- und eines für die Rückwärtsschleife. Sie werden dann mit dem nächsten Vorwärtsneuron verbunden und umgekehrt.
LSTM-Netzwerke enthalten sogenannte gated cells, in denen Informationen gespeichert werden können. Während der Vorhersage entscheidet die Zelle, welche Informationen gespeichert, verwendet oder vergessen werden. Die Eingangs- und Ausgangsgates lassen die Information passieren oder blockieren sie entsprechend der trainierten Gewichte. Durch die Kombination des aktuellen Eingangs, des vorherigen Zustands und des Speichers der Zelle ist diese Architektur in der Lage, die langfristigen Abhängigkeiten in Datensätzen zu identifizieren.
5 Fallstudien und praktische Anwendungen von Künstlicher Intelligenz
KI hat schon heute eine breite Anwendung innerhalb verschiedener Branchen und Themengebiete. Bei der Durchsicht der praktischen Anwendungsfälle lassen sich jedoch Schwerpunkte erkennen. Dabei stehen vor allem stark automatisierte bzw. digitalisierte Branchen und Anwendungsfälle im Fokus.
Dies liegt letztlich daran, dass in einer digitalisierten Branche bereits zahlreiche Datentöpfe und auch Zugriffe auf digitale Prozesse gegeben sind. Nichtsdestotrotz bieten beispielsweise Bereiche wie die Gesundheitsbranche, Finanzbranche oder Versicherungsbranche und natürlich auch die industrielle Produktion etc. enorme Anwendungspotenziale für den Einsatz der KI.
In der Abbildung 13 werden verschiedenste Branchen und auch verschiedenste Anwendungsgebiete nach spezifischen Kriterien aufgeteilt. Dabei wird unterschieden zwischen verschiedenen Anwendungsfällen und experimentierwürdigen Problemstellungen sowie auch der Anwendung von dedizierten Prototypen.
Letztlich ist zu sagen, dass nach aktuellem Stand der Dinge schon heute viele Anwendungsfälle aktiv genutzt werden und etabliert sind.
Wenn man die aktuelle Anwendungslandschaft betrachtet und dies mit den potenziellen Möglichkeiten und Marktvolumen von Künstlicher Intelligenz vergleicht, befinden wir uns heute noch auf der Spitze des Eisberges.
Künftig werden mehr und mehr Branchen sowie viele weitere Anwendungsfälle zum Tragen kommen, die nicht nur einen evolutionären Charakter im Sinne einer Prozessverbesserung haben, sondern auch revolutionäre bzw. disruptive Anwendungsfälle ausgearbeitet werden, die letztlich dazu führen, dass sich teilweise komplette Geschäftsmodelle und Prozesse disruptiv verändern werden.
5.1 Künstliche Intelligenz im Kontext mit Smart Home
Innerhalb der Smart-Home-Domäne konnten in den letzten Jahren enorme Fortschritte in Bezug auf die Vernetzung von verschiedenen Geräten und Anwendungen erzielt werden. Während in den letzten Jahren der Einsatz von Software in dieser Branche primär dazu genutzt wurde, einen Kontrollmechanismus und Dashboarding in diesem Bereich zu betreiben, kann durch den Einsatz von KI nicht nur kontrolliert, sondern auch gezielt intelligent gesteuert werden. Dies führt letztlich dazu, dass die Smart-Home-Lösungen zu einem vollständigen Ökosystem ausgebaut werden konnten.
Basierend auf dem Konzept des Internet of Things bestehen diese Ökosysteme aus Hardware (z.B. intelligente Geräte, Sicherheitskontrolle Ausrüstung, Mobiliar), Softwaresystemen und cloudbasierten Plattformen.
Dieses Ökosystem integriert Spracherkennung, visuelle (Objekt-)Erkennung, vortrainierte neuronale Netze, Nutzerprofile etc., um aktiv die Bedürfnisse der Benutzer zu verstehen. Smart-Home-Anwendungen zielen primär auf die Interoperabilität der Geräte ab. Weiterhin sind diese eingesetzten Anwendungen und Geräte in der Lage, mittels KI selbst zu lernen. Durch die Sammlung und Analyse von Daten zum Nutzerverhalten können personalisierte Dienstleistungen zur Verfügung gestellt werden. Dies führt letztlich dazu, dass Häuser immer sicherer, komfortabler und energieeffizienter werden.
Gleichzeitig können solche Systeme auch die Effizienz von Haushaltsgeräten steuern, indem der Energieverbrauch optimiert wird, was letztlich zu einem nachhaltigen Wohnstil führt. Die Smart-Home-Industrie kann auch die Entwicklung des etablierten Haushaltsgerätemarktes und die kontinuierliche Entwicklung beflügeln und auch nachhaltig zur breiten Anwendung von KI beitragen.
Schon heute sind viele der wichtigsten Hersteller für Haushaltsgeräte aktiv in die Entwicklung intelligenter Smart-Home-Lösungen und die Integration dieser in bestehende Ökosysteme involviert. Ausgereifte Anwendungen umfassen intelligente Kühlschränke, intelligente Klimaanlagen, intelligente Waschmaschinen, intelligente Warmwasserbereiter, intelligente Küchengeräte, intelligente Lautsprecher und viele andere Geräte, die das Konzept „aller Dinge, die miteinander verbunden sind“ (Internet of Things), widerspiegeln. Weiterhin gibt es Produkte, die sogar verschiedene Häuser miteinander verbinden und gegenseitig Geräte kontrollieren und große Datenmengen für Vorhersage- und Analyseaufgaben sammeln. Dies dient dazu, dass nicht nur eine Optimierung aufgrund des Wissens aus einem Haushalt innerhalb einer KI eintrainiert werden kann, sondern auch dazu, dass die Daten eines Kollektivs genutzt werden können.
Die Bereiche Smart Home und KI passen aufgrund der befähigenden wechselseitigen Einflüsse optimal zueinander, was zu einer kontinuierlichen Weiterentwicklung führt. Aktuelle Fortschritte bei Machine Learning, Mustererkennung und der IoT-Technologie haben dazu geführt, dass die Interaktivität ein höheres Niveau erreicht hat und auch die Handlungsfähigkeit sowie die Benutzerfreundlichkeit enorm angestiegen sind. Dabei lässt sich vor allem die Sprachsteuerung als neue Nutzerschnittstelle zwischen Menschen und Maschinen erkennen. Die Interaktionen mit dem eigenen Haus können somit bequem über die eigene natürliche Sprache gesteuert werden. Egal ob es um die Lichtsteuerung in verschiedenen Räumen geht oder Bestellungen getätigt werden müssen, all diese Anwendungsfälle sind bereits heute ohne Probleme möglich. Somit wird es möglich, einige Haushaltsentscheidungen aktiv oder passiv zu unterstützen.
5.1.1 Intelligente Fernsehsteuerung
Die sogenannte Intelligente Fernsehsteuerung zielt darauf ab, intelligent, personalisiert und/oder energiesparend Fernsehdienste und Programme anzubieten. Vor allem Konzepte und Techniken der Gesichtserkennung kommen hier zum Einsatz, da diese in den letzten Jahren deutliche Verbesserungen erfahren haben und somit in diesem Kontext optimal funktionieren.
Im Vergleich zur Analyse von Fingerabdrücken bieten Methoden der Gesichtserkennung einen höheren Grad an Genauigkeit und die Algorithmen werden durch die multidimensionalen Merkmalsextraktionen weniger durch Umwelteinflüsse beeinflusst wie beispielsweise Licht und Lärm.
Ein intelligenter Fernseher kann somit durch die eingebaute Kamera Gesichtsbilder der einzelnen Familienmitglieder erfassen und durch die Interpretation von Mimik und Gestik entsprechende Vorschläge bzgl. des TV-Programmes unterbreiten. Das intelligente System kann dann z.B. auf einen bevorzugten Fernsehkanal umschalten, je nachdem welche Person sich vor dem Fernseher befindet und das Programm verfolgt. Weiterhin kann die Kontrolle der Eltern durch diese Methoden automatisch aktiviert und lediglich eine Auswahl von kindgerechten Fernsehprogrammen zur Verfügung gestellt werden.
Diese Systeme können in Abhängigkeit von der aktuellen Szene innerhalb des Programms die optimalen Betrachtungsperspektiven und Abstände berechnen, was zu einem deutlich besseren Fernseherlebnis und geringerer Ermüdung führt. Lautstärke, Helligkeit und Sättigung des Bildschirms können automatisch angepasst werden, um dem Betrachter folglich ein optimiertes Fernseherlebnis zu garantieren. Das System kann auch erkennen, ob der Betrachter eingeschlafen ist und anschließend Lautstärke, Helligkeit und Sättigung anpassen oder eine Sendung stoppen. Wenn niemand zuschaut, kann das System eine Anfrage stellen, und wenn keine Antwort eingeht, kann es sich automatisiert abschalten.
5.1.2 Intelligentes Badezimmer
Das Badezimmer ist eine private, interaktive und häufig genutzte Fläche eines jeden Haushaltes. Beispielsweise erfordert das Baden, dass die Bewohner die Temperatur des Warmwasserbereiters dynamisch an Umweltgegebenheiten und persönliche Befindlichkeiten anpassen können.
Gleichzeitig soll ein intelligentes Badezimmer dem Nutzer die Möglichkeit bieten, auch andere Tätigkeiten während des Badens wahrnehmen zu können. Dazu gehört beispielsweise durch die Integration von weiteren intelligenten Haushaltsdiensten, wie beispielsweise das intelligente und persönlich konfigurierbare Badezimmer, welches im chinesischen Markt bei Anwendern bereits getestet wurde, dass Informationen zum Alltag bspw. über Termine, Verkehrssituationen, aber auch Nachrichten angeboten werden.
Die Inhalte werden auf den jeweiligen Nutzer personalisiert und anhand der Daten, die der KI als Trainingsinput bereitgestellt wurden, spezifisch zugeschnitten. Weiterhin lässt sich das Badezimmer der Zukunft auch über Sprache und Gestik steuern, wie beispielsweise die Intensität und der Winkel des Duschstrahls sowie die Temperatur. Gleichzeitig kann der Anwender auch inhaltliche Empfehlungen bzgl. Beauty-Produkten bei stark ausgeprägten Hautverunreinigungen, die durch ein Kamerasystem mittels KI-Komponenten identifiziert werden können, bis hin zu Musik und Fitnesstipps anhand eines zugrundeliegenden Trainingsplans erlangen.
5.1.3 Intelligentes System zur Identifizierung von Lebensmitteln
Ein intelligentes System zur Erkennung von Lebensmittelzutaten beispielsweise innerhalb eines Kühlschranks wird primär mittels Methoden zur Objekterkennung und dafür geeigneten Kameras realisiert. Es benötigt lediglich eine hochauflösende Kamera zur Analyse der im Kühlschrank vorhandenen Zutaten und Lebensmittel.
Über die visuelle Inspektion und letztlich Identifizierung von Lebensmitteln kann ein integriertes Softwaresystem per One-Click-Shopping den Einkaufsprozess unterstützen und sogar automatisieren. Weiterhin kann die Einkaufsplanung bis hin zu speziellen Ernährungsplänen vollends automatisiert werden. Die vorhandenen Daten innerhalb einer Cloud sowie die Anwendung von KI-Verfahren sind hier die Voraussetzung.
Dies stellt natürlich mehrere Vorteile für einen Endanwender in den Vordergrund, darunter die Bequemlichkeit durch Automatisierung, aber auch die Echtzeit-Aufzeichnung von Nahrung und die Beratung über gesundes Essen und die Optimierung der Haushaltsausgaben. Die Echtzeit-Interaktion mit dem Kühlschrank kann mit Hilfe eines Smartphones gesteuert und kontrolliert werden. Der Benutzer kann den Bestand des Kühlschranks beurteilen und den Einkauf aus der Ferne von jedem Standort aus planen.
Weitere Vorteile sind Erinnerungen an Haltbarkeitsdaten von Lebensmitteln. Zur gleichen Zeit wird der tägliche Lebensmittelkonsum in einer Cloud-Datenbank aufgezeichnet und kann mittels Big-Data-Analyse ausgewertet werden, was zu potenziellen Einschätzungen der Essgewohnheiten und Ratschlägen bzgl. ausgewogener und gesünderer Ernährung genutzt werden kann. Basierend auf Ernährungsgewohnheiten, saisonalen Angeboten und Präferenzen kann das System auch personalisierte Rezepte für eine gesunde Ernährung unterbreiten.
5.2 Künstliche Intelligenz zur intelligenten Fabriksteuerung
Intelligente Fertigung ist grundlegend für die Integration von IoT-Szenarien, welche zunehmend wichtiger werden. Im Zuge der Automatisierung sind durchwegs alle Fertigungsaktivitäten betroffen: Design, Produktion, Verwaltung und Service. Eine intelligente Fabrik ist eine vernetzte Fabrik, in der Daten aus Lieferketten, Konstruktionsteams, Produktionslinien und die Qualitätskontrolle integriert in einer intelligenten Plattform zusammenlaufen und somit neue Wege zur Produktion bis hin zur Neudefinition zukünftiger Produktionslinien ebnen.
Mit dem wachsenden Bedarf an Flexibilität, um einem vielfältigen Spektrum verschiedener Produktionsbereiche gerecht zu werden, muss sich das produzierende Gewerbe eingehend mit Automatisierung und dabei speziell mit Machine Learning und KI auseinandersetzen und die Herausforderungen fokussiert annehmen.
Durch maschinelles Lernen haben Systeme die Fähigkeit, aus Erfahrungen (welche implizit in den Daten vorhanden sind) zu lernen mit dem Ergebnis, dass sie sich ständig verbessern (siehe Reinforcement Learning). Dies ermöglicht, die Fertigung schneller, flexibler und spezifisch skalierbar durch die Bereitstellung von Vorhersagen zu verwalten. Dies reicht von der Anlageneffektivität bis hin zur Auswahl optimaler Lieferanten und Preisfindung. Weiterhin lässt sich durch den Einsatz von selbstlernenden Systemen auch langfristig der Mangel an Fachkräften kompensieren, da die wenigen vorhandenen Ressourcen bei der Betreuung der Prozesse kontinuierlich ihre Erfahrungswerte in die Prozesse einfließen lassen. Durch die Nutzung der Instanzdaten der Prozesse lassen sich somit langfristig Verbesserungen erzielen.
Ein weiterer Vorteil des Einsatzes von KI in der industriellen Fertigung ist die Unterstützung von Wirtschaftswachstum, wobei KI zur Verwaltung von Kapitaleffizienz, einschließlich Arbeitsanforderungen und Maschinenzeitplänen zur Realisierung von On-Demand-Produktion, Verbesserung der Betriebseffizienz, Verkürzung der Produktzyklen, Verbesserung der Produktionskapazität, Reduzierung von Ausfallzeiten und letztendlich Kosteneinsparungen zum Einsatz kommt.
5.2.1 Predictive Maintenance
Traditionelle Fertigungslinien haben möglicherweise Probleme bei der Qualitätssicherung durch die Produktion von Teilen, die letztlich durch aufgeschobene Wartungsintervalle im Ausschuss landen. Der Einsatz von KI in diesem Bereich soll im weitesten Sinne umfassend Abhilfe schaffen. Durch die in Echtzeit gesammelten Betriebsdaten einer Fertigungsstraße und der entsprechend verwendeten Maschinen und Werkzeugen können Algorithmen der KI eine vorausschauende Instandhaltung durch die Identifikation von Fehlersignalen und Anomalien in Echtzeit erkennen und somit Maßnahmen zur Prävention einleiten.
Aufgrund von in Echtzeit gesammelten Betriebsdaten der Ausrüstung kann Predictive Maintenance Fehler identifizieren und so zur Früherkennung von potenziellen Produktionsfehlern eingesetzt werden.
Letztendlich würde dies zur Reduzierung von Wartungszeiten und Ausrüstungskosten, Verbesserung der Nutzung der Ausrüstung und Vermeidung von Verlusten durch Geräteausfälle führen. Die Vorhersage von Fehlern und Fehlerlokalisierung und -diagnosen sind zwei wichtige Mechanismen für die vorausschauende Instandhaltung.
Die wichtigsten Key Performance Indicators (KPIs) eines Geräts oder Netzwerks in einer Fabrik weisen in der Regel auf einen allmählichen Trend zur Verschlechterung dieser Prozesse hin. Mit jeglicher Hardware oder Dienstleistung, die versagt, geht in der Regel ein instabiler oder verschlechterter Betriebszustand einher. Die Verarbeitung nach einem Fehler betrifft nicht nur die Diensterfahrung, sondern nimmt auch viel Zeit in Anspruch, um die Fehlerbehebung wieder vollumfänglich abzufangen.
Fehlerlokalisierung und Diagnose
Wenn ein Gerät oder eine Maschine innerhalb eines Werkes als defekt gekennzeichnet oder falsch bzw. unsachgemäß betrieben wurde, kann dies zu einer Ausbreitung des Fehlers führen und weitere kausal zusammenhängende Fehler verursachen.
Nach der Störung eines Arbeitsgerätes oder Dienstes, die in einer Fabrik aufgetreten ist, werden die Netzwerkleistung und Statusdaten, wie z.B. Protokoll, Alarm, KPI oder Konfigurationen, zentral gesammelt und ausgewertet.
Dann wird eine umfassende Korrelationsanalyse durchgeführt und Aussagen über verschiedene Metriken und Parameter getätigt, um ein Fehlverhalten entsprechend eingrenzen zu können und letztlich die Ursache des Fehlers zu identifizieren.
Es gibt zwei grobe Ausrichtungen einer Korrelationsanalyse für Fehlerlokalisierung und Diagnosen:
• In horizontaler Richtung, gemäß der Netzwerkdienst-Topologie, werden die Metriken aller Geräte auf einem Produktionspfad entsprechend zusammengesetzt, um die zugehörige Fertigungslinienanalyse mittels geeigneter Methoden durchführen zu können.
• In vertikaler Richtung müssen die verschiedenen physikalischen Parameter von Maschinen einer Fertigungslinie analysiert werden, um im Gesamtkontext der Fertigungslinienanalyse eingeordnet und ins Verhältnis gesetzt werden zu können. Somit lassen sich Ausreißer innerhalb der Linien einfach identifizieren.
5.2.2 Kollaborative Roboter
Ein weiterer Anwendungsfall für KI ergibt sich aus der Entwicklung von kollaborativen Robotern, auch Cobots genannt.75 Cobots sind Industrieroboter, die in der Lage sind, Zusammenarbeit mit Menschen innerhalb der Produktionsprozesse ohne jegliche Schutzvorrichtungen „Hand in Hand“ zu ermöglichen. Das einzigartige Merkmal dieser Roboter ist, dass sie direkt mit Menschen interagieren und letztlich sensitiv und intelligent auf Berührungen etc. reagieren können.
Es gibt eine wichtige Voraussetzung für diese Art von Zusammenarbeit zwischen Mensch und Roboter. Es muss zu jeder Zeit sichergestellt werden, dass der Roboter keine Verletzungen an Menschen verursacht. Sprich, die Genauigkeit dieser Systeme und die Fehlertoleranz müssen exakt geprüft werden.
Dies ist für kleine, leichtgewichtige Roboter oft kein Problem. Je schwerer die Arbeit für den Roboter aber ist, desto größer muss dieser auch ausgestaltet werden. Dies führt natürlich gleichzeitig dazu, dass der Roboter auch genauer arbeiten muss und kein Fehlverhalten zulassen darf. Zum Beispiel können Roboter, die schwere Gussteile heben, aufgrund ihrer Größe und ihres Gewichtes erhebliche Schäden am menschlichen Körper verursachen.
Um dieses Risikopotential zu minimieren, sind auch konventionelle Schutzvorrichtungen über Sensoren nicht ausreichend. In diesem Zusammenhang bringt der Einsatz von KI verschiedene weitere Optionen zur Sicherung der Mensch-Roboter-Interaktion. Techniken wie die intelligente Erkennung von Gestik und die Antizipation von Bewegungsabsichten können zur Anpassung des Bewegungsverhaltens eines Roboters verwendet werden.
Die Zusammenfügung von Kamerabildern und Radargeräten sowie die Auswertung zusätzlicher Sensorik hilft z.B. dabei, dass sich der Roboter seiner Umgebung dynamisch anpassen kann. Das Ziel ist nicht nur, dass die Roboter auf ihre Umwelt intelligent reagieren, sondern auch faktisch darauf ausgelegt sind, präventiv und aktiv Unfälle zu verhindern.
Diese Fusion von Sensordaten kann ebenfalls dazu verwendet werden, um verschiedene Bewegungen und Abläufe zu klassifizieren. Somit kann der Bewegungsablauf dazu genutzt werden, um zu antizipieren, welcher Arbeitsschritt als nächster ausgeführt wird und wann genau dies der Fall ist. Somit lassen sich abseits der Unfallprävention weitere Potenziale zur Effizienzsteigerung nutzen.
Kritisch an den eingesetzten kollaborativen Robotern ist, dass diese besonders komplex ausgestaltet und gebaut werden müssen und dass die Sicherheitsrichtlinien enorm hoch sind, was letztlich oft dazu führt, dass diese in Wirtschaftlichkeitsbetrachtungen nicht gut abschneiden.
5.2.3 Qualitätskontrolle
Die Erkennung von Defekten, wie z.B. Oberflächenfehlern und Kantenschäden von Produkten, wird traditionell durch menschliche Inspektion durchgeführt.
Klassischerweise führt dies häufig zu einer hohen Fehlerquote aufgrund von Ermüdung und hohen Arbeitsanforderungen, insbesondere in der Zerspanungs-Industrie, der Haushaltsgeräteindustrie oder der Textilindustrie.
Intelligente Echtzeit-Erkennungstechniken sind auf Sensoren zur Erfassung von Produktbildern, die auf Basis von Convolutional Neural Networks Big Data & Künstliche Intelligenz aufgebaut sind, zurückzuführen. Somit kann eine automatisierte Qualitätskontrolle die Fehlerquote in Anwendungen, wie etwa im Bereich der Chipherstellung, effizient erkennen. Gleichzeitig wird durch die Analyse der Ursachen, warum welche Produkte fehlerhaft sind, die Rücksendequote von Produkten deutlich verringert werden. Weiterhin können auch bei häufig auftretenden Problemen Rückschlüsse auf Verbesserungen im Produktdesign und allgemein im Herstellungsprozess gezogen werden. Dies wirkt sich letztlich positiv auf die Kosten aus.
5.2.4 Herausforderungen im Bereich der intelligenten Fertigung
Die Unterstützung von KI innerhalb der industriellen Fertigung bringt eine Reihe von Herausforderungen mit sich, insbesondere beim produktiven Einsatz der KI-bezogenen Technologien. Als eines der Hauptanliegen lässt sich zusammenfassen, dass der Mensch immer die Entscheidungen innerhalb eines Produktionsprozesses treffen muss und die Kommandos geben sollte. Es muss immer sichergestellt sein, dass ein Mensch jederzeit die Kontrolle über die produzierenden Maschinen übernehmen kann.
Die größte Herausforderung bei der Verwendung von KI für kollaborative Roboter ist die Robustheit der Datenerfassung und Algorithmen. Es muss immer sichergestellt sein, dass sie sich wie geplant verhalten. Eine Abweichung kann für einen Menschen im schlimmsten Fall tödlich enden. Dies ist nach wie vor eine große Herausforderung, insbesondere bei neuronalen Netzen, die auch unerwartete Ergebnisse berechnen können oder falsch auf unvorhergesehene bzw. Schwankungen der Inputdaten reagieren.
Dieses Problem tritt z.B. auf, wenn das neuronale Netz während der Anwendung mathematisch gesehen auf ein lokales Minimum fällt. Dies führt zu einem Fehlverhalten des Netzes und kann nicht beeinflusst werden.
Während die Entwicklung von KI und Robotik die industrielle Wettbewerbsfähigkeit erhöht, was in diesem Gebiet entsprechend zu neuen Arbeitsplätzen führt, besteht ein erhebliches Risiko, dass Arbeit, die derzeit von Menschen durchgeführt wird, zunehmend von Robotern übernommen wird.
Angesichts der sich verändernden Dynamik der Arbeitsmärkte werden die Bildung und Ausbildung (einschließlich Berufsausbildung), das lebenslange Lernen sowie Aus- und Weiterbildung und Umschulungen an konkreten Arbeitsplätzen wichtiger denn je. Neue Fähigkeiten und Kompetenzen werden künftig notwendig sein, um mit dem verstärkten Einsatz von Robotern und der Automatisierung Schritt halten zu können.
Weitere Herausforderungen in der intelligenten Fertigung sind die Verfügbarkeit großer Mengen hochwertiger Daten zum Trainieren von KI-Algorithmen sowie die Notwendigkeit, diese Daten in aussagekräftige Informationen zu strukturieren und vortrainierte Domänenmodelle anbieten zu können und diese langfristig zu etablieren.
5.3 Künstliche Intelligenz zur intelligenten Verkehrs- und Fahrzeugsteuerung
Intelligente Verkehrsmittel haben eine hohe Relevanz und ein sehr großes Marktpotential. Egal ob im Kontext von Privatfahrzeugen, der Nutzung von öffentlichen Verkehrsmitteln oder auch im Bereich der Logistik, der Einsatz von KI wird zunehmend wichtiger.
Der dramatische Anstieg der Anzahl von Fahrzeugen, insbesondere in Großstädten, Dienstleistungen wie Verkehrsmanagement und Staukontrolle sowie die Zunahme selbstfahrender Fahrzeuge fordern den Einsatz von Methoden der KI wie z.B. Bild-Analyse, Routenoptimierung und Objekterkennung.
Die von KI angebotenen Methoden und Lösungen werden hierbei in Kombination mit Smartphones oder sonstigen Edge-Devices, wie dem Auto selbst, aus der Cloud bezogen und genutzt.
5.3.1 Autonomes Fahren
Ein selbstfahrendes Auto, auch als fahrerloses Auto bekannt, ist ein Fahrzeug, das ein intelligentes Computersystem verwendet, um ohne menschlichen Einfluss und menschliches Einschreiten zu fahren. Solche Fahrzeuge verfügen über intelligente Navigationstechnologie, Computer-Vision-Methoden und GPS-Systeme, um durch die Kombination dieser Ansätze ein solches autonomes Agieren überhaupt erst möglich zu machen.
Selbstfahrende Fahrzeuge entwickeln sich rasch, mit Branchengiganten und Start-ups, die in den Startlöchern stehen, wird an der Weiterentwicklung und Freigabe autonomer Fahrzeuge gearbeitet.
Fünf Stufen der Fahrzeugautomatisierung sind durch die Verkehrssicherheitsbehörde (NHTSA) definiert:
• Nichtautomatisierung (Stufe 0). Der Fahrer hat die vollständige Kontrolle zu jedem Zeitpunkt der Fahrt.
• Funktionsspezifische Automatisierung (Stufe 1). Automatisierung einer oder mehrerer spezifischer Funktionen, bspw. Tempomat.
• Kombinierte Funktionsautomatisierung (Stufe 2). Automatisierung von mindestens zwei Primärsteuerungsfunktionen, die auf Zusammenarbeit ausgelegt sind.
• Begrenzte selbstfahrende Automatisierung (Stufe 3). Der Fahrer kann unter bestimmten Bedingungen die volle Kontrolle über alle sicherheitskritischen Funktionen temporär abtreten. Das Fahrzeug überwacht die Bedingungen.
• Vollständig selbstfahrende Automatisierung (Stufe 4). Das Fahrzeug ist entwickelt, um alle sicherheitskritischen Fahrten durchzuführen.
Es liegt auf der Hand, dass der Grad der Automatisierung umso höher ist, je mehr Verantwortlichkeiten des Fahrens an die Fahrzeuge abgetreten werden. Dies impliziert, dass KI-Technologien sowohl innerhalb der Fahrzeuge als auch in der Cloud erforderlich sein müssen und zentral gesteuert werden sollten:
• Übernahme der Kontrolle über das Fahrzeug. Dazu gehören Anfahren, Bremsen, Wenden und andere Autopilot-Fähigkeiten ohne die Intervention von Menschen (Entlastung der Fahrer oder eingreifen, wenn der Mensch nicht in der Lage ist).
• Feststellung von Fahrerstatus, Fahrzeugzustand, Zustand von Straßen und Umgebung (z.B. Fußgänger, Tiere, Hindernisse). Die Identifizierung und Analyse der Umgebung und von Objekten erfordert den umfangreichen Einsatz von Machine Learning-Methoden. Darüber hinaus erfordert die Analyse aus Berechnungssicht eine sehr niedrige Latenzzeit. Traditionelle CPUs sind nicht in der Lage, die erforderliche Rechenleistung zur Effizienz für die KI-Algorithmen bereitzustellen. Für das effiziente Trainieren der Modelle ist eine dedizierte Beschleunigung erforderlich (sowohl innerhalb der Fahrzeuge als auch in der Cloud).
5.3.2 Verkehrsmanagement
Verkehrsmanagement spielt eine wesentliche Rolle bei Szenarien des intelligenten Transportmanagements. Mit dem ständigen weltweiten Anstieg von Bevölkerungszahlen und Fahrzeugen sind die Verkehrsgegebenheiten in Ballungsgebieten zunehmend angespannt und stellen eine enorme Herausforderung für Regierungen, Polizeikräfte sowie Automobilhersteller dar.
Nach einem Bericht von The Economist sind verkehrsbedingte Ausgaben die nur durch Staus verursacht werden, in Frankreich, Deutschland, dem Vereinigten Königreich und den Vereinigten Staaten im Jahr 2013 bereits auf 200 Milliarden USD (0,8% des BIP) angestiegen.77 Daher sind die Optimierung des Verkehrsflusses, die Reduzierung von Staus und die Minimierung der Emissionen von Fahrzeugen wesentliche Faktoren zur Steigerung von Lebensqualität und Umweltschutz.
Daher müssen die Möglichkeiten der KI genutzt werden, um diese Problemstellungen effizient zu lösen. Beispiele für Anwendungen von KI sind:
• Verkehrsflussanalyse: Durch Einsatz von maschinellem Lernen und Data Mining von Echtzeit-Verkehrsdaten (z.B. über Fahrzeuge, Fußgänger, Staus, Unfälle) in mehreren Straßen oder in einem größeren Gebiet können Verkehrssituationen analysiert und verbessert werden. Weiterhin können so Routenoptimierungen, Verkehrssteuerung zur Vermeidung von Staus und Reduzierung der Emissionen erreicht werden.
• Optimierung der Ampelanlagen: Statt einer statischen Bestimmung der Ampelschaltung können KI-Algorithmen angewendet werden, um sensitiv auf aktuelle Verkehrsgegebenheiten zu reagieren und um eine effiziente dynamische Ampelschaltung zur Optimierung des Verkehrsflusses von Fahrzeugen und Fußgängern zu realisieren.
• Automatische Prüfung von Verletzungen der Verkehrsregeln und Vorschriften: Diese Aufgaben umfassen traditionell intensive menschliche Arbeit. Selbst mit KI-Algorithmen in Bild- und Videoverarbeitung kommt es aufgrund fehlender Ressourcen immer noch zu Engpässen. Doch durch den Einsatz von leistungsstarken Verarbeitungsplattformen zur Beschleunigung der KI-Methoden zur Analyse von Videos und Bilder in Echtzeit können diese Probleme gelöst werden. Somit kann eine effiziente Gewährleistung des Einhaltens von Regeln ermöglicht werden.
5.3.3 Herausforderungen im Bereich Smart Transportation
Sicherheit, Schutz und Privatsphäre sind einige der Hauptanliegen der Nutzer für den Bereich Smart Transportation. Mit den in jedem Fahrzeug eingebauten Sensoren und der Implementierung fortschrittlicher KI-Technologien für selbstfahrende Fahrzeuge wird das Transportieren von Menschen vollends in die Hände von Computern gegeben. Dabei generieren autonome Fahrzeuge statistisch sogar weniger Unfälle als Fahrzeuge, die durch Menschen gesteuert werden. Somit können Fragen der Sicherheit und des Schutzes der Privatsphäre eingehend diskutiert werden.
Richtlinien, Gesetze, Vorschriften und Normen in Bezug auf intelligente Verkehrsmittel sind eine weitere wichtige Herausforderung, die es zu bewältigen gilt. Normen können sich auf die Technologie beziehen sowie auf die Implementierungen von Smart-Transportation-Anwendungsfällen, die für die Gewährleistung einer sicheren Übertragung, Speicherung und Verarbeitung der gesammelten Daten Garantie übernehmen. Vorschriften oder Gesetze können sich in diesem Kontext durch die Verwendung von KI z.B. durch Autohersteller oder Dienstleistungsanbieter realisieren lassen.
Eine weitere Herausforderung ist die Verfügbarkeit von heterogenen Plattformen, die Rechenleistung zur Bewältigung der KI-Arbeitslasten auf Cloud, Edge und Endgeräten zur Verfügung stellen. Wichtig ist dabei vor allem:
1) Integration einer zunehmenden Datenmenge generiert durch Fahrzeuge, Fußgänger und Infrastruktur, und müssen in der Lage sein, diese Daten zu übertragen, zu speichern und effizient zu analysieren.
2) Müssen in der Lage sein, KI-Workloads auszuführen (z.B. Training von Modellen) und die Anwendung der KI-Modelle zur Echtzeit-Entscheidungsfindung für das Verkehrsmanagement in Bezug auf autonomes Fahren zu realisieren.
Auf der einen Seite müssen Plattformarchitekturen verbessert oder erneuert werden, um den Rückstand gegenüber der Entwicklung von KI-Arbeitslasten und -Algorithmen abzufangen. Auf der anderen Seite muss die Leistung ständig verbessert werden, um den steigenden Anforderungen der Benutzer und von Anwendungen (z.B. Latenzzeit, Datenvolumen, Konnektivität) gerecht zu werden. Darüber hinaus müssen Plattformen auch skalierbar sein, um neue Komponenten oder Funktionen fortlaufend integrieren zu können.
5.4 Künstliche Intelligenz im Bereich Smart Energy
Der Energiesektor kann kategorisch als Markt zur Herstellung von primärer Energie (z.B. Öl, Gas, Kohle) und Sekundärenergie (z.B. Elektrizität) bezeichnet werden. Wie bereits erwähnt, sind die Erschöpfung der natürlichen Ressourcen und die Auswirkungen durch den Klimawandel nicht mehr wegzudenken und seit Jahrzehnten ein immer größer werdendes Problem. Um diesen Problemen zu begegnen, müssen sich die Länder der Welt auf die Optimierung der Energieversorgung konzentrieren.
Der Zweck von Smart Energie ist nicht nur die Steigerung der Effizient bei Energieerzeugung, -übertragung und -verbrauch, sondern auch, ein effizientes Energiemanagement zu ermöglichen. Die bisherigen Schwerpunkte lagen auf der Reduzierung der Energieverluste. KI hilft auch in diesem Bereich enorm weiter, um diese Wertschöpfung ganzheitlich zu verbessern. Beispielsweise kann eine Verbesserung der Vorhersage der Nachfrage von Energie erzielt werden, sodass unnötige Überproduktionen vermieden werden können.
Darüber hinaus werden durch die Analyse der gesammelten Informationen über Kommunikationstechnologien Optimierungen von Energieeinsparungen auf ein bisher nie dagewesenes Niveau gehoben.
5.4.1 Netzverwaltung
Ein intelligentes Stromnetz ist ein System, welches die Effizienz in der Energieproduktion verbessert, Übertragung und Verbrauch durch Aktivierung, Interaktionen zwischen Anbietern und Verbrauchern durch den Einsatz von KI verbessert. Während traditionell Strom in einer Einbahnstraße über ein Stromnetz vom Großkraftwerk bis zum Endkunden geliefert wird, ermöglicht ein Smart Grid einen bidirektionalen Stromfluss. Mit anderen Worten, der Endverbraucher ist nicht nur ein Verbraucher von externer Elektrizität, sondern auch ein Lieferant, der Strom ans Großnetz liefern kann, wenn es einen lokalen Überschuss gibt.
KI-Technologie kann eingesetzt werden, um in Echtzeit die Überwachung, den Betrieb und die Wartung der Stromversorgungsausrüstung innerhalb des intelligenten Netzes zu realisieren. Weiterhin ist es möglich, durch die bereitgestellten Methoden eine Fehlerdiagnose und Maßnahmen zur Behebung zu etablieren. Somit kann die Betriebsstabilität dieser kritischen Infrastruktur und letztlich die Erzeugungseffizienz von Energie sichergestellt bzw. gesteigert werden. Maschinelles Lernen ermöglicht es, kleinere Musteränderungen bei verschiedenen Operationen zu identifizieren und Bedingungen für die Umsetzung wirksamer Predictive Maintenance Maßnahmen zu eruieren.
Durch die Nutzung von leistungsstarken Prognosefunktionen des maschinellen Lernens konnten Dienstleiser und weltweit agierende, große Unternehmen ihre Energieinfrastruktur teilweise deutlich verbessern - in der Regel um 10% bis 15%. Künstliche Intelligenz hilft weiterhin dabei, Vorhersagen mit hoher Genauigkeit bei Nachfragespitzen in der Stromversorgung zu minimieren. Dies schlägt sich letztlich auch im Preis für den Endkunden nieder.
5.4.2 Consumer und Dienstleistungen
Smart Grids sind typischerweise mit verteilter fortschrittlicher Mess-Infrastruktur und intelligenten Zählern ausgestattet, die eine bidirektionale Kommunikation zwischen Produzenten und Konsumenten von Energie unterstützen. Webportale werden verwendet, um energiebezogene Daten anzuzeigen sowie Muster zu analysieren und zu visualisieren, die Verbrauchsgewohnheiten und Vorschläge zur Anpassung des Verhaltens generieren. Weiterhin können auch Informationen in Bezug auf Produktions- und Verbraucherpreise anhand verschiedener KI-Algorithmen effizient und zielgerichtet angeboten werden. Fortgeschrittene Plattformen von großen industriellen Verbrauchern ermöglichen, durch den KI-gestützten Handel mit Elektrizität flexibel auf Lastspitzen zu reagieren und die Kosten gemäß den spezifischen Geschäftsanforderungen anzupassen.
5.4.3 Herausforderungen im Bereich Smart Energy
Wie durch einige Anwendungsfälle veranschaulicht, können KI-Technologien für verschiedene Anwendungen und Dienste im Energiesektor wesentliche Verbesserungen bieten.
Angesichts des Umfangs und der Langlebigkeit von Energieinfrastrukturen ist die Einführung von neuen Methoden und Infrastrukturkomponenten oft langsam und kompliziert sowie letztlich auch sehr kostspielig. Das Erreichen einer angemessenen Rendite auf Investitionen nimmt normalerweise viel mehr Zeit in Anspruch als in anderen, sich schneller entwickelnden Branchen. Wichtig dabei ist auch im Speziellen eine wirkungsvolle und effiziente Zusammenarbeit zwischen dem öffentlichen und dem privaten Sektor.
In vielen Fällen kommt der Handhabung und Auswertung von Daten eine essentielle und wichtige Rolle zu. Denn solche Daten unterliegen entsprechenden Datenschutzbestimmungen und müssen besonders geschützt werden, da die Stromverbrauchs- und Musteranalyse dazu verwendet werden kann, um festzustellen, wann eine Person zu Hause ist und was diese dort tut.
Fortgeschrittene Analysen könnten zusätzlich verwendet werden, um zu bestimmen, welche Person im Haushalt anwesend ist ‒ auf der Basis von Vorhersagen des Energieverbrauchsverhaltens, auch wenn es nicht ausdrücklich angegeben wurde, geschweige denn von der Person gewünscht ist. Dieser besondere Datenschutz stellt Versorgungsunternehmen vor große Herausforderungen.
6 Künstliche Intelligenz in der Gesundheitsbranche
6.1 Wie Künstliche Intelligenz den Gesundheitsbereich revolutioniert
Gerade im Kontext des Gesundheitsmanagements gibt es zahlreiche Anwendungs- und Verbesserungspotenziale für bzw. durch KI. Zum einen lassen sich verschiedene Prozesse, die teilweise schon in digitaler Form etabliert sind, im Gesundheitsmanagement durch KI weiter automatisieren. Gerade aber jedoch im Kontext der fachlichen Analyse, die meist durch Fachpersonal, in diesem Fall von Fachmedizinern, durchgeführt werden muss, können KI-Anwendungen einen enormen Mehrwert bringen. Wenn wir beispielsweise die Radiologie betrachten, stellen wir schnell fest, dass die Analyse von Röntgenbildern, die primär durch Radiologen manuell durchgeführt werden muss, schon heute sehr gut mittels Computer Vision-Methoden aus dem Bereich KI durchgeführt werden kann.
Diesbezüglich ist festzuhalten, dass beispielsweise große Datenmengen trainiert werden, indem diese Daten von Experten gelabled werden, sprich zum Training vorbereitet und annotiert werden. Das bedeutet: Die Ergebnisse einer Analyse durch eine KI beinhalten immer mehrere Meinungen von diesen Fachexperten, die im Trainingsprozess konsultiert wurden. Somit kann nicht nur Effizienzsteigerung gewonnen, sondern auch die Ergebnisse signifikant verbessert und Fehlentscheidungen vorgebeugt werden. Wenn man sich an einem Beispiel orientieren möchte, dass etwa das Analysieren von Radiologie-Bildern durch einen Radiologen oder die Identifikation von beispielsweise Krebsgeschwüren auf einem Röntgenbild durchgeführt wird und 5.000 Radiologen etwa Testdaten vorbereiten, kann somit sichergestellt werden, dass die 5.000 Radiologen ihre fachliche Meinung in die Testdatensätze einfließen lassen. So ist immer gewährleistet, dass die KI zusammengesetzt-kollektiv agiert und eine fachlich bessere Aussage treffen kann als ein einziger Radiologe.
6.2 Mehrwerte durch Künstliche Intelligenz
KI bietet immer an jenen Stellen einen Mehrwert, wo kognitive Fähigkeiten eines Menschen zum Einsatz kommen. Dabei ist es aus methodischer Sicht der KI egal, ob es sich um einen bereits voll digitalisierten Prozess oder eine voll digitalisierte Anwendung handelt oder ob der Transfer von manuellen Informationen in digitale Informationen erfolgen muss. Weiterhin ist es vor allem in der Gesundheitsbranche essenziell, dass bestehende Befunde oder auch bestehende Diagnosen gegen eine sehr große Wissensdatenbank gegengecheckt werden müssen. Dabei kommt der Mensch kognitiv oft an seine Grenzen. Während sich in der Vergangenheit ein Facharzt dadurch auszeichnete, dass er bereits möglichst viele Aspekte und möglichst viele Diagnosen zu einer speziellen Krankheit erstellt hat, müssen diese großen Datenmengen heutzutage entsprechend aufbereitet und auch gelesen werden können.
Dies führt dazu, dass Fachärzte immer mehr auf die technologischen Helfer der KI zurückgreifen. Ein wichtiges Beispiel ist hier die Analyse von Bildinformationen und auch Textinformationen aus sogenannten Wissensdatenbanken. Wenn man sich vorstellt, dass ein Facharzt in der Vergangenheit nur so gut war wie seine vorherigen Bücher und Diagnosen, die er bereits gestellt hat, musste er über die Jahrzehnte seiner Berufspraxis ein entsprechendes System für sich selbst entwickeln, wie er diese Daten aus der Vergangenheit effizient abrufen konnte ‒ ohne eine digitale Komponente scheinbar unmöglich. Heute ist es viel einfacher, auch übergreifend Informationen durch die Verwendung von KI anzuwenden. Am Beispiel von geteilten Wissensdatenbanken und verteilt trainierten Netzwerken können somit Diagnosen und Meinungen von verschiedenen Fachärzten zu einer speziellen Diagnose zusammengetragen und nutzbar gemacht werden. Dies ist ein essenzieller Vorteil gegenüber einer einzelnen Betrachtung einer Diagnose durch einen Facharzt. Somit wird zum einen durch die Digitalisierung der bestehenden Informationen eine fortlaufende Sammlung von neuen Informationen und Diagnosen und der Auswertungen mittels neuer Technologien der KI geschaffen. Wichtig dabei ist anzumerken, dass natürlich ein gewisser Prozess aus Sicht der Fachärzte durchlaufen werden muss. Jeder Facharzt, der Jahrzehnte oder erst seit kurzem in seinem Fachgebiet aktiv ist, möchte sich natürlich nicht von einer KI übertrumpfen lassen. Jedoch unterschätzt man oft die sogenannte kollektive Intelligenz in dieser Branche und letztlich auch, dass die resultierenden Entscheidungen, die dadurch vorgenommen werden, einen enormen Mehrwert bringen können.
6.3 Anwendungsbeispiel Radiologie
Die Anwendung von KI im Bereich der Bildverarbeitung kommt nun auch im Kontext der Gesundheitsbranche, konkret im Bereich der Radiologie, zum Einsatz. Gerade dadurch, dass viele Fachärzte mit einem zunehmend hohen Arbeitsaufkommen zu kämpfen haben, sind Effizienzsteigerungen zum Wohle der Patienten sehr willkommen. Aber auch deshalb, dass Trainierte neuronale Netze im Idealfall mit gelabelten Daten füttern, die von mehreren Experten vorbereitet wurden, steht automatisch eine verbesserte Diagnosequalität, die durch kollektive Intelligenz erreicht wird, zur Verfügung. Die Entwicklungen tragen maßgeblich zur Akzeptanz der KI-Methoden bei und liefern in diesem Fall einen konkreten Mehrwert in vielerlei Hinsicht.
Im klassischen Sinne werden in Standardverfahren der Radiologie im Kontext der Computertomografie-Auswertungen regelbasierte Verfahren seit Jahrzehnten eingesetzt. Regelbasierte Verfahren sind insofern sehr gut in der Anwendung, da die Regeln nicht durch einen KI-Ansatz implizit gelernt und auf neue Datensätze angewendet, sondern diese aus bestehenden fachlich korrekten Diagnosen abgeleitet und direkt auf Daten angewandt werden.
Vorteil der regelbasierten Verfahren ist, dass nur wenige falsch klassifizierte Ausnahmen als Ergebnis der Verfahrensanwendung entstehen. Vielmehr werden nur Bruchteile der Diagnosen mittels Regeln gefunden. Neue Erkenntnisse und beispielsweise Veränderungen auf einem Bild werden nicht erkannt.
Dies stellt keine generelle Kritik an regelbasierten Verfahren dar, sondern weist nur darauf hin, dass, sobald eine Regel für ein bestimmtes Problem existiert, diese auch auf Datensätze angewandt werden sollte. Methoden der KI hingegen sind darauf eingestellt, dass auch kleine Abweichungen in Bezug auf eine potenzielle Diagnose erkannt und entsprechend als Diagnose festgehalten werden können.
Letztlich können somit auch medizinisch relevante Befunde von beispielsweise permutierten und sich verändernden Krankheitsbildern festgestellt werden. Konkret können somit auch Abweichungen auf Bildern, die in bestehenden Datensätzen eventuell nicht vorhanden sind, im Gegensatz zu einem regelbasierten Ansatz erkannt werden.
Ein Beispiel könnte die Detektion bzw. Segmentierung von bestimmten radiologischen Daten sein. Hierfür wurden in den letzten Jahren vorab programmierte (regelbasierte) CAD-Systeme beispielsweise zur Lungenrundherd-Detektion eingesetzt.
Heutzutage kann diese Analyse mittels Deep Learning-Methoden, etwa Convolutional Neural Networks, verbessert werden. Die feingranulare Aufspaltung der Bilddaten in einzelne Vektoren und die automatisierte Merkmalsextraktion erlauben es, eine viel detailliertere Vergleichskomponente aufzubauen und somit auch auf sehr geringe Unterschiede sensibel zu reagieren.
Dies führt dazu, dass, aus einer fachlichen Perspektive betrachtet, auch kleine Unstimmigkeiten, die eventuell zu einer Erkrankung führen oder bereits eine Erkrankung in einem Anfangsstadium zeigen, aufgespürt werden können. Dies schärft letztlich die Diagnose eines Facharztes und unterstützt bei der Entscheidungsfindung. Zahlreiche Studien belegen, dass trainierte Netze in diesem Kontext sogar besser agieren als entsprechende Fachärzte.
Im Kontext des Einsatzes von KI in diesen Bereichen sind verschiedene Experten noch geteilter Meinung. Jedoch überwiegen die sehr guten Ergebnisse von KI-basierten Verfahren deutlich denen von Fachärzten. In der Praxis kommen oft mehrere vortrainierte Netze zum Einsatz, um eine umfassende Diagnose zu ermöglichen. In Abbildung 14 wird ein Beispiel aus dem Bereich der Lungenkrebserkennung vorgestellt. Zu sehen ist, dass eine verschieden geartete Erkennung von diversen Diagnosen im Kontext der Bildanalyse mittels KI ermöglicht wird.
Abbildung 14: Künstliche Intelligenz in der Radiologie (Quelle: Haubold 201979)
7 Herausforderungen bei der Anwendung von Künstlicher Intelligenz
Eine Reihe von technischen, ethischen, vertrauenswürdigen und regulierungsbedingten Herausforderungen muss bewältigt werden, um KI-Technologien branchenübergreifend einsetzen zu können.
Zum Beispiel gehören diese bei der Implementierung von KI im Transportwesen und Automobilsektor, bei Sicherheit und Gefahrenabwehr zu den wichtigsten Herausforderungen. Für eine intelligente Fertigung sind Sicherheit und Vertrauenswürdigkeit wichtige Aspekte.
Einige Herausforderungen werden in Bezug auf Ethik und Soziales, Rechenleistung und Effizienz der KI-Infrastruktur, Verfügbarkeit und Qualität der Daten etc. gesehen. Die Begegnung dieser Herausforderungen wird von entscheidender Bedeutung und letztlich ein wesentlicher Treiber zur Beschleunigung der Einführung von KI-Technologien in allen Branchen und Bereichen sein.
7.1 Sozial behaftete Herausforderungen
KI hat das Potenzial, sowohl die Gesellschaft als auch die Märkte nachhaltig zu beeinflussen. Durch die Möglichkeiten der Automatisierung in durchwegs allen Bereichen, beginnend mit der Fertigung, aber auch in wissensintensiven Branchen wie im Bereich des Legal-Tech, hat KI Einfluss auf die Arbeitsweisen und kann Jobs teilweise in hohem Maße automatisieren. In dieser Hinsicht werden bestimmte Fähigkeiten, die vom Menschen angewendet werden, wie z.B. Kreativität, künftig noch wichtiger.
Es wird künftig eine zunehmende Zahl von Arbeitsplätzen, an denen Menschen mit KI zusammenarbeiten, geben und somit ein Zusammenspiel von Künstlicher und menschlicher Intelligenz geben, was zu gänzlich neuen Arbeitsumgebungen führt.
Da die KI ihren Nutzern außerdem Waren und Dienstleistungen empfehlen kann, führt KI letztlich auch dazu, dass Endverbraucher in Bezug auf ihre Kaufentscheidungen aktiv beeinflusst werden.
Änderungen in der Entscheidungsfindung
Von einer KI wird erwartet, dass sie sich zunehmend an Entscheidungsfindungen, insbesondere bei Routineprozessen, beteiligt und diese automatisiert. Selbst bei sehr guten Trainingsprozessen kann auch diese Technologie Fehler machen.
Die Frage ist, wie Menschen und KI-Systeme Entscheidungen kooperativ in hinreichend sorgfältiger Art und Weise treffen können. Wie dies optimal ausgestaltet werden kann, ist noch Bestandteil aktueller Forschung.
Für KI-Entwickler ist darüber hinaus auch die Herausforderung der Erstellung eines optimalen und perfekten Algorithmus schwierig, da sehr viele Parameter konfiguriert werden können und auch müssen. Je komplexer ein Algorithmus ist, desto größer sind die Auswirkungen auf die Entscheidungsfindung oder die Industrie, in der dieser eingesetzt wird. Es wird letztlich immer noch menschliches Urteilsvermögen erforderlich sein, um sicherzustellen, dass die Entscheidung durch die KI in angemessener Qualität getroffen wurde.
Dies hat erhebliche Auswirkungen auf die Verantwortung der Entscheidungsfindung. In einem komplexen System ist es schwer zu unterscheiden, ob der Mensch oder das KI-System richtig liegt. KI kann den Eindruck vermitteln, dass ein System immer selbst für die Entscheidungsfindung verantwortlich ist, obwohl dem System letztlich statistische Werte zugrunde liegen. Dies könnte dazu führen, dass Entscheidungsträger jegliche Verantwortung oder rechtliche Pflichten von sich weisen und der KI die Schuld zusprechen. Erweiterte Supply-Chain-Operationen Das Suchen von Produkten und Preisanfragen könnte künftig durch den Einsatz von KI automatisiert werden. Stattdessen müssen die Käufer lediglich ein Foto von dem von ihnen gewünschten Gegenstand machen, dieses wird anschließend automatisch mit dem verfügbaren Lagerbestand des Lieferanten abgeglichen. Wenn der Käufer beabsichtigt, etwas Neues zu bestellen, reicht eine einfache Beschreibung aus und das KI-System kann eingereichte Preisanfragen automatisiert verarbeiten und Angebote erstellen. Wenn eine bestimmte Variante eines Artikels benötigt wird, aber Schlüsselinformationen nicht vorhanden sind, um den Artikel neu zu bestellen, wie z.B. seine Teilenummer oder Spezifikationen, könnte künftig auch die KI verwendet werden, um den Gegenstand zu identifizieren und einen geeigneten Ersatz zu suchen.
Wenn KI-Systeme in dieser Form praktisch zum Einsatz kommen und all diese Entscheidungen treffen, werden in den kommenden Jahren einige Märkte tiefgreifend gestört werden und sich neu sortieren müssen. Die Verbraucher werden nicht mehr die physischen Läden besuchen und erhalten, wie heute schon, alle Produkte über einen Mausklick. Intermediäre verlieren an Relevanz, wenn sich Lieferketten verändern und autonom gesteuert werden können.
Die Auswahl von Produkten für Endverbraucher wird zunehmend von KI-Algorithmen beeinflusst. Jedoch stellt die Transparenz der Empfehlungen der KI die Systemnutzer in Bezug auf die Entscheidungsfindung vor große Herausforderungen. Wenn beispielsweise ein intelligenter Kühlschrank autonom über den Kauf von Lebensmitteln und den entsprechenden Lieferanten entscheidet und zusätzlich die Ernährung seines Besitzers beeinflusst, stellt dies die Lebensmittelbranche gänzlich auf den Kopf. Auch diese Entscheidungen müssen letztlich durch den Endverbraucher noch einmal geprüft werden, damit Fehlverhalten vermieden werden kann.
7.2 Datenbezogene Herausforderungen
KI erfordert umfangreiche Datensätze zum Training der verwendeten Methoden und Algorithmen. Die kollektive Nutzung von Daten und die Verteilung sind heute in verschiedenen Industriesektoren durch das Fehlen geeigneter Regeln und Vorschriften noch nicht so fortgeschritten, wie es eigentlich vonnöten wäre. Dies hat dazu geführt, dass praktische Anwender in verschiedenen Industrien, um ihre Daten zu isolieren und Grenzen für die gemeinsame Nutzung von Daten zu setzen, ausschließlich nach ihren eigenen kommerziellen Interessen handeln. Trotz der Anhäufung einer beträchtlichen Datenmenge ist in diesen Branchen das Problem weiterhin, dass Dateninseln entstehen und somit das volle Potenzial von KI-Anwendungen nicht ausgeschöpft werden kann.
Darüber hinaus verursacht das allgemeine Problem der Datenverfügbarkeit Schwierigkeiten beim Sammeln qualitativ hochwertiger Daten für das Trainieren der KIs.
Da Algorithmen der KI anders arbeiten als das menschliche Gehirn und den Dateninhalt normalerweise als richtig behandeln (ohne diesen reflektieren zu können), führt dies oft zu einem Bias in den Daten. Dieser Bias führt dazu, dass die Ergebnisse, die mittels einer KI erzeugt werden, zu Voreingenommenheit und Missverständnissen bei Anwendern führen.
Beim Versuch der Lösung spezifischer Probleme ist der Anteil zuverlässiger und glaubwürdiger Daten essenziell für den Erfolg eines solchen Projektvorhabens.
Auswahl von Trainingsdaten
Fälle, in denen KI-Systeme ein Geschlecht oder eine Gruppe von Menschen benachteiligt haben, die durch eine Verzerrung innerhalb der Daten provoziert wurden, haben in den letzten Jahren eine erhöhte Medienaufmerksamkeit genossen. Beispielsweise wurden bei der automatisierten Auswahl von Bewerbern für eine Software-Entwickler-Stelle bevorzugt männliche Kandidaten von der KI ausgewählt. Letztlich lag dies daran, dass das System primär mit Lebensläufen von männlichen Entwicklern trainiert wurde. Bei der Entwicklung eines KI-Modells sind die Relevanz, die Quantität und die Qualität der Daten entscheidend.
Erstens müssen die verfügbaren Daten für die Lösung der Problemstellung relevant und angesichts der Größe der beteiligten Datensätze ausgeglichen sein. Die Größe des Datensatzes ist in erster Linie zwar entscheidend, praktisch erweist sich aber ein qualitativ besserer Datensatz als wichtiger als die tatsächliche Menge. Wobei eine kritische Datenmenge immer vorhanden sein muss, was aber letztlich sehr stark von der vorliegenden Problemstellung abhängt. Datenwissenschaftler benötigen daher eine Art Verständnis dafür, wie und zu welchem Zweck die Daten verwendet werden und wie hoch die fachliche Relevanz zu bewerten ist. Die Beurteilung der Relevanz der Daten kann zu einer multidisziplinären Aufgabe werden, die nicht nur Datenwissenschaftler, sondern vor allem auch Domänenexperten fordert. Damit das Modell genau und gut funktioniert, muss es genügend Daten geben, damit es aus dem Datenbestand lernen und die abgeleiteten Regeln verallgemeinern kann. Die Qualität des Trainingsdatensatzes muss repräsentativ sein für die Daten, auf die das Modell nach der Produktivsetzung stoßen wird.
Ob diese Bedingungen erfüllt sind, kann oft nur nach mehreren Runden eines initialen Trainings und nach eingehenden Tests mit einer Vielzahl verschiedener Modelle und Parametrisierungen bestätigt werden. Dieser Prozess ist in hohem Maße iterativ (wiederholend) und erfordert die mehrfache iterative Anpassung aller Trainingsparameter und Daten. Die Testdaten selbst können hier ein Problem darstellen, wenn diese nicht ordnungsgemäß aus dem Originaldatensatz erstellt wurden.
Vor dem Training müssen die Datensätze aufgeteilt werden und in Trainings- und Testdatensatz gesplittet werden. Die Trainingsdaten werden folglich zum Trainieren und die Testdatensätze zum Validieren der KI verwendet. Darauf basierend wird dann unter anderem die sogenannte Accuracy (also Genauigkeit) einer KI bestimmt, was die Genauigkeit eines Ansatzes beschreibt.
Um sicherzustellen, dass die Trainingsdaten die Qualität des Modells genau testen können, sollte die Aufteilung so sein, dass die Testdaten, genau wie die Trainingsdaten, die Bedingungen der realen Welt widerspiegeln.
Selbst wenn das trainierte Modell die Erwartungen erfüllt oder übertrifft, indem es präzise arbeitet, ist es entscheidend, zusätzliche Zeit für Tests bzgl. der Fehlertoleranz einzuplanen.
Wenn das Modell z.B. Bilder in 98% der Fälle korrekt und nur wenige Bilder falsch klassifizieren würde, könnte dies dazu führen, dass ein Modell nicht eingesetzt wird, da die Gesamtfehlerquote eventuell zu hoch sein kann.
Wichtig ist somit die zielgerichtete Auswahl der Datensätze.
Solche Fälle werden oft das Ergebnis menschlicher Voreingenommenheit sein. Auch das Entfernen von Attributen führt häufig zu Verzerrungen der Trainingsdaten (z.B. Geschlecht, sexuelle Orientierung oder Religion). Obwohl technische Methoden zur Kontrolle von Verzerrungen existieren, sind diese nicht perfekt und weiterhin Gegenstand der aktuellen interdisziplinären Forschung.
Bis dahin müssen manuelle Anpassungen an Datensätzen weiterhin entsprechend durchgeführt werden und weitere Iterationen im Bereich der Trainings von KI-Algorithmen mit nachfolgenden Korrekturen der Datensätze vorgenommen werden.
Standardisierte Daten
Wie bereits erwähnt, ist der Erfolg der KI von der Menge, der Vielfalt und der Qualität der verwendeten Daten abhängig. Im Zuge der aktuellen digitalen Transformation können große Datenmengen bereits über verschiedene Kanäle (z.B. offene Datenquellen, Sensoren, bestehende Datenbanken) aufgerufen werden. Vielfalt ist im Kontext von Big Data gegeben, aber gleichzeitig auch eine Herausforderung. Daten entsprechend vorzubereiten und zu beschreiben, ist für ein optimales Verständnis unerlässlich und verbessert die Ergebnisse jedes Vorhabens von Datenauswertung. Künftig wird dieser meist sehr zeitaufwendige Schritt dank standardisierten Datentypen, Formularen und Informationsmodellen fortlaufend erleichtert. Nichtsdestotrotz stellt sich die Frage, wie heterogen die Informationen und Datensätze interpretiert werden können, insbesondere über mehrere KI-Anwendungen hinweg, ohne vorher die Bedeutung der relevanten Datensätze genau zu kennen. Um dieses Ziel zu erreichen, sollten künftig herstellerunabhängige und eindeutige Informationsmodelle der Daten entworfen werden.
Semantische Technologien haben sich hier bewährt, die eine einheitliche Darstellung von Informationen sowie das einheitliche Verständnis für Maschinen und Menschen sicherstellen. Darauf aufbauend können geeignete semantische Werkzeuge zur Ableitung von implizitem Wissen und eine Form der effizienten Datenvorverarbeitung erreicht werden.
Semantische Interoperabilität erfordert daher, dass Systeme nicht nur relevante Daten austauschen oder diese zur weiteren Bearbeitung zur Verfügung stehen, sondern dass die Interpretationen der vom Absender ausgetauschten Daten und dem Empfänger identisch sind. Trotzdem können semantische Konflikte auftreten, z.B. wenn identische Datenpunkte durch unterschiedliche Begriffe oder unterschiedliche Daten beschrieben werden.
7.3 Herausforderungen für Algorithmen
Herausforderungen gibt es auch im Zusammenhang mit den verwendeten Algorithmen im Bereich der KI. Einige der bemerkenswertesten Probleme beim Einsatz dieser Algorithmen sind Robustheit, die Fähigkeit zur Anpassung an neue Aufgaben und die mangelnde Interpretier- bzw. Erklärbarkeit.
Die Sicherheit von KI-Algorithmen und die daraus resultierenden Risiken für Anwender stellen eine zunehmend wichtige Herausforderung für komplexe Systeme dar. Es muss sichergestellt werden, dass sich die Algorithmen korrekt verhalten, d.h., dass ein Algorithmus oder Programm das in seiner Spezifikation beschriebene Problem für jede Dateneingabe korrekt löst. Dies ist und bleibt eine enorme Herausforderung für Algorithmen des maschinellen Lernens, insbesondere für neuronale Netze.
Darüber hinaus ist die Komplexität der Algorithmen ein zusätzlicher Schwachpunkt in Bezug auf Verständlichkeit und Interpretierbarkeit der Ergebnisse, was es teilweise unmöglich macht, den Entscheidungsprozess eines KI-Systems zu verstehen. Einige dieser Herausforderungen werden nachfolgend ausführlicher beschrieben.
Robustheit
Der Begriff Robustheit in Verbindung mit maschinellem Lernen bedeutet, dass der Algorithmus Entscheidungen, auch wenn die Inputs von den Trainingsdaten abweichen, korrekt trifft. Ein robuster Algorithmus ist daher stabil gegen einen Input und hat keine signifikante Abweichung in Bezug auf die Leistung zwischen den Trainings- und Testdatensätzen.86 Während Robustheit bereits ein Thema in der Vergangenheit war, wird diese künftig weiterhin an Bedeutung gewinnen. Insbesondere hat der Erfolg des Reinforcement Learning in diesem Bereich zur intensiveren Forschung an Robustheit von Algorithmen geführt. Die Kategorie dieser verwendeten Algorithmen für maschinelles Lernen, die mittels Agenten mit ihrer Umgebung interagieren, führt zu einem sehr komplexen System von Interaktionen und sich verändernden Variablen, was es schwierig macht, das Ergebnis vorherzusagen und die Handlungen des Agenten zu verbessern.
Der Trend zur Verwendung von Algorithmen für die Entscheidungsfindung hat wahrscheinlich die größte Wirkung in Bezug auf Robustheit. Je mehr Auswirkungen diese Entscheidungen haben, desto wichtiger ist ihre korrekte Reaktionsfähigkeit in ihrer Umgebung.
Mit der Entscheidungsfindung sind zwei Szenarien verbunden: Entweder empfiehlt das System eine Entscheidung an seinen Nutzer, der diese überprüft und verifiziert, oder das System setzt seine Entscheidungen automatisch um. Letzteres stellt ein Problem dar, wenn im Falle neuer Eingabedaten das System nicht unbedingt erkennt, dass ein Ergebnis fehlerhaft ist. Deshalb sollten keine Entscheidungen automatisch getroffen werden, die zu Schäden an kritischen Infrastrukturen oder sogar Menschen führen. Beispielsweise könnten dies eine Fehlklassifikation von Scans für Patienten, die an Krebs erkrankt sind und die möglicherweise keine ordnungsgemäße Behandlung erhalten würden, oder durch Maschinen verursachte Unfälle sein.
Einige der Gründe für das Versagen von KI-Algorithmen in diesem Kontext sind nicht übereinstimmende Datensätze, Ausreißer und eine fehlerhafte Programmierung des Systems selbst.
Nicht übereinstimmende Datensätze stellen häufig Probleme bei der Anwendung der Algorithmen dar. Algorithmen müssen in der Lage sein, sich an Variationen in Datensätzen anzupassen, ohne allzu große Abweichungen in den Outputs zu generieren.
Derzeit werden mehrere Forschungsrichtungen im Bereich der Robustheit von Algorithmen bearbeitet.
• Verifikation: Wurde das System richtig gebaut und erfüllt es die Anforderungen?
• Gültigkeit: Treten keine unerwarteten oder unerwünschten Effekte auf, um die gestellten Anforderungen zu erfüllen?
• Sicherheit: Wie verhindert man Manipulationen des Systems durch eine dritte Partei?
• Kontrolle: Wie wird es dem Anwender ermöglicht, die Kontrolle über das KI-System zu behalten und erlangen?
Wendet man diese Ansätze mehrfach an, kann eine zunehmende Robustheit von KI-Algorithmen festgestellt werden, wie z.B. Datenvorverarbeitung KI-Systeme zu trainieren, Fehlanpassungen zu beseitigen und Ausreißer zu verarbeiten sowie die Erkennung von Veränderungen und Anomalien als Hypothesentest und Transferlernen.
Transfer Learning
Umsetzungen in Form von Implementierungsprojekten im Kontext KI sind meist kundenspezifische Produkte. Die Variablen werden anhand der Problemstellung ausgewählt, um genau die Lösung zum bestehenden Problem zu liefern. Somit müssen die entsprechenden Trainingsdaten aus dem spezifischen Anwendungsbereich stammen. Dies stellt sicher, dass der Algorithmus für seine Anwendung perfekt funktioniert. Während Menschen in der Lage sind, Wissen aus früheren Erfahrungen auf neue Probleme zu übertragen, haben Maschinen diese Fähigkeit nicht. Wenn Änderungen der Umwelt die bereitgestellten Daten fortlaufend beeinflussen, ändern sich auch die Trainingsdaten, welche neu erfasst und dem Algorithmus erneut durch Trainingsphasen beigefügt werden müssen. Um die Kosten und Aufwende zu reduzieren, kann das Transfer-Lernen in Projekten unterstützen. So können Muster und Wissen von Problemen auf andere Probleme übertragen werden.
Ziel des Transfer-Learning ist es, die Nutzung von Trainingsdaten aus verschiedenen Anwendungsbereichen mit teilweiser unterschiedlicher Verteilung oder Ausprägung für andere Domänen und Anwendungsbereiche zu nutzen.
Hierzu müssen vorab verschiedene Fragstellungen behandelt werden, bspw. welche Wissensvorsprünge und Konzepte (bspw. die Klassifizierung von Objekten) lassen sich auf eine neue Problemstellung übertragen? Sind die Trainingsdaten aus einem anderen Anwendungsfeld relevant oder nicht? Viele Fragen sind in Bezug auf diesen Ansatz noch offen, z.B. wie und wann das Wissen transferiert werden kann. Dies ist nach wie vor Gegenstand aktueller Forschung. Durchbrüche im Transfer-Lernen könnten maschinelles Lernen viel einfacher gestalten und die Kosten sowie Zeitaufwende in der Entwicklung reduzieren.
Interpretierbarkeit
Die meisten KI-Algorithmen, insbesondere neuronale Netze, werden als sogenannte „Black Boxes“ bezeichnet. Dies bedeutet, dass die Input-Daten und die Ergebnisse eines Netzes interpretiert und verstanden werden können, aber nicht, wie der Algorithmus sein Ergebnis erreicht. Diese ist eine kritische Herausforderung für den Erfolg von KI.
Die Verständlichkeit und die Erklärbarkeit von KI-Modellen sind die wichtigsten Ansatzpunkte für eine Akzeptanz bei Endanwendern von Künstlicher Intelligenz.
Während einige Modelle, wie Regressions- oder Entscheidungsbäume, für Datenwissenschaftler und KI-Experten sehr verständlich sind, sind die Multidimensionalität des Datenflusses und die Komplexität der meisten anderen Algorithmen in der Regel zu hoch, um von Menschen einfach verstanden werden zu können.
Dabei können aber auch künftig Konzepte aus dem Bereich Explainable AI verwendet werden, um die Erklärbarkeit von Entscheidungsfindungsprozessen von KI-Komponenten zu unterstützen.
Dies bedeutet, dass solche Algorithmen eine klare Erklärung für eine bestimmte Vorhersage liefern. Im Black Box Prozess liefern diese hingegen lediglich eine Wahrscheinlichkeit, die oft schwer zu interpretieren ist. Das macht es schwierig und oft unmöglich zu verifizieren, dass ein trainierter Algorithmus wie erwartet funktioniert. Manchmal sind Millionen von Modellparametern innerhalb des Trainings involviert und keine Abhängigkeiten der Parameter vorgegeben. Daher sind Kombinationen aus mehreren Modellen mit vielen Parametern oft schwierig eindeutig interpretierbar. Einige davon erfordern auch eine große Datenmenge, um eine hohe Genauigkeit zu erreichen.
Aber es ist nicht nur der Algorithmus selbst, der ein Problem für die Erklärbarkeit darstellt. Die Transformation von Daten, die durch mathematische Modelle verarbeitet werden können, ist für den Menschen oft schon schwer interpretierbar. Es wurden einige Methoden vorgeschlagen, um die Interpretation neuronaler Netze in Anwendungsbereichen wie NLP oder Bilderkennung voranzutreiben. Andere Ansätze versuchen eine lokale Annäherung an komplexe Algorithmen durch einfache, verständliche Modelle zur Verbesserung der Interpretation.
Da KI-Algorithmen in einer wachsenden Zahl von Branchen, einschließlich Gebieten mit hochsensiblen Daten wie Medizin oder Finanzen, eingesetzt werden, wird die Interpretierbarkeit sicherlich an Bedeutung gewinnen und weiter zu einer der großen konzeptionellen und technischen Herausforderungen der KI in der Zukunft werden.
7.4 Herausforderungen hinsichtlich verwendeter Infrastruktur
Um KI-Anwendungen mit zufriedenstellender Leistung nutzen zu können (insbesondere unter Echtzeitbedingungen), müssen die Rechengeschwindigkeit und die Effizienz der Infrastruktur stetig an die bestehenden Anforderungen angepasst werden. Dies trägt dazu bei, dass Applikationen auch nachhaltig an ansteigende KI-Workloads (beispielsweise durch die Hinzunahme neuer Datensätze) skalierbar angepasst werden müssen.
Dies stellt in Summe sicher, dass Anforderungen an eingesetzte Software Stacks und Frameworks bzw. Software-Bibliotheken optimiert genutzt werden können.
Herausforderungen im Kontext der verwendeten Hardware KI und insbesondere Deep Learning erfordern die parallele Verarbeitung von Daten. Wenn große Datenmengen verarbeitet werden müssen, reichen traditionelle Rechnerarchitekturen kaum mehr aus. Die derzeit verwendeten GPUs und FPGAs haben eine Reihe von technischen Einschränkungen, die die Implementierung der fortschrittlichsten KI-Algorithmen einschränken.
Zum Beispiel hat eine GPU, der zuerst in das Deep Learning eingeführt wurde, drei Haupteinschränkungen:
Sie kann die Vorteile des parallelen Rechnens nicht voll ausnutzen, die Hardwarestruktur ist ohne Programmierbarkeit festgelegt und die Effektivität der Algorithmen für das Deep Learning muss noch verbessert werden. In der neuen Computer-Ära wird der Kern-Chip die Infrastruktur und das Ökosystem der KI bestimmen. Prozessorfähigkeiten werden daher als ein wesentlicher Engpass bei der fortschreitenden KI-Entwicklung angesehen.
In dieser Hinsicht sind das Design und die Architektur heterogener Computerplattformen (die eine Vielzahl von Beschleunigern integrieren, um unterschiedliche KI-Arbeitslasten zu bewältigen) ein wesentliches Thema für die KI-Forschung und die kommerzielle Umsetzung. Darüber hinaus sind Hardwareressourcen, die innerhalb von Cloud-Infrastrukturen bereitgestellt werden, angesichts ihrer Skalierbarkeit, Zuverlässigkeit und automatisierten Ressourcenverwaltung zu einem neuen Trend geworden.
Außerdem werden Cloud-Native Application Programming Interfaces (APIs), z.B. Container, verwendet, um konsistente Schnittstellen, umfassende Unterstützung und einfache Bereitstellung von KI-Anwendungen zu ermöglichen.
Da KI-Technologien auf verschiedenen Systemen oder Sub-Systemen (Cloud, Edge oder Endgeräten) implementiert werden können, sollte das Plattformdesign auf die individuellen Bedürfnisse und Ressourcenbeschränkungen des Systems zugeschnitten sein. So kann ein Cloud-Server beispielsweise verbesserte Algorithmen ausführen und eine größere Datenmenge verarbeiten (z.B. für Trainingsphasen) als ein mobiles Gerät. Daher muss beim Hardware-Design die Koordination der KI-Fähigkeiten auf den verschiedenen Systemen oder Subsystemen berücksichtigt werden.
Herausforderungen im Kontext von Plattformen und Frameworks
Wiederverwendbare und standardisierte technische Frameworks, Plattformen, Werkzeuge und Dienste für die KI-Entwicklung müssen erst noch weiter reifen. Obwohl einige Open-Source-Ansätze und Bibliotheken von bekannten Technologiegiganten wie Google oder Amazon vollständig modulare und standardisierte KI-Ökosysteme aus Architekturen, Frameworks, Anwendungsmodellen, Bewertungs- und Visualisierungswerkzeugen und Cloud-Diensten anbieten, sind diese teilweise noch nicht vollständig ausgereift, wenngleich hier natürlich stetige Verbesserungen vorgenommen werden.
7.5 Herausforderungen bzgl. der Vertrauenswürdigkeit KI-bezogener Systeme
Bekannt ist, dass bei KI-Anwendungsfällen immer viele Akteure an der Entwicklung beteiligt sind, die effizient zusammenarbeiten müssen.
Um KI-Algorithmen adäquat mit richtigen Daten zu versorgen, müssen sowohl Hersteller als auch Anwender Daten austauschen, Expertenwissen bereitstellen und gemeinsam auf eine effiziente Implementierung hinarbeiten.
Um diese Zusammenarbeit zu erleichtern, muss eine Reihe von Fragen, wie z.B. die Sicherstellung des Vertrauens in Bezug auf Daten etc., behandelt werden.
Algorithmen für maschinelles Lernen stützen sich auf die bereitgestellten Daten. Vollständige und genaue Daten sind daher für eine automatisierte Entscheidungsfindung unerlässlich. Mögliche Probleme wie schlechte Datenqualität oder sogar absichtliche Manipulation können zu wertlosen Ergebnissen und sogar zu negativen Auswirkungen für den Anwender der KI-Anwendung führen.
Vertrauen zwischen den beteiligten Akteuren ist unerlässlich. Lösungen, die sich mit der Vertrauenswürdigkeit von Datenquellen befassen, könnten möglicherweise durch Zertifizierungstechnologien angeboten werden.
Elektronische Zertifikate von einem zentralisierten und vertrauenswürdigen Emittenten kombiniert mit Datensiegeln sind Optionen, um Vertrauen zwischen den Parteien herzustellen. Diese Lösung zielt jedoch nur darauf ab, Vertrauen zwischen den Partnern zu schaffen, und geht nicht auf die Frage der Datenqualität ein. Zu diesem Zweck könnte man einen vertrauenswürdigen Datenpool sammeln oder einen Auswertungs- oder Bewertungsalgorithmus verwenden, um fehlerhafte Datenbanken zu vermeiden. Meta-Algorithmen könnten dann dazu beitragen, KI-Systeme im Laufe der Zeit zuverlässig und transparent zu halten, indem sie Informationen über die Herkunft und Verteilung der verwendeten Quellen liefern.
Die Entwicklung der KI hängt von der Verwendung von Daten-Trainingsalgorithmen ab. In diesem Prozess muss eine große Menge an Daten gesammelt, analysiert und verwendet werden. Der Wert der Daten steht zunehmend im Vordergrund. Entwickler, Plattformanbieter, Betriebssystem- und Endgerätehersteller sowie andere Dritte in der Wertschöpfungskette haben Zugang zu diesen Daten und sind in der Lage, die von den Benutzern bereitgestellten Daten hochzuladen, auszutauschen, zu modifizieren, zu handeln und bis zu einem gewissen Grad zu nutzen.
Da KI-Systeme im Allgemeinen höhere Rechenkapazitäten erfordern, haben viele Unternehmen und Institutionen damit begonnen, Daten in der Cloud zu speichern. Der Schutz der Privatsphäre in der Cloud birgt jedoch auch versteckte Gefahren. Wie Daten legal und in Übereinstimmung mit bestehenden und zukünftigen Gesetzen gesammelt und verwendet werden können, ist für jeden KI-Akteur eine entscheidende Frage.
Technischer Missbrauch, Fehler und die Entwicklung der zukünftigen SuperKI stellen allesamt Bedrohungen für die menschliche Gesellschaft dar. Die Auswirkungen der KI auf den Menschen hängen weitestgehend davon ab, wie die Menschen sie nutzen. In den Händen von Kriminellen kann KI mit Sicherheit zu großen Problemen führen. Zum Beispiel können Hacker Cyberattacken mit Hilfe von Software starten, die das Verhalten der Benutzer von KI-Systemen selbst erlernen und imitieren kann, und die Methode ständig ändern, um so lange wie möglich im System zu bleiben.
7.6 Regulatorische Herausforderungen
In vielen KI-Bereichen fehlt es noch an einer angemessenen Regulierung. Die Suche nach einem ausgewogenen regulatorischen Ansatz für KI-Entwicklungen, die industrielle Innovation, Produktivität und Wettbewerbsfähigkeit fördern und unterstützen und gleichzeitig ein hohes Maß an Sicherheit und Gesundheit, Verbraucherschutz, sozialer Sicherheit und Schutz von Rechten und Freiheiten gewährleisten, ist für viele Regierungen in der ganzen Welt von höchster Priorität.
Zwar wurden in Bereichen wie autonomes Fahren und Drohnen einige frühe gesetzgeberische Schritte unternommen, doch gibt es nirgendwo auf der Welt eine KI-spezifische Regulierungsbehörde und es mangelt auch an juristischer Forschung zur KI. In Europa werden beispielsweise Aspekte der Robotik und KI von verschiedenen Regulierungsbehörden und Institutionen auf nationaler und europäischer Ebene abgedeckt. Es gibt keine zentrale europäische Stelle, die das technische, ethische und regulatorische Fachwissen und die Aufsicht über die Entwicklungen in diesen Bereichen zur Verfügung stellt. Dieser Mangel an Koordination behindert eine rechtzeitige und gut informierte Reaktion auf die neuen Chancen und Herausforderungen, die sich aus diesen technologischen Entwicklungen ergeben.
Die im Bericht des Rechtsausschusses des Europäischen Parlaments über KI genannten sechs zentralen, übergreifenden Regulierungsthemen betreffen ein breites Spektrum von Politikbereichen. Zu den Bereichen, in denen nach dem Standpunkt des Ausschusses prioritär Handlungsbedarf besteht, gehören der Automobilsektor, die Altenpflege sowie das Gesundheitswesen.
Die Fragen der Vorhersehbarkeit, Interpretierbarkeit und Kausalität, die bei neuen KI-basierten Produkten auftauchen, werden es immer schwieriger machen, Haftungsfragen wie Produktfehler zu beurteilen. Dies kann zu einer gewissen Haftungslücke führen. Angesichts dieser zu erwartenden Herausforderungen im Bereich der Haftung wird der Bedarf an neuen Regeln und Vorschriften, z.B. im Delikts- und Vertragsrecht, für viele Branchen zunehmend kritisch werden. Rechtssicherheit in Haftungsfragen ist für Innovatoren, Investoren und Verbraucher von größter Bedeutung, um ihnen den erforderlichen Rechtsrahmen zu bieten.
Aufgrund der Komplexität der digitalen Technologien ist es jedoch besonders schwierig zu bestimmen, wer im Falle von Versäumnissen haftbar gemacht werden kann. Beispielsweise reichen die bestehenden rechtlichen Kategorien nicht aus, um die Rechtsnatur von Robotern angemessen zu definieren und folglich Rechte und Pflichten, einschließlich der Haftung für Schäden, zuzuordnen. Nach dem derzeitigen Rechtsrahmen können Roboter nicht per se für Handlungen oder Unterlassungen haftbar gemacht werden, die Dritten Schäden zufügen. In einem Szenario, in dem ein Roboter autonome Entscheidungen treffen kann, reichen die traditionellen Regeln nicht aus, um die Haftung eines Roboters zu regulieren.
Verordnungen wie die Allgemeine Datenschutzverordnung der Europäischen Union sollen diese Probleme teilweise lösen, doch bleibt abzuwarten, wie dies von den Datenschutzbehörden umgesetzt wird. Es muss ein empfindliches Gleichgewicht zwischen dem Datenschutz und der Ermöglichung einer florierenden KI-Industrie gefunden werden. Tatsächlich wird die KI selbst bald dazu beitragen, die Sicherheit persönlicher Daten zu gewährleisten, indem sie ausgeklügelte Anonymisierungs- und Verschlüsselungsmethoden ermöglicht. Föderiertes Lernen könnte sicherstellen, dass personenbezogene Daten niemals die Geräte der Verbraucher verlassen müssen, um ein KI-System zu trainieren, da das System parallel direkt auf jedem Gerät trainiert wird.95 Darüber hinaus könnte die KI die Exposition von sensiblen Informationen (z.B. Gesundheitsdaten) begrenzen, indem sie Aufgaben durchführt, ohne dass ein Mensch auf die Daten zugreifen muss, wodurch der Schutz der Privatsphäre verbessert wird.
Das GDPR umfasst eine Reihe bedeutender regulatorischer Änderungen des Datenschutzes und des Schutzes der Privatsphäre in der Europäischen Union, die auch die automatisierte Entscheidungsfindung betreffen.
Obwohl unklar bleibt, wie die Datenschutzbehörden die GDPR in der Praxis umsetzen werden, dürften die Transparenzanforderungen für die Entscheidungsfindung bei KI die größte Herausforderung sein, der sich sowohl Unternehmen als auch Regulierungsbehörden stellen müssen. Dabei sollte das Ziel darin bestehen, ein Gleichgewicht zwischen der Aufrechterhaltung des Datenschutzes und der Transparenz herzustellen und datengesteuerte Geschäftsmodelle gedeihen zu lassen. Die Zulassung eines gesunden KI-Ökosystems ist nicht nur aus wirtschaftlicher Sicht relevant, sondern auch notwendig, um weitere technologische Forschung zu ermöglichen, die die Fähigkeit von Unternehmen zur Gewährleistung von Transparenz verbessern kann.
Obwohl die gravierendsten Auswirkungen dieser Probleme nur in fortgeschrittenen und futuristischen KI-Systemen zu sehen sein werden, ist ein proaktiver Ansatz, sie so früh wie möglich anzugehen, nicht nur ein umsichtiger Ansatz, sondern kann auch eine kostspielige (wenn nicht gar unmögliche) Nachrüstung in der Zukunft vermeiden.
Ein unmittelbareres Anliegen ist die Notwendigkeit, dass KI-Systeme (z.B. selbstfahrende Autos) in ihren Entscheidungsprozessen ethische Entscheidungen treffen müssen (z.B. einen Fußgänger zu verletzen oder den Fußgänger zu meiden und möglicherweise den Fahrer oder die Mitfahrer zu verletzen).
Dieses Beispiel veranschaulicht, dass KI-Sicherheit nicht nur ein technisches Problem, sondern auch eine politische und ethische Frage ist, die einen interdisziplinären Ansatz zum Schutz der Nutzer solcher Technologien, neutraler Umstehender und der Unternehmen, die sie entwickeln werden, erfordern wird, da letztere vor wichtigen rechtlichen Herausforderungen stehen können.
Während Forschungsorganisationen und Unternehmen begonnen haben, sich mit diesen Fragen zu befassen, ist eine engere Zusammenarbeit zwischen allen betroffenen Parteien auf internationaler Ebene erforderlich.
Die KI ersetzt nach und nach den Menschen in verschiedenen Entscheidungsprozessen. Intelligente Roboter müssen auch die ethischen Zwänge und Regeln der menschlichen Gesellschaft beachten, wenn sie Entscheidungen treffen. Nehmen wir z.B. an, es befinden sich drei Fußgänger auf dem Bürgersteig vor einem fahrerlosen Auto, das nicht rechtzeitig bremsen kann:
Soll sich das System dafür entscheiden, diese drei Fußgänger zu rammen oder stattdessen auf einen Fußgänger auf der anderen Straßenseite auszuweichen? Die Anwendung der KI im täglichen Leben der Menschen steht im Mittelpunkt grundlegender ethischer Herausforderungen, die es zu bewältigen gilt.
Wenn die Gestaltung von KI-Systemen nicht an ethischen und sozialen Zwängen ausgerichtet ist, können solche Systeme nach einer Logik funktionieren, die sich von der des Menschen unterscheidet und zu dramatischen Konsequenzen führen kann.
Darüber hinaus werden Menschen nach der Gewährung von Entscheidungsrechten an Maschinen mit einer neuen ethischen Frage konfrontiert: Ist die Maschine qualifiziert, solche Entscheidungen zu treffen? In dem Maße, wie sich intelligente Systeme Wissen in bestimmten Bereichen aneignen, werden ihre Entscheidungsfähigkeiten beginnen, die der Menschen zu übertreffen, was bedeutet, dass Menschen in immer mehr Bereichen von maschinengeführten Entscheidungen abhängig werden können. Diese Art von ethischer Herausforderung wird bei jeder künftigen Entwicklung der KI dringend besondere Aufmerksamkeit erfordern.
Data Science
1 Was ist Data Science?
1.1 Einführung
Data Science ist ein kontinuierlicher Prozess und kein plötzliches Ereignis. Es beschreibt den Prozess, wie strukturiert Daten verwendet werden können, um daraus gezielt Schlüsse zu ziehen. Zum Beispiel, wenn Sie eine Hypothese haben, eine Beobachtung – und nun wissen möchten, ob diese Hypothese „richtig“ ist. Oft werden in Unternehmen Entscheidungen „aus dem Bauch heraus“ getroffen. Ziel von Data Science ist es, Ihre Entscheidungen auf der Grundlage von Daten treffen zu können. In diesem Sinne ist Data Science mehr als nur ein Werkzeug. Es ist Wissenschaft und kreative Tätigkeit zugleich, die „harte“ Fakten soweit in eine (plastische) Geschichte übersetzen lässt, dass diese Daten nachvollziehbar beschreiben, wie Kunden ihre Entscheidungen treffen, welche Produkte öfter als andere und zu welchem Zeitpunkt genutzt werden. Das Verknüpfen all dieser Punkte, die einzeln betrachtet keinen besonderen Sinn ergeben würden, ergibt aber ein neues Bild, was mit bisherigen Ansätzen nicht möglich war. Auch erleichtert dieses „Storytelling“, das Beschreiben der Einblicke und Schlüsse, die man aus Daten gezogen hat, die Kommunikation mit Ihren Stakeholdern. Bisherige Verfahren richteten den Fokus immer nur auf einzelne Punkte, während Data Science auch aufgrund der Datenmenge nun auch die zeitliche Dimension mit ins Spiel bringt.
Mit diesen Erkenntnissen können Sie sowohl Prozesse innerhalb des Unternehmens neugestalten, als auch Produkte sowohl für den Kunden als auch für Sie entsprechend Ihren geschäftlichen Vorgaben verbessern. Data Science ist ein Prozess, bei dem aus unterschiedlichsten Systemen sowohl strukturierte als auch unstrukturierte Daten extrahiert und miteinander in Beziehung gesetzt werden. Das Ziel hierbei ist, diese Daten zu „erkunden“, das heißt, dass oft nicht mal die genaue Fragestellung vor der Analyse bekannt sein muss. Vielmehr ist das Ziel, Erkenntnisse aus den Daten zu ziehen, die einem zuvor nicht bewusst waren – um erst daraus konkrete Fragen abzuleiten.
Data Science als Wissenschaft, die sich der Untersuchung von Daten widmet, ist an sich nicht neu. Die Definition und der Name kamen schon in den 80er und 90er Jahren auf, als einige Professoren an US-Universitäten sich mit der Neugestaltung des Statistik-Studiums befassten. Dabei entschloss man sich, diese Disziplin „Data Science“ zu nennen, wobei dies zu diesem Zeitpunkt eher als Versuch, denn als ernstgemeinte Umgestaltung des Statistik-Studiums aufzufassen ist.
Data Science
Data Science entstand in den 80er und 90er Jahren aus einem Teilgebiet der Statistik. Dabei war die Idee, konkrete Fragestellungen aus dem unternehmerischen Umfeld mithilfe statistischer Verfahren zu betrachten.
Eine konkrete und einheitliche Definition des Begriffs „Data Science“ gibt es daher bis heute nicht. Man kann es – auch als Abgrenzung zur Statistik – als Methode sehen, die explorativ Daten auf neue Erkenntnisse untersucht; Fragen auf Antworten zu finden, die oft zuvor nicht genau bekannt sind, um sie erst im Rahmen des Prozesses zu konkretisieren. Dies ist auch ein wesentliches Abgrenzungsmerkmal zu deskriptiven Verfahren in der Statistik. Bei Data Science – im Vergleich zur Statistik – geht es mehr um das Ziel als um die konkrete Methodik, sich von der Neugier treiben zu lassen, große Datenmengen aus unterschiedlichsten Blickwinkeln heraus zu analysieren und neue Erkenntnisse abzuleiten. Und im Anschluss diese (neuen) Erkenntnisse zu verwenden, um konkrete Fragen zu formulieren. Diese Analyse ist erst durch die Unmengen von Daten möglich, die heute verfügbar sind.
Und genau dieser explorative Ansatz unterscheidet Data Science von anderen, bisherigen Methoden, Daten zu untersuchen. Während man früher das Problem hatte, überhaupt an Daten zu kommen, sehen wir uns heute mit einer wahren Datenflut konfrontiert. Auch gab es damals weder entsprechende Algorithmen noch entsprechende Hardware, um diese Datenflut zielgerichtet für Unternehmen nutzen zu können. Mit dieser Datenflut entstanden aber auch immer mehr Alternativen zu den teuren Software-Lösungen, die es damals nur großen Unternehmen möglich machten, diese Daten überhaupt auszuwerten. Mit der Verfügbarkeit von Open-Source Softwarelösungen kann sich praktisch jedes Unternehmen leisten, diese Daten auch auszuwerten. Zusätzlich ist auch das Speichern der Daten günstiger geworden – cloudbasierte Lösungen speichern Milliarden von Datensätzen zu einem Bruchteil der bisherigen Kosten bei mehr Flexibilität.
Zusammengefasst: die Werkzeuge, die Daten und die Fähigkeiten, diese Daten auch auszuwerten, nehmen ständig zu und sind für jedermann verfügbar. Es gibt also keinen besseren Zeitpunkt, sich die Möglichkeiten, die Data Science für Ihr Unternehmen bietet, genau anzusehen und die entsprechenden Fähigkeiten anzueignen.
Data Science verfolgt einen explorativen Ansatz, bei dem Erkenntnisse aus Daten gezogen werden. Die konkrete Fragestellung dafür wird erst im Rahmen der Analyse klar.
Data Science
1.2 Warum Data Science?
Tom Davenport (Davenport, 2017) ist ein bekannter amerikanischer Autor mehrerer Bücher im Bereich Data Analytics und Geschäftsprozessinnovationen. Er beschreibt fünf Gründe, warum Data Science für Unternehmen wichtig ist und was dabei zu beachten ist. Besonderen Wert legt er auf die Darstellung der bei der Datenanalyse gewonnenen Erkenntnisse als Geschichte.
Warum dies so wichtig ist, erklärt die folgende Liste:
• Geschichten waren schon immer wirksame Mittel, um vom Menschen gewonnene Erkenntnisse zu transportieren, weil es damit leichter ist, komplexe Zusammenhänge für alle verständlich zu formulieren. Dies trifft insbesondere zu, wenn diese Erkenntnisse Daten und Analysen beinhalten, die von Natur aus eher abstrakt sind. Durch das „Erzählen“ der datenbasierten Erkenntnisse wird den Menschen zu diesem abstrakten Inhalt aber auch der Kontext dargestellt, in den sie diese Erkenntnisse einbetten können. Dies erleichtert es ihnen, schlussendlich, das „große Ganze“ zu verstehen.
• Das Ziel von Data Science ist, praktisch umsetzbare Erkenntnisse aus Daten zu ermöglichen. Solange die Stakeholder in Ihren Projekten allerdings nicht den Sinn und das Potential Ihrer Erkenntnisse verstanden haben, wird es Ihnen schwerfallen, sie zu überzeugen. Das Ziel muss also sein, Ihre Erkenntnisse in eine Geschichte zu verpacken, die plastisch nachvollziehbar ist. Als Hilfsmittel eignen sich dazu auch Visualisierungen – dazu müssen Sie Sich auch nicht an speziellen Diagrammarten aus der Statistik orientieren. Erlaubt ist, was hilft Ihre Erkenntnisse, die Sie aus den Daten gezogen haben, zu transportieren.
• Viele Menschen wollen Beweise, damit sie die Details Ihrer Analyse verstehen können. Ergänzen Sie daher Ihre Geschichte um konkrete Fakten, die Sie durch die Datenanalyse gefunden haben. Während manche Menschen mehr an den Zusammenhängen interessiert sind, benötigen andere mehr Detailwissen, die Darlegung des konkreten Nutzens oder auf welche Weise diese Erkenntnisse entstanden sind.
Versuchen Sie, alle diese Typen anzusprechen, indem Sie für jeden Typ die relevanten Informationen aus Ihrer Analyse in Ihrer Geschichte bereitstellen. Beziehen Sie auch die Organisation als Ganzes mit ein, welche Auswirkung Ihre Erkenntnisse – sowohl kurz- als auch langfristig – für sie haben. So wird deutlich, dass Sie Sich nicht in einem (unwesentlichen) Detail verfangen haben, sondern auch die Auswirkungen auf organisatorischer Ebene miteinbezogen haben.
Data Science
• Auch unter Zuhilfenahme moderner Werkzeuge ist der gesamte Prozess von Data Science zeitaufwendig. Sie benötigen also ein effektives Kommunikationsmittel, Ihre Erkenntnisse Ihren Stakeholdern zu vermitteln. Es wäre im Geschäftsalltag völlig unmöglich, alle Details einer quantitativen Analyse exakt und umfassend darzulegen, vor allem, wenn Sie keinen unmittelbaren Erkenntnisgewinn für die anderen bringen. Insofern ist es wichtig, Ihre Erkenntnisse in einer verständlichen und knappen Form zu transportieren, wofür sich Geschichten hervorragend eignen.
• Alle Geschichten sind nach wenigen Grundtypen aufgebaut und die meisten Menschen kennen sie aus ihrer Kindheit, die Muster sind ihnen daher vertraut. Auf der anderen Seite folgen die meisten quantitativen Darstellungen ebenfalls denselben Strukturen. Vor allem, wenn Sie immer mit denselben Unternehmen arbeiten, versuchen Sie daher immer dieselben Grundkonzepte zu verwenden, nach denen Sie die Geschichte aufbauen, mit der Sie Ihre Erkenntnisse zu vermitteln versuchen. Data Science und Statistik gelten als „trockene“ Disziplinen, obwohl gerade sie mit empirischen Daten arbeiten.
Data Science nutzt zu einem großen Teil empirische Daten, um neue Erkenntnisse zu gewinnen. Verpacken Sie Ihre Erkenntnisse als Geschichten und erleichtern Sie damit Ihren Stakeholdern, den Nutzen Ihrer Erkenntnisse besser zu verstehen.
1.3 Historie
Data Science ist ein Zusammenspiel mehrerer bereits existierender Disziplinen, deren Betriff um 2001 geprägt wurde. Insofern ist es auch eine sehr junge Disziplin. Speziell ab 2010 ist die Popularität von Data Science gestiegen – vor allem aufgrund der immer steigenden Datenflut, mit der sich Unternehmen und Regierungen konfrontiert sehen. Google, und hier vor allem die immer neu hinzukommenden Services, ist hier ein klassisches Beispiel für die Möglichkeiten, die Data Science bietet.
Data Science ist eine Disziplin im Schnittfeld zwischen Informatik, Statistik, Mathematik, Advanced Computing und Visualisierung. Die praktische Kombination dieser Disziplinen wird als Data Science bezeichnet Als Schöpfer des Begriffs Data Science gilt William S. Cleveland, der 2001 einen Aktionsplan zur Erweiterung der technischen Fähigkeiten, die in Statistikstudien in den USA gelehrt wurden, formulierte. Danach ging es Schlag auf Schlag. Etwa ein Jahr später, 2002, gründete der Internationale Rat für Wissenschaft das „Committee on Data for Science and Technology“, also eine konkrete akademische Instanz, die die von Forschern eingereichten Publikationen auf Qualität prüft. Anfang April startete dieses Komitee dann mit der Veröffentlichung des CODATA Data Science Journal, ein Jahr später die Columbia University mit der Veröffentlichung des „Journal of Data Science“.
Zwischen 1998 und 2000, der sogenannten „Dot-Com“-Zeit, war Festplattenspeicher überdurchschnittlich günstig, weshalb Unternehmen und Regierungen viel davon kauften. Einfach formuliert besagen die Parkinson‘schen Gesetze aus der Soziologie, dass sich Dinge immer um genau jene Menge erweitern, für die zusätzlich Platz gemacht wurde. Umgelegt auf das Beispiel mit dem Festplattenspeicher bedeutete dies, dass sich die verfügbaren und von Unternehmen extrahierten Daten nun vollständig auf den neuen Platz ausdehnten. Man sammelte alle möglichen Daten, ohne diese auf tatsächliche Relevanz zu prüfen. Diese Vorgehensweise produziert natürlich täglich neue Daten, von Benutzerinteraktionen auf einer Web-Plattform bis zu Bankomatkarten-Transaktionen. Der Begriff „Big Data“ kam auf, um eben diese Datenflut zu beschreiben, die mit herkömmlichen Datenbanksystemen nicht mehr beherrschbar ist.
Mit der Verfügbarkeit dieser gesammelten Daten kam es natürlich zur Anforderung, diese Daten nun auch zielgerichtet auswerten zu können. Neue
Computerarchitekturen für ebendieses Szenario wurden federführend von Unternehmen wie Google, Yahoo! und Amazon entwickelt und ist mittlerweile als „Cloud Computing“ bekannt. Eine der Erfindungen in diesem Kontext ist „MapReduce“, ein Algorithmus, der für die Verarbeitung sehr großer Datenmengen geeignet ist, da er die dabei entstehende Last auf mehrere Maschinen verteilen kann. „Apache Hadoop“1 ist eine Open-Source Software basierend auf dem MapReduce-Algorithmus, die die Verarbeitung von Big Data in der Cloud ermöglicht.
Der MapReduce-Algorithmus wurde von Google-Forschern entwickelt und ermöglicht das Verarbeiten von Big Data. Eine freie Software-Lösung basierend auf diesem Algorithmus ist das Apache Hadoop-Framework.
Normalerweise werden Daten als Ganzes eingelesen und darauf ein Algorithmus angewandt. Wenn wir beispielsweise eine Datei für eine Tabellenkalkulation wie Microsoft Excel© öffnen, wird eine Datei von der Festplatte geladen und der Inhalt mit dem Programm geöffnet. Der MapReduce-Algorithmus hingegen zerteilt sehr große Datenmengen in kleinere Stücke, die viel einfacher zu verarbeiten sind. Diese kleineren Datenstücke werden dann auf vielen einzelnen Computern verteilt, die die nötige Berechnung durchführen. Im Anschluss werden die Teilergebnisse von den einzelnen Computern wieder gesammelt und das Gesamtergebnis berechnet.
Allerdings war Hadoop für die breite Öffentlichkeit ohne fortgeschrittene Informatikkenntnisse viel zu schwierig zu bedienen. Als Konsequenz wurden basierend auf Hadoop eine Reihe von zusätzlichen Analysewerkzeuge entwickelt, die einfachere Schnittstellen und Bedienung für Hadoop ermöglichen.
Diese Gruppe von Analysewerkzeugen nennt man „Mass Analytic Tools“ und sie dienen primär dazu, die Analyse sehr komplexer und großer Datenmengen einfacher zu gestalten. Sie unterscheiden sich hinsichtlich der analysierten Daten als auch dem Zweck der Analyse und reichen von Empfehlungswerkzeugen, über Anwendungen aus dem Bereich des maschinellen Lernens zur Vorhersage von Ereignissen, z.B. um Kreditkartenmissbrauch vorzeitig zu erkennen. Nichtsdestotrotz erfordern auch diese Werkzeuge mathematisches Grundlagenwissen, um sie korrekt bedienen zu können.
„Mass Analytic Tools“ sind Analysewerkzeuge, die die Analyse von großen und komplexen Datenmengen vereinfachen. Auch sie setzen mathematisches Grundlagenwissen voraus.
Aufgrund der einfacheren Bedienung verbreiteten sich diese Analysewerkezeuge schnell in den Unternehmen, was wiederum die Nachfrage nach Experten erhöhte, die diese Werkzeuge auch tatsächlich bedienen konnten.
Das Berufsbild des „Data Scientists“ entstand – Experten, die aus der Datenflut für Unternehmen die richtigen Erkenntnisse ziehen und diese auch entsprechend argumentieren und präsentieren können. Bisherige Ansätze ermöglichten nicht, diese Datenmengen explorativ zu analysieren und damit tatsächlich neue Erkenntnisse aus ihnen zu gewinnen. Dennoch ist die Komplexität dieser Daten so hoch, dass in der Praxis mehrere Data Scientists gemeinsam in Teams arbeiten – oft auch in Zusammenarbeit mit Experten aus anderen Disziplinen.
Aufgrund der Komplexität und Vernetzung der Daten arbeiten Data Scientists meistens in Teams – oft auch zusammen mit Experten aus anderen Disziplinen, wie z.B. Usability, Experten Marketing oder Produktmanagement.
In den letzten Jahren wurde Data Science dann auch immer mehr im Zusammenhang mit Big Data genannt, was die Popularisierung des Begriffs zusätzlich förderte. Mitte der 2000er Jahre wurden zusätzlich in bekannten und unter Absolventen von einschlägigen Studien beliebten Firmen Data Science Teams ins Leben gerufen. Die Aufgabe dieser Teams war es, die Daten der Benutzer zu analysieren, die durch die Nutzung ihrer Plattformen entstanden, um daraus neue Produkte zu generieren. Mittlerweile gibt es auch weitere, eher praktisch orientierte Konferenzen für Data Science, wie die „O'Reilly's Strata Conferences“ oder die „Greenplum's Data Science Summits“. Ebenso spricht die Berufsbezeichnung „Data Scientist“ Informatiker erfolgreich an – und dies in einer Zeit, wo ohnehin schon ein Mangel an IT-Experten am Berufsmarkt herrscht.
Mittlerweile haben auch mehrere Universitäten begonnen, einschlägige Ausbildungen für Data Science anzubieten, entweder als umfassende mehrjährige Studienabschlüsse oder als Sommerprogramm.
Begleitend sind auch professionelle nichtakademische Organisationen entstanden, wie „Data Science Central“ und „Kaggle“. Der Fokus dieser Organisationen liegt weniger auf der Entwicklung neuer Methoden zur Datenanalyse, sondern eher auf der Vermarktung und Attraktivierung des Berufsfelds.
Beispielsweise können sich Unternehmen bei Kaggle anmelden, um gegeneinander bei komplizierten Datenanalysen anzutreten oder eine Aufgabe für alle zu definieren, die mithilfe von Data Science gelöst werden muss. Danach versuchen die Unternehmen, die Aufgabe zu lösen und treten gegeneinander an. Kaggle wiederum bezahlt für die beste Lösung. Für die dort registrierten Data Scientists dient eine Teilnahme natürlich ebenfalls als Demonstration ihrer Fachkompetenz, die dann gegenüber potentiellen Arbeitgebern auch gut vermarktet werden kann.
Als praktisches Beispiel sei auch AltaVista genannt, die in den 90er Jahren die beliebteste Suchmaschine war. Damals extrahierten sogenannte „Crawler“ den Text von Webseiten, der daraufhin von AltaVista indiziert und in Datenbanken gespeichert wurde. Wenn Benutzer also auf der Webseite von AltaVista nach einem Begriff suchten, durchsuchte AltaVista seine Datenbanken nach genau diesem Begriff und konnte entsprechende Webseiten vorschlagen. Als relevanteste Webseite wurde jene ermittelt, bei der der gesuchte Begriff am häufigsten vorkam. Auch wenn dies eine sehr einfache Lösung war, ermöglichte sie zu einer Zeit, als das Internet wachsende Beliebtheit erfuhr und Computer noch nicht die aktuelle Leistung hatten, die zielgerichtete Suche nach Informationen und für damalige Verhältnisse gute Antwortzeiten.
AltaVista gilt als erste Suchmaschine, die große Mengen an Daten indizierte. Bei einer Suchabfrage ermittelte man die relevanten Seiten über die Häufigkeit des Suchbegriffs auf den indizierten Seiten.
Später in den 90er Jahren war es dann Google, das die Suche im Internet revolutionierte – durch einen anderen Algorithmus. Dazu kombinierten sie Ansätze aus Mathematik, Statistik und Informatik zu einem neuen Algorithmus, genannt „PageRank“, der jenen von AltaVista schnell verdrängte. Der wesentliche Unterschied war, dass ihr Algorithmus nicht nur die Wörter auf den jeweiligen Seiten indizierte, sondern auch den Hyperlinks zu anderen Webseiten folgte und auch dort die Wörter indizierte. Zusätzlich betrachtet ihr Algorithmus auch noch die Anzahl an eingehenden Hyperlinks auf eine Webseite als Maß für deren Relevanz. Die Idee dahinter war, dass der Betreiber einer Website ja nur dann die entsprechende andere Webseite anführen wird, wenn er sie als relevant ansieht. Insofern lässt sich davon die Relevanz einer Seite ableiten. Daher stehen bei den Ergebnissen einer Suche auf Google jene Seiten mit den meisten eingehenden Hyperlinks ganz oben.
Damit erfasst Google auch indirekt das menschliche Wissen über eine Website, welches durch die bewusste Auswahl an ausgehenden Webseiten ableitbar ist.
Dieses Beispiel zeigt auch die Mächtigkeit von Metadaten, auf die sich der PageRank-Algorithmus ja konzentriert hat. Dass gerade Google eine Fülle von Open-Source Lösungen wie das Hadoop-Framework entwickelte, entstand auch aus ihrem Bedarf heraus, die Webseiten regelmäßig zu indizieren, um die Qualität der Suchergebnisse dauerhaft sicherzustellen.
Data Science ist eine Kombination aus mehreren Disziplinen mit dem Ziel, aus komplexen und großen Datenmengen neue Erkenntnisse zu gewinnen.
Der MapReduce-Algorithmus und das Hadoop-Framework von Google gelten als wichtigste Verfahren, um große Datenmengen auf mehreren Computern oder der Cloud verteilt zu analysieren. Ebenso zeigt Google’s PageRank-Algorithmus die Mächtigkeit von Metadaten, um die Qualität der Datenanalyse zu erhöhen.
1.4 Begriffsdefinitionen
Im Technologiebereich und verwandten Branchen hört man die Begriffe Data Analytics und Data Science sehr oft – manchmal sogar, um den gleichen Sachverhalt auszudrücken. Doch auch wenn die beiden Begriffe ähnlich klingen, beschreiben sie unterschiedliche Konzepte und Auswirkungen auf Ihr Unternehmen. Das Wissen um genau jene Unterschiede ist allerdings wichtig, um sich mit Experten austauschen zu können und genau diese Auswirkungen richtig einschätzen zu wissen.
Während Data Analytics die konkrete Tätigkeit beschreibt, bezieht sich Data Science auf die gesamte Disziplin und setzt nicht unbedingt eine konkrete Tätigkeit voraus. Beispielsweise ist maschinelles Lernen ein Teilbereich von Data Science, hängt aber mit Data Analytics, wie wir sie kennen, nur begrenzt zusammen.
Während Data Analytics eine Tätigkeit beschreibt, umfasst der Begriff Data Science sämtliche zu dieser Disziplin zugehörigen, weiteren Schritte, wie z.B. Data Preprocessing, Cleansing oder auch artverwandte Disziplinen wie maschinelles Lernen.
Abbildung 1: Data Science als Zusammenspiel mehrerer Disziplinen
Abbildung 1 zeigt die Überlappung von Data Science mit anderen, verwandten Disziplinen. Speziell ist hierbei die Schnittmenge aus Mathematik, Informatik und Statistik relevant, da eben nur die Kombination dieser Disziplinen es ermöglicht, Daten in dieser Menge und Komplexität zu sammeln und zu analysieren. Diese Verbindung von mehreren Disziplinen verdeutlicht auch das notwendige Wissen von Data Scientists – die jeweilige Person muss sich nicht nur auf Informatik spezialisiert haben, sondern auch über (tiefergehende) Expertise in Statistik verfügen. Ohne konkretes Wissen über die Domäne, in der man Data Science einsetzen will, lassen sich allerdings auch nicht die richtigen Fragen stellen. Deshalb ist der Einsatz eines Fachexperten unabdingbar, wenn Sie Data Science in Ihrem Unternehmen einsetzen möchten. Dies auch deshalb, da Data Science letztendlich zu praktisch umsetzbaren Wissen für Sie führen soll und nicht „nur“ Mittel zum Zweck sein soll. Der Einsatz eines Fachexperten vermeidet daher den klassischen Tunnelblick.
Ein sehr prominentes Beispiel für diese Kombination unterschiedlicher Disziplinen ist die Bioinformatik, wo Epidemiologen, Mediziner und Statistiker im Zusammenspiel medizinische Daten auswerten. Epidemiologen bringen tiefes Verständnis für Krankheiten mit, die Stärke liegt aber darin, das vorhandene Datenmaterial mit statistischen Analysen und Fachkenntnissen gezielt und explorativ auszuwerten.
Data Science kann seine Stärke nur dann entfalten, wenn Data Scientists mit den jeweiligen Domänen- und Fachexperten zusammenarbeiten. Ein prominentes Beispiel hierfür ist die Bioinformatik, wo neben Data Scientists auch Epidemiologen an medizinischen Fragestellungen arbeiten.
Das Marketing des Begriffs „Data Science“ hat der Branche allerdings einen großen Gefallen getan. Es hat vielen erst die Macht der Daten bewusstgemacht, sowohl Unternehmen als auch Kunden und zu einer Professionalisierung geführt. Gerade ab 2012 hat eine Reihe von Publikationen „Big Data“ zu einem Begriff gemacht – gefördert von Firmen wie IBM und SAS. Das Missverständnis dieses Hypes liegt aber darin zu glauben, Big Data gab es davor nicht. Abhängig vom Speichermedium waren heute kleinste Datenmengen vor zehn Jahren unbeherrschbar groß. Der Unterschied aber liegt darin, dass man heute diese Daten verstärkt sammelt und – noch viel mehr – Daten unterschiedlichster Quellen miteinander in Beziehung setzt und analysiert. Insofern werden Datenmengen, die heute als groß und praktisch unbeherrschbar gelten, in mehreren Jahren Standard sein.
1.4.1 Big Data
Big Data ist ein sich ständig weiterentwickelnder Begriff und beschreibt große Volumen an strukturierten und unstrukturierten Daten, aus denen Informationen gewonnen werden können. Diese Daten können sowohl für die Datenanalyse als auch für maschinelles Lernen verwendet werden.
Große Datenmengen werden oft durch 3Vs-charakterisiert: das extreme Datenvolumen als Volume, die Vielfalt der Daten als Variety und die Geschwindigkeit, mit der die Daten verarbeitet werden müssen, als Velocity. Diese Merkmale wurden von der Firma Gartner, einer internationalen Unternehmensberatung, Anfang 2001 identifiziert. Als groß gelten hierbei Datenmengen ab Terabytes – gefolgt von Petabytes und sogar der Begriff der Exabytes wurde schon genutzt, um das Volumen von heutigen Daten zu beschreiben.
In jüngster Zeit wurden die 3Vs durch weitere Charakteristiken ergänzt, wie z.B. Vertrauenswürdigkeit Veracity, Wert Value und Variabilität Variability. Variety ist zwar eng verwandt mit Variability, beschreibt aber etwas anderes. Letzteres zielt auf die unterschiedlichen Möglichkeiten ab, für die man die gewonnenen Informationen verwenden kann, während Ersteres die Unterschiede der Daten an sich beschreibt.
Abbildung 2 stellt die 6Vs mit einer kurzen Zusammenfassung dar.
Abbildung 2: Die 6Vs von Big Data
Volume
Umfangreiche Daten können aus unzähligen verschiedenen Quellen stammen, wie z.B. Geschäftsabwicklungssystemen, Kundendatenbanken, Krankenakten, dem Monitoring von Benutzerinteraktionen auf einer Web-Plattform, mobilen Anwendungen, sozialen Netzwerken, gesammelten Ergebnissen wissenschaftlicher Experimente, maschinell generierten Daten oder Echtzeit-Datensensoren, die im Internet der Dinge („IoT“) eingesetzt werden. Ebenso können manche Daten schon in ihrer Rohform verarbeitet werden, während andere vorverarbeitet werden müssen. Typischerweise geschieht das mit Data-Mining-Tools oder spezieller Software zur Datenaufbereitung (z.B. um statistische Ausreißer schon im Vorfeld zu filtern).
Variety
In Big Data werden unterschiedlichste Datentypen verarbeitet. Man unterscheidet strukturierte Datentypen, die typsicherweise in SQL-Datenbanken und Data Warehouses gespeichert werden, unstrukturierte Datentypen wie Textdateien, die keinem konkreten Schema entsprechen und semi-strukturierte Daten wie Protokolle von Sensoren und Webservern. Das wesentliche Kriterium dabei ist, ob es ein sogenanntes „Schema“ für die Daten gibt, also eine konkrete Grammatik, wie die Daten auszusehen haben und welche davon miteinander in Beziehung gebracht werden können. Relationale Datenbanken erfordern beispielsweise grundsätzlich ein Schema, um überhaupt Daten speichern zu können. Sogenannte NoSQL-Datenbanken sind schemafrei, das heißt, man kann auch unstrukturierte und semi-strukturierte Daten speichern, was die Analyse entsprechend vereinfacht. Relationale Datenbanken haben ihre Stärke in der Transaktionssicherheit, also die Integrität zu jedem Zeitpunkt, was sie daher für klassische Anwendungen prädestiniert. Auf der anderen Seite haben NoSQL-Datenbanken ihre Stärke eben in der Speicherung von weniger strukturierten Daten und einer besseren Skalierbarkeit unter vielen gleichzeitigen Benutzern. Dies macht sie daher besser geeignet für die Datenanalyse als auch für die Speicherung der Daten, gerade wenn es sich dabei um sehr große und rasant wachsende Datenmengen handelt.
Man unterscheidet strukturierte, unstrukturierte und semi-strukturierte Daten. Das wesentliche Unterscheidungsmerkmal dafür ist, ob es ein Schema, also eine konkrete Grammatik gibt, die die Struktur der Daten beschreibt.
Zusätzlich werden bei Big Data meistens mehrere Datenquellen gleichzeitig zusammengefasst und angesprochen, die anders gar nicht integriert werden könnten. Der Grund dafür liegt meistens darin, dass diese unterschiedlichen Datenbanken ja jeweils ganz unterschiedliche Schemata haben. Ein Big Data Projekt, das beispielsweise den zukünftigen Umsatz basierend auf vergangenen Verkaufsdaten errechnen soll, muss sowohl auf Retouren-Daten als auch auf Online-Rezensionen der Kunden zugreifen können, um hier Berechnungen durchführen zu können. Es liegt in der Natur dieser Daten, dass diese natürlich alle jeweils eine andere Struktur haben.
Velocity
Big Data adressiert auch das Problem, dass heutzutage Daten mit sehr großer Geschwindigkeit aus unterschiedlichen Quellen erzeugt, verarbeitet und analysiert werden. In Echtzeit oder nahezu in Echtzeit werden in vielen Fällen die Daten aktualisiert, auf der anderen Seite bestehen die täglichen, wöchentlichen oder monatlichen Updates bei klassischen Anwendungen. Big Data Projekte nehmen diese Datenmengen aber nicht nur auf, sondern müssen auch innerhalb einer bestimmten Zeit Ergebnisse liefern können, um überhaupt von Nutzen sein zu können. Mithilfe mehrere Datenquellen übergreifender Abfragen werden Korrelationen berechnet, also Zusammenhänge zwischen den Daten extrahiert. Um aber von tatsächlichem Nutzen sein zu können, müssen Data Scientists ein detailliertes Verständnis und ein Gefühl dafür haben, ob diese Ergebnisse auch richtig sein können. Basierend auf den Ergebnissen müssen auch weitere Fragen formuliert werden, die die bisherigen Hypothesen dann entweder unterstützen (verifizieren) oder widerlegen (falsifizieren) können. Ebenso ist die Geschwindigkeit der Verarbeitung auch deshalb wichtig, um sicherzustellen, dass die enthaltenen Informationen überhaupt noch gültig sind, wenn man basierend auf Erkenntnissen Aktionen ergreift. Besonders kritisch ist die Geschwindigkeit bei maschinellem Lernen und künstlicher Intelligenz (KI), wo in den gesammelten Daten automatisch Muster extrahiert, miteinander in Bezug gebracht und daraus neue Erkenntnisse abgeleitet werden.
Die Geschwindigkeit der Datenanalyse stellt sicher, dass die gewonnenen Erkenntnisse dann noch gültig sind, wenn man konkrete Handlungen setzt.
Besonders kritisch ist die Geschwindigkeit bei maschinellem Lernen und künstlicher Intelligenz.
Veracity
Datenwahrheit bezieht sich auf den Grad an Vertrauenswürdigkeit in Datensätzen. Unsichere Rohdaten, die aus mehreren Quellen, wie z.B. Social Media-Plattformen und Webseiten, gesammelt werden, können gravierende Probleme hinsichtlich der Datenqualität haben. Stellen sich dann später bei Betrachtung der Ergebnisse Fehler heraus, so sind diese dann nur mehr sehr schwer zurückzuverfolgen. Man müsste dann für jeden analysieren Datensatz den genauen Ursprung wissen, um den Fehler rückwirkend zu rekonstruieren und beheben zu können.
Schlechte Daten führen zu ungenauen Analysen und kompromittieren den Wert der Analysen, da sie Führungskräfte veranlassen können, den Daten als Ganzes zu misstrauen. Insofern müssen die unsicheren Daten in einem Unternehmen berücksichtigt werden und entweder von der Analyse ausgeschlossen werden oder bei der Präsentation der Ergebnisse entsprechend dargestellt werden. Daher ist es umso wichtiger, dass schon im Vorfeld die Qualität der Daten sichergestellt oder zumindest erhöht wird, um über eine ausreichende Menge qualitativ hochwertiger Daten zu verfügen, um valide Ergebnisse zu erzielen.
Die Qualität der Daten muss schon im Vorfeld sichergestellt werden, da sich Fehler oft im Nachhinein nicht mehr korrigieren lassen. Auch ist es oft gar nicht mehr möglich, sie bis zum Ursprung zurückzuverfolgen.
Value
Nicht alle gesammelten Daten haben einen echten Geschäftswert und die Verwendung ungenauer Daten kann die Qualität der Ergebnisse erheblich beeinträchtigen. Es ist daher wichtig, dass Unternehmen die Daten vorher bereinigen und sicherstellen, dass sich die verwendeten Daten tatsächlich auf relevante Geschäftsprobleme beziehen. Dies muss vor allem vor einer möglicherweise sehr aufwendigen Datenanalyse geschehen, deren Ergebnisse keinen unternehmerischen Wert haben könnten.
Variability
Die Menge an unterschiedlichen Anwendungsgebieten der gewonnenen Erkenntnisse wird als „Variability“, zu Deutsch Variabilität, bezeichnet. Diese muss besonders bei großen Datensätzen beachtet werden, die weniger konsistent sind als Einzeldaten (die z.B. durch viele kleine Ereignisse entstehen wie Bankomatkartentransaktionen) und die oft mehrere, auch unterschiedliche Bedeutungen haben. Auch können die Daten aus den unterschiedlichen Datenquellen auch unterschiedlich formatiert sein, was den Aufwand für die Verarbeitung und Analyse der Daten weiter erschwert.
Die 6Vs beschreiben die wesentlichen Eigenschaften von Big Data. Das extreme Datenvolumen, die Vielfalt, die Geschwindigkeit der Verarbeitung, die Vertrauenswürdigkeit, den möglichen Wert der gewonnenen Informationen und die Variabilität der Ergebnisse.
1.4.2 Data Science
So wie die Wissenschaft ein großer Begriff ist, mit einer Reihe unterschiedlicher Schwerpunkten und Richtungen, ist auch Data Science ein breiter Begriff für eine Vielzahl von Modellen und Methoden zur Informationsbeschaffung. Unter dem Dach von Data Science befinden sich die wissenschaftliche Methode, Mathematik, Statistik und andere Werkzeuge, die zur Analyse und Manipulation von Daten verwendet werden. Wenn heutzutage von einem Werkzeug oder einem Prozess die Rede ist, in dessen Zuge Daten analysiert oder konkrete Informationen daraus gewonnen werden, fällt es wahrscheinlich unter Data Science.
In der Praxis verfolgt Data Science das Ziel, Informationen und isolierte Datenquellen so zu verbinden, um daraus Erkenntnisse abzuleiten, die für das Unternehmen nützlich sein können und einen Vorsprung mit sich bringen.
Data Science erforscht die Welt des Unbekannten explorativ, indem sie versucht, neue Muster und Erkenntnisse in den Daten zu finden, was sie stark von der rein deskriptiven Statistik abgrenzt. Anstatt eine Hypothese zu überprüfen, wie es normalerweise bei der Datenanalyse der Fall ist, versucht Data Science mit statistischen Verfahren Verbindungen zwischen den unterschiedlichen Daten zu erkennen und daraus wertvolles Wissen vor allem für die Zukunft zu gewinnen. Data Science bietet Unternehmen eine neue Perspektive auf ihre Daten, vor allem aufgrund der Art und Weise, wie diese Daten miteinander verbunden sind. Konnte man früher beispielsweise nur die Stammdaten seiner Kunden analysieren, so kann man heutzutage diese Stammdaten zusätzlich mit Daten aus den täglichen Einkäufen und dem Einlösen von zugesandten Rabatten eines Kunden verknüpfen und so ein sehr genaues Profil seiner Kunden gewinnen.
Data Science arbeitet primär explorativ, das heißt, es untersucht vorhanenes Datenmaterial zum Beispiel auf das Vorhandensein von Mustern.
Ein Gegenstück dazu sind deskriptive Verfahren, die primär der Berechnung statistischer Kennzahlen dienen.
1.4.3 Data Analytics
Aber wie grenzt sich Data Analytics von Data Science ab? Am besten lässt sich das mit einer Metapher beschreiben: Würde man sich Data Science als Haus vorstellen, in welchem Daten analysiert werden würden, dann wäre Data Analytics nur ein bestimmter Raum in diesem Haus. Data Analytics ist ein konkretes Werkzeug, das von Data Science benutzt wird – es ist also viel spezifischer und hat ein ganz genaues Anwendungsszenario. Data Analytics ist insofern auch fokussierter, als Analytiker dabei ja ein bestimmtes Ziel vor Augen haben – nämlich eben genau jene Daten zu suchen, die sich miteinander in Beziehung setzen lassen. Oftmals wird diese Aufgabe auch automatisiert, um konkrete Informationen in den Daten zu finden.
Data Analytics beschreibt das gezielte Durchkämmen von Daten, um jene relevanten Information zu finden, die von Unternehmen verwendet werden können, um bestimmte Ziele zu erreichen. Im Wesentlichen werden dabei bereits vorhandene Informationen, die schon im Datenbestand des Unternehmens sind, sortiert. Diese Informationen können dann verwendet werden, um Ereignisse in der Vergangenheit, Gegenwart oder Zukunft zu messen. Data Analytics schlägt eine Brücke von Erkenntnissen zu Auswirkungen, indem sie Trends und Muster mit den wahren Zielen des Unternehmens verbindet und tendenziell etwas geschäfts- und strategieorientierter als Data Science ist.
Warum die Abgrenzung wichtig ist
Die scheinbar vernachlässigbaren Unterschiede zwischen Data Science und Data Analytics können tatsächlich einen großen Einfluss auf ein Unternehmen haben. Experten beider Disziplinen erfüllen zunächst unterschiedliche Aufgaben und haben oft unterschiedliche Hintergründe. Die korrekte Verwendung der Begriffe hilft aber Unternehmen, die richtigen Personen für die ihnen gestellten Aufgaben einzustellen. Data Science und Data Analytics können genutzt werden, um verschiedene Dinge zu finden, und obwohl beide für Unternehmen nützlich sind, werden sie nicht in jeder Situation verwendet. Data Analytics wird häufig in Branchen wie Gesundheitswesen, Spieleindustrie und Reisen eingesetzt, während Data Science bei der Internetsuche und der digitalen Werbung weit verbreitet ist.
Data Science spielt auch eine wachsende und sehr wichtige Rolle bei der Entwicklung der künstlichen Intelligenz und des maschinellen Lernens. Viele Unternehmen verwenden einerseits Systeme, um große Datenmengen durchzusehen und verwenden andererseits Algorithmen, um Verbindungen in diesen großen Datenmengen zu finden. Ziel dabei ist, die Systeme mit Daten soweit zu trainieren, dass sie selbst Aufgaben lösen und Vorhersagen treffen können, die den Unternehmen am ehesten helfen, ihre Ziele zu erreichen.
Maschinelles Lernen hat ein enormes Potenzial für viele Branchen und wird zweifellos eine große Rolle dabei spielen, wie Unternehmen in Zukunft geführt werden. Aus diesem Grund ist es wichtig, dass Unternehmen und Mitarbeiter den Unterschied zwischen Data Science und Data Analytics und die jeweiligen Einsatzgebiete kennen.
Obwohl es Unterschiede zwischen beiden Disziplinen gibt, sind sowohl Data Science als auch Data Analytics wichtige Themen im Umgang mit Daten.
Beide Begriffe sollten von Unternehmen genutzt und verstanden werden, wenn sie tatsächlich das gesamte Potential aus Daten schöpfen wollen.
Data Science und Data Analytics verfolgen unterschiedliche Ziele. Während Data Science auf die Verknüpfung von Daten aus unterschiedlichen Quellen fokussiert, sucht Data Analytics nach Mustern in primär einer Datenquelle.
1.4.4 Business Intelligence
Mit dem steigenden Volumen und der zunehmenden Komplexität der Daten waren immer mehr Unternehmen damit überfordert, Data Science in ihren Unternehmen zu etablieren. Es kam vermehrt die Nachfrage nach einfacheren Lösungen im Unternehmenseinsatz auf. Business Intelligence (BI) als weiteres verwandtes Thema zu Data Science adressiert einen bestimmten, vor allem unternehmerischen Verwendungszweck von Daten.
Es ist wichtig, mit einigen grundlegenden Definitionen der beiden Begriffe zu beginnen und einen tieferen Blick auf die beiden verschiedenen (wenn auch eng miteinander verbundenen) Bereiche innerhalb Data Science zu werfen.
Data Science, wie es in der Wirtschaft verwendet wird, ist an sich datengetrieben, wobei viele interdisziplinäre Wissenschaften zusammen angewendet werden, um Erkenntnisse und daraus zu folgernde Handlungsszenarien aus den verfügbaren Geschäftsdaten zu gewinnen, die typischerweise groß und komplex sind. Auf der anderen Seite hilft Business Intelligence (oder BI) den aktuellen Stand der Geschäftsdaten zu überwachen, um die historische Performance eines Unternehmens zu verstehen.
Kurz gesagt, während BI hilft, vergangene Daten zu interpretieren, kann Data Science die vergangenen Daten (Trends oder Muster) analysieren, um zukünftige Vorhersagen zu treffen. BI wird hauptsächlich für Reporting oder deskriptive Analysen verwendet, während Data Science eher für Vorhersagen (Predictive/Prescriptive Analytics) verwendet wird.
Sowohl Data Science als auch BI konzentrieren sich auf Daten mit dem Ziel der Ergebnisverbesserung, was im Fall von Unternehmen Gewinnmargen, Kundenbindung oder die Erschließung neuer Märkte sein können. Beide Disziplinen sind in der Lage, Daten zu interpretieren und benötigen in der Regel technische Experten, um die gewonnenen (allerdings noch datenzentrierten) Ergebnisse in eine allgemeinverständliche Sprache zu übersetzen. In einem typischen Geschäftsumfeld haben allerdings Führungskräfte weder die Zeit noch die Motivation die hinter Data Science oder BI verborgenen technischen Details zu erlernen. Sie benötigen schnelle und verlässliche Systeme, um kritische Entscheidungen – gestützt auf Daten – schnell und gut treffen zu können.
Sowohl für Business Intelligence als auch für Data Science ist mittlerweile eine Vielzahl von Systemen verfügbar, die Führungskräfte oder auch Experten der Fachabteilungen bei datenbasierten Entscheidungen unterstützen können. Der Hauptunterschied zwischen Data Science und Business Intelligence besteht darin, dass Business Intelligence zwar für die Verarbeitung statischer und hochstrukturierter Daten ausgelegt ist, Data Science aber auch komplexe dynamische Daten in höherer Frequenz und aus einer Vielzahl von Datenquellen verarbeiten kann. Während Business Intelligence also nur Daten in bestimmten Formaten verarbeiten kann, können Data Science-Technologien (wie vor allem Big Data) viele Arten von unstrukturierten Daten sammeln, bereinigen, vorbereiten, analysieren und vernetzen, auch wenn sie aus unterschiedlichen Datenquellen stammen.
Business Intelligence hat einen Fokus auf die Verarbeitung statischer und hochstrukturierter Daten, während Data Science auch dynamische und unstrukturierte Daten aus unterschiedlichen Datenquellen verarbeiten kann.
Schon vor Jahren haben Geschäftsleute ihre Daten analysiert, auch aus gesetzlichen Gründen. Um wettbewerbsfähig zu bleiben, begannen die Unternehmen, sich von der reinen Berichterstattung über die vergangene Periode zu lösen und lieber zukünftige Trends vorherzusagen und Handlungsszenarien dafür zu planen. An dieser Stelle kam Data Science ins Spiel. Mithilfe von Data Science und den verwandten Technologien und Werkzeugen begann man, die vergangenen Daten auf Muster in unterschiedlichen Quellen zu untersuchen und z.B. die zukünftige Geschäftsentwicklung vorherzusagen.
Da Unternehmen zunehmend datenabhängig werden, wird die Bedeutung von Data Science als Entscheidungsunterstützung noch steigen. Die Hersteller von Data Science Lösungen (z.B. IBM, SAS) versprechen, in Zukunft die meisten Analyse- oder BI-Aufgaben zu automatisieren, wodurch auch alltägliche Anwender diese Analysen durchführen können, um Erkenntnisse und Informationen zu gewinnen. In der Vergangenheit war Business Intelligence ein wichtiges Werkzeug für die Entscheidungsfindung im Unternehmen – die Bedienung der Werkzeuge blieb aber letztendlich immer noch den Experten der IT-Abteilungen vorbehalten. Zukünftige Softwarelösungen wollen eben genau jene Barriere durchbrechen, um den Fachabteilungen den Zugang zu Data Science zu ermöglichen und damit die Durchlaufzeit der Analysen zu verringern.
Damit wird sich auch die Aufgabe der Data Scientists ändern. Sie werden dann nur mehr zur Operationalisierung der Daten, das heißt, deren Messung und Bereinigung, herangezogen. Danach leisten sie nur mehr Unterstützung, wenn benötigt.
Business Intelligence hat ihre Stärken im Reporting und in deskriptiven Analysen, Data Science in der Analyse von Echtzeitdaten für Vorhersagemodelle (Predictive Analytics).
1.5 Berufsbild Data Scientist
Um die Daten aus unterschiedlichen Quellen auch entsprechend vernetzen zu können und in einen größeren Kontext zu stellen, ist die Fähigkeit zum vernetzten Denken für Data Scientists besonders wichtig. Allerdings ist dies eher ein Talent als eine konkrete Fähigkeit, die man lernen kann.
Danach folgen wichtige Eigenschaften eines Data Scientists wie Neugierde, Argumentationsstärke und Urteilsfähigkeit. Die Neugierde ist deshalb so wichtig, weil Data Scientists oftmals ohne konkrete Fragestellungen die Daten „erkunden“ müssen, also auch selbst neugierig auf Erkenntnisse daraus sein müssen ohne Unterstützung aus dem Fachbereich. Urteilsfähig, denn Data Scientists müssen unvoreingenommen an die Analyse herangehen und jede Erkenntnis daraus zulassen können. Es wäre unprofessionell, die Daten nur entlang vorgefasster Vorstellungen zu analysieren und damit für das Unternehmen wesentliche Erkenntnisse schon im Vorfeld zu verunmöglichen.
Gute argumentative Fähigkeiten sind notwendig, um die gewonnenen Erkenntnisse dem Fachpublikum verständlich präsentieren zu können. Dies unterstreicht auch erneut die Notwendigkeit, die Erkenntnisse in Geschichten zu verpacken, die auch für Außenstehende sowohl den Prozess der Datengewinnung und –analyse, die gezogenen Schlüsse als auch die notwendigen Konsequenzen verständlich machen. Die Darstellung der Erkenntnisse als Geschichten veranschaulicht Unternehmen auch den Umgang mit den Daten und das Potential deren Analyse. Zusätzlich müssen Data Scientists auch in der Lage sein, Hypothesen argumentativ schlüssig entweder zu entkräften als auch zu bestätigen.
Welche konkreten Analysetechniken, -methoden oder Werkzeuge Data Scientists einsetzen, ist letztlich sekundär. Die meisten verfügbaren Werkzeuge ähneln sich in ihrem Funktionsumfang. Viele Data Scientists müssen in der Lage sein, das richtige Produkt für den jeweiligen Anwendungsfall zu finden, was gerade von den konkreten Anforderungen abhängt. Manche Produkte sind besser geeignet für Echtzeitanalysen, andere für die Integration heterogener strukturierter Datenquellen. Für die meisten Szenarien sind Open-Source Lösungen ein guter Einstieg und können dann mit steigenden Aufgaben erweitert werden.
Data Scientists müssen Zusammenhänge zwischen Daten schnell erkennen können als auch argumentationsstark und urteilsfähig sein, um Ergebnisse den Fachabteilung verständlich präsentieren zu können.
2 Theoretische Grundlagen
2.1 Datentypen
Datentypen sind ein wichtiges Konzept der Statistik, das es zu verstehen gilt.Erst dann können statistische Verfahren korrekt auf Daten angewandt werden und somit bestimmte Annahmen überhaupt getroffen werden. In diesem Abschnitt des Skripts werden daher die verschiedenen Datentypen vorgestellt, die Sie kennen müssen, um eine Datenanalyse durchführen bzw. die Ergebnisse verstehen zu können.
Abbildung 3: Übersicht ausgewählter Datentypen
Ein gutes Verständnis der verschiedenen Datentypen, auch Mess-Skalen genannt, ist deshalb notwendig, um selbständig Daten analysieren zu können, da Sie bestimmte statistische Verfahren nur für bestimmte Datentypen verwenden können. Außerdem beeinflusst der Datentyp auch, wie Sie das Ergebnis Ihrer Analyse am besten visualisieren sollten. Man kann Datentypen als unterschiedliche Kategorien für Variablen sehen. Abbildung 3 stellt die Datentypen dar, die im folgenden Abschnitt anhand ausgewählter Beispiele beschrieben werden.
2.1.1 Kategorische Daten
Kategorische Daten stellen Merkmale wie das Geschlecht oder die Sprache einer Person dar. Um diese Merkmale für die Analyse leichter abbilden zu können, können Sie ihnen aber auch numerische Werte zuweisen, zum Beispiel 1 für Frauen und 0 für Männer. Dabei ist allerdings zu beachten, dass diese Zahlen keine mathematische Bedeutung haben, sondern nur der leichteren Analyse der Daten dienen.
Data Science
2.1.2 Nominale Daten
Nominaldaten sind eigenständige Einheiten zur Kennzeichnung von Variablen, die keinen quantitativen Wert haben. Man kann sie sich einfach als Etiketten vorstellen. Nominale Daten haben keine Ordnung, das heißt, man kann sie zum Beispiel auch nicht sortieren.
Abbildung 4: Beispiel nominaler Daten in einem Fragebogen
Abbildung 4 zeigt ein Beispiel für nominale Daten, wie es oft in Fragebogen vorkommt. Das linke Merkmal, das das Geschlecht einer Person beschreibt, wird auch dichotom genannt, da die zugeordnete nominale Skala nur zwei Kategorien zulässt (männlich oder weiblich). Sie sammeln die konkreten Werte für nominale Daten durch:
Frequenzen: Die Frequenz ist jene Rate, mit der etwas über einen bestimmten Zeitraum oder innerhalb eines Datensatzes passiert. Anteile: Sie können den Anteil leicht berechnen, indem Sie die Häufigkeit durch die Gesamtzahl der Ereignisse dividieren. (z.B. wie oft etwas passiert ist, dividiert durch wie oft es passieren könnte) Zur Visualisierung werden meist Torten- oder Balkendiagramme verwendet.
Abbildung 5: Balkendiagramm (links) und Tortendiagramm (rechts)
Data Science
2.1.3 Ordinale Daten
Ordinaldaten stellen ebenfalls eigenständige, aber geordnete Einheiten dar. Sie sind daher fast dasselbe wie die nominalen Daten, außer dass sie auch eine Ordnung haben. Ein Beispiel für ordinale Daten zur Abfrage der höchsten abgeschlossenen Ausbildung zeigt Ihnen Abbildung 6. Abbildung 6: Beispiel für ordinale Daten in einem Fragebogen
Beachten Sie, dass der Unterschied zwischen Volksschule und Hauptschule anders ist als der Unterschied zwischen Matura und Hochschule. Dies ist die wichtigste Einschränkung ordinaler Daten, da die Unterschiede zwischen den einzelnen Werten nicht bekannt sind. Aus diesem Grund werden Ordinalskalen in der Regel verwendet, um nicht-numerische Merkmale wie Zufriedenheit, subjektive Einschätzungen und so weiter zu messen.
Wenn Sie mit Ordinaldaten arbeiten, können Sie die gleichen Methoden zur Visualisierung wie bei Nominaldaten verwenden, haben aber auch die Möglichkeit, einige weitere zusätzliche Diagrammarten zu verwenden. Neben Torten- und Balkendiagrammen können Sie Ordinaldaten beispielsweise zusätzlich durch Häufigkeiten, Anteile oder Prozentsätze darstellen. Auch können Sie statistische Merkmale wie Quartile, Median oder den Interquartilbereich explizit in Diagrammen darstellen (siehe Abschnitt 3.1). Ordinaldaten müssen Sie entsprechend numerisch „codieren“, um Sie quantitativ auswerten zu können.
Ein Beispiel für ordinale Daten sind die sogenannten Likert-Skalen, die oft in Fragebögen verwendet werden. Dabei werden Antworten auf einer Skala angeboten – beispielsweise von „gut“ bis „sehr gut“. Dies bildet qualitative Information letztendlich quantitativ ab, um sie überhaupt auswerten zu können.
Likert-Skalen sind ein bekanntes Beispiel, um ordinale Daten in Fragebögen darzustellen. Für die Auswertung werden die Skalenelemente (z.B. von gut bis sehr gut) dann konkreten Zahlen zugeordnet, um die Daten quantitativ auswerten zu können.
2.1.4 Numerische Daten
Diskrete Daten
Wir sprechen von diskreten Daten, wenn die einzelnen Werte unterschiedlich sind und nur ganz bestimmte Werte annehmen können. Diese Art von Daten kann nicht gemessen, aber gezählt werden. Beispielsweise die Anzahl von Schülern in einer Klasse – es kann dabei keine halben Werte geben. Indem Sie versuchen, die Daten zu zählen und in kleinere Teile aufzuteilen, können Sie überprüfen, ob es sich um diskrete Daten handelt.
Kontinuierliche Daten
Kontinuierliche Daten stellen Messungen dar. Ihre Werte können und müssen daher nicht gezählt werden, da sie erst durch die Messung zustande kommen. Ein Beispiel ist die Messung der Größe von Personen. Die Messwerte können Sie dann durch Intervalle auf der realen Zahlenreihe beschreiben.
Intervallwerte
Intervallwerte stellen geordnete Einheiten dar, die zwischen den einzelnen Einheiten die gleiche Differenz aufweisen. Intervalldaten können nur numerische Werte enthalten, sind geordnet und man kennt die genauen Unterschiede zwischen den Werten. Ein Beispiel ist eine Temperaturanzeige wie in Abbildung 7 dargestellt.
Abbildung 7: Intervallwerte am Bespiel einer Temperaturskala
Das Problem mit Intervallwertdaten ist, dass sie keinen Nullpunkt im mathematischen Sinn haben. In unserem Beispiel bedeutet das, dass es so etwas wie keine Temperatur nicht gibt. Man kann Intervalldaten addieren und subtrahieren, aber wir können sie nicht multiplizieren, dividieren oder mit Funktionen arbeiten. Auch können viele deskriptive und andere statistische Verfahren nicht angewendet werden, da es keine echte mathematische Null gibt.
Verhältniswerte
Verhältniswerte sind ebenfalls geordnete Einheiten, die zwischen den Einheiten die gleiche Differenz aufweisen. Im Unterschied zu Intervallwerten besitzen Verhältniswerte einen absoluten Nullpunkt, der von einem linearen Maßstab abgeleitet wird. Beispiele hierfür sind Größe, Gewicht oder Länge.
Zur Visualisierung von kontinuierlichen Daten können Sie ebenfalls die meisten bisherigen Methoden verwenden. Besondere statistische Merkmale wie Perzentile, Median, Interquartilbereich, Standardabweichung oder den Mittelwert können Sie speziell mit Diagrammarten wie Histogramm oder Boxplot darstellen.
Mit einem Histogramm können Sie vor allem den zentralen Bereich, wo sich die Daten anhäufen und deren Verteilung, klar darstellen. Sollten Sie in ihren Daten statistische Ausreißer haben, so werden diese in einem Histogramm nicht dargestellt. Verwenden Sie in diesem Fall besser einen Boxplot.
Abbildung 8: Histogramm (links) und Boxplot (rechts)
Datentypen legen fest, welche konkreten Werte Daten annehmen können. Damit beeinflussen sie, welche statistischen Verfahren darauf angewendet werden können und mit welchen Diagrammtypen sie sich am besten darstellen lassen.
3 Statistik
Statistik ist wohl das wichtigste Werkzeug im Bereich Data Science und beschreibt Methoden der Mathematik zur Analyse von Daten. Auch wenn ein Balkendiagramm als Visualisierung hilfreich sein mag, so kann man mit Statistik Daten noch viel zielgerichteter analysieren und entsprechende Schlüsse daraus ziehen. Die Mathematik hilft uns dabei, konkrete (evidenzbasierte) Schlussfolgerungen über unsere Daten zu ziehen und nicht nur unserem Gefühl zu vertrauen. Statistische Methoden erlauben uns einen tieferen Einblick in die Struktur unserer Daten und bilden damit die Grundlage, um gezielt Informationen daraus zu beziehen. In diesem Abschnitt werden daher grundlegende Konzepte der Statistik vorgestellt, die jeder Data Scientist beherrschen muss, um die Werkzeuge auch effektiv einsetzen zu können.
3.1 Statistische Merkmale
Statistische Merkmale sind das wohl wahrscheinlich am häufigsten verwendete Konzept in der deskriptiven Statistik. Auch ist ihre Berechnung oft die erste Statistiktechnik, die angewandt wird, wenn man einen Datensatz untersucht. Sie beschreiben Eigenschaften wie Verteilung, Varianz, Mittelwert, Median, Quartile und viele weitere. Alle diese statistischen Merkmale werden heutzutage von einschlägiger Software ohne Programmierkenntnisse berechnet. Die nachfolgende Abbildung zeigt einen Boxplot mit einfach statischen Merkmalen wie Quartile, Median, Maximum und Minimum. Wir werden diese nun im Detail besprechen.
Abbildung 9: Statistische Merkmale am Beispiel eines Boxplots
Die Zeile in der Mitte ist der Mittelwert der Daten. Der Median wird dem Mittelwert bevorzugt und ist aussagekräftiger, da er robuster gegenüber Ausreißern ist. Das erste Quartil ist im Wesentlichen das 25. Perzentil, d.h. 25 % der Punkte in den Daten fallen unter diesen Wert. Das dritte Quartil ist das 75. Perzentil, d.h. 75 % der Punkte in den Daten sind kleiner als dieser Wert. Die Min- und Max-Werte stellen das obere und untere Ende des Datenbereichs dar.
Ein Boxplot ist deshalb eines der am häufigsten verwendeten Diagrammarten, da er genau diese wesentlichen statistischen Merkmale sehr einfach visuell darstellt. Die Interpretation eines Boxplots beruht ebenfalls aus nur wenigen Schritten und funktioniert wie folgt:
• Wenn der Boxplot kurz ist, deutet dies auf sehr viele ähnliche Datenpunkte hin, da es viele Werte in einem kleinen Bereich gibt.
• Wenn der Boxplot lang ist, bedeutet das, dass viele der Datenpunkte sehr unterschiedlich sind, da die Werte über einen großen Bereich verteilt sind.
• Wenn der Median nahe am unteren Ende des Boxplots liegt, dann zeigt dies, dass die meisten Daten niedrigere Werte haben. Wenn umgekehrt, der Median eher am oberen Ende des Boxplot liegt, dann haben die meisten Daten höhere Werte. Wenn sich die Mittellinie nicht (ungefähr) in der Mitte des Kastens befindet, dann ist dies ein Hinweis auf verzerrte Daten.
• Sind die „Whiskers“ sehr lang? Das bedeutet, dass die Daten eine hohe Standardabweichung und Varianz aufweisen, d.h. die Werte sind verteilt und sehr unterschiedlich. Wenn Sie lange „Whiskers“ auf der einen Seite der Box haben, aber nicht auf der anderen, dann können Ihre Daten nur in eine Richtung sehr unterschiedlich sein. Auf welcher muss man dann durch eine zusätzliche Analyse des Datenbereichs rausfinden, den der „Whisker“ darstellt.
Ein Boxplot ermöglicht, sehr viele Informationen aus einer einfachen Graphik zu entnehmen. Auch aufgrund seiner Kompaktheit wird er gerne verwendet, wenn man eine schnelle und dennoch informative Sicht auf Daten benötigt.
3.2 Wahrscheinlichkeitsverteilungen
Wir können Wahrscheinlichkeit als die prozentuale Verteilung definieren, dass ein bestimmtes Ereignis eintritt. Üblicherweise wird diese Verteilung im Bereich von 0 bis 1 angegeben. In diesem Fall bedeutet 0, dass man sicher ist, dass ein bestimmter Fall nicht eintreten wird und 1 bedeutet, dass man sicher ist, dass der Fall eintreten wird.
Eine Wahrscheinlichkeitsverteilung ist daher eine Verteilung, die die Wahrscheinlichkeiten aller möglichen Werte für das Eintreten eines Ereignisses darstellt.
3.2.1 Gleichverteilung
Abbildung 10: Gleichverteilung (Field, 2017)
Die Gleichverteilung ist die einfachste der drei hier dargestellten Verteilungen. Sie beschreibt einen einzigen Wert, der nur in einem bestimmten Bereich konstant auftritt, während er außerhalb dieses Bereiches nur den Wert 0 annimmt.
Es erinnert daher sehr stark an eine "on/off" Verteilung. Man kann diese Verteilung auch mit kategorischen Daten beschreiben, die nur zwei Werte annehmen können: 0 oder eben den Wert.
3.2.2 Normalverteilung
Abbildung 11: Normalverteilung (Field, 2017)
Eine Normalverteilung, allgemein als Gauß‘sche Verteilung bezeichnet, wird durch ihren Mittelwert und ihre Standardabweichung eindeutig definiert. Der Mittelwert verschiebt die Verteilung räumlich und die Standardabweichung steuert die Verteilung. Der wesentliche Unterschied zu anderen Verteilungen (z.B. Poisson-Verteilung) besteht darin, dass die Standardabweichung in alle Richtungen gleich ist. So ist bei der Gauß‘schen Verteilung der Mittelwert und die Verteilung der Daten bekannt, d.h. ob sie sich über einen weiten Bereich verteilen oder ob sie sich stark auf einige wenige Werte konzentrieren.
3.2.3 Poisson-Verteilung
Abbildung 12: Poisson-Verteilung (Field, 2017)
Eine Poisson-Verteilung, auch als „Verteilung der seltenen Ereignisse“ bezeichnet, ist ähnlich wie die Normalverteilung, jedoch mit einem zusätzlichen Faktor – der sogenannten „Schiefe“. Mit einer niedrigen Schiefe sieht die Poisson-Verteilung wie die Normalverteilung aus und hat eine relativ gleichmäßige Verteilung der Werte in alle Richtungen. Wenn allerdings die Schiefe hoch ist, dann ist die Verteilung der Daten in verschiedenen Richtungen unterschiedlich; in eine Richtung sind die Daten dann sehr breit gestreut sein und in der anderen sehr konzentriert.
3.3 Dimensionalitätsreduktion
Der Begriff Dimensionalitätsreduktion ist recht intuitiv zu verstehen – man hat einen Datensatz vorgegeben, der sehr komplex ist (d.h. sehr viele Variablen abbildet) und möchte von diesem die Anzahl der Dimensionen reduzieren. Man nennt diese (relevanten) Merkmale, die man aus dem Datensatz extrahieren möchte, Merkmalsvariablen. Abbildung 10 zeigt einen sogenannten Multicube, also einen Datenwürfel mit mehreren Dimensionen, von dem man nur gewisse extrahieren möchte.
Abbildung 13: Beispiel Dimensionalitätsreduktion eines Multicube (Bruce, 2017)
Dieser beispielhafte Würfel repräsentiert den Datensatz und hat drei Dimensionen mit insgesamt 1000 Datenpunkten. Mit der heutigen Rechnerleistung sind auch 1000 Datenpunkte einfach zu verarbeiten, aber mit steigender Anzahl würde man auf Probleme stoßen. Wenn man die Daten jedoch nur aus einer zweidimensionalen Perspektive betrachtet, z.B. von einer Seite des Würfels, kann man erkennen, dass es ziemlich einfach ist, alle Datenpunkte einer bestimmten Farbe aus diesem Blickwinkel zu extrahieren. Mit der Reduktion der Anzahl an Dimensionen würde man dann also die 3D-Daten auf eine 2D-Ebene projizieren. Dies reduziert die Anzahl der Datenpunkte, die man tatsächlich analysieren muss, auf 100 – was natürlich eine enorme Einsparung an Rechnerleistung mit sich bringt.
Eine weitere Möglichkeit, die Dimensionen zu reduzieren, ist die sogenannte Feature Extraction. Mit diesem Verfahren entfernt man alle Features, also alle statistischen Charakteristika, die für die weitere Analyse unwichtig sind.
Nach der ersten Analyse der Daten könnte man beispielsweise feststellen, dass von den zehn Merkmalen sieben eine hohe Korrelation mit genau den statistischen Merkmalen aufweisen, die man in der Analyse genauer untersucht. Die anderen drei hingegen weisen nur eine sehr geringe Korrelation auf. Diese drei Merkmale mit geringer Korrelation zum gesuchten Ergebnis können dann aus dem Gesamtdatensatz entfernt werden. Damit kann man den für die Datenanalyse notwendigen Rechenaufwand reduzieren, ohne aber das Endresultat zu beeinflussen.
Feature Extraction dient dazu, all jene Daten aus der zu untersuchenden Datenmenge zu entfernen, die keinen direkten Einfluss auf das Analyseergebnis haben.
Die gebräuchlichste Statistiktechnik zur Dimensionalitätsreduktion ist die sogenannte Hauptkomponentenanalyse (PCA). Diese repräsentiert alle Daten als Vektorrepräsentationen von Merkmalen, anhand derer man entscheiden kann, wie wichtig sie für die Ausgabe sind. Die PCA ist ein praktisches Beispiel, wie man die zuvor beschriebene Reduktion der Daten mit einem Computer ausführt.
Hauptkomponentenanalyse (PCA)
Die Hauptkomponentenanalyse (engl. „Principal Component Analysis“, PCA) verwendet man, wenn man einen großen Datensatz strukturieren bzw. vereinfachen möchte. Dabei versucht man, die Gesamtzahl der analysierten Variablen zu reduzieren und trotzdem möglichst die gesamte Spannbreite an möglichen Variablen zu erfassen.
Dazu werden Linearkombinationen gebildet, aus denen diese Hauptkomponenten bestehen. Diese Linearkombinationen kann man sich als Gerade zwischen den Variablen vorstellen, so dass alle Punkte gleich weit weg von der Gerade sind.
Die PCA arbeitet rein explorativ und sucht in den Daten ein lineares Muster, das einen Datensatz bestmöglich beschreibt. Wie viele Komponenten sind das Ziel?
Die Anzahl der extrahierten Komponenten ergibt sich aus dem Datensatz. Weniger relevante Komponenten kann man meist ohne großen Informationsverlust einfach weglassen, da sie hauptsächlich Rauschen in den Daten, d.h. statistisch irrelevante Messwerte, beschreiben. Die exakte mathematische Theorie hinter der PCA ist recht komplex. Um die Methode korrekt anzuwenden, ist es nicht zwangsläufig notwendig, das dahinterliegende statistische Modell bis ins Detail zu verstehen. Wesentlicher ist, dass die untersuchten Daten den folgenden Anforderungen genügen.
Voraussetzungen für eine PCA
Bevor man eine PCA ausführt, sollte man immer die entsprechenden Voraussetzungen prüfen.
Die PCA liefert nur dann zuverlässige Ergebnisse, wenn die Daten zumindest intervallskaliert und annähernd normal-verteilt sind. Außerdem muss man beachten, dass die PCA die sogenannte „Fehlervarianz“ der Daten nicht berücksichtigt. Die Fehlervarianz entsteht aus den zufälligen Unterschieden der untersuchten Objekte. Allerdings beinhalten gerade die in psychologischen oder sozialwissenschaftlichen Studien erhobenen Daten einen hohen Anteil an dieser Fehlervarianz, weshalb man die PCA nicht auf diese Daten anwenden sollte. Hingegen ist sie für die Bildverarbeitung oder die Analyse neuronaler Netze sehr gut geeignet, da in diesen Anwendungsfällen diese Fehler schon im Ursprungsmaterial seltener vorkommen.
3.4 Over- und Undersampling
„Over- und Undersampling“ sind statistische Methoden, die bei Klassifizierungsproblemen eingesetzt werden. Manchmal kann es vorkommen, dass die Werte eines Datensatzes, den man klassifizieren möchte (also nach Ähnlichkeiten gruppieren), stark nach einer Seite abgleiten. Das ist zum Beispiel der Fall, wenn 1000 Datensätze das Merkmal A beschreiben, aber nur 20 das Merkmal B. Solche Datensätze sind denkbar ungeeignet, um einen Computer mittels Machine Learning zu trainieren, die Daten richtig zu klassifizieren.
Mit Over- und Undersampling kann man solche Datensätze „korrigieren“.
Abbildung 14 zeigt ein graphisches Beispiel dazu.
Abbildung 14: Over- und Undersampling von Datensätzen
Sowohl auf der linken als auch auf der rechten Seite des obigen Bildes hat unsere blaue Klasse mehr Datensätze als die violette Klasse. In diesem Fall haben wir zwei Möglichkeiten, die Daten so vorzubereiten, dass man damit Machine Learning Modelle trainieren kann.
Undersampling bedeutet, dass man einen Teil der Daten aus der überrepräsentierten Menge auswählt und nur so viele Daten verwendet, wie die kleinere Klasse hat. Die Auswahl muss also so getroffen werden, dass sich die Wahrscheinlichkeitsverteilung der Klasse nicht ändert. Damit ist der Datensatz ausgeglichen, nur indem man überrepräsentierte Daten entfernt und damit weniger Daten hat.
Oversampling bedeutet, dass man Kopien der unterrepräsentierten Klasse erstellt, um gleich viele Datensätze wie die größere Klasse zu haben. Auch hierbei muss gewährleistet sein, dass die Wahrscheinlichkeitsverteilung der Daten erhalten bleibt – was auch durch diese Methode gewährleistet ist. Die Daten sind nun ausgeglichen, ohne neue (der unterrepräsentierten) hinzugegeben zu haben.
Over- und Undersampling sind zwei statistische Methoden, um ungleiche Datensätze dahingehend zu korrigieren, dass die jeweils untersuchten Merkmale gleich oft in den unterschiedlichen Datensätzen enthalten sind.
3.5 Bayes‘sche Wahrscheinlichkeit
Die Bayes'sche Statistik ist vermutlich jenes Feld der Statistik, woran die meisten Menschen denken, wenn sie das Wort „Wahrscheinlichkeit" hören. Es behandelt die Anwendung mathematischer Methoden, um die Wahrscheinlichkeit des Auftretens eines Ereignisses zu analysieren, wobei die Basis für die Vorhersage ältere Daten sind.
Schauen wir uns ein Beispiel an. Angenommen, ich gebe Ihnen einen Würfel und frage Sie, wie hoch die Chancen stehen, dass Sie eine 6 würfeln. Die meisten Leute würden einfach sagen, dass die Wahrscheinlichkeit dafür bei 1 zu 6 liegt. Wenn wir einen Menschen 10.000 Mal würfeln lassen würden und dabei die Häufigkeit der einzelnen gewürfelten Zahlen ansehen würden, würden wir tatsächlich sehen, dass sie 1 zu 6 beträgt.
Was aber, wenn Ihnen jemand sagen würde, dass der Würfel, den Sie verwendet haben, manipuliert war, um immer auf 6 zu landen? Wenn Sie die Häufigkeit des Eintretens einer bestimmten gewürfelten Zahl messen, berücksichtigen Sie ja in der Regel nicht, welche Zahl zuvor gewürfelt wurde und können daher keine Aussage darüber treffen.
Die Bayes'sche Statistik berücksichtigt auch die zuvor eingetretenen Ereignisse. Man kann dies vielleicht besser verstehen, indem man sich die Formel des Bayes Theorem ansieht:
𝑃𝑃(𝐻𝐻|𝐸𝐸) = 𝑃𝑃(𝐻𝐻) ∗ 𝑃𝑃(𝐸𝐸|𝐻𝐻)
𝑃𝑃(𝐸𝐸)
P(H) …. Bisherige Wahrscheinlichkeit
P(E|H) … Wahrscheinlichkeit des Eintretens von E, wenn H eingetreten ist
P(H|E) … Wahrscheinlichkeit des Eintretens von H, wenn E eingetreten ist
P(E) … Wahrscheinlichkeit für das Eintreten von E
Die Wahrscheinlichkeit P(H) in dieser Gleichung spiegelt das Ergebnis der Häufigkeitsanalyse wider, also wie oft eine bestimmte Zahl gewürfelt wird.
Die Variable P(E|H) spiegelt die Wahrscheinlichkeit wider, dass das Ergebnis E eintritt, wenn zuvor das Ereignis H eingetreten ist. Umgekehrt sagt die Variable P(H|E) aus, wie wahrscheinlich das Eintreten von H ist, wenn zuvor E eingetreten ist. Wenn man zum beispielsweise 10.000 Mal würfeln würde und die ersten 1000 Würfe alle auf die 6 fallen würden, würde man davon ausgehen, dass man immer eine 6 würfelt, unabhängig von der zuvor gewürfelten Zahl. Die Variable P(E) gibt die Wahrscheinlichkeit wieder, dass das Ereignis E eintritt.
In der Praxis wird die Bayes’sche Wahrscheinlichkeit immer dann verwendet, wenn man die Wahrscheinlichkeiten von definierten Ereignisketten analysieren will, also dass auf Ereignis A B folgt und dann C. Die Bayes’sche Wahrscheinlichkeit berücksichtigt frühere Messergebnisse, um die Wahrscheinlichkeit des Eintretens eines bestimmten Ereignisses nach einem anderen zu berechnen.
3.6 Korrelation
Die Korrelation gibt den statistischen Zusammenhang zwischen zwei Datensätzen wieder. Variablen, die auch in der Realität keinen kausalen Zusammenhang haben, sind daher stets unkorreliert. Korrelieren zwei Variablen, sind sie auch stochastisch voneinander abhängig. Korrelation zwischen zwei Variablen bestimmt die lineare Abhängigkeit zwischen zwei Variablen, also beispielsweise, dass Variable a immer doppelt so große Werte wie Variable b hat. Beispiele für stochastisch abhängige Ereignisse, die Ihnen vertrauter sind, sind das Verhältnis von Temperatur und Eiscremekonsum oder das Verhältnis von Nachfrage eines Produktes und dessen Preis.
In der Praxis sind Korrelationen deshalb wichtig, weil ein korrelativer Zusammenhang Hinweise geben kann, wie sich die Werte der Variablen abhängig von anderen verhalten. Damit können sie für die Vorhersagemodelle, wie z.B. in der Meteorologie, verwendet werden.
Speziell bei der Übertragung beliebter Fußball-Matches machen sich das die Betreiber von Wasserwerken zunutze. Sie können mathematisch den Wasserverbrauch in Zusammenhang mit Werbung bringen und damit den richtigen Zeitpunkt für die Schaltung von Werbung planen. Sie würden erkennen, dass Wasser natürlich vermehrt in Werbepausen verbraucht wird, da die Zuschauer zu diesen Zeiten die Toiletten aufsuchen. Zwar existiert hier tatsächlich ein kausaler Zusammenhang, allerdings ist dieser statistisch nicht ausreichend, um die beiden Ereignisse (Wasserverbrauch – Toilettenbesuch) tatsächlich in Zusammenhang zu bringen. Korrelation impliziert an sich keinen kausalen Zusammenhang.
Hierzu ein Beispiel: Angenommen Sie gehen davon aus, dass Menschen mehr verdienen, je älter sie werden. Bei einer statistischen Auswertung verbinden Sie nun die Variable des Gehalts mit jener des Alters, um die Beziehung zwischen ihnen zu bestimmen. Dann entdecken Sie, dass ältere Menschen im Allgemeinen tatsächlich höhere Gehälter haben als jüngere Menschen. Aber ist diese Korrelation auch ursächlich? Wenn Sie aber überlegen, dann haben oft junge Absolventen mit speziellen technischen Fähigkeiten ebensolche Gehälter und daher kann das Alter nicht der Grund dafür sein.
Die Korrelation ist ein Maß der deskriptiven Statistik und ist ein absolut unverzichtbares Werkzeug für viele Forschungsgebiete, ganz besonders bei Fragebogenstudien. Das bekannteste Maß für Korrelation ist die Pearson Produkt-Moment-Korrelation. Sie wird meistens durch den griechischen Buchstaben ρ (rho) abgekürzt und ist selbst die Grundlage vieler anderer Korrelationskoeffizienten.
Ein Korrelationskoeffizient kann Werte zwischen -1 und 1 annehmen, wobei ein Wert von 0 bedeutet, dass kein Zusammenhang zwischen beiden Variablen existiert. Ein Korrelationskoeffizient von +1 sagt aus, dass die beiden Variablen sich wertmäßig in die gleiche Richtung entwickeln (also, dass z.B. aus einem größeren Wert für a ein größerer Wert für b folgt). Im Gegensatz dazu sagt ein Korrelationskoeffizient von -1 aus, dass sich die beiden Werte umgekehrt/invers entwickeln, also aus größeren Werten für a kleinere für b folgen.
Die Korrelation gibt den linearen Zusammenhang zwischen zwei Variablen wieder. Das wesentlichste Maß dafür ist die sogenannte Pearson Produkt-Moment-Korrelation. Eine Korrelation sagt an sich noch nichts über die Kausalität der beiden Variablen aus.
3.7 Lineare Regression
Die lineare Regression ist ein Verfahren, um die Beziehungen zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen zu analysieren. Es gibt mehrere Stufen und Arten von linearen Regressionsmodellen – in diesem Abschnitt wird die einfachste beschrieben.
Abbildung 15: Lineare Regressionsgerade
Die einfache lineare Regression ist ein mathematisches Verfahren, das man verwenden kann, um den Wert einer abhängigen Variable (DV) basierend auf einer einzelnen unabhängigen Variable (IV) und der linearen Beziehung zwischen den beiden, zu berechnen. Lineare Beziehungen werden mathematisch durch eine gerade Linie dargestellt und beschrieben durch eine Gleichung mit der folgenden Form: 𝑦𝑦 = 𝑎𝑎𝑎𝑎 + 𝑏𝑏
Die Elemente dieser Gleichung sind wie folgt:
• y ist die abhängige Variable,
• x ist die unabhängige Variable,
• a stellt die Steigung der Regressionslinie dar,
• b beschreibt den y-Achsenabschnitt, das ist jener Punkt in einem Diagramm, an dem die Funktion die y-Achse schneidet und der x-Wert 0 ist.
Wenn Sie Daten von einer realen Messung haben und diese Daten als zwei Variablen in eine lineare Beziehung setzen, drücken Sie damit nicht zwangsläufig aus, dass eine die Ursache für die andere ist. Man benutzt eine lineare Beziehung einfach, um zu zeigen, dass während ein Wert steigt, der andere auch proportional steigt oder fällt.
Methode der kleinsten Quadrate
Die Methode der kleinsten Quadrate (englisch „Ordinary Least Squares“) ist ein statistisches Verfahren, das eine lineare Regressionslinie an einen Beobachtungsdatensatz anpasst. Mathematisch wird dazu der vertikale Abstand zwischen den Beobachtungsdatenpunkten und der optimalen Regressionslinie quadriert. Das Ziel ist, dass dieser Wert möglichst klein ist, daher auch der Name der kleinsten Quadrate. Im Anschluss kann aus der Reihe dieser kleinsten Quadrate eine eindeutige Funktion abgeleitet werden, die den Beobachtungsdatensatz widerspiegelt.
Die Methode der kleinsten Quadrate kann verwendet werden, um eine Funktion zu berechnen, die die beobachteten Daten am besten darstellt.
Außerdem ist sie nützlich, um eine Regressionslinie an Modelle anzupassen, die mehr als eine unabhängige Variable aufweisen.
3.8 Diagrammarten
Mit Diagrammen kann man Daten graphisch darstellen. Balkendiagramme vermitteln zwar ein gutes Gesamtbild der Daten, aber sie sind schwer lesbar, wenn viele Balken vorhanden sind. Auch sind sie eher für zeitlich fixierte Daten passend, wenn sich also die Daten nicht mit der Zeit ändern. Wenn sich Daten auch im Zeitverlauf ändern, so ist das Liniendiagramm besser geeignet. Den Anteil eines bestimmten Datensatzes an der Gesamtmenge vergleicht man am besten mit einem Kreisdiagramm.
3.8.1 Säulendiagramm oder Balkendiagramm
Abbildung 16: Säulendiagramm (ungestapelt)
Diese Diagrammart ist gut geeignet, um zwei oder mehr numerische Datensätze zu vergleichen, die zu unterschiedlichen Zeitpunkten oder unter unterschiedlichen Bedingungen erfasst wurden. Sie dient auch der Illustration von Steigerungen oder Gefällen, zeigt auch deutlich den höchsten und niedrigsten Wert, sowie die Anzahl und Häufigkeiten.
Ein Säulen- oder Balkendiagramm in einer Serie (z.B. monatlich, im Quartal) eignet sich für den Vergleich von Datensätzen innerhalb einer bestimmten Kategorie, z. B. die monatlichen Umsätze eines einzelnen Produkts. Wenn Sie die einzelnen Produkte jeweils als Serie darstellen, so können Sie die Umsätze für mehrere Produkte über die Zeit vergleichen.
3.8.2 Gestapeltes Säulen- oder Balkendiagramm
Abbildung 17: Gestapeltes Balkendiagramm
Diese Diagrammart vergleicht einen Teil der Daten mit dem Ganzen. Jeder Balken im Diagramm vergleicht mehrere Datensätze derselben Kategorie.
Man kann ein gestapeltes Balkendiagramm z.B. verwenden, um die jährlichen Umsatzzahlen für ausgewählte Produkte über mehrere Jahre zu vergleichen. Jedes Segment eines Balkendiagramms vergleicht dabei bestimmte Produktumsätze und jeder Balken zeigt insgesamt den gesamten Produktumsatz pro Jahr. Das vollständige Diagramm stellt also den Gesamtumsatz für alle Jahre dar.
3.8.3 Positiv/Negativ-Säulendiagramm
Abbildung 18: Positiv/Negativ-Säulendiagramm
Vergleicht positive und negative Datenwerte. Positive Werte erscheinen in diesem Diagrammtyp oberhalb und negative Werte unterhalb des Mittelpunkts. Der Mittelpunkt liegt standardmäßig bei 0, Sie können aber einen eigenen Mittelpunkt festlegen. Am häufigsten wird das Positiv/Negativ-Diagramm verwendet, um Einnahmen mit Verlusten zu vergleichen.
3.8.4 Kreisdiagramm
Abbildung 19: Kreisdiagramm
Kreisdiagramme zeigen jeweils die Anteile eines gewissen Merkmals an der Gesamtsumme aller Daten. Sie sind daher besonders geeignet, um die Proportionen innerhalb einer bestimmten Serie von Daten anzuzeigen. Man kann auch zusätzlich Prozentwerte statt der Gesamtmenge für jede Datenserie anzeigen. Am einfachsten sind Kreisdiagramme zu verstehen, wenn ein Segment mindestens 25 % bis 50 % des Ganzen ausmacht. Da es allerdings – abhängig von der Anzahl an Abschnitten in dem Kreisdiagramm – schwierig ist, die einzelnen Abschnitte zu vergleichen, werden Kreisdiagramme meistens dann verwendet, wenn nur ein allgemeiner Vergleich für das Gesamtverständnis notwendig ist.
3.8.5 Liniendiagramm
Abbildung 20: Liniendiagramm
Diese Diagrammart wird besonders häufig zur Anzeige von Daten, die sich stetig mit der Zeit ändern (Trends) oder für Finanzdaten verwendet. Dabei werden benachbarte Serien von Datenpunkten durch eine Linie verbunden. Jeder einzelne Datenpunkt repräsentiert eine individuelle Messung. Liniendiagramme eignen sich daher gut, um die Veränderung von Werten im Verlauf der Zeit zu zeigen. Beispielsweise kann man mit einem Liniendiagramm die monatlichen Gesamtumsätze von vier Regionen, in denen ein Unternehmen tätig ist, über die Spanne eines Jahres darstellen. Als Balkendiagramm dargestellt, kann man zusätzlich die Gesamtsummen nach Region vergleichen.
3.8.6 Flächendiagramm
Abbildung 21: Flächendiagramm
Ein Flächendiagramm zeigt die Daten im Verlauf der Zeit als Bewegungen der Datenpunkte zwischen den Höchst- und Tiefstwerten an. In Diagrammen, die mehrere Serien von Daten darstellen, wird der quantitative Unterschied zwischen den Serien durch unterschiedliche Farben hervorgehoben.
3.8.7 Streuungsdiagramm
Abbildung 22: Streuungsdiagramm
Stellt die einzelnen Datenwerte auf der X- und Y-Achse dar, um die Korrelationen zwischen den Messwerten aufzudecken. Man kann sie aber auch zur Trendanalyse verwenden. Wenn sich die Datenpunkte von links nach rechts ansammeln, dann wird der Trend als positiv betrachtet. Wenn die Punkte von links nach rechts eher fallen, dann wird der Trend als negativ betrachtet. Wenn die Datenpunkte keine klare Richtung zeigen, dann werden die Daten als unzusammenhängend betrachtet. Ein Streuungsdiagramm kann große Datenmengen ohne zeitlichen Bezug darstellen und dabei helfen, sie zu vergleichen.
3.8.8 Blasendiagramm
Abbildung 23: Blasendiagramm
Wenn man die x- und y-Koordinaten der Datenwerte mit einem dritten Merkmal darstellt (das dem Radius jeder Blase entspricht), so hat man ein Blasendiagramm. Die einzelnen Datenpunkte können dann hinsichtlich ihrer Größe verglichen werden. Mit einem Blasendiagramm kann man beispielsweise den Marktanteil pro Produkt darstellen, indem man die Anzahl verkaufter Produkte, die Umsatzzahlen pro Produkt und den prozentualen Anteil am Gesamtumsatz für jedes Produkt vergleicht.
3.8.9 Boxplot
Der Boxplot ist eine standardisierte Methode, um die Verteilung von Daten basierend auf fünf wesentlichen statistischen Kennzahlen (Minimum, erstes Quartil, Median (zweites Quartil), drittes Quartil und Maximum) darzustellen. Die graphische Darstellung des Boxplots wurde bereits in Abschnitt 3.1 genau dargestellt. Hier werden daher nur mehr die einzelnen noch ausstehenden Kennzahlen beschrieben.
Erstes Quartil (25. Perzentil): die mittlere Zahl zwischen der kleinsten Zahl und dem Median des Datensatzes. 25 % der Werte liegen in diesem Bereich. Median, zweites Quartil: der mittlere Wert des Datensatzes, sodass 50 % der Werte darüber und 50 % unter diesem Wert liegen. Drittes Quartil (75. Perzentil): der mittlere Wert zwischen dem Median und dem höchsten Wert des Datensatzes. 75 % der Werte liegen in diesem Bereich.
Diagramme helfen, komplexe Informationen, die sie den Daten entnommen haben, graphisch darzustellen und damit anderen auch leichter verständlich zu machen. Achten Sie darauf, nicht zu viele Informationen in ein Diagramm zu packen!
4 Grundlagen ausgewählter Methoden von Data Science
Im folgenden Kapitel werden nun ausgewählte Methoden von Data Science vorgestellt, die auch praktische Relevanz haben. Das Verständnis auch der Grundlagen dieser wenigen Methoden ist notwendig, um dann in der Praxis auch einschätzen zu können, für welche Aufgabe welche Methode am besten geeignet ist oder sich mit Experten zumindest über die grundlegenden Themen unterhalten zu können. Einige Anwendungen kommen Ihnen vielleicht bereits aus dem Alltag bekannt vor.
Abbildung 24: Datenbasierte Methoden im Laufe der Zeit (© NVIDIA)
Data Science hat viele Disziplinen überhaupt erst ermöglicht. Abbildung 24 zeigt drei Disziplinen, auf deren zugrundeliegenden Methoden wir hier eingehen werden. Künstliche Intelligenz beispielsweise ist bereits Teil unseres täglichen Lebens. Als ein Programm von Google DeepMind erstmals den weltweiten Meister im Brettspiel Go besiegte, wurden die Begriffe KI, maschinelles Lernen und Deep Learning in den Medien verwendet, um zu beschreiben, wie das Programm DeepMind gewann. Und obwohl alle drei Disziplinen auf Data Science beruhen, verwenden sie unterschiedliche Methoden, die sich unterschiedlich ergänzen und kombiniert werden können.
Das maschinelle Lernen wendet Algorithmen an, um Daten zu analysieren, daraus zu lernen und dann eine Entscheidung oder Vorhersage über etwas in der Welt zu treffen. Anstatt also Software mithilfe von konkreten Anweisungen für einen bestimmten Einsatzzweck manuell zu programmieren, wird ein Computer mit großen Datenmengen und Algorithmen „trainiert“, die ihm die Fähigkeit lernen, wie man die Aufgabe erfüllt.
Das maschinelle Lernen entstand aus dem Umfeld der künstlichen Intelligenz, deren algorithmische Ansätze im Laufe der Jahre Entscheidungsbäume, Logikprogrammierung, Clustering, Verstärkungslernen und Bayes'sche Netzwerke umfassten. Das ultimative Ziel der künstlichen Intelligenz, nämlich eines komplett autonom lernenden Systems, wurde allerdings bisher nicht erreicht.
Heute ist die computerbasierte Bilderkennung basierend auf Deep Learning besser als der Mensch, und das reicht von der Erkennung von Tieren bis hin zur Identifizierung von Indikatoren für Krebs im Blut und Tumoren in MRT-Scans. Google DeepMind wurde auch nicht für das Spiel „Go“ an sich programmiert, sondern lernte und trainierte das Spiel selbständig, indem es sein neuronales Netzwerk optimierte und immer und immer wieder gegen sich selbst spielte.
4.1 Datenqualität und Modellbildung
Praktische Anwendungen von Data Science können zur Entscheidungsunterstützung verwendet werden, die sehr wertvolle Informationen z.B. über das Kundenverhalten, beliebteste Produkte, Ähnlichkeiten zwischen Gruppen oder der Akzeptanz von Rabattaktionen liefern kann. Damit die darauf basierenden Entscheidungen allerdings tatsächlich valide sind, müssen entsprechend hohe Anforderungen an das Datenmaterial gestellt werden, was dafür verwendet wird. Zusätzlich müssen die Anforderungen der Benutzer an die Analyse berücksichtigt werden, also ob das Datenmaterial überhaupt eine bestimmte Analyse zulässt. Beispielsweise muss erst eine repräsentative Anzahl an Kunden ein Rabattprogramm nutzen, um daraus auch tatsächlich Schlüsse ziehen zu können, inwieweit man es optimieren kann.
4.1.1 Datenqualität
Die Qualität der Daten wird durch deren Vollständigkeit, die Genauigkeit der Messung und das Skalenniveau bestimmt. Wenn Sie beispielsweise einen Fragebogen auswerten und die Zufriedenheit mit einem Produkt auf einer 3-teiligen Skala bewerten lassen, so ist diese Variable ungenauer als wenn Sie eine 7-teilige Skala benutzen würden. Allerdings sollten Skalen nie das Niveau von sieben übersteigen, da dann die Unterschiede zwischen den einzelnen Skalen für den Menschen schwer zu verstehen sind und Antworten verfälscht werden könnten.
4.1.2 Datenmenge
Wann gilt eine Datenmenge als groß? Dies hängt primär von der Anzahl der Variablen in einem Datensatz und der Anzahl tatsächlich vorhandener Werte bestimmt. Wenn ein Datensatz acht Variablen vorsehen würde, aber in 80 % der Fälle nur vier davon ausgefüllt sind, so muss im Einzelfall nun geprüft werden, ob diese kleine Menge tatsächlich noch statistisch relevant ist, um die Daten valide auswerten zu können. Allgemein kann man sagen, dass je komplexer die mit Data Science untersuchte Fragestellung ist, desto mehr Daten werden für eine korrekte Datenauswertung benötigt.
4.1.3 Modellbildung
Um Daten zielgerichtet auswerten zu können und auch die Resultate in den richtigen Zusammenhang setzen zu können, muss vor jeder Analyse ein Modell gebildet werden.
Ein Modell ist keine möglichst getreue Abbildung der Realität, sondern eine abstrakte Darstellung davon, die nur die für die Fragestellung relevanten Zusammenhänge modelliert.
Anforderungen an ein Modell
Ohne ein konkretes Modell des untersuchten Sachverhalts, mit dem Sie auch klar definieren, welche Daten Sie wie und warum in Beziehung setzen, können Sie die Ergebnisse der Analysen nicht korrekt verwenden. Im schlimmsten Fall verwenden Sie die falschen, im Sinne von nicht-relevanten Daten und die ganze Analyse muss mit einem neuen Modell begonnen werden. Im besseren Fall sind die Ergebnisse und verwendeten Daten zwar richtig, aber die Schlüsse falsch. Daher beginnt jedes datenbasierte Projekt mit der Modellbildung. Die Wissenschaftstheorie hat Anforderungen an Modelle klar definiert, die auch in der Praxis Gültigkeit haben.
1. Prüfbar: Man unterscheidet zwischen logischer und empirischer Prüfbarkeit. Ein Modell ist logisch prüfbar, wenn es auf logische Zusammenhänge zurückgeführt werden kann. Ein Modell ist wiederum empirisch prüfbar, wenn es rein logisch richtige Konstellationen gibt, die aber praktisch falsch sind. Ein Beispiel hierfür wäre die Aussage „Wenn keine Sonne scheint, so ist es Nacht“. Diese Aussage könnte man dadurch widerlegen, dass man auch nur ein Ereignis findet, in dem untertags keine Sonne scheint – weil es z.B. regnet.
2. Berechenbar: Wenn man alle Elemente eines Modells numerisch darstellen kann und damit also mathematische Berechnungen ausführen kann, so nennt man dieses Modell berechenbar. Nominalen Daten muss man dafür zuerst numerische Werte zuweisen, also z.B. den Wert „gut“ als 1 und „besser“ als 2 darstellen.
3. Vollständig: Man bezeichnet ein Modell als vollständig, wenn es alle für die Untersuchungen notwendigen Daten und Randbedingungen abbildet.
4. Relevant: Ein Modell muss natürlich dem Zweck und Ziel, was man damit untersuchen möchte, entsprechen und damit die Gewinnung relevanter Ergebnisse ermöglichen.
5. Zuverlässig: Die in einem Modell abgebildeten Werte sollen nicht voneinander abhängig und korrekt gemessen worden sein, also frei von zufälligen und externen Einflüssen sein.
6. Bewährt: Sofern möglich, sollte man ein Modell empirisch prüfen, um sicherzustellen, dass es tatsächlich korrekt ist und die Realität korrekt abbildet. Man kann dies z.B. dadurch prüfen, dass ein Modell prinzipiell den Anforderungen der Benutzer genügt, also keine zusätzlichen Elemente, die nicht der Realität entsprechen, zugefügt werden müssen. Auch lässt sich dies dadurch bestimmen, dass die Benutzer des Modells dieses auch praktisch anwenden können. Der sogenannte „Decision Calculus“ (Little, 2004) wurde speziell für das Management entwickelt und definiert eine Reihe von Eigenschaften, die ein Modell haben sollte, um praxistauglich zu sein:
a. Einfach: ein Modell sollte immer nur so viele Elemente wie unbedingt nötig haben.
b. Robust: man muss davon ausgehen, dass ein Modell in der Praxisimmer leicht anders verändert verwendet wird als ursprünglich vorgesehen. Ein Modell muss unempfindlich sein gegenüber einer leicht modifizierten Verwendung, das heißt die grundsätzliche Gültigkeit des Modells muss auch dann gegeben sein.
c. Durchschaubar: zielt auf die Verständlichkeit eines Modells ab, dass es auch ohne lange Erklärungen verständlich macht.
d. Flexibel: ein Modell sollte mit moderatem Aufwand auch an neue Anforderungen angepasst werden können.
e. Vollständig: alle für die Untersuchung notwendigen Informationen müssen durch das Modell abgedeckt sein.
f. Einfach bedienbar: ein Modell muss für den Benutzer verständlich sein, um es überhaupt anwenden zu können. Abgesehen von einer einfacheren Verständlichkeit stellt dies auch sicher, dass die Daten mit dem Modell überhaupt richtig abgebildet werden. Dazu ist es wichtig, in dem Modell auch die entsprechende Fachterminologie des Benutzers/der Domäne zu verwenden, um die Akzeptanz zu erhöhen und Missverständnissen vorzubeugen.
In der Praxis stellt sich vor allem der letzte Punkt, die einfache Bedienbarkeit, oft als die größte Herausforderung dar.
Unter allen an der Datenanalyse Beteiligten muss ein gemeinsames Verständnis bezüglich des verwendeten Modells (als Abstraktion der Realität) sichergestellt sein. Nur so können sie das Modell gemeinsam auf Gültigkeit prüfen und Fehler vorzeitig entdecken.
Vorgehensmodell
Das grundsätzliche Vorgehen bei der Modellbildung bei jeder datenbasierten Analyse ist schematisch in Abbildung 25 dargestellt und besteht aus sechs Phasen.
1. Problemdefinition: Hierbei müssen die Variablen definiert werden, die überhaupt für die Beantwortung der Fragestellung/für die Analyse relevant sind. Dieser Schritt ist deshalb auch wichtig, weil die Reduktion „auf das Wesentliche“ auch während der gesamten Analyse unnötigen Rechenaufwand spart und daher die Variablen mit Bedacht gewählt werden müssen. Auch sollte für jede Variable beschrieben werden, welche Rolle sie für die Datenanalyse spielt.
Abbildung 25: Vorgehen für datenbasierte Modellbildung
2. Datenakquise: In diesem Schritt geht es um die Operationalisierung, also die Messbarmachung und die Beschaffung der im vorherigen Schritt definierten Daten. Die Daten können einerseits selbst beschaffen werden oder von Sekundärquellen, wie z.B. Internetdiensten wie Statista (https://www.statista.com/), die im Bereich der Marktbeobachtung umfangreiches Datenmaterial bereitstellen.
Dabei muss beachtet werden, in welcher Qualität die Daten benötigt werden, da höhere Anforderungen an die Datenqualität oft auch zu höheren Aufwänden in deren Beschaffung führen. In welcher Qualität die Daten benötigt werden, hängt wiederum vom Ziel der Daten-
analyse ab.
3. Datenvorverarbeitung: Abhängig von der Datenqualität bedürfen die Daten nun einer mehr oder weniger umfangreichen Vorbereitung. Dazu gehört das Ausbessern von Tippfehlern in den Daten, die Korrektur von fehlerhaft ausgefüllten Datenfeldern (z.B. die gesamte Adresszeile inklusive Hausnummer, obwohl es dazu ein eigenes Feld im Modell gibt) und das Ausfüllen von leeren Feldern. Inhaltlich falsche Daten sollten ausgeschlossen werden, da sie das Gesamtergebnis verfälschen. Besonders gilt dies natürlich für jene Datenfelder, die Teil der Analyse sind. Damit Sie die Daten auch mathematisch auswerten können, müssen nominale und ordinale Daten vorher bestimmten numerischen Werten zugeordnet werden. Man nennt diesen Vorgang auch „Codierung“.
Ein weiteres wesentliches Ziel der Datenvorverarbeitung ist die Dimensionalitätsreduktion (Abschnitt 3.3) durch Methoden wie beispielsweise der Hauptkomponentenanalyse. Dadurch wird die Menge der für die Analyse weiter verwendeten Daten nur mehr auf jene Menge reduziert, die auch tatsächlich das Endergebnis beeinflusst.
Ein Problem bei der Auswahl der Daten ist das sogenannte Over- und Underfitting. Overfitting beschreibt das Phänomen, dass die Qualität der Ergebnisse mit steigender Variablenanzahl nur bis zu einem bestimmten Punkt zunimmt, bis sie sogar falsche Ergebnisse liefern kann. Ein ähnliches Phänomen beschreibt Underfitting, in dem Sinne, dass die Auswahl der Variablen zu klein ist, um vernünftige Ergebnisse zu erzielen.
Die richtige Auswahl an Variablen für jede Analyse ist jene, die so umfangreich wie nötig und so kompakt wie möglich ist. Jede Erhöhung darüber hinaus kann die Qualität der Ergebnisse sogar negativ beeinflussen!
4. Training: Je nach ausgewähltem Verfahren des maschinellen Lernens können die Daten dann für das Training des Systems verwendet werden. Die unterschiedlichen Arten von Verfahren wie neuronale Netze, maschinelles Lernen, Deep Learning oder Vorhersagemodelle werden in den nächsten Kapiteln genauer beschrieben.
5. Validierung: Wie stellt man nun die Richtigkeit der Ergebnisse sicher? Dazu benötigen Sie neben den Trainingsdaten einen Datensatz, den das trainierte System noch nie „gesehen“ hat und daher selbst entscheiden muss, wie es die Daten interpretiert. Abhängig von der Differenz zwischen berechnetem Ergebnis und korrektem Ergebnis muss das System noch weiter mit Trainingsdaten trainiert werden.
Die Qualität von Trainings- und Validierungsdaten muss natürlich ident sein. Bei einem neuronalen Netz können Sie die Validierungsdaten zusätzlich dazu verwenden, das trainierte System nicht nur zu testen, sondern mit den Daten auch zu verbessern.
6. Test- und Anwendungsphase: Das trainierte Modell wird nun aktiv z.B. für die Klassifikation von Kunden, die Vorhersage von Nutzungsverhalten oder zur Trendvorhersage verwendet. Dem Produktivbetrieb muss allerdings noch eine umfangreiche Testphase vorgelagert werden, wo Erfahrungen mit dem trainierten Modell gesammelt werden können und gegebenenfalls noch weiter trainiert werden muss. Dies kann beispielsweise passieren, wenn sich in der Realität bestimmte Situationen zeigen, die man bisher in den Testdaten zu wenig abgebildet hat und daher das Modell in diesem Punkt unzureichend trainiert ist. Auch hier gilt, dass der Zeitpunkt, ab wann das Modell einsatztauglich ist, vom konkreten Anwendungsszenario abhängt und welche Ungenauigkeit toleriert werden kann. Auch wenn das System während der Test- und Anwendungsphase nicht mehr trainiert wird, so sollten Fehler des Systems doch protokolliert und regelmäßig evaluiert werden.
4.2 Maschinelles Lernen
Viele Menschen sehen maschinelles Lernen als Weg zur künstlichen Intellienz (KI). Aber für einen Data Scientist, Statistiker oder Geschäftsanwender kann das maschinelle Lernen auch ein leistungsstarkes Werkzeug sein, um präzise und umsetzbare Vorhersagen über Produkte, Kunden, Marketingaktivitäten oder eine Vielzahl anderer Anwendungen zu treffen.
Obwohl maschinelles Lernen keine neue Technik ist, ist das Interesse an diesem Bereich in den letzten Jahren stark gestiegen. Das geht auch speziell auf das Aufkommen von Deep Learning zurück – einer Methode, die sehr genaue Ergebnisse in Bereichen wie Sprach- und Spracherkennung und Bilderkennung liefert. Möglich werden diese Erfolge vor allem durch zwei Faktoren.
Zum einen durch die riesigen Mengen an Bildern, Sprache, Video und Text, die heutzutage Unternehmen zur Verfügung stehen, um diese Systeme zu trainieren. Noch wichtiger ist jedoch die Verfügbarkeit leistungsstarker Grafikprozessoren, die über mehrere Computer verknüpft werden können.
Da der Einsatz von maschinellem Lernen stark zugenommen hat, entwickeln Unternehmen nun spezielle Hardware, die darauf zugeschnitten ist. Damit wird nicht nur das Training der Modelle beschleunigt, sondern auch die Resultate werden schneller berechnet. Diese Chips werden auch heute schon für Dienste wie Google Translate und die Bilderkennung in Google Photo verwendet. Mit der ständigen Weiterentwicklung und der Leistung heutiger Smartphones lassen sich Modelle für maschinelles Lernen heutzutage sogar schon auf Smartphones trainieren und später zu einem einzigen großen Modell zusammenführen, das von Unternehmen genutzt werden kann.
Selbst wenn Sie keine technische Ausbildung haben, um einen Algorithmus für maschinelles Lernen zu entwickeln, bedeutet das nicht, dass Sie die Vorteile des maschinellen Lernens nicht nutzen können. Der erste Schritt zur Implementierung von maschinellem Lernen in Ihrem Unternehmen besteht darin, zu verstehen, warum es wertvoll ist. Mit gezieltem Training und wiederholtem Feintuning der einzelnen Methoden können Sie dann langfristig die gewünschten Ergebnisse erzielen.
Maschinelles Lernen wird beispielsweise genutzt, um Kundenbewegungen anonym auszuwerten und Marketingaktivitäten über den Tagesverlauf daran anpassen zu können.
Alleine durch die Nutzung einer App werden dabei Bewegungsprofile am Handy errechnet, ohne Zuordnung zu einem konkreten Kunden. Dies erlaubt festzustellen, in welchen Geschäften mit welcher Frequenz und zu welchen Zeiten Kunden einkaufen und wie lange sie in diesen Geschäften sind. Die entstehenden Daten können dann zu einem beliebigen Zeitpunkt zu den Servern der Unternehmen wieder überspielt werden und erlauben eine sehr feine Adjustierung z.B. von Marketingaktivitäten über den Tagesverlauf.
4.2.1 Unterschiede zwischen maschinellem Lernen und künstlicher Intelligenz
Während künstliche Intelligenz darauf abzielt, ein bestimmtes Ziel überhaupt eigenständig zu erreichen, versucht maschinelles Lernen die Qualität der Ergebnisse zu verbessern. Des Weiteren wird maschinelles Lernen explizit für eine bestimmte Domäne und Anwendung entwickelt, während künstliche Intelligenz Software befähigen soll, das für eine Aufgabe notwendige Wissen selbst zu lernen.
Künstliche Intelligenz beschäftigt sich mit Entscheidungsfindung und einer optimalen Lösung, maschinelles Lernen mit Lernen aus unterschiedlichen Quellen an sich, unabhängig von der Qualität.
Künstliche Intelligenz versucht, den menschlichen Geist beim Lernen neuer Fähigkeiten bestmöglich zu imitieren. Man kann also zusammenfassen, dass maschinelles Lernen ein Baustein für künstliche Intelligenz ist, der mit anderen kombiniert werden muss, um die autonome Denkleistung von künstlicher Intelligenz und deren Entscheidungsfindung zu ermöglichen.
4.2.2 Anwendungen maschinellen Lernens
Am besten versteht man das Potenzial des maschinellen Lernens daran, wie es schon aktuell von Menschen und Unternehmen eingesetzt wird. Lassen Sie uns einige Beispiele betrachten:
• Verarbeitung natürlicher Sprache: Wenn Sie denken, dass Google Translate nur ein wirklich gutes Wörterbuch ist, liegen Sie falsch. Es wird tatsächlich aus einer Reihe von Algorithmen für maschinelles Lernen erstellt, die den Dienst im Laufe der Zeit aktualisieren und basierend auf Eingaben von Benutzern um neue Wörter und Syntax erweitern. Auch Siri, Alexa, Cortana und zuletzt Google Assistant verlassen sich alle auf die Verarbeitung natürlicher Sprache, um Wörter verstehen oder aussprechen zu können, denen sie noch nie zuvor begegnet sind.
• Empfehlungssysteme: Bei Netflix, Amazon und Facebook hängt alles, was Ihnen empfohlen wird, von Ihrer Suchaktivität, Ihren Vorlieben und Ihrem bisherigen Verhalten ab. Diese Websites liefern Empfehlungen für alle Plattformen, Geräte und Anwendungen. Diese Systeme bringen Verkäufer und Käufer zusammen, Filme mit potenziellen Zuschauern, Fotos mit Menschen, die sie sehen wollen – all das verbessert unser Leben und unsere Online-Erfahrungen erheblich.
Amazon hat solche erstaunlichen Algorithmen für maschinelles Lernen im Einsatz, dass mit hoher Sicherheit vorhersagbar ist, was Sie kaufen werden und wann Sie es kaufen werden. Das Unternehmen besitzt sogar ein Patent für den „vorausschauenden Versand“, ein System, das ein Produkt an das nächstgelegene Lager liefert, damit Sie Ihren Artikel noch am selben Tag bestellen und erhalten können (obwohl unklar ist, ob er bereits implementiert ist).
• Algorithmischer Handel: Algorithmischer Handel ist ein Prozess, der zufälliges Verhalten, sich ständig ändernde Daten und eine Vielzahl von Faktoren – von politisch bis juristisch – beinhaltet, die weit weg von der traditionellen Analyse von Handelsdaten sind. Während Menschen, selbst fachkundige Handelsexperten, nicht viel von diesem Verhalten vorhersagen können, können maschinelle Lernalgorithmen es – und sie reagieren auf Veränderungen im Markt viel schneller als ein Mensch.
Es gibt viele andere Anwendungen von maschinellem Lernen: Sie können vorhersagen, ob ein Mitarbeiter in Ihrem Unternehmen bleiben oder gehen wird. Sie können entscheiden, ob ein Kunde Ihre Zeit wert ist, ob er wahrscheinlich bei einem Mitbewerber kauft oder überhaupt nicht. Sie können Prozesse optimieren, Verkäufe prognostizieren und neue Möglichkeiten zur
Kundenakquise entdecken.
Wie Sie sehen können, eröffnet das maschinelle Lernen eine ganze Welt von Möglichkeiten. Welche dafür am effektivsten für ein Unternehmen ist, hängt letztendlich von den Daten ab, auf die das Unternehmen Zugriff hat (z.B. Kundendaten, Einkaufsstatistiken) und der konkreten Domäne, in der das Unternehmen tätig ist.
4.2.3 Training beim maschinellen Lernen
Man kann sich ein Modell als Black Box vorstellen: Eingabedaten gehen rein und Ausgabedaten kommen raus – aber die Prozesse dazwischen sind ziemlich komplex. Wenn wir zum Beispiel ein Modell erstellen wollen, das das Wetter von morgen auf der Grundlage meteorologischer Informationen der letzten Tage vorhersagt, würden wir Daten für Temperatur, Luftfeuchtigkeit und Niederschlag als Eingabe verwenden. Die Ausgabe wäre die Wettervorhersage für morgen.
Die Entwicklung eines maschinellen Lernalgorithmus bedeutet letztendlich die Erstellung eines Modells, das korrekte Daten ausgibt, wenn wir Daten eingeben. Aber bevor man genaue Daten als Ausgabe erwarten kann, muss das Modell entsprechend korrekt trainiert werden. Training ist ein Schlüsselbegriff des maschinellen Lernens; es ist der Prozess, durch den ein Modell lernt, wie es die Eingabedaten zu „verstehen“ hat. Nicht jedes Modell des maschinellen Lernens verwendet die gleichen Techniken, so dass das Training von der konkreten Fragestellung abhängt. Neuronale Netze sind eine Gruppe von maschinellen Lernalgorithmen, die ihren Namen daher haben, dass sie die Funktionsweise der Neuronen im menschlichen Gehirn zu simulieren versuchen.
Neuronale Netze haben eine ständig wachsende Anzahl von Zweigen und werden für eine Vielzahl von Aufgaben eingesetzt, wie z.B. natürliche Sprachverarbeitung, Computer Vision etc.. Das moderne maschinelle Lernen basiert auf neuronalen Netzen.
Um ein neuronales Netzwerk zu trainieren, müssen Sie vier Hauptbestandteile berücksichtigen: die Daten, das Modell, die Zielfunktion und einen Optimierungsalgorithmus.
1. Daten: Als erstes müssen wir eine bestimmte Menge an Daten für das Training vorbereiten. In der Regel handelt es sich dabei um historische Daten, die oft leicht verfügbar sind.
2. Modell: Zweitens brauchen wir ein Modell. Das einfachste Modell, das wir trainieren können, ist ein lineares Modell. In dem obigen Beispiel der Wettervorhersage würde das bedeuten, dass wir einige Koeffizienten finden müssten, jede Variable mit diesen Koeffizienten multiplizieren und die Summe von allem nehmen müssten, um die Ausgabe zu erhalten.
3. Zielfunktion: Der dritte Bestandteil ist die Zielfunktion. Nachdem wir die Daten dem Modell zugeführt haben, wollen wir eine möglichst realitätsnahe Ausgabe erhalten. An dieser Stelle kommt die Zielfunktion ins Spiel. Mit der Zielfunktion können Sie schätzen, wie genau die Ergebnisse des Modells im Durchschnitt sind. Das gesamte maschinelle Lernen läuft darauf hinaus, diese Funktion zu optimieren. Wenn unsere Funktion beispielsweise den Vorhersagefehler des Modells misst, wollen wir diesen Fehler minimieren oder, mit anderen Worten, die Zielfunktion minimieren.
4. Optimierungsalgorithmus: Der letzte Bestandteil ist der Optimierungsalgorithmus, durch den wir die Zielfunktion optimieren können. In unserem Beispiel für die Wettervorhersage hätten wir die Variablen für die Temperatur, die Luftfeuchtigkeit und den Niederschlag, die sich ändern werden. Für jede Kombination dieser Variablen würden wir nun die Zielfunktion berechnen und jenes Modell mit der höchsten Vorhersagekraft am Schluss verwenden – jenes Modell mit einer optimalen Zielfunktion.
Der maschinelle Lernprozess ist iterativ, das heißt, diese Schritte werden mehrfach durchgeführt. Anstatt nach dem ersten Durchgang aufzuhören, würde man die Parameter des Modells variieren und den Vorgang wiederholen, bis man die Zielfunktion nicht mehr optimieren kann.
4.2.4 Arten maschineller Lernverfahren
Das maschinelle Lernen wird im Allgemeinen in vier Hauptkategorien unterteilt: überwachtes Lernen (supervised learning), unüberwachtes Lernen (unsupervised learning), halbüberwachtes Lernen (semi-supervised learn-ing) und Verstärkungslernen (reinforcement learning).
Überwachtes Lernen
Bei diesem Ansatz lernt das System am Beispiel. Während eines Trainingsvorgangs durch überwachtes Lernen werden dem System große Mengen an gekennzeichneten Daten präsentiert, z.B. Bilder von handschriftlichen Zahlen, die mit Anmerkungen versehen sind, um anzugeben, welcher Nummer sie entsprechen. Die Kennzeichnung dient dazu, dem System jene Information mitzugeben, wie es die präsentierten Daten interpretieren soll. Wenn man eine ausreichende Anzahl an Beispielen dann diesem überwachten Lernsystem präsentiert hat – also welcher Zahl die Pixel und Formen in einer Graphik zuzuordnen sind – kann so ein System zuverlässig handschriftliche Zahlen erkennen und auch zwischen den einzelnen Zahlen natürlich unterscheiden. Das Training dieser Systeme erfordert jedoch in der Regel große Mengen an gekennzeichneten Daten, wobei einige Systeme Millionen von Beispielen benötigen, um eine Aufgabe zu bewältigen.
Infolgedessen können die Datensätze, die zum Trainieren dieser Systeme verwendet werden, enorm sein. Googles Open Images-Datensatz etwa hat neun Millionen Bilder, sein Video-Repository YouTube acht Millionen – die Kennzeichnung der Daten in diesen Systemen kommt von den Benutzern, die die Daten ja beschreiben. Zusätzlich werden auch Metadaten der Bilder als Kennzeichnung verwendet. Facebook z.B. verwendet nach heutigem Stand 3,5 Milliarden Bilder, die auf Instagram öffentlich zugänglich sind und die Hashtags, die an jedes Bild angehängt wurden, zum Training seiner Modelle. Die Verwendung von einer Milliarde dieser Fotos zum Training ihres Bilderkennungssystems ergab eine Rekordgenauigkeit von 85,4 Prozent gegenüber bisherigen Lösungen.
Der mühsame Prozess der Kennzeichnung der im Training verwendeten Datensätze wird oft mit Hilfe von Crowdworking-Diensten durchgeführt wie Amazon Mechanical Turk, das Zugang zu einem großen Pool an kostengünstigen Arbeitskräften auf der ganzen Welt bietet.
So wurde der Bilderkennungsdienst „ImageNet“ beispielsweise über einen Zeitraum von zwei Jahren von fast 50.000 Personen aufgebaut, die hauptsächlich von Amazon Mechanical Turk rekrutiert wurden. Der Ansatz von Facebook, öffentlich zugängliche Daten für das Training der Systeme zu verwenden, könnte jedoch eine alternative Möglichkeit bieten, das Training mit Milliarden von Datensätzen ohne den Aufwand einer manuellen Kennzeichnung durchzuführen.
Trainingsmethode beim überwachten Lernen
Alles beginnt beim überwachten Lernen mit einer mathematischen Funktion, die basierend auf bereits gelernten Daten ein Ergebnis berechnet.
Durch ständiges Training wird dann das Ergebnis soweit verbessert, bis die Funktion bei neuen Daten ein immer genaueres Ergebnis berechnen kann.
Vor Beginn des Trainings müssen Sie sich zunächst entscheiden, welche Daten Sie sammeln möchten und welche Merkmale der Daten wichtig sind.
Zwei Beispiele sollen die Trainingsmethode beim überwachten Lernen illustrieren – ein System, das den Unterschied zwischen Bier und Wein erkennen und ein System, das den Eisverkauf vorhersagen soll. Für das Training des ersten Systems sind die wohl wesentlichsten Merkmale die Farbe und der Alkoholgehalt, die Bier und Wein unterscheiden.
Als erstes werden also Daten gesammelt, indem eine große Anzahl an Beispielen für Bier oder Wein definiert werden. Jedes Beispiel ist gekennzeichnet und enthält die Farbe und den Alkoholgehalt. Ein wichtiger Punkt dabei ist, dass die Daten ausgewogen sein müssen, also in diesem Fall, dass es etwa gleich viele Beispiele für Bier und Wein gibt. Die gesammelten Daten werden dann aufgeteilt in einen größeren Anteil für das Training, etwa 70 Prozent, und einen kleineren Anteil für die Evaluierung des Trainings, etwa die restlichen 30 Prozent. Die Daten für die Evaluierung prüfen das trainierte Modell, um festzustellen, wie gut es mit realen (unbekannten) Daten umgehen kann.
Vor Beginn des Trainings wird in der Regel auch noch ein Prozess zur Datenbereinigung vorgeschalten, wobei doppelte Daten entfernt, normalisiert und Fehler korrigiert werden. Im nächsten Schritt wird aus der Vielzahl der verfügbaren Algorithmen für überwachtes Lernen ein geeigneter ausgewählt. Jeder hat andere Stärken und Schwächen, abhängig von der Art der Daten, z.B. sind einige für den Umgang mit Bildern besser geeignet, andere für Text und wieder andere für rein numerische Daten. Im Grunde genommen bezweckt der Trainingsprozess, dass durch das Modell, mit dem die Funktion trainiert wird, dieses soweit optimiert wird, bis es genaue Vorhersagen aus Daten treffen kann.
Im anderen Beispiel soll nun ein System lernen, den Eisverkauf anhand der Temperatur vorherzusagen. Dazu würde man beispielsweise die bereits aus Kapitel 3.7 bekannte lineare Regression verwenden. Basierend auf der Außentemperatur soll das Modell dann schätzen, wie viele Eisportionen verkauft werden. Abbildung 26 zeigt den Verlauf des Eisverkaufs in Abhängigkeit von der Außentemperatur. Man sieht, wie diese Punkte gestreut sind.
Um also vorsagen zu können, wie viele Eisportionen in der Zukunft abhängig von der Außentemperatur verkauft werden, könnte man, wie in der Abbildung dargestellt, eine Linie durch die Mitte all dieser Punkte zeichnen.
Abbildung 26: Überwachtes Lernen am Beispiel Eisverkauf (Bari, 2016)
Damit kann dann der Eisverkauf für jede Temperatur vorhergesagt werden, indem man den Punkt findet, an dem die Linie eine bestimmte Temperatur durchläuft und die entsprechenden Verkäufe an diesem Punkt abliest.
In diesem Beispiel würde das Training des maschinell lernenden Modells auf die Anpassung der vertikalen Position und die Steigung der Linie abzielen, bis diese Gerade in der Mitte aller Punkte des Streudiagramms liegt. Bei jedem Schritt des Trainingsprozesses wird der vertikale Abstand jedes dieser Punkte von der Linie gemessen. Wenn eine Änderung der Steigung oder Position der Linie dazu führt, dass der Abstand zu diesen Punkten größer wird, wird entweder die Steigung oder die Position der Linie in die entgegengesetzte Richtung geändert. Auf diese Weise bleibt die Linie durch viele kleine Anpassungen in Bewegung, bis sie sich schließlich in einer Position einpendelt, die durch die Mitte aller Punkte geht. Nach Abschluss des Trainings kann die Linie verwendet werden, um genaue Vorhersagen darüber zu treffen, wie sich die Temperatur auf den Eisverkauf auswirkt.
Maschinelles Lernen und neuronale Netzen verwenden Gewichte, um die Eingabedaten soweit zu modifizieren und ständig anzupassen, bis die vom Modell erzeugten Ausgabewerte so nah wie möglich am gewünschten sind.
Unüberwachtes Lernen
Im Gegensatz dazu wird unüberwachtes Lernen verwendet, um wiederkehrende Muster in Daten zu finden und damit Ähnlichkeiten erkennen zu können.
Ein Beispiel dafür könnte sein, dass Airbnb (eine Plattform, um bei privaten Anbietern Zimmer zu buchen) ähnliche zu vermietende Wohnungen zusammenfasst, die in einer Umgebung vermietet werden können oder dass ein Nachrichtenanbieter jeden Tag Nachrichten zu ähnlichen Themen zusammenfasst.
Algorithmen für unüberwachtes Lernen sind nicht darauf ausgelegt, bestimmte Daten herauszufiltern. Stattdessen versucht man, Daten nach Ähnlichkeiten zu gruppieren oder nach Anomalien, um diese vom Rest trennen zu können.
Am Ende des Trainings eines solchen Modells wird dann anhand der restlichen Daten, die für das Training noch nicht verwendet wurden, entschieden, ob das Modell noch weiter trainiert werden muss oder schon eine ausreichende Genauigkeit der Ergebnisse gewährleistet ist.
Um die Genauigkeit der Ergebnisse noch weiter zu verbessern, können die Trainingsparameter angepasst werden. Beispielsweise könnten die Gewichte, die bei jedem Schritt im Trainingsprozess verändert werden, an die Daten speziell angepasst werden.
Halb-überwachtes Lernen
Die Bedeutung riesiger Datenmengen für das Training von maschinell lernenden Systemen nimmt zunehmend ab, da mittlerweile das halb-überwachte Lernen zunimmt.
Wie der Name schon sagt, mischen sich hierbei die Ansätze vom überwachten und unüberwachten Lernen. Dieser Ansatz basiert auf der Verwendung einer kleinen Menge von gekennzeichneten Daten und einer großen Menge von nicht-gekennzeichneten Daten für das Training der Modelle. Die gekennzeichneten Daten werden verwendet, um das Modell soweit zu trainieren, damit es selbständig die ungekennzeichneten Daten kennzeichnet – ein Prozess, der als Pseudo-Labeling bezeichnet wird. Das Modell wird also mit einer Mischung aus gekennzeichneten und pseudo-gekennzeichneten Daten trainiert.
Die Qualität des halb-überwachten Lernens wurde in jüngster Zeit durch Generative Adversarial Networks (GANs) erhöht, das sind maschinelle Lernsysteme, die aus gekennzeichneten Daten selbständig völlig neue Daten generieren können, z.B. neue Bilder aus bestehenden Bildern, die wiederum zum maschinellen Training des Modells verwendet werden können.
Wenn das halb-überwachte Lernen durch diese Weiterentwicklungen genauso effektiv wird wie das überwachte Lernen, dann kann der Zugang zu enormer Rechenleistung für das Training der Modelle wichtiger werden als der Zugang zu großen, für das Training gekennzeichneten Datensätzen.
Verstärkungslernen
Das Verstärkungslernen lässt sich wohl am besten verstehen, wenn Sie sich überlegen, wie Sie ein Computerspiel lernen würden, das Sie zum ersten Mal spielen und weder dessen Regeln kennen, noch wie man es steuert. Obwohl Sie vielleicht ein absoluter Anfänger sind, wird ihre Leistung schließlich immer besser, wie man anhand der Frequenz Ihrer Tastendrücke, des Spielablaufs und Ihrer Punktezahl feststellen kann.
Verstärkungslernen ist ein Bereich des maschinellen Lernens. Es beschäftigt sich damit, die geeigneten Maßnahmen für eine Situation zu finden, um das Ergebnis in einer bestimmten Situation zu optimieren.
Es wird in verschiedenen Systemen und Maschinen eingesetzt, um das bestmögliche Verhalten oder den bestmöglichen Weg in einer bestimmten Situation zu finden. Verstärkungslernen unterscheidet sich vom überwachten Lernen dadurch, dass beim überwachten Lernen die Trainingsdaten – metaphorisch gesprochen – die Antwort beinhalten, so dass das Modell selbst mit der richtigen Antwort trainiert wird. Beim Verstärkungslernen gibt es ja keine „richtige“ Antwort an sich, sondern das System entscheidet individuell, was zu tun ist, um die jeweilige Aufgabe zu erfüllen. In Ermangelung eines Trainingsdatensatzes ist es daher zwangsläufig erforderlich, aus den jeweiligen Erfahrungen zu lernen.
Abbildung 27: Verstärkungslernen am Beispiel Zielsuche eines Roboters
Nehmen wir folgendes Problem, wie in Abbildung 27 illustriert: Sie haben einen Roboter und eine Belohnung, die er erreichen soll – in obigem Beispiel den Diamanten. Auf dem Weg dorthin liegen allerdings viele Hürden, dargestellt durch die Feuersymbole. Der Roboter soll den bestmöglichen Weg finden, um den Diamanten zu erreichen und die Hürden zu vermeiden. Indem er alle möglichen Wege ausprobiert und dann den Weg mit den wenigsten Hürden nimmt, erreicht der Roboter die Belohnung. Jeder richtige Schritt wird vom Roboter positiv verbucht und jeder falsche Schritt zieht einen Punkt von der positiven Bewertung ab. Die endgültige Bewertung der Schritte wird erst am Schluss berechnet, nämlich wenn der Roboter den Diamanten erreicht hat.
Trainingsmethode beim Verstärkungslernen
Die Eingabe sollte ein Anfangszustand sein, ab dem das Modell startet, im obigen Beispiel z.B. die Startkoordinaten des Roboters. Es gibt allerdings viele mögliche Ergebnisse, da es eine Vielzahl von Lösungen für ein bestimmtes Problem gibt. Während des Trainings gibt das Modell nun für jede Eingabe einen Zustand zurück und der Benutzer (oder Roboter) entscheidet, ob dieser Zustand zu belohnen (positive Verstärkung) oder zu bestrafen (negative Verstärkung) ist. Basierend auf dieser Bewertung lernt das Modell dann ständig weiter. Die beste Lösung wird am Ende auf der Grundlage der maximalen Punkteanzahl entschieden.
Vorteile und Nachteile des Verstärkungslernens
Verstärkungslernen ist das flexibelste der bisherigen Lernmethoden, da es die bestmöglichste Variante abhängig von der Situation findet und dafür keine an die Situation angepasste Programmierung benötigt. Allerdings kann zu viel Verstärkung in eine Richtung zu einem Überhang führen, was die Ergebnisqualität beeinträchtigen kann. Ein Nachteil des Verstärkungslernen ist allerdings, dass es nur die Lösung findet, die gerade gut genug ist, um das Mindestziel zu erfüllen – es reicht, dass der Roboter das Ziel erreicht.
Es gibt vier wesentliche maschinelle Lernverfahren, die sich sowohl in der Art der benötigten Trainingsdaten als auch dem Training an sich unterscheiden. Dazu sind oft speziell gekennzeichnete Trainingsdaten notwendig. Eine weitere Gruppe von Lernverfahren lernt aufgrund von Ausprobieren unterschiedlicher Lösungswege und der Bewertung der einzelnen Schritte.
4.3 Neuronale Netze
Im Unterschied zu den bisher dargestellten Lernmethoden eignen sich neuronale Netze besonders für große Datenmengen mit sehr vielen unterschiedlichen Facetten, also Interpretationsmöglichkeiten. Auch ihnen liegen maschinelle Lernverfahren zugrunde, sie haben aber strukturell einen ganz anderen Aufbau und sind dem menschlichen Nervensystem angelehnt. Ein neuronales Netz ist eine Ansammlung einzelner Informationsverarbeitungseinheiten (Neuronen), die schichtweise in einer Netzarchitektur angeordnet sind. Im Zusammenhang mit künstlicher Intelligenz spricht man von künstlichen neuronalen Netzen.
Die Neuronen in einem neuronalen Netz sind schichtweise angeordnet und folgen dabei meist einer festen Hierarchie. Zwischen den Schichten sind die Neuronen jeweils miteinander verbunden, jedes Neuron immer mit allen der nächsten Schicht. Auch ist es möglich, dass die Verbindung zwischen Neuronen mehrere Schichten überspannt.
Über mehrere (versteckte) Zwischenschichten fließen die Eingaben von der Eingabeschicht zur Ausgabeschicht. Die Ausgabe des einen Neurons ist dabei immer die Eingabe des nächsten. In den meisten Darstellungen sind neuronale Netze horizontal dargestellt, mit der Eingabeschicht links und der Ausgabeschicht rechts. Ein wesentliches Unterscheidungsmerkmal neuronaler Netze ist die Anzahl der Schichten. So spricht man von einem vierschichtigen Netz, wenn das neuronale Netz aus vier Schichten aufgebaut ist.
Die Algorithmen in diesen Neuronen steuern das Ergebnis des Neurons, speziell ob es überhaupt ein Ergebnis und einen Impuls für das verbundene Neuron gibt und wie stark dieser ist. Jede Schicht des neuronalen Netzes versteht jeweils alle Merkmale der Daten, mit denen sie konfrontiert ist. Wenn man ein neuronales Netz zum Erkennen von Zahlen verwenden möchte, dann würde die erste Schicht zum Beispiel die Farben der Schrift erkennen können, die nächste Schicht die Linien und Formen und die übernächste Schicht einzelne Details, die die Zahlen zusätzlich unterscheiden. Die letzte Schicht wiederum gibt dann die Wahrscheinlichkeit für eine bestimmte Zahl in Prozent aus.
Während des Trainings lernt ein neuronales Netz schrittweise die Bedeutung der Daten, indem jede Schicht andere Komponenten der Zahlen erkennt und schließlich das Ergebnis verfeinert. Das Wesentliche bei dieser schrittweisen Verfeinerung sind die Gewichte zwischen den Schichten, die je nach Bedeutung der in einer Schicht untersuchten Daten, geändert werden können. Damit kann das Ergebnis wesentlich verbessert werden – eben in Abhängigkeit sowohl von den Eingabedaten als auch dem Verwendungszweck des neuronalen Netzes. Am Ende des Trainings wird das Endergebnis des neuronalen Netzes mit dem gewünschten Ergebnis verglichen, also z.B. die Wahrscheinlichkeit für die korrekt identifizierte handschriftliche Zahl.
Abbildung 28: Funktionsweise neuronaler Netze bei Training und Einsatz (© NVIDIA)
Abbildung 28 zeigt die grundsätzliche Funktionsweise neuronaler Netze am
Beispiel Gesichtserkennung. Während des Trainings (oberer Teil der Graphik) werden die Gewichte der einzelnen Neuronen sowohl vorwärts als auch rückwärts adaptiert, bis eine ausreichende Genauigkeit des Endresultats gegeben ist. Bei der Erkennung an sich (unterer Teil der Graphik) werden diese Gewichte nicht mehr angepasst, die Daten durchlaufen ausschließlich nach vorwärts das neuronale Netz und das Ergebnis wird ausgegeben.
Wenn das Ergebnis nicht ausreichend ist, werden die Gewichte von der Ausgabeschicht bis zur Eingabeschicht rückwärts zwischen den Schichten geändert. Zusätzlich wird ein weiterer Wert angehängt, die Verzerrung oder englisch Bias. Dieser Wert beschreibt, wie weit das gewünschte vom tatsächlichen Ergebnis entfernt war.
Der Prozess der rückwärtigen Anpassung der Gewichte zur Optimierung des Ergebnisses wird Back-Propagation genannt. Er wird solange wiederholt, bis die Wahrscheinlichkeit für das richtige Ergebnis ausreichend hoch ist, was wiederum vom Einsatzzweck des neuronalen Netzes abhängt.
4.3.1 Eingabeschicht
An dieser Schicht beginnt die Informationsverarbeitung und der -fluss in einem neuronalen Netz. Hier werden die Eingangsdaten von den Neuronen angenommen, verarbeitet, das erste Mal mit Gewichten versehen und das Ergebnis an die Neuronen der nachgelagerten Schicht weitergeleitet. Jedes Neuron gibt dabei seine Ergebnisse an alle Neuronen der nachgelagerten Schicht weiter.
4.3.2 Zwischenschichten
Zwischen den einzelnen Schichten befinden sich in jedem neuronalen Netz mehrere Zwischenschichten, auch Aktivitätsschichten genannt. Je mehr Schichten es gibt, desto tiefer ist das neuronale Netz. Tiefe Netze sind das Grundgerüst im Deep Learning, das im Kapitel 4.4 beschrieben wird.
Die Anzahl an Zwischenschichten in einem neuronalen Netz ist theoretisch unbegrenzt. Allerdings geht jede zusätzliche Schicht auch mit höheren Anforderungen an die Rechenleistung einher und führt nicht zwangsläufig zu einer besseren Ergebnisqualität.
4.3.3 Ausgabeschicht
Die letzte Schicht in einem neuronalen Netz ist die Ausgabeschicht, die auch hinter den Zwischenschichten liegt. Die Neuronen dieser Schicht sind jeweils mit allen Neuronen der vorhergehenden Schicht verbunden. Die Ausgabeschicht stellt dabei das Ende der Informationsverarbeitung in einem neuronalen Netz dar und enthält auch das Endergebnis der Analyse.
4.3.4 Gewichte und Verzerrung
Gewichte drücken in einem neuronalen Netz aus, wie stark und wie oft Informationen zwischen den Verbindungen des Netzes weitergeleitet werden. Dazu vergibt jedes Neuron ein Gewicht (seine individuelle Verzerrung, Bias) an die durchfließende Information. Während der Berechnung addiert es dann seine gewichtete Berechnung zur Eingabe und leitet dieses Ergebnis an die nachgeschalteten Neuronen weiter. Am Anfang des Trainings liegen die Werte für diese Verzerrung im Bereich zwischen -1 und 1, nach dem Training liegen diese Werte typischerweise weit außerhalb. Zusätzlich benötigen manche Neuronen auch noch eine sogenannte Aktivierungsfunktion, die das Ergebnis eines Neurons nochmal verändert, bevor es an die nächste Schicht weitergeleitet wird. Während des Trainings werden also diese Gewichte und spezifischen Verzerrungen eines jeden Neurons so angepasst, dass das Endresultat des neuronalen Netzes möglichst genau das gewünschte Ergebnis liefert, z.B. das Gesicht einer Person korrekt erkennt oder dessen Sprache.
4.3.5 Arten von künstlichen neuronalen Netzen
Ähnlich wie bei den maschinellen Lernverfahren gibt es auch bei den neuronalen Netzen sehr viele unterschiedliche Varianten. In diesem Abschnitt werden die drei wesentlichsten Arten, nämlich Feedforward Netze, rekurrente Netze und das Perzeptron vorgestellt.
Feedforward Netze
Bei dieser Art von neuronalen Netzen werden die Daten von der Eingabeschicht durch sämtliche Zwischenschichten bis zur Ausgabeschicht in einer Richtung (vorwärts) weitergeleitet. Dies ist auch die häufigste Form von neuronalen Netzen. Die nachfolgenden zusätzlichen Arten sind Verfeinerungen von Feedforward Netzen, indem sie zusätzliche Kanäle zur Rückkopplung bereitstellen.
Rekurrente Netze
Bei dieser Art von neuronalen Netzen gibt es zusätzlich einen Rückkanal, so-
dass die Daten das Netz erneut durchlaufen können – allerdings in entgegengesetzter Richtung. Diese Art von Netzen bezeichnet man daher als rekurrente Netze, auch rückgekoppeltes oder Feedback-Netz.
Dabei gibt es unterschiedliche Arten der Rückkopplung:
• Direkte Rückkopplung: ein Neuron verwendet seine eigene berechnete Ausgabe als erneute Eingabe,
• Indirekte Rückkopplung: die Ausgabe eines Neurons wird zurück in eine vorgelagerte Schicht geleitet und dort als Eingabe verwendet,
• Seitliche Rückkopplung: die Ausgabe des Neurons wird von anderen Neuronen derselben Schicht als zusätzliche Eingabe verwendet,
• Vollständige Rückkopplung: die Ausgabe des Neurons wird von allen anderen Neuronen im gesamten Netz als erneute Eingabe verwendet (dies kommt allerdings in der Praxis äußerst selten vor).
Rekurrente neuronale Netze werden vor allem dann verwendet, wenn die eingegebenen Daten eine Sequenz von Daten sind, also z.B. bei der Schrift-und Spracherkennung oder Bewegungserkennung autonomer Fahrzeuge.
Dabei wird dann oft auch die direkte Rückkopplung verwendet, also dass jedes Neuron seine eigene Ausgabe erneut als Eingabe verwendet.
Perzeptron
Das Perzeptron ist die einfachste Form eines neuronalen Netzes und besteht auch aus nur einem einzigen Neuron, dem sogenannten Perzeptron. Dieses enthält anpassbare Gewichte und erfordert einen Schwellenwert als Eingabe, um überhaupt Berechnungen durchzuführen. Dies ist nur die Grundform, die mittlerweile auch in den folgenden abgewandelten Varianten genutzt wird: einlagige Perzeptronen: In dieser Variante gibt es keine Zwischenschichten.
Die Eingabeschicht der Perzeptronen ist direkt mit der Ausgabeschicht verbunden, wobei die Perzeptronen der Eingabeschicht die eingehenden Informationen durch die Gewichte verstärken. Die Perzeptronen der Ausgabeschicht errechnen dann das Endergebnis.
mehrlagige Perzeptronen: Diese Art verwendet mehrere Zwischenschichten zwischen Ein- und Ausgabeschicht, wodurch die Ergebnisqualität des neuronalen Netzes gesteigert werden kann.
Besonders häufig kommen mehrlagige Perzeptronen in rekurrenten Netzen im Bereich des Deep Learning vor. Diese Form von neuronalen Netzen ist der aktuellste und genaueste Forschungsansatz in diesem Gebiet.
4.3.6 Training eines neuronalen Netzes
Ein neuronales Netz wird trainiert, indem es sich selbst entsprechend eines vorgegebenen Algorithmus in Abhängigkeit von den eingegebenen Daten ändert. Diese Änderung während des Trainings kann folgenderweise erfolgen:
1. Herstellen neuer Verbindungen zwischen Neuronen,
2. Löschen existierender Verbindungen zwischen Neuronen,
3. Verändern der Gewichte an den Neuronen,
4. Verändern der Schwellenwerte an den Neuronen,
5. Änderung der Aktivierungsfunktionen (ab wann überhaupt Impulse weitergeleitet werden),
6. Entwicklung neuer Neuronen,
7. Löschen bestehender Neuronen.
Am häufigsten erfolgt das Training eines neuronalen Netzes durch Veränderung der Gewichte an den Neuronen. Zusätzlich sind in letzter Zeit neue Verfahren hinzugekommen, wie diese während des Trainings angepasst werden können, beispielsweise durch Veränderung der Topologie, also der Schichten und den Verknüpfungen zwischen ihnen. Über die Verbindungen zwischen den einzelnen Neuronen werden die Daten innerhalb des neuronalen Netzes ausgetauscht, weshalb diese der Drehpunkt innerhalb des Systems sind. Ein Neuron erhält also von anderen Neuronen so eine Eingabe und kann abhängig von seinen eigenen Gewichten, die es diesen Eingaben zuweist, das Ergebnis verändern. Es kann das Ergebnis verstärken, verändern oder es auch überhaupt nicht weiterleiten. Die Verbindungen zwischen den Neuronen sind unterschiedlich stark und je stärker diese Verbindung ist, desto stärker beeinflussen sich die entsprechenden Neuronen. Wie stark diese Verbindung ist, kann über die Gewichte verändert werden, die basierend auf festen Regeln geändert werden.
Eingabeneuronen sind spezielle Neuronen, über die die Eingabe in das neuronale Netz erfolgt. Diese Neuronen erhalten ihre Eingabe nicht von einem anderen Neuron und gewichten diese, sondern erhalten diese direkt von außen.
Das folgende Beispiel beschreibt das Training eines neuronalen Netzes zum Erkennen von Krankheiten anhand von Symptomen. Es soll leichter veranschaulichen, wie das Lernen in einem neuronalen Netz im Detail funktioniert.
1. Die Eingabeneuronen werden aktiviert, das heißt die konkreten Daten werden von außen hier eingespeist. Jeder Eingabeknoten steht für ein bestimmtes Symptom einer Krankheit. Ein aktiver Knoten hat den Wert, ein inaktiver den Wert 0.
2. Nun errechnet das neuronale Netz die Aktivierungen für die Ausgabeneuronen, die jeweils den unterschiedlichen Krankheiten entsprechen. Dazu werden die Werte aus den Eingabeneuronen, (sozusagen die Summe aller Symptome) addiert und an die entsprechenden Ausgabeneuronen weitergeleitet. Je höher der Wert, desto stärker sieht das neuronale Netz also die Verbindung zwischen den Symptomen und einer bestimmten Krankheit. Es lernt also durch Veränderung der Gewichte an den einzelnen Symptomen, die korrekte Krankheit zu erkennen.
3. Danach wird die errechnete Aktivierung der Ausgabeneuronen mit der gewünschten Zielaktivierung verglichen. Die gewünschte Zielaktivierung stellt das richtige und gewünschte Ergebnis dar. Die Differenz ist notwendig, um die Gewichte anzupassen und damit die Vorhersagen des neuronalen Netzes immer genauer zu machen.
4. Die Gewichte an den Eingabeneuronen werden angepasst. Dazu wird jeweils die Differenz zwischen errechneter Aktivierung und Zielaktivierung berechnet und an die Eingabeneuronen angehängt. Dies geschieht allerdings nur an diesen Neuronen, da ja auch nur diese einen unmittelbaren Einfluss auf die Ausgabe (und damit die erkannte Krankheit) haben. Durch die Veränderung der Gewichte an den Eingabeneuronen wird ausgedrückt, wie stark ein Symptom in der Praxis bei einer bestimmten Krankheit auftritt.
5. Im letzten Schritt wird ein neues Eingabemuster erzeugt, also eine neue Krankheit und das neuronale Netz für die Erkennung ebendieser trainiert. Der Zyklus beginnt von vorne.
Die Art des Trainings eines neuronalen Netzes hängt sowohl vom Einsatzebiet, der notwendigen Genauigkeit, der Häufigkeit neuer zu erkennen der Muster und der vorhandenen Rechenleistung ab.
4.4 Deep Learning
Ein weiteres relevantes Anwendungsgebiet für Data Science ist das sogenannte Deep Learning. Dabei werden neuronale Netze zu ausgedehnten Netzwerken mit einer großen Anzahl von Schichten erweitert, die mit Hilfe großer Datenmengen trainiert werden. In den letzten Jahren gab es gerade im Bereich der Sprach- und Bilderkennung und dem autonomen Fahren große Entwicklungen, die auf diesen Bereich zurückzuführen sind.
Deep Learning ist ein maschinelles Lernverfahren, bei dem Computer anhand von Beispielen lernen – allerdings auf dieselbe Weise wie der Mensch, nämlich durch die Verbindung unterschiedlicher Arten von Gedächtnis. Es ist die Schlüsseltechnologie hinter fahrerlosen Autos, die es ermöglicht, automatisch ein Stoppschild zu erkennen oder einen Fußgänger von einem Laternenpfahl zu unterscheiden. Es ist der Schlüssel zur Sprachsteuerung in Endgeräten wie Telefonen, Tablets, Fernsehern und Freisprecheinrichtungen.
Deep Learning wird in letzter Zeit und aus gutem Grund immer mehr beachtet. Es erzielt eine Ergebnisqualität bei der Vorhersage, die bisher nicht möglich war.
Deep Learning wird primär zur Erkennung von Mustern wie z.B. Objekten auf einem Bild verwendet. Der Computer lernt dies direkt aus Bildern, Texten oder auch aus Audioaufnahmen. Die auf diese Weise trainierten Modelle übertreffen teilweise sogar die Leistung des Menschen. Für das Training dieser mehrschichtigen neuronalen Netze werden meist umfangreiche Mengen von gekennzeichneten Daten verwendet.
Während Deep Learning schon in den 1980er Jahren erstmals theoretisiert wurde, gibt es zwei Hauptgründe für seinen Aufstieg in den letzten Jahren:
• Deep Learning erfordert große Mengen an gekennzeichneten Daten, die vor allem durch die Markierungen der Benutzer in sozialen Netzwerken in viel größerer Menge und Qualität verfügbar sind. Beispielsweise erfordert das Training eines Systems für autonomes Fahren Millionen von Bildern und Tausende von Stunden Video.
• Deep Learning erfordert eine hohe Rechenleistung, die herkömmliche Systeme nicht bereitstellen können, da die Daten vor allem parallel verarbeitet werden müssen. Grafikprozessoren verfügen allerdings über jene parallele Hardware-Architektur, die für Deep Learning effizient und auch noch verhältnismäßig günstig ist. In Kombination mit Cloud-Computing, wo Rechenleistung nur bei Bedarf kurzfristig gemietet wird, reduziert dies die Trainingszeit für Deep Learning Systeme auf wenige Stunden.
4.4.1 Praktische Anwendungen von Deep Learning
Deep Learning wird heutzutage für die Entwicklung von unterschiedlichsten datenbasierten Anwendungen in der Industrie eingesetzt.
Autonomes Fahren: In diesem Bereich wird Deep Learning von Automobilherstellern verwendet, um Objekte wie Stoppschilder und Ampeln automatisch zu erkennen. Darüber hinaus erkennen mit Deep Learning trainierte Systeme auch Fußgänger automatisch, was Unfälle im Straßenverkehr vermeidet und auch das manuelle Fahren sicherer macht.
Luft- und Raumfahrt und Verteidigung: Deep Learning wird verwendet, um von Satelliten aus Objekte am Boden zu identifizieren, die von militärischem Interesse sein könnten und um sichere Gebiete für Truppen zu identifizieren.
Medizinische Forschung: In der Krebsforschung nutzt man Deep Learning, um Krebszellen automatisch zu erkennen. Wissenschaftler der UCLA (University of California, Los Angeles) bauten beispielsweise ein spezielles Mikroskop, das einen so hochauflösenden Datensatz liefert, dass man damit einen Computer mittels Deep Learning zur genauen Identifizierung von Krebszellen verwenden kann.
Industrielle Automatisierung: Deep Learning trägt dazu bei, die Sicherheit der Mitarbeiter rund um schwere Maschinen zu verbessern, indem es automatisch Personen oder Gegenstände in einem unsicheren Abstand zu Maschinen erkennt.
Elektronik: Deep Learning wird auch in der Konsumelektronik sehr stark zur automatisierten Spracherkennung eingesetzt. Zum Beispiel in Form von Haushaltshilfen wie „Amazon Alexa“, die auf die Stimme des Kunden reagieren und auch dessen Präferenzen anhand des Kundenprofils kennen und daher sehr präzise Unterstützung bieten können.
Marketing: Viele Lösungen in diesem Bereich betreffen vor allem die Marketingautomatisierung und Werkzeuge zur automatischen Interaktion mit Kunden. Mit der steigenden Qualität und dem immer geringer werdenden Trainingsaufwand wird sich die Technologie auch in diesem Bereich über die nächsten Jahre zu einem Standard durchsetzen. Hierzu einige Beispiele aus der Praxis:
• Software, die automatisch Werbeflächen an Märkten handelt („Real Time Bidding Software“),
• Chatbots – das sind automatische Chatsysteme, die dem Kunden menschliches Verhalten simulieren – um mit Kunden auf „menschliche“ Weise zu chatten. Dazu wird die sogenannte Natural Language Processing (NLP) verwendet, also die computergestützte Verarbeitung natürlichsprachiger Information,
• Spracherkennung für die Sprachsuche – auch diese verbindet NLP und Deep Learning. Damit ist es beispielsweise möglich, einen Kunden mit einem speziell trainierten System kommunizieren und in einen Dialog treten zu lassen, in dem das System auch auf Fragen selb-
ständig antworten kann.
Personalisierung: Diese ist bereits jetzt ein großer Trend im Marketing und wird auch von Kunden besser angenommen – Antwortraten auf personalisierte E-Mails sind vielfach höher als auf allgemein formulierte, unpersonalisierte E-Mails. Allerdings könnten Auflagen hinsichtlich des Datenschutzes und unzureichende persönliche Daten über den Kunden eine tatsächlich effektivere Personalisierung erschweren. Durch die Verbreitung von Smartwatches, Mobiltelefonen, Smart TVs und sogar Haushaltsgeräten, die eigenständig Daten an den Hersteller übermitteln, gibt es gerade im Marketing eine Fülle von Daten, die für die Personalisierung verwendet werden kann.
4.4.2 Funktionsweise von Deep Learning
Die meisten Methoden des Deep Learning basieren auf neuronalen Netzen, weshalb Deep Learning Modelle oft als auch als Deep Neural Networks bezeichnet werden. Die „Tiefe“ bezieht sich dabei auf die Anzahl der versteckten Schichten in diesem neuronalen Netz. Während traditionelle neuronale Netze nur zwei bis drei versteckte Schichten enthalten, können tiefe Netze bis zu 150 haben. Abbildung 29 zeigt die typische Architektur eines tiefen neuronalen Netzes, wie es im Deep Learning verwendet wird. Für das Training der entsprechenden Modelle verwendet man typischerweise große Mengen an gekennzeichneten Daten (überwachtes Lernen) und trainiert damit das mehrschichtige neuronale Netz. Im Unterschied zu anderen Verfahren ist es dabei allerdings nicht nötig, die relevanten zu lernenden Merkmale zuvor manuell zu extrahieren oder vorzubereiten.
Abbildung 29: Struktur von neuronalen Netzen für Deep Learning (Davenport, 2017)
Eine der beliebtesten Arten von tiefen neuronalen Netzen sind die sogenannten Convolutional Neural Networks (faltende neuronale Netze). Diese verwenden besondere Methoden, um mehrdimensionale Eingangsdaten (wie z.B. Multimediadaten) zu verarbeiten und eignen sich daher besonders für die Bilder- und Audioerkennung. Üblicherweise besteht diese Art von neuronalen Netzen aus mindestens fünf Schichten. Innerhalb jeder dieser Schichten wird eine Mustererkennung auf Basis des Ergebnisses der vorherigen Schicht durchgeführt, was das Endergebnis maßgeblich verbessert.
Vorstellen kann man sich dieses Verfahren wie ein kleines Erkennungsraster, das Stück für Stück über den zu analysierenden Bereich des Datensatzes fährt. Bei einem Bild geschieht dies z.B. auf Pixel-Ebene durch die Analyse von kleinen Bildausschnitten (z.B. 2×2 Pixel). Dadurch, dass diese Art von neuronalen Netzen nicht mit anwendungsspezifischen Daten trainiert wird, kann man sie ganz allgemein für die Erkennung von Objekten in Bildern nutzen oder für die Erkennung von Songs nur aufgrund einer kurzen Audiosequenz. Die relevanten Merkmale werden dafür selbständig aus den Daten extrahiert und werden auch selbständig während des Trainings erlernt. Jede versteckte Schicht in diesen neuronalen Netzen erhöht die Komplexität der erlernten Merkmale. Zum Beispiel könnte die erste versteckte Schicht lernen, wie man Kanten erkennt, und die letzte lernt, wie man komplexere Formen erkennt, die speziell auf die Form des Objekts zugeschnitten sind.
4.4.3 Unterschiede zwischen maschinellem Lernen und Deep
Learning
Deep Learning ist eine spezielle Form des maschinellen Lernens. Ein „klassischer“ Workflow für maschinelles Lernen beginnt damit, dass relevante Muster manuell aus den Daten extrahiert werden. Diese Muster werden dann verwendet, um ein Modell zu trainieren, das dann weitere Daten selbst kategorisieren kann. Dennoch ist hier sehr viel manuelle Arbeit für die Datenvorverarbeitung notwendig.
Bei Deep Learning werden diese relevanten Muster automatisch aus den Daten extrahiert. Zusätzlich trainiert sich diese Art von neuronalen Netzen mit diesen extrahierten Mustern selbständig und passt sich auch selbständig an das Feedback des Benutzers an.
Ein weiterer wichtiger Unterschied ist die Skalierbarkeit der Algorithmen, die beim Deep Learning verwendet werden. Typischerweise steigen die Anforderungen der Algorithmen an die Rechenleistung mit steigendem Datenvolumen. Dadurch, dass Deep Learning Netze allerdings mehrschichtig sind, lassen sie sich besser parallelisieren und skalieren daher besser, wenn man mehrere Computer für die Berechnung einsetzen kann.
Ein weiterer Vorteil von Deep Learning ist, dass sich die Modelle mit zunehmender Datengröße weiter verbessern. Während man beim klassischen maschinellen Lernen die Algorithmen zur Klassifikation der Muster manuell auswählt, erfolgt bei Deep Learning die Extraktion und Bewertung der besten Muster automatisch.
4.4.4 Training von Deep Learning Systemen
In diesem Kapitel werden nun die drei häufigsten Methoden des Trainings von Deep Learning Systemen kurz dargestellt.
1. Neutraining: Um ein Deep Learning System von Grund auf zu trainieren braucht man eine sehr große Menge an Daten, die das System lernen soll – je nach Anwendungsszenario also z.B. Bilder, Videos, Texte oder Songs. Ein Neutraining ist meistens dann notwendig, wenn es keine vergleichbare Anwendung und damit auch kein Modell gibt, das man weiterverwenden kann. Das Training der Systeme von Grund auf beträgt je nach Datenmenge zwischen mehreren Tagen und Wochen.
2. Transfer Learning: In den meisten Fällen wird allerdings ein bestehendes Deep-Learning System verwendet und der Transfer-Learning-Ansatz angewandt. Dabei wird ein bereits vortrainiertes System an die neuen Anforderungen angepasst, indem es mit neuen Daten trainiert wird, die noch unbekannte Muster und Merkmale enthalten.
Nach ein paar Trainingsläufen kann das System schon zur Klassifikation von neuen Daten genutzt werden. Dies hat auch den Vorteil, dass viel weniger Daten benötigt werden (Training mit Tausenden von Bildern anstatt von Millionen), so dass sich die Trainingszeit auf Minuten oder Stunden reduziert. Transfer Learning erfordert eine Schnittstelle zu dem bestehenden System, so dass es für die neue Aufgabe modifiziert und erweitert werden kann.
3. Merkmalsextraktion: Ein etwas weniger verbreiteter, speziellerer Ansatz für Deep Learning ist dessen Verwendung ausschließlich zur Extraktion von Merkmalen aus Daten. Da ein Deep Learning Modell aus mehreren Schichten besteht, die alle gleichzeitig genutzt werden, um diese Merkmale aus den Daten zu lernen, kann man diese auch während des Trainingsprozesses extrahieren und anderweitig nutzen. Sie können dann als Input für ein anderes maschinelles Lernmodell wie beispielsweise Support Vector Machines (SVM) ver-
wendet werden.
Das maschinelle Lernen bietet eine Vielzahl von Methoden, die man je nach der Anwendung, der Größe der Daten und der Aufgabenstellung, für das das System entwickelt werden soll, auswählen kann. Deep-Learning Systeme erfordern sehr große Datenmengen (z.B. Tausende von Bildern), um ein System soweit zu trainieren, dass die Ergebnisse effektiv nutzbar sind. Ebenso muss auch die nötige Rechenleistung bereitstehen, um die Daten schnell verarbeiten zu können – während des Trainings genauso wie während des späteren Betriebs.
Ob ein System besser mit klassischem maschinellen Lernen oder Deep Learning trainiert werden kann, hängt also im Wesentlichen davon ab, ob parallele Graphikprozessoren für die Berechnung genutzt werden können und ob gekennzeichnete Daten für das Training bereitstehen. Wenn keines der beiden im Unternehmen verfügbar ist, ist dennoch Deep Learning die bessere Wahl, da die Ergebnisse von höherer Qualität sein werden.
Deep Learning gilt als modernstes Forschungsgebiet im Bereich Data Science. Gerade durch die heute verfügbaren Datenmengen durch Smart Devices können Systeme mit individuellen Kundendaten trainiert werden und damit sowohl Marketingaktivitäten als auch Produkte direkt an das Verhalten der Kunden angepasst werden.
4.5 Forecasting und Prognosemodelle
Je früher ein Unternehmen weiß, was Kunden kaufen werden, desto besser kann es Marketing und Produktion genau darauf abstimmen. Data Science macht Prognosen über sogenannte Prognosemodelle möglich. Dafür ist es wichtig, dass möglichst umfangreiche und auch genaue Daten über vorherige Kundenaktivitäten vorliegen.
Bei Prognosen handelt es sich aber immer um mögliche Verläufe und keine absolut sichere Vorhersage dessen, was in der Zukunft passiert. Je genauer die verwendeten Daten sind, desto präziser werden jedoch die Prognosen sein.
Welche Daten man für die Prognosen kombiniert, ist mitunter auch durchaus eine kreative Angelegenheit und lässt sich mehr mit Hausverstand als mit mathematischem Denken lösen. Beispielsweise werden die Verkaufszahlen von Eis wohl direkt mit dem Wetter zusammenhängen. Insofern könnte ein Eisproduzent die Wetterprognosen als Entscheidungsgrundlage verwenden, wieviel Eis er produzieren muss. Dasselbe lässt sich aber auch auf andere Branchen übertragen – es sind nur immer andere Faktoren, die die Geschäftsentwicklung beeinflussen und die man für Prognosemodelle verwenden kann. Gerade in einem immer komplexeren Geschäftsumfeld, wo auch andere Marktteilnehmer diese Faktoren beeinflussen können, ist es daher wichtig, genau diese Faktoren in Prognosemodellen zu verwenden, um den eigenen Unternehmenserfolg auch unter Marktdruck sicherzustellen.
Die Entwicklung von Prognosemodellen folgt immer demselben Ablauf:
1. Im ersten Schritt wird die genaue Fragestellung definiert, für die man eine Prognose erstellen möchte. Dabei sollte zwischen allen Beteiligten Einvernehmen herrschen, was der genaue Zweck der Prognose ist und ob man mit dem Ergebnis auch operativ (und nicht nur theoretisch) etwas anfangen kann.
2. Im zweiten Schritt wird festgelegt, woher die Daten kommen und deren Qualität und notwendige Aktivitäten zur Vorbearbeitung bestimmt. Dabei ist es wichtig, dass diese Daten möglichst aktuell sind und die Qualität der gesamten Zeit betrachtet wird.
3. Danach werden mögliche Szenarien definiert, für die man die Prognosen erstellen möchte. Im Beispiel des Eisverkaufs also wird ein sonniger Tag abstrakt durch eine bestimmte Menge an Variablen mit bestimmten Werten (oder Intervallen) beschrieben. Diese klare Definition ist deshalb wichtig, da diese als Vorlage für die Muster dienen, die dann in den Gesamtdaten gesucht werden. Mathematisch ausgedrückt geht es also z.B. um die Korrelation von Temperaturwerten zwischen 20 und 30 Grad und der Anzahl an verkauften Eisportionen.
Dabei gilt aber zu beachten, dass mehr Variablen nicht automatisch zu besserer Prognosequalität führen, sondern ausschließlich die Auswahl der richtigen Variablen.
4. Im letzten Schritt wird das Modell validiert, indem die Korrelationen zwischen den einzelnen ausgewählten Merkmalen errechnet werden (siehe Kapitel 3.6). Dies dient dazu, sicherzustellen, dass die ausgewählten Merkmale auch tatsächlich in einem Zusammenhang stehen und sich gegenseitig beeinflussen.
Bei der Validierung eines Prognosemodells auf Basis der Korrelation zwischen den Merkmalen ist es unwesentlich, ob zwischen den Merkmalen eine positive oder negative Korrelation besteht – wichtig ist ausschließlich, dass eine statistisch relevante Korrelation besteht.
Welche Merkmale in einem konkreten Anwendungsfall statistisch relevant sind, kann wiederum nur unter Betrachtung der Korrelationen der ausgewählten Merkmale entschieden werden.
4.5.1 Qualität von Prognosemodellen
Prognosemodelle müssen regelmäßig validiert und gegebenenfalls angepasst werden, um konstant die notwendige Qualität der Vorhersage sicherzustellen. Dies kann speziell durch den Einsatz von maschinellen Lernmethoden unterstützt und damit Veränderungen in der Datenqualität schon frühzeitig erkannt werden, bevor sich die Vorhersagequalität negativ verändert.
Je länger also ein Prognosemodell verfeinert wird und mit den Aufgaben „wächst“, umso genauer wird folglich auch seine Prognosequalität sein. Das größte Problem hierbei ist aber die Datenherkunft an sich, da sehr oft schon die Basis fehlerhaft ist. Dies kann dann auch durch das Prognosemodell an sich nicht mehr korrigiert werden. Vor allem Daten aus sozialen Netzen werden durch Social Bots – das sind spezielle Programme, die wie menschliche Nutzer agieren – oft verfälscht. Beispielsweise versuchen diese Programme die Beliebtheit bestimmter Marken im Internet künstlich in die Höhe zu treiben. Dadurch werden allerdings die Daten so stark verfälscht, dass man speziell Daten aus sozialen Netzen für verlässliche Prognosen nicht verwenden sollte. Die Datenqualität und -validität ist also von zentraler Bedeutung für die Erstellung von Prognosemodellen.
4.5.2 Markov Modelle
Markov Modelle sind sehr einfache statistische Modelle, die man verwendet, um abhängig von der Wahrscheinlichkeit einzelner Ereignisse die Wahrscheinlichkeit für eine bestimmte Abfolge an Ereignissen zu berechnen. Sie sind nach einem russischen Mathematiker benannt, dessen primäres Forschungsgebiet die Wahrscheinlichkeitstheorie war.
Anhand eines praktischen Szenarios kann man die Funktionsweise verdeutlichen: Angenommen man möchte die Wahrscheinlichkeit berechnen, dass eine bestimmte Fußballmannschaft das morgige Spiel gewinnen wird. Im ersten Schritt müssen also frühere Statistiken gesammelt werden, aus denen man ablesen kann, in welcher Abfolge das Team gewonnen und verloren hat. Die Frage hierbei ist aber, wieweit zurück man diese Statistiken betrachten will. Wenn man beispielsweise nur zu den letzten zehn vergangenen Spielergebnissen in Folge zurückgehen würde, dann würde man erkennen, dass das Team dreimal gewonnen und dann siebenmal verloren hat. Und je weiter man zurückgehen würde, desto schwieriger und umfangreicher wäre die Datenerhebung und komplexer würden die Wahrscheinlichkeitsberechnungen werden.
Markov-Modelle vereinfachen die Berechnung der Wahrscheinlichkeit, ob ein bestimmtes Ereignis – in Abfolge auch ein vorheriges – eintritt. Dabei beruhen sie auf einem zentralen Satz der Wahrscheinlichkeitsrechnung: Die Wahrscheinlichkeit, dass ein Ereignis eintritt, ist bei einer bestimmten Anzahl an vergangenen Ereignissen gleich der Wahrscheinlichkeit, wenn man nur das letzte vergangene Ereignis berücksichtigt. Am besten lässt sich das wieder an einem Beispiel demonstrieren: Angenommen, Sie möchten den Ausgang eines Fußballspiels für Ihr Team vorhersagen. Es gibt drei mögliche Ergebnisse – Verloren, Gewonnen, Unentschieden. Nehmen wir an, Sie haben frühere statistische Daten über den Ausgang der Spiele gesammelt und wissen auch, dass Ihr Team sein letztes Spiel verloren hat. Nun möchten Sie vorhersagen, ob Ihr Team das nächste Spiel wieder verliert, gewinnt oder unentschieden spielt. Mithilfe eines Markov-Modells lösen Sie diese Aufgabe wie folgt:
1. Berechnen Sie einige Wahrscheinlichkeiten auf der Grundlage von Vergangenheitsdaten! Zum Beispiel, wie oft hat das Team Spiele verloren? Wie oft hat es gewonnen und wie oft unentschieden gespielt? Zum Beispiel, wenn das Team zehnmal gespielt hat und sechs Spiele gewonnen hat, dann ergibt das eine Wahrscheinlichkeit von 60 Prozent für das Team, ein Spiel zu gewinnen.
2. Berechnen Sie die Wahrscheinlichkeit eines Verlustes und dann die Wahrscheinlichkeit eines Gleichstandes auf die gleiche Weise!
3. Stellen Sie eine Tabelle mit den Wahrscheinlichkeiten auf, welcher Zustand auf welchen folgen kann! In unserem Beispiel würde es dafür unter anderem folgende Wahrscheinlichkeiten geben:
• Die Wahrscheinlichkeit, dass ihr Team gewinnt, nachdem es das letzte Spiel verloren hat.
• Die Wahrscheinlichkeit, dass ihr Team verliert, nachdem es das letzte Spiel gewonnen hat.
• Die Wahrscheinlichkeit, dass ihr Team unentschieden spielt, nachdem es das letzte Spiel gewonnen hat.
Insgesamt gibt es dafür 3*3 Wahrscheinlichkeiten, also Kombinationen, welches Ereignis auf welches folgen kann.
4. Berechnen Sie die Wahrscheinlichkeiten für jede Kombination! In unserem Beispiel wären das die Kombinationen aus den Übergängen von Verlieren, Gewinnen, Unentschieden. Die jeweiligen Wahrscheinlichkeiten kann man mittels der Bayes’schen Wahrscheinlichkeit (Kapitel 3.5) berechnen. Unter der Annahme, dass das Team nur einmal pro Tag spielt, wären also die Wahrscheinlichkeiten wie folgt:
• P(Gewinnen|Verlieren) ist die Wahrscheinlichkeit, dass das Team heute gewinnt, wenn es gestern verloren hat. Wenn Sie die letzten zehn Spiele analysieren, dann sehen Sie, dass die Mannschaft auf das letzte gewonnene Spiel zweimal verloren hat, sechsmal gewonnen und zweimal unentschieden gespielt hat. Somit ergibt sich für P(Gewinnen|Verlieren) = 20 %.
• P(Gewinnen|Unentschieden) ist die Wahrscheinlichkeit, dass das Team heute gewinnt, wenn es gestern unentschieden gespielt hat.
Die Wahrscheinlichkeit dafür mit den oben dargestellten Spielverläufen ist 20 %.
• P(Gewinnen|Gewinnen) ist die Wahrscheinlichkeit, dass das Team heute gewinnt, wenn es auch gestern gewonnen hat. Die Wahrscheinlichkeit dafür mit den oben dargestellten Spielverläufen ist 60 %.
5. Erstellen Sie anhand der berechneten Wahrscheinlichkeiten ein Diagramm, das Ereignisse und Wahrscheinlichkeiten darstellt! Das Ziel des Diagramms ist, die einzelnen Ereignisse und Übertrittswahrscheinlichkeiten von einem Ereignis auf ein anderes darzustellen. Sie sehen ein Beispiel dafür in Abbildung 30. Ein Kreis in diesem Diagramm stellt ein Ereignis dar, also, dass das Team gewinnt, verliert oder unentschieden spielt. Die Pfeile zwischen den Kreisen stellen die Wahrscheinlichkeit dar, mit der auf ein Ereignis das jeweils anere folgt. Beispielsweise können Sie aus dem Diagramm ablesen, dass die Wahrscheinlichkeit, dass auf ein Unentschieden wieder ein Unentschieden folgt bei 30 % liegt, während auf ein Unentschieden die Mannschaft mit 20 % Wahrscheinlichkeit das nächste Spiel verliert. Geht ein Pfeil von einem Kreis wieder zurück auf sich selbst, dann drückt das die Wahrscheinlichkeit aus, dass das nächste Spiel genau gleich ausgeht.
Abbildung 30: Markov-Modell zur Vorhersage von Spielergebnissen (Bari, 2016)
Beispielweise liegt die Wahrscheinlichkeit, dass auf ein Unentschieden ein weiteres Unentschieden folgt, bei 50 % und dass das Team zweimal hintereinander gewinnt bei immerhin 60 %.
6. Leiten Sie die Wahrscheinlichkeit für eine bestimmte Abfolge aus dem Diagramm ab!
Mit Hilfe des gerade erstellten Diagramms können Sie nun sehr einfach die Wahrscheinlichkeit errechnen, dass eine bestimmte Sequenz an Ereignissen eintritt. Dazu multiplizieren Sie die einzelnen Wahrscheinlichkeiten der aufeinanderfolgenden Ereignisse. Hier einige Beispiele.
• Die Wahrscheinlichkeit, dass die Mannschaft gewinnt, nachdem sie verloren und davor unentschieden gespielt hat, errechnet sich aus 0,2*0,35 = 0,07, also 7 %.
• Die Wahrscheinlichkeit, zweimal hintereinander zu verlieren beträgt 0,35 2 = 0,1225, also 12,25 %
• Nach einer Glückssträhne mit zwei Siegen, errechnet sich die Wahrscheinlichkeit, dann zu verlieren, als 0,6 2 *0,2 = 0,072, also 7,2 %.
Hat man also einmal das Diagramm mit den Übergangswahrscheinlichkeiten aufgestellt (man kann das natürlich auch über eine 2-dimensionale Tabelle machen, die an den Achsen die Ereignisse und in den Feldern die Übergangswahrscheinlichkeiten darstellt), so kann man sehr einfach errechnen, wie wahrscheinlich eine bestimmte Abfolge an Ereignissen eintritt.
Diese Berechnungen können beispielsweise vom Stadionbetreuer und der Exekutive verwendet werden, um daraus ein mögliches Konfliktpotential zwischen den Fußballmannschaften vorherzusagen und daraus den nötigen Einsatz an Beamten.
In Ihrem Unternehmen können Sie solche Berechnungen hingegen verwenden, um die Wahrscheinlichkeit zu berechnen, dass Kunden, die schon ein bestimmtes Produkt besitzen, ein neueres Modell und dafür neues Zubehör oder zusätzliche Dienste kaufen. Abhängig von der Wahrscheinlichkeit des Eintretens eines bestimmten Szenarios können Sie dann genau für dieses Szenario Ihre Marketingaktivitäten steuern. Beispielsweise könnten Sie konkrete Rabattaktionen planen, die den Umstieg auf das neuere Modell, ein bestimmtes Zubehör und einen entsprechenden Tarif beinhalten und dieses finanziell fördern. Auf der anderen Seite wüssten Sie, dass Sie dieses Angebot bestimmten Kundengruppen erst gar nicht zusenden müssen, da die Wahrscheinlichkeit für dieses Szenario bei dieser Gruppe wesentlich geringer ist.
Mit Markov-Modellen können Sie die Wahrscheinlichkeit berechnen, dass Ereignisse in einer bestimmten Abfolge eintreten. Dies erlaubt Ihnen, Marketingaktivitäten auf jene Szenarien zu konzentrieren, deren Eintrittswahrscheinlichkeit im Vergleich mit anderen Alternativen höher ist.
5 Integration von Data Science im Unternehmen Laut dem Chiphersteller Intel wurden im Zeitraum von 1970 bis 2003, also in 33 Jahren, fünf Exabyte (das sind fünf Millionen Teraybte) an Daten erzeugt.
Um die Geschwindigkeit der Neuerstellung von Daten zu verdeutlichen diese Datenmenge wird mittlerweile nun alle zwei Tage generiert. Diese wachsende Menge an Daten wird daher auch verstärkt von Unternehmen genutzt, um sich einen Wettbewerbsvorteil zu verschaffen. Die größte Motivation dabei ist, einerseits Trends frühzeitig erkennen und Kundenwünsche frühzeitig adressieren zu können und andererseits auf geändertes Kundenverhalten eingehen zu können. Die Daten dafür stammen meist aus aktiver Kundenbeobachtung und müssen nicht wie in früheren Zeiten durch Meinungsbefragungen akquiriert werden. Bei aller Begeisterung und stetigem Bewusstsein für den Nutzen und die Chancen von Data Science und Big Data in den Unternehmen kratzen sie doch meist nur an der Oberfläche dessen, was damit möglich ist. Meist werden Daten lediglich als Entscheidungsbasis genutzt – aber sie werden nicht für die tatsächliche Transformation des Geschäftsmodells herangezogen. Im Bereich der Geschäftsmodellinnovation kann Data Science zur Validierung und Transformation des Geschäftsmodells eingesetzt werden.
Beispiele für die Integration von Data Science mit Geschäftsmodellen sind die Blue Ocean Strategy (Kim und Maubergne, 2005) oder das 4C-Geschäftsmodell (Content, Commerce, Context, Connection) von Google (Wirtz, 2018).
Daten müssen nicht zwangsläufig Teil des Geschäftsmodells sein, aber Unternehmen können Daten auf unterschiedlichste Art nutzen, um ökonomische Chance für sich zu nutzen und langfristig erfolgreich zu sein. In Abbildung 31 werden nun fünf Kernanwendungen von Data Science im Unternehmensumfeld vorgestellt, die im folgenden Kapitel genauer beschrieben werden.
Abbildung 31: Stufen der Anwendung von Data Science in Unternehmen
Dabei unterscheidet man zwischen zwei Ebenen: Die Analyse des Markts und des Unternehmens und die Transformation des Geschäftsmodells. Die Analyse hat einen strategischen und einen operativen Fokus. Die zweite Ebene, die Transformation des Geschäftsmodells fokussiert auf dem bewussten und organisierten Einsatz von Data Science. Dies beginnt bei der Einführung eines geschäftsgetriebenen Datenmanagements und endet bei der Entwicklung hin zu einem datengetriebenen Geschäftsmodell. Die fünf Kernanwendungen bauen aufeinander auf und zeigen auch unterschiedliche Ebenen des Einsatzes von Data Science im Unternehmen. Auch wenn nicht alle Kernanwendungen für jedes Unternehmen relevant sein mögen, so können sie zumindest als Ergänzung genutzt werden und im Laufe der Zeit – mit steigendem Nutzen und Vertrauen – ausgebaut werden.
Der mit Data Science und Big Data verbundene Hype hat sich in den letzten Jahren für viele Unternehmen verändert und die Erwartungen der Unternehmen sind realistischer geworden. Frühere Kritiker, die darin einen schnellen Weg zum Reichtum sahen, wurden von den kostspieligen und komplexen Analysen der Daten und letztlich enttäuschenden Resultaten, Daten direkt in Geld umzuwandeln, überrascht. Durch dieses gestiegene Bewusstsein, dass es auch eine konkrete Methodologie benötigt, um Daten zu Geld machen zu können, wird Data Science mittlerweile nicht nur kosteneffizienter, sondern auch realistischer eingesetzt.
Doch wie kam es zu diesem Meinungsumschwung? Die Kosten für Datenverarbeitung und -speicherung sind in den letzten zehn Jahren um den Faktor 1.000 gesunken. Leistungsstarke analytische Techniken sind entstanden.
Neue Technologien wie Hadoop und MapReduce (Kapitel 1.3) erfordern nicht mehr, dass Daten in streng strukturierter Form gespeichert und verarbeitet werden. Auch können Daten heute unstrukturiert und in früher undenkbaren Mengen vorliegen – von Facebook-Posts bis hin zu Telefonaufzeichnungen von Helpdesk-Mitarbeitern in geografisch verteilten Rechenzentren.
Erkenntnisse, die noch vor wenigen Jahren unentdeckt geblieben wären, können so routinemäßig und relativ einfach gewonnen werden. Allein im Jahr 2013 haben laut der Unternehmensberatung Gartner Unternehmen mehr als 34 Milliarden US-Dollar für die mit Data Science verbundenen Anwendungsfelder ausgegeben. Und die Analysen im geschäftlichen Umfeld werden immer ausgefeilter und breiter. Bei dem US-Energiekonzern Chevron sammelt eine hauseigene Analyseplattform seismische Daten, um Öl- und Gasvorkommen aufzuspüren. Das hilft dem Unternehmen, seine Bohrarbeiten und Ausgaben viel effektiver zu bündeln. In New York City, wo es für etwa eine Million Gebäude nur 200 Bauaufseher gibt, setzt die Stadt ebenfalls Methoden aus Data Science ein, um vermehrt unfallträchtige Strukturen zu finden und zu entschärfen. Inspektoren können so viel zielgerichteter eingesetzt werden.
Big Data und Data Science verhelfen Unternehmen nicht nur zu neuen Erkenntnissen und der Optimierung ihrer Prozesse, sondern auch, neue Geschäftsmodelle voranzutreiben. Das Zusammenspiel beider Domänen fördert Innovation und Agilität und kann zu neuen Einnahmequellen führen - auch in Bereichen, die weit vom traditionellen Geschäftsfeld des Unternehmens entfernt sind. Beispielsweise kann ein Telekommunikationsunternehmen die Mobilfunknetzdaten der Kunden nutzen, um ihnen standortbezogene Versicherungspolizzen anzubieten. Durch die Ableitung der wahrscheinlichsten Aktivität der Kunden aus ihrem Standort (z.B. Reisen, wenn der Teilnehmer an einem Flughafen ist) kann das Unternehmen kontextspezifische und damit sehr attraktive Produkte in Echtzeit anbieten. Dies erweitert das klassische Geschäftsmodell eines Unternehmens um Möglichkeiten, die es davor noch nicht gegeben hat und die auch für Kunden einen enormen Mehrwert bieten können.
5.1 Strategische Analyse
Die meisten Anwendungen im Bereich der Datenanalyse in Unternehmen haben einen strategischen Fokus: Die Nutzung von Daten, um allgemeine Entscheidungen richtig zu treffen oder spezifische Probleme zu lösen (z.B. wo eine neue Bankfiliale eröffnet werden soll oder welche Art von Rabattcoupon an das Smartphone eines Kunden gesendet werden soll, um ihn langfristig an das Unternehmen zu binden).
Die Möglichkeiten, Informationen auf diese Weise zu nutzen, wurden durch mehrere Entwicklungen erheblich verbessert: eine hohe Verfügbarkeit von Daten aus bestehenden und neuen Quellen, stark verbesserte Analysetechniken und geringere Verarbeitungs- und Speicherkosten. Dadurch können Unternehmen Daten für sich nutzen, die sie bisher nicht als Entscheidungsunterstützung verwendet haben, wie z.B. Daten aus sozialen Netzwerken und andere unstrukturierte Daten, mit denen ältere Softwarelösungen nicht arbeiten konnten. Dies hat insgesamt zu besseren, schnelleren und verwertbareren Ergebnissen geführt.
Diese Art von strategischen Analysen kann auf eine Vielzahl von Situationen angewendet werden. So konnte ein Betreiber von Windkraftwerken eine wichtige strategische Herausforderung mithilfe von Data Science meistern:
Wo sollen Windkraftwerke (Windräder) platziert werden? Der richtige Standort sichert dabei den Energieertrag über eine mehr als 20-jährige Betriebszeit eines Windkraftwerks und sollte daher optimal ausgesucht werden. Dazu hat das Unternehmen Informationen aus einer Vielzahl von Quellen analysiert: Wind- und Wetterdaten, die Häufigkeit von Turbulenzen in den Regionen, topografische Karten und Sensordaten von allen seinen Kraftwerken weltweit. Die Analyse all dieser Daten verschafft dem Unternehmen allerdings einen Wettbewerbsvorteil, da es unter allen möglichen Standorten auf diese Weise jenen finden kann, der auch langfristig am profitabelsten betrieben werden kann.
Eine Bank hat ein Projekt gestartet, das die Transaktionsdaten der Kunden analysiert, um das Eintreten wichtiger Lebensereignisse wie Heirat oder einen neuen Job aus den Finanztransaktionen des Kunden abzuleiten. Zu diesen Anlässen im Leben ist das Interesse an hochwertigen Finanzprodukten (z.B. Bausparen oder ein gemeinsames Konto mit dem Partner) natürlich besonders groß. Wenn eine Bank diese kritischen Momente frühzeitig identifizieren kann, kann es seine Werbeaktionen individuell auf die Kunden abstimmen. Noch wichtiger in diesem Zusammenhang ist aber, dass ein Unternehmen damit langfristige Beziehungen fördern kann, da es dem Kunden aufgrund des persönlichen Bezugs der Daten auch ein persönliches Interesse suggeriert.
5.2 Operative Analyse
Allerdings sollte die Analyse nicht nur einen rein strategischen Fokus haben und damit eher den Markt des Unternehmens betrachten, sondern auch dessen Kernprozesse. Im nächsten Schritt der Analyse wird daher das operative Tagesgeschäft des Unternehmens untersucht – dessen alltäglichen Prozesse. Für diesen Bereich eines Unternehmens liegen typischerweise auch sehr viele Daten vor, da die Prozesse wiederholt ausgeführt werden und teilweise sogar in Echtzeit Daten liefern können.
Obwohl operative Analysen regelmäßig durchgeführt werden sollten, damit Data Science im Unternehmen auch sinnvoll angewandt werden kann, wird es in der Praxis oft nur einmal oder bei Bedarf durchgeführt. Ein prominentes Beispiel eines Unternehmens, das diese operativen Analysen nicht nur täglich, sondern laufend durchführt, ist der Kreditkartenbetreiber Visa. Im August 2011 hat das Unternehmen eine Betrugserkennungssoftware eingeführt, die selbständig Transaktionen der Kunden auf Unregelmäßigkeiten überwacht. Bis März 2013 hat das System zwei Milliarden US-Dollar an betrügerischen Transaktionen identifiziert und frühzeitig blockiert, bevor das Unternehmen Geld verloren hätte. Ein anderes Beispiel ist Amazon, das die Kauf- und Suchhistorie jedes Kunden automatisiert überwacht, um personalisierte Empfehlungen zu generieren. Das Unternehmen schätzt, dass 25 % des Umsatzes auf diese personalisierten Kaufempfehlungen zurückgehen.
Banken führen operative Analysen ihrer Daten im Rahmen des Risiko-Scorings der Kunden durch und verarbeiten dabei eine Vielzahl von internen und externen Daten, um die Kreditwürdigkeit eines Kunden zu beurteilen.
Operative Analysen können auf alle Arten von Prozessen in den unterschiedlichsten Branchen angewendet werden. Manche Anwendungen mögen auch überraschend erscheinen, dennoch bieten sie für Unternehmen neue Möglichkeiten der Absicherung und Erweiterung ihres Geschäftsmodells. Ein anderes Beispiel, diesmal aus dem behördlichen Kontext, ist die automatische Steuerfahndung. In Italien wurde dazu ein eigenes System namens redditometro eingeführt, das unterschiedliche Daten von Banken, Kreditkartentransaktionen, Versicherungen und statistische Vorhersagen nutzt, um Steuerhinterzieher zu finden. Dazu werden für jede Person die wahrscheinlichsten Ausgaben berechnet und dann mit der abgegebenen Steuererklärung verglichen.
Ein weiteres großes Anwendungsfeld der operativen Datenanalyse liegt im Bereich der vorbeugenden Wartung von Systemen. Durch die Analyse von Daten, die auf Sensoren in oder auf kritischen Infrastrukturen installiert sind, können Unternehmen vorhersagen, wann Ausfälle auftreten werden und schon davor eingreifen und sie verhindern. Im Rahmen dieser Analysen wird nach Mustern gesucht, zum Beispiel nach der Art und Häufigkeit von Warnmeldungen von früheren Ausfällen. Damit können Ausfälle schon Stunden
vor ihrem Auftreten prognostiziert werden, was den Betreibern von kritischen Infrastrukturen Zeit gibt, das Problem noch rechtzeitig zu beheben.
5.3 Geschäftsgetriebenes Datenmanagement
Die Verfügbarkeit von genauen und in Echtzeit verfügbaren Daten ist entscheidend, um basierend darauf für das Unternehmen relevante Entscheidungen (z.B. in welchem Bereich Forschungstätigkeiten konzentriert oder zu welchen Preisen Dienstleistungen an die Kunden angeboten werden sollten) treffen zu können. In den meisten Unternehmen sind diese Daten tendenziell über das gesamte Unternehmen verteilt, wobei jede Abteilung oft mit eigenen Daten und deren Interpretation arbeitet. Erschwerend kommt hinzu, dass diese Informationen oft veraltet sind und dennoch bei Entscheidungen berücksichtigt werden. In vielen Unternehmen liegen auch Unmengen an strukturierten und unstrukturierten Daten komplett ungenutzt, obwohl diese ein enormes Potential beinhalten könnten. Als Ergebnis dessen wer-
den oft falsche und widersprüchliche Entscheidungen getroffen, anstatt diese Daten zu erschließen und in die Entscheidungsfindung miteinzubeziehen.
Um schnellere und vor allem bessere Entscheidungen treffen zu können, müssen die Daten daher im Unternehmen harmonisiert werden (Enterprise Information Management).
Ein Enterprise Information Model beschreibt das einheitliche Datenmodell eines Unternehmens und stellt sicher, dass Informationen im gesamten Unternehmen einheitlich verstanden, analysiert und verwendet werden können.
Die Idee besteht also nicht nur darin, operative Daten zu sammeln und zu verarbeiten, sondern sie auch in einer klaren, konsistenten und leicht zugänglichen Weise im gesamten Unternehmen darzustellen. Dies ist die Voraussetzung dafür, dass nicht nur einzelne Abteilungen von Data Science und ihren Methoden profitieren können, sondern das ganze Unternehmen hinsichtlich Geschwindigkeit und Qualität bei der Entscheidungsfindung. Ein optimales Enterprise Information Model ist geschäftsgetrieben, kombiniert Quellen innerhalb und außerhalb des Unternehmens und stellt die Beziehungen zwischen ihnen auch graphisch dar. Dadurch ist eine einheitliche Sicht auf die Abläufe im Unternehmen möglich und die Daten und die daraus gezogenen Erkenntnisse können auch in unterschiedlichen Abteilungen einheitlich umgesetzt werden.
5.4 Transformation und Erweiterung des Geschäftsmodells
Große Datenmengen ermöglichen, die traditionellen Wertschöpfungsketten eines Unternehmens einer kritischen Analyse zu unterziehen und infrage zu stellen. Diese Analysen stellen für Unternehmen große Chancen dar, ihr Geschäftsmodell auch entsprechend zu erweitern, anstatt das Risiko einzugehen, von geändertem Kundenverhalten und verpassten Marktchancen überrascht werden zu müssen. Durch die Komplexität der Datenanalysen können Unternehmen branchenübergreifend Produkte und Dienstleistungen anbieten, auch wenn diese von ihrem eigentlichen Geschäftsfeld weit entfernt sind. Dies ist auch das Grundprinzip der in verschiedenen Branchen sich in den letzten Jahren etablierenden Business Ecosystems.
In datengetriebenen Business Ecosystems (Bosch, 2016) konkurrieren Unternehmen primär über datenbasierte Services, die sie den Kunden anbieten – die Infrastruktur und die Daten werden dabei zwischen den Unternehmen geteilt.
Den Heimthermostatmarkt, also einem eher ruhigen wirtschaftlichen Bereich mit einer stabilen Auswahl an Herstellern, hat beispielsweise das amerikanische Startup Nest damit aufgemischt, indem es ein rein datenbasiertes Geschäftsmodell entwickelt hat. Dazu hat es einen Thermostat entwickelt, der automatisch das Verhalten des Kunden analysiert und basierend darauf die Raumtemperatur anpasst. Dieses neuartige und rein datenbasierte Produkt sowie das darauf ausgelegte Geschäftsmodell hat dieser Firma den Einstieg in einen etablierten Markt ermöglicht, in dem es anderweitig wohl keine Chance gehabt hätte.
Doch auch etablierte Unternehmen können von der Erweiterung ihres Geschäftsmodells um datenbasierte Produkte und Dienstleistungen profitieren. Beispielsweise könnte eine KFZ-Versicherung Kunden eine Versicherung anbieten, deren Prämie sich auf Basis des tatsächlichen Fahrverhaltens berechnet. Dazu könnten Kunden beispielsweise eine App auf ihrem Smartphone installieren (wenn das Smartphone über ausreichend Bewegungssensoren verfügt) oder bestimmte Daten von ihrem Auto auslesen lassen (im Falle von elektronischen Fahrassistenten), um diese Daten analysieren zu können. Anhand der Fahrgewohnheiten, also z.B. Geschwindigkeiten, Bremsmanöver, Uhrzeit und Dauer von Fahrten, könnte dann das Risiko für einen Unfall personenspezifisch errechnet werden. Die Versicherung könnte damit jedem Kunden eine an sein Fahrverhalten maßgeschneiderte Polizze anbieten. Sichere oder seltenere Autofahrer würden niedrigere Prämien als riskantere Autofahrer erhalten. Die Aussicht, sich mit sicherem Fahren auch noch Prämien zu ersparen, wäre genau für diese Autofahrer damit ein Alleinstellungsmerkmal dieses Produkts und dieser Versicherung.
5.5 Entwicklung eines datengetriebenen Geschäftsmodells
Die großen Mengen an Daten, die Unternehmen auch selbst generieren, können sowohl für sie selbst als auch für andere Unternehmen innerhalb und außerhalb der Branche nützlich sein. Beispielsweise erfassen soziale Netzwerke oft Daten über Präferenzen und Meinungen der Nutzer, die wiederum für Hersteller wichtig sein könnten, um daraus konkrete Produkte und notwendige Marketingkampagnen abzuleiten. Mobilfunkbetreiber sammelten beispielsweise schon im Zuge ihrer normalen Dienstleistungserbringung Daten schon lange vor dem Aufkommen von Data Science und Big Data.
Diese Daten können allerdings von großem Wert für Einzelhändler sein, die wissen wollen, wo Verbraucher einkaufen – am besten aufgeschlüsselt nach statistischen Daten wie Alter, Bildungsstand und Adresse, um daraus auch noch das Einkommen abzuleiten. Mobilfunkbetreiber können nun also zusätzlich zu ihrem bestehenden Geschäftsbetrieb diese Daten an andere Unternehmen für ihre Zwecke verkaufen. Dazu ist es auch gar nicht notwendig, personenbezogene Daten auszutauschen, für die zusätzlich strengere Datenschutzgesetze gelten. Um für andere Unternehmen nützlich zu sein, reichen anonymisierte Daten, die sogar noch nach bestimmten Kriterien aggregiert sind (wie z.B. Alter, Wohnort, Beschäftigungsverhältnis) und daher auch gar nicht auf eine bestimmte Person schließen lassen, völlig aus.
Beispielsweise kann eine Bank ihr Geschäftsmodell basierend auf Data Science erweitern, indem sie transaktionsbezogene Informationen wie Bankomat- und Kreditkartenaktivitäten analysiert und diese gesammelten Daten dann an andere Unternehmen verkauft. Die notwendigen Daten dafür werden ohnehin schon im täglichen Geschäftsbetrieb der Bank erfasst. Die Idee hinter solchen Geschäftsmodellen ist, dass die im eigenen Geschäftsbetrieb anfallenden Daten somit zweifach genutzt werden können. Selbst Daten, die für das eigene Unternehmen nur begrenzt oder gar keinen Wert haben, könnten für ein anderes Unternehmen wiederum ausreichend wichtig sein, um dafür zu zahlen. Dabei gehen Unternehmensberatungen davon aus, dass vor allem die Daten aus sozialen Netzwerken und Bewegungsdaten von Mobilfunkbetreibern eine Schlüsselrolle einnehmen werden.
Die Etablierung einer wirklich datengetriebenen Unternehmenskultur bedeutet, dass jede einzelne Person im Unternehmen in der Lage ist, bessere Entscheidungen in ihrer Tätigkeit auf der Grundlage von Daten zu treffen. Wenn Daten über alle Ebenen eines Unternehmens hinweg zugänglich gemacht werden, sollte dies jeden Mitarbeiter in der Erfüllung seiner Aufgabe unterstützen und im besten Falle dadurch auch neue Ideen fördern, wie die Daten inner- und außerhalb des Unternehmens genutzt werden könnten.
Ein Beispiel für die komplette Umstellung auf ein datengetriebenes Geschäftsmodell ist Domino’s Pizza, der weltweit größte Pizzalieferant. Im Jahr 2008 hatte das Unternehmen sowohl ein Reputations- als auch Umsatzproblem, was zu einem historischen Aktiensturz des Unternehmens führte. Unter anderem durch die digitale Transformation des Unternehmens hat sich bis heute der Aktienkurs um den Faktor 70 erhöht. Folgende Faktoren wurden in einem Interview mit den Geschäftsführern als erfolgskritisch bei der Transformation des Geschäftsmodells identifiziert:
• Management-Unterstützung: Die Umstellung jedes Geschäftsmodells wird von Mitarbeitern sehr kritisch betrachtet. Insofern ist es entscheidend, dass das Management absolut hinter der Idee steht und davon überzeugt ist – auch wenn auf dem Weg mit Überraschungen zu rechnen ist. Im Falle von Domino’s Pizza hat man innerhalb der Firma die Umstellung auch als Mittel zur Rekrutierung von neuen Talenten verkauft, da die Veränderung des Geschäftsmodells ja auch von Kunden wahrgenommen wird und andere Mitarbeiter anziehen würde.
• Durchgängiges sammeln operativer Daten: Sogenannte A/B Tests werden von vielen Unternehmen eingesetzt, um unterschiedliche Varianten einer Dienstleistung zu testen. Dabei werden innerhalb einer Software unterschiedliche Varianten bereitgestellt – welche Variante ein Kunde dabei „zu Gesicht bekommt“, wird zufällig ausgewählt. Damit können Unternehmen analysieren, welche Variante bessere Ergebnisse liefert (also z.B. einen schnelleren Abschluss des Verkaufsvorgangs). Das Unternehmen Domino’s Pizza verwendete diese Technik, um Daten während des Verkaufsvorgangs auf dem Onlineshop von seinen Kunden zu sammeln und diese danach zu analysieren. So konnten sie sowohl Marketingaktivitäten als auch die Gestaltung des Web-Shops an sich genau an die Kundenbedürfnisse anpassen, ohne die Kunden direkt zu befragen.
• Gezieltes Marketing von Technologieinvestitionen: Obwohl Pizzazustellung wohl keine Hightech-Branche ist, investierte Domino’s Pizza sehr viel in das gezielte Marketing seiner Technologieninvestitionen und machte auch die Technologien dem Kunden transparent. Dies verpasste dem Unternehmen ein neues und modernes Image. Es transportierte damit sein ehrliches Bemühen und Interesse, den Kunden auf eine Weise zu verstehen, wie es Mitbewerber damals nicht getan haben und wie es für die Branche unüblich war (und teilweise bis heute ist). Auch trat das Unternehmen über völlig neue Kanäle mit den Kunden dazu in Kontakt, beispielsweise über gänzlich neuentwickelte Apps für Spielkonsolen, Netflix oder Apple TV.
A/B Tests sind randomisierte Benutzertests im Internet. Unterschiedliche Varianten einer Softwarefunktionalität werden zufällig Benutzern zugeordnet und anhand deren Verhalten schließlich die beste Variante ausgewählt.
Ebenso wurden die Herausforderungen bei der Umstellung auf datengetriebene Geschäftsmodelle schon umfassend untersucht.
• Keine vertrauenswürdige Datenbasis und Werkzeugunterstützung: Unternehmen müssen zunächst eine solide Infrastruktur entwickeln, damit sich die Mitarbeiter auf funktionierende Werkzeuge und korrekte Daten der Kunden verlassen können. IT-Experten sind für die Einhaltung guter Datenpraktiken verantwortlich und können diese auf Datenbankebene definieren.
o Ebenfalls ist es wichtig, die strengen Richtlinien für den Umgang mit Daten festzulegen (Data Governance), um sicherzustellen, dass Daten auch nur korrekt verwendet werden und darüber auch Auskunft geben zu können. Beispielsweise ist es wichtig, dass klar festgelegt wird, welche Personen in einer Abteilung Zugang zu bestimmten Daten haben, wer zu deren Änderungen berechtigt ist und wer Analysen durchführen darf.
• Besorgnis der Mitarbeiter über sich ändernde Rollen und Zuständigkeiten: Menschen neigen oft dazu, sich vor Veränderungen zu fürchten, wenn sie nicht genau wissen, was auf sie zukommt. Besondere Skepsis ist natürlich zu erwarten, wenn es sogar Ziel der Analyse von Daten ist, die Organisation und Teamzusammensetzung eines Unternehmens zu verändern. Führungskräfte müssen daher den Faktor Mensch in ihre Überlegungen miteinbeziehen und wie sie diese (berechtigten) Ängste der Menschen am besten adressieren können.
Wesentlich ist hierbei, den Zweck der Analyse gegenüber den Mitarbeitern darzustellen und auch, wie man die Erkenntnisse aus der Analyse umsetzen wird.
o Der entscheidende Schritt hierbei ist, die Mitarbeiter soweit zu schulen, dass sie selbst über die notwendigen Fähigkeiten verfügen, um Daten analysieren und Erkenntnisse unternehmensweit austauschen zu können. Dies weckt auch das Interesse und nimmt Mitarbeitern das Gefühl der Passivität, je mehr Daten und deren Analyse Teile der normalen Geschäftstätigkeit werden.
o Um alte Gewohnheiten zu durchbrechen und das Unternehmen hin zu einem datengetriebenen zu entwickeln, sollten Unternehmen daher in Bildungsmöglichkeiten investieren.
• Verstreute und unzugängliche Daten: Der Leiter eines Supermarkts, der den nötigen Produktbestand der Filiale für ein bevorstehendes Feiertagswochenende planen möchte, könnte dafür eine spezialisierte Anwendung verwenden. Diese kalkuliert basierend auf den bisherigen Verkäufen den wahrscheinlich nötigen Bestand für das Feiertagswochenende. Als nächsten Schritt startet er eine Anwendung, um die Mitarbeiterplanung für diesen Tag zu sehen und danach noch eine andere Anwendung, um Rabattaktionen des Konzerns zu verfolgen, die ebenfalls berücksichtigt werden müssen. Auch wenn der Leiter des Supermarkts damit zwar alle Informationen hat, führt diese fragmentierte Darstellung zu einem erheblichen Aufwand in der Planung des Feiertagswochenendes und ist durch die Komplexität und die menschliche Komponente auch fehleranfällig.
o In der Entwicklung hin zu einem datengetriebenen Unternehmen ist es daher wichtig sich zu überlegen, wie nicht nur die Geschäftsprozesse operativ durchgeführt werden, sondern auch, wie die Mitarbeiter sich typischerweise die dafür notwendigen Informationen organisieren und wie sie Entscheidungen treffen. Das Ziel muss dabei sein, den Mitarbeiter durch kombinierte
Darstellungen und Analysen der Daten in seinen Aktivitäten zu unterstützen. Dies reduziert einerseits die Zeit, die mit den Wechseln der Anwendungen verbracht wird und fördert andererseits die Motivation der Mitarbeiter für datengetriebene Projekte, die ihnen letztlich die Arbeit erleichtern sollen.
5.6 Ausblick
Die Identifizierung relevanter Anwendungen von Data Science in einem Unternehmen ist natürlich nur der erste Schritt, um aus großen Datenmengen auch tatsächlich Nutzen zu ziehen. Neue Fähigkeiten der Mitarbeiter, neue Organisationsstrukturen und Denkweisen und vor allem interne Veränderungen sind ebenfalls erforderlich. Unternehmen sollten dabei nicht unterschätzen, wie wichtig es dabei ist, über den Tellerrand hinauszuschauen und neue Geschäfts- und Produktideen datenbasiert ohne nennenswertes unternehmerisches Risiko zu evaluieren. Dafür ist es vor allem seitens der Unternehmensführung notwendig, eine Kultur der Innovation und des Experimentierens zu fördern. Auch gilt es bei der Entwicklung hin zu einem datengetriebenen Unternehmen, die unterschiedlichen Wertschöpfungsketten des Unternehmens neu zu bewerten, zu priorisieren und mögliche besser geeignete Alternativen zu überlegen.
Die Methoden von Data Science können genutzt werden, um Unternehmen zu verändern. Der wesentlichste Faktor bei der Entwicklung eines datengetriebenen Unternehmens ist der Mensch, da diese Veränderung nur durch Motivation der Mitarbeiter und Akzeptanz der Kunden möglich ist.
6 CRISP-DM Vorgehensmodell
In diesem Kapitel wird ein etabliertes Vorgehensmodell für datenbasierte Anwendungen im Unternehmensbereich vorgestellt. CRISP-DM steht für (Cross-Industry Process for Data Mining) und beschreibt einen branchenübergreifenden Prozess für Data Mining, also die Grundlage für Datenanalyse und Mustererkennung in Daten. Die CRISP-DM Methodik lässt sich daher auch sehr gut für die Planung von Data Science Anwendungen heranziehen und definiert dafür einen strukturierten Prozess aus sechs Schritten. Es ist ein bewährtes und in der Praxis verbreitetes Vorgehensmodell, das sich auch flexibel an die unterschiedlichen Data Science Projekte anpassen lässt.
Der Fokus des Vorgehensmodells liegt darin, in einem Data Science Projekt durchgängig den Geschäftsbezug sicherzustellen und auch diesen zu Beginn jedes Projekts klar zu definieren, sodass Analysen nicht zum Selbstzweck werden, sondern letztlich positiv zum Unternehmenserfolg beitragen.
Abbildung 32: CRISP-DM Vorgehensmodell
Abbildung 32 stellt die ideale Abfolge der sechs Schritte des Vorgehensmodells dar. In der Praxis können viele der Aufgaben in einer anderen Reihenfolge ausgeführt werden. Oft wird es sogar notwendig sein, zu früheren Aufgaben zurückzukehren und bestimmte Schritte zu wiederholen.
6.1 Geschäftsbezugsanalyse
Die erste Phase des CRISP-DM-Prozesses (Business Understanding) besteht darin, genau zu definieren, was man aus geschäftlicher Sicht erreichen will und einen Projektplan für diese Ziele zu definieren.
Dies ist vor allem deshalb wichtig, weil Menschen in Unternehmen oft unterschiedliche und konkurrierende Ziele und Vorstellungen darüber haben, wofür sie die Methoden von Data Science anwenden möchten. Schon vor Beginn des Projekts müssen Ziele und realistische Erwartungen daher klar definiert werden. Ziel dieser Phase des Vorgehensmodells ist es, jene Faktoren zu identifizieren, die das Ergebnis des Projekts beeinflussen könnten.
Eine unklare Definition und Evaluierung des Geschäftsbezugs des Projekts kann dazu führen, dass man erst spät und nach großem Aufwand feststellt, dass die Erkenntnisse, die man durch Data Science gewonnen hat, nicht im Unternehmen umsetzbar sind.
6.1.1 Definition gewünschter Projektergebnisse
1. Ziele festlegen: Beschreiben Sie das Ziel des Data Science Projekts aus betriebswirtschaftlicher Sicht! Dazu gehören auch jene Fragen, die nur am Rande mit dem initialen Ziel zu tun haben. Nur was entsprechend klar definiert ist, kann auch entsprechend klar beantwortet werden. Ein Beispiel für ein Projektziel könnte sein, bestehende Kunden zu halten, indem sie durch Data Science den Zeitpunkt prognostizieren, wann Ihre Kunden am ehesten für einen Wechsel zu einem Mitbewerber anfällig sind. Wesentliche Begleitfragen könnten sein, auch die Faktoren zu analysieren, die Kunden anfällig für Mitbewerber machen – ob es beispielsweise die Qualität der Dienstleistung oder der Preis ist. Bei allen Fragen ist es auch wesentlich, welche Maßeinheit Sie als Antwort erwarten. Dies hilft später bei der Kommunikation der Projektergebnisse. Oft lassen sich Ergebnisse in diesem Bereich leichter mit quantitativen Antworten beantworten und halten auch einer kritischen Diskussion eher stand.
2. Projektplan erstellen: Hier beschreiben Sie den genauen Plan zur Erreichung der Projekt- und damit Geschäftsziele. Dies beinhaltet auch jene Schritte, die sowohl vor als auch nach der eigentlichen Datenanalyse stattfinden müssen. Auch sollten Sie eine erste Auswahl an möglichen Werkzeugen und Technologien vorschlagen, die zuvor für diesen Einsatz evaluiert wurden. Dies stellt die Realisierbarkeit des Projekts aus technischer Sicht sicher.
3. Geschäftserfolgskriterien (KPIs) festlegen: Hier definieren Sie die Kriterien, nach denen Sie feststellen können, ob das Projekt aus betriebswirtschaftlicher Sicht erfolgreich war. Diese sollten idealerweise spezifisch und messbar sein, z.B. die Reduktion der Kundenabwanderung um eine bestimmte Prozentzahl. Manchmal kann es aber auch notwendig sein – vor allem im strategischen Bereich – qualitative Kriterien wie „langfristige Einblicke in Kundenbeziehungen“ zu definieren. In solchen Fällen muss allerdings klar definiert werden, wer das subjektive Urteil bei solchen Kriterien fällt.
6.1.2 Bewertung der aktuellen Situation
Dies beinhaltet eine detaillierte Aufstellung über alle Ressourcen, Einschränkungen, Annahmen und andere Faktoren, die Sie bei der Festlegung Ihres Ziels der Datenanalyse und Ihres Projektplans berücksichtigen müssen. Sie umfasst folgende Punkte:
1. Ressourceninventar: Eine Liste der für das Projekt verfügbaren Ressourcen, einschließlich Personal (Fachabteilung, Data Scientists, technischer Support), Daten (statische Reports, Livezugriff auf operative Systeme, Produkt- oder Kundendaten), Computer-Ressourcen (im Sinne von Hardware, angemieteter Cloud-Rechenleistung) und Software (spezielle Tools, die im Unternehmen dafür verwendet wird und andere relevante Software).
2. Anforderungen, Annahmen und Einschränkungen: Führen Sie alle Anforderungen des Projekts auf, einschließlich des Zeitplans für die Fertigstellung, die Abnahmekriterien und Qualität der Ergebnisse, alle Anforderungen an den Datenschutz sowie aller weiteren, relevanten rechtlichen Anforderungen. Der Zweck und Umfang der Daten und ihre Verwendung muss klar definiert und von verantwortlicher Stelle für diesen Zweck freigegeben worden sein. Erstellen Sie auch eine Liste der Annahmen, die Sie für das Projekt getroffen haben, also wovon Sie implizit ausgegangen sind. Dies können sowohl Annahmen über Art, Umfang und Qualität der Daten sein, die Sie für das Projekt verwenden möchten, als auch nicht überprüfbare Annahmen über die mit dem Projekt bezweckten geschäftlichen Auswirkungen. Dies ist besonders wichtig, da oft genau diese die Relevanz der Ergebnisse beeinflussen. Führen Sie auch Einschränkungen des Projekts an, wie beispielsweise Einschränkungen hinsichtlich der verfügbaren Projektmitarbeiter, aber auch technologische Einschränkungen wie der Datenmenge, die Sie verarbeiten können. Dies ist insbesondere hinsichtlich der Modellierung der Daten in einem späteren Schritt relevant.
3. Risiken und Eventualitäten: Listen Sie Risiken oder Ereignisse auf, die das Projekt verzögern oder zum Scheitern bringen könnten. Legen Sie durch entsprechende Notfallpläne auch dar, wie Sie mit diesem Risiko umgehen und welche Maßnahmen im Projekt ergriffen werden, wenn diese Risiken oder Ereignisse eintreten.
4. Terminologie: Erstellen Sie ein Glossar der für das Projekt relevanten Fachbegriffe. In der Regel werden dazu zwei Glossare erstellt:
a) Ein Glossar mit relevanter Geschäftsterminologie, das vor allem betriebswirtschaftliche Begriffe genauer ausführt, die für das Verständnis des Projekts notwendig sind. Die Erstellung dieses Glossars mit dem Fachbereich erfolgt meist ohnehin im Zuge der Anforderungserhebung an das Projekt und die Einsatzmöglichkeiten von Data Science.
b) Ein Glossar mit verwendeter Data Science Terminologie und Darlegung des konkreten Einsatzes und für welche Art von Geschäftsproblem. Dies ist auch insofern wichtig, als Sie im Rahmen der Datenanalyse auch aus rechtlicher Hinsicht Auskunft geben können müssen, auf welche Art Sie personenbezogene Daten verwendet haben.
5. Kosten und Nutzen: Ebenfalls müssen Kosten und potenzieller Nutzen des Projekts für das Unternehmen verglichen und deren Kalkulation dargelegt werden (Cost-Benefit-Analysis). Diese Kalkulation sollte so genau wie möglich sein und die im Unternehmen üblichen Kennzahlen beinhalten, anhand derer der Projekterfolg dann innerhalb des Unternehmens evaluiert werden kann.
6.1.3 Beschreibung des Ziels von Data Science
Ein Geschäftsziel gibt ein betriebswirtschaftliches Ziel in der Geschäftsterminologie vor. Ein Data-Science-Ziel auf der anderen Seite gibt die Projektziele in technisch-analytischer Hinsicht und in Data-Science Terminologie vor. Das Geschäftsziel könnte beispielsweise die Steigerung des Umsatzes durch Bestellungen von bestehenden Kunden sein. Das Ziel aus Data Science Sicht könnte sein, die Produkte und Kosten der Bestellungen des Kunden vorherzusagen, abhängig von seinen Einkäufen in den letzten drei Jahren und basierend auf demografischen Informationen wie Alter, Wohnort und Beschäftigungsverhältnis.
1. Geschäftserfolgskriterien: Beschreiben Sie die beabsichtigten geschäftlichen Ergebnisse des Projekts und wie sie zur Erreichung der allgemeinen unternehmensweiten Geschäftsziele beitragen!
2. Data-Science-Erfolgskriterien: Definieren Sie die Kriterien für einen erfolgreichen Projektabschluss in technisch-analytischer Hinsicht, beispielsweise welche Vorhersagegenauigkeit oder Fehlertoleranz Sie in dem Projekt erreichen wollen! Im Falle von qualitativen Erfolgskriterien, (die von Natur aus subjektiv sind), muss auch hier beschrieben werden, welche Person das subjektive Urteil über den Projekterfolg aus Data Science Sicht fällen darf (vgl. Abschnitt 6.1.1).
6.1.4 Erstellung des Projektplans
Erstellen Sie einen Projektplan zur Erreichung der im vorherigen Schritt definierten Ziele aus Data Science Sicht. In diesem Plan sollten alle Schritte festgelegt werden, die im weiteren Verlauf des Projekts durchgeführt werden müssen, einschließlich einer ersten Auswahl an Software-Tools und Techniken.
1. Projektplan: Erstellen Sie eine Liste der im Projekt auszuführenden Phasen mit Dauer, Ressourcenbedarf, benötigten Informationen und Abhängigkeiten! Versuchen Sie, die häufigen Iterationen innerhalb eines Data-Science-Projekts, die üblicherweise durch notwendige Wiederholungen der Modellierungs- und Evaluierungsphasen entstehen, schon gleich zu Beginn einzuplanen! Im Rahmen der Erstellung des Projektplans ist es auch wichtig, den Zeitplan hinsichtlich zeitlicher Risiken zu analysieren und kritische Pfade frühzeitig zu erkennen. Stellen Sie diese Risiken auch explizit im Projektplan dar, idealerweise mit möglichen Maßnahmen und Empfehlungen, wenn sich das Projekt in zeitlicher Hinsicht anders als erwartet entwickelt! Legen Sie auch fest, wie Risiken im Projekt bewertet werden müssen, sodass diese auch tatsächlich von jedem Projektmitglied richtig erkannt werden können! Typischerweise werden Sie den Projektplan im Laufe des Projekts öfter anpassen müssen. Überprüfen Sie in jeder Phase die geplanten Fortschritte und Erfolge und aktualisieren den Projektplan entsprechend! Definieren Sie im Projektplan auch eigene Punkte für die Aktualisierung und laufende Qualitätssicherung und nutzen Sie diese Punkte auch für das Reporting gegenüber dem Projekt-Auftraggeber!
2. Erste Auswahl von Werkzeugen und Techniken: Ebenso sollten Sie am Ende der ersten Phase eine erste Auswahl möglicher Software-Tools und Data Science Methoden getroffen haben. Sinnvollerweise wählen Sie eine Software aus, die Sie in verschiedenen Projektphasen einsetzen können und die auch unterschiedliche Methoden der Datenanalyse ermöglicht. Eine weit verbreitete und sehr flexible Software ist R (www.r-project.org), für die man allerdings etwas Einarbeitungszeit einkalkulieren sollte. Es ist wichtig, Werkzeuge und Methoden frühzeitig im Prozess zu bewerten, da deren Auswahl das gesamte Projekt beeinflussen kann.
6.2 Datenexploration
In der zweiten Phase des CRISP-DM-Vorgehensmodells (Data Understanding) führen Sie eine erste Analyse der in den Projektressourcen aufgeführten Daten und deren Qualität durch und protokollieren diese Ergebnisse in Berichten.
Diese erste Analyse setzt natürlich voraus, dass Sie die entsprechenden Daten in eine Datenbank geladen haben oder anderweitig darauf zugreifen können. Wenn Sie beispielsweise eine bestimmte Software verwenden (beispielsweise Microsoft Excel, IBM SPSS oder R) können Sie die Daten auch damit laden und bearbeiten. Speziell wenn Sie mit unterschiedlichen Datenquellen arbeiten, müssen Sie überlegen, wie Sie diese Quellen integrieren können und wie Sie damit am für Sie einfachsten arbeiten.
Als Ergebnis dieser Phase sollten Sie auch einen Bericht über diese erste Erfassung und Analyse der Daten erstellen. Dieser beschreibt, woher Sie die Daten konkret bezogen haben, die vorgefundene Datenqualität, aufgetretene Probleme und wie Sie sie gelöst haben. Dies dient nicht nur dazu, später nachweisen zu können, woher die Daten stammen, sondern auch, damit man bei zukünftigen ähnlichen Problemen schon mögliche Lösungen hat.
6.2.1 Beschreibung der Grundcharakteristiken der Daten
In diesem Schritt erfassen und beschreiben Sie die grundlegenden Charakteristiken der erfassten Daten und fassen die Ergebnisse wieder in einem Bericht zusammen.
In diesem Datenbasisbericht listen Sie alle erfassten Daten auf einschließlich ihres Formats, ihrer Menge (z.B. die Anzahl der Datensätze und Felder in jeder Tabelle), den Datentyp der einzelnen Felder und alle anderen erfassten Eigenschaften der Daten (beispielweise mögliche Wertebereiche). Prüfen Sie in diesem Schritt, ob die erfassten Daten Ihren zuvor definierten Anforderungen entsprechen!
6.2.2 Beschreibung der statistischen Charakteristiken der Daten
In dieser Phase verwenden Sie Methoden der deskriptiven Statistik (bspw. Median, Durchschnitt, Häufigkeitsverteilungen und Korrelationen), um statistische Charakteristiken der Daten zu beschreiben. Dazu gehören beispielsweise:
- Verteilung von Werten (vor allem, wenn Sie diese Werte für maschinelles Lernen und Prognosemodelle verwenden),
- Korrelationen zwischen Werten,
- Verhältnis ausgefüllter und nicht-ausgefüllter Datenfelder,
- Ergebnisse einfacher statistischer Aggregationen (Summe, Durchschnitt, Median, Quantile).
Diese Analysen sollten sich an den Fragen orientieren, für die Sie Data Science einsetzen und Antworten finden möchten. Sie können diesen Schritt auch gemeinsam mit dem vorherigen durchführen, da die Erkenntnisse dieses Schritts eine weitere Verfeinerung sind. Sie können aus weiteren Analysen allerdings ableiten, ob und welche zusätzlichen Schritte zur Hebung der Datenqualität nötig sind.
Beschreiben Sie die Ergebnisse Ihrer Analyse in einem sogenannten Datenexplorationsbericht einschließlich erster Hypothesen, die Sie aus den Daten schon bilden können, und deren Auswirkungen auf den Rest des Projekts!
Gegebenenfalls können Sie hier Grafiken und Diagramme einfügen, um die statistischen Merkmale einfacher kommunizieren zu können.
6.2.3 Überprüfung der Datenqualität
Überprüfen Sie die Qualität der Daten durch folgende Fragen:
- Decken die Daten Ihre Anforderungen vollständig ab?
- Sind die Daten inhaltlich korrekt, wie gravierend und häufig sind diese Fehler?
- Können und sollen die Fehler korrigiert werden?
- Fehlen Werte in den Daten? Wenn ja, wie behandeln Sie diese, wo treten sie auf und wie häufig sind sie?
6.2.4 Erstellung des Datenqualitätsberichts
Die Ergebnisse der Prüfung der Datenqualität werden wieder in einem Bericht festgehalten, dem Datenqualitätsbericht. Achten Sie darauf, für die gefundenen Probleme auch tatsächlich korrekte Lösungen vorzuschlagen.
Wenn sich Datenqualitätsprobleme nicht lösen lassen, dann halten Sie diese Einschränkung an die zu erwartende Qualität des Ergebnisses auch klar fest.
Für die Beurteilung der Qualität ist in der Regel auch tiefes Fachwissen der jeweiligen Domäne notwendig, weshalb es sinnvoll ist, diese Qualitätsprüfung direkt mit dem Fachbeirat durchzuführen.
6.3 Datenvorbereitung
In der dritten Phase des CRISP-DM-Vorgehensmodells (Data Preparation) werden die tatsächlich für das Projekt relevanten Daten ausgewählt und diese – abhängig von der Qualität – auch vorbearbeitet.
Dies ist die Phase im Prozess, in der Sie die konkreten Daten auswählen, die Sie im Projekt verwenden werden. Bei der Auswahl der Daten sollten Sie sich an der Relevanz der Daten für die definierten Ziele des Data Science Projekts und deren Qualität orientieren. Auch technische Einschränkungen wie beispielsweise das Datenvolumen oder die Datentypen können eine Rolle spielen, ob es Sinn macht, bestimmte Daten dann wirklich auch im Projekt für Ihre Fragestellung zu verwenden. Beachten Sie, dass die Datenauswahl sowohl die Auswahl von Attributen (Spalten) als auch die Auswahl von Datensätzen (Zeilen) in einer Tabelle umfasst. Halten Sie in einem Dokument fest, welche Daten Sie für das Projekt ein- und ausgeschlossen haben und geben Sie auch die Gründe für diese Entscheidungen an!
6.3.1 Bereinigung der Daten
Hierbei ist das Ziel, die Datenqualität auf jenes Niveau anzuheben, das für die von Ihnen eingesetzten Methoden von Data Science notwendig ist. Um die Qualität anzuheben, gibt es mehrere Möglichkeiten: Sie können einerseits einfach nur eine bestimmte, abgegrenzte Menge an Daten einer ausreichenden Qualität extrahieren oder andererseits fehlende Werte manuell ergänzen und fehlende Daten auch automatisiert abschätzen.
In einem Datenbereinigungsbericht halten Sie schließlich fest, welche Entscheidungen und Maßnahmen Sie getroffen haben, um Probleme mit der Datenqualität zu lösen. Berücksichtigen Sie dabei alle Aktivitäten, die Sie im Zuge der Datenbereinigung vorgenommen haben und auch deren möglichen Auswirkungen auf die Analyse- und Prognoseergebnisse.
6.3.2 Rekonstruktion fehlender erforderlicher Daten
Diese Aufgabe umfasst die Rekonstruktion fehlender Daten, die für das Projekt unbedingt notwendig sind. Fehlende Daten können beispielsweise entweder von anderen Attributen abgeleitet werden (z.B. der Bezirk von der Adresse) oder müssen als gänzlich neue Datensätze eingefügt werden. Im Wesentlichen gibt es zwei Möglichkeiten, fehlende Daten zu rekonstruieren.
- Ableiten von anderen Attributen: Dabei werden Attribute ergänzt, indem sie von anderen, schon bestehenden Daten im selben Datensatz abgeleitet werden. Beispielsweise können Sie das Land aus Telefonnummer und Ort ableiten.
- Generierung neuer Datensätze: Hierbei müssen Sie die Daten tatsächlich neu anlegen und können Sie auch nicht aus bestehenden Datensätzen ableiten. Ein Beispiel hierfür wäre, wenn bestimmte relevante Einkäufe von Kunden in Ihrer Datenauswahl fehlen würden. Sie könnten diese Daten dann möglicherweise aus einem anderen System exportieren und anschließend als neue Datensätze in Ihrem System anlegen. Auch könnte es sein, dass in Ihren Rohdaten nur jene Kunden enthalten sind, die beispielsweise im letzten Jahr Produkte gekauft haben. Für die Analyse könnte es aber notwendig sein, dass Sie auch Datensätze für jene Kunden anlegen, die in diesem Jahr nicht eingekauft haben.
Welche der beiden Varianten tatsächlich in einem Projekt die bessere ist, kann nur individuell einerseits anhand der Daten und andererseits anhand des Anwendungszwecks der Daten entschieden werden (beispielsweise ob Sie die Daten rein für Analysen verwenden wollen, Prognosen erstellen oder es für das Training neuronaler Netze verwenden wollen). Dies entscheidet maßgeblich auch, welchen Einfluss die Qualität der Daten auf das Gesamtergebnis schließlich hat.
6.3.3 Integration von Daten aus anderen Quellen
Dabei werden Daten aus mehreren externen Datenbanken, Tabellen oder Datensätzen kombiniert, um Datensätze oder Werte zu erstellen. Man unterscheidet im Wesentlichen zwischen zwei Varianten:
- Zusammenführung von Daten: Dabei werden Daten von zwei oder mehreren Datenquellen zusammengeführt, die unterschiedliche Informationen über dieselben Objekte haben. Beispielsweise könnte eine Handelskette in einer Datenquelle Informationen über die allgemeinen Merkmale ihrer Filialen speichern (z.B. Fläche, Art der Filiale, besondere Sortimentsdaten) und in einer anderen Datenquelle/Datenbank Verkaufsdaten (z.B. Gewinn, prozentuale Umsatzveränderung gegenüber dem Vorjahr) und in noch einer weiteren Datenquelle Informationen über die Demografie des Umlandes speichern.
Jede dieser Datenquellen enthält nun Informationen über dieselbe Filiale. Diese verteilten Daten können nun zu einem neuen Datensatz für jede Filiale zusammengeführt werden, indem die Felder aus den unterschiedlichen Datenquellen kombiniert werden.
- Aggregationen von Daten: Bei Aggregationen werden neue Werte berechnet, indem Informationen aus mehreren Datensätzen und Datenquellen in einem Datensatz zusammengefasst werden. Wenn es beispielsweise eine Datenquelle gibt, in der jeder Einkauf eines Kunden als einzelner Datensatz gespeichert ist, dann könnte man diese zusammenfassen. Der vereinheitlichte Datensatz enthält dann die Anzahl der Einkäufe, den durchschnittlichen Einkaufsbetrag, den Prozentsatz an mit Kreditkarte bezahlten Bestellungen oder den Prozentsatz an rabattierten Artikeln.
6.4 Modellierung
In der Modellierungsphase des CRISP-DM-Vorgehensmodells wird das passende Werkzeug für die Modellierung der Daten ausgewählt und angepasst. Das Ziel dieses Schrittes ist, die Beziehungen zwischen den Daten zu definieren.
Als ersten Schritt hierzu wählen Sie die eigentliche Modellierungstechnik aus, die Sie verwenden wollen. Auch wenn Sie vielleicht bereits in der Geschäftsbezugsanalyse eine Modellierungstechnik ausgewählt haben (beispielsweise BPMN), ist in diesem Schritt eine spezifischere Modellierung notwendig. Der Fokus hierbei liegt auf den Daten und nicht auf geschäftlichen Zusammenhängen. Beispiele für Modellierungstechniken in diesem Schritt sind UML oder Entity-Relationship (ER) Diagramme. Wenn mehrere Techniken angewendet werden sollen, führen Sie die folgenden Schritte für jede Technik separat aus.
- Auswahl Modellierungstechnik: Dokumentieren Sie die tatsächliche Modellierungstechnik, die verwendet werden soll!
- Dokumentation Modellierungsannahmen: Manche Techniken treffen spezifische Annahmen über die Daten, z.B. dass alle Attribute einheitliche Verteilungen aufweisen, keine fehlenden Werte aufweisen oder die Datenfelder nur bestimmte Datentypen haben. Protokollieren Sie alle getroffenen Annahmen und daraus resultierenden Einschränkungen!
6.4.1 Erstellung des Testplans
Bevor Sie das Datenmodell tatsächlich erstellen können, müssen Sie definieren, wie Sie die Qualität und Gültigkeit des Modells bewerten und sicherstellen können. So ist es beispielsweise beim überwachten Lernen oder der Klassifizierung üblich, Fehlerraten als Qualitätsmaßstäbe für Datenmodelle zu verwenden. Daher trennt man die Datensätze typischerweise in Trainings- und Testdatensätze, baut dann das Datenmodell auf dem Trainingsdatensatz auf und überprüft schließlich die Qualität des Datenmodells mittels einem separaten Testdatensatz.
Beschreiben Sie den vorgesehenen Plan für das Training, Testen und Bewerten der Datenmodelle! In diesem Plan muss auch unbedingt festgehalten werden, wie die verfügbaren Datensätze in Trainings-, Test- und Validierungsdatensätze unterteilt werden sollen.
6.4.2 Erstellung des Datenmodells
In diesem Schritt wenden Sie nun die ausgewählte Modellierungstechnik mit dem Modellierungswerkzeug auf die Datensätze an, um daraus konkrete Datenmodelle zu erstellen. Der Fokus dieses Schritts liegt speziell darauf, das Zusammenspiel zwischen Modellierungswerkzeug und Modellierungstechnik zu prüfen, also ob Sie auf diese Weise tatsächlich das Datenmodell korrekt erzeugen können.
- Adaptation der Parametereinstellungen: Bei jedem Modellierungswerkzeug gibt es oft eine große Anzahl von Parametern, die angepasst werden können. Dokumentieren Sie diese Parameter und Ihre ausgewählten Werte zusammen mit der Begründung für die Wahl der jeweiligen Parametereinstellung!
- Prüfung des generierten Datenmodells: Überprüfen Sie, ob das durch das Modellierungswerkzeug erzeugte Datenmodell auch tatsächlich dem Sachverhalt entspricht, den Sie modelliert haben!
Wenn nicht, kann das einerseits an einer falschen Modellierung Ihrerseits liegen oder daran, dass viele Modellierungswerkzeuge oft selbständig (herstellerspezifische) Elemente hinzufügen.
- Dokumentation des Datenmodells: Beschreiben Sie das resultierende Datenmodell verständlich und umfassend und geben Sie auch Hinweise zu dessen Interpretation – vor allem wenn es hierbei eventuell Schwierigkeiten geben könnte!
6.4.3 Bewertung des Datenmodells
Bewerten Sie das Datenmodell entsprechend den für sein Verständnis notwendigen Domänenkenntnissen, seiner Einhaltung der notwendigen
Qualitätsanforderungen für das Data Science Projekt und seinem funktionierenden Zusammenspiel mit dem Testplan! Während Sie im ersten Schritt das Datenmodell aus rein technischer Sicht bewerten, sollten Sie im zweiten Schritt auch Business-Analysten und Fachexperten hinzuziehen.
Berücksichtigen Sie bei Ihrer Bewertung auch, ob das Datenmodell tatsächlich verwendbar ist, um die Ergebnisse des Data Science Projekts darzustellen! Dies ist insofern wichtig, als die Ergebnisse ja einen klaren Zusammenhang mit den im ersten Schritt definierten Geschäftserfolgskriterien haben sollten und Sie so Ihre Ergebnisse besser in das Unternehmensumfeld integrieren können. Achten Sie beispielsweise auf eine einheitliche Terminologie, wenn Sie in Ihrem Datenmodell betriebswirtschaftliche Indikatoren berechnen! Für die Bewertung des Datenmodells führen Sie zwei Schritte durch:
- Bewertung des Datenmodells: Überprüfen Sie Ihr Datenmodell auf seine praktische Anwendbarkeit für die definierten Ziele des Data Science Projekts. Fassen Sie dann die Ergebnisse zusammen und dokumentieren Sie, wie Sie die ualität des Datenmodells bewertet haben (z.B. von welcher Fehlertoleranz Sie ausgegangen sind)!
- Überarbeitung der Parametereinstellungen: Überprüfen Sie ebenfalls erneut die Parameter der Modellierungswerkzeuge und passen Sie sie erneut an, wenn notwendig! Wiederholen Sie diesen Schritt, bis Sie sichergestellt haben, dass das generierte Datenmodell tatsächlich für den Einsatz geeignet ist! Dokumentieren Sie alle Wiederholungen dieses Schritts, Ihre Änderungen und vor allem die finalen Parametereinstellungen des Modellierungswerkzeugs!
6.5 Evaluierung
Im Evaluierungsschritt des CRISP-DM-Vorgehensmodells (Evaluation) prüfen Sie, ob das Datenmodell und die Methodik geeignet sind, die Unternehmensziele zu erreichen. Sie stellen damit sicher, dass die gewonnenen Ergebnisse auch tatsächlich im geschäftlichen Umfeld umsetzbar sind.
In den vorherigen Schritten wurden Faktoren wie die Genauigkeit und die Allgemeingültigkeit des Modells bewertet. In diesem Schritt liegt der Fokus nun ausschließlich auf der Bewertung der unternehmerischen Relevanz des Datenmodells und der ausgewählten Data Science Methode. Dazu können Sie das Vorgehen auch mit realen Daten testen, wenn dies Zeit- und Budgetvorgaben zulassen.
In der Evaluierungsphase bewerten Sie auch alle anderen Ergebnisse, die im Rahmen des Data Science Projekts entstanden sind. Ergebnisse sind dabei sowohl das Datenmodell an sich als auch analytische, statistische, Trainings- und Vorhersagemethoden, die in den bisherigen Kapiteln vorgestellt wurden. Die Evaluierung dieser Ergebnisse bewertet nun, inwieweit diese mit den ursprünglichen Geschäftszielen in Beziehung stehen. Zusätzlich liefert Ihnen die Evaluierung auch hilfreiche Informationen und Hinweise für zukünftige Data Science Projekte.
- Evaluierung der Data Science Ergebnisse: Bewerten Sie die Ergebnisse des Data Science Projekts in Bezug auf deren Beitrag zum Geschäftserfolg! Prüfen Sie dabei auch, ob das Projekt bereits die ursprünglichen Geschäftsziele erfüllt hat!
- Evaluierung der Data Science Methode: Beurteilen Sie die angewandte Data Science Methode hinsichtlich ihrer Qualität und Eignung für das Projekt! Gab es Probleme beim Einsatz der Methode?
Wenn ja, welche – und wie lassen sie sich beheben? Überprüfen Sie dabei auch, ob es geeignetere Methoden für die Aufgabe gibt!
- Evaluierung der Datenmodelle: Lassen sich die Ergebnisse des Projekts sinnvoll, präzise, eindeutig und verständlich durch das von Ihnen entwickelte Datenmodell darstellen? Ist der Bezug zwischen dem Datenmodell und den Geschäftserfolgskriterien für das Management ersichtlich und erlaubt es, basierend darauf konkrete unternehmerische Handlungen abzuleiten?
6.5.1 Evaluierung des Gesamtprozesses
Wenn Sie die Evaluierung des Datenmodells und der verwendeten Data Science Methoden abgeschlossen haben, sollten Sie nun die Qualität des Gesamtprozesses betrachten. Prüfen Sie, an welchen Stellen und warum Sie vom CRISP-DM Prozess abgewichen sind! Gibt es dafür organisatorische oder inhaltliche Gründe und was wäre notwendig, um den Prozess genauer einzuhalten? Prüfen Sie ebenfalls, ob es einen wichtigen Faktor oder eine wichtige Aufgabe gibt, die irgendwie übersehen wurde! Diese Überprüfung umfasst auch Fragen der Qualitätssicherung – beispielsweise, ob Sie das Datenmodell auch so erstellt haben, wie vorgesehen? Haben Sie implizit nur Daten in den Analysen verwendet, zu denen Sie Zugang hatten und stehen Ihnen diese für zukünftige Analysen ebenfalls zur Verfügung? Dokumentieren Sie, wie Sie die Durchführung des CRISP-DM-Prozesses in Ihrem Unternehmen evaluiert haben und heben Sie vor allem Abweichungen und Verbesserungspotenziale hervor!
6.5.2 Festlegung der nächsten Schritte
Abhängig von den Ergebnissen der Evaluierung des Prozesses entscheiden Sie nun, wie es weitergehen soll: Schließen Sie das Projekt ab und setzen dessen Ergebnisse ein, wiederholen Sie bestimmte Schritte oder starten Sie ein neues Data Science Projekt? Berücksichtigen Sie dabei auch die verbleibenden finanziellen und personellen Ressourcen, da dies Ihre Entscheidung beeinflussen kann! Erstellen Sie eine Liste mit den möglichen nächsten Schritten, jeweils mit Gründen für und gegen einen Schritt! Am Schluss dieses Berichts machen Sie einen Vorschlag, was aus Ihrer Sicht der nächste Schritt sein sollte und begründen Sie diesen auch!
6.6 Bereitstellung
Im letzten Schritt des CRISP-DM-Vorgehensmodells (Deployment) planen und kontrollieren Sie die Bereitstellung der Ergebnisse. Weiters erstellen Sie einen Abschlussbericht, der eine kontinuierliche Verbesserung der Data Science Methoden im Unternehmen ermöglicht.
In diesem Schritt legen Sie eine Strategie für die Bereitstellung der Ergebnisse des Data Science Projektes fest. Diese Strategie muss an sich nicht spezifisch für das Projekt sein, wenn es eine allgemeine Vorgehensweise dafür im Unternehmen schon gibt, dann kann auch diese verwendet werden, wenn sich diese für Ihr Projekt eignet. Grundsätzlich ist es sinnvoll, die Art und Weise des Einsatzes der Ergebnisse in einer möglichst frühen Phase des Projekts zu klären. Am besten eignet sich dafür die Geschäftsbezugsanalyse (Kapitel 6.1), da der effektive Einsatz der Ergebnisse natürlich maßgeblich den Erfolg des Projekts beeinflusst. Fassen Sie in diesem Schritt die konkrete Bereitstellungsstrategie zusammen, einschließlich der notwendigen Schritte zur Durchführung und auch welche Kenntnisse dafür erforderlich sind!
6.6.1 Überwachung und Kontrolle der Bereitstellung
Überwachung und Kontrolle sind wichtige Themen, wenn die gefundenen Erkenntnisse aus Data Science operativ im unternehmerischen Tagesgeschäft eingesetzt werden. Eine sorgfältige Vorbereitung dieses Schrittes vermeidet, dass die (richtigen) Ergebnisse unnötig und vermeidbar falsch verwendet werden. Erstellen Sie einen konkreten Plan, wie die Daten und Erkenntnisse des Projekts bereitgestellt werden sollen, wie Sie diesen Prozess kontrollieren können und auch was bei Abweichungen zu tun ist!
6.6.2 Erstellung eines Abschlussberichts
Am Ende des Data Science Projekts erstellen Sie einen Abschlussbericht. Je nach Ziel und Umfang des Projekts kann dieser Bericht nur eine Zusammenfassung des Projekts und seiner Erfahrungen sein oder eine abschließende und umfassende Präsentation der Data Science Ergebnisse. Der Abschlussbericht ist der letzte schriftliche Bericht über das Projekt. Er fasst alle durchgeführten Schritte des CRISP-DM-Vorgehensmodells und die Ergebnisse des Projekts zusammen.
6.6.3 Bewertung der Projektdurchführung
Bewerten Sie am Ende auch, was richtig und was falsch gelaufen ist und was verbessert werden muss! Was sind – abseits des CRISP-DM-Vorgehensmodells – nun Ihre Erkenntnisse für das nächste Data Science Projekt? Wie kann das Unternehmen durch Data Science langfristig profitieren und haben Sie Potenzial für neue Einsatzmöglichkeiten erkannt?
Fassen Sie Ihre Erfahrungen zusammen, die Sie während des Projekts gesammelt haben! Interessant dabei sind auch alle Stolpersteine, auf die Sie gestoßen sind, Ihre Erfahrungen im Umgang mit komplexen Daten oder während der Auswahl der am besten geeignetsten Methode aus Data Science. Wenn schon Erfahrungsdokumentationen aus früheren ähnlichen Projekten vorhanden sind, beziehen Sie Sich idealerweise auf diese Dokumente und ergänzen neue Erfahrungen und Lösungen.
Das CRISP-DM Vorgehensmodell definiert sechs Schritte für ein Data Science Projekt. Es ist branchenunabhängig anwendbar und stellt sicher, dass der Einsatz von Data Science einen konkreten Geschäftsbezug erfüllt und die Ergebnisse operativ in einem Unternehmen anwendbar sind.
7 Fallstudien
7.1 Klassifikation von Kunden durch neuronale Netze
Das Verständnis der Kundensegmente ist der Schlüssel zum Erfolg eines jeden Unternehmens. Aus der Data Science Perspektive besteht diese Segmentierung darin, Datensätze zu bündeln, um Gruppen ähnlicher Kunden zu finden. Was dabei „ähnlich“ bedeutet, wird durch die Daten definiert, die für die Klassifikation verwendet werden – es können demografische, auf ein Produkt bezogene Meinungen in sozialen Netzwerken oder andere Merkmale sein. Die Daten, die für die Klassifikation verwendet werden können, werden oft durch die dabei verwendeten Algorithmen selbst begrenzt. Die meisten erfordern eine Art tabellarische Datenstruktur. Andere gängige Techniken wie die sogenannte k-Means-Klassifikation erfordern eine rein numerische Eingabe.
Wie geht man also vor, wenn man Segmente von Kunden finden will, die „ähnlich“ sind, weil sie sich ähnlich verhalten – also die Erfahrungen und Interaktion mit Ihrem Unternehmen ähnlich waren? Unternehmen sammeln immer mehr Daten aus einzelnen Sequenzen von Kundeninteraktionen, wie z.B. dem Besuch der Website, dem Kontakt der Kundenhotline, dem Kontakt über Email und viele weitere. Jeder Kauf und die Suchhistorie des Kunden verfeinern die verfügbaren Daten über den Kunden noch mehr. Angesichts der zunehmenden Verbreitung von neuronalen Netzen zur Klassifikation von sequentiellen Daten (wie sie ja üblicherweise bei Kundeninteraktionen zustande kommen) können sie gut für die Kundensegmentierung verwendet werden.
Diese Fallstudie ist in einem Unternehmen im Bereich Onlinehandel zustande gekommen. Das Unternehmen hat für jede Kundeninteraktion, wie z.B. das Öffnen einer E-Mail, die Beantwortung einer E-Mail des Kundendienstes oder die Nutzung der mobilen App des Unternehmens einen Datensatz angelegt, der das Verhalten des Kunden beschreibt.
7.1.1 Definition von relevanten Kundeninteraktionen
Für jede Interaktion des Benutzers wird wieder ein neuer Datensatz angelegt und die fehlenden anderen Werte des Datensatzes neu berechnet (also z.B. wann der Kunden das letzte Mal eine E-Mail gesendet oder die Website besucht hat). Die nachfolgende Tabelle zeigt ein paar exemplarische Datensätze.
Tabelle 1: Datensatz mit Interaktionen eines Kunden
Das Unternehmen hat zur Klassifikation der Kunden ein sehr einfaches neuronales Netz entwickelt. Als erstes hat man die Gesamtmenge an Datensätzen (wie in Tabelle 1 beschrieben) in zwei Gruppen unterteilt. Die eine Gruppe für Kunden, die zu einem Mitbewerber abgewandert sind und eine andere Gruppe für Kunden, die noch Kunde beim Unternehmen und regelmäßig mit diesem in Kontakt sind.
Das Netzwerk wurde so entwickelt, dass die Ausgabeschicht entweder eine 0 oder eine 1 vorhergesagt hat, je nachdem ob der Kunde abwandern wird oder nicht. Jedes Attribut der Tabelle wurde in einer bestimmten Zwischenschicht des neuronalen Netzes verarbeitet, das ergab also insgesamt acht Zwischenschichten. Für die Modellierung und das Training des neuronalen Netzes hat man Keras (https://keras.io/) verwendet, eine kostenlose Software-Bibliothek für genau diesen Einsatzzweck.
7.1.2 Training des neuronalen Netzes mit Kundeninteraktionen
Nachdem das neuronale Netz mit den Daten aus abgewanderten Kunden trainiert wurde, wurde mit Gewichten an den Zwischenschichten die jeweilige Relevanz eines Attributs dargestellt. Damit konnte das Unternehmen beispielsweise ausdrücken, dass es das Anklicken eines in einem E-Mail beworbenen Produkts als wesentliche Interaktion sieht. Damit wurden alle relevanten Informationen sowohl über den Kunden als auch die Bedeutung für das Unternehmen in dem neuronalen Netz dargestellt. Diese Informationen können dann von den Klassifizierungsalgorithmen verwenden werden, um die verschiedenen Segmente zu identifizieren.
Abbildung 33: Kundensegmente anhand ähnlicher Interaktionen mit dem Unternehmen
Das Unternehmen verwendete den DBSCAN-Algorithmus, um die Kundensegmente zu identifizieren. Dieser hat den Vorteil, dass man die Anzahl der Segmente nicht im Vorfeld angeben muss und dass dieser Algorithmus auch nichtlineare Zusammenhänge verarbeiten kann (die einzelnen Ereignisse der Kundeninteraktion, wie in Tabelle 1 dargestellt, sind ja nicht linear voneinander abhängig). Schließlich identifizierte der DBSCAN-Algorithmus fünf verschiedene Segmente (vgl. Abbildung 33) mit einigen signifikanten Unterschieden zwischen ihnen. Tabelle 2 zeigt die statistischen Eigenschaften der fünf Segmente, wobei (D) im Tabellenkopf den Durchschnitt des jeweiligen Attributs angibt.
Tabelle 2: Statistische Eigenschaften der gefundenen Kundensegmente
7.1.3 Interpretation der Ergebnisse
Obwohl die Segmente ziemlich unausgewogen sind (was auf den vermutlich verwendeten Klassifizierungsalgorithmus zurückzuführen ist), ist die Anzahl der Tage seit der letzten Kommunikation mit dem Kunden ein starker Treiber bei der Identifikation der Segmente. Dabei fällt auf, dass Segmente, deren Kunden vor weniger als drei Monaten den letzten Kontakt hatten, am ehesten zu einem Mitbewerber abwandern. Daraus kann das Unternehmen die Marketingaktivitäten auf Kunden innerhalb genau dieses Zeitraums konzentrieren, um die Wahrscheinlichkeit deren Abwanderung zu verringern.
7.2 Prognose von Kundenabwanderung mittels maschinellem Lernen
Diese Fallstudie wurde in einem kalifornischen Unternehmen durchgeführt, das Software-Dienste online anbietet (Software-as-a-Service). Die Geschäftsführung des Unternehmens verwendete bisher für die Prognose der Kundenabwanderung sehr einfache Statistikmodelle. Innerhalb des Unternehmens hat man dafür ein eigenes Team zusammengestellt, das regelmäßig die für einen Wechsel zu einem Mitbewerber „anfälligen“ Kunden auflistet und deren Bedürfnisse durch spezielle „Concierge-Services“ erfüllt. Der Name soll ausdrücken, dass man damit die Kundenwünsche möglichst optimal bedienen will, um die Abwanderung zu verhindern. Dies hat sich auf alle Teile der angebotenen Dienstleistung ausgewirkt. Das Produktmanagement erkannte, dass diese Sonderbehandlung für abwandernde Kunden allerdings kein nachhaltiger Prozess ist und dass das Unternehmen eine umfassende Strategie benötigt. Ziel war, das Risiko, die Sensibilität der Kunden für einen Wechsel und die Kosten, um die Kunden zu halten, zu optimieren und frühzeitig Indikatoren für die Wechselbereitschaft zu finden.
Die Kundenwechselrate bezieht sich auf die Rate der Kundenabwanderung in einem Unternehmen – oder in einfacheren Worten – auf die Frequenz, mit der Kunden ein Unternehmen verlassen oder eine Dienstleistung nicht mehr verwenden. Beispiele für Kundenabwanderung sind unter anderem:
- Kündigung eines Abonnements,
- Schließung eines Kontos,
- Nichtverlängerung eines Vertrags oder einer Dienstleistung,
- Entscheidung, in einem anderen Geschäft einzukaufen,
- einen anderen Dienstleister zu verwenden.
Die Abwanderung von Kunden kann aus vielen verschiedenen Gründen auftreten und deren genaue Analyse hilft, die Ursache (und den Zeitpunkt) der Abwanderung zu identifizieren. Damit hat ein Unternehmen wiederum Möglichkeiten, frühzeitig entgegenzuwirken und den Kunden wieder ans Unternehmen zu binden.
7.2.1 Generisches Vorgehensmodell
Im Rahmen der Fallstudie hat das Unternehmen ein generisches 6-Schritte-Modell entwickelt, mit dem die Kundenabwanderung allgemein in einem Unternehmen strukturiert reduziert werden kann.
1. Erfassung von Kundenverhalten, getätigten Handlungen (z.B. Einkäufen, Rücksendungen, Stornierungen), demografischen Daten und Nutzungsmustern (wann kauft der Kunde ein).
2. Diese Daten werden dann zur Klassifizierung der Kundensegmente verwendet, wobei ein Segment die abwandernden Kunden darstellt.
3. Erstellung eines Modells, das die betriebswirtschaftlichen Auswirkungen der Kundenabwanderung abhängig von der Abwanderungswahrscheinlichkeit abbildet. Das Modell stellt dar, wo die Kundenabwanderung auch unternehmerische Auswirkungen hat und hilft später, hier viel genauer intervenieren zu können.
4. Entwicklung eines Interventionsmodells, das die unterschiedlichen Möglichkeiten, Kosten und Auswirkungen von Interventionen zur Abwanderung darstellt. Damit lässt sich später untersuchen, wie sich die einzelnen Interventionen auf die Kundenabwanderungsrate und den Customer Lifetime Value (CLV) auswirken.
5. Planung und Durchführung von Experimenten in mehreren Kundensegmenten, um Erfahrungswerte und Kennzahlen für die einzelnen Interventionen zu erhalten.
6. Verfeinerung der Daten von Schritt 1 und erneute Wiederholung des Prozesses. Es ist wichtig, diesen Prozess ständig zu verfeinern, um neue Daten zu ergänzen und regelmäßig zu wiederholen.
Ein Prognosemodell für Kundenabwanderung ist relativ einfach zu erstellen:
Basierend auf den Aktivitäten der Kunden in der Vergangenheit wird betrachtet, welche Kunden nach einer bestimmten Zeit noch aktiv sind (also z.B. Einkäufe tätigen). Mit den Wahrscheinlichkeiten, dass ein Kunde bestimmte Aktivitäten durchführt (also z.B. einkauft, nachdem er lange nichts gekauft hat), kann man dann ein Modell erstellen, das diese Wahrscheinlichkeitsübergänge zwischen den Phasen darstellt. Damit lässt sich dann genau errechnen, mit welcher Wahrscheinlichkeit welche Kundensegmente von einer Phase in eine andere wechseln – und beispielsweise zum Mitbewerber wechseln.
Ein Prognosemodell liefert auch konkrete Kennzahlen, mit denen man tatsächlich Kunden binden bzw. zurückgewinnen kann. Man kann Marketingaktivitäten je nach Phase, in der sich der Kunde befindet, anpassen und auf die Gewohnheiten von Kunden eingehen und eingreifen, bevor sie die Entscheidung zur Abwanderung treffen. Ohne diese Analyse würde man weder wissen, auf welchen Kunden man eingehen muss, noch würde man wissen, wie man auf ihn eingehen muss und was die wesentlichen Entscheidungskriterien für eine Abwanderung sind.
7.2.2 Erstellung des Prognosemodells
Als nächsten Schritt hat das beschriebene Unternehmen ein Prognosemodell für die Kundenabwanderung definiert. Dabei wurde auch darauf geachtet, dass sich diese Daten mit überschaubarem Aufwand auch tatsächlich gewinnen lassen:
Kundeninformationen
- Postleitzahl,
- Einkommensklasse,
- Geschlecht,
- Beruf,
- Anzahl Kinder im Haushalt?
- Wie wurde man auf das Unternehmen/Dienstleistung aufmerksam?
- Abonnement von Newsletter oder Werbeemails von Drittanbietern?
Produkt/Dienstleistung
- Typ des Produkts/Dienstleistung (dies ist natürlich vom Produktportfolio des Unternehmens abhängig),
- Anzahl alternativer Produkte des Unternehmens (im Falle eines Mobilfunkbetreibers würde diese Kennzahl beispielsweise aussagen, wie viele andere Tarife dem Kunden zur Auswahl stehen),
- Kann für dieses Produkt/Dienstleistung auch ein Gutschein verwendet werden?
- Kombinationsmöglichkeit mit anderen Produkten/Dienstleistungen.
Kaufhistorie
- Durchschnittliche Kauffrequenz des Kunden (pro Tag/Woche),
- Datum des letzten Kaufs,
- Tageszeit/Saison des Kaufs (saisonale Kaufentscheidungen),
- Durchschnittlicher Wert der Einkäufe,
- Zahlungsmethoden (bar/Kreditkarte/Debitkarte/Gutscheine),
- Guthaben auf Kundenkonto vor Kauf (vor allem bei Onlinehändler).
Kundeninteraktion
- Typen der Fragen an Hotline,
- Durchschnittliche Frequenz der Hotline (pro Woche/Monat),
- Durchschnittliche Besuche des Online-Shops/der Filiale,
- Frequenz an Reklamationen,
- Grund der Reklamationen/Rücksendungen,
- Kommunikationskanal bei Beschwerden (z.B. E-Mail/Telefon oder soziale Medien wie Twitter/Facebook/WhatsApp),
- Häufigkeit der Beschwerden.
7.2.3 Vorbereitung der Daten
Die dargestellte Liste an Attributen ist nur ein Beispiel und muss im jeweiligen Unternehmenskontext sowohl an die Produkte und Dienstleistungen als auch an die Kunden angepasst werden. Es ist wichtig, so viel wie möglich über die Kunden zu erfahren, um dann die konkreten Ereignisse, die zum Wechsel zu einem Wettbewerber führen, zu identifizieren. Je mehr relevante Daten gesammelt werden können, desto genauer wird das Modell und damit die Vorhersage sein. Die konsolidierten Daten der abgewanderten Kunden helfen, anhand der gesammelten Daten das Verhalten zu gruppieren und Muster zu erkennen. Das Unternehmen hat folgende Anforderungen an die Datenqualität definiert und gibt auch konkrete Tipps, wie andere Unternehmen damit umgehen können:
Anforderungen an die Datenqualität
- Vollständigkeit: Haben Sie alle relevanten Kundeninformationen?
Welche (relevanten) Daten fehlen auch nur teilweise? Manche Werte können Sie anhand anderer Werte eines Datensatzes ableiten, manche nicht. Beispielsweise kann man die Kategorie eines Produkts aus dessen Beschreibung oder die Postleitzahl aus dem Ort ableiten.
Sie können unvollständigen Daten vorbeugen, indem diese schon bei der ersten Eingabe in das System (also beim ersten Anlegen des Kunden) als Pflichtfelder definiert werden.
- Einheitlichkeit: Haben Sie mehrere Werte für die gleichen Daten?
Das tritt vor allem bei Abkürzungen auf, also beispielsweise W/VIE/Wien, die sich alle auf die Stadt „Wien“ beziehen. Sollten Sie solche Uneinheitlichkeiten in Ihren Daten entdecken, definieren Sie einen einheitlichen Wert und verwenden Sie diesen durchgehend in Ihren Daten.
- Semantische Konflikte: Gibt es beispielsweise für manche Einkäufe negative Einkaufswerte oder Nullsummen? Datumskonflikte wie ein Verkaufsdatum in der Zukunft? In solchen Fällen müssen Sie mit den Fachabteilungen entscheiden, ob Sie solche Daten in die Analyse aufnehmen oder ausschließen möchten.
7.2.4 Analyse der Daten
Ein entscheidender Faktor beim Aufbau des Prognosemodells zur Kundenabwanderung ist, so viele Fragen wie möglich zu stellen. Damit kann schon in einem frühen Stadium geprüft werden, auf welche Fragen man überhaupt sinnvolle Antworten (und damit Daten) bekommen kann. Basierend darauf kann dann das Prognosemodell konkret definiert werden. Auch hierbei ist das Unternehmen nach einem ganz bestimmten, im Folgenden beschriebenen Schema vorgegangen:
1. Welche Werte in den Datensätzen korrelieren mit der Kundenabwanderung? Welche Werte sind also „typisch“ für Kunden, die zu einem Mitbewerber abgewandert sind?
Beispielsweise hat das Unternehmen in seinen Daten eine Korrelation zwischen Abwanderung und Beschwerden an Wochenenden entdeckt. 80 % der Kunden, die im letzten Quartal zu einem Mitbewerber gewechselt sind, haben an einem Wochenende eine Beschwerde eingereicht. Man hätte hier noch weiter forschen und die Frage stellen können, ob bestimmte (kritischere) Kunden die Produkte eher am Wochenende nutzen oder die Servicequalität tatsächlich am Wochenende schlechter ist.
Das Wesentliche an solchen Fragenstellungen ist, explorative Fragen zu überlegen, deren Antworten tatsächlich Neuigkeitswert haben und Ihnen helfen können, den wirklichen Beweggründen der Kunden „auf die Spur“ zu kommen. Diese Hypothesen, dass beispielsweise mehr kritischere Kunden am Wochenende die Dienstleistungen nutzen, können Sie wiederum sehr einfach testen: Kunden, die ein teureres Produkt Ihres Unternehmens haben, werden tendenziell auch höhere Anforderungen an die Qualität haben. Sie können also den Preis der Produkte, den die abgewanderten Kunden gekauft haben, auf seine statistische Streuung analysieren: Ist die Streuung der Produktpreise gering und der Preis hoch, so können Sie davon ausgehen, dass Kunden, die mehr für Ihre Produkte zahlen, auch mehr dafür erwarten und bei schlechter Qualität sehr sensibel für einen Wechsel sind.
2. In welcher Phase des Produktlebenszyklus/Wertschöpfungskette haben Kunden gewechselt? Wann haben Kunden gewechselt? Am Ende der kostenlosen Testphase, zum erstmöglichen Kündigungstermin oder gab es eine bestimmte Funktion, die die Kunden sehr selten verwendet haben? Gibt es Zusammenhänge mit externen Ereignissen, auf die Sie den Wechsel zurückführen können? Wie lange haben die Kunden Ihre Produkte verwendet, bevor sie gewechselt sind? Haben Kunden die Hotline angerufen und wenn ja, wie oft?
Auch die umgekehrte Frage ist wichtig: Was haben jene Kunden gemeinsam, die nicht gewechselt haben? Verwenden diese Kunden beispielsweise eher billigere Produkte, diese aber über einen längeren Zeitraum? Durch sehr einfache deskriptive Methoden, wie den Pearson-Korrelationskoeffizienten finden Sie solche Zusammenhänge und Muster in der Regel deutlich schneller als würden Sie das manuell analysieren.
3. Welche Auswirkungen haben die verschiedenen Kundensegmente auf den Customer Lifetime Value (CLV)? Das Ergebnis eines guten Modells ist, die genauen Auslöser und typischen Verhaltensweisen bei der Abwanderung der Kunden identifizieren zu können. Die genaue Sensibilität eines Attributs sich entsprechend diesen Verhaltensweisen zu verändern (also beispielsweise die Häufigkeit von Hotline-Kontakten in Abhängigkeit des Produktpreises) kann im Modell durch Quotienten abgebildet werden. Der Wert des Quotienten sagt dabei aus, wie stark sich eine Veränderung des Kundensegments auf den Customer Lifetime Value auswirkt. Wenn also Kunden, die im Premium-Kundensegment sind (da sie teurere Produkte kaufen) einen CLV von 1000 EUR haben und Ihr Prognosemodell zeigt, dass 2000 von diesen Premiumkunden den Anbieter wechseln werden, dann können Sie leicht die negativen Auswirkungen in der Höhe von 2.000.000 EUR auf die Umsatzzahlen aufgrund dieser Abwanderung bestimmen.
Nach der explorativen Datenanalyse, also vor allem der Streuung der Werte und Korrelationen zwischen den Daten hat man eine Vorstellung von den Daten und deren Einflüssen untereinander. In der Praxis werden oft unterschiedliche Algorithmen auf dasselbe Modell angewendet, um beispielsweise die Kundenabwanderung zu untersuchen. Die konkreten Ergebnisse eines jeden Algorithmus hängen schließlich immer von der konkreten Datenbasis ab. Im Anschluss werden die Ergebnisse der Algorithmen verglichen und dann jener Algorithmus mit der höchsten Genauigkeit für die jeweilige Datenbasis verwendet. Das betreffende Unternehmen hat für ihre Fallstudie Microsoft Azure Machine Learning verwendet und dabei als Algorithmen für die Klassifizierung der Kundensegmente Entscheidungsbäume und logistische Regression.
Die Fehlklassifizierungsrate sagt aus, wie viele Elemente der falschen Klasse zugeordnet wurden. Also beispielsweise wie viele der Kunden, die als zu einem Mitbewerber abwandernd identifiziert wurden, tatsächlich aber nicht gewechselt haben.
Welche Fehlklassifizierungsrate vertretbar ist, hängt wiederum von den Kosten ab, die durch diesen Fehler entstehen würden und kann nur anhand des konkreten Geschäftsfalls entschieden werden. Die Kosten betreffen dabei nicht nur abgewanderte und damit verlorene Kunden, sondern auch jene Kosten, die durch die (falschen) Maßnahmen entstanden sind. Dies betrifft beispielsweise den Versand von Werbematerial an Kunden, die ohnehin nicht abgewandert wären.
7.2.5 Interpretation der Ergebnisse
In der Fallstudie hat das Unternehmen besonders zwei Faktoren auf ihren Zusammenhang mit der Kundenabwanderung untersucht. Die wesentlichen Fragen waren hierbei, ob (unzufriedene) Kunden vorher die Hotline anrufen, bevor sie zum Mitbewerber abwandern und inwieweit die Produktkosten dabei eine Rolle spielen. Produkte und Dienstleistungen sind ja typischerweise je nach Funktionsumfang teurer und unterscheiden sich damit auch hinsichtlich der vom Kunden erwarteten Qualität. Kunden, die ohnehin schon teure Produkte erworben haben, sind möglicherweise eher intoleranter und wechseln zu einem Mitbewerber.
Abbildung 34: Zusammenhang Anrufe bei Kundenhotline und Kundenabwanderung
Abbildung 34 zeigt den Zusammenhang zwischen Anrufen an der Kundenhotline und der Wahrscheinlichkeit für Abwanderung durch eine Regressionsgerade. Hierbei ist klar zu sehen, dass je öfter Kunden anrufen – und vermutlich eine Lösung für das Problem suchen – die Wahrscheinlichkeit für deren Wechsel linear steigt. Ab drei Anrufen liegt die Wahrscheinlichkeit, den Kunden zu verlieren schon über 50 %. Um entgegenzusteuern, könnte das Unternehmen beispielsweise Folgendes tun: Nachdem ein Kunde dreimal in Folge die Hotline angerufen hat (was sich sehr einfach messen lässt), wird der Kunde direkt von einem Mitarbeiter selbständig angerufen, der gemeinsam mit dem Kunden das Problem zu beheben versucht. Diese Intervention ist auch insofern effektiv, als man sich eben explizit nur auf diese Kundenschicht konzentrieren kann und den Rest von zusätzlichen Bemühungen aus-
sparen kann.
Abbildung 35: Zusammenhang Produktkosten pro Monat und Kundenabwanderung
Das Unternehmen unterscheidet zwei Modelle an Produkten, nämlich Pro und Premium, die sich jeweils hinsichtlich des Umfangs unterscheiden. Premium-Produkte stellen zwar die gleichen Funktionalitäten bereit, aber unterscheiden sich hinsichtlich ihrer Qualität, sind also beispielsweise schneller oder stehen auch in Spitzenzeiten zur Verfügung.
In der Fallstudie untersuchte das Unternehmen den Zusammenhang zwischen Produktkosten, die die Kunden für die Pro- und Premium-Produkte zahlen, und der Wahrscheinlichkeit für deren Abwanderung zu einem Mitbewerber. Dazu wurde für jeden Kunden die errechnete Wahrscheinlichkeit für die Abwanderung, welches Produktportfolio er abonniert hat und welchen Preis er dafür im Monat zahlt, gegenübergestellt. In Abbildung 35 sind diese Daten dargestellt und eine Regressionsgerade für die beiden Produktportfolios gezeichnet. Hierbei ist erkennbar, dass Kunden des Pro-Portfolios allgemein eher zu einer Abwanderung tendieren. Das könnte beispielsweise damit zusammenhängen, dass genau diese Qualitätsunterschiede allerdings kritisch für die Kunden sind und von den Pro-Produkten zu wenig erfüllt werden. Insofern bieten Premium-Produkte keinen Mehrwert an sich, sondern erfüllen eigentlich die Mindestvoraussetzungen der Kunden. Hier wäre eine mögliche Intervention, die Kunden beider Produkt-Portfolios zu befragen und die genauen Anforderungen zu erheben und danach das Produktportfolio neu auszurichten. Die Kundenabwanderung würde also durch Änderung des Produktangebots zu verringern versucht werden.
7.3 Unterstützung bei Diagnosefindung durch Textmining radiologischer Befunde
An der Medizinischen Universität Graz wurde eine Feldstudie mit strukturierten und unstrukturierten Daten durchgeführt, um Ärzte bei der Diagnosestellung zu unterstützen. Die Idee dahinter war, dass Ärzte dieselbe Diagnose mit unterschiedlichen Worten beschreiben und man sie also durch Textklassifikation während der Diagnosefindung unterstützen kann. Dazu wurden 6000 Magnetresonanz-Befunde (MRI) zwischen 1987 und 2004 analysiert und die medizinischen Terme extrahiert. Dadurch konnte ein Textkorpus erstellt werden, der dann während der Symptombeschreibung den Arzt unterstützt.
Beim Text-Mining, also der Analyse textueller Information, gab es vor allem Probleme mit Synonymen, medizinischen Dialekten und Abkürzungen und der zeitlichen Veränderungen der Fachterminologie in diesem langen Zeitraum. Während der Vorbearbeitung der Texte wurden die Befunde auf insgesamt 15.731 einzelne Sätze heruntergebrochen, die man dann mit Hilfe eines anatomischen Lexikons mit 6.800 Termen klassifizieren konnte.
Dadurch war es möglich, die einzelnen Sätze mit sehr hoher Genauigkeit den richtigen anatomischen Körperregionen zuzuordnen. Die Software wurde schließlich auch als Web-Applikation den Ärzten zur Verfügung gestellt.
Abbildung 36: Erkennung anatomischer Regionen in MR-Befunden (© MU Graz)
Abbildung 36 zeigt die graphischen Markierungen der anatomischen Regionen in den MR-Befunden. Zusätzlich wurde auch eine Visualisierung entwickelt, die die Korrelationen zwischen anatomischen Regionen und MR-Befunden darstellt.
7.4 Vorhersage von Herzerkrankungen anhand Vorsorgeuntersuchungen
Am Zentrum für Medizinische Statistik, Informatik und Intelligente Systeme (CeMSIIS) der Medizinischen Universität Wien wurde 2018 eine Studie durchgeführt, in der ein Prognosemodell für Herzerkrankungen verfeinert wurde. Dazu wurde ein bereits etabliertes Modell verwendet und dieses mit den Daten der Vorsorgeuntersuchung in Österreich verbessert. Die Fragebögen der Vorsorgeuntersuchung von 2,5 Mio. Menschen zwischen 2009 und 2015 wurden analysiert und mit Daten von Krankenhausaufenthalten und Todesursachen verglichen. Eine Anforderung an das Prognosemodell war, dass es zuverlässig zwischen Menschen mit und ohne Herzerkrankungen unterscheiden kann, da natürlich ansonsten das Modell auch nicht trainiert werden kann.
Für die Vorhersage kardiovaskulärer Erkrankungen gibt es mehrere Modelle – auch abhängig vom Alter des Patienten. Abbildung 37 zeigt den Fragebogen, wie er im Rahmen der österreichischen Sozialversicherung verwendet wird.
Abbildung 37: Fragebogen kardiovaskuläres Risiko der österr. Sozialversicherung Für die Verbesserung des Prognosemodells wurden für Männer und Frauen jeweils sieben Variablen für allgemeine demoskopische Daten und 33 Variablen für spezifische medizinische Daten definiert. Auch in dieser Studie wurde Regression (vgl. Kapitel 3.7) eingesetzt, und zwar die sogenannte Restricted Cubic Spline Regression. Dieses Regressionsverfahren wird vor allem dann eingesetzt, wenn die Beziehung zwischen den untersuchten Variablen nicht linear ist, sondern sich am ehesten durch Kurven (engl. „spline“) beschreiben lässt. Mathematisch werden diese Kurven dann wiederum als Quader (engl. „cube“) beschrieben, wodurch dieses Regressionsverfahren zu seinem Namen kam.
Ein Prognosemodell kann durch Feinabstimmungen der Koeffizienten der Regressionsgeraden kalibiert, d.h. noch genauer an den Anwendungsfall und das Datenmaterial angepasst werden. Abbildung 38 zeigt exemplarisch die Kalibrierung der Modelle (Originalmodell, kalibriertes Modell und geschätztes Modell) jeweils durch unterschiedliche Strichformen in den Diagrammen, wobei für die Schätzung zwei unterschiedliche Verfahren (AHA Risk Calculator und Framingham) verglichen werden. Diese beiden Verfahren sind typische Prognoseverfahren für Herzerkrankungen in der Medizin, deren genaues Verständnis nicht notwendig ist.
Prognosemodelle basieren immer auf unterschiedlichen, meist domänenspezifischen Prognoseverfahren, die auf die jeweiligen Daten zugeschnitten sind. Kalibrierung kann nie die Wahl des richtigen Prognoseverfahrens ersetzen, da diese nur mehr eine „Feinjustierung“ sein darf.
Unabhängig von der medizinischen Aussagekraft der beiden Diagramme, zeigen sie aber, dass das kardiovaskuläre Risiko für Frauen mit dem AHA Risk Calculator und der dazu passenden Kalibrierung sehr genau errechnet werden kann, während diese Genauigkeit für Männer mit dem Framingham Verfahren auch trotz Kalibrierung nicht möglich ist.
Abbildung 38: Kalibrierung des Prognosemodells für Herzerkrankungen (© CeMSIIS)
Im Rahmen der Studie wurde auch eine Web-Applikation entwickelt (https://cvdrisk.shinyapps.io/english/), die individuell anhand von Faktoren wie Geschlecht, Alter, bestimmte Blutfettwerte, Blutdruck und Risikofaktoren wie Rauchen und Diabetes die Wahrscheinlichkeit für Herzerkrankungen visuell darstellt.
7.5 Erkennung von Geschäftsunterbrechungen durch
Analyse sozialer Netzwerke
Ein Wiener Unternehmen (https://www.prewave.ai/) hat sich auf die Vorhersage von geschäftskritischen Ereignissen anhand Informationen in sozialen Netzen spezialisiert (Social Event Detection) und hat dazu eine eigene Software entwickelt. Während die Vorhersage von Naturereignissen relativ einfach ist, da dazu quantitative meteorologische Daten verwendet können, spielen bei Ereignissen, die direkt durch den Menschen ausgelöst werden, mehrere Faktoren eine Rolle. Von allen unternehmenskritischen von Menschen verschuldeten Ereignissen betreffen 46 % die Unterbrechung der Kerngeschäfte, 19 % lassen sich auf Feuer und Explosionen zurückführen, 15 % verursachen einen Reputationsschaden und 12 % betreffen defekte Produkte und Rückrufaktionen. Abbildung 39 zeigt beispielhafte Risikokategorien, die von der Software analysiert werden.
Abbildung 39: Risikokategorien für menschenverursachte Ereignisse (© prewave GmbH)
Beispielsweise hat die Software des Unternehmens korrekt einen Streik der Hafenmitarbeiter in Indonesien schon Tage zuvor vorausgesagt, woraufhin Frächter ihre Logistik entsprechend ändern konnten. Analysiert werden dazu primär Daten von YouTube, Facebook, Twitter und Instagram, die sich ja einer bestimmten Region zuordnen lassen. Es werden allerdings auch historische Daten bis zehn Jahre in der Vergangenheit verwendet, um die Daten entsprechend klassifizieren zu können. Eine wesentliche Technik, die zur semantischen Interpretation von natürlichsprachigem Text verwendet wird, ist die sogenannte Sentiment Analysis. Diese ermöglicht, die Meinung, die Menschen in sozialen Netzen äußern, zu klassifizieren – also ob sie sich positiv oder negativ zu einem Thema äußern.
Das Unternehmen spricht aber auch ein weiteres, sehr wesentliches Thema an, nämlich den verantwortungsvollen Umgang mit Data Science an sich.
Eine Übersicht, wie das Unternehmen diese Bereiche adressiert, ist in Abbildung 40 dargestellt. Wesentlich dabei ist (wie im linken Block „Ethics Commitee“ dieser Abbildung ersichtlich), dass in diesem Bereich auch aktiv Forschung betrieben wird, um den jeweils zeitgemäßen Umgang damit im Unternehmen sicherzustellen. Dies ist insofern besonders, als eben nicht nur ein Steuerungsgremium den verantwortungsvollen Umgang mit Daten sicherstellt, sondern man damit auf aktuelle Entwicklungen schneller reagieren kann. Dies kann mitunter auch rechtliche Konsequenzen für das datenverarbeitende Unternehmen haben, die so rechtzeitig adressiert werden können.
Abbildung 40: Verantwortungsvoller Einsatz von Data Science (© prewave GmbH)
Ebenso zeigt der Bereich „Code of Ethics“ wesentliche Aspekte im operativen Betrieb der Datenanalyse.
- Daten dürfen immer nur aus verlässlichen Quellen verwendet werden (Data Sourcing);
- Sowohl die Ursprungsdaten (also die für die Analyse oder das Training herangezogenen Daten), als auch die gewonnenen Erkenntnisse müssen immer vor unbefugtem Zugriff geschützt werden (Data Privacy);
- Auch dürfen weder die Ursprungsdaten, noch die gewonnenen Erkenntnisse ohne entsprechende Einwilligung der Personen weitergegeben werden (Data Privacy). Abgesehen von rechtlichen Konsequenzen, die durch die Weitergabe dieser Daten entstehen würden, muss man Folgendes dabei immer bedenken: Statistische Verfahren beruhen auf Wahrscheinlichkeiten und können daher von Natur aus keinen Anspruch auf Wahrheit erheben.
7.6 Berechnung der Ausfallswahrscheinlichkeiten von Kreditnehmern
Eine der größten österreichischen Banken hat in einer Feldstudie Modelle zur Errechnung der Ausfallswahrscheinlichkeit von Kreditnehmern erstellt.
Die Ausfallswahrscheinlichkeit (Probability of Default) ist die Wahrscheinlichkeit, dass ein Kreditnehmer in den nächsten zwölf Monaten seinen Zahlungsverpflichtungen nicht nachkommt. Diese Beurteilung wird je nach Kundentyp und Segment sowohl vor der Eröffnung eines Bankprodukts als auch in regelmäßigen Abständen automatisch durchgeführt. Klassischerweise kommen dabei logistische Regressionsmodelle zum Einsatz (vgl. Kapitel 3.7).
Im Unterschied zu linearen Regressionsmodellen wird dabei auch eine Logarithmusfunktion verwendet, da es sich um zeitlich abhängige Daten handelt – die Bonität und damit Ausfallswahrscheinlichkeit des Kunden ändert sich typischerweise im Zeitverlauf. Die Bank hat dabei zur Verbesserung der Modelle, die zur Klassifikation der Kunden entsprechend ihrer Ausfallswahrscheinlichkeit verwendet werden, das sogenannte Resampling eingesetzt.
Beim Resampling werden wiederholt Stichproben aus einer Teilmenge gezogen und dann die statistischen Eigenschaften der Stichprobe erfasst. Vor allem wird das Resampling eingesetzt, um genaue Werte hinsichtlich der Streuung der einzelnen Datenwerte zu erhalten.
Basierend auf einer Scorecard (diese gibt das Bewertungsschema für Kreditnehmer vor) wird für jeden Kunden ein Score errechnet, der die Bonität des Kunden widerspiegelt. Diesen wiederum kann man dann bestimmten Risikoklassen zuordnen. Für jede Kundenkategorie gibt es also unterschiedliche Scorecards und zulässige Risikoklassen (ein Unternehmer hat natürlich andere Bonitätskriterien zu erfüllen als ein Angestellter). Je nach Risikoklasse
und Kundengruppe kann man also durch diese Klassifizierung abschätzen, ob es bei dem Kunden zu einem Zahlungsausfall kommt oder nicht.
Zur Überprüfung der Trennschärfe zwischen den einzelnen Risikoklassen, also ob Kreditnehmer tatsächlich richtig eingestuft werden, wurde die TruePositive- mit der False-Positive-Rate verglichen. Die True-Positive-Rate ist das Verhältnis zwischen korrekt klassifizierten Schlechtfällen und allen Schlechtfällen (also wie viele der als Ausfälle erkannten Kreditnehmer auch tatsächlich ausgefallen sind). Die False-Positive-Rate wiederum spiegelt den Anteil der fälschlicherweise als Schlechtfall klassifizierten Gutfälle unter allen Fällen wider (also wie viele Kreditnehmer als Ausfall klassifiziert wurden, allerdings ihren Zahlungsverpflichtungen nachgekommen sind).
Zur Beurteilung der Trennschärfe gibt es mehrere wichtige Kennzahlen. Die sogenannte Area Under Curve entsteht durch die Gegenüberstellung von False- und True-Positive-Rate in einem Diagramm und kann zwischen 0 und 1 liegen. Ein Wert von 1 kennzeichnet ein besonders gutes Klassifizierungsverfahren. Der Gini-Koeffizient ist eine weitere Kennzahl und beschreibt die Verteilung unter den Werten, also wie weit diese voneinander entfernt liegen. Er kann zwischen -100% (-1, für sehr dicht gestreute Werte) und 100% (1, für sehr breit gestreute Werte) liegen. Ein Problem für die Beurteilung von Resampling-Modellen ist allerdings, wenn es nur eine geringe Anzahl an Datensätzen gibt, besonders bei wenig Ausfällen.
Das Resampling-Verfahren bestand (vereinfacht) aus vier Schritten, die in der Feldstudie 2000-mal wiederholt wurden:
1. Bildung der Samples
a. Training: Es werden Stichproben mit n Elementen gezogen,
b. Test: Wie hoch ist die Chance eines Kunden, unter allen anderen Kunden nicht gezogen zu werden? Dies ist bei solch einem Test natürlich sehr wichtig, weil die Ergebnisse natürlich auf möglichst viele Kunden anwendbar sein sollen;
2. Schätzung eines Modells für jedes Trainingssample mit den Stichprobenwerten;
3. Schätzung der Prognosewerte für Trainings-, Test- und Originalsample;
4. Berechnung der Gini-Koeffizienten.
Durch die Feldstudie konnte schließlich die Area-Under-Curve für das Kreditscoring mittels Resampling auf 81,2 % erhöht werden (also in diesem Ausmaß ist die Klassifikation, ob es zu einem Zahlungsausfall kommt oder nicht, korrekt). Ebenfalls wurde in der Feldstudie festgestellt, dass geringe Datensatzzahlen und insbesondere wenig Zahlungsausfälle zu hoher Unsicherheit in der Klassifikation führen.
7.7 Prognose des Customer Lifetime Value bei Online-Shops
Weltweit gibt es eine steigende Nachfrage nach kommerziellen Web-Anwendungen und -Dienstleistungen. Zusätzlich beginnen Unternehmen, den Wert ihrer Kunden zu messen, d.h. den erwarteten Gewinn, der sich aus der Nutzung der Website durch einen bestimmten Kunden über dessen gesamte Beziehung mit dem Unternehmen ergibt.
Die Möglichkeit, den ökonomischen Wert der Kunden (CLV, „Customer Lifetime Value“) eines Unternehmens genau vorherzusagen, erlaubt wiederum, die Geschäftsprozesse und IT-bezogenen Entscheidungen entsprechend diesem Wert anzupassen. Beispiele, wie der CLV in unternehmerische Überlegungen einbezogen wird, sind:
- Unternehmen wissen, wie viel sie sich leisten können, um den ersten Verkauf an einen Kunden zu erzielen. Das bedeutet, Unternehmen können kurzfristig notwendige und dadurch kalkulierbare Risiken eingehen, um langfristig einen Gewinn zu erzielen;
- Marketingleiter können verschiedene Angebote für verschiedene Kunden entwickeln – basierend auf dem erwarteten CLV dieser Kunden in der Zukunft;
- Banken können anhand des Kundenwerts des Unternehmens seinen Wert für potenzielle Investoren bewerten;
- Der CLV kann als Grundlage für Entscheidungen über neue Kampagnen und Budgets dienen;
- Ein Unternehmen kann bessere Entscheidungen über den Einsatz seines Werbebudgets treffen, beispielsweise auf welche Kundensegmente man sich am ehesten konzentrieren sollte und mit welchen finanziellen Mitteln. Soll die gleiche Qualität des Kundenservice jedem Kunden geboten werden?
- Der Wert eines Kunden kann auch als Grundlage für die Kundenpriorisierung dienen. Gewinnbringende Kundensegmente können höher gestellt werden als wenig oder negativen Umsatzbeitrag liefernde Segmente;
- Vor allem bei Web-Applikationen kann der CLV auch auf technischer Ebene direkt Anwendung finden:
o Der CLV kann verwendet werden, um eingehende Anfragen an einen Server anhand des Kundenwerts zu priorisieren;
o Die Zuteilung von (geteilten) IT-Ressourcen kann anhand des Kundenwerts getroffen werden, was vor allem in cloudbasierten Lösungen eine Rolle spielt. Ein Beispiel dafür ist, ob ein Server für eine bestimmte Kundengruppe reserviert werden soll.
Aus den obigen Beispielen ist auch der Wettbewerbsvorteil ersichtlich, der für Unternehmen durch die intelligente Nutzung des CLV entstehen kann.
Deshalb benötigen vor allem Unternehmen, die ihre Dienstleistungen im Internet anbieten, Modelle für die genaue Vorhersage des Kundenwerts. Während es grundsätzlich mehrere bekannte Modelle gibt, hat der Internethandel allerdings die Besonderheit, dass es hier mehrere Merkmale eines einzelnen Kunden gibt – beispielsweise die Frequenz an Interaktionen mit dem Online-Shop, die man automatisiert auswerten kann.
7.7.1 Bildung des Markov-Modells für den CLV
In dieser Fallstudie wurde von IBM ein Modell speziell für den Onlinehandel entwickelt. Dieses basiert auf Markov-Modellen (vgl. Kapitel 4.5.2) und bildet die Wahrscheinlichkeiten ab, mit der Kunden zwischen unterschiedlich gewinnbringenden Zuständen für das Unternehmen wechseln. Nachdem Markov-Modelle nur eine bestimmte Anzahl an Zuständen erlauben, ist also auch die Anzahl an Merkmalen begrenzt, die man für die Berechnung des CLV verwenden kann.
Nachdem die konkreten Zustände, die der Kunde auf dem Online-Shop einnehmen kann (z.B. Suche, Produkt betrachtet, Produkt in Warenkorb gelegt, zur Kassa gegangen, Kaufprozess abgeschlossen), definiert wurden, müssen die Wahrscheinlichkeiten für den Wechsel zwischen den Zuständen geschätzt werden. Dafür gibt es grundsätzlich zwei Möglichkeiten:
- Die Wahrscheinlichkeiten werden von den (Produkt)-Managern des Unternehmens geschätzt, die sowohl mit der Domäne, dem Prozess und den Produkten vertraut sind;
- Es werden statistische Methoden verwendet, um die Wahrscheinlichkeiten für die Übergänge zu berechnen.
In der Fallstudie verwendete IBM den zweiten Ansatz, da die Bewertung solcher Wahrscheinlichkeiten auch für erfahrene Manager eine komplexe – und daher nicht praxistaugliche – Aufgabe sein dürfte. Stattdessen wurden historische Daten aus der Kundeninteraktion mit dem Online-Shop verwendet, um das Markov-Modell zu erstellen. Allerdings müssen die historischen Daten auch alle relevanten Merkmale für die genaue quantitative Beschreibung der Zustände enthalten und das Datensample möglichst groß und vollständig sein. Die grundlegende Idee dahinter war, dass das bisherige Verhalten der Kunden auch ein guter Indikator für ihr zukünftiges Verhalten sei. Umgekehrt gilt natürlich, dass wenn sich das Kundenverhalten im Vergleich zum historischen Verhalten signifikant verändern würde, das generierte Modell natürlich dann das Verhalten der Kunden nicht mehr korrekt vorhersagen könnte.
Berechnung der Wahrscheinlichkeiten für Zustandsübergänge
In der Feldstudie wurden die Wahrscheinlichkeiten für die Zustands-übergabe mit folgendem Algorithmus berechnet:
1. Eine (n x n) Matrix, wobei n die Anzahl an möglichen Zuständen des Kunden auf der Online-Plattform ist, wird initialisiert. Die Matrix enthält dann für jeden Zustand die Frequenz, wie oft auf diesen Zustand gewechselt wird. Am Anfang enthält diese Matrix (= Übergangsmatrix) an allen Stellen 0;
2. Für jeden Kunden, der von einem Zustand in einen anderen übergeht, wird die entsprechende Stelle in der Übergangsmatrix erhöht;
3. Nachdem der gesamte historische Datensatz durchlaufen wurde, wird jede Zeile auf 1 (= 100%) normiert, um die Wahrscheinlichkeiten der Übergänge zu erhalten.
Dann wurde der historische Datensatz in zwei Teile gegliedert: einen Trainings- und einen Testdatensatz. Mithilfe des Trainingsdatensatzes und der Übergangsmatrix wurde der CLV für jeden Kunden des Trainingsdatensatzes geschätzt. Der Testdatensatz wiederum enthielt den tatsächlichen CLV für jeden Kunden und wurde daher zur Messung der Prognosegüte verwendet.
Dazu wurde die durchschnittliche Abweichung zwischen geschätztem und tatsächlichem CLV für jeden Kunden betrachtet, die auch mit sehr einfachen statistischen Methoden berechnet werden konnte (z.B. arithmetisches Mittel oder Median, vgl. Kapitel 3.1).
Auswahl geeigneter Merkmale und Zustände für das Markov-Modell Die ausgewählten Merkmale sollen natürlich möglichst genau die Kundeninteraktion beschreiben und auch im Sinne der Reduktion von Komplexität nur wirklich relevante Merkmale enthalten. In der Feldstudie wurden für die Beschreibung der Kundeninteraktion auf einer Online-Auktionsplattform folgende Merkmale verwendet:
1. Allgemeine Zustände/Kundensitzungen: Dies umfasst das Registrieren als Neukunde, das An- und Abmelden registrierter Kunden und das Suchen nach Artikeln. Außer dem Abmelden von der Plattform kann jeder Zustand zum Platzieren oder Kauf eines Artikels bzw. auch der Abgabe eines Gebots führen;
2. Gebote des Kunden: Dies umfasst das Abgeben konkreter Gebote für bestimmte Artikel auf der Auktionsplattform;
3. Käufe des Kunden: Dies sind die tatsächlichen Käufe von Artikeln auf der Auktionsplattform nach dem Gewinn einer Auktion;
4. Platzieren von Artikel: Dieser Zustand umfasst das Einstellen/Platzieren von Artikeln auf der Auktionsplattform und damit das Starten einer neuen Auktion.
7.7.2 Validierung des Markov-Modell-basierten CLV-Vorhersage Ansatzes
Im Anschluss wurde das zur CLV-Prognose verwendete Markov-Modell gemeinsam mit einer der größten israelischen Auktionsplattformen, die täglich mehrere tausend Kunden bedient, validiert. Dabei wurden seitens des Unternehmens Daten für den Zeitraum von Januar 2002 bis Januar 2003 bereitgestellt. In diesem Zeitraum fanden 70.134 Käufe (Auktionszuschläge) und 253.736 Auktionen mit einem Volumen von ca. 1 Mio. Euro statt.
Die Daten wurden wiederum in einen Trainings- und einen Testdatensatz unterteilt. Damit diese beiden Datensätze auch unterschiedliche Zeiträume abdecken, hat man einen bestimmten Zeitpunkt ausgewählt und alle Daten davor in den Trainings- und alle nach diesem Zeitpunkt in den Testdatensatz aufgenommen. Danach wurde basierend auf dem Trainingsdatensatz und dem zuvor erzeugten Markov-Modell der CLV für jeden Kunden errechnet und mit der tatsächlichen Rentabilität des Kunden verglichen.
Die tatsächliche Rentabilität des Kunden errechnete sich aus dem Nettobarwert und wurde dann mit dem geschätzten CLV verglichen. Auf Basis der Abweichung zwischen geschätztem und tatsächlichem CLV wurden in der Feldstudie in mehreren Iterationen die Wahrscheinlichkeiten des MarkovModells verändert, bis die Qualität der Prognose für den Einsatzzweck ausreichend war. Der Barwert ist die Umrechnung (Diskontierung) von zukünftigen Werten (z.B. Zahlungen) in den aktuellen Gegenwert und repräsentiert alle zukünftigen Einnahmen, die durch einen Kunden generiert werden und damit seinen wahren Beitrag zum Unternehmen.
7.7.3 Ergebnisse der Feldstudie
In der statistischen Analyse der Ergebnisse zeigte sich eine starke Korrelation zwischen den durch das Markov-Modell prognostizierten Werten für den Customer Lifetime Value und dem tatsächlichen Barwert der Kunden. Verglichen mit dem gängigen RFM-Modell 2 für die Prognose des CLV bietet der Einsatz des Markov-Modells einen wesentlich höheren Genauigkeitsgrad für den Online-Handel. Dabei wurde auch beobachtet, dass die Genauigkeit der Vorhersage auch abhängig von der Anzahl an Zuständen ist, also wie genau
die Interaktion des Kunden beschrieben wird. Die Genauigkeit der Vorhersage nimmt mit abnehmender Anzahl der Zustände ab. Dies geht auch mit der (für Data Science allgemein gültigen) Annahme einher, dass größere 2 Recency, Frequency, Monetary.
Datensätze, sofern ein geeignetes statistischen Verfahren ausgewählt wurde, genauere Ergebnisse liefern. Allerdings konnte man die Zustände nicht untereinander hinsichtlich ihrer Relevanz unterscheiden, also ob z.B. ein bestimmter Zustand wichtiger als ein anderer ist. Auch ist nicht klar, ob dieser Ansatz auch in anderen Domänen den CLV ähnlich exakt prognostizieren kann. In den Daten der Feldstudie wurde ein großer Prozentsatz der Kunden auf einen kleinen Prozentsatz der Zustände abgebildet. Dies könnte zur Annahme führen, dass sich im Online-Handel eine große Anzahl von Kunden fast gleich verhält, während ein kleiner Prozentsatz der Kunden ein deutlich anderes Verhalten aufweist.
Die grundlegenden Konzepte von Data Science sind in den verschiedenen Domänen gleich anwendbar. Der wesentlichste Erfolgsfaktor von Data Science liegt aber darin, passende Verfahren für die jeweils domänenspezifischen Daten einzusetzen – beispielweise Regressionsverfahren für die aus Kundenumfragen gewonnenen Daten. Nur so lässt sich die Genauigkeit erzielen, die Unternehmen in der Praxis benötigen, um von Data Science profitieren zu können.
DIGITAL BUSINESS
Konvergenzen digitaler Transformation
Technologie selbst ist weder gut noch schlecht – was du damit machst, macht den Unterschied.
Marc Benioff, Gründer von Salesforce
Denken Sie darüber nach:
Das Tempo der Veränderung war noch nie so schnell, aber es wird auch nie wieder so langsam sein.
Justin Trudeau, kanadischer Premierminister
1 Einleitung
Vorab bedingt es eine dezidierte Unterscheidung von Begriffen, um über das
Wesen der Digitalisierung angemessen nachdenken zu können. Ein erstes Kapitel muss damit ansetzen, konkrete Definitionen zu erwirken. Begriffe, die zu oft als Synonyme verwendet werden, bezeichnen faktisch unterschiedliche Sachverhalte. Darüber wird unmittelbar in der Einleitung Klarheit erwirkt.
Im Anschluss daran werden die Entwicklungen in einem Marktsegment untersucht, um zu verstehen, welche merklichen Veränderungen moderne Technologien gegenwärtig bereits verursachen. Es handelt sich dabei um einen Markt, der aufgrund seiner integrativen Bedeutung eine Vielzahl von Personen miteinschließt: den Arbeitsmarkt. Diese Ausgangspunkte erlauben dann in Folge, in die Materie selbst tiefer einzutauchen.
1.1 Das Trendwort „Digitalisierung“ und der Begriff „Digitale Transformation“
Worin besteht das Wesen der Digitalisierung? Die Antwort auf diese Frage lässt sich präzise auf den Punkt bringen.
Der Begriff Digitalisierung meint die Umwandlung von analogen Inhalten in digitale Formate. Die so generierten Daten können informationstechnisch verarbeitet werden – dieses Prinzip liegt sämtlichen Erscheinungsformen der digitalen Revolution im wirtschaftlichen, gesellschaftlichen, professionellen und privaten Bereich zugrunde.
Mittels Digitalisierung werden Informationen digital gespeichert und für die elektronische Datenverarbeitung verfügbar gemacht. Schätzungen zufolge waren im Jahr 2007 bereits 94 % der weltweiten technologischen Informationskapazität digital. Etwa im Jahr 2002 wurde dabei der zivilisatorische Bruchpunkt vollzogen, mehr Information war nunmehr digital als analog archiviert.
Das Schlagwort Digitalisierung bedeutet, dass Informationen in Form von Bits und Bytes abgelegt werden, um sie dann vom Computersystem auszuwerten. Auf diese Weise lassen sich Informationen vervielfältigen, austauschen, zugänglich halten, ablegen und speichern. Informationen werden als Daten generiert.
Dieser technologische Entwicklungsschritt verursacht, dass sich bestehende Strukturen, Verfahren und Prozesse substanziell verändern, und er erfasst konsequent immer mehr Bereiche. Als ursächlicher Effekt betrachtet, hat er konkrete Auswirkungen auf Unternehmen, Organisationen und Gesellschaften.
Der Fortschritt der Digitalisierung besteht nun zum einen darin, dass fortlaufend mehr Märkte und gesellschaftliche Bereiche als Datenlieferanten erschlossen werden, weil in diesen Zusammenhängen verbreitet Maschinen zum Einsatz kommen, die Daten erzeugen und erfassen. Zum anderen führt dieser Entwicklungsschritt dazu, dass Strukturen, Funktionslogiken, Geschäftsmodelle und Organisationsformen sich in Unternehmen und Institutionen ändern. In letzter Konsequenz erhalten Märkte eine andere Funktionslogik verpasst. Diese Prozesse des Wandels werden mit dem Begriff digitale Transformation bezeichnet.
Digitale Transformation meint den gesellschaftlichen Wandel, der eine zentrale Folgewirkung der Digitalisierung bildet. Diese paradigmatische Transformation, die unterschiedliche Facetten kennt und an Bedeutung stetig gewinnt, muss strategisch gestaltet und initiiert werden.
Die Zugangsweise zum Thema digitale Transformation bestimmt jedenfalls den Blickwinkel darauf. Jeder Versuch, das Prinzip der digitalen Transformation zu erklären, hängt also davon ab, welche Aspekte konkret verdeutlicht werden sollen.
Selbstverständlich bewirkt die digitale Transformation, dass moderne Technologie in Bereichen Anwendung findet, die bisher davon ausgenommen waren. Ein rein technologisches Verständnis ergibt immer Sinn. Diese Perspektive berücksichtigt aber eher den Verständnishorizont der fortschreitenden Digitalisierung. Doch wenn neue technische Durchbrüche flächendeckend zum Einsatz kommen, adaptiert sich im Regelfall die Organisationsstruktur von Unternehmen entsprechend, Märkte bekommen eine neue Funktionslogik verpasst und Gesellschaften wandeln sich. Die technologische Innovation veranlasst also strukturelle Veränderung in Organisationen, beweist ökonomische Relevanz und zeigt soziologische Implikationen. Es entstehen Rückkopplungseffekte. Wenn anschließend ein gesellschaftlicher Diskurs oder eine organisationsinterne Debatte über die Konsequenzen von Veränderungen durch neue Technologien geführt wird, dann gilt es, all diese Implikationen angemessen zu berücksichtigen. Entscheidungen darüber, welche Technologien angewendet werden, erhalten vor diesem Verständnishintergrund eine strategische Qualität.
Dieser Überzeugung folgt die Lehrveranstaltung und sie soll darüber hinaus dem Studium eine allgemeines Begriffsverständnis liefern. Die Lehrveranstaltung bedenkt jedenfalls einen Digitalisierungsbegriff, der sich nicht auf technologische Komponenten begrenzt. Vielmehr werden organisationsspezifische, volkswirtschaftliche und soziologische Implikationen vergegenwärtigt. Die digitale Transformation weicht in ihrem Erkenntnisinteresse vom Sachverhalt der Digitalisierung ab, auch wenn die Digitalisierung als technologische Vorbedingung erkannt wird. Reflektiert und erklärt werden Methodologien, die Innovation als eine strategische Aufgabenstellung erachten und die in den Verantwortungsbereich der Geschäftsführung und des Managements fallen.
Die objektive Notwendigkeit, warum sich klassische Industriebetriebe wandeln müssen, liegt in der Tatsache einer umfassenden Umwandlung der sozio-ökonomischen Struktur der gegenwärtigen Gesellschaften begründet.
Der klassische Industriekapitalismus metamorphosiert in die Wissensgesellschaft. Wie sich diese Neuerung vollzieht und was sie bedeutet, wird in Folge beschrieben.
Ein weiterer Sachverhalt, der verdeutlicht werden soll, liegt in der Tatsache, dass Phasen des Umbruchs immer ein Zeitfenster bilden, um neue Ansätze auszuprobieren. Es kristallisieren sich ungeahnte Möglichkeiten heraus, um neue Projekte zu verwirklichen, neue Unternehmen zu gründen, Visionen umzusetzen und andere Denkansätze zu wagen. Es handelt sich um Phasen des Experimentierens und des Wagens, die gestalterische Fähigkeiten fordern. Der Anbruch einer neuen Epoche stattet den Einzelnen mit überdurchschnittlichen Einflussmöglichkeiten aus, sich an neuen Konzepten mutig zu versuchen. Es herrscht Aufbruchsstimmung.
Die digitale Transformation repräsentiert für Unternehmen eine strategische Herausforderung, die sich nicht auf technologische Aspekte begrenzen lässt. Denn die digitale Transformation weist eine fundamentale ökonomische Dimension auf und beweist eine tiefgreifende transformatorische Kraft, die Gesellschaften gegenwärtig nachhaltig verändert. Wer Technologie unter diesen Umständen nur als eine Frage von Bits und Bytes liest, wird ihrer Bedeutung schwer gerecht und verwechselt digitale Transformation mit Digitalisierung.
Technologische Entwicklungen, die grundlegend durch die Verwandlung von Information in Daten vorangetrieben werden, implizieren also unternehmerische und gesellschaftliche Folgewirkungen. Diese Wechselwirkung bezeichnet die Abhängigkeit aus Digitalisierung und digitaler Transformation.
Digitalisierung im Wandel der Zeit
Dieser Ansatz erklärt auch, warum eine technologische Begriffsauffassung allein nicht ausreicht, um die Tiefenwirkung der digitalen Transformation zu verstehen. Selbstverständlich erwirkt Wissen, das in den klassischen MINT-Fächern erworben wird, eine solide Verständnisbasis, um die Grundlagen abdecken zu können. MINT selbst steht als Akronym für Mathematik, Information, Naturwissenschaften und technische Wissenschaften. Aber erst im Dialog, bei gemeinsamer Reflexion und in Kooperation mit Einsichten und Ansichten, die in sogenannten HASS-Fächern vermittelt werden, lässt sich effektiv und vorteilhaft an der digitalen Transformation wirken. HASS wäre ein Akronym, das auf Deutsch leicht unglücklich wirkt, aber auf die englischen Bezeichnungen Humanities, Arts und Social Sciences verweist – also auf die Geisteswissenschaften, die Kunst und die Sozialwissenschaften, die auch volks- und betriebswirtschaftliche Fächer miteinschließt. Erst in intensiver Absprache und Rücksprache zwischen Personen, die jeweils unterschiedliche Perspektiven in unternehmerische und gesellschaftliche Debatten einbringen, entsteht jenes Bewusstsein, das es voraussetzungsvoll braucht, um die digitale Transformation umfassend, erfolgreich, effektiv, innovativ und human zu gestalten. Exakt diesem Credo muss auch die wissenschaftliche Analyse und praktische Umsetzung der digitalen Transformation folgen. Es sind vielfältige Perspektiven gefordert, um die Komplexität des Phänomens erst zu verstehen und dann verantwortungsvoll zu gestalten.
Warum es diese ernsthaften Debatten braucht, erklärt bereits als erster Eindruck das anschließende Kapitel.
1.2 Konvergenzen des Digitalen – die immaterielle Marktwirtschaft
Zu Beginn der Ausführung eignet es sich, die Verständnisperspektive auf eine Metaebene zu führen, um begreifbar zu machen, warum die derzeitigen Veränderungen von einschneidender und einmaliger Qualität sind.
Im Zuge der digitalen Transformation handelt es sich um wesentliche Veränderungen, die Dynamiken des menschlichen Zusammenwirkens neu konstituieren. Als Effekt zeigt sich, dass gesellschaftliche und marktwirtschaftliche Verbindungen anders organisiert werden und sich neu definieren.
Auch wenn es mittlerweile fast wie eine inflationäre Banalität wirkt: Die Wirkung moderner Technologie ist dabei von profunder Bedeutung.
Ein entscheidender Sachverhalt soll an dieser Stelle explizit genannt werden, welcher der digitalen Transformation immanent und definitiv scheint:
bisher unauflösbare Einheit aus physischer und interaktiver Präsenz der Person hat sich aufgelöst und ist nun teilbar. Es lässt sich physisch an einem Ort sein, aber interagieren lässt sich an einem anderen Ort. In einer rein analogen Welt war diese Differenzierung nicht denkbar, weil es sich um eine unauflösbare Einheit handelte.
Entweder war jemand im Büro anwesend oder nicht, Home-Office hat diese Eindeutigkeiten aufgelöst. Entweder hat jemand eine Ordination für ärztliche Konsultation aufgesucht oder nicht – Telemedizin verändert das nun.
Technologie erlaubt also zwischen Präsenz und Lokalisierung zu unterscheiden. Das „Wo ich bin“ und das „Wo ich mich im übertragenen Sinn befinde“ werden zu zwei unterschiedlichen Bezugsgrößen: Ich bin analog in meinem Wohnzimmer, ich befinde mich aber digital im Büro durch die Praktiken des Home-Office. Oder ich befinde mich beim Einkauf im Online-Shop oder im Warteraum der Arztpraxis bei der Telemedizin. Ich lebe ein Onlife. Die Realität von Raum und Zeit der menschlichen Praktiken verändern sich.
Ganz objektiv führen diese Einschnitte dazu, dass sich soziale und ökonomische Beziehungen zwischen den Menschen neu aufsetzen. Die Trennschärfe zwischen dem Analogen und dem Digitalen verschwindet nicht deshalb, weil Technologie unbegrenzt in den Alltag einfließt, sondern weil die menschliche Existenz mittlerweile durch analoge und digitale Praktiken gleich geformt wird. Als gewöhnliche Alltags- und Welterfahrungen konstituieren digitale und reale Zusammenhänge den gewöhnlichen menschlichen Erfahrungsschatz.
Die ursprüngliche Dualität aus reell und virtuell lässt sich unter diesen Bedingungen nur schwer aufrechterhalten. Das Wort virtuell bedeutete in seiner Wortherkunft ursprünglich etwas, das nur theoretisch existiert und damit im Gegensatz zum Reellen gedacht werden muss. Diese Trennung hebt sich nun durch das Konzept des Onlife auf, Reelles und Virtuelles verschmelzen zur gemeinsamen Erfahrung.
Dabei muss gar nicht nur an digitale Zusammenhänge gedacht werden: Faktisch ist der eigene Schuldenstand oder das Guthaben auf dem Bankkonto eine im virtuellen Raum gespeicherte Zahl, die aber erfahrungsgemäß von realer Signifikanz ist.
Die nachgezeichnete Entwicklung ist also geradezu von existenzieller Dimension, entsprechend auch von gesellschaftlicher Bedeutung und schlussendlich von ökonomischer Vehemenz.
Hier zeigt sich eine entscheidende Konvergenz, die der digitalen Transformation definitorisch eigen ist: Sie führt Reelles und Virtuelles in eine einheitliche Alltagserfahrung über.
Die beschriebenen Umbrüche wären nicht möglich ohne einschneidende
technologische Fortschritte. Im Grund genommen basiert die Durchdringung der alltäglichen Lebenswelt durch Technologie darauf, dass die Leistungserbringung von Computern exponentiell gestiegen ist. Faktisch wären es drei Funktionen, die klassischerweise durch Computer vollbracht werden:
• Daten lassen sich speichern,
• Daten lassen sich verarbeiten,
• Daten lassen sich vervielfältigen.
Für alle drei Funktionen lassen sich nun eindeutige Tendenzen beobachten:
• Im Verlauf der Zeit werden immer größere Datenmengen immer kostengünstiger gespeichert. Die Kosten für die Datenspeicherung fallen und die Nutzung von Datenspeichern wächst, weil die Ressource günstiger wird.
• Im Verlauf der Zeit werden immer größere Datenmengen immer kostengünstiger verarbeitet. Die Preise der Datenverarbeitung fällt, die Nutzung der Datenverarbeitung steigt.
• Im Verlauf der Zeit wird die Vervielfältigung von Daten kontinuierlich einfacher und unkomplizierter.
Wenn also die Speicherung von Daten günstiger und unkomplizierter wird, dann werden mehr Daten aufgezeichnet und archiviert. Das ist schlicht eine ökonomische Gesetzmäßigkeit: Fallen die Preise für ein Gut, dann steigt die Nachfrage. Die gespeicherten Datenmengen werden schließlich einem Zweck zugeführt, wenn sie sinnvoll verarbeitet und analysiert werden. Auf diese Zusammenhänge wird das Skript an späterer Stelle im Bereich von Big Data und Künstlicher Intelligenz eingehen.
An dieser Stelle soll auf den dritten Faktor eingegangen werden. So lässt sich zeigen, welche massiven Implikationen eigentlich damit verbunden sind, dass sich Daten kostengünstig vervielfältigen lassen, und welche entsprechenden Paradigmenwandel damit verbunden wären.
Wenn ein Text in Form einer Textdatei vorhanden ist, dann lässt sich dieser nahezu kostenlos vervielfältigen. Faktisch kann nachfolgend nicht mal festgestellt werden, welche Datei das Duplikat ist. Angenommen, Sie kopieren eine PDF-Datei ohne Veränderungen dreimal.
Ist dann die erste Kopie originalgetreuer als die zweite Kopie oder die dritte? Macht eine entsprechende Bewertung überhaupt noch Sinn? Die Differenz zwischen Original und Kopie, der haptischen Gegenständen immanent eigen ist, löst sich im digitalen Raum auf.
Die Frage hat nicht nur ontologische Bedeutung, sie zeigt Verschiebungen in den Wirkmechanismen moderner Märkte an, die sich am Beispiel eines Buchs deklinieren lassen.
Angenommen, Sie kaufen ein Buch, dann schließen Sie einen Kaufvertrag über ein Objekt ab, bei dem die Eigentumsrechte übertragen werden. Ein Objekt wandert in Ihren Besitz. Bis Sie das Buch bei einer Buchhändlerin erwerben können, sind in die Wertschöpfungskette vielfältige andere Dienstleistungen eingegangen – das Wirken des Verlags, des Papierhändlers, der Forstwirtschaft, der Grafikabteilung, der Druckerei, des Großhändlers, der dazwischen geschalteten Logistikunternehmen usw. All diese vielfältigen Bestandteile der Leistungserbringung konstituieren entsprechende Märkte und subsumieren sich im Endpreis, der vom Konsumenten gezahlt wird.
Angenommen, das Werk wird statt der gedruckten Ausgabe schlicht über einen Webshop auf den eigenen E-Reader geladen. Dann wird nunmehr kein Vertrag über die Übertragung von Eigentumsrechten eines Objekts abgeschlossen, sondern ein Text auf Basis eines Leihvertrags zur Verfügung gestellt, wobei alle Zwischenschritte, die sonst bei der Leistungserbringung erforderlich wären, einfach obsolet erscheinen. Auch geschieht das Ganze zeitlich simultan, während die Prozesse bei der Leistungserbringung im realen Raum Zeit beanspruchen, um Distanzen zu überwinden.
Es entsteht eine radikal anders strukturierte Wertschöpfungskette, die für die Reproduktion eines vorhandenen Texts faktisch kaum Kosten verursacht, keinen Ressourceneinsatz benötigt, gleichermaßen keine materielle Logistik verlangt oder Lagerbestände verändern würde, die Planbarkeit voraussetzt.
Digitale Textdateien werden zwischen Geräten versandt. Die Transformation einer Marktwirtschaft, die sich von der Bereitstellung realer Gegenstände zur Inanspruchnahme virtuell bezogener Dienstleistungen wandelt, erzeugt neue Geschäftsmodelle, andere kapitalistische Wirkweisen, verlagerte Konsumentenbedürfnisse, verschobene Wertschöpfungsketten und ideelle Konzepte.
Es lässt sich von einem immateriellen Kapitalismus reden.4 Denn die gerade
beschriebene Logik lässt sich vielfältig auf andere Bereiche übertragen – vom Buchhandel hin zum Automarkt.
Wenn das Geschäftsmodell des Mobilitätssektors plötzlich nicht mehr darin besteht, eine Vertriebspolitik zu strukturieren, die möglichst auf den Privatbesitz von PKWs und auf der Leistungserbringung von Services durch Werkstätten zielt, sondern die unkomplizierte Zurverfügungstellung von Mobilityas-a-Service bewerkstelligt, dann hat das sowohl Auswirkung auf die Einnahmenstruktur in der Branche als auch auf das Produktdesign. Die denkbare Langlebigkeit von Autos würde nun ein objektiv wünschenswertes Ziel aller Marktteilnehmer darstellen.
Was zu einer nachfolgenden Frage verleitet, die an dieser Stelle symbolisch mit dem Bezug auf das Auto ausformuliert werden soll: Wie funktioniert eigentlich die Logik und Chronologie von Innovation, weil all diese Phänomene im Endeffekt innovative Geschäftsmodelle generieren?
Bei wahrer Innovation handelt es sich um mehr als nur um die Erfindung neuer Produkte. Das wäre die erste Feststellung.
Beim Auto verbleibend: Interessanterweise zeigte sich bereits anfänglich in der Entwicklung von Autos eine intensive und experimentelle Diskussion darüber, was denn eigentlich ein Auto ist – durchaus vergleichbar mit den Auseinandersetzungen heute.
Es wurde bereits zu Beginn der Entwicklungsgeschichte mit unterschiedlichen Antriebstechniken experimentiert (Öl, Dampf, Elektrizität usw.) und verschiedene Designvorschläge als Prototyp versucht (eher Lenkrad oder Hebeln, wie viele Räder soll ein Auto haben, wie lassen sich die Sitze anordnen usw.). Es brauchte vielfältige und inhomogene Versuche, bevor sich dann vor über hundert Jahren eine Art allgemeiner Konsens darüber gebildet hat, der festlegte, dass ein Auto auf vier Reifen fährt, ein Lenkrad nutzt und auf Basis des Verbrennungsmotors operiert.
Erstmal diese Übereinstimmung hergestellt, nimmt die Intensität bezüglich der Innovation der Produktentwicklung ab. Jetzt steht im Zentrum der marktwirtschaftlichen Konkurrenzsituation nicht mehr die Aufgabe, wer die überzeugendste Idee generiert, was faktisch ein Auto sei – sondern die Konkurrenzsituation konzentriert sich darauf, wer das allgemein akzeptierte Auto nun am verlässlichsten und kostengünstigsten herstellen kann und anschließend die entsprechenden Distributionskanäle aufbaut, um es am Markt abzusetzen.
Die Kernaufgabe bildet also nicht mehr die Produktinnovation, sondern die Herausforderung besteht plötzlich im Aufbau einer Prozessinnovation, die es versteht, ein maßgebliches Geschäftsmodell zu etablieren.
Abbildung 1: Abfolge von Innovation
Das Modell T von Ford wurde am Beginn des Automobilzeitalters nicht deshalb zur zahlenmäßig größten Erfolgsgeschichte, weil es ganz objektiv das beste Auto gewesen ist oder das Unternehmen schlicht bezüglich der Produktinnovation der Konkurrenz enteilt war. Der Grund ist ein anderer: Ford hat erstmalig die Zusammenarbeit in Fabriken auf Grundlage der tayloristischen Arbeitsteilung organisiert und einen Massenmarkt geschaffen. Mitarbeiter wurden anteilig entlohnt, damit diese auch zu Kunden des eigenen Unternehmens werden. Es wurden zuverlässige Produktionszeiten kalkuliert, damit eine Steuerbarkeit in Großbetrieben erwirkt und ein Vertriebsnetzwerk etabliert. Entscheidend für den Erfolg war also die Prozessinnovation, die der Produktinnovation folgte.
Erst die Konvergenz aus Produktinnovation und Prozessinnovation vermag es, ertragsträchtige und funktionale Märkte zu etablieren. Ertragreiches Management versteht es, beides zusammenzuführen. Weil das gegenwärtig im Zusammenspiel aus Technologie und Prozessinnovation ansehnlich gelingt und der Wirkmechanismus vor allem auch in Zukunft für viele Bereiche attraktive Potenziale birgt, steigt die Bedeutung der digitalen Transformation rasant.
1.3 Anstehende Umbrüche: Beispiel Arbeitsmarkt
Einen weiteren Eindruck davon, wie tiefgreifend, rasant und weitreichend moderne Technologie traditionelle Märkte erneuert, liefert der Arbeitsmarkt. Das Beispiel eignet sich deshalb als Anschauungsmaterial, weil es die Größenordnung einer anstehenden Veränderung verdeutlicht und je nach Umgangsweise Chancen oder Gefahren für die Gesellschaft aufzeigt. Die Arbeitswelt erfasst auch einen Markt, dem sich kaum jemand entziehen kann.
Die Effekte der Digitalisierung bestimmen also über die Karrieremöglichkeiten und Lebenschancen der Einzelnen. Ein katholischer Dorfpfarrer in Österreich erzählt von einer aufschlussreichen Beobachtung, wenn er wahrnehmbare Veränderungen beschreibt. Die Verantwortung seines Amts besteht unter anderem darin, Hinterbliebenen Trost zu spenden, wenn sie enge Angehörige verlieren. Im Zuge der Gespräche erinnern Familienmitglieder immer wieder an den Lebensweg der kürzlich Verstorbenen. Biografien wurden dabei früher oft in einem einzigen Satz zusammengefasst: Das Leben war nichts als Arbeit. Mittlerweile lässt sich ein merklicher Unterschied ausmachen. Eindrücklich wird von Hobbys erzählt, die leidenschaftlich praktiziert wurden. Oft werden Vereine, Institutionen oder Organisationen genannt, denen persönliches Engagement gewidmet wurde. Es finden sich offenbar größere Spielräume, um individuellen Interessen nachzugehen und die eigene Identität zu prägen. Die Eindrücke, von denen der Pfarrer berichtet, lassen sich durch statistisches Zahlenmaterial erklären: Die berufliche Beanspruchung nimmt kontinuierlich ab. Das bildet die Voraussetzung dafür, auch andere Vorlieben zu verfolgen.
Ein Blick in die Vergangenheit hilft, die Gegenwart in Relation zu setzen.
Nachdem die industrielle Revolution den Ärmelkanal überquerte, war im Jahr 1870 ein Arbeiter in einer belgischen Fabrik durchschnittlich 72,2 Stunden pro Woche beschäftigt. Der Wert hat sich bis zum Jahr 2000 nahezu auf 37 Stunden halbiert. Doch nicht nur die Dauer der normalen Arbeitswoche wurde sukzessive verkürzt. Auch der relative Anteil an Personen, die aktiv am Arbeitsmarkt teilnehmen, geht stetig zurück. Beispielsweise kann nur jeder zweite Einwohner Österreichs als Teil des nationalen Arbeitskräftepotenzials betrachtet werden. Die andere Hälfte ist entweder zu jung, im Ruhestand, in Ausbildung oder arbeitsunfähig. Nur 34 % der österreichischen Bevölkerung arbeiten in Vollzeit. Ein ausgeprägter Sozialstaat, verlängerte Ausbildungszeiten, Voraussetzungen, um anspruchsvollen Aufgaben nachzugehen, und alternde westliche Gesellschaften sind entscheidende Faktoren, die diesen Trend begründen. Das Zusammenwirken zwischen Technik und Marktwirtschaft hat einst aus den engen Banden des Feudalismus hinausgeführt und den kollektiven Lebensstandard massiv angehoben. Das durchschnittliche Jahreseinkommen in Italien im Jahr 1300 betrug beispielsweise kaufkraftbereinigt ungefähr 1.300 $. Das blieb mehr oder weniger unverändert so bis zur Mitte des 19. Jahrhunderts. Auch damals misst das durchschnittliche und kaufkraftbereinigte Jahreseinkommen noch ungefähr 1.300 $.8 Spätestens mit Einführung und Verbreitung der Dampfmaschine bildet die Moderne aber einen dialektischen Prozess, der verlangt, weniger manuell zu arbeiten, um volkswirtschaftlich reicher zu werden. Tätigkeiten werden vom Menschen auf die Maschine übertragen. Eine Erfolgsgeschichte setzt an. Unbekannte Produktivitätssteigerungen werden erzielt. Zwei zentrale Gründe berechtigen nun zur Erwartungshaltung, dass die Kursrichtung sich nicht nur fortsetzt, sondern sich auch beschleunigt.
Erstens wird zukünftig noch größere Effizienz aufgrund technologischer Innovation realisiert als bisher. Dabei ist die Geschwindigkeit der Veränderung so schnell wie nie zuvor in der menschlichen Zivilisationsgeschichte und wird doch womöglich nie wieder so langsam sein wie gerade der Fall.
Zweitens, wie bereits oben erwähnt, werden zusätzliche Segmente der Volkswirtschaft durch die Digitalisierung erfasst. Bereiche, die bisher keine Wertsteigerungen durch technologische Mechanik verbuchen konnten, werden nun teils oder vollständig ins Reich der Technik eingegliedert. Die Digitalisierung greift auf Märkte über, die bisher weitgehend oder gar vollkommen ausgeklammert waren. Wie angedeutet, verschieben sich nicht nur die Schranken des technologisch Möglichen. Auch die Grenzkosten der Anwendung sinken rasant. Der Arbeitsmarkt folgt konsequent dieser Logik.
Eine Untersuchung der Martin School der University of Oxford prognostiziert in diesem Zusammenhang, dass heute fast jedem zweiten Berufsbild das Risiko anhaftet, in Zukunft maschinell ersetzt zu werden. Die Autoren gründen ihren Ausblick auf einem betont zuversichtlichen Vertrauen hinsichtlich der technologischen Durchbrüche, die in naher Zeit erwartet werden dürfen.
Das McKinsey Global Institute hingegen beschränkt sich in seinen spezifischen Einschätzungen auf die direkten Auswirkungen durch Robotics. Die Marktforschungsagentur errechnete, dass allein bis zum Jahr 2030 weltweit 800 Millionen Jobs durch moderne und kostengünstige Roboter ersetzt werden.
Das World Economic Forum kalkuliert in Folge, dass womöglich zwei Drittel
aller Kinder, die gerade die Grundschule besuchen, einst Berufen nachgehen
werden, die heute noch gar nicht existieren.11 Wie kommt es zur Bewer-
tung? Den Umbruch verursachen vormals abgrenzbare Phänomene, die mittlerweile zusammenwirken und sich wechselseitig verstärken. Die Kombination aus Künstlicher Intelligenz, Robotik, Nanotechnologie, 3D-Druck und Biotechnologie reorganisiert die ökonomische Struktur der Gesellschaft gravierend, der Arbeitsmarkt reagiert dementsprechend. Ein späteres Kapitel wird detailreicher darauf eingehen, welche Entwicklungen hinter den genannten Technologien stecken und welche Auswirkungen zu erwarten sind.
Die Vorhersagen der OECD wirken im Vergleich dazu fast bedächtig. Eine konservative Grundhaltung gegenüber dem Ansatz, dass Jobs ersatzlos gestrichen werden, bestimmt die Analyse. Die OECD meint, dass jede zehnte Stelle mit einer hohen Wahrscheinlichkeit Gefahr läuft, aufgrund von absehbarer Automatisierung eingespart zu werden. Im Vergleich zu den anderen Urteilen erscheint dieser Befund geradezu zurückhaltend. Erst die Details zeigen auch hier die Vehemenz, die erwartet wird. Für möglicherweise die Hälfte aller Anstellungen wird vermutet, dass sich das Aufgabenprofil radikal verändert, da Technologie eine zunehmend wichtige Rolle spielt. Die Aufgabenstellung für Bildungsinstitutionen, öffentliche Körperschaften und private Unternehmen erscheint enorm, wenn jeder zweite Beruf faktisch nach anderen Fähigkeiten als bisher verlangen würde. Selbst vorsichtige Aussichten wirken demgemäß wie eine radikale Prognose.
Die allgemeinen Einschätzungen über die Zukunft der Arbeit referieren drei Grundideen, die jeweils unterschiedlich gewichtet werden. Auch in den vier genannten Studien lassen sich die Ansätze deutlich wiedererkennen:
Ein Großteil der vorhandenen Berufe wird ersatzlos gestrichen. Anders als bei bisherigen Umbrüchen, die unsere Arbeitswelt erfasst haben, sorgen diesmal Wesen und Ausmaß des technologischen Einschnitts dafür, dass kein adäquater Ersatz nachkommt. Die bekannte Wechselwirkung, dass für überholte Jobs schlicht neue geschaffen werden, gilt bei der bevorstehenden Disruption nicht mehr. Das macht die Transformation historisch einzigartig. Der Sohn des Gaslaternenanzünders wurde noch Elektriker. Die Tochter des Kutschers konnte als Taxifahrerin anheuern. Was aber mag nun passieren, wenn Autos und Lastwagen zukünftig gar keine Lenker mehr brauchen? Das soll laut qualifizierter Vorhersage im Jahr 2025 der Fall sein. Allein in den USA verdient mehr als ein halbes Prozent der Gesamtbevölkerung den Lebensunterhalt damit, LKWs zu fahren.
Ein weiterer Blickwinkel ergänzt, dass die kommenden Veränderungen nicht nur einen massiven Jobrückgang zur Folge haben, sondern einen tiefgreifenden Strukturwandel im Stellenmarkt erfassen. Neue Fähigkeiten werden gefragt sein, Signale dafür lassen sich bereits ausmachen. Die Anzahl der Jobanzeigen für Berufe, die keine spezifische Ausbildung voraussetzen, fiel beispielsweise in den USA zwischen 2007 und 2015 um 55 %. Die Annoncen, die Daten-Analysten suchen, stiegen über den vergleichbaren Zeitraum um 372 % und jene für Daten-Visualisierung gar um 2.574 %. Erprobte Ansätze, einfach die tarifliche Arbeitszeit zu verkürzen, um mehr Personen in den Arbeitsmarkt zu integrieren, wirken vor diesem Hintergrund allein kaum erfolgsversprechend. Zu sehr unterscheiden sich die Anforderungen zwischen jenen Berufen, die vergehen, und jenen, die entstehen. Doch selbstverständlich werden auch offene Debatten über Mittel und Wege der Arbeitszeitverkürzung geführt werden. Nur der einzige Ansatz kann er nicht bleiben.
Verbleibende Stellen werden ein vollkommen anderes Tätigkeitsprofil ausweisen. Selbst Aufgaben, die momentan weitgehend manuell ausgeführt werden, müssen darauf gefasst sein, sich vermehrt in Mensch-Maschinen-Interaktionen zu wandeln. Technologie dringt in Rahmenbedingungen vor, die bisher kaum davon berührt oder vollständig ausgenommen waren. Gänzlich andere Fähigkeiten werden nunmehr verlangt. Parallel steigt jedoch die Wertschöpfung in den einzelnen Berufsfeldern.
Das Prinzip der Automatisierung basiert auf einer einfachen Funktionsweise.
Manuelle Arbeit wird dann maschinell ersetzt, wenn eine bestimmte Tätigkeit in gleichmäßige Abläufe zerlegt werden kann, die von einer Maschine billiger, gleichermaßen zufriedenstellend oder sogar besser als von Menschen ausgeführt wird. Der Charakter einer solchen Tätigkeit lässt sich leicht ausmachen, wenn ein bestimmter Beruf vor allem auf Fließbandarbeit basiert. Es erscheint viel schwieriger, ähnliche Merkmale in der Dienstleistungsbranche zu erkennen und zu kopieren. Die Grenzen des technologisch Möglichen sparten intellektuelle Berufe bisher der Gefahr aus, schlicht maschinell ersetzt zu werden. Das ändert sich gerade einschneidend, weil neuartige Technologien es vermögen, diese vorhandenen Einschränkungen aufzuheben.
Welche signifikante Bedeutung erwartet werden darf, dafür liefert die Zeitgeschichte empirische Vergleichswerte: Als während der letzten Jahrzehnte ausgereiftere Fertigungsmethoden im Industriesektor eingeführt wurden, verursachte das merkliche Auswirkungen für die betroffenen Arbeiter. Die Gesamtzahl der Beschäftigten allein in der US-Industrie hat sich von 1980 bis 2016 fast halbiert, während sich der faktische Produktionsoutput über den Zeitraum mehr als verdoppelt hat. In den USA wurden jedenfalls zwischen 2000 und 2010 5,6 Millionen Arbeitsplätze in der Industrie ersatzlos gestrichen. Laut einer Studie der Ball State University dürfen 85 % aller Stellenverluste exklusiv der Automatisierung zugeschrieben werden.13 Um einen Eindruck von der Größenordnung zu gewinnen: Die gesamte Arbeiterschaft von Finnland und der Republik Irland zusammen beläuft sich auf 5,3 Millionen.
Trotz Rückgang in der Beschäftigungszahl stieg der Output. Automatisierung führte zu höherer Wertschöpfung.
Wie sich diese Aspekte nun auch in der Dienstleistungsbranche spiegelbildlich wiederholen, zeigt ein aktuelles Beispiel aus dem Versicherungswesen.
Die japanische Versicherungsgesellschaft Fukoku hat diesbezüglich eine richtungsweisende Entscheidung getroffen.14 35 Angestellte waren bis vor Kurzem dafür zuständig, eingesandte Rechnungen von Versicherungsnehmern dahingehend zu überprüfen, ob selbstbezahlte Kosten zurückerstattet werden. Die gesamte Abteilung wurde inzwischen aufgelassen. Sämtliche Aufgaben werden stattdessen von einer Software übernommen, die Künstliche Intelligenz nutzt. Die Investition wird sich umgehend amortisieren. Die jährlichen Lohnkosten für die Gruppe der Sachbearbeiter beliefen sich insgesamt auf 1,1 Millionen $. Die Anschaffung für das Programm schlägt hingegen ein-malig mit 1,7 Millionen $ zu Buche und jährlich werden Betriebskosten von 170.000 $ aufgewendet.
Der vollständige Ersatz menschlicher Arbeitskraft in diesem spezifischen Szenario kann der Anwendung technologischer Mittel in einem Rahmen zugeschrieben werden, der bisher als vollkommen geschützt vor jeder Gefahr von vollständiger Automatisierung wirkte. Solche Bereiche weiten sich nun kontinuierlich aus. Amazon eröffnete im Jahr 2017 einen Supermarkt vollständig ohne Kassen. Durch ausgeklügelte Verfahren werden alle Produkte registriert, die sich in der Einkaufstasche befinden, wenn der Laden verlassen wird. Der zu bezahlende Preis wird einfach vom eigenen Konto abgebucht.
Im Jahr 2016 waren ungefähr 3,5 Millionen Personen als Kassierer in den USA angestellt. Ein britisches Start-up arbeitet zusammen mit der Universität Stanford an markttauglichen Roboterarmen, die in Küchen Einsatz finden und komplizierte Handgriffe von Haubenköchen genau nachvollziehen. IBM Watson, die Künstliche Intelligenz programmiert von IBM, wird auch darauf trainiert, Krebs im Frühstadium zu erkennen, um die Diagnosearbeit von Onkologen zu unterstützen.
Rückschlüsse lassen sich durch die historische Perspektive ziehen: Der Einsatz bahnbrechender Produktionsverfahren vermehrt kontinuierlich gesellschaftlichen Reichtum und verringert gleichzeitig den menschlichen Anteil an der aggregierten Wertschöpfung. Geschichtsbücher bezeugen ebenso, dass sich die zusätzlichen Profite erstmal an der Spitze der sozialen Pyramide konzentrieren. Die industrielle Revolution führte unmittelbar zu einer Akkumulation der Wohlstandsgewinne in den Händen einiger weniger. Diese Ungerechtigkeit wurde schließlich effektvoll behoben, als zuverlässige Umverteilungsmechanismen gefordert und etabliert wurden. Erst nachdem die Prinzipien der allgemeinen Gesundheitsversorgung und der progressiven Besteuerung garantiert waren, milderten sich die Folgen der Industriegesellschaft. Die Forderung nach einer kollektiv finanzierten Krankenversicherung wurde diesbezüglich äußerst vernünftig begründet. Das Argument besagte sinnigerweise, dass sich systemische Risiken gemeinschaftlich besser tragen lassen. Einen gleichlautenden Appell an die Solidarität würde es heute verlangen. Die erwartbaren Umstellungen in der Arbeitswelt verantworten ein individuelles Gefühl der Unsicherheit, das gerecht und vernünftig geteilt werden sollte. Weil sich wenige der existenziellen Bedeutung der Sache entziehen können, findet sich faktisch ein weitreichendes Interesse daran, belastbare Schutzmechanismen einzuziehen.
Zeitgleich und dringlich sind ressourcenschonende, intelligente und emissionsneutrale Produktionsverfahren nötig. Solche Innovationen würden Auswege aus der schädlichen Karbonwirtschaft aufzeigen, um die Folgewirkungen des Klimawandels zu begrenzen. Der Begriff Karbonwirtschaft bezeichnet dabei ein weltwirtschaftliches System, in der Kohlenstoffe eine wichtige
Rolle bei der Energieerzeugung und damit bei der Funktionsweise der gesamten globalen Wertschöpfung innehaben. Kohlenstoffe werden beispielsweise dann freigesetzt, wenn Erdöl oder Kohle verbrannt werden. Der Anstieg an Kohlenstoffen in der Atmosphäre, der durch menschliche Aktivitäten freigesetzt wird, gilt nach wissenschaftlichen Erkenntnissen als treibende Hauptursache der globalen Erwärmung. Die Trendwende wird als Dekarbonisierung bezeichnet.
Zukünftige Technologien könnten verschwenderische und destruktive Produktionsmechanismen runderneuern. Effizienzgewinne und Sparpotenziale kündigen sich an. Technologien, die sich gerade im jungen Entwicklungsstadium befinden, bilden die operative Basis für selbstdenkende Systeme, vollautomatisierte Produktionsanlagen und alternative Energiegewinnung. Sie ließen sich dafür modulieren, ertragreich nachhaltige Fertigungsmethoden aufzubauen. Allein deshalb, weil sie in eine fortschrittliche Zukunft führen mögen, sollten die anstehenden Veränderungen willkommen geheißen werden. Unter der Vorgabe, Nachhaltigkeit zu erwirken, wird ihnen sogar eine konkrete Stoßrichtung als Leitlinie vorgegeben. Dass sich diese immanenten Potenziale aber tatsächlich verwirklichen, wird weder automatisch noch von allein geschehen. Es bildet sich eine politische, volkswirtschaftliche und organisatorische Aufgabenstellung, die dafür Sorge zu tragen hat. Gelingt es, dann würde Wandel plötzlich als Mittel zum progressiven Zweck gedeutet.
An dieser durchdachten Zielvorgabe würde sich der Wandel messen lassen müssen.
Denn die demokratische Bestimmung findet sich genau dort: Wie lässt sich der technologische Fortschritt in soziale und ökologische Verbesserungen übersetzen? Wie werden neue Gestaltungsspielräume genutzt, um optimistisch auf die Zukunft einzuwirken? Darüber nachzudenken, das bildet die eigentliche Aufgabe, wenn der Sinn der Digitalisierung verstanden werden mag. Dieser Anforderung möchte auch dieses Modul gehorchen.
In Hinblick auf den Arbeitsmarkt folgt der Gang der Entwicklung akkurat dem Argumentationszusammenhang, der in Folge dargestellt wird: Der Einsatz moderner Technologie führt dazu, dass sich Organisationen grundlegend erneuern. Das wiederum hat unmittelbare Auswirkungen auf die strukturelle Verfassung unterschiedlicher Märkte – in diesem präzisen Fall auf den Arbeitsmarkt. Ändern sich die Verhältnisse dort, dann kommt es zu einem tiefgreifenden Wandel, der Gesellschaften erfasst. Darauf gilt es, Antworten zu finden, um das Wesen des Wandels zu verstehen und progressiv voranzutreiben. Die gegenwärtige Epoche markiert einen Umbruch von der traditionellen Industriegesellschaft hin zur Wissensgesellschaft. Auf welchen Indikatoren diese Hypothese baut, analysiert das nächste Kapitel.
1.4 Aufbau des Skripts
Dieses Modul beschäftigt sich jedenfalls dezidiert damit, welche organisatorischen und exekutiven Herausforderungen für das Management im Rahmen der digitalen Transformation erkannt werden. Dieser präzise Ausgangspunkt wird systematisch verfolgt. Nachdem die Einführung bereits mögliche Implikationen für den Arbeitsmarkt und die Marktwirtschaft selbst darstellt, wird im anschließenden Kapitel auf Ideen eingegangen, wie sich gesellschaftliche Veränderung konzeptionell erfassen lässt. Denn Technologie verantwortet vor allem sozialen Wandel, der sich vielfältig und umfassend ausmachen lässt. Dementsprechend werden unterschiedliche Perspektiven vorgestellt, die helfen sollen, Sinn und Essenz dieser Veränderungen zu verstehen.
Erstmal einen Begriff davon gewonnen, setzt der anschließende Abschnitt damit fort, Technologien zu beschreiben, die sich gerade flächendeckend ankündigen und der Zukunft Gestalt verschaffen. Ein Grundverständnis anstehender Entwicklungen soll erwirkt werden: Was bedeuten sie? Welche Trends werden tonangebend wirken? Darauf werden im Rahmen von zehn Beispielen Antworten gegeben. Vor allem werden aber die Konvergenzen dieser Entwicklungen skizziert. Auf diesen Ausführungen können nachfolgende Überlegungen aufbauen, welche personellen Voraussetzungen es braucht, damit Organisationen Innovationen erfolgreich adaptieren. Welche strukturellen und personellen Anpassungen wären dafür nötig?
An die theoretischen Betrachtungen knüpfen praktische Beispiele. Es werden Case Studies rekapituliert. Die Darstellungen geben einen Eindruck davon, wie andere Unternehmen oder öffentliche Körperschaften auf wahrnehmbaren Veränderungsdruck erfolgreich reagiert haben. Um wissenschaftlichen Erkenntnisstandards ganzheitlich zu entsprechen, wird schließlich noch die Theorie der „Schöpferischen Zerstörung“ dargestellt. Sie hilft dabei, die geschehenden Veränderungen auf theoretischer Grundlage zu konzeptualisieren.
2 Von der Industriegesellschaft zur Wissensgesellschaft
Wie nun zeigt sich die Transformation von der Industriegesellschaft zur Wissensgesellschaft? Im Verlauf des letzten Jahrzehnts hat es das Internet vermocht, global stetig mehr Menschen in Verbindung zu setzen. Die Ausbreitung der Technologie korrespondiert dabei tendenziell mit dem Anstieg des BIP/Kopf in einzelnen Staaten. Ob sich in diesem Zusammenwirken einfach eine Korrelation ausmachen lässt, dass vernetzte Gesellschaften vermögendere Gesellschaften wären, oder ob es sich um eine Kausalität handelt, dass besser vernetzte Gesellschaften zwangsläufig zu vermögenderen Gesellschaften werden, muss in diesem Zusammenhang nicht eruiert werden. Es gilt die Feststellung, dass ein Jahrzehnt rapider Vernetzung auch den globalen Wohlstand gefördert hat – trotz Einbrüchen im Zuge der Wirtschaftskrise als Folge des drohenden Finanzkollapses im Jahre 2007.
Abbildung 2: Globale Internetnutzung BIP/Kopf15
Mit der rapiden und umfassenden Inklusion von Menschen in die Internet Infrastruktur wird zweifellos gerade die Funktionslogik von Märkten und Geschäftsmodellen teils fundamental erneuert. Der amerikanische Journalist Tom Goodwin beschreibt die Situation prägnant:
Uber, das größte Taxiunternehmen der Welt, besitzt keine Fahrzeuge. Facebook, das weltweit beliebteste Medienhaus, erstellt keine Inhalte. Alibaba, der wertvollste Händler, hat kein Inventar. Und Airbnb, der weltweit größte Anbieter von Unterkünften, besitzt keine Immobilien. Etwas Interessantes passiert.
Diese Umbrüche beschreiben tiefgreifende Veränderungen bezüglich tradierter Auffassungen, wie Volkswirtschaften und Unternehmen grundsätzlich zu operieren hätten und organisiert werden sollen. Den geschehenden Wandel gilt es jedenfalls tätig zu gestalten. Durch Wissen, Analyse und Methode lässt er sich als unternehmerische Chance identifizieren, der Fortschritt wird progressiv für die eigene Sache genutzt. Denn in der Essenz symbolisiert Technologie einen nützlichen Baustein zur praktischen Umsetzung der Unternehmensstrategie. Es verlangt nach Ideenträgern und Organisationsstrukturen, die eine operative Anwendung digitaler Konzepte erdenken und ermöglichen.
Welche Technologien beispielsweise zur Mitte des Jahrhunderts tonangebend die Gesellschaft formen, lässt sich nur schattenhaft antizipieren. Es werden zweifellos andere sein als heute. Doch mit strategischer Perspektive, mit Methode und Pragmatik werden Entscheidungsträger über die Fähigkeiten verfügen, Veränderung permanent zu fördern und technologische Prozesse aktiv zu gestalten. Es bedingt, praxisnahes Wissen und pragmatisches Verständnis zu schaffen, um den systemischen Wandel von der Industriegesellschaft zur Wissensgesellschaft im Geiste eines modernen Unternehmertums und eines aufgeklärten Verantwortungsgefühls zu formen. Denn einige Konstanten werden sich aller Voraussicht nach auch dann bewahrheiten, wenn gänzlich neue Technologien praktische Umsetzung finden: Es setzt überzeugte Ideenträger und adaptive Organisationsstrukturen voraus, die den sinnvollen Einsatz digitaler Innovation unterstützen. Es erfordert neue unternehmerische Konzepte, um auf veränderte Umstände angemessen zu antworten. Unternehmen und Institutionen werden lernen, unter grundlegend anderen Bedingungen zu operieren, die durch die Digitalisierung geschaffen werden.
Die funktionelle Bedeutung von Technologie realisiert sich quintessenziell darin, dass die bestehende Produktivität gesteigert wird. Aus diesem Grund entfaltet sie auch eine universelle Dynamik. Sie etabliert neue Konkurrenzbedingungen und Kostenstrukturen.
2.1 Technologie als Katalysator gesellschaftlicher Veränderung
Organisationen, denen es in Folge gelingt, auf neuartige Produktionsverfahren oder Geschäftsmodelle effektiv zu reagieren, erzielen nicht nur einen zeitlichen Startvorteil gegenüber Mitbewerbern. Sie schaffen es womöglich auch, das Verhalten von Konsumenten zu formen. Manche konstruieren gar neue Märkte oder etablieren eine Kulturtechnik. Diese beobachtbaren Effekte bezeichnen den Begriff First Mover Advantages.
First Mover Advantages bedeutet die dominierende Marktposition, dass bei Einführung einer Dienstleistung, eines Produkts oder einer technologischen Lösung keine vergleichbare Alternative vorhanden ist.
Es gibt hier manche Gegenstimmen, die erklären, dass faktisch der sogenannte First Mover Advantage eigentlich immer auf den Zweiten zutrifft. Im Regelfall scheitert der wirkliche First Mover und wird oft von einem Zweiten überholt, weil dieser aus den Fehlern und Unzulänglichkeiten des wirklichen Ersten lernen kann. Deshalb hat Google dann Yahoo überholt oder Facebook Myspace hinter sich gelassen. Sie waren, chronologisch betrachtet und genau genommen, Second Mover, nicht First Mover.
Die Zeitlinie der Ereignisse kann aber für die weiteren Ausführungen als nachrangig betrachtet werden. Worin sowohl Google und Facebook zweifellos First Mover waren, das war in der Etablierung von tragfähigen Geschäftsmodellen.
Google bestimmt aufgrund seiner Marktdominanz darüber, welche allgemeinen Erwartungshaltungen hinsichtlich einer Suchmaschine gepflegt werden. Konkurrenten müssen sich immanent und permanent daran messen lassen, wie ihr Programm im Vergleich zu Google überzeugt. Auch Nutzeroberfläche und Funktionsweise einer Suchmaschine haben sich durch die Anwendungen von Google nahezu standardisiert. Für die Geschäftsmodelle gelten vergleichbare Voraussetzungen. Die vorhandene Reichweite und Treffsicherheit, die Google erzielt, führt dazu, dass eine nahezu monopolartige Stellung erwirkt wurde. Diese Vorrangstellung ermöglicht es wiederum, durch Öffentlichkeitssegmentierung potenzielle Werbekunden, die auf der Plattform inserieren, mit passgenauen Angeboten zu locken. Für das Jahr 2016 lässt sich festhalten, dass knapp 60 Cent jedes in Online-Werbung investierten Dollars an Facebook oder Google gezahlt wurden. Die Tendenz der Marktdominanz von Facebook und Google ist steigend. Bei dem Phänomen handelt es sich teils um Verdrängungswettbewerb.
Während die Einnahmen für Internetkonzerne konstant steigen, verliert der deutsche Zeitungsmarkt im Anzeigengeschäft kontinuierlich. Der jährliche Umsatz, den alle deutschen Tageszeitungen durch den Anzeigenverkauf generieren konnten, lag im Jahr 2015 bei 6,55 Milliarden €. Im Jahr 2016 ist die Summe auf 2,53 Milliarden € gesunken. Wachstumsraten im Werbemarkt werden mittlerweile zu mindestens 90 % ganz von Facebook und Google absorbiert, hält Mathias Döpfner fest (CEO von Axel Springer SE und Präsident des Bundesverbands Deutscher Zeitungsverleger). Auch agiert Google als Online-Werbevermittler und steuert und verteilt Anzeigen auf andere Webseiten. Für diese Dienstleistung wird eine Gebühr in Höhe von ungefähr 30% verrechnet.
Abbildung 3: Anteil an bezahlter Online-Werbung
Facebook wiederum hat eine vergleichbare Vormachtstellung im Bereich der sozialen Medien inne, wie es Google bei Suchmaschinen entsprechen würde. Beide Konzerne teilen ebenso die Eigenheit, dass sie den größten Konkurrenten in ihrem jeweiligen Marktsegment akquiriert haben, um die eigene Vormachtstellung sicherzustellen. Als zweitgrößte Suchmaschine nach Google agiert die Videoplattform YouTube, mittlerweile Bestandteil des Google-Mutterkonzerns Alphabet. Als soziales Netzwerk mit größter Reichweite nach Facebook firmte eigenständig Instagram, bevor es ganzheitlich vom Facebook-Mutterkonzern übernommen wurde.
17 Eigene Grafik, Daten siehe Desjardins (2016), URL.
Google 41 %
Facebook 17 %
Microsoft 4 %
Yahoo 3 %
Twitter 2 %
Verizon 2 %
Amazon 1 %
Linkedin 1 %
Yelp 1 %
Snapchat 0,5 %
Andere
28 %
Anteil an bezahlter Online-Werbung 2016
Facebook eignet sich weiters, um die Rasanz darzustellen, mit der sich technologische Neuerungen auszubreiten verstehen. Das Unternehmen wurde im Jahr 2004 gegründet. Es benötigte anfänglich sieben Jahre, bis es 500 Millionen Nutzer zählen konnte, die mindestens einmal monatlich auf den Dienst zugriffen. Der Sprung von 500 Millionen Nutzer auf über eine Milliarde Nutzer dauerte dann hingegen nur noch drei weitere Jahre. Benötigte es also zehn Jahre bis das Unternehmen eine Milliarde Nutzer gewinnen konnte, wurde die Schwelle von einer auf zwei Milliarden Nutzer in ungefähr vier Jahren geschafft.
Es handelt sich dabei um einen empirischen Beleg des hypothetischen Netzwerkeffekts. Dieser besagt, dass die Anzahl der Nutzer und die Relevanz einer Technologie exponentiell wachsen, je mehr Leute sie verwenden.
Im Jahr 2013, als die eine Milliarde monatlicher Nutzer bei Facebook statistisch erreicht wurde, verbuchte das Unternehmen dann einen Börsenwert von ungefähr 100 Milliarden $. Es rechnet sich aliquot, dass einem Nutzer ein Wert von ca. 100 $ zugemessen werden konnte. Im Jahr 2017, als Facebook schließlich über zwei Milliarden Nutzer zählte, schaffte es das Unternehmen, die Kapitalisierung über die Schwelle von 500 Milliarden $ zu heben. Das bedeutet rückschließend, dass nicht nur die Anzahl der Nutzer signifikant zunahm, sondern dass ebenso der Wert, den diese Nutzer individuell darstellen, überproportional gesteigert werden konnte. Ein Nutzer erfasste nunmehr einen Wert von 250 $ in Relation zur Unternehmenskapitalisierung.
Da die Anwendung weiterhin kostenlos blieb, lässt sich der Wertgewinn darauf zurückführen, dass intensivere und smartere Analyseinstrumentarien eingesetzt werden, um die Vorlieben der Nutzer zu entschlüsseln und sie als Adressaten zielgerichteter Werbebotschaften zu segmentieren. Denn die Möglichkeit, individuell passende Werbung zu platzieren, bildet aktuell die Haupteinnahmequelle des Unternehmens. Vor diesem Verständnishintergrund macht es objektiv mehr Sinn, bei registrierten Personen nicht neutral von Nutzern oder gar egalitär von Mitgliedern eines Netzwerks zu sprechen, sondern sie als Produkte oder Absatzmärkte zu betrachten, die Werbekunden angeboten werden. Daten, die Nutzer generieren, werden hauptsächlich dafür genutzt, Sozial- und Konsumverhalten im Detail zu bestimmen und an Abnehmer zu veräußern, die Werbebotschaften präzise platzieren wollen. Außerdem wird in den westlichen Demokratien spätestens seit den Erfahrungen mit der amerikanischen Präsidentschaftswahl im Jahr 2016 allgemeiner verstanden, welche manipulative und propagandistische Sicherheitsrisiken das Netzwerk impliziert und wie schädlich sich diese auf den öffentlichen Diskurs auswirken können. Destruktive Statements erhalten statistisch mehr Aufmerksamkeit und Reaktion als gegenteilige Richtigstellungen.
Eine weitere Verhältnismäßigkeit sei in diesem Kontext auch nochmals bedacht. Der eigentliche Zweck von Technologie besteht, wie bereits anfänglich dargestellt, genau in der Entlastung oder im Ersatz menschlicher Arbeitskraft durch Mechanik. Das zeigt sich selbst bei der eingehenden Betrachtung einflussreicher IT-Konzerne. Ihre Geschäftstätigkeit basiert auf Produktivität mittels moderner Technologie. Nochmals soll das Jahr 2016 als Vergleichswert dienen: Wäre Facebook ein deutsches Unternehmen, dann würde es in Anbetracht des erzielten Umsatzes nur den 22.-größten börsennotierten Konzern des Landes repräsentieren. Das Unternehmen würde hingegen bei Weitem das größte EBIT erwirtschaften und vor allem die höchste Umsatzrendite erwirken. Wird zusätzlich die Anzahl der Beschäftigten als Definitionsmerkmal gewählt, würde Facebook hingegen gerade einmal Rang 37 einnehmen. Folglich gilt für Facebook, wenn es mit deutschen Aktienkonzernen gereiht werden würde – EBIT18: Nr. 1, ROI19: Nr. 1, Umsatz: Nr. 22, Anzahl der Beschäftigten: Nr. 37. Selbst wenn also Europa zu einem attraktiven Binnenmarkt bei der Gründung kommender IT-Titanen werden könnte, ein Jobmotor wäre damit nicht verbunden. Die dargestellten Verhältnismäßigkeiten liefern einen eindrücklichen Beleg dafür, dass moderne Technologien zwar einen Wohlstands-, aber keinen Jobgenerator erfassen.
ROI steht für den Return on Investment. Dieser Kennwert setzt den erzielten Gewinn in Vergleich zum eingesetzten Kapital. Wie viel Vermögen wurde investiert, um den Gewinn zu erzielen? EBIT bildet das Akronym für den englischen Begriff Earnings Before Interest and Taxes. Es wird also der Verlust bzw. Profit errechnet, bevor dieser um den Steuerbetrag oder durch Zinsen vermindert wird.
Dass sich intelligente technische Lösungen sehr schnell verbreiten und ihre Massentauglichkeit rasant ansteigt, belegt schon die historische Erfahrung. Neu und historisch einzigartig erscheint der gegenwärtige Erfahrungshorizont hinsichtlich dieser konkreten Verständnisgrundlage nicht. Die Vergangenheit kennt diesbezüglich vergleichbare Vorgänge. Wie unterschiedliche Geräte und Innovationen rasant zum Bestandteil des gewöhnlichen Alltags werden, lässt sich dokumentarisch nachvollziehen.
Als Referenzwert gelten in Folge immer Sprünge in Intervallen von zehn Jahren und die Prozentsätze beziehen sich auf alle Haushalte in den USA.
• Im Jahr 2005 nutzten 5 % aller amerikanischen Haushalte soziale Medien. Zehn Jahre später waren es dann bereits fast zwei Drittel aller Haushalte.
• Im Jahr 1917 besaßen 17 % aller Haushalte in den USA ein eigenes Automobil. Ein Jahrzehnt später war es bereits über die Hälfte aller Haushalte.
• Im Jahr 1925 fand sich in jedem zehnten Haushalt ein Radio. Genau zehn Jahre später hatten bereits nahezu zwei von drei Haushalten ein solches Gerät.
• Im Jahr 1934 zählte ein Fünftel aller Haushalte einen Kühlschrank zum Inventar. Wiederum zehn Jahre später war es bereits die Hälfte aller Haushalte.
• Die Mikrowelle hingegen fand sich im Jahr 1982 in gerade mal 20 % aller Haushalte. Zehn Jahre später dann bereits in über 82 % aller Haushalte.
Abbildung 4: Verbreitung neuer Technologien innerhalb eines Jahrzehnts. Es ist statistisch belegt, dass wegweisende und praktische Technik schnell Akzeptanz erfährt. Der Reserviertheit und Vorsicht bezüglich des technologischen Fortschritts lassen sich positive Folgewirkungen entgegenstellen, die bereits mit der flächendeckenden Akzeptanz von Haushaltsgeräten in der Vergangenheit gemacht wurden. Die Inbetriebnahme praktischer Gerätschaften im Haushalt initiierte eine ganze Reihe progressiver Kettenreaktionen. Signifikant ist die wöchentliche Arbeitszeit gesunken, die es schon in einem Zweipersonenhaushalt dafür braucht, Wäsche zu waschen, Essen zuzubereiten und aufzuräumen. Im Jahr 1900 wurden noch 68 Stunden pro Woche für diese Aufgaben aufgewendet.
Dieser Aufwand konnte bis zum heutigen Tag merklich reduziert werden. Dieselben Aufgaben im gleichen Haushalt benötigen dank der Erfindung und Verbreitung der Waschmaschine, des Kühlschranks, des Geschirrspülers, des Staubsaugers und anderer Haushaltsgeräte derzeit nur noch 15 Stunden und 24 Minuten.
Die Reduktion erwirkte in Folge gesellschaftliche Dynamik. Technik ließ die praktischen Voraussetzungen dafür entstehen, dass über herrschende Ungleichheit und vorhandene Benachteiligung zwischen den Geschlechtern diskutiert wird. Die unumgängliche Aufgabe, standardisierte und repetitive Arbeiten auszuführen, reduziert sich aufgrund der Automatisierung auch in diesem Zusammenhang. Tradierte Rollenbilder kamen als Folgewirkung ins Wanken. Die freigesetzten Kapazitäten werden erfüllenderen und produktiveren Tätigkeiten gewidmet.
Noch eine weitere Analogie lässt sich auf die Jetztzeit übertragen. Die Ausbreitung der neuen Technik hatte Konsequenzen für andere Marktteilnehmer. Der Kühlschrank veränderte die Konsumgewohnheiten hinsichtlich der Lebensmittelproduktion und des Verpackungswesens.
Praktische Kleidung musste von nun an waschmaschinentauglich sein und auch mundgeblasene Gläser erwiesen sich plötzlich als Unikate, die sich nun nur noch äußerst aufwendig reinigen ließen. Märkte und Gesellschaften erlebten einen tiefgreifenden Wandel, veranlasst mittels Einführung neuer Technologie. Immer kommt es zu Rückkoppelungseffekten.
Es existiert Veranlassung zur Annahme, dass in der anstehenden Zukunft noch weniger Hausarbeit als aktuell nötig manuell zu erledigen sein wird. Ein britisches Start-up-Unternehmen hat beispielsweise in Zusammenarbeit mit der Stanford University und der Carnegie Mellow University einen agilen Küchenroboter auf den Markt gebracht. Die Roboterarme können Abläufe und Handhabungen eines Sternekochs exakt replizieren. Der Küchenroboter kocht im Bedarfsfall selbstständig und präzise nach Rezept. Besitzer können aus einer Vielzahl von Gerichten wählen, die für sie zubereitet werden. Ein japanisches Start-up hat des Weiteren einen kleinen Roboter vorgestellt, der es versteht, Wäsche zu falten und in Schränke zu legen.
Die objektive Notwendigkeit, warum sich klassische Industriebetriebe wandeln müssen, liegt jedenfalls in der Tatsache einer umfassenden Transformation der sozio-ökonomischen Struktur der Gesellschaften begründet. Der klassische Industriekapitalismus metamorphosiert in die Wissensgesellschaft. Wie sich diese Transformation vollzieht und was sie bedeutet, wird in Folge beschrieben.
Ein weiterer Aspekt liegt in der Tatsache begründet, dass Phasen des Umbruchs immer ein Zeitfenster öffnen, um Neuansätze persönlich zu wagen.
Es kristallisieren sich ungeahnte Möglichkeiten heraus, um angedachte Projekte zu verwirklichen, Unternehmen zu gründen, Visionen umzusetzen, andere Denkansätze zu riskieren. Es handelt sich um intensive Phasen des kollektiven Experiments einer Gesellschaft, die gestalterische Fähigkeiten fordern. Der Anbruch einer neuen Epoche stattet Einzelne mit überdurchschnittlichen Einflussmöglichkeiten aus, sich an Konzepten couragiert zu versuchen. Es herrscht Aufbruchsstimmung, eine Zeit, die von Pionieren und Visionären angeführt wird, um die sich abzeichnenden Entwicklungen als eigene Möglichkeiten zu begreifen. Exakt solche Gestaltungsmöglichkeiten treten aktuell auf.
2.2 Strukturwandel der Volkswirtschaft
Eine nachhaltige Transformation, die das letzte Jahrhundert verantwortet, besteht im fortgesetzten Strukturwandel der Volkswirtschaft. Auf dieser Vorgeschichte baut auch der Trend der digitalen Transformation auf und der geschehende Wandel lässt sich in eine historische Perspektive setzen.
Zur Rekapitulation: Das volkswirtschaftlich produzierte Vermögen lässt sich allgemein drei unterschiedlichen Sektoren zurechnen: Jeder Wert, der entsteht, wird entweder in der Landwirtschaft, der Industrie oder dem Dienstleistungssektor erzeugt. Das letzte Jahrhundert zeigt in diesem Zusammenhang tendenziöse Brüche, die zuerst zur Herausbildung der westlichen Industriegesellschaften führten und nunmehr die sogenannte Wissensgesellschaft hervorbringt.
Für alle Industrienationen gilt, dass der relative Anteil, den die Landwirtschaft zur allgemeinen Wertschöpfung beiträgt, über das letzte Jahrhundert markant gesunken ist und weiterhin kontinuierlich fällt. Auch der Anteil an Personen, die im Landwirtschaftssektor beschäftigt sind, reduzierte sich simultan während des Verlaufs der letzten Jahrzehnte. Noch markanter zeigt sich die Entwicklung, wenn beispielsweise der Zeitraum ab Mitte des 19. Jahrhunderts betrachtet wird, wie die Grafik für die USA unten anzeigt.
Wissensgesellschaft
Abbildung 5: Sektorale Wertschöpfung USA23
Die Agrarökonomie formte über weite Strecken der menschlichen Kulturgeschichte das einzig gängige Zivilisationsmodell. Diese Voraussetzung änderte sich erst durch die Konsequenzen der industriellen Revolution, als die Dampfmaschine ihre Wirkung zu entfalten begann und Produktionsverfahren sich mechanisierten. Volkswirtschaften wurden rapide vermögender.
Für Einzelpersonen bedeutete die Erneuerung, dass landwirtschaftliche Tätigkeiten durch Erwerbsarbeit in Industriebetrieben ersetzt wurde. Ländliche Regionen wurden massenhaft verlassen, um in den wachsenden Metropolen nach Anstellungen in Fabriken zu suchen. Vor allem die europäischen Gesellschaften erlebten im Rahmen dieses Umbruchs eine Modernisierung und Prosperität, wie sie zuvor schlicht unbekannt waren. Mit den neuen Reichtümern setzte auch ein neues politisches Bewusstsein ein. Nicht nur verlangte das aufstrebende Bürgertum, dass der Adel seine weltliche Macht teilt. Auch begann sich die Arbeiterschaft zu gruppieren, forderte gerechtere Verteilung und Teilhabe am produzierten Vermögen. Der technologischen Revolution durch die Dampfmaschine folgte der gesellschaftliche Umbruch und die politische Emanzipation.
Die Industriegesellschaft wiederum wandelte sich in kurzer Zeit weiter zur Dienstleistungsgesellschaft. Die Grafiken oben lassen auch diese Transformation nachvollziehen.
Der volkswirtschaftliche Strukturwandel, der sich im Lauf des letzten Jahrhunderts vollzogen hat, bewirkte nachvollziehbar tiefgreifende und substanzielle Veränderungen. Entscheidend dabei: Der Übergang von der Agrargesellschaft zur Industriegesellschaft begrenzte sich nicht auf Wertsteigerungen, sondern verantwortete vielfältige Implikationen – seien sie politischer, ökonomischer, sozialer, kultureller, gesellschaftlicher oder ideeller Natur.
Die Agrargesellschaft verlangte andere Organisationsprinzipien, andere Konzepte bezüglich Hierarchie, andere Formen der Kooperation, andere Arbeitsrhythmen als die Industriegesellschaft. Sie basierte auf anderen politischen Partizipationsformen, anderen Technologien, anderen Innovationen, anderer Arbeitsintensität, anderen Lebensverhältnissen, anderen Menschenbildern, stellte andere Produktionsfaktoren in den Vordergrund im Vergleich zur Industriegesellschaft. Aus Perspektive der Industriegesellschaft erscheint die Verfasstheit der Agrargesellschaft vormodern, ineffizient, kleinteilig, unproduktiv, technologisch rückständig, ungerecht, vergleichsweise arbeitsintensiv und ertragsarm. Die Transformation zur Industriegesellschaft vollzog also einen nachhaltigen Produktivitätsschub, sie modernisierte die Ökonomie fundamental, änderte die gängigen Formen des sozialen Zusammenlebens und allgemeine Vorstellungen über den Arbeitsbegriff.
Wenn nun die Industriegesellschaft selbst überholt wird, wenn sich die operativen Organisationsprinzipien erneuern, dann lässt sich antizipieren, dass mit vergleichbarer Distanz und ähnlichem Verständnis wie die Industriegesellschaft auf die Agrargesellschaft blickt, zukünftig auf die Industriegesellschaft selbst geblickt wird.
Andere Tendenzen werden jedoch aller Voraussicht nach überdauern und sich sogar beschleunigen: Der gesellschaftliche Wohlstand wird zweifellos wachsen, Innovationszyklen sich weiter beschleunigen. Dabei gilt es zu beachten, dass technologischer Fortschritt nicht gleichzeitig politischen und sozialen Fortschritt verursacht. Dieser muss eigens erstritten und erkämpft werden. Ein Autoritarismus unter modernen technologischen Bedingungen ist denkbar. Es bildet eine demokratische Aufgabe, ihn zu unterbinden.
Der Anteil manueller Arbeit an der volkswirtschaftlichen Wertschöpfung wird aller Voraussicht nach weiterhin fallen. Stetig werden mehr Tätigkeiten von Menschen auf Maschinen übertragen. Das Zusammenwirken zwischen Mensch und Maschine – die sogenannte Mensch-Maschinen-Interaktion – wird sich intensivieren und in Bereiche vordringen, die bisher davon ausgenommen waren. So operieren die funktionellen Grundlagen des neuen Zeitalters.
Und doch sei daran erinnert: Bisher hat jede Form der Übertragung manueller Tätigkeit auf maschinelle Abläufe zu größerer Produktivität geführt, den Menschen Gestaltungsspielräume dafür geöffnet, sich erfüllenden Tätigkeiten zu widmen. Die Gesetzmäßigkeit des Wandels hat retrospektiv vor allem dafür gesorgt, dass Gesellschaften sich permanent an neue Rahmenbedingungen adaptierten und substanziell reicher wurden. Manuelle Tätigkeiten in der Landwirtschaft wiesen eine merklich geringere Produktivität aus als Berufe, die mit industrieller Fertigung verknüpft waren. Außerdem wurde auch die landwirtschaftliche Produktion weitreichend automatisiert, durch den Einsatz besserer Technologie wurden die Ernteerträge massiv erhöht.
Auch in diesem Bereich hat Technologie die Produktivität verbessert. Doch um Produktivität zu messen, ist ein Wert nötig, der sich bestimmen lässt.
Wie entsteht dieser Wert unter den Bedingungen der Marktwirtschaft grundsätzlich und warum sind herkömmliche Erklärungsansätze nur noch bedingt geeignet, Aufschlüsse darüber zu geben?
2.3 Wie wird Wert geschaffen?
Jedes Unternehmen repräsentiert einen integrativen Bestandteil der größeren Umwelt. Jedes Unternehmen ist in soziale Zusammenhänge eingebettet. Keines agiert in Isolation oder gedeiht durch Abkapselung.
Gravierende Veränderungen, die eine Gesellschaft erfassen, wirken folglich direkt auf Organisationen. Es verlangt nach angemessenen Reaktionen, Verständnis der Vorgänge und strategischen Antworten, wie tiefgreifendem Wandel begegnet werden kann.
Mensch-Maschinen-Interaktion
Von der Industriegesellschaft zur Wissensgesellschaft
Übungen finden Sie auf Ihrer Lernplattform.
Soziale Zusammenhänge in einem Unternehmen
Unternehmen sind permanent aufgefordert, gestaltend auf die Zukunft und die Gesellschaft einzuwirken. Nur diese Voraussetzung ermöglicht es, Erwartungshaltungen seitens der Kunden zu verstehen und zeitgemäß zu bedienen.
Die Gegenwart erfasst in diesem Zusammenhang eine Ära des Umbruchs.
Die digitale Transformation verändert die Funktionslogik von Märkten und genutzten Kommunikationskanälen radikal. Neues entsteht, die Fortdauer des Herkömmlichen darf bezweifelt werden. Wir bauen eine Zukunft, die es zu formen lohnt.
Was darf über die Zukunft behauptet werden? Bereits auf Basis der gegenwärtigen Entwicklungen lässt sich ermessen, dass perspektivisch andere operative Prinzipien wirken werden, als das bisher in der modernen Marktwirtschaft der Fall war.
Um grundsätzlich anzusetzen:
Der Begriff Markt bezeichnet in einer knappen und schlichten Definition nichts anderes als das Zusammentreffen von Angebot und Nachfrage. Er bildet einen institutionellen Mechanismus, der dazu dient, den Preis eines Produkts oder einer Dienstleistung zu eruieren.
Dieser Funktion bedarf es, weil im Regelfall konkurrierende Ansprüche über begrenzte Güter in Abgleich gebracht werden müssen. Üblicherweise verhandelt der Markt Knappheiten. Das bedeutet: Es findet sich also weniger Angebot als vorhandene Wünsche nach Ressourcen, Gütern oder Dienstleistungen. Es braucht demnach allgemein akzeptierte Prinzipien, die festlegen, wessen Anspruch sich im Zweifelsfall gegenüber anderen Ansprüchen legitim durchsetzen kann.
Die Festlegung von Preisen bildet diesbezüglich ein wirksames Instrument.
Nur jene, die willens sind, einen gewissen Preis für einen gewünschten Gegenstand zu bezahlen, erwirken Nutzrechte oder Besitzanspruch darauf.
Preisgestaltungen manifestieren also ein wirkungsvolles Prinzip, um festzustellen, wie Angebot und Nachfrage miteinander in Balance gebracht werden können.
Der Markt dient als Wissensinstanz, der allgemein darüber informiert, welche Bedürfnisse kollektiv vorhanden sind, wie viele Rohstoffe für die Bedürfnisbefriedigung verwendet werden sollen, wie sich Investitionen sinnvoll - weil gewinnbringend – dirigieren lassen, woran profitabel gearbeitet werden kann.
Der Markt produziert also Information. Er dient der Wertschöpfung und initiiert Wandel.
In unmittelbarem Zusammenhang steht, wie selbst traditionelle Erklärungen darüber, wie der Markt Wert entstehen lässt, erweitert werden müssten:
Der schottische Philosoph Adam Smith lieferte im 18. Jahrhundert eine bedeutsame Definition dessen, was als Wert einer Ware zu begreifen sei. Er unterscheidet zwischen zwei Wertbegriffen, die einem Gegenstand zukommen: Jedes Produkt trägt einen Gebrauchswert und einen Tauschwert an sich.
Wie im Begriff angedeutet, meint der Gebrauchswert den praktischen Nutzen eines Gegenstands. Eine Schaufel eignet sich dafür, ein Loch zu graben.
Ein Bleistift lässt sich dafür gebrauchen, entweder ein Bild zu malen oder Notizen zu memorieren.
Der Tauschwert fügt dem Gegenstand hingegen eine zweite Dimension zu, die erst in Zusammenhang mit funktionierenden Märkten relevant erscheint. Ein Gegenstand kann nämlich gegen einen anderen getauscht werden. Die besagte Schaufel ließe sich gegen eine gewisse Anzahl an Bleistiften eintauschen. Alle Gegenstände umfassen also Werte, die miteinander in Abgleich gesetzt werden können.
Adam Smith lieferte auch die Anweisung, wie sich die Werte kalkulieren und vergleichen lassen. Er bestimmte nützliche Indikatoren.
Die Arbeit ist [...] der wahre Maßstab des Tauschwertes aller Waren. [...]
Sie [die Güter, Anm.] enthalten den Wert einer bestimmten Quantität Arbeit, welche man gegen etwas vertauscht, wovon man zurzeit glaubt, dass es den Wert einer gleichen Quantität enthalte.
Adam Smith analysierte also, dass sich der eigentliche Vergleichswert bei Gegenständen danach bemisst, wie viel Arbeit in ihre Herstellung investiert wurde. Gleichwertig wären zwei Waren dann, wenn eine entsprechende Menge an manueller Arbeit hätte aufgewendet werden müssen, um sie herzustellen.
Die Wissenschaft spricht in diesem Zusammenhang von der Arbeitswerttheorie. Jedes Gut erschließt ein gewisses Ausmaß an Arbeit, die gesellschaftlich für die Produktion aufgewendet und miteinander in Austausch gebracht wird.
Die Theorie zusammengefasst: Was wir tauschen, wenn wir Waren tauschen, wäre die Arbeit, die ihre Herstellung benötigt. Die aufgewendete Arbeit bildet den Richtwert, an dem wir uns orientieren.
Selten findet diejenige, die gerade eine Schaufel im Überfluss hat, komplikationslos denjenigen, der exakt dieses Werkzeug gegen überschüssige Bleistifte tauschen möchte. Individuelle Bedürfnisbefriedigung unter diesen komplizierten Vorzeichen wäre mühsam und ineffizient. Wie behelfen wir uns? Um Größenordnungen in Einklang zu bringen und da der direkte Austausch zwischen vorhandenen Gütern meist weder sinnvoll noch durchführbar wäre, nutzen Gesellschaften Geld, um Werte abzubilden.
Durch Geldwerte lässt sich Wert speichern und universell in den unterschiedlichen Konstellationen verrechnen. Folglich muss ich mich nicht darum kümmern, mein eigenes Gut gegen ein gewünschtes Produkt zu tauschen. Vielmehr setze ich es an Interessenten ab, erhalte Geldmittel und kann diese, gemäß eigener Bedürfnisse, weiterverwenden. Der Geldkreislauf wirkt. Die überflüssige Schaufel wird einfach verkauft und die Barmittel genutzt, um Bleistifte zu erwerben.
Was wirkt also entscheidend? Am Markt trifft Angebot auf Nachfrage. Viele individuelle Handlungen erlauben es festzustellen, welchen Wert ein Produkt oder eine Dienstleistung haben kann, damit genug Nachfrage entsteht, um gewinnbringend zu produzieren. Es wird ein soziales System institutionalisiert, das geleisteten Arbeitsaufwand miteinander korrespondieren lässt und in Abgleich bringt.
Was führt nun aber dazu, dass Werte an sich entstehen? Was setzt Wert voraus?
Drei unabhängige Produktionsfaktoren werden laut klassischer Volkswirtschaftslehre benötigt, um Wert produzieren zu können:
• Boden
• Kapital
• Arbeit
Um Wert zu schaffen, kann beispielsweise der Boden bestellt, dessen Früchte geerntet oder vorhandene Ressourcen extrahiert werden.
Es lässt sich aber auch Kapital investieren, damit Unternehmungen und Vorhaben finanziert werden. Investitionen leitet selbstverständlich die Erwartungshaltung, dass sich das investierte Kapital mehrt.
Schließlich, als dritter Faktor, wirkt die manuelle Arbeit selbst. Durch eigene Tätigkeiten entsteht Wert. Vorhandenes wird in Form gebracht, gewandelt, nutzbar gemacht oder Neues wird geschaffen.
Das Vermögen einer Gesellschaft wächst, wenn diese drei Prinzipien sinnvoll und ertragreich zur Anwendung gebracht werden. Gegenwärtig werden zu den drei klassischen Faktoren noch weitere hinzuaddiert. Dabei kann es sich beispielsweise um den Faktor Umwelt oder Wissen handeln. Was interessanterweise im gängigen Verständnis (noch) keinen Produktionsfaktor an sich darstellt, wäre die Komponente der Informationstechnologie selbst. Als Produktionsfaktor gilt dieser Auffassung nach beispielsweise die Programmierleistung, um einen funktionstüchtigen Algorithmus zu schaffen. Ein erweiterter Arbeitsbegriff müsste nun die maschinelle Arbeit so weit umgrenzen, dass auch das autonome Wirken von Technologie als Arbeit an sich erkannt wird. Ein erweiterter Arbeitsbegriff löst sich faktisch von einer menschlichen Komponente.
Ein anderer Zugang wäre, Kapital als wesentlichen Produktionsfaktor zu berücksichtigen, wenn beispielsweise ein neues Rechenzentrum aufgebaut wird. Auch dieser Zugang definiert Technologie nicht als Produktionsfaktor an sich, sondern bewertet die Investitionen, die getätigt werden.
Im Hinblick auf die Produktionsfaktoren gilt für das Management die strategische Aufgabe, sie in ertragreichem und gewinnträchtigem Umfang auf die Produktion von Wert in einer Organisation anzuwenden. Bei der Informationstechnologie gilt also die Frage, welche Prozesse durch ihren Einsatz effizient beschleunigt, verbessert, mechanisiert oder entwickelt werden können, um Wert zu schaffen.
Boden, Kapital und Arbeit bilden die klassischen drei Produktionsfaktoren, die genutzt werden, damit Wert entsteht. Eine Schwierigkeit dieser Auffassung liegt darin, dass sie Technologie nicht als eigenständigen Faktor erachtet, der selbstständig Wohlstand schafft.
Es lässt sich erkennen, wie schwierig sich gegenwärtig die Voraussetzungen von Wertschöpfung beschreiben lassen, wenn der Faktor Technologie aus der Gleichung kategorisch herausgenommen wird. Digitale Transformation bezeichnet in Wahrheit genau das: Es wird die Produktivität erhöht, indem der Produktionsfaktor Technologie gehoben wird. Insofern werden Organisationen und Unternehmen einen direkten Vorteil hinsichtlich erzielter Produktivität gegenüber der Konkurrenz erfahren, wenn sie diesen Faktor zu heben verstehen und die Mitbewerber nicht.
Im klassischen Verständnis repräsentiert der Einsatz von Technologie vor allem in Industriebetrieben eine Investitionsentscheidung. Welche Maschine würde es erlauben, am profitträchtigsten zu produzieren oder Prozesse kosteneffizient zu automatisieren? Technologie transformiert sich zum strategischen Investment.
Dazu kommt natürlich die Komponente der erbrachten Arbeit, die für den Aufbau und den Betrieb von IT-Prozessen benötigt wird.
Was aber in der Gleichung fehlt, sind faktische Werte, die durch Algorithmen selbstständig geschaffen werden. Damit verfassen sich die Fundamente der Volkswirtschaft neu. Die Grundstruktur der Wertschöpfung reformiert sich.
Sie vollzieht einen Strukturwandel, der sich historisch und soziologisch als Entwicklungsstufen der industriellen Revolution konzeptualisieren lässt.
2.4 Die Entwicklungsschritte der industriellen Revolution
Was neue Technologien zweifellos verantworten: Eine beschleunigte Innovationsspirale bzw. Möglichkeiten der Kostenoptimierung und Produktivitätssteigerungen aufgrund des Einsatzes von Technologie in Arbeitsabläufen, die bisher davon ausgenommen waren.
Als Industriekapitalismus lässt sich, wie angedeutet, historisch die Epoche abgrenzen, deren Wohlstand auf arbeitsteiliger, industrieller Produktion gründet. Anders als in der Agrargesellschaft, einer Ära, in der Boden der bedeutsamste Produktionsfaktor war, basiert die Industriegesellschaft vermehrt auf dem Einsatz der Produktionsfaktoren Arbeit und Kapital. Die Industriegesellschaft nutzt Technologie vorrangig dafür, um industrielle Produktionsverfahren zu automatisieren und zu optimieren.
Gerade manuelle Tätigkeiten in industriellen Fertigungsprozessen zeigen oft einen hohen Grad an Präzision, Normierung, Standardisierung und sich wiederholenden Mustern. Diese Eigenarten ermöglichten es in der jüngsten Vergangenheit, manuelle Tätigkeit durch maschinelle Arbeit zu ersetzen. Die empirische Erfahrung erlaubt es, auch zukünftige Entwicklungen anderer Bereiche vorwegzunehmen.
Manuelle Tätigkeiten und maschinelle Arbeit
Waren bisher mehrheitlich Berufe in Zusammenhang mit klassischen Fertigungsprozessen vom Risiko der Automatisierung bedroht, zeigt sich mittlerweile, dass auch die Tätigkeiten, die zur Administration und Organisation dieser Prozesse notwendig sind, zunehmend technisiert werden. Es wird der Fortschritt und die Vehemenz technologischer Entwicklung bewiesen. Administrative Tätigkeiten werden schon seit einigen Jahrzehnten durch die elektronische Datenverarbeitung unterstützt, um relevante Informationen präziser und schneller zu sammeln, zu administrieren, zu analysieren und zu kategorisieren. Von dieser Grundlage ausgehend, lässt sich nun ein ansteigendes Niveau weiterer Automatisierung antizipieren. Die erwartbaren Durchbrüche hinsichtlich Künstlicher Intelligenz berechtigen zu dieser Erwartungshaltung.
Beide einstigen Entwicklungen, die zunehmende Automatisierung in Fertigungsprozessen und der Einsatz der elektronischen Datenverarbeitung, werden oft als die III. industrielle Revolution bezeichnet. Wie kommt es dazu?
Unter der industriellen Revolution wird jenes Phänomen verstanden, das einsetzte, als die Dampfmaschine plötzlich gängige Produktionsverfahren grundlegend zu ändern begann. Manuelle Tätigkeiten wurden nun durch die Kraft des Wasserdampfs mechanisiert. Mit diesem Verfahren begann symbolhaft das Industriezeitalter im ausgehenden 18. Jahrhundert. Das Grundprinzip, Wasserdampf zu nutzen, hat sich im Laufe der letzten Jahrhunderte fundamental weiterentwickelt. Auch wenn zweifellos die Nachwirkungen der industriellen Revolution fortwirken und die politischen und strukturellen Begleiterscheinungen überdauern, lässt sich schlicht widerlegen, dass aktuell noch immer vor allem Wasser- und Dampfkraft die wesentlichen Antriebe der industriellen Prozesse sind.
Um die markanten Unterschiede zum Ausdruck zu bringen, wird die Abfolge und Steigerung der industriellen Revolution zum Zweck des besseren Verständnisses in Epochen untergliedert, gemäß der evolutionären Technik, die zum Einsatz kommt. Verfahren gewinnen stetig an Komplexität, Organisationen an Produktivität. Die Übergänge zwischen den Zeitabschnitten sind eindrücklich auszumachen, weil die Nützlichkeit gewisser Technologien ausgedient erscheint. Wer es versteht, bessere und fortschrittlichere Produktionsprozesse sinnvoll zum Einsatz zu bringen, wird im Regelfall über die Fortentwicklung des Marktes entscheidend mitbestimmen. Folgende Unterteilung kann getroffen werden:
• Mit dem Prädikat I. industrielle Revolution wird jene Phase bezeichnet, als Wasser- und Dampfkraft die Arbeitsprozesse organisierten.
• Die II. industrielle Revolution setzt mit der Elektrifizierung von Produktionsstätten Ende des 19. Jahrhunderts an. In Folge werden beispielsweise die Arbeitsabläufe durch die Einführung des Fließbands organisiert.
• Die III. industrielle Revolution bedeutet schließlich, dass ab den 1980er-Jahren der Personal Computer zum Einsatz kommt und industrielle Fertigung zunehmend automatisiert wird. In diesen Abschnitt fällt auch die Zeitenwende, in der das World Wide Web erstmals online geschaltet wird.
• Die IV. industrielle Revolution basiert, anders als die Entwicklungen davor, auf einem Bündel technologischer Entwicklungen.
Abbildung 6: Entwicklungsschritte der industriellen Revolution26
Der Beginn der IV. industriellen Revolution wird durch einen Katalog neuer Technologien initiiert. Es wirkt kein einzig entscheidendes Paradigma, sondern ein Fächer an unterschiedlichen Entwicklungen modernisiert die Grundfesten industrieller Produktionsverfahren. Breite und Facettenreichtum der technologischen Neuheiten, die zukünftig Anwendung finden, versprechen eine tiefgreifende Erneuerung der Produktionslogik – und sind den Umbrüchen und Konsequenzen der I. industriellen Revolution mindestens ebenbürtig.
Bezüglich der entscheidenden Konsequenzen der industriellen Revolution sei nochmals angemerkt, dass Fortschritt nicht nur der Produktivitätssteigerung zuträglich war, sondern soziale Implikationen verantwortete. Die Substanz des sozialen Zusammenlebens wurde verändert.
Wenn die Massivität des geschehenden Wandels verdeutlicht wird und in Folge die umfassenden Konsequenzen ermessen werden, dann lässt sich feststellen, dass sich kein gradueller Umbau der industriellen Revolution vollzieht. Vielmehr geschieht eine Epochenwende, die Arbeitsprozesse, Fertigungsverfahren und soziale Kräfteverhältnisse vollkommen neu gruppieren wird. Organisationen sehen sich mit einem Zusammenwirken von externen Faktoren konfrontiert, auf die strategische Antworten gefunden werden sollten. Die industriellen Mutationen, die gegenwärtig kollektiv zu beobachten sind, erfordern es zumindest, Geschäftsmodelle radikal neu zu denken, gehen aber weit darüber hinaus.
Vor allem auf dieser Grundlage lässt sich verstehen, warum sich für die Beschreibung des kommenden Zeitalters der Begriff Wissensgesellschaft besser eignet als der Ansatz, einfach eine nächste Stufe der industriellen Revolution erkennen zu wollen. Zu tiefgreifend und umfassend wirken die anstehenden Transformationen.
Wissensgesellschaft
3.1 Konvergenz – eine Begriffsklärung
Die Wirkweise von Technologie muss neu überdacht werden. Diese Hypothese bedarf einer Begründung. Wie kommt es zu der Einschätzung? Worin besteht die Veränderung? Welche Technologien verantworten die anstehenden Transformationen? Darauf wird dieses Kapitel Antworten geben.
Das industrielle Zeitalter unterscheidet sich von den vorangegangenen Epochen durch Produktionsverfahren, die es zum Einsatz brachte. Die Ära setzt damit an, Wasserdampf zu instrumentalisieren. Zuerst wandelte sich die Technik, dann kam es zu Folgereaktionen. Metropolen entstanden, weil Landarbeiter in Städte zogen, um Arbeit zu suchen. Die Migrationsbewegungen machten den Aufbau einer modernen öffentlichen Verwaltung nötig.
Politische Gruppierungen, die Mitsprache für Bürger forderten, erlebten Zulauf. Im Zentrum der Auseinandersetzung stand nicht nur der Streitpunkt, wie sich Produktionsgewinne gerecht verteilen lassen. Es ging ebenso um die grundsätzliche Frage, wie sich ökonomisches Gewicht in realpolitische Macht umsetzen lässt. Die neue Produktionsweise setzte nicht nur Dynamiken in Fertigungsprozessen frei, vielmehr restrukturierte sie die Grundlagen des sozialen Zusammenlebens. Umfassende Möglichkeiten, gestaltend auf die Gesellschaft einzuwirken, wurden gefordert.
Als die Wirkung von Wasserdampf für Fertigungsprozesse funktionalisiert wurde, entstand ungewollt eine radikal andere Gegenwart. Das wirkt rückblickend durchaus erstaunlich und lässt für die gegenwärtigen Technologietrends merkliche Zäsuren erwarten. Ein ganzes Bündel an neuen Technologien birgt nämlich gerade das Potenzial gravierender Umbrüche. In Folge werden die Bedeutung und Relevanz einiger Technologien bündig dargestellt. Es soll ein Eindruck entstehen, welche Trends bestimmend wirken und was von der Zukunft tendenziell erwartet werden kann. Die digitale Moderne nötigt zur Kompetenz in diesen Sektoren, hier entstehen vielversprechende Wachstumsmärkte.
Der amerikanische Autor und Journalist Kevin Kelly hält demgemäß fest, dass wir in Hinblick auf die Technologie gerade die Phase des Beginns vom Beginn abschließen und nunmehr am Beginn stehen. Er meint: Die letzten 30 Jahre haben einen wunderbaren Ausgangspunkt geschaffen, eine solide Plattform, um wirklich große Dinge zu bauen. Aber was kommt, wird unterschiedlich sein, jenseits und anders. Die Dinge, die wir machen werden, werden ständig und unerbittlich zu etwas anderem werden. Und das Coolste von allem ist noch nicht erfunden.
Diese Feststellung gründet auf einer Potenzialabschätzung digitaler Trends, die sich eng miteinander verwoben zeigen. Technologische Entwicklungen agieren nicht autonom oder eigenständig, sondern Fortschritte interagieren und wirken aufeinander. Folgende Faktoren wären diesbezüglich zu bedenken:
Abbildung 7: Digitale Trends & gesellschaftliche Implikationen. Anfänglich erfolgten die jeweiligen Entwicklungen noch autonom und unabhängig voneinander, mittlerweile verlaufen sie eng verflochten und können
nicht mehr trennscharf begrenzt werden. Fortschritte in einem Bereich wirken auch auf andere. Kommt es zu massiven Sprüngen in einem Sektor, wird der Entwicklungsschritt auch Impulse für andere Zweige verursachen. Resultat wird es jedenfalls sein, dass sämtliche Ausprägungen durch die Vernetzung mittels Internet eine ähnliche Allgegenwart bekommt wie die Elektrizität. Es wird permanent präsent sein, zum unmerklichen Bestandteil des Alltags werden und als Verknüpfung zwischen den unscheinbarsten Gegenständen wirken. Das gilt es zu konventionalisieren.
Entscheidend dabei wäre das Verständnis von technologischen Konvergenzen.
Was bezeichnet dieser Begriff? Er meint das Verständnis, dass nun Technologien miteinander verschmelzen, die sich ursprünglich unabhängig voneinander entwickelt haben.
In erster Linie meint diese Erfahrung, dass gesellschaftliche Bereiche und Märkte einer disruptiven Erfahrung ausgesetzt sind, weil technologische Logiken und Lösungen verstärkt Anwendung finden.
Ein Beispiel wäre dafür das Gesundheitswesen: Hier verschmelzen Technologie und das Gesundheitswesen zusehends, zwei davor getrennte Bereiche konvergieren miteinander. Methoden werden verschränkt. Zum einen zeigt sich die Nützlichkeit von gewissen Technologien erst dann, wenn sie einem sachgemäßen Zweck zugeführt werden (die Technologie der Bilderkennung findet einen angemessenen Verwendungszweck darin, die medizinische Diagnostik zu unterstützen). Zum anderen warten gewisse gesellschaftliche Bereiche darauf, sich durch Technologie zu verbessern (die Kunst der Diagnostik gelingt dann besser, wenn sich Hilfe durch die entsprechenden Technologien wahrnehmen lässt). Ein weiteres, anschauliches Beispiel wäre diesbezüglich die Art und Weise, wie beispielsweise Mobilität organisiert wird.
Der Einsatz von Künstlicher Intelligenz eröffnet die perspektivische Möglichkeit, autonomes Fahren zu erwirken – gleichermaßen gilt, dass höhere Sicherheit, die Verhinderung von Stehzeiten und besseres Ressourcenmanagement es verlangen, dass sich Automobile digitalisieren. Auch hier also die Konvergenz zwischen zwei Bereichen – Verkehr und Technologie – ausgehend von zwei unterschiedlichen Enden.
Werden Konvergenzen realisiert, dann entstehen neue dominante Geschäftsmodelle – es ändert sich also, wie Wertschöpfung in einem gewissen Markt organisiert wird.
Das Phänomen der Konvergenz kam nicht mit der Entwicklung moderner Technologien auf. Marktmechanismen, die verstärkt miteinander verschmelzen – dieses Phänomen ist der Entwicklung der modernen Marktwirtschaft und arbeitsteiligen Gesellschaft durchaus immanent. Ein illustratives und zeitgemäßes Beispiel dafür wäre die zunehmende Finanzialisierung der Wirtschaft. Darunter lässt sich verstehen, dass unterschiedliche Märkte heute den Ertragsmodellen von Finanzinstitutionen folgen, obwohl sie faktisch in ganz anderen Bereichen operieren: Der amerikanische Automobilhersteller Ford macht dementsprechend rund ein Drittel seines operativen Gewinns aufgrund von Leasingmodellen, die von Ford selbst angeboten werden. Die Ertragssituation eines Automobilherstellers hängt also wesentlich auch von der Popularität angebotener Finanzinstrumente ab, die als internalisierte Dienstleistungen angeboten werden.
Die Veränderung unterschiedlicher Märkte durch Technologien hingegen bildet aber deshalb einen fundamentalen Paradigmenwechsel, weil es sich eben nicht nur um eine strategische Erweiterung des Geschäftsmodells handelt oder um die Durchdringung einer dominanten Ertragslogik auch auf andere Bereiche hin, wie es bei der Finanzialisierung geschieht. Vielmehr handelt es sich um eine so tiefgreifende Veränderung kommunikativer, ökonomischer und sozialer Logiken, dass sie nur vor dem Hintergrund der Dynamiken einer eigenen industriellen Revolution erfasst werden kann. Das zeigt sich auch darin, dass allein das Phänomen der Konvergenz in diesem Zusammenhang mit doppelten Bezügen gedacht werden kann. Zum einen also die feststellbare Beobachtung, dass Technologien zusehends in analoge Zusammenhänge und Märkte vordringen.
In zweiter Linie bedeutet Konvergenz im Zusammenspiel mit digitalen Technologien auch, dass nun technologische Entwicklungen verstärkt zusammenwirken, die ursprünglich unabhängige Forschungsfelder bildeten. Der vermehrte Einsatz von Robotics in Produktionsverfahren lässt sich nur deshalb realisieren, weil im Bereich zur Forschung an Künstlicher Intelligenz markante Fortschritte erzielt wurden. Nun ergänzen und verweben sich die beiden Bereiche zunehmend und profitieren von gegenseitigen Fortschritten.
Wenn also nachfolgend die Wirkweise einzelner Technologien erklärt wird, dann braucht es im Hintergrund ein Bewusstsein davon, dass diese zwar in der Erklärung denkbar strikt und sauber voneinander getrennt werden können, in der erfahrbaren Wahrnehmung sich aber zunehmend Verschmelzungen verwirklichen – sich Konvergenzen bilden, die den Fortschritt beschleunigen.
Was wären also zehn maßgebliche technologische Trends, die der mittelfristigen Zukunft Gestalt geben werden? Eine Annäherung daran liefern die nachfolgenden Unterkapitel.
30 Vgl. Schmalz/Bram (2020), Kindle.
Neue Technologien – Übungen finden Sie auf Ihrer Lernplattform.
3.2 Internet der Dinge – Internet of Things (IoT)
Das Internet der Dinge markiert den markanten Entwicklungsschritt, der bedeutet, dass Gegenstände, Geräte und Maschinen miteinander eigenständig zusammenarbeiten und durch Informationstechnik selbstständig kommunizieren können. Es lässt sich folgendermaßen denken: Durch das Internet der Dinge emanzipiert sich das Internet vom Computer. Es wird zur integrativen Funktion von Alltagsgegenständen und Maschinen.
Die vernetzten Systeme, die das Internet der Dinge konstituieren, werden Produktionsverfahren und alltägliche Abläufe optimieren. Es hebt die Ausgestaltung und Intensität der Automatisierung auf eine neue Ebene.
Der Aufbau von Fertigungsprozessen verlangt in Folge nicht mehr nach administrativer Kontrolle in jetziger Form, sondern entfaltet sich unter der Bedingung einer kollektiven Rückkoppelung der involvierten Gegenstände selbst. Physische und virtuelle Gegenstände werden miteinander vernetzt, durch einheitliche Kommunikationstechniken werden sie eigenständig zusammenarbeiten. Es entsteht eine globale Infrastruktur der vernetzten Informationsgesellschaft, die physische Gegenstände und Virtualität zusammenführt.
Das Internet der Dinge eignet sich auch dafür, um zwei generelle Entwicklungen umfassender zu beschreiben, die klarerweise nicht auf das Internet der Dinge beschränkt sind, aber hier anschaulich nachvollzogen werden können: Der erste Bezug, der sich darstellen lässt, wäre der Sachverhalt, warum Entwicklungen wie das Internet der Dinge als Technologien dritter Ordnung definiert werden können.
Der zweite Bezug bildet sich darin ab, wie nun das traditionelle Verständnis betriebswirtschaftlicher Handlungsmaximen herausgefordert wird.
Zum ersten Kontext: Warum ist das Internet der Dinge eine Technologie dritter Ordnung und was bedeutet das? Der in Oxford lehrende Philosoph Luciano Floridi entwickelte und popularisierte das Konzept, dass sich der Fortschritt von Technologien anhand von drei Ordnungen nachzeichnen lässt.
Eine Technologie erster Ordnung würde dann genutzt werden, wenn faktisch das Verhältnis zwischen Menschen und der Natur durch Technologie neu beschaffen wird. Als Beispiel bietet sich ein Pflug an. Denn durch die Nutzung dieses Geräts entsteht ein wirksamer Zusammenhang: Erde – Pflug– Mensch. Das lässt sich abstrahieren zu: Natur – Technologie – Mensch.
Eine Technologie erster Ordnung würde sich also zwischen Menschen und Natur schieben, um die Umwelt besser zu bearbeiten. Ein anderes Werkzeug als der Pflug wäre diesbezüglich die Axt: Baum – Axt – Mensch. Abstrahiert zeigt sich aber die gleiche Logik wie davor: Natur – Technologie – Mensch.
Die Technologie wird dem ursprünglich direkten Verhältnis zwischen Menschen und der Natur zwischengeschaltet.
Eine Technologie zweiter Ordnung wäre hingegen ein wesentlicher Sprung.
Es handelt sich dabei nicht um Technologie, die den Menschen mit der Natur in Konnex setzt, sondern mit anderen Technologien in Verbindung bringt. Als ein bewusst nicht digitales Beispiel kann diesbezüglich ein Schraubenzieher dienen, um den Sachverhalt darzustellen. Ein Schraubenzieher schafft die Verbindung zwischen Menschen und einer anderen Technologie – der Schraube. Um es also darzustellen, wie die Beziehungen wirken, sei folgende Reihenfolge erwähnt: Mensch – Schraubenzieher – Schraube. Abstrahiert gedacht: Mensch – Technologie – Technologie. In dem Sinne wird plötzlich eine Technologie zum Zugangstor für eine andere Technologie. Eine Computermaus wäre diesbezüglich ein anderes Beispiel: Sie ermöglicht es, Betriebssysteme zu nutzen, was das Zusammenspiel aus Mensch – Computermaus – Betriebssystem ergibt, worin sich die Logik von Mensch – Technologie – Technologie spiegelt. Den ähnlichen Zweck erfüllt ein konventioneller Thermostat in der eigenen Wohnung. Er dient Menschen dazu, die Heizung zu steuern, was zur Struktur führt: Mensch – Thermostat – Heizung bzw. Mensch – Technologie – Technologie.
Eine Technologie dritter Ordnung wäre nun ein geschlossener Kreislauf, der sich rein technologisch organisiert: Technologie – Technologie – Technologie. Was meint das nun? Denken wir an ein Smart Home, das oft als anschauliches Beispiel für das Internet der Dinge genannt wird. Ein mit dem Internet verbundenes Temperaturmessgerät erklärt dem Thermostat, dass ein kritischer Schwellenwert hinsichtlich der Innentemperatur unterschritten wurde, woraufhin der Thermostat selbstständig veranlasst, dass die Heizung
aktiviert wird: Technologie – Technologie – Technologie. Für das Internet der Dinge bedeutet das beispielsweise, dass für die Herstellung eines Gutes zuerst ein digitaler Zwilling entwickelt wird – ein digitales Replikat eines herzustellenden Gutes –, der dann über digitale Protokolle an den Maschinenpark kommuniziert wird, bevor die selbstständig agierenden Maschinen im letzten Schritt sich so adjustieren und arbeiten, dass das Produkt exakt produziert wird: Technologie – Technologie – Technologie. Der Mensch bewohnt eine Infosphäre, die von selbststeuernden Maschinen organisiert und strukturiert wird. In einem Smart Home verbindet sich also die Technologie zu einer autonom wirkenden Infrastruktur, einer Infosphäre, die schlicht vom Menschen bewohnt wird.
Abbildung 8: Die 3 Ordnungen von Technologie
In Deutschland werden die praktische Umsetzung sowie die konkrete Implementierung des Internets der Dinge, wie bereits dargestellt, auch vielfältig unter dem Begriff der Industrie 4.0 abgewickelt. Dabei gilt es zu bemerken, dass Industrie 4.0 vor allem auf Produktionsabläufe im industriellen Sektor zielt – wie der Name schon andeutet. Das Internet der Dinge reicht darüber hinaus und erfasst essenziell auch Gegenstände des privaten Gebrauchs. Es zeigt sich umfassender.
Der Ursprung der Technologie liegt jedenfalls im Bereich der Logistik. Vor allem dort werden große Erfolgspotenziale für die Lösungen erkannt und genau hier zeigen sich auch die Potenziale der Technologien dritter Ordnung:
Selbstdenkende Lagerverwaltung – Lagerroboter – autonom fahrende Lastwagen bzw. Technologie – Technologie – Technologie. Jeder einzelne Aspekt wird auch dann erst seine Zweckmäßigkeit erreichen, wenn er in das Netzwerk eingebettet ist.
Korrespondieren einzelne Gegenstände miteinander, dann entwickeln sich im Endeffekt Systeme und Prozessabläufe mit kollektivem Informationsfluss, mit Lieferketten und Prozessschritten, die gegenseitig ein einheitliches und kongruentes System formen. Sie agieren vollkommen selbstständig und mittels dauernder Berichterstattung, ohne dass es menschliches Bewusstsein als Organisationsinstanz bräuchte. Der Informationsfluss, der entsteht, erlaubt es, absehbare Engpässe auszugleichen, Fehler zu vermindern, Kontrollaufgaben und Qualitätssicherung zu mechanisieren, fortlaufende Statusupdates zu gewinnen und auf relevante Veränderungen in der Umwelt unmittelbar zu reagieren.
Der zweite Bezug, der sich hier ankündigt, wäre folgender: Erst die industrielle Massenproduktion hat moderne Massenmärkte geschaffen und aktuelle Konsummuster ermöglicht. Vor dem Hintergrund dessen, dass industrielle Produktion vor allem gleichförmige Güter produziert, weil Produktionsstraßen sich nur schwer adaptieren lassen, entstehen faktische Einheitsprodukte in großer Zahl (die können dann leicht variieren, beispielsweise die Bezüge von Autosesseln, aber in der Form muss die Produktion einheitlich geschehen). Klassischerweise gilt die Logik, wenn sich Produktionsmechanismen nicht standardisieren lassen, dann senken sich die Grenzkosten nicht (Grenzkosten sind anfallende Kosten, die für jedes weitere produzierte Stück entstehen). Ohne diese Standardisierung lassen sich keine Skaleneffekte verwirklichen. Die Industriegesellschaft in ihrer bisherigen Form erlaubte es, entweder uniforme Güter massenweise zu produzieren oder Einzelanfertigungen manuell herzustellen. Durch das Internet der Dinge wird diese Dualität nun aufgehoben: Automatisierte Maschinenparks erlauben agile Produktion, was dahinführt, dass sich nunmehr Einzelstücke industriell fertigen lassen und sich trotzdem Grenzkosten mindern.
Das hat Auswirkungen auf entscheidende betriebswirtschaftliche Konzepte:
Bisher war für massenweise hergestellte Produkte die konsekutive Linearität eines Produktlebenszyklus entscheidend, an dem sich Marketingentscheidungen zu orientieren hatten. Chronologisch durchlief ein Produkt unterschiedliche Marktphasen und damit waren unterschiedliche Ertragsszenarien verbunden: Einführung (Verlust) – Wachstumsphase (Break-even-Point und wachsende Gewinne) – Reife (stagnierende Gewinne auf hohem Niveau) – Sättigung (fallende Gewinne) – Degeneration (Verluste).
Dieser Zusammenhang erscheint nur konsequent bei einheitlicher Produktion durch industrielle Fertigungsmethoden und der parallelen Entwicklung von Massenmärkten.
Wenn aber nun individuelle Produkte industriell gefertigt werden können, dann hat die Struktur eines Produktlebenszyklus ausgedient. Damit ändern sich Paradigmen. Management und Marketing werden radikal anders gedacht werden müssen. Die klassischen Vorstellungen von Produktpolitik überholen sich. Die Zyklen verabschieden sich, wenn nun exakt den individuellen Bedürfnissen entsprechend produziert wird, und auch die Struktur der Massenmärkte in ihrer bisher bekannten Form überholt sich.
Das Internet der Dinge würde also eine globale Infrastruktur für eine mehrdimensional vernetzte Gesellschaft formen, die auf Grundlage eines permanenten Informationsaustausches zwischen Geräten, Vehikeln, Gegenständen und Maschinen operiert. Selbstverständlich trägt gerade auch die Entwicklung in Hinblick auf moderne Roboter und Künstliche Intelligenz wesentlich dazu bei, welche Zukunft das IoT erwarten wird.
3.3 3D-Druck
Eine prägnante Definition dessen, was 3D-Druck eigentlich ist, lautet schlicht: Es handelt sich um ein Verfahren, das ganze Objekte ausdrucken lässt.
Indem Schicht um Schicht eines gewissen Materials durch die Präzisionsarbeit eines Druckers übereinandergelegt wird, lassen sich Gegenstände aller erdenklichen Form und unterschiedlicher Größenordnung anfertigen. Aus diesem Grund wird die Technologie des 3D-Drucks manchmal mit dem Synonym „additive Fertigung“ bezeichnet.
Unter diesen Voraussetzungen ändern sich manche Vorzeichen industrieller Produktion. Standardabweichungen lassen sich viel unkomplizierter anfertigen, individuelle Maßgaben unkomplizierter berücksichtigen. Auch wenn es keinen Sinn macht, durch das 3D-Druck-Verfahren alle herkömmlichen Fertigungsweisen zu revolutionieren, zeigt es bereits in manchen Sektoren merkliche Vorteile. Vor allem verkürzt sich die Zeit zwischen der Konzipierung eines Gegenstands und seiner Herstellung eklatant – und auch die entsprechenden Kosten sinken. Die Rolle und Funktion der Prototypisierung wird sich radikal erneuern, Zeitaufwände sich radikal verdichten.
Etwa im medizinischen Bereich, wo passgenaue und individualisierte Anfertigungen im Gesundheitsbereich benötigt werden, verspricht der 3D-Druck, im Vergleich zu den bisher angefertigten Prothesen, Ersatzorganen oder einfachen Zahnkronen, kostengünstige, zeitschnelle und passgenaue Alternativen zu liefern.
Einen anderen Nutzen des Verfahrens erarbeitet das russisch-amerikanische Start-up Apis Cor. Es forscht daran, den 3D-Druck für das Baugewerbe umzusetzen. Das Unternehmen hat im Jahr 2017 ein ganzes Haus durch 3D-Internet der Dinge Druck errichtet. Das fertige Gebäude misst knapp 40 Quadratmeter. Die Baukosten beliefen sich auf ungefähr 10.000 $. Die gesamte Bauzeit betrug weniger als 24 Stunden. Der Bauprozess verlangte keinen einzigen manuellen Handgriff und verursachte überdies keine CO2-Emissionen. Das ist vor allem auch deshalb entscheidend, weil nach begründeten Schätzungen die Hälfte der Emissionen und des Energiebedarfs eines Gebäudes alleine während der Bauzeit und durch die Herstellung der benötigten Materialien entstehen. Die gesamte Nutzungsdauer danach verursacht die zweite Hälfte.
In diesem Konnex erscheint es relevant, auch darüber nachzudenken, dass die Zukunft in vielerlei Hinsicht andere Rohmaterialien nutzen wird, als es in der Gegenwart der Fall ist. Der Umgang mit begrenzten Rohstoffen nötigt zu neuen Denkansätzen. Auch verlangt es Produktionsverfahren, die endlich weniger CO2 mehr ausstoßen, um den Klimawandel einzudämmen – gerade in dieser Hinsicht liegt auf dem 3D-Druck große Erwartung.
3.4 Speicher für alle
Gerade auch in Hinblick auf das Internet der Dinge wartet eine weitere Zäsur: Die Menge an gespeicherten Daten wird exorbitant anwachsen und auch die Relation bezüglich der Urheber wird sich ändern. Lange wurde die größte Menge an Daten von privaten Nutzern generiert, die dann ausgewertet wurden. Nunmehr werden es Unternehmen sein, die für die meisten Daten verantwortlich zeichnen. Mehr Information seitens der Unternehmen selbst führt zu agilerer Adaption, marktwirtschaftliche Entwicklungen werden sich beschleunigen. Der Befund gilt vor allem auch in Verbindung mit der Ausbreitung des Internets der Dinge. Die generierte Datenmenge steigt simultan zur Anzahl an Objekten, die mit dem Internet verbunden sind. Also finden faktisch zwei Transformationen statt: Nicht der Mensch, sondern Gegenstände werden zukünftig die meisten Daten generieren. Nicht im privaten, sondern im professionellen Umfeld wird die Mehrheit davon gewonnen.
Vernetzte Geräte werden vermehrt zum Bestandteil des Alltags und dokumentieren diesen durch Datenspeicherung. Bereiche, die bisher analog vollzogen wurden, transformieren sich aktiv zu Ressourcen für neue Datenquellen. Gerade auch der Einbau von Sensoren in Gegenständen lässt die Größenordnung gespeicherter Daten massiv ansteigen.
Damit wächst auch der Bedarf an Speicherkapazitäten und fortschrittlichen Speicherlösungen. Speziell die Fortschritte bei Cloud-Lösungen zeigen massives Geschäftspotenzial und verlangen perspektivisch womöglich eine eigenständige europäische Infrastruktur, um Standards im Datenschutz garantieren zu können. Das alles initiiert eine Gesellschaft, die winzige Details scheinbar bedeutungsloser Vorgänge dokumentiert. Es handelt sich um eine Gesellschaft, die auf technologischen Grundlagen ein vollkommenes Gedächtnis schafft und sich selbst lückenlos und umfassend dokumentiert. Nur verlangt diese unbekannte Quantität an Information auch nach einer neuen Qualität an Analyse – die kognitiven Fähigkeiten des Menschen allein genügen nicht. Dieses Mehr an Wissen, das über die Wirklichkeit produziert wird, bedingt neue Erkenntnismethoden. Desperat gesammelte Daten machen erst dann Sinn, wenn sie vernünftig mit anderen Informationen verbunden werden können. Erst die Analyse mittels neuer Technologien führt also zur Erkenntnis.
Entscheidend wäre es, nicht nur den technologischen Fortschritt zu bemerken, sondern das Zusammenwirken aus technologischer Entwicklung und ökonomischer Logik zusammenzudenken. Weil sich die Speichertechnologie signifikant verbessert hat, wurde es entschieden günstiger, vorhandene Speicherkapazitäten aufzubauen und zu nutzen.
Um die Dimension in Relation zu setzen, seien folgende Kennziffern angeführt: Alleine zwischen 2010 und 2012 haben sich die Kosten für die Speicherung von Daten um den Faktor fünf gesenkt und eine ökonomische Gesetzmäßigkeit besagt, dass, wenn eine Sache so markant billiger wird, die Nachfrage danach ebenso markant steigt bzw. kontinuierlich weiterwächst, solange diese vorteilhafte Preisstruktur fortexistiert.
Daten werden also deshalb in der Quantität gesammelt, wie das gegenwärtig geschieht, weil damit faktisch kaum Kosten verbunden sind. Das erlaubt auch, viele zuerst mal unnütz erscheinende Daten zu speichern. Das wäre klarerweise radikal anders, wenn dafür faktische Kosten entstünden – dann würde der Ressourceneinsatz gegenteilig und umsichtig bewertet werden.
Der beschriebene Trend der Kostensenkung für Datenarchivierung wird anhalten und damit auch die Konsequenz fortdauern, dass Daten in allen Bezügen umfassend archiviert werden.
Abbildung 9: Kosten für Datenspeicherung
Die Konvergenzen, die also auch nachfolgend bezüglich Big Data und Künsticher Intelligenz bedacht werden müssen, lassen sich vor exakt diesem Hintergrund verstehen.
3.5 Big Data
Big Data bezeichnet voluminöse Datenmengen, die in unterschiedlichen Kontexten gesammelt, gespeichert und dokumentiert werden. Dabei gilt es, den Sachverhalt zu berücksichtigen, dass sich laut Schätzung das Ausmaß des gespeicherten und dokumentierten Datenvolumens alle zwei Jahre verdoppelt.35 Allein im Jahr 2017 soll eine derart hohe Quantität an Informationen gesammelt und abgelegt worden sein, wie im Verlauf der insgesamt 5.000 Jahre Zivilisationsgeschichte davor.
Ab welcher Größenordnung lässt sich von Big Data sprechen? Wenn übliche Verfahren der Datenverarbeitung nicht mehr für die Analyse ausreichen, weil die Datenmenge schlicht zu groß oder unstrukturiert wäre. Das ist ein entscheidendes Definitionsmerkmal. Es sind also sowohl unterschiedliche wie auch umfassende Daten vorhanden, die mittels Algorithmen nach Erkenntnissen durchforstet werden. Durch algorithmengetriebene Kombinatorik entstehen bei Big Data neue Einsichten und unvermutete Erkenntnisse.
Unentdeckte Zusammenhänge werden kenntlich gemacht. Die methodische Vorgehensweise erlaubt beispielsweise komplexe soziale, physikalische, meteorologische, ökonomische, medizinische und politische Phänomene zu analysieren, zu systematisieren, zu gruppieren und zu antizipieren.
Die Marktforschung von Unternehmen kann mittels dieses Erkenntniswegs existierendes Kaufverhalten besser nachvollziehen und teils vorhersagen sowie auf vorhandene Konsumentenwünsche vortrefflich und vorausschauend reagieren. Sollen durch Datenanalysen vor allem Trends vorhergesagt werden, wird von Predictive Analytics gesprochen.
Auch verändert sich der Wertbestand von Unternehmen. Daten, die Unternehmen schaffen, erzeugen wertvolle Ressourcen. Zu wenigen scheint das bewusst. Wer immer es versteht, diese zu nutzen oder zu veräußern, erschließt für Organisationen Entwicklungsmöglichkeiten und Einkommensquellen.
Big Data lässt sich folglich als Mechanismus reflektieren, der tiefgreifendes Wissen über gesellschaftliche Vorgänge befördert. Es bildet die Aufgabe von Unternehmen, intelligente Erkenntnisse über Kundenbedürfnisse, die in Daten kodiert sind, zu extrahieren, um dieses Verständnis für den eigenen Erfolg zu nutzen. Die Informationsgrundlagen bei Investitionsentscheidungen ändern sich fundamental, wenn Kundenwünsche anhand statistischer Präzision vorausgesagt und qualifiziert werden. Die prognostischen Fähigkeiten unserer Gesellschaft werden wachsen.
Information selbst wird zum Produkt. Sie wandelt sich vom Beiwerk zur wertvollen Ressource, die zunehmend kapitalisiert wird. Ein Wesenselement, das der Markt immanent herstellt, gewinnt an signifikanter Relevanz.
In diesem Zusammenhang treten vor allem auch Fragen auf, welche Daten öffentlich zugänglich gemacht werden und welche sich ausschließlich im Besitz von Unternehmen finden sollen. Gerade im Umgang mit den sogenannten GAFAs (GAFA wäre das Akronym für Google, Apple, Facebook, Amazon) scheint es entscheidend, wie die breite Öffentlichkeit von deren Datenreichtum profitieren kann. Wie bereits angemerkt, könnten diese Unternehmen durch eine neue Form der Datensteuer zur Preisgabe manch ihrer Ressourcen gezwungen werden. Auch in Hinblick auf die Entstehung neuer Unternehmen, Standortvorteile für Start-ups und bessere Innovation scheint diese rechtliche Regelung entscheidend. Wie lassen sich Daten fair aufteilen, administrieren, besteuern?
Der italienische Internet-Pionier Stefano Quintarelli spricht in diesem Zusammenhang von der Etablierung einer Info-Plutokratie, die einen Klassenkampf der Zukunft strukturieren wird.36 Plutokratie meint als politisch-theoretischer Begriff eine Organisationsform, bei der die Reichen die Herrschaft ausüben. Das droht auf Basis der gegenwärtigen Organisationsform der Datenökonomie, wo faktisch Daten entscheidende Ressourcen repräsentieren.
Die bekannte Frage, wenn es zum Thema der Rohstoffe kommt, tritt in aktueller Vehemenz wieder auf. Vor allem für die Datensouveränität von Bürgern scheint dies entscheidend. Weiters verlangt es nach verständlicher Transparenz, wie Algorithmen kalkulieren, die zur Datenauswertung herangezogen werden. Wie funktioniert beispielsweise die Beurteilung individueller Kreditwürdigkeit? Die Einstufung von Versicherungen? Über bedeutsame Entscheidungen wie diese gilt es, volle Nachvollziehbarkeit zu erhalten. Nur durch Transparenz und Verständnis lassen sich sowohl menschliche Einflussmöglichkeiten garantieren als auch Akzeptanz für einen humanen Fortschritt schaffen.
Mit den Fragen: „Wer darf Daten nutzen? Wem gehören Daten?“ sind also verschiedene Perspektiven verbunden. Oftmals konzentriert sich die Frage bezüglich Big Data darauf, wie Datenbestände sinnvoll analysiert werden dürfen. Das ist selbstverständlich sehr wichtig. Relevant wirkt aber auch die Frage, wem Daten eigentlich gehören.
Im geopolitischen Umfeld scheinen sich darauf gerade drei konkurrierende Antworten zu finden. Salopp kategorisiert: eine amerikanische Antwort, eine chinesische Antwort und eine europäische Antwort.
Die amerikanische Praxis würde besagen, Daten gehören jenen Unternehmen, die diese Daten sammeln.
Die chinesische Praxis würde besagen, Daten gehören dem Staat und sind den Zwecken der höheren Politikentscheidungen und offiziellen Autoritäten kollektiv anheimzustellen.
Die europäische Logik würde besagen, Daten gehören dem Individuum. Sie sind mit jener Person verbunden, von der sie erzeugt werden. Der Philosoph Luciano Florid führt das grundlegende Verständnis aus, welches der europäischen Praxis zugrunde liegt: Die Bezeichnung „meine Daten“ wäre zu denken wie „meine Augen“ – und nicht wie „meine Schuhe“.
Das Possessivpronomen „meine“ drückt in Bezug auf Daten eine innige Verhältnismäßigkeit aus, eine im Wortsinne von Eigenheit und Zugehörigkeit, die immanent und unauflöslich mit der Person ist. In einer virtuellen Welt ist das faktisch als Einheit zu konzipieren, Daten und ein Individuum. Wenn also „meine Daten“ gesagt wird, dann handelt es sich damit nicht um ein Besitzverhältnis wie gegenüber „meinem Auto“, sondern um ein so konstitutives Element der eigenen Existenz wie bei der Formulierung zum Ausdruck kommt: „Das ist meine Nase.“
Wenn das die Prämisse ist, auf der nachfolgende Praktiken aufbauen, dann entstehen andere gesellschaftliche Erwartungshaltungen, kommerzielle Verfahren, Marktmechanismen, Regularien und gesellschaftliche Umgangsweisen, als wenn der Ausgangspunkt darin liegt, dass Daten Waren sind oder kodierte Informationsmaterialien über eine zentralistisch organisierte Gesellschaft.
Das hat selbstverständlich auch wesentliche Implikationen für die Struktur und Essenz von Geschäftsmodellen. Wenn die Geschäftspraktik von Facebook darin besteht, persönliche Daten auszuwerten, die legal dem Unternehmen gehören, um entsprechende Werbebotschaften zu platzieren, dann ist das nur vor dem Hintergrund einer in Recht gegossenen Entscheidung darüber möglich, wem die Daten gehören. In dem Fall Facebook. Nun, je nachdem ob diese Rahmengesetzgebung noch weiter ausgedehnt oder eingeschränkt wird und ob die Rolle von persönlichen Daten zukünftig anders interpretiert wird, entwickeln sich entsprechend auch die Ertragsaussichten dieses Konzerns. Da handelt es sich um politische und nicht um technologische Entscheidungen, die getroffen werden – nicht ohne Grund ist Google heute der Konzern mit den höchsten Ausgaben für Lobbying in Washington D.C.
Die Schwierigkeit zeigt sich bei sozialen Medien und Suchmaschinen bereits sehr eindrücklich, birgt aber auch eindrückliche Perspektiven für den Bereich von Digital Health – der Zukunft des Gesundheitswesens. Hier betrifft es alle.
Entsprechend der politischen Einschätzung, was als legitime Praktik bezüglich Datenmanagement erachtet werden kann und was nicht, werden die Rahmengesetzgebungen geschaffen und die korrespondierenden Geschäftsmodelle bzw. -praktiken entstehen. Rund um genuine Gesundheitsdaten zeigt sich vehement, wie akut sich diese Fragestellung aufdrängt: Wer darf über Krankheiten anhand von Datenmustern Bescheid wissen? Wem gehören die entsprechenden Daten? Sollen Daten wie diese kommerziell verwertet werden? Ist es ethisch geboten, anhand von Datenmustern zu lernen, um präventiv Krankheiten zu begegnen? Wer darf entscheiden, mit wem Daten geteilt werden? Geschieht das anonymisiert? Wer hebt die Daten ein? Wo setzen Veräußerungsrechte an?
3.6 Künstliche Intelligenz (KI) – Artificial Intelligence (AI)
Um das Wesen von Künstlicher Intelligenz zu verstehen, eignet es sich anfänglich, in Erinnerung zu rufen, was Intelligenz grundlegend bedeutet. Das Wort kommt aus dem Lateinischen und meinte anfänglich nichts anderes als verstehen und bezeichnet die Fähigkeit, auswählen zu können.
Künstliche Intelligenz meint nun die Automatisierung dieser Eigenschaften. Es ist jenes Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens beschäftigt. Doch wirkt der Begriff so wenig abgrenzbar wie die Bedeutung des Wortes Intelligenz selbst. Bessere Rechenleistungen ermöglichen es, eine Vielzahl an Informationen zu verarbeiten, bevor eine der vorhandenen Möglichkeiten gewählt wird. Es handelt sich also um eine automatisierte Wesensart von Intelligenz, die ohne menschliches Bewusstsein agieren kann. Dieser Entwicklungsschritt erlaubt es, dass intellektuelle Denkprozesse mechanisiert durchgeführt werden können, die bisher manuell bewerkstelligt werden mussten. Die Folgewirkungen erscheinen vielseiig, weil sich die Technologie unterschiedlich anwenden lässt. Sie bildet vor allem einen Mechanismus, um bei umfassenden Big-Data-Mengen Korrelationen zu entdecken. Algorithmen analysieren einen Datenpool, um einsichtsvolle Korrelationen zu entdecken. Mittels Künstlicher Intelligenz soll es dann beispielsweise möglich werden, dass sich Computerprogramme durch gespeicherte Krankenakten scannen und eigenständig Diagnosen stellen.
Gerade bei der Früherkennung von Krebserkrankungen kann diese Fähigkeit lebensrettend sein. Durch Künstliche Intelligenz werden Computerprogramme die Regelwerke von Sprachen verstehen und den Sinn von Aussagen begreifen lernen. Künstliche Intelligenz bildet die Grundlage autonomen Fahrens, indem ein Prozessor permanent Entscheidungen aufgrund sensorischer Daten aus der Umwelt trifft. Es soll möglich sein, dass sich Technologie autonom fortentwickelt, also die Prinzipien eigenständigen Lernens begreift.
Computerprogramme treffen dann nicht nur Entscheidungen, sondern sie trainieren auch eigenständig, wie sie zu den objektiv besten Entscheidungen kommen. Computerprogramme beginnen, ähnlich dem menschlichen Horizont, aus Erfahrungen zu lernen und sich zu verbessern. Dieses Verfahren nennt sich maschinelles Lernen. Das Unternehmen DeepMind hat es beispielsweise vermocht, einem Programm mit dem Namen AlphaGo schlicht zu vermitteln, wie das jahrtausendealte und anspruchsvolle Spiel Go funktioniert. Erstmal die Regeln verinnerlicht begann das Programm, sich das Spiel durch Anwendung von Monte-Carlo-Algorithmen selbst beizubringen. Es hat sich permanent selbst herausgefordert, gegen sich selbst gespielt, seine Spielweise kontinuierlich verbessert und schließlich ein Niveau erreicht, um selbst den weltbesten Go-Spieler Lee Sedol in einem aufregenden Wettkampf zu schlagen.
Dabei sei auf die Entwicklungsgeschichte im Bereich der Künstlichen Intelligenz hingewiesen: Das ursprüngliche Ansinnen bestand darin, dass Computer oder Maschinen instand gesetzt werden, den menschlichen Verstand in all seinen Facetten zu kopieren, um dann eventuell cleverer als der Mensch selbst zu werden. Weil sich dieses Unterfangen noch immer als zentrale Schwierigkeit, wenn nicht gar Unmöglichkeit, herausstellt, wird nun an Teilbereichen geforscht, in denen sich Künstliche Intelligenz sinnvoll einsetzen lässt.
Gerade in der angelsächsischen Welt hat sich deshalb die Unterscheidung zwischen zwei Ansätzen herauskristallisiert: Konkrete Forschung für einen Anwendungsbereich wird Specialized AI genannt. Der andere Entschluss, an dem großen Wurf weiterzuarbeiten, wird General AI genannt.
Wichtige Erfahrungen mit der Automatisierung von Prozessabläufen wurden bereits im Bereich der Industrieproduktion gemacht, waren also bisher auf den Fertigungsbereich begrenzt. Durch den Fortschritt der Künstlichen Intelligenz lassen sich vergleichbare Entwicklungen nun für den Dienstleistungssektor erwarten. Tätigkeiten, die im Büroalltag anfallen, werden sich teils oder ganzheitlich maschinell erledigen lassen. Maschinelle Prozesse entwickeln kognitive Kapazitäten. Specialized AI ermöglicht es, genau solche Lösungen für dezidierte Aufgabenfelder zu konzipieren.
Nur einige von vielen denkbaren Anwendungsfällen verdeutlichen bereits die wirkende Systematik: Die Arbeit, in Anwaltskanzleien nach Präzedenzfällen zu stöbern oder die passenden Paragraphen im Bürgerlichen Gesetzbuch zu finden, kann zukünftig einem sprachgesteuerten Computerprogramm übertragen werden. Ähnliches gilt für andere administrative Aufgaben. Wo im Verwaltungsbereich komplexe Zusammenhänge basierend auf Sprache, Information und Verständnis kombiniert werden müssen, lässt sich perspektivisch die Implementierung Künstlicher Intelligenz andenken. Im Jahr 2014 wurde auf dieser Grundlage ein Computerprogramm zum Vorstandsmitglied eines Investmentunternehmens in Hongkong berufen, da es versteht, Markttrends auszuwerten. Bereits zu Beginn des Skripts wurde das Beispiel der japanischen Versicherungsgesellschaft Fukoku vorgestellt, die eine ganze Abteilung von Sachbearbeitern durch ein einziges Programm von IBM ersetzt hat. Damit greift das Wesen der Automatisierung, manuelle Arbeitskraft durch technologische Prozesse zu ersetzen, mittlerweile auch auf die Ebene des Managements über.
Wenn gegenwärtig über Künstliche Intelligenz gesprochen wird, dann werden damit meist Verfahren von maschinellem Lernen gemeint. Das bedeutet, aus empirischen Erfahrungen werden statistische Muster generiert. Gesetzmäßigkeiten, die sich in Daten finden, werden durch Programme in statistische Modelle übertragen und diese vergangenen Erfahrungen dafür genutzt, auch plausible Vorhersagen über die Zukunft zu treffen. Was also maschinelles Lernen besonders gut vermag, ist, Muster zu entdecken, Regelmäßigkeiten zu identifizieren und Voraussagen zu treffen, basierend auf großen Datenmengen, die vergangene Vorkommnisse kodieren. Entsprechend lässt sich auch verstehen, dass bei entsprechenden Machine-Learning-Projekten faktisch 80 % der Arbeit darin besteht, die Daten zu sammeln, aufzubereiten und zu säubern.38 Das verbleibt dann oft im Wesentlichen die Aufgabe menschlicher Arbeitskraft – ebenso die gedankenvolle Interpretation der Erkenntnisse.
Ein eindrückliches Beispiel soll dazu dienen, den Zusammenhang zu verstehen, wie gerade die Kombination aus Künstlicher Intelligenz und der menschlichen Fähigkeit zur Kombinatorik zu wahrlich sinnvollen Erkenntnisschlüssen führt. Um das zu illustrieren, reicht die prägnante Nacherzählung einer Begebenheit, die sich vor dem Aufstieg von Künstlicher Intelligenz zu getragen hat: Der Statistiker Abraham Wald musste aus Österreich im Jahr 1938 fliehen, nachdem die Nationalsozialisten die Macht im Land ergriffen hatten. In den USA beteiligte er sich aufgrund seiner Expertise an der Kriegsanstrengung der Alliierten gegen die Nationalsozialisten. Er wirkte dort als Analytiker. Das erste Problem, dem er sich zu stellen hatte, bestand darin, die amerikanische Luftwaffe im Verlauf des Krieges zu verbessern. Dabei wurde als Ausgangssituation festgestellt: Die aus den Kampfeinsätzen beschädigt zurückgekehrten Flugzeuge hatten vor allem Einschusslöcher im Rumpf aufzuweisen. Die logische Korrelation bestand also darin, dass die Flugzeuge dann sicherer werden würden, wenn der Rumpf besser geschützt wäre, denn hier tritt der erkenntliche Schaden und die Gefahr auf. Auf Grundlage der vorhandenen Datenlage bildete diese Kombinatorik den logisch evidenten Rückschluss: Wenn Flugzeuge von feindlichen Geschützen getroffen werden, dann meist im Rumpf.
Abraham Wald hingegen hielt diese Erkenntnis für fehlerhaft. Seiner Auffassung nach zeigen die Einschüsse im Rumpf, dass genau die Maschinen trotz Beeinträchtigung an diesen Stellen wieder den Rückflug schafften. Der Fokus der Überlegung muss sich darauf konzentrieren, welche Flugzeuge es nicht zurückschafften. Dann lässt sich wahrnehmen, dass alle retour geflogenen Maschinen intakte Triebwerke haben – was zum Umkehrschluss führt, dass Maschinen mit beschädigten Triebwerken offenbar zwangsweise abstürzen, sie fallen aus der Datenerhebung raus. Wenn also die Maschinen verbessert werden müssen, dann nicht im Bereich des Rumpfs, sondern beim Schutz der Triebwerke.
An dem Vorfall zeigt sich, dass Datenanalyse eine entscheidende Methode zur Erkenntnisfindung darstellt, aber substanzielle Analyse sich mit menschlicher Kreativität und Interpretation gegenwärtig zu vereinigen hat. Exakt in dem fruchtbaren Zusammenspiel aus menschlichem Talent und technologischem Fortschritt gründet die perspektivische Erwartungshaltung, dass sich die Entwicklung von AI weiterhin beschleunigen wird. Wechselseitige Dynamiken aus besserer Datenverarbeitung, fallende Kosten für Datenspeicherung und eine ansteigende Attraktivität des Tätigkeitsfelds für Talente befruchten sich. Das entwickelt einen vorteilhaften Zirkel, wie er in der unteren Grafik dargestellt wird.
Abbildung 10: KI-Zirkel
Ein entsprechendes Einsatzfeld fortschreitender Künstlicher Intelligenz wäre diesbezüglich die operative Reorganisation des Straßenverkehrs.
3.7 Neue Mobilität
Neue Zugänge zur Mobilität, an denen aktuell geforscht wird, können die allgemeinen Vorstellungen hinsichtlich machbarer Distanzen radikal ändern.
Die Art und Weise, wie Mobilität zukünftig gestaltet wird, verspricht wesentliche Unterschiede zu den heute gängigen Vorstellungen.
Massive Umbrüche verspricht unter anderem das autonome Fahren. Dieser Begriff bezeichnet die Innovation von selbstfahrenden Vehikeln. Die besagte Technologie würde es erlauben, dass Autos, Busse oder Lastkraftwagen in Zukunft keine Fahrer mehr brauchen, um im fließenden Verkehr zu navigieren. Eine andere Entwicklungsstufe wäre es, das autonome Fahren mit der Luftfahrt zu vergleichen. Flugzeuge laufen meist auf Autopilot und Piloten greifen nur in kritischen Situationen ein. Ähnlich funktioniert heute noch das Prinzip des autonomen Fahrens. Das Zusammenspiel zwischen Fahrer und selbstlenkendem Fahrzeug in kritischen Situationen wird gegenwärtig als Ebene 3 in der Entwicklungsgeschichte begriffen. In kritischen Situationen übernimmt der Fahrer das Kommando. Das vollkommen vollständige autonome Fahren wird als Ebene 5 definiert.
Ebene 3 wäre jedenfalls in Estland bereits legal, für reale Straßentests auf Ebene 5 werden in dem baltischen Staat aktuell die rechtlichen Vorkehrungen getroffen. Im amerikanischen Bundesstaat Arizona ist auch schon Ebene 5 für Testzwecke legitimiert.
Der Durchbruch dieser Technologie hätte jedenfalls nicht nur Auswirkungen auf die Strukturen des alltäglichen Verkehrs, da Staus in einem System miteinander korrespondierender Autos unwahrscheinlicher würden. Auch die Zahl an folgenschweren Verkehrsunfällen würde sich drastisch reduzieren.
Vor allem besteht in einem System kollektiv denkender Gegenstände die Möglichkeit, dass Lernprozesse universalisiert werden. Wenn ein selbstlenkendes Auto in einer kritischen Situation eine Fehlentscheidung trifft, dann kann dieses Malheur zukünftig immer abgewendet werden. In einem System, das auf kollektiver Intelligenz beruht, wird jeder Fehler memoriert und somit einmalig und nachfolgend vermieden. Ein Fahrschüler wird hingegen Unachtsamkeiten, die ein anderer Fahrerschüler auch gemacht hat, nicht per se verhindern können. Bei autonomen Autos wäre dieses geteilte und übertragbare Lernen durchaus denk- und praktisch anwendbar.
Die vollständige Entwicklung würde jedenfalls auch merkliche Konsequenzen für den Arbeitsmarkt implizieren. Wenn es perspektivisch keine Fahrer mehr braucht, verliert ein ganzes Jobprofil an Bedeutung. Als Referenz, um das Ausmaß darzustellen, können die USA dienen. Laut Berechnungen des amerikanischen Amts für Arbeitsstatistik waren in den USA im Jahr 2014 noch 1,4 Millionen Personen allein als LKW-Fahrer beschäftigt – mehr als ein halbes Prozent der Gesamtbevölkerung. Ungefähr 70 % des gesamten Frachtaufkommens werden in den USA durch LKWs abgewickelt. Außerdem konnte das Aufgabenprofil der LKW-Fahrer nicht in Billiglohnländer outgesourct werden.41 In ganzen 29 der 50 Bundesstaaten machen LKW-Fahrer sogar den zahlenmäßig größten Berufsstand aus und insgesamt haben sämtliche LKW-Fahrer zusammen 67 Milliarden $ im Jahr 2014 in den USA verdient.
Kostenstrukturen für Unternehmen ändern sich also durch das autonome Fahren. Auch Nachtfahrverbote verlieren vieles von ihrem aktuellen Sinngehalt, wenn LKWs weder Abgase produzieren noch auf Arbeitszeit-Regelungen Rücksicht genommen werden muss. Außerdem senkt die nahtlose Koordination des fließenden Verkehrs laufende Betriebskosten und die Verschwendung kostbarer Ressourcen – egal ob nun Elektrizität oder Wasserstoff dafür gebraucht wird. Wie ist damit umzugehen? Das bleibt eine große Zukunftsfrage.
Ähnliches gilt beispielsweise auch für die Frage der Zustellung von Lieferungen, wenn sich der Einsatz moderner Drohnentechnologie bewährt.
Selbstnavigierende Containerschiffe kreuzen bereits über die Ozeane.
Ein anderes Projekt, das zu neuen Formen der Mobilität beitragen würde, wäre die Untertunnelung von Millionenstädten durch Hyperloops. Denkbar scheint ebenso, dass sich Metropolen durch diese Röhren-Infrastruktur verbinden lassen. Dabei handelt es sich um Anlagen, in der Magnetschwebebahnen verkehren sollen, die entfernte Städte miteinander eng verbinden.
Alle Ansätze basieren jedenfalls auch auf der Abkehr vom Verbrennungsmotor. Das erscheint insofern entscheidend, da der Transportsektor der weltweit zweitgrößte Emittent von CO2-Gasen ist und damit die Zukunft des Klimas wesentlich von den Veränderungen in diesem Bereich beeinflusst wird.
Allein im Jahr 2016 wurden weltweit insgesamt 750.000 Elektroautos verkauft. Außerdem wird gerade eine Infrastruktur an ultraschnellen Ladestationen in Europa aufgebaut, die sieben Staaten umschließt und lückenlos von Norwegen bis Italien führt. Auf allen 120 bis 180 Kilometern soll eine solche Station an den Autobahnen zur Verfügung stehen.
Vorreiter in dieser Hinsicht ist Norwegen. Jeder dritte verkaufte Neuwagen ist dort bereits im Jahr 2017 ein Elektroauto. Staatliche Förderprogramme beschleunigen den Trend. Ein neuer VW Golf, der elektrische Mobilität nutzt, ist beispielsweise bei der Anschaffung in dem skandinavischen Land aufgrund des eingeführten Fördersystems günstiger als das gleiche Modell mit Benzin- oder Dieselmotor. Außerdem bieten viele Kommunen Ladestationen an, die gratis genutzt werden können. Für E-Autos fallen auch keine Park oder Mautgebühren an. Bis zum Jahr 2025 sollen dann alle Neuzulassungen E-Autos sein. So sieht es das Gesetz vor. Den Kreis schließt schließlich das Energieportfolio, das in Norwegen zur Anwendung kommt: 98 % des genutzten Stroms stammen dort aus Wasserkraft. Nun wird dieses Portfolio durch den Einsatz von Windenergie diversifiziert.43 Denn der Vollständigkeit halber: Der größte Emittent von CO2-Gasen global ist der Energiesektor.
Trotz des Mangels an ähnlichen Anreizen in der Bundesrepublik soll erwähnt werden, dass in absoluten Zahlen im Jahr 2017 in Deutschland mehr Elektroautos als in Norwegen verkauft wurden. Die Nachfrage scheint also vorhanden.
Abbildung 11: Automobilhersteller, die bereits elektrische Modelle produzieren
Die Vision, die den Wandel im Mobilitätssektor anführt, ruht auf drei Säulen.
Für den Verkehr der Zukunft gilt das Vorhaben: keine Emissionen, keine Verkehrstote, keine Staus. Diese Vorstellung soll durch neue Technologie realisiert werden. Die Technologie präsentiert ein Mittel für den höheren Zweck.
Allgemeine Vorstellungen von machbaren Distanzen verändern sich auch durch die unternehmerische Erschließung des Weltalls, an der sich gegenwärtig verschiedene Organisationen versuchen. In dieser Hinsicht wirkt es dann zweitrangig, ob Raketentechnik dafür verwendet wird, touristische Expeditionen ins Weltall anzubieten, oder die Vorstellung verfolgt wird, den Mars durch menschliche Pioniere besiedeln zu lassen, um den Homo sapiens in eine interstellare Spezies zu verwandeln. Raketentechnologie soll auch dafür genutzt werden, um dem transkontinentalen Flugverkehr Konkurrenz zu machen. Keine einzige Flugverbindung weltweit sollte dann länger als eine Stunde Reisezeit in Anspruch nehmen.
Daran arbeitet beispielsweise das Unternehmen SpaceX, das von Elon Musk geleitet wird. Elon Musk ist auch der Mastermind hinter dem Automobilkonzern Tesla, der intensiv an der Forschung des autonomen Fahrens wirkt und sich eng mit den Fortschritten im Batteriebereich abstimmt. Es zeigen sich also wechselseitige Abhängigkeiten und Verbindungen.
Folgewirkungen des autonomen Fahrens lassen sich auch für die Preisstruktur am Immobilienmarkt erwarten. Wenn Autos sich eigenständig zu navigieren verstehen, dann kann die tägliche Arbeit bereits auf dem Weg ins Büro beginnen. Leerzeiten fallen weg und damit erodiert denkbar auch die Grundlage des gegenwärtigen Konzepts, dass sich die Höhe der Immobilienpreise vor allem an der Distanz zu einem gewissen Zentrum bemisst. Ein anderes Wesenselement des heutigen Automobilmarkts lässt sich ebenso anders denken. Es handelt sich dabei um die traditionelle Eigentumsstruktur. Modelle von Car-Sharing werden populärer werden. Bei einem gewöhnlichen Privatauto handelt es sich um eine Anschaffung, die laut statistischer Kalkulation nahezu 99 % der Zeit nicht genutzt wird. Anstatt Autos in Zukunft zu besitzen, wird beispielsweise das selbstfahrende Auto einfach über Apps gerufen, wenn man es benötigt. Die Ertragsstruktur von Autoherstellern würde sich damit radikal verändern. Nicht durch den Verkauf werden dann Erlöse erzielt, sondern durch die permanente Vermietung der Flotte. In einer Gesellschaft voll permanenter Information und Wissensvermittlung lässt sich schließlich auch genau bemessen, wann man wo zu sein gedenkt. Das schafft gesellschaftliche Effizienz, führt zur Kostenreduktion und könnte symbolhaft auf andere Bereiche wirken. Wer von einem Gegenstand einfach nur Gebrauch machen möchte, muss ihn in Zukunft nicht zwangsweise besitzen, sondern kann ihn einfach mittels Verrechnung einer Leihgebühr der Hersteller oder anderer Eigentümer nutzen. Dieser marktwirtschaftliche Ansatz nennt sich Sharing Economy. Gerade in den letzten Jahren boomen Plattformen, die es verstehen, diese Bedürfnisse zwischen Angebot und Nachfrage in Abgleich zu bringen. Beispielsweise versteht auch Airbnb dieses Prinzip zu vermarkten, um private Zimmer für Kurzaufenthalte zu vermieten und zu mieten.
3.8 Blockchain
Weithin populär wurde die Technologie der Blockchain in Form einer konkreten Anwendung: durch die Kryptowährung Bitcoin.
Um das Entwicklungspotenzial der Technologie zu ermessen, verlangt es jedoch die Einschränkung im reflektiven Bewusstsein, dass die Kryptowährung nur eine plausible Anwendungsmöglichkeit der Technologie darstellt. Die Technologie wird zweifellos auch dann überdauern, wenn ihr Nutzen als operative Grundlage populärer Kryptowährungen in eine tiefe Glaubwürdigkeitskrise schlittern sollte.
Die Blockchain selbst zeigt vielfältige Attribute auf, die ihre Popularität begründen. Worin liegt ihre Besonderheit? Sie hilft in erster Linie, ein Defizit zu beseitigen, das der ursprünglichen Informationstechnologie inhärent war.
Eine Unzulänglichkeit klassischer Informationstechnologie bestand darin, dass sie Nutzer kaum dazu befähigte, fälschungssichere Informationen zu übermitteln. Das Hemmnis gründet in einer essenziellen Eigenschaft von Datensätzen. Diese sind meist so angelegt, dass sie sich einfach replizieren lassen. Doch manchen gesellschaftlichen Anforderungen wird diese Modalität nicht gerecht.
Die Kryptowährung Bitcoin lässt nachvollziehen, wie das gemeint wäre.
Wenn eine gewisse Geldsumme zwischen zwei Personen transferiert wird, dann bildet das einen exklusiven Akt. Es muss sichergestellt sein, dass ein gewisser Geldbetrag beim Vermögen einer Person hinzugebucht und beim Guthaben einer anderen Person abgebucht wird. Anders als vergleichsweise bei der E-Mail, wo die gleiche Nachricht möglichst einfach an eine Vielzahl verschiedener Adressaten verschickt werden kann, wäre dies bei Geldüberweisungen äußert nachteilig. Kein Währungssystem könnte überdauern, wenn eine spezifische Summe, die ein Sender an einen Empfänger schickt, sich vielfach auch als Eingang auf anderen Konten findet. So lassen sich zwar E-Mails übertragen, bei Geldbeträgen erscheint diese Eigenheit jedoch selbstzerstörerisch.
Eine Blockchain ermöglicht es nun, dass Informationen tatsächlich nur auf nachvollziehbare, überprüfbare und dokumentarisch lückenlose Weise übertragen werden. Diese Erklärung lässt begreifen, dass der fundamentale Umbruch, der hinter Bitcoin steckt, weniger eine Neuerung des Finanzwesens symbolisiert als einen technologischen Fortschritt namens Blockchain.
Die Blockchain erlaubt es, dass Informationen durch dezentrale Netzwerke überprüft und verifiziert werden. Die konkrete Einzigartigkeit eines Datensatzes lässt sich durch diese Verfahrensweise bestätigen. Wie im Namen angelegt, bildet die Blockchain also eine Kette an überprüfbaren Datensätzen.
Eine interessante Analogie zur Blockchain bildet beispielsweise das Bild eines selbstgestrickten Schals. Einzelne Maschen formen das Kleidungsstück.
Eine nach der anderen wird sorgfältig gestrickt. Jede neue Masche nutzt die vorangegangenen. Eine einzige Masche lässt sich nun nicht mehr aus dem Gewebe herauslösen.
Einen ähnlichen Aufbau zeigt die Blockchain. Auch an diese Kette wird Teil an Teil gefügt. Jede Blockchain trägt also die eigene Vorgeschichte mit sich.
So lässt sich der Wahrheitsgehalt einer Information verifizieren, da sie nur das letzte Glied einer größeren Reihe bildet. Bei der Absicht, eine Blockchain zu fälschen, müsste der ganze Datensatz umgebaut werden. Es wäre ähnlich, als würde man bei einem Schal im Nachhinein eine gewisse Masche auflösen wollen. Nahezu ein Ding der Unmöglichkeit und mit Sicherheit auffällig, vor allem unter den Bedingungen eines dezentralen und transparenten Netzwerks. Hierin besteht nahezu eine garantierte Fälschungssicherheit.
Diese Funktionalität erweist sich als äußerst nützlich in Verbindung mit Finanzüberweisungen. Mittels Blockchain erscheint es außerdem nicht mehr als Vorbedingung, über ein Bankkonto zu verfügen, um Geldtransfers durchführen zu können. Geldtransfers werden schneller, kostengünstiger, unkomplizierter und bedingen nicht mehr der Finanzinstitutionen selbst, sondern nur noch einer virtuellen Geldbörse.
Die Blockchain wird auch Konsequenzen für die Dokumentation von Vertragsunterzeichnungen oder die Übertragung von Eigentumsrechten mit sich bringen. Falls die unzweifelhafte Belegbarkeit von Informationen benötigt wird, dann handelt es sich oft um Dienstleistungen, die von öffentlichen Einrichtungen oder Notaren übernommen werden. In Zukunft lässt sich durchaus denken, dass der Blockchain eine ähnliche Rolle angedacht wird.
Denkbar erschiene beispielsweise, dass Grundbücher auf einer Blockchain abgelegt werden. Dann würde die Legitimität von belegbaren Besitzansprüchen auch politische Revolutionen überdauern. Das wiederum könnte gerade bei Bürgern in Staaten mit schwachen politischen Institutionen Vertrauen stiften. Solche Verfahren werden also durch die Blockchain strukturiert, die Anwendungsmöglichkeit entsprechend gefunden.
3.9 Robotik
Die Robotik forscht an der Herstellung von Entitäten, die durch integrierte Sensoren, Aktoren und Informationsverarbeitung mit der Umwelt interagieren können. Die Robotik baut also Roboter. Sie kümmert sich um deren Steuerung und Entwicklung.
Das Wort selbst stammt bereits aus den 1920er-Jahren. Damals hat es der tschechische Dramatiker Karel Čapek in einem Theaterstück genutzt. Robota steht im Tschechischen für Arbeit, Fronarbeit. Roboter haben also von Beginn an den Zweck zugedacht bekommen, Arbeiten zu erledigen und menschliche Tätigkeiten zu übernehmen.
Wo und wie Roboter zukünftig Einsatz finden, bestimmen nicht nur Durchbrüche, die in der technologischen Entwicklung erzielt werden. Es werden auch Übereinkommen entscheidend sein, die im Rahmen gesellschaftlicher Diskussionen entstehen. In welchem Ausmaß Roboter beispielsweise im Gesundheitsbereich oder bei der Pflege verwendet werden, bildet nicht nur eine Frage technischer Machbarkeit, sondern reflektiert auch einen Konsens sozialer Akzeptanz.
In anderen Kontexten scheint die Herausforderung, vorab die gesellschaftliche Zustimmung zum Einsatz von Robotern erwirken zu müssen, eher nachrangig und bereits vorhanden. Moderne Lagerverwaltung wird bereits durchaus mittels Robotertechnologie vollzogen. Es agieren selbstständige Einheiten, die detailliertes Wissen über den Lagerbestand speichern, eigene Systematiken bezüglich der besten Einordnung etablieren, die – im Vergleich zum Menschen – schneller und fehlerfreier ihren Aufgaben nachkommen, auch beim Transport sehr schwerer Güter oder Container belastbar und nahezu bei jeder Abnutzung agieren.
Der chinesische IT-Konzern Alibaba hat es beispielsweise vermocht, allein an einem einzigen Tag im Jahr 2017 Produkte im Wert von 25 Milliarden $ zu versenden. Das wäre ohne den Einsatz moderner Roboter kaum möglich, die ungefähr 70 % der anfallenden Arbeiten im Lager übernehmen und dreimal so effizient agieren, wie es vergleichsweise Arbeiter könnten. Es lässt sich diesbezüglich von einem kollaborativen Ansatz zwischen Lagerarbeitern und Robotern sprechen.
Auch der Onlineriese Amazon agiert genau unter diesen Vorzeichen. Roboter kommen zum Einsatz, um Lagerarbeiter zu unterstützen, um deren Wege zu verkürzen und die Lagerverwaltung zu vereinfachen. Selbstverständlich sind die Ansprüche an die Technologie in diesem konkreten Zusammenhang merklich geringer als an Roboter, die im Gesundheitsbereich eingesetzt werden.
In Verbindung mit dem Internet der Dinge lassen sich perspektivisch Prozessabläufe zwischen Produktion und Lager optimieren und Effizienz schaffen.
Doch gerade in Zusammenhang mit der Robotik tritt eine Frage fundamental auf, die auch für die adaptive Durchsetzungsfähigkeit aller anderen Technologien entscheidend wirkt: Wie neue Technologien eingesetzt werden und wie sich ihre Zweckmäßigkeit bestimmen lässt, bleibt in Demokratien eine gesellschaftlich zu treffende Entscheidung.
3.10 Augmented Reality, Virtual Reality
Weil die reale Welt als persönlicher Eindruck erfasst wird, können Computerprogramme alternative Welten als sinnvolle Konzepte für den Menschen replizieren, um in alternative Wirklichkeiten einzutauchen.
Virtuelle Realität bezeichnet das Verfahren, Eindrücke von interaktiven Umgebungen ausschließlich durch computergenerierte Impressionen zu erschaffen. Dies bedeutet, dass Welten durch Computerprogramme erzeugt und durch spezifische Vorrichtungen dargestellt oder vermittelt werden, die an die Wahrnehmung durch menschliche Sinnesorgane appellieren.
Bei der Virtual Reality handelt es sich in diesem Zusammenhang um vollständig audiovisuelle Welten, die eine Person ganzheitlich umschließen.
Bei der Augmented Reality wird die vorhandene Außenwelt durch Simulationen angereichert. Es werden also virtuelle Attribute, grafische Zusätze, Informationen oder Gegenstände als Projektionen in die vorgefundene Umwelt hineinplatziert.
Virtual Reality umschließt den Nutzer ganzheitlich mit computergenerierten, alternativen Impressionen zur realen Umwelt. Eine spezifische Brille dient als Instrument, um in imaginative Szenarien einzutauchen, andere Identitäten oder Umgebungen als persönlichen Eindruck zu erleben. Die allgemeine Vorstellung darüber, was die Konsistenz von Raum und Zeit bedeutet, sowie die Methoden von Kooperation und sozialer Interaktion werden dadurch erneuert. Durch Augmented Reality lässt sich die Umwelt partiell adaptieren, sie wird durch Projektionen visuell und informativ angereichert. Durch Virtual Reality werden ganzheitliche Wahrnehmungen erzeugt.
3.11 DNA-Sequenzierung
Bei der Sequenzierung des Genoms handelt es sich um ein Analyseverfahren, das bereits seit Ende des letzten Jahrhunderts angewendet wird.
Die molekularbiologische Methode ermöglicht es das im Genom kodierte Erbgut eines Lebewesens zu entschlüsseln. Auf Grundlage dieser Vorgangsweise können Einschätzungen über die Krankheitsrisiken von Personen präventiv getroffen werden. Das Wissen befähigt, Diagnosen zu stellen, die nicht nur daraufhin wirken, Krankheiten zu behandeln, sondern sie möglichst im Vorhinein zu unterbinden. Es gilt zu verhindern, dass sie überhaupt ausbrechen.
Auch dieser Paradigmenwechsel im medizinischen Bereich setzt die Möglichkeiten von Big-Data-Analysen und umfassenden Rechenleistungen voraus, um die DNA-Stränge von einer Vielzahl von Individuen zu vergleichen und Gefahrenpotenziale durch Anomalien zu erkennen.
Durch die Entwicklungsprozesse wird sich das Bild, das wir uns von Krankheiten machen, nachhaltig verändern. Das Verständnis von physischer Konstitution wird möglicherweise einen radikalen Wandel erfahren und das europäische Gesundheitsmodell auf anderen Paradigmen beruhen.
Möglicherweise werden nicht alle diese Trends tatsächlich das Entwicklungspotenzial ausweisen, das ihnen gegenwärtig zugemessen wird. Denkbar, dass manche Trends hinter das Versprechen zurückfallen könnten, das sie bereits verkörpern.
Ebenso scheint es möglich, dass die Entwicklungszyklen bis zum finalen Durchbruch längere Zeitspannen beanspruchen als gegenwärtig geschätzt wird.
Dann existieren die inneren Verbindungen zwischen den einzelnen Aspekten, die zu berücksichtigen sind. Viele der dargestellten Perspektiven sind inhärent voneinander abhängig, da der technologische Fortschritt in einem Bereich Entwicklungen in anderen Bereichen voraussetzt, um darauf aufzubauen.
Auch wirkt es vorstellbar, dass zusätzliche technologische Trends an Bedeutung gewinnen, die hier nicht dargestellt wurden. Das könnten beispielsweise die nächste Generation von mobilen Netzwerken (5G), der Quantencomputer oder die drahtlose Energieübertragung sein. Keine Aufzählung kann Vollständigkeit für sich behaupten.
Doch was sich mit kategorischer Sicherheit bestimmen lässt: dass sich die Zukunft aufgrund der genutzten Technologie grundlegend von der Gegenwart unterscheiden wird.
Die technologischen Verfahren und organisatorischen Prozesse, die zukünftig zur Anwendung gebracht werden, werden sich radikal von den gegenwärtigen unterscheiden. Sie werden selbstständig denken, automatisch und vernetzt operieren und Disruption in klassischen Märkten verursachen.
Neue Technologien werden nicht nur zu neuen Produkten führen, sie werden auch die Herstellungsverfahren existierender Produkte radikal reorganisieren. Sie werden die menschliche Wahrnehmung herausfordern und unsere Stellung als Mensch in marktwirtschaftlichen Prozessen neu aufsetzen.
Wir finden uns zweifellos in einer Ära der vehementen „Schöpferischen Zerstörung“ und industriellen Mutation. Bewährte Sicherheiten werden überholt, es nötigt zur Veränderung. Es braucht also den Willen zur Innovation.
Zukünftige Anwendung von technologischen Verfahren und organisatorischen Prozessen
4 Innovationsmanagement, Innovationsrisiken – und personelle Adaptionen
Der Begriff Innovation kommt ursprünglich aus dem Lateinischen und stammt vom Verb innovare ab, das erneuern meint. Diese Wortwurzel legt bereits die heutige Bedeutung offen.
Innovation meint grundsätzlich, dass etwas Bestehendes erneuert wird.
Das Prinzip von Innovation gründet in diesem grundsätzlichen Verständnis nicht in der Betriebswirtschaft, sondern findet sich bereits in der anfänglichen Gedankenwelt unterschiedlicher Kulturen. In dem Sinne, dass Vorhandenes sich ändert, knüpft Innovation an vielfältige Vorstellungen vom Verlauf und Rhythmus der Welt an. Nicht Statik wird also zum Prinzip gehoben, sondern der Wandel des Seienden. Dabei gilt es, essenziell zu berücksichtigen, was als Gnadenlosigkeit der Innovation begriffen werden kann:
Innovation bedeutet nicht nur, dass sich Bestehendes erneuert. Das Wirkprinzip meint in weiterer Folge auch, dass bisher Gültiges und Vorhandenes obsolet und unnütz wird. Innovative Veränderungsprozesse führen nicht zur Koexistenz von Neuem und Alten, sondern zum Ersatz des Alten durch das Neue.
Die Lehren des Buddhas oder der Beginn der abendländischen Philosophie bei Heraklit, um die beiden wirkmächtigsten Ursprünge zu nennen, also die Grundlage manch westlicher und östlicher Denkprinzipien, ankern bereits darin, dass sich die Welt in permanentem Veränderungszustand befindet.
Persönliche Erfahrungen bezeugen ebenso, dass sich Zustände transformieren und die Gegenwart nie Bestand hat, sondern sich im tatsächlichen und ansehnlichen Wandel befindet. An diese jahrtausendealte Denktradition können nun auch die empirischen Befunde moderner Ökonomie anschließen. Auch der zeitgemäße Markt bezweckt fortlaufende Transformationen und Erneuerungen – getrieben durch Innovation.
Das aktuelle und betriebswirtschaftlich geprägte Begriffsverständnis von Innovation meint, dass durch moderne Entwicklung neue Produkte, Verfahren oder Dienstleistungen auf den Markt gebracht werden, die bisher genutzte verdrängen.
Der Ökonom, der dieses Phänomen vermutlich am populärsten untersuchte, war Joseph Schumpeter. Seine konkreten Theorien werden zu Ende des Skripts dargestellt. Sie bieten eine theoretische Betrachtungsweise, wie die nachfolgenden Fallstudien verstanden werden können.
Was ist Innovation?
Innovation
Innovation und das Wirkprinzip
Begriffsverständnis
Zu Beginn der Vertiefung über Innovation steht zuerst die Frage, welche strukturellen Voraussetzungen in Organisationen gegeben sein müssen, damit Innovation sich wirksam vollzieht. Anschließend folgen die Case Studies als eindrückliches Anschauungsmaterial, bevor abschließend die betriebswirtschaftlichen Theorien von Joseph Schumpeter dargestellt werden, um dem Ganzen eine abschließende Klammer und Erklärung zu geben.
4.1 Was meint Innovation?
Eine Palette unterschiedlicher Technologien verändert aktuell die Fundamente sozialer und ökonomischer Prozesse. Die zentrale Herausforderung für Organisationen besteht darin, die Entwicklungen profitabel zu nutzen und Ideen zu konzipieren, die auf vielversprechenden Neuerungen aufbauen. Wie können die zukunftsträchtigen Trends also als Fortschritt inkorporiert werden? Dabei handelt es sich um sehr individuelle Strategien, die zu definieren sind. Doch generelle Hilfe und Orientierung bieten Ratschläge des Innovationsmanagements.
Innovationsmanagement bildet den systematischen Ansatz, Innovationen in Organisationen entstehen zu lassen, sie zu sammeln und zu kontrollieren.
Ein chronologischer Fragenkatalog steht dabei grundsätzlich am Anfang der Überlegung:
• Welche Bedürfnisse sind seitens der Kunden vorhanden?
• Wie können diese bedient werden?
• Welchen Sinn hat die Innovation für die Gesellschaft?
• Wie wirkt sich Innovation auf die Konkurrenzsituation aus?
Innovationsmanagement kann vielfältige Vorhaben, die sich in Hinblick auf den Umfang unterscheiden, in Organisationen unterstützen. Dabei lassen sich unterschiedliche Tiefenschärfen ausmachen:
• Organisationsinterne Prozesse werden bezüglich des Optimierungspotenzials analysiert.
• Neue Produkte oder Dienstleistungen werden konzipiert.
• Es werden Möglichkeiten überlegt, bestehende Produkte oder Dienstleistungen zu modernisieren oder zu verbessern.
• Gänzlich neue Geschäftsmodelle werden angedacht.
• Es können Kooperationen mit anderen Unternehmen oder Neugründungen geplant werden.
Innovationsmanagement, Innovationsrisiken – und personelle Adaptionen:
• Es handelt sich um unterschiedliche Kombinationen der verschiedenen Planvorhaben.
Ein tatsächlicher Unterschied besteht zwischen der Tiefenwirkung von wahrer Innovation und dem Wesen schlichter Veränderung.
Das entscheidende Differenzierungsmerkmal liegt darin, wie ausgeprägt der Neuheitsgrad ist. Handelt es sich um eine Veränderung des Bestehenden oder um einen kompletten Neuansatz, der versucht wird? Das gilt es zu vermerken, weil die Grenzen zwischen den Kategorien verschwimmen können und sie außerdem auf ähnlichen Voraussetzungen aufbauen.
Innovationsmanagement basiert generell auf zwei Ebenen. Es verknüpft strukturelle und prozessuale Aspekte, damit sich Ideen in Organisationen entfalten können.
• Strukturelle Dimension:
Sie stellt sicher, dass ein Umfeld gestaltet wird, welches der Entwicklung und Umsetzung von Ideen zuträglich ist. Sind Rahmenbedingungen, Kommunikationskanäle und Arbeitsbedingungen vorhanden, die Innovationen entstehen lassen? Organisationen müssen sich in dieser Hinsicht selbstkritisch prüfen.
• Prozessuale Komponente:
Sie bewertet, ob eine Organisation konkrete Aufmerksamkeit auf den Sachverhalt legt, dass neue Ideen entstehen, vorgebracht und umgesetzt werden können. Genügen die vorhandenen Prozesse, die Anwendung finden, diesen Ansprüchen? Das gilt es, kritisch zu eruieren. Werden Defizite ausgemacht, müssen sie beseitigt werden.
Eine wertvolle Ressource, um die eigenen Unzulänglichkeiten zu ermessen, liegt im empirischen Erfahrungsschatz der Mitarbeiter selbst. Durch qualifizierte Interviews lässt sich beispielsweise wertvolles Wissen heben, wo es Verbesserungspotenziale gäbe. Es lässt sich eruieren, welche Gründe dafür ausgemacht werden, warum frühere Ideen nicht realisiert werden konnten.
Woran sind Innovationen, die Mitarbeiter bereits hatten, bisher gescheitert?
Welche Hindernisse bildeten Blockaden?
Diese Vorgehensweisen, erstmals Mitarbeiter als Erkenntnisquelle heranzuziehen, eignet sich für Unternehmen aller Größenordnungen. Denn Innovation bildet ein universelles Phänomen, das keine kritische Organisationsgröße voraussetzt. Als Innovationsmotor können kleinere Einheiten oder größere Verbände agieren. Innovationen bilden sogar ein effektives Instrument, wie kleine Unternehmen große Organisationen herausfordern oder kleine Abteilungen arrivierte Bereiche übertreffen können.
Drei Ansätze werden in Betracht gezogen, um die eigene Innovationsfähigkeit zu bewerten:
Innovationsstrategie
Die Innovationsstrategie schafft innerhalb einer Organisation Klarheit darüber, welchem Zweck Innovation nachkommen soll. Was möchte durch Innovation erzielt werden? Wofür wird sie benötigt? Sollen beispielsweise Wachstumsmärkte erschlossen werden? Möchten Produkte verbessert werden? Wirken in der eigenen Branche industrielle Mutationen? Oder zielt die Veränderung bzw. Innovation auf Interna? Es verlangt nach einem verständnisvollen Bild dessen, was als Ziel anvisiert und warum Innovation gefordert wird. So lässt sich auch retrospektiv ermessen, ob die Ziele erreicht oder verfehlt wurden.
Innovationskultur
Innovative Unternehmen verkörpern und kultivieren eine gewisse Haltung, die eine Aufgeschlossenheit gegenüber der eigenen Umwelt und Entwicklungsperspektive bezeichnet. Innovation wird befördert, gefordert, ermutigt, auf sie wird fokussiert. Eine der ersten Aufgabe seitens des Managements besteht also darin, aufrichtig darüber zu urteilen, ob eine solche Auffassung innerhalb der eigenen Organisation ebenfalls geteilt wird. Zeigt man sich eher aufgeschlossen gegenüber Neuerung oder gelten Vorbehalte und Gewohnheiten, die schwer aufzubrechen sind?
Die Innovationskultur bildet eine Facette der größeren Unternehmenskultur. Eine schwach ausgeprägte Innovationskultur lässt sich daher durch einen intendierten Bewusstseinswandel stärken. In dieser Hinsicht können schon einzelne Projekte helfen, die zu schnellen Erfolgen führen, um Veränderung herbeizuführen. Auch lassen sich beispielsweise in Unternehmen Vorträge organisieren, die darauf abzielen, den Bewusstseinswandel zu unterstützen. Ein geteilter Wissensstand über die Dringlichkeit des Wandels, die durch aktuelle Trends erwirkt wird, etabliert Offenheit gegenüber der Innovationskultur. In diesem Zusammenhang gilt es, aufrichtig darüber zu urteilen, wie innerhalb der Organisation mit dem Prozess des Scheiterns umgegangen wird. Werden Freiräume geschaffen, die es erlauben, mutig Neues auszuprobieren? Wird ein Projekt, das nicht sofort zum gewünschten Resultat führt, als Misserfolg verstanden und folgen daraufhin Vorbehalte gegen
über den Verantwortlichen? Wird mit nutzlosen Schuldzuweisungen gearbeitet? Werden alle Angestellten mikrogemanagt und damit die Freiräume beschnitten, die es zur Eigeninitiative braucht? Werden richtige und kostbare Lehren aus möglichen Zielverfehlungen gezogen? Ist ausreichend Geduld vorhanden? Existiert der Mut, es nochmal zu wagen? Worauf bauen Karrierechancen im Unternehmen? Das alles repräsentiert einen Schlüssel, um die Innovationskultur in einem Unternehmen zu befördern.
Innovationskompetenz
Verfügt ein Unternehmen über das Know-how, um Innovationen zu gestalten? Finden sich ausreichend technische, kommunikative und organisatorische Kompetenzen, die Voraussetzung sind, um Innovationen zu ermöglichen? Oder müssen neue Fachkräfte dafür angeworben und eingestellt werden? Können die fehlenden Fähigkeiten im Unternehmen durch Fortbildung erwirkt werden? Gibt es Personen, die über die notwendige Integrität im Unternehmen verfügen, den Veränderungsanspruch tatsächlich zu repräsentieren? Zeigt das Organigramm Stellen, die dafür prädestiniert wären, den Innovationsprozess zu übersehen und zu verantworten? Müssen neue Positionen geschaffen werden? Funktioniert die Einbindung des Managements? Erweisen sich die Rückkopplungseffekte zwischen Management und Team als ausreichend? Die Innovationskompetenz hängt eng mit der impliziten Komplexität der Innovation zusammen, die anvisiert wird. Je diffiziler oder einschneidender sich ein Vorhaben oder eine Entwicklung gibt, umso höher sind die Ansprüche, die an das Management gestellt werden.
Innovation baut auf Koordination. Sie orientiert sich an strategischen Zielsetzungen und basiert auf unterschiedlichen unternehmerischen Prozessen. Sie weist technologische, prozessuale, finanzielle, kommunikative Aspekte auf, die zusammengeführt und geleitet werden müssen. Diese Koordinationsfunktion muss das Innovationsmanagement übernehmen.
Abschließend soll in diesem Rahmen noch der Gegenstand der Herausforderung durch Innovationsrisiken erklärt werden: Innovationsrisiken wirken vor allem sehr spezifisch in unterschiedlichen Sach- und Bedeutungszusammenhängen. Aufgrund dieser Einschränkung seien nur die populärsten und häufigsten Innovationsrisiken in Kürze dargestellt.
Ein Risiko, das jedem technischen Innovationsprozess innewohnt, wäre das technologische Risiko selbst. Innovationen lassen sich deshalb nicht realisieren, weil die Technologie noch nicht den notwendigen Reifegrad aufweist, um die geplanten Vorhaben praktisch umzusetzen. Oder es würde auf Vorleistungen bauen, die noch nicht geliefert, produziert, programmiert werden können oder in benötigter Form oder Ausbaustufe vorhanden wären.
Innovation und Koordination
Eine andere Herausforderung besteht darin, dass Vorplanung und anfängliche Investitionen mehr Aufwand als geplant verursachen, sodass die mögliche Rentabilität unwahrscheinlich und unerreichbar wird.
Oft passiert es auch, dass Projekte eingestellt werden, die bereits Fortschritte erzielt haben oder kurz vor dem Durchbruch stehen. Doch weil die ursprüngliche Planung von kürzeren Zeitintervallen ausgegangen ist und die zu erreichenden Milestones nicht termingerecht geschafft wurden, verlieren die Verantwortlichen das Vertrauen in den Erfolg. Hier verlangt es Urteilskraft und Flexibilität seitens des Managements, um zu beschließen, ob das Vorhaben weiter vorangetrieben werden soll.
Ein anderes Risiko bestünde darin, dass für eine technisch gelungene Innovation kein passendes Geschäftsmodell oder genügend Absatzmärkte gefunden werden. Alle diese Risiken bilden Herausforderungen, denen durch Risikomanagement begegnet werden soll. Substanzielle Innovationsrisiken können bereits in der Vorbereitung von Innovationsprozessen erkannt werden.
Ein vehementes Risiko, das a priori existiert, wäre die Gefahr, dass innovative Ideen gar nicht aufgegriffen werden. Ein anderes wäre es, dass auf vorhandene Entwicklungen zu zögerlich reagiert oder ihnen nur indifferent begegnet wird. Das Risiko würde also im Sachverhalt bestehen, die disruptiven Kräfte der Innovation durch andere sträflich zu unterschätzen.
Die starre Überzeugung hingegen, dass die digitale Transformation nur begrenzte Umbrüche verantworten wird und dass alles Wesentliche vermutlich so bleiben kann wie bisher, repräsentiert keine Einschätzung, deren Tragweite sich allein durch das Risikomanagement ermessen lässt. Es handelt sich oft nicht nur um eine fatale Fehleinschätzung und irreführende Hoffnung, sondern geradezu um eine Unterlassung. Dass diese Überzeugung von Organisationen zu lange getragen wird, repräsentiert das größte aller Risiken.
Weiters stellt sich für den Verantwortungsbereich des Managements auch die Frage nach der Finanzierung von Innovation. Auch hier unterscheiden sich die Richtwerte eklatant nach Branchen. Doch manche Überlegungen scheinen universell: Findet sich ausreichend Kapitaldeckelung? Werden ausreichend Ressourcen eingeplant? Werden dafür Mittel des Fremd- oder Eigenkapitals genutzt? Soll um öffentliche Förderung geworben werden? Werden in einem Unternehmen genügend Informationen aufbereitet, um perspektivische Innovationsentscheidungen zu treffen? Wurde ausreichend Datenmaterial gesammelt, um die Entwicklungsperspektive technologischer Prozesse auf das eigene Geschäftsfeld zu ergründen? Wurden die eigene Position, der absolute und relative Marktanteil und die Ertragsmöglichkeiten am Markt unter der Perspektive versäumter und geglückter Innovation bewertet?
Diese Fragestellungen bedürfen der Klärung und strategischen Entscheidung. Besonders auch vor dem Hintergrund, dass nicht jeder Versuch gelingt, Innovationen zum beabsichtigten Ergebnis zu führen. Nicht immer wird die gewünschte Rendite auf Anhieb erzielt. Dieser Sachverhalt weist bereits darauf hin, dass systematisches Innovationsmanagement enge Kooperation mit umsichtigem Risikomanagement erfordert.
4.2 Die Differenz zwischen Funktion und Organisation
Jedes erfolgreiche Unternehmen liefert Dienstleistungen, baut Produkte oder konzipiert Hilfestellungen, die von der Gesellschaft nachgefragt werden. Man trägt auf diese Weise zum modernen Wohlstand der Gesellschaft bei. Ohne diese präzisen Leistungen wären wir als Ganzes ärmer und rückschrittlicher. Es erfüllt also nachgefragte Funktionen. Um Bewusstsein darüber zu erlangen, was genau diese individuelle Funktion wäre, benötigt es intensive Verständnisprozesse. Analytisches Denken setzt Methode voraus:
Dekonstruktivistische Leitprinzipien können sich dabei als ertragreich erweisen.
Der Dekonstruktivismus repräsentiert eine wissenschaftliche Methodik, die ihren Ursprung in der Literaturwissenschaft findet. Von dort wanderte die Idee in die Architektur weiter. In Hinblick auf die Architektur lässt sich die Funktionsweise des Dekonstruktivismus nachvollziehbar und pragmatisch erklären. Der Dekonstruktivismus tritt als radikale Bautradition an, um gewöhnliche Baukonzepte hinter sich zu lassen. Sein essenzieller Ansatz besteht darin, geometrische Körper, die sich in gewöhnlichen Bauten finden, zu fragmentieren, um sie dann in neuer Kombination wieder zusammenzusetzen. Klare und ausdrucksvolle Figuren wie der Würfel, der Kegel, der Zylinder, die Kugel oder das Trapez werden eigenständig in ganze Bauensembles eingebettet. Die Reduktion auf das Wesentliche, die dem Dekonstruktivismus eigen ist, erlaubt es dann, eine neue Formsprache zu finden.
Der Dekonstruktivismus geht also folgendermaßen vor: Formen und Strukturen, die sich in gewöhnlichen Bauten finden, werden in ihre Grundelemente zerlegt – also dekonstruiert –, um sie anschließend neu zusammenzusetzen.
Der konzeptionelle Zugang kann auch dafür genutzt werden, moderne Geschäftsmodelle besser zu verstehen. Entwicklungsperspektiven für ein Unternehmen lassen sich dann erschließen, wenn die wesentliche Funktion erkannt wird, die der Betrieb verfolgt. Es verlangt nach trennscharfer Differenzierung zwischen der Funktion, die erfüllt wird, und der Organisation, durch die sie umgesetzt wird.
Werden vorhandene Marktstrukturen und prognostizierbare Transformationen betrachtet, lässt sich eine Dualität nutzen, um mit Tiefenschärfe betriebliche Angebote einzuordnen. Die Dualität, die Aufschluss darüber gibt, lässt sich durch die Begriffe der Funktion und der Organisation unterscheiden.
Die Funktion bildet jene Dimension einer Dienstleistung oder eines Produkts, die den tatsächlichen Nutzen und das Wirkprinzip erfasst. Die Organisation hingegen meint die Struktur, wie dieser Nutzenaspekt abgewickelt, aufgebaut und organisiert wird.
Anhand eines praktischen Beispiels lassen sich die Doppelbegriffe Funktion und Organisation ansehnlich darstellen. Als Anschauungsobjekt soll eine gewöhnliche Geldüberweisung betrachtet werden. Es handelt sich dabei um eine grundlegende Dienstleistung, die von Finanzinstitutionen abgewickelt wird. Ohne Geldüberweisungen könnten moderne Ökonomien prinzipiell nicht funktionieren. Eine Person, die entweder Ausstände oder liquiden Überschuss hat, überweist an eine andere Person einen Geldbetrag, der geschuldet oder aus anderen Gründen übertragen wird. Geldüberweisungen haben die Funktion, den Transfer denkbar unkompliziert abzuwickeln. Die Personen müssen sich nicht tatsächlich treffen: Große Distanzen lassen sich überbrücken, um genaue Summen in Abgleich zu bringen. Geldüberweisungen bieten Sicherheit und Verlässlichkeit. Sie erlauben einer Gesellschaft, den Haushalt an finanziellen Ressourcen zu balancieren. Dieser Funktion kommen Geldtransfers in Zukunft im selben Maße nach, wie sie es bereits in der Vergangenheit getan haben. Die Bedeutung der spezifischen Dienstleistung wird aller Voraussicht nach in einer global vernetzten und beschleunigten Welt sogar weiter ansteigen. Was sich aber durchaus anders gestalten lässt, wäre der Aspekt, wie die Organisation dieser Funktion aufgebaut wird.
Im Regelfall setzt ein Geldtransfer voraus, dass alle beteiligten Parteien über ein Bankkonto verfügen. Es benötigt eine spezifische Infrastruktur, die von allen genutzt wird, und geteilte Standards. Die Übertragungen geschehen beispielsweise dadurch, dass das SWIFT-System zur Anwendung kommt. Um die Beträge übertragen zu können, brauchen die involvierten Personen Zugang zu ihren Bankdaten und Verfügungsgewalt über ihre Konten. Sie können sich online in ihr E-Banking einwählen, stationäre Automaten nutzen oder sich an den Bankberater wenden, um das Notwendige zu veranlassen.
Funktion und Organisation
All diese Funktionsprinzipien lassen sich jedoch vollkommen anders strukturieren und denken. Bitcoin ermöglicht beispielsweise, dass Empfänger oder Sender kein eigenes Bankkonto mehr brauchen. Eine grundsätzlich andere technologische Infrastruktur ließe sich anwenden. Das Verfahren könnte auf größerer Transparenz aufbauen, die Abwicklung sich beschleunigen und Prozesse vereinfacht werden. Die gleiche Funktion Geldüberweisung baut dann auf einer anderen Organisation auf. Die beiden Ebenen Funktion und Organisation werden zu oft vermengt, fälschlich sogar als vereinheitlicht betrachtet. Stattdessen verlangt es nach sorgfältiger Differenzierung.
Die Organisation einer Funktion zu erneuern, bildet oft die Grundlage von Innovation. Darüber nachzudenken, ein Selbstverständnis für die eigene Funktionalität zu erwirken und die Organisation dieser Funktion kreativ neu zu denken, bildet eine grundsätzliche Aufgabe für das betriebswirtschaftliche Verständnis der digitalen Transformation. Als Vorbedingung, um die Konsequenz der digitalen Transformation für die eigene Geschäftstätigkeit zu ermessen, verlangt es nach institutionellem Selbstbewusstsein. Es braucht die Voraussetzung, dass die tatsächliche Funktion der Unternehmenstätigkeit verstanden wird. Diese Einsicht lässt sich dann mit den Prozessen der digitalen Transformation in Einklang bringen. So lassen sich strategische Entscheidungen koordinieren. Digitale Transformation zielt dabei nicht notwendigerweise auf die Funktion eines Produkts oder einer Dienstleistung, aber sie ändert oft die strukturellen Prinzipien der Organisation eines existierenden Produkts oder einer Dienstleistung.
Wie lassen sich die Fäden zusammenknüpfen? Dekonstruktivistische Denkansätze zeigen auf, was die präzise Funktion wäre, die ein Unternehmen liefert. Die Funktion einer Dienstleistung oder eines Produkts lässt sich von der Organisation abtrennen. Die digitale Transformation setzt im Regelfall auf Ebene der Organisation an. Die Funktion, die erwirkt wird, bleibt bestehen.
Die Organisation hingegen lässt sich durch Prozesse der digitalen Transformation alternativ denken. So entstehen neue Geschäftsmodelle.
Die Aufgabe für erfolgreiches Management besteht darin, durch Selbstreflexion Richtungsentscheidungen treffen zu können. Aufbauend auf dem Verständnis der eigenen Funktion kann die Übereinstimmung mit technologischen Trends eruiert werden.
Als Erklärungshilfe lassen sich dabei beispielweise Benchmarking-Studien nutzen. Dabei handelt es sich um Untersuchungen von Marktforschungsinstituten, die Aufschluss darüber geben, wie andere Konkurrenten oder Märkte auf ähnliche Veränderungen reagiert haben. Alle diese Prozesse lassen sich durch professionelles Consulting begleiten.
Doch nicht nur die Notwendigkeit des Wandels für bestehende Organisationen begründet sich durch die digitale Transformation. Zeiten tiefgreifender ökonomischer Veränderung erfassen immer eine Ära neuen Gründergeists.
Wenn Bestehendes einen Transformationsprozess durchläuft und die Zukunft einen offenen Prozess bildet, der gestaltet werden will, dann kristallisieren sich markante wirtschaftliche Chancen heraus, die ergriffen werden können. Die etablierte Hierarchie in Märkten gerät in Bewegung, diese Fragilität hilft neuen Unternehmen dabei, ihre Position zu erkämpfen.
4.3 Warum ein Chief Innovation Officer (CINO)?
Technologie wirkt aktuell als rasante Triebkraft gesellschaftlicher Veränderung. Sie formt die operative Logik von Märkten substanziell neu. Als integraler Teil der Umwelt bilden technologische Prozesse eine universelle Kraft, die von privaten und öffentlichen Organisationen verstanden und intern implementiert werden muss.
Es wäre unzureichend, Technologie gegenwärtig nur auf technische Komponenten zu reduzieren. Dieses Verständnis greift zu kurz. Es handelt sich vielmehr um ein soziales Phänomen, das einen holistischen Verständniszugang bedingt. Technologie bildet demgemäß ein methodisches Kernelement, um strategische Managemententscheidungen zu realisieren. Dieser angemessene Begriff begründet einen konkreten Imperativ in Hinblick auf den organisatorischen Aufbau von Unternehmen. Technologie darf in vielerlei Fällen nicht zu einem Sachverhalt verengt werden, um den sich schlicht die Technik-Abteilung zu kümmern hätte. Vielmehr verlangt es, sie in eine stringente Unternehmensstrategie einzubinden. Es braucht Zielvorgaben durch die Unternehmensführung und ein visionäres Bild davon, wohin sich die Organisation perspektivisch entwickeln soll. Ist dieser Rahmen angepasst, können die technologischen Lösungen korrespondierend entwickelt werden. Technologie wird in diesem Sinn reines Mittel, darauf angewendet, dem Zweck der Unternehmensziele nachzukommen.
Erfolgreiches Management verlangt gegenwärtig nach einem dezidierten Technologieverständnis: Beim Phänomen der digitalen Transformation handelt es sich um keine Aufgabe, die sich auf rein technische Implikationen verkürzen lässt. Vielmehr repräsentiert Technologie ein essenzielles Werkzeug, das effektiv genutzt werden muss, um Unternehmensstrategien umzusetzen.
Digitale Transformation als Werkzeug des Managements
Die Frage nach neuen Antrieben im Automobilverkehr kann als Anschauungsmaterial dienen, um die These praktisch zu verdeutlichen: Auch hier bildet die Technologie nichts anderes als ein Mittel zum Zweck. Die Veränderung erfolgt nicht der Veränderung selbst wegen. Der Zweck besteht vielmehr aus drei Säulen: „Null Emissionen. Null Staus. Null Verkehrstote.“ Ein ganzer Sektor kann dieser definitiven Absicht folgen. Wenn die Vision erstmals so formuliert ist, wird die pragmatische Entscheidung getroffen, welche Technologie genutzt oder entwickelt werden muss, um dieser Zieldefinition nachzukommen. Auch aus diesem Grund wird der Ausstieg aus dem Verbrennungsmotor zur Vorgabe, da, basierend auf dieser veralteten Technik, die dafür notwendigen technologischen Erneuerungen nicht eingesetzt werden können.
Technologie bildet also einen Baustein, um die Unternehmensziele zu verfolgen. Im Idealfall wird sie instrumentell und pragmatisch genutzt und als Werkzeug verwendet, um eigene Zielvorstellungen zu realisieren. Sie ist der Erfüllungsgehilfe größerer Ambition. Intelligente Technologie oder neuwertige technologische Lösungen bilden faktisch keinen Ersatz für eine ausgereifte Unternehmensstrategie, wie es oft fahrlässig verstanden wird. Vielmehr sind sie integrativer Bestandteil dieser. Diese Herangehensweise lässt erkennen, dass es institutionalisierte und kompetente Schnittstellen braucht, die kommunikativ und organisatorisch den Rückkopplungsprozess zwischen der Unternehmensführung und der Technikabteilung steuern. Dieser Funktion kann ein dezidierter Chief Innovation Officer (CINO), gegebenenfalls mit Team, nachkommen. Es handelt sich dabei um ein kommunikatives Rollenbild, um eine Schnittstellenfunktion. Die Verantwortung liegt dezidiert darin, Ansätze der Strategie, Technologie und Innovation zu vernetzen.
Beim Chief Innovation Officer (CINO) handelt es sich um eine Position, die dem Aufgabenbereich vorsteht, Innovation und Change-Management zu organisieren.
Anforderungsprofil wäre es, den Innovationsprozess zu managen und dafür Sorge zu tragen, dass Ideen, die in Organisationen entstehen, zum Durchbruch kommen.
Der CINO agiert in permanenter Absprache mit der Geschäftsführung oder kann selbst Teil dieser sein. Er versteht es, richtige Anreize im Unternehmen zu setzen und garantiert, dass die involvierten Stellen sich in permanentem Austausch miteinander befinden, um voneinander zu lernen. Er führt Ideenfindungsprozesse an. Er arbeitet an dem Bewusstsein, dass man durch eigenständige Innovation nicht einfach Trends hinterherläuft, sondern eine erfolgreiche Zukunft tatkräftig gestaltet. Durch Innovationsprozesse erwirken Marktteilnehmer gestalterische Kraft.
Das entscheidende Element in diesem Zusammenhang: Der CINO ist dann schließlich weder für die Programmierung noch für die Konzeption der technologischen Lösungen verantwortlich. Das obliegt weiterhin der Technik- oder Technologieabteilung.
Ein CINO verfügt über technologisches Grundverständnis. Aber wichtiger noch als solches Detailwissen wirkt die Fähigkeit, über kommunikative Überzeugungskraft zu verfügen, um Visionen bedenken, anstoßen und vermitteln zu können. Seine Aufgabe liegt darin, das Wesen von Veränderungsprozessen zu verstehen und strategische Leitgedanken zu erfassen, um den Glauben daran zu befeuern, was machbar wäre. Die Anforderungen müssen bedacht werden, wenn diese Stelle besetzt oder geschaffen wird. Darin bemessen sich die Chancen, erfolgreich in dieser Position agieren zu können. Es braucht die Fähigkeit, prognostisch denken zu können und eine Organisation davon zu überzeugen, dass die Zukunft Adaptionen verlangt.
Modernes Management basiert auf dem Grundsatz, dass die strukturelle Verantwortung für strategische Entschlüsse innerhalb einer Organisation auf Entscheidungsträger übertragen wird. Management verfügt dafür über die notwendigen Durchgriffsrechte. Es erfährt weiters personelle Unterstützung, um Entschlüsse treffen und operativ vollziehen zu können. Gutes Management koordiniert in diesem Sinne als übergeordnete Instanz organisationsinterne Prozesse. Es trifft Beschlüsse über die Zuteilung vorhandener Ressourcen, nachdem aussagekräftige Informationen aufbereitet wurden – immer in der begründeten Hoffnung, dass diese spezifische Investition die sinnvollste und ertragreichste aller möglichen wäre. Management denkt und handelt perspektivisch, kontrolliert und auf Zuschreibung von Autorität, die durch verdientes Vertrauen erworben wird. Die kürzeste Tätigkeitsbeschreibung von Management besteht in der knappen Formulierung, dass Management schlicht meinen würde, Entscheidungen zu treffen. Je mehr Informationen im Entscheidungsfindungsprozess gesammelt, bewertet und analysiert werden, umso belastbarer wird die Entscheidungsgrundlage und umso erfolgversprechender die Entscheidung selbst sein.
Nun finden sich im Kreis des professionalisierten und ausdifferenzierten Managements beispielsweise Stellen, die
• für das Finanzportfolio zuständig wären (CFO – Chief Financial Officer),
• Strategien in operative Prozesse umsetzen (COO – Chief Operating Officer),
• Marketing koordinieren (CMO – Chief Marketing Officer),
• technische Entwicklung verantworten (CTO – Chief Technology Officer).
Diese Stellen stehen ganzen Abteilungen oder Fachbereichen vor, verfügen über Weisungsbefugnisse und Entscheidungskompetenz. Sie steuern komplexe Prozesse, auf denen unternehmerischer Erfolg gründet.
Unter einer vergleichbaren Perspektive muss nun die Aufgabe verstanden werden, Innovation zu schaffen. Auch sie verlangt oft nach ähnlichen institutionalisierten Strukturen, wie es in anderen Bereichen bereits üblich ist.
Sie braucht klare Zuständigkeiten und Spielräume, weil sie inklusiver Bestandteil der strategischen Richtungsweisung wäre. Genau diesem Aufgabenbereich kommt ein Chief Innovation Officer nach.
Während Phasen intensiver und beschleunigter Innovationsdichte kann die Position auch durch externe Consultants besetzt werden.
4.4 Und was wäre ein Chief Digital Officer (CDO)?
Neben dem CINO ließe sich modernes Management in einer Organisation noch mittels einer anderen denkbaren Funktion ergänzen, um den digitalen Wandel anzuführen. Es handelt sich um den Chief Digital Officer.
Liegt der Aufgabenbereich eines CINO auf der Förderung von Innovation, wäre der CDO maßgeblich für die Transformation eines Unternehmens oder einer Organisation in das digitale Zeitalter verantwortlich. Natürlich entstehen dabei vielfach inhaltliche Anknüpfungspunkte zum CINO. Gerade auch bei Klein- und Mittelbetrieben zentralisieren sich die Aufgabenprofile in einer einzigen Position. Dann braucht es im Regelfall keine Abkopplung, dafür umso dringlicher das Bewusstsein für die tätige Doppelfunktion. Die reinen Definitionen und Aufgabenprofile wirken unterschiedlich. Über den CDO heißt es:
Der CDO (Chief Digital Officer) zeichnet für Planung und Durchführung der Transformation eines Unternehmens oder einer Institution in das digitale Zeitalter verantwortlich. Er entwickelt neue Geschäftsmodelle und erarbeitet die Digitalstrategie.
Gerade im deutschsprachigen Raum haben wenige Unternehmen dieses dezidierte Stellenprofil im eigenen Organigramm geschaffen. Es findet sich statistisch erst bei 2 % aller Großunternehmen mit über 500 Mitarbeitern.
Dieser geringe Prozentsatz erlaubt den Rückschluss, dass mittelfristig viele Unternehmen reagieren werden und eine solche Funktion noch einrichten.
Dabei sollten bisher gemachte Erfahrungen mitbedacht werden. Sie helfen, unnötige Fehler zu vermeiden und Lehren zu ziehen. Die Einführung der Position hat bisher in vielen Fällen zur allseitigen Ernüchterung geführt. Warum? Auch wenn die Stelle etabliert worden ist, wurde sie selten mit der notwendigen Entscheidungskompetenz ausgestattet, um die beabsichtigte Transformation tatsächlich zu vollziehen. Wenn die Verantwortung für den grundlegenden Wandel in einer Organisation bei einer Stelle zentralisiert wird, müsste diese über weitreichende Durchgriffsrechte verfügen, um der Aufgabe nachzukommen. Genau dieser Schritt, die Position mit ausreichend Verfügungsgewalt und Gestaltungsspielraum auszustatten, wurde dann jedoch meist verabsäumt. Personelle Expansion allein genügt nicht, es benötigt auch die strukturellen Voraussetzungen, um tatsächlich transformativ wirksam werden zu können.
In diesem Sinne haben sich CINOs oft wirksamer als CDOs erwiesen, da sie die Innovation selbst verantworten, die den Wandel einleiten soll. Doch kein Zweifel, die Zukunft wird den organisatorischen Modellen gehören, die sich wirklich einer fundamentalen Transformation verschreiben. Es wird notwendig sein, externe Trends in interne Entscheidungen zu übersetzen und dabei strategisches Kalkül zu verfolgen. Dabei wirkt der Vorsatz entscheidend, die Rolle des CDO nicht auf rein technologische Fähigkeiten zu beschränken. Das Aufgabenprofil unterscheidet sich jedenfalls signifikant von jenem des CIO (Chief Information Officer).
Der CIO ist für die Umsetzung und Umsetzbarkeit der strategischen Entscheidung in Hinblick auf die Technologie verantwortlich – der CDO hingegen für die strategischen Entscheidungen selbst, die zur Anwendung innovativer Technologien führen. Der Unterschied in den Aufgabenprofilen verlangt nach anderen persönlichen Kompetenzen, Zugängen, Entscheidungsspielräumen, Budgets und Konzepten.
Werden agilere Formen der Unternehmensorganisation betrachtet, die sich vom starren Korsett eines klassischen Organigramms und von fixen Hierarchien verabschieden, dann lassen sich die dargestellten Aufgaben des CINO oder CDO weder strikt ein- noch abgrenzen. Sie kombinieren sich vielmehr mit vielfältigen Tätigkeitsbereichen. Die Haltung von vielen Mitarbeitern und Managern zur Fragestellung hinsichtlich Innovation wird zentral darüber mitentscheiden, ob notwendige Veränderungsprozesse in Organisationen gelingen. Es lässt sich also erwarten, dass zukünftig neue und weitere Rollenprofile entstehen, die genau der Aufgabe nachkommen werden, Organisationen oder Teile von Organisationen an die neu geschaffenen Rahmenbedingungen durch die digitale Transformation anzupassen. Absehbar werden in diesem Zusammenhang auch vermehrt Schnittstellen entstehen, die eine Vermittlungsfunktion zwischen klassischer Geschäftsführung und Technikabteilung bilden. Doch neben der personellen und strukturierten Verantwortung benötigt es, wie angedeutet, auch dezidierte Verfahren und eine authentische Unternehmenskultur, die den Geist der Erneuerung fördert
und mögliche Fehler frühzeitig erkennen lässt. Eine populäre und bewährte Vorlage bildet diesbezüglich die sogenannte Fail-Fast-Kultur.
4.5 Fail-Fast-Kultur
Jede Investition, die getätigt wird, verfolgt ein gewisses Ziel, das erreicht werden soll. Nun besteht bei Investitionen immer und immanent das Risiko, dass der zuvor anvisierten Absicht nicht in intendierter Form entsprochen wird. Vor allem in Bezug auf die Förderung von Innovation erscheint dieser Sachverhalt wesentlich.
Da Innovationen ein Versprechen für die Zukunft sind, die sich von der Gegenwart unterscheidet, muss mit Ungewissheiten umgegangen werden. Wie wären also Verfahren aufzubauen, die mehr Sicherheit und Stabilität in ein System bringen, das auf Erneuerung zielt? Ein gewinnbringender Ansatz wäre es, mögliche Fehler oder nutzlose Abweichung vom Planvorhaben früh zu entdecken und die Substanz von Ideen dementsprechend zu bewerten.
Je jünger das Stadium einer Fehlentwicklung oder eines fehlgeleiteten Projekts ist, desto geringer ist der organisatorische Aufwand und finanzielle Verlust, der eine Kurskorrektur oder ein Ende bedeutet. Genau diese zeitnahen Korrekturen besorgt eine Fail-Fast-Kultur.
Die Fail-Fast-Methode selbst erkennt an, dass Innovationen in Unternehmen an unterschiedlichen Stellen geschehen, meist auf Teamarbeit und kollektive Intelligenz angewiesen sind, zur Investition nötigen, unumgänglich Entwicklungen für den Unternehmenserfolg bilden. Darauf gilt es zu reagieren.
Wie aber sicherstellen, dass keine Energien und Ressourcen unnötig verschwendet werden? Die Fail-Fast-Kultur versucht, wie der Name bereits verrät, ein mögliches Scheitern oder denkbare Verbesserungen bei Innovationen unmittelbar auszumachen. Sie ermutigt dazu, Fehlentwicklungen zu entdecken und aus möglichen Misserfolgen effektive Schlüsse zu ziehen.
Folgende prinzipielle Vorgehensweise kennzeichnet das Verfahren: Es wird beabsichtigt, bei neuen Ideen oder Prototypen möglichst unmittelbar das Feedback von anderen einzuholen. Es gilt der Ansatz, dass ein Vorhaben sich noch nie von Beginn an in Perfektion selbstständig ergab. Erst durch Experiment und Rückmeldung werden die vorläufigen Versuche einer Umsetzungstauglicher und adaptiver. Es benötigt Kritik, Transparenz, Diskussion und Auseinandersetzung, um Verbesserungen an denkbaren Innovationen zu erwirken. Je früher diese eingeholt werden, desto effektiver, konstruktiver und platzierter wirken sie. Kritik wird in diesem Sinne als unverzichtbarer Gestaltungs- und Erfolgsfaktor verlangt. Ohne Kritik geschieht kein Fortschritt.
Fail-Fast basiert auf dem Verständnis, dass jede Weiterentwicklung nicht nur Interaktion verlangt, sondern nie geradlinig geschieht und sich nie ohne Brüche vollziehen kann. Scheitern wird als Ausweis verstanden, dass man sich auf dem richtigen Weg befindet. Nur dort, wo sich Scheitern ausmachen lässt, wird der Wille zur Veränderung angetroffen. Scheitern wird in diesem
Sinne nicht als Makel verstanden, sondern als Bedingung, um in schnell wandelnden Märkten erfolgreich agieren zu können. Es beinhaltet ein abgeklärtes und experimentelles Verständnis darüber, dass nur durch Versuch und den Lehren daraus positive Rückschlüsse und Ergebnisse erwirkt werden können. Diese Erkenntnisse sollen auch im größeren Rahmen geteilt werden, denn nur durch gemachte Erfahrung lässt sich effektiv lernen.
Die Fail-Fast-Kultur kultiviert also das Verständnis, dass Scheitern ein notwendiger Zwischenschritt hin zum Erfolg wäre. Es sind die Lehren und Rückschlüsse, die aus Irrtümern und Irrwegen gezogen werden, die über den Fortschritt entscheiden – nicht die Irrtümer und Irrwege selbst. Es handelt sich um einen analytischen Lernprozess.
Ursprünglich fand die Fail-Fast-Methode vor allem bei der Software- und Hardware-Entwicklung Anwendung. Vom Umfeld der Informatik hat sie sich mittlerweile in andere und viele weitere Geschäftsbereiche hinein weiterentwickelt. Bei der Fail-Fast-Kultur handelt es sich also um eine Versuchsanordnung, die eigentlich in Zusammenhang mit dem System Design entstanden ist. Was bedeutet das nun? Die historischen Hintergründe lassen auch die Funktionsweise besser begreifen. System Design erfasst essenziell alle relevanten Entscheidungen, wenn Module, Architektur, Komponenten, deren Schnittstellen und die notwendigen Daten für ein System gemäß den spezifischen Anforderungen definiert werden. Es handelt sich um den Prozess der Entwicklung und Gestaltung von Systemen, die den spezifischen Bedürfnissen und Anforderungen eines Unternehmens oder einer Institution entsprechen. Diesen Anforderungen zu entsprechen, hat es vor allem im Bereich der Softwareentwicklung gebraucht. Dort durfte auch festgestellt werden, dass kurze Interaktionszyklen wesentlich zur Verbesserung der Qualität des Produkts beigetragen haben. Also: Je schneller Reaktionen auf ein Entwicklungsstadium der Software oder Hardware eingeholt wurden, umso zielgerichteter und ertragreicher konnte an der Weiterentwicklung gearbeitet werden. Aus diesem Bedeutungszusammenhang wurde Fail-Fast mittlerweile zu einer Denkweise und einem Arbeitsprozess, der sich seit den Anfängen universalisiert hat. Da die Arbeitsumwelt projektbasierter wurde, Innovationsprozesse sich beschleunigen und immer mehr Märkte umfassen, zeigt die Maxime stetig größere Wirksamkeit. Sie erlaubt es nicht nur, schrittweise Verbesserungen anzudenken und umzusetzen. Sie eröffnet Organisationen auch die Möglichkeit, neue Projekte bereits dann einzustellen, wenn sie absehbar zu keinem zufriedenstellenden Endergebnis führen würden. Das spart Kosten.
• Fail-Fast ist also ein operatives Prinzip, das offene Diskussion und wiederholte Rückmeldung in kurzen Zyklen zu konkreten Entwicklungsschritten fördert.
• Fail-Fast repräsentiert ein effektives Verfahren, das erste empirische Erfahrungen anderer mit eigenen Ideen oder Produkten als Anregung und Erkenntnisquelle erachtet.
• Fail-Fast basiert auf einer Organisationskultur, die gegenüber Innovation aufgeschlossen ist und Kritik als Mittel des Fortschritts praktiziert.
• Fail-Fast liefert ein effektives Tool, um Innovation zielgerecht zu fördern.
• Fail-Fast begründet Erkenntnisse, die treffsichere Ressourcenallokationen (Kapital und Arbeit) organisieren lassen.
Fail-Fast kann selbst gängige Einstellungen hinsichtlich der Marktwirtschaft herausfordern. Speziell in Kontinentaleuropa wird unternehmerisches Scheitern mitunter allgemein als eine persönliche Verfehlung qualifiziert. Hier braucht es einen Bewusstseinswandel. Ganz konkret sollte das Insolvenzrecht Möglichkeiten schaffen, um den Wiedereintritt von Ideenträgern am Markt nicht dauerhaft zu blockieren, nachdem ein erstes Projekt abgewickelt wurde. Gerade diejenigen, die schon mal scheitern mussten, haben nicht nur Mut bewiesen, sie durften auch schmerzhafte Lehren ziehen. Auf Fail-Fast diese Kompetenz und den Erfahrungsschatz sollten dynamische Gesellschaften nicht verzichten. Es gilt, eine zweite Chance sicherzustellen.
Fail-Fast erfasst also einen Kulturwandel sinnbildlich für ein Zeitalter. Denn oft besteht das größte Risiko einer Organisation nicht darin, dass Innovationen missglücken, sondern dass allein der Versuch der Erneuerung aufgrund eines fatalen Gefühls der Selbstgefälligkeit unterlassen wird. Strategische Veränderungen wären jedoch regelmäßig dann zu lancieren, wenn eine Organisation ertragreiche Geschäftsperioden durchläuft. Dann wäre der operative Gestaltungsspielraum vorhanden. Nachvollziehbarerweise sind das genau jene Abschnitte, wenn die dringliche Auffassung kaum greift, dass Veränderung notwendig wäre. Wie es trotzdem gelingen kann, Wandel anzustoßen, zu organisieren, durchzuführen und ihn abschließend in eine neue Unternehmenskultur zu übersetzen, erklärt das nächste Kapitel.
Case Studies lassen begreifen, wie unterschiedliche Unternehmen bzw. eine republikanische Gesellschaft es vermögen, auf die Anforderungen der digitalen Transformation zu reagieren oder welche Auswirkungen es haben kann, wenn die Durchsetzungsfähigkeit innovativer Trends markant unterschätzt wird. Die davor dargestellten Theorien erhalten durch diese Beispiele eindrückliche Praxis. Auch wenn sich in Hinblick auf die bereits erklärten technologischen Grundlagen keine direkten Verbindungslinien mit den neuen Techniktrends ausmachen lassen, viel interessanter und lehrreicher scheinen die pragmatischen Zugangsweisen, die in den Beispielen zum Ausdruck kommen. Als Case Studies wurden vordergründig Fälle gewählt, die aufzeigen, wie unterschiedliche Märkte oder Entscheidungsträger auf technologische Trends reagieren. Die Beispiele erfassen vor allem Anschauungsmaterial, wie sich Disruptionen als strategische Fragestellungen anerkennen lassen, wie darauf mutige Antworten gefunden oder verabsäumt werden.
Die Technologie agiert hier nie als Zweck an sich, sondern als konstruktives Mittel, um für einen höheren Zweck eingesetzt zu werden. Darin liegt die universelle Qualität der dargestellten Vorgehensweise: Nicht die Technologie bildet das zentrale Element strategischer Richtungsentscheidungen, sondern sie wird handwerklich als Instrument genutzt, um neue Strategiesetzungen zu verfolgen.
Den erfolgsversprechenden Zugang, mit Innovationspotenzial und verändertem Bewusstsein auf Umbrüche zu reagieren, bezeichnen die ersten beiden der nachfolgenden Szenarien. Die drohenden Konsequenzen, die sich bei Versäumnissen oder fehlendem Vorstellungsvermögen realisieren, finden sich im dritten Fallbeispiel konzentriert.
Bewusst wurden drei genuin unterschiedliche Beispiele aus distinktiven Zusammenhängen gewählt, um die Universalität der Herausforderungen zu kennzeichnen. Erstmal diese sehr spezifischen Fälle gedacht, lassen sich dann selbstständige Rückschlüsse über die eigene Position, das eigene Aufgabenfeld und den eigenen größeren Tätigkeitsbereich treffen.
5.1 Das digitale Modehaus
Modetrends ändern sich fortlaufend. Jeder Stilwechsel, der sich vollzieht, trägt auch dazu bei, den Modemarkt anwachsen zu lassen. Dabei entspricht die globale Wertschöpfung der Bekleidungsindustrie aktuell bereits 3 % des Welt-Bruttoinlandsprodukts und erwirtschaftete im Jahr 2016 einen Jahresumsatz in der Höhe von 2,4 Billionen $.49 Zum Vergleich: Dieser Wert entspricht knapp dem zweifachen Bruttoinlandsprodukt der Russischen Föderation im selben Jahr.
Doch nicht nur die schiere Größenordnung macht den Markt als Untersuchungsgegenstand interessant, auch lässt sich verstehen, wie moderne Unternehmenskommunikation funktioniert und die Globalisierung Stilvorlieben vereinheitlicht. Denn Präferenzen von Konsumenten werden zunehmend online verhandelt und der virtuelle Raum agiert als eigentlicher Marktplatz. Die digitale Transformation erweist also merkliche Konsequenzen für die Geschäftspraxis.
Es existieren Modeunternehmen, die bereits als reines E-Commerce gegründet wurden. Diese Unternehmen betreiben keinen stationären Handel und können die relativen Vorteile hinsichtlich der Kostenstruktur – das Resultat der Gründungsidee – direkt an Kunden weitergeben. Darüber hinaus genießen Kunden die Freiheit, dass bei Online-Einkäufen keine Beschränkungen durch Ladenöffnungszeiten berücksichtigt werden müssen. Auch lässt sich in hochpreisigen Angeboten stöbern, vor denen möglicherweise in Läden zurückgeschreckt wird. Das persönliche Beratungsgespräch, das wegfällt, wird durch ein großzügiges Rücksenderecht ersetzt.
Doch diese kundenfreundliche Regelung führt zu unternehmerischen Risiken. Online gekauft wird Mode weitaus wahrscheinlicher retourniert als Kleidung, die im stationären Handel erworben wird. Fundierte Schätzungen vermuten, dass allein in Deutschland 70 % aller bestellten Waren bei Online-Modehäusern wieder zurückgeschickt werden. Jede Rücksendung verursacht dabei durchschnittlich Aufwände für das Unternehmen in Höhe von ungefähr 15 €.50 Die variablen Kosten sinken zwar aufgrund von Fortschritten bezüglich der Vollautomatisierung der Lagerverwaltung kontinuierlich, doch verursachen einzelne Sendungen noch immer Aufwände, die den Bilanzgewinn massiv schmälern. Künstliche Intelligenz soll auch aus diesen Gründen in Zukunft dafür genutzt werden, Kunden bessere Empfehlungen anbieten zu können und Marketing und Administration stärker zu automatisieren.
Einen abweichenden Ansatz, der sich von der fortschreitenden Tendenz hin zur vollkommenen Automatisierung beim Online-Modehaus unterscheidet, verfolgt das Unternehmen Stitch Fix. Die Geschäftspraxis versucht das Zusammenspiel zwischen datenanalytischer Kaufempfehlung und persönlicher Beratung symbiotisch zu verbinden. Bevor sich ein Kunde dafür entscheidet, die Services von Stitch Fix nutzen zu wollen, muss verpflichtend ein Fragebogen ausgefüllt werden.
Abbildung 13: Auszug aus dem persönlichen Fragebogen bei der Registrierung auf Stitch Fix52
Auf Grundlage der Antworten und der umfassenden Analyse weiterer Datenströme werden persönliche Stilprofile erstellt sowie ästhetische Vorlieben errechnet. Für die Analysemethoden zeichnet Eric Colson verantwortlich, der ursprünglich bei Netflix den Algorithmus verfeinerte, der Nutzern die nächsten Filme empfiehlt. Stitch Fix selbst wurde von der Unternehmerin Katrina Lake gegründet. Die Idee war es, die Vorzüge eines Personal Shoppers mit moderner Datenanalyse zu kombinieren, um damit eine gewisse Käuferschicht anzusprechen. Weder kennt die Geschäftspolitik Rabatte noch Abverkäufe. Dafür erhält jeder Kunde in regelmäßigen Abständen, die festgelegt, aber selbstständig gewählt werden, persönlich zusammengestellte Lieferungen kombinierter Outfits in Paketen zugestellt. Den Inhalt der Lieferung bestimmt dabei nicht nur präzise Datenanalyse, die beispielsweise auch die dokumentierten Vorlieben auf Pinterest miteinbezieht, sondern menschliche Stylisten verfeinern jede Zusendung persönlich. Das Zusammenspiel aus Datenanalytik auf Grundlage Künstlicher Intelligenz und der Erfahrung professioneller Stylisten soll die persönlichen Geschmäcker der Kunden genau treffen. Für jede Rücksendung muss in Folge nicht nur gezahlt werden, es wird auch Feedback verlangt, warum der persönlichen Stilvorliebe nicht entsprochen wurde. Aus diesen Informationen und vor allem aus den Kleidungsstücken, die behalten werden, lassen sich die Profile der Kunden präzisieren. Statt der vollkommenen Automatisierung von Lieferketten wird in diesem Ansatz die Interaktion zwischen Mensch und Maschine als Geschäftsgrundlage gefördert, um die Kundenbedürfnisse zu befriedigen.
Ein drittes Beispiel rekapituliert, wie mit einer grundsätzlich anderen Herausforderung umgegangen wurde. Es handelt sich in diesem Fall um keine Neugründung, die bereits anfänglich die Grundlage digitaler Geschäftsprinzipien mitbedenken konnte. Vielmehr zeigt sich, wie ein Unternehmen, das als Inbegriff eines traditionsreichen Markenverständnisses wirkt, die Möglichkeiten der digitalen Transformation für sich zu nutzen versteht: Burberry.
Gemeinhin wird das emblematische Karo, das den Auftritt der Marke Burberry bestimmt, als Ausdruck Londoner Understatements und britischen Stils angesehen. Den Eindruck von Gediegenheit und einen Begriff von zeitloser Eleganz versucht das Marketing des Modehauses zu kombinieren.
Die Beständigkeit, die das Unternehmen zu repräsentieren beabsichtigt, fußt jedenfalls gemäß Selbstwahrnehmung auf dem permanenten Willen zur kritischen Erneuerung. In interner und externer Kommunikation wird dabei oft auf die eigene Firmengeschichte verwiesen. Der gelernte Textilhändler Thomas Burberry gründet als junger Mann ein Stoffgeschäft im Jahr 1856 westlich von London. Nachdem er bereits 23 Jahre lang den eigenen Laden betreibt und an der Weiterentwicklung von Gewebe forscht, entwickelt er ein neuartiges Verfahren, bei dem der einzelne Faden vorab imprägniert wird. Der neue Stoff, der entsteht, heißt Gabardine. Im Jahr 1888 meldet Thomas Burberry Patent auf seine Erfindung an.
Gabardine wärmt, ist atmungsaktiv, erweist sich als wasserabweisend, ist leicht im Gewicht und passt sich dem Körper flexibel an. Die Produkte von Burberry werden deshalb anfänglich für die ersten Expeditionen zum Südpol oder bei der Besteigung des Mount Everests genutzt.
Breite Verwendung findet der Stoff, da sich auch Regelmäntel damit produzieren lassen. Der Nutzen für das Militär wird umgehend erkannt. Gabardine wurde folglich dafür verwendet, Mäntel zu schneidern, die von englischen Militärs im Ersten Weltkrieg getragen wurden. Gerade in der Nässe der Schützengräben entlang der Frontstellungen erweist sich das Material als resistenter und angenehmer im Vergleich zum gewöhnlichen Wollmantel. Sobald es feucht wird oder Regen fällt, saugen sich die Wollmäntel voll. Der neuartige Trenchcoat von Burberry ist deutlich besser für solche Situationen geeignet. Die Bezeichnung Trenchcoat zeugt von dieser Produktgeschichte, sie memoriert historische Verbindungen. Das englische Wort Trench bedeutet nichts anderes als Schützengraben. Auch die Stilelemente eines klassischen Trenchcoats hatten einst einen rein funktionellen Charakter. Die Epauletten an den Schultern zeigen militärische Referenz. Die ganze Gestaltung der Schulter- und Halspartie soll regenabweisend sein, demselben Zweck dient der aufstellbare Kragen. Die Karabiner ließen Waffen und Utensilien praktisch mitführen.
Nach Ende des Krieges findet der Trenchcoat Einzug in den Alltag. Der Aufstieg von Burberry zur populären Marke wird außerdem durch effektives und frühes Marketing unterstützt. Das Unternehmen trägt dafür Sorge, dass eindrucksvolle Stilikonen geschaffen werden. Audrey Hepburn trägt im Film Breakfast at Tiffany’s Burberry, James Bond selbstverständlich auch.
Effektvolle Vermarktung versucht das Unternehmen seit dem Zeitpunkt der Gründung zu verfolgen. Bereits im 19. Jahrhundert vereinbart Thomas Burberry mit hohen Militärs, dass sie exklusiv seine Produkte tragen. Das Militär stellt zu jener Zeit auch die angesehene Elite der Gesellschaft im viktorianischen England dar. Es genießt in elitären Kreisen hohes, geradezu stilbildendes Ansehen. Der Strukturwandel der Öffentlichkeit führt später dazu, dass internationale Filmschauspieler oder Musiker ähnliche Bekanntheit genießen werden. Der Ansatz also, das eigene Produkt durch Identifikationspersonen zu popularisieren, bildet bereits den Ausgangspunkt jeder Öffentlichkeitsarbeit des Unternehmens.
Der starke Fokus auf Kernidentität und Kernprodukt, der Burberry zu eigen scheint, löst sich im Verlauf der Jahrzehnte auf. Lizenzgeschäfte machen nunmehr einen wichtigen Bestandteil der operativen Geschäftsgrundlage aus. Die Lizenzen erlauben anderen Unternehmen, das Burberry-Branding exklusiv zu nutzen. Taugliche Mechanismen, um die Produkteinführungen zukoordinieren und zu kontrollieren, existieren nicht. Die 23 gültigen Lizenzen, die von Burberry veräußert werden, verursachen im Endeffekt merkliche Beliebigkeit und schwächen die Kundenbindung. In Folge der teils konzeptlosen Diversifizierung firmt das Burberry-Karo auf Hundehalsbänder und Hundeleinen. Das Produktsortiment in Hongkong, für den asiatischen Markt hergestellt, unterscheidet sich wesentlich vom vorhandenen Angebot in den Vereinigten Staaten. In den USA werden die Mäntel für den nationalen Markt in einer Fabrik in New Jersey gefertigt. Solange das der Fall ist, findet sich in den klassisch-britischen Burberry-Trenchcoats die Angabe Made in the U.S.A. eingestickt, sofern sie in den USA erworben werden. Diese nachweisliche Indifferenz gegenüber der Identität der eigenen Marke verantwortet, dass Burberry im Vergleich zur Konkurrenz konstant an Marktanteilen verliert.
Die Entwicklungen werden jedenfalls im Rahmen einer personellen Erneuerung kritisch evaluiert. Als die Amerikanerin Angela Ahrendts, aus dem Mittleren Westen stammend, im Jahr 2006 zur CEO des britischen Mutterkonzerns bestellt wird, wird die Unternehmensstrategie neu definiert. Sie verfolgt einen radikalen Wandel, vollführt Change-Management. Die Vision lautet, dass das Unternehmen wieder zurück zu seinen Wurzeln geführt werden soll, um modernen Ansprüchen zu genügen. Das mag wie ein Paradoxon klingen, initiiert aber aufgrund strukturierter Umsetzung eine ertragreiche Erfolgsgeschichte.
Als Bezugspunkt, um das Image der Marke neu zu prägen, dienen keine Bezugsgrößen von unmittelbaren Mitbewerbern, die es nachvollziehbar besser gemacht hätten. Orientierung geben vielmehr Apple und Starbucks. Beide Konzerne werden weltweit mit einem einheitlichen Produktportfolio assoziiert und ein überzeugendes Auftreten ist ihnen eigen. Sie etablieren demgemäß Kulturtechniken und Erwartungshaltungen des globalisierten Konsumenten. Während das Sortiment in den Flagshipstores von Burberry versucht, sich vermeintlich an lokale Vorlieben anzupassen, wählen Kunden bei Starbucks oder Apple weltweit aus einem stringenten und gleichartigen Angebot, das starke Identifikation stiftet. Unter den Vorzeichen der Globalisierung, weltumspannender Kommunikationskanäle und der beobachtbaren Universalisierung von Modetrends beginnt Burberry, das eigene Unternehmensprofil zu überdenken und die eigene Geschäftsgrundlage zu remodellieren.
Punktuell zusammengefasst: Burberry konzentriert sich auf sein Kerngeschäft als Hersteller von Trenchcoats. Es zentralisiert die Produktion des Kleidungsstücks in England und setzt vehement auf den Outdoor-Bereich. Es kündigt Lizenzverträge und zentralisiert die Entscheidungshoheit darüber, welche Produkte lanciert werden. Es konzentriert sich zu Beginn der eigenen Kulturwende auf die Kundengruppe der unter 30-Jährigen, die von anderen Luxusherstellern vernachlässigt wird. Das Unternehmen plant moderne Kundenerfahrungen, die mit anderen Marken gemacht wurden, im eigenen Marktauftritt besser zu reflektierten. Essenziell erwartet und versteht ein Kunde heute, dass sich bei Starbucks in Graz wie in Buenos Aires Latte Macchiato bestellen lässt und dieser auch gleich schmeckt. Bei Burberry soll eine ähnliche Erfahrung gemacht werden. Diese prinzipiellen Eckpunkte formen nunmehr die Unternehmensstrategie des Modehauses.
Der konservative Ansatz wird mit progressiven Instrumenten umgesetzt. Digitale Konzepte vervollständigen und verwirklichen, was strategisch geplant wird. Innovative und nahtlose Verschränkungen zwischen digitaler und realer Welt ermöglichen es dem Unternehmen, die neuen Leitgedanken zu realisieren. Wie wird dabei vorgegangen?
Burberry vereinheitlicht weltweit den Aufbau der eigenen Läden. Flagshipstores werden systematisch neu organisiert und erhalten verbindliche Vorgaben. Doch geht Burberry einen entscheidenden Schritt weiter, als sich auf identische Anordnung und Gestaltung zu beschränken. Der Aufbau des stationären Handels wird stattdessen gemäß dem eigenen Internetauftritt adaptiert. Weil Kunden im Regelfall zuerst über die Homepage mit dem Unternehmen in Kontakt kommen, weil online stilbildende Eindrücke entstehen, weil gewöhnlich vorab der Online-Auftritt und dann erst das Geschäftslokal besucht wird, dient der Aufbau der Homepage als maßgebliches Modell für die Storekonzepte.
Was online als einzelne Rubrik aufgerufen wird, findet sich als eigene Abteilung im stationären Handel wieder. Virtuelle und reale Einkaufserfahrung sollen zu einem bruchlosen Gesamterlebnis fusionieren. Angela Ahrendts und ihr Team wählen ideell einen anderen Zugang als den sonst üblichen:
Nicht die virtuelle Welt muss an reale Gegebenheiten anknüpfen, sondern alle realen Erlebnisse mit der Marke haben den virtuellen Bereich zur Vorlage. Wenn Kundenbeziehungen unter dem Paradigma der digitalen Transformation als kommunikativer Akt verstanden werden, dann gilt es, einheitliche Ansprache über alle Kanäle hinweg zu etablieren. Weil Erfahrungswerte und Erwartungshaltungen mit einem Unternehmen zuerst online entstehen und sich so das individuelle Bildnis hinsichtlich einer Marke festigt, müssen reale und virtuelle Erlebnisse exakt korrespondieren, um ein kohärentes Bild abzugeben. Für die Neugestaltung des Haupthauses in der Londoner Regent Street wurde die Devise ausgegeben, dass bei Kunden, sobald sie den Laden tatsächlich betreten, das Gefühl erzeugt werden soll, sie würden in die Webseite eintauchen.
Der Trenchcoat, wieder als Ausgangspunkt des Markenauftritts identifiziert, wird entsprechend eines neuen Medienverständnisses junger Kunden inszeniert. Keine bekannten Models wirken als Sujet der Werbekampagne, sondern Burberry richtet eine Internetplattform ein, auf der jeder ein Foto von sich posten kann, wenn er den Trenchcoat trägt. Die Idee, inspiriert von den Identifikationsverfahren der Nutzer sozialer Medien, zeigt Erfolg.
Gleicher Videocontent, um das gewünschte Image der Marke zu befördern, findet sich nicht nur in den Internetauftritten integriert, sondern auch auf Screens abgespielt, die in allen Läden eingebaut sind. Die Verkaufsteams im stationären Handel werden mit iPads ausgestattet und intensiv in der neuen Unternehmenspolitik geschult. Die interne Kommunikationspolitik wird ebenso gänzlich geändert. Die Geschäftsführung, bestehend aus CEO und Kreativdirektor, führt regelmäßig Videokonferenzen für das ganze Unternehmen durch, um die Idee hinter getroffenen Entscheidungen zu erklären.
Wie die als radikal geltenden Konzepte in Frage gestellt werden, zeigt ein anderes Beispiel. Neue Trends für die kommende Saison präsentieren renommierte Modehäuser im Regelfall auf internationalen Modewochen einem exklusiv geladenen Publikum. Burberry bricht mit dieser Logik. Die Modeschauen werden online einem interessierten Publikum live zugänglich gemacht und zeitgleich in den eigenen Läden mittels Satellitenübertragung auf Riesenbildschirmen gezeigt. Auch werden bereits vor der Schau erste Bilder von den Vorbereitungen samt Kleidungsstücken auf Snapchat ausgesendet.
Ein radikaler Bruch mit herkömmlichen, doch überholten Traditionen. Generell werden alle gängigen Kanäle der sozialen Medien intensiv und experimentell bespielt und immer wieder neu versucht, sie direkt mit Funktionen hinsichtlich E-Commerce zu kombinieren. Ein besonderes Gewicht liegt dabei auf dem Nachdruck von überzeugendem Storytelling, um die Beziehung zwischen Kunde und Unternehmen zu personalisieren und in eine historische Dimension zu setzen. Um die Verbindung zu den Kunden zusätzlich zu intensivieren, wird darüber hinaus die Möglichkeit geschaffen, mit dem Modehaus direkt in Kontakt treten zu können. Burberry selbst spricht von einer Beziehungspflege, wie sie jede dauerhafte und befruchtende Beziehung braucht. Außerdem wird die Zusammenarbeit mit aufstrebenden Musikgruppen gefördert und auf vielfältige Weise beworben. Das geschieht nicht nur, um die eigene Britishness herauszustreichen, sondern auch, um explizit und mittelbar die anvisierte Zielgruppe der unter 30-Jährigen umstandslos zu erreichen.
Moderne Märkte nehmen die Form einer vielschichtigen und hochkomplexen sozialen Matrix an, die immer – manchmal sogar ausschließlich – technologische Verbindungslinien nutzt. Je intensiver und erinnernswerter eine konkrete Beziehung in diesem weitreichenden Geflecht gestaltet wird, als umso dauerhafter und belastbarer wird sich die Verbindung erweisen. Dieses Prinzip definiert als Wesensmerkmal auch jede Verbindung zwischen Konsument und Unternehmen. Je besser sich beide kennen, umso vorteilhafter für beide. Verbindlichkeit entsteht in diesem Zusammenhang durch Innigkeit und datengestützte Analyse.
Die Gegenwart ist durch eine soziale Komplexität gekennzeichnet, die für vormoderne Gesellschaften faktisch unvorstellbar wirkt. Der unentrinnbaren Übersichtlichkeit der Stammeskultur, der unüberwindbaren Enge des Agrarzeitalters setzt die Industriegesellschaft eine Struktur von vielgliedrigen Verbindungen entgegen, die durch privates, berufliches und institutionelles Wirken geschaffen wird und unserer Existenz Gestalt gibt. Bis zum Beginn der industriellen Revolution, die zur Neufundierung der westlichen Gesellschaft führte, wurde der Mensch in ein soziales Gefüge hineingeboren und war dazu verurteilt, das Vorgefundene als unabänderlich zu akzeptieren. Mit dieser einst unüberwindlichen Einschränkung bricht das Industriezeitalter. Das Wissenszeitalter hebt die Modularität auf eine höhere Ebene, weil ein informelles Netz gespannt wird, das sich permanent neu zusammensetzt. In dem Maße, wie neue soziale Interaktionen stattfinden, erweitern sich die Schnittpunkte. Auf diese neue Zivilisationsform müssen Organisationen in ihrem Marktauftritt reagieren.
Bei Burberry wird neben Benchmarking-Studien, um die Konkurrenz besser zu verstehen, auch Consulting durch Kulturanthropologen in Anspruch genommen. Der anthropologische Sinn hilft, besser zu verstehen, was die historische Marke Burberry im kollektiven Bewusstsein repräsentiert und wie sich diese Auffassung zeitgemäß interpretieren lässt.
Die holistische Vorgehensweise, die Absatzwege und Kommunikationskanäle gravierend zu modernisieren und physische und virtuelle Welten zusammenzuführen, rentiert sich. Burberry kann überdurchschnittliche Umsatzsteigerungen verbuchen.
Angela Ahrendts schafft es während ihrer Funktionsperiode als CEO bei Burberry, die von 2006 bis 2014 dauert, sowohl den Konzernumsatz als auch den operativen Gewinn zu verdoppeln. Sie hat beim Modehaus eine Trendwende herbeigeführt, auf die sich auch zukünftig aufbauen lässt, um auch neue technologische Trends in die Konzernstrategie zu integrieren.
Angela Ahrendts selbst wechselt schließlich vom britischen Modehaus in den Vorstand des Technologiekonzerns Apple. Dort zeichnet sie für die Fortentwicklung des stationären Handels verantwortlich und versucht auch hier die Integration aus virtueller und physischer Umgebung, um ein eingängiges Kundenerlebnis zu schaffen.
5.2 Das digitale Staatswesen
Pragmatisches Verständnis der digitalen Transformation wandelt die Digitalisierung zu einem Instrument, das sich zweckvoll nutzen lässt, um soziale Interaktion zeitgemäß zu organisieren.
Regelmäßig wird diese Verständnisgrundlage unzulässig verkürzt. Stattdessen wird die Auffassung kultiviert, es handle sich bei der digitalen Transformation um die alleinige Aufgabe, Arbeitsabläufe durch technologische Innovation zu automatisieren. Zusätzliche Aspekte würden jedoch nicht tangiert.
Kulturelle Gewohnheiten oder prozessuale Verfahren werden in Organisationen dann weitestgehend auf diese Weise fortgesetzt, wie sie davor eingeführt wurden, schlicht, dass sie nunmehr durch Technologien teils unterstützt oder ganzheitlich abgewickelt werden. Wird Technologie nicht als multifaktorielles Phänomen erkannt, das auf und in Organisationen wirkt, kann das vorhandene Entwicklungspotenzial nicht realisiert werden. Es erfordert vielmehr einen substanziellen Kulturwandel.
Der Gegenstand der digitalen Transformation und die Aufgaben, die sie impliziert, erweisen sich komplexer, als eine oberflächliche Betrachtung und Umsetzung dies vermuten ließe. Es verlangt nach strategischen Konzepten, wie Gesellschaften, Institutionen oder Unternehmen in einer sich verändernden Welt der eigenen Zweckbestimmung nachkommen. Darin liegt die Herausforderung in Zusammenhang mit modernen Umbrüchen. Wie kann die Erbringung von Dienstleistungen, die Herstellung von Produkten, die Organisation interner und externer Kommunikation, das Zusammenwirken einer Zivilgesellschaft so gestaltet werden, dass sie einer erneuerten sozioökonomischen Struktur mit fortschrittlichen Ansprüchen Genüge leistet?
Das wäre die strategische Fragestellung, mit der sich Entscheidungsträger konfrontiert sehen. Es bedingt also konzeptioneller Antworten, die den Einsatz von Technologie pragmatisch bedenken. Die operative Umsetzung dieser Konzepte verlangt substanzielle Adaptierungen und einen eingehenden Begriff davon, wie die Zukunft gestaltet werden kann.
Eine dezidiert innovative Antwort angesichts der Herausforderung sucht Estland. Der baltische Staat erlangte seine Unabhängigkeit im Jahr 1991 wieder, in einer Zeit, als die Desintegration der Sowjetunion unumkehrbar voranschreitet. Heute an Russland und Lettland, vor allem aber an die Ostsee grenzend zählt die Republik 1,3 Millionen Staatsangehörige – vergleichbar viele Einwohner hat auch München. Der Staat ist sowohl Mitglied der Europäischen Union als auch der NATO und verwirklicht eine Dynamik, was den Umbau des Staatswesens in ein digitales Zeitalter betrifft, die von der Europäischen Kommission als Leitmodell für andere Mitgliedsstaaten betrachtet wird. Technologiepolitik wird in diesem Zusammenhang nicht nur als Fragestellung verstanden, wie sich der Aufbau von Start-ups bürokratisch vereinfachen oder durch Förderungen unterstützen lässt. Vielmehr folgt die baltische Republik der Intention, demokratisch darüber nachzudenken, wie Technologie sinnvoll zum gesellschaftlichen Fortschritt beitragen kann. Das umfassende Projekt, das viele Varianten staatlich-privater Kooperation aufzeigt und zivilgesellschaftliche Kräfte aktiv einbindet, nennt sich e-Estonia.
Das Großprojekt bildet den Versuchsprozess, ein Land von einem physischen
Staatswesen in eine digitale Gesellschaft zu übertragen. Dafür wird Kreativität gefördert, die hauptsächlich der unternehmerischen Initiative erwächst.
In Clustern und Hubs arbeiten junge Unternehmen flexibel zusammen, es entstehen neue Ideen, Software wird programmiert, Zweigstellen internationaler Technologiekonzerne werden eröffnet. Die Wertschöpfung und internationale Verflechtung einer Volkswirtschaft, deren Export traditionell allein auf der Forstwirtschaft lag, steigt damit deutlich. Die populärste Software, die zwar von einem Schweden und einem Dänen erdacht wurde, aber in Estland entstanden ist, wäre der Instant-Messenger-Dienst Skype. Das Unternehmen wurde im Jahr 2003 vertraglich in Luxemburg gegründet, doch in Estland entwickelt, um schließlich im Jahr 2011 an Microsoft verkauft zu werden.
Das eigentliche Kernwesen von e-Estonia liegt jedoch darauf, praktische Antworten auf die radikale Transformation der Gesellschaft zu geben. Dabei erlaubt sich der Staat, über Behördenwesen und die Idee von Staatsbürgerschaft neu nachzudenken: Demokratische Entscheidungsfindungen oder Leistungen der öffentlichen Hand werden für Bürger möglichst einfach zugänglich gemacht. Alle bürokratischen und institutionellen Details werden über eine öffentliche Online-Plattform miteinander verbunden und lassen sich individuell einsehen.
Bürger erhalten über einen personalisierten Zugang beispielsweise Einblick in relevante Themen wie die Gesetzgebung, Wahlen, Bildung, Justiz, Gesundheitswesen, Bankwesen, Steuern, Polizeiarbeit – um nur einige Anwendungen zu nennen.
Abbildung 14: Abbildung unterschiedlicher Sachbereiche bei e-Estonia55
Die öffentliche Plattform versteht es, alle relevanten Daten für Bürger online zusammenzutragen. Dabei wird dem Prinzip der Datensouveränität zentrale Bedeutung eingeräumt. Nur der einzelne Staatsbürger hat Einblick in sämtliche Informationen, die verschiedene Ämter und öffentliche Stellen über die eigene Person ablegen und speichern.
Das dafür genutzte Programm X-Road wurde eigens für den Zweck entwickelt, alle relevanten Kanäle abzurufen, damit für Einzelne die individualisierten Informationen einheitlich abgerufen werden können. Die entscheidenden Aspekte der praktischen Umsetzung finden sich darin, dass Daten nicht zentral gespeichert werden, sondern auf unterschiedliche Datenbanken zugegriffen wird, wann immer sie abgerufen werden. So lassen sich potenzielle Missbräuche oder das Ausfallrisiko minimieren, auch erhält jeder Staatsbürger umgehend Nachricht darüber, falls und wann Informationen über ihn von öffentlichen Stellen angesehen werden. Schließlich obliegt es laut estnischem Gesetz ausschließlich der Einzelperson, darüber zu bestimmen, welche sensiblen Informationen von wem gesehen werden können.
Ein Beispiel: In der Datenbank finden sich alle Einträge zur Krankengeschichte einer Person, alle Rezepte, die verschrieben, alle Behandlungen, die benötigt wurden. Nur die Person selbst hält die Verfügungsgewalt, darüber zu entscheiden, ob beispielsweise alle Informationen mit dem eigenen Hausarzt geteilt werden sollen. Die Koordination des Projekts erscheint insofern auch einfacher als in anderen Gesundheitssystemen, weil nur drei zentrale Stakeholder das nationale estnische Gesundheitssystem strukturieren: eine einheitliche Krankenkasse (EHIF = Estonian Health Insurance Fund), das Gesundheitsministerium und eine dem Gesundheitsministerium nachgegliederte Behörde.
Um alle Informationen darzustellen, verbindet das Programm X-Road technisch einzelne Server über End-to-End verschlüsselte Pfade. So werden lokal gespeicherte Daten zusammengeführt und ausschließlich die jeweilige Einzelperson kann alle sie persönlich betreffenden Daten abrufen, einsehen und nutzen. Insofern obliegt es ihr als Entscheidungsinstanz auch, anderen legitime Einblicke in vorhandene Informationen zu gewähren. Es markiert darüber hinaus eine Rechtsübertretung, Daten von anderen Personen einfach aus Neugier oder ohne begründbaren Zusammenhang ansehen zu wollen.
Auf rein technischer Ebene speichert der estnische Zahnarzt Krankenakten auf lokalen Servern ab. Gleiches gilt für den estnischen Dermatologen. Da X-Road auf rigiden Zugangsbeschränkungen basiert, verfügen Ärzte auch nur
über die Möglichkeit, Gesundheitsdaten bezüglich ihrer Patienten einzugeben. Weiteren Zugriff haben sie nicht. In Folge obliegt es schließlich ganz dem Patienten, festzulegen, welche weiteren Ärzte Zugriff auf welche Diagnosen erhalten dürfen. Doch nicht nur im medizinischen Bereich wird umsichtige Sorgfalt angewendet. Auch Schulen, Banken, Finanzämter, Gerichte, Polizeistellen, Universitäten und andere Institutionen haben sich an strikte Vorgaben hinsichtlich Speicherverfahren und Nutzungsrechten zu halten.
Obwohl X-Road eine Plattform darstellt, die von der Regierung initiiert wurde, um öffentliche Angelegenheiten leichter arrangieren zu lassen, setzen auch immer mehr private Unternehmen an, das Netzwerk für ihre Zwecke zu adaptieren.
Die neue Technologie hilft jedenfalls den öffentlichen Behörden dabei, administrative Prozesse entscheidend zu vereinfachen. Estland konnte vergleichsweise rund zwei Prozent des jährlichen Bruttoinlandsprodukts an
Lohnkosten für Beamte sparen, die für andere Zwecke besser genutzt werden dürfen. Auch wirkt das Prinzip als Vorgabe staatlichen Handelns, dass Daten schlicht nur einmal eingegeben werden, um im Anschluss von unterschiedlichen Stellen eingesehen und weiterverarbeitet zu werden.
Nutzer rufen also dezentral gespeicherte Informationen ab und nur ihr persönliches Konto führt alle sensiblen Informationen einheitlich zusammen.
Mittels verschiedener Rubriken, aber unter einem einzigen Zugriff auf die Datenbank, lassen sich beispielsweise unkompliziert und zeitschonend die Noten der letzten Uniprüfung ansehen, der eigene Kontostand kontrollieren und Parkplätze im öffentlichen Bereich vorreservieren.
Die Dezentralisierung unterstützt auch eine organisatorische Vereinfachung effektiv. Da die Technologie auf unterschiedliche Datenbanken zugreifen kann, steht es jeder Institution offen, jenes Betriebssystem zu implementieren, das den eigenen Ansprüchen am besten gerecht wird.
Zum einen genießen Datenschutz und Dezentralisierung hohe Prioritäten, zum anderen folgt e-Estonia dem Prinzip dokumentarischer Transparenz. Jedes Gesetzesvorhaben oder jede Änderung eines Gesetzesvorschlags wird online publiziert. So stehen Parlamente und öffentliche Körperschaften in der Rechtschaffenheitspflicht. Gemäß diesem Credo haben alle öffentlichen Autoritäten die Verpflichtung, relevante Informationen online zu stellen.
So erklärt sich, dass ungefähr 85 % aller Daten, die von e-Estonia erfasst werden, allgemein zugänglich und nicht personalisiert sind. Die anderen 15 % der Datenmenge sind als sensibel qualifiziert, nur der Betroffene hat Zugriff darauf, kann aber andere Personen situativ ermächtigen, ebenfalls Einblick zu bekommen.
Die Vorteile für den Bürger wirken offensichtlich: Bürokratie wird merklich vereinfacht, Behördenwege vereinheitlicht, Informationen aus losen Enden werden übersichtlich zusammengetragen, eigene Souveränität über persönliche Daten garantiert. Beispielsweise füllen bereits 95 % aller Esten die eigenen Steuererklärungen online aus, was im Durchschnitt drei Minuten in Anspruch nimmt.
Auch wurde gleich von Beginn der Implementierung an dafür Sorge getragen, dass der Einsatz neuer Technologien nicht zum Ausschluss gewisser Bevölkerungsgruppen führt. Seit bereits zwei Jahrzehnten erhalten alle Esten Computerschulungen. Das wurde bildungspolitisch veranlasst. Anfänglich haben sich die Trainings auf den PC konzentriert. Als sich bereits früh die rasante Verbreitung von Smartphones und Tablets abzeichnete, wurden nicht nur die Interfaces der Programme umgehend adaptiert, sondern auch die Schulungsinhalte unmittelbar umgestellt. Hinter all diesen Überlegungen steckt der ganzheitliche Ansatz: Digitale Transformation bedeutet nicht nur, dass sich innovative Unternehmen oder staatliche Behördenwege automatisieren. Vielmehr heißt es im Falle Estlands, strategische Entscheidungen zu treffen, die eine radikale Transformation der Gesellschaft unterstützen.
In diesem Zusammenhang wurde auch grundlegend darüber nachgedacht, was der Grundsatz von Staatsbürgerschaft im Zeitalter intensivierter Globalisierung und facettenreicher Biographien meint. Estland ermöglicht es mittlerweile sämtlichen Weltbürgern, einen digitalen „Wohnsitz“ im Land zu wählen. Wer sich dafür entscheidet, kann alle Online-Dienstleistungen des Staates in Anspruch nehmen. Selbst Unternehmen nach estnischem Recht dürfen eigenständig gegründet werden. Um als digitaler Einwohner Estlands betrachtet zu werden, muss man weder im Land sesshaft sein noch den Staat auch nur einmal besuchen. Ein Antrag wird online ausgefüllt, die Bearbeitungsgebühr kostet um die 100 €, E-Card und die Dokumente werden in Folge von den estnischen Botschaften ausgegeben. Mittlerweile ist es ein Sachverhalt, dass Estland jährlich mehr Anträge auf virtuelle Staatsbürgerschaft erhält, als Geburten im Land selbst gezählt werden.
Konzeptionelle Neuansätze und ein republikanisches Gesellschaftsverständnis geben die Leitlinien vor, die dann von der Digitalstrategie des Landes praktisch umgesetzt werden. Zuerst kommt die holistische Strategie, dann wird die Technologie entsprechend bestimmt – nicht umgekehrt. Bezeichnend dafür ist, dass schon der hauptverantwortliche Berater der Regierung für die Digitalisierungsfragen kein Informatiker ist. Es handelt sich stattdessen um einen politischen Aktivisten, der sich ursprünglich für eine bessere Infrastruktur im Radverkehr einsetzte. Sein ziviles Engagement führte schließlich dazu, dass die Regierung anfragte, ob er nicht auch als Entscheidungsträger in Hinblick auf die digitale Erneuerung mitwirken möchte.
Diese Episode erfasst eine praktische Doktrin, die sich gegenwärtig in Estland ausmachen lässt. Das Innovationspotenzial, das der estnische Staat freisetzt, und die Möglichkeit, an der grundlegenden Erneuerung der Gesellschaft mitzuwirken, motivieren immer mehr Personen aus privaten Unternehmen, vorübergehend in Behörden zu wechseln. So intensiviert sich das Kooperationsfeld zwischen Staat und Bürgern, gemeinsam wird versuchsweise an der digitalen Republik gebaut.
5.3 Wie ein Telefonhersteller den Anschluss nicht erreichte
Wie hingegen das Versäumnis eines Unternehmens, die Auswirkung der „Schöpferischen Zerstörung“ durch technologische Innovation richtig einzuschätzen, eine Volkswirtschaft in Mitleidenschaft ziehen kann, erklärt ein anderes Beispiel: Es handelt sich um den finnischen Konzern Nokia.
Das Unternehmen wurde schon im Jahr 1871 gegründet. Anfänglich in der Papierherstellung tätig, wurde drei Jahrzehnte nach Gründung damit begonnen, Elektrizität zu produzieren.56 Im Laufe des nächsten Jahrhunderts entwickelte sich ein diversifiziertes Produktportfolio.
Bereits während der 1980er-Jahre startete Nokia jedenfalls damit, die Entwicklungsmöglichkeiten der Mobiltelefonie zu erforschen. Zu diesem Zeitpunkt handelte es sich bei dem Unternehmen um einen Mischkonzern, der unter anderem Papier, Gummistiefel, Elektrizität, Radiergummis, Militärequipment, Autoreifen, Fernseher und auch das erste Autotelefon herstellte.
Im Jahr 1990 wurde dann seitens des Managements die strategische Entscheidung getroffen, die Geschäftstätigkeit ausschließlich auf den Mobilfunkbereich zu konzentrieren. Alle anderen Sparten wurden konsequent verkauft. Früh wurde auf das Potenzial gesetzt, das der Mobilfunkmarkt versprach.
Die Entscheidung erwies sich retrospektiv als ertragreich, besonders im Vergleich zur Konkurrenz. Der amerikanische Telekommunikationskonzern AT & T beauftragte stattdessen in den 1980er-Jahren die Unternehmensberatung McKinsey damit, eine professionelle Schätzung zu liefern, wie groß der globale Mobiltelefonmarkt im Jahr 2000 wäre. McKinsey prognostizierte, dass zu Beginn des neuen Jahrtausends die Mobiltelefonie ungefähr 900.000 Nutzer zählen würde. Die Erwartung unterschätzte den Trend: Im Endeffekt waren es 738 Millionen Personen, die im Jahr 2000 ein Mobiltelefon nutzten. AT & T veranlasste die falsche Einschätzung von McKinsey jedoch dazu, das Marktsegment der Mobiltelefonie zu vernachlässigen.
Bei Nokia setzten mit dem gegensätzlichen Schritt, sich ganz auf die Herstellung und den Vertrieb von Mobiltelefonen einzulassen, ertragreiche Jahrzehnte der Firmengeschichte ein. Infolge, zwischen 1998 und 2011, agierte Nokia als unangefochtener Weltmarktführer im expansiven Mobiltelefonmarkt. Allein im Jahr 2007 erwirtschaftete das Unternehmen mehr als die Hälfte aller Profite der weltweiten Mobiltelefonbranche.
(Festnetzanschlüsse oben, Mobiltelefone unten)
Doch noch aus einem weiteren Grund erscheint das Jahr 2007 einschneidend für die Unternehmensgeschichte.
Apple Inc. präsentierte in diesem Jahr das erste iPhone und Nokia unterschätzte in Folge die Nachfrage nach Smartphones. Überzeugt davon, dass Smartphones weiterhin ein luxuriöses Nischenprodukt darstellen würden und für den Massenmarkt untauglich wären, wurde die Entwicklung eigener Geräte vernachlässigt.
Denn bereits im Jahr 1996, über ein Jahrzehnt bevor Apple das iPhone einführte, entwickelte Nokia eigenständig ein funktionstüchtiges Smartphone.
Früh wurde auch ein erster Touchscreen konstruiert und die Funktion, Telefone online schalten zu können, in Prototypen integriert.
Verabsäumt wurde es hingegen, den Vorsprung in Hinblick auf Forschung und Entwicklung in massentaugliche Produktneuheiten zu übersetzen. Vorrangig konzentrierte Nokia den Fokus der Produktentwicklung stark auf die Handlichkeit der Hardware und vermochte es nicht, eine benutzerfreundliche Betriebssoftware zu konzipieren. Gleichermaßen wurde es nie verstanden, einen eigenen Marktplatz zu schaffen, um Lösungen von Drittanbietern zu vertreiben und daran mitzuverdienen, so wie es Apple mit dem App-Store gelungen ist.
Aufgrund dieser Entwicklungen und einem Konsumverhalten von Endnutzern, das sich rapide änderte, geriet Nokia in nachhaltige Turbulenzen.
Der Betriebsgewinn von Nokia betrug noch im Jahr 2010 insgesamt 1,85 Milliarden €. 2011 musste dann mit einem Verlust von 1,07 Milliarden € bilanziert werden.
Die Trendumkehr, der Verlustzone wieder zu entkommen, gelang in den an schließenden Jahren nicht, da die Kundenpräferenzen, die durch Apples Produktpolitik geschaffen wurden, sich als zu manifest erwiesen.
Im Jahr 2013 übernahm schließlich Microsoft den Geschäftsbereich der Herstellung von Mobiltelefonen von Nokia für den Gesamtkaufpreis von 5,4 Milliarden €.
Der einstige Weltmarktführer von Mobiltelefonen relativierte sich zu einer Seitensparte im Angebotsportfolio von Microsoft. Der Verkauf des vormaligen Kerngeschäfts ermöglichte Nokia jedoch einen radikalen Wandel, um sich von Altlasten zu befreien.
Aktuell agiert der finnische Konzern Nokia erfolgreich im Aufbau und als Ausrüster von Netzwerken. Auch Mobiltelefone werden in geringer Anzahl wieder vermarktet.
Von der Neupositionierung profitierte die finnische Volkswirtschaft merklich, die aufgrund der zwangsweisen Redimensionierung bei Nokia nachhaltig in Mitleidenschaft gezogen wurde. Das finnische Wirtschaftswachstum wurde ein ganzes Jahrzehnt lang durch die Schwierigkeiten bei Nokia verlangsamt. Die Epoche wird gemeinhin als Ära der „Nokia-Krise“ bezeichnet. Als der damalige finnische Handelsminister und spätere Premierminister Alexander Stubb auf der Höhe der Rezession in seinem Land nach den konkreten Ursachen für die Schwierigkeiten gefragt wurde, nannte er zwei schlichte Gründe: das iPhone und das iPad. Das iPhone hätte Nokia verdrängt und das iPad würde die Nachfrage nach Papier schmälern, darunter litt die wichtige Holzindustrie.
Die Produktlinie von Smartphones repräsentiert mittlerweile den größten Anteil im Absatzmarkt bei Mobiltelefonen. Als globaler Marktführer firmiert in diesem Bereich momentan das Unternehmen Samsung. Bei Samsung selbst handelt es sich auch um einen diversifizierten südkoreanischen Mischonzern, dessen Marktkapitalisierung im Jahr 2016 ungefähr dem Wert von 20 % des gesamten südkoreanischen BIP entsprach.59 Entstehen auch hier ähnlich systemische Risiken für eine aufstrebende Nation, die durch vernachlässigte Innovation schlagend werden würden? Umso wichtiger erscheint es auch in diesem Zusammenhang, woran dieser Lehrbrief appelliert:
Technologie gestaltet Gesellschaft und es liegt am sozialen Gemeinwesen, die Frage zu stellen, zu welchen Zwecken das geschehen soll.
5.4 Das Prinzip der „Schöpferischen Zerstörung“
Alle drei Case Studies lassen die Bedeutung der Wirkung der digitalen Transformation ermessen. Sie lässt sich ansehnlich als ein Katalysator begreifen, der die Wirklogik von Märkten beschleunigt.
Dass der Markt Veränderung verantwortet, trifft nicht erst im Zuge der digitalen Transformation zu. Vielmehr vollzieht sich gerade eine Verschiebung von der Industriegesellschaft zur Wissensgesellschaft, wie in Kapitel 2 dargestellt.
Kapitalistische Märkte repräsentieren essenzielle Werkzeuge, die Transformationen ermöglichen. Aufgrund der Wirkung einer inneren Funktionslogik können sie niemals unveränderliche Stabilität produzieren. Ihr permanenter Zustand besteht stattdessen in der fortlaufenden Transformation.
Der Ökonom Joseph Schumpeter hält in diesem Zusammenhang einen wichtigen Sachverhalt fest. Es wären nicht nur gesellschaftliche Umbrüche oder politische Zäsuren, die Veränderungen initiieren. Vielmehr entstehen durch das Prozesswesen des Kapitalismus „primäre Triebkräfte“60, die für jedes Unternehmen entscheidende Bedeutung besitzen. Seine Analyse besagt, dass der Markt selbst Kräfte der Veränderung erzeugt. Der Wandel, den der Markt formt, „kommt von den neuen Konsumgütern, den neuen Produktions- oder Transportmethoden, den neuen Märkten, den neuen Formen der industriellen Organisation, welche die kapitalistische Unternehmung schafft.“ Genau hier ändert die digitale Transformation die überholten Funktionsweisen der Industriegesellschaft und führt in ein neues Zeitalter.
Eine Kausalität, ein Abhängigkeitsverhältnis lässt sich unter diesen Bedingungen umdrehen: Nicht weil sich Gesellschaften transformieren, verändert sich die Struktur von Märkten. Es gilt ebenso, dass sich Gesellschaften weiterentwickeln, weil Märkte Neues produzieren. Stillstand kann folglich ausgeschlossen werden. Fortlaufende Erneuerung wird zum stabilen Prinzip.
Andere Produkte begründen neue Konsumgewohnheiten. Innovation bedient bisher unentdeckte Erwartungshaltungen und macht existierende Angebote obsolet. Kundenbedürfnisse adaptieren sich fortlaufend, darauf müssen Organisationen Antworten geben. Ebenso kann als Triebkraft der Transformation gelten, dass Form und Funktion eines Produkts gleich bleiben, aber Produktionsverfahren, die zur Herstellung angewendet werden, sich gänzlich überholen und modernisieren.
Neben neuen Produkten oder Verfahren zählt Joseph Schumpeter auch die Nutzung fortschrittlicher Transportmethoden auf, die den Markt verändern.
Er berücksichtigt den Sachverhalt, dass Prozessoptimierungen oder Innovationen im Transportsektor zu Beschleunigung führen, die geltende Maßstäbe neu messen lassen. Wenn es ein gewisses Unternehmen schafft, gefragte Produkte binnen eines Tages an Abnehmer zu liefern, wohingegen alle Konkurrenten zwei Tage dafür benötigen, dann wird sich der einzelne Tag bald als neuer Standardwert durchsetzen, dem es zu entsprechen gilt. Wer beispielsweise Drohnentechnologie bei der Zustellung von Konsumgütern erstmalig großflächig einsetzen wird, formt Erwartungshaltungen von Endabnehmern, die voraussichtlich branchenübergreifend Wirkung entfalten.
Eine spezifische Form der Transformation, die moderne Märkte verantworten, verortet der Ökonom Joseph Schumpeter also im Wirkmechanismus der „industriellen Mutation“62. Damit bezeichnet er die Beobachtung, dass sich Industrien und Branchen als solche im Lauf der Zeit strukturell ändern.
Schwerwiegende Konkurrenz entsteht nicht notwendigerweise dann, wenn ein ähnliches Unternehmen vorhandene Kundenmärkte durch gleichartige Angebote und bekannte Vertriebsmodelle anvisiert. Unabhängige Lebensmittelhändler in Dörfern und Städten haben sich nur bedingt gegenseitig herausgefordert. Retrospektiv zeigt sich, dass kleinen und autonomen Lebensmittelhändlern durch die Ausbreitung des stationären Supermarkts eine existenzbedrohliche Gefahr erwuchs. Nicht die gegenseitige Konkurrenz zwischen Lebensmittelhändlern stellte ein formidables Risiko dar, vielmehr bildete die Mutation im Markt eine kritische Trendwende.
Die strategische Aufgabe seitens des betriebswirtschaftlichen Managements besteht also darin, auf den Strukturwandel in eigenem Marktsegment mutig zu reagieren und Kundenbedürfnisse zu verstehen. Wenn sich die Absatz- und Vertriebswege ändern, andere Erwartungshaltungen gegenüber Produkten oder Dienstleistungen kultiviert werden, dann repräsentieren diese Entwicklungen Tendenzen, auf die es Antworten verlangt.
Ein anderes Beispiel aus dem Handel kann als weitere Illustration dienen: Es war nicht das Versandhandelsunternehmen Neckermann, das dem Versandhaus Quelle gravierende Absatzeinbußen verursachte, die schließlich nicht verkraftet werden konnten. Es war auch nicht der umgekehrte Fall, dass Quelle aufgrund der Umtriebigkeit von Neckermann gezwungen war, den operativen Geschäftsbetrieb einzustellen. Vielmehr wurde das gängige Geschäftsmodell beider Versandhäuser durch Amazon radikal überholt. Das Bedrohungsszenario wurde organisationsintern zu lange nicht verstanden.
Probate Antworten auf die Entwicklung wurden erst nicht gesucht, dann nicht gefunden. Das führte schließlich zum Aus beider Konkurrenten. Diese mächtige Wirkung meint Joseph Schumpeter, wenn er die „industrielle Mutation“ skizziert.
Joseph Schumpeter erfasst die Wirkung des beschriebenen Prozesses mit der griffigen und viel zitierten Formel von der „Schöpferischen Zerstörung“ des Kapitalismus.
Die „Schöpferische Zerstörung“ bezeichnet die Vergänglichkeit des Vorhandenen unter der Perspektive fortgesetzter Erneuerung. Es erscheint als wesentliches Merkmal des Kapitalismus, dass er andauernde Transformation motiviert. Was abhandenkommt, wird nicht ersatzlos gestrichen oder aufgelassen, sondern mutiert in einer nächsten Entwicklungsstufe.
Innovation lässt Neues entstehen und bis dahin Populäres wird rasant obsolet. Neue Werte zu schaffen, macht alte Werte bedeutungslos, sie haben ausgedient. MP3 hat die CD ersetzt, das Mobiltelefon den Festnetzanschluss, der Personal Computer die Schreibmaschine. Der Markt erzeugt also nicht nur Neues, er wickelt auch Altes ab. Fortschritt funktioniert auf Grundlage dieser Dialektik. Industrielle Mutation führt zu keiner Koexistenz, sondern zu radikaler Erneuerung.
Das wirkt als entscheidende betriebswirtschaftliche Aufgabe: Institutionelle Antworten darauf zu erwirken, einer sich ändernden Gesellschaft brauchbare Angebote zu liefern, die ein rentables Geschäftsmodell bilden. Marktwirtschaftliche Rahmenbedingungen ändern sich fortlaufend, darauf müssen Organisationen reagieren.
Ein ansehnliches Beispiel, um die Wirkweise der industriellen Mutation nachvollziehbar zu beschreiben, bildet der Musikmarkt. In diesem Segment hat sich im Lauf der letzten Jahre ein markanter Strukturwandel vollzogen.
„Schöpferische Zerstörung des Kapitalismus“
Es änderten sich Konsumgewohnheiten grundlegend, vorangetrieben durch die Fortentwicklung der digitalen Transformation: Denn der unabhängige CD-Händler in der innerstädtischen Fußgängerzone wurde nicht durch einen anderen CD-Händler in einer nahegelegenen Seitenstraße verdrängt. Konkurrenz erwuchs dem tradierten Musikfachhandel vielmehr aus Einzelhandelsketten wie sie beispielsweise der Virgin Megastore, HVM, Libro, Saturn oder MediaMarkt darstellen – um nur einige der Ketten zu nennen.
Diese Konzerne erlebten dann selbst, wie die Umsätze ihrer Musikabteilungen merklich zu fallen begannen, zuerst aufgrund der Beliebtheit des Online Versandriesen Amazon. Dann wurde plötzlich das neueste Album der Lieblingsband nicht mehr als physischer Tonträger erworben, sondern schlicht im iTunes-Store gekauft, im MP3-Format heruntergeladen. Die Musikindustrie schien von der Entwicklung überfordert. Anfänglich wurde es vollkommen verabsäumt, tragfähige Geschäftsmodelle zu entwickeln, um den neuen Kundengewohnheiten zu entsprechen. Stattdessen wurde strategisch ein kontraproduktiver, nahezu destruktiver Ansatz gewählt: Die Verantwortlichen in der Industrie haben das Verhalten der eigenen Kunden kriminalisiert, Downloads wurden ursprünglich als Raubkopien gebrandmarkt. Das bedeutete in Konsequenz einen nachhaltigen Vertrauensverlust zwischen Musikliebhabern und Musikindustrie.
Die Popularität des MP3-Formats initiierte auch eine zweite Veränderung, ie substanzielle Wirkung entfaltete. Nicht mehr die klassische Form eines Albums wurde von Musikfans nachgefragt, sondern die neue Flexibilität, die sich durch MP3 bietet, wurde dafür genutzt, persönliche Playlisten zu erstellen. Einzelne Songs wurden aus dem Konzept des Albums von den Hörern herausgelöst und flexibel in eigene Playlists integriert. Was bereits bei Musikkassetten oder DJ-Sets den Anfang nahm, findet hier seine Vervielfältigung und Demokratisierung. Streaming verstärkte diese Entwicklung.Das Musiklabel Warner Music erklärt im Geschäftsjahr 2015 erstmalig, dass die eigenen Umsätze durch Streaming-Dienste jene der Download-Plattformen übertreffen würden. Die Musikindustrie liefert ein illustratives Beispiel dafür, wie die Digitalisierung die digitale Transformation eines spezifischen Markts vorantreibt.
Zur Illustration sei die Zusammensetzung des Umsatzes (ohne Lizenzgeschäft) im deutschen Musikmarkt in Perspektive dargestellt.
Abbildung 16: Umsätze der deutschen Musikindustrie
Nicht nur, dass sich Formate und Art der Tonträger verändert haben, auch neue Distributionskanäle wurden aufgesetzt und das Marktvolumen redimensioniert.
Die Konsumenten profitierten eindrücklich von der praktikablen, schnell verfügbaren und leicht transportablen Weise, wie sich Musik mittlerweile hören lässt. Simultan lässt sich auch ein neues Bedürfnis nach Authentizität ausmachen. Die Vinyl-Platten feiern ein Comeback. Anders stellt sich jedoch die Situation für professionelle Musiker dar. Es wurde noch nie so viel Musik gehört, wie das heute der Fall ist. Doch sinkt zeitgleich der Verdienst der Musiker selbst. Ihnen wird die Möglichkeit erschwert, von der Kunst zu leben.
Der Datenjournalist David McCandless66 stellte eine aussagekräftige Kalkulation auf. Damit ein Musiker in den USA den gesetzlichen Mindestlohn von 1.200 $ verdienen kann, hat er die Möglichkeit, beispielsweise sein Album selbst zu produzieren. Alle Einnahmen blieben in diesem Fall bei den Künstlern selbst. Bei einem Albumpreis von 12 $ sollten schlicht 100 Alben pro Monat abgesetzt werden. Es wären diesbezüglich nur die Kosten aufzuwenden, um Rohlinge zu brennen. Wird ein Plattenvertrag unterzeichnet, erhalten die Musiker im Regelfall ein Viertel der Umsätze, die das Musiklabel mit ihren Alben erzielt. Wird das Album als Download gekauft, wären es schon 550 Alben pro Monat oder 5.500 Songs, die verkauft werden müssten, um den Mindestlohn zu erwirtschaften. Bei Spotify erhalten Musiker nur noch minimale Beträge im Cent-Bereich, wenn ihr Song oder ein Album gehört wird. Um Einkünfte in der Höhe des Mindestlohns zu erzielen, müssten die Songs von Musikern über eine Million Mal pro Monat gestreamt werden.67 In der Verwertungskette ihres eigenen Schaffens stehen Musiker fast außen vor. Doch auch hier finden bereits erste, selbstständige Versuche statt, die Regeln des Wettbewerbs zu ändern.
Die britische Sängerin und Grammy-Gewinnerin Imogen Heap vertreibt beispielsweise ihre Musik nun auf Basis der Blockchain-Technologie. Diese Technologie erlaubt es der Künstlerin, angemessen für ihr Urheberrecht entgolten zu werden. Werden ihre Songs einfach gehört, erhält sie einen kleinen Betrag über die Blockchain zugewiesen, ohne eine Vermittlungsinstanz oder einen Zwischenhändler einsetzen zu müssen. Nutzt man ihre Songs, um sie beispielsweise in selbstproduzierte Videos einzufügen, steigt die verrechnete Summe.
Um es in Anklang an Joseph Schumpeter zu sagen: Die Musikindustrie durchlief industrielle Mutationen und wird sie weiterhin erleben – hoffentlich in einem nächsten Schritt hin zu einer fairen Bezahlung für all jene, die durch ihre Kreativität auditive Freuden schaffen. Erste Versuche und Schritte werden bereits gesetzt.
In der Musikindustrie zeigen sich also symptomatisch vielfältige Szenarien, die in Zusammenhang mit der digitalen Transformation wirksam werden und über diesen Bereich selbstverständlich hinauswirken: Eingesessene Player im Markt wurden von Dynamiken, die sich durch neue Technologien entwickelten, nicht nur herausgefordert, sondern überfordert. Was vor allem nicht verstanden wurde, waren die Verschiebungen, die im Konsumentenverhalten stattgefunden haben. Diese lassen sich so beschreiben, dass Zugriffsrechte auf Musik von den Besitzrechten entkoppelt wurden. Also das Recht auf Nutzung entkoppelte sich vom Recht auf Eigentum. Beides muss nun nicht mehr unauflöslich miteinander verwoben sein und bildet in weiterer Folge die Grundlage des Konzepts der Sharing Economy.
Ebenso ergeben sich rechtliche Implikationen und Fragen zur Produktpolitik:
Das monatliche Abonnement, das beispielsweise mit einem Streamingdienst eingegangen wird, stellt faktisch einen Dienstleistungsvertrag dar. Die VinylPlatte, die erworben wird, bildet einen klassischen Kaufvertrag, der Eigentumsrechte eines physischen Objekts überträgt. Ein Buch, das am Kindle gelesen wird, ist faktisch eine Textdatei, die auf Basis eines Leihvertrags zur Verfügung gestellt wird. Ein Buch, das im Handel erworben wird, befindet sich im Eigentum. Damit handelt es sich aus legalistischer Perspektive um einen entschieden anderen Sachverhalt.
Anhand des Beispiels lässt sich auch über die exakten Vorteile sprechen, die anfänglich im Skript erwähnt wurden: Die Vervielfältigung einer CD verursacht Kosten, in der Pressung, im Vertrieb, in der Distribution, in der Lagerung. Eine Musikdatei hingegen lässt sich nahezu kostenlos vervielfältigen, unkompliziert teilen und aufwandslos als Datenformat lagern bzw. ablegen.
Technologie erwirkt also nicht deshalb Marktvorteile, weil Digitales in einem technologischen Sinne fortschrittlicher wäre als Analoges, sondern weil es ökonomisch effizienter agiert. Der Verständnisschlüssel aus Perspektive des Managements über die Wettbewerbsvorteile durch die digitale Transformation liegt in der Ökonomie – nicht in der Technologie.
Die Musikindustrie zeigt eindringlich, wie Märkte permanent durch strukturelle Veränderungen konfiguriert werden. Fortlaufende Veränderung verantwortet die Destruktion des Vorhandenen, um es durch Neues zu ersetzen. Der Kauf des Lieblingsalbums beim eigenen Plattenhändler wandelte sich dahingehend, dass die bevorzugten Lieblingstitel nun einfach gestreamt werden. Digitalisierung treibt den Prozess voran und erweist sich diesbezüglich als eine massive Wirkkraft.
Der Theaterregisseur Peter Stein wurde wiederholt gefragt, warum er in seinen Inszenierungen immer auf eine nahezu originalgetreue Textauslegung, Ästhetik und Werkinterpretation besteht, ob diese Herangehensweise nicht obsolet wäre. Seine Antwort besagt, dass es die Aufgabe und Verantwortung des Publikums wäre, die Universalität der Botschaften beispielsweise von Shakespeare auf die Jetztzeit zu übertragen. Seine Aufgabe bestünde darin, die Botschaft zu vermitteln.
In dieser Form gilt der Musikmarkt, aber auch die anderen Beispiele als Sinnbild für die weiterführenden Änderungen, die anstehen. Die Case Studies sind symbolisch zu denken und Verantwortungsträger, die sich der Zukunft bewusst sind, finden genau darin einen Bezugspunkt für die eigene Reflexion dessen, was für den eigenen Wirkungsbereich antizipiert werden kann.
Digital Business – Konvergenzen digitaler Transformation
Digital Technology Management
1 Einleitender Teil
In diesem Teil sollen zunächst die Basis und die Relevanz bezüglich der Einordnung des Themas im Kontext der gesamten Lehrunterlagen erörtert werden.
1.1 Einleitung
Das Skript Neue Technologien soll aufzeigen, wie sich der Einsatz moderner Informationstechnologie im Rahmen der Unternehmensprozesse positiv auf die Effizienzsteigerung und somit den Erfolg auswirken kann. Oftmals führt in diesem Zusammenhang kein Weg an einer betrieblichen digitalen Transformation vorbei. Immerhin sind es besonders die bereits langfristig etablierten internen Prozesse und Technologien, welche selten hinterfragt werden. Jedoch muss aufgrund der Digitalisierung und der damit verbundenen neuen Möglichkeiten die Aussage „Never change a running system“ grundlegend hinterfragt werden. Um bestehende technologische Abläufe und Systeme überhaupt erst hinterfragen zu können, benötigen Führungskräfte Wissen über moderne Technologien und wie diese effizient eingesetzt werden können. Zu häufig ist dieses Wissen nicht vorhanden oder wird ausschließlich in der IT-Abteilung gehortet. Aufgrund der stetig steigenden Globalisierung der Märkte kommt es zu einem extremen Kosten- und Wettbewerbsdruck zwischen Unternehmen. Die Entwicklungszeiten, um innovative Produkte sowie Dienstleistungen für die interne Prozessoptimierung bis zur Reife zu bringen, werden stetig kürzer. Darüber hinaus müssen laufend und regelmäßig neue Arten der Zusammenarbeit in und zwischen Unternehmen entwickelt und umgesetzt werden. Durch diese Dynamik ist eine unternehmensweite Unterstützung der Geschäftsprozesse ein erfolgskritischer Faktor für Unternehmen. Um diesen Erfolgsfaktor auch wirklich umzusetzen, bedarf es des Einsatzes geeigneter Informations- und Kommunikationssysteme. Denn so können komplexe Geschäftsabläufe greifbar und kosteneffizient dargestellt werden.
Um die Strategien von Unternehmens- und IT-Architekturen umsetzen zu können, ist es notwendig, dass man auch als Betriebswirt ein Basisverständnis der IT-Abläufe hat. Dies wird auch durch den Umstand verdeutlicht, dass die IT in vielen Unternehmen nicht mehr nur eine Support-Funktion einnimmt, sie wird sogar in vielen Unternehmen in den Mittelpunkt der Transformationsstrategie gestellt.
1.2 Einordnung des Skriptums im Rahmen des MBA Fernstudiums
Sie erhalten im Rahmen des Fernstudiums wesentliches Grundlagenwissen, um eine digitale Transformation in Ihrem Unternehmen aktiv voranzutreiben. Das Skriptum „Neue Technologien“ gewährt einen Einblick, wie sich der Einsatz moderner Informationstechnologie im Rahmen der Unternehmensprozesse positiv auf die Effizienzsteigerung und somit den Erfolg auswirken kann.
Der Aufbau des Studiums erfolgt nach Modulen. Dieses Skriptum schließt an die Einführung sowie die erste Lehrveranstaltung, Digital Business und Innovationsmanagement, an. Sie sollten demnach die grundlegenden Ausprägungen der Digitalisierung verstanden haben. Dieses Skriptum baut nun auf dem Gelernten auf, erweitert dieses um konkretes Verständnis hinsichtlich neuer Technologien und wie diese in verschiedenartigen Unternehmen zum Einsatz gelangen. Ausschließlich Wissen über Digitalisierung und Digital Change Management zu vermitteln, wäre zu kurz gegriffen. Somit besteht die Berechtigung dieses Skriptums darin, gängige IT-Services vorzustellen.
1.3 Aufbau und Konzeption dieses Lehrbriefes
Der vorliegende Lehrbrief dient vornehmlich zur Einführung in das breite Aufgabengebiet der Informatik und dessen unterstützende Aufgabe für das moderne Management.
Nach der Einleitung erwartet Sie im zweiten und dritten Kapitel ein Überblick und eine Abgrenzung der Informationswissenschaft zur übergeordneten Hauptdisziplin der Wirtschaftsinformatik. Im vierten Kapitel bekommen Sie einen Einblick in cloudbasierte IT-Dienste. Hier werden Ihnen vor allem der Aufbau der Cloud-Pyramide sowie die Möglichkeiten der Virtualisierung nähergebracht. Im fünften Kapitel sollen Ihnen die Vor- und Nachteile des Einsatzes von Standardsoftware im Vergleich zur Individualsoftware näher erläutert werden. Das sechste Kapitel beschäftigt sich mit modernen Möglichkeiten, um die geänderten Anforderungen in der Leitung von Softwareprojekten zu meistern. Hier wird speziell auf die rasche Änderung der Anforderungen und deren Umgang im Projektmanagement eingegangen.
Das siebte Kapitel soll einen kurzen Einblick geben, wie Frameworks bei der Softwareerstellung die Entwicklungszeit verkürzen und dabei die Qualität erhöhen. Im achten Kapitel sollen abschließend durch eine Fallstudie ein modernes Entwicklungswerkzeug und dessen Vorteile gezeigt werden.
1.4 Lernziele der LV „Neue Technologien“
• Gemeinsamkeiten und Unterschiede der Wirtschaftsinformatik und des Informationsmanagements kennen,
• Wirtschaftsinformatik als interdisziplinäre Wissenschaft definieren können,
• Unterschiede der verschiedenen Arten der Virtualisierung kennen und erklären,
• die Einsatzbereiche und den Zweck von Webservices beschreiben,
• die Begriffe IaaS, Paas und SaaS kennen und definieren,
• Cloud-Management und dessen Notwendigkeit in modernen IT-Umgebungen kennen,
• Unterschiede zwischen Standard- und Individualsoftware erläutern,
• Unterschiede bzw. Gemeinsamkeiten der beiden agilen Vorgehensmodelle Scrum und Extreme Programming kennen,
• Design Thinking und dessen Ansatz kennen,
• den Unterschied zwischen Wireframes und Mock-Ups kennen und erklären können,
• erklären können, wie ein Framework die moderne Softwareentwicklung beeinflusst.
2 Interdisziplinarität der Wirtschaftsinformatik als Managementaufgabe
Die Wirtschaftsinformatik als solche wird sehr häufig als eine Art Schnittstellendisziplin bezeichnet, welche aber zu anderen Wissenschaften offen ist. Dies mag oberflächlich betrachtet auch stimmen, wird aber durch die beiden Begriffsdefinitionen, „Gegenstand der Wirtschaftsinformatik sind Informations- und Kommunikationssysteme in Wirtschaft und Verwaltung und im privaten Bereich“1 und „Wirtschaftsinformatik ist die Wissenschaft von Entwurf, Entwicklung und Einsatz computergestützter betriebswirtschaftlicher Informationssysteme“2 widerlegt. Man erkennt, dass es um eine strukturierte und organisierte Menge von Technologien geht, die den Zweck verfolgen, definierte Ergebnisse zu liefern. Dabei wird versucht, Daten zu sammeln, zu strukturieren, bereitzustellen, zu kommunizieren und zur Verfügung zu stellen, um daraus die verschiedensten Erkenntnisse zu gewinnen. Die gewonnenen Informationen unterstützen dadurch die Findung von Entscheidungen, koordinieren Wertschöpfungsprozesse und steuern deren Automatisierung. Die richtige Nutzung der durch IKT gewonnenen Informationen, und nicht per se der Einsatz dieser, kann aber auch den Innovationsprozess in Unternehmen positiv beeinflussen.Das Zusammenspiel bzw. die Konkurrenz, die sich bei der Einführung betriebswirtschaftlicher Systeme zwischen den theoretischen Konzepten und der praktischen Einführung ergeben, wäre ein wesentliches Merkmal der Wirtschaftsinformatik. Um aber die Disziplin noch etwas genauer zu definieren, muss man auch die folgenden Ziele nennen:
• Informations- und Kommunikationssysteme so einzurichten, dass deren Nutzung im Unternehmen und in der Verwaltung einen Mehrwert schafft. Dabei sollte aber stets auf die Kosten/Nutzenrechnung geachtet werden.
• Auch sollte das Management durch Bereitstellung der notwendigen Informationen bei der Planung und Entscheidungsfindung sowie auch bei deren Kontrolle unterstützt werden.
• Die operativen Bereiche sollten durch die Unterstützung und die mögliche Automatisierung profitieren.
Die eben genannte Automatisierung bringt aber auch noch weitere Vorteile, wie
• die Verbesserung der Arbeitsabläufe für den Endbenutzer,
• die Verbesserung der Wirtschaftlichkeit und
• die Steigerung der Leistungsfähigkeit.
Dies ist aber nur durch eine ausreichende Definierung von Qualitätszielen für die Arbeitsprozesse sowie die erstellten Produkte und Dienstleistungen möglich. Aus den bisher gezeigten Zielen der Wirtschaftsinformatik, die sich eher auf den betriebswirtschaftlichen Teilbereich bezogen haben, geht aber auch hervor, dass die Informatik, aus der sich die Wirtschaftsinformatik entwickelt hat, einen wichtigen Faktor widerspiegelt.
Der Begriff der Informatik ist den meisten Menschen bekannt. In der Regel setzen Menschen die Informatik mit Computern und dem Programmieren von Software gleich. Das ist im Kern auch richtig, aber kann man die Informatik und die Wirtschaftsinformatik einfach so gleichsetzen? Dazu muss vorab die Informatik genauer definiert werden.
„Die Informatik (engl. Computer Science) ist die Wissenschaft von der systematischen Verarbeitung von Information, besonders der automatischen, mit Hilfe von Computern.“ Außerdem sollte man erwähnen, dass sich die Informatik im Kern mit den folgenden drei Bereichen beschäftigt:
• Theoretische Informatik: Dieses Teilgebiet befasst sich mit mathematischen Fragen und deren Programmierbarkeit. Im Grunde geht es darum, wie man existierende Probleme durch den Einsatz von Computern lösen kann.
• Technische Informatik: Hier geht es vornehmlich um die Hardware bzw. die Schaltungstechnik. Dazu gehören auch noch die Mikroprogrammierung und die Rechnerorganisation.
• Praktische Informatik: Hier beschäftigt man sich hauptsächlich mit der Umsetzung gegebener Probleme in Computerprogrammen. Um nun die oben erwähnte Frage zu beantworten: Auch wenn die Wirtschaftsinformatik ihre Wurzeln in der reinen Informatik und hier speziell in der praktischen Informatik hat, so kann man sie trotz alledem nicht gleichsetzen. Dies liegt auch daran, dass die Wirtschaftsinformatik zwar einerseits von der Informatik und der Betriebswirtschaftslehre maßgeblich beeinflusst wird, andererseits spielen jedoch auc h die Kommunikations- und Systemwissenschaft eine wichtige Rolle (siehe Abbildung 1).
Abbildung 1: Interdisziplinarität der Wirtschaftsinformatik
Reflexionsaufgabe 1: Interdisziplinarität
Wie ordnet sich die Wirtschaftsinformatik in Managementaufgaben ein?
Interdisziplinarität der Wirtschaftsinformatik als Managementaufgabe Übungen finden Sie auf Ihrer Lernplattform.
3 Überblick und Gegenstand des Informationsmanagements als Teilgebiet der Wirtschaftsinformatik
Unternehmen sind zunehmend von der Generierung von Informationen abhängig. Dies gilt vor allem für solche Unternehmen, die sehr informationslastige Prozesse haben. Aus diesem Grund ist das Management dieser Ressource ebenso wichtig wie die Verwaltung aller anderen für das Unternehmen wichtigen Produktionsressourcen. Da das Informationsmanagement (IM) im Bereich der Führungsebene angesiedelt ist, hat es unter anderem einen planenden, kontrollierenden und steuernden Charakter. Und das gilt sowohl für den strategischen als auch für den operativen Bereich. Die besondere Bedeutung beim richtigen Umgang mit Informationen wird von Nefiodow in seinem Buch über den Übergang von der Industrie- hin zur Informationsgesellschaft anschaulich beschrieben.
„In der Industriegesellschaft kam es primär darauf an, Rohstoffe zu erschließen, Maschinen, Fließbänder, Fabriken, Schornsteine und Straßen zu bauen, Energieflüsse zu optimieren, naturwissenschaftlich-technische Fortschritte zu erzielen und das Angebot an materiellen Gütern zu steigern. Vereinfacht ausgedrückt: Im Mittelpunkt des Strukturwandels der Industriegesellschaft standen Hardware und materielle Bedürfnisse. In der Informationsgesellschaft hingegen kommt es in erster Linie auf die Erschließung und Nutzung der verschiedenen Erscheinungsweisen der Information an – also von Daten, Texten, Nachrichten, Bildern, Musik, Wissen, Ideen, Beziehungen und Strategien." Die effiziente bzw. effektive Erfüllung der Informationsbereitstellung führt uns zu den beiden Hauptbereichen des Informationsmanagements:
• Koordination der Informationslogistik: Das IM (Informationsmanagement) verantwortet die wirtschaftliche Belieferung der innerbetrieblichen Entscheidungsprozesse. Im Zuge der „Informationsproduktion“ definiert der Entscheidungsträger die Grundlage für das Sammeln von Daten, welche dann den Nutzern dieser Information in der richtigen Qualität, zur richtigen Zeit und am richtigen Ort über das notwendige Medium zur Verfügung gestellt werden. Dieser Gesichtspunkt ist gerade unter Bedacht der rasant steigenden Datenmengen und der daraus resultierenden Flut an Informationen von großer Bedeutung für die „Informationsproduktion“.
• Durch eine an Kriterien gebundene wirtschaftliche Steuerung der Informatik werden die definierten Unternehmensziele unterstützt: Die Steuerung der Informatik und der damit verbundenen Informationen (z. B. Mitarbeiter, Prozesse oder die eingesetzte IT-Technologie) wird durch das richtige Informationsmanagement abgebildet. Die Informationslogistik sollte ein Regelwerk beinhalten, das es ermöglicht, Strategie, Prozesse und Infrastruktur sowie eine an den Zielen des Unternehmens ausgerichtete Informatik zu kreieren.
Aus den gerade genannten Bereichen kann man die für das IM notwendigen Aufgaben ableiten:
Modellierung der Informationslogistik: Wichtig für die Modellierung ist die Darstellung der Entscheiderprofile, der Informationsobjekte und deren Abläufe. Denn nur so ist es möglich, die Anwendungen bzw. die IT-Infrastruktur optimal auf die Anforderungen der Informationslogistik abzustimmen. Management der Schnittstelle zum Unternehmens-Controlling: Eine zentrale Rolle für den Erfolg spielt die laufende Überprüfung der Anforderungen. Denn nur so kann die Qualität des Systems der Informationsbereitstellung auf einem kontinuierlichen Niveau gehalten werden.
Strategisches Informatik-Management: Das Strategische Informatik-Management erfolgt in drei Schritten: Erstens müssen die Informationsstrategie und die Geschäftsstrategie in Einklang gebracht werden. Zweitens soll eine IT-Governance (d. h. ein Regelwerk zur Führung der IT) im Unternehmen implementiert werden.
Drittens muss es eine laufende Planung der weiteren Entwicklungsschritte geben; diese kann mittels der strategischen Informationssystemplanung erreicht werden. Operatives Informatik-Management: Der Rahmen der Informationslogistik wird durch Prozesse, die Organisation und die vorhandenen Ressourcen in Verbindung mit der Informatik-Strategie vorgegeben. Um diesen Rahmen ordnungsgemäß steuern zu können, gibt es verschiedene Werkzeuge, wie zum Beispiel die IT Infrastructure Library oder das COBIT, Control Objectives for Information and Related Technology -Framework.
Qualitätsmanagement der Informatik: Die Qualitätssicherung stellt einen Kernbereich dar, daher wird sie als eigenständiger Punkt geführt. Um die definierten Qualitätsziele zu erreichen, müssen die vorhandenen Strukturen und Aktivitäten mit entsprechenden Maßnahmen regelmäßig geprüft und evaluiert werden. Aus diesem Grund ist es notwendig, mit den jeweiligen Fachbereichen im Unternehmen zusammen zu arbeiten, weil es vorkommen kann, dass Geschäftsprozesse angepasst werden müssen.
Man kann also festhalten, dass die entsprechende Erfüllung der IM-Aufgaben eine wirtschaftliche und problemorientierte Führung der IT zulässt.
Der Stellenwert des IM war in der Vergangenheit nicht immer so hoch wie aktuell.
Die Veränderung über die Jahre zeigt sich sehr schön im IT-Produktivitätsparadoxon:
• Strassmann (1990): IT-Investitionen (Budget) sind nicht entscheidend für den Unternehmenserfolg.
• Bharadwaj (2000): Es besteht ein positiver Zusammenhang zwischen Informationsmanagement und Unternehmenserfolg.
• Stratopoulos & Dehning (2000):
o Positiver Zusammenhang zwischen erfolgreichem IT-Einsatz im Unternehmen und Unternehmenserfolg,
o IT muss effizient eingesetzt werden,
o „schlechtes“ Informationsmanagement ist Grund für Produktivitätsparadoxon.
• Brynjolfsson & Rock & Syverson (2017):
o Der Einsatz von IT führt nicht zwingend zu einer Produktivitätsrevolution.
o Erklärungen hierfür sind
▪ falsche Hoffnungen,
▪ falsche Messungen,
▪ Implementierung und Restrukturierungsversäumnisse.
Reflexionsaufgabe 2: Informationsmanagement
Nennen und erklären Sie die Aufgaben des Informationsmanagements!
4 Cloudbasierte IT-Services als Baustein der Digitalisierungsstrategie
Wenn in Ihrem Unternehmen über eine Digitalisierungsstrategie nachgedacht wird oder vielmehr nachgedacht werden soll, führt kein Weg an Cloud-Diensten vorbei. Cloud-Dienste geben dem Unternehmen die Möglichkeit, IT-Services jedem Mitarbeiter an jedem Ort der Welt zur Verfügung zu stellen. Sie stellen daher einen wesentlichen Bestandteil einer jeden digitalen Transformation dar.
4.1 Grundlagen
Digitalisierung in Unternehmen – ein Trend? Eine Notwendigkeit? Oder einfach nur ein Begriff, der wieder verschwinden wird? Bevor man auf diese Fragen eingehen kann, muss der Begriff genauer definiert werden.
Der Begriff der Digitalisierung hat aber nicht nur eine, sondern mehrere Bedeutungen. Er beginnt bei der einfachen digitalen Umwandlung und Darstellung von Informationen bzw. Kommunikation und erstreckt sich bis hin zur vierten industriellen Revolution (Industrie 4.0). Dazwischen liegen Evolutionsschritte, wie verdrängende Technologien (auch bekannt als disruptive Technologien), innovative Geschäftsmodelle oder Autonomisierung.
Der digitale Fortschritt in Unternehmen ist immer an die IT gekoppelt und diese hatte bis jetzt die Aufgabe, Tätigkeiten im Unternehmen zu unterstützen, indem sie Softwares, wie zum Beispiel das bekannte ERP System SAP, zur Verfügung stellte.
Betrachtet man das Ganze aber aus einem anderen Blickwinkel, so erkennt man, dass durch die Digitalisierung der IT eine weitaus größere Aufgabe zukommt. Zum einen soll sie - idealerweise unbemerkt im Hintergrund - für eine Kostenreduktion sorgen. Zum anderen ist ein weiterer, weitaus wichtigerer Teil, der durch die richtige Einstellung zustande kommen kann, dass die IT zur Steigerung der Ertragssituation durch Kostenreduktion und Effizienzsteigerung beitragen kann.
Das sogenannte „Cloud Computing“ erfreut sich seit nunmehr geraumer Zeit eines stetig steigenden Zulaufs. Die Definition des Begriffes durch das „National Institute of Standards and Technology“ NIST lautet wie folgt:
„Cloud Computing ist ein Modell, das den allgegenwärtigen, bequemen und bedarfsgesteuerten Netzwerkzugriff auf einen gemeinsam genutzten Pool an konfigurierbaren Datenverarbeitungsressourcen (z. B. Netzwerke, Server, Speicher, Anwendungen und Dienste), welche schnell und mit minimalem Verwaltungsaufwand bereitgestellt werden können, ermöglicht.“
Beim Durchlesen dieser Definition ist schnell zu erkennen, dass es beim Cloud-Computing nicht einfach nur um die Auslagerung der IT bzw. die Virtualisierung dieser geht.17 Vielmehr steht der schnelle, einfache und bedarfsgerechte Einsatz von IT-Diensten im Vordergrund. Dies zeigen auch die fünf wesentlichen Merkmale, drei Servicemodelle und vier Bereitstellungsmodelle, die seitens des NIST zusätzlich definiert wurden.
Wesentliche Merkmale:
• On-Demand Self Service: Ein Kunde kann Rechenmöglichkeiten, wie Serverzeit und Netzwerkspeicher, ohne Interaktion des Cloudanbieters automatisch bereitstellen.
• Breiter Netzwerkzugriff: Funktionen sind über Netzwerke verfügbar und können über Standard-Zugriffsverfahren, welche Thin Client oder Thick Client Plattformen nutzen, erreicht werden. Um die Sinnhaftigkeit der Funktion begreifen zu können, wird als Voraussetzung ein Verständnis davon benötigt, was Thin Clients oder Thick Clients sind: Ein Thick Client ist ein voll leistungsfähiger Desktop-Computer mit ausreichender Rechenkapazität, der eigenständig die von ihm verlangten Aufgaben erfüllen kann.
Ein Thin Client hingegen ist ein Computer oder ein Programm, der/das auf die Dienstleistung eines Servers angewiesen ist, um die Aufgaben zu erfüllen.
Grundsätzlich handelt es sich bei der Dualität zwischen Servern und Clients um ein zentrales Grundprinzip der Netzwerk-Architektur. Clients können dabei vom Server Dienste anfordern und im Regelfall können auch mehrere Clients auf die Dienste eines Servers zugreifen.
• Ressourcenzusammenlegung: Rechenressourcen der Anbieter werden zusammengefasst, um gleichzeitig mehrere Kunden zu bedienen. Dies geschieht unter Zuhilfenahme des sogenannten Multi-Tenant Modells, bei dem verschiedene physische und virtuelle Ressourcen zusammengefasst und bedarfsorientiert zugewiesen werden.
• Schnelle Elastizität: Funktionen können flexibel bereitgestellt und freigegeben werden.
• Messbarer Service: Cloud-Systeme kontrollieren, messen und optimieren den Ressourcenverbrauch automatisch. Dadurch ist Transparenz gegenüber dem Kunden und auch dem Anbieter selbst garantiert.
Servicemodelle:
• Software as a Service (SaaS): Anwendungen, die auf der Infrastruktur des Providers laufen, werden den Kunden zur Verfügung gestellt. Diese können von den verschiedensten Client Devices (Laptop, Tablet etc.) genutzt werden. Der Kunde hat hier keine Möglichkeit, die Cloud-Infrastruktur, wie Netzwerk, Speicher oder Server, zu beeinflussen.
• Platform as a Service (PaaS): Dem Kunden wird die Möglichkeit gegeben, selbst programmierte Anwendungen auf der Cloud-Infrastruktur des Providers zu implementieren. Der Kunde hat auch hier keine Möglichkeit, die Infrastruktur des Providers zu konfigurieren. Er hat jedoch die Kontrolle über die implementierte Anwendung.
• Infrastructure as a Service (IaaS): Dem Kunden wird die Möglichkeit gegeben, bereitgestellte Speicher, Netzwerke und andere Ressourcen zu konfigurieren. Der Kunde kann hier Anwendungen oder auch gesamte Betriebssysteme installieren und konfigurieren. Zugriff auf die darunterliegende Infrastruktur hat der Kunde jedoch nicht.
Bereitstellungsmodelle:
• Private Cloud: Die Cloud-Infrastruktur wird ausschließlich von der Organisation, eventuell unter Zuhilfenahme von Partnern der eigenen Organisation oder anderen Business Units, bereitgestellt. Die Infrastruktur kann hier am Firmengelände oder auch beim Partner installiert werden.
• Community Cloud: Die Cloud-Infrastruktur wird ausschließlich für die Verwendung von bestimmten Organisationen mit einem gemeinsamen Ziel bereitgestellt. Die Infrastruktur wird hier entweder von einem oder mehreren Unternehmen betrieben.
• Public Cloud: Infrastruktur und Dienste sind über das öffentliche Internet für jeden Benutzer zugänglich. Dabei wird die Infrastruktur von Anbietern in deren Räumlichkeiten betrieben.
• Hybrid Cloud: Hier werden zwei oder mehr der genannten Cloud- Infrastrukturen kombiniert. Diese bleiben eigenständig, werden aber durch standardisierte oder proprietäre Technologien verbunden. Dies ermöglicht die Portabilität der Daten bzw. einen Lastenausgleich der Clouds.
4.1.1 Virtualisierung
Virtualisierung ist ein Konzept, an welchem man in der modernen IT kaum noch vorbeikommt. Dieses Konzept der Abstraktion ist aber keine Erfindung der modernen IT. Es stammt ursprünglich aus den späten 1960er und frühen 1970er Jahren und kommt von den damals entwickelten Mainframes. Was aber steckt hinter diesem Konzept genau? Spricht man in der IT von „Virtualisierung“, so ist hier grundsätzlich die Abstraktion einer physikalischen Ressource, wie zum Beispiel Prozessoren, Speicher, Bildschirme etc., durch eine Software gemeint. Demzufolge ist eine „virtuelle Maschine“ eine Software, die einen echten Computer simuliert.
Dabei sieht die virtuelle Maschine für das installierte Betriebssystem aus wie reale Hardware.
Dabei setzt die Virtualisierung bei den verschiedenen Schichten moderner
Computersysteme an. Dies wird durch Abbildung 3 deutlich.19
Cloudbasierte IT-Services als Baustein der
Digitalisierungsstrategie
Übungen finden Sie auf Ihrer Lernplattform.
Abbildung 2: System ohne Virtualisierung Abbildung 3: Hardware-Virtualisierung
Virtualisierung darf aber hier nicht auf virtuelle Maschinen (VM) reduziert werden, weil es grundsätzlich darum geht, komplexe IT-Infrastrukturen zu vereinfachen und als Gesamtes wirtschaftlicher und flexibler zu machen. Unter diesem Gesichtspunkt muss man die verschiedenen Arten der Virtualisierung
• Hardwarevirtualisierung,
• Präsentationsvirtualisierung und
• Applikationsvirtualisierung
genauer betrachten. Denn nur so kann sichergestellt werden, dass durch eine effiziente Verwaltung der unterschiedlichen Lösungen der gewünschte Kostenvorteil entsteht. Wäre das nicht der Fall, würden die Einsparungen bei den Hard- bzw. Softwareressourcen durch steigende Personalkosten in der Verwaltung verpuffen.
Hardwarevirtualisierung:
Spricht man in der IT von Virtualisierung, ist hier meist die Hardwarevirtualisierung gemeint. Das sind Hard- und Software-Techniken, die es ermöglichen sollen, mehrere Instanzen von unterschiedlichen Betriebssystemen auf einem einzelnen Rechner bzw. Server gleichzeitig nebeneinander zu betreiben.
Der sogenannte Gast (virtuelles Betriebssystem) wird vom darunterliegenden Betriebssystem (Host) komplett abgekoppelt und kann somit einfach und flexibel wie ein Softwarepaket behandelt werden. Diese Technik ermöglicht es, eine virtuelle Maschine ohne großen Aufwand zum Beispiel zu klonen, um anstehende Tests durchzuführen bzw. die virtuelle Maschine von einem physikalischen Rechner zum anderen zu verschieben. Diese Tatsache hat den Vorteil, dass gerade bei verfahrenskritischen Systemen, die eine Hochverfügbarkeit (Verfügbarkeitsklasse AEC-2) von 99,99 % garantieren (ca. 5 Minuten Ausfallszeit pro Jahr), Kostenvorteile auftreten.
Bei der Hardwarevirtualisierung gibt es aber auch noch eine Unterscheidung in zwei grundlegende Systemarchitekturen: Da wären zum einen die Hosted-Lösung und zum anderen die sogenannte Bare-Metal-Lösung. Bei der Hosted-Lösung läuft der Virtual Machine Monitor als eigenständige Software in einem normalen Betriebssystem (z. B. Windows 10). Die sogenannte Bare-Metal-Lösung betreibt den VM-Monitor direkt auf der Hardware und wird hier meist als Hypervisor bezeichnet.
Der Vorteil solcher Bare-Metal-Lösungen liegt klar auf der Hand: Durch den Wegfall des darunterliegenden Betriebssystems bei der Hosted-Lösung werden Systemressourcen frei, welche wiederum für die virtuellen Maschinen genutzt werden können.
Unabhängig von der verwendeten Architektur müssen beide Ansätze die von Popek und Goldberg 1974 formulierten Anforderungen erfüllen:
Äquivalenz: Das virtuelle System muss das gleiche Verhalten zeigen als wäre es direkt auf der Hardware ausgeführt worden.
Isolation: Die virtuellen Systeme müssen untereinander zur Gänze isoliert sein, denn nur so können Sicherheit, Vertraulichkeit21 und Konsistenz von Daten gewährleistet werden. Zudem darf eine fehlerhafte virtuelle Maschine keinen Einfluss auf andere laufende virtuelle Maschinen haben.
Kontrolle: Vorhandene Systemressourcen, wie CPU oder RAMs, müssen von den virtuellen Maschinen kontrolliert und einzeln zugeordnet werden.
Effizienz: Die virtuellen Maschinen sollten annähernd so schnell laufen wie auf der blanken Hardware. Es darf also kein allzu großer Overhead produziert werden.
Overhead wären in diesem Zusammenhang Daten, die nicht primär zu den Nutzdaten zählen, sondern als Zusatzinformationen zur Übermittlung oder Speicherung benötigt werden.
Präsentationsvirtualisierung:
Die Präsentationsvirtualisierung versucht, die Nachteile der bekannten Client Server-Anwendungen, wie Office-Pakete, zu reduzieren. Bei dieser Softwarearchitektur werden sehr häufig zu bearbeitende Dateien auf dem lokalen Desktop abgelegt und im Idealfall regelmäßig auf dem zentralen Serverlaufwerk gesichert. Zudem entsteht meist ein sehr hoher Aufwand, um die verteilten Arbeitsplatzrechner zu warten.
Die Präsentationsvirtualisierung ermöglicht virtuelle Benutzersitzungen, bei denen bestimmte Anwendungen oder sogar ganze Desktop-PCs eines Servers auf dem lokalen PC wiedergegeben werden. Der Vorteil hier ist, dass entweder die ganze Anwendung oder die zu bearbeitenden Daten zu jeder Zeit auf dem Server liegen. Der eigene PC wird lediglich zur Anzeige und Bedienung des entfernten Rechners benötigt. Dieses auch als Terminal Computing bekannte Prinzip bringt folgende Vorteile mit sich, die in einem Kostenvorteil resultieren:
• Zentralität der Daten: Dies vereinfacht die Zugriffskontrolle, aber auch das Backup der Daten, was zu erhöhter Sicherheit der Daten führt.
• Besseres Life Cycle Management: Da lediglich die zentralen Terminalserver gewartet werden müssen, können enorme Kostenvorteile erzielt werden.
• Effizientere Durchsetzung von Sicherheitsrichtlinien: Da der lokale Arbeitsplatzrechner - häufig auch als Thin Client bezeichnet - auf die Benutzer-Ein- bzw. Ausgabe reduziert wird, verringert sich auch automatisch die Angriffsfläche am Arbeitsplatz. Da ein Großteil der Angriffe durch interne Mitarbeiter durchgeführt wird, ist dies ein nicht zu unterschätzender Vorteil.
• Vermeidung von Netzwerküberlasten: Bei klassischen Client/Server-Anwendungen kann es zu Spitzenzeiten zu extrem hohen Lasten und, daraus resultierend, zu Zeitverzögerungen kommen. Dieser Punkt ist vor allem bei verteilten Standorten relevant, weil es gerade hier zu unangenehmen Wartezeiten kommen kann.
Terminal Computing hat aber nicht nur Vorteile. Der größte Nachteil ist sicherlich die Abhängigkeit vom Netzwerk, denn ohne dieses ist keinerlei Arbeit möglich. In so einem Szenario ist ein redundantes Netzwerk unumgänglich, was aber auf der anderen Seite wieder die Kosten in die Höhe treibt. Ein redundantes Netzwerk bezeichnet die mögliche Gewährleistung, dass beim Ausfall einer Netzwerkinfrastruktur bereits ein zweiter Ersatz vorhanden wäre, der den Ausfall schlagartig auffängt. Die Netzwerkinfrastruktur würde also für Bedarfsfälle kopiert werden. Das hat die Entwicklung des VDI-Konzeptes (Virtual Desktop Infrastructure) vorangetrieben. Dieses Konzept verbindet die Hardware- und Präsentationsvirtualisierung. Zum einen werden für jeden Client eigene virtuelle Maschinen erstellt, auf die von jedem Client-PC aus zugegriffen werden kann. Zum anderen wird der Verwaltungsaufwand reduziert, weil dieser zentral verwaltet und dynamisch auf die, je nach Systemauslastung und Ressourcenbedarf, notwendigen Server verteilt wird.
Applikationsvirtualisierung:
Die Applikationsvirtualisierung zielt darauf ab, Anwendungen zu entkoppeln, um so Probleme mit anderen Programmen oder dem Betriebssystem zu vermeiden. Im Gegensatz zur Hardwarevirtualisierung wird in diesem Fall eine eigene Abstraktionsschicht, ähnlich des Virtual Monitors, zwischen Betriebssystem und Anwendung eingeführt.
Abbildung 4: Virtuelle Maschine
(Serverspace)
Abbildung 5: Containerumgebung (Serverspace)
Die Anwendungen werden mit allen notwendigen Software-Bibliotheken und Libraries, wie in Abbildung 5 gezeigt, in sogenannten Containern zusammengefasst. Dadurch können diese sehr einfach zwischen den Systemen kopiert werden.
Abbildung 6: Applikationsvirtualisierung in einer Microsoft-Umgebung (fisc)
Abbildung 6 zeigt den Ansatz von Microsoft in diesem Zusammenhang, der aber bei allen anderen Herstellern ähnlich aussieht. Hier ist schön zu sehen, dass Anwendungen nicht mehr direkt auf den Client-Computern installiert werden; sie werden vielmehr in Containern auf dem Application Virtualization Sequenzer installiert und bei Bedarf auf den lokalen Desktop kopiert. Dies ermöglicht • eine deutlich einfachere Softwareverteilung,
• vereinfachte Updates,
• aber auch verschiedene Versionen nebeneinander laufen zu lassen sowie
• einfachere Integrationstests.
Reflexionsaufgabe 3: Virtualisierung
Erklären Sie die drei Arten der Virtualisierung genauer!
Reflexionsaufgabe 4: Virtualisierung
Erklären Sie die unterschiedlichen Bereitstellungsmodelle!
4.1.2 Webservices
Webservices sind in der modernen IT nicht mehr wegzudenken. Was aber genau kann unter einem Webservice verstanden werden?
Webservices sind plattformunabhängige Softwarekomponenten, um verteilte Anwendungen im WWW zu realisieren. In der Definition des World Wide Web Consortium (W3C) bilden die Sprache Web Service Description Language (WSDL) und die Interaktion über SOAP-Nachrichten die Kernelemente der Web-Services.
SOAP wäre dabei ein Netzwerkprotokoll, um Daten zwischen Systemen auszutauschen.
Abbildung 7: Web-Service-Architektur
Ein Webservice ist im Grunde eine Schnittstelle oder, einfach gesprochen, ein Vermittler, der eine definierte Funktionalität in WSDL beschriebenen und über SOAP-Nachrichten versendete Pakete anderen Anwendungen zur Verfügung stellt.
Daraus lassen sich drei Rollen bei der Verwendung von Webservices ableiten:
• Konsument: Dieser interagiert mit einem Web-Service oder einem Anbieter.
• Anbieter: Stellt einen Dienst über eine definierte Schnittstelle zur Verfügung.
• Verzeichnis: Beinhaltet eine logische Beschreibung des Dienstes und sämtlicher Anbieter.
SOAP-Nachrichten bilden die Grundlage für die Kommunikation von und zu Web-Services. Hierbei werden die Grundstruktur und die Verarbeitungsvorschriften von Nachrichten vorgegeben. SOAP (Simple Object Access Protocol) ist laut W3C-Definition plattform-unabhängig. SOAP-Nachrichten können über jegliche Internetprotokolle auf der OSI-Anwendungsschicht übertragen werden. Was bedeutet aber der Begriff OSI Anwendungsschicht? Im OSI-Schichten-Modell wird beschrieben, welche Voraussetzungen gegeben sein müssen, damit verschiedene Netzwerkkomponenten miteinander kommunizieren können. OSI steht für „Open System Interconnection“ und heißt übersetzt „Offenes System für Kommunikationsverbindungen“.
Die Kommunikation geschieht folgendermaßen: Sender und Empfänger senden bzw. erhalten Informationen in einer Anwendung, wie z. B. in ihrem E-Mail-Programm. Diese Information läuft dann von der Anwendung zur Netzwerkkarte, verlässt den Rechner über ein Übertragungsmedium (Kabel oder Funk), läuft darüber vielleicht noch über andere Netzwerkkomponenten, wie beispielsweise einen Hub, und erreicht dann über die Netzwerkkarte des Zielrechners die Anwendung des Empfängers. Alle Schritte, die vom Sender bis zum Empfänger gemacht werden müssen, werden während der Übertragung in einem Protokoll festgehalten, damit jede einzelne Station auf diesem Weg weiß, wohin das Paket möchte, woher es kommt und welche Eigenschaften es hat. Damit dieser Weg funktioniert, muss dieser eindeutig festgelegt werden und alle Geräte und jede Software, die in diesem Prozess involviert sind, müssen den Ablauf kennen und dieselbe Sprache sprechen. Diese Normen legt das OSI-Schichten-Modell fest. Die SOAP-Nachricht selbst ist ein XML Dokument24 mit einem sogenannten „Envelope“ als Ausgangspunkt und kann in weiterer Folge einen oder mehrere sogenannte „Header“ besitzen. Der Header enthält sogenannte Meta- und Kontrollinformationen, wie das „Actor attribute“ und das „MustUnderstand attribute“. Darüber hinaus enthält das Dokument genau ein Body-Element, in welchem die zu übertragenden Daten enthalten sind.
23 www.netzwerke.com (2018), https://www.netzwerke.com/OSI-Schichten-Modell.htm.
24 XML – Extensible Markup Language ist ein Format zur Darstellung hierarchisch strukturierter Daten im Format einer Textdatei, die sowohl von Menschen als auch von Maschinen lesbar ist.
Abbildung 8: SOAP-Datenpaket
Webservice-Schnittstellen werden über WSDL beschrieben, um einen Datenaustausch zu gewährleisten. Es muss hier definiert werden, wie eine eingehende bzw. ausgehende Nachricht aussehen muss. Es werden hier aber auch die möglichen Parameter, welche die Schnittstelle zur Verfügung stellt, definiert. Diese bestimmen dabei das benötigte Datenset.Neben SOAP und WSDL hat sich ein weiterer Standard, RESTful, etabliert. REST Webservices sind per Definition leicht zu warten und sehr skalierbar. Die Hauptelemente von RESTful Webservices sind:
Resources: Das erste Schlüsselelement ist die Ressource, auf die zugegriffen werden soll. Nehmen wir beispielsweise an, Ihre Web-URL lautet http://demo.XYZ.at. Um also auf die Daten des ersten Studenten zuzugreifen, müsste man folgende URL http://demo.xyz.at/student/1 verwenden. Diese URL weist den Server an, die Informationen des Studenten mit der ID 1 bereit zu stellen. Request Verbs: Mit den sogenannten Anfrage-Verben (z. B. GET, POST, DELETE etc.) teilt man dem Server mit, was man mit der Ressource machen möchte. Im Falle des GET-Verbs möchte man Daten vom Server empfangen. Request Header: Mit dieser vordefinierten Header-Information kann man dem Server weitere Anweisungen übermitteln. Dies kann zum Beispiel die Art der zu erwartenden Antwort sein.
Request Body: Mit diesem Element sendet man direkt Daten an den Server. Dies ist im Speziellen der Fall, wenn man einen Datensatz am Server erstellen möchte. Hierzu wird das POST-Verb verwendet. Response Body: Über den Antwort-Body wird die angeforderte Information an den Initiator der Anfrage zurückgesendet. Dies kann, wie bei SOAP, via XML erfolgen oder über ein anderes Format, wie zum Beispiel JSON.
Response Status Code: Diese Antwort-Codes dienen der Definition, ob bei der Übermittlung eventuell Fehler aufgetreten sind oder diese erfolgreich war usw.
Abbildung 9: RESTful API Überblick (Schematic Wiring Diagram)
Zu den etablierten Services haben sich mittlerweile weitere Technologien für spezifische Problemstellungen etabliert.
Warum sollte man aber wissen, was genau ein Web-Service ist? In der heutigen schnelllebigen IT-Welt kommt es oft vor, dass es für bestimmte Problemstellungen, die in Unternehmen benötigt werden, bereits fertig programmierte Anwendungen gibt, die eventuell auch noch öffentlich zugänglich sind. In diesem Fall kann von der eigenen Anwendung auf die andere Anwendung, welche nicht zwingend in derselben Programmiersprache erstellt worden sein muss, zugegriffen werden. Ein weiterer Vorteil kommt bei Systemupdates für die Anbieter von Webservices zu tragen. In diesen Fällen muss der Anbieter lediglich den Web-Service anpassen, die beziehenden Konsumenten können den Dienst danach ohne Änderungen an ihrem System weiter nutzen.
Reflexionsaufgabe 5: Webservices
Welchen Nutzen/Vorteil hat die Verwendung von Webservices?
Reflexionsaufgabe 6: Webservices
Beschreiben sie den Ablauf einer Webservice-Anfrage.
4.2 Cloud-Architekturen
Die in der Einleitung unter Grundlagen genannten Cloud-Service-Modelle bilden zusammen die Pyramide der Cloud-Architektur. Die Pyramide in Abbildung 10 zeigt, dass eine vollständige Cloud-Architektur auf den einzelnen Abstraktionsebenen aufbaut.
Abbildung 10: Cloud-Pyramide / -Architektur (Netzsieger)
Diese Entkoppelung der einzelnen Schichten ermöglicht es den Konsumenten, aufbauend auf eine der gezeigten Ebenen, eigene spezielle Angebote ihren internen Abteilungen gegenüber anzubieten. Dabei werden die Vorteile der jeweils genutzten Ebene auf die darunterliegenden Ebenen des Modells übertragen. Nachfolgend werden die drei Cloud-Service-Modelle etwas genauer beschrieben, um einen besseren Einblick in die jeweiligen Einsatzbereiche zu gewinnen. Infrastructure as a Service (IaaS) ist die Lieferung von Hardware (Server, Speicher und Netzwerk) sowie Software (Betriebssystem-Virtualisierungstechnologie, Dateisystem) als Service. IaaS ist die Evolution vom traditionellen Hosting, welches keine langfristigen Verpflichtungen erfordert und Benutzern ermöglicht, Ressourcen nach Bedarf zu beziehen. Im Gegensatz zu PaaS-Diensten stellt der IaaS-Anbieter nur sehr geringe Managementmöglichkeiten zur Verfügung. Der Anbieter garantiert lediglich, dass das Rechenzentrum betriebsbereit ist. Alle weiteren Verwaltungsaufgaben obliegen dem Kunden. Er muss sich also um Softwarebereitstellung und Konfiguration selbst kümmern, so wie er es auch im eigenen Rechenzentrum tun müsste. Bekannte Angebote solcher Dienste sind Elastic Compute Cloud (EC2) und Secure Storage Service (S3) von Amazon. IaaS ist also die moderne Form des klassischen Hostings. Es beinhaltet den Netzwerkzugang, Routing-Dienste und Speicher. Der IaaS-Anbieter stellt im Allgemeinen die Hardware und administrative Services zur Verfügung, um Anwendungen zu speichern und diese auch zu betreiben. Die Skalierung der Bandbreite, RAM-Speicher und Festplattenspeicher sind im Allgemeinen enthalten. Die jeweiligen Anbieter konkurrieren über die Preisgestaltung ihrer dynamischen Angebote. Der Dienstleister besitzt die Ausrüstung und ist für deren Unterbringung, Betrieb und Wartung zuständig. IaaS-Angebote können über längerfristige Verträge, aber auch auf Pay-as-you-go-Basis abgerechnet werden. In der Regel wird aber die Flexibilität der Preisgestaltung, bei der man nur die Ressourcen bezahlt, die man auch gerade für den Betrieb benötigt, als Hauptvorteil für den Kunden gesehen.
Merkmale und Komponenten von IaaS sind:
• Ein ressourcenabhängiges Service- und Abrechnungsmodell,
• die dynamische Skalierung der Ressourcen,
• Desktopvirtualisierung sowie
• richtlinienbasierte Dienste.
Zusammenfassend kann man sagen, dass IaaS solide Kosteneinsparungen ermöglicht, weil Infrastruktur im Zusammenhang mit der Bereitstellung von Rechenleistung, Speicher und Netzwerk nicht gekauft und extra gewartet werden muss. Zudem muss beim Kauf der Rechenleistung keine Reserve über den jeweiligen Hardwarelebenszyklus eingerechnet werden, weil diese dynamisch ist und jederzeit erweitert werden kann.
Platform as a Service (PaaS)-Angebote bieten grundsätzlich eine Umgebung, in der Anwendungen bereitgestellt, entwickelt und betrieben werden können. PaaS-Angebote umfassen darüber hinaus verschiedene Anwendungssoftware-Infrastruktur (Middleware)-Funktionen. Diese können unter anderem Integrationsplattformen, Business-Analyse-Plattformen oder auch Mobile-Backend-Dienste sein. Diese beinhalten darüber hinaus auch Überwachungs-, Verwaltungs- und Bereitstellungsfunktionen.
Dabei sind Möglichkeiten eines einfachen Zugriffs auf die Anwendungsinfrastruktur, wie Anwendungsserver, Datenbankserver oder auch Geschäftsprozessmanagementsysteme u. v. m., hervorzuheben. Die gebotene Anwendungsschicht ermöglicht es dem Entwickler, schnell und mit moderatem Aufwand seine eigene, auf diese Dienste aufbauende Software zu entwickeln.
Dabei charakterisieren sich PaaS-Dienste durch folgende Punkte: • Unterstützung für die eigene Anwendung. Dies schließt den Support für Entwicklung, Deployment und Betrieb dieser Anwendungen mit ein. PaaS-Anwendungen sind meist sogenannte „born on the cloud“ oder „cloud native“-Anwendungen. Das sind Anwendungen, die alle Möglichkeiten von PaaS und IaaS nutzen.
• Rapid-deployment-Mechanismen: Hierbei bietet PaaS den Entwicklern und Betreibern „push and run“-Mechanismen an, wo Ressourcen für die Software dynamisch, je nach Bedarf, zugewiesen werden.
• Sicherheit ist ein zentraler Faktor bei jeglicher Business-Software. Daher ist es nicht überraschend, dass PaaS-Angebote Sicherheitsfeatures, wie Firewalls, verschlüsselte Protokolle oder auch Zugriffsregulierungen, standardmäßig beinhalten.
• Entwicklertools: Diese umfassen Code-Editoren, Code Repositories, Implementierungs-Tools, Test-Tools und Security-Tools. Neben den genannten Tools werden auch Monitoring-, Logging- und Analysetools angeboten.
• Unterstützung bei der Portierung von vorhandenen Anwendungen in die Cloud. Grundsätzlich sind PaaS-Angebote auf „cloud native“-Anwendungen zugeschneidert. Gerade in letzter Zeit haben Anbieter ihr Angebot geändert und bieten immer häufiger Unterstützung bei der Verlagerung existierender Anwendungen auf PaaS-Dienste an. Die Frage, die sich aber bei einer solchen Vorgehensweise stellt, ist, wie stabil die portierte Anwendung laufen wird. Es gibt hier kein Patentrezept, um diesen Schritt erfolgreich durchzuführen.
Abschließend kann man sagen, dass PaaS-Dienste folgende Vorteile bieten: Sie verbessern im Allgemeinen die Produktivität von Entwicklern. Sie unterstützen zudem die Unternehmensagilität, schnelle Entwicklung und rasche Funktionalitätserweiterungen von Anwendungen, um die internen Prozesse zu optimieren. Gerade auch komplexe Business-Anwendungen erfordern in der Regel Zugriff auf die unterschiedlichsten Datenressourcen und auch hier unterstützt die Architektur bei der Integration über Web-Services die Bereitstellung von Informationen. All diese Punkte unterstützen die Steigerung der Kundenzufriedenheit und führen somit zu einer längerfristigen Kundenbindung. Software as a Service (SaaS) bietet eine Alternative zum traditionellen On-Premise-Konzept, bei welchem das Unternehmen eine Software kauft und diese im eigenen Rechenzentrum zur Verfügung stellt. Im SaaS-Modell werden die Anwendung und auch die Verwaltung dieser an einen Dienstleister ausgelagert, wobei die Unternehmen später über einen Webbrowser oder Web-Service Clients auf diese zugreifen. Hosted Services haben schon in sehr viele Bereiche von Unternehmen Einzug gehalten. Bekannte Dienste sind zum Beispiel Customer-Relationship-Management (CRM), Enterprise Ressource Planing (ERP) oder Business Intelligence (BI).
Dabei hat SaaS den besonderen Vorteil einer serviceorientierten Architektur, wo die unterschiedlichen Anwendungen miteinander kommunizieren. Eine Anwendung, welche man als Dienst ausführt, agiert zugleich als Dienstanbieter und stellt wiederum Informationen anderen Dienstanforderern zur Verfügung, wenn dies für die Integration von Daten und Funktionen aus anderen Anwendungen erforderlich ist.
SaaS, unter Zuhilfenahme moderner Technologien und Anwendungs-Frameworks, kann die Markteinführungszeit sowie auch die Kosten bei der Umwandlung von On-Premis-Servern in ein SaaS-basiertes Produkt wesentlich reduzieren. Microsoft ist dabei der Meinung, dass die SaaS-Architektur, basierend auf ihren Reifegraden, wie folgt klassifiziert werden kann:
• Ad-hoc/benutzerdefiniert
Die Ad-hoc- oder benutzerdefinierte Ebene ist die erste Stufe des Reifegrades einer SaaS-Anwendung, auf der eine eindeutige bzw. angepasste Version von Anwendungen auf den Servern zur Verfügung gestellt wird. Diese Ebene unterstützt die Migration einer vorhandenen Client-Server-Architektur. Da diese Stufe nicht zwingend einen eigenen Systemadministrator benötigt, trägt sie zur Kostensenkung bei.
• Konfigurierbarkeit
Der zweite Reifegrad unterstützt die Flexibilität bei der Identifizierung verschiedener Benutzer, welche dieselbe Anwendung bzw. denselben Service benutzen. Diese wird durch die Konfiguration eindeutiger Metadaten erreicht, die den Anbieter dabei unterstützen, unterschiedliche Benutzer und deren Bedürfnisse zu erkennen. Hierbei kann der Anbieter einen gleichen Kerncode der Anwendung, abstrahiert von den Benutzern und ihren Anforderungen, verwalten. Des Weiteren hilft es dem Anbieter, die Ressourcenzuteilung auf die Anforderungen der Benutzer zuzuschneiden.
• Multi-Tenant-Effizient
Mehrmandantenfähigkeit ist bei der gemeinsamen Nutzung von Daten bereits eine gängige Herangehensweise. Dieses Konzept unterstützt aber trotzdem bei der Differenzierung einzelne Benutzer, Bedürfnisse, Ressourcen sowie auch Anforderungen. Dies wiederum steigert die Effizienz von SaaS-Anwendungen, weil dadurch die zur Verfügung stehenden Ressourcen besser genutzt werden können.
• Skalierbarkeit
In diesem Reifegrad werden jegliche Ressourcen effizient genutzt, indem einzelne Teilbereiche der Software, wie zum Beispiel Threads, Netzwerkverbindung, Referenzdaten u. v. m., für die gemeinsame Nutzung optimiert werden.
Aus den bisherigen Ausführungen zu SaaS lassen sich drei prominente Charakteristiken ableiten:
Netzwerk oder Online-Zugang
Auf SaaS-Anwendungen kann grundsätzlich von überall auf der Welt zugegriffen werden. Sie benötigen nur einen Webbrowser oder eine Web-Service-Anwendung, um auf die Daten zuzugreifen.
Zentrale Verwaltung
Eines der Hauptcharakteristika ist die zentrale Verwaltung und Management, welches Aufgaben wie Überwachung, Controlling, Wartung und Updates wesentlich vereinfacht. Wartung und Updates werden beim Cloud-Anbieter gemacht und der Endbenutzer muss sich dabei keine Sorgen machen, weil er lokal auf seinem Computer keine Version der Software installiert hat.
Weitreichende Kommunikations-Features
SaaS-Anwendungen sind auch bekannt für Messaging Services oder auch Voice-over-IP (VOIP)-Anwendungen. Abschließend kann man sagen, dass Unternehmen die Integration von SaaS-Anwendungen in ihre bestehende IT-Infrastruktur in Erwägung ziehen sollten. Gründe hierfür sind zum Beispiel die Dezentralisierung der Anwendungen und die damit verbundene Steigerung der Ausfallssicherheit, die einfache und kosteneffiziente Anpassung an die Bedürfnisse der Unternehmen, aber auch die Kosten.
Reflexionsaufgabe 7: Cloud Architekturen
Geben Sie einen Überblick über die unterschiedlichen Cloud-Architekturen und grenzen Sie diese ab.
4.3 Cloud-Management
Die richtige Verwaltung der genutzten Cloud Strukturen, unabhängig davon, ob sie
extern oder intern im Haus liegen, wird ein immer wichtigerer Faktor im IT-Umfeld.
Es reicht nicht mehr, nur den richtigen Anbieter für die entsprechenden Aufgaben
zu finden, man muss die Services der Anbieter auch kosteneffizient verwalten.
Laut Gartner, einem der führenden Forschungs- und Beratungsunternehmen,
liegen die Mindestanforderungen für eine Cloud-Management-Plattform in der
Bereitstellung und Integration von Schnittstellen für die Work-Load Optimierung
sowie auch für die Abrechnung der Leistungen. Basierend auf dem schnell
wachsenden Umfeld im Bereich der Hybrid-Clouds sind die genannten Features als
absolute Minimumanforderung für Cloud-Management-Plattformen zu sehen.
Basierend auf einer Studie von Infoholic Research USA nutzen Unternehmen bis zu
sechs verschiedene Cloud-Dienste.32 Dabei spielt es keine Rolle, ob es sich hier um
öffentliche Cloudanbieter handelt oder ob es Cloud-Dienste sind, welche von der
eigenen Unternehmens-IT zur Verfügung gestellt werden.
Diese Landschaft an verschiedenen Systemen entsteht meist aus der Tatsache
heraus, dass Unternehmen eine große Zahl an unterschiedlichsten Daten
benötigen, um strategisch wichtige Entscheidungen treffen zu können.
32 Vgl. Infoholic Research LLP, (Worldwide Hybrid Cloud Computing Market: Drivers,
Opportunities, Trends, and Forecasts), online.
Digital Technology Management – Neue Technologien
26
Abbildung 11: Hybride-Cloud-Architektur (THEREDCLAY)
Die erwähnte Verteilung der Infrastruktur (siehe Abbildung 11) birgt für die IT-
Abteilung auf der einen Seite große Chancen, auf der anderen Seite aber ebenso
große Gefahren. Durch die Automatisierung und erleichterte Verwaltung der
Systeme können Unternehmen den Arbeitsaufwand und die Kosten langfristig
spürbar senken. Die durch die zeit- und kosteneffektive Nutzung der IT
gewonnenen Ressourcen können wiederum in die Weiter- bzw. Fortentwicklung
von innovativen IT-Lösungen für das Unternehmen genutzt werden.
Die Risiken im Hinblick auf die Datensicherheit bzw. auf die generelle Sicherheit der
Informationen lässt den Druck auf die IT-Abteilung steigen. Denn gerade das Thema
Datensicherheit, das durch die neue Datenschutzrichtlinie noch verschärft wurde,
ist ein nicht unwesentlicher Punkt und kann bei Fahrlässigkeit das Image eines
Unternehmens nachhaltig schädigen. Aus diesem Grund ist es wichtig, dass bei Cloud-Management-Systemen folgende Punkte unbedingt im Leistungsumfang enthalten sind:
• Zugriffs- und Autorisierungsschutz,
• Ressourcenmanagement der gesamten hybriden Cloud-Infrastruktur,
• Finanzmanagement in Verbindung mit den gemieteten Cloud-Services,
• Integrationsmöglichkeiten von relevanten Cloud-Umgebungen und auch
interner Services,
• Service-Kataloge, um die Eigenverwaltung der Systeme bestens zu
automatisieren,
• Cloud-Brokerage, um das Unternehmen bei der Entscheidungsfindung,
basierend auf Regeln bei den Zuteilungen von Servern und sonstigen
Ressourcen, zu unterstützen.
Weitere zusätzliche Funktionen, um die unterschiedlichen Systeme zu verwalten,
die bei Integration, Service oder auch bei der Abrechnung helfen, hängen sehr oft
von den Anforderungen der einzelnen Unternehmen ab. Für den Auswahlprozess
eines Cloud-Management-Systems ist daher eine auf das Unternehmen Cloud-Management
zugeschnittene und umfassende Feature List notwendig. Mit Hilfe dieser Anforderungen lässt sich danach eine Auswahl des richtigen Anbieters treffen. Die Kosten des jeweiligen Dienstes spielen zwar bei strategischen Entscheidungen eine wichtige Rolle, aber gerade hier sollte man sich über das wirkliche Einsparungspotential und die in weiterer Folge positiven Effekte, welche durch etwaige Neuentwicklungen entstehen, im Klaren sein.
Reflexionsaufgabe 8 - Cloud-Management
Wozu dienen Cloud-Management Tools und worauf ist bei der Auswahl dieser zu achten?
4.4 Ausgewählte Cloud-Angebote
Wenn man einen Überblick möglicher Cloud-Angebote bzw. -Anbieter geben möchte, kommt man an Amazon, Microsoft und Google nicht vorbei. Diese 3 Big Player sind in vielen Bereichen der Cloud-Entwicklung die Technologieleader bzw. Innovatoren zahlreicher neuer Web-Services.
Die Frage, die man sich unter Berücksichtigung des vorherigen Teils des Cloud-Managements stellen sollte, ist nicht zwingend, wer von den genannten Anbietern der beste ist, sondern wer für die Bedürfnisse meines Unternehmens die besten, sichersten und kosteneffizientesten Services zur Verfügung stellen kann. Um diese Frage zu beantworten, werden die folgenden Punkte für Microsoft und Amazon genauer beleuchtet. Google wird hier aufgrund des aktuell geringen Marktanteils von ca. 5 % nicht im Detail beleuchtet, jedoch aber immer wieder erwähnt.
• Infrastruktur,
• Features,
• Rechenressourcen/Speicher,
• Preis,
• Compliance.
Die Verteilung der Infrastruktur des Anbieters scheint auf den ersten Blick nicht unbedingt wichtig zu sein. Betrachtet man diesen Punkt aber etwas genauer, so kommt man schnell zu dem Schluss, dass die Anzahl der verfügbaren Datenzentren des Anbieters eine Rolle bei der Auswahl spielen können. Punkte, die hier zum Tragen kommen, sind die Verfügbarkeit der Daten und, damit verbunden, die Performance. Denn vereinfacht gesagt: je näher das Datencenter, desto besser ist es, gerade für global operierende Unternehmen. Denn die Nähe zu den Daten im Hinblick auf die Geschwindigkeit kann gerade hier eine wichtige Rolle spielen. In diesem Punkt sind Microsoft und Amazon in etwa gleich auf. Beide betreiben in etwa 50 Regionen der Welt und auf allen wichtigen Kontinenten Rechenzentren, wobei Amazon mit Stand Juni 2018 in Afrika noch kein Rechenzentrum betreibt. Rechtliche Vorgaben, wie die in der EU neu geltende DSGVO, spielen bei der Verteilung der Rechenzentren auch eine Rolle.
Bei den verfügbaren Features fällt bei beiden Anbietern die Liste sehr üppig aus.
Abbildung 12 zeigt die Hauptbereiche des Amazon-Angebotes. Dieses reicht von klassischen virtuellen Maschinen über Datenbankanwendungen und Maschinelles Lernen bis zum Internet of Things und zur Spielentwicklung.
Abbildung 12: Amazon-AWS-Dienste (Amazon)
Microsoft lässt mit seinem Azure-Angebot aber auch keine Wünsche offen. Es bietet aktuell ca. 100 verschiedene Produkte, welche von AI über Datenbanken zu IOT, Development-Tools, Verwaltungs-Tools u. v. m. gehen.
Unabhängig vom breiten Angebot beider Anbieter gibt es doch einen Bereich, in dem sie sich markant unterscheiden: die Hybrid-Clouds. In diesem Bereich ist Microsoft aktuell – denn dieser Teilbereich unterliegt einem schnellen Wandel – Amazon einen Schritt voraus. Der Grund hierfür ist, dass Amazon die Strategie eines Cloud-Only-Ansatzes verfolgt. Microsoft hat vor dem Hintergrund der In-House- Services einen hybriden Ansatz gewählt und ist somit hier im Vorteil. Rechenleistung und Speicherkapazität spielen bei großen Unternehmen eine wichtige Rolle, weil die meist sehr großen In-House-Dienste ohne Performanceverlust ausgelagert werden müssen. Amazon bietet hier ein extrem breites Spektrum an Möglichkeiten. Das Angebot kann hier auf generelles Computing, CPU-optimiertes, RAM-optimiertes oder auch GPU-optimiertes Computing abgestimmt werden. Microsoft bietet hier kein so detailliertes Angebot im Hinblick auf die Flexibilität, jedoch muss es sich mit den gebotenen Möglichkeiten im Bereich CPU, RAM etc. nicht wirklich geschlagen geben. Beim verwendbaren Festplattenspeicher bietet Amazon mit möglichen 16 TB an verfügbarem Platz, relativ gesehen zu Microsoft, wo die maximale Festplattengröße aktuell bei 4 TB liegt, doch beträchtlich mehr an.
Der Preis hat sich in den letzten Jahren mehrheitlich, trotz der steigenden Möglichkeiten, zum Vorteil der Kunden entwickelt. Aber nicht nur die Preise sanken, auch die möglichen Verrechnungseinheiten sind dem Kunden entgegengekommen. Dieser kann in der Zwischenzeit Leistungen auf Minutenbasis abrechnen. Und dieser Faktor gibt dem Kunden die große Chance, auch kleine Teilbereiche der Unternehmens-IT, welche nur selten benötigt werden, kosteneffizient in die Cloud auszulagern. Amazon bietet Services beginnend beim kleinen Kunden bis hin zu Enterprise-Kunden an. Die angebotenen Verrechnungseinheiten gehen von Stunden, Tagen, Wochen und Monaten bis hin zu längeren oder sogar individuell vereinbarten Einheiten.
Microsoft bietet hier eine ähnliche und sogar noch kleinere Teilung der Verrechnungseinheiten an. Bei Microsoft besteht die Möglichkeit, gewisse Dienste auf Minutenbasis abzurechnen. Dies führt gerade bei wenig genutzten oder speziellen Diensten zu einer wesentlichen Kosteneinsparung. Wenn man sich einen genaueren Überblick über die Kosten verschaffen möchte, so ist ein sehr guter Vergleichsrechner unter https://www.cloudorado.com/vs/aws_vs_azure_vs_google zu finden. Man hatte den Eindruck, dass das Thema Compliance in den letzten Jahren eher stiefmütterlich behandelt worden ist. Aber Cloud-Security ist beim Outsourcing ein wesentlicher Faktor und gerade in diesem Punkt haben Amazon und Microsoft in den letzten Jahren sehr viel investiert. Beide erfüllen einen sehr hohen Standard, jedoch dürfte aktuell Microsoft die Nase hier leicht vorne haben, gerade wenn es um Enterprise-Kunden geht. In diesem Sektor kommt Microsoft seine große Erfahrung mit dieser Art von Kunden zugute.Zusammenfassend kann man zu diesem Kapitel sagen, dass Cloud-Computing mit all seinen Facetten viele Möglichkeiten bietet, um ein Unternehmen in die Zukunft der Digitalisierung zu führen. Man darf dieses Thema aber nicht leichtfertig angehen bzw. darf man sich von der scheinbaren Leichtigkeit der Dienste und Vorteile, welche einem die Anbieter suggerieren, nicht täuschen lassen. Bevor man sich dieses Themas annimmt, sollte eine Strategie zum Thema Digitalisierung festgelegt werden, bei der auch die aktuelle IT-Umgebung mit einbezogen werden muss. Denn, wie bereits mehrmals erwähnt, geht der Trend in Richtung Hybrid-Cloud, um die Vorteile von beiden Welten zu nutzen.
Reflexionsaufgabe 9: Cloud Angebote
Nennen Sie einen bevorzugten Partner und erläutern Sie die Gründe dafür.
5 Standardsoftware als Baustein der
Digitalisierungsstrategie
Die Digitalisierung bedeutet einen Aufbruch in eine neue Zeit und die Verwendung einer Standardsoftware lässt diese Wirklichkeit werden. Neue und spontane Arbeitsweisen bzw. schlanke interne Prozesse lassen meist keine Zeit für die Entwicklung einer Individualsoftware. Die laufenden Änderungen und Anpassungen der Arbeitsweisen an die sich rasch ändernde Digitalisierung verlangt sofort eine Lösung.
5.1 Anwendungsbereiche für Standardsoftware
Um überhaupt auf die Besonderheiten von Standardsoftware eingehen zu können, sollte man den gebräuchlichen Begriff „Software“ vielleicht genauer definieren bzw. klassifizieren. Der Duden definiert diesen Begriff als „(im Unterschied zur Hardware) nicht technisch-physikalischer Funktionsbestandteil einer Datenverarbeitungsanlage (wie z. B. Betriebssystem und andere [Computer]programme)“.
Grundsätzlich lässt sich eine Software in folgende zwei Hauptgruppen aufteilen:
• Basis- oder Systemsoftware: Zur Systemsoftware gehören alle Systemprogramme, die nicht anwendungsbezogen sind, das bedeutet alle grundsätzlich für den Betrieb des Computers notwendigen Teile. Die Betriebssystemsoftware wird dabei von einer Reihe sogenannter Steuerprogramme unterstützt.
• Anwendungssoftware: Alle anderen anwendungsbezogenen Programme, wie Textverarbeitung, Datenbanken oder Bildbearbeitungsprogramme, werden als Anwendungssoftware bezeichnet.
Bei der Anwendungssoftware gibt es wiederum zwei Hauptgruppen, in die sie unterschieden wird:
• Standardsoftware: Als Standardsoftware bezeichnet man im Allgemeinen eine Software, welche für den Massenmarkt erstellt wurde. Beim enthaltenen Funktionsumfang kann hier nur auf den kleinsten gemeinsamen Nenner aller berücksichtigten Zielgruppen eingegangen werden.
• Individualsoftware: Individualsoftware wird in der Regel für den Kunden von Grund auf neu konzipiert und erstellt. Dabei kann auf sämtliche Bedürfnisse der Kunden eingegangen werden. Es muss aber auch angemerkt werden, dass ein eigenes Software-Entwicklungsteam im eigenen Haus nicht zwingend notwendig ist.
Die Anwendungsbereiche für Standardsoftware in Unternehmen sind sehr vielseitig. Diese reichen von der einfachen Textverarbeitung über speziellere Bildbearbeitung bis zu spezifischer CAD-Bearbeitung bzw. ERP-Systemen. Bevor man sich aber über die Anschaffung Gedanken macht, sollte man klären, ob die Voraussetzungen für den Einsatz einer Standardsoftware gegeben sind.
Diese Voraussetzungen für die Einführung gliedern sich in den technischen und organisatorischen Bereich:
Technisch muss die interne EDV die aktuell vorhandene Infrastruktur beleuchten, um zu sehen, ob die gewünschte Software in der vorhandenen Umgebung installiert werden kann bzw. welche Änderungen notwendig wären, um die neue Software zu integrieren. Diese seitens der EDV vergebenen Parameter, wie beispielsweise Protokolle, Schnittstellen oder verwendete Programmiersprache, können die Auswahl des neuen Systems enorm einschränken. Organisatorisch ist es wichtig, dass sich zumindest ein Großteil der im Unternehmen notwendigen Anforderungen mit der in Betracht kommenden Standardsoftware deckt. Sollten hier Abweichungen auftreten, muss man klären, ob diese für das Unternehmen unter Berücksichtigung des aktuellen Wettbewerbsvorteils wichtig sind. Ist dies nicht der Fall, so kann überlegt werden, den unternehmensinternen Prozess auf den der Software abzustimmen. Ist dies jedoch der Fall muss geklärt werden, ob die Anpassung an die eigenen Bedürfnisse möglich wäre. Die Sichtweise auf Standardsoftware unter Berücksichtigung der gerade erwähnten Punkte ändert sich durch die Möglichkeiten, welche die Cloud bietet. Betrachtet man die eingangs erwähnten technischen Voraussetzungen, so kann man sagen, dass diese im Cloud-Umfeld fast zur Gänze wegfallen. Das soll jetzt aber nicht bedeuten, dass es im Cloud-Umfeld überhaupt keine technischen Voraussetzungen für den Einsatz von Standardsoftware gibt. Diese ändern sich einfach nur. Zukünftig muss man Fragen, wie
• Behalte ich die Kontrolle über meine Daten?
• Ist die Sicherheit der Daten gewährleistet?
• Werden alle datenschutzrechtlichen Erfordernisse vom Anbieter erfüllt?
• Kann die Cloudlösung auf intern benötigte Schnittstellen zugreifen?
bei der Auswahl von Standardsoftware im Cloudumfeld beantworten.
Die Einsatzbereiche vorhandener Standardsoftware werden im nachfolgenden Teil am Beispiel von zwei unterschiedlichen Unternehmensbereichen noch genauer erläutert. Die Bereiche sind
• Standard Office Anwendungen am Beispiel Office 365 von Microsoft,
• speziellere Entwicklungsanwendungen am Beispiel AUTO CAD Online.
Microsoft bietet im Office Bereich mit seinem Office 365-Angebot ein sehr breites Spektrum an Funktionen und Features. Man darf sich in diesem Fall nicht vom Namen täuschen lassen, denn die Office 365-Angebote beinhalten nicht einfach nur die Möglichkeit, Office-Anwendungen, wie Word, Excel oder Power Point, online zu nutzen. Diese Plattform bietet, je nach verwendetem Plan, auch notwendige Enterprise Features, wie zum Beispiel:
• OneDrive for Business: Daten sind überall verfügbar und können Benutzern innerhalb und außerhalb der Organisation bereitgestellt werden.
• SharePoint Online: Dieser Dienst ermöglicht es einer Organisation, Daten und Informationen im Projektumfeld leichter und übersichtlicher darzustellen.
• StaffHub: Hiermit können Zeitpläne erstellt und freigegeben werden.
• Anwendungsverwaltung: Sie können damit Anwendungen einfach und mit Hilfe von Gruppenregeln auf bereitgestellten Computern verwalten.
• Business Analyse: Es erweitert die Funktionen von Excel in Bezug auf Datenauswertungen.
• Erweiterter Datenschutz: Schutz vor bösartiger Software ist ein zentrales Thema in der modernen IT. Dieser Dienst bietet erweiterte Funktionen, um Daten von Viren und Phishing-Angriffen zu schützen.
• Konferenzverbindungen mit PSTN-Telefonnetz: Ermöglicht es, Konferenzschaltungen mit Skype und herkömmlichen Telefonnetzen zu führen.
Auch wenn die gezeigten Funktionen nur einen Teil der verfügbaren Features darstellen, so wird schnell klar, dass der Einsatz dieser Standardsoftware im Unternehmensumfeld viele Möglichkeiten bietet, um interne Prozesse effizienter und einfacher darzustellen.
AUTO CAD Online ist die Cloudvariante der bekannten Offline-Variante. Das Online-Angebot deckt mittlerweile ein sehr breites Spektrum an Funktionen mit eigenständigen APPs ab. Die Hauptbereiche, für die es mehrere eigenständige, aber in weiterer Folge zusammenhängende Anwendungen gibt, sind:
• Konstruktion,
• Bauplanung- und Ausführung,
• Produktentwicklung und Fertigung,
• Rendern,
• Medien und Unterhaltung.
Obwohl der Bereich der Konstruktion, Planung sowie Medienbearbeitung ein eher spezieller ist, kann festgehalten werden, dass es auch hier ausreichende Anwendungsbereiche von Standardsoftware gibt.
Reflexionsaufgabe 10: Standardsoftware
Erklären Sie den Unterschied zwischen Standard- und Individualsoftware. Welche organisatorischen Bereiche sind bei einer Neueinführung betroffen?
5.2 Vor-/Nachteile
In diesem Teil sollen nun auf die wesentlichen Vor- und Nachteile einer Standardsoftware eingegangen werden. Manche der folgenden Punkte treffen nur auf offline bzw. Cloud Software zu. Vorteile einer Standardsoftware sind:
• Laufende Weiterentwicklung: Standardsoftware wird laufend weiterentwickelt. Die neuen Features werden entweder durch ein Update, entweder in der „Offline-Version“ oder automatisch in der Cloudvariante, zur Verfügung gestellt. Je nach Lizenzmodell sind die neuen Funktionen gratis bzw. kostenpflichtig. Sind diese kostenpflichtig, so ist dieser Anteil im Vergleich zu den Anschaffungskosten in der Regel sehr gering.
• Kann bequem gekauft werden: Die eigentliche Anschaffung ist im Vergleich zur Individualentwicklung wesentlich einfacher.
• Bietet einen umfassenden Support: Aufgrund der großen Nutzerzahlen solcher Softwares ist der Support insofern besser, weil es hier weitaus größere Erfahrungswerte gibt.
• Verfügt meist über eine bessere Qualität: Die Qualität der Software steigt sehr oft mit der Anzahl der User. Der Grund hierfür ist, dass man auf weitaus mehr Erfahrungen von Nutzern zurückgreifen kann als bei Individualentwicklungen. Und die Wahrscheinlichkeit, dass Fehler der Software entdeckt werden, ist bei vielen Benutzern einfach größer.
• Größere Anzahl an Dokumentationen sowie Schulungsmaterial.
• Ausgereifte Benutzeroberfläche.
• Schnelle Einführung im Unternehmen.
• Kostenvorteil.
Kosten spielen in Unternehmen bei der Anschaffung von Softwares immer eine große Rolle. Studien belegen, dass die Kosten durch die Einführung von Standardsoftwares signifikant gesenkt werden konnten. Dies bestätigt eine Kostenerhebung der Raiffeiseninformatik, bei der eine Senkung von 25 % erreicht wurde. Was sind aber die Faktoren, die zu einer solch erheblichen Kostenreduktion führen? Betrachtet man dies anhand des Beispiels Office 365, so sind dies unter anderem:
• Zeitersparnis bei der Einführung: Die Einführung, gerade bei cloudbasierten Standardanwendungen, ist, relativ gesehen, sehr hoch, weil hier in den meisten Fällen Anpassungen der eigenen IT-Infrastruktur ausbleiben. Auch entfallen in vielen Bereichen Personalkosten, weil eine Installation auf dem lokalen System nicht mehr überall notwendig ist.
• Lizenz- bzw. Updatekosten: Da Neu- und Weiterentwicklungen automatisch seitens des Anbieters erfolgen, kommt man, wie schon erwähnt, je nach gewähltem Lizenzmodell gratis oder durch einen geringen Betrag zu den jeweiligen Updates.
• Laufender Betrieb: Der laufende Betrieb stellt, je nach gewählter Variante von Standardsoftware, sprich offline oder cloudbasiert, einen großen bis teilweise sehr großen Faktor dar. Speziell bei cloudbasierter Standardsoftware entfallen die Kosten für den laufenden Betrieb fast zur Gänze.
Abbildung 13 zeigt den Vergleich der Kosten bei OnPremise- und Cloud-Lösungen.
In diesem Beispiel handelt es sich in beiden Fällen um eine ERP Standardsoftware. Mit diesem Beispiel soll nur nochmals verdeutlicht werden, dass es bei Cloudlösungen kaum versteckte Kosten gibt.
Abbildung 13: Vergleich On-Premise und Cloud Standard Software (Axxis Consulting)
Trotz der großen Vorteile von Standard-Softwareprodukten müssen auch deren Nachteile genannt werden. Bezogen auf Offline-Produkte ergeben sich folgende Nachteile:
• Die vorhandene Hardware passt nicht zu den Anforderungen der zu beschaffenden Software und der Tausch der Hardware würde enorme Kosten verursachen.
• Die Software passt unter Umständen nicht zu den Abläufen und Prozessen im Unternehmen.
Bezieht man in die Betrachtung der Nachteile auch die Cloud-Standard-Anwendung mit ein, gibt es noch weitere Punkte. Diese wären:
• Hohe Kosten bei der Anpassung an die Bedürfnisse der internen Prozesse,
• hohe Abhängigkeiten vom Softwarelieferanten.
Die Anpassungskosten sind auch wieder getrennt zu sehen. Betrachtet man zuerst die Offlinekosten, so können diese, je nach Änderungen, manch anderen Kostenvorteil aufwiegen. Grund hierfür sind die speziellen Infrastrukturvorgaben der jeweiligen Unternehmen, denn sehr oft hat sich in Firmen eine spezielle Infrastruktur über die Jahre entwickelt, die Anpassungen durch die heterogene Umgebung besonders aufwendig gestalten. Beispiele hierfür sind über die Jahre entwickelte Kassenlösungen, die nur auf spezieller und unter Umständen oftmals auch auf älterer Hardware laufen. Da kann es schon schwierig werden, einen passenden Entwickler für diese Umgebung zu finden.
Im Cloud-Umfeld zeigt sich ein etwas anderes Bild. Wie man in Abschnitt 4.4 sehen kann, ist das Angebot vorhandener Web-Services bei den Cloud-Anbietern schon sehr groß, was hier wiederum positiv hinzukommt. Diese Tatsache macht trotz individueller Anforderungen die Anpassung durch den Zugriff über Web-Services auf bereits vorhandene Standardentwicklungen erschwinglich.
Reflexionsaufgabe 11: Standardsoftware
Welche Vorteile hat Standardsoftware im Gegensatz zur Individualsoftware?
5.3 Anpassung von Standardsoftware
Trotz aller Vorteile von Standard-Softwareprodukten ist in der Regel bei größeren Unternehmen eine Anpassung der Software auf die eigenen Bedürfnisse notwendig. Man unterscheidet beim Umfang des Customizings folgende drei Stufen:
• Möglichkeit zur Änderung von Sprache und Währung,
• Möglichkeit zur Abbildung von betrieblichen Organisations- und Datenstrukturen,
• Darstellung der unternehmerischen Prozesse.
Ein wichtiger Aspekt bei der Anpassung von Standardsoftware ist, dass die vorgenommenen Änderungen trotz Releasewechsel ihre Gültigkeit behalten. Die andere Seite ist jedoch, wie sehr man sich in die Abhängigkeit des jeweiligen Anbieters der Standardsoftware begibt. Grundsätzlich muss man für die wirtschaftliche Nutzung einer Software von etwa zehn Jahren ausgehen, was eine ebenso lange Abhängigkeit vom Anbieter bedeutet. Diese Abhängigkeiten sind beim Einsatz einer Individualsoftware aber noch stärker, weil hier das Wissen des Programmcodes vollständig beim Lieferanten liegt. Und gerade hier ist es oft sehr schwer, einen anderen Anbieter für die Weiterentwicklung zu finden, weil oftmals Teile des Codes nicht freigegeben werden. Aufpassen muss man jedoch bei der Kalkulation der Anpassungskosten, denn diese nehmen sehr oft 50 % oder mehr des Gesamtbudgets ein und übersteigen in der Regel die Lizenzkosten für die zugrundeliegende Standardsoftware. Kosten entstehen zum Beispiel bei der Anpassung von Schriftstücken oder auch bei Schnittstellen zu anderen Systemen. Gerade hier zeigt sich häufig, ob die Wahl des Systems richtig war, weil eine gute Software in diesem Punkt sehr flexibel an andere Systeme anbindbar ist. Ob der Einsatz von Standardsoftware Wettbewerbsvorteile generieren kann, wird in der Fachliteratur stark diskutiert. Grund hierfür ist die Anpassung verschiedener interner Unternehmensabläufe an die neu integrierte Software. Man übersieht aber bei dieser Diskussion sehr oft, dass nicht zwingend die internen Abläufe den Wettbewerbsvorteil bilden, sondern die erstellten Güter und Dienstleistungen. In diesem Fall generieren weder Standard- noch Individualsoftware Wettbewerbsvorteile, denn selbst die beste Standardsoftware kann schlechte Unternehmensabläufe nicht maßgeblich verbessern. Sie kann diese lediglich verwalten und bis zu einem gewissen Grad effizienter gestalten. Betrachtet man die gezeigten Punkte und auch die Vorteile von einer Standardsoftware, spricht sehr vieles für den Einsatz einer solchen. Denn nur, wenn durch den Einsatz einer Individuallösung ein beträchtlicher Wettbewerbsvorteil generiert werden kann, ist dieser auch wirklich sinnvoll. Und das ist bei der mittlerweile beträchtlichen Angebotsvielfalt von Standardlösungen kaum noch der Fall, denn schlussendlich ist es günstiger, aber vor allem effizienter, eine vorhandene Lösung an die eigenen Bedürfnisse anzupassen.
Reflexionsaufgabe 12: Standardsoftware
Was muss bei der Anpassung von Standardsoftware beachtet werden?
6 Grundlagen agiler Entwicklung
Überlegen Sie einmal kurz, ob Sie vor einem Segelturn den Wind messen und den Kurs berechnen würden, um dann das Ruder festzubinden, um im Anschluss nach einer bestimmten Zeit zu evaluieren, ob Sie auch am Ziel angekommen sind.
Wahrscheinlich nicht! Was wäre, wenn sich der Wind gedreht oder das Wetter umgeschlagen hätte und man somit an einem anderen Ziel anlegt? So oder so ähnlich ergeht es Kunden mit herkömmlichen Softwareprojekten, bei denen Ziele, Zeitabläufe und Anforderungen vor dem eigentlichen Start festgelegt wurden. Diese Problematik soll durch die Verwendung agiler (anpassbarer) Projektentwicklung vermieden werden.
6.1 Vorgehensmodelle
Aktuelle Rahmenbedingungen machen es nötig, kurzfristig auf Marktänderungen zu reagieren. Man hat einfach nicht mehr die Zeit, ein Projekt vorab in aller Ruhe zu planen, denn die zur Verfügung stehende Zeit, um ein Projekt erfolgreich am Markt zu etablieren, wird immer kürzer. Zudem wachsen die Anforderungen an die Dynamik sowie die Ziele in den Projekten und so muss man auch im Projektmanagement kurzfristig Pläne ändern oder kann Projektdetails erst später durchdenken und planen. Dies zwingt einen zu einem agilen Prozess. Der Begriff der agilen Entwicklung ist seit einiger Zeit sehr modern. Viele Firmen steigen, bzw. glauben es zumindest, auf einen agilen Prozess um. Man muss aber hier festhalten, dass der Begriff der agilen Entwicklung häufig falsch interpretiert wird, denn Pair-Programming oder der einfache Wegfall des Lastenheftes machen noch lange keinen agilen Prozess aus. Denn auch in der agilen Entwicklung gibt es klare Regeln und Vorgaben. Dies sind zwar nicht besonders viele, aber werden diese nicht eingehalten, so ist die Wahrscheinlichkeit sehr hoch, dass das Projekt scheitern wird. Aus diesem Grund soll im folgenden Abschnitt ein Überblick über die agile Entwicklung gegeben werden.
Bevor man sich aber genauer mit dem Thema befasst, sollte man noch kurz erklären, worum es sich bei der agilen Entwicklung genau handelt. Wie eingangs schon erwähnt, wird im herkömmlichen Entwicklungsprozess der Funktionsumfang der Software bis ins Detail vorab definiert und anschließend in einem Vorgang entwickelt. Dabei werden Projektphasen, basierend auf den traditionellen Vorgehensmodellen (z. B. das Wasserfallmodell), genau einmal durchlaufen. Gibt jedoch der Markt innerhalb des Projektes eine andere Richtung vor, so bringt das folgende Probleme mit sich:
• Es wird zu viel Zeit mit der Dokumentation verbracht und die wichtigen Komponenten des „Sehens“ und „Probierens“ einer Testversion vernachlässigt.
• Oftmals kommt man gerade in den letzten Phasen von Test und Integration dahinter, dass die Kosten viel höher sind als geplant und auch der Fertigungstermin nicht eingehalten werden kann.
• Die erste zur Verfügung stehende Testversion bietet nicht die gewünschte Qualität und es fehlen Anforderungen, die sich kurzfristig ergeben haben.
• Der Aufwand für die IT, um das System zu betreiben, ist höher als ursprünglich geplant.
Der Grund ist, dass die Kosten für neue IT-Technik in Verbindung mit neuen Partnern zu Beginn oftmals nur schwer geschätzt werden können. All dies führt dazu, dass in Projekten Zeiträume, Kosten, Aufwände und Risiken abschätzbar gemacht werden müssen. Dies kann durch eine agile Herangehensweise an das Projekt erreicht werden, denn damit wird das Lernen in einem evolutionären Projekt in den Vordergrund gestellt.
Die Grundlage für die agile Projektentwicklung bildet das agile Manifest aus dem Jahr 2007. Dieses wurde in Zusammenarbeit 17 namhafter Softwareentwickler beschlossen und beinhaltet folgende Kernaussagen: „Wir erschließen bessere Wege, Software zu entwickeln, indem wir es selbst tun und anderen dabei helfen. Durch diese Tätigkeit haben wir diese Werte zu schätzen gelernt:
• Individuen und Interaktionen sind mehr als Prozesse und Werkzeuge,
• funktionierende Software ist mehr als umfassende Dokumentation,
• Zusammenarbeit mit dem Kunden ist mehr als Vertragsverhandlung,
• Reagieren auf Veränderung ist mehr als das Befolgen eines Plans.“ In diesem Manifest werden von den Autoren 12 Leitsätze bzw. Prinzipien formuliert, welche die Grundlage der agilen Entwicklung bilden:
1. Unsere höchste Priorität ist es, den Kunden durch frühe und kontinuierliche Auslieferung wertvoller Software zufrieden zu stellen.
2. Heiße Anforderungsänderungen selbst spät in der Entwicklung willkommen! Agile Prozesse nutzen Veränderungen zum Wettbewerbsvorteil des Kunden.
3. Liefere funktionierende Software regelmäßig innerhalb weniger Wochen oder Monate und bevorzuge dabei die kürzere Zeitspanne.
4. Fachexperten und Entwickler müssen während des Projektes täglich zusammenarbeiten.
5. Errichte Projekte rund um motivierte Individuen! Gib ihnen das Umfeld und die Unterstützung, die sie benötigen und vertraue darauf, dass sie die Aufgabe erledigen.
6. Die effizienteste und effektivste Methode, Informationen an und innerhalb eines Entwicklungsteams zu übermitteln, ist im Gespräch von Angesicht zu Angesicht.
7. Funktionierende Software ist das wichtigste Fortschrittsmaß.
8. Agile Prozesse fördern nachhaltige Entwicklung. Die Auftraggeber, Entwickler und Benutzer sollten ein gleichmäßiges Tempo auf unbegrenzte Zeit halten können.
9. Ständiges Augenmerk auf technische Exzellenz und gutes Design fördert Agilität.
10. Einfachheit -- die Kunst, die Menge nicht getaner Arbeit zu maximieren -- ist essenziell.
11. Die besten Architekturen, Anforderungen und Entwürfe entstehen durch selbstorganisierte Teams.
12. In regelmäßigen Abständen reflektiert das Team, wie es effektiver werden kann und passt sein Verhalten entsprechend an. Die nachfolgenden Vorgehensmodelle Extreme Programming und Scrum leiten sich aus diesen 12 Prinzipien des agilen Manifestes ab.
Reflexionsaufgabe 13: Vorgehensmodelle
Welche Prinzipien liegen der agilen Entwicklung zugrunde?
6.1.1 Extreme Programming
Extreme Programming (XP) ist eine leichtgewichtige Entwicklungsmethode, die das eigentliche Programmieren wieder zur Schlüsseltätigkeit erklärt. Die Entwicklung dieses Konzeptes wird den drei Softwareentwicklungsgurus Kent Beck, Ron Jeffries und Ward Cunningham zugeschrieben. Und obwohl der Name vielleicht vermuten lässt, dass dieses Konzept einen Hacker-Hintergrund hat, zeigen die detaillierten methodischen Ansätze das Gegenteil. Im Grunde geht es bei XP darum, mit verhältnismäßig geringem Aufwand qualitativ hochwertige Software in möglichst kurzer Zeit unter Einhaltung des Budgets zu entwickeln. Die dazu eingesetzten Mittel im XP können in folgende vier Werte zusammengefasst werden:
• Kommunikation: Dauernde und sehr intensive Kommunikation zwischen den Entwicklern untereinander bzw. mit dem Kunden erlaubt es XP, unnötige Funktionalität zu vermeiden, Probleme schnell zu erkennen und zu verhindern und dadurch das Problem der fehlenden Dokumentation in den Griff zu bekommen.
• Einfachheit: Die zu entwickelnde Software muss so einfach wie möglich gestaltet sein und darf keine möglichen Erweiterungen, keine unnötigen Strukturen oder redundante Funktionalität beinhalten. Hierdurch wird das System einfach und somit besser wartbar. Man geht hierbei von der Annahme aus, dass es einfacher ist, heute etwas Einfaches zu programmieren und morgen etwas mehr Zeit zu investieren, um Erweiterungen zu integrieren, als jetzt etwas Komplexes zu entwickeln, was vielleicht morgen in dieser Form nicht mehr benötigt wird.
• Feedback: Aktuelle Projekte scheitern sehr häufig an Missverständnissen zwischen dem Programmierer und den Kunden. Eine evolutionäre Softwareentwicklung mit möglichst kleinen Releases erlaubt einen permanenten Zugriff des Kunden auf die Software und gibt ihm dadurch die Möglichkeit zu einfachem und schnellem Feedback. Es ist aber noch eine weitere Ebene des Feedbacks essenziell, und zwar muss durch Unit-Tests bzw. Test-Stories geprüft werden, ob die entwickelte Funktionalität korrekt und robust ist sowie den gewünschten Anforderungen des Kunden entspricht.
• Eigenverantwortung: Die Programmierer sind unter XP angehalten, auf eigene Verantwortung zu handeln. Dies bezieht die Kommunikation mit dem Kunden mit ein, um Funktionalitäten zu adaptieren, Prioritäten zu ändern und existierende Pläne zu überdenken. Diese Eigenverantwortung schließt eine Übersicht über die gesamte Anwendung mit ein und motiviert Programmierer dazu, den Code eines anderen Entwicklers, falls notwendig, zu adaptieren.
Aus diesen vier Grundwerten leiten sich die fundamentalen Grundprinzipien ab, welche bei XP im Vordergrund stehen. Diese wären:
• Schnelles Feedback: Feedback sollte zu allen Aktivitäten so schnell wie möglich eingeholt werden, um so die Projektsteuerung u. a. durch Priorisierung der Anforderungen zu unterstützen.
• Einfachheit: Dies fördert die Verständlichkeit des Codes. Außerdem kann leichter das Feedback des Kunden eingeholt werden.
• Inkrementelle Änderungen: Hierdurch werden große Abhängigkeiten innerhalb des Programms vermieden, wodurch ein kontinuierlicher messbarer Fortschritt ermöglicht wird.
• Änderbarkeit unterstützen: Man muss Veränderungen offen und aufgeschlossen gegenüberstehen. Dies erhöht die notwendige Flexibilität im Projekt.
• Qualitativ hochwertige Ergebnisse: Wird dem Projektteam Qualitätsarbeit ermöglicht, erhöht das in der Regel auch die Arbeitszufriedenheit, was wiederum zu einem qualitativ besseren Ergebnis führt. Auf Basis der Werte und Grundprinzipien von XP hat man schon einen groben Überblick, wie sich ein solches Projekt von einem herkömmlichen unterscheidet.
Welche grundlegenden Phasen hat aber nun ein XP-Projekt? Grundsätzlich geht man von drei wesentlichen Phasen/Strategien aus. Diese wären:
• Planungsstrategie,
• Entwicklungsstrategie,
• Teststrategie.
In der Planungsstrategie geht es im Wesentlichen darum, die vorhandenen Programmierressourcen mit den Anforderungen des Kunden in Einklang zu bringen. Um diese Anforderung zu managen bzw. den Aufwand zu schätzen, werden die Anforderungen des Kunden in sogenannten Benutzergeschichten zusammengefasst. Sollte es danach so sein, dass die vorhandenen Ressourcen mit den Benutzergeschichten nicht vereinbar sind, so muss zusammen mit dem Kunden herausgefunden werden, welche der Benutzergeschichten weggelassen werden können. Sind aber wider Erwarten noch Ressourcen vorhanden, kann man noch Benutzergeschichten in die Release-Planung mit aufnehmen.
Was aber kann man unter einer Benutzergeschichte bzw. User Story genau verstehen? Mit Hilfe von Stories fasst der Kunde seine Teilanforderungen in Form einer Story/Geschichte zusammen und diese wird danach auf eine Art Karteikarte geschrieben. Die Geschichte darf dabei keine Technik beschreiben, muss aber so genau sein, dass man anhand dieser Karteikarte später den Aufwand für das Release schätzen kann.
Die genauen Details zu den einzelnen Stories werden danach im Zuge der Arbeiten in enger Kooperation zwischen Programmierer und Kunden definiert. Bei der Erstellung einer User Story sollte man sich an folgende Grundsätze halten:
• Stories müssen in einer Sprache geschrieben sein, die vor allem für den Kunden verständlich und klar ist. Sie sollten dabei so kurz wie möglich gehalten werden, denn eine User Story ist im Grunde nichts anderes als ein Agreement zwischen dem Programmierer und dem Kunden über ein Feature des Programms.
• Der Kunde muss einen direkten Nutzen von jeder formulierten User-Story haben.
• Der Kunde und nur der Kunde ist für das Schreiben der User Stories verantwortlich. Der Programmierer bringt lediglich sein Wissen bzw. Expertise ein.
• Die Reihenfolge von User Stories sollte unabhängig voneinander sein, um sie damit in beliebiger Reihenfolge im Programm zu implementieren.
• Eine User Story sollte später für sich allein testfähig sein.
Abschließend kann man noch erwähnen, dass, basierend auf den Grundprinzipien von XP, User Stories im Grunde zu jeder Zeit im Projekt erstellt werden können. Die Erfahrung zeigt aber, dass der Großteil der Benutzergeschichten zu Beginn des Projektes geschrieben wird. Bei der Release-Planung geht es im Wesentlichen um die Bestimmung der Zeitachse, wobei es hier zwei wesentliche Einflussfaktoren gibt: Zum einen gibt es die externen Termine und zum anderen die in den User Stories definierten Features. Externe Termine können zum Beispiel Messen, eine vertragliche Abmachung oder finanzielle Gründe sein. Es kommt außerdem häufig zu Diskussionen, ob man zu viele oder zu wenige im Plan hat bzw. ob die Termine zu eng oder zu weit auseinander liegen. Gegen Ende des Projektes gibt es dann noch das Problem, dass die Änderungen in den Releases oft so klein sind, dass es für das Marketing schwierig wird, die Neuheiten richtig zu verkaufen.
Aber wie so vieles in XP ist auch der Zeitplan alles andere als starr. Der eingangs festgelegte Zeitplan ist lediglich eine Momentaufnahme und wird, basierend auf den sich ändernden Vorgaben, zum Beispiel des Marktes, der Konkurrenz oder der internen Anforderungen, angepasst.
Abbildung 14: Projektplanung (Extreme Programming)
Der Plan eines Releases wird in einem Release Plan Meeting erstellt. Dieses setzt sich aus drei wesentlichen Phasen zusammen:
Explorationsphase: In dieser Phase gilt es, herauszufinden, welche neuen Features, basierend auf den User Stories, ins Programm aufgenommen werden. Nach Festlegung der Features muss noch der Aufwand geschätzt werden. Hier gibt es auch beim XP kein wirkliches Patentrezept. Man muss, wie bei herkömmlichen Projekten auch, auf vorhandene Erfahrungen ähnlicher Features zurückgreifen.
Commitment Phase: Diese Phase dient dazu, um Deadlines für das kommende Release zu bestimmen. Dabei setzt man nicht, wie im klassischen Projektmanagement, auf die Abhängigkeiten der einzelnen Tasks, sondern benutzt folgende Faktoren für die Reihung der Aufgaben:
• Business Value: User Stories mit einem höheren Kundennutzen werden bevorzugt.
• Technisches Risiko: Features mit einem höheren Risiko werden vorgezogen, um noch Spielraum zum Handeln zu lassen. Dabei hilft es, die vom Kunden geschriebenen Stories nach Kriterien, wie Wert, Risiko, Geschwindigkeit und Umfang, zu sortieren. Steuerung: Dieser Teil dient der laufenden Anpassung des aktuellen Plans an die sich ändernden Umgebungsvariablen.
Die eigentliche Entwicklungsstrategie setzt auf das Hier und Jetzt und klammert die mögliche Zukunft bewusst aus, um nicht den Fokus auf die aktuellen Aufgaben zu verlieren. Um diese Vorgehensweise zu unterstützen, setzt man auf regelmäßige Releases, Collective Code Ownership und Pair Programming. Jede dieser einzelnen Maßnahmen dient dazu, die Qualität des Produktes auf einem hohen Niveau zu halten.
Abbildung 15: Projektablauf (Extreme Programming)
Abbildung 15 zeigt die Variabilität in XP. Man versucht, keine starren Vorgaben im Projekt zu implementieren. Diese führen meist zu Problemen, wenn es dann doch zu notwendigen Anpassungen kommt. Man geht davon aus, dass kleinere Ziele leichter zu erreichen sind und man dadurch flexibler auf Änderungen reagieren kann.
Auch das eingangs erwähnte Collective Code Ownership dient ausschließlich der Qualitätssteigerung. Hier geht es im Großen und Ganzen darum, wer für den Code zuständig ist. In konventionellen Projekten ist hier meist ein Programmierer für seinen und nur seinen Teil des Codes verantwortlich. Beim Collective Code Ownership ist es jedem Programmierer möglich, jede Zeile des Codes zu ändern und es ist sogar gewünscht. Dies hat nämlich die Vorteile, dass:
• ein komplexer und undurchsichtiger Code schneller vereinfacht wird,
• Programmierer nicht von anderen abhängig sind,
• nicht nur eine Person einen Teil des Codes kennt und
• während der Codings der Programmierer nicht den Eindruck bekommt, er/sie arbeite an weniger wichtigen Teilen.
Eine weitere Qualitätsmaßnahme ist das Pair-Programming. Hier soll jede/s Feature/User Story von zwei Programmierern idealerweise am selben Computer erstellt werden. Dies bedeutet aber nicht, dass einer programmiert und der zweite nur zuschaut. Ziel ist es, dass während einer den definierten Programmcode erstellt, sich der zweite bereits Gedanken über die weiteren Features und Probleme macht, die noch anstehen.
All die genannten Planungsteile sehen den Kunden als Teil des Programmierteams. Dadurch ist er in die laufende Kommunikation zwischen den Programmierern aktiv eingebunden und kann ohne großen Aufwand an der Lösung eines Problems mitarbeiten. Dass dies in der Praxis nur selten so funktionieren wird, liegt auf der Hand. In diesem Fall sollte ein Programmierer, welcher die Idee des Kunden für das Programm am besten kennt, die Schnittstelle zwischen Kunden und Entwicklerteam einnehmen.
Ziel der Teststrategie ist es, dass der Entwickler dem Kunden beweist, dass der Code funktioniert. Es ist nicht Aufgabe des Kunden, dem Entwickler das Gegenteil zu beweisen.
Bei den Tests unterscheidet man zwei wesentliche Kategorien: Zum einen gibt es die Unit Tests, um die Codequalität zu sichern, und zum anderen die Akzeptanztests, um die Kundenanforderungen zu prüfen.
Unit Tests sind der zentrale Punkt in der Qualitätssicherung. Hiermit sollen alle im Programm vorhandenen Softwarefunktionalitäten automatisiert getestet werden. Diese Testabläufe sollten zu Beginn des Projektes erstellt und regelmäßig durchlaufen werden, um die definierte Funktionalität zu garantieren. Und auch das bereits beschriebene Collective-Code-Ownership-Modell ist im Grunde nur durch Unit Tests zu implementieren, denn nur so kann sichergestellt werden, dass funktionierende Programmteile durch Änderungen nicht wieder zerstört werden.
Akzeptanztests sollen dem Kunden die Möglichkeit geben, zu prüfen, ob seine Anforderungen erfüllt sind. Diese Tests werden von der Kundenseite erstellt und müssen nicht, wie die Unit Tests, zu 100 % durchlaufen werden. Gegen Ende des Projektes sollte dieser Prozentsatz jedoch nahezu 100 sein.
Abschließend müssen noch die personellen Rollen im Projekt definiert werden.
Man unterscheidet drei wesentliche Rollen:
• Projektleiter,
• Kunde,
• Entwickler.
Der Projektleiter ist für die Koordination und die Verwaltung des Gesamtprojektes verantwortlich. Er übernimmt die Koordination von Zeitplänen, Ressourcen und Kosten. Er ist aber nicht ausschließlich für die Organisation zuständig; in der Regel ist er auch Teil des Programmierteams.
Die Entwickler planen, entwerfen und erstellen den Programmcode. Zudem versuchen sie, bestens auf die flexiblen Anforderungen des Kunden einzugehen.
Dabei sollte der Programmierer möglichst lösungsorientiert arbeiten und so einfach wie möglich planen können.
Der Kunde in einem XP-Projekt muss dem Entwicklerteam jederzeit für Fragen und Diskussionen zur Verfügung stehen. Darum wäre es ideal, wenn der Kunde ein Teil des Entwicklerteams ist. Das Hauptziel des Kunden ist es, seine Anforderungen als User Stories zu verfassen und die späteren funktionalen Tests zu definieren.
Reflexionsaufgabe 14: Extreme Programming
Zeigen Sie den Projektablauf von Extreme Programming und erklären Sie, wozu User Stories verwendet werden.
Reflexionsaufgabe 15: Extreme Programming
Nennen und beschreiben Sie die wesentlichen Projektrollen bei XP.
6.1.2 Scrum
Scrum bedeutet im Englischen „a rugby play in which the forwards of each side come together in a tight formation and struggle to gain possession of the ball when it is tossed in among them“68, ist ein Teil des agilen Projektmanagements und bedeutet auf wenige Sätze reduziert:
„In today’s fast-paced, fiercely competitive world of commercial new product development, speed and flexibility are essential. Companies are increasingly realizing that the old, sequential approach to developing new products simply won’t get the job done. Instead, companies in Japan and the United States are using a holistic method—as in rugby, the ball gets passed within the team as it moves as a unit up the field.”
Aus diesem ganzheitlichen Ansatz lassen sich sechs Hauptcharakteristiken ableiten:
• Eingebaute Instabilität,
• selbstorganisierte Projektteams,
• sich überlappende Entwicklungsphasen,
• multidimensionales Lernen,
• subtile Kontrolle,
• unternehmensweiter Wissenstransfer.
Was genau kann man sich unter diesem Begriff im Kontext des Projektmanagements vorstellen? Scrum ist ein schrittweiser Prozess, um Software in einem regellosen bzw. chaotischen und sich rasch ändernden Umfeld zu entwickeln. In einem Scrum-Projekt geht man von 30-tägigen, sich ständig wiederholenden Prozessen, sogenannten „Sprints“, aus.
Am Ende eines jeden Sprints steht immer eine lauffähige Version, die dem Kunden übergeben werden kann. Zwischen diesen Sprints werden die Anforderungen seitens des Kunden und des Entwicklerteams geprüft und die neuen Anforderungen angepasst.
Die Projektaufgaben, die während des Projektes abgearbeitet werden müssen, befinden sich im sogenannten „Sprint Backlog“. Dies ist im Grunde nichts anderes als eine Liste mit Funktionalitäten. Dabei wird am Anfang eines Sprints immer ein Sprint Planning Meeting abgehalten. In diesem priorisiert der Product Owner die einzelnen Features und das Scrum Team legt die anstehenden Arbeiten fest, die sich aus dem Sprint Backlog ableiten. Während der Entwicklung, dem Sprint, trifft sich das Scrum Team zum täglichen Scrum Meeting. Dieses wird vom Scrum Master geleitet. Zum Ende eines Sprints gibt es eine Präsentation, das Sprint Review Meeting, mit den neuen Funktionalitäten.
Abbildung 16: Scrum-Ablauf zusammengefasst (Braintime)
Ein Scrum-Projekt beinhaltet folgende Elemente:
• Scrum Master,
• Product Backlog und Product Owner,
• Scrum Team,
• Daily Scrum Meeting,
• Sprint Planning Meeting,
• Sprint,
• Sprint Review Meeting.
Der Scrum Master ist eine noch unbekannte Rolle im Management-Prozess. Er stellt aber eine Schlüsselfigur im Projektablauf dar. Der Scrum Master sollte eine neutrale Person sein, welche zentrale Managementaufgaben übernimmt, um damit das Team zu entlasten. Er unterstützt zu Beginn des Projektes den Kunden bei der Auswahl des geeigneten Product Owners. Er legt, gemeinsam mit dem Scrum Team, den Backlog für den nächsten Sprint fest und plant diesen auch. In weiterer Folge übernimmt er auch noch die Koordination des Teams und trifft anstehende Entscheidungen, um das Projekt nicht zu verzögern.
Der Product Backlog ist eine Liste, welche die Aufgaben/Features, geordnet nach Dringlichkeit, reiht. Die Aufnahme eines Punktes in den Product Backlog ist aber nicht ausschließlich dem Scrum Master oder Product Owner vorbehalten. Jeder im Team kann einen Punkt in die Liste aufnehmen. Dabei kommt es auch nicht unbedingt darauf an, wie genau der zu bearbeitende Punkt ausformuliert ist. Je höher jedoch die Priorität, desto detaillierter sollte die Formulierung sein. Neben den neuen Aufgaben für die Entwicklung beinhaltet der Backlog auch projektkritische Probleme, die gelöst werden müssen, um mit dem Projekt fortfahren zu können.
Die Rolle des Product Owners ist eine Art Schutzschirm des Entwicklungsteams vor zu vielen Wünschen aus verschiedenen Richtungen. Seine Hauptaufgabe ist die Kanalisierung der Kundenwünsche. Diese Rolle sollte an eine Person vergeben werden, die analytisch denken kann, damit die neu aufgenommenen Features nicht einfach ein Goodie darstellen, sondern auch wirklich die Qualität des Produktes bzw. den Wettbewerbsvorteil wahren.
Das Scrum Team sollte nicht zu groß sein, um nicht die täglichen Scrum Meetings durch eine zu hohe Komplexität zu gefährden. Es sollte aber auch nicht zu klein sein, weil sonst kein geeigneter Erfahrungsaustausch stattfinden kann. Eine ideale Größe liegt zwischen 3 und 10 Personen.
Die täglichen Scrum Meetings folgen einem ganz bestimmten Ablauf: So soll ein solches Meeting nicht länger als 15 Minuten dauern und es sollen dabei auch nicht direkt Probleme gelöst werden. Vielmehr geht es hierbei um einen Erfahrungsaustausch zwischen den Teammitgliedern. Ziel ist grundsätzlich, die Kommunikation zwischen den Mitgliedern zu verbessern und einen Überblick über das Projekt zu bekommen. Dies wird durch folgende Fragen erreicht:
• Was wurde seit dem letzten Meeting erreicht?
• Was wird bis zum nächsten Meeting erledigt?
• Welche Probleme behindern dich bei deiner Arbeit?
Die Aufgabe des Scrum Masters ist hier primär, den Dialog untereinander zu fördern. Darüber hinaus muss er sich darum kümmern, dass auftretende Probleme seinerseits gelöst werden. Sollten weitläufigere Fragen auftauchen, die während des Meetings nicht gelöst werden können, muss ein Termin für später vereinbart werden.
Das Sprint Planning Meeting hat den Zweck, die zu bearbeitenden Features für den kommenden Sprint mit dem Scrum Team zu definieren. Wie das Team diese Ziele erreicht, ist aber ganz dem Scrum Team selbst überlassen. Auch die Rollenverteilung ist nicht zwingend festgeschrieben und kann sich im Laufe des gesamten Projektes ändern.74 Dabei teilt sich dieses in zwei Hauptteile auf: Im ersten Teil bestimmen der Scrum Master, der Product Owner sowie Vertreter der Kundenseite die Priorität der einzelnen Punkte. In weiterer Folge bestimmt nur der Product Owner gemeinsam mit dem Team das nächste realistische Sprint-Ziel.
Dieses Ziel wird danach im Sprint Review Meeting geprüft und bestimmt somit, ob der abgelaufene Sprint erfolgreich war.
Im zweiten Teil des Sprint Planning Meetings definiert der Product Owner gemeinsam mit dem Team die Punkte aus dem Backlog, welche abgearbeitet werden sollen. Es wird dabei versucht, die Aufgaben in 4- bis 16-Stunden-Blöcke aufzubrechen, um ein überschaubares Arbeitspaket zu definieren.
Der Sprint stellt das Herzstück eines Scrum Projektes dar. Dabei handelt es sich um einen Zeithorizont, der nicht länger als 30 Tage dauern darf. Am Ende des Sprints muss ein lauffähiges und auslieferbares Produkt zur Verfügung stehen.
Sinnvollerweise haben dabei alle Sprints innerhalb eines gesamten Projektes die gleiche Länge und innerhalb eines solchen Sprints
• dürfen keine Änderungen vorgenommen werden, die das Ziel des Sprints gefährden,
• soll keine Qualitätsschmälerung passieren, jedoch
• kann sich der Umfang der Anforderungen zwischen Product Owner und Entwicklerteam ändern, sofern es sich dabei um neue und wichtige Erkenntnisse handelt.
Man kann also sagen: Ein Sprint ist ein 1 Monat dauerndes Projekt mit einem
flexiblen Ziel. Sollte sich während des Sprints herausstellen, dass der Zeitrahmen zu
groß definiert wurde, müssen die Anforderungen angepasst werden.
Der Abbruch eines Sprints ist äußerst selten und kann, wenn überhaupt, nur vom Product Owner vorgenommen werden. Dies kommt dann vor, wenn sich die gesamte Zielrichtung des Sprints ändert. Ein Abbruch ist aber aufgrund der relativ kurzen Zeit eines Sprints nur selten sinnvoll.
Am Ende eines jeden Sprints steht das sogenannte Sprint Review Meeting. In diesem werden gemeinsam mit dem Scrum Team sowie der Kundenseite die Ziele des Sprints geprüft. Dazu kann der Livetest des neuen Systems sinnvoll sein, weil Feedback am laufenden Objekt leichter gemacht werden kann als auf Grundlage von Demo-Tests. Dieses informelle Abschluss-Meeting hat einen Zeithorizont von vier Stunden und unterliegt folgenden Rahmenbedingungen:
• Die Teilnehmer umfassen das Scrum-Team und die wichtigsten Stakeholder auf der Kundenseite,
• der Product Owner präsentiert den gegenwärtigen Stand des Product Backlogs und er gibt dabei auch eine Schätzung über zukünftige Liefer- und Zieltermine ab,
• das Entwicklerteam präsentiert, was während des Sprints gut lief und was nicht,
• die Teammitglieder bestimmen gemeinsam die kommenden Ziele, um eine Grundlage für den nächsten Sprint zu liefern,
• Kontrolle der Marktsituation auf eventuelle Änderungen, welche die Ausrichtung des Produktes beeinflussen könnten,
• Erstellung eines Zeit- und Budgetplans für potenzielle neue Eigenschaften, basierend auf der Marktsituation.
Das Ziel des Sprint-Reviews ist es, eine überarbeitete Liste des Backlogs zu erstellen, die als Grundlage für neue Sprints dienen kann. Der Backlog kann dabei aber auch völlig überarbeitet werden, um eventuell neue Chancen zu nutzen. Reflexionsaufgabe 16: Scrum
Erklären Sie den Scrum-Projektablauf in wenigen Sätzen. Erklären Sie dabei den sogenannten Sprint genauer.
Reflexionsaufgabe 17: Scrum
Definieren Sie das Sprint-Review-Meeting und nennen Sie die definierten Rahmenbedingungen.
6.2 Design Thinking
Der Begriff des Design Thinkings wurde von der Innovationsagentur IDEO entwickelt und bezeichnet einen Prozess, der kreative Ideen fördern soll. Dabei konzentriert man sich, wie beim User-Centered-Design, auf die Methode, Innovationen hervorzubringen, die sich sehr stark am User orientieren und dessen Bedürfnisse in den Vordergrund stellen. Um dies zu gewährleisten, bedient man sich Methoden aus dem herkömmlichen Design-Bereich, weil dieser explizit nutzerorientiert arbeitet.
6.2.1 Grundlagen
Design Thinking geht vom Grundsatz aus, dass gute Ideen kein Zufall sind, sondern durch die Zusammenarbeit von unterschiedlichsten Teams entstehen. Dabei stützt man sich auf die Annahme, dass verschiedenste Erfahrungen, Meinungen und Ansichten eine umfassende Problemlösung ermöglichen. Dabei werden aber nicht nur kreative Prozesse in die Überlegungen miteinbezogen, sondern auch wirtschaftliche.
Dieser Ansatz mag für viele als Widerspruch gelten, weil man in der Regel mit dem Wort „Design“ Kreativität oder auch Inspiration in Verbindung bringt. Aber der Prozess der Produktfindung war schon immer mehr als nur das Veredeln von Produkten zum Ende eines Entwicklungsvorganges, um die Vermarktung zu pushen.
Beim Designprozess geht es mehr darum, gegebene Probleme mit kreativen Ansätzen und innovativen Techniken zu lösen und daraus ein Produkt für den Markt zu entwickeln.
Dieser Ansatz ermöglicht somit, Produkte und Services zu entwickeln, die einerseits an die Bedürfnisse der Menschen und andererseits an die der Stakeholder angepasst sind.
Dabei orientiert sich der gesamte Prozess an drei Grundprinzipien:
1. Multidisziplinarität,
2. Nutzerzentriertheit,
3. lernend nach vorne gehen.
Die Multidisziplinarität fordert, dass sich am Entwicklungsprozess verschiedene Unternehmensabteilungen einbringen, um so erfolgreicher auf die Bedürfnisse und Problemstellungen der Nutzer einzugehen. Dabei wird aber Design Thinking nicht mehr nur als strukturierte Methode gesehen, um Innovationen voranzubringen, sondern auch als strukturierte und strategische Herangehensweise bei komplexen Problemen. Und dies ist gerade in der modernen globalisierten und immer mehr digitalisierten Welt notwendig, um am Markt bestehen zu können.
Die Nutzerzentriertheit stellt den Kunden in den Mittelpunkt bzw. sieht ihn als den Ausgangspunkt der Entwicklung. Man beschäftigt sich nicht mehr wie früher mit rein technischen Aspekten, sondern versucht, die Bedürfnisse des Kunden zu erforschen und zu bedienen.
Lernend nach vorne gehen basiert auf der schrittweisen Vorgehensweise in der Informationstechnik. Um als Unternehmen innovativ und erfolgreich am Markt bestehen zu können, muss eine Kultur des Lernens implementiert werden. Dabei dürfen Fehler nicht mehr als Versagen gesehen werden, sondern vielmehr als Möglichkeit, die Innovation im Unternehmen voranzubringen.
Um die drei Grundprinzipien des Design Thinking-Prozesses erfüllen zu können, bedarf es einer offenen und gemeinsamen Sprache. Dabei geht es nicht nur darum, eine für alle Teammitglieder vertretbare Sprache zu finden, sondern auch darum, einen Raum für die Kommunikation zu schaffen. Dabei sollte dieser zum Beispiel flexible Möbel und keine Trennwände enthalten. Es muss aber viel Raum für Arbeitsmaterial gegeben sein, um seine Gedanken und Ideen schnell und unkompliziert zu verschriftlichen.
Der eigentliche Designprozess setzt sich aus sechs Schritten zusammen, die nicht zwingend in der vorgegebenen Reihenfolge durchlaufen werden müssen. Es ist sogar gewollt, dass einige Schritte wiederholt bzw. übersprungen werden.
1. Verstehen: Hier geht es vornehmlich darum, das Problem zu erfassen und zu verstehen.
2. Beobachten: In diesem Schritt geht es speziell darum, Kontakt mit den Nutzern herzustellen, um die Anforderungen zu verstehen. Hier kommen diverse Forschungsmethoden aus der qualitativen Sozialforschung, wie zum Beispiel teilstrukturierte Interviews, zum Einsatz.
3. Synthese: Die aus Schritt 2 gewonnenen Erkenntnisse werden jetzt zusammengeführt und in eine Struktur gebracht. Darüber hinaus werden die einzelnen Anforderungspunkte gewichtet, um daraus einen eigenen Standpunkt für das Team zu definieren.
4. Ideen: In diesem Schritt sollen seitens des Teams Ideen für das neue Produkt, ähnlich wie beim Brainstorming, gesammelt werden. Aus den gewonnenen Ideen wird dann im Team eine Liste mit Anforderungen für das Produkt erstellt.
5. Prototypen: In dieser Phase werden die zusammengestellten Anforderungen unter Zuhilfenahme verschiedenster Tools zum Leben erweckt. Grundsätzlich ist hier alles, von Papier über Knete und Lego bis hin zu Holz, erlaubt. In der IT kommen hier speziell Tools, wie Mock-Ups bzw. Wireframes, zum Einsatz.
6. Testen: Nach dem bekannten Prinzip „Fail early to succeed sooner“ wird in dieser Phase so früh wie möglich das Feedback der potenziellen User eingeholt.
Um dem Prinzip der Nutzerzentriertheit gerecht zu werden, werden in der Softwareentwicklung pro Stadium der Entwicklung zwei Designmethoden verwendet, um so rasch wie möglich verwertbares Feedback des Users einzuholen.
In den frühen Stadien der Entwicklung kommen die sogenannten Wireframes zum Einsatz, die einen groben Blick auf die Oberfläche zulassen. In einem späteren Stadium der Entwicklung kommen dann Mock-Ups zum Einsatz: Mit diesen ist bereits ein sehr genauer Blick auf die zu erwartende Software möglich.
Reflexionsaufgabe 18: Design Thinking
Nennen Sie die sechs wesentlichen Schritte des Design Thinking-Ansatzes.
Reflexionsaufgabe 19: Design Thinking
Nennen und beschreiben Sie die Grundprinzipien von Design Thinking.
6.2.2 Wireframes
Wireframes unterstützen die Designabteilung bei der grundlegenden Konzeption einer Software. Ein Wireframe (deutsch: Drahtgerüst, Drahtmodell) bezeichnet eine zweidimensionale Darstellung einer Softwareoberfläche, die sich speziell auf die Content-Verteilung bzw. die Priorisierung von Inhalten, verfügbaren Funktionalitäten und geplanten Abläufen konzentriert. Dies ist auch der Grund, warum bei Wireframes in der Regel kein Styling und somit keinerlei Farben oder Grafiken zum Einsatz kommen, siehe Abbildung 17. Sie zeigt auch die Abhängigkeiten der einzelnen Softwaremodule/Seiten untereinander.
Abbildung 17: Wireframe einer Software APP (AppFutura)
Der Vorteil bzw. der Zweck von Wireframes:
• Verbindet die Informationsstruktur der Seite mit dem visuellen Design, weil die Wege zwischen den Seiten gezeigt werden,
• klärt die Möglichkeiten zum Anzeigen verschiedener Arten von Informationen auf der Oberfläche,
• bestimmt die beabsichtigte Funktionalität in der Benutzeroberfläche,
• man kann den Inhalt priorisieren, indem man ihm eine bestimmte Größe auf der Benutzeroberfläche gibt.
Beim Erstellen von Wireframes sollte man einige Basisregeln befolgen. Es sind grundsätzlich Richtlinien dafür, wo die wichtigsten Navigations- und Inhaltselemente auf der Benutzeroberfläche platziert sein sollen. Es ist nicht das Ziel, das visuelle Design darzustellen. Aus diesem Grund sollte man es einfach halten und folgende Eckpunkte beim Design beachten:
• Man sollte keine Farben verwenden. Wenn normalerweise Farben für die Unterscheidung von Objekten verwendet werden, sollte man bei Wireframes unterschiedliche Grautöne verwenden.
• Man sollte keine Bilder verwenden, weil diese den Blick vom eigentlichen Zweck von Wireframes, die Vermittlung eines Grobkonzeptes, ablenken.
Man kann statt eines Bildes in der eigentlichen Größe ein „X“ vorsehen, um den Platz zu reservieren.
• Es sollten keine finalen Schriftarten verwendet werden. Stattdessen sollte auf generische Schriftarten zurückgegriffen werden, um nicht die Diskussion auf diese zu lenken. Es können jedoch die Größen der Schriften variieren.
Wireframes können von Papierskizzen bis zu Computerbildern bzw. der Menge an Details variieren, die sie vermitteln. Es wird daher in sogenannte Low- und High-Fidelity Wireframes unterschieden, um das Niveau der Genauigkeit bzw. deren Funktionalität zu unterscheiden.
Low-Fidelity Wireframes sollen die Kommunikation mit Projektteams erleichtern und werden relativ schnell entwickelt. Sie sind im Grunde sehr abstrakt, weil sehr oft Platzhalter für Bilder und Mock-Content (lorem ipsum) als Füllmaterial für Überschriften und Textblöcke verwendet werden.
High-Fidelity Wireframes sind aufgrund der bereits hohen Detailgenauigkeit besser für Dokumentationen geeignet. Sie enthalten Informationen über die bestimmten Elemente auf der Seite, einschließlich Dimensionen, Abläufen und/oder Aktionen eines interaktiven Elementes.
Reflexionsaufgabe 20: Wireframes
Was genau kann unter Wireframes verstanden werden?
6.2.3 Mock-Ups
Das Mock-Up stellt einen statischen, jedoch sehr ausgereiften Designentwurf einer Software dar. Es wird dadurch die Struktur der Informationen sowie des Inhaltes visualisiert und die grundlegenden Funktionalitäten der Oberfläche auf statische Weise demonstriert. Mock-Ups bieten, im Gegensatz zu Wireframes, visuelle Details, wie Farben, Bilder und die finalen Schriften. Mit Mock-Ups werden Modelle erstellt, um dem Betrachter einen realistischen Eindruck des Endproduktes zu vermitteln. Mock-Ups haben aber, neben der genaueren Dokumentation, einen weiteren Vorteil: sie unterstützen das Team dabei, ihre Vision gegenüber den Stakeholdern und Investoren zu verkaufen. Was sind also die Vorteile, wenn man Mock-Ups verwendet?
• Projektdetails organisieren: Mock-Ups helfen dem Designer, visuelle Elemente aufzuspüren, die nicht mit dem geplanten finalen Design zusammenspielen. Durch die Verwendung von Farben, Bildern und Schriften kann die Idee der Oberfläche sehr gut transportiert werden.
• Fehler in frühen Entwicklungsstadien finden: Aufgrund der Einfachheit von Mock-Ups ist eine schnelle und einfache Iteration der einzelnen Phasen möglich, weil sie keinen endgültigen Code enthalten.
• Ideen für Stakeholder/Investoren übersetzen: Um dem Kunden oder Stakeholder eine gute Idee des endgültigen Produktes zu vermitteln, eignen sich Mock-Ups ausgezeichnet.
• Ideen im Team kommunizieren: Mock-Ups helfen nicht nur, die Kommunikation zwischen der Entwicklungsabteilung und der Kundenseite zu erleichtern. Sie helfen auch, die Kommunikation zwischen den einzelnen Abteilungen im Unternehmen zu vereinfachen.
• Design Implementierung: Wie funktioniert ihr gedachtes Design?
Diese Frage sollte bei der Betrachtung der Mock-Ups beantwortet werden.
Reflexionsaufgabe 21: Mock-Ups
Erklären Sie den Unterschied zwischen Wireframes und Mock-Ups.
7 Frameworks
Die Hauptaufgabe in der Softwareentwicklung liegt in der Umsetzung der Vision des Kunden in ein lauffähiges Softwareprodukt. Dabei sollte der erstellte Code die geforderten Ergebnisse liefern und sicher, reibungslos und stabil funktionieren. All dies soll auch noch mit optimaler Effizienz und dem bestmöglichen Einsatz der vorhandenen Ressourcen erfolgen.
Diese scheinbar utopischen Anforderungen können unter Verwendung von Frameworks mit relativ einfachen Mitteln erzielt werden.
7.1 Grundlagen
Das Software Framework (deutsch: Programmiergerüst) gibt eine Art Ordnungsrahmen für den Entwickler vor. Solche Frameworks kommen in der objektorientierten bzw. bei der komponentenbasierten Softwareentwicklung vor.
Bischofberger definiert ein Framework wie folgt:„Ein Framework besteht aus einer Menge von Objekten, die eine generische Lösung für eine Reihe verwandter Probleme implementieren. Es legt die Rollen der einzelnen Objekte und ihr Zusammenspiel fest. Damit definiert das Framework auch jene Stellen, an denen die Funktionalität erweitert und angepasst werden kann.“
Daraus lassen sich die Eigenschaften eines solchen vorgegebenen Rahmens ableiten. Ein Framework stellt Grundbausteine für die Entwicklung zur Verfügung, wodurch die Designstruktur einer Software bestimmt wird. Dabei enthält es abstrakte und konkrete Klassen, die bei der Entwicklung einer Software unterstützen. Wichtig in diesem Zusammenhang ist, dass ein Framework noch lange kein fertiges Programm ist, sondern es wird vom Entwickler als eine Art Basismuster genutzt. Dabei ist es das Ziel von Frameworks, softwarearchitektonische Muster in der Programmierung wiederzuverwenden.
Man unterscheidet daher Frameworks in zwei wesentliche Kategorien: in WhiteBox Frameworks und Black-Box Frameworks.
Von White-Box Frameworks spricht man, wenn das verwendete Framework Möglichkeiten bietet, um Methoden zu überschreiben. In diesem Fall legt das Framework spezielle Teile und Beziehungen fest, welche durch die Anwendung erweitert werden müssen. Dies ist grundsätzlich die mächtigere Variante der Wiederverwendung. Man muss aber hier das verwendete Framework und das Zusammenspiel der einzelnen Teile verstanden haben, weil das Programm selbst nicht wissen kann, welche Art von Daten verwendet wird.
Ein Black-Box Framework wird durch verschiedene direkt benutzbare Klassen für die Instanzierung und Parametrierung gekennzeichnet. Die Programmteile können genutzt werden, ohne dass man diese versteht bzw. deren Zusammenspiel verstanden hat. Dafür unterliegt man bei dieser Art einer gewissen Einschränkung. Man kann diese Methoden nur beschränkt anpassen. Sollte aber die Funktionalität der Black-Box nicht ausreichen, so kann man ohne großen Aufwand auf White-Box-Funktionalitäten zurückgreifen. Der Übergang der beiden Kategorien ist somit fließend.
Reflexionsaufgabe 22: Frameworks
Was versteht man in der Softwareentwicklung unter Frameworks?
Reflexionsaufgabe 23: Frameworks
Erklären Sie den Unterschied zwischen einem White- und einem Black-Box Framework.
7.2 Application Frameworks
Die Rechenleistung und die Bandbreite von Netzwerken sind in den letzten Jahren massiv gestiegen. Im Vergleich dazu ist aber die Entwicklung komplexer Software immer noch teuer und fehleranfällig. Ein Großteil der anfallenden Kosten fällt bei der ständigen Wiederentdeckung und Neuentwicklung von bekannten Kernkompetenzen in der Softwareindustrie an. Gerade die wachsende Heterogenität von Hardwarearchitekturen und Kommunikationsplattformen macht es oft schwierig, fehlerfreie, effiziente und kostengünstige Applikationen zu entwickeln.
Objektorientierte Application Frameworks stellen dabei eine vielversprechende Technologie dar, um die Kosten von Softwareimplementierung zu reduzieren und die Qualität der Anwendungen zu steigern. Das Framework stellt dabei wiederverwendbare, „halb-vollständige“ Anwendungen zur Verfügung, auf deren Basis man durch eine einfache Anpassung benutzerdefinierte Anwendungen erstellen kann. Application Frameworks sind dabei in der Regel auf bestimmte Geschäftsabläufe und Anwendungsanforderungen ausgerichtet. Dies wird auch in der Definition von Ted Lewis nochmals herausgehoben:
„A Framework is more than a class hierarchy. It is a miniature application complete with dynamic as well as static structure. It is a generic application we can reuse as the basis of many other applications. And, before I forget it, frameworks are specialized for a narrow range of applications, because each model of interaction is domain-specific, e.g., designed to solve a narrow set of problems. A framework is the product of many iterations in design. It is not something that you invent in a big bang, and then go about reusing for years. Frameworks evolve over long periods of time ...“
Application Frameworks bieten einige Vorteile, die sich aus Modularität, Wiederverwendbarkeit, Erweiterbarkeit und der Kontrolle, die dem Entwickler geboten wird, ergeben. Diese werden nachfolgend beschrieben:
• Modularität: Durch die Modularität werden Frameworks verbessert, indem vorrübergehende Details in der Implementierung durch stabile Schnittstellen gekapselt werden. Die Modularität verbessert die Qualität der Anwendung, weil die Auswirkungen von Änderungen im Design und der Implementierung lokalisiert werden können. Außerdem trägt sie zur Reduktion des Aufwands bei der Pflege der Anwendung bei.
• Wiederverwendbarkeit: Die bereitgestellten Schnittstellen tragen zur Verbesserung der Wiederverwendbarkeit bei, indem standardisierte Zugriffsschnittstellen definiert werden, um neue Software zu erstellen.
Dieser Punkt nutzt die Erfahrung und Bemühungen früherer Entwicklungen, um herkömmliche Lösungen für scheinbar neue Probleme nicht nochmals zu erstellen und zu validieren.
• Erweiterbarkeit: Ein Framework verbessert durch das Entkoppeln von stabilen Schnittstellen und Verhaltensweisen von Variationen, die bei der Instanzierung einer Anwendung erforderlich sind, die Qualität der gesamten Anwendung.
• Kontrolle: Durch sogenannte Event-Handler-Objekte werden dem Entwickler Möglichkeiten geboten, die eine standardisierte und anwendungsspezifische Verarbeitung von Ereignissen ermöglichen.
Abbildung 18: Verwendung eines Application Frameworks
Reflexionsaufgabe 24: Application Frameworks
Wodurch zeichnen sich Application Frameworks aus?
7.3 Domain Driven Design
In der Softwareentwicklung liegt die größte Komplexität nicht zwingend bei den technischen Belangen, sondern vielmehr in der Aktivität bzw. dem Geschäft des Auftraggebers. Behandelt man diese „Domainkomplexität“ des Geschäfts nicht im Softwaredesign, so spielt es keine Rolle, wie gut durchdacht der eigentliche Softwarecode ist, denn die Wahrscheinlichkeit, dass das Endprodukt nicht zu 100 % den Wünschen des Auftraggebers entspricht, ist sehr groß. Die Grundlage von Domain Frameworks bildet das sogenannte Domain Driven Design (DDD). Dieser Entwicklungsansatz ist aber nicht einfach nur eine Technik oder Methode; man versteht darunter eher eine neue Denkweise, um die Produktivität von Softwareprodukten in einem komplizierten Umfeld zu steigern.
Der DDD-Ansatz hat zwei grundlegende Annahmen als Grundlage:
• In Softwareprojekten sollte der primäre Fokus auf den Domänen und der Domänenlogik liegen, sprich auf der Fachlogik,
• komplexe Domänenentwürfe sollten auf einem Domänenmodell basieren.
Eine Software wird mit dem Ziel entwickelt, eine bestimmte Aufgabenstellung, eine sogenannte Domäne, zu unterstützen. Um diese Herangehensweise erfolgreich abzuschließen, muss die Anwendung mit der fachlichen Komponente in der Anwendungsdomäne zusammenpassen. Der DDD-Ansatz gewährleistet dies durch die Zusammenführung grundlegender Softwarekonzepte mit den Elementen der Anwendungsdomäne.
Die DDD-Architektur beinhaltet eine eigene Schicht der Geschäftslogik, um die Domänenklassen von anderen Funktionen in der Software zu entkoppeln und sie dadurch leichter sichtbar zu machen. Um diese Architektur zu visualisieren, können verschiedene Herangehensweisen, wie zum Beispiel die Schichtenarchitektur oder auch die hexagonale Architektur, gewählt werden.101 Die im DDD verwendeten Klassen enthalten die gesamten Daten und auch die Softwarefunktionalität der in den Fachabteilungen definierten Abläufe. Aus diesem Grund steht das DDD auch im Gegensatz zu anderen Entwicklungsansätzen, die in der Regel ohne einen speziellen Layer für die Anwendungslogik auskommen.
Trotz der vielen zur Verfügung stehenden Konzepte, welche diesen Ansatz in der Entwicklung unterstützen, liegt das Hauptaugenmerk auf der Einführung einer Fachsprache, die in allen Bereichen der Softwareentwicklung angewendet werden kann. Diese Sprache für die Definition der einzelnen Elemente, der Fachlichkeit bzw. der Klassen und Methoden definiert sich durch die Prinzipien, dass sie um die Anwendungsdomäne strukturiert ist und von allen Teammitgliedern verwendet wird, um die einzelnen Aktivitäten zu verknüpfen.103 Die Hauptbestandteile des DDD sind:
Entitäten: Diese sogenannten Referenz-Objekte sind nicht grundsätzlich durch ihre Attribute definiert, sondern durch einen Thread von Kontinuität und Identität. Ein bereits definiertes Objekt, zum Beispiel eine Person, bleibt somit immer eine Person, auch in dem Fall, dass sich die Eigenschaften ändern. Sie unterscheidet sich aber von anderen Personen trotz möglicher Ähnlichkeiten bei den Attributen. Aus diesem Grund werden für die Unterscheidung sehr oft Identifikatoren, wie etwa eine Personenkennzahl oder Steuernummer, verwendet. Wertobjekte: Viele Objekte haben keine konzeptionelle Identität. Diese Objekte beschreiben das Charakteristische einer Sache. Aus diesem Grund werden Wertobjekte oder „Value Objects“ als nicht veränderbare Objekte definiert. Dadurch sind sie in der Konzeption wiederverwendbar.
Aggregate: Zusammengefasste Entitäten oder Wertobjekte werden als Aggregate bezeichnet. Durch deren Verknüpfung untereinander verschmelzen diese zu einer transaktionalen Einheit. Dabei definieren Aggregate eine Entität als einen Zugriff auf das wiederum verknüpfte Aggregat. Alle restlichen Objekte dürfen daher extern nicht referenziert werden.
Assoziationen: Assoziationen stellen Beziehungen zwischen den einzelnen Objekten dar. Dabei werden nicht nur statische, sondern auch dynamische Beziehungen dargestellt.
Serviceobjekte: In einigen Fällen umfasst das klarste und pragmatischste Design Operationen, die nicht konzeptionell zu einem Objekt gehören. Anstatt das Problem zu erzwingen, können wir den natürlichen Konturen des Problembereichs folgen und SERVICES explizit in das Modell aufnehmen. Dabei bekommen diese normalerweise zustandslosen Objekte die Wertobjekte und Methoden, die für die Abarbeitung notwendig sind, übergeben. Ein gutes Serviceobjekt weist folgende drei Charakteristika auf:
• Die Operation bezieht sich auf ein Konzept, das kein natürlicher Teil eines ENTITY- oder Wertobjektes ist,
• die Schnittstelle ist in Bezug auf andere Elemente des Domänenmodells definiert,
• die Operation ist zustandslos.
Module: Hierdurch wird das gesamte Domänenmodell nicht in technische, sondern in fachliche Bestandteile aufgeteilt. Module sind dabei durch eine gute logische Teilung und eine geringe Zusammenführung zwischen den einzelnen Modulen gekennzeichnet.
Fabriken: Sollte die Erstellung eines Objektes oder eines gesamten Aggregates zu kompliziert werden oder zu viel von der internen Struktur aufzeigen, sorgen die Fabriken/Factories für eine Kapselung. Sie unterstützen dabei die Auslagerung von speziellen Fachobjekten in Fabrik-Objekte. Gute Fabrik-Objekte beruhen auf zwei Voraussetzungen:
• Ein Fabrik-Objekt sollte nur in der Lage sein, ein Objekt in einem konsistenten Zustand zu erzeugen,
• das Objekt sollte nur auf den gewünschten Typ abstrahiert werden und nicht auf die konkrete Klasse.
Repositories: Repositories verallgemeinern die Möglichkeit, Daten bzw. logische Verbindungen zwischen Objekten über längere Zeit zu speichern. Durch deren Verwendung werden der Zugriff sowie die technische Infrastruktur von der Geschäftslogik getrennt. Für Fachobjekte, die über den Infrastruktur-Layer aufgerufen werden, stellt das Repository eine Klasse bereit, wodurch die Such- und Ladetechnologien extern abgetrennt werden.
Reflexionsaufgabe 25: Domain Driven Design
Erklären Sie das Prinzip des Domain Driven Designs.
7.4 Test Driven Development
Die heutigen Test-Frameworks basieren auf dem sogenannten „Test Driven Development“ oder auch TDD. In diesem Ansatz geht man davon aus, dass die durchzuführenden Softwaretests als Grundlage für den zu entwickelnden Code dienen. Dieser Ansatz ist auch bekannt als „test first“-Ansatz. Warum aber ist der Test-Driven-Ansatz in der Softwareentwicklung sinnvoll? Dieser Ansatz wird in der Praxis dazu verwendet, um Implementierungen und Programmfunktionen zu steuern sowie um die langfristige Qualität der entwickelten Software zu verbessern.
Gerade das Entwerfen der späteren Komponententests vor der eigentlichen Erstellung des Codes gibt dem Entwickler die Möglichkeit, sich Gedanken über den Ablauf der einzelnen Funktionen zu machen, bevor der Code dafür erstellt wird. Dieser Ansatz beschleunigt in weiterer Folge den gesamten Erstellungsprozess, weil die zuvor definierten Tests automatisiert ablaufen und relativ einfach ohne Zeitaufwand wiederholt werden können.
Durch das Schreiben eines Codes mit dem Ziel, den zuvor definierten Test zu bestehen, kann sich der Entwickler soweit sicher sein, dass der produzierte Code auch sicher den Vorgaben entspricht. Der TDD-Ansatz führt dazu, dass die Codebasis einer sehr hohen Testabdeckung unterliegt, weil der Code nur hinzugefügt wird, wenn dieser auch die Tests bestanden hat, weil jedes Modul mit zumindest einem Test verknüpft ist. Eine dabei von Microsoft erstellte Studie zeigt, dass das generelle Vertrauen in den Code bei der Verwendung von TDD steigt.
Der TDD-Workflow geht in der Regel von schnellen Iterationen bei der Erstellung von kleinen Teilen von Codes aus. Der Arbeitsablauf bei diesem Muster ist wie folgt:
1. Erstellen der Komponententests, die den geplanten Ablauf des Moduls wiedergeben.
2. Alle Tests sollen durchgeführt werden. Sind alle bestanden, kann wieder zu Punkt 1 gegangen werden, andernfalls folgt Punkt 3.
3. Beheben Sie den aufgetretenen Fehler und versuchen Sie, den fehlgeschlagenen Test zu bestehen. Danach geht man wieder zu Schritt 2.
Der Entwickler führt die definierten Tests durch, um fehlgeschlagene Komponententests zu finden. Danach versucht er, die entdeckten Fehler zu beheben. Es wird dabei versucht, die Implementierung mit dem geringsten Aufwand zu verändern, um den Test zu bestehen. Das Schreiben des minimalen Codes, der die Tests bestehen muss, ist wichtig, vereinfacht die Implementierung und verhindert das Hinzufügen von nicht getesteten Features zum Code. Der genannte Zyklus soll solange fortgesetzt werden, bis eine Implementierung abgeschlossen ist, die alle Komponententests besteht. Nach Fertigstellung des Moduls werden in weiterer Folge systemweite Tests durchgeführt, um sicherzustellen, dass auch alle Programmteile ordnungsgemäß funktionieren. Weitere Integrationstests sollen erstellt und durchgeführt werden, um sicherzustellten, dass neue Module mit bereits vorhandenen auch richtig funktionieren. Dabei sollten alle vorhandenen Probleme mit einer eigenen Reihe an Komponententests geprüft werden, um auch wirklich nur die minimale Menge an Code zu ändern. Sobald alle verfügbaren Teile getestet und fehlerfrei sind, können sie an ein beliebiges Versionskontrollsystem übergeben werden.
Reflexionsaufgabe 26: Test Driven Development
Erklären Sie den Test Driven Development-Ansatz genauer.
8 Fallstudie: mobile Entwicklung
Die mobile Entwicklung ist die Zukunft von heute! Am Ball der Zeit zu bleiben, ist keine Frage des Wollens oder Könnens mehr. Es ist vielmehr ein Muss, um in der rasch voranschreitenden Digitalisierung der internen Prozesse nicht ins Hintertreffen zu gelangen.
8.1 Hybrid Mobile APP Entwicklung
Der Begriff „Website“ ist ein Wort, das in der heutigen Zeit überholt ist. Das neue Schlagwort, welches die Welt bewegt, ist „APP“. Allgemein kann man aber sagen, dass eine Anwendung in Form einer Software mehr ist als die einfache Darstellung statischer Informationen. Es werden dem Benutzer in der Regel mehr Möglichkeiten zur Verfügung gestellt.
Bei der Kategorie der Web-Apps muss man einige Einschränkungen in Kauf nehmen, wie zum Beispiel die Notwendigkeit einer ständigen Verbindung zum Internet. Auch kann auf die Hardware des genutzten PCs nur eingeschränkt zugegriffen werden. Mobile Anwendungen auf der anderen Seite überwinden genau diese Probleme.
Der Begriff des „Going Mobile“ ist in einem modernen Unternehmen nicht mehr als optional zu sehen. Es geht im Grunde nur mehr darum, ob man sich für einen der drei folgenden Wege entscheidet:
• Mobile-First (das Hauptaugenmerk liegt auf einer mobilen Plattform)
• Mobile-Only (es wird nur eine mobile Lösung angeboten)
• Mobile-After (die mobile Lösung wird nach der Einführung einer Web-App angeboten)
Unternehmen, die überlegen, ob sie eine „Native“ App entwickeln sollen oder eine „Hybride“, sollten folgenden Punkt bedenken: Native Apps bringen, trotz des Vorteils der vollen Nutzung der Betriebssystem Features, zwei große Nachteile mit sich. Erstens ist das Erlernen der notwendigen Programmiersprache aufwendig und zweitens muss nachher die Anwendung für andere Betriebssysteme zu einem großen Teil neu programmiert werden. In so einer Situation bietet die Entwicklung einer hybriden App den idealen Ausweg.
In vielen Fällen kommt es zu dem Missverständnis, dass hybride Mobile-Lösungen, wie zu Beginn der Entwicklung von hybriden Frameworks, nicht direkt am Mobile-Gerät installiert werden können. Eine hybride App ist aber, wie jede andere native App, direkt am Endgerät installiert, kann über die jeweiligen App-Stores bezogen werden und ermöglicht die Nutzung der angebotenen Gerätehardware, wie Kamera, GPS oder Mikrofon.
Hybride Apps werden für verschiedene Plattformen (Apple: iOS, Google: Android etc.) entwickelt, nutzen aber eine Codebasis. Um jedoch alle Möglichkeiten des darunterliegenden Betriebssystems nutzen zu können, müssen einige Teile der Software dafür umgeschrieben werden.
Hybride Apps werden in zwei grundlegende Kategorien eingeteilt:
• WebView-based Hybrid Apps: Jede native mobile Plattform verfügt über eine gemeinsame Kontrollkomponente/Web View. Diese wird verwendet, um lokal gehosteten Inhalt, wie z. B. eine HTML-Seite oder JavaScript Code, zu öffnen.
• Cross-Compiled Hybrid Apps: In diesem Ansatz werden hybride Apps unter Verwendung einer gemeinsamen Codebasis für die jeweiligen Betriebssysteme extra kompiliert. Das bedeutet, dass der Programmierer die App mit der Softwaresprache A erstellt und dieser Programmcode wird danach bei Kompilierung in den nativen Code des Betriebssystems konvertiert.
Wie eingangs schon erwähnt, unterscheiden sich hybride Apps nicht von nativen Apps, die auf einer mobilen Plattform, wie iOS oder Android, installiert sind. Jede Plattform nutzt Kerngeräte-APIs (Webservices) für Hardware, wie GPS, NFC, oder die Kamera, welche vom mobilen Betriebssystem bereitgestellt werden (siehe Abbildung 19).
Abbildung 19: Aufbau einer hybriden App (Packt)
Reflexionsaufgabe 27: Hybrid Mobile APP Entwicklung
Unterscheiden Sie die Hybrid Mobile APP-Entwicklung vom Native Development-Ansatz.
8.2 IONIC Framework
Das IONIC Framework ist ein Hybrid-App-Entwicklungsframework, wodurch Softwareentwickler native-aussehende mobile Anwendungen unter Verwendung von bekannten Webtechnologien, wie CSS, HTML5 und JavaScript, erstellen können. Der Vorteil von IONIC ist, dass es ein Open-Source-Produkt ist und somit bei der Entwicklung Kosten gespart werden können.
Die Basis von IONIC bildet dabei das ebenfalls bekannte AngularJS Framework, welches auf Apache Cordova für die Erstellung von mobilen Apps mit Web-Inhalten aufbaut. Die starke Anlehnung von IONIC an AngularJS erleichtert dabei die Entwicklung von mobilen Applikationen. Beispiele hierfür sind der ListView, Side Menus, Tab und mobilspezifische Elemente. IONIC ermöglicht durch eine Benutzeroberfläche eine rasche Erstellung von Anwendungen für Handys. Um ein betriebssystem-spezifisches Design zu ermöglichen, verwendet IONIC ein Natives Stylesheet, welches auf dem darunter verwendeten Betriebssystem aufbaut.
Die mittlerweile vorhandenen Tools des mobilen Entwicklungswerkzeuges wurden gemeinsam mit dem Basisframework entwickelt und auch weiterentwickelt. Die IONIC CLI stellt dem Entwickler erstaunliche Möglichkeiten zur Verfügung; dazu zählen etwa IONIC Lab (bietet unter anderem eine App-Vorschau, Login Tools oder App Building Tools) oder auch der LiveReload (ermöglicht ein einfaches Update der Apps). Das komplett cloud-basierte Backend-Service zur Verwaltung der Apps ermöglicht eine leichte Verwaltung mehrerer unterschiedlicher Anwendungen. Ein weiteres nützliches Tool ist der IONIC Creator: Dieser gibt dem Entwickler die Möglichkeit, seine Anwendungsoberfläche per Drag & Drop zu erstellen. Dies bedeutet eine weitere Zeiteinsparung bei der Entwicklung von Apps. Bei all diesen Vorteilen muss aber auch erwähnt werden, dass die Entwicklung mit IONIC Programmierkenntnisse voraussetzt.
8.3 Die Verwendung von IONIC anhand eines Beispiels
Das nun folgende Beispiel eines Taschenrechners soll die Möglichkeiten von IONIC besser erklären und verdeutlichen, wie zeiteffizient man damit arbeiten kann. Bevor man eine App entwickelt, sollte man sich Gedanken über das zu erwartende Endprodukt machen. Dabei ist es hilfreich, eine Idee über das Design zu haben. Daher wurde ein erstes handgezeichnetes Mock-Up der Oberfläche erstellt.
Abbildung 20: Mock-Up - IONIC Calculator App (Brezniak)
Nachdem die Oberfläche für die App soweit definiert wurde, wird nun das Projekt im IONIC Creator erstellt. Es gibt die Möglichkeit, bei der Erstellung des Projektes diverse Projekttypen mit einem vordefinierten Aufbau von Seiten zu wählen.
Abbildung 21: Startbildschirm beim Erstellen einer App (IONIC)
Die nächste Abbildung zeigt den Hauptbildschirm der IONIC-Creator-Oberfläche.
Abbildung 22: IONIC Creator-Oberfläche (IONIC)
Der IONIC Creator bietet eine Drag & Drop-Oberfläche, mit der Sie jede Komponente auf der linken Seite auf das abgebildete Telefonbild ziehen und fallen lassen können. Mit Hilfe dieser Funktion werden nun die benötigten Komponenten, wie etwa das Textfeld für das Ergebnis sowie die Buttons für die Ziffern, in der gewünschten Reihenfolge auf die Oberfläche gezogen.
Abbildung 23: APP Erstellung - Summenfeld (Brezniak)
Abbildung 24: APP Erstellung - Hinzufügen von Buttons (Brezniak)
Um nicht jeden einzelnen Button auf die Oberfläche ziehen zu müssen, gibt es die Möglichkeit, ganze Zeilen zu kopieren. Dies geschieht unter Nutzung des gezeigten Icons.
Abbildung 25: APP Erstellung - kopieren von Zeilen (Brezniak)
Abbildung 26: APP Erstellung - Endprodukt (Brezniak)
Nachdem jetzt die grafische Oberfläche soweit erstellt ist, geht es an die Umsetzung des Programmiercodes für die eigentlichen Funktionen der App, das Rechnen.
In diesem Fall wurde eine Funktion mit drei Hauptteilen erstellt:
• if (btn == 'C') prüft, ob der Löschbutton gedrückt wurde. Ist dies der Fall, wird das Ergebnistextfeld gelöscht.
• else if (btn == '=') prüft, ob die ENTER-Taste gedrückt wurde. Wenn dies der Fall ist, wird das Ergebnis der Rechenfunktion unter Verwendung einer im Framework vorhandenen Funktion eval() in das Ergebnistextfeld geschrieben.
• Das else zum Schluss ist der Teil der Funktion, wenn die zuvor definierten Abfrageteile nicht zutreffen. In diesem Fall wird der Text (z. B. die Zahl bzw. der Rechenoperand) des gedrückten Buttons im Textfeld angefügt.
Abbildung 27: APP Erstellung – APP-Funktion für die Rechenaufgaben (Brezniak)
Es muss natürlich noch die gerade gezeigte Click-Funktion bei den jeweiligen Buttons als Aktion hinterlegt werden. Dies geschieht, indem man zum jeweiligen Button (click)=“btnClicked('C')“ hinzufügt.
Abbildung 28: APP Erstellung - Aufruf der APP-Funktion (Brezniak)
Nach etwas Übung sollte die Erstellung dieser APP für die verschiedenen Betriebssysteme iOS und Android mit IONIC ca. 30 Minuten in Anspruch nehmen. Würde man im Vergleich dazu eine native APP mit den jeweiligen Entwicklungswerkzeugen erstellen, so kann man zumindest das Doppelte an Zeit veranschlagen, weil die Anwendung im Prinzip zweimal von Neuem erstellt werden muss. Daraus lassen sich schon sehr deutlich Zeit und Kostenersparnis für das Unternehmen ableiten.
9 Ausblick
Das Thema der Digitalisierung in Unternehmen ist eine Herausforderung, der sich Unternehmen in allen Bereichen stellen müssen, denn der Wandel wird auch vor dem traditionellen Handwerk nicht haltmachen. Der Grund für die Veränderung sind die Erwartungen des Kunden an die Anbieter von Dienstleistungen und Produkten. Die junge Generation kennt es nicht anders und die Älteren erkennen die Vorteile des Einsatzes von digitalen Inhalten.
Grundsätzlich kann man davon ausgehen, dass folgende Ebenen von der Digitalisierung betroffen sein werden:
1. Benutzer- und Kundenverhalten
Durch den ständigen Kontakt der Menschen mit den angebotenen Dienstleistungen und Produkten können diese Personen jederzeit ein kaufrelevantes Verhalten zeigen. Um dieses Verhalten des Kunden zu nutzen, müssen seitens des Anbieters die richtigen verhaltenswirksamen Signale gesetzt werden, um die Kaufmotivation aufrecht zu erhalten. Denn gerade in der neuen, jetzt schon digitalisierten Welt ist es ein Leichtes, den Kunden an einen anderen Anbieter zu verlieren.
Um den Kunden nicht zu verlieren, sollten Unternehmen Zeit und Geld in die Aufwertung bzw. Verbesserung der digitalen Kontaktpunkte zwischen Unternehmen und Kunden investieren.
2. Unternehmensinterne Prozesse und Schnittstellen
Die Umsetzung des digitalen Wandels in Unternehmen fällt oft schwerer als im privaten Bereich. Ein Grund hierfür könnte die Schwerfälligkeit von Unternehmen beim Wandel sein, auch wenn die oft antiquierten Arbeitsprozesse für die Mitarbeiter demotivierend und hinderlich sind.
Würde man gerade bei internen Abläufen mehr auf Digitalisierung setzten, könnte man zum einen die Motivation der Mitarbeiter fördern und zum anderen die Effizienz und dadurch die internen Kosten senken, was wiederum einen Wettbewerbsvorteil zur Folge hat.
3. Einführung digitaler Produkte
Die zunehmende Digitalisierung der Gesellschaft wird auch in absehbarer Zukunft kein Ende nehmen. Im Gegenteil, die Zyklen, in denen sich Innovationen bis zur Marktreife ausbilden, werden immer kürzer. Aus diesem Grund ist es notwendig, dass Unternehmen ihre Geschäftsmodelle und Produkte in immer kürzeren Zeiträumen an die Markgegebenheiten anpassen.
Dabei ist aber der blinde Sprung in den eCommerce nicht immer ratsam, weil der Aufwand in diesem Bereich oft massiv unterschätzt wird. Man sollte sich gerade in diesem Bereich einen Überblick über alle Möglichkeiten verschaffen, denn unter Umständen ist die Anwendung einer alternativen digitalen Struktur passender für die vorhandene Unternehmensstruktur.
4. Digitale Schulung von Mitarbeitern und Führungskräften
Um Vorurteile, wie „Das funktioniert mit unseren Kunden nicht“ oder „Unsere Art zu arbeiten ist eine andere“, abzuschaffen, bedarf es einer entsprechenden Schulung der Mitarbeiter. Denn nur das Wissen und das Verständnis digitaler Transformation bringen die Mitarbeiter und Führungskräfte dazu, die Möglichkeiten digitaler Produkte und Strategien zu erkennen.
Zusammenfassend kann man daher die eingangs in Abschnitt 4.1 gestellte Frage, ob Digitalisierung in Unternehmen nur ein vorübergehendes Phänomen ist, wie folgt beantworten: Die Digitalisierung in Unternehmen wird langsam, aber sicher kommen bzw. wird diese kommen müssen, um am Markt weiterhin erfolgreich zu sein. Dies ist unabhängig von Unternehmen, Branche und Größe der jeweiligen Unternehmen. Dabei gibt es kein Patentrezept für einen erfolgreichen Wandel; es kommt vielmehr auf Flexibilität und die offene Herangehensweise der Führungskräfte sowie auf die absehbaren und laufenden Änderungen bzw. Möglichkeiten an.
10 Übungsaufgaben
Aufgabe 1: Erläutern Sie, wie sich das Teilgebiet des Informationsmanagements in die Wirtschaftsinformatik integriert.
Aufgabe 2: Um Kosten im Unternehmen zu sparen, ist eine Virtualisierung von Applikationen im Gespräch. Was spricht für diese Art der Virtualisierung und was dagegen?
Aufgabe 3: Eine vorhandene Softwarelösung soll um den Punkt Datenanalyse erweitert werden. Durch Verwendung welcher Technik können hier Kosten gespart werden?
Aufgabe 4: Im Unternehmen plant man den Einsatz einer ERP-Software auf der vorhandenen Hardware. Argumentieren Sie für den Einsatz in einer Cloud-Umgebung. Berücksichtigen Sie dabei Punkte, wie Sicherheit, Compliance, Datenschutz und Einbindung interner Hardware.
Aufgabe 5: Beschreiben Sie die Aufgabe von Cloud-Management.
Aufgabe 6: Welche Vorteile bzw. Nachteile bringt der Einsatz von Standardsoftware?
Aufgabe 7: Inwieweit kann Scrum bei der Einführung einer Standardsoftware im Unternehmen unterstützen? Erläutern Sie, wann der Einsatz von Standardsoftware im Unternehmen Sinn macht.
Aufgabe 8: Erläutern Sie den Unterschied zwischen Extreme Programming und Scrum.
Aufgabe 9: Skizzieren Sie den Ablauf eines Designprozesses im „Design Thinking“- Ansatz.
Aufgabe 10: Differenzieren Sie den Unterschied von Wireframes und Mock-Ups und erklären Sie, wann diese zum Einsatz kommen.
Aufgabe 11: Welches Ziel verfolgen die unterschiedlichen Entwicklungsframeworks? Erläutern Sie den Unterschied zwischen White- und Blackbox-Framework.
Aufgabe 12: Erarbeiten Sie den Unterschied zwischen einem Application
Framework und dem Domain Driven Design.
11 Lösungshinweise
Zu Aufgabe 1:
Der Umgang mit Daten spielt schon in der Wirtschaftsinformatik eine wesentliche Rolle. Das wird auch in der Definition „Wirtschaftsinformatik ist die Wissenschaft von Entwurf, Entwicklung und Einsatz computergestützter, betriebswirtschaftlicher Informationssysteme.“ deutlich. Aus dieser Definition lässt sich ableiten, dass es in der Wirtschaftsinformatik um das Sammeln, Aufbereiten und Darstellen von Daten geht. Und genau hier vertieft das Informationsmanagement die Sichtweise auf die Daten. Beim IM versucht man, aus den gewonnenen Daten Schlussfolgerungen zu ziehen und diese für die verschiedenen Abteilungen aufzubereiten.
Zu Aufgabe 2:
Ziel der Applikationsvirtualisierung ist es, die Anwendungen vom darunterliegenden Betriebssystem zu entkoppeln. Dies wird durch eine eigene Abstraktionsschicht erreicht. Die Applikationen werden dann mit den notwendigen Softwareteilen (Bibliotheken, Libraries etc.) in Container zusammengefasst. Dadurch ergibt sich der Vorteil, dass die Anwendung ohne großen Aufwand zwischen verschiedenen Servern verschoben werden kann. Es ist aber auch die Zuteilung von Ressourcen ohne großen Aufwand möglich. Dies führt zu einer Kostenersparnis, weil man die Hardware dynamisch an die Anforderungen anpassen kann.
Zu beachten ist, dass die Umstellung einer vorhandenen OnPremise-Lösung gegebenenfalls nicht möglich ist bzw. eine Individuallösung einen zusätzlichen Kosten- und Zeitaufwand mit sich bringt. Es muss auch sichergestellt werden, dass das nötige Know-how für eine Umstellung bzw. für den späteren Betrieb im Unternehmen vorhanden ist.
Zu Aufgabe 3:
Um eine bestehende Lösung so kosteneffizient wie möglich um den Punkt der Datenanalyse, die unter Umständen viel Rechenzeit benötigt, zu erweitern, kann man auf Webservices zurückgreifen. Diese bieten über standardisierte Schnittstellen Zugriff auf vorhandene Lösungen.
Zu Aufgabe 4:
ERP-Lösungen können für Unternehmen nicht nur wichtig, sondern auch lebensnotwendig sein. Und genau hier bietet eine Cloudlösung Vorteile. Einerseits kann man das Ausfallsrisiko über entsprechende Serviceverträge komplett auslagern und andererseits können Kosten gespart werden, weil man bei der Hardware nicht schon in die Zukunft denken/investieren muss. Die notwendigen Ressourcen, wie Rechenzeit, Speicher, RAM usw., können an die aktuellen Anforderungen angepasst werden. Der Punkt der Datensicherheit ist zwar immer wieder ein Thema, aber mit der Auswahl des richtigen Anbieters kann dieses Argument einfach entkräftet werden. Sollte es notwendig sein, interne Hardware einzubinden, so ist das bei den meisten Softwareanbietern kein Problem, weil hier Schnittstellen zur Verfügung gestellt werden. Es besteht auch die Möglichkeit eines hybriden Ansatzes, bei dem Teile im Unternehmen auf eigenen Servern laufen, die Hauptanwendung jedoch in der Cloud.
Zu Aufgabe 5:
Das Cloud-Management kümmert sich um die Kombination von internen und externen Clouddiensten. Wichtig in diesem Zusammenhang ist aber, dass das verwendete Tool folgende Features bietet:
• Zugriffs- und Autorisierungsschutz,
• Ressourcenmanagement der gesamten hybriden Cloud-Infrastruktur,
• Finanzmanagement in Verbindung mit den gemieteten Cloud-Services,
• Integrationsmöglichkeiten von relevanten Cloud-Umgebungen sowie auch internen Services,
• Service-Kataloge, um die Eigenverwaltung der Systeme bestens zu automatisieren.
Weitere Features, welche die Integration der Services oder auch die Abrechnung unterstützen, sind Zusatzfunktionen, die unter Umständen die Entscheidung für oder gegen eine Software beeinflussen.
Zu Aufgabe 6:
Unter einer Standardsoftware versteht man eine Anwendung, welche für den Massenmarkt erstellt wurde. Der dabei enthaltene Funktionsumfang ist daher auf den kleinsten gemeinsamen Nenner aller Zielgruppen reduziert.
Der Einsatz einer Standardsoftware hat folgende Vorteile:
• Laufende Weiterentwicklung,
• bequemer Kauf,
• ein umfassender Support ist vorhanden,
• sehr hohe Qualität,
• bessere Dokumentation,
• ausgereifte Benutzeroberfläche,
• schnelle Einführung und dadurch ein Kostenvorteil.
Auch wenn in der Regel die Vorteile überwiegen, gibt es auch Nachteile, wie beispielsweise:
• Die vorhandene Hardware passt nicht zu den Anforderungen,
• interne Abläufe passen nicht zu den in der Software abgebildeten,
• eventuell hohe Kosten bei der Anpassung.
Zu Aufgabe 7:
Scrum folgt einem schrittweisen Prozessansatz, bei dem Anwendungen in einem sich rasch ändernden Umfeld entwickelt bzw. angepasst werden. Dabei folgt man einem 30-tägigen, sich ständig wiederholenden Entwicklungszyklus. Die Grundlage für einen solchen Zyklus bilden die sogenannten „Sprints“. In einem Sprint sind die Anforderungen für den Zyklus definiert.
Dieser Ansatz kann bei der Einführung einer Standardsoftware insofern unterstützen, weil das Feedback der zukünftigen Anwender regelmäßig im Implementierungsprozess mitberücksichtigt wird. Dies führt in weiterer Folge auch zu einer besseren Kundenakzeptanz, weil der Kunde/Mitarbeiter das Gefühl bekommt, am Implementierungsprozess aktiv mitgewirkt zu haben.
Zu Aufgabe 8:
Da beide Ansätze als Basis das agile Projektmanagement haben, sind sie in ihren Grundprinzipien ähnlich. Beide gehen von relativ kurzen Entwicklungsphasen aus, die sich wiederholen, um auf Feedback und den Markt schnell reagieren zu können.
Beim Extreme Programming wird die eigentliche Programmiertätigkeit wieder in den Vordergrund gestellt. Die Arbeit erfolgt dabei aber nicht allein, sondern im Pair Programming. Hier wechseln sich idealerweise Aufgaben, Planung und Programmierung im Team ab. Die Grundlage für jeden Entwicklungszyklus bilden die sogenannten „User Stories“. Das sind im Grunde kurze Geschichten, die das gewünschte Feature beschreiben. Diese User Stories werden nur vom Kunden erstellt und deren Reihenfolge im Projekt sollte keine Rolle in der Entwicklung spielen.
Beim Extreme Programming sieht der Basisablauf wie folgt aus: Standup Meeting, Collective Code Ownership, New Functionality bzw. Bug Fixes. Scrum ist im Grunde nichts anderes als ein schrittweiser Prozess, um Software in einem unvorhersehbaren Umfeld zu erstellen. Scrum baut auf Sprints auf. Das sind 30-tägige, sich ständig wiederholende Prozesse. Die Basis für Sprints bildet der sogenannte Product Backlog. Dieser beinhaltet Features, die nach Dringlichkeit geordnet sind. Features können vom Scrum Master, Product Owner, aber auch von Teammitgliedern in den Product Backlog aufgenommen werden.
Der Scrum-Ablauf kurz zusammengefasst ist: Product Backlog, Sprint Backlog, Sprint, Product Increment.
Zu Aufgabe 9:
Der Designprozess im „Design Thinking“ folgt sechs Schritten:
1. Verstehen: Das Problem soll erfasst werden.
2. Beobachten: Kundenanforderungen erarbeiten.
3. Synthese: Strukturierung der unter Schritt 2 generierten Anforderungen.
4. Ideen: Das Team erstellt eine Liste von Anforderungen für das Produkt.
5. Prototypen: Idee durch Wireframe und Mock-Ups zum Leben erwecken.
6. Testen: Kundenfeedback einholen.
Zu Aufgabe 10:
Wireframes und Mock-Ups kommen beim sogenannten Design Thinking-Ansatz zum Einsatz. Die Grundlage dieses Ansatzes ist, dass gute Ideen kein Zufall sind, sondern durch die Zusammenarbeit von unterschiedlichsten Teams entstehen.
Wireframes unterstützen dabei die Designabteilung bei der grundlegenden Konzeption der Software. Es handelt sich hierbei um eine vereinfachte 2D-Darstellung der Oberfläche. Es wird hier bewusst auf Details, wie Schriftarten, Farben oder Bilder, verzichtet, um nicht von der eigentlichen Struktur der Oberfläche abzulenken.
Mock-Ups sind eine Weiterführung von Wireframes. Hier wird die Struktur von Informationen und deren Inhalt visualisiert. Die vorhandenen Wireframes werden also durch die zuvor ausgesparten Designelemente der Schriften, Farben und Bilder erweitert.
Zu Aufgabe 11:
Das Hauptziel von Frameworks ist es, Grundbausteine für die Entwicklung zur Verfügung zu stellen. Es geht, vereinfacht gesagt, darum, das Rad nicht ständig neu zu erfinden. Dadurch wird die Entwicklung von Software maßgeblich vereinfacht und die Qualität verbessert.
White-Box Frameworks geben dem Entwickler die Möglichkeit, vorhandene Programmteile zu überschreiben bzw. anzupassen.
Black-Box-Frameworks bieten spezielle Klassen (kleine Programmteile), die verwendet werden können, ohne dass man deren genauen Aufbau verstanden hat.
Zu Aufgabe 12:
Application-Frameworks bieten eine Möglichkeit, durch „halb-vollständige“ Programmteile die Entwicklung von Software vorteilhaft zu beeinflussen. Diese Vorteile können eine geringere Entwicklungszeit oder auch eine bessere Qualität sein. Darüber hinaus sind Punkte wie Modularität, Wiederverwendbarkeit, Erweiterbarkeit und Kontrolle wichtig.
Beim Domain Driven Design geht es grundlegend darum, die Komplexität des Unternehmens richtig abzubilden. Denn dies ist oftmals ein weitaus größerer Stolperstein bei der Entwicklung moderner Software, als die rein technischen Herausforderungen.
Digital Technology Management – Neue Technologien
INFORMATIONSETHIK
1 Einleitung
Die Digitale Transformation konzentriert sich auf zwei zentrale Fragestellungen, die bereits in der Wortfolge angedeutet werden. ‚Digital‘ bezeichnet in diesem Zusammenhang die fortschreitende Technologisierung vermehrter Lebensräume. Als einfaches Schlagwort bezeichnet ‚Digitalität‘ die Technologisierung realer Lebenswelten und Alltagserfahrungen. Der Begriff erfasst eine Entwicklung, die sich selbstverständlich nicht auf kommerzielles oder unternehmerisches Handeln beschränkt. Stattdessen verändern sich als Folgewirkung der Digitalität die allgemeinen und umfassenden Lebensverhältnisse radikal und rasant.
Was zur zweiten Dimension führt, die in der Bezeichnung ‚Digitale Transformation‘ zum Ausdruck kommt. Der Ursprung des Worts Transformation findet sich im Lateinischen. Im Wort Transformation findet sich die Idee von Formation mitbezeichnet. Formation bedeutet in der lateinischen Wortwurzel sinngemäß etwas zu bilden, zu gestalten, zu formen. Transformation meint dann die Umwandlung des davor Bestehenden, die Verwandlung, die Veränderung des bereits Geformten. Jede Transformation symbolisiert konsequenterweise den Wandel des Seienden. Transformation meint im Wortsinn also nicht die Schaffung von Neuem, sondern die Veränderung von Vorhandenen. Digitale Transformation führt immer diese beiden Dimensionen und Bedeutungsstränge zusammen, die sich wirkungsvoll verknüpfen. Digitalität verantwortet Veränderung und zeitgemäßer Wandel denkt sich immer digital. Die wahrnehmbaren Folgen dieser Verbindung gehen nun über den Bedeutungsrahmen hinaus, der für strategische Organisationsentscheidungen allein relevant erschienen. Oder anspruchsvoller gedacht: Nur wer die gesellschaftlichen Konsequenzen der Digitalisierung konzeptionell zu begreifen sucht, kann die Herausforderungen für die eigene Organisation angemessen erkennen.
Drei Begriffsdefinitionen lassen sich unterscheiden:
Digitalisierung meint schlicht den Vorgang, Informationen in Bits und Bytes abzulegen, damit sie von Computern gelesen werden. Digitalität meint die Technologisierung unserer Lebenswelt. Digitale Transformation bezeichnet die unternehmerischen, organisatorischen und gesellschaftlichen Folgewirkungen, die durch diese breitenwirksamen Phänomene veranlasst werden.
Die tiefgreifenden Umbrüche, die einer verunsicherten Gesellschaft gegenwärtig Gestalt geben, verlangen nach vernünftiger Reflexion. Sie bedingen seitens engagierter BürgerInnen ein Verantwortungsbewusstsein und Interesse an der Materie, die über den nur scheinbar begrenzten Bezugspunkt des eigenen Tätigkeitsbereichs hinausreichen. Wesen und Ausmaß der digitalen Transformation begründen neue Seins- und Wesensformen der Gesellschaft an sich. Die Veränderung aktiv zu gestalten, ihre Wirkweise verständnisvoll zu erfassen, um Chancen und Risiken zu ermessen, das bildet den essenziellen Auftrag an jene Personen, die tätig an der Zukunft wirken.
Es leitet ein grundsätzliches Verständnis: Fortschritt bündelt sich nicht in einem Gesamtpaket. Technologischer Fortschritt, der sich so umfassend abzeichnet, übersetzt sich weder zwangsweise noch notwendigerweise in politischen oder gesellschaftlichen Fortschritt. Vielmehr bedarf es einer gewissen Art von Übersetzungsleistung und eines unabhängigen Engagements in allen Bereichen, damit technologischer Progress zur gesellschaftlichen Weiterentwicklung führt. Die Philosophie des aufgeklärten Konservatismus basiert auf der Überzeugung, dass nicht jede Veränderung an sich immer Fortschritt bedeuten muss. Progressives Denken hingegen sieht in der Zukunft immer ein Versprechen, dass sowohl Gegenwart als auch Vergangenheit überflügeln wird – allein schon weil die Zukunft jener zeitliche Horizont ist, der das Resultat eigenen Engagements ausmacht. Beide Positionen, die aus der Einsicht in historische Verläufe und Erfahrungen geboren wurden, können dem Nachdenken über die gesellschaftlichen Umbrüche im Rahmen der digitalen Transformation Orientierung liefern. Denn es gilt von den Chancen mutig Gebrauch zu machen, ohne auf naive Weise die vorhandenen Risiken zu ignorieren, zu übertünchen oder zu vernachlässigen. Vor allem darf das Bewusstsein und die Überzeugung leiten, dass die digitale Transformation vielversprechende Potenziale für eine bessere Zukunft in sich trägt, wenn ihre vorhandenen Schattenseiten aufrichtig erkannt werden – und Personen mit aufgeklärtem Geist und abgeklärtem Verantwortungsbewusstsein sich sinnvoll dafür einsetzen, dass greifbare Verbesserung realisiert wird. Dieses Skript beabsichtigt diesbezüglich keine abschließenden oder ganzheitlichen Antworten zu liefern. Es möchte vielmehr und stattdessen Denkanstöße aufzeigen, welche Herausforderungen sich aus ethischer Perspektive nachweislich aufdrängen und wie diese im Geiste humanen Denkens angegangen werden können. Im Zuge einer Lehrveranstaltung, die Inhalte wie diese zu vermitteln beabsichtigt, lässt sich keine Trennschärfe zwischen wissenschaftlicher Objektivität und persönlicher Präferenz ziehen. Allein die Auswahl der Themen aus einer Fülle von Themenvarianten spiegelt individuelle Gewichtungen selbst dann ab, wenn die allgemeine Relevanz den eigentlichen Maßstab bilden soll. Die Deskription solcher Sachverhalte vermittelt immer eine normative Position mit – die Beschreibung von brisanten Sachlagen transportiert eine immanente Werthaltung. Die wissenschaftliche Belastbarkeit der Argumente wird durch Datenmaterial garantiert. Quellen werden dabei nachvollziehbar offengelegt, wie es der Standard wissenschaftlicher Verfahren verlangt. Die Schlussfolgerungen, die gezogen werden, müssen jedoch nicht unbedingt geteilt werden. Eine wichtige Unterscheidung: Über statistisches Material kann es keinen Zweifel geben, es beschreibt die Quantifizierung von objektivierbaren Sachverhalten. Die Rückschlüsse hingegen, die auf dieser Grundlage getroffen werden, versuchen sich im logischen Denken und müssen jedoch nicht zwangsweise gutgeheißen werden. Es gilt sinngemäß die Wahrheit, die der US-Senator Daniel Patrick Moynihan einst ausgesprochen hat: „Jeder ist berechtigt, seine eigene Meinung zu haben. Keiner ist berechtigt seine eigenen Fakten zu erfinden.“ Erkenntnis wächst durch Widerspruch und Diskussion. Fakten bilden dafür die unerlässliche Grundlage, sofern der Diskurs den Mindestanspruch aufgeklärter Vernunft verfolgt. Eine Anregung für einen faktensatten und zivilen Diskurs über gesellschaftliche Zukunftsthemen soll diese Lehrveranstaltung liefern, darin besteht ihr Zweck.
1.1 Rekapitulation: Der Begriff Ethik
Die Lehrveranstaltung Informationsethik baut als besondere Voraussetzung auf den inhaltlichen Grundlagen auf, die bereits in der Lehrveranstaltung Compliance vermittelt wurden. Dort wurden einführend die Grundlagen erklärt, was als Ethik faktisch zu verstehen sei. An dieser Stelle kann deshalb eine prägnante Rekapitulation genügen, um zu erinnern, was Ethik eigentlich meint. Eine historische Perspektive kann helfen: Den ersten Versuch, ein konzises Verständnis von Ethik zu systematisieren, unternimmt der griechische Philosoph Aristoteles. Seine wichtigste Studie zum Thema markiert das Werk Nikomachische Ethik. Aristoteles widmet den bedeutsamen Text seinem Sohn Nikomachos - daher der ungewöhnliche Name. Die Darstellung lässt sich als Handreichung des Vaters an den Sohn betrachten, wie gut zu wirken sei.
Was erachtet Aristoteles als richtiges Tun? Seiner Meinung nach findet es sich immer dort, wo Tugend anzutreffen sei. Tugend repräsentiert, so seine Analyse, immer den Ausgleich zweier Laster. Sie steht mittig zwischen Übermaß und Mangel. Tugend findet sich beispielsweise zwischen den Extremen Verschwendung und Geiz. Sie sitzt dort, wo wir auf Freigiebigkeit treffen. Sie bildet das Zentrum zwischen Schmeichelei und Streitsucht, wird dort entdeckt, wo Freundlichkeit herrscht. Ethisches Handeln besteht nach Auffassung von Aristoteles im Ausgleich zweier Gegenpole, in der Mäßigung, in der Unterlassung des absolut Machbaren. Die Erkenntnis zeigt bereits ein Prinzip, das für die nachfolgenden Diskussionsgegenstände relevant erscheint. Um den Gesichtspunkt umzumünzen: Nicht alles was (technologisch) machbar wäre, sollte getan werden. Ein ähnlicher Ansatz regelt vergleichsweise den Umgang unserer Zivilisation mit Atomwaffen. Die internationale Gemeinschaft würde über die Handlungsoption der atomaren Apokalypse verfügen, ohne bisher von ihr Gebrauch zu machen. Eine klare, vernünftige, freiwillige, ethische Selbstbeschränkung unserer technologischen Möglichkeiten wird hier abgesichert durch internationale Verträge und eine transnationale Institution. Um ethisch zu handeln, verlangt es nach den Grundsätzen von Aristoteles, also Vernunft und Erkenntnis. Nur durch reflektiertes Begreifen lässt sich das eigene Verhalten gestalten und zur balancierenden Mitte hin orientieren. Bei all dem lässt Aristoteles über eine Einschätzung keinen Zweifel: Ethik bildet seiner Meinung nach den einzigen Weg, ein guter Mensch zu werden, um ein glückliches Leben zu führen. Seit der griechischen Antike gilt nun auch das Verständnis, dass Ethik eine bewusste Entscheidung voraussetzt und sich von unethischen Handlungen abgrenzen lässt. Das Mittelalter befördert anschließend ein anderes Konzept im Verständnis der Ethik. Es gilt in dieser Epoche, das Leben auf die Gefälligkeit Gottes hin auszurichten. Ethisch handelt, wer durch sich selbst die Werke Gottes vollbringt. Ethisch agiert, wer sich selbst zum Werkzeug eines göttlichen Prinzips macht, als Instrument einer höheren Instanz arbeitet, finale Rechenschaft ablegen wird. Auch dieser Zugang zur Ethik basiert auf der Überzeugung, dass der Mensch eigene Entscheidungen trifft, doch agiert er nicht im Namen seiner selbst, sondern hinsichtlich göttlicher Wirkung. Von dieser Ausgangsposition kommt schließlich die Aufklärung ab. Sie erkennt im Menschen ein autonomes Wesen, das über ein wahrnehmbares Bewusstsein für einen sittlichen Kodex verfügt. Das Motiv, ethisch zu handeln, existiert, weil der Mensch mit Würde ausgestattet ist, weil wir Rechte und Pflichten haben, die uns zu richtigem Verhalten anleiten, weil wir auf Grundlage von Freiheit entscheiden. Wir agieren ethisch, weil auf diese Weise der eigenen und der universellen Würde des/der Anderen entsprochen wird.
Der deutsche Philosoph Immanuel Kant hat uns genau diesen Zusammenhang bewusst gemacht. Er hat als Erster entdeckt und begriffen, dass wir ethisch handeln sollen, um der universellen Würde des Menschen zu entsprechen. Wenn wir ethisch handeln, dann geschieht dies aus freien Stücken, weil wir mit Vernunft ausgestattet sind, die uns richtiges Verhalten erkennen lässt. Zusammenfassend: Wir können ethisch handeln, weil uns Vernunft leitet, und wir sollten ethisch handeln, um der Würde des Menschen zu entsprechen. Beides lässt sich begreifen, weil wir als Menschen über die Fähigkeit der Erkenntnis verfügen. Die Frage, die sich nun aufdrängt, lautet, wie sich ethisches Handeln ergründen lässt. Was gibt den entscheidenden Hinweis darauf? Für Immanuel Kant lässt sich der moralische Wert einer Handlung ermessen, wenn die Intention bewertet wird, die eine Handlung veranlasst. Immanuel Kant schreibt in seiner Abhandlung Metapyhsik der Sitten: „Der gute Wille ist nicht durch das, was er bewirkt, oder ausrichtet [...] sondern allein durch das Wollen [...] an sich gut [...].“1 Ethisch verhalten sich Menschen dann, wenn die Motive, die eine Handlung veranlassen, lauter wären. Nur die Intentionen, die anstoßen, geben Aufschluss über den moralischen Wert von Taten. Da Entscheidungen in Handlungsmotiven gründen, müssen diese Handlungsmotive allgemeinen Wertvorstellungen entsprechen, um ethisch zu sein. Nur wenn universellen Prinzipen genügt wird, wird richtigen Veranlassungen gefolgt. Immanuel Kant geht in seinem Argument so weit, dass er keine Ausnahme von der Regel akzeptiert. Sein Rigorismus wird von Kritikern durch ein exemplarisches Beispiel herausgefordert: Angenommen ein Freund verstecke sich im eigenen Haus, weil er vor einem Mörder flieht. Der Mörder klopft an die Tür und fragt, ob man wisse, wo sich der Freund aufhalte. In diesem Fall wäre es doch zwei fellos eine ethische Handlung, den Mörder zu belügen und von der Vorgabe, die Unwahrheit zu verpönen, abzuweichen. Immanuel Kant verneint. Er behauptet, es brauche moralische Bedingungslosigkeit. Kein Ausnahmefall kann es erlauben, von grundsätzlichen Devisen abzuweichen. Wird nur in einem einzigen Fall die Lüge als legitim erachtet, dann verabschieden wir uns von unumstößlichen Standpunkten und wissen in Folge nicht mehr, wann gelogen und wann die Wahrheit gesagt wird. Da die Essenz der Ethik im Grundmotiv des Vorgehens zu eruieren sei, wirken keine Abweichungen von diesem Prinzip zulässig oder begründbar. Nachvollziehbar, dass sich in der philosophischen Auseinandersetzung abweichende Haltungen von der Position Immanuel Kants finden. Einen massiven Widerspruch formuliert der Konsequentialismus. Die Idee besagt: Der moralische Wert einer Handlung bemisst sich nicht nach der Intention, sondern der Konsequenz einer Tat. Die Wirkung und nicht der Ausgangspunkt müssen Entscheidungskriterium sein, um zu ermessen, ob ethisch gehandelt wird. Ethik wird durch ein Duopol bestimmt. Intentionalismus steht der Überzeugung des Konsequentialismus entgegen, wie im Skript zur Lehrveranstaltung Compliance ausführlicher dokumentiert ist. Fassen wir den Unterschied der Ansätze anhand von zwei illustrativen Beispielen zusammen:
Angenommen wir wären ChirurgInnen in der Notaufnahme eines Krankenhauses und es kommt zu einem tragischen Autounfall. Fünf schwer verletzte Personen werden ins Spital gebracht. Eine Person erleidet extrem tragische Verletzungen, sie zu operieren würde den ganzen Tag in Anspruch nehmen und die anderen vier Personen würden, während wir operieren, mit Sicherheit ihr Leben verlieren. Oder aber wir operieren die anderen vier Personen und akzeptieren, dass wir damit die eine Person sterben lassen. Wie würde man entscheiden?
Nun verändern sich die Bedingungen. Jemand arbeitet als Transplantationschirurgin, ein kerngesunder Patient kommt im Nachbarzimmer zum regelmäßigen Check-up und schläft dort auf der Bank für ein kurzes Nickerchen ein. Die Transplantationschirurgin sorgt sich in diesem Moment um vier Verletze des Autounfalls, die dringend eine Organspende brauchen, weil ihr Zustand äußerst kritisch ist und sich zusehends verschlechtert. Nun ließe sich, da sich eine Person im Tiefschlaf befindet, Nutzen daraus ziehen. Der Person ließe sich Herz, Lunge, Leber, Niere entwenden, um sie den anderen PatientInnen zu implantieren. Der Tod einer Person wird in Kauf genommen, um das Leben von den anderen vier zu retten. Nehmen Sie sich einen Augenblick Zeit, die eigene Position zu ordnen. Wie würden Sie entscheiden, wenn Sie ihren eigenen ethischen Überzeugungen folgen wollen?
Wie entscheiden sich andere im Vergleich, wenn sie ihren ethischen Überzeugungen folgen? Erfahrungen zeigen ein eindeutiges, aber kein einstimmiges Bild.
Im ersten Fall tendiert eine Mehrheit befragter Personen dazu, die vier verletzten Personen zu operieren und zu akzeptieren, dass die tragisch schwerverletzte Person sterben würde.
Im zweiten Beispiel hingegen nimmt die Mehrheit der Personen davon Abstand, dem kerngesunden Menschen die Organe zu entwenden, um das Leben der anderen vier zu retten. Wie lässt sich im analytischen Rahmen dieser Unterschied reflektieren? Im ersten Beispiel stehen die tatsächlichen Konsequenzen der Entscheidung im Vordergrund. Das eigene Handeln wird durch die Rettung der vier begründet.
Im zweiten Fall leiten andere moralische Prinzipien, die kategorisch gelten und als Begründung vorab Entscheidungen anstoßen. Man müsste bereit sein, den Tod eines anderen Menschen willentlich herbeizuführen, um vier andere zu retten. Vor der Handlung wird zurückgeschreckt, weil sie einen Entschluss voraussetzt, der als unethisch betrachten wird.
Im dem einen Fall motiviert die Konsequenz, in der anderen Situation führt die anfängliche Intention. Intentionalismus und Konsequentialismus bilden also keine unumstößlichen Direktiven, sondern sie begründen Verhalten situationsabhängig und haben beide ihre Berechtigung. Wo treffen ähnliche Zusammenhänge abseits der theoretischen Überlegung auf?
Das deutsche Innenministerium hat vor einigen Jahren einen Gesetzesentwurf vorbereitet, der vorsieht, dass entführte Passagiermaschinen abgeschossen werden dürfen, wenn davon auszugehen ist, dass ein Flugzeug als terroristische Waffe gegen von Menschen frequentierte Einrichtungen gesteuert wird. Der Bundestag hat das Gesetz verabschiedet, das Bundesverfassungsgericht es jedoch für nichtig erklärt. Aufgrund der Würde des Menschen, die als Grundprinzip im deutschen Grundgesetz verankert ist, kann nicht Menschenleben mit Menschenleben aufgerechnet werden. Das Bundesinnenministerium reflektierte also auf einer konsequentialistischen Basis, indem es mathematisch kalkuliert. Es muss der Tod von Menschen herbeigeführt werden, um andere Menschen zu retten. Das Bundesverfassungsgericht hält eine intentionalistische dagegen, indem es argumentiert, Menschenleben lässt sich nicht gegen Menschenleben subtrahieren. So funktioniert unser Verständnis von Würde nicht. Die Idee von menschlicher Würde wäre laut Grundgesetz kein mathematisches Modell, sondern Würde wäre immer unteilbar und ihre Bewahrung muss oberstes Prinzip staatlichen Handelns sein.
Das Massachusetts Institute of Technology führt aktuell eine großangelegte Studie online durch, an der sich jede/r ohne Vorbedingung beteiligen kann. Die Untersuchung möchte querschnittsartig herausfinden, was beispielsweise von selbstfahrenden Autos erwartet wird, wenn es zu brenzligen Situationen kommt. Wie soll ethisch entschieden werden? Das ganze Model baut auf einem konsequentialistischen Fundament auf. Das Experiment verhandelt ähnliche Fragen, wie die oben gestellte. Gerade bei der Fragestellung hinsichtlich des gewünschten Verhaltens von autonomen Vehikeln zeigt sich die Komplexität der Fragestellung, wie mit autonomisierten Entscheidungen umzugehen wäre. Um ein Beispiel direkt aus dem Fragebogen zu entwenden, der vom Massachusetts Institute of Technology konzipiert wurde, sei folgende Situation dargestellt: Ein selbstfahrendes Auto kann einen Zusammenprall mit tödlichem Ausgang nicht abwenden. Es stehen nun zwei Optionen offen. Entweder rammt das Auto einen Block, der mitten auf der Straße steht und die Insassin verliert das Leben, oder das Auto wechselt intentional die Fahrspur, um dem Block auszuweichen, überfährt jedoch einen Fußgänger, der die Straße auf dem Zebrastreifen überquert.
Abbildung 1: Beispiel des Moral Machine Fragebogens
Die Situation impliziert faktisch mehrere zentrale Herausforderungen. Neben der vordringlichen Entscheidung, ob die Fahrspur gewechselt werden soll oder nicht, stellt sich auch die Frage, wer dies festlegen darf. Sollen Gesellschaften in Form eines gesetzlichen Regelwerks beschließen, wie ein autonomes Fahrzeug in diesem Fall zu reagieren hat? Braucht es also gesetzliche Bestimmungen? Wenn ja, dann müssen konsequenterweise nationale Parlamente darüber befinden und verbindliche Entscheidungen treffen. Das könnte bedeuten, dass bei einer knapp vierstündigen Fahrt von Wilna nach Riga auf litauischem Gebiet andere Regelwerke gelten könnten als in Lettland. Also braucht es eher internationale Standards. Oder wird es den Autoherstellern selbst überlassen, als Unternehmen, eigenständige Festlegungen über das Verhalten ihres Autos zu treffen und diese dann zu bewerben? Wie würden dann Autokäufer darauf reagieren, dass bei einem Hersteller die Insassen, bei anderen die Fußgänger geschützt würden? Wird das plötzlich zum Wesensgehalt der Kaufentscheidung?
Oder aber wird den KonsumentInnen die Entscheidung autonom anheimgestellt? Wird heute beim Autokauf beispielsweise darüber befunden, welche Innenausstattung gefällt, dann könnte zukünftig beim Erwerb eines Autos die individualisierte Ausführung so wählbar sein, dass die Fahrzeughalter darüber bestimmen, wie ihr Wagen in einer kritischen Situation weiterverfahren würde. Würde sich die Einschätzung ändern, wenn die BesitzerInnen eines Fahrzeugs beispielsweise als Eltern das Kleinkind mit dem Auto zum Kindergarten bringen?
Wie steht es im Falle von Haftbarkeiten bei selbstverschuldeten Unfällen?
Wer trägt dann die Verantwortung – die FahrerInnen, der Hersteller, die ProgrammiererInnen?
Es zeigt sich, welche komplexe Folgewirkungen ethische Fragestellungen unter technologischen Zukunftsbedingungen annehmen. Nehmen Sie sich bitte die Zeit, um den Moral Machine Test zu absolvieren:
Wie soll Ihrer persönlichen Auffassung nach ein autonom fahrendes Auto entscheiden? http://moralmachine.mit.edu/
Das System des autonomen Fahrens zeigt einen weiteren Entwicklungsschritt. Beim regulären Autoverkehr treffen bisher Individuen eigenständige Entscheidungen. Diese Organisationsgrundlage wird durch die Wirkweise von autonom agierenden Fahrzeugen vollkommen überholt. Anstatt der Entscheidungen von Individuen, auf denen das System heute beruht, transformiert sich der Personenverkehr zu einem selbstständig denkenden und organisierenden Gesamtsystem, operierend mit permanentem Datenaustausch. Die digitale Transformation begründet auch hier einen systemischen Wandel.
Während bisher Einzelpersonen, die hinter dem Lenkrad saßen, Informationen durch Sinneseindrücke aufgenommen, kognitiv verarbeitet und dementsprechende Entscheidungen getroffen haben, wird durch vernetzte Technologie ein verknüpftes Netz zwischen selbstständig agierenden Maschinen in einem sich selbst denkenden Gesamtsystem etabliert. Vernetzung und Datenverarbeitung ermöglichen es in diesem Zusammenhang,
separierte Einzelentscheidungen zugunsten eines abstrahierten und algorithmisch kalkulierbaren Gesamtinteresses aufzulösen. Technologie befähigt folglich dazu, disparate Informationen in der Form zu aggregieren, dass sie der Entscheidungsgrundlage für maschinelle Aktionen im kollektiven Interesse dienen. Die Welt operiert systemischer, weil mehr Daten aufgezeichnet und diese durch Algorithmen ausgewertet werden. Das ist ein ganz anderes Prinzip, als wenn Einzelpersonen aufgefordert sind, eigenständige Entschlüsse im fließenden Straßenverkehr zu treffen. Diese Betrachtungsweise führt schließlich auch zum spezifischen Gegenstand des Exzerpts zurück.
Ethik begrenzte bisher immer einen humanen Begriff, ausschließlich eingegrenzt auf den Menschen. Es erschiene sinnlos, das Benehmen eines Fisches, Hunds, einer Schnecke, eines Bleistifts, Zebrastreifens oder Autoradios als sittlich zu betrachten. Diese Festlegung basiert auf dem Standpunkt, dass die kognitiven Fähigkeiten, die es zur Reflexion voraussetzt, nur dem Menschen eignen. Gegenwärtig sehen wir uns mit einem gravierenden Sprung in der Debatte konfrontiert. Eine Überlegung, die seit ihrem Beginn vor ungefähr 2400 Jahren im antiken Griechenland immer auf den Menschen konzentriert, wird nun womöglich auf eine andere Intelligenz ausgeweitet: Die Technologie. Dabei scheint bezeichnend, dass Technologie eine Form von Intelligenz manifestiert, die ohne Bewusstsein agieren kann. Bisher waren Bewusstsein und Intelligenz gekoppelt und immanent verbunden. Nun entsteht eine Art von technologischer Intelligenz, die es versteht, ohne Bewusstsein zu operieren. Dieser monumentale Bruch mag einer der zentralen Gründe dafür sein, warum es aktuell so schwierig zu begreifen scheint, welche Veränderung der Menschheit hier gerade durch eigene Gestaltung widerfährt.
Wie damit umzugehen? Wie lässt sich die Idee der Selbstbestimmung und individueller Entscheidungsfreiheit in Zeiten prognostizierter und kalkulierter Verhaltensweisen verteidigen? Wie wirkt Freiheit, die es für ein Konzept von Ethik braucht, im digitalen Zeitalter? Diese Fragestellungen sollen systematisch untersucht werden. Welche Themenschwerpunkte dafür gewählt werden, erklärt das nächste Kapitel.
1.2 Inhaltliche Themensetzung der Lehrveranstaltung
Fragestellungen zur Informationsethik kennen keine letzten Rückschlüsse. Nicht nur weil das Prinzip von Ethik keine Eindeutigkeit zulässt, da hier bereits zwischen konsequentialistischen und intentionalistischen Ansätzen entschieden werden muss, sondern weil eigenständige Untersuchungsgegenstände aufgrund ihrer Besonderheit unterschieden werden müssen. In Folge untersuchen also die anschließenden Kapitel konkrete Aspekte, die hinsichtlich ihrer gesellschaftlichen Bedeutung im Rahmen der digitalen Transformation zu bewerten wären.
Kapitel 2 bewertet die geschehenden Umbrüche vor einer historischen Verständnisgrundlage, dabei dokumentiert sich vor allem eine Chronologie der permanenten Beschleunigung.
Kapitel 3 unternimmt den Versuch, die technologische und ökologische Debatte zu verknüpfen. Ein gesonderter Fokus wird auf die zentrale Herausforderung durch die potenzielle Klimakatastrophe gelegt. Es wird die Fragestellung verfolgt, wie die digitale Transformation für die Milderung der Problematik genutzt werden kann. Ökologie und die digitale Transformation bilden die zentralen gesellschaftlichen Seinsbestimmungen und Seinsformen im 21. Jahrhundert. Kapitel 4 überlegt, wie die soziale Schieflage, die durch moderne Produktionsmethoden verschärft wird, sich ausgleichen oder wenigstens angemessen denken ließe. In diesem Zusammenhang werden nicht nur die aktuellen Differenzen bemessen, sondern die Gegenwart wird in eine historische Perspektive gesetzt. Eine soziale Perspektive gesellschaftlicher Veränderung zeigt sich oder präziser formuliert: Es wird nachvollzogen, wie Technologie als Triebkraft sozialen Wandels auf einer sehr fundamentalen Ebene wirkt und warum staatlichen Organisationen bei diesen Fortschrittsprozessen eine zentrale Rolle zukommt.
Kapitel 5 analysiert, dass technologische Entwicklungen, wie sie durch Predictive Analytics erfahrbar werden, das liberale Freiheitsverständnis herausfordern.
Kapitel 6 untersucht abschließend die Fragestellung, welche kritische Gesichtspunkte sich rund um die Wirkweise von disruptiven Geschäftsmodellen identifizieren lassen. Welche legalen und legalistischen Implikationen finden sich hinter den aggressiven Geschäftsmodellen entscheidender Marktakteure und wie reagieren öffentliche Institutionen darauf? Ist Disruption also weniger eine Wirkweise als vielmehr eine Ideologie?
All diese unterschiedlichen Ansätze sollen zusammenwirken, um eine solide Basis dafür zu schaffen, final nochmals die gesellschaftlichen Implikationen dieses Wandels zu bestimmen.
2 Permanente Veränderung aufgrund historischer Beschleunigung
Speziell die deutsche Geschichtsphilosophie, die im Zeitalter der Aufklärung ansetzt und nach klassischer Auffassung mit Karl Marx schließt, geht von der Prämisse aus, dass die Geschichte unumwunden und immanent einem inhärenten Ziel zuschreitet. Wie in der Lehrveranstaltung Change Management bereits dargelegt, zeigt sich der Philosoph Immanuel Kant überzeugt, dass der menschlichen Natur erfahrbare Konfliktpotenziale im sozialen Zusammenleben eingewoben wären. Denn erst störrischer Widerwille am Bestehenden setzt den Gestaltungswillen frei, der jeder Verbesserung vorangeht. Es braucht Missmut mit dem Vorhandenen, um die Intention zu kreieren, den Stand der Dinge zu wandeln.
Georg Wilhelm Friedrich Hegel, der zeitlich nach Kant wirkte, sah hingegen nicht eine Eigenart der menschlichen Natur am Wirken, die den Gang der Geschichte vorantreibe. Stattdessen vermutete er einen metaphysischen Weltgeist, der in der Geschichte wirksam wäre. Fortschritt erkannte er als unumgänglich, weil die Geschichte als Instrument der Vernunft wirke. Die Vernunft wiederum wird durch die Geschichte selbst zur Wirklichkeit. Alles was damit Wirklichkeit wird, materialisiert den Fortschritt. Karl Marx erkennt die Grundlage der wirksamen Veränderungskräfte stattdessen weder in individuellen Persönlichkeitsmerkmalen noch in einem metaphysischen Konzept wie jenem des Weltgeists. Der Philosoph dachte vielmehr, dass ein antagonistischer Klassenkampf den Fortschritt von Gesellschaften begründe. Die letzte Stufe vor dem zielführenden Abschluss der historischen Entwicklung machte Karl Marx konsequenterweise im Kapitalismus fest. Denn jede Form von Gesellschaft zeichnet bisher immer eine Dualität zweier gesellschaftlicher Pole aus, die als herrschende und beherrschte Klasse im strukturellen Widerstreit stehen. Der Kapitalismus bildet insofern die vorletzte Stufe dieser Entwicklung, als in seiner Ära Produktivitätskräfte geschaffen werden, die den Menschen von den Gängelungen durch Entbehrungen befreien. Erstmalig in der Geschichte der Menschheit werden produktive Kräfte geschaffen, die es erlauben, Mangel zu überwinden. Durch den Kapitalismus entwickelt sich konsequent ein Wohlstandsniveau, das es ermöglicht, bisherigen Entsagungen abzuschwören. Nach Auffassung von Karl Marx wird, von diesem Standard ausgehend, eine unumwundene kommunistische Revolution zur Abschaffung der Dialektik aus Herrschenden und Beherrschten führen. Erstmal Überfluss erzielt, verlangt es seiner Auffassung nach keine Trennung mehr zwischen Herrschenden und Beherrschten, denn bei Marx ist gesellschaftliche Macht immer direkt an die Verfügungsgewalt über ökonomischen Wohlstand gekoppelt. Die kommunistische Revolution führt also seiner Auffassung nach nicht zum Austausch der Herrschenden, sondern zur Abschaffung der Herrschaft an sich, weil unter den Bedingungen des Überflusses auch die Modalitäten von konventioneller Herrschaft überflüssig werden. Alle Denker, die im fortschrittsgläubigen 19. Jahrhundert davon ausgingen, dass Fortschritt unumgänglich wäre, strafte das 20. Jahrhundert Lügen. Anstatt eines Fortschritts hin zu einem größeren Humanismus und finaler Freiheit, führte die totalitäre Ideologie des Faschismus in den menschlichen Abgrund und der real existierende Kommunismus entpuppte sich nicht als Reich der Herrschaftslosigkeit sondern als Großgefängnis und Unterdrückungsmechanismus.
Diese gemachten Erfahrungen helfen dabei, die gegenwärtige Situation in einen reflektierten Kontext zu setzen: Auch das 20. Jahrhundert zeigt wesentliche technologische Durchbrüche, die nicht unumwunden und automatisch zu politischen und sozialen Verbesserungen wurden. Fortschritt in einem Bereich begründet nicht zwangsweise Fortschritte in anderen Bereichen. Wie sich technologischer Fortschritt in sozialen, politischen, ökologischen Fortschritt übersetzen lässt, bleibt eine gesondert zu erzielende und bedeutsame Aufgabe. Was in diesem Kapitel interessiert, ist weniger das Wesen des Fortschritts als solches, sondern die permanente Erhöhung der Geschwindigkeit, mit der Veränderung wirksam wird. Veränderung ist dem modernen Zeitalter immanent, denn Wandel wirkt als Konstante. Bereits das Zeitalter vor dem Ersten Weltkrieg lässt sich frappierend mit der Jetztzeit vergleichen. Die Neuerungen in der Telekommunikation durch die Erfindung und Verbreitung des Telefons, die intensive Verflechtung des internationalen Handels, Jahrzehnte der internationalen politischen Stabilität und eine damit einhergehende fatale Unterschätzung von Kriegsrisiken bei zwischenstaatlichen Konflikten, Neuerungen im Transportwesen, das Gefühl der technologischen Veränderung und des sozialen bzw. politischen Stillstands führten zu einem gesellschaftlichen Mix, der schließlich den Nährboden für die Urkatastrophe des Ersten Weltkriegs bildete. Das Neuartige an der Jetztzeit liegt folglich nicht in der Technologisierung der Lebensumstände, auch weniger in der Digitalisierung der vorhandenen Technologien – der massive Unterschied lässt sich in der Rasanz des Wandels bestimmen und durch die Folgewirkungen dieser Umbrüche ausmachen. Nicht dass Wandel stattfindet, ist also die Besonderheit der Gegenwart, sondern wie schnell er agiert. Tiefgreifende Erneuerungen führen häufig zu nachhaltigen Machtverschiebungen, Hierarchien geraten ins Wanken. Anhand vergangener Entwicklungen lässt sich diese Wirkweise dokumentieren. Die I. Industrielle Revolution, deren operative Grundsätze bereits in anderen Lehrveranstaltungen dieses Studiums dokumentiert wurden, baute auf der Durchsetzung der Dampfmaschine auf. Diese technische Veränderung führte in Folge nicht nur dazu, dass England zur führenden Weltmacht aufstieg, auch die kontinentalen Wege verkürzten sich durch die Durchsetzung der Dampfeisenbahn zeitlich. Die Dampfeisenbahn ersetzte mühsame Überlandreisen in Kutschen. Im ersten Dow Jones Index, der noch vor der II. Industriellen Revolution gemessen wurde, fanden sich aufgrund der Popularität dieser Reisemethode und ihrer wirtschaftlichen Signifikanz fast ausschließlich Dampfeisenbahnen – nur das Telegraphenunternehmen Western Union bildete diesbezüglich eine Ausnahme. Der Dow Jones Index selbst erfasst einen Aktienindex, der über die Kursentwicklung des Aktienmarkts Aufschluss geben soll, indem die Performance der Leitaktien von 30 Unternehmen mit Gewichtung zusammengefasst wird und diese führenden Unternehmen symptomatisch für die Entwicklung der amerikanischen Gesamtindustrie selbst gelten. Berücksichtigt werden also für den Dow Jones Index vor allem Unternehmen, deren Tätigkeit als maßgeblich und beispielhaft für die Entwicklung der amerikanische Volkswirtschaft erscheinen. Dass der Dow Jones Index maßgeblich durch Dampfunternehmen bestimmt wurde, war beispielsweise zu Anfang des 20. Jahrhunderts der Fall. In der kurzen Ära zwischen Jahrhundertwende und vor dem Ersten Weltkrieg, der 1914 beginnt, setzte dann eine Dynamik unterschiedlicher Entwicklung ein,
die durch verschiedene Innovationen begründet wird. Die Dynamiken führen dazu, dass am Ende des Ersten Weltkriegs im Jahr 1918 nur noch ein Unternehmen im Aktienindex erfasst wird, das bereits zum Jahrhundertbeginn dazu gezählt wurde: Das Telegraphenunternehmen Western Union, auch damals schon bekannt für Geldüberweisungen, die sich mittels des Unternehmens organisieren lassen. Die Dampfunternehmen hingegen waren mittlerweile allesamt aussortiert. Innovation agiert folglich gnaden und rücksichtlos. Sie besorgt nicht nur, dass Neues entsteht, sondern auch das Bestehendes obsolet wird und unwiederbringlich vergeht, als sich die Bedürfnisse einer Gesellschaft ändern. Waren im Jahr 1900 also Eisenbahnen noch die bedeutsamsten Unternehmen in den USA, war das knappe zwei Jahrzehnte später bereits nicht mehr der Fall. Wird das 20. Jahrhundert durch den Blickwinkel eines anderen US-amerikanischen Aktienindexes betrachtet, zeigen sich ähnliche Muster und Auffälligkeiten. Der S & P 500 erfasst als instruktiver und auskunftsstarker Leitindex die 500 größten börsennotierten US-Unternehmen, ausgewählt anhand ihrer Marktkapitalisierung. Dabei wirkt es aussagekräftig, wie lange die durchschnittliche Erwartungshaltung besagte, dass die Aktie eines Unternehmens als Teil des S & P 500 registriert werden konnte. Im Jahr 1935 waren es durchschnittlich 90 Jahre, die als Erwartungshaltung galten, wie lange ein Unternehmen im S & P 500 Index gelistet blieb. Im Jahr 1955 reduzierte sich dieser Wert bereits auf 45 Jahre. Im Jahr 1975 sank er auf 30 Jahre.Im Jahr 1995 waren es nunmehr 22 Jahre. Im Jahr 2005 sind es dann schließlich noch 15 Jahre, die der Aktie eines Unternehmens als Verweildauer im S & P 500 zugemessen wird. Der Bedeutungszeitraum der Relevanz eines Unternehmens sinkt kontinuierlich. Kräfteverhältnisse und Bedeutungsverschiebungen im Online-Bereich erscheinen dabei noch gravierender und rasanter als diese Vergleichswerte nahelegen. Die untere Abbildung zeigt an, welche 20 Unternehmen in den USA die häufigsten Internetaufrufe über den Verlauf von zwei Jahrzehnten auf sich vereinigen. Es handelt sich dabei selbstverständlich um einen anderen Referenzwert als durch die Marktkapitalisierung erfasst. Doch besitzen unter volkswirtschaftlichen Umständen, die Aufmerksamkeit zu kapitalisieren versteht, diese Referenzwerte entscheidende Bedeutung.
Abbildung 2: Zeitachse der 20 Unternehmen mit den meisten Internetaufrufen in USA
Die permanente Beschleunigung, denen der Wandel der Gesellschaften in größeren Zyklen als diesen unterliegt, zeigt sich auch in der Abfolge der industriellen Revolutionen. Die unterschiedlichen Zyklen, die einer konkreten Entwicklungsstufe der industriellen Revolution zugeschrieben werden können, verkürzen sich sukzessive. Oder anders formuliert: Die Abfolge der Entwicklungsschritte beschleunigt sich. Eine Grafik, entnommen aus der Lehrveranstaltung Digital Business und Innovationsmanagement, zeigt exakt die immanente Verkürzung dieser Zyklen an.
Abbildung 3: Abfolge der Industriellen Revolution
Die technischen Grundlagen der I. Industriellen Revolution bildeten über einen konstanten und beachtlichen Zeitraum hinweg die federführenden Standards im Hinblick auf die Praxis industrieller Fertigung.
Die II. Industrielle Revolution repräsentiert demgemäß eine Effizienzsteigerung, verursacht durch den flächendeckenden Einsatz von Fließbändern und der Elektrifizierung von Anlagen. Zwischen den beiden Ansätzen liegt jedoch mehr als ein Jahrhundert. Es benötigte dann den ungefähren Zeitraum von sieben kurzen Jahrzehnten, bevor sich die die gängigen Produktionsbedingungen der II. Industriellen Revolution durch den Einsatz von EDV erneuerten und die III. Industrielle Revolution anbricht.
Weniger als fünf Jahrzehnte, wenn großzügig bemessen, brauchte es dann schließlich, bevor die Grundlagen der III. Industriellen Revolution sich als gleichermaßen überholt und veraltet beweisen. Die Zeiträume zwischen den einzelnen industriellen Entwicklungsschritten werden zunehmend kürzer. Es lässt sich antizipieren, dass der Sprung von der IV. Industriellen Revolution zur V. Industriellen Revolution kürzer sein wird, als jener von der III. zur IV. Der wiederum war kürzer als jener von der II. zur III. Der wiederum war merklich schneller als jener von der I. zur II. Immanente Beschleunigung markiert das verbindliche Wirkprinzip.
Worin liegt nun die ethische Komponente dieser zunehmenden Rasanz?
Der Soziologe Hartmut Rosa diagnostiziert der Gesellschaft eine Dichotomie aus Beschleunigung und Entfremdung. Hartmut Rosa referiert, dass es vor allem der Faktor Zeit sei, der unsere gegenwärtige Gesellschaft prägt. Zeit wird persönlich jedoch nur noch als permanente Beschleunigung erfahren. Hartmut Rosa formuliert entsprechend, dass nicht nur der fortlaufende Wandel die definitive Konstante der Moderne sei. Er erkennt auch, dass sich Zyklen des Wandels permanent verkürzen. Joseph Schumpeter analysiert, dass die Marktwirtschaft keine Stabilität erwirken kann, als ihr der Modus permanenter Erneuerung eingewoben sei. Innovation wirkt als kontinuierliches Manifest marktwirtschaftlicher Logik. Hartmut Rosa präzisiert dieses Verständnis, als er nicht nur das Wesen der Erneuerung ergründet, sondern auch die Dimension von Zeitlichkeit mitbedenkt. Nicht nur dass Innovation die stetige Veränderung des Markts bewirkt, sondern die Innovationszyklen verdichten sich. Es lässt sich eine steigende Rasanz des Wandels ausmachen, unaufhaltsam. Das bedeutet, die Veränderung agierte noch nie so schnell wie in der Gegenwart, wird aber in Zukunft nie wieder so langsam sein wie heute. Hartmut Rosa vermerkt hinsichtlich der definitorischen Eigenart der Moderne: Eine moderne Gesellschaft ist dadurch gekennzeichnet, dass sie sich nur dynamisch zu stabilisieren vermag. Was bedeutet, die heutige Gesellschaft ist strukturell auf Wachstum, Beschleunigung und Innovationsverdichtung angewiesen, um sich zu erhalten und zu reproduzieren. Hierin besteht die Paradoxie der gängigen Veränderung:
Eine beschleunigende Dynamik durch Innovation verändert radikal Angebot, Struktur und Produktionserfahrung des Markts. Simultan erfüllt der Wandel jedoch die Funktion, dass die Grundprinzipien, auf denen die Gesellschaft aufbaut, überdauern. Die Fortdauer der politischen Ökonomie der Verhältnisse verlangt nach Veränderung. Prägnanter ausgedrückt: Es muss sich alles wandeln, um die Erwartung zu erfüllen, dass substanziell alles gleichbleibt. Das immer schnellere In-Bewegung-Setzen der materiellen, sozialen und geistigen Welt zielt darauf, die bestehenden Verhältnisse durch Wandel zu stabilisieren. Die Paradoxie liegt darin, dass die eigentlichen Verhältnisse erst durch rasante Veränderung überdauern werden. Es mögen zwar vier Abfolgen der industriellen Revolution gezählt werden. Doch sie alle bestärken die Rahmenbedingungen der industriellen Revolution fortlaufend und unverändert. Sie basieren auf marktwirtschaftlichem Handel, Unternehmertum, moderner Staatlichkeit, Kapitalakkumulation, Konsumlogik. Diese Konstanten überdauern in veränderter Form. Der demokratische Imperativ liegt nun darin, diese immanente Veränderung auf gesellschaftlicher Ebene ausgleichend mitzugestalten. Demokratisch verfasste Gesellschaften verstehen es, die Konsequenzen ertragreicher Investitionen und marktwirtschaftlicher Tätigkeit durch Ansprüche auszugleichen, zu korrigieren, zu verändern und sie als unumgängliche und legitime Interessen des Gemeinwohls darzustellen. Im Zusammenhang mit der permanenten Beschleunigung der Jetztzeit stellt sich also die Aufgabe, eine nunmehr unleugbare und denkbare Konkurrenzsituation im Geiste der zivilen Humanität aufzulösen: Es handelt sich dabei um das präsente Verhältnis zwischen Mensch und Maschine. Wenn Mensch und Maschine gegeneinander in einem direkten Konkurrenzverhältnis stehen, verliert der Mensch, weil er keine ähnlichen Leistungen und Produktivitätssteigerungen erwirken kann, wie es der Maschine gelingt. Ein solches Verhältnis macht aber auch wenig Sinn und denkt die Bezüge falsch. Ein kopfrechnender Kassier im Supermarkt wird gegen den Laserscanner permanent den Kürzeren ziehen. Wenn aber solche Verhältnisse geschaffen werden, die diese abstrusen Konkurrenzsituationen in allerlei Umfeldern determinieren, dann wurde schlicht der Zweck von Maschinen verkannt. Vielmehr braucht es ein Abhängigkeitsverhältnis, dass die Maschine zum Erfüllungsgehilfen menschlicher Ambitionen degradiert. Nicht im maschinellen Funktionieren des Menschen, aber auch nicht in der Vermenschlichung der Maschine liegt das humanistische Gebot der Zukunft – vielmehr in der zweckmäßigen und bedarfsgerechten Nutzung von Maschinen durch den Menschen. Dieses Zusammenwirken zeigt gegenwärtig bereits vielversprechende Potenziale im Umgang mit Künstlicher Intelligenz. Die Produktivität wird gehoben durch das ertragreiche Zusammenwirken von Mensch und Maschine. Wie das funktionieren könnte, beweist beispielsweise die gegenwärtige Weltspitze der Schachspieler. Sie repräsentieren die erste Generation an Spielern, deren Fähigkeiten seit den Anfängen auch von Computern trainiert wurden. Auf diese Weise wurden Intelligenz und Spielstärke im Vergleich zu den alten Großmeistern markant gesteigert.
Die zentrale Fragestellung besteht also darin, ein kooperatives Verhältnis zwischen Mensch und Maschine zu etablieren, wobei die rechtlichen Rahmenbedingungen und gesellschaftlichen Bedingungen so zu konstituieren sind, dass maschinelle Arbeit zum unzweifelhaften Nutzen der Menschen geschehen sollte. Wie folglich der maschinell oder digital erwirkte Wohlstand sich ansprechend verteilen ließe und welche Redistributionsmechanismen dabei sinnvoll wirksam werden könnten, bleibt eine gesellschaftlich zu treffende Entscheidung, Ideen und Vorschläge dazu folgen im Rahmen dieses Skripts noch. Bevor jedoch der Fokus immanent auf Veränderungspotenziale und diesbezügliche Konzepte gelegt wird, soll vorab eine andere Ursache gesellschaftlicher Veränderung skizziert werden und ein Zusammenhang mit der digitalen Transformation mitbedacht werden. Das nächste Kapitel konzentriert sich auf die Wirkmacht und die Massivität des Klimawandels und erläutert, wie die Wissensgesellschaft zur Milderung der sich abzeichnenden Klimakrise beitragen kann.
3 Ausgleich zwischen Ökonomie und Ökologie – die Existenzbedingung im 21. Jahrhundert
Um die Auswirkungen des menschgemachten Klimawandels zu verstehen, setzt es ein Verständnis über das natürliche Phänomen des Treibhauseffekts voraus. Erst wenn dieser verstanden wird, lässt sich nachvollziehen, wie menschliches Handeln dazu beiträgt, diese Wirkung massiv zu verstärken und damit eine natürliche Balance radikal sowie dauerhaft aus dem Gleichgewicht bringt. Die schlichte Physik, die dem Treibhauseffekt zugrunde liegt, lässt sich einfach und unkompliziert erklären. Sonnenstrahlung passiert in der Form von Lichtwellen die Atmosphäre. Die Erde absorbiert diese Energie und strahlt sie in Form von Infrarot wieder zurück in die Atmosphäre. Ein Teil der Energie wird jedoch durch die Atmosphäre gespeichert, damit wird die Erdatmosphäre aufgeheizt. Ohne diesen Treibhauseffekt, ohne die Funktion der Atmosphäre würde die mittlere Temperatur auf unserem Planeten bei minus 18 Grad liegen, anstatt bei der globalen und bodennahen Durchschnittstemperatur von 15 Grad.5 Beim natürlichen Treibhauseffekt handelt es sich also um eine Wirkung, die für die Entwicklung organischen Lebens auf der Erde unerlässlich zeichnet. Er erlaubt, dass Wasser in flüssiger Form in natürlicher Umgebung vorkommt und auf diese Weise organisches Leben entstehen konnte. Der Treibhauseffekt schafft die Voraussetzungen für jene klimatischen Bedingungen, die unsere Lebenswelt formen.
Ein Gas, das auf natürliche Weise zum Treibhauseffekt beiträgt, ist Kohlendioxid (CO2). Es handelt sich bei diesem farb- und geruchlosen Molekül um eine chemische Verbindung aus den Elementen Kohlenstoff und Sauerstoff. Das Molekül besitzt als solches die Eigenschaft, Wärmestrahlungen zu absorbieren. Genau diese Fähigkeit sorgt dafür, dass CO2 als Treibhausgas wirkt. Es speichert solare Wärmeenergie und strahlt sie ab. CO2 kommt schlicht in der Biosphäre vor. Es stabilisiert als solches nicht nur den Temperaturhaushalt der Erde, sondern gestaltet organisches Leben selbst. Beispielsweise wird es vom Menschen als Abfallprodukt des Stoffwechsels ausgeatmet. Es stabilisiert aber auch den pH-Wert im Blut, hilft der menschlichen Physis und wird durch die pflanzliche Photosynthese wieder in Sauerstoff umgewandelt. Der Prozess der Evolution hat diesbezüglich ein austariertes und harmonisches System aufgebaut, einen biologischen Kreislauf geschaffen.
In der Atmosphäre machen die Treibhausgase Kohlendioxid (CO2), Ozon (O3), Lachgas (N2O) und Methan (CH4) nur einen Bruchteil der vorhandenen Bestandteile aus. Sie repräsentierten insgesamt nur knapp 0,04 % aller Stoffe. Den weitaus größten Anteil der Bestandteile der Atmosphäre bilden zusammengenommen Stickstoff und Sauerstoff. Sie bündeln mehr als 99 % aller atmosphärischen Komponenten, haben aber auf das Klima keine weitere Auswirkung. Sie sind weder fähig, Wärme zu speichern noch diese zu absorbieren.
Ein äußerst fragiles Gleichgewicht und eine filigrane Zusammensetzung der Atmosphäre zeichnen also für die zyklische Stabilität des Klimas verantwortlich und begründen die bodennahen Temperaturverhältnisse. Die massive Problematik setzt an, als dieses natürliche Gleichgewicht durch menschliche Aktivität rasant und wirkmächtig zum Kippen kommt, sie aus der Balance gebracht wurde. Dabei ist das Klima als solches weder dauerhaft stabil noch gleichbleibend, sondern es ändert sich zyklisch. Die Zyklen jedoch, die dabei beschritten werden, vollziehen sich in planetarischen Intervallen. Diese sind schlicht anders als zivilisatorische oder gar kulturelle Zeithorizonte. Natürliche Klimaveränderungen bilden sich im Laufe von Jahrtausenden. Das Muster von fallendem und steigendem CO2-Gehalt in der Atmosphäre, dass sich weit zurückliegend nachweisen lässt, vollzieht sich als natürliches Phänomen über den Spielraum von Jahrtausenden. Weil CO2 wesentlich bei der Speicherung und Verteilung von Hitze wirkt, korrespondiert die Konzentration von CO2 unmittelbar mit der globalen Durchschnittstemperatur. Die genaue Rückdatierung und Rückberechnung veränderlicher Klimaszenarien lässt sich mittels Bestimmung der Auswertung von Sauerstoff-Isotopenstufen im Rahmen von Eiskernbohrungen errechnen, die im antarktischen Eis vorgenommen wurden. Analysen, die auf Grundlage der gehobenen Materie durchgeführt werden, lassen mittlerweile präzise Kalkulationen über die klimatischen Entwicklungen der letzten 800.000 Jahre zu und die ermittelten Temperaturen zeigen den unmittelbaren Zusammenhang mit der nachweisbaren Konzentration an CO2 an.
Für den Zeithorizont der letzten 800.000 Jahre erweisen sich nachfolgende Trendkurven. Es darf bei der Betrachtung der Grafik auf der nächsten Seite mitbedacht werden, dass die ältesten Fossilien, die über die Ursprünge des Homo Sapiens informieren, knapp 300.000 Jahre alt wären. Die Dokumentation der klimatischen Bedingungen reicht also weit vor den Beginn unserer menschlichen Spezies zurück. Es ergibt sich eine recht simpel verständliche Äquivalenz. Je mehr CO2 sich in der Atmosphäre konzentriert findet, umso höher die gemessene bzw. erforschte Durchschnittstemperatur. Je kleiner die CO2 Menge in der Atmosphäre, desto geringer die Durchschnittstemperatur. An diesen Abhängigkeiten und Entsprechungen gibt es keinen relevanten wissenschaftlichen Zweifel. Die Rückschlüsse selbst sind deshalb möglich, weil sich in der Antarktis Schneemengen befinden, die den gesamten Zeitraum rückeruieren und überbrücken lassen. Anhand dieser Bestände lassen sich die wechselhaften Zusammenhänge zwischen CO2 und Temperatur aufgrund von Sauerstoff-Isotopen und Schneeeigenschaften mittels ausgereifter wissenschaftlicher Verfahren bestimmen. Wie also wirken die Trends? Die Grafik gibt Antwort darauf.
Abbildung 4: Entwicklung Durchschnittstemperatur, CO2, Meeresspiegel
Es zeigt sich nahezu eine Gleichförmigkeit der Verläufe zwischen CO2, der Durchschnittstemperatur und der Höhe des Meeresspiegels. Seit Beginn der industriellen Revolution wurde dieser Trend durch den Menschen nun mächtig verschoben. Dafür verantwortlich zeichnet die Verbrennung von fossilen Energieträgern wie Erdöl, Erdgas und Kohle. Diese Vorgangsweise veränderte die chemische Konstitution der Atmosphäre binnen kurzer Jahrhunderte. Denn Erdöl, Erdgas und Kohle enthalten überproportional viel CO2, das durch Verbrennung freigesetzt wird. Fast 80 % des globalen Primärenergieverbrauchs wird gegenwärtig durch die Verbrennung von fossilen Energieträgern gedeckt. Das führt nicht nur zur Freisetzung von CO2, das vorher in den unterirdischen Lagerstätten der Ressourcen gebunden war, sondern auch zur Ablagerung von CO2 in der Atmosphäre. Jeden Tag verursacht menschliches Handeln, dass 110.000 Millionen Tonnen an hitzeabsorbierender und treibhausaktiver Verschmutzung in die Atmosphäre gepustet werden und dort verbleiben. In Konsequenz führt das zu massiven Folgewirkungen. Heute bereits misst sich eine Dichte und Menge an CO2 in der Atmosphäre, wie sie im Verlauf der letzten 800.000 Jahre nicht festgestellt werden konnte. Die Grafik unten, publiziert von der NASA, die als Organisation eine eindrückliche Forschung zum Sachverhalt des Klimawandels leistet, zeigt einen Zeithorizont von 400.000 Jahren auf:
Abbildung 5: CO2 Konzentration in der Atmosphäre7
Die gegenwärtige Konzentration von CO2 in der Atmosphäre zeigt eine Dichte, die für die letzten 400.000 Jahre nicht einmal nachgewiesen werden kann. Seit Beginn der menschlichen Spezies lässt sich kein ähnlicher hoher Wert nachprüfen. Hauptursache dieser Tendenz: Die Verbrennung von kohlenstoffhaltigen fossilen Energieträgern durch den Menschen. Bei diesem nachweisbaren Effekt handelt es sich weder um eine Laune der Natur, noch um einen ungewöhnlichen Ausreißer, der chemische Gesetzmäßigkeiten in Frage stellt. Stattdessen lässt sich die Folge davon beobachten, wie die wachsende Verbrennung von fossilen Energieträgern seit Beginn der industriellen Revolution zur zunehmenden Ablagerung von CO2 in der Atmosphäre führte. Wie wird denn CO2 eigentlich gemessen? Die Konzentration wird in Referenz gesetzt: wenn eine Million durchschnittlicher Bestandteile aus der Atmosphäre genommen werden, wie viele davon sind CO2 Moleküle? Daher der Ausdruck parts per million (ppm) – Bestandteile pro Million. Laut Auskunft der NASA bemisst sich der Stand mit Januar 2019 auf 410 ppm. Im Verlauf der Erdgeschichte der letzten 800.000 Jahre und innerhalb der entsprechenden natürlichen Zyklen, die für langfristige Klimaveränderungen verantwortlich zeichnen, wurde nach Erkenntnissen wissenschaftlicher Forschung nie der Wert von 300 ppm überstiegen. Eine natürliche Veränderung um 100 ppm benötigt normalerweise zwischen 5.000 und 20.000 Jahren. Der aktuelle Anstieg um 100 ppm hat hingegen nur 120 Jahre benötigt, der Anstieg von 408 auf 409 hat dann nur noch 26 Wochen gebraucht – auf natürliche Weise würde eine solche Veränderung den Zeitrahmen zwischen 50 und 200 Jahren beanspruchen.
Die Brisanz der Entwicklung besteht darin, in welch kurzem Zeitraum ein Teil der Menschheit es erwirkt hat, die zyklische Konstanz klimatischer Trends aus der langfristigen Balance zu stürzen. Seit Beginn der industriellen Revolution intensiviert sich der Energiebedarf, der weitreichend auf der Verbrennung fossiler Energieträger beruht. Die Moderne gründet bisher auf einer direkten Proportionalität: Durch ansteigendes Wirtschaftswachstum wächst der Energiehunger von Volkswirtschaften. Die bedeutsame Aufgabe besteht jetzt darin, diese Tendenzen und Wirkmechanismen voneinander zu entkoppeln. Warum liegt darin ein gesellschaftlicher Auftrag? Der Anstieg der CO2 Konzentration in der Atmosphäre führt zwangsläufig zu einem Temperaturanstieg mit fatalen Konsequenzen. Steigende Temperaturen verursachen den Anstieg des Meeresspiegels, Küstenlagen drohen unbewohnbar zu werden. Der Meeresspiegel steigt aufgrund unterschiedlicher Faktoren: Zum einen wirkt das thermodynamische Gesetz, dass sich wärmende Gegenstände schlicht ausdehnen. Wird also das Ozeanwasser wärmer, dehnt es sich aus. Zum anderen führen das Abschmelzen von Gletschern und der Arktis durch die Erwärmung zur Verflüssigung von Wassermengen, die bisher als Eis gebunden waren. Je intensiver die Erderwärmung voranschreitet, umso vehementer wird sich diese Folgewirkung zeigen. Einige amerikanische Banken weigern sich bereits, Hypothekarkredite für Immobilien in Miami Beach zu gewähren. Das Risiko, dass sich die belehnten Grundstücke innerhalb der Laufzeit der Kredite einfach in Sumpfland verwandeln, wirkt zu wahrscheinlich und unvermeidlich. Wetterkapriolen werden extremer, Schäden durch Schlechtwetterfronten nehmen signifikant zu. Land, das sich zum landwirtschaftlichen Anbau eignet, nimmt ab. Wüsten dehnen sich aus. Klimatische Extremsituationen belasten die menschliche Physis. Viren und Krankheitsträger können in Regionen ausgemacht werden, die bisher nicht davon berührt waren. Die beschleunigte Veränderung der klimatischen Umstände geschieht in einem Tempo, sodass die Evolution darauf nicht angemessen reagieren kann. Für die Artenvielfalt zeitigt die Wirkung der globalen Erwärmung enorme Konsequenzen. Manche Tierarten verlieren ihr natürliches Habitat, das erlaubt, Futter zu finden und sich fortzupflanzen. Manche können sich retten, indem sie entlang der Verschiebung von Klimazonen weiterwandern. Für Pflanzen und auf dem Land lebende Tiere kann beispielsweise belegt werden, dass sie mittlerweile innerhalb eines Jahrzehnts elf Meter in die Höhe und etwa siebzehn Kilometer Richtung Pole wandern. Sie folgen also den klimatischen Bedingungen und Klimaregionen. Nicht alle schaffen diese Wanderung oder können sie antreten, vorhersehbare Folge wäre ein Artsterben, wie es in den letzten 540 Millionen Jahren der Evolutionsgeschichte schlicht fünf Mal geschehen ist. Nur wenige Organismen können sich an unterschiedliche klimatische Bedingungen adaptieren – unter anderem die Ratte, der Mensch, die Kellerassel und der Rabe. Über die nächsten acht Jahrzehnte könnte die Hälfte aller existierenden Spezies aussterben, die heute den Planeten bewohnen. Evolutionsgeschichtlich gilt es als erforscht, dass über den Verlauf der großen Erdzeitalter mittlerweile 99,5 % aller Spezies ausgestorben sind. Das Ende von Lebensarten ist also nicht nur vorstellbare, es ist evolutionsgeschichtliche Erfahrung. ForscherInnen sprechen mittlerweile vom sechsten großen Massenaussterben, das in diesem Jahrhundert erlebt wird. Das letzte Artensterben einer vergleichbaren Größenordnung fand vor 66 Millionen Jahren statt, als die Kreidezeit zu Ende ging. Damals schlug ein zehn bis fünfzehn Kilometer großer Asteroid auf der Halbinsel Yukatan ein. Dieser Vorfall zerstörte eine ganze ökologische Welt, als unmittelbare Folge davon gilt beispielsweise das Aussterben der Saurier. Von einer ähnlichen Wirkung für die Ökologie sprechen aktuell WissenschaftlerInnen, wenn das Ausmaß des durch den Menschen verursachten Klimawandels auf die Biosphäre begriffen werden soll. Besonders betroffen von den klimatischen Verheerungen zeigen sich dabei die Ozeane. Sie sind es, die den Großteil der zusätzlichen Energie, die durch den menschverursachten Klimawandel auf der Erde gehalten wurde, aufgenommen haben.
Das sind nur einige Folgewirkungen, die im Rahmen der globalen Erwärmung bereits vorfallen. Das einflussreiche Think Tank World Economic Forum analysiert vor der Jahrestagung in Davos sowohl im Jahr 2017 als auch im Jahr 2018, dass das größte Risiko für die Weltwirtschaft und die Menschheit von Wetterkapriolen ausgehen würde, die der Klimawandel verantwortet. Dieses Phänomen wirkt in seiner Gesamtheit bedrohlicher als zwischenstaatliche Konflikte oder Cyberangriffe. Das sind nur einige Aspekte, die durch den Klimawandel hervorgerufen wurden. Die voraussehbaren Verheerungen sind umfassender, komplexer, universeller und gleichermaßen radikaler. Der Klimawandel bildet ein Universalphänomen, der vielfältige gesellschaftliche und biologische Bereiche berührt, verändert, herausfordert. Wie also handeln und weiterdenken im Angesicht dieses Szenarios? Ein ungebremster CO2 Ausstoß, die schonungslose Verbrennung fossiler Energien, beschleunigt durch das rasante Wachstum der Weltwirtschaft, das vor allem durch den Aufstieg der Entwicklungsländer verstärkt wird, könnte bis zum Ende des 21. Jahrhunderts einen Temperaturanstieg um 5 Grad Celsius verantworten. Die Massivität des Temperaturunterschieds lässt ein bezeichnender Vergleichswert begreifen. Der Unterschied zwischen dem heutigen Klima und der letzten natürlichen Eiszeit, die ungefähr vor 115.000 Jahren begann und vor 15.000 Jahren endete, bemisst sich durchschnittlich auf 6 Grad. Darin beweist sich mittlerweile der Extremismus der Normalität. Zur Pragmatik wird, was dem 1,5 Grad Ziel dient. Das oft zitierte 1,5 Grad Ziel wurde im Pariser Klimaabkommen festgelegt. Das 1,5 Grad Ziel im Pariser Klimaabkommen besagt, dass die durchschnittliche Erderwärmung bis zum Ende des Jahrhunderts auf 1,5 Grad Celsius gegenüber dem vorindustriellen Zeitalter eingedämmt werden soll. Das wäre Idealziel. Falls das nicht erreicht wird, dann müssen als letzte Obergrenze 2 Grad gelten. Der Weltklimarat, dessen nobelpreisgekrönte Arbeit darin besteht, für politische Entscheidungsträger auf internationaler Ebene den Stand der wissenschaftlichen Forschung zum Klimawandel zusammenzufassen, errechnet, dass noch ein Zeitfenster bis ins Jahr 2030 offen wäre, um die extremen Folgeschäden präventiv zu verhindern und das 1,5 Grad Ziel zu erreichen. Dafür braucht es jedoch eine grundlegende Umkehr. Seit Beginn der industriellen Revolution wurde also der Anteil an CO2 in der Atmosphäre durch die Verbrennung von fossilen Energieträgern markant gesteigert, vor allem seit Ende des Zweiten Weltkriegs hat der globale Ausstoß an von Menschen verursachten CO2 radikal zugenommen. Dabei sollte immer reflektiert werden, dass nur ein Bruchteil des freigesetzten CO2 vom Menschen verursacht wird. Den weitaus größten Teil setzt die Natur selbst frei. Die Menge, die aber durch natürliche Prozesse freigesetzt wird, versteht die Natur wieder zu absorbieren und aufzubereiten. Es hat sich hier ein Gleichgewicht etabliert, das nun durch die menschliche Aktivität aus der Balance gebracht wird. Der zusätzliche CO2 Ausstoß, der vom Menschen zu verantworten ist, lässt sich nicht durch den etablierten Kohlenstoffkreislauf verarbeiten, ein Großteil davon verbleibt also in der Atmosphäre, da die Kapazitäten der natürlichen Absorption überfordert werden. Den natürlichen CO2 Ausstoß kompensiert die Natur durch pflanzliche Photosynthese und Absorption in den Ozeanen. Faktisch absorbiert sich auf natürliche Weise sogar mehr CO2 als auf natürliche Weise emittiert wird. Was aber vom natürlichen Kohlenstoffkreislauf nicht mehr vollkommen verarbeitet werden kann, ist die schlichte Menge an anthropogenen, also menschverursachten Treibhausgasen. Folglich: Die Atmosphäre wird vom Menschen zur Müllhalde für CO2 Ablagerungen degradiert, die sein eigenes Handeln verantwortet.
Die unmittelbare Reaktion besteht darin, dass auf größere CO2 Konzentrationen ein Temperaturanstieg zwangsweise folgt. Das geschieht unvermeidbar, doch für das menschliche Zeitverständnis mit Verzögerung, denn Unmittelbarkeit bezeichnet in diesem Fall planetarische Zyklen. Wie die Abbildung 4 oben anzeigt, folgt der Trendentwicklung von CO2 die Tendenz der Durchschnittstemperatur. Das ökologische System agiert jedoch mit verlängerten Reaktionszeiten. Das bedeutet, die konsequenten und unausweichlichen Folgewirkungen des bereits jetzt vorhandenen CO2 werden noch in Jahrhunderten und Jahrtausenden eine verschärfte Erderwärmung zu verantworten haben. Diese Reaktionszeit sorgt auch dafür, dass nicht die unmittelbaren Verursacher von den massivsten Verheerungen betroffen sind, sondern die nachfolgenden Generationen den Schaden tragen werden. Diese Zeitverzögerung erhöht die Komplexität des Problems um ein weiteres ethisches Dilemma. Um die bedrohliche Entwicklung zu verlangsamen und ihr schließlich Einhalt zu gebieten, einigte sich die Weltgemeinschaft beim Klimagipfel in Paris im Jahr 2015 darauf, den globalen Temperaturanstieg auf 1,5 Grad gegenüber dem Beginn des Industriezeitalters zu begrenzen. Wenn die 1,5 Grad nicht erreicht werden, dann wird als zweites Ziel eine Grenze von 2 Grad Erwärmung alternativ angeführt. Eine Erwärmung um 2 Grad würde laut Einschätzung zu Verheerungen und Umbrüchen im merklichen, doch überschaubaren Ausmaß führen. Jede weitere Erwärmung wäre mit sich exponentielle Risiken für die Weltgemeinschaft, die internationale Entwicklung und die Natur behaftet. In diesem Wissen gründet der ratifizierte Versuch und die Verpflichtung, die Erderwärmung zu begrenzen. Dabei gilt es auch zu verstehen, dass eine globale Erwärmung um 1,5 Grad nicht statisch bedeutet, dass sie in allen Weltregionen gleichermaßen erwartet werden kann, dass es schlicht 1,5 Grad gegenüber dem vorindustriellen Zeitalter wärmer würde. Eine Erwärmung um 1 Grad im Bereich des Äquators bedeutet faktisch eine Erwärmung um 3 Grad in der Arktis, denn das globale Klima konstituiert sich durch unterschiedliche Zusammenhänge und komplexe Abhängigkeiten. Eine Schwierigkeit in der Berechnung und Vorhersage der weiteren Folgen zeigt sich genau darin, dass es eine wesentliche Herausforderung symbolisiert, wie die existierende klimatische Systematik durch Trendveränderungen sich wandeln wird. Gerade Big Data und die Anwendung Künstlicher Intelligenz tragen zum besseren Verständnis bei, liefern immer akkuratere Berechnungen und Prognosen. Wenn also der immanente Zusammenhang zwischen Digitalisierung und dem Klimawandel bedacht wird, zeigt sich hier bereits eine wesentliche Verknüpfung. Das beweist Wirksamkeit nicht nur für Vorhersagen über perspektivische Entwicklungen, sondern es hilft beispielsweise im Verständnis von drohenden Wetterkapriolen. Wie genau wird der Kurs eines Hurrikans sein? Welche Regenmengen sind in einer Region zu erwarten? Das alles lässt sich aufgrund der verfügbaren Datenverarbeitung mit viel exakterer Präzision vorherbestimmen als dies lange der Fall war. Diese computergestützten Analysemethoden retten Leben. Die materiellen Schäden durch Naturkatastrophen nehmen kontinuierlich zu. Der Verlust an Menschenleben kann jedoch aufgrund präziser, datenbasierter Berechnungen, die zum besseren und antizipativen Verständnis von Wetterereignissen entscheidend beitragen, minimiert werden und durch das Handeln staatlicher Organe effektiv eingeschränkt werden. Ein anderer Zusammenhang, der sich zwischen moderner Technologie und dem Klimawandel ausmachen lässt, besteht in einer sehr grundlegenden Reflexion über das Thema: Der Klimawandel repräsentiert eine nicht intendierte, doch unmittelbare und konsequente Folgewirkung der Industriegesellschaft. Der massenhafte Ausstoß von CO2 reflektiert die Art und Weise, wie die Industriegesellschaft produziert, sich fortbewegt, Energie konsumiert, Waren verbraucht, Produktionsprozesse organisiert, sich ernährt, sozial interagiert. All diese Faktoren begründen das Phänomen. Wenn also die Industriegesellschaft die Ursache für den ungebremsten Klimawandel bildet, dann könnte ein progressiver Weg vorwärts in der Überholung der Industriegesellschaft selbst liegen. Der Ausweg mag in einer radikalen Veränderung hin zu einer innovationsgetriebenen Wissensgesellschaft liegen. Technologischer Fortschritt geht im Regelfall mit weniger Energieverschwendung, besserer Nutzung von vorhandenen Wertschöpfungspotenzialen und intelligenteren Technologien zusammen. Im Rahmen der digitalen Transformation ökonomischer Prozesse und sozialer Interaktion stellt sich genau diese Frage, wie die Neuerungen zur ökologischen Trendumkehr effektiv beitragen können – alles würde selbstverständlich auf der Voraussetzung basieren, dass Gesellschaften den willentlichen und demokratischen Entschluss fassen, Veränderung zu gestalten, um Nachhaltigkeit zu erwirken. Die technologischen Entwicklungen und die freigesetzten Innovationspotenziale gerade bei der alternativen Energiegewinnung verantworten verstärkt, dass auf fossile Energieträger kontinuierlich verzichtet werden kann. Die Produktionskosten von alternativen Energien sinken rapide, die Kostenstruktur von fossilen Energieträgern erscheint dabei nicht mehr kompetitiv.
Im Jahr 2018 analysiert das deutsche Finanzunternehmen Wermuth Asset Management, dass eine Kilowattstunde Solarenergie mittlerweile in Dubai 2 Cent kostet, in der Bundesrepublik kostet sie 6 Cent. Bei diesem Preisniveau wäre Erdöl faktisch nur bei einer Kostenstruktur von 4 Dollar/Barrel kompetitiv.9 Auf für den Energiemarkt gilt, was bereits für den Bereich der Produktion und des Handels festgestellt werden durfte: Der intelligente Einsatz moderner Technologien führt zu tiefgreifenden Umbrüchen. Tradierte Verfahrensmuster und Produktionsmechanismen, die ein Marktsegment bisher strukturierten, werden erneuert. Die technischen und wissensbasierten Grundlagen, um folglich von den fossilen Energien abzukehren, sind vorhanden. Diese grundlegende Transformation des Energiesektors wirkt weder simpel noch geradlinig, aber sie erscheint möglich und vor allem geboten. Der Wandel lässt sich auch nicht isoliert betrachten. Er repräsentiert einen Bestandteil der umfassenderen Transformation, die sich gesamtgesellschaftlich vollzieht. Nur wenn der Umbau in den größeren Zusammenhang selbstdenkender Systeme, interagierender Netze und automatisierter Kommunikation eingebettet wird, erschließt sich die Relevanz und eigentliche Größenordnung der absehbaren Veränderung. Es sind mittlerweile entscheidende Kräfte im Markt, die den Prozess zur nachhaltigen Trendumkehr voranbringen und auf die wahrnehmbaren Entwicklungen reagieren. Dieser Zugang eröffnet auch eine legitime Interpretation, um Signifikanz und Funktion des Klimaabkommens von Paris zu erklären. Denn zweifellos lässt sich die gegenwärtige Epoche als kybernetisches Zeitalter begreifen. Durch die Verarbeitung und Übermittlung von Information werden Soll-Zustände herbeigeführt. Bewusste Kommunikation veranlasst gewünschtes soziales Handeln. Der Markt agiert dabei als Instanz, der Information verarbeitet und Reaktionen gemäß eigener Erkenntnis initiiert. Er veranlasst Reaktionen und Handlungsweisen entsprechend vorhandener Kenntnisse. Wie Friedrich August von Hayek analysiert hat, agieren Märkte als Aggregate, um Information prozessual zu verarbeiten. Aus holistischer Perspektive werden isolierte Entscheidungen Einzelner durch strukturelle und komplexe Verflechtungen zu einem konsequenten Gesamtprozess zusammengeführt, der als Ganzes den Markt konstituiert. Auf diese Weise, mittels Verbindung von Einzelakten, erzeugt die Gesellschaft Wissen über vorhandene Bedürfnisse und entsprechende Reaktionen werden diesbezüglich veranlasst. Angesichts dieser Verständnisperspektive lässt sich das Klimaabkommen von Paris auf Grundlage des folgenden Interpretationsansatzes verstehen: Es handelt sich um eine bewusst gesetzte Botschaft, formuliert von der internationalen Staatengemeinschaft, adressiert an die Finanzmärkte, dass die Erdöl- und Erdgasindustrie sukzessive abgewickelt werde. Die kodifizierten Ziele, die in diesem internationalen Vertrag klar definiert werden, lassen sich quantifizieren und rückrechnen. Wenn folglich der Verpflichtung entsprochen werden soll, dass bis zum Ende des Jahrhunderts die maximale Erderwärmung auf 1,5 Grad gegenüber dem vorindustriellen Zeitalter begrenzt wird, dann wird die Menge an Treibhausgasen, die der Mensch noch ausstoßen darf, signifikant limitiert. Auch eine Begrenzung der Erwärmung um 2 Grad würde dem möglichen Treibhausgasausstoß enge Grenzen setzen. Der potenzielle Treibhausgasausstoß lässt sich direkt in Verbindung setzen zur Menge an fossilen Energieträgern, die verbrannt und anschließend in der Atmosphäre abgelagert werden können. Ein Großteil der heute bekannten Reserven an fossilen Energieträgern muss deshalb ungenutzt bleiben. Wird also die Vorgabe von 1,5 Grad eingehalten, dann dürfen beispielsweise nur noch 2 % der vorhandenen Reserven faktisch verbrannt werden. Sollen die weit kritischeren 2 Grad bis zum Ende des Jahrhunderts erreicht werden, dann dürfen insgesamt nur rund 20 % der gegenwärtig vorhandenen fossilen Energieträger zur treibhausgasemittierenden Energiegewinnung herangezogen werden. Beim 1,5 Grad Ziel erscheinen also 98 % aller fossilen Energiereserven als gegenstandslos. Beim 2 Grad Ziel kalkulieren sich 80 % aller fossilen Energiereserven als wertlos. Der Sachverhalt, auf den seitens unterschiedlicher Analysten und öffentlicher Institutionen aufmerksam gemacht wird, besteht darin, dass die momentane Kapitalisierung in diesen Märkten auf Annahmen und Berechnungen baut, die sich nicht als realisierbare erweisen lassen. Warum? Die Marktkapitalisierung von Erdöl- und Erdgaskonzernen hängt im Wesentlichen mit der Menge an Ressourcen und Reserven zusammen, die durch vertragliche Ansprüche als Eigentum der jeweiligen Unternehmen gelten. Nur ein Bruchteil dieser Reserven lässt sich jedoch in Zukunft tatsächlich fördern und verbrennen, wenn der internationalen Klimavereinbarung von Paris entsprochen werden soll. Die faktischen Kosten, wenn sich die heutigen Investitionen im Erdöl- und Erdgasmarkt als Gewinne realisieren sollen, wären die ökologische Verheerung der Erde für die nächsten Generationen. Im Zuge der letzten Finanzkrise, die ihren Ausgang damit nahm, dass unhaltbare Immobilienpreise im US-Häusermarkt abgeschrieben werden mussten, kam es zu einer Wertberichtigung von 4 Billionen US-Dollar. Die Krise bestand essenziell in der Vernichtung dieser Vermögenswerte und den Folgewirkungen, die sich in fataler Zwangsläufigkeit daraufhin einstellten. Die Überbewertung des Erdöl- und Erdgasmarktes, basierend auf den Kalkulationen rund um das Pariser Klimaabkommen, werden beispielsweise von der Nachrichtenseite ThinkProgress im Jahr 2012 auf 22 Billionen Dollar beziffert.11 Das wäre die zu erwartende Größenordnung der anstehenden Wertberichtigung. Die Summe berechnet sich anhand der verfügbaren Menge eines Carbonbudgets, dass in die Atmosphäre geblasen werden kann, um die definierten Klimaziele zu erreichen. Dieser Wert lässt sich dezidiert auf die Größenordnung umrechnen, wieviel Erdöl und Erdgas folglich noch verbrannt werden dürfen. Im Jahr 2012 zeigt sich folgendes Bild: Der Unterschied zwischen Reserven und Ressourcen besteht darin, dass Reserven alle Mengen an fossilen Energieträgern sind, die sich gegenwärtig kostendeckend fördern lassen. Ressourcen hingegen bemessen die Größe aller vorhandenen und bekannten Vorkommen, die ein Erdöl- und Erdgaskonzern in den natürlichen Lagerstätten vermutet. Es werden also auch jene Mengen in diese Kennzahlen miteingeschlossen, die sich nicht kostendeckend fördern lassen.
Abbildung 6: Größenordnung des Carbonbudgets
Der Großteil dieser vorhandenen Ressourcen zeigt sich nun substanzlos. Aufgrund eng begrenzter Nutzmöglichkeiten sind sie faktisch wertlos und damit erheblich überbewertet. Eine massive Wertberichtigung darf erwartet und existierende Vermögenswerte müssen entsprechend vernichtet werden. Der damalige Gouverneur der Bank of England, Mark Carney, erklärte bereits im Jahr 2014 im Rahmen eines Seminars bei der Weltbank, dass „die große Mehrheit der fossilen Energieträger nicht verbrannt werden kann.“12 Er formuliert eine ausdrückliche Botschaft, die von relevanten Marktteilnehmern leicht angemessen interpretiert werden kann. Die Stadt New York City, ein entscheidendes globales Finanzzentrum, hat mittlerweile den Entschluss gefasst, öffentliche Pensionsgelder nicht mehr in fossilen Energiewerten zu binden und die Investments sukzessive zu reduzieren. Die Stadtregierung von London hat einen ähnlichen Beschluss gefasst. Beide Städte fordern auch offen alle anderen Städte auf, die gleiche Entscheidung zu treffen.13 Die beiden maßgeblichen Bankenzentren der Welt verständigen sich also darauf, ihre öffentlichen Investments in fossile Energieträger abzuziehen und neu zu veranlagen. Das geschieht nicht nur aus moralischen Motiven und ethischen Impulsen, sondern auch aus nachvollziehbarem, finanziellem Kalkül und einem sorgsamen Umgang mit öffentlichen Geldern. Das Finanzunternehmen Citigroup kalkuliert, dass Werte in der Höhe von 100 Billionen Dollar als Stranded Assets zu qualifizieren wären, wenn die Verpflichtungen des Pariser Klimaabkommens eingehalten werden. In diese Berechnung fließen nicht nur die überhöhten Wertannahmen für die unbrauchbaren Ressourcen ein, sondern auch die überflüssige Infrastruktur, die damit verbunden ist, wertlose Patente und nutzlose Förderanlagen werden miteinkalkuliert. Die Wirtschaftswissenschaft spricht mittlerweile von Stranded Assets, wenn die Überbewertungen im fossilen Energiemarkt schlagend werden. Stranded Assets sind Vermögenswerte, die unerwartete oder vorzeitige Abschreibungen, Abwertungen oder Umwandlungen in Verbindlichkeiten erfahren, weil umweltbezogene Risiken zur Wertberichtigung führen. Die Citibank rechnet folglich mit der umfangreichsten Wertberichtigung der modernen Geschichte, die erwartet werden muss. Es handelt sich eben um Stranded Assets, also um Vermögenswerte, die sich durch unvorhergesehene oder vorzeitige Abschreibungen, Abwertungen oder Umwandlungen in Verbindlichkeiten nicht amortisieren und einen beschleunigten Wertverlust aufgrund von Umweltrisiken erleiden. Ursache dieser Entwicklung kann maßgeblich die Wirkweise der schöpferischen Zerstörung sein, wie sie Joseph Schumpeter beschrieben hat. Das würde nun für den Energiemarkt ansehnlich zutreffen. Durch innovative Lösungen werden bestehende Verfahren obsolet. Innovation erwirkt Erneuerung und Bestehendes wird wirkungslos, die damit verbundenen vorhandenen Werte werden gegenstandslos. Bei der Abwicklung der Erdölindustrie stellt sich also die Frage, wie effektiv und rapide die Kräfte des Markts als Verfahren nachhaltiger Veränderung wirksam werden. Weil es sich hier um eine Auseinandersetzung handelt, an deren Ende entweder die Abwicklung der mächtigen Petrochemie steht oder die Fortsetzung einer industriellen Produktionsweise, die zum unvermeidbaren ökologischen Kollaps führt, wird die Auseinandersetzung so intensiv zwischen den involvierten Parteien geführt. Die Menschheit hat eine massive Menge an CO2, Methan und anderen Treibhausgasen durch Verbrennung in die Atmosphäre abgelagert, um die Lebensweise auf Grundlage industrieller Produktion zu schaffen. Mittlerweile findet sich ein solches Ausmaß an zusätzlichen Treibhausgasen in der Atmosphäre abgelagert, dass stetig mehr Sonnenenergie dort verbleibt. Das führt zum menschverursachten Klimawandel, der sich rapider verwirklicht, als wenn natürliche Klimazyklen wirksam wären. Der Zusammenhang aus moderner Technologie und der ökologischen Debatte liegt in einem anderen Zusammenhang darin, dass der technologische Fortschritt dafür benötigt wird, ausgediente Formen der Energiegewinnung radikal zu überholen. Nur technologisch ausgefeilte Verfahren, die neben der Energiegewinnung auch neue Formen der Mobilität und innovative Produktionsverfahren einschließen, die in hochindustriellen Ländern gleichermaßen angewandt werden, wie sie sich in Entwicklungsländern flächendeckend durchsetzen, werden die Menschheit instand setzen, die schlimmsten und düstersten Auswirkungen dieses bedrohlichen Phänomens zu schmälern, teils sogar zu verhindern. Die Transformation wirkt maßgeblich und hat laut aktueller Berechnung rasant zu geschehen. Ein anderes Zusammenspiel zwischen Ökologie und digitaler Transformation zeigt sich in der faktischen Bedeutung neuer Technologie als Investitionsmöglichkeit. Je schneller investiertes Kapital aus den fossilen Energiemärkten abzieht, weil sich die Gewinnaussichten schmälern, desto dringlicher verlangt es andere Veranlagungsformen, die ein Versprechen auf die Zukunft bilden. Exakt dieses Versprechen bündelt sich in moderner Technologie. Sie repräsentiert ein Investitionsversprechen, das vernünftige Veranlagungen rechtfertigt. Durch diese Bewegung wiederum werden die Forschungsbudgets neuer Technologien konstant erhöht, was die Entwicklung fortschrittlicher Innovationen wahrscheinlicher macht. Ein letzter Aspekt findet sich im gesellschaftlichen Überbau verankert, der sich in der anstehenden Transformation abzeichnet. Die Möglichkeiten der IV. Industriellen Revolution kündigen die Wahrscheinlichkeit eines Wandels an, der seine eigentliche und substanzielle Ausgestaltung in Form der Wissensgesellschaft finden wird. Wertschöpfung basiert größtenteils auf wissensbasierter Arbeit. Selbst die Mehrheit der Tätigkeiten im industriellen Umfeld wandeln sich von klassischer, körperbetonter Industriearbeit hin zu Bürotätigkeiten. Produktionsverfahren wandeln sich radikal, die Arbeitswelt verändert sich, eine graduelle Entkopplung zwischen Erwerbstätigkeit und Einkommen lässt sich denken. Die Prinzipien, auf denen die Industriegesellschaft gründet, überholen sich also und werden durch andere Grundlagen ersetzt. Das Versprechen wirkt gerade für Staaten, die bisher vom Import fossiler Energieträger abhängig waren, verlockend. Sie möchten die Trendumkehr schaffen. Speziell bei mächtigen Volkswirtschaften, wie jene des europäischen Binnenmarkts oder Japans, trägt der Energieimport merklich zum negativen Ergebnis der Leistungsbilanz bei. Es besteht also ein politisches Interesse, diese Verhältnisse umzukehren.
Sowohl die Realität des Klimawandels als auch die Fortschritte in der Technologie manifestieren radikale Agenten des Wandels, sie erneuern die Grundstruktur der Gesellschaft fundamental. Aufgrund des technologischen Fortschritts steht die menschliche Zivilisation vor dem historischen Bruch, dass Gegenstände, die im Alltag genutzt werden, in konkreter und funktionaler Hinsicht schlauer agieren, als es Menschen können. Das Verhältnis zwischen Mensch und Gegenstand ändert sich radikal. Durch den Klimawandel wird nun die Beziehung zwischen Mensch und Umwelt neu ausverhandelt. Die Idee des Anthropozän wird stetig plausibler. Das Anthropozän meint die erdgeschichtliche Epoche, die sich gegenwärtig im Anbruch befindet, in der das menschliche Handeln einen entscheidenden Einflussfaktor auf die biologischen, geologischen und atmosphärischen Prozesse manifestiert.
Aus ethischer Perspektive erwächst den Menschen die Verantwortung, sich dieser Konsequenz des eigenen Handelns bewusst zu werden. Ethik wächst innerhalb des ökologischen Bedeutungsrahmens zu einem Verständnis, der einen erweiterten Verständniszusammenhang referieren wird. Diese Erweiterung gilt es, im menschlichen Bewusstsein zu erwirken, um die Folgewirkungen des eigenen Tuns zu begreifen. Eine weitere expansive Tendenz der Ethik liegt exakt darin, dass nun Maschinen Handlungen verantworten, die eine moralische Auswahl verantworten können. Ethik braucht sowohl Eigenständigkeit für Entscheidungen als auch autonomes Handeln in kritischen Situationen auf Grundlage kritischer Reflexion. Bei einem autonom fahrenden Auto treffen diese Voraussetzung zu, weil auf Basis sensorisch erfasster Daten und Rückschlüssen, durch einen wirksamen Algorithmus eine bewusste Auswahl an unterschiedlichen Möglichkeiten getroffen werden kann. Diese Entscheidung verlangt nun nach einem moralischen Fundament und bewirkt die Fragestellung, wer für die Festlegung dieser moralischen Standards verantwortlich zeichnen soll. Mit dieser Transformation, die durch moderne technologische Entwicklung verantwortet wird, verbindet sich auch ein sozialer Umbruch, der sich gegenwärtig gesellschaftlich statistisch ausmachen lässt. Was das nun genau besagt und wie möglicherweise darauf reagiert werden kann, soll ein nächstes Kapitel versuchen, komprimiert zu analysieren. Abschließend zu diesem Kapitel: Seit Beginn der industriellen Revolution bis zum Jahr 2015 hat die Weltgemeinschaft eine solches Ausmaß an fossilen Brennstoffen verbrannt, das vom ökologischen System nicht abgebaut werden konnte, sodass sich 365 Milliarden Tonnen an zusätzlichen Kohlenstoffen in der Atmosphäre abgelagert haben. Hinzu kommen noch 180 Milliarden Tonnen, die durch die Entwaldung verursacht werden. Für das Bezugsjahr 2015 gilt, dass allein in diesem Jahr 9 Milliarden Tonnen an menschverursachten Kohlenstoffen in der Atmosphäre abgelagert werden, die jährliche Steigerungsrate liegt bei bis zu 6 Prozent. Wird der Trend ungebremst fortgesetzt, dann darf bis zur Mitte des Jahrhunderts kalkuliert werden, dass der Anteil von CO2 in der Atmosphäre auf 500 ppm anwachsen wird. Dieser Wert ergäbe eine Verdoppelung gegenüber der vorindustriellen Epoche. Die Folgewirkungen lassen sich konsequent und logisch antizipieren: Ein rasanter Anstieg der Temperaturen führt zu Verschärfung natürlicher Kippeffekte, Gletscher und das arktische Eisschild schmelzen, der Meeresspiegel steigt, Wetterextreme nehmen zu. Was in dieser Aufzählung nur zu leichtfertig vergessen wird, wäre der Kausaleffekt dieser Tendenzen auf die Ozeane. Das Meer nimmt Gase aus der Atmosphäre auf und gibt dann im Wasser gelöste Gase auch wieder ab. Sofern das in Balance geschieht, wird die gleiche Menge aufgenommen wie ausgestoßen. Wenn sich nun die chemische Zusammensetzung der Atmosphäre verändert, weil der Bestand an Kohlendioxid in der Atmosphäre steigt, dann gerät dieses Gleichgewicht in Schieflage. Die Ozeane nehmen in Folge mehr Kohlenstoffe auf, als sie abstoßen können. Damit verändert sich die Konsistenz des ozeanischen Wassers, der Säure-Basen-Haushalt gerät in Schieflage. Durch diese zusätzliche Kohlendioxidzufuhr ist der durchschnittliche pH-Wert des Oberflächenwassers der Meere bereits von 8,2 auf 8,1 gefallen. Da die pH-Skala logarithmisch ist, steht selbst eine so geringe Differenz des Zahlenwertes für eine erhebliche Veränderung in der realen Welt. Eine Abnahme um 0,1 bedeutet, dass die Meere nun dreißig Prozent saurer sind als im Jahr 1800. Nach einem „Weiter-wie-bisher“ -Emissionsszenario […] werden die Meere [bis zur Jahrhundertmitte, Anm.] um hundertfünfzig Prozent saurer sein als zu Beginn der industriellen Revolution. Dieser Bruch hätte zur Folge, dass die Ozeane sich als Habitat des organischen Lebens massiv verändern und die neuen Bedingungen ein Umfeld bilden, an das sich wenige Arten in der Rasanz werden anpassen können. Das hat natürlich auch kritische Folgewirkungen für Volkswirtschaften, deren Einkommen essenziell von den Ozeanen abhängt. Diesen düsteren Konsequenzen ließe sich mittels grundlegender Transformation der Energiegewinnung und einer anders operierenden Ökonomie entgegenwirken. Wie tiefgreifend sich der Wandel des Energiesektors realisieren muss, zeigt die Grafik unten, die den globalen Energieverbrauch auf die Energiequellen zurückführt. Die Angaben auf den Skalen entsprechen Terawatt-Stunden.
Abbildung 7: Globaler Energieverbrauch und Energieträger
Dieser Energiemix, der die enorme Abhängigkeit von fossilen Energieträgern anzeigt, übersetzt sich nun in den Ausstoß von CO2-Emissionen, die verursacht werden.
Abbildung 8: CO2 Emissionen anhand von Energieträgern
Es zeigt sich auf der Zeitachse, wie sehr die I. Industrielle Revolution noch nahezu ausschließlich auf der Nutzung von Kohle basierte, während im weiteren Verlauf der II. Industriellen Revolution die Nutzung von Erdöl kontinuierlich ausgeweitet wurde. Worin liegt also die zentrale Verantwortung im Rahmen der digitalen Transformation im Hinblick auf eine mittelfristige Perspektive? Der Weltklimarat, kurz IPCC, hat diesbezüglich konkrete Berechnungen erwirkt, die Orientierung liefern. IPCC steht als Akronym für die Bezeichnung Intergovernmental Panel on Climate Change. Wie bereits oben erwähnt, aber hier nochmals zur Erinnerung: Der Weltklimarat bildet eine zwischenstaatliche Organisation, die unter dem Dach der Vereinten Nationen agiert. Der Auftrag, dem die Organisation nachzukommen hat, besteht darin, für politische EntscheidungsträgerInnen den wissenschaftlichen Stand der Forschung bezüglich der Erkenntnisse des Klimawandels konzis zusammenzufassen. Im Jahr 2007 wurde dem Weltklimarat in Anerkennung seiner Bemühungen der Friedensnobelpreis verliehen. In regelmäßigen Abständen veröffentlicht der Weltklimarat Studien, die prägnant den aktuellen Erkenntnisstand der Wissenschaft zusammenfassen, um damit auch eine breite Öffentlichkeit darüber zu informieren, was über das Phänomen gewusst wird und wie ihm beizukommen wäre. Die Berichte unterscheiden zwei Strategien, die jeweils andere Ansätze darstellen, aber erst in der Kombination eine angemessene Reaktion erlauben. Die zwei strategischen Ansätze, die helfen sollen, mit dem Klimawandel umzugehen, werden mit den Schlagworten Vermeidung und Anpassung bezeichnet. Vermeidung (englisch: mitigation) meint in diesem Zusammenhang alle effektiven Maßnahmen, die getroffen werden, um die Situation nicht weiter zu verschlimmern. Es handelt sich also um die notwendige Wende in unterschiedlichen gesellschaftlichen Feldern, um die Klimaänderung zu begrenzen. Anpassung (englisch: adaption) bezeichnet alle konstruktiven Maßnahmen, die gesetzt werden, um auf unvermeidbare und eintretende Folgen des Klimawandels möglichst angemessen zu reagieren. Die Kosten für diese Maßnahmen lassen sich den Kosten gegenüberstellen, die ein ungebremster Klimawandel verursachen würde. Eine Studie, die ursprünglich von der britischen Regierung in Auftrag gegebenen wurde und im Jahr 2006 unter Federführung des ehemaligen Chefökonomen der Weltbank, Nicholas Stern, veröffentlicht wurde, beziffert den Gesamtaufwand, den der ungebremste Klimawandel verursachen würde im Extremfall auf 20 % des globalen Bruttoinlandsprodukts. Die Kosten der notwendigen Maßnahmen, um die CO2 Emissionen zu begrenzen, werden mit rund 2 % des globalen Bruttoinlandsprodukts veranschlagt. Hinter den ökonomischen Kennziffern verbergen sich auch harte Fakten, die menschliche Lebensrealitäten formen und globale Umbrüche meinen. Die Ausdehnung von Wüsten, die Unbewohnbarkeit mancher Landstriche, die Zunahme von Dürreperioden, die Veränderung von Jahreszyklen und die unbekannten Auswirkungen auf die Landwirtschaft, Ernteausfälle, die Zunahmen von schlagartigen Regenfällen und Überschwemmungen, die Überflutung von Küstengebieten, Gesundheitsrisiken durch Hitzeperioden, die Zunahmen von Wetterextremen, ökonomische Unsicherheiten, die Zunahme von Versicherungsschäden und ihre Auswirkungen auf volatile Finanzmärkte, das sind nur einige der tatsächlichen Konsequenzen, die sich hinter den Kennzahlen verbergen, die dem Klimawandel eigen sind. Was sich im Zuge der Begrenzung der Erwärmung erreichen lässt, wäre die Größenordnung und Intensität dieser fatalen Phänomene. Das ist entscheidend. In Anbetracht der fortgeschrittenen Situation bedarf es beider Maßnahmenpakete, also Mitigation und Adaption, um mit den fatalsten Folgen der Klimakrise umzugehen. Die digitale Transformation, sofern intelligent angewandt, könnte für beide Weichenstellungen entscheidende Beiträge liefern.
Die Schritte, die in der Anpassung gesetzt werden, bedürfen belastbarer Modelle, die klimatische Entwicklungen prognostizieren. Bessere Rechenleistungen, umfassendere Rechenmodelle, Datenaustausch zwischen privaten und öffentlichen Organisationen liefern in diesem Zusammenhang sehr konkrete Beiträge. Im Hinblick auf die Vermeidung verlangt es eine durchdachte Perspektive, die objektive Notwendigkeiten mit den vorhandenen Möglichkeiten in Abgleich zu bringen versteht. Der zeitlichen Rahmen, der dabei zur Verfügung steht, wird durch den IPCC Report klar abgegrenzt, der im Jahr 2018 veröffentlicht wurde. Wird der vertraglichen Verpflichtung des Pariser Abkommens Folge geleistet und das Ziel anerkannt, dass die globale Erwärmung bis zum Ende des Jahrhunderts auf 1,5 Grad beschränkt wird, dann müsste spätestens im Jahr 2050 der menschverursachte CO2 Ausstoß nahezu auf Null reduziert sein. Das ist der Zeithorizont, den es anzuerkennen gilt, um die Prinzipien der Vermeidung effektvoll zu verfolgen. Das 1,5 Grad Ziel würde auch die Schritte hinsichtlich Anpassung innerhalb eines bewältigbaren, weil planbaren Rahmens halten.
Wie lässt sich aber nun der Zielvorgabe entsprechen? Die akute Schwierigkeit besteht erfahrungsgemäß darin, Wirtschaftswachstum vom Treibhausgasausstoß zu entkoppeln. Der Weltgemeinschaft ist es in den letzten Jahrzehnten nur im Zuge der letzten globalen Rezession gelungen, den globalen Treibhausgasausstoß gegenüber den Vorjahren zu reduzieren. Die Lösung kann jedoch nicht darin bestehen, absichtlich die Weltwirtschaft in die Rezession schlittern zu lassen, um die Ansprüche von Ökonomie und Ökologie miteinander zu harmonisieren. Stattdessen bedarf es einer effektiven Kooperation zwischen staatlichen Akteuren, agilen Märkten, veränderungswilligen Gesellschaften, einer kritischen Öffentlichkeit und demokratischen Machtverschiebungen. Es bedarf neuer Investitionen, die sich auch dadurch finanzieren lassen, dass Kapital aus den überbewerteten fossilen Energiemärkten abzieht. Gerade auch weil die ökologische Wende nach zielgerichteten Investments verlangt, muss die Tatsache zur Kenntnis genommen werden, dass 71 % aller menschverursachten Emissionen seit dem Jahr 1988 sich faktisch auf die Geschäftspraktiken und Geschäftsmodelle von 100 Unternehmen zurückverfolgen lässt. Die Geschäftspraktiken von 100 Unternehmen wären also für 71 % der menschverursachten CO2 Emissionen sei 1988 bis zum Jahr 2017 verantwortlich. Es zeigt, wie sehr ein grundlegender Umbruch stattfinden muss. Die nachfolgende Grafik zeigt dabei die 15 größten Verschmutzer und dokumentiert den relativen Wert, wieviel die jeweilige Geschäftspraxis zu den anthropogenen CO2 Emissionen beigetragen hat. Als Bezugswert gilt der Zeitraum zwischen 1988 und 2017. Würde sich das in den Unternehmen gebundene Kapital weiterhin als Profit ungebremst realisieren und das Geschäftsmodell dieser Unternehmen fortbestehen, dann wären die wahren Kosten die absehbare Zerstörung des natürlichen Lebensraums.
Abbildung 9: Unternehmen, deren Produkte verantwortlich sind für die Mehrheit des vom Menschen verursachten CO2 Ausstoßes
Um also den notwendigen Wandel zu realisieren, setzt es perspektivisches Denken voraus. Die nachhaltige Kurskorrektur kann dann gelingen, wenn einerseits die Möglichkeiten technologischen Fortschritts ausgeschöpft werden und andererseits der Zeithorizont bis zur Mitte des Jahrhunderts durch Etappenziele gruppiert wird. Die vereinbarten Meilensteine lassen sich entsprechend den einzelnen Jahrzehnten setzen, um die Epoche bis zur Mitte des Jahrhunderts in konkrete Zeitabschnitte mit entsprechenden Arbeitsprogrammen zu teilen. Mit jedem Jahrzehnt, beginnend mit dem Jahr 2021, müsste die globalen Treibhausgasemission um die Hälfte reduziert werden. Einen solchen Plan hat eine Gruppe international hoch anerkannter Wissenschaftler bereits im Jahr 2017 im renommierten Magazin Science veröffentlicht.20 Die Grundannahme ist dabei, dass die Vereinbarungen des Pariser Klimaabkommens in Emissionsbudgets von 600 Milliarden Tonnen CO2 (600 Gigatonnen) übertragen werden. Bei dieser Kalkulation gilt es zu bedenken, dass jenes CO2, das durch menschliches Handeln bereits in der Atmosphäre abgelagert wurde, dort weiterhin verweilt. Es stellt sich also die kritische Frage, welches vorhandene Budget ausgeschöpft werden kann, das die Atmosphäre noch zur Verfügung stellen würde, wenn dem 1,5 Grad Ziel bis zum Ende des Jahrhunderts entsprochen werden soll.
Hans Schellnhuber, Gründer des Potsdam-Instituts für Klimafolgenforschung, und Stefan Rahmstorf, Abteilungsleiter für Erdsystemanalyse am selben Institut, haben diese Ansätze in einem anderen Buch weiter zusammengefasst.
Das Jahrzehnt zwischen 2021 und 2030 würde demgemäß als Zeitraum der „heroischen Anstrengung“ gelten müssen. Es ist die entscheidende Dekade. Von einem Höhepunkt im Jahr 2020 ausgehend, wenn 40 Gigatonnen menschverursachtes CO2 jährlich ausgestoßen werden, wird bis zum Jahr 2030 dieses Ausmaß auf 20 Gigatonnen halbiert. Dazu braucht es neben der Wiederaufforstung von Regionen, auch die Transformation der industriellen Landwirtschaft und den wirksamen Stopp massiver Abholzungen, um gravierende Einschnitte zu schaffen. „Rodung von Wäldern und Umwandlung von Grünland in Ackerland, der Ausstoß der Klimakiller Lachgas
(N2O, 300-facher CO2- Effekt) aus Mineraldüngung sowie Methan (CH4, 20-
facher CO2-Effekt) durch Wiederkäuer und Nassreisanbau“22 – denn durch all diese Effekte trägt die konventionelle Landwirtschaft verantwortlich zum Klimawandel bei.
Bis 2030 müssen […] auf alle Fälle die Kohleverstromung weltweit beendet und der Verbrennungsmotor auf allen Straßen ausgemustert sein. Gleichzeitig müssen aber auch die Grundlagen für strategische Innovationen im darauffolgenden Jahrzehnt geschaffen werden, etwa Materialien und Techniken für das klimaneutrale Bauen von Städten und Infrastruktur. Das heißt, dass in dieser Phase endgültig alle F&E Investitionen von fossilnuklearen Unternehmungen abzuziehen und in nachhaltige Wertschöpfungen umzulenken sind. Auf Grundlage dieses Ansatzes müsste dann in der Dekade zwischen 2031 und 2040 fortgesetzt werden, die anthropogenen Treibhausgasemissionen müssen sich bis zum Jahr 2040 auf 10 Gigatonnen reduzieren. Die Ära wird als „Durchbruchphase“ tituliert. Nicht nur das andere Materialien wie Lehm und Holz den Hoch- und Tiefbau dominieren werden, auch haben sich Privathaushalte zu energetischen Selbstversorgern gewandelt. Additive Fertigungsverfahren (also der 3D-Druck) lassen klimaneutral produzieren. Das IoT liefert die neuartige Infrastruktur, auf der sowohl Mobilität geschieht, was aber auch die Herstellung von Gütern betrifft. Es werden also nicht nur die Fertigungsverfahren verändert, sondern auch die genutzten Materialien erneuern sich. Die Zusammenarbeit zwischen Menschen wird sich weiter automatisieren bzw. durch virtuelle Meetings und verteiltes Arbeiten bestimmt sein. Die Landwirtschaft wird zunehmend ökologischer, die produzierten Lebensmittel hochwertiger. Was also stattfinden wird, wäre ein nachhaltiger Umbruch der industriellen Gesellschaft, die anderen Leitprinzipien folgen würde.
Ab dem Jahr 2040 wird dann entscheidend nachgebessert. Es folgt die Periode der „Vertiefungsdekade“. Unerwünschte Entwicklungen werden adaptiert, aber vor allem entsteht im Umfeld der markanten Transformation ein neuer Innovationsgeist, getrieben von neuen technologischen Möglichkeiten, günstigen Energiekosten und anderen Verfahren. Es entwickeln sich Chancen, Möglichkeiten und Gestaltungsperspektiven als Konsequenz dieses industriellen Aufbruchs, der auch die digitale Transformation von Gesellschaften und Märkten permanent voranbringt. Wenn also auf die konventionelle Epochenfolge der industriellen Revolution gezählt wird, dann besteht das Wesen der digitalen Transformation darin, der IV. Industriellen Revolution Gestalt zu geben. Neue Funktionslogiken greifen in Produktion und Handel, Märkte operieren mit neuen Strukturen, ausgediente Technologien und Organisationsformen werden durch agilere und adaptivere Systeme ersetzt. Doch diese IV. Industrielle Revolution findet ihre zweckvolle Bestimmung darin, wenn sie es vermag, die schädlichen Folgewirkungen der industriellen Revolution einzudämmen und diesbezüglich eine Kurskorrektur vornehmen. Die IV. Industrielle Revolution wirkt deshalb exzeptionell, weil sie die ökologische Kursrichtung der anderen industriellen Revolutionen ändern mag. Sie bildet in diesem Sinne nicht nur eine Erweiterung und Erneuerung, sondern repräsentiert eine radikalen Neuansatz, sie verändert die immanente Konsequenz.
Die digitale Transformation bildet nun die Erwartungshaltung, die existierenden Systematiken auch in diesem Zusammenhang zu verändern. Der Wandel, der benötigt wird, besteht nur in einem progressiven und fortschrittlichen Neuansatz, wie sich die Ansprüche von Ökologie und Ökonomie im 21. Jahrhundert anders denken und innovativ aufsetzen lassen. Die genutzten Technologien erhalten diesbezüglich eine Zweckvorgabe, deren volles Potenzial sich erst durch unternehmerische Fantasie entfalten ließe. Neben dem unternehmerischen Wirken braucht es aber auch klare rechtliche Rahmenbedingungen, die Orientierung darüber geben, wohin die Entwicklung steuern soll. Die Vorstellung, dass sich die Welt schlicht zurückdrehen ließe, um den dringlichen Problemen zu begegnen, bildet aller Wahrscheinlichkeit nach eine fatale Illusion. Vielmehr besteht die zentrale Verantwortung darin, von Kreativität, Erfindungsreichtum, bewährten Mitteln, Gerechtigkeitssinn und Neuansätzen mutig Gebrauch zu machen, um die Trendwende aktiv zu gestalten.
Der Klimawandel repräsentiert die zentrale Herausforderung des 21. Jahrhunderts. Nichts Vergleichbares wird dieses Jahrhundert so sehr bestimmen und die eigentliche Verantwortung für den Menschen begründen. Die digitale Transformation erfasst entsprechend den wesentlichen Umbruch dieses 21. Jahrhunderts. Insofern verlangt es nach einem Mittel-Zweck Verhältnis. Die digitale Transformation wäre jenes Mittel, das zum Zweck der Eindämmung des Klimawandels effektiv genutzt werden muss. Wie das vergleichbar auch in anderen Zusammenhängen wirksam wird, erklärt das nachfolgende Kapitel.
4 Ungleichheit, Produktionsfaktoren und eine moderne Rolle des Staats
Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung – kurz OECD – hält in einem Bericht, der bereits im Jahr 2011 veröffentlicht wurde, folgende Erkenntnis fest: „Die ungleiche Verteilung des Wachstums von Arbeits- und Kapitaleinkommen, die mit dem Rückgang des Arbeitsanteils einherging, deutet darauf hin, dass diese Trends den sozialen Zusammenhalt gefährden könnten.“
Die Einkommenszuwächse in Form von Lohneinkommen fielen in den letzten Jahren hinter die Einkommenszuwächse durch Kapitalerträge zurück. Die Internationale Arbeitsorganisation hat in einer Studie 2017 festgestellt, dass in 91 von 133 Ländern der Anteil der Lohnquote in den letzten Jahren vergleichsweise gesunken ist.
Abbildung 10: Entwicklung der Lohnquote in den OCED Ländern
(hier bezeichnet als Advanced economies)
Die Lohnquote ist jene volkswirtschaftliche Kennzahl, die darlegt, welchen Anteil die Arbeitnehmerentgelte am Volkseinkommen ausmachen. Das Volkseinkommen bemisst hingegen alle errechneten Erwerbs- und Vermögenseinkommen, die von StaatsbürgerInnen im In- und Ausland erworben werden. Je geringer also der Anteil am Volkseinkommen durch Erwerbsarbeit, desto höher die Erträge durch andere Einkünfte wie Vermögens- oder Unternehmenseinkommen. Die renommierte britische Zeitschrift Economist berechnet, dass der Rückgang der Einkommensquote zu einer nachweislichen Verlagerung von Vermögenswerten führte. Seit dem Jahr 1975 sind über den Bemessungszeitraum bis ins Jahr 2018 durchschnittlich zwei Billionen Dollar pro Jahr in den vermögenden Ländern aufgrund der unterschiedlichen Dynamiken zwischen Lohneinkommen und Kapitaleinkommen als gewachsenes Kapitaleinkommen zu verbuchen.
Auch diese soziale Entwicklung reflektiert teils einen technologischen Hintergrund. Der Einsatz von Maschinen und moderner Technologie hilft, die Lohnkosten zu senken und sukzessive mehr Tätigkeiten in Produktionsprozessen automatisiert zu bewerkstelligen. Die Grundlagen der Wertschöpfung verschieben sich: Die Boston Consulting Group analysiert für die Situation in den Vereinigten Staaten von Amerika im Jahr 2015, dass eine Arbeitsstunde menschlicher Arbeitskraft durchschnittlich Aufwände von $ 28 verursacht. Hingegen, wenn ein Roboter die gleiche Arbeitsleistung vollbringt, der Gesamtaufwand samt aller Abschreibungen, Anschaffungs- und Betriebskosten mit rund $ 8 zu Buche schlägt.26 Die Tendenz für die Gesamtkostenrechnung der Roboter gibt sich fallend, die Lohnkosten steigen hingegen kontinuierlich. Neben der Erhöhung der Produktivität, die mit dem Einsatz von Maschinen einhergeht, zeigen sich auch die laufenden Kosten im Vergleich als günstiger.
Wenn jedoch diese Differenz kontinuierlich an Größe gewinnt, dann stellt sich die Frage, ob die konventionellen Formen der Redistribution von volkswirtschaftlicher Wertschöpfung noch effektiv operieren. Bisher wurden durch die jährliche Erhöhung des Lohnniveaus die ArbeitnehmerInnen an den Produktivitätsgewinnen beteiligt. Ob dieser institutionalisierte Mechanismus auch dann noch greift, wenn die Disparitäten zwischen Kapital und Arbeit sich weiterhin beschleunigen, erscheint offen.
Die Debatte rund um die Einführung des bedingungslosen Grundeinkommens, die global an aktueller Wahrnehmbarkeit zunimmt, wäre auch exakt vor diesem Hintergrund zu verstehen. Die Diskussion stellt immanent die Frage, wie faktisch mit anwachsender Wertschöpfung und Produktivitätssteigerung umgegangen werden kann, die kontinuierlich weniger menschliche Arbeitskraft bedarf. Wie lassen sich die Ergebnisse der Produktivitätsfortschritte distributiv verteilen und andere Ansätze hinsichtlich der gesamtgesellschaftlichen Arbeitstätigkeiten denken? Ein solcher gesellschaftlicher Schritt, wie es die Einführung des bedingungslosen Grundeinkommens darstellt, hätte gerade auch für den Bereich der Mitarbeiterführung massive Konsequenzen. Generell wird die volkswirtschaftliche Wertschöpfung als eine Funktion des Einsatzes der Produktionsfaktoren Arbeit und Kapital verstanden. Adam Smith, einer der ersten Theoretiker, der über die Funktionsweise der Märkte nachdachte, hat diesbezüglich im 18. Jahrhundert Leitprinzipien formuliert, die noch immer Relevanz zeigen. Der Wirkzusammenhang aus Kapital und Arbeit, den Adam Smith skizziert, wirkt noch immer wie ein praktischer Imperativ für erfolgreiches Management. Seine Ausführungen:
Jeder Kapitalbesitzer, der viele Arbeiter beschäftigt, ist ganz zwangsläufig aus eigenem Interesse bestrebt, die anfallende Arbeit so sinnvoll aufzuteilen und zu organisieren, daß die Arbeiter in die Lager versetzt werden, das Größtmögliche zu leisten. Darum ist er auch bemüht, sie mit den denkbar besten Werkzeugen und Maschinen auszustatten. Was im kleinen für die Arbeiter in einer einzelnen Werkstatt gilt, das trifft auch im großen und ganzen für ein ganzes Land zu. […] Da nun mehr Köpfe darüber nachdenken, welche Maschine und Werkzeuge für jeden Arbeitsplatz am besten geeignet sind, ist die Aussicht weit größer, daß diese auch erfunden werden. Damit der Wohlstand einer Volkswirtschaft steigt, braucht es folglich die möglichst effektive Verwendung von materiellen und immateriellen Mitteln und Dienstleistungen, um effektive Wertschöpfung zu generieren. Dabei wirken also die Faktoren von menschlicher Arbeitskraft und investiertem Kapital zusammen, das beispielsweise die Anschaffung neuer Geräte und Maschinen finanziert. Diese Faktoren ließen sich jetzt fallweise intensivieren oder ihr Wert erhöhen. Beispielsweise lässt sich der Faktor Arbeit durch die Investition in Fortbildung intensivieren und der Faktor Kapital steigern, indem neue Geräte angeschafft werden. Wird ein Faktor gestärkt oder angehoben, dann folgt die logische Konsequenz, dass die Gesamtwertschöpfung steigt. In eine mathematische Formel gewandelt, würde sich die Wertschöpfung, wie folgt abbilden lassen:
Y = F(A, K)
Y bezeichnet in diesem Fall das Bruttoinlandsprodukt, also jene ökonomische Kennziffer, die den Gesamtwert aller Waren und Dienstleistungen misst, die eine Volkswirtschaft faktisch produziert hat. Dieser Wert bildet eine Funktion der Faktoren Arbeit (A) und Kapital (K). Je nach Höhe des Inputs der beiden Faktoren sinkt oder steigt das Bruttoinlandsprodukt. Adam Smith zählt auch den Boden als Produktionsfaktor. Die effektive Zusammenführung dieser drei Produktionsfaktoren, um Wert zu erzeugen, bildete lange die gängige Erklärung dafür, wie Wert in modernen Ökonomien geschaffen wurde. Folglich ist Wertschöpfung nichts anderes als der zielgerichtete und zweckmäßige Einsatz von Arbeit und Kapital. Es dauerte faktisch bis zur Mitte des 20. Jahrhunderts, dass dieses Modell noch um einen weiteren, entscheidenden Faktor ergänzt wurde. Der Ökonom Robert Solow, im Jahr 1987 mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet, erkennt, dass dieses jahrhundertealte Erklärungsmodell ergänzungsbedürftig sei. Er führt einen dritten Faktor ein, der neben Arbeit und Kapital über das Ausmaß der Wertschöpfung mitentscheidet: Den wachsenden Entwicklungsstand der Technologie. Ein Anstieg der Produktion wird folglich nicht nur durch intensivierte Arbeit und erhöhte Kapitalbildung erwirkt, sondern auch durch den Fortschritt der Technologie begründet. Entsprechend den Analysen von Robert Solow basiert Wertschöpfung auf der Nutzung von drei unterschiedlichen Input-Faktoren: Kapital, Arbeit, dem Entwicklungsstand der genutzten Technologie. Die Funktion der Wertschöpfung würde sich also folgendermaßen definieren:
Y = F(A, K, T)
Für die Berechnung der Leistungskraft einer Volkswirtschaft wurde entsprechend die Kennzahl der Totalen Faktorenproduktivität entwickelt. Sie lässt das Ausmaß an Produktivität erfassen, das eine Volkswirtschaft erwirkt, ohne den Einsatz der Produktionsfaktoren Kapital und Arbeit zu steigern. Die Kennzahl ließe sich folglich als Stand des technologischen Fortschritts reflektieren.
Wertschöpfung geschieht also nicht nur, indem Arbeit und Kapital investiert werden, sondern es ist auch entscheidend, auf welchem technologischen Stand sich eine Volkswirtschaft bewegt. Es lässt sich noch so viel in Arbeit und Kapital investieren, wenn der technologische Fortschritt nicht effektiv genutzt wird, dann verschleißen sich die Mühen und die Produktivität fällt hinter ihr denkbares Potenzial zurück. Dabei gilt es zu berücksichtigen, dass Arbeit und Kapital als Ressourcen oft eng begrenzt sind. Wenn also die FunktionsträgerInnen in Organisationen verstanden werden sollen, die für die digitale Transformation verantwortlich zeichnen, dann braucht es ein manifestes Bewusstsein: Sie sind diejenigen, die sich um die Hebung des dritten – oft vergessenen, aber immer entscheidenden – Produktionsfaktors kümmern. Sie besorgen die Nutzung der totalen Faktorenproduktivität. Ihre Aufgabe liegt in der Intensivierung dieses Faktors. Der Wirtschaftswissenschaftler Jeremy Rifkin erwirkt in diesem Zusammenhang interessante und erklärende Einsichten. Anders als üblicherweise und häufig konzipiert, erklärt Jeremy Rifkin, dass sich gegenwärtig nicht die vierte Entwicklungsstufe der industriellen Revolution abzeichnen würde, sondern sich das Zeitalter der III. Industriellen Revolution ausmachen lässt. Wie begründet Jeremy Rifkin diese Einschätzung? Er definiert nicht nur die Mechanik der genutzten Produktionsverfahren als Definitionsmerkmal der Entwicklungsschritte der industriellen Revolution. Stattdessen müssen gemäß seinem Verständnis unterschiedliche Komponenten zusammengeführt werden, um die eigentlichen Bedeutungsverschiebungen zu verstehen, die sich im Rahmen der industriellen Revolution entfalten. Wird die Betrachtungsweise also auf diese Weise substantiviert, dass nicht nur die Veränderung der Produktionsmechanik als Definitionsmerkmal herangezogen wird, dann zeigen sich mehrere Ausgangspunkte, die der Entwicklungsgeschichte der industriellen Revolution eigen wären. Jeremy Rifkin erklärt, dass bei den anfänglichen durch die industrielle Produktion freigesetzten Mechanismen, mehrere Aspekte schlagend wurden: Durch Innovationen verändern sich die Raum-Zeit-Wahrnehmungen. Größere Distanzen als bisher werden plötzlich überbrückt, damit lassen sich in Folge größere soziale Einheiten in einen gesellschaftlichen Verband integrieren. Der Einsatz von Innovation beschleunigt außerdem die Verbreitung von Information, wissensbasierte Prozesse verändern sich. Sowohl die Strukturen der gesellschaftlichen Integration als auch die politischen Entscheidungsmechanismen werden erweitert und transformiert. Die I. Industrielle Revolution bildet diesbezüglich ansehnlich ab, wie durch den Einsatz von neuen Technologien faktisch unterschiedliche Veränderungspotenziale wachgerufen werden. Denn die Dampfmaschine revolutionierte nicht nur die angewandten Verfahren der Herstellungsweisen in der Industrie. Ihr Beschleunigungspotenzial fand beispielsweise auch in der Produktion von Druckerzeugnissen Einsatz. Beschleunigte Druckverfahren führten dazu, dass Druckwerke billiger und schneller vervielfältigt werden konnten. Das moderne Zeitungswesen entstand. Informationen zirkulierten also schneller im größeren Rahmen als bisher der Fall. Diese Entwicklung wurde dann nochmals durch den Aufbau eines Telegraphensystems intensiviert. Dampfbetriebene Druckverfahren und die Ausbreitung des Telegraphensystems gingen mit der Nutzung einer neuen Energiequelle einher. Kohle wurde als Energieträger entdeckt und in unterschiedlichen Zusammenhängen instrumentalisiert. Auch um den Abbau von Kohle voranzubringen, wurde an der Weiterentwicklung der Dampfmaschine gewirkt. Waren dann erstmal diese technischen Verfahren in Verbindung mit der Dampfmaschine perfektioniert, verstehen es innovative Geister, die neuen technologischen Lösungen auch für andere Nutzbereiche anzuwenden. Die Dampfmaschine wird in Folge beispielsweise zur Grundlage einer neuen Form der Mobilität, sie wird zum Betrieb von Zügen eingesetzt, sie wird auf Schiene gebracht. Transport und Logistik verändern sich in Folge, auch sie bekommen neue operative Grundlagen verpasst. Nach Auffassung von Jeremy Rifkin hat die Erste Industrielle Revolution gleich wie die nachfolgenden beiden industriellen Revolutionen drei Fundamente, die ihr jeweils eigen waren. Alle Entwicklungsstufen der industriellen Revolution zeigen Besonderheiten und entscheidende Definitionsmerkmale in dreifacher Hinsicht.
• Eine maßgebliche Energiequelle liefert die Energie für vielfältige Produktionsprozesse,
• Ein neues Transportsystem begründet logistische Verfahren anders,
• Kommunikationsverfahren beschleunigen sich und verstehen es, bisher weite Distanzen komplikationslos zu überbrücken.
Diese Veränderungen bewirken zusammen, dass die Vorstellungen und Wahrnehmungen von Raum und Zeit sich durch Erweiterung und Beschleunigung verändern. Auf dieser Basis entsteht als Folgewirkung eine andere Selbstwahrnehmung von Gesellschaft. Die Kombination aus Energiesystemen, gängigen Kommunikationsverfahren und Logistiksystemen prädisponiert auch die Art und Weise, wie Macht und gesellschaftliche Teilhabe in Gesellschaften verwirklicht werden.
Für die I. Industrielle Revolution, die dem 19. Jahrhundert Gestalt gibt, fungiert als entscheidender Energieträger Kohle. Die Eisenbahn verändert das Transportsystem grundlegend. Modernes Pressewesen und Informationsübermittlung mittels Telegraphen geben der Gesellschaft eine vollkommen veränderte Kommunikationslogik. Ihren Ursprung findet diese Revolution in Großbritannien. Im 20. Jahrhundert folgt dann die II. Industrielle Revolution. Jeremy Rifkin erklärt der griffigen Einfachheit halber die Entwicklungslinie der industriellen Revolutionen anhand des Ablaufs der Jahrhunderte. Die Bezugsgrößen Transport, Energiequelle und Kommunikation bleiben gleich, doch erhalten sie eine radikal andere Bedeutung und Wirkung verpasst. Für die II. Industrielle Revolution, die dem 20. Jahrhundert Form gibt, wurden die Fabriken elektrifiziert. Diese Energieversorgung wurde zentralisiert organisiert und als wichtigster Energieträger nicht mehr Kohle, sondern Erdöl verwendet. Die Ausbreitung des Telefons ermöglichte es nunmehr, verbale Mitteilungen über weite Distanzen in Echtzeit zu transportieren. Dieser Bruch war markant. Plötzlich konnten Mitmenschen über weite Distanzen miteinander in Echtzeit verbal interagieren, ohne dass physische Präsenz dafür Voraussetzung wäre. In weiterer Folge kam es dann zur Ausbreitung von Fernsehen und Radio. Damit etablierte sich eine vereinheitlichte Kommunikationsarchitektur, wo von einem Zentrum aus mit einer gleichlautenden Botschaft ganze Gesellschaften in Direktübertragung ohne Zeitverlust erreicht werden konnten. Die Kommunikation erfolgte im Zuge dieser Massenmedien immer monodirektional – einem Absender stand eine Fülle an Empfängern gegenüber. Ergänzend findet nicht nur ein Umbruch bezüglich des meistgenutzten Energieträgers und der verwendeten Kommunikationsarchitektur statt, in weiterer Folge wird durch die von Henry Ford angestoßene Revolution die Gesellschaft auf Grundlage des eigenen Autos mobil. Transport und Logistik erhalten eine vollkommen individualisierte Grundstruktur verpasst. Der Begriff von machbaren Distanzen erhält plötzlich einen radikal anderen Ausgangspunkt. Symbol für die Zweite Industrielle Revolution wurden die Vereinigten Staaten von Amerika, es war das amerikanische Jahrhundert – medial, hinsichtlich des Rohmaterials Erdöl, dem Auto als individueller Besitz. Die Attraktivität dieses anziehenden American Way of Life strahlte auch über den Atlantik und über den Pazifik hinweg aus. Amerika war die maßgebliche Macht, auch bezüglich der Organisation des Markts in Form von Konzernstrukturen. Laut Theorie von Jeremy Rifkin gipfelt und endet diese Entwicklungsgeschichte im Jahr 2008, als die Finanzmärkte implodieren. Den Beginn dieser Krisenentwicklung setzt Jeremy Rifkin jedoch nicht mit dem Platzen der Subprime-Krise und in weiterer Folge mit der Liquidierung der Investmentbank Lehman Brothers im September 2008 an. Stattdessen identifiziert er den Bruchpunkt im Juli 2008, als der Preis für ein Barrel Brent Rohöl auf $ 147 stieg. Dieser Rekordpreis erschütterte die Märkte, als die Energiepreise sich basierend auf Rohöl als perspektivisch unfinanzierbar erwiesen. Das begriffen, schlitterten die Märkte in eine langanhaltende und tiefgreifende Krise, die zu niedriger Produktivität führte. Wie nun den Ausweg aus dieser Abwärtsspirale finden? Die Lösung findet sich in der transformativen Alternative der III. Industriellen Revolution. Sie bildet den notwendigen Umbruch, den es braucht, um aus der ökonomischen und gesellschaftlichen Ermattung herauszufinden, die sich mit dem Ende des erschöpften Systems der II. Industriellen Revolution verbindet. Allein der drohende ökologische Kollaps macht aus dem Denken in Alternativen einen unumgänglichen Imperativ. Doch finden sich auch schlicht ökonomische Beweggründe, warum eine radikale Transformation unumgänglich wird: Die Produktivität lässt sich auf Grundlage existierender Systematiken nicht mehr heben. Wie Robert Solow analytisch erkannt hat, hängt der Fortschritt der Produktivität eben nicht vom Einsatz der Arbeitskraft und dem Investment von Kapital in Sachanlagen oder Finanzbestände allein ab. Produktivität gründet auch auf dem Stand der Technologie, die instrumentell genutzt wird. Was sich also in der Krise im Jahr 2008 und in den nachfolgenden Jahrzehnten voller Produktivitätsengpässe und Folgekrisen reflektiert, wäre die finale Auslastung und Erschöpfung einer systemischen Struktur. Die ökonomische Wertschöpfung lässt sich auf Grundlage der II. Industriellen Revolution nicht mehr weiter steigern, weil die totale Faktorenproduktivität schlicht nicht weiter gehoben werden kann. Die Technologien, die in der II. Industriellen Revolution genutzt werden, stoßen an die Grenzen möglicher Entwicklungspotenziale.
Die volkswirtschaftliche Entwicklung wird folglich durch den Nutzungsgrad entscheidend bestimmt, der erzielt werden kann. Die Volkswirtschaftslehre spricht von der Aggregate Efficiency. Unter Aggregate Efficiency wird der Quotient verstanden, der sich zwischen der potenziellen Arbeit und der tatsächlich effektiven Arbeit zeigt. Wieviel von der Energie und Arbeitskraft wird wahrlich genutzt, wenn ein Produkt entlang der Wertschöpfungskette von einem Stadium ins nächste gebracht wird? Denn der größte Teil des investierten Aufwands geht verloren und wird verschwendet. Das Wesen der Fortentwicklung der industriellen Revolution liegt also darin, die Aggregate Efficiency zu haben. Das Wirken an der digitalen Transformation hat genau diese Aufgabe. Es steigert die Produktivität zu einem Ausmaß, wie es in bestehenden und vergangenen Strukturen nicht möglich war. Jeremy Rifkin hält Folgendes fest:
Die zweite industrielle Revolution in den USA begann 1903 mit einer Aggregate Efficiency von 3%. Das bedeutet, dass bei jedem Prozess entlang der Wertschöpfungskette (Extrahierung der Rohmaterialien, Lagerung, Transport, Produktion, Verbrauch, Recycling) etwa 97% der Energie verloren gegangen sind.
Bis 1990 erreichten dann die USA eine Aggregate Efficiency von etwa 13%, Deutschland von 18,5% und Japan von 20%. Seitdem hat sich an diesem Verhältnis nichts mehr geändert. Arbeitsmarktreformen, Marktreformen, Steuerreformen oder neue Arten von Anreizen oder auch die besten Technologien werden nicht dazu beitragen, dass die Gesamteffizienz steigt, solange wir auf der Plattform der II Industriellen Revolution arbeiten. Wir werden nie die Obergrenze von 20% Gesamteffizienz überschreiten, die den größten Teil der Produktivität ausmacht. Die digitale Transformation einer entwickelten Volkswirtschaft wird benötigt, weil das Entwicklungspotenzial der II. Industriellen Revolution ausgeschöpft ist. Insofern markiert die digitale Transformation einen grundlegenden Wandel bestehender Systeme. Ökologisch erscheint die Verschwendung dieser Energiemengen, der benötigen Ressourcen und Materialien fatal und ökonomisch wirkt sie kontraproduktiv. Aus diesem Grund braucht es nun den radikalen Wandel der bestehenden Strukturen. Die nächste Entwicklungsstufe der industriellen Revolution beruht also nicht nur allein auf den neuen Technologien. Die anstehenden Erneuerungen, die im Zuge der digitalen Transformation erwartet werden können, zeigen laut Jeremy Rifkin Umbrüche bezüglich aller Definitionsmerkmale der industriellen Wertschöpfung – Transport, Energie, Kommunikation:
Die Energieressource, die genutzt wird, besteht in der alternativen Energiegewinnung. Dieser Entwicklungsschritt verlangt ein dezentralisiertes Versorgungs- und Verteilungssystem. Datenaustausch und Energieübertragung werden neu gekoppelt, um dieses dezentrale Netzwerk zu organisieren.
Transport und Logistik werden durch die Automatisierung und den Einsatz Künstlicher Intelligenz auf Basis von Elektromobilität radikal erneuert. Schließlich begründet die Fortentwicklung der Digitalisierung neue Formen der Datenerhebung und beschleunigte Verfahren der Datenübertragung. Daten von Maschinen, Gegenständen und Personen werden integriert und ausgewertet, um das Wissensaggregat einer Gesellschaft zu heben.
I. Industrielle Revolution
II. Industrielle Revolution
III. Industrielle Revolution
Transportsystem Eisenbahn Auto Autonomes Fahren
Energieträger Kohle Erdöl Alternative Energie
Kommunikation Tageszeitung, Telegraph
Telefon, Radio und Fernsehen Internet
Die notwendige Infrastruktur, die all diesen Prozessen der III. Industriellen Revolution, dem Datenaustausch und der Datenverarbeitung zugrunde liegt, liefert das Internet der Dinge. Auf Grundlage dieser Infrastruktur entsteht eine verbesserte Logik der Wertschöpfung. Speziell im Zusammenwirken mit anderen technologischen Entwicklungen zeigt sich das Potenzial eines signifikanten Umbruchs, der die Grundlagen ökonomischen Handelns radikal verändern wird. Auf dieser Grundlage wird sich a) die totale Faktorenproduktivität heben und b) die Aggregat Efficiency markant steigern. Diese Erwartungshaltung erlaubt radikale Denkmuster: Der moderne Markt ist jener Ort, an dem Angebot und Nachfrage zusammengeführt werden. So lautet die griffigste Definition. Diese Funktion braucht es, weil im Regelfall weniger Angebot als Nachfrage vorhanden ist. Insofern benötigt es Festlegungen, die bestimmen, welche Nachfrage durch Angebote gedeckt wird und welche Bedürfnisse unbefriedigt bleiben. Eine potenzielle und denkbare Veränderung durch die enormen Produktivitätsgewinne im Zuge des Fortschritts der digitalen Transformation kann nun darin bestehen, dass es keinen institutionalisierten Ausgleich zwischen Angebot und Nachfrage in unterschiedlichen marktwirtschaftlichen Zusammenhängen mehr bräuchte, weil sich auf Grundlage der verbesserten totalen Faktorenproduktivität günstig genau so viel produzierten lässt, wie als Nachfrage benötigt wird. Wo heute noch der Markt als Instanz des Ausgleichs agieren muss, kann zukünftig günstig und durch gesteigerte Produktivität schlicht die Nachfrage selbst gedeckt werden.
Warum ist also diese Signifikanz dieser Umbrüche so entscheidend? Über den Zeithorizont der industriellen Revolution hinausgedacht, entdecken die kanadischen Ökonomen Kenneth Carlaw und Richard Lipsey, 24 unterschiedliche Universaltechnologien, die den zivilisatorischen Fortschritt begründen. Eine Universaltechnologie kennzeichnen unterschiedliche Eigenschaften:
• Es handelt sich um eine einzigartige, klar bestimmbare, allgemein nutzbare Technologie,
• Sie zeigt bereits anfänglich schnelle Durchsetzungsfähigkeit, obwohl durchaus noch enormes Verbesserungspotenzial vorhanden wäre,
• Sie erweist Nützlichkeit in verschiedenen Anwendungsfällen,
• Die Universaltechnologie verursacht vielfältige und unterschiedliche Folgewirkungen.
Universaltechnologie Folgewirkung Zeitraum Domestizierung von Pflanzen Neolithische Revolution - Beginn Ackerbau 9000 v. Chr.
Domestizierung von Tieren Neolithische Revolution – Beginn Viehzucht 8000 v. Chr.
Schmelzen von Erz Herstellung von einfachen Metallwerkzeugen 7000 v. Chr. Erfindung des Rads Mechanisierung, Potter Rad 4000 v. Chr. Entwicklung der Schrift Dokumentation, Handel 3300 v. Chr.
Nutzung von Bronze Neue Waffen und Werkzeuge 2800 v. Chr.
Nutzung von Eisen Neue Waffen und Werkzeuge 1200 v. Chr.
Erfindung des Wasserrads Mechanische Systeme, maschinelle Arbeitskraft Mittelalter
Bau von Dreimaster Segelschiffen
Maritimer Handel, Kolonialismus 15. Jhdt.
Ausbreitung des Buchdrucks
Wissenschaftsrevolution, Umbruch im Kreditwesen 16. Jhdt.
Entstehung von Fabriken Austauschbarkeit und Reproduzierbarkeit von Gegenständen 18. Jhdt.
Dampfmaschine Erneuerung der Produktionserfahrung 18. Jhdt.
Bahnverbindungen Pendeln, Entstehung von Vorstädten, Logistik 19. Jhdt.
Dampfschiff Globaler Agrarhandel, Tourismus 19. Jhdt.
Verbrennungsmotor Flugzeug, Automobil, mobile Kriegsführung 20. Jhdt.
Elektrizität Telegraphische Über- 20. Jhdt.
mittlung, Elektrifizierung Automobil Suburbanisierung, Einkaufszentren 20. Jhdt. Flugzeug Internationalisierung des Verkehrsaufkommens 20. Jhdt.
Massenproduktion Konsumismus 20. Jhdt.
Computer Elektronische Datenverarbeitung 20. Jhdt.
Lean Production Systematisierte Produktionsorganisation 20. Jhdt.
Internet Umbrüche in der Kommunikation 20. Jhdt.
Biotechnologie Nutzbarmachung biologischer Prozesse 20. Jhdt.
Business Virtualization Papierloses Büro, Telearbeit 20. Jhdt.
Nanotechnologie Medizintechnik, chemische Industrie 21. Jhdt.
Künstliche Intelligenz Datenauswertung, Robotics, autonomes Fahren 21. Jhdt. Alle diese Entwicklungen veranlassen, dass gesellschaftliche Prozesse an Komplexität gewinnen. Vor dem Hintergrund dieser Innovationen gewinnen technologische Verfahren stetig an gesellschaftlicher Bedeutung und Produktivität wächst.
Digitale Transformation bildet folglich einen Bestandteil des technologischen Fortschritts, der nicht nur wesentlich zum zivilisatorischen Prozess beiträgt, sondern die entscheidende Intensivierung der Produktivität im 21. Jahrhundert bildet. Unternehmen, Organisationen und Volkswirtschaften, die auf dieser Grundlage zu operieren verstehen, vermögen es leichter und effektiver, Produktivität zu erwirken als vergleichbare Organisationen, die darauf verzichten. Kapital ist begrenzt und manuelle Arbeit ausgeschöpft, nur wenn Gesellschaften effektiv an der digitalen Transformation wirken, dann kann die Funktion der totalen Faktorenproduktivität gehoben werden und damit effektive Verbesserungen erwirkt werden. Im Wesentlichen handelt es sich also bei der digitalen Transformation um einen Umbruch, dessen Verständnis in größere gesellschaftliche und umfassende zivilisatorische Zusammenhänge eingebettet werden muss. Gegenwärtig repräsentiert dieser Wandel doch nicht nur einen ökonomischen oder maschinellen Fortschritt. Er erfasst einen Ausweg aus der ökologischen Prekäre, in die die industrielle Revolution besonders seit der Mitte des 20. Jahrhunderts aufgrund der massenhaften Verbrennung von fossilen Energieträgern geführt hat.
Wenn also die soziale Dimension der digitalen Transformation reflektiert wird, dann braucht es gesellschaftliches Bewusstsein, wie die volkswirtschaftlichen Umbrüche inklusiv gestaltet werden können. Es geht um die Fragestellung, wie die neue Rasanz der technologischen Verbesserungen zu einer inklusiven Gesellschaft führt. Diese Art des Ausgleichs scheint nicht nur innerstaatlich geboten, sondern auch die Aufgabe für eine Weltgesellschaft, die sich aufgrund globaler Technologien stetig mehr integriert und engere Interdependenzen schafft. Speziell die Finanzierung öffentlicher Haushalte beruht auf der Besteuerung der Produktionsfaktoren Arbeit und Kapital, wobei der Faktor Arbeit im Regelfall höher besteuert wird als der Faktor Kapital. Die Frage über zeitgemäße Finanzierungsmodalitäten stellt sich also nicht nur vor dem Hintergrund dysfunktionaler Umverteilungsmechanismen, die einer sozialen Schere kaum entgegenwirken, sondern auch aufgrund der Notwendigkeit solider öffentlicher Ausgaben. Wie also die Erträge durch den dritten Produktionsfaktor „totale Faktorenproduktivität“ zu besteuern wären – die Frage scheint wesentlich.
Denn gerade eine solide Ausstattung des öffentlichen Haushalts wirkt für eine wirksame digitale Transformation entscheidend. Diese Einschätzung gründet auf zwei nachweisbaren Überlegungen: Fortschritte in der digitalen Transformation basieren auf innovativen Unternehmen. Innovatives Unternehmertum, das an der digitalen Transformation wirkt, benötigt aber eine belastbare und radikal erneuerte Infrastruktur. Bereits der liberale Denker Adam Smith hat erkannt, dass dem modernen Staat drei faktische Aufgaben zufallen. Dazu zählen die militärische Verteidigung, die Etablierung einer zivilen Ordnung im Inneren und schließlich die Bereitstellung von Services oder Institutionen, „die einzurichten und zu erhalten niemals das unmittelbare Interesse von [sic] einzelnen oder einer kleinen Zahl von [sic] einzelnen sein kann.“ Eine funktionstüchtige Gesellschaft verlangt also als Voraussetzung nach Dienstleistungen, die zwar von vielen dringlich benötigt werden, die aber nicht von einzelnen Personen oder Unternehmen zur Verfügung gestellt oder organisiert werden können. Ein funktionierender Markt setzt also Bedingungen voraus, die er zwar selbst nicht direkt erwirken kann, die er jedoch für die eigene Funktionstüchtigkeit zweifellos benötigt. In maroden Staaten oder in Gebieten, wo staatliche Herrschaft zusammengebrochen ist, finden sich aufgrund der Unsicherheiten und Rechtlosigkeit keine Bedingungen, die vorausschauen des Handeln und marktwirtschaftliche Kapitalakkumulationen gestatten würden. Das allein ist Ausweis, wie sehr ein funktionierender Markt von einem effektiven Staat abhängt. Doch nicht nur innere Stabilität und außenpolitische Sicherheitsgarantien sind Faktoren, die laut Adam Smith seitens des Staates sicherzustellen wären. Er identifiziert ebenso einen dritten Bereich an öffentlichen Dienstleistungen, der besorgt werden muss, ohne den eine moderne Gesellschaft nicht angemessen funktioniert. Eine zeitgemäße öffentliche Infrastruktur markiert exakt eine solche Vorbedingung, die mittels öffentlicher Hand garantiert und entwickelt werden sollte. Entwicklungen wie die Infrastruktur für das Internet der Dinge, ein funktionstüchtiges 5G Netzwerk wären beispielsweise Fundamente, auf denen anschließend unternehmerische Entwicklung aufbauen kann, um von den unternehmerischen Möglichkeiten tatsächlich Gebrauch zu machen, die sich im Zuge der nächsten Entwicklungsstufe der digitalen Transformation eröffnen. Wie die Durchsetzung des Autos den Bau von Straßen benötigte, so brauchen fortschrittlichere Arten der Mobilität nun sicheren Datentransfer durch das Internet der Dinge. Infrastruktur verändert sich also. Dafür braucht es zum einen eine erträgliche Kooperation zwischen staatlichen und privaten Akteuren, um eine moderne Infrastruktur zu etablieren, deren Bereitstellung sich nicht unmittelbar gewinnträchtig finanzieren ließe. Allein aus diesem Grund agiert der Staat als maßgeblicher Akteur. Zum anderen zeigt sich besonders im Rahmen der digitalen Transformation, dass innovative Durchbrüche einer Grundlagenforschung bedürfen, die besonders in öffentlichen Institutionen vorangetrieben und auf diese Weise durch die Öffentlichkeit finanziert wird. Die britisch-italienische Ökonomin Mariana Mazzucato hat beispielsweise den Erfolg des iPhones untersucht und überraschende Details ausmachen können. Das iPhone galt als maßgebliche Innovation, als es beispielsweise bei Mobiltelefonen die herkömmlichen Displays durch Touchscreens ersetzte. Eine neue Benutzerschnittstelle wurde implementiert. NutzerInnen konnten nun das Gerät direkt am Bildschirm mittels Einsatzes der eigenen Finger navigieren. Eine andere Neuerung, die sich durch spätere Modelle des iPhones verwirklicht sah, war die Befehlseingabe durch Sprachbedienung.
Beide Technologien wurde aber nun nicht von Apple entwickelt. Stattdessen verstand es das Unternehmen, bestehende Forschung innovativ und ertragreich in einem massentauglichen Konsumprodukt zu integrieren, dessen Verkaufserfolg auch das Ergebnis einer intelligenten Marketingkampagne ist. Wenn aber nicht das Unternehmen selbst die Forschung bestritt, die für den Erfolg mitausschlaggebend war, welche Organisationen steckten dann anfänglich dahinter? Die Anfänge des Touchscreens liegen in einem Forschungsansatz, der als Doktorarbeit in öffentlichen US-Instituten ermöglicht wurde. Ein Studienprogramm der National Science Foundation (NSF) und der Central Intelligence Agency (CIA) erlaubte dem Doktoranten Wayne Westermann an der öffentlichen University of Delaware seinem Interesse an neuromorphen Systemen nachzugehen. Die Erkenntnisse der Doktorarbeit, deren Forschung aus öffentlichen Geldern finanziert wurde, führten dann weiter zur
Gründung des Unternehmens FingerWorks. Als anfängliche Geschäftsführer wirkten der Doktorand und sein Doktorvater John Elias. Die gemachten Entdeckungen wurden schließlich patentiert und das „Startup“ im Jahr 2005 von Apple übernommen. Die technische Grundlagenforschung für das Touchscreen, das sich dann in iPhones verarbeitet findet, wurde durch öffentliche Forschung finanziert und ermöglicht.
Die Anfänge der Spracherkennungssoftware Siri zeigen einen vergleichbaren Hintergrund. Siri sollte die Aufgabe eines persönlichen Assistenten erfüllen, der in das Telefon integriert ist, als mit der Software verbal kommuniziert werden kann. Die Software basiert auf Künstlicher Intelligenz, „die lernfähig ist und über einen Algorithmus zur Websuche verfügt.“ Auch dieses Programm hat Anfänge in staatlicher Forschung und Finanzierung. Das Forschungsprojekt, das zur Entwicklung von Siri führte, wurde anfänglich von DARPA (Defense Advanced Research Projekts Agency) initiiert. DARPA bildet eine Behörde des US-amerikanischen Verteidigungsministeriums, die Grundlagenforschung in der Absicht finanziert, moderne Technologien für militärische Zwecke zu entwickeln. DARPA etabliert dabei ein Software-Ökosystem, dessen Mission darin besteht, mit privaten Partnern Soft- und Hardwareentwicklung voranzubringen. Das leitende Interesse ist dabei die militärische Nutzung der Technologie, die später oft auch ziviles Potenzial zeigt. Siri wurde ursprünglich als virtueller Büroassistent für Militärangehörige konzipiert, an dem 20 Universitäten in den USA unter Leitung des Stanford Research Institutes wirkten. Die Forschungsresultate wurden schließlich vom Stanford Research Institute in ein Startup Unternehmen übertragen, das den bezeichnenden Namen „SIRI“ trug und mit dem Investment von Wagniskapital finanziert wurde. „2010 kaufte Apple SIRI für eine Summe, über die beide Seiten sich in Schweigen hüllen.“ Die Chronologie der Ereignisse erscheint bedeutsam, weil sie eine generalisierbare Logik beschreibt, wenn das Zusammenspiel zwischen privaten und öffentlichen Akteuren bzw. der entsprechenden Finanzierungslogiken rekapituliert werden soll. Die anfängliche Grundlagenforschung kennzeichnet ein Stadium von markanter Ungewissheit. Eine wissenschaftliche Idee wird verfolgt, die als Unterfangen mit solchen Unsicherheiten und Unbekannten behaftet ist, dass private Anleger davor zurückscheuen und keine Anschubfinanzierungen wagen. Die einzigen Investoren, die sich für diese Art von Forschung finden, sind öffentliche Institutionen im Bereich von universitären, institutionellen oder öffentlichen Forschungsprogrammen. Zeigen die Bemühungen Erfolge und bezeugen somit weitere Entwicklungspotenziale, dann erst setzt das Interesse von Wagniskapital ein. Das Unterfangen selbst, eine erfolgreiche Grundlagenforschung zu marktreifen Anwendungen zu verwandeln, wäre immer noch riskant genug. Die eigentliche und ungewisse Grundlagenforschung wird von privaten Investoren deshalb nicht getragen, weil in diesem Stadium die Ungewissheit noch schlicht zu hoch wäre, als dass darin investiert werden könnte. Zentrale technologische Durchbrüche bilden oft das Resultat einer gewagten Grundlagenforschung, die private Investoren nicht zu finanzieren vermögen. Die direkte Rentabilität wirkt zu ungewiss, das Risiko für private Investoren oder institutionelle Anleger ist schlicht zu hoch. Stattdessen sind es öffentliche Investitionen von Forschungseinrichtungen, die als Anschubfinanzierung wirken. Erst wenn sich weitere Nutzpotenziale von neuartigen Forschungsarbeiten ausmachen lassen, wird das Interesse von Wagniskapitalgebern geweckt. Nochmals kann das iPhone als Anschauungsmaterial genutzt werden. In diesem Gerät finden sich nicht nur eine Spracherkennungssoftware und der Touchscreen als Facetten integriert, die von öffentlicher Forschung anfänglich entwickelt wurden. Auch das GPS-System, Halbleiterelemente auf Siliziumbasis, Akkus auf Lithium-Ionen-Basis, ja selbst Datenübertragung mittels Internet, all diese Entwicklungen markierten zu Beginn öffentliche Forschungsprojekte. Die unternehmerische Leistung von Apple im Hinblick auf das iPhone bestand also darin, unterschiedliche Innovationen, die durch öffentliche Forschung angestoßen wurden, in einem massentauglichen Produkt zu integrieren und durch geschicktes Marketing globale Absatzmärkte dafür zu kreieren. Das Problem an diesen erfolgreichen Private-Public Partnerschaften besteht nun darin, dass sie zu oft übersehen werden und die komplexe Wirkweise nicht verstanden wird. Zu oft werden technologischer Innovationsgeist schlicht dem genialen Handeln von UnternehmerInnen zugeschrieben. Damit wird die Erzählung unzulässig vereinfacht. Vielmehr gilt es, ein institutionelles Setting in modernen Gesellschaften zu bedenken, indem unterschiedliche Akteure unterschiedliche Verantwortlichkeiten wahrnehmen. Erst in der ergänzenden Wirkung dieses wirksamen Handelns werden die Entfaltungsmöglichkeiten technologischer Durchbrüche vorangebracht. Vor diesem Verständnishintergrund bemängelt nun die Ökonomin Mariana Mazzucato auch das institutionelle Verhalten von Technologiekonzernen - vor allem was, euphemistisch gesprochen, die Steueroptimierung dieser Großkonzerne betrifft. Die Kritik an den Praktiken der Steuervermeidung der Technologieriesen besteht darin, dass sie einen Deal brechen, von dem sie selbst profitieren. Ihr innovativer Erfolg und ihre bemerkenswerte unternehmerische Leistung geschieht auf Grundlage der Nutzbarmachung öffentlich finanzierter Forschung und der Integration von Forschungsprojekten, die dann weiterverfolgt werden, wenn öffentliche Institutionen über entsprechende Ressourcen verfügen. Durch Steuervermeidung und die reine Privatisierung erzielter Profite wird der Kreislauf nun seitens der Unternehmen aufgekündigt und Voraussetzungen für den eigenen Erfolg kurzsichtig unterminiert. Die öffentliche Hand finanziert Grundlagenforschung, die private Unternehmen aufgrund des damit verbundenen Risikos nicht tragen können. Damit der Staat nun diese Tätigkeiten fortsetzen kann, braucht es eine solide Finanzierungsgrundlage in Form von bezahlten Steuern. Diese lässt sich nur aufrechterhalten, wenn die Gewinner dieser Entwicklungen sich bereit und willens zeigen, einen ansprechenden Anteil an der Finanzierung durch ihre Steuerleistung zu tragen. Nur wenn der Zirkel auf diese Weise geschlossen wird, lassen sich auch die Ausgaben des Staates als sinnvolle Investition rechtfertigen, die sich durch erzielte Steuereinnahmen selbst trägt. Die anfänglichen Risiken bezüglich technologischer Grundlagenforschung werden also in der Form sozialisiert, als die Gemeinschaft sie finanziell trägt. Die erzielten Profite, die auf diesen überwundenen Risiken bauen, werden dann schließlich vollends privatisiert. Diese Logik zeigt sich als wenig nachhaltig.
Staatlichen Institutionen kommt eine wesentliche Rolle zu, wenn es um Fragen wie Innovation und Wachstum geht. Öffentlichen Institutionen kommt also eine entscheidende Aufgabe zu betreffend Wirksamkeit des digitalen Wandels. Dieser Zusammenhang muss im Rahmen der digitalen Transformation mitbedacht sein. Wie bereits erklärt, baut volkswirtschaftliche Produktivität auf den drei Faktoren Arbeit, Kapital und der totalen Faktorenproduktivität auf. Fortschrittliche Maschinen, die als Kapitalanlage gelten, vermögen nur dann ihr Entwicklungspotenzial zu realisieren, wenn sie in eine fortschrittliche Infrastruktur eingebunden werden. In all diesen Zusammenhängen wirkt also keine Gegnerschaft, sondern eine komplexe Abhängigkeit wird wirksam, die speziell von verantwortungsvollen EntscheidungsträgerInnen verstanden werden muss.
Doch nicht nur diese komplexe Wirkweise entscheidet über die Zukunft der digitalen Transformation. Gesellschaftliche Entwicklungen können unter demokratischen Rahmenbedingungen dann ihr volles Potenzial entfalten, wenn sie allgemeine Akzeptanz erfahren. Der digitale Fortschritt wird dann wesentlich und human erscheinen, wenn er merklich gesellschaftliche Verbesserungen erwirkt.
Eine wesentliche Fragestellung, der sich moderne Gesellschaften gegenwärtig stellen sollten, lautet, wie sich der technologische Fortschritt für die ökologische Trendumkehr nutzen lässt und wie in diesem Rahmen soziale Verbesserungen erwirkt werden können. Darin liegt die ethische Aufgabe, die Technologie nicht allein vollbringen kann, sondern die das Engagement von progressiven BürgerInnen in Demokratien verlangt. Gegenwärtig zeigt sich, dass der technologische Fortschritt gesamtgesellschaftlich mitunter eine soziale Schieflage verstärkt, ein breites Gefühl der Unsicherheit erzeugt und auf die erfolgreichen Aktivitäten einzelner, globaler Unternehmen verkürzt wird. Diese Versäumnisse sind jedoch nicht der Technologie selbst anzulasten. Sie symbolisieren stattdessen Veranlassungen, um wirksam und aktiv zu werden. Wie in einer anderen Lehrveranstaltung bereits vermeint, hat Immanuel Kant bereits richtig erkannt, dass Unzufriedenheit das notwendige Motiv dafür bildet, um Verbesserungen erreichen zu wollen.
Vor dem Hintergrund der sich abzeichnenden Entwicklungen werden also Neuansätze bedacht werden müssen, wie sich die Steuereinnahmen diversifizieren lassen, um volkswirtschaftliche Realitäten besser abzubilden. Die Einnahmengrundlage muss sich diesbezüglich ändern bzw. ausweiten. Unter den Bedingungen, dass die manuelle Arbeitskraft durch technologische Prozesse zunehmend unter Druck gerät, wird dieser Effekt noch zunehmend verstärkt da manuelle Wertschöpfung in den europäischen Steuersystemen im Regelfall höher besteuert wird als Profite auf eingesetztes Kapital. Die Grundzüge der Finanzierung der Sozialversicherungssysteme in Deutschland und Österreich gründen sogar auf einer Herangehensweise, die im 19. Jahrhundert erdacht wurde. Diese Grundlagen werden sich durch die anstehenden Umbrüche der Zukunft aller Voraussicht nach substanziell verändern müssen. Fragen der Redistribution, der Einheit aus bzw. Abhängigkeit von Einkommen und Arbeit, die Finanzierungsstruktur des verteidigenswerten und verdienstvollen Wohlfahrtsstaates, die Einführung eines bedingungslosen Grundeinkommens. Demokratien sind angehalten, diese Debatten offen unter neuen Zugängen und Erkenntnissen zu führen. Nicht nur dass diese Diskussionen anstehen, sie werden sich auch durch neue Rahmenbedingungen menschlicher Selbstwahrnehmung gestalten. Zum einen entsteht zusehends bei jüngeren Generationen das erfahrbare Bewusstsein, Bestandteil einer Biosphäre zu sein, deren Funktionstüchtigkeit durch menschliches Verhalten kritisch herausgefordert ist. Zum anderen stellt sich die Frage, wie sich ein aufgeklärter Begriff von Freiheit verteidigen lässt, wenn technologische Entwicklungen die Vorstellung von der Autonomie des Menschen herausfordern.
Mehr dazu liefert das nächste Kapitel.
5 Technologie und Freiheit – das liberale Dilemma
Der Begriff Freiheit hat eine etymologisch interessante Entwicklungsgeschichte. Das Wort stammt vom Gotischen freihals und dem Alt- bzw. Mittelhochdeutschen frihals ab. Beide Begriffe standen für Rechtsbezeichnungen. Denn im Mittelalter waren Sklaven verpflichtet, Ringe um den Hals zu tragen. Das war zuerst Instrument der Unterdrückung, dann als Erkennungsmerkmal Symbol ihres Status. Wenn sie freigelassen wurden, dann legten sie diesen Ring ab. Freie waren eben durch den freien Hals gekennzeichnet. Der freie Hals war das Merkmal des freien Bürgers. Er war frei der Einschränkung und Brandmarkung, der andere unterlagen. Freiheit meint in diesem Zusammenhang das Ablegen von äußeren Zwängen. Die Wortwurzel zeigt also an, dass Freiheit ursprünglich die Abwesenheit einer Einschränkung meinte, die ein Herr gegenüber Sklaven ausüben konnte. Im heutigen Begriffsverständnis erscheint dieses Kriterium wie ein Mindeststandard, um Freiheit denken und ausmachen zu können. Es gilt in diesem Sinne, dass niemand, der/die unter der Kuratel einer anderen Person stünde, sich als frei bezeichnen ließe. Aber das allein genügt nicht, wie ein Rückschluss beweist. Jede und jeden allein dann als frei zu erachten, wenn er oder sie nicht unter der Kuratel einer Person stünde, wäre dem Anspruch der Sache nicht gerecht.
Es lässt sich also ausmachen, dass Freiheit im heute gängigen Verständnis über mehrere Wesenszüge und Definitionsmerkmale verfügt. Allein das Fehlen eines Ringes um den Hals wirkt als keine ausreichende und erschöpfende Vorbedingung, um Freiheit zu erfahren. Die Ansprüche sind höher, weitreichender, substanzieller. Auf dieser Verständnisgrundlage zeigt sich auch, dass der Begriff Freiheit mehrere Facetten impliziert. Freiheit im politischen Sinne meint essenziell etwas anderes als persönliche Freiheit oder die Wahlfreiheit, die ein Konsument vor einem Supermarktregal erfährt. Politische Freiheit basiert nach heute gängiger Auffassung beispielsweise auf dem Grundgedanken demokratischer Einhegungen von institutioneller Macht. Diese Bedingung, die sich im Rahmen des historischen Verlaufs der letzten Jahrhunderte herausbildete, besagt, dass keine politische Institution so viel Macht auf sich vereinigen darf, dass sie diese unkontrolliert und regellos ausüben kann. Die Idee von politischen Institutionen, die sich gegenseitig ausbalancieren, sich in der Ausübung und Anwendung von Macht kontrollieren und beschränken, fußt exakt auf diesen Grundlagen. Unabhängige Organisationen kontrollieren die an Gesetze gebundene Machtausübung von einzelnen Institutionen. Dass die Gesetzgebung (Legislative) von der ausführenden Gewalt (Exekutive) und der Rechtsprechung (Judikative) jeweils in Form von eigenständigen Organen getrennt wurde, diese Entwicklung gründet exakt in der Überlegung, die unbestrittene Dominanz einer Institution zu unterbinden. Wenn die Erlaubnis, Gesetze zu beschließen, diese auszuführen und diese zu kontrollieren, nur einer einzigen Institution übertragen werden würde, hätte diese unbegrenzte Macht zur legitimen Anwendung von Willkür. Ein Grundsatz, auf dem die Demokratie folglich fußt, besteht darin, dass institutionelle Macht so verteilt werden muss, dass keine Institution legitimerweise gesetzlos und übergriffig handeln kann. Zum einen basieren also demokratische Verfahrensweisen auf der Autonomie von Institutionen, die im Geiste ihre eigenen Auftrags-Kontrollfunktionen ausüben. Dieses Prinzip der gegenseitigen Kontrolle und der institutionellen Ausgewogenheit wird als Checks and Balances bezeichnet. Zum anderen besitzen BürgerInnen unumgängliche Rechte, die sie unter keinen Umständen verwirken. Die Bürgerrechte konstituieren die zivile Basis eines demokratischen Gemeinwesens. Sie definieren, welche unabkömmlichen Garantien die BürgerInnen eines Staates kennzeichnen und wo sich legitime Grenzen staatlichen Handelns befinden. Ein praktisches Beispiel diesbezüglich: Das Recht auf freie und geheime Wahl bildet ein solches Bürgerrecht, es ist unabkömmlich. Was meint, es wäre unzulässig in geheimer und freier Wahl darüber abzustimmen, ob dieses Wahlrecht schlicht aufgehoben wird. Da die Demokratie auf der Anerkennung von Bürgerrechten beruht, diese Bürgerrechte gar im Wesentlichen den Kern des demokratischen Gedankens bilden, wäre es selbst bei Einstimmigkeit undemokratisch, das Wahlrecht einfach aufzuheben. Freiheit bedeutet also in einer gesellschaftlichen Rahmensetzung, dass Willkür durch machtvolle aber eingehegte Institutionen unterbunden wird. Zum einen, weil die Gewaltenteilung wirksam wird. Zum anderen, weil sich alle handelnden Akteure an geltende Regeln zu halten haben. Zum Weiteren, weil BürgerInnen mit unabdingbaren Rechten ausgestattet sind, die ihnen nicht streitig gemacht werden können. Diese Grundrechte bilden das eigentliche und wirksame Fundament demokratischer Zivilität. Die universelle Überzeugung würde nun besagen, dass nur in jenen Zusammenhängen die Bedingungen der Freiheit erwirkt werden, wo diese legalistischen Grundsätze erfahrbar sind und einklagbar wären. Dieser Ansatz steht im radikalen Gegensatz zur Annahme, dass sich immer dort ein größeres Ausmaß an Freiheit findet, wo möglichst wenig Regeln gelten. Diese Auffassung von Freiheit meint, dass jedes wirksame Gesetz faktisch und unumstößlich eine Einschränkung darstelle und damit konsequent die Freiheit begrenzt werde. Das Problem dieser Auffassung besteht schlicht darin, dass die vollkommene Regellosigkeit im Regelfall dann nicht zur letzten Expansion der Freiheit führt, sondern diese Form der Anarchie die Vorbedingung dafür bildet, dass sich die Herrschaft des Stärkeren herausbildet. Aus diesem Grund lässt sich Freiheit nicht als einfaches Nullsummenspiel denken: Mehr Gesetz gleich weniger Freiheit – oder anders, mehr Freiheit verlangt nach weniger Gesetz. Vielmehr gründen moderne und aufgeklärte Auffassungen von Freiheit darin, dass ein spezifisches Arrangement an Institutionen und Gesetzen die Bedingungen gesellschaftlicher Freiheit eröffnet.
Ist also Freiheit, weil sie teils politisch zu denken wäre, nur in Gemeinschaft erlebbar? Das wäre ein irrender Ansatz. Freiheit konzentriert sich stattdessen immer auf das Individuum. Nur als Individuum lässt sich Freiheit erfahren, im Rahmen der Ausschöpfung der eigenen Möglichkeiten und Veranlagungen. Aber damit dies wirksam werden kann, braucht es eine geteilte und gesicherte gesellschaftliche Basis und an dieser Grundlage lässt sich permanent progressiv fortwirken. Ihre Entwicklung bildet sogar wesentlich den Prozess des Fortschritts der Moderne ab. Denn das moderne Zeitalter bildet genaugenommen einen kontinuierlichen, nicht bruchlosen, aber stetigen Prozess, der es versteht, die Wirkung der Freiheit auszuweiten. Im 18. Jahrhundert wird gegen die absolutistischen Herrscher ein Kanon an liberalen Grundrechten erstritten. Ganz im Geiste der Aufklärung wird den absolutistischen Herrschern abverlangt, ihre Macht zu beschränken, um die Freiheit der BürgerInnen anzuerkennen. Im 19. Jahrhundert wird entdeckt, dass diese erzielten liberalen Grundrechte erst Sinn ergeben, wenn sie durch politische ergänzt werden. Das Recht auf freie Meinungsäußerung führt konsequent zum gleichen Stimmrecht. Im 20. Jahrhundert folgt dann die Ergänzung um die sozialen Grundrechte. Fortschritt liegt also in der permanenten Ausweitung von Bürgerrechten im Geiste der Freiheit. Über die Entwicklungsgeschichte zeigt sich auch, dass diese Form der Freiheit kein finales Stadium erreichen kann. Es gilt als gesellschaftlicher Auftrag, permanent an ihr fortzuwirken, die Freiheit in ihrer Unvollkommenheit fortlaufend zu verbessern.
All diese Prozesse sind aber ohne eine grundsätzliche Einsicht nicht denkbar, die von der Aufklärung erkannt wurde: Es handelt sich um das autonome Individuum, dessen Würde sich nur in Freiheit realisiert. Freiheit ist laut dieser Logik der entsprechende Ausdruck menschlicher Selbstbestimmung.
Diese Autonomie lässt sich nur vor dem Hintergrund der Überzeugung denken, dass der Mensch ein vernunftbegabtes Wesen besitzt. Durch Logik, Argument, Sinneswahrnehmung begründet sich die Selbstbestimmung des Menschen, die Fähigkeit und die Verpflichtung frei zu agieren. Analyse, Erfahrung, Versuch führen zur Erkenntnis der Welt, in der Absicht, den Wissenshorizont zu erweitern. Genau dafür braucht es die Stimmen abweichender Meinungen und selbst irrender Positionen, damit der Fortschritt weiterhin wirksam wird, Argumente sich schärfen und die besseren Erklärungen entdeckt werden. Deshalb sind auch gerade Gespräche zwischen abweichenden Meinungen und Diskussionen zwischen gegensätzlichen Positionen ertragreicher, solange sie der Grundlage vernunftbasierter Akzeptanz objektiver Fakten folgen und einem unvoreingenommenen Erkenntnisinteresse gehorchen.
Worauf gründet nun Erkenntnis? Wie in anderen Lehrveranstaltungen bereits reflektiert, meint Erkenntnis vorrangig die Einsicht in den eigenen Irrtum bzw. die Korrektur von Fehlannahmen. Wissen entsteht aufgrund der Auflösungen falscher Vorstellungen, wenn bessere Einsichten erschlossen werden.
Neues Wissen bricht also überholte Überzeugungen auf. Es verändert die Wahrnehmung und korrigiert falsche Gewissheiten. Wissen bewirkt Veränderung, denn durch Einsicht werden neue Überzeugungen gewonnen, Meinungen ändern sich. Das Prinzip von Freiheit meint genau in diesem Zusammenhang, dass reflektierte Entscheidungen von autonom handelnden Personen getroffen werden. Bedeutsam scheint in diesem Zusammenhang jene Wirkbeziehung, dass durch neue Erfahrung und andere Einsichten reflektiertes Wissen entsteht, voreingenommene Überzeugungen sich auflösen und in logischer Folge sich persönliche Meinungen ändern. Eine Grundlage aufgeklärten Denkens besteht exakt in dem Zusammenhang, dass sich vernunftbetontes Wissen verändert und der Mensch willens sei, auf Grundlage eines besseren Verständnisses seine eigenen Ansichten zu ändern. Da Wissen kein fixiertes und abschließendes Stadium an Erkenntnis meint, sondern sich anhand besserer Erklärungen adaptiert, verändern sich persönliche Gewissheiten durch eingehenderes Verständnis eines Sachverhalts. Dieser Reflexionszusammenhang determiniert ein aufgeklärtes Verständnis der Überzeugungen, die den Menschen prägen und sein Handeln leiten. In dieser Wirkung entfaltet sich die autonome Freiheit des Menschen. Dieser Zusammenhang wird nun jedoch durch den aktuellen Aufbau von Technologie fundamental herausgefordert.
Vor allem die sozialen Netzwerke manifestieren ein illustratives Beispiel dafür, wie diese Prinzipien durch die gegenwärtige Funktionslogik und wirksame Zweckbestimmung von sozialen Netzwerken herausgefordert werden. Warum?
Zum einen gründet das ökonomische Fundament der sozialen Netzwerke auf dem Verkauf von Werbung. Die Werbebotschaften lassen sich dabei denkbar ideal platzieren, als exakt jene Personenkreise adressiert werden können, die vom Marketing als die relevanten Zielgruppen identifiziert werden. Denkbar vielfältige sozio-ökonomische Kriterien lassen sich als Identifikationsmerkmal wählen, um eine relevante Personengruppe zu konstituieren. Die präzise Segmentierung der NutzerInnen von sozialen Netzwerken geschieht anhand der Analyse von Interessen, die individuell auf den Plattformen verfolgt werden, und den Persönlichkeitsmerkmalen, die preisgegeben werden. Diese Informationen werden nicht nur eingehend analysiert und ausgewertet, sie lassen sich auch zu dezidierten und wahlweisen Personengruppen zusammenfassen. Den Werbekunden werden also exakte InteressentInnen angeboten, die mit präzis platzierten Botschaften erreicht werden.
Der Ansatz, dezidierte Personengruppen mit passenden Schlüsselbotschaften in sozialen Netzwerken zu erreichen, wird mit dem Begriff Mikrotargeting umschrieben. Dieses Verfahren erlaubt es, eng begrenzte Mittel der Öffentlichkeitsarbeit möglichst effektiv einzusetzen und einen eingrenzbaren Interessentenkreis mit abgestimmten Nachrichten zu adressieren. Bei weitgehend sprachbasierten Netzwerken, wie es beispielweise Facebook darstellt, lässt sich die Analyse von Persönlichkeitsprofilen sehr direkt und einfach gestalten. Komplizierter gestaltet sich das Verfahren, wenn beispielsweise das Netzwerk rein bildbasiert operiert – Instagram, rechtlich zu Facebook gehörend, ist diesbezüglich ein ansehnliches Beispiel. Verstärkte Investitionen in Bilderkennung erklären sich auch genau vor diesem Hintergrund. Erst wenn sich effektive Software dafür einsetzen lässt, den Inhalt von Bildern zu erkennen, dann können tiefgreifende und datenbasierte Analysen über Vorlieben und Verbindungen wirksam werden, die auf Plattformen wie Instagram zur Schau gestellt sind. Dafür müssen Programme über die Fähigkeit verfügen, einzelne Pixel im Zusammenhang mit den umliegenden Pixeln zu verknüpfen. Auf diese Weise werden Zusammengehörigkeiten erkannt und die dargestellte Abbildung digital analysiert. Dieser Informationswert erlaubt es, intensive Persönlichkeitsprofile anzulegen. Wie schwierig das teilweise ist und wie präzise die Datenanalysen arbeiten müssen, zeigt das Schaubild unten. Es ist gegenwärtig enorm aufwändig, bei Softwareprogrammen jene Exaktheit zu erreichen, die es braucht, um wesentliche Unterscheidungsmerkmale anhand von Bildmaterialien zu treffen. Das Bild unten, das Muffins oder Chihuahuas zeigt, illustriert die Diffizilität.
Abbildung 11: Muffins oder Chihuahuas
Darüberhinausgehend lässt sich auch die Reaktion auf konkrete Maßnahmen oder Stellungnahmen exakt bestimmen, testen und gegebenenfalls die eigene Message nachadaptieren. Damit diese Funktion nun denkbar ausgereift und interessant angeboten werden könnte, setzt es manche Vorbedingungen voraus: Ein Netzwerk sollte möglichst viele NutzerInnen auf die eigenen Plattformen locken. Im Zuge von marketingbasierten Wertschöpfungsketten wächst investierte Aufmerksamkeit zu einem entscheidenden Kennwert. Auf den Plattformen sollte deshalb denkbar viel Zeit verbracht und persönliche Informationen preisgegeben werden. Das geschieht vor allem dann, wenn persönlicher Austausch gefördert wird, Verbindungen entstehen und persönliche Vorlieben freiwillig dokumentiert werden.
Was erscheint also als wirksames, theoretisches und ideelles Prinzip hinter den erfolgreichen Netzwerken? Um folglich die gewünschten Verhaltensweisen von NutzerInnen zu befördern und zu initiieren, reflektieren soziale Netzwerke die intellektuellen Grundlagen des Behaviorismus. Behaviorismus verfolgt den Ansatz, dass menschliches und tierisches Verhalten das Ergebnis von verstärkenden und abschwächenden Faktoren sei. Gewünschtes Verhalten lässt sich also methodisch durch gezielte, manipulative Anreize schaffen.
Diese Anreize werden in den sozialen Netzwerken durch die kalkulierte Anzeige von Informationen geschaffen. Algorithmen treffen diesbezüglich Entscheidungen, was in den persönlichen Feeds angezeigt wird, wie das individuelle Interesse geweckt und Interaktion motiviert wird. Das bedeutet die Logik der gängigen Netzwerke basiert nicht vorrangig auf der Verknüpfung von Einzelpersonen, sondern auf der Beobachtung von individuellem Verhalten, das gezielt moduliert wird, um möglichst viel ökonomischen Nutzen zu generieren. Diese Wirkung wird erzielt, indem ein ausgeklügeltes System aus Strafe und Anerkennung etabliert wurde, dass die individuelle Verhaltensweise formt. Anerkennung geschieht in dieser Form vor allem durch ansprechende Reaktionen von anderen, die erfahren werden. Strafe besteht darin, dass unangenehme Reaktionen in Gestalt von Gegenantworten hervorgerufen werden. Diese intendierten Reaktionen wirken wie Stimuli, die bewusst gesucht und durch die Modifikation des Verhaltens von NutzerInnen herbeigeführt werden. Sie erzeugen ein konkretes Verhalten, das dann von den Plattformen selbst kommerzialisiert wird. Deshalb lässt sich die Wirkweise von sozialen Netzwerken nicht als reine Werbeplattform verstehen. Vielmehr muss die Tiefenwirkung begriffen werden, dass individuelles Verhalten tendenziös und inkrementell moduliert wird. Der Virtual Reality Pionier und Technikphilosoph Jaron Lanier argumentiert mittlerweile vor diesem Verständnishintergrund dafür, dass sich NutzerInnen von den bestehenden Plattformen lösen müssen, weil die manipulativen Verfahren zur Erosion gesellschaftlichen Ausgleichs und zur Manipulation von Individuen führen.36 Die bedeutsame Idee von sozialen Netzwerken und der Verbindung von Individuen über das konventionelle Internet wurde durch dieses Geschäftsmodell überdeckt. Jaron Lanier bezeichnet deshalb Unternehmen wie Facebook nicht als soziale Plattformen. Er erkennt in ihnen auch keine Anzeigenverkäufer, deren Geschäftsmodell schlicht im Vertrieb von Werbeflächen bestehen würde. Vielmehr qualifiziert er die Praxis dieser multinationalen Konzerne als „Imperien zur Verhaltensänderung“.
In Referenz auf das Freiheitsverständnis, das sich seit Beginn der Aufklärung herauszubilden begann, zeigt sich eine vehemente Schwierigkeit, die Mikrotargeting bei der politischen Bewusstseinsbildung verursacht. Die Idee, dass wenn persönliche Vorlieben einer Person erstmal entziffert wurden, diese dann durch Anzeigen und Informationen gezielt bedient und verstärkt werden können, widerspricht in letzter Konsequenz dem Prinzip neuer Einsichten. Nachdem Einstellungen und ideelle Merkmale einer Person entschlüsselt sind, werden jene Nachrichten eingeblendet und dargestellt, die der eigenen Auffassung entsprechen oder radikal andere Ansichten präsentieren, die zur Widerrede aufrufen. So entsteht eine Bipolarität, die vor allem bezweckt, dass im Netzwerk affirmative Aktion und aggressive Reaktion entsteht, Zeit in den Netzwerken verbracht wird, die Plattformen mit Inhalten gefüllt werden, Stimuli in Form von Bestätigung oder Ablehnung erhalten werden. All das geschieht, um den ökonomischen Wert einer Plattform steigen zu lassen, je mehr Zeit darauf verbracht wird, je mehr Informationen preisgegeben werden, je größer die Zahl der NutzerInnen, umso interessanter wirkt ein soziales Netzwerk für potenzielle Anzeigekunden.
Was diese Logik nicht zu berücksichtigen versteht, ist die Wirkweise der autonomen Entscheidungsfindung, wie sie konzeptionell von aufgeklärten Menschen getroffen wird. Auf Grundlage von besserer Einsicht verändern sich Meinungen und Überzeugungen. Wissen agiert transformativ, vertieftes Verständnis ändert Auffassungen, neue Perspektiven führen zu neuen Ansichten. Diese Logik der Veränderung und des besseren Verständnisses begründet aufgeklärtes Denken, dass dem freien Menschen eigen ist. Die Funktionsweise von sozialen Netzwerken hingegen rückt die bestehende Auffassung in den Mittelpunkt und entsprechend werden für NutzerInnen Beiträge bzw. Werbebotschaften arrangiert, die diese vorgefassten Meinungstendenzen verstärken. Die Netzwerke zerfallen in sich selbst als abgrenzende Kammern. Nicht durch neue, weitere oder andere Erkenntnisse wird das eigene Bewusstsein herausgefordert, sondern durch die Einblendung von genehmen Positionen entstehen Echokammern, schlicht daraufhin ausgerichtet, vorgefasste Meinungen zu bestärken, radikale Gegenstandpunkte aufeinanderprallen zu lassen, Auffassungen zu zementieren, anstatt sie zivil herauszufordern und inkrementell zu verändern. Darin liegt eine wesentliche Herausforderung für das Bild eines autonom agierenden Menschen, der fähig wäre auf Basis qualifizierter Analysen und umsichtiger Informationsverarbeitung, ethisch zu agieren. Die Anzeige von Beiträgen in den sozialen Netzwerken repräsentiert folglich einen kalkulierten und berechneten Ausschnitt an verfügbaren Informationen in den sozialen Netzen, darauf zielend, konkrete Verhaltensweisen der NutzerInnen zu befördern. All das geschieht in der Absicht, NutzerInnen an die Plattform zu binden, um im Rahmen einer digitalen und Algorithmus basierten Aufmerksamkeitsökonomie, Wertsteigerungen zu erwirken. Nicht nur, dass persönliches Verhalten modifiziert wird und gefasste Vorurteile gekonnt bespielt werden, auch gründen darauf Geschäftsmodelle. Darin besteht eine enorme Herausforderung erwirkter Freiheit.
Die ethische Herausforderung liegt also darin, dass die Prinzipien reflektierter Wissensbildung der gängigen Funktionslogik von sozialen Netzwerken entgegenstehen. Verständnis für einen Sachverhalt wächst dann, wenn sich durch verbesserte Einsichten Meinungen ändern. Die kommunikative Routine auf den sozialen Plattformen hingegen baut auf der Deduktion vorhandener Auffassungen und der entsprechenden Verstärkung dieser durch ein Schema, das auf Anerkennung und radikaler Konfrontation aufbaut, auf. Das Setup ist also kein Zufall, nicht der Technologie per se zuzuschreiben, die bestimmbaren Folgewirkungen nicht zwangsläufig oder unvermeidbar, wenn soziale Medien genützt werden sollen. Es handelt sich stattdessen, um eine bewusste Entscheidung seitens der Technologiekonzerne, im Interesse des eigenen Marktwerts getroffen. Als fatale Kettenreaktion wirkt die rasante Verbreitung von Falschmeldungen oder ungeprüfter Gerüchte, die Ununterscheidbarkeit zwischen verifizierbaren Tatsachenberichten und haltlosen Behauptungen, die Entstehung von diskursiven Parallelgesellschaften. Soziale Netzwerke, die einst die öffentlichkeitswirksame Mission für sich selbst definierten, die Menschheit zu vernetzen, zerfallen zusehends in starre Kleinverbindungen. Plattformen strukturieren also nicht ein gemeinsames Netzwerk, sondern erscheinen vielmehr als die operative Grundlage für segregierte und thematisch abgekapselte Subnetze, zerfallen in zahllose Echokammern. Ein entscheidender Aspekt, wenn über diese Eigenheit nachgedacht wird, besteht darin, dieses Merkmal nicht als einen unumgänglichen Makel der technologischen Entwicklung zu betrachten, sondern die ökonomische Verwertungslogik zu reflektieren, die das Setup begründete. Anfänglich war es eine rasante Wachstumslogik, die dazu führte, NutzerInnen anzuhalten, möglichst viel ihrer begrenzten Zeit auf Aktivitäten in den sozialen Medien zu verwenden. Dafür mussten Anreize wie ein Belohnungssystem in Form von der wahrnehmbaren Eigenwirkung geschaffen werden – sei es in Form von verdienten Likes. Als dann die Business-Modelle intensiviert und verbessert wurden, verstärkte sich die bewährte Logik zusätzlich. Auch aktuell zeigt sich ein Wachstumstrend, wenn die durchschnittliche Zeit ermessen wird, die NutzerInnen von sozialen Medien auf den unterschiedlichen Plattformen verbringen.
Abbildung 12: Minuten, die NutzerInnen auf sozialen Netzwerken täglich verbringen (Bezug: Android NutzerInnen in den USA)
Eine der essenziellen und wunderbaren Dienstleistungen, die das konventionelle Internet ermöglicht, besteht darin, Personen in flexiblen Netzwerken über globale Distanzen zu verbinden. Gemeinsame Interessen lassen sich teilen, Informationen übertragen, mono- oder multithematische Gruppen können sich konstituieren, die Reichweite erlaubt es, von der lokalen Ebene bis zur interkontinentalen Distanz soziale Einheiten zu integrieren. Diese Schlüsselfunktion wirkt als ein fortschrittliches und attraktives Wesensmerkmal, dass der Nutzung des Internets eignet. Form, Verfahren und Strukturen, wie diese Prozesse gegenwärtig abgewickelt werden, entsprechen einer gewissen Form der Kommerzialisierung und der politischen Ökonomie der bestehenden Verhältnisse. Es ließe sich auch anders denken und realisieren. Das nächste Kapitel zeigt diesbezüglich eine vergleichbare Vorgehensweise im Hinblick auf die Geschäftspraktiken maßgeblicher Startup-Konzerne, die gerne als Sinnbild für disruptive Geschäftsmodelle in einer Branche verstanden werden. Abschließend: Die Darstellung von Inhalten in den sozialen Netzwerken, die Einzelpersonen angezeigt bekommen, basiert auf der Kalkulation von Algorithmen, die einfach versuchen, persönlichen Erwartungshaltungen zu entsprechen. Die Funktionsweise der Algorithmen zielt darauf, jene Beiträge zu erkennen, die eine Person bevorzugt lesen möchte. Es werden also Muster erkannt und dann plausible Vorhersagen abgeleitet, Vorlieben und vorgefasste Meinungen werden extrapoliert. Dieser Erkenntniszusammenhang wirkt nun nicht nur im Umfeld der sozialen Medien. Auch andere Big Data Analysen zielen genau darauf ab, anhand von empirischen Datenbeständen, konkrete Handlungsweisen in der Zukunft vorherzusagen. Diese Entwicklung wird mit dem Schlagwort Predictive Analytics umschrieben. Was genau meint Predictive Analytics? Predictive Analytics umfasst eine Vielzahl von statistischen Techniken aus den Bereichen Data Mining, Predictive Modelling und Machine Learning. Aktuelle und historische Fakten bzw. vergangene Verhalten werden analysiert, um Vorhersagen über zukünftige oder sonst unbekannte prognostizierbare Ereignisse zu treffen. Predictive Analytics erlaubt also auf Grundlage einer umfassenden Datenauswertung, Muster zu deduzieren, die mit gewisser Plausibilität zukünftige Verhaltensmuster antizipieren lassen.
Dieses Wissen lässt sich nun beispielsweise dafür nutzen, dass KundInnen individualisierte Angebote gemacht werden, da das weitere Konsumverhalten von Einzelpersonen sich anhand vergangenen Benehmens eruiert lässt. Es lässt sich dafür nutzen, politische Präferenzen zu bestimmen und diese geschickt zu adressieren. Predictive Analytics wird häufig gerade dann kritisch thematisiert, wenn es in Verbindung mit dem Vorschlag von Predictive Policing auftritt. Statistische Datenauswertungen werden in diesem Zusammenhang dafür genutzt, um potenzielle Verbrechen zu verhindern. Predictive Policing analysiert individuelles Benehmen, kombiniert dieses mit modernen GPS-Daten und anderen dokumentierten Verstößen von Einzelpersonen, um die Wahrscheinlichkeiten von anstehenden Gesetzesübertritten zu ermessen. Die Polizeiarbeit wandelt sich also von der Ahndung von Verbrechen hin zur Verhinderung derselben. Es wird folglich anhand von multiplen Datenbeständen die Wahrscheinlichkeit von Zwangsläufigkeiten determiniert, um auf dieser Grundlage dem Sicherheitsbedürfnis moderner Gesellschaften genüge zu leisten.
Speziell Predictive Policing zeigt nun immanente Konsequenzen für die Auffassungen davon, wie Menschen eigentlich agieren. Wenn sich aus aufgezeichneten Verhaltensmustern denkbar exakte Vorhersagen treffen lassen, dann wird das Rollenbild eines autonom agierenden Menschen entscheidend herausgefordert. Wenn sich aufgrund vergangenen Verhaltens zukünftiges Benehmen abstrahieren lässt, dann wird die wesentliche Auffassung manifest herausgefordert, die ein liberales Menschenbild begründet – nämlich der Sachverhalt, dass ein Mensch selbstbestimmt und frei auf Basis eigener und ungezwungener Entscheidungen agiert. Predictive Analytics operiert zwar in Wahrscheinlichkeiten, aber oft wird dem Phänomen speziell im öffentlichen Diskurs ein gewisses Maß an Determinismus zuerkannt. Determinismus meint die Auffassung von der kausalen Vorbestimmtheit allen Geschehens und Handelns. Als solche steht diese Überzeugung quer zum Ansatz der Willensfreiheit.
Freier Wille, freie Entscheidung, die Überzeugung, dass menschliches Handeln auf diesen Paradigmen beruht, bildet die theoretische und praktizierte Voraussetzung dafür, dass Demokratien realisierbar werden. Eine freie Gesellschaft baut auf dem Grundton, dass mündige BürgerInnen autonome und vernünftige Entscheidungen treffen werden. Wird dieser gedankliche Grundsatz nun durch die Praxis von vortrefflichen Predictive Analytics zunehmend bedrängt oder gar widersprüchlich zur erfahrbaren Welt, dann könnten Grundsätze des aufgeklärten Weltbilds zu erodieren beginnen.
Deshalb sei an dieser Stelle eines vermerkt: Freiheit im essenziellen Sinne meint vor allem die Anerkennung der Fähigkeit des Menschen, das eigene Leben vernunftbasiert, individuell und eigenständig zu gestalten. Es meint nicht, aus einem vorgegebenen Sortiment von Produkten eine bevorzugte Auswahl zu treffen. Wird Freiheit darauf reduziert, dann sind ideelle Umbrüche zu erwarten. Überspitzt formuliert: Predictive Analytics mag dabei helfen, Konsumverhalten zu entschlüsseln. Wenn also eine Zeit lang Windeln für Säuglinge gekauft werden, dann ist daraufhin zu erkennen, dass bald die Nachfrage nach Holzspielzeug entsteht, das lässt sich mit Big Data erwirken. Wie aber ein modernes, ethisches, vernünftiges, nachhaltiges Leben im 21. Jahrhundert geführt werden kann, dafür bedingt es der autonomen Entscheidungen aufgeklärter Individuen. Wenn Big Data nun dabei hilft, komplexe Entscheidungsgrundlagen aufzubereiten, um neue und ergänzende, auch gewinnträchtige Perspektiven zu erschließen, dann hat bereits eine Technologie effektiv zum zivilen Fortschritt beitragen können. Doch die Autonomie der Entscheidung obliegt dem Menschen, auch weil er sich aus der Verantwortung für die Welt nicht stehlen kann. Doch nicht nur Predictive Analytics zeigt diesbezüglich vehemente Konsequenzen für die Selbstwahrnehmung des Menschen betreffend Gestaltung und Erfahrung von Wirklichkeit. Predictive Analytics nutzt Big Data, umfassende und disparate Datenbestände werden also darauf verwandt, konkrete Aussagen zu treffen. Die Schwierigkeit für das menschliche Selbstbewusstsein wartet nun darin, dass Maschinen Aussagen über die Wirklichkeit treffen können, die den kognitiven Erkenntniswegen des Menschen schlicht verschlossen bleiben. Der menschliche Verstand fungiert somit nicht mehr als alleinige und entscheidende Richtinstanz der Analyse weltlicher Prozesse, sondern er stützt seine Einschätzung auf computergestützten Operationen. Big Data meint die Aufzeichnung von einer Fülle an Datenbeständen, die nur noch dann informativ verarbeitet werden können, wenn auch dafür computergestützte Verfahren zur Anwendung kommen.
Das Wissen, das aktuell dokumentiert wird, zeigt Ausmaß und Fülle, die sich nur noch dann gewinnbringend auswerten lassen, wenn technologische Verfahren zur Anwendung kommen. Die aussagekräftige Aufbereitung von Information benötigt bereits technologische Unterstützung. Danach werden dann Kreativität, Einschätzung und Interpretation durch den menschlichen Geist verlangt. Dieser Einschnitt markiert eine Zäsur. Das 21. Jahrhundert dokumentiert also den Übergang in ein neues Zeitalter, das dem Menschen neue Rollen zudenkt. Für den Bruch überholter Konventionen zeigen sich zwei zentrale Faktoren entscheidend: Die digitale Transformation bewirkt, dass Gegenstände, die wir nutzen, in konkreter Hinsicht intelligenter agieren können als der Mensch selbst. Das Verhältnis zwischen Menschen und Gegenständen, die genutzt werden, verändert sich damit nachhaltig. Nicht nur das: Bisher war der Weiterentwicklung jedes Gegenstands menschlichem Erfindungsgeist zuzuschreiben, Künstliche Intelligenz hingegen trainiert sich selbst und wird eigentätig schlauer.
Der Klimawandel redefiniert zusätzlich das Verhältnis zwischen Menschen und Natur. Die ältesten fossilen Funde, die die Existenz der Spezies Homo Sapiens belegen, finden sich in Afrika und lassen sich 300.000 Jahre rückdatieren. Der Klimawandel ändert nun die thermischen und klimatischen Bedingungen im natürlichen Lebensraum des Menschen, wie es innerhalb dieses Zeitraums vergleichbar nicht vorgekommen ist. Beides wird nachhaltige Veränderungen bewirken.
6 Die Moral der Disruption
Wird über Veränderung im Rahmen der digitalen Transformation nachgedacht, dann fällt regelmäßig der Begriff Disruption. Das Schlagwort stammt aus dem Englischen, auf Deutsch übertragen bezeichnet disruption Zusammenbruch, Störung, Diskontinuität. In Verbindung mit der digitalen Transformation meint Disruption den Umbruch und die Erneuerung von konventionellen Geschäftsmodellen durch den Einsatz neuer Technologien.
In der Verlagsbranche wurde durch neue Mechanismen der Informationsbeschaffung die Relevanz der gedruckten Tageszeitung oder konventioneller Nachrichtensendungen gesenkt. Bedeutungen haben sich radikal verschoben. Der Anzeigenmarkt, der für Tageszeitungen und Magazine neben den Vertriebserlösen die bedeutsamste Einkommensquelle bildete, erfuhr radikale Umwälzungen. Soziale Medien und Suchmaschinen verdienen mittlerweile eindrücklich an den Umbrüchen und Abstürzen der anderen.Facebook veröffentlicht Kennzahlen, die belegen, dass im Jahr 2018 rund 55 Milliarden Dollar an Werbeumsätzen erzielt wurden. Google kassierte im selben Jahr 116 Milliarden Dollar an Werbeeinnahmen.39 Bei beiden Unternehmen muss berücksichtigt werden, dass sie, anders als Verlagshäuser, keine eigenen Inhalte produzieren. Sie verstehen sich auch nicht als solche, sondern agieren ihrem Rechtscharakter nach als reine Plattformen, die für Inhalte nicht haftbar zu machen sind. Vielmehr sind es die NutzerInnen, die Inhalte zur Verfügung stellen, die entweder das soziale Netzwerk beleben oder auf Suchmaschinen hinweisen können. Das Prinzip, dass NutzerInnen Inhalte kostenlos produzieren und zur Verfügung stellen, Inhalte, die dann von den Plattformen selbst kommerzialisiert werden, nutzen beispielsweise einige DenkerInnen als einen Begründungszusammenhang für eine Art des bedingungslosen Grundeinkommens. Durch effizientes Steuerregime und der Redistribution mittels Grundeinkommen würden die VerfasserInnen von Inhalten für ihre Aktivitäten entlohnt. Das Verfassen von Inhalten wäre die anzuerkennende entlohnende Arbeit, die Netzwerke vermarkten. Die Plattformen würden dementsprechend als Verwerter der Inhalte zu einem Medium werden, das die Beiträge effektiv monetarisiert, bevor die erzielten Einnahmen dann weiterverteilt werden.
Wie in einer anderen Lehrveranstaltung bereits vermerkt, eignet sich auch die Musikindustrie als Sinnbild eines Marktes, der durch die Logik der Disruption essenziell erneuert wurde: In der zweiten Januarwoche 2019 schaffte es der New Yorker Musiker A Boogie wit da Hoodie auf Platz 1 der amerikanischen Album Charts Billboard 200 mit gerade einmal 823 verkauften Tonträgern. Die Spitzenposition erhielt er insofern, als seine Popularität bei den Streamingdiensten sich in Albumäquivalente übertragen lässt. Billboard verbuchte für das Album Hoodie SZN in der besagten Woche 58.000 Albumäquivalente in den Streamingdiensten und 823 verkaufte Tonträger.
Disruption wird also dann wirksam, wenn sich innovative Technologien mit neuartigen Geschäftsmodellen so verbinden, dass bestehende Prozesse und Absatzwege nahezu schlagartig obsolet werden. Ein Unternehmen, das vielen als Inbegriff disruptiver Geschäftspraktiken gilt, ist Uber. Doch was verbirgt sich hinter dem Erfolg des einstigen Startups und was erzählt die Entwicklungsgeschichte über die Moral der Disruption? Die Geschichte von Uber fängt gemäß dem eigenen Narrativ damit an, dass die beiden Freunde Travis Kalanick und Garrett Camp zusammen die LeWeb Konferenz in Paris im Jahr 2008 besuchen. Beide sind zu diesem Zeitpunkt bereits aufgrund des Verkaufs erster Startups vermögend. Das nutzt an einem Konferenzabend jedoch denkbar wenig, denn es finden sich nach Ende eines Veranstaltungstages keine Taxis, die sie hätten nutzen können, um ins Zentrum der Stadt zurückzukehren. Diese Erfahrung veranlasst die Beiden darüber nachzudenken, wie sich denn eine App aufsetzen ließe, die Fahrten mit Limousinenservices teilt. Diese Idee führte auch zum ursprünglichen Geschäftsfeld des Unternehmens. Es sollten damit ausschließlich Fahrten an Fahrer vermittelt werden, die üblicherweise in schwarzen, eleganten Personenwagen Flugpassagiere von Flughäfen in ein Stadtzentrum bringen. Diese Tätigkeit ist normalerweise mit langen Wartezeiten verbunden. Um also höhere Effizienz zu erwirken, war es angedacht, diesen Limousinenfahrern weitere Fahrgäste weiterzuvermitteln. Der Rechtsrahmen war abgesteckt, die Standards gesetzt, das Optimierungspotenzial klar ersichtlich.
Die Leerläufe und Stehzeiten von Flughafenlimousinen zu verkürzen, indem zusätzliche Fahrten vermittelt werden, darin bestand anfänglich das Geschäftsmodell von Uber. Diese Idee wurde dann auch präsentiert, um Investoren zu gewinnen, die den Aufbau und die Geschäftstätigkeit des Unternehmens finanzieren sollten. Die Schwierigkeit fand sich darin, dass nahezu parallel und simultan ein anderes Startup eine Idee zu vermarkten begann, das weit ambitionierter als Uber wirkte. Das Unternehmen nennt sich Lyft und das Geschäftsmodell dahinter bestand darin, dass eine Software programmiert wurde, die Personen schlicht erlaubt hat, eine Fahrt bei anderen Personen zu buchen. Lyft erneuerte den Mobilitätssektor, da das Unternehmen nicht nur LimousinenfahrerInnen als Service-Provider in die Plattform miteinbezog, sondern es jeder Person freistellte, sich nicht nur als KundIn sondern auch als FahrerIn zu registrieren. Der Ansatz besagte also, dass sich Mobilität so neu denken lassen müsste, dass Fahrten schlicht miteinander geteilt werden, jeder unkompliziert sowohl Anbieter als auch Nutzer solcher Dienste sein solle. Lyft verstand es als Unternehmen folglich, bestehende Hardware in Form der genutzten Autos gleich zu belassen, doch diese anders und intensiver durch vernetzende Software zu nutzen. Die operative Auslastung der vorhandenen Bestände wurde durch den Einsatz neuer Software umgestaltet. Was bisher Taxameter, Call-Center und eigene Fahrzeugflotten besorgen, ließe sich durch bestehende Fahrzeuge, einfach bedienbare Apps und kooperativ agierende Personen ersetzen. Das essenzielle Problem dieser Geschäftsidee bestand darin, dass es sich faktisch um Rechtsbruch handelt. Das Beförderungswesen unterliegt komplexen legalistischen Regelungen, die deshalb Sinn ergeben, weil Passagiere besondere Versicherungsstandards genießen. Insofern zeigen sich im Taxiwesen ausdifferenzierte juristische Regelungen für welche Schäden die FahrerInnen, wann das Taxisunternehmen und wann die Passagiere selbst haften würden. Es ist schwierig aber notwendig, rechtlich aufzuschlüsseln, wann und ab welchem Zeitpunkt im Falle von Verletzungen oder Unfällen der Passagier selbst haftet, ob es im Verantwortungsbereich des Lenkers/der Lenkerin liegen würde oder ob eine potenzielle Versicherungsleistung durch das Taxiunternehmen selbst zu decken wäre. Geschieht es beispielsweise beim Einsteigen oder Verlassen des Fahrzeugs oder erst wenn sich das Auto in Bewegung setzt? Aus diesen Gründen war das Mobilitätsgewerbe reglementiert – teils auch zweifellos überreglementiert.Lyft begründete also eine Geschäftspraxis, die einen bewussten Rechtsbruch darstellte. Uber erkannte, dass das eigene Geschäftsmodell dagegen nicht erfolgreich konkurrieren konnte und folgte der Praxis von Lyft. Der Unterschied bestand darin, dass Uber noch aggressiver und konsequenter im Aufbau des eigenen Geschäftsmodells vorging, als es Lyft jemals getan hat.
Die Frage, die sich nun stellt, um diese Vorgänge zu bewerten, lautet: War sich Uber der Tatsache bewusst, dass mit dem eigenen Geschäftsmodell gegen rechtliche Regelungen verstoßen wird? Benjamin Edelman, ein in Harvard lehrender Jurist und Ökonom, belegt in seiner Arbeit, dass Uber die Illegalität des eigenen Handelns nicht nur bewusst war, sondern dass sie auch offen im Zuge interner Kommunikation thematisiert wurde. Die Illegalität des eigenen Handels wurde sogar als Vorteil verstanden. Aufwändige Prüfungen für LenkerInnen, gesonderte Registrierungen, die Taxiautos verlangen, Unternehmensversicherungen, die verschärften Inspektionen für Fahrzeuge, die zur kommerziellen Beförderung von Passagieren genutzt werden, all das konnte Uber umgehen. Die Ignoranz gegenüber verbindlichen Standards erlaubte im Preiskampf mit bestehenden Unternehmen, die gängigen Tarife zu unterbieten. Der Rechtsbruch führte zu strategischen Vorteilen im Wettbewerb. Der US-amerikanische Ökonom Peter Drucker hielt für Organisationen und Unternehmen eine entscheidende Wahrheit fest: „Cultur eats strategy for breakfast.“ Die Kultur, die in einem Unternehmen oder einer Organisation gepflegt wird, ist also die entscheidende Richtgröße, um Verhaltensnormen zu definieren. Werden Strategien definiert, die im Gegensatz zur Kultur stehen, gilt es als sicher, dass ihnen wenig Erfolg beschieden sein wird. Die Kultur repräsentiert gemäß dieser Auffassung das kollektive Selbstverständnis einer Organisation. Bei Uber war und ist diese Verständnisgrundlage des eigenen Tuns davon grundlegend mitbestimmt, dass die eigene Geschäftstätigkeit sich in der Illegalität bewegt. Benjamin Edelman fast seine Forschung über Uber in knappen Sätzen zusammen:
Darüber hinaus konzentrierten sich Ubers ausgeprägtesten Fähigkeiten auf die Verteidigung der Rechtswidrigkeit. Uber baute Personal, Verfahren und Softwaresysteme auf, deren Zweck es war, Passagiere und Fahrer zu befähigen und zu mobilisieren, Regulatoren und Gesetzgeber zu beeinflussen – eine politische Katastrophe für jeden, der Ubers Ansatz in Frage stellte. Die Phalanx der Anwälte des Unternehmens brachte Argumente [in unterschiedlichen Gerichtsverfahren und Anhörungen, Anm.] vor, die aus früheren Streitigkeiten perfektioniert wurden, während jede Gerichtsbarkeit Uber unabhängig und von einer leeren Tafel aus ansprach, meist mit einem bescheidenen Prozessteam. Uber-Publizisten präsentierten das Unternehmen als Inbegriff von Innovation und stilisierten Kritiker zu etablierten Marionetten, die in der Vergangenheit stecken geblieben waren.
Die Intention der Geschäftsstrategie baut auf einer stringenten Logik auf: Das Geschäftsmodell steht zwar geltenden Regularien entgegen, ignoriert und bricht diese, aber der Rechtsbruch selbst gilt insofern als vernachlässigenswert, als Regulatoren und öffentlichen Autoritäten eine geballte und erprobte Verteidigung entgegengehalten wird. Neben diesem wirkmächtigen Vorgehen vervollständigt sich die Vorgehensweise um eine zweite Erfahrung: KundInnen selbst beginnen die Dienste wertzuschätzen. Die illegale oder dubiose Geschäftspraxis erfährt Popularität, weil eine wachsende Anzahl an Personen, die Services zu nutzen beginnen. Jene Behörden, die also die Achtung von Gesetzen einfordern, sehen sich plötzlich nicht nur einem erfolgreichen Konzern gegenüber, sondern sie erleben auch Widerspruch seitens einer partikularen Öffentlichkeit, die sich mittlerweile an die angebotenen Dienstleistungen gewöhnt hat und in Zukunft nicht mehr darauf verzichten möchte. Aus dieser Position der populären Stärke agiert das Unternehmen dann gegen öffentliche Regulatoren, diese wiederum werden dafür angegriffen, dass sie bestehendem Recht Geltung verschaffen. Disruption meint im Falle von Uber, ein Geschäftsmodell zu initiieren, das faktisch bewusst gegen Gesetze verstößt und diesen praktizierten Unternehmensgeist als disruptive Avantgarde sowohl in der internen wie externen Kommunikation darstellt. Je größer der erzielte Erfolg, als umso unwahrscheinlicher wird es in strategischer Folge erachtet, dass die Regulatoren nicht darauf hinwirken könnten, ihrer eigentlichen Aufgabe nachzukommen und die Geschäftstätigkeiten einschränken oder gar einstellen würden.
Disruption wird häufig als Synonym für kreatives, gewagtes, innovatives, vielversprechendes Unternehmertum verstanden. Der Fall Uber zeigt, wie verwegen die faktischen Hintergründe jedoch auch sein können. Wenn das Prinzip von Disruption zur Ideologie verkommt, die nicht mehr hinterfragt wird, lassen sich selbst zweifelhafte und illegale Maßnahmen legitimieren und die Effektivität vernünftiger Regulierungen unterminieren. Uber ist in diesem Fall Symbol für ein ideelles Phänomen. Vor diesem Verständnishintergrund lassen sich vermutlich bereits die nächsten Schritte antizipieren, die das Unternehmen perspektivisch setzen wird. Uber ist weitestgehend ein defizitäres Unternehmen. Im Jahr 2016 wurde ein Bilanzverlust von drei Milliarden Dollar ausgewiesen. Nur in einigen wenigen Städten konnte ein operativer Profit erwirtschaftet werden. Marktanalysten sagen, dass die Geschäftstätigkeit von Uber nur dann Gewinn erzielen könnte, wenn sich die technologische Entwicklung des autonomen Fahrens in naher Zukunft realisieren ließe. Nur durch eine veränderte Kostenstruktur, die mittels Einsatzes dieser Technologie wirksam werden würde, ließe sich Profitabilität bei Uber erwirken und der Fahrpreis um 80 % senken.43 Weil es die Nutzung dieser Technologie benötigt, um eine profitable Existenz des Unternehmens zu sichern, lässt sich unter Kenntnisnahme vergangener Verhaltensweisen vermuten, dass der Konzern illegale Praxis auch dann einsetzen wird, wenn die rechtlichen Rahmenbedingungen für das autonome Fahren noch vage oder ungenügend erscheinen. Auch im Hinblick auf einen anderen Trend wird Uber als disruptive Macht erachtet: Es handelt sich dabei um die Transformation der Arbeitswelt, noch bevor die absehbaren Konsequenzen des autonomen Fahrens schlagend werden. Der praktizierte Ansatz besagt, dass jede Person faktisch ungebunden ins Mobilitätsgeschäft einsteigen kann und sei es auch nur, um Fahrten anderen anzubieten, die sowieso absolviert werden müssen. Diese Form der Flexibilität soll es sowohl AnbieterInnen als aus NutzerInnen von Diensten flexibel erlauben, vorhandene Ressourcen effektiv zu teilen – im Falle von Uber wären das nun die Zeitressource, ein Vehikel, Geld oder Wege, die zu bewältigen wären. Bei Airbnb, das den Nächtigungsmarkt umkrempelt und eine ähnliche disruptive Strategie in Europa wie Uber verfolgt, wären es dann Wohnraum, Geld und Übernachtungsmöglichkeit. Beide Unternehmen, wie unzählige andere auch, betrachten sich als reine Plattformen. Ihrem Argument nach agieren sie als schlichte Vermittler von Dienstleistungen. Das geschieht deshalb, weil sie sonst, wenn sie wie andere Branchenreisen erschienen, anderen Branchenregulierungen Folge leisten müssten und in den USA andere Steuertarife wirksam wären. Entscheidend wirkt es, den Erfolg dieser Plattformen auch vor dem Hintergrund sozialer Entwicklungen zu sehen. Bereits in Kapitel 4 dieser Lehrveranstaltung wurde dargestellt, wie im Verlauf des letzten Jahrzehnts der soziale Ausgleich abgenommen hat, Lohneinkommen gegenüber Kapitalerträgen markant zurückgehen. Diese gesellschaftliche Disparität verstärkte zweifellos die erwiesenen Erfolgspotenziale der Plattformen: Airbnb bietet als willkommener Service viele Vorteile. Es flexibilisiert Reisen und modernes Wohnen, setzt gerade der zyklischen Preisentwicklung im Hotelsektor bei beliebten Destinationen eine wirksame Kraft im Interesse der TouristInnen entgegen. Doch sollte diese Perspektive nicht übersehen, dass für viele Airbnb schlicht eine notwendige Lösung dafür darstellt, mit stagnierenden Löhnen und steigenden Mietpreisen in Ballungszentren umzugehen. Wenn ein Zimmer nicht aus freien Stücken vermietet wird, sondern deshalb, weil sonst die Kosten für die eigene Wohnung nicht mehr bestritten werden können, dann zeigt sich ein ganz anderes Bild: Soziale Schieflagen und verschobene politische Machtverhältnisse würden nicht mehr als gesellschaftliche Unzulänglichkeiten erkannt, die offen diskutiert werden sollten, sondern schlicht als eine unternehmerische Chance genutzt, der disruptiv entgegengewirkt werden muss. Darin besteht die Kommerzialisierung aller gesellschaftlichen Herausforderungen in Form einer Business-Opportunity und die Entpolitisierung sozialer Schieflagen. Der Erfolg von Plattformen zeigt sich beispielsweise in den USA gerade darin, angesichts stagnierender Einkommen und einer Beschränkung der Konsumentenkredite nach erschwinglichen Möglichkeiten zu suchen. Die Reallöhne der amerikanischen Arbeiter sind seit 1979 niedrig. Ein beträchtlicher Rückgang des gewerkschaftlichen Organisationsgrads, die Auslagerung der Produktion im Rahmen der Globalisierung und die Verringerung des Anteils der Arbeitseinkommen sind Faktoren, die zu dieser Stagnation beigetragen haben.
[Weiters, Anm.] […] gibt es ein auf Abruf verfügbares Arbeitskräftepotential. In Amerika sind 37 Prozent der arbeitenden Bevölkerung, also 92 Millionen Menschen, ohne dauerhafte Beschäftigung und scheinen die Suche nach Vollzeitjobs aufgegeben zu haben. Daneben gibt es viele andere, die von einem einzigen Job nicht leben können. Die vermeintliche Flexibilität, die Plattformen bieten – oft auch Plattform-Ökonomie genannt - werden vor diesem Erklärungshintergrund zu einer Ökonomisierung des Umgangs mit gesellschaftlichen Fehlentwicklungen. Sharing Economy hätte zweifellos das Potenzial, unsere Gesellschaften nachhaltiger, ressourceneffizienter, egalitärer, flexibler, wohlhabender zu machen. Die Idee würde auch mit der gelebten Einstellung von Personengruppen oder Generationen korrespondieren, die es für ein einleuchtendes Konzept halten, dass Gegenstände nicht unbedingt als Besitz benötigt werden, nur um sie zu brauchen. Doch markiert es einen bedeutsamen Unterschied, ob diese Entscheidung aus überlegten und freiwilligen Motiven heraus geschieht oder ob sie ein Anzeichen wachsender Bedrängnis ist. Vermietet jemand sein Gästezimmer, um mit Leuten aus aller Welt in Kontakt zu kommen, einladend in der eigenen Stadt zu wirken, ein flexibles Zusatzeinkommen nach Wunsch zu generieren, dann stellt sich die Situation radikal anders da, als wenn jemand den Schlafplatz deshalb regelmäßig anbietet, weil sonst die eigenen Wohnkosten nicht mehr bestritten werden können. Die eine Entscheidung bildet eine Wahl in Freiheit, die andere wäre Ausdruck einer objektiven Notwendigkeit und damit Gängelung der Unfreiheit.
Der weißrussische Publizist Evgeny Morozov definiert den Wesenszug, jede gesellschaftliche Schieflage vor allem als ein potenzielles Anwendungsfeld wirksamer Technologie zu erachten, als Solutionismus. Solutionismus meint dabei die ideologische Auffassung, dass allen existierenden Problemen eine klar definierbare und eindeutige technologische Lösung zugedacht werden kann. Dieser Ansatz verkennt, dass manche gesellschaftlichen Mechanismen schlicht vermeintliche und merkliche Ineffizienzen begründen. Nicht alle Phänomene, die schwerfällig wirken, können sinnvoll beschleunigt werden. Die Verfahrensweisen demokratischer Institutionen sind beispielsweise bewusst auf Ausgleich und damit Verzögerung angelegt. Um es übertrieben, aber eindrücklich zu formulieren: Wenn Schnelligkeit also zum einzigen Gebot wird, dann macht die zweite und dritte Lesung eines Gesetzes in parlamentarischen Kammern keinen Sinn. Insofern erscheint es wichtig, anzuerkennen, warum manche Verfahren schlicht ihre eigene Logik durchlaufen und manche Ineffizienz durchaus ihre Berechtigung hätte und Bedeutung erfährt.
Das soll nun nicht dahin führen, dass alle existierenden Prozesse sich damit immunisieren lassen, dass sie bereits gelebte Praxis und somit erzielbares Optimum darstellen. Aber das andere Extrem liegt in dem technophilen Ansatz des Solutionismus, dass sich alles radikal aufgrund von Technologie erneuern muss, weil beispielsweise jede Prozessverzögerung ausgemerzt gehört. Warum Berufungsgerichte, wenn anhand einer Software bereits im ersten Verfahren, ein Urteil gefunden werden kann? Diese Art zu denken wäre fatal, ideologisch vernebelt und würde einen radikalen Rückbau ziviler Grundlagen unserer Gesellschaft bewirken. Wie gesagt, demokratische Verfahren benötigen ihre Reflexionszeit und wo Menschen gestalterisch wirken, da werden ihre Eigenarten erkenntlich. Das gilt es zu berücksichtigen.
7 Fazit
Ethik und Technologie stellt die Gesellschaft vor neue zentrale Überlegungen, die im Geiste gesellschaftlichen Denkens und Fortschritts bedacht werden müssen. Es stellt sich die Frage nach einem neuen Ausgleich zwischen öffentlichen Akteuren und unternehmerischem Handeln, geleitet von der Frage, wie eine wirksame Arbeitsteilung zwischen diesen Kräften beschaffen sein kann. Der klassische Begriff von Informationsethik selbst würde anfänglich darauf zielen, konkrete Festlegungen zu treffen, wie Daten sicher übertragen, gespeichert und genutzt werden können. Diese Frage stellt sich gerade im Rahmen des Ausbaus des Internets der Dinge wesentlich. Die Anzahl an Daten, die durch Kommunikation zwischen Maschinen und der Anwendungen von Sensoren erhoben wird, erreicht ein davor unbekanntes Ausmaß. Informationsethik würde also vor allem darauf fokussieren, legale Sicherheitsstandards für diesen Sachverhalt zu erwirken. Die Datenschutzgrundverordnung, die von der Europäischen Union lanciert wurde, bildet diesbezüglich bereits einen globalen Standard.
Informationsethik gemäß eines weiteren Begriffsverständnisses reicht über diese Perspektive hinaus. Es ist wie der Unterschied zwischen Digitalisierung und digitaler Transformation selbst. Digitalisierung meint den schlichten Prozess, Informationen in Form von Daten abzulegen, sie in Form von Bits und Bytes zu speichern, verfügbar und zugänglich zu halten. Digitale Transformation hingegen bezeichnet die gesellschaftlichen und unternehmerischen Wandlungsprozesse, die sich auf Grundlage dieses technologischen Fortschritts materialisieren. Informationsethik in dieser Lehrveranstaltung nimmt genau diese Phänomene in Betracht. Die digitale Transformation verlangt von demokratischen Gesellschaften sich selbst zu befragen, wie von den technologischen Möglichkeiten abseits ideologischer Rhetorik nützlich Gebrauch gemacht werden kann. Es stellt sich die wesentliche Frage, welche Entscheidungen privaten Akteuren überlassen werden und wann gesellschaftliche Rahmenbedingungen festzulegen sind, die einen gemeinsamen Standard definieren. Gerade für Europa zeigt sich, dass entsprechende allgemein verbindliche Prinzipien entscheidend wären. Oft wird die technologische Zukunft als eine Konfrontation der wiederaufstrebenden Supermacht China und der vermeintlich absteigenden Supermacht USA gelesen. Während amerikanische Technologiekonzerne den europäischen Binnenmarkt in einer Form bespielen, dass die europäische Konkurrenz kaum zum Zuge kommt, agiert das zentralistische China in Form von Privat-Public Partnerschaften, um die eigene digitale Transformation voranzubringen. Die chinesische Vorgehensweise zielt darauf, möglichst viele Daten über gesellschaftliche Vorgänge zu aggregieren, um a) die Vormachtstellung der kommunistischen Staatspartei abzusichern, b) durch das bessere Verständnis von Kundenwünschen die entstehende Mittelklasse mittels eigener Unternehmen zu bedienen und c) über exorbitante Datenmengen zu verfügen, um die beste Künstliche Intelligenz zu entwickeln – alles in der Absicht, bei dieser industriellen Revolution Vorreiter zu sein und nicht wie bei der I. Industriellen Revolution von anderen Mächten überholt zu werden und zwei Jahrhunderte lang in den Rückstand zu geraten. Diese strategische Überlegung führt die Entscheidungen.
Wo also könnte sich Europas Perspektive finden? Das entscheidende Experiment für Europa mag darin liegen, die Vorteile der technologischen Revolution eigenständig so anzuwenden, dass sie mit den Grundprinzipien demokratischer Gesellschaften einen lebenswerten Ausgleich findet. Diese Aufgabe und der Imperativ, dass Technologie dann Sinn ergibt, wenn sie vor allem dabei unterstützt, den ökologischen Kollaps abzuwenden, mögen Leitplanken des eigenen Entwicklungshorizonts sein. Wie bereits an anderer Stelle erwähnt: Die Nutzung von Technologie reflektiert immer die politische Ökonomie bestehender Verhältnisse. Sie wird durch manifeste Interessen strukturiert. Wenn heute grundsätzliche Funktionen des Internets, seien es die Suche nach Informationen oder die Vernetzung von Personen vor allem privatisiert, monopolisiert und ökonomisiert wurden, stellt sich die Frage, ob das weiter so gehandhabt werden soll oder ob es sich um einen so notwendigen Service handelt, dass er öffentlich und nicht kommerziell organisiert werden sollte. In diesem Zuge wird der oligopolistische Zugang, den die dominanten US-Konzerne zeigen anders sein als der zentralistische Instanzenzug in China. Europa wird auf Basis eines eigenen Selbstbewusstseins womöglich eigenständig herausfinden müssen, welchen Anforderungen Technologie zu entsprechen hat. Diese resultierenden Lösungen können nicht nur Interesse am Weltmarkt wecken, sondern auch den Fortschritt in ein besseres Zeitalter weisen. Das darf nicht im Geiste eines solipsistischen Übermuts geschehen, der meint, Europa wäre weiterhin das eigentliche Zentrum der Welt. Weit gefehlt. Vielmehr geht es darum, sich eine mutige Rolle zuzumessen, in unternehmerische Vielfalt zu vertrauen, öffentliche Akteure mit Selbstbewusstsein auszustatten, um der digitalen Weltgemeinschaft einen interessanten Selbstversuch zu präsentieren. Denn eines gilt es auch schonungslos anzuerkennen: Momentan machen wir von den vorhandenen Möglichkeiten nicht nur zu wenig, sondern vor allem zu unreflektiert Gebrauch. Technologischer Fortschritt führt zur sozialen Ausdifferenzierung, soziale Netzwerke begründen politische Radikalisierung, Mobilität belastet das Ökosystem, Software unterstützt manchmal den menschlichen Geist weniger, als dass sie verlangt, gegen ihn erfolglos zu konkurrieren. Außerdem fordern uns zwei grundlegende und abweichende Erzählungen darüber heraus, was die anstehenden Veränderungen bedeuten. Das eine Narrativ, dass die Gegenwart von sich selbst in Bezug auf die digitale Transformation erzählt, besagt, dass die Gesellschaft am Beginn eines exzeptionellen Zeitalters stehe. Die ubiquitäre Verfügbarkeit von Information und Wissen wäre in der Geschichte menschlicher Zivilisation ohne Vorbild und kenne keine ähnlich gelagerte Erfahrung. Die Überzeugung, ohne Vorbild zu agieren, verursacht den Eindruck, nicht nur einen Bruchpunkt in der geschichtlichen Entwicklung menschlicher Gesellschaften zu markieren, sondern aus der bisherigen Geschichte selbst auszutreten. Was meint diese Hypothese? Als technologische Zivilisation betrachten wir uns weniger als Teil eines historischen Prozesses, sondern als eine Art Neustart und Neubeginn. Als ökonomisches Erklärungsmuster mag diese Auffassung Berechtigung haben, auch wenn sich hier immanente und beschleunigte Kontinuitäten ausmachen. Als historische Entwicklungsgeschichte hingegen erscheint die Auffassung irreführend. Bezeichnenderweise lässt sich anhand der Argumentationslinien von zwei renommierten Historikern ein zweiter Erklärungshorizont ausmachen. Der Ansatz besagt, dass sich auch die heutigen Transformationen sowohl durch historische Vergleiche kanonisieren ließen, als auch durch die Permanenz klassischer Realpolitik ein Erklärungsmuster findet. Timothy Snyder, ein in Yale lehrender Historiker, erklärt, wie die Ausbreitung des Internets und die Entwicklung von Demokratien zusammenhängen. Ausgehend vom Jahr 2018 stellt er rückblickend fest, dass in den zwölf Jahren davor der Anteil der Weltbevölkerung, der regelmäßig im Internet surft, von knapp 20 % auf rund 60 % angestiegen sei. Im selben Zeitraum lässt sich gemäß der Analyse von Freedom House, eine renommierte und unabhängige NGO, ein globaler Rückzug demokratischer Standards und der verstärkte Aufstieg des Autoritarismus beobachten. Die einzige Region, die diesbezüglich eine Ausnahme darstellen würde, wäre der afrikanische Kontinent. Interessanterweise jener Erdteil, wo der Zugang zum Internet noch am wenigsten ausgebaut ist. Hier lässt sich zumindest eine Korrelation feststellen, wenn nicht sogar eine Kausalität ausmachen. Der Historiker führt diese einschneidende Entwicklung unter anderem darauf zurück, dass Austausch im Internet unter anderem den faktenbasierten Diskurs zerstören würde, der demokratisches Agieren ermöglicht. Fakten und die Relevanz von Fakten wären aber auch die Voraussetzung dafür, machthabende Institutionen für ihr Handeln verantwortlich zu halten. Nur wenn Fakten Bedeutung haben, lassen sich Mächtige zur Verantwortung ziehen. Form und Handhabung des Internets wirken diesem faktenbasierten Diskurs aus zwei Gründen entgegen: Internetbasierte Kommunikation fördert Ablenkung. Wenn beispielsweise der eigene Newsfeed auf den sozialen Plattformen betrachtet wird, dann zeigt sich, dass dort entscheidende Nachrichten gleichgereiht mit Trivialität und schlichten Falschbehauptungen rangieren. Das führt zur Ablenkung, verunmöglicht Konzentration und begründet die Verkennung der Bedeutung von wahren Sachverhalten. Die demokratische Urteilskraft kritischer BürgerInnen schwindet. Der andere entscheidende Grund liegt seiner Auffassung nach in der bereits beschriebenen Stärkung der eigenen Vorurteile durch die Darstellung bevorzugter Suchresultate und Inhalte entsprechend eigener Vorlieben. Das Internet wird also nicht mehr zum geteilten Gemeinschaftsraum, sondern zersplittert in individualisierte Erfahrungswelten aufgrund von algorithmischer Segregation. Diese Faktoren erschweren die demokratische Auseinandersetzung und stützen eher autoritäre Strömungen, die gerade auch bei freien Wahlen vor allem soziale Medien mit entsprechenden Botschaften geschickt zu bespielen verstehen. Sie profitieren von der Polarisierung. Was also heute den Internet-Diskurs bestimmt, wäre eine politische Auseinandersetzung, die dem zivilen Austausch besserer Argumente entgegensteht. Die Grafik unten visualisiert die entsprechenden Ergebnisse einer Studie, die dokumentiert, wie oft und von wem Tweets mit moralischen Aussagen zu Themen wie dem Klimawandel, Schusswaffenkontrolle und gleichgeschlechtlicher Ehe in den USA geteilt werden. 563.312 Tweets von amerikanischen Twitter-NutzerInnen wurden dabei ausgewertet. Die roten Punkte sind einer konservativen Einstellung zuzuordnen, die blauen einer liberalen. Es zeigt sich, dass nur die wenigsten Botschaften übergreifend geteilt werden, vielmehr finden die Messages innerhalb der klar teilbaren, fast hermetischen Präferenzgruppen Verbreitung, eine ausgleichende Mitte erodiert.
Abbildung 13: Network-Graph - die Linien zeigen gruppenverbindende Retweets an, die Farbe der
Punkte ordnen Tweets anhand der inhaltlichen Aussage ihren politischen Präferenzen zu Gleich seinem in Stanford lehrenden Kollegen, Niall Ferguson, erkennt auch Timothy Snyder für die gegenwärtigen Entwicklungen einen Bezugspunkt in der Entdeckung des Buchdrucks. Niall Ferguson dekliniert des Weiteren, dass in der heutigen Erwartungshaltung durch allgemeine Vernetzung eine gleichgesinnte und progressive Gemeinschaft entstehen würde, die sich durch naive Fehlannahmen wie einst beim Beginn des Buchdrucks wiederholt. Der Buchdruck selbst begründet die Reformation. Martin Luther gab sich überzeugt davon, dass die eigenständige Lektüre der Bibel zwangsläufig in der Eintracht des Priestertums aller Gläubigen resultieren würde, von der die Bibel spricht. Die Folge war stattdessen ein Jahrhundert an Glaubenskriegen. Denn nicht nur die Bibel fand plötzliche rasante Verbreitung durch die Vervielfältigung mittels Druckerpresse, sondern in Folge gingen auch schlichte Falschmeldungen viral. Beispielsweise diejenige, dass Hexen mitten in Gemeinschaften leben würden, und diese unbedingt getötet werden müssten. Großer Beliebtheit erfreute sich beispielsweise das Werk Malleus Maleficarum – zu Deutsch: Der Hexenhammer. In 29 Auflagen erschienen, erstmals 1486 veröffentlicht, bildet das Werk 200 Jahre lang einen Bestseller, übertroffen nur durch die Absatzzahlen der Bibel. In dem Werk selbst erklärte der Theologe Dominik Krammer, wie sich Hexen, die mit Satan im Bunde stehen, identifizieren lassen und plädiert für die Todesstrafe, als wirksamstes Gegenmittel gegen die Übel der Hexerei. Die Popularität des Buches und seine schändlichen Folgen belegen, wie sehr die reformatorische Erwartungshaltung unterlaufen wurde, dass schlicht aufgrund der Vervielfältigung der Bibel, Friedfertigkeit automatisch obsiegen müsse. Im britischen Canterbury findet sich noch immer eine grausame Hinterlassenschaft, die die Manie just dieses Zeitalters begreifen lässt. Das besagte Gerät, das dort als Mahnmal steht, nennt sich Old Witches‘ Ducking Stool. Der Old Witches‘ Ducking Stool befindet sich noch immer direkt im Zentrum der mittelalterlichen Stadt, am Ufer des Flusses Stour. Es handelt sich dabei um einen Tauchstuhl, der dafür genutzt wurde, Frauen zu quälen oder zu ermorden, die als Hexen denunziert wurden. Das exerzierte Verfahren lief dabei immer gleich ab: Wenn eine Person in der Stadt als Hexe gebrandmarkt war, dann wurde sie öffentlich abgeführt, die ekstatische und hysterische Menge bewarf die Person häufig mit Exkrementen und Dreck. Die Frau wurde in Folge an den Stuhl gebunden und in den Fluss getaucht. Überlebte sie die Qualen, dann galt das als unwiderlegbarer Beleg dafür, dass die Angeklagte über übernatürliche Kräfte verfügte, mit Satan im Bunde stand, ihr der Prozess wegen Hexerei gemacht und sie schließlich am Scheiterhaufen verbrannt wurde. Starb die Person hingegen bereits, als sie noch am Stuhl angebunden war und getaucht wurde, dann wurde der Irrtum offiziell bedauert, die Person galt als unschuldig und die Hinterbliebenen erhielten ein offizielles Entschuldigungsschreiben seitens der Kirche.
Abbildung 14: Illustration eines Tauchstuhls
Sowohl Timothy Snyder als auch Niall Ferguson argumentieren, dass die gegenwärtigen Entwicklungstendenzen durchaus mit historischem Beispiel und politischer Vergleichbarkeit ausgestattet wären. Alle Entwicklungen im Zuge der digitalen Transformation sind als Teil der geschichtlichen Vorgänge des menschlichen Zivilisationsprozesses zu verstehen – und dieser Zivilisationsprozess agiert nun mal auf Vor- und Rückschritte, auf Grundlage menschlicher Fähigkeiten. Eine andere Erkenntnis, die sich ergänzen ließe, wäre, dass sich durch jene Zeit, die in soziale Medien investiert wird, das politische Engagement von Individuen aufbraucht. Was ist damit gemeint? Ist eine Person über eine Angelegenheit auch noch so berechtigt empört, ein Facebook-Post zum Thema wird die reale Situation nicht ändern. Zivilgesellschaftliches Engagement findet noch immer im realen Raum statt, verlangt nach physischer Präsenz. Die misslungene Revolution in Ägypten, die zum Symbol für das Scheitern des Arabischen Frühlings wurde, wirkt als bezeichnender Sachverhalt dafür. Um sie skizzenhaft zu rekapitulieren: Der Aufstand in Ägypten setzte damit an, dass der Unmut gegen den Machthaber Hosni Mubarak immer virulenter wurde. Die Opposition begann, die sozialen Medien gekonnt zu bespielen, gleichgesinnte Gruppen fanden sich zusammen und tauschten ihre Empörung miteinander aus. Die Sicherheitsorgane im Land sahen sich gezwungen, darauf zu reagieren. Sie versuchten das Land vom Netz zu nehmen, indem die Telekommunikation eingeschränkt oder versuchsweise unterbunden wurde. Als Reaktion darauf, dass die interaktive Kommunikation erschwert wurde, entschlossen sich die oppositionellen Gruppen, sich vom virtuellen Raum auf die Straße zu begeben. So entstand die Massenbewegung, die sich am Tharir-Platz einfand, und plötzlich zur national und international wahrnehmbaren Kraft anwuchs. Erstmals wahrnehmbar im öffentlichen Raum präsent, verkörperte die Gruppe eindrücklich den großen Unmut einer Gesellschaft mit den Machthabern. Die Gruppe wurde zum politischen Faktor, dem sich immer mehr BürgerInnen anschlossen und der schließlich zum Sturz des autoritären Regimes unter Hosni Mubarak führte. Der weitere Gang der Ereignisse führte zur Machtübernahme zuerst von theokratischen Antidemokraten, die schließlich vom Militär gestürzt wurden, das nun weiterhin im Jahr 2019 auch die zivile Macht innehat. Eine Diktatur – gestützt auf Geheimdienste, Sicherheitsapparat und Militär unter Führung des General Abd al-Fattah as-Sisi. Wer heute mit ägyptischen AktivistInnen spricht, erfährt, dass die Situation im Hinblick auf die bürgerliche Freiheit manchmal restriktiver erscheint, als unter der Herrschaft von Hosni Mubarak. Die Revolution hat teils zur Verchlechterung der Lebensrealitäten geführt. Wenn das tatsächlich der Fall wäre, warum findet sich die ägyptische Bevölkerung nicht wieder im öffentlichen Raum ein, um für die demokratische Veränderung gleich couragiert wie einst aufzustehen? AktivistInnen erklären, dass die Sicherheitsapparate vor allem eine Lehre aus dem Sturz des Mubarak-Regimes gezogen hätten. Diese Lehre würde lauten, dass sich Unmut ruhig im virtuellen Raum breit machen kann. Solange er sich dort kanalisiert, stellt die Kritik keine Bedrohung dar. Der entscheidende Fehler, der einst geschehen ist, wäre es gewesen, die Leute auf die Straße zu bringen, weil sie gezwungen waren, ihre Online-Welt zu verlassen. Wichtig wäre es stattdessen, die Personen genau dort zu belassen – im virtuellen Raum. Dort echauffieren sie sich zwar über die unerträglichen Verhältnisse, ihr Aktivismus verhallt jedoch gefahrlos, an der realen Situation ändert sich wenig, für die autoritären Machthaber besteht also wenig Gefahr und kein Grund zum Einschreiten.
Die Geschehnisse, die gegenwärtig den Lauf der Zeit bestimmen, lassen sich in historischer Perspektive als eine Auseinandersetzung über die Ausgestaltung des menschlichen Zusammenlebens interpretieren. Die technologische Zukunft gehört also neu gedacht und auf Basis gemachter Erfahrungen Veränderungen erwirkt. So wirkt Fortschritt. Die Schwierigkeit, der wir heute oft begegnen, besteht darin, dass bereits verstanden wird, wie radikal anders die Ordnung der Dinge sein wird können. Wir sehen also bereits, was alles vergehen wird – ohne bisher erkennen zu können, was stattdessen Besseres entstehen könne. Daher rührt die Verunsicherung. Die Zeiten künden von einer radikalen Zäsur, die aber überfällig ist. Progressivität bedeutet nun, der Einstellung anzuhängen, dass die Zukunft besser wäre als die Vergangenheit oder Gegenwart, weil an ihr gewirkt werden kann und aus den gemachten Fehlern Lehren gezogen werden. Fortschritt meint in diesem Sinne nicht die Perfektionierung der Verhältnisse, sondern allein die schlichte Verbesserung wäre der nützliche Maßstab. Wer sich für den Nutzen der digitalen Transformation einsetzt, wird auch die kommunikative Überzeugungsarbeit leisten müssen, diese Einstellung zu vermitteln und sich der ethischen Folgewirkung mutig zu stellen.
LEADERSHIP IM DIGITALEN ZEITALTER
Führung neu definiert
Leadership im digitalen Zeitalter
1 Ausgangspunkt und Auswirkungen der Digitalisierung
In den letzten Jahren hat sich in allen Industriezweigen ein tiefgreifender Wandel vollzogen. Begriffe wie Digitalisierung, Industrie 4.0 und digitale Transformation sind allgegenwärtig und in Online- und Printmedien präsent. Dieser weitreichende digitale Wandel betrifft nicht nur die Industrie, sondern auch die Gesellschaft insgesamt, die sich kontinuierlich von der Dienstleistungsgesellschaft zur digitalen Gesellschaft entwickelt. Aktuelle Regierungsprogramme, Schulreformen, Unternehmensmodernisierungen, neue digitale Produkte und Dienstleistungen unterstreichen die Bedeutsamkeit. Weit mehr als eine Eintagsfliege gilt die Digitalisierung bereits jetzt als Inbegriff der Zukunft, wenn nicht sogar als Glücksfall für die Menschheit. Sie hat die Welt zusammenwachsen lassen, nie dagewesene Bildungsmöglichkeiten geschaffen und den Alltag von Milliarden Menschen erleichtert. Regelmäßig beschert sie bahnbrechende Innovationen und lässt uns darüber staunen, welche technischen Wunderwerke wir Menschen erschaffen können. Wäre es vor einigen Jahren noch möglich gewesen, ganz ohne Ressourcen ein globaler Leader zu werden? Wäre es vor einigen Jahren denkbar gewesen, lediglich mit einer Idee von Bits und Bytes zu einer digitalen Innovation zu werden? Wohl kaum. Nachfolgende Beispiele zeigen die immensen Möglichkeiten auf und implizieren die Chance, dass jeder von uns mit einer entsprechenden Idee zur richtigen Zeit und mit dem Einsatz von digitalen Gütern vieles erreichen kann:
• Uber: Das größte Taxiunternehmen der Welt besitzt keine Fahrzeuge.
• Facebook: Das weltweit populärste Medienunternehmen erzeugt selbst keine Inhalte.
• Alibaba: Der wertvollste Einzelhändler der Welt hat keine Lagerbestände.
• Airbnb: Der weltweit größte Anbieter von Unterkünften besitzt keine Immobilien.
• BetterUp und CoachHub: Die umfassendsten virtuellen Coaching-Plattformen haben keine angestellten Coaches in ihren Büros und arbeiten mit Freiberuflern weltweit.
Diese Lehrveranstaltung hat es sich zur Aufgabe gemacht, einen weitreichenden und verständlichen Einstieg in das Thema Führung im digitalen Zeitalter für jedermann zu ermöglichen, um somit Teil dieses Wandels zu werden. Besonderes Augenmerk wurde hierbei auf den Ansatz „so wenig wie möglich, so viel wie nötig“ gelegt. Der Hintergrund hierbei ist die Komplexität und Schnelllebigkeit des Themas digitale Transformation. Wenn es die Aufgabe wäre, sich von Ort A nach Ort B zu bewegen, gilt es zu wissen, welche Möglichkeiten dafür bestehen und wie diese am besten eingesetzt werden können. Wichtig dabei ist es, zu wissen, welche Fortbewegungsmöglichkeiten es gibt, welche Vor- und Nachteile diese haben und ob sie ggf. kombiniert werden können bzw. wo Synergien sinnvoll wären, um an den gewünschten Ort zu gelangen. Ganz gleich, wo sich Ort A oder Ort B befinden, ist es nicht wichtig, wie die Fortbewegung im Detail funktioniert, weder das Prinzip des dynamischen Auftriebs beim Flugzeug noch die Kraftstoffeinspritzung bei einem KFZ. Kennen Sie aber die besagten Auswahlmöglichkeiten und deren Charakteristika, wird es Ihnen möglich sein, das Ziel zu erreichen. Genau dieses beschriebene Prinzip wird auch bei dieser Lehrveranstaltung angewendet. Es ist nicht möglich, alle Details und Handlungsanweisungen zu erklären, zudem ist eine solche Erklärung weder notwendig noch sinnvoll. Wie bereits erwähnt, ist die Digitalisierung viel mehr als eine App, es benötigt somit nicht nur Techniker und Programmierer, sondern auch Menschen aus allen Stilrichtungen, um Sinnvolles zu erschaffen, Innovation voranzutreiben und diese nachhaltig im Unternehmen zu verankern. Die Führungskraft ist in diesem Zusammenhang als treibende Kraft und Navigator mehr gefragt denn je. Die Digitalisierung wird meist mit Effizienz und vielen weiteren Vorteilen assoziiert. Dies ist jedoch nur eine Seite der Medaille.
Es bedarf neben Optimismus auch an einem gewissen Maß an Pessimismus, um die Kausalitäten und deren Folgen zu erkennen. Denn durch diese Erkenntnis können geeignete Maßnahmen gefunden werden, bevor nach der großen Digitalisierungswelle die Phase der korrektiven Maßnahmen stattfinden muss.
Aufgrund des notwendigen persönlichen Eingriffs ist ein wohlüberlegter Balanceakt anzustreben, um eine gesunde „Revolution“ zu ermöglichen. Die Informationstechnik ist grundsätzlich der Ursprung des digitalen Wandels, jedoch ist dies nicht zwingend korrekt. Hier lässt sich der oft zitierte „Eisberg“ heranziehen. Digitale Produkte und Dienstleistungen stellen lediglich den sichtbaren Teil dar – der überwiegende Anteil liegt jedoch im Verborgenen. Der Beginn einer jeden Innovation ist eine Idee, aber erst wirtschaftliche Anwendbarkeit und Umsetzung und machen aus dieser Idee eine echte Innovation. Um es mit den Worten des amerikanischen Pioniers in der Innovationsforschung Everett Rogers auszudrücken: Innovation ist Erfindung plus Umsetzung!
Es genügt nicht, eine großartige Idee zu haben, sie muss vor allem marktfähig werden. Ständiges Innovieren ist heute mehr denn je überlebensnotwendig. Innovationen schaffen neue Chancen, neue Werte und sichern die Zukunft von Unternehmen in einer globalisierten Wirtschaft. Um nun einen gelungenen Einstieg in die Digitalisierung zu schaffen und um somit alle Facetten dieser gewaltigen Materie und ihren weitreichenden Horizont aufzuzeigen, wird dem Leser gleich zu Beginn Vergangenes dargeboten, um die tiefere Motivation hinter dem Wandel zu verstehen. Der Beginn dieser Lehrveranstaltung widmet sich altbewährten Modellen und Techniken sowie den Protagonisten des Unternehmens, bevor dann der Schwenk zur neuen Führungskultur sowie zu ihren Besonderheiten gemacht wird. Anschließend wird aufgezeigt, wie sich diese Besonderheiten ineinanderfügen. Es folgen Erklärungen aus der Literatur sowie deren unterschiedliche Auffassungen und daraus resultierende Bedeutungen und eine Beschreibung des Beitrags, den diese Ansichten zum neuen Führungsverständnis beisteuern (können).
Drei zentrale Fragen dieser Lehrveranstaltung lauten wie folgt:
1. Wie wandelt sich die Industriegesellschaft in eine Wissensgesellschaft und was bedeutet dies für die Führung im Allgemeinen?
2. Welche Anforderungen werden an das Management gestellt und welche Veränderungen müssen vorgenommen werden, um ein Unternehmen in Zukunft erfolgreich zu führen?
3. Wie sieht Digital Leadership in der Praxis aus und wie kann es umgesetzt werden?
Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation hat drei Kriterien für die Wissensarbeit aufgestellt:
• Neuartigkeit,
• Komplexität und
• Autonomie.
Ein Wissensarbeiter schafft, verwaltet und verbreitet neues Wissen. Dieses entsteht auf Grundlage von vorhandenem Wissen und wird in Netzwerken durch den Austausch mit anderen generiert. Wissensarbeit ist weder standardisierbar noch automatisierbar. Wissensarbeiter brauchen daher neben fachlichen Kompetenzen intellektuelle, soziale und kreative Fähigkeiten. Sie müssen sich als Experten positionieren, ein Netzwerk aufbauen und ausgeprägte Fähigkeiten hinsichtlich der Kommunikation und der Zusammenarbeit haben. Sie arbeiten autonom und brauchen daher besonderes Vertrauen, weshalb sie umgekehrt zu besonderer Verantwortung verpflichtet sind. Wissensarbeit als wertschöpfender Prozess im Unternehmen geschieht mit einem ökonomischen Ziel. Um ihr intellektuelles und kreatives Potenzial auszuschöpfen, müssen Wissensarbeiter ein hohes Maß an Selbstorganisation beherrschen und dazu bereit sein, ständig und selbstgesteuert zu lernen – eine menschliche KI. Sie brauchen für den kreativen Prozess den Austausch mit anderen (Inputphase) sowie im Anschluss eine Verarbeitungsphase (Reflexions- und Kreationsphasen), um schöpferisch tätig zu werden. Wenn ein wachsender Teil der erwerbstätigen Bevölkerung neues Wissen schafft und nicht mehr nur Aufgaben abarbeitet, wird klar, dass für Wissensarbeiter neue Arbeits- und Managementformen benötigt werden. Diese anstehenden Veränderungen lassen sich mit dem von Frithjof Bergmann geprägten Begriff „New Work“ beschreiben.
Hinsichtlich der zunehmenden Möglichkeiten, selbstständig zu arbeiten, stellt sich die Frage, welchen Mehrwert die Arbeit in einer Organisation neben dem regelmäßigen Erwerbseinkommen für Wissensarbeiter bietet. Daniel Pink konfrontiert sich in seinem Buch Drive: Was Sie wirklich motiviert mit der Frage, welche Bedeutung die Arbeit der Mitarbeiter für Unternehmen hat. Die Mitarbeiter in Unternehmen erfinden ihm zufolge Dienstleistungen und Produkte und erstellen und organisieren diese. Sie seien für die Wertschöpfung des Unternehmens zuständig. Pink fragt, welche Bedeutung die Arbeit für den Mitarbeiter hat und identifiziert drei Schlüsselmotive im relevanten Literaturkreis:
• Perfektionierung,
• Selbstbestimmung und
• Sinnerfüllung.
Optimal praktiziert und organisiert, bringe Arbeit den Menschen grundsätzlich Erfüllung, Zufriedenheit und Glück.1 In seinem Buch Der Kampf um die Arbeitsplätze von morgen berichtet Gallup-Chef Jim Clifton: „Der Wunsch der Weltbevölkerung ist an erster Stelle und vor allem anderen ein guter Arbeitsplatz. Dem ist alles Übrige nachgeordnet.“
Unternehmen und Mitarbeiter müssen folgend die Ziele ihrer Arbeit wechselseitig miteinander in Übereinstimmung bringen. Am besten ziehen Unternehmen in ihre Überlegungen drei weitere Entwicklungen zur Veränderung mit ein, die im Folgenden erläutert werden.
1. 2060“ bzw. „War for Talent: Dies bedeutet, dass Unternehmen noch viel mehr um die Gunst der Arbeitnehmer werben müssen. Der War for Talent wird weiter zunehmen. Unternehmen werden dazu gezwungen sein, noch mehr Aufgaben zu automatisieren und sich genau zu überlegen, wofür sie die wertvolle und rare Ressource Arbeitskraft einsetzen.
2. Die Zahl der Personen, die kein festes Anstellungsverhältnis suchen, steigt. In vielen Ländern, ganz gleich ob in der DACH-Region oder weitergedacht, sind Erwerbstätige, die als Freelancer eine unabhängige Beschäftigung ausüben, im Trend. Gut zwei Drittel der Freiberufler haben sich dabei nicht aus wirtschaftlichen Zwängen für eine Tätigkeit als Unternehmer/ Neuer Selbstständiger/ Freiberufler etc. entschieden, sondern aus dem Wunsch heraus, selbstbestimmt zu arbeiten. Es wird für Unternehmen schwieriger, Wissensarbeiter für eine Festanstellung zu gewinnen.
3. Die skeptische Haltung der Unternehmen gegenüber digitalen Entwicklungen und die damit einhergehende fehlende Digitalkompetenz in den Unternehmen zwingen viele Länder zu einer beispiellosen Aufholjagd. Als Beispiel lässt sich hier Estland mit dem Internet als Grundrecht eines jeden Bürgers nennen. Dies muss gelingen, damit der Anschluss an die Entwicklungen in den USA, China, Japan sowie Indien nicht verloren geht. Vorstände und Aufsichtsräte sind immer noch zu sehr mit der kritischen Betrachtung der Entwicklungen beschäftigt und zu wenig mit den Chancen, die eine Digitalisierung für die Zukunftsfähigkeit ihrer Firmen bedeutet.
Wie stellen sich Unternehmen in diesem sich stark wandelnden und neu technologisch vernetzten Kontext am besten für die Zukunft auf? Wie bereiten sie ihre Mitarbeiter auf die veränderten Arbeitsbedingungen vor? Und wie beteiligen sie sich an der Weiterentwicklung des Unternehmens? Es wurden schon Schritte getan, jedoch kann dies als ambitionierter Fußmarsch gesehen werden, der Weg wie auch das Ziel sind noch ungewiss, jedoch sind die Abgründe entlang des Weges gegeben. In Anbetracht der aktuellen Politdiskussionen und Regierungsmaßnahmen lässt sich, wenn auch nur kurz, beruhigt durchschnaufen. Auch hier scheiden sich die Geister darüber, wie und was geschehen soll. Nichts zu tun und abzuwarten ist hierbei keine Option – zum einem „schläft“ die Konkurrenz nicht und zum anderen wirft dieser Ansatz weder Innovation ab, noch adaptiert er Altbewährtes. Somit ist der Ansatz „trial and error“ ein momentan geduldetes und akzeptiertes Stilmittel.
2 Grundlagen des Wandels von Leadership
Um einen soliden Einstieg in das Digital Leadership zu ermöglichen, werden nachfolgend die wesentlichen Begriffe näher erläutert und entsprechende Definitionen in vernünftigem Ausmaß gegeben. Da speziell Begriffe wie „digital“, „Führung“, „Leadership“, aber auch „Kompetenz“ u. v. m. gerne fehlinterpretiert werden, wird im Folgende eine Erklärung geboten.
2.1 Digital Leadership
Wörtlich aus dem Englischen übersetzt bedeutet „Digital Leadership“ nichts Anderes als „digitale Führung“. Demnach soll zunächst auf die beiden Einzeldefinitionen von „Digital“ und „Führung“ geblickt werden.
Digital: bedeutet lt. Duden „auf Digitaltechnik, Digitalverfahren beruhend […] in Ziffern darstellend“.
Führung: Meint die unmittelbare, zielbezogene Einflussnahme auf Gruppenmitglieder.
Unternehmensführung: Meint die zielorientierte Gestaltung von Unternehmen bzw. die zielorientierte Beeinflussung von Personen/Mitarbeitern im Unternehmen. Zweiteres wird auch als Personalführung bezeichnet. Geführt werden kann durch Menschen und Strukturen (z. B. Organigramme oder Anreizsysteme).
Nun stellt sich die Frage, ob sich der Begriff „Leadership“ einfach als Führung oder Unternehmensführung übersetzten lässt oder ob er noch andere Bedeutungen in sich trägt. Dies ist eine vieldiskutierte Frage. Alter Wein in neuen Schläuchen oder doch eine Neuerung – und wenn ja, wie sieht diese aus?
Leadership: Eine gängige Definition von Leadership kommt von Yukl und stammt aus seinem Buch Leadership in Organization. Sie lautet: Leadership ist „[...] the process of influencing others to understand and agree about what needs to be done and how to do it, and the process of facilitating individual and collective efforts to accomplish shared objectives.“ In dem vorangegangenen Zitat von Yukl geht es einerseits um die Beeinflussung anderer und andererseits beinhaltet die Definition die Förderung einer Person oder Gruppe in Bezug auf aktuelle und zukünftige Herausforderungen. Auf Basis weiterer Definitionen ist festzustellen, dass die Begriffe im Englischen und Deutschen grundsätzlich das Gleiche bedeuten, nämlich die Beeinflussung anderer, um Ziele zu erreichen. Jedoch werden unter Leadership oftmals noch weitere Aspekte ergänzt bzw. wird die Einflussnahme konkretisiert. Häufig wird der Begriff „Leadership“ auch dazu verwendet, um neue Ansätze der Führung von der „klassischen“ Führung abzuheben. Aus Gründen der Vereinfachung werden die Begriffe „Leadership“ und „Führung“ im weiteren Verlauf dieses Skriptums allerdings synonym verwendet werden.
Leadership wird darüber hinaus oft nur als Mitarbeiterführung bezeichnet.
Bei einer umfassenden Betrachtung können jedoch drei Ebenen unterschieden werden:
• Führung der Organisation = Unternehmensführung.
• Führung von Mitarbeitern = Mitarbeiterführung.
• Sich selbst führen = Selbstführung.
Zwischen diesen drei Ebenen gibt es gewisse Schnittmengen, wie es in der nachfolgenden Grafik erkennbar wird:
Abbildung 1 – Die drei Ebenen der Führung
Je nach Führungsebene gibt es unterschiedliche Schwerpunkte. So wird sich ein Chief Executive Officer (CEO) mehr mit der Unternehmensführung beschäftigen und ein Abteilungsleiter eher den Fokus auf die Mitarbeiterführung legen. Selbstführung werden sowohl ein CEO als auch ein Abteilungsleiter in ähnlichem Umfang betreiben.
Nachdem Leadership auch in Bezug auf die Unternehmensführung betrachtet werden kann, ist eine Abgrenzung zum Begriff „Management“ notwendig. Blessin und Wick beschreiben in deren Werk Führen und führen lassen Management als Unternehmensführung und Führung bzw. Leadership als Menschenführung.5 Oftmals werden die beiden Begriffe synonym verwendet.
Eine klare Trennung zwischen Leader und Manager macht keinen Sinn; ein Leader benötigt auch Elemente eines Managers und somit einen Mix aus beidem, ebenso ist es andersherum.
In Umbruchssituationen sind aber mehr Leader als Manager gefragt, daher wird der Fokus in diesem Skriptum auf den Leader gelegt.
Abbildung 2 - Sinnbild eines Managers (Boss) vs. Leaders
Die Anforderungen der digitalen Transformation verändern, wie es scheint, auch die altbekannten Spielregeln von Führung. So lässt sich erkennen, dass ein Wandel von Management zu Leadership stattfindet. In nachfolgender Abbildung zeigt sich der Unterschied zwischen „Führen“ und „Managen“. Hervorzuheben ist beim Führen die Vorbildfunktion und das in die Zukunft gerichtete Denken und Handeln unter Einbeziehung der Mitarbeiter. Im Vergleich dazu ist ein Manager eher auf die Gegenwart fokussiert, in der er Aufgaben zuweist und kontrolliert, anstatt zu inspirieren.
Abbildung 3 - Unterschied Führen vs. Managen
Während dies eher als Führungsverständnis im klassischen Sinn verstanden wird, beschreiben Bennis und Goldsmith in ihrem Werk Learning to lead die Begriffe im modernen Verständnis als „A manager does things right. A Leader does the right things.“
Digital Leadership: Auch hier gibt es konkrete Definitionen, von der sich allerdings noch keine durchsetzen konnte. Willms Buhse definiert Digital Leadership etwa als „Führung, die das klassische Management-Einmaleins beherrscht und außerdem in der Lage ist, die Muster des Internets in vorhandene Führungskonzepte zu integrieren und aus beiden Konzepten eine zeitgemäße, Erfolg versprechende Synthese zu bilden.“
Es ist es nicht verwunderlich, dass Kompetenzen und Führungsverhalten nötig sind, die nicht auf den ersten Blick etwas mit der Digitalisierung zu tun haben. Es ist also trotz allem Führungskraft nötig, um als Digital Leader fungieren zu können.
Bei der Betrachtung unterschiedlichster Auffassungen von Digital Leadership lassen sich vier Richtungen identifizieren, die wie folgt interpretiert werden können:
1. Führung mit digitalen Techniken.
2. Führung von digitalen Talenten.
3. Digitale Marktführerschaft.
4. Erfolgreiche Führung in Zeiten der digitalen Transformation.
Für diese Arbeit soll die holistische Betrachtung – also: erfolgreiche Führung in Zeiten der digitalen Transformation – herangezogen werden. Diese umfasst u. a. die Führung mit digitalen Hilfsmitteln, aber auch die Führung von digitalen Talenten und geht noch weiter darüber hinaus. Wenn die veränderte Führung gut umgesetzt wird, kann sich das in einer Marktführerschaft niederschlagen. So definieren auch Hinterhuber und Krauthammer in ihrem Buch Leadership – mehr als Management das Ziel von Leadership wie folgt:
„Das Ziel ist, die Unternehmung in den Geschäftsfeldern, in denen sie tätig ist oder sein will, zur Marktführerschaft zu führen [...].“ Bei dem Begriff „Digital Leadership“ wird bewusst das Wort „Digital“ vor den Begriff „Leadership“ gesetzt, um damit den Haupteinflussfaktor, der die Veränderungen hervorruft, zu betiteln. In der Literatur werden für die Veränderung der Führung auch andere Bezeichnungen verwendet, wie u. a. „New Leadership“, „Leadership/Management 2.0“.
2.2 Führungskraft
Als Führungskraft werden Personen mit Personal- und Sachverantwortung bezeichnet. Diese haben aufgrund ihrer relativ hohen hierarchischen Stellung Einfluss auf das gesamte Unternehmen oder seine wichtigsten Teilbereiche. Das Deutsche Institut für Wirtschaftsforschung definiert den Begriff noch umfassender. Einerseits beinhaltet diese Definition klassische Führungsfunktionen, wie sie z. B. ein Geschäftsführer oder auch ein Abteilungsleiter hat, sie schließt darüber hinaus aber auch Tätigkeiten, die eine hohe Qualifikation verlangen wie z. B. die der Ingenieure, mit ein. Führungskräfte können zur besseren Abgrenzung in Ebenen eingeordnet werden: In eine untere (z. B. Teamleiter), mittlere (z. B. Bereichsleiter) und obere Führungsebene (z. B. Geschäftsführer). Je höher die Anzahl der geführten Mitarbeiter ist, aber auch, je größer der Verantwortungsbereich ist, desto höher ist die Führungsebene. Zudem nimmt mit ansteigender Hierarchie der Anteil der Fachaufgaben ab.
Für dieses Lehrveranstaltungsskript wird eine weite Auslegung des Begriffes der Führungskraft verwendet, die auch hochqualifizierte Mitarbeiter einschließt, die ohne Personalverantwortung bzw. disziplinarische Macht führen. Das wird als sog. laterale Führung bezeichnet. Als Beispiele können Projektleiter oder auch Stabsstellen aufgeführt werden, die keine hierarchische Sonderstellung einnehmen, keine Mitarbeiter unter sich haben und nur rein fachlich führen.
Diese Form der lateralen Führung wird durch die Digitalisierung weiter zunehmen und das Führen ohne Hierarchie wird, beispielsweise durch die Vernetzung, weiter an Bedeutung gewinnen. Abhängig von den Kompetenzen der Führungskraft zeigt sich ein bestimmtes Führungsverhalten. Dieses spiegelt sich in den Mitarbeitern wider und zeigt sich an ihrem Verhalten und Einstellungen. Das Führungsverhalten, aber auch die Mitarbeiter, werden durch die Situation beeinflusst. Der aktuell größte Faktor ist die digitale Transformation. Am Ende des Prozesses steht der Führungserfolg. Anhand welcher Variablen dieser gemessen wird, ist unternehmensabhängig.
Wie bei der Unterscheidung zwischen „Leadership“ und „Management“ liegt auch hier ein Unterschied in der Begrifflichkeit. Synonym verwendet werden jedoch die Begriffe „Leader“ und „Führungskraft“. Wir sprechen hier von einem Digital Leader. In der „Crisp Studie“ wird ein „Digital Leader“ wie folgt definiert:
Ein Digital Leader „[…] steht als digitale Führungsperson stellvertretend für die Digitalisierung des eigenen Unternehmens. Er zeichnet sich durch ein fundiertes Wissen sowie ein ausgeprägtes „Digital-First-Denken“ aus. Der Digital Leader führt sein Team mit einem hohen Partizipationsgrad, regt neue Innovationen an und geht für den Fortschritt der Digitalen Transformation auch neue Wege.“
Das digitale Mindset – die Denkweise – spielt in Bezug auf den Digital Leader eine elementare Rolle und geht über das Verständnis der digitalen Kundenerfahrung hinaus, denn es muss ganzheitlich auf das gesamte Unternehmen gesehen werden und somit auch interne Prozesse und Vorgehensweisen erfassen.
Das bedeutet auch: Führungskräfte in der digitalen Transformation sind einerseits die Treiber, aber auch die Enabler. Die Hauptaufgabe von Digital Leadern ist es, das Digital Business zu führen. Oftmals muss zuerst der Transformationsprozess zu einem Digital Business bewältigt werden. Daher können auch Führungskräfte Digital Leader sein, selbst wenn sie noch kein Digital Business führen, aber selbst fit in der Materie sind. Das wird auch in diversen Studien aufgezeigt, die keine Abhängigkeit zwischen Digital Leadership und der Digitalisierung des Geschäftsmodells sehen. Um den Transformationsprozess zu realisieren, werden in Unternehmen vermehrt CDOs (Chief Digital Officer) eingestellt, die den Prozess von oben herab führen sollen. Dieses Vorhaben ist sicherlich richtig, da Anstöße aus der Chefetage kommen und das Thema Digitalisierung immens relevant und demnach auf höchster Ebene platziert ist. Digital Leader sollen aber nicht nur eine einzelne Person im Unternehmen in Form eines CDOs sein, sondern vielmehr sollen alle Führungskräfte im Unternehmen zu Digital Leadern werden – jeder individuell auf seinen Bereich bezogen und in unterschiedlich hohem Ausmaß. Den maßgeblichen Einfluss hat selbstverständlich der CDO. Da die Digitalisierung, wie schon beschrieben, vor keinem Unternehmen haltmachen wird, wird diese genauso wenig vor einzelnen Abteilungen stoppen.
2.3 Führungsverhalten
Um sich dem Begriff „Führungsverhalten“ zu nähern, ist zunächst der Begriff Führungsstil“ zu beleuchten. Oftmals werden diese Begriffe synonym verwendet, allerdings besteht ein Unterschied.
Als Führungsstil werden nach Lewin drei Ausprägungen unterschieden:
1. Autoritärer,
2. demokratischer und
3. Laissez-faire-Führungsstil.
Der autoritäre Führungsstil und der demokratische Führungsstil unterscheiden sich im Beteiligungsgrad der Mitarbeiter. Der Laissez-faire-Stil kennzeichnet sich dadurch, dass die Führungskraft die Mitarbeiter bei nahezu allen Punkten gewähren lässt und nicht eingreift. Die Streitfrage ist bei Letzterem, ob das überhaupt noch ein Führungsstil ist oder nicht vielmehr schon Selbstorganisation. Auf dieser Basis wurde weiter geforscht, wobei meist zwischen dem autoritären und dem demokratischen Stil unterschieden wurde. Wenn konkrete Definitionen des Führungsstils angesehen werden, wie z. B. die von Jürgen Weibler, der den Führungsstil „[...] als konsistentes und typisches Verhalten, das von einem Führenden gegenüber den Geführten vielfach wiederkehrend gezeigt wird“, beschreibt, kann festgestellt werden, dass der Führungsstil als die Grundausrichtung oder auch als das typi-
sche Muster des Führungsverhaltens bezeichnet werden kann. Ähnlich sieht
dies Fred Fiedler, der den Führungsstil als „[...] the underlying need-struc-
ture of the individual which motivates his behavior in various leadership sit-
uations“ definiert. Hier kommt zusätzlich zur Grundausrichtung der Begriff
des Führungsverhaltens zu Tage, welches in Abgrenzung zum Führungsstil
situationsbezogen ist.
Der Führungsstil wird meist als situationsunabhängig angesehen. Aller-
dings wurde in der Forschung festgestellt, dass es nicht DEN Führungsstil
gibt, sondern, dass er immer von der Situation abhängig ist. Im Führungs-
alltag ist es selten bzw. nie anzutreffen, dass eine Führungskraft immer au-
toritär oder immer nur kooperativ entscheidet. Vielmehr spielt die
Situation und der zu führende, einzelne Mitarbeiter eine bzw. die zentrale Rolle. Daher wurde dazu übergegangen, das Führungsverhalten zu betrachten.
Tino Weinert beschreibt es in Menschen erfolgreich führen folgendermaßen:
„Führungsverhalten bezieht sich lediglich auf Aktivitäten der Führungsperson, die in hohem Maße von der Situation abhängig sind.“8 Nobert Ueberschaer beschreibt es in Kompaktes Wissen - Konkrete Umsetzung als „[...] die Gesamtheit der Aktivitäten und Verhaltensweisen der Führungskräfte im Führungsprozess.“
Menschliches Verhalten besteht aus drei Dimensionen:
• Handeln = etwas aktiv tun,
• Dulden = etwas geschehen lassen,
• Unterlassen = nichts tun.
Darüber hinaus kann unterschieden werden, ob das Verhalten bewusst, unbewusst oder gelernt umgesetzt wird. Zusammenfassend lässt sich feststellen, dass das Führungsverhalten situationsbezogen ist – im Vergleich zum Führungsstil, welcher relativ konstant und situationsunabhängig ist. Unabhängig davon, ob es um unterschiedliche Führungsstile oder um Führungsverhalten geht, ist das Ziel der Führungserfolg. Wichtig ist auch, dass es kein ideales Führungsverhalten gibt; ebenso gibt es keinen idealen Führungsstil, vielmehr wird situativ entschieden.
In näherer Betrachtung des Führungsverhaltens, wird dieses oftmals in unterschiedliche Dimensionen untergliedert. Eine gängige Untergliederung ist jene nach Mitarbeiterorientierung (der Mitarbeiter steht im Fokus) und Aufgabenorientierung (die Aufgabe sowie deren Erfüllung stehen im Mittelpunkt).
Rosenstiel und Weibler fordern in ihrem Werk Führung von Mitarbeitern dazu auf, auf der Grundlage von anderen Forschungsergebnissen, bei der Unterscheidung noch eine dritte Dimension zu ergänzen, nämlich die „Partizipationsorientierung“. Hier wird die Beteiligung des Mitarbeiters sowie seine Anteilnahme an der Veränderung in den Fokus gestellt.
Im weiteren Verlauf soll das Führungsverhalten in drei weitere Ebenen untergliedert werden, da nach der erwähnten Einteilung oftmals Unschärfen entstehen. Zudem ist es in der heutigen Zeit überholt, nur aufgabenorientiert oder nur mitarbeiterorientiert zu denken. Eine Kombination aus beidem ist erforderlich. Der Fokus ist darüber hinaus noch um externe Partner zu erweitern, um ein ganzheitliches Bild zu bekommen. Daher soll im weiteren Verlauf noch die Aufteilung des Führungsverhaltens analog zu den Führungsdimensionen vorgenommen werden:
• Unternehmensführung: Hier geht es um Führungsverhalten, das vor allem Rahmenbedingungen vorgibt, erstmal nur indirekt einen Einfluss auf den Mitarbeiter hat und vor allem externe Partner (z. B. Kunden) miteinbezieht.
• Mitarbeiterführung: Führungsverhalten mit konkretem Bezug auf die Mitarbeiter – sowohl Einzelne als auch eine Gruppe sind der getrichterte Aufgabenbereich.
• Selbstführung: Die Führungskräfte sollen sich selbst führen. Diese Selbstführung hat Auswirkungen auf andere.
Auch bei dieser Untergliederung sind gewisse Unschärfen nicht zu vermeiden, da alle Bereiche miteinander zusammenhängen und sich in gewisser Weise gegenseitig bedingen.
2.4 Führungskompetenz
Nachfolgend soll ein einheitliches Bild des Begriffes „Kompetenz“ vermittelt werden und darauf aufbauend sollen Kompetenzbereiche definiert werden. Der Begriff Kompetenz stammt vom lateinischen Wort „competere“ und bedeutet so viel wie „zu etwas befähigt sein“.
Kompetenz kann in zwei Richtungen interpretiert werden: einerseits als Zuständigkeit und andererseits als Befähigung. Für diese Lehrveranstaltung soll der Fokus auf die zweite Richtung gelegt werden, da die erstere als Voraussetzung für die Rolle der Führungskraft gilt.
Der Begriff „Kompetenz“ wird in der Literatur unterschiedlich definiert, so lautet z. B. die im deutschsprachigen Raum häufig verwendet Definition von Heyse und Erpenbeck:
„Kompetenzen sind Dispositionen (persönliche Voraussetzungen) zur Selbstorganisation bei der Bewältigung von insbesondere neuen, nicht routinemäßigen Aufgaben.“
Im nationalen Qualifikationsrahmen für lebenslanges Lernen wird der Begriff wie folgt definiert:
Kompetenz ist „[…] die Fähigkeit und Bereitschaft des Einzelnen, Kenntnisse und Fertigkeiten sowie persönliche, soziale und methodische Fähigkeit zu nutzen und sich durchdacht sowie individuell und sozial verantwortlich zu verhalten. Kompetenz wird in diesem Sinne als umfassende Handlungskompetenz verstanden.“
Matthias Becker hingegen legt den Fokus in Berufliche Lehr- & Lernforschung auf einen Dreiklang: „Kompetenz bezeichnet das Dürfen, das Wollen und das Können einer Person im Hinblick auf die Wahrnehmung der konkreten Arbeitsaufgabe.“
Diese unterschiedlichen Definitionen zeigen nur eine kleine Auswahl der in der Literatur gängigen Begriffsbestimmungen.
Es kristallisieren sich folgende Punkte heraus, die als gemeinsamer Nenner für den Verlauf dieses Skriptums betrachtet werden können:
• Kompetenz setzt sich aus Fähigkeiten, Fertigkeiten und Kenntnissen zusammen.
• Diese werden primär benötigt, um Aufgaben/Situationen, die unbekannt oder komplex sind, zu bewältigen, aber auch, um den beruflichen Alltag zu meistern.
• Es geht nicht nur um das Können, sondern auch um das Wollen und das Dürfen.
• Selbstorganisiertes Handeln steht im Fokus.
Für den Begriff der „Führungskompetenz“ gibt es auch unzählige Definitionen. Für das vorliegende Skriptum soll „Führungskompetenz“ allerdings als Querschnittskompetenz verstanden werden, die sich aus Fach-, Methoden- und Sozialkompetenzen zusammensetzt. Aus diesem Grund reichen für das Verständnis die allgemeinen Kompetenzdefinitionen aus.
In den einzelnen Kompetenzdefinitionen kommen immer wieder die Begriffe „Fähigkeiten“, „Fertigkeiten“ und „Kenntnisse“ vor:
Fähigkeit: Kann als geistige, praktische Anlage, die zu etwas befähigt, verstanden werden. Unterschieden werden kann zwischen angeborenen und erlernten Fähigkeiten. Diese stellen die Basis für die Entwicklung von Fertigkeiten und Kenntnissen dar.
Fertigkeiten: Durch Übung automatisierte Komponenten von Tätigkeiten. Somit kann durch Übung aus einer Fähigkeit eine Fertigkeit werden. Kenntnisse bzw. Wissen: Beinhalten einerseits explizites, aber auch implizites Wissen. Ersteres kann einfach weitergegeben werden, dagegen ist das implizite Wissen an die Person gebunden, nur schwer weitervermittelbar und entsteht vor allem durch Erfahrung und Erfahrungsaustausch.
Ebenso vielstimmig wie die einzelnen Kompetenzdefinitionen ist die Aufteilung der Kompetenzen in verschiedene Bereiche. So untergliedern z. B. Heyse und Erpenbeck im Werk Kompetenztraining in die vier Ebenen13:
• Personale Kompetenz,
• Aktivitäts- und Handlungskompetenz,
• Sozial-kommunikative Kompetenz,
• Fach- und Methodenkompetenz.
Im Folgenden wird die in der Praxis oft gängige Untergliederung nach Fach-, Methoden- und Sozialkompetenz vorgenommen.
Die einzelnen Kompetenzbereiche im Detail:
• Fachkompetenz: Die erforderlichen fachlichen Fähigkeiten, Fertigkeiten und Kenntnisse zur Bewältigung konkreter beruflicher Aufgaben. Unter der fachlichen Kompetenz eines Mitarbeiters wird sein Fachwissen verstanden. Es geht jedoch nicht nur um das reine Wissen, sondern vielmehr darum, es anwenden zu können. In Bezug auf die konkrete Bewältigung der Aufgabe kann es auch erforderlich sein, berufsübergreifende und organisationsbezogene Fähigkeiten, Fertigkeiten und Kenntnisse zu haben.
• Methodenkompetenz: Die Kenntnis, aber auch die Fähigkeit zur Anwendung von Arbeitstechniken, Verfahrensweisen und Lernstrategien. Darüber hinaus beinhalten diese auch die Fähigkeit, Informationen zu beschaffen, zu strukturieren, wiederzuverwerten, darzustellen sowie Ergebnisse von Verarbeitungsprozessen richtig zu interpretieren und sie geeignet zu präsentieren. Ferner gehört dazu die Fähigkeit zur Anwendung von Problemlösungstechniken und zur Gestaltung von Problemlösungsprozessen.
• Sozialkompetenz: Die Fähigkeit, mit Vorgesetzten, Mitarbeitern, Kollegen, Kunden und Zulieferern zusammenzuarbeiten sowie ein gutes Betriebsklima zu schaffen und zu erhalten. Es geht um ein adäquates und an die Situation angepasstes Verhalten im Umgang mit anderen.
Der Bereich Sozialkompetenz beinhaltet auch Selbstkompetenz bzw. personale Kompetenz. Diese beschreibt die Fähigkeit des Umgangs mit sich selbst als reflexive, selbstorganisierte Handlungsbefähigung.
Weiter bedeutet soziale Kompetenz auch die Fähigkeit einer Person, in ihrer sozialen Umwelt selbstständig zu handeln. Die drei genannten Kompetenzbereiche können unter dem Begriff der Handlungskompetenz zusammengefasst werden. Eine völlig akkurate Abgrenzung der Bereiche ist nicht möglich, vielmehr gibt es Überlappungen. Kompetenzen von Personen sind keine Konstanten, sondern tätigkeits- und positionsspezifisch. Daher ist nicht immer ein hohes Ausmaß an einer gewissen Kompetenz erforderlich, sondern vielmehr benötigt eine Führungskraft ein Set mit der besten Passung auf die Tätigkeit bzw. Position. Daher werden oft Skalierungen verwendet, um das Kompetenzniveau zu verdeutlichen, welches erforderlich ist bzw. welches gemessen worden ist. In Bezug auf die Fach- und Methodenkompetenz sind das die Kategorien: Kenner, Könner und Experte.
Im Bereich der Sozialkompetenz wird unterschieden zwischen gering ausgeprägt, ausgeprägt und stark ausgeprägt. Es stellt sich die Frage, wie Kompetenzen das Verhalten beeinflussen oder umgekehrt. Diese beiden Konstrukte stehen in einem engen Verhältnis. Einerseits kann nur kompetent gehandelt werden, wenn die erforderlichen Kompetenzen vorhanden sind, andererseits sind Kompetenzen ohne das konkrete Handeln nicht messbar. Es wird hier von der Performanz gesprochen. Die mit der Führungskraft in Beziehung stehenden Personen sehen daher nicht direkt die Kompetenz, sondern das Verhalten und das Handeln.
3 Warum sich Unternehmen neu erfinden müssen
Unternehmen stellen in den letzten Jahren vermehrt vielfältige Probleme fest. Es kommt zu hohen Fluktuationen bei Mitarbeitern, aber auch bei Kunden, die Konkurrenz hat eine deutlich höhere Geschwindigkeit als früher, der Wettbewerb hat rapide zugenommen, das eigene Unternehmen leidet an Trägheit, es gibt starke Probleme in der Prozessabwicklung, die eigene Produkt- und Servicequalität sinkt kontinuierlich, während die Kosten zu explodieren scheinen. Gestärkt und intensiviert wird dies maßgeblich durch die Globalisierung, Rationalisierung und die immer stärker werdende digitale Transformation.
Aber warum funktionieren die alten Methoden bzw. Konzepte und Führungsstile immer weniger und vielleicht in Kürze gar nicht mehr? Versetzen wir uns zur Beantwortung dieser Frage einmal zurück ins 19. Jahrhundert, mitten in die Industrialisierung 2.0, bzw. genauer gesagt zurück zum Taylorismus, der durch folgende Eigenschaften geprägt war: Generelles Ziel der Theorien von Frederick Windslow Taylor ist die Steigerung der Produktivität menschlicher Arbeit. Dies geschieht durch die Teilung der Arbeit in kleinste Einheiten, zu deren Bewältigung keine oder nur geringe Denkvorgänge zu leisten und die aufgrund des geringen Umfangs bzw. Arbeitsinhalts schnell und repetitiv zu wiederholen sind. Denken und Arbeit sollten also getrennt werden.
Sogenannte Funktionsmeister übernehmen die disponierende Einteilung und Koordination der Arbeiten. Der Mensch wird lediglich als Produktionsfaktor gesehen, den es optimal zu nutzen gilt. Ein spezielles Lohnsystem, der sogenannte Leistungslohn, soll zur Steigerung der subjektiven Arbeitsleistung führen. Die Auswirkungen des Taylorismus waren prägend für die letzten 100 Jahre der Industrialisierung. So wurden Organigramme allgemein sowie Titel für Positionen im Speziellen eingeführt.
Die Unternehmungen wurden in Linien-, Aufbau- und Ablauforganisationen strukturiert. Es wurden Bereiche und Abteilungen eingeführt. Ganz allgemein gab es Managementpositionen und damit auch Führungsebenen. Abläufe wurden über Prozessdefinitionen beschrieben. In Anbetracht der Arbeiten, die im Taylorismus erledigt werden mussten, so sind diese als maximal kompliziert zu betrachten. Kompliziertheit kann also als ein gewisses Maß an Unwissenheit verstanden werden. Ein Problem ist kompliziert, weil wir es nicht verstehen und uns zur Problemlösung Wissen fehlt. Es wird einfach, sobald wir Wissen zusteuern. Komplexität wiederum ist das Maß an Freiheitsgraden bzw. Unsicherheit. Je mehr Freiheitsgrade ein Problem hat, desto komplexer wird es. Wissen allein reicht hier lange nicht aus, um zur Lösung zu kommen, dafür wird Können benötigt.
Ralph Stacey hat diesen Zusammenhang zwischen Komplexität und Kompliziertheit in der nach ihm benannten Stacey-Matrix abgebildet.
Abbildung 4 - Stacey-Matrix
Die Stacey-Matrix hilft bei der Entscheidungsfindung, da sie ein klares Bild zeichnet. Sie ist insbesondere für Fachexperten mit Tunnelblick zu empfehlen, da bereits neue Erkenntnisse aufgrund der zweiten Dimension ersichtlich werden. Werden auf der x-Achse die Freiheitsgrade wie z. B. die Technologie, die Fertigkeit oder das Wissen von wenig bis hoch aufgetragen und auf der y-Achse die Anforderung von bekannt bis unbekannt, so lassen sich die damit eingeschlossenen Bereiche grob in neun Bereiche zerteilen.
Ganz links unten, also bei wenig Freiheitsgraden und bekannten Anforderungen, sprechen wir von einem sogenannten einfachen Problem. Dieses ist mit einfachen Anweisungen zu lösen. Sobald wir aber entweder den Freiheitsgrad auf mittel erhöhen oder aber die Anforderungen und die andere Achse jeweils auf wenig bzw. bekannt stehen lassen, so erhalten wir die Phase der Kompliziertheit. Diese Herausforderungen sind durch Reduktion auf einfache Teilprobleme zu lösen. Werden folgend die Werte erhöht, so befinden wir uns im Bereich des Komplexen. Hier kann zwar ebenfalls versucht werden, das Hauptproblem in Teilprobleme zu zerlegen, wir werden aber dann zu maximal komplizierten Problemen kommen.
In etwa vergleichbar ist die Stacy-Matrix mit einem Schachspiel. Die Regeln dazu sind recht einfach, es gibt aber unzählige mögliche Spielzüge, deren Komplexität mit dem Spielverlauf sogar noch zunimmt. Wichtig sind insbesondere folgende Erläuterungen:
Einfach Kompliziert Komplex Chaotisch
Eine Aufgabe gilt als einfach, wenn die relevanten Dinge zu ihrer Erledigung bekannt oder weitgehend bekannt sind. Eine Aufgabe gilt als kompliziert, wenn von den relevanten Dingen zur Erledigung der Arbeit mehr bekannt als unbekannt ist.
Eine Aufgabe ist als komplex zu bezeichnen, wenn für die Aufgabenerledigung mehr unbekannt als bekannt ist. Eine Aufgabe gilt als chaotisch, wenn sehr wenig über sie bekannt ist.
Charakteristika: Für komplizierte sowie für komplexe Szenarien gibt es unterschiedliche Methoden zur Lösung von Herausforderungen. Werden beispielsweise komplexe Herausforderungen mit Tools aus dem Bereich des Komplizierten gelöst, so stellt sich zwangsläufig Scheitern ein. Genau dies geschieht derzeit mehrheitlich in Unternehmen und das ist auch genau der Grund für das Scheitern. Die digitale Transformation ist der Inbegriff des Komplexen und erfordert demnach auch Lösungen bzw. Tools zu Lösungen aus dem Gebiet des Komplexen. Da aber Unternehmen mehrheitlich im Taylorismus gefangen sind, fällt ihnen die Transition schwer.
3.1 Transformieren mit Nachdruck
Wie bereits kürzlich beschrieben und definiert ist die digitale Transformation die Wandlung gepaart mit Adaption und Anpassung. Digital Business Transformation wiederum befasst sich mit der Planung, Steuerung, Optimierung und Umsetzung der Wertschöpfungskette eines Unternehmens in der digitalen Ära. Im Zentrum steht die Identifikation von Auswirkungen der Digitalisierung auf bestehende Geschäftsmodelle, die Umsätze, Erlösströme und Differenzierungsmerkmale eines Unternehmens im Markt.
Ganze Wertschöpfungsketten verändern sich und nicht nur einzelne Funktionen und Unternehmensbereiche sind betroffen. Die nachhaltige Veränderung und Neuausrichtung von Kommunikation, Marketing, Vertrieb und Service sind essenziell. Digital Business Transformation nutzt die Vorteile und Potenziale der Integration und Implementierung neuer Technologien als Chance für einen Wandel bestehender Geschäftsmodelle und für die Generierung neuer Geschäftspotenziale heraus aus technischen, funktionalen und nutzerorientierten Innovationen. Transformation als Bestandteil impliziert eigentlich einen Prozess, der einen Anfang und ein Ende hat. Nun könnte angenommen werden, dass lediglich ein wie auch immer geartetes „Delta" aufholen muss, um digitalisiert zu sein. Das ist aber grundlegend falsch, denn auch wenn dieses „Delta" benötigt wird, um überhaupt wieder konkurrenzfähig zu werden, so muss anschließend ein stetiger Veränderungs- und Lernprozess in Gang gesetzt werden und mit „digital" muss wiederum impliziertsein, dass die Veränderung in der Gesellschaft und damit in der Wirtschaft nur von Informationstechnologien getrieben ist. Das ist nicht grundlegend falsch. Wir werden aber im Folgenden sehen, dass sich ebenfalls viele völlig analoge Bereiche geändert haben.
Laut Alain Veuve, einem Vordenker im Bereich der Digitalisierung, wäre ein Begriff wie Perpetual Disruption, was so viel wie unaufhörliche, umbrechende Veränderung bedeutet, deutlich besser geeignet. Er macht auf der einen Seite klar, dass sich der Veränderungsprozess immerwährend fortsetzt und dass er auf der anderen Seite eine umbrechende oder tiefgreifende Dimension hat.
Was aber sind die Gefahren der digitalen Transformation?
Der energiefressende Marathon ohne erklärtes Ziel bzw. wird der Läufer dabei kurz vor der Zielgeraden ein ums andere Mal nach hinten versetzt. Der sicher geglaubte Sieg wandert wieder in weite Ferne, die Motivation schwindet. Zudem kommt erschwerend hinzu, dass sich der Einsatz mit der verstrichenen Zeit der Entscheidungsfindung bzw. dem bewussten Abwarten erhöht.
Es scheint derzeit so zu sein, dass viele Firmen die digitale Transformation komplett verschlafen. Und das, obwohl fast jedes Unternehmen wie verrückt digitalisiert. Dies ist kein Widerspruch in sich, wie auch kein Fehler im Text. Somit lässt sich bereits hier erkennen, dass die digitale Transformation ohne transformierte Unternehmen wirkungslos ist." Und genau das gilt es, besser zu machen. Es bedarf neben der Wandlung auch eine Adaption, welche sich unternehmensweit in alle Bereiche erstreckt und selbst das ist nur ein kleiner Teil des Wandels. Ein erfolgreiches Unternehmen beginnt außerhalb der Unternehmensmauern und somit gilt es, den Markt und den Kunden sowie dessen Ansprüche und Bedürfnisse noch besser und vor allem noch schneller zu verstehen.
Eine besondere Tragik stellen kleine wie auch der überwiegende Anteil der mittelständischen Unternehmen dar, da die Aufgabe von altbewährten Strukturen hier immer auch ein Risiko darstellt. Jedoch sind genau diese Unternehmen mengen- und flächendeckend am Markt vertreten. Der Wandel selbst wirkt zudem als Entscheidungsfaktor. Er teilt Unternehmen in Gewinner und Verlierer. Sich früh auf die erfolgreiche Seite zu stellen bzw. sich an die neuen Begebenheiten anzupassen, kann sich hier also auszahlen. Weiterhin sind die Kunden der Treiber des Wandels und nicht etwa die Technologie. Deutlich mehr als früher zahlt es sich also aus, seine Kunden besser zu kennen. Schließlich ist die digitale Transformation nicht billig. Allerdings stellt sie eine Investition in die Zukunft dar.
3.2 Überleben im digitalen Zeitalter
Was ist nun aber das Erfolgsrezept, um im digitalen Zeitalter zu überleben?
Letztlich ist es die konsequente Beachtung und Befolgung von sechs Dimensionen:
• Radikale Nutzerzentrierung,
• Incubator und geschützter Raum,
• Innovation und Disruption,
• Lean Startup und Entrepreneur DNA,
• Change,
• Prozesse und Technologien.
Von diesen Faktoren müssen alle erfüllt sein. Es hilft nichts, manche mit 120 % zu realisieren, wenn durch das Loch im Boden z. B. schlechten Change die gewohnte Struktur auf unsicheren Beinen steht. Gehen wir daher genauer auf die einzelnen Dimensionen ein:
Radikale Nutzerzentrierung: Personen, allen voran der Kunde, aber auch der Mitarbeiter, rücken radikal ins Zentrum eines jeden Unternehmens. Fragen hierbei sind u. a.:
• Wer ist eigentlich meine Zielgruppe?
• Und was braucht sie wirklich?
• Wie führe ich meine Mitarbeiter und motiviere sie intrinsisch?
Mit methodischen Ansätzen wie beispielsweise dem Design Thinking oder dem Lego Serious Play entstehen Produktinnovationen und Geschäftsmodelle mit einem radikalen Fokus auf den Kunden. Aber auch mit User-Journey-Analysen, Eye Tracking, Big Data und ähnlichen Ansätzen wird versucht, mehr auf den Kunden bzw. den Nutzer einzugehen und diesen bzw. seine Bedürfnisse besser zu verstehen.
Incubator: Die meisten Unternehmen sind zu träge, um die benötigten neuen Konzepte in kurzer Zeit umzusetzen. Innerhalb eines Incubators oder einer Digitaleinheit, die von den umgebenen Unternehmensstrukturen weitestgehend losgelöst sind, entsteht der nötige Freiraum für innovatives Denken und agiles Testen, direktes Umsetzen sowie die Realisierung schneller Erfolge am Markt. Dies hat den den positiven Nebeneffekt, dass business as usual nach wie vor möglich ist und zudem der Unternehmensalltag nicht auf den Kopf gestellt wird. Ein Incubator kann entweder ein eigenes Digitalteam sein, welches mit den entsprechenden Befugnissen, Freiheiten und Budgets ausgestattet ist, oder aber es könnte ein eigenes Startup, entweder als Organisationseinheit oder als separate Entity, gegründet werden.
Innovation und Disruption: Disruptive Technologien müssen integraler Bestandteil des Unternehmensalltags werden. Durch eine reine Effizienzsteigerung und business as usual entstehen jedoch längst keine Innovationen mehr. Im Kampf um das beste Angebot kann künftig nur der bestehen, der neue Ideen, andere Blickwinkel und ungewöhnliche Methoden zulässt. Disruptives Denken müsste also zum Teil der DNA eines jeden digitalen Unternehmens gemacht werden.
Wichtig ist es auch, den Innovationsprozess zu institutionalisieren und systematisch anzulegen. Hierzu können zahlreiche Methoden verwendet werden wie z. B. Design Thinking, Lean Startup, Lego Serious Play, Business Model Generation, Effectuation und viele andere mehr. Lean Startup und Entrepreneur DNA: Um den digitalen Wandel voranzutreiben, werden Mitarbeiter benötigt, die eine unternehmerische Digitalkompetenz besitzen und damit mehr wie Entrepreneure agieren. Dies muss allerdings bereits in der DNA der Firma verankert werden. Nach der Philosophie des Lean Managements und des Lean Startups werden Geschäftsmodelle bereits in frühen Phasen verifiziert und so ggf. ein Scheitern provoziert oder ein Erfolg prognostiziert. Change: Im digitalen Zeitalter sind Unternehmen gefordert, sich ständig neu zu erfinden. Für die Mitarbeiter und die Führungskräfte ist dies eine stetige und immer schneller werdende Herausforderung. Die digitale Revolution wird zu einem entscheidenden Treiber von Veränderungen. Letztlich ist die digitale Transformation ein gigantischer Change-Prozess für jedes Unternehmen. Damit ist das Change Management bei den Veränderungsprojekten ein zentraler Hebel für Erfolg und Akzeptanz.
Prozesse und Technologie: Diese decken schließlich die verbleibenden Bereiche ab. Prozesse und Abläufe müssen schneller an die veränderten Bedingungen angepasst werden. Zentrales Element für alle Prozesse spielt daher, neben dem Menschen, die Technologie, die vorwiegend auf IT basiert. Alle automatisierbaren Prozesse und Abläufe müssen automatisiert werden. Daten müssen vollumfänglich digitalisiert und zugänglich gemacht werden.
Die digitale Transformation bedingt Gewinner und Verlierer gleichermaßen. Ausruhen dürfen sich keine Unternehmen, denn Gewinner können im digitalen Zeitalter rasch wieder zu Verlierern werden. So gelang es Nokia um die Jahrtausendwende zum Weltmarktführer für Mobiltelefone aufzusteigen. Wenige Jahre später verschlief das Unternehmen jedoch den technologischen Wandel zum Smartphone und wurde in weiterer Folge zur Gänze von dem Markt gedrängt. Heute heißen die Marktführer im Bereich der Mobiltelefone Samsung und Apple. Vergleichbare Beispiele könnten beliebig fortgeführt werden. Zahlreiche Branchen waren und sind durch die Digitalisierung von – oftmals mehreren – radikalen Veränderungsprozessen gekennzeichnet. Modernes Leadership erfordert folglich ein ausgeprägtes Bewusstsein für Wandel und ein Gespür für potenziell disruptive Technologien.
Für ein tieferes Verständnis steigen wir weiter in die Profile bereits digitalisierter Unternehmen ein, um zu verstehen, was diese besonders gut umgesetzt haben. Die Robert Bosch GmbH hatte z. B. im Jahr 2017 375.000 Mitarbeiter und einen Jahresumsatz von knapp 71 Milliarden Euro. Im Krisenjahr 2009 machte Bosch knapp 1,2 Milliarden Euro Verlust. Daraufhin kam es zur strategischen Neuausrichtung und vor allem zur radikalen Konzentration auf die digitale Transformation, dies vor allem in den Bereichen Vernetzung, Daten und Human Resources. Bei Bosch laufen z. B. aktuell über 50 interne Projekte, die sich nur mit der Digitalisierung von Prozessen und mit der Produktion, vor allem im Bereich Industrie 4.0, beschäftigen. Während es in der durch die COVID-19-Pandemie bedingte Krisenzeit überall Einsparungen gab, blieb der Etat für Forschung und Entwicklung stets konstant. Innerhalb von wenigen Jahren gelang die Kehrtwende zum größten Umsatz in der Konzerngeschichte.
Ähnliches gilt für das Beispiel Porsche: Es wurde festgestellt, dass 80 % aller Porsche-Kunden iPhone-Nutzer sind. Dadurch wurde sich auf Themen wie Smart Home, Connected Car usw. konzentriert. Die Steuerung der Montage ist komplett RFID-basiert. Es wurde ein intelligentes CRM-System auf Basis von SAP HANA installiert, um schnelle treffgenaue Angebote zu ermöglichen. Es gibt ein Intranet, namens Carrera Online, und ein sogenanntes Enterprise Social Network, weil Transparenz und Offenheit in der Kommunikation oberstes Ziel sind. Media Markt gilt als technischer Fixposten am Markt. Das Einstellen der Mitarbeiter auf agiles Arbeiten und das schnelle Umsetzen neuer Geschäftsideen war dort einer der Ansätze. Ideen gab es ebenso im Vertrieb, indem der Bedarf mit Predictive Analytics treffsicher analysiert und prognostiziert werden konnte. Die Umsätze waren IT-getrieben, die Produktverfügbarkeit konnte vor Ort per App ermittelt werden, der digitale Kassenzettel wurde erfunden.
Zalando. Als Startup im Jahr 2008 gegründet hat Zalando heute 17 Millionen aktive Kunden, ist in 15 Ländern vertreten, hat über 10.000 Mitarbeiter und gilt als der größte Online-Shop im Bereich Mode weltweit. Eine neue Arbeitsstruktur setzt auf autonome agile Teams, die eigenverantwortlich Entscheidungen treffen. Damit das funktioniert, muss jeder Mitarbeiter immer auf alle Informationen zugreifen können. So werden alle Daten in der Cloud denjenigen zur Verfügung gestellt, die sie benötigen. Das Instrument zur Mitarbeiterführung war und ist OKR, welches anschließend noch näher vorgestellt wird. Jedoch zeigen einige Formen des Handels nicht nur positive Ausprägungen. Augenzwinkernd wird gescherzt, ob nun der sog. „Schrei vor Glück“ beim Kunden oder in der Logistikabteilung stattfindet, wenn Bestellungen als Retoure an den Versandort zurückkehren. Durchschnittlich 80 % aller bestellten Artikel werden wieder zurückgegeben, was einen hohen Kostenfaktor und einen immensen Logistikaufwand darstellt. Im klassischen Handel wäre dies undenkbar.
3.3 Das moderne Unternehmen
Wie sieht nun aber das neue Unternehmen der Zukunft aus, das sich perfekt an alle Aspekte des digitalen Zeitalters angepasst hat?
Hier gibt es zunächst den Aspekt Wechsel mit folgenden Charakteristika:
• Lösen von traditionellen Geschäftsmodellen.
• Konsequentes Überarbeiten bestehender Produkt- und Serviceportfolios.
• Aufgeben von obsoleten Produkten und Services.
• Radikale Konzentration auf den Kunden.
• Ggf. Expansion, da nationale Märkte oft zu klein sind, um eine langfristige Wachstumsstrategie zu überstehen.
Die Potenziale liegen daher meist in anderen Branchen. Über den eigenen Sektor bzw. die Branche hinauszudenken, ist sehr wichtig. Ebenso ist es relevant Joint Ventures einzugehen, anstelle von Competitions und Wachstumschancen in neuen Bereichen oder Branchen zu nutzen. Der Gewinner in diesem Aspekt ist die Technologiebranche, während die Verlierer Handels-, Finanz- und Versicherungs- sowie Energieunternehmen sind. Ein weiterer Aspekt ist die Ausgestaltung: Es wird eine flexible Innovationsund Investitionskultur durch Technologiesprünge, kürzere Produktlebenszyklen oder sich wandelnde Kundenbedürfnisse notwendig. Zeitgleich steigt aber der Kostendruck. Daher sind Strategien für eine effiziente Kostensenkung und Controlling gefragt. Die Organisation und die Prozesse müssen schlanker, flexibler und effizienter gestaltet werden. Die Investition in die Erhöhung der Geschwindigkeit der Geschäftsprozesse, also Time-to-Market, und in den Ausbau der Forschungs- und Entwicklungsaktivitäten sollten höchste Priorität haben.
Aspekt Neuausrichtung: Produkte und Vermarktung müssen an den zunehmend digitalen, individualisierten und unabhängigen Kunden ausgerichtet werden. Informationen über Produkte und Leistungen müssen deutlich transparenter und immer erreichbar platziert werden. Firmen müssen innovative Strategien und attraktive Konzepte zur Kundenansprache entwickeln, um den Konsumenten in den Weiten des digitalen Universums überhaupt noch zu erreichen. Die bestehenden Produkt- und Dienstleistungsportfolios müssen an die Bedürfnisse der Digital Natives angepasst werden. Aspekt Orientierung: Zukünftige Erfolgsfaktoren müssen von Anfang an berücksichtigt werden wie z. B. die Kundenbindung, die Innovationsfähigkeit, flexible Strukturen und Prozesse, ein flexibles Personalmanagement, eine intelligente Nutzung von Daten und strategische Kooperationen.
3.4 Digitaler Reifegrad
• Die Fragen, welche sich Unternehmen aktuell stellen müssen, sind u.
a.:
• Welche Bereiche sind bereits ausreichend digitalisiert?
• Wie hoch ist der Reifegrad der Digitalisierung (auf einer Skala von „Digital Immigrant“ bis „Digital Native“)?
• Welche Bereiche müssen wie verändert werden, um sie fit für das digitale Zeitalter zu machen?
Eine Möglichkeit zur objektiven Einordnung dieser Fragen kann das von der Pluswerk AG entwickelte Digital Maturity Level geben, welches die relevanten zehn Dimensionen der digitalen Transformation repräsentiert. Hieraus können anschließend Handlungsempfehlungen abgeleitet werden, um den Digitalisierungsgrad nachhaltig anzuheben und dauerhaft zu stabilisieren.
Die „zehn Gebote“ sind definiert durch:
1. Strategy = digitaler Reifegrad des Unternehmens.
2. Leadership = Management und Rollen.
3. People = Human Resources, Zielsysteme, Personalentwicklung.
4. Culture = Kultur und Kulturentwicklung.
5. Processes = Prozesse und deren Umsetzung.
6. Products = Innovationsfähigkeit.
7. Technology = Technologie sowie Soft- und Hardware.
8. Data = Daten sowie deren Verwaltung.
9. Customer = Kundenfokus.
10. Governance = Umsetzung der Digitalstrategie.
Durch die zehn Bereiche wurde eine Möglichkeit geschaffen, ein oftmals schwer erkennbares Bild so in Teilbereiche aufzuschlüsseln, dass es greifbar wird und zudem bereits erste Einblicke über die Stärken und Schwächen gegeben werden. Nachfolgenden werden die jeweiligen Dimensionen genauer ausgeführt.
Strategy: Die Digitalstrategie des Unternehmens, z. B. dargestellt durch eine digitale Roadmap, zeigt den Reifegrad der Digitalisierung im jeweiligen Unternehmen. Dabei muss die Unternehmensführung eine entsprechende Digitalstrategie entwickeln, die die Veränderungen im Konsumentenverhalten, aber auch z. B. destruktive technologische Entwicklungen sowie die Änderungen im Arbeitsverhalten oder in der Komplexität beinhaltet. Diese Digitalstrategie muss sowohl dokumentiert als auch im gesamten Unternehmen ausreichend kommuniziert werden. Selbst wenn keine Digitalisierung im Unternehmen stattfinden soll, ist dies entsprechend zu deklarieren und zu kommunizieren. Ein Grund hierfür ist, dass das Unternehmensbekenntnis jedem Mitarbeiter bekannt sein sollte und ebenso, welches Motiv die Ursache für das weitgehend gleichbleibende analoge Unternehmen ist. Eine komplette Verneinung der Digitalisierung ist zwar nicht gleichbedeutend mit dem unmittelbaren Bankrott, jedoch schwindet zumeist die Konkurrenzfähigkeit in diversen Belangen enorm. Ausnahmen bestätigen auch hier die Regel, jedoch sind solche Unternehmen meist in Nischenmärkten angesiedelt und haben als Gemeinsamkeit eine lange Tradition sowie ein exklusives Klientel. Gleichzeitig muss die Digitalstrategie in regelmäßigen Abständen hinterfragt, angepasst und mit neuen Erkenntnissen und technologischen Fortschritten angereichert werden.
Leadership: Die Rolle des Führungsteams bei der Umsetzung der Strategie steht im Vordergrund. Das Topmanagement, aber auch das mittlere Management, muss ein Bewusstsein für die Notwendigkeit des Wandels erlernen. Genauso muss es neuen Methoden sowie Technologien gegenüber nicht nur offen sein, sondern diese ggf. sogar selbst erlernen und, sofern nicht vorhanden, für das jeweilige Unternehmen erdenken, praktizieren und regelmäßig verfeinern. Es zählen vor allem das Commitment im Management und die herrschende Führungskultur. Zudem ist es wichtig, herauszufinden, welche Funktionsbereiche im Unternehmen bereits involviert sind. Je mehr Bereiche bereits digital denken und arbeiten, desto erfolgreicher wird das Unternehmen bei der Umsetzung der Transformation sein.
Gleichzeitig muss festgestellt werden, ob die Kompetenz der Führung und die Umsetzung der Digitalstrategie in einem günstigen Verhältnis zueinanderstehen, denn ein zu schneller Wandel kann auch zu großen Problemen führen. Genau dieser Umstand ist der Schwerpunkt dieses Skriptums: Führung im digitalen Kontext auf Unternehmensebene als Instrument des Wandels – wie auch operative Führung aufgrund digitalisierter Prozesse im Unternehmen. Hier liegt der Fokus zum einen auf den Schwierigkeiten wie auch auf den Besonderheiten, welche die digitale Transformation mit sich bringen, und zum anderen darauf, welche Fähigkeiten Führungskräfte benötigen, um dem neuen Setting gerecht zu werden. Der absolute Mehrwert ist erst dann gegeben, wenn eine bestmögliche Synergie zwischen Mensch und Moderne geschaffen wird. Hier sei jedoch bereits vorab verraten: Die eine Antwort gibt es nicht – weder von binärer Seite noch in Bezug auf Führungsansätze. Eine solche Synergie fordert einen kontinuierlichen, offenen Werdegang, indem laufend Maßnahmen etabliert werden, welche aus der zuvor abgeleiteten Erfahrung gewonnen wurden. Somit sind der Wille zur Veränderung und das Bewusstsein, das Neues nur mit neuem Denken bestmöglich gelingen kann, unerlässlich.
People: In der dritten Dimension, People, sind vor allem zwei Aspekte maßgebend: Das Employer Branding, also die Attraktivität des Arbeitgebers, und die Führung der Mitarbeiter. Die digitale Arbeitswelt erfordert neue Qualifikationen für Führende wie Geführte gleichermaßen. Die „neue“ Führungskraft trägt hier jedoch eine Doppelbelastung. Der Leadership-Ansatz des Unternehmens ist relativ zum Digitalisierungsgrad und zudem unentdecktes Terrain. Wichtig ist vor allem, wie von Seiten der Führungskraft gehandelt wird und auf was es zu achten gilt – und dem nicht genug – das Hineinversetzen in die geführte Person. Sofern überhaupt digitale Kompetenzen für den Umgang mit der neuen Materie vorhanden sind, betreffen diese nur einen Bruchteil des veränderten Arbeitsalltags. Es ist also wichtig, sich mit folgenden Fragen zu beschäftigen und passende Antworten auf sie zu finden: Was ändert sich, wie und weswegen? Was hat noch bzw. nun Bestand, welche Unsitten, die früher das Mittel der Wahl waren, gilt es, zu vermeiden? Die Innensicht der Protagonisten wird im weiteren Verlauf des Skriptums im Detail behandelt, in diesem Abschnitt galt es allerdings, dies lediglich grob zu skizzieren.
Klare Anforderungsmodelle und entsprechender Freiraum für die digitale Fortbildung bilden eine notwendige Voraussetzung, ebenso repräsentieren agile Ansätze zur Mitarbeiterführung und Zielvereinbarung Notwendigkeiten. Weiter sind zwei Herausforderungen maßgeblich: Zum einen ist es notwendig, Know-how-Träger und Experten zu produzieren, zu draften bzw. abzuwerben, und zum anderen den bestehenden Mitarbeitern die Furcht vor dem Neuen bzw. Unbekannten zu nehmen und diese entsprechend intrinsisch zu motivieren.
Culture: In der vierten Dimension, Culture, liegt der Fokus auf der eigenen Unternehmenskultur. Ein ausgeprägtes Leitbild, eine Vision, Mission, Ziele, ein Zweck und stimmige Werte, welche benötigt werden, um den Wandel zu ermöglichen sowie diesen bestmöglich zu unterstützen, werden vorausgesetzt. Somit wird auch in Zeiten des Zweifels bei aufkommenden Schwierigkeiten und Widerständen ein omnipräsentes Gesamtbild geboten. Es bedarf zudem einer Innovationskultur, die den Wandel vorantreibt. Neue, moderne Ansätze, wie die Verwendung von frischen Innovationsfindungsmethoden beschleunigen den Kulturwandel im Unternehmen. Diese sind z. B. Design Thinking, Lean Startup, Lego Serious Play u. v. m., die den Aufbau von internen Entwicklungsstätten im neumodernen Kontext auch in Incubators fördern, sowie das regelmäßige Durchführen von Kunden- und Entwicklerwettbewerben und anderen Formen der Open-Innovation-Culture. Zudem sind die Kulturmodelle von Zusammenarbeit und Führung ein notwendiger Bestandteil dieser Dimension.
Processes: Die fünfte Dimension, Processes, beschäftigt sich mit den Abläufen und Prozessen im Unternehmen. Suboptimale bzw. unreife Prozesse verursachen nicht nur erhebliche Kosten, sondern verschwenden Ressourcen, die für eine erfolgreiche Transformation benötigt werden. Ein maßgeblicher Unterschied bei der Digitalisierung ist zudem, dass nicht nur die klassische Projektarbeit an sich zunimmt, sondern vor allem die Anzahl abteilungsübergreifender Projekte. Im Inneren der Organisation muss daher eine neue Richtung gewählt werden, von starren Prozessen hin zu agilen Abläufen. Agiles Handling, ungeachtet unter welchem Namen bzw. unter welcher Methode es praktiziert wird, ist schon seit einigen Jahren eine unabdingbare Eigenschaft. Dies ist nicht nur der Digitalisierung geschuldet, jedoch wurde der notwendige Agilitätsfaktor durch die digitale Revolution deutlich erhöht. Dies führt zugleich auch zu dem Umkehrschluss, dass diejenigen, die sich bis dato dem „beweglichen“ Ansatz verweigert haben, es in Zukunft umso schwerer haben werden, auf Augenhöhe mit der Konkurrenz zu bleiben. Langfristig ist somit ein Stillstand als Rückschritt zu sehen und anhand der aktuellen Marktveränderung ein Schattendasein bzw. gar ein Ausscheiden zu befürchten. Agile Methoden, wie Scrum, Design Thinking usw. sowie Lean-Methoden, Lean Management, Lean Startup, Kanban usw. gewinnen im Zuge des digitalen Wandels immer mehr an Bedeutung.
Products: Die sechste Dimension, Products, legt den Fokus auf die Produkte des Unternehmens. Hierbei ist es unerheblich, ob es sich um reale oder digitale Produkte oder Dienstleistungen handelt. Es ist in jedem Fall notwendig, dass die Kernelemente des Nutzenversprechens als Service definiert werden. Ebenso muss das Geschäftsmodell auf digitale Tauglichkeit überprüft und ggf. nachgebessert werden. Zudem ist es notwendig, dass der Markt und andere Kanäle einbezogen werden, um eine aussichtsreiche Positionierung zu ermöglichen. Digitalisierung per se ist kein einziges Effizienzprojekt, sondern ein Vorteil von vielen. Effizienz ist jedoch in der heutigen Zeit mit den Kernprägungen wie Globalisierung und dem zunehmenden Kostendruck, welcher im Gleichschritt mit steigenden Kosten vorangeht, eine gern gesehene „Schraube“, an der sich drehen lässt. Neue digitale Produkte und Dienstleistungen führen zu einer Wandlung des Geschäftsmodells mit (meist) enormen Kundenvorteilen. Ein gutes Beispiel ist hier die staatliche Bürokratie mit dem Leitsatz der langsam mahlenden Mühlen. Durch die Einführung der Handy-Signatur ist es möglich, viele Amts- und Behördenwege orts- und zeitunabhängig zu erledigen, ganz ohne lästige Suche nach der richtigen Ansprechperson, Örtlichkeiten, Öffnungszeiten und weiteren Nachteilen und dies in der Regel kostenlos. Ein weiterer Vorteil, nämlich neue Produkte und/oder Dienstleistungen im Unternehmensportfolio zu haben, hilft dabei, in zusätzliche Geschäftsfelder vorzudringen bzw. die gewonnene Marktstellung zu sichern.
Technology: In der siebten Dimension, Technology, werden alle Technologien analysiert und anschließend bewertet, die das Unternehmen zum eigenen Erhalt wie auch zur Serviceunterstützung für den alltäglichen Betrieb und für seine Dienstleistungen und Produkte als Unterstützung benötigt. Maßgeblich sind hier u. a. die IT-Strukturen, denn die Ablösung oder Erneuerung veralteter IT-Strukturen sind meist Teil der (neuen) Roadmap. Ein Beispiel hierfür ist die „Rationalisierung“ von Hardware im Unternehmen aufgrund der Cloud-Technologie, wo Server und deren Services einfach gehostet werden. Der Fokus kann auf das Kerngeschäft gelegt werden: Unterbrechungsfreier, zugesicherter Service, inkludiertes Fachpersonal, moderne Hardware, leichte Skalierbarkeit und keine Personalkosten für Wartung/Betrieb sind nur einige der Vorteile, welche den Trend zur „Cloud“ erklären.
Der essenzielle Punkt beim binären Wettrüsten besteht darin, digitale Lösungen für analoge oder teildigitale Prozesse zu schaffen. Schlussendlich geht es um die Verknüpfung von intelligenten Technologien und vorhandenen, meist ineffizienten Systemen. „Ineffizient“ ist jedoch ein undankbares Adjektiv und zum Teil nicht gerechtfertigt. Systeme sind und waren performant und erfüllten zur vollsten Zufriedenheit ihre Aufgaben (in vergangenen Zeiten), jedoch zeigen sich oftmals durch neue technische Möglichkeiten latente Schwächen und daraus resultierende Verbesserungspotenziale. Sinngemäß hierfür: Bevor die Glühbirne erfunden wurde, war die Menschheit auch mit einer Kerze sehr zufrieden. Diese erhellte den Raum in finsteren Momenten. Thomas Alva Edison brachte letztlich die sprichwörtliche „Erleuchtung“, ein Substitut. Da die Vorteile immens waren, war die Wachablöse lediglich eine Frage der Zeit. Allgemein gilt daher: Die Technologien und Möglichkeiten von heute sind durchweg optimal und im Rahmen des Möglichen. Jedoch ist ständig zu hinterfragen, ob diese auch noch morgen und in Folge die bessere Alternative sind.
Data: In der achten Dimension, Data, werden alle Arten von Daten betrachtet, die im Unternehmen produziert und verarbeitet werden. Richtiger müsste es jedoch heißen: Daten nicht nur im jeweiligen Unternehmen, sondern Daten von jeglicher Quelle. Beispiele wären Geschäfte, Bonuskarten, Webseiten, Cookies, Verkehrssysteme mit Aufzeichnung von Fußgängern und Fahrzeugen jeglicher Bewegung, Suchmaschinen und Social-Media-Plattformen, welche grundsätzlich alles, was sie (in aller Regel mit Einwilligung) aufzeichnen, verwerten. Nicht umsonst gelten Daten als das Öl der Zukunft und dies ist die Geburtsstunde des Datenkapitalismus und Ideengebers für neue Geschäftszweige. Noch nie wussten Unternehmen so viel über ihre Kunden, Märkte und Produkte wie in der heutigen Zeit. Stellen Sie eine Kosten-Nutzen-Rechnung betreffend einer Supermarkt-Kundenkarte an. Welche Vorteile haben Sie davon und welche Nachteile? Eine Antwort lautet vermutlich eine Preisreduktion aufgrund von Zugehörigkeit. Dies ist korrekt und nicht von der Hand zu weisen. Jedoch bezahlen Sie auch für diese Reduktion und zwar mit der Zurverfügungstellung Ihrer Daten. „Das Haus verliert nie“ – dieser Spruch gilt für das Casino wie auch für die Ausgeber solcher datengetriebenen Kundenkarten. Anhand diverser Berechnungen lässt sich pro Kunde und dessen gewonnener Abhängigkeit (vormals Treue) langfristig ein Gewinn erwirtschaften, angereichert mit zahlreichen positiven Nebeneffekten: Definierung von Kundengruppen, Segmentierung ihrer Motive und Trigger sowie weiterer manipulativer Möglichkeiten, welche anhand historischer Daten gegeben sind. Abschließend zum Exkurs Kundenkarte soll Folgendes bemerkt werden: Diese sind nicht per se „schlecht“ – jedoch sollte sich jeder Verwender darüber bewusst sein, was mit seinen Daten geschieht und ob dies auch im Einklang mit der Vorstellung seiner Person steht. Die Datenproduktion steigt im Allgemeinen – teils explosionsartig – an. IOTs (Internet of Things), Smartphones, Smart-Homes sind maßgebliche Auslöser, aber auch die aufstrebende (chinesische) Wirtschaft darf hierbei nicht außer Acht gelassen werden. In den nächsten Jahren erhalten kontinuierlich mehr Menschen und Maschinen einen Zugang zum Internet, was dem Ausbau der Infrastruktur, dem generellen Wirtschaftsaufschwung, billiger werdender Technik und vielem mehr geschuldet ist. Im Durchschnitt besitzt eine Person jedoch deutlich mehr als eine Gerätschaft. Somit ist bereits bei einem geringgradigen Multiplikator die Milliardengrenze erreicht. Notgedrungen war es somit notwendig, den Adressraum von IP4 auf IP6 zu erhöhen. Jedes mit dem Internet verbundene Gerät benötigt eine einzigartige gültige Adresse, ähnlich einer Sozialversicherungsnummer, um mit dem Internet kommunizieren zu können. Beim alten Standard IP4 sind vier Milliarden Adressen (=Gerätschaften) möglich, bei acht Milliarden Menschen und der Möglichkeit, mehr als ein Gerät pro Person zu besitzen, ist ein Mangel vorprogrammiert. Durch die Aufstockung auf IP6 ist dieses Problem gelöst: 340 Sextillionen Adressen stehen nun zur Verfügung. Anders ausgedrückt: Seit der Entstehung unseres Planeten, geschätzt vor ca. 4,5 Milliarden Jahren, und bei der Vergabe einer Milliarde IP-Adresse pro Sekunde seit Anbeginn wären heute dennoch noch ausreichend IPv6-Adressen vorhanden. Mit der Einführung/Wandlung auf IP6 ist somit der Grundstein für eine nahezu unendliche Digitalisierung gegeben. Jede Person kann seine Wohnräumlichkeit, seinen Körper (Smart-Watches, Wearables etc.) sowie andere Lebensräume mit fast unendlich vielen technologischen Elementen verknüpfen. Wieder im eigenen Unternehmen angekommen – durch die Nutzung der Produkte und Services entstehen immense Datenmengen. Unternehmen sind momentan kaum mehr dazu in der Lage, diese Daten entsprechend zu strukturieren, auszuwerten und Informationen daraus abzuleiten geschweige denn, diese gewinnbringend einzusetzen. Dabei lässt sich das in den Rohdaten verborgene Wissen als enormer Wettbewerbsvorteil nutzen, um die Angebote abzustimmen bzw. zu optimieren. Eine Optimierung ist möglich, da anhand neu gewonnener Muster neue Erkenntnisse geschaffen werden können, welche zudem die Konkurrenz (noch) nicht erkoren hat - weswegen sie im Wettbewerb zurückfällt. Da kein Unternehmen der Schlussläufer sein möchte, sind Big Data und Business Intelligence in jedem größeren Unternehmen ein notwendiges Thema geworden. Kleinere Unternehmen haben hier oft nicht die technischen Möglichkeiten und auch nicht das Datenaufkommen. Dieses Bedürfnis nach Daten brachte findige Firmen auf den Markt, die Daten kaufen, entsprechend auswerten und die daraus gewonnen Informationen und Erkenntnisse an kleine wie auch große Unternehmen weiterverkaufen. Jedoch umfassen diese Daten nur eine Teilmenge und somit eine Wahrheit, jedoch nicht die Wahrheit, da sich Unternehmen hüten, die Daten ihrer Kunden und Transaktionen weiterzugeben – einerseits aufgrund datenschutzrechtlicher Belange und andererseits, und dies wiegt deutlich schwerer, weil dem Marktteilnehmer eine Sichtweise in das Unternehmen gewährt werden würde und die gewonnenen Erkenntnisse umso valider würden, je mehr Daten über den entsprechenden Marktteilnehmern generiert wurden. Das wiederum würde dazu führen, dass viele Unternehmen aussagekräftige Daten und Informationen hätten und eine Differenzierung nur schwer möglich wäre, da alle gleiche oder ähnliche gewinnbringende Maßnahmen setzen würden. Die Wettbewerbsvorteile wären damit sprichwörtlich „dahin“.
Umgekehrt gilt: Wem es gelingt, die wichtigen Daten, optimalerweise in Echtzeit, zu erkennen und als strategische Ressource zu verarbeiten, verschafft sich einen langfristigen Vorsprung im Wettbewerb. Customer: Die Sicht auf den Kunden reflektiert das vermutlich wichtigste Element in der digitalen Transformation. Der ständige, tägliche Umgang mit der digitalen Welt hat nicht nur die Nutzungsgewohnheiten maßgeblich verändert, er hat zudem auch einen gewaltigen Einfluss auf die Erwartungshaltung an die Unternehmen.
Ein Selbsttest für das eigene Smartphone-Verhalten wäre z. B. App Checky, verfügbar für Android und IOS, mit garantiertem Aha-Effekt für die Nutzenden. Die App zeichnet u. a. auf, wie oft das Smartphone am Tag verwendet, entsperrt und aktiv genutzt wird. Schätzen Sie vorab Ihre Daten. Am besten lassen Sie die Tests über einige Tage laufen, sodass das Handling unbewusst dem Realbetrieb angepasst wird und vergleichen Sie die prognostizierten Daten mit den ermittelten Daten.
Konsumenten werden heutzutage von einer unterbrechungsfreien Leistungserbringung hofiert und verwöhnt. Kunden wollen besagte Leistung zeit- und ortsunabhängig erleben und dies in entsprechender Qualität. Die Kundenloyalität wird in der heutigen Zeit auf die Probe gestellt, denn der Wechsel zu einer anderen Marke ist für den Kunden heute nur noch einen kurzen Klick entfernt. Ein bekannter Vertreter ist hierbei die Werbeschaltung von durchblicker.at – die beste Lösung und der Wechsel wird einfach, fehlerfrei und kostenlos realisiert. Das Kundenerlebnis wird damit zu einem, wenn nicht sogar zu dem Schlüsselfaktor für die Unternehmensstrategie. Governance: Die letzte Dimension, Governance, mit den Bereichen Steuerungs- bzw. Regelungssystem sorgt dafür, dass die zuvor erwähnten Dimensionen anhand der gewählten Strategie auch tatsächlich umgesetzt werden. Ein entsprechend eingerichtetes Reporting und eine Kommunikationsstrategie sind hier u. a. notwendig. Ebenso benötigt es Policies, Regeln und Prozeduren. Regelmäßige Audits sorgen für eine regelmäßige Reflexion aller Schritte. Die Koordination aller Maßnahmen ist hier ebenso inkludiert wie die Entscheidungsfindung an sich. Eingebettet ist hier auch das Riskmanagement und – last but not least – der Change-Prozess, mit dem alles steht und fällt.
Zusammengefasst bedeutet die Bestimmung des digitalen Reifegrades eine aktuelle Diagnose im Voranschreiten der digitalen Transformation. Dies ist keine Einmalerhebung, sondern bedarf in allen Elementen regelmäßiger Updates sowie einem permanenten Abgleich zwischen den internen Unternehmensgefilden und der digitalen Außenwelt mit all ihren Treibern wie neuen Technologien, Kunden, Mitbewerbern etc. Umsetzung Die dargestellten Dimensionen werden wie folgt operativ umgesetzt:
Zuerst werden Workshops und Interviews mit den Unternehmen durchgeführt und die Ergebnisse eines detaillierten Fragebogens ausgewertet. Für jede Dimension gibt es zwischen 10 und 15 Kriterien, die zum Teil branchenspezifisch abgestimmt und anschließend abgefragt werden. Die Beantwortung eines Kriteriums führt zu einer Bewertung zwischen 0 und 100 % bzw. ist es auch möglich, ein entsprechendes Scoring-Schema anzuwenden. Im nächsten Schritt wird der errechnete Score auf ein Netzdiagramm anhand der jeweiligen Dimensionen aufgetragen. Über die erhaltene Fläche wird der Digitalisierungsgrad festgelegt. Der nächste Schritt, und weit wichtiger als die reine Visualisierung, ist die Ermittlung der Standardabweichung. Diese dient der Erkenntnis darüber, ob Dimensionen untereinander stark voneinander abweichen. Anhand dieser Erkenntnis ist eine Adaptierung der schwach ausgeprägten Dimensionen notwendig, um eine effiziente Transaktion zu ermöglichen. Zusätzlich zur Auswertung werden Dimensionen-Scores anhand der Handlungsempfehlungen ermittelt, die zu einem nachhaltigen Anstieg des Scores in dieser Dimension führen.
4 Warum sich Führungskräfte neu erfinden müssen
4.1 Auswirkung auf das unternehmerische Humankapital
Die Auswirkung der Digitalisierung auf die Personalarbeit ist immens. In diesem Abschnitt des Skriptums umfasst dies alle Mitarbeiter gleichermaßen. Nicht gelebte humanitäre CSR erscheint als eine der größten Ängste des digitalen Zeitalters. „Ist mein Arbeitsplatz sicher?“ oder „Werde ich durch einen Computer ersetzt?“ – Dies sind nur einige Fragen in den Köpfen der Menschen in den heutigen Unternehmen. Es ist eine beängstigende, aber auch eine beeindruckende Vorstellung zugleich – vor Jahren noch reine Fiktion, heutzutage zum Teil schon Realität und in der Zukunft, wie es scheint, die Norm. Um die Auswirkung der Digitalisierung auf die Arbeitswelt aufzuzeigen, werden zwei Stellschrauben näher betrachtet: Zum einen die Auswirkung bzw. die Veränderung durch die Digitalisierung auf den Arbeitnehmer als Mensch und zum anderen die Auswirkung der Digitalisierung auf die Unternehmen, das Innenleben der Organisation und deren Protagonisten sowie weiterführend die tägliche Personalarbeit. Wichtig ist hierbei, dass beide Bereiche als Wechselspiel zu betrachten sind. Der Mensch ist die treibende Kraft im Unternehmen und Teilnehmer am dynamischen Arbeitsmarkt, aber umgekehrt beeinflussen Veränderungen in den Unternehmen auch die Menschen. Der Mitarbeiter ist aufgrund seines Wissensträger-Daseins die wohl wichtigste Ressource im Unternehmen. Die größte industrielle Revolution aller Zeiten scheint mit der Digitalisierung eingeläutet zu sein. Wissensarbeit ist hierbei die wohl wichtigste Fähigkeit im digitalen Zeitalter.
Früher wie heute sind das Wissen und der Drang zum Neuen wichtig. Es geht darum, Konzepte und Strategien zu entwickeln, um mit den technischen Möglichkeiten optimal umzugehen und Potenziale bestmöglich auszunutzen. Diese Konzepte können von keinem Computer bzw. Roboter kommen. Somit rückt der Mensch als Stratege und Visionär in den unmittelbaren Fokus. Daraus ergeben sich aber auch Anforderungen an die Mitarbeiter. Ein Nebeneffekt der Digitalisierung ist, dass das gesamte Unternehmen von der Informationstechnologie durchzogen ist. Auf der einen Seite setzt dies eine Affinität des Mitarbeiters zur Technik voraus, aber auf der anderen Seite ist es von Unternehmensseite her wichtig, die Mitarbeiter zu schulen. Schulungen helfen, Kompetenzen aufzuwerten bzw. zu erlangen. Jedoch ist das Problem häufig, dass bei manchen Personen aufgrund von Alter, Historie, Ausbildung und Werdegang wenige bis keine IT-Skills vorhanden sind. Hier vermag auch die beste Schulung keine Wunder zu bewirken. Dann stellt sich bereits hier die Frage nach einer Zwei-Klassen-Gesellschaft und ob das fehlende IT-Wissen einem K.O.-Kriterium gleichkommt, welches kurz- oder langfristig in einen Jobverlust mündet, da eine Weiterentwicklung für die neue Herausforderung nicht ertragreich wäre bzw. die Chance für einen Jobeinstieg gar nicht gegeben zu sein scheint.
Humanitäre Coporate Social Responsibility ist somit einerseits ein wesentlicher Punkt für Führungskräfte und andererseits noch wichtiger für das Digital Leadership auf Unternehmensebene, welchem weit mehr Fokus und Energie zukommen sollte. Interne Kommunikation über das Smartphone ist heutzutage gewöhnlich. Vor einigen Jahren war sie noch ein ironisches Zeichen der „Wichtigkeit“ von Personen – damals ein kleiner Vorgeschmack, heute selbst im Vorschulalter kein Grund, die Augen zu verdrehen. Das Unternehmen muss die Mitarbeiter darin unterstützen, sich den neuen Rahmenbedingungen anzupassen. Diese Anpassung fordert aber auch einiges von den Mitarbeitern. Das lebenslange Lernen wurde von einer freiwilligen Ausprägung zu einem Pflichtgegenstand. Dass ein Beruf in drei bis vier Lehrjahren erlernt und ca. 40 Jahre ausgeübt werden kann, ist in der digitalen Neuzeit undenkbar geworden. Selbst die Aussage „Die Ausnahme bestätigt die Regel“ ist hier bereits schwer zu validieren.
Ständig wechselnde Arbeitsbedingungen bedeuten, dass das Lernen, um sich anzupassen, niemals endet. Ein zentraler positiver Aspekt für die Mitarbeiter ist die mittlerweile deutlich einfachere Möglichkeit zur Vereinigung von Beruf und Familie. Die Chancen der Digitalisierung geben dem Mitarbeiter etwa die Gelegenheit für flexible Kinderbetreuung, Arbeiten von zuhause aus und Zeit mit der Familie in der Arbeitszeit. Das Ende der klassischen „nine-to-five"-Arbeitszeit ist eine grundsätzlich positive Neuerung, welche u. a. die oben erwähnten Ausprägungen ermöglicht. Jedoch: Wo Licht, da ist auch Schatten. Allgegenwärtige Erreichbarkeit, Arbeiten im Urlaub, absehbares Burn-out durch permanenten Stress bzw. durch das „Nicht-Mehr-Abschalten-Können“ sind die andere Seite der Medaille. Die Ironie hinter dem Terminus „nicht-abschalten“ kann als wahrgewordene Analogie gesehen werden: Ist die technische Gerätschaft nicht ausgeschaltet, ermöglicht dies gleichermaßen nicht das Entkoppeln des Kopfes vom Berufs- in den Freizeitmodus.
Die fortschreitende Abhängigkeit von digitalen Geräten kann sich auch im Selbsttest schnell zeigen, wenn etwa das Smartphone bzw. ein anderes Arbeitsgerät, welches sich grundsätzlich in unmittelbarer Nähe und im ständigen Stand-bye-Modus befindet, für eine gewisse Zeit bzw. am Wochenende ausgeschaltet wird. In aller Regel sollte die Entspannung steigen, jedoch wird eher das folgende unmittelbare Ergebnis eintreten: Der Distress, die Anspannung und die Furcht, etwas zu versäumen, werden aller Wahrscheinlichkeit nach ansteigen. Ein digitaler Teufelskreis beginnt. Zielorientiertes Arbeiten und zielgerichtete Kommunikation, größere räumliche Isolation und flexiblere Arbeitszeiten fordern also neue, gemeinsame Zielvereinbarungen und Wege hin zur eigenständigen Selbstorganisation. Dabei darf das Verfolgen der Unternehmensziele wie auch der gemeinsamen Vision nicht aus den Augen verloren werden. Die Organisation muss sich ebenso verändern. Moderne Mitarbeiter und fortschrittliche Techniken verpuffen ohne Anpassung der unternehmensinternen Prozesse sowie ohne angewandte Modelle und Führungsstile. Die Trennung zwischen Privatzeit und Arbeitszeit ist oft verschwommen und je nach Tätigkeiten gar nicht zu fixieren, da dadurch die Effizienz deutlich sinken würde. Klassische Modelle berücksichtigen solche Aspekte ebenso wenig wie Regelungen zu Pausen zwischen zwei Arbeitstagen. Neben den Unternehmen muss auch der Gesetzgeber hier umdenken. Überhaupt ist es das Wichtigste von Organisationsseite, Prozesse flexibler zu gestalten. Der 12-Stunden-Tag ist ein Versuch, etwas flexibler agieren zu können, jedoch zeigen sich bereits hier, neben der gewonnenen Flexibilität, auch entsprechende Schattenseiten aufgrund von Missbrauch und Druckausübung. Ein Bewerbungsprozess sollte sich an den Bedürfnissen der Arbeitnehmer ausrichten. Zudem sollte er individuell und flexibel sein, um den bestmöglichen Output zu liefern. Die Organisation hat hierbei jedoch noch viel ungenutztes Potenzial. Big Data ist im Bereich der Personalarbeit bislang eher stiefmütterlich behandelt worden, hätte aber speziell für das Personalwesen – sei es für die Weiterentwicklung, das Employer Branding oder auch für das Recruiting – enorme Nutzungsmöglichkeiten.
Durch die Digitalisierung werden zudem große Teile oder oftmals ganze Arbeitsbereiche durch computergestützte Maschinen und Roboter auf kurz oder lang ersetzt werden. Das betrifft alle Bereiche, die sich komplett automatisieren lassen. Aktuell wird viel Arbeit und Schweiß investiert, um herauszufinden, welche Bereiche dies sind und ob sie einen selbst betreffen. Die Antworten sind hier sowohl mikro- wie auch makroökonomisch von Belang. Die Ausbildungsoffensive der Regierung und persönliche Weiterbildung sind nur zwei Ausprägungen. Ersetzen wird der Roboter den Menschen jedoch niemals komplett – eine Hypothese, spannend wie furchteinflößend zugleich. Aus der Sicht des Autors gilt dies für die nächsten Jahre, danach müssen die Beantwortung und die Prognose erneut in Frage gestellt werden. Am eigenen Ast sägen ist hierbei eine Metapher mit Nachbrenneffekt. Wissensarbeit und konzeptionelle Arbeit ist in Zeiten der Digitalisierung von Bedeutung wie nie zuvor. Der Mensch als Denker und Visionär ist das Zukunftsbild des Arbeitnehmers im neuen digitalen Zeitalter. Ein Seitenhieb auf die Gültigkeit dieser Aussage ist durch die Künstliche Intelligenz gegeben, die bereits heute dazu in der Lage ist, eigenständig Lieder zu komponieren und Kinderbücher zu schreiben.
4.2 Anforderungen an das Humankapital
Die Anforderungen der modernen Personalarbeit lassen sich in drei Teilbereiche aufgliedern:
• Personalentwicklung,
• New Work,
• Agilität.
Der Entwicklung des Personals als nachhaltiges Gut im Unternehmen kommt hierbei besondere Beachtung zu. Die Digitalisierung verändert unsere Arbeitsbedingungen mittlerweile permanent. Nicht nur die EDV-Abteilung, sondern alle Teilbereiche des Unternehmens werden von der Informationstechnologie sprichwörtlich in ihren Bann gezogen. Die Digitalisierung von jeglichen Prozessen, ungeachtet, ob es sich hierbei um wertschöpfende, unterstützende oder managende Prozesse handelt, fordert im Unternehmen das Lernen des Mitarbeiters wie auch gleichermaßen das der Geschäftsführung. Das Unternehmen muss hier zur Seite stehen und primär im Bereich der Personalentwicklung unterstützend tätig werden. Es wird in Zukunft kaum eine Stelle im Unternehmen mehr geben, die sich innerhalb von fünf bis zehn Jahren nicht gänzlich verändert. Die Ausbildung, das Studium wie auch der Lernprozess bei der Arbeit werden in der Realität dementsprechend nie zu Ende gehen. Ein Status, ein Zertifikat, eine akademische Ausbildung etc. wie auch entsprechende Kenntnisse und Fähigkeiten werden als aktuelle Blitzlichter gesehen, welche für den Moment und für die nahe Zukunft Gültigkeit haben, jedoch in absehbaren Intervallen hinterfragt und nachgebessert gehören. Die Folge sind Anforderungen an Mitarbeiter und Unternehmen zugleich. Von dem Mitarbeiter fordert dies die Bereitschaft zum lebenslangen Lernen. Es muss Teil des Bewusstseins werden, dass es keinen Zustand gibt, in dem alles für den Rest des Arbeitslebens erlernt ist und folgend einfach der Alltag abgearbeitet werden kann. Von Unternehmensseite bedeutet dies hingegen eine große Verantwortung im Bereich der Personalentwicklung. Das Unternehmen darf die Veränderung der Digitalisierung nicht ohne den Mitarbeiter vollziehen. Der Mitarbeiter muss aktiv in den Prozess miteinbezogen werden. Diese aktive Teilnahme geht deutlich weiter als eine neue Schulung oder eine neue Software im Unternehmen. Umso mehr ein Unternehmen es schafft, den Mitarbeiter als aktiven Teil der digitalen Transformation zu sehen, desto eher wird die digitale Transformation als Gesamtes vorangetrieben. Der zweite Bereich ist das Thema New Work. New Work ist eine moderne Begrifflichkeit, die heutzutage oft in Verbindung mit moderner Führung genannt wird. New Work ist ein Konzept, das die Veränderung der Arbeit an sich und die daraus resultierenden Anforderungen an das HR beschreibt. New Work basiert auf Forschungsarbeiten von Frithjof Bergmann. Kern des Konzeptes ist das In-den-Vordergrund-Rücken der Aspekte Mitarbeitermotivation, Kreativität und Innovation. Unternehmensstrukturen und Arbeitsräume haben sich diesen Aspekten anzupassen. Die Folge ist ein Wertewandel zu Werten wie Selbstständigkeit, Freiheit und Teilhabe an der Gesellschaft. Das Unternehmen steht hier vor der Herausforderung, den Mitarbeitern selbstbestimmtes Handeln, Mobilität und weitere Modelle der Zukunft zu ermöglichen. Der Mitarbeiter soll die Möglichkeit bekommen, sich in der innovativen Organisation der Zukunft selbst einzubringen und zu verwirklichen. Das Unternehmen muss auf diesen Ansatz vorbereitet und ausgerichtet sein. Eine lasche, kaum gelebte Umsetzung eines aktuellen „Trends“ ist hier allerdings kaum von Erfolg gekrönt und richtet bei einer halbherzigen Umsetzung mehr Schaden und Verwirrung als Nutzen für die Zielerreichung an.
Der dritte Bereich ist mit dem Begriff Agilität recht unklar beschrieben bzw. bleibt das Gemeinte meist im Verborgenen und lädt zum Interpretieren ein. Somit stellt sich die Frage: „Was genau ist damit gemeint?“. Viele kennen diesen Begriff aus der Produktentwicklung in Verbindung mit Frameworks wie z. B. Scrum, Kanban und anderen Vertretern des agilen Wesens. Auch für den Bereich des Personals bedeutet die Zukunft ein Umfeld, in dem sich Rahmenbedingungen ständig ändern. Prozesse, die alles vorschreiben, und eine Vielzahl von Regeln sind in Zeiten einer komplexen Welt unmöglich. Zielvereinbarungen für ein komplettes Jahr mit einem Mitarbeiter durchzuführen, funktioniert im digitalen Zeitalter kaum. Auch in der Personalarbeit ist hier dementsprechend ein Umdenken gefragt. Agile Methoden wie Management 3.0 oder OKR sind die Modelle der Zukunft des Personals.
4.3 Die agile Personalarbeit
Agile Personalarbeit ist das Fundament, welches effektive Führung im Operativen ermöglicht und Digital Leadership den notwendigen Raum zur Entfaltung und Veränderung gibt. Doch wie kann Personalführung den Anforderungen an das heutige Zeitalter gerecht werden? Ein zentral wichtiger Aspekt der agilen Personalarbeit ist das Wegfallen vom sogenannten Abteilungsdenken bzw. eine gelebte Prozessorientierung querfeldein im Unternehmen. Moderne Arbeit muss schnell reagieren können und nah am Markt bzw. am Kunden ausgerichtet sein. Die Lösung dafür sind selbstorganisierende Bereiche, Einheiten und Teams. Selbstorganisierende Teams sind kostfunktional aufgestellt. Das bedeutet, diese Teams besitzen alle notwendigen Kompetenzen, um ihre Arbeit selbstorganisierend zu erfüllen. Die Folge solcher Teams sind unmittelbare Marktnähe, eine Entlastung der Führungskraft und ein hohes Commitment die eigene Arbeit betreffend. Ein Team fühlt sich mit seinen erbrachten Leistungen deutlich mehr verbunden, wenn es für diese selbstorganisierend verantwortlich ist. Außerdem bringt diese Form eine deutliche Zeitersparnis mit sich. Viele Warteschleifen, weil die Führungskraft als Wissensträger fungiert, entfallen hierdurch. Selbstorganisierende Teams ergeben dementsprechend mehr Motivation, schnellere und qualitativ höhere Ergebnisse und mehr Commitment des Teams für die eigene Arbeit.
Der zweite wichtige Punkt ist Transparenz. Der Wandel zu einer agilen Personalarbeit ist ein Wandel der Unternehmenskultur und Transparenz ist eine der wesentlichen Aspekte agiler Methoden. Transparenz in Verbindung mit moderner Personalarbeit bedeutet auch, einen Überblick darüber zu bekommen, welche Abteilung, welches Team oder welcher Mitarbeiter gerade woran arbeitet. Neben Vertrauen entstehen wertvolle Synergien, die wiederum mehr Flexibilität und ein höheres Tempo mit sich bringen. Transparenz hilft, weg vom Abteilungsdenken und hin zu einem Verständnis des gesamten Unternehmens mit einem gemeinsamen Ziel zu kommen.
Der dritte Punkt sind kurze Iterationen. Auch Personalführung muss eng an den Markt und andere Rahmenbedingungen angelegt sein. Beide sind so schnelllebig und dynamisch, dass ein Unternehmen die Möglichkeit haben muss, schnell zu reagieren. Die Möglichkeit, sich in wechselnden Rahmenbedingungen schnell anzupassen betrifft jeden Bereich des gesamten Unternehmens und ist somit ein zentrales Thema der Personalführung.
Es stellen sich u. a. folgende Fragen:
• Was bedeuten diese Aspekte jetzt für die Führung?
• Gibt es in Zeiten von Selbstorganisation überhaupt noch Führung?
• Wie hat Selbstorganisation auszusehen?
Führung ist im Wandel. Unterschiedliche Modelle sind im Einsatz – neu, alt, Mischformen. Die Prämisse „Ein Unternehmen, ein Führungsansatz“ ist nicht realistisch und auch kaum realisierbar. Schlussendlich wird Führung durch Mitarbeiter und durch unterschiedliche Charaktere gelebt, somit ist ein und derselbe Führungsansatz augenscheinlich gleich, aber in gelebter Praxis zum Teil auch verschieden. Doch ganz gleich, ob Fremd- oder Selbstorganisation, Führung wird es immer geben.
Nur erlebt die Führung zurzeit eine Revolution. Hieß Führen früher das Vorgeben von Regeln und Vorgehensweisen und vor allem, Wissensträger zu sein, bedeutet moderne Führung das Vorgeben des „big pictures“ der Daseinsberechtigung des Unternehmens sowie dessen Vision.
Das Leitbild ist in diesen Zeiten so wichtig wie noch nie zuvor. Damit ein Unternehmen mit selbstorganisierten Teams in die richtige Richtung läuft, benötigt es eine gemeinsame Vision, einen gemeinsamen Stern, dem alle folgen. Die Führung ist dafür verantwortlich, das Leitbild zu entwerfen und es im Unternehmen zu kommunizieren. Diese Art von Führung wird sehr oft in Verbindung mit der transformationalen Führung genannt, also einer Führung über Werte und Einstellung. Die Führungskraft versucht bei der transformationalen Führung Vision und Leidenschaft für eine Zukunft zu vermitteln, die die Mitarbeiter intrinsisch motiviert. Die Führungskraft ist hier als eine Art Vorbild zu sehen, dem unbedingt gefolgt werden will. Transformationale Führung und agile Führung sind eng verwandt und bilden damit die Basis für eine perfekt ausgerichtete Personalarbeit in Zeiten der digitalen Transformation.
4.3.1 OKR – Das Framework für modernes HR
Ein Vertreter der modernen Personalarbeit ist das Framework OKR. OKR steht für „Objectives and Key Results“ und ist ein Framework, das ein so klassisches Thema wie Zielvereinbarung mit moderner agiler Personalführung verbindet. Es ist bereits in den siebziger Jahren bei Intel von Andrew Grove entwickelt worden.
Am Anfang hatte das OKR-Framework große Ähnlichkeiten mit dem Management-by-Objectives-Framework. Mitte der neunziger Jahre setzte Google gleich zu Beginn seiner Geschichte diese Methode zur modernen Personalführung ein und entwickelte es deutlich weiter. Mittlerweile gilt OKR als Standard der Personalführung in agilen Kontexten.
Elemente und Funktionsweise
• Objectives: OKR teilt Ziele in Objectives und Key Results auf. Objectives sind auf der einen Seite visionär und emotional. Sie haben noch nichts mit messbaren Elementen zu tun. Sie sollen den Mitarbeiter dazu motivieren, einer Richtung zu folgen. Eine Objective kann für einen aufstrebenden Fußballer der Wunsch sein, der neue Ronaldo/Messi etc. zu werden. Das klingt visionär, begeisternd und gibt der harten Arbeit einen sinnerfüllenden Zweck.
• Key Results sind auf der anderen Seite dafür zuständig, die Objective messbar zu machen. Key Results zeigen auf, was es zu tun gilt, um dem großen Ziel, der Objective näher zu kommen. Der Fußballer könnte sich z. B. das Key Result bei „100 Meter in unter zwölf Sekunden“ oder „80 % gewonnene Zweikämpfe“ festlegen. Key Results klingen bewusst nicht mehr so heroisch, denn sie dienen schlussendlich dem Zweck, festzulegen, was getan werden muss. Die Begeisterung wird durch die Objective ausgelöst und am Leben gehalten. Key Results zeigen die Route. Was aber sind die Elemente, weswegen OKR ein gutes Vorbild und eine beliebte Methode für moderne Personalführungist? Die Elemente von OKR sind zu unterteilen in Rollen, Events und Artefakte.
Rollen: Der OKR-Master trägt die entscheidende Rolle im OKR-Framework. Der OKR-Master ist der Coach im Unternehmen. Er ist Experte für den Prozess und somit auch zentraler Ansprechpartner für jeden Mitarbeiter für das Thema OKR. Darüber hinaus coacht er die Mitarbeiter aber auch aktiv. Er sieht, an welcher Stelle er noch aktiv unterstützen und wo er ggf. noch Hindernisse beseitigen muss. Der OKR-Master passt perfekt zur modernen Führungskraft im Sinne eines Servant Leaders. Das Wirken von Führenden als Dienst am Geführten ist die Schlüsselrolle für eine gelungene Einführung von OKR.
Events: Im OKR gibt es mehrere Events, die fester Bestandteil des Frameworks sind. OKRs entstehen durch die Mitarbeiter selbst. Das Erfolgsrezept besteht aus OKR-Workshops, dem ersten Event. Die Workshops werden vom OKR-Master moderiert, der mit seiner Coaching-Erfahrung und einem geschickten Mix aus Moderationstechniken den Workshop zu einer Ideenoase für den kommenden Unternehmenszyklus macht. Die OKR-Workshops gibt es auf Unternehmens-, Team- und Mitarbeiterebene. Das zweite Event ist das Review. Am Ende eines Zyklus werden im OKR-Review die OKR ausgewertet. Damit nach jedem Unternehmenszyklus überprüft werden kann, wie erfolgreich dieser war, gibt es das Review als institutionalisiertes Event. Zudem gibt es während des Unternehmenszyklus regelmäßige Reviews, um zu überprüfen, ob sich alle noch auf dem richtigen Weg befinden.
Das dritte Event ist die Retrospektive. Am Ende des Unternehmenszyklus bekommt das Team die Gelegenheit dazu, zu überprüfen, wie der OKR-Prozess bereits adaptiert wurde oder wo noch Herausforderungen bestehen, die es zu lösen gilt. Für den OKR-Master ist dieses Event das Herzstück des Frameworks. Er bekommt die Gelegenheit, Hindernisse zu entdecken und dem Team dabei zu helfen, sich selbst zu verbessern.
Artefakte: Im OKR-Framework gibt es ein ganz entscheidendes Artefakt: Die OKR-Liste. Die OKR-Liste bildet alle OKRs ab, ungeachtet dessen, ob sie auf Unternehmens-, Team- oder Mitarbeiterebene sind. Wichtig dabei ist, dass die OKR-Liste übersichtlich und intuitiv zu bedienen ist. Der Mitarbeiter soll mindestens einmal täglich mit ihr in Berührung kommen. Die OKR-Liste soll Ausgangspunkt für eine zielgerichtete Kommunikation im gesamten Unternehmen sein. Diese Rollen, Events und Artefakte machen OKR zu dem Standard für moderne und agile Personalführung in Zeiten der Digitalisierung. Vorreiter der Digitalisierung wie Google, Twitter, LinkedIn, Airbnb, Uber etc. nutzen OKR bereits seit längerer Zeit und sind nicht zuletzt deshalb zu den Gewinnern der digitalen Transformation zu zählen.
4.3.2 Die neue Führungskraft
Die Digitale Transformation und die damit verbundene Revolution in der Personalführung bedeuten im nächsten Schritt ein völlig neues Verständnis der Rolle der Führungskraft. Die moderne Führungskraft wird häufig im Zusammenhang mit dem Begriff des Servant Leaders genannt. Servant Leadership entfernt sich komplett von dem Gedanken einer Führungskraft, die dem Mitarbeiter vorschreibt, was er zu tun hat. Servant Leadership stellt die Interessen der Mitarbeiter und der Gruppe in den Fokus. Führung ist demnach die Ausrichtung der Führungskraft auf die Bedürfnisse der Mitarbeiter. Der Ansatz stammt aus den Siebzigerjahren von Robert Greenleaf. Die Führungskraft dient dem Mitarbeiter, das bedeutet, sie hilft ihm, Probleme zu beseitigen, nimmt sich seine Interessen zu Herzen und begleitet ihn auf dem Weg zur Selbstorganisation. Im Rahmen der agilen Personalführung begleitet die Führungskraft den Mitarbeiter auf dem Weg, agile Methoden wie OKR, Scrum o. Ä. zu verinnerlichen.
Auf diesem Weg handelt die Führungskraft in fünf Feldern:
1. Erkennen,
2. Feedback,
3. Erziehen,
4. den Weg erleichtern,
5. Support.
Erkennen: Im Bereich des „Erkennens“ ist es das Wichtigste für die Führungskraft, mit offenen Augen und Ohren durch das Unternehmen zu gehen. Der Servant Leader muss aktiv erkennen, wo er seine Mitarbeiter oder sein Team am besten unterstützen kann. Außerdem ist es für die Führungskraft wichtig, einen eigenen Eindruck darüber zu bilden, wie der Reifegrad des Teams auf dem Weg zur Selbstorganisation (nicht zu verwechseln mit dem Reifegrad der Digitalisierung) ist. Schließlich genügt es nicht, einem Team zu sagen, es soll ab jetzt selbstorganisiert arbeiten. Feedback: Damit sich ein Mitarbeiter oder ein Team weiterentwickeln kann, benötigt es Feedback. Die Führungskraft als Servant Leader ist dafür verantwortlich, klares, wertvolles Feedback zu geben.
Erziehen: Mit Erziehen ist nicht gemeint, Regeln aufzustellen, sondern zu demonstrieren, wie Selbstorganisation am besten funktioniert. Das macht die Führungskraft über das Vorleben eigener Selbstorganisation, wie auch durch das Vergleichen mit anderen Teams. Auch das Abhalten von Sessions oder die Organisation von Trainings gehört in diesen Bereich. Den Weg erleichtern: Einer der zentralen Aufgabenbereiche der modernen Führungskraft ist es, dem Mitarbeiter oder dem Team die optimale Rahmenbedingungen zu schaffen. Das kann bedeuten, den optimalen Teamraum zu schaffen, die Kommunikationsmöglichkeiten zu verbessern und/oder etwas komplett Anderes wie z. B. das Bereitstellen von Getränken, Spielgerätschafen wie einen „Wuzzler“ (Fußballtisch) und andere aktivierende sowie ablenkende, jedoch zugleich fokussierende, gemeinschaftsfördernde „Zeitvertreibe“.
Support: Mit dieser Tätigkeit hilft die Führungskraft dabei, alle Hindernisse und Störungen zu beseitigen. An dieser Stelle zeigt sich der Gedanke des Servant Leaders sehr deutlich. Die Führungskraft stellt sich komplett in den Dienst des Mitarbeiters oder des Teams und ist stark darum bemüht, Störungen zu beseitigen. Genau dies könnte das „Zünglein an der Waage“ sein, welches über den Erfolg oder das Scheitern einer digitalen Transformation entscheidet. Die Schlüsselfigur ist demnach die Führungskraft. Wird ausschließlich auf klassische Ansätze und Modelle beharrt, ohne die erwähnte Veränderung und das eigene Hinterfragen des Stils anzustreben, so gelingt die Digitalisierung bzw. die digitale Transformation hingegen nicht oder schlägt zum Teil fehl. Dieser Fehlschlag relativiert wiederum die davor realisierte Digitalisierung und das gesamte Vorhaben wird demnach obsolet. Aus diesem Grund werden in den verbleibenden Kapiteln die Person der Führungskraft, deren Wichtigkeit als Stellschraube in der digitalen Transformation sowie bewährte Führungsstile kritisch betrachtet. Vorweg soll aber das Folgende gesagt werden: Ein vollständiger Wechsel des Führungstypus Mensch wie auch der etablierten Führungsstile ist (noch) nicht notwendig. Jedoch sind eine Adaptierung, Veränderung wie auch Ergänzung gepaart mit einer starken Selbstreflexion und dem Willen zur Einsicht und Veränderung notwendig. Als Support zählt hierbei auch, das Team zu ermutigen, wenn es Probleme hat, den eingeschlagenen Weg zur tiefgreifenden Veränderung weiterzuverfolgen.
Damit die Führungskraft die genannten fünf Handlungsfelder optimal bedienen kann, ist vor allem eines gefragt:
>>> Zuhören <<<
Obwohl es einfach klingt, ist gutes Zuhören gepaart mit der richtigen Fragestellung, mit einem gewissen Gespür und einer aufrichtigen Interessensbekundung harte Arbeit und eher die Ausnahme als die Regel. Die Führungskraft muss viel Vertrauen zu ihren Mitarbeitern aufbauen. Das Zuhören und vor allem, die richtigen Fragen zu stellen, stellen dabei den entscheidenden Faktor dar. Der Mitarbeiter darf keinen Zweifel daran haben, dass sich die Führungskraft dem Wohl verpflichtet. Auf dem Weg, einen Mitarbeiter oder ein Team zu begleiten, wird die Führungskraft mit dem ein oder anderen Problem konfrontiert werden. Um diese „Impediments“ zu beseitigen, hat sich ein Coaching-Zyklus etabliert, der sehr erfolgsversprechend Probleme angeht.
Der Coaching-Zyklus lautet: Problem-Option-Experiment-Review.
• In diesem Coaching-Zyklus wird zunächst ein Problem erkannt. Existieren mehrere Probleme, ist es entscheidend wichtig, die vorhandenen Probleme zunächst zu priorisieren und sich dann auf die wichtigsten Aspekte zu konzentrieren.
• Im zweiten Schritt werden Optionen diskutiert, die das Problem lösen können. Optionen werden im Zusammenhang mit verschiedenen Hypothesen formuliert, die das Problem lösen sollen.
• Im dritten Schritt werden feste Experimente aus den Optionen definiert, die ausprobiert werden.
• Im letzten Schritt wird dann im Review darauf zurückgeblickt, ob das Problem durch das Experiment gelöst wurde. Dabei ist es wichtig, dass nicht nur überprüft wird, ob das Experiment richtig durchgeführt wurde, sondern vor allem, ob die gewünschte Hypothese, also Verbesserung, eingetreten ist. Zusammenfassend heißt das: Zunächst werden Probleme erkannt, priorisiert und fokussiert. Der anschließende Diskurs wird durch Hypothesen definiert. Experimente werden praktiziert und abschließend auf Tauglichkeit und neue Erkenntnisse geprüft.
5 Neue Methoden für den digitalen Wandel
Durch die zunehmende Geschwindigkeit, mit der heutzutage Geschäftsideen vor allem im digitalen Bereich realisiert werden, gepaart mit der schnell voranschreitenden technischen Entwicklung befinden sich Unternehmen zum Teil auf fremden Terrain. Damit sie während des Vortastens in das neue Gebiet schnell und flexibel agieren können, nutzen Digitalunternehmen die agilen Arbeitsmethoden in Verbindung mit digitaler Expertise. Bei einer agilen Arbeitsmethode wird iterativ vorgegangen. Dies bedeutet, dass nicht nur das Ziel, sondern auch die Veränderung auf dem Weg als integrales Element eingeschlossen wird. Inkrementelles und iteratives Vorgehen beschreiben ein Vorgehen in nacheinander folgenden Iterationen, ein Verfahren der schrittweisen Annäherung an die exakte oder endgültige Lösung. Eine Iteration ist eine zeitlich und fachlich in sich abgeschlossene Einheit.
Ähnlich wie für einen Entdecker beim Vordringen auf neues Terrain, steht für den agilen Wissensarbeiter am Anfang eine Vision. Diese verfolgt er Schritt für Schritt. Dabei bezieht er stetig Erkenntnisse aus seinem Umfeld mit ein, das er täglich erkundet. Interdisziplinäre Teams bringen unternehmensintern eine möglichst breite Perspektive mit ein, außerdem beziehen sie Kunden und Stakeholder sehr früh mit ein und legen auch auf deren konstantes Feedback Wert. Eine ausreichende digitale Expertise ermöglicht es, digitale Tools zu nutzen und so Ideen schnell, kostengünstig und unkompliziert zu entwickeln und zu testen. Auf diese Weise kann schnellen Schrittes unbekanntes Terrain erobert werden. Damit dies gelingt, bedarf es einer offenen Entdeckerhaltung, die vielmehr mit offenen Fragen als mit Antworten arbeitet. Das offene Mindset ist in diesem Ansatz die entscheidende Grundhaltung. Dazu gehören eine flexible Organisationsform, agile Arbeitsansätze, die eine hohe Experimentierfreudigkeit fördern, Transparenz in der Information und Kommunikation sowie eine Bereitschaft, ständig zu lernen. Im Ergebnis stehen sogenannte agile oder responsive Organisationen. In Kombination mit einem hohen Grad an Selbstmanagement der Mitarbeiter erreichen Organisationen mit wenig ausgeprägter Hierarchie das, was Frederik Laloux als „Teal Organization“ bezeichnet. Vorstände und Führungskräfte müssen dafür sorgen, dass das Unternehmen die digitale Kompetenz stetig auf- und ausbaut, um neue Wachstumspotenziale zu entdecken und im Wettbewerb zu bestehen. Um die digitale Transformation zu schaffen bzw. zu unterstützen, sei es bei der Ideenfindung von neuen Produkten und Dienstleistungen, bei der Projektumsetzung wie auch bei der Mitarbeiterfindung und -führung oder auch in schwierigen Situationen, werden bereits vorhandene Konzepte mit gangbaren und mittlerweile etablierten Konzepten ergänzt.
5.1 Management 3.0
Eine mögliche Lösung bzw. ein Teil der Lösung für die neuen Herausforderungen aufgrund der veränderten Bedingungen ist die Management 3.0-Bewegung von Jürgen Appelo. Management 3.0 beschäftigt sich mit der Entwicklung von Teams und komplexen Systemen bzw. mit dem Aufeinandertreffen dieser Einheiten. Unternehmen, die mit neuen, agilen Methoden dem digitalen Zeitalter gerecht werden wollen, erleben bei der Einführung eine Art Revolution der Unternehmenskultur. Das Management und die Führungskräfte tragen bei diesem Change-Prozess die Schlüsselrollen. Digitale Transformation bedeutet bei Management 3.0 also auch eine Revolution im Führungsverhalten.
Hinsichtlich des Aspekts der Schlüsselrollen der Führungskraft und des Managements und der Revolution im Führungsverhalten wird schnell deutlich, wie wichtig es ist, dass Führungskräfte als Motor des Wandels vorangehen und zu den Ersten gehören, die diesen Change-Prozess durch ihr Führungsverhalten aktiv mitgestalten.
Übungsaufgabe 1: Stellen Sie sich vor, Sie wollen in Ihrem Unternehmen eine innovative agile Methode wie z. B. Scrum etablieren. Der Grund hierfür: Die Digitalisierung schreitet voran und um daraus eine erfolgreiche Transformation zu machen, bedarf es auch Änderungen bei den Herangehensweisen. Jedoch sind in diesem Unternehmen einige Führungskräfte, die selbst den Eindruck vermitteln, einem Wandel kritisch gegenüberzustehen, da sie womöglich selbst klassische Werte wie Kontrolle oder auch die Vorgabe von Regeln und Prozessen aktiv vorleben. Mitarbeiter antizipieren solch ein Verhalten grundsätzlich sofort. Da Mitarbeiter aus intuitiven Gründen einem Wandel anfangs immer kritisch gegenüberstehen, würden sie das Verhalten der Führungsperson als Chance nutzen, vor Neuem zu flüchten oder das Neue nicht zu unterstützen – es sei denn, die Führungskräfte unterstützen diesen Wandel wirklich zu 100 %. Damit genau dieses Szenario nicht entsteht, müssen die Führungskräfte am besten sofort anfangen, auf neue agile Personalführung zu setzen.
Management 3.0 beschreibt, wie die Führungsrolle im neuen, digitalen Unternehmen aussehen sollte. Somit passt Management 3.0 perfekt zu anderen Frameworks der agilen Personalführung wie die bereits vorgestellten Objectives and Key Results bzw. OKR.
Management 3.0 nennt sechs Teilbereiche, auf die sich die moderne Führung konzentrieren sollte. Diese sind:
1. Menschen anregen,
2. Rahmen schaffen,
3. Teams befähigen,
4. Kompetenz aufbauen,
5. Strukturen entwickeln,
6. Alles verbessern.
Menschen anregen: Nicht erst jetzt, aber primär inmitten eines Wissenszeitalters wird deutlich, dass die Menschen der entscheidende Teil im Unternehmen sind. Außerdem sind Menschen keine Ressource wie eine Maschine oder ein Rohstoff, sondern selbst komplexe Lebewesen. Die Aufgabe des Managements muss hier sein, Menschen dazu zu motivieren, Leistung zu erbringen. Dabei sollten die Führungskräfte auf die Wünsche der Mitarbeiter, die individuelle Personen und oft nicht mit dem Unternehmen vereinbar sind, eingehen. Ein wichtiger Stichpunkt ist hier die intrinsische Motivation. Intrinsische Motivation ist die Art von Motivation, die entsteht, weil der Mitarbeiter Spaß an seiner Arbeit hat. Sie ist das Gegenteil von extrinsischer Motivation, die auf materiellen Einflüssen wie dem Gehalt oder Bonuszahlungen basiert. Der moderne Mitarbeiter lässt sich nur durch intrinsische Motivation langfristig begeistern. Rahmen schaffen: In agilen Unternehmen gibt es keine bis ins letzte Detail vorgegebenen Prozesse. Dennoch wird in solchen Umfeldern noch geführt und zwar mittels Sinnhaftigkeit oder transformationaler Führung. Die entscheidenden Punkte sind hier das Führen über das Vermitteln von Werten und auch das Zeigen von Visionen oder Zielen. Teams befähigen: In Zeiten, in denen wir davon sprechen, wie wichtig Selbstorganisation ist, sind Teams ein entscheidender Faktor. Mit dem Punkt „Teams befähigen“ sorgt das Management 3.0 dafür, dass die Führungskraft darauf achten muss, dass Teams auch dazu befähigt werden, selbstorganisierend handeln zu können. Ein wichtiger Teilaspekt ist dabei z. B. die richtige Delegation von Entscheidungen. Hier kann sich das Team selbst steuern und der Berater ist höchstens noch als Ideengeber zu sehen. Die Lego-Anleitung liegt längst beiseite und das kreative Bauen hat begonnen. Kompetenz aufbauen: Ein wichtiger Baustein dieses Aspektes kommt aus dem Japanischen und heißt Shu-Ha-Ri-Konzept. Das Shu-Ha-Ri-Konzept beschreibt die drei Level der Kompetenzen. Das Shu-Level ist ein Lern-Level. Hier geht es darum, Basisaspekte zu lernen und sich an alle Vorgaben zu halten. Wenn wir mit Lego-Bausteinen bauen, würden wir hier streng nach Anleitung bauen. In dieser Phase sind Vorgesetzte eher Trainer oder Lehrer. In der Ha-Phase wird der Trainer zum Berater. Das Team sucht hier nach Varianten oder Alternativen. Bei den Lego-Bausteinen würden wir nun leichte Änderungen zur Anleitung vornehmen. Die Ri-Phase ist die Expertenphase. In dieser Stelle obläge es wohl dem Experten, die Lego-Anleitung selbst zu stellen Strukturen entwickeln: Damit selbstorganisierte Teams funktionieren können, werden Strukturen benötigt, die von Management und Führungskräften kommen müssen, die genau diese Art der Führung zulassen.
Alles verbessern: Kontinuierliche Verbesserung ist das Kernelement agilerMethoden und Frameworks und damit auch in der Führung unersetzlich.Nicht erst durch Six Sigma oder durch Total Quality Management ist der immerwährende, allgegenwärtige und zudem kontinuierliche Verbesserungsansatz in aller Munde.
Die Strömung des Management 3.0 hat viele Instrumente und Methoden entwickelt. Somit ist dieser Ansatz gut für agile Personalführung geeignet und lässt sich zudem sehr gut mit anderen agilen Frameworks wie Scrum oder OKR vereinbaren. Hierbei gilt es, zu wissen, dass die vorgestellten Modelle, Techniken und Ansätze nicht in Konkurrenz zueinander zu sehen sind, sondern so gewählt werden können, dass ein Parallelbetrieb möglich ist und eine zusätzliche Ergänzung darstellt, welche ggf. die Schwächen anderer Methoden ausgleicht.
5.2 Scrum
Produkte in neuen, komplexen Kontexten zu entwickeln, bedeutet ein Umdenken im kompletten Entstehungsprozess. Langes Planen und danach lange Entwicklungsphasen sind in schnelllebigen, komplexen Unternehmen zum Scheitern verurteilt.
Entsprechend hat sich die sog. Out-of-the-box-Funktion entwickelt. Die Out-of-the-box-Funktion ist eine Eigenschaft oder Funktion einer Software- oder Hardwarekomponente, die nach der Installation ohne weitere Anpassung der Komponente sofort zur Verfügung steht.
Weiter befinden wir uns in einem industriellen Zeitalter, in dem Massenfertigung praktisch nicht mehr möglich ist. Natürlich ist sie kontextabhängig zu verstehen, aber generell lässt sich eine Tendenz zur Individualisierung speziell im digitalen Sektor nicht von der Hand weisen. Im Gegensatz zur Massenfertigung stehen also sogenannte kundenspezifische Lösungen oder Funktionen, die Anpassungen der Lösung an die Anforderungen einzelner Kunden erfordern, um eine bestimmte Aufgabe zu erfüllen.
Kundenwünsche werden immer individueller, Rahmenbedingungen verändern sich und sichere Planbarkeit ist nicht bzw. kaum mehr möglich. Scrum ist ein Framework zur Entwicklung von Produkten in komplexen Umgebungen. Es ist durchweg als ein leichtgewichtetes Framework zu verstehen, d. h. es gibt einen Rahmen vor, innerhalb dem aber viel Spielraum für die Ausgestaltung zur Verfügung steht. Scrum ist mit dem Ziel entwickelt worden, Risiken bei der Produktentwicklung zu minimieren und früher qualitativ hochwertigere Produkte auszuliefern. Das Rahmenwerk Scrum besteht aus fest definierten Artefakten, Rollen und Events, die in einem Scrum Guide von Jeff Sutherland und Ken Schwaber, den Erfindern von Scrum, veröffentlicht wurden.
In der Praxis ist sehr häufig eine „mittlere“ Variante zu finden der Produktentwicklung. Geliefert wird Out-of-the-box und diese lauffähige Variante wird dann anschließend „customized“. Das bedeutet: Es wird kostengünstige „Stangenware“ eingekauft und der anforderungsspezifische Feinschliff wird dann selbst oder durch extern vorgenommen.
Im Bereich der Softwareentwicklung ist Scrum praktisch nicht mehr wegzudenken und gilt bereits als „Klassiker“. Aber auch andere Entwicklungsbereiche adaptieren immer mehr das erfolgreiche Framework. Da Scrum mittlerweile zum Standard in dynamischen, volatilen Bereichen wie z. B. in der Entwicklung, sei es von Software, Produkten oder Dienstleistungen, geworden ist, stellt sich hier die Frage:
„Was genau macht Scrum so erfolgreich?“
Scrum setzt auf entscheidende Werte und Prinzipien, die den Erfolg im digitalen Zeitalter garantieren. Diese sind:
• Kurze Iterationen,
• selbstorganisierte Teams,
• kontinuierliche Verbesserung und
• Transparenz.
Kurze Iterationen: Kundenwünsche, der Markt, Rahmenbedingungen – alles ist mittlerweile so schnelllebig und komplex wie nie zuvor. Um trotzdem Produkte zu entwickeln, die den Kundenbedürfnissen bestmöglich entsprechen, setzt Scrum auf kurze Entwicklungszyklen. Die Folge sind ein schnelles Feedback vom Markt und von den Kunden, eine hohe Flexibilität und und keine Umwege durch passgenaue Produktentwicklung.
Selbstorganisierte Teams: Damit kurze Zyklen und Flexibilität überhaupt möglich sind, braucht es selbstorganisierten Teams. Teams benötigen zwar fachliche Anforderungen, wie allerdings die technische Umsetzung aussieht, muss dem Team überlassen werden. Das bedeutet in der Folge: Ein höheres Commitment des Teams, einen qualitativ hochwertigeren und auch schnelleren Output, weil es keine Warteschleifen gibt, da das Team auf keine Anweisung der Führungskraft warten muss.
Kontinuierliche Verbesserung (Inspect and Adapt): Kein Team, kein Produkt und kein Prozess sind gleich von Beginn an optimal. Der entscheidende Punkt, warum Scrum trotzdem qualitativ hochwertigen Output garantiert, liegt im ständigen Überprüfen und Anpassen. Ständig wird ein Verbesserungspotenzial gesucht und dieses auch umgesetzt.
Transparenz: Dies ist ein entscheidender Punkt, auf dem Scrum basiert. Jeder Aspekt ist für alle Beteiligten zu jederzeit transparent. Das sichert valides Feedback, Vertrauen und hohes Commitment von allen Beteiligten zum Produkt. Scrum wurde auf Basis dieser Werte und Prinzipien entwickelt. Die definierten Rollen, Events und Artefakte setzen genau auf diese Elemente und sichern so den Erfolg dieses Frameworks.
Abbildung 5: Scrum-Framework
Kurze Iterationen, selbstorganisierte Teams, ein kontinuierlicher Verbesserungsprozess sowie gänzliche Transparenz sind die wesentlichen Elemente von Scrum.
5.3 Kanban
Kanban ist eine Methode zur Produktionsprozesssteuerung, die in den Vierzigerjahren im Zusammenhang mit der „Just in Time“-Produktion entstanden ist. Das stete Ziel von Kanban ist eine Optimierung des Prozesses, dabei ist der eigentliche Prozess dahinter unerheblich. Kanban ist potenziell für jeden Prozess mit verschiedenen Stufen anzuwenden. Das können reale Produkte sein wie Autos, digitale Güter, Software oder auch Dienstleistungen.
Wichtig an Kanban ist zunächst die Unterscheidung zu Frameworks wie zum Beispiel Scrum. Kanban ist keine Projektmanagement-Methode und auch kein Projektmanagement-Framework. Daher bildet Kanban auch keine Konkurrenz zu Scrum oder anderen Frameworks und kann somit ergänzend eingesetzt werden.
Kanban stellt zunächst immer den aktuellen IST-Zustand dar. Diesen Status quo beschreibt Kanban mit der Visualisierung der bestehenden Aufgaben. Dadurch entsteht eine vollkommene Transparenz des Prozesses. Jetzt geht es bei Kanban darum, den Prozess zu verbessern. In der Folge ist es ein Ziel von Kanban, das ganze Unternehmen zu verändern und damit auch zu verbessern. Damit das wirklich funktioniert, gibt es drei Prinzipien, die hinter Kanban stehen:
1. Den Workflow visualisieren,
2. das Pull-Prinzip etablieren oder die Menge an paralleler Arbeit minimieren und
3. die Kultur der kontinuierlichen Verbesserung etablieren.
Das erste Prinzip ist die Grundlage für die Kanban-Methode. Auf einem Board wird in Spalten von links nach rechts der Workflow visualisiert. Das zweite Prinzip ist der Wechsel von einem Push- zu einem Pull-Prinzip. Der Ausführer des nächsten Workflowschrittes zieht sich seine Karte aktiv. Ein Effekt des Pull-Prinzips ist das Minimieren der Menge an paralleler Arbeit, die häufig zu Verzögerungen im Prozess führen. Das dritte Prinzip ist die kontinuierliche Verbesserung. Hierfür ist ständiges Feedback durch etablierte Events und Rollen wichtig.
Kanban wird auch als evolutionäres Change-Management bezeichnet. Das bedeutet, dass im Gegensatz zu revolutionären Methoden wie Scrum oder OKR zu Beginn eigentlich gar nichts verändert wird.
Es wird lediglich der Status quo abgebildet. Nach und nach wird in einem funktionierenden Kanban der Prozess jedoch schrittweise weiterentwickelt. Das geschieht inkrementell und nicht radikal. Da es sich meist um Prozesse im Unternehmen handelt, die sich jahrelang aus einem bestimmten Grund etabliert haben, ist diese Methode der inkrementellen, kontinuierlichen Verbesserung genau der richtige Schritt für ein erfolgreiches Change-Management.
Die Vorteile der Kanban-Methode sind neben der hohen Flexibilität und dem hohen Anpassungspotenzial auch der reduzierte Steuerungsaufwand. Durch die geschaffene Transparenz und die selbstorganisierten Teams ist Kanban am Ende auch eine Methode, die neben der höheren Effizienz auch zu Einsparungen führt.
5.4 Open Space
Open Space ist eine Methode zur Gruppenmoderation, die primär für große Gruppen gut geeignet ist. Open Space wurde in den Achtzigerjahren in den USA von Harrison Owen entwickelt. Charakteristisch für diese Methode ist die inhaltliche Offenheit dieser Art von Gruppenkonferenzen. Ziel der Open-Space-Methode ist es, in einem beschränkten kurzen Zeitrahmen mit einer großen Anzahl an Teilnehmern lösungsorientiert, selbstverantwortlich und innovativ umfassende Themen zu bearbeiten.
Entscheidend ist zu Beginn einer Open-Space-Veranstaltung die inhaltlicheOffenheit der Themen. Das Einzige, das zu Beginn vorgegeben wird, ist ein Metathema oder ein Generalthema, das die gesamte Veranstaltung beschreibt. Danach besteht Themenoffenheit. Die Themen werden zu Beginn von den Teilnehmern gesammelt und formuliert. Es entsteht in der Folge ein Marktplatz für Themen, die in Themengruppen diskutiert werden können.
Die Vorteile der Open-Space-Methode sind eine breite Beteiligung von allen Teilnehmern und die hohe Energie, die ein solcher Raum mit sich bringt. Die Dauer einer Open-Space-Konferenz liegt meist bei zwei bis drei Tagen.
Die Open-Space-Methode basiert auf folgenden vier Prinzipien oder Regeln:
1. Wer auch immer kommt, es sind „genau die richtigen Leute“. Ob ein oder 100 Teilnehmer, ist unwichtig und jeder ist wichtig und motiviert.
2. Was auch immer geschieht, es ist das Einzige, was geschehen konnte. Ungeplantes und Unerwartetes ist oft kreativ und nützlich.
3. Es beginnt, wenn die Zeit reif ist. Wichtig ist die Energie und nicht die Pünktlichkeit. Vorbei ist vorbei. Nicht vorbei ist aber auch nicht vorbei. Wenn die Energie zu Ende ist, ist die Zeit um.
4. Gesetz der zwei Füße: Mit dem Gesetz der zwei Füße wird insbesondere die Selbstverantwortung der Teilnehmer angesprochen. Jeder darf selbst entscheiden, wie lange er bei einem Thema bleibt und wann er zu einem anderen Thema wechselt.
Typischer Ablauf einer Open-Space-Konferenz:
1. Der Veranstalter oder Initiator begrüßt die Teilnehmer in einem Kreis und erklärt Ziele, Grenzen und Ressourcen der Veranstaltung.
2. Der Begleiter führt die Teilnehmer in ein Thema ein und öffnet so den Raum. Dabei befindet er sich im Kreis und ist für alle sichtbar.
3. Inhalte ergeben sich aus dem Teilnehmerkreis. Alle können das einbringen, was für sie wichtig ist und für das sie Verantwortung übernehmen wollen.
4. Anliegen werden an einer Wand mit Zeiten und verfügbaren Räumen gesammelt z. B. mit Post-its.
5. Hier passiert die Verhandlung über Zeiten und Räume, die sog. Marktphase.
6. Die Gruppenarbeitsphase startet. Teilnehmer arbeiten selbstorganisiert an Themen. Wichtig ist dabei stets das Gesetz der zwei Füße und die Dokumentation der Ergebnisse.
7. Ergebnisse werden an eine Dokumentationswand für jeden sichtbar aufgehängt.
8. Morgens und abends werden die Ergebnisse jeweils mitgeteilt. Am letzten Tag erfolgt die Auswertung der Ergebnisse und Formulierung der Umsetzung. Danach gibt es eine Abschlussfeedbackrunde, bevor der Raum geschlossen wird.
Neben dem Vorteil der großen Gruppe schafft Open Space zudem einen Raum für Teambuilding und fruchtbaren Boden, um komplexe Themen zu behandeln. Im Rahmen eines Change-Prozesses eignet sich der Open-Space-Raum zudem auch, um Ängste oder Konflikte zu thematisieren und zu lösen.
5.5 RTSC
Eine weitere Methode der Großgruppenmoderation ist RTSC bzw. „Real Time Strategic Conference“. Diese Form der Gruppenmoderation eignet sich vor allem sehr gut für den Bereich der Organisationsentwicklung. Die Dauer einer RTSC-Konferenz beträgt in der Regel zwei bis drei Tage.
In diesen Tagen werden vier Phasen durchlaufen:
1. Der aktuelle Stand.
2. Zukünftige Visionen.
3. Problemdiagnose zur Zielerreichung.
4. Handlungsbedarf für Erreichung der Ziele.
Ziel einer RTSC-Konferenz ist es, Teilnehmer für strategische Ziele des Unternehmens zu gewinnen. Zum Ende einer solchen Konferenz wird ein Ziel vorhanden sein, welches von allen Teilnehmern getragen wird. Somit liegt ein wesentlicher Vorteil im hohen Commitment aller Teilnehmer für das gemeinsame Vorhaben.
Damit die Vorgaben für das Unternehmen passen, ist es wichtig, die Führungsspitze in eine solche Konferenz mit einzubinden.
Eine RTSC-Konferenz befolgt folgende Prinzipien:
• Empowerment und Inklusion: Verschiedene Menschen arbeiten so zusammen, dass jeder einen wertvollen Beitrag leisten kann. Dadurch entstehen ein hohes Commitment und Zustimmung zu einer gemeinsamen Vision oder zu einem gemeinsamen Ziel.
• Real Time: Im eigenen Denken und Handeln ist die Zukunft bereits eingetreten. Dies bringt wertvolle Geschwindigkeit für den Wandel.
• Gewünschte Zukunft: Pläne und Aktionen für eine an Möglichkeiten orientierte Zukunft werden energetisiert, angereichert und informiert durch das Anknüpfen an Vergangenheit und Gegenwart.
• Entwicklung von Gemeinschaft: Der Gedanke von RTSC besagt, dass Menschen etwas brauchen, das sie schaffen können und woran sie glauben können. Wenn Menschen als Teil von einem großen Ganzen zusammenkommen, können echte Motivation, Wachstum und Lernen entstehen.
• Gemeinsame Bedeutung: Zu einem Thema existieren verschiedene Perspektiven. Auf einer RTSC-Konferenz wird ein gemeinsames Verständnis entwickelt und so auch eine gemeinsame Bedeutung.
• Die Realität als Motor: Die Realität soll als Motor genutzt werden, um neue Chancen zu erkennen und Themen mit Bedeutung zu füllen.
5.6 Design Thinking
Neben Steuerungs- und Moderationstechniken bedarf es zur Entfaltung und Weiterentwicklung auch neuer Blickwinkel und Perspektiven. Design Thinking ist eine Kreativitätstechnik und ein Ansatz zum Lösen von Problemen.
Der Ansatz beruht auf der Annahme, dass Probleme besser gelöst werden, wenn Menschen unterschiedlicher Disziplinen in einem kreativitätsfördernden Umfeld dahingehend zusammenarbeiten. Die Grundprinzipien des Design Thinking beruhen damit auf den drei Aspekten Team, Raum und Prozess. In der Praxis nutzen bereits zahlreiche Unternehmen und Organisationen Design Thinking als Projekt-, Innovations-, Portfolio- und Entwicklungsmethode.
Ein bekanntes Beispiel ist SAP. Wie andere erfolgreiche, innovative Methoden setzt auch Design Thinking auf das Erfolgsrezept: Interdisziplinäre Teams, Visualisierung und iteratives Vorgehen. Ziel des Design-Thinking-Prozesses ist es, durch den Design-Prozess Probleme zu lösen und durch kreative Techniken dabei zielgerichtet Innovationen zu entwickeln. Durch iteratives Vorgehen und schnelles Feedback und ggf. auch schnelles Scheitern von nicht funktionierenden Aspekten soll sich nachhaltiger Erfolg durch von mit Design Thinking entwickelten Ideen einstellen.
Leadership im digitalen Zeitalter
57
Prozessschritte des Design Thinking:
1. Verstehen,
2. Beobachten,
3. Synthese,
4. Ideengenerierung,
5. Prototyping und
6. Tests.
Verstehen: Im Prozess des Verstehens geht es anfänglich nur darum, die Problemstellung und auch das damit verbundene Problemfeld und die Einflussfaktoren zu verstehen. Diese Phase kann durch Planung und Recherche zeitaufwändig sein, ist aber für die späteren Schritte unerlässlich. Ziel dieser Phase ist es, das gesamte Team auf ein gemeinsames Expertenlevel zu bringen.
Beobachten: Hier geht es darum, die Problemstellung in ihrer wirklichen Umgebung aktiv zu beobachten und darauf aufbauend in Dialogen und Interaktionen mehr zu dem Problem herauszufinden. Oft sind auch die Menschen, die ein Produkt bewusst ablehnen oder es übermäßig stark nutzen, diejenigen, die wertvolle Informationen als Input geben können. Primär entscheidend ist, dass diese Phase in einem realen Kontext durchgeführt wird. Ziel dieser Phase ist es, möglichst viele Informationen zu sammeln und diese Informationen auch zu visualisieren.
Synthese: Hier werden die Daten und Eindrücke mit dem Team geteilt. Die Informationen werden im Projektraum visualisiert. Diese Phase geht noch einen Schritt weiter, da die Informationen nicht einfach an die Wand geklebt, sondern miteinander verknüpft werden und so ein Gesamtbild der Problemstellung entsteht. Ziel ist es, nachdem das Team bereits einen gemeinsamen Wissensstand hatte, auch ein visuelles Verständnis des Gesamtkontextes der Problemstellung zu bilden. Ergebnis dieser Phase ist es, dass alle Ergebnisse in visueller Form für die nächsten Schritte aufbereitet sind. Ideengenerierung: Aus den zuvor identifizierten Problemfeldern werden Ideen zur Lösung der Problemstellung identifiziert. Hier können klassische Kreativitätstechniken wie Brainstorming unterstützen. Nach der Filterung der Ideen werden im Hinblick auf Wirtschaftlichkeit und Umsetzbarkeit Ideen ausgewählt.
Prototyping: Es wird versucht, möglichst schnell irgendeine Form eines Prototyps zu generieren, mit dem dann wieder in den wahren Kontext gegangen und sich Feedback geholt werden kann. Dieser Prototyp ist meist noch nicht mal ansatzweise fertig, darauf kommt es aber auch gar nicht an. Ziel dieser Phase ist es, möglichst schnell auf den Markt zu gehen, um wertvolles Feedback für die Weiterentwicklung zu erhalten.
Tests: Zusammen mit der vorherigen Phase erfolgen jetzt Tests und Feedback-Schleifen. Hier geht es darum, mit den Reaktionen herauszufinden, ob oder wie eine vorhandene Idee weiterverfolgt werden soll, ganz im Sinne des Anwenderfokus.
5.7 Lego Serious Play
Eine andere bzw. ergänzende Methode mit dem Facettenreichtum Denk-, Kommunikations- und Problemlösungstechnik ist Lego Serious Play. Hier handelt es sich um einen moderierten Prozess, der die Vorteile, die ein Spiel mit sich bringt, mit Problemlösungs-, Strategie- oder Innovationsbereichen aus der Geschäftswelt in Einklang bringt. Dabei ist die Methode nicht wie andere von einer gewissen Größe der Gruppe abhängig. Lego Serious Play kann mit Unternehmen, Teams oder sogar mit Einzelpersonen durchgeführt werden.
Die Vorzüge von Lego Serious Play sind dabei:
• Kreativität.
• Verbesserte Kommunikation durch die Greifbarkeit von Ideen.
• Einbeziehung von Wissen und Erfahrung der Teilnehmer.
• Gemeinsames Verständnis dadurch, dass die Modellierung gefördert wird.
Die Entstehung von Lego Serious Play basiert auf überraschenden Forschungsergebnissen, die mit der Verbindung zwischen der Hand und den Gehirnzellen zu tun haben. Das Resultat dieser Forschung ist, dass unsere Hände bis zu 80 % mit unseren Gehirnzellen verbunden sind. Diese Forschungsergebnisse bedeuten, dass Denkprozesse, die in Verbindung mit körperlichen Bewegungen und insbesondere mit den Händen durchgeführt werden, zu einem besseren und nachhaltigeren Verständnis von der Umgebung und über die Möglichkeiten der Problemstellung führen. Die Prinzipien hinter Lego Serious Play sind klar und trotzdem entscheidend: Die Antwort liegt immer im System.
Es gibt also keine „korrekten" Antworten oder Fakten.
Bei Lego Serious Play steht stets der Prozess im Vordergrund: Denke mit deinen Händen, also benutze deine Hände. Es gibt nicht die richtige Lösung. Für eine Problemstellung gibt es viele verschiedene Ansätze, wovon jeder erstmal wichtig für den weiteren Prozess ist. Rede über deine Lösung, aber urteile nie und jeder nimmt teil.
Das Anwendungsgebiet von Lego Serious Play lässt sich in vier Bereiche aufteilen:
1. Real Time Strategy for the Enterprise.
2. Real Time Strategy for the Beast.
3. Real Time Identity for the Team.
4. Real Time Identity for You.
Der Bereich Real Time Strategy for the Enterprise dient vor allem für Themen der Strategieentwicklung für ganze Organisationen oder auch kleinere Teams. Dabei werden neben der Analyse der Einflussfaktoren auch zukünftige, verschiedene Szenarien durchgespielt, um gut auf unvorhersehbare Ereignisse reagieren zu können.
Der Bereich der Real Time Strategy for the Beast befasst sich mit Problemen oder Risiken. Hier werden Strategien für den Umgang mit Risiken und Problemen erarbeitet.
Bei der Real Time Identity for the Team wird im Team ein gemeinsames Bild und Verständnis für die Identität und die einzelnen Aufgaben erzeugt. Ziel ist hier die Optimierung der internen Zusammenarbeit. Der vierte Bereich ist der Bereich der Real Time Identity for You. Hier geht es darum, wie die eigene Person von anderen wahrgenommen wird. Bei dieser Methode geht es vor allem um die Analyse der eigenen Identität. Ziel ist es hier, die gewünschte Entwicklung gezielt zu fördern und zu identifizieren, welche Möglichkeiten es dazu gibt.
5.8 Lean Startup
Lean Startup ist eine Methode, die sich mit der Entwicklung von Produkten und Service beschäftigt. Entstanden ist die Methode als Folge vieler gescheiterter Startups, primär um die Jahrtausendwende im Zuge der Dotcom Blase. Die Grundidee der Lean-Startup-Methode ist es dabei zunächst die Unternehmensgründung nicht als solche zu betrachten, sondern als eine unbewiesene Hypothese. Diese Hypothese gilt es, jetzt empirisch zu validieren oder im negativen Fall zu widerlegen. Die Idee wird im Lean Startup erst dann weiterentwickelt, wenn sie komplett validiert wurde. Diese Validierung soll nach Möglichkeit schnell und ohne Kosten erfolgen. Dadurch soll verhindert werden, dass ein Startup viel Geld und Zeit in eine Idee investiert, die danach keinen Erfolg hat. Wie auch bei anderen innovativen Methoden wird bei Lean Startup auf langes Planen verzichtet, stattdessen wird schnell auf einen Prototyp gesetzt, der danach inkrementell weiterentwickelt wird.
Die Grundprinzipien der Lean-Startup-Methode sind dabei:
• Jeder kann ein Gründer sein und damit auch Erfolg haben.
• Entrepreneurship ist Management.
• Gründen ist kein Zufall oder Schicksal, sondern kann genauso wie eine Wissenschaft betrachtet werden.
Lean Startup stellt also verschiedene Tools und Methoden zur Verfügung, um das Gründen zu lernen. Lernen muss validiert werden. Es gibt einen bekannten Spruch im Lean Startup: „Get out of the building.“ Das bedeutet:
Bleiben Sie nicht an Ihrem Schreibtisch sitzen, sondern gehen Sie raus auf die Straße und versuchen Sie, Ihre Idee zu validieren. Innovation Accounting: Hier geht es darum, dass Innovation auch verwaltet werden kann. Auch eine Innovation muss definiert, gemessen und kommuniziert werden. „Build – Measure – Learn“ – das ist genau der Zyklus, mit dem das Lean Startup arbeitet. Sobald eine Idee aufkommt, wird diese möglichst schnell und risikofrei umgesetzt wie z. B. in Form eines Prototyps. Anschließend wird der Erfolg gemessen und aus dem erhaltenen Feedback gelernt. Daraus wiederum ist es möglich, den nächsten Prototyp zu bauen und der Zyklus beginnt erneut.
5.9 Effectuation
Hier geht es um Entscheidungen in Zeiten abnehmender Planbarkeit. Im Zuge der Ereignisse am 11. September 2001 in den USA entstand dort ein neuer Ansatz: Effectuation. Eine überzeugende Übersetzung dieses Begriffs gibt es nicht. „to effectuate“ bedeutet wörtlich übersetzt „etw. bewirken“. Die Erfinderin des Ansatzes ist die Professorin Saras Sarasvathy. Die Wissenschaftlerin erforscht im Rahmen ihres Ansatzes, wie erfolgreiche Gründerdenken, entscheiden und handeln. Sarasvathys Ideen lassen sich aber auch auf etablierte Unternehmen übertragen, wenn danach gefragt wird, welche Fähigkeiten Führungskräfte in der Zukunft benötigt werden. Effectuation bedeutet eine völlig neue Logik, um an Entscheidungen heranzugehen. Die ursprüngliche Logik verläuft linear-kausal. Nach ihr stellt sich immer dann, wenn zielgerichtetes Handeln zu planen ist, die Frage:
„Wie komme ich von A nach B?“ Denken Sie an ein Unternehmen, das eine gewisse Marktposition innehat und wachsen möchte bzw. welches Unternehmen möchte dies nicht. Ausgehend davon wird zunächst das gewünschte Wachstum definiert, d. h., es wird beschrieben, wo das Unternehmen nach einer bestimmten Zeit stehen soll.
Wenn dieser Zielpunkt B definiert ist, folgt die:
• Markt-,
• Kundenpotenzial- und
• Investitionsbedarfsanalyse.
Planung und Durchführung zielorientierter Maßnahmen
Effectuation geht einen speziellen Weg. Der Ausgangspunkt lautet, dass das Ziel B unbekannt ist und dass es deshalb auch nicht möglich ist, B genau zu definieren. Die Zukunft ist nicht vorhersehbar und daher nicht im klassischen Sinne planbar. Der Entscheider geht davon aus, dass sich seine Umwelt ständig verändert und dass es viele weitere Akteure gibt, die die Entwicklung ebenfalls beeinflussen. Die Frage lautet also:
„Wie komme ich von A nach Z?“
Auch hier steht eine Analyse am Anfang (Markt-, Kunden-, Investitionsbedarfsanalyse). Sie widmet sich allerdings den Möglichkeiten, über die das Unternehmen verfügt. Das umfasst die finanziellen Möglichkeiten ebenso wie die Fähigkeiten. Es umfasst aber auch das Netzwerk, die Menschen und Organisationen, mit denen das Unternehmen in Beziehung steht. Der nächste Schritt nach der Aufstellung der Möglichkeiten ist die Suche nach Handlungsalternativen. „Was kann ich tun, um mein Unternehmen weiterzuentwickeln und ihm neue Chancen zu eröffnen?“ Es entsteht ein Zyklus. Wenn der nächste Schritt getan ist und eine neue Handlungsalternative realisiert wurde, hat das Unternehmen eine neue und hoffentlich bessere Position erreicht. Dieser Kreislauf wird fortgesetzt. Auf diese Weise entsteht Schritt für Schritt ein klareres Bild von dem, was das Unternehmen erreichen kann. Demnach wird irgendwann aus dem Z ein B. Das ist auch der Punkt, an dem das Unternehmen zur linear-kausalen Logik zurückkehren sollte, denn immer dann, wenn die Zukunft relativ gut vorhersehbar ist und das Ziel deutlich vor Augen steht, ist die kausale Logik gefragt. Das Ziel von Effectuation ist es also nicht, die linear-kausale Logik abzulösen.
Das Konzept versteht sich vielmehr als eine Ergänzung.
In unsicheren Situationen, in denen es schwerfällt, das Ziel zu definieren und den Weg dahin zu planen, kann die Effectuation-Logik eine sinnvolle Alternative sein. Übertragen auf die Arbeit einer Führungskraft bedeutet das:
Wer mit Effectuation arbeiten möchte, der muss sich als Entrepreneur im Unternehmen verstehen. Er muss sich an den Ressourcen orientieren, die ihm zur Verfügung stehen und ausgehend davon Chancen entwickeln und wahrnehmen. Wer sich in einem gut planbaren Rahmen bewegt, der kann der linear-kausalen Logik folgen, das heißt planen, steuern und kontrollieren.
Die Prinzipien
Welchem Prinzip folgt nun die Effectuation-Logik? Wie denken und entscheiden Menschen nach dieser Logik? Sarasvathy hat fünf Prinzipien formuliert:
• Spatz-in-der-Hand-Prinzip (Prinzip der Mittelorientierung)
Nehmen Sie an, Sie hätten Hunger und wollten etwas essen. Wenn Sie der kausalen Logik folgen, dann entscheiden Sie sich für ein Gericht, das sie kochen können. Wenn Sie das Gericht noch nicht häufig gekocht haben, schauen Sie in Ihr Rezeptbuch und notieren die Zutaten, die Ihnen fehlen. Anschließend gehen Sie einkaufen und bereiten Ihr Gericht zu. Nehme Sie die gleiche Situation wie oben beschrieben an, dieses Mal unter Berücksichtigung der Effectuation-Logik. Sie schauen in Ihren Kühlschrank und Ihren Vorratsschrank. Aufgrund dessen, was Sie dort vorfinden, entscheiden Sie, was Sie kochen werden. Das ist das Prinzip der Mittelorientierung. Beide Methoden sind gleichermaßen dafür geeignet, um satt zu werden. Sie sehen aber an dem einfachen Beispiel des Kochens auch, dass es sinnvoll ist, je nach der Ausgangssituation, die eine oder die andere der beiden Methoden anzuwenden.
Nehmen Sie an, Sie kommen nach Hause und es ist spät und obwohl spätes Essen nicht empfehlenswert ist, sind sie hungrig und treffen die Entscheidung zum nächtlichen Abendmahl. Der Blick in die Schränke verspricht die schnellere Lösung, vielleicht ist er sogar die kreative Variante, weil Sie im Kühlschrank über eine Zutat stolpern, die gut zu dem Gericht passt, das Sie aufgrund Ihrer Vorräte ins Auge fassen.
Wenn Sie allerdings für das nächste Wochenende eine ganze Partie an Freunden zum Abendessen eingeladen haben, dann wäre der EffectuationAnsatz beim Kochen mit einem hohen Risiko verbunden. Im Führungsalltag bedeutet Mittelorientierung zuerst, zu prüfen, welche Mittel zur Verfügung stehen. Das kann bedeuten, Ziele so anzupassen, dass Sie angesichts der gefundenen Ausstattung realistisch sind. Auch hierzu soll ein Beispiel gegeben werden: Wenn Sie Ihren Umsatz steigern wollen, dann müssen Sie unter Berücksichtigung der Effectuation-Logik nachsehen, wie viele Verkäufer in Ihrem Unternehmen arbeiten und wie viel Umsatz jeder von ihnen machen kann. Nach der kausalen Logik legen Sie das Umsatzziel hingegen fest, sehen sich dann an, wen Sie „an Bord“ haben und müssen möglicherweise weitere Verkäufer einstellen.
• Affordable-Loss-Prinzip (Prinzip des tragbaren Verlusts)
Üblicherweise machen Unternehmen ihre Investitionen vom erwarteten Erfolg abhängig.
Wenn Sie eine Fortbildung machen, dann können Sie noch nicht genau vorhersagen, wie viel sie einbringen wird. Dazu gibt es zu viele Faktoren – Motive und Beweggründe sowie Messgrößen für den Erfolg, seien es Geldmittel, die Erweiterung der persönlichen Fähigkeiten und neues Wissen. Wird allerdings die Logik umgedreht, stellt sich die Frage: „Welche Investition in meine Fortbildung kann ich mir in diesem Jahr leisten, ohne dass meine berufliche Existenz in Gefahr gerät?“
• Limonade-Prinzip (Prinzip der Umstände und Zufälle)
Nach der kausalen Logik sollte ein Unternehmen Zufälle und Umstände möglichst ausschließen, um nicht von seinem Weg abzukommen. In der Effectuation-Logik nutzt das Unternehmen veränderte Umstände und Zufälle als Gelegenheiten, weil sie vielleicht neue Chancen eröffnen. Viele spannende Produkte und innovative Geschäftsideen sind nicht zuletzt aufgrund von Zufällen entstanden oder weil der ursprüngliche Plan schief ging. Das berühmteste Beispiel dafür sind wohl die Post-it-Zettel. Eigentlich sollte bei 3M ein neuer Kleber entstehen, der klebte aber nicht, sondern haftete nur und davon ausgehend erfand ein Mitarbeiter die international bekannten Post-it-Zettel.
• Crazy-Quilt-Prinzip (Prinzip der Vereinbarungen und Partnerschaften)
Natürlich führen viele Unternehmen Partnerschaften. Wird nach der kausalen Logik vorgegangen, so suchen wir in aller Regel gezielt den richtigen Partner und grenzen uns von unseren Mitbewerbern ab. Dem gegenüber geht die Effectuation-Logik davon aus, dass anfangs noch nicht genau definiert werden kann, wer als Partner geeignet und wer vielleicht doch ein Konkurrent ist. Aufgrund dessen erfolgt eine Abgrenzung. Der Kern ist die Frage, wer dazu bereit ist, mit anderen zusammenzuarbeiten, obwohl eine natürliche Rivalität vorhanden ist, um so möglicherweise gemeinsam neue Kunden, Märkte etc. zu erschließen, die keine der beiden Seiten allein erreichen könnte.
• Pilot-in-the-Plane-Prinzip (Steuern ohne Vorhersage)
Dieses Prinzip schwebt über allen zuvor genannten. Die vier ersten Prinzipien entheben das Unternehmen nicht von der Notwendigkeit, Abläufe zu steuern. Es steuert anhand der Prinzipien, es beeinflusst seine Umwelt durch das, was es tut. Das Einzige, was fehlt, ist die Garantie, dass sein Handeln zum gewünschten Ergebnis führt. Das Beste aus dem zu machen, was zur Verfügung steht, ist aus dieser Sicht ein überzeugender Ansatz.
5.10 Agile meets New Work
Agile Unternehmen und New Work sind zwei neue Sterne am Firmament der Managementlehre, welche im vorhergegangenen Kapitel kurz erläutert wurden und nun aufgrund der besseren Differenzierung abermals und im Detail ergänzt werden. Agilität wird im Kern gerne mit Schnelligkeit, Geschwindigkeit und Flexibilität assoziiert, aber auch mit Selbstverantwortung und Vertrauen. New Work geht darüber hinaus. Der amerikanische Sozialphilosoph Frithjof Bergmann hat dieses Konzept entwickelt, um eine Antwort auf das Ende unseres klassischen Systems der Lohnarbeit zu finden. Nach Bergmanns Definition hängt New Work eng mit dem Begriff der Freiheit zusammen – der Freiheit, etwas wirklich Wichtiges tun zu können. Es könnte auch gesagt werden: „Um der Arbeit einen neuen Sinn zu geben.“ Aufgrund der angestrebten Sinngebung gehören zum Konzept der New Work Stichworte wie Kreativität, Selbstverantwortung und Teilhabe. Unabhängig davon, welcher Richtung ein Unternehmen im Detail folgt, zeichnen sich agile Unternehmen, die diesen neuen Vorstellungen folgen, durch bestimmte Grundsätze aus.
Die wichtigsten davon sind:
• Alle Kennzahlen sollten transparent sein: Dazu gehört nicht nur, dass die Mitarbeiter immer auf dem aktuellen Stand sind, was die Finanzlage des Unternehmens betrifft. Je nach Unternehmen geht die Transparenz so weit, dass auch die Gehälter jedes einzelnen Mitarbeiters bis hin zum Chef für alle gleichermaßen bekannt sind.
• Entscheidungen sollten durchgängig nach demokratischen Regeln getroffen werden: Entscheidungen werden nicht mehr nur allein auf der Führungsebene getroffen. So kann beispielsweise ein Team eigenständig darüber entscheiden, ob es ein neues Projekt oder einen neuen Kunden annimmt. Das geht in einigen Unternehmen so weit, dass die Mitarbeiter auch über die Gehälter entscheiden. Damit einher geht eine veränderte Rolle der Führungskraft. Führungskräfte sind Moderatoren von Entscheidungsprozessen, aber nicht mehr selbst die Allesentscheider. Worüber sollen sie auch noch entscheiden, wenn alles im Team entschieden wird? Das ist genau der Kern, der hinter dem Aufruf „Feuert die Chefs“ steht.
• Glaube an die Schwarmintelligenz: Anders gesagt: Führungskräfte müssen sich darüber sicher sein, dass Gruppen prinzipiell bessere Entscheidungen treffen als ein Einzelner.
• Mitarbeiter dürfen eigenverantwortlicher handeln: Für die Mitarbeiter bedeuten diese neuen Ansätze, dass sie viel stärker dazu gezwungen sind, die Verantwortung für ihr eigenes Handeln zu übernehmen – als Einzelner genauso wie im Team. Das bedeutet gleichzeitig mehr Entscheidungsfreiheit und eine aktive Rolle im Unternehmen. Mittlerweile haben zahlreiche Unternehmen aus unterschiedlichen Branchen diese neuen Ansätze aufgegriffen, darunter die Drogeriekette dm, Gore-Tex u. v. m.
Die Big-Points also noch einmal zusammengefasst: Alle Kennzahlen sind bekannt und verständlich, Entscheidungen werden demokratisch getroffen und den Mitarbeitern ist zumindest partiell das Ruder zu überlassen.
6 Führung alter Schule
Eine der Fragen, mit der sich Unternehmen und speziell Führungskräfte im Bereich der operativen Führungskraft konfrontiert sehen bzw. eine allgegenwertige Unsicherheit besteht, ist die Art der Führung. Haben bewährte Modelle noch einen Nutzen oder müssen sie Platz für Neues schaffen? Die eben vorgestellten Methoden sind „durch die Bank“ ausgezeichnet, jede in ihrer jeweiligen Aufgabenstellung. Die Frage, ob Altbewährtes obsolet sein wird, ist jedoch durchaus berechtigt. Wahrscheinlich ist aber, dass Führungskräfte das Rad nicht neu erfinden müssen. Führung entwickelt sich ständig weiter. Deshalb ist es sinnvoll, an bewährten Führungspraktiken anzusetzen und diese weiterzuentwickeln.
Für die digitale Transformation gibt es einige Begriffe, welche folgend unterstützt und bestärkt werden sollen – „Revolution“ und „Evolution“ sind nur zwei davon. Ganz gleich, welcher Vertreter gewählt wird, der kleinste gemeinsame Nenner ist die Komponente „Zeit“ und ihr Horizont. Oder: „Gut Ding will Weile haben“, d. h., dass es sich hier um einen langen, grundsätzlich nie endenden Prozess handelt. Somit ist ein stichtagsbezogenes Substitut nicht notwendig bzw. würde mehr Schaden als Nutzen generieren. Permanente Weiterentwicklung, Anpassung und Verbesserung sind die Eckpfeiler, welche altbewährte Ansätze in neue Modelle überführen und ggf. von neuen zusätzlichen Methoden gestützt oder ergänzt werden.
Eines, was sich jedoch mit Sicherheit sagen lässt, ist, dass Stillstand sowie die Ablehnung über kurz oder lang das Unternehmen und seinen Fortbestand immens in Frage stellen.
„Survival of the fittest“ verdeutlicht gut, dass auch, wenn aktuell eine Marktmacht vorhanden ist, dies kein Garant für das erfolgreiche Bestehen für die nächsten Jahre sein wird, ohne dass eine Umweltanpassung erfolgt. Außerdem lässt sich nur so entscheiden, an welcher Stelle Bewährtes beibehalten wird und wo mit neuen Ansätzen weitergearbeitet werden sollte. Die Modelle, welche vorgestellt wurden, werden folgend den altbewährten Führungsstilen vergangener Tage gegenübergestellt. Die bekanntesten Führungsansätze fanden ihre erste Erwähnung vor gut 30 bis 50 Jahren, in der Zwischenzeit ist jedoch einige Zeit vergangen und dennoch sind genau diese Ansätze nach wie vor in den heimischen Unternehmen maßgeblich, wenn auch in adaptierter Variante, im Einsatz. Vier bewährte „Oldies“ und Konzepte werden nicht als Tribut, sondern aufgrund der omnipräsenten Daseinsberechtigung betrachtet und einer kritischen Würdigung unterzogen sowie wird für sie eine Prüfung auf Tauglichkeit zur digitalen Neuzeit angestellt. Die Auswahl erhebt keinen Anspruch auf Vollständigkeit, die vier Modelle bzw. Denkansätze wurden im Hinblick auf die neuen und aktuellen Herausforderungen in Kombination mit dem jeweiligen zugesprochenen Potenzial und der Beständigkeit gewählt:
1. Situatives Führen.
2. Management by Objectives.
3. Management by Delegation.
4. Personalentwicklung entlang bewährter Karrierepfade.
Auswahl im Detail
Situatives Führen: Situatives Führen erfreut sich bei Führungskräften schon lange an großer Beliebtheit. Dieser Ansatz geht davon aus, dass es keinen Führungsstil gibt, der sich universell, d. h., in jeder Situation und auf jeden Mitarbeiter anwenden ließe. Die Flexibilität und der Blick auf den einzelnen Mitarbeiter sind wesentliche Punkte, die auch vor dem Hintergrund der neuen Herausforderungen entscheidend sind.
Die Theorie des situativen Führens entstand Ende der Siebzigerjahre und stammt von den beiden US-Amerikanern Kenneth Blanchard und Paul Hersey. Was steckt dahinter? Die Grundannahme des situativen Führens lautet: Es gibt keinen Führungsstil, der ausnahmslos in jeder Situation und jedem Mitarbeiter gegenüber angemessen ist. Deshalb ist es wichtig, den Führungsstil der Situation anzupassen.
Doch was bedeutet anpassen? Die zentrale Richtgröße dabei ist das, was Blanchard den „Reifegrad“ des Mitarbeiters nennt. Überdies wird zwischen zwei Grundorientierungen unterschieden:
Aufgabenorientierung und Beziehungsorientierung.
Letztlich ist die Führungskraft, die situativ vorgeht, hauptsächlich Coach und Personalentwickler. Was bedeutet das konkret? Nehmen Sie an, ein Mitarbeiter ist gerade erst eine neue Stelle in einem Unternehmen angetreten. Es ist zu vermuten, dass der Vorgesetzte diesen Mitarbeiter zunächst einmal eng führen wird. Er wird die Aufgaben des Mitarbeiters genau definieren und beobachten, wie der Mitarbeiter sich verhält. Das liegt nahe, denn der Mitarbeiter braucht Zeit, um sich mit den neuen Systemen und Regeln im Unternehmen vertraut zu machen. Außerdem wird die Führungskraft sich ein Bild davon machen wollen, was er tatsächlich leisten kann. Sie wird also aufgabenorientiert führen. Stellen Sie sich im Gegensatz zu dem letzten Beispiel einen Mitarbeiter vor, der schon mehrere Jahre in ein und derselben Position im Unternehmen beschäftigt ist. Dieser Mitarbeiter beherrscht die Systeme, kennt seine Aufgaben und braucht nicht mehr eng geführt zu werden. In Fällen wie diesen wird die Führungskraft darüber nachdenken, wo ungenutzte Potenziale des Mitarbeiters liegen. Sie wird sich fragen, wie sie den Mitarbeiter weiterentwickeln kann. Sie orientiert sich also vornehmlich an dem Ziel, die Arbeitsbeziehung zu gestalten. Situativ zu führen ist sehr populär und natürlich gibt es auch Kritik daran.
Die beiden wichtigsten Punkte aus theoretischer Sicht sind die folgenden: Dieser Führungsansatz ist empirisch nicht nachweisbar und umfasst kaum konkrete Handlungsanweisungen für Führungskräfte. Dennoch gibt es zwei Argumente, die für situatives Führen sprechen:
• Die Erkenntnis, dass es keinen Führungsstil nach der Devise „one size fits all“ gibt. Die Führungskraft ist folglich immer darauf angewiesen, auf die Situation und seine Mitarbeiter zu reagieren.
• Das Argument der engen Orientierung am einzelnen Mitarbeiter.
Situative Führung nimmt viel Zeit in Anspruch. Bedenken Sie jedoch Folgendes: Ungeachtet der vielen guten alternativen Theorien und noch so vielen gut gemeinten Vorgaben vonseiten des Unternehmens bleibt das Folgende bestehen: Wenn ein Mitarbeiter nicht dazu in der Lage ist, die definierten Anforderungen zu erfüllen, dann verpuffen alle Ideen und Vorgaben ohne sichtlich positive Wirkung. Die Orientierung an der Person und den Möglichkeiten des Mitarbeiters bleibt aus dieser Sicht immer aktuell. Und für viele Führungskräfte ist und bleibt sie eine zentrale Herausforderung. Management by Objectives (Führen mit Zielen): Unabhängig davon, vor welchen Herausforderungen wir stehen, sind Ziele für die persönliche Weiterentwicklung des Einzelnen ebenso wie für Unternehmen wichtig. Wie soll auf eine neue Herausforderung, ungeachtet welcher Art, geantwortet werden, wenn keine Klarheit darüber herrscht, wo der Weg hinführen soll?
Führen mit Zielen greift einen bestimmten Aspekt von Führung auf. Es vollzieht sich mithilfe von zwei Instrumenten: Zum einen mit Zielvorgaben von oben nach unten und zum anderen mit formalisierten Prozessen zur Vereinbarung von Zielen. Die Zielvereinbarungen dienen dazu, die strategischen und die operativen Ziele des Unternehmens sowie die individuellen Mitarbeiterziele miteinander in einen schlüssigen Zusammenhang zu bringen. Mittlerweile haben viele Unternehmen den Prozess der Zielvereinbarung weiterentwickelt, um die Mitarbeiter an der Erarbeitung der Ziele zu beteiligen und damit das Verständnis und die Motivation zu fördern. Dennoch werden die strategischen Unternehmensziele häufig nach wie vor allein von der Geschäftsleitung definiert. Bereichs- oder Teamziele sowie die individuellen Aufgaben- und Entwicklungsziele für die Mitarbeiter werden dann in Gruppen- und Einzelgesprächen erarbeitet. Auf diese Weise können die Mitarbeiter von Anfang an einen gewissen Teil der Verantwortung für die Verwirklichung der Ziele übernehmen. Die Aufgabe der Führungskraft ist es nach wie vor, die Zielerreichung zu kontrollieren und zu dokumentieren. Der Vorteil des Management by Objectives liegt auf der Hand: Ziele bieten Orientierung, sie geben die Richtung an, sie schaffen Transparenz und helfen den Mitarbeitern, ihre eigene Rolle und ihren Beitrag zum Unternehmenserfolg zu verstehen. Dieser Vorteil kommt insbesondere dann zum Tragen, wenn die Mitarbeiter an der Erarbeitung der Ziele beteiligt sind. Führen mit Zielen bringt allerdings in der Praxis auch Probleme mit sich. Debatten über Zielverfehlungen aufgrund langer Distanzen oder schwammiger Definitionen sorgen etwa für hitzige Diskussionen und schwindende Motivation. Das gilt vor allem dann, wenn die Zielerreichung mit einem finanziellen Bonus verknüpft wurde. Nicht selten werden andere Leistungen außerhalb des Zielrahmens ins Feld geführt, um den Anspruch auf die Bonuszahlung zu retten. Ungeachtet, ob mit oder ohne Bonus, im Laufe eines Jahres kommt es immer wieder vor, dass Ziele angepasst werden müssen, weil sich die Umstände geändert haben. Speziell in Zeiten der digitalen Transformation ist das morgige Ziel noch gewiss, die Tage danach können, aber müssen nicht, mit neuen Überraschungen aufwarten. Auch wenn dies überspitzt gezeichnet ist, soll es deutlich zeigen, dass gewisse Zeithorizonte, wie hier das eine Jahr, nicht mehr zeitgemäß sind. Zwischenziele, Meilensteine und Raum für Adaptierung sollten fixer Bestandteil für langfristige Motivation und gleichzeitig Transparenz sein. Alles in allem ist dies aber kein Argument, um die Grundidee zu verfälschen. Die Definition von Zielen auf den verschiedenen Ebenen des Unternehmens ist und bleibt ein wichtiger Faktor im Berufsleben. Deshalb sollten Ziele auch und gerade dann, wenn sie für einen längeren Zeitraum definiert wurden, nicht in der Schublade verschwinden. Sie sollten maßgeblich für die tägliche Arbeit sein. Wenn es sich herausstellt, dass ein bestimmtes Ziel revidiert werden muss, dann sollten die Beteiligten ihre Verantwortung wahrnehmen und das Gespräch darüber suchen. Deshalb bleibt Zielorientierung ein wichtiges Thema auch – oder vielleicht sogar gerade – unter den geänderten Vorzeichen der digitalen Transformation.
Management by Delegation: Delegieren und das Übertragen von Verantwortung auf Mitarbeiter oder Teams ist eine wichtige Führungsaufgabe. Inwieweit sie gelingt, hängt meist mit der Frage des Vertrauens zusammen. Das gilt für die Führungskraft ebenso wie für die Mitarbeiter. Delegieren ist nicht zuletzt aus zwei Gründen wichtig: Zum einen verhindert es, dass Wissen an einzelnen Stellen gehortet wird, zum anderen fördert es die Zusammenarbeit und die Weitergabe von Informationen. Diese Faktoren spielen angesichts der heutigen Informationsvielfalt eine zentrale Rolle.
Im Wesentlichen geht es beim Führen durch Delegieren darum, möglichst viele Aufgaben, aber auch möglichst viel Verantwortung an Mitarbeiter oder Teams von Mitarbeitern zu übertragen. Damit wird die Führungskraft entlastet. Außerdem steigen der Grad der Selbstorganisation und die Motivation der Mitarbeiter, weil sie mehr Einfluss und Entscheidungsmöglichkeiten genießen. Allerdings fällt es vielen Führungskräften schwer, zu delegieren. Um effektiv delegieren zu können, werden passende Techniken und ein gewisses Fingerspitzengefühl benötigt. Worauf kommt es also an, wenn Sie effektiv delegieren wollen? Das Wichtigste ist nach wie vor: Vertrauen. Die Führungskraft muss darauf vertrauen können, dass die Aufgaben, die sie delegiert, in ihrem Sinne gelöst werden. Dazu zählt auch ein Vertrauensvorschuss, etwa bei neuen, unbekannten Mitarbeitern. Das ist einfacher, als es klingt. Die Mitarbeiter wiederum müssen sich darauf verlassen können, dass ihr Vorgesetzter tatsächlich delegiert und sich nicht nur der Aufgaben entledigt, die ihm selbst unangenehm sind. Klingt anfänglich widersprüchlich, ist jedoch gängige Praxis und ein Garant für Unzufriedenheit. Fremdarbeit, meist die der Führungskraft, wird erledigt, Aufgaben des eigenen Bereiches werden hinten angereiht. Effektives Delegieren setzt gewisse Rahmenbedingungen vonseiten des Unternehmens voraus, d. h. so etwas wie eine Delegationskultur. Wenn die Führungskraft delegiert, dann gibt sie auch Wissen ab. Jedoch ist die Führungskraft selbst kaum mit jedem Detail und mit jeder Aufgabe vertraut bzw. ist es nicht möglich, immer den aktuellen Informationsstand zu haben, insbesondere dann, wenn auch andere Personen beteiligt sind und nur diese Aufgabe von einer Person zugeteilt wurde. Wenn aber die Führungskraft dies erwartet, dann wird Delegieren fast unmöglich. Das kommt nicht so selten vor, wie Sie vielleicht vermuten. Wenn es aber funktioniert, ist dies ausgezeichnet und zeugt von einem eingespielten Team und einem homogenen Wissensstand.
Nehmen Sie an, Ihr eigener Chef sei risikoscheu und setzt bei seiner Arbeit den Hauptakzent darauf, seine Mitarbeiter eng zu kontrollieren. Letzten Endes glaubt er nur an die Ergebnisse, die er selbst herbeigeführt hat. In diesem Fall dürfte es für Sie als Führungskraft kaum möglich sein, zu delegieren, auch wenn Sie es selbst noch so sinnvoll finden. Delegation erfordert zudem auch passende Instrumente und nicht lediglich die Übertragung einer Tätigkeit. Das betrifft auch die Kontrollmechanismen:
Nicht immer ist es sinnvoll oder möglich, eine Aufgabe zur Gänze zu delegieren. Die Folge ist in diesen Fällen, dass die Aufgabe zerlegt wird und dass nur bestimmte Teile davon delegiert werden. Zudem gilt es, immer zu fragen, an welche Person delegiert werden sollte. Nicht jeder Mitarbeiter ist für eine bestimmte Aufgabe gleich gut geeignet und am Ende muss entschieden werden, wie kontrolliert wird. Reicht es aus, das Endergebnis zu prüfen? Oder ist die Aufgabe so komplex, dass ein Zwischenbericht vorgelegt werden sollte? An dieser Stelle ist vor allem Kommunikation gefragt. Die delegierende Führungskraft muss die Aufgabe hinreichend genau beschreiben, den Termin festlegen, bis zu dem die Aufgabe gelöst sein soll, und nicht zuletzt entscheiden, wie kontrolliert werden soll. Delegieren ist ein wichtiges Mittel, um Verantwortung zu teilen, Ressourcen effektiv zu verteilen und die Fähigkeiten der Mitarbeiter zu nutzen. Personalentwicklung entlang bewährter Karrierepfade: Karriere bedeutet für viele Menschen immer noch, eine zunehmende Anzahl von Mitarbeitern unter der eigenen Leitung zu versammeln und währenddessen Schritt für Schritt die Karriereleiter hinaufzusteigen. In verteilten Teams und flachen Hierarchien und überall dort, wo Führung auf eine begrenzte Zeit angelegt ist, hat dieser Ansatz aufgrund von Unmachbarkeit ausgedient. Folglich sind neue Ansätze notwendig.
7 Spannende Blickwinkel
Spannende Blickwinkel, welche es noch zu berücksichtigen gilt, wollen wir in diesem Kapitel betrachten. Obwohl Globalisierung mittlerweile zum alten Eisen der Unternehmensveränderung gezählt werden kann, ist sie nach wie vor omnipräsent und wesentlicher Bestandteil und im Speziellen in Kombination mit der digitalen Transformation. Große Konzerne in allen Branchen haben sich längst mit der Globalisierung auseinandergesetzt und nutzen deren Vorteile für sich. Aber viele andere, gerade kleine und mittelständische Unternehmen, haben mit dem Thema noch Schwierigkeiten. Manchmal erscheint bereits der Schritt über die eigenen Ländergrenzen hinweg, selbst in die angrenzenden Nachbarländer, als gewagtes Unterfangen.
Die Herausforderung zur „Eroberung“ neuer Länder kann in zwei Kernelementen beschrieben werden. Der Schritt in ein neues Land bedeutet immer auch die Auseinandersetzung mit fremden Gesetzen, Normen und Standards. Je nach Land und Branche sind die damit verbundenen Probleme mehr oder weniger schwerwiegend. Möglicherweise muss das Unternehmen externe Spezialisten zurate ziehen, die die Eigenheiten des betreffenden Landes gut kennen. Das entscheidendere Element lässt sich folgendermaßen umschreiben: Globalisierung bedeutet Arbeitsteilung, geteilte Verantwortung und damit letztendlich verminderte Möglichkeiten der Kontrolle für alle Beteiligten. Wenn ein Unternehmen seine Geschäftstätigkeit internationalisiert, dann ist es durchaus nicht ungewöhnlich, dass beispielsweise die Zentrale in Österreich, die Leistungserbringung in London und das Tochterunternehmen in Ungarn sitzen. Der kurze Weg zum Schreibtisch des Kollegen, den viele Mitarbeiter schätzen, fällt dann ebenso weg wie die gemeinsame Tasse Kaffee oder der Austausch in der Mittagspause.
Was bedeutet diese zweifache Herausforderung für Führungskräfte?
Führungskräfte sollten Veränderungen begleiten, die mit Globalisierungsprozessen einhergehen. Einen guten Anwalt zu finden, der die Gesetze in dem fremden Land kennt, ist das geringste Problem. Viel schwieriger ist es hingegen, die Mitarbeiter in diesem Prozess zu begleiten und ihren Unsicherheiten und Ängsten zu begegnen. Die Führungskräfte sind euphorisch, sehen neue Chancen, wachsenden Umsatz und vielleicht auch persönliche Entwicklungsmöglichkeiten. Die Mitarbeiter sind hingegen meist verunsichert. Diverse Expansionsvorhaben, welche in den Sand gesetzt wurden, zeigen immer dieselben Gewinner und Verlierer, obwohl diese aus denselben Unternehmen stammen – somit lässt sich hier eine „unbegründete“ Sorge nicht abstreiten.
Fragen damals wie heute sind:
• Bin ich diesen Anforderungen gewachsen?
• Wie kann ich mit Sprachproblemen umgehen?
• Was bedeutet es für mich, wenn ich mich nicht eben mal spontan mit dem Kollegen von nebenan besprechen kann?
Digitalisierung ist in diesem Punkt ein starker Verbündeter– sei es durch Videotelefonie, Übersetzungsdienstleistungen u. v. m. Führungskräfte können bzw. müssen ihre Mitarbeiter bei der Suche nach Antworten auf diese Fragen unterstützen. Das setzt aber zweierlei voraus:
1. Sie sollten zum einen zwischen den Zeilen lesen können wie z. B., wenn ein Mitarbeiter im Team-Meeting fragt, ob denn die Unternehmensführung alle Bedingungen in dem anderen Land erfüllen kann und eigentlich meint, dass er sich nicht sicher ist, ob er alle Spielregeln beherrscht. Oft verstecken sich hinter vermeintlich sachlichen Argumenten persönliche Ängste und Befürchtungen.
2. Eng damit verbunden ist: Führungskräfte müssen intensiv mit ihren Mitarbeitern kommunizieren. Das gilt gegenüber dem gesamten Team ebenso wie gegenüber jedem einzelnen Mitarbeiter. Die Kommunikation mit dem Team muss vor allem dazu dienen, die Prozesse transparent zu machen und die Motivation zu sichern. Im Zweiergespräch mit dem Mitarbeiter hingegen ist Raum, um über Ängste zu sprechen und Hilfestellungen vonseiten des Unternehmens beispielsweise in Form von Schulungen zuzusichern. Demografische Herausforderungen: Die Babyboomer-Generation der Sechziger- und frühen Siebzigerjahre ist meist schon auf dem Weg in den wohlverdienten Ruhestand. Vor allem im öffentlichen Bereich, aber auch in vielen Unternehmen, wird in den nächsten zehn bis 15 Jahren ein rundes Drittel der Beschäftigten altersbedingt aus dem Erwerbsleben ausscheiden. Parallel dazu fehlen Fach- und Führungskräfte heute mehr als damals. Die digitale Transformation ist ein maßgeblicher Treiber bzw. in erster Linie die Digitalisierung per se. Hier könnte in den Raum gestellt werden, dass dies den Wissensansprüchen der einzelnen Länder und Unternehmen selbst geschuldet ist. Würden die Ambitionen zurückgeschraubt werden, würde damit der Fachkräftemangel reduziert werden, allerdings würde damit auch die eigene Marktstellung und der gute Ruf der letzten Jahre zunichtegemacht. Ganz gleich, ob Land oder Unternehmen, dieses Vorhaben der Expansion steht wohl bei kaum jemandem auf der Tagesordnung. Wie üblich soll die Entwicklung forciert, etabliert und Neues geschaffen werden. Neben Technik benötigt dies auch Menschen. Die Realisierung ist schwieriger als gedacht, selbst wenn genügend Menschen vorhanden wären, welche die nötigen Fähigkeiten beherrschen – benötigt werden auch Brückenmacher, welche die digitale Transformation begleiten und die Schnittstellen bestmöglich glätten.
Der Gegenpart zu den baldigen Pensionisten sind die Youngsters aus der Generation Y und Z, also alle diejenigen, die seit den Achtzigerjahren geboren wurden. Sie treten ins Berufsleben ein – die Dualität bildet für viele Personaler eine markante Herausforderungen. In Bezug auf diejenigen, die in den kommenden Jahren in den Ruhestand gehen, geht es für die Unternehmen vor allem um eines: Wissenstransfer bzw. -haltung. Eine Frage, mit der sich momentan viele Firmen konfrontiert sehen, lautet: Wie kann verhindert werden, dass der Erfahrungsschatz der baldigen Pensionäre verloren geht?
Die Lösung der obigen Frage wird einerseits in der Technik gesucht, indem Wissen festgehalten und per Datenbank zugänglich gemacht wird. Andererseits versuchen Unternehmen, Mitarbeiter mithilfe von flexiblen Rentenlösungen länger an die Unternehmen zu binden, damit sie ihr Wissen und vor allem ihre Erfahrung weitergeben können.
Ein weiteres Gedankenspiel: Wie würde der Transfer Ihres Wissens, Ihrer Expertise aussehen? Könnte dieses im Sinne des digitalen Signals und somit verlustbefreit transferiert und reproduziert werden oder bleibt doch etwas auf der Strecke? Und wenn ja, handelt es sich dabei um das „i-Tüpfelchen“?
In den meisten Fällen ist es genau dieser eine Mehrwert, welcher kaum oder gar nicht anderswo festgehalten werden kann. Viel entscheidender ist aber derzeit die Auseinandersetzung mit den Generationen Y und Z. Personaler haben in aller Regel ein eher getrübtes Bild von dem kommenden Gestalten der Zukunft. Die Generationen Y und Z haben in aller Regel hohe Ansprüche und ein übermäßiges Selbstbewusstsein. Außerdem neigen sie zur Selbstüberschätzung. Mit ihrer Kritikfähigkeit ist es nicht allzu weit her. Andererseits sind ihre Mitglieder gut vernetzt, oftmals gut informiert und zeigen eine hohe Flexibilität und Wechselbereitschaft. Die Digitalisierung hat hier beste Arbeit geleistet, dem Internet und seinen Elementen sei Dank. Jedoch kann nicht der Technik, wie so oft, die Schuld zugewiesen werden, sondern es gilt auch hier: „Es ist das, was man daraus macht“.
Was können Führungskräfte aus diesem Bild der Generationen Y und Z ableiten?
• Versuchen Sie nicht, Dinge zu ändern, die Sie nicht ändern können. Jede Generation hat ihre Eigenheiten, die logischerweise bei anderen Generationen oft auf Unverständnis stoßen. Im beruflichen Kontext kann das nur bedeuten, diese Eigenheiten so weit wie möglich zu akzeptieren. Es geht nicht um persönliches Empfinden, sondern um effektive, zielorientierte Arbeit. Die Flexibilität und Wechselbereitschaft jüngeren Generationen ist einerseits eine Herausforderung für Führungskräfte, ist doch diesen Generationen die Idee, das eigene Berufsleben bis zu seinem Ende in ein und demselben Unternehmen zu verbringen, völlig fremd. Andererseits können die Mitarbeiter auf die ständigen Veränderungen, die in vielen Unternehmen an der Tagesordnung sind, viel besser reagieren.
• Die hohe Technikaffinität der Generationen Y und Z stört manchen Ausbilder, der es nicht gewohnt ist, dass während der Arbeit beispielsweise WhatsApp-Nachrichten verschickt werden. Andererseits sollten Sie darüber nachdenken, wie Sie diese Affinität nutzen können, um die eigenen Prozesse umzugestalten und effizienter zu machen. Dies soll jedoch nicht als Freibrief für den uneingeschränkten Technik-Konsum verstanden werden, eine ausgewogene Mischung ist hier das erklärte Zielbild.
Die hohen Ansprüche jüngerer Generationen, die viele von uns vermutlich wahrnehmen, führen möglicherweise zu einem besseren Ausgleich zwischen Beruf und Privatleben. Jedoch scheiden sich auch hier die Geister: Da die exorbitante Benutzung von Digitalem mit hohem Suchtfaktor, Wahrnehmungsverzerrung und möglicher Überforderung durch Informationsflut diesem Gedanken des Ausgleichs entgegensteht. Der eben geschilderte demografische Wandel bringt vor allem auch in der Personalrekrutierung Veränderungen mit sich. Das bedeutet deutliche Auswirkungen für das Unternehmen, die Führung sowie für die tägliche HR-Tätigkeit. Das arbeitgeberzentrierte Recruiting wird zugunsten eines bewerberzentrierten Recruitings in den Hintergrund treten, weil sich der Markt entsprechend verändert. Für Führungskräfte und Personalabteilungen bedeutet das einen Perspektivenwechsel.
Ich bewerbe mich um den Kandidaten!
Das ist sicher für viele eine Herausforderung für sich, bedeutet sie doch, dass sich Unternehmen deutlich positionieren und ihren Mitarbeitern mehr bieten müssen als die pünktliche Gehaltszahlung am Monatsende.
Arbeitsprozesse und Arbeitsorganisation: Änderungen in der Arbeitswelt hat es immer schon gegeben und wird es auch immer geben. Andernfalls wären viele Innovationen nie zustande gekommen. Aber die Globalisierung und die Digitalisierung haben neue Veränderungsimpulse gesetzt. Wird der wachsende Mangel an Fachkräften in bestimmten Bereichen hinzu addiert, so wird noch einmal mehr deutlich, woher die jüngeren Veränderungen stammen. Globalisierung und Digitalisierung haben dazu geführt, dass Menschen nicht mehr in einem Büro zusammensitzen müssen, um miteinander arbeiten zu können. Sie können über Kontinente verteilt sein und müssen noch nicht einmal demselben Unternehmen angehören. Sie können zeitlich begrenzt zusammenarbeiten, um gemeinsam ein bestimmtes Projekt zu verwirklichen. Dezentrale oder virtuelle Teams arbeiten zuweilen ebenso erfolgreich wie feste Teams. Eine solche Zusammenarbeit stellt Mitarbeiter und Führungskräfte gleichermaßen vor neue Herausforderungen. Für die Mitarbeiter geht es dabei darum, sich schnell an andere Charaktere und deren Arbeitsweisen anzupassen. Flexibilität ist gefragt. Führungskräfte müssen noch einen Schritt weiter gehen.
Führungskräfte müssen ein Team steuern, für dessen Mitglieder sie nicht im klassischem Sinne Führungsverantwortung tragen, zumindest nicht für alle. Das eine oder andere Teammitglied untersteht vielleicht der direkten Verantwortung der Führungskraft. Hierzu gesellen sich ggf. Mitglieder aus anderen Abteilungen oder Bereichen und nicht zuletzt womöglich auch externe Personen (Berater etc.). Die Führungskraft kann sich also zumindest
nicht allein auf die herkömmlichen Methoden zur Durchsetzung und Sanktionierung stützen. Sie ist gefordert, mehr in Kommunikation und Motivation zu investieren und auf die freiwillige Mitarbeit der Teammitglieder zu setzen.
Ebenso wird das klassische Bild einer Führungskraft und ihrer Karriere in Frage gestellt. Der althergebrachte Ansatz, auf jeder weiteren Stufe der Karriereleiter Verantwortung für zusätzliche Mitarbeiter zu übernehmen, lässt sich unter den veränderten Vorzeichen der Globalisierung und der Digitalisierung nicht mehr anwenden. Für einige Führungskräfte ist das völlig in Ordnung. Für andere Führungskräfte, deren Selbstwertgefühl an das klassische Karriereverständnis gekoppelt ist, bedeutet es ein Problem. Hier gilt es, entsprechend unterstützend tätig zu werden.
Im Extremfall kippt das Verständnis vom beruflichen Erfolg. Das ist eine Herausforderung, die sich nur individuell bewältigen lässt. Das Führungsbild wird sich in den nächsten Jahren definitiv einem Wandel unterwerfen (müssen). Heute mangelt es allerdings noch an generellen Empfehlungen, wie Führungskräfte damit umgehen können.
Veränderungen zu akzeptieren, ist dann recht flott und kompromisslos möglich, wenn der eigene Nutzen daraus erkennbar wird. Fragen Sie sich: Was bringt es mir persönlich, wenn ich in einem dermaßen veränderten Umfeld arbeite?
Stichworte wie mehr Freiheit für die Führungskraft oder weniger Belastung durch die Verantwortung, effizientes Arbeiten und zufriedene Mitarbeiter sind hier ein paar mögliche Ausprägungen.
8 Führung 3.0 – vom Manager zum Leader
Nach der digitalen Transformation ist vor der digitalen Transformation. Sehen wir uns daher im Folgenden genauer an, wie Sie das Bestmögliche aus der Veränderung herausholen können.
8.1 Auf Augenhöhe
Stellen Sie sich eine Führungskraft vor, die ein Team aus Spezialisten führt. Das Unternehmen legt Wert auf Transparenz. Führungswissen im Sinne eines Informationsvorsprungs der Führungskräfte gibt es nur noch in sehr begrenzten Bereichen. Woraus kann diese Führungskraft ihre Legitimation zur Führung beziehen? Aus ihrem Fachwissen kann Sie dies nur begrenzt, denn an das Wissen ihrer Spezialisten wird es nicht heranreichen. Aus einem Wissensvorsprung auch nicht, denn das widerspricht den Grundsätzen des betrachteten Unternehmens. Unter derartigen Vorzeichen, die sehr häufig heute schon gesetzt sind, verändert sich die Führung. Die Macht der Führungskraft lässt sich nicht mehr aus ihrem Vorsprung gegenüber dem Team ableiten. An die Stelle von Macht tritt Überzeugungskraft. Die Führungskraft gibt ihren Vorsprung auf und stellt sich auf Augenhöhe mit den Mitarbeitern. Unter den Führungskräften gibt es solche, denen bei dieser Vorstellung Schweißperlen auf die Stirn treten. Andere wiederum freuen sich und sagen z. B.:
• „Ich will kein Sklaventreiber sein.“
• „Ich will nicht bestimmen, nur weil ich Chef bin. Stattdessen macht es mich zufrieden, wenn es mir gelingt, meine Mitarbeiter zu überzeugen und zu motivieren.“
Vielleicht liegt die Wahrheit, wie so oft, „irgendwo dazwischen“. Führungskräfte brauchen eine gewisse Fachkompetenz, um Anerkennung zu finden. Ein neuer Chef einer Abteilung, der aus einem komplett anderen Fachgebiet stammt, wird sich sehr schwertun. Es wird lange dauern, bis er akzeptiert wird, deutlich länger als bei jemandem, der die Inhalte des Bereichs kennt, den er leitet. Andererseits geht es gerade in flachen Hierarchien oder in Teams, die sich über mehrere Abteilungen oder Standorte verteilen, nicht um die klassische Durchsetzung von Positionen aufgrund der formalen Macht des Chefs. Diese Veto-Karte kann heute nur noch im Notfall gezogen werden. Gefordert sind Führungskräfte mit einer hohen sozialen Kompetenz und einer ausgeprägten Kommunikationsfähigkeit. In Führungspositionen werden weniger Entscheider gebraucht als vielmehr Übersetzer, Moderatoren und Konfliktlöser. Auch die Unternehmen sind gefordert, sich an diese Veränderungen anzupassen.
Neue Vorstellungen von Führung bedeuten nicht nur, dass potenzielle Führungskräfte anders ausgewählt werden müssen. Es bedeutet außerdem eine komplette Veränderung der Unternehmenskultur. Darin liegt für die Unternehmen auch ein Risiko, denn die Anforderungen an Mitarbeiter und Führungskräfte steigen. Nicht jeder ist bereit und fähig, diesen Weg mitzugehen, da sich doch jeder womöglich noch Fähigkeiten aneignen muss, die in Ausbildung und Studium nicht vermittelt wurden. Lebenslanges Lernen, aber auch die Bereitschaft, sich ein Leben lang zu verändern, sind Teil dieser Anforderungen. Eine Bestätigung, etwas erreicht zu haben, genügt nicht mehr, um auf dem erreichten Niveau bleiben zu können. Aber es gibt auch einen Vorteil: Mehr Selbstverantwortung und Selbstorganisation der Mitarbeiter und Führungskräfte resultieren häufig in einer höheren Motivation. In der Konsequenz tragen so mehr Menschen mit mehr Engagement zum Erfolg eines Unternehmens bei.
8.2 Leader anstatt Manager
In klassischen Hierarchien ist die Aufgabe von Führungskräften klar. Sie agieren als Vorgesetzte, sie organisieren, strukturieren, geben Ziele vor und kontrollieren die Leistung der Mitarbeiter. Angesichts der neuen Herausforderungen ist eine veränderte Rolle der Führungskraft gefragt. Es geht darum, auch als Angestellter unternehmerisch zu denken.
Was das bedeutet, lässt sich folgendermaßen beschreiben:
• Zuerst muss die Führungskraft einen stärkeren Akzent auf die Definition des generellen Rahmens setzen. Dazu gehören die grundlegenden Prinzipien und Werte, nach denen gearbeitet wird. Die Ausgestaltung und die Entscheidung über die Details werden dem Team überantwortet.
• Die Führungskraft muss die Ausrichtung ihres Handelns verändern. Früher ging es darum, definierte Ziele zu erreichen und dafür zu sorgen, dass die Mitarbeiter diese Ziele nachhaltig verfolgen. Demgegenüber gilt es heute, Wege zu finden und Chancen zu erarbeiten.
• Die Führungskraft muss sich stärker auf die Entwicklung von Strategien und auf das Vorantreiben von Innovationen konzentrieren. Das kann sie auch, und zwar deshalb, weil sie von operativen Aufgaben befreit wird ( korrektes Delegieren). Anders formuliert: Die Führungskraft gewinnt an kreativer Freiheit. Damit wird sie im Verhältnis zu den Mitarbeitern stärker zum Personalentwickler und Coach. Wenn die Führungskraft den Blick darauf richtet, was sie mit den verfügbaren Mitteln erreichen kann, bedeutet das immer auch zu fragen:
• „Was können meine Mitarbeiter?“
• „Wohin können sie sich entwickeln?“
In der täglichen Arbeit bedeutet das auch, dass die Führungskraft dazu fähig sein muss, loszulassen, Verantwortung abzugeben und zu delegieren. Das setzt Vertrauen in die Mitarbeiter voraus. Es braucht aber auch ein gutes Selbstbewusstsein der Führungskraft.
Weshalb? Macht, Status, Entscheidungsbefugnis oder Informationsvorsprünge zählen jetzt nicht mehr. An die Stelle der althergebrachten Faktoren zur Legitimierung von Führung treten neue, deutlich weniger griffige Faktoren. Für jemanden, der seinen Führungsanspruch nach außen deutlich machen will, kann das schwierig sein. Gerade die Aussicht auf einen Machtzuwachs ist für viele Mitarbeiter, die nach einer Führungsposition streben, ein wichtiger Antrieb. Wenn das konsequent zu Ende gedacht wird, dann arbeiten Führungskräfte im Rahmen der neuen Führungsmodelle täglich daran, sich selbst abzuschaffen. Stimmt das? Zum Teil vermutlich. Die Führungskräfte arbeiten daran, ihre alten Aufgaben und ihre alte Rolle abzuschaffen. Dafür erhalten sie eine neue Rolle. Diese neue Rolle kann mehr Freiheit bedeuten, mehr Flexibilität und mehr Kreativität. Auch Führungskräfte brauchen ab und zu eine neue Motivation, um für ihr Unternehmen ihr Bestes geben zu können.
8.3 Zeit- und Selbstmanagement
Die Digitalisierung und veränderten Arbeits- und Organisationsstrukturen führen dazu, dass zu jeder Zeit an jedem Ort der Welt gearbeitet werden kann. Das klingt einerseits sehr verlockend, andererseits stellt es aber große Herausforderungen an das Zeit- und Selbstmanagement. Vier Faktoren sind hierbei ausschlaggebend:
• Technische Möglichkeiten, um überall und immer erreichbar und arbeitsfähig zu sein: Die Trennlinie zwischen Freizeit und Arbeitszeit verschwimmt zunehmend. Früher war die Arbeit des Tages mit dem Verlassen des Büros abgeschlossen.
• Daher muss heute der Einbau von Ruhephasen in den Alltag viel bewusster geschehen. Führungskräfte sind hierbei doppelt gefragt. Zum einen müssen sie für sich selbst sorgen, zum anderen müssen sie auch ihre Mitarbeiter in die Lage versetzen, ihren Arbeitsalltag ausgewogen zu organisieren. Die Führungskraft, die z. B. Sonntagmittag eine E-Mail verschickt und noch vor Beginn der regulären Arbeitszeit am darauffolgenden Montag eine Antwort des Mitarbeiters erwartet, taugt in dieser Hinsicht nicht als Vorbild.
Gefragt sind Spielregeln und eine klare Kommunikation dieserSpielregeln anstelle einer überhöhten Erwartungshaltung.
• Priority first: Mit der steigenden Informationsflut und der wachsenden Anzahl an Kommunikationskanälen nimmt auch die Notwendigkeit zu, Prioritäten zu setzen. Wenn es überall piept, klingelt und vibriert ist es noch wichtiger, zu entscheiden, was zuerst getan werden sollte und ob überhaupt jetzt die Zeit dafür ist, auf eine von diesen Ausprägungen zu reagieren.
• Selbstmanagement: Das bedeutet, dass jede Führungskraft dazu in der Lage sein muss, die neuen Freiheiten sinnvoll zu nutzen. Dazu muss sie zunächst einmal im ersten Schritt fähig und willens sein, ihre veränderte Rolle anzunehmen. Nur dann entstehen die neuen Freiheiten auch tatsächlich. Im zweiten Schritt gilt es, sich angesichts der neuen Freiheiten nicht auszuruhen, sondern die neue Rolle mit Leben zu füllen. Das wiederum bedeutet, kreativ zu sein, strategisch zu denken und neue Chancen zu erschließen.
• Selbstvertrauen: Unter den veränderten Vorzeichen brauchen Führungskräfte noch mehr Selbstvertrauen im wahrsten Sinne des Wortes. Wo weniger externe Regeln den Alltag bestimmen, ist die Orientierung an selbst gesetzten Regeln ein wichtiger Faktor. Eine realistische Selbsteinschätzung und die Fähigkeit zur Selbstkritik und Selbstkorrektur werden in Zukunft deutlich wichtiger.
Für Führungskräfte summiert sich all das zu einer echten Herausforderung. Sie müssen immer zwei Seiten bedenken. Auf der einen Seite sind sie gefordert, in Kooperationen zu denken, mit den Mitarbeitern auf Augenhöhe zu arbeiten und sich eng auszutauschen. Auf der anderen Seite müssen sie ihre eigene Person im Blick behalten und sorgsam mit sich selbst und ihrer eigenen Zeit umgehen. Die größte Veränderung liegt in der Selbstbetrachtung. Anstatt den Blickwinkel darauf zu richten, woraus ich als Führungskraft für mich persönlich den größten Nutzen ziehen kann, geht es jetzt um eine andere gemeinschaftliche Art der Entwicklung.
8.4 Digitales Mindset
Die Zeitschrift Manager-Seminare hat vor einiger Zeit ein Konzept vorgestellt, das Antworten auf die neuen Herausforderungen für die Führung geben soll. Fünf Herausforderungen und Antworten darauf wurden vorgestellt, die sehr gut darstellen, was auf Führungskräfte gegenwärtig und in der (nahen) Zukunft zukommt.
Die fünf Herausforderung sind:
1. Denke digital! Digital zu denken bedeutet, technische Neuerungen zu beobachten und zu fragen, wie die Führungskraft für das Unternehmen daraus den größten Nutzen ziehen kann.
2. Machtverlust: Im Umkehrschluss bedeutet das: „Sei bescheiden!“ Der Wissensvorsprung von Führungskräften geht zunehmend verloren. Stattdessen kommunizieren Digital Leaders auf Augenhöhe mit Mitarbeitern und anderen Abteilungen über verschiedene Hierarchieebenen hinweg und auch nach außen. Sie sind nicht Entscheider und Weisungsgeber, sondern Moderatoren bei der Suche nach Lösungen.
3. Transparenz: „Teile alles!“ Das Schlagwort hier lautet Social Collaboration. Der Digital Leader ist darum bestrebt, alle Informationen in firmeninternen Netzwerken verfügbar zu machen. Jeder Mitarbeiter hat die Chance, zu jeder Zeit auf dem aktuellen Stand zu sein, weil keine Information zurückgehalten wird. So erhält er die Möglichkeit,
sich einzubringen.
4. Gelassenheit mit der Devise „Einfach ausprobieren!“: An die Stelle von Planung tritt unter den neuen Arbeitsbedingungen der Mut zum Experimentieren und Fehlermachen. Das bedeutet, für den Digital Leader, dass er Fehler akzeptieren und eine Fehlerkultur entwickeln muss. Fehler sind immer zugleich auch Entwicklungs- und Lernchancen.
5. Vertrauen oder „in Mitarbeiter, we trust“: Vertrauen ist eine zentrale Fähigkeit des Digital Leaders. Er vertraut erstens seinen Mitarbeitern und ihren Fähigkeiten. Er vertraut zweitens auf seine eigene Bedeutung im Unternehmen abseits der alten Hierarchien. Drittens vertraut er auf die Zukunft und sieht Chancen und Möglichkeiten. Insofern ist er auch ein sehr optimistischer Mensch mit einem positiven Menschenbild.
Ohne Vertrauen in die Mitarbeiter und in die eigene Leistung sowie den positiven Blick in die Zukunft in Verbindung mit einer robusten Fehler- und Lernkultur kann heute niemand mehr erfolgreich führen. Einigkeit herrscht auch darüber, dass der Wissensvorsprung gegenüber den Mitarbeitern gesunken ist. Schließlich ist auch die zentrale Bedeutung von Technologie für Veränderungsprozesse unumstritten. Allerdings sollte diese auch nicht über schätzt werden. Mit der richtigen Technologie lässt sich zwar vieles lösen, jedoch bleibt Führung menschlich.
Viele Führungskräfte praktizieren bereits digitale Führung, ohne dass Sie jemals über die theoretischen Grundlagen nachgedacht haben. Das ist eine nur zum Teil beruhigende Erkenntnis, angesichts der Herausforderungen, die jetzt und in Zukunft auf uns alle zukommen.
9 Führung 4.0 – vom Leader zum Coach
9.1 Was bedeutet Führung 4.0?
Die Führungskräfte von heute benötigen eine Vielzahl von Kompetenzen, um auf die durch die Digitalisierung bedingten Veränderungen in der Arbeitswelt optimal reagieren und sich anpassen zu können. Leadership 4.0 ist ein Sammelbegriff für die bereits begonnene und zu erwartende Weiterentwicklung des Führungsverhaltens als unmittelbare Folge der digitalen Transformation.
Der Beginn der vierten industriellen Revolution bringt die neuen Bedingungen der so genannten radikalen Unsicherheit14 mit sich, in denen Manager die Merkmale der Situationen, mit denen sie konfrontiert sind, nicht mehr genau beschreiben können. Das bedeutet, dass sie sich nicht mehr auf Vorhersehbarkeit und ihre bisherigen Erfahrungen verlassen können. Frühere Problemlösungsansätze sind im Grunde nicht mehr relevant und die Folgen ihres üblichen Handelns werden zu einer Blackbox.
Die technologischen und wirtschaftlichen Veränderungen ausgelöst durch die vierte industrielle Revolution haben auch den Kontext für Leadership erheblich verändert. In diesem Zusammenhang wird Führung immer weniger als eine Eigenschaft einer Person betrachtet, sondern vielmehr als eine emergente und gemeinsame Eigenschaft des Systems, in dem die Führungskraft tätig ist. Dies besteht aus vier voneinander abhängigen Elementen:
• Leader (Führungskraft),
• Followers (Teammitglieder),
• Situation und
• Kontext.
Abbildung 6: Ego zu Eco Leadership
Die allgemeine Empfehlung ist, von einer „heroischen“ individualistischen Führung („Ego“) zu einer Führung überzugehen, die die Organisation als ein in andere Systeme eingebettetes System erkennt („Eco“). Um Leadership 4.0 greifbarer zu machen, ist es sinnvoll, auch die Konzepte von Industrie 4.0 und Arbeit 4.0 einzeln zu betrachten.
Industrie 4.0
Ist eine Revolution, die auf der fortschreitenden Digitalisierung beruht. Mit der Entwicklung neuer Technologien entstehen auch neue Formen der Mensch-Maschine-Interaktion (MMI) mit dem gemeinsamen Ziel, neue Formen der Produktion zu schaffen, Arbeitsprozesse zu optimieren und Kosten zu senken.
Ein einfaches Beispiel für eine solche revolutionäre Technologie ist das IoT (Internet der Dinge) und die sogenannten „smart Factories“, die als ein miteinander verbundenes Netzwerk von Maschinen, Kommunikationsmechanismen und Rechenleistung definiert werden können. Dieses Netzwerk nutzt fortschrittliche Technologien wie Künstliche Intelligenz (KI) und maschinelles Lernen, um Daten zu analysieren und automatisierte Prozesse zu steuern. Auch wenn viele Aspekte noch visionär erscheinen mögen, sind die digitale Transformation und die damit verbundenen technischen Möglichkeiten bereits von entscheidender Bedeutung für Unternehmen aller Branchen.
Abbildung 7: Smart Factory 16
Die Auswirkungen von Industrie 4.0 beschränken sich jedoch nicht nur auf die Optimierung von Produktionsprozessen, sondern zeigen sich auch in grundlegenden Veränderungen der Art und Weise, wie wir arbeiten und miteinander kommunizieren. Dies führt zurück zum Thema der digitalen Führung und der großen Bedeutung eines kollaborativen Führungsstils.
Arbeit 4.0
Arbeit 4.0 bezieht sich allgemein auf die Zukunft der Arbeitswelt. Der Begriff umfasst alle Veränderungen von Arbeitsformen und Arbeitsbedingungen und befasst sich mit den Auswirkungen der Digitalisierung, Automatisierung und anderen technologischen Fortschritten auf das Arbeitsleben. Die Arbeitswelt 4.0 ist geprägt von der Digitalisierung und umfasst die Automatisierung von Prozessen, flexible Arbeitszeiten und -orte sowie eine globale Vernetzung.
Wie sieht die Arbeitswelt 4.0 in der Praxis aus?
• Zeit- und ortsunabhängiges Arbeiten: Mitarbeiter können sich mit ihren Kollegen online vernetzen und aus der Ferne arbeiten, die Kommunikation kann über Chat-Tools wie Slack oder Microsoft Teams und Meetings über Videokonferenzen erfolgen.
• Digitale und automatisierte Prozesse: Die Integration von Technologie in den Arbeitsplatz reduziert mühsame, zeitraubende und sich wiederholende Aufgaben. Ganze Prozessketten können vollständig automatisiert werden und Analysen von riesigen Datenmengen (Big Data) sind beispielsweise auf Knopfdruck möglich.
• Outsourcing: Die zunehmende globale Vernetzung ermöglicht es den Unternehmen, Arbeiten an externe Unternehmen und Freiberufler auszulagern, um Kosten zu senken und flexibel auf Marktschwankungen zu reagieren. Dadurch profitieren die Unternehmen von einer höheren Effizienz und dem Zugang zu einem breiten Spektrum an Fachwissen und Ressourcen.
• Continuos learning & development: Um mit dem technologischen Wandel und den Anforderungen der Arbeit 4.0 Schritt halten zu können, müssen die Mitarbeiter ihre Fähigkeiten kontinuierlich weiterentwickeln und in einigen Fällen selbst Lernmöglichkeiten finden.
• Agile Organisationen und Führungsstile: Die digitale Arbeitswelt 4.0 erfordert flexible Organisationsstrukturen und einen partizipativen Führungsstil. Hierarchien werden abgebaut, um den Mitarbeitern mehr Freiheit und Verantwortung zu ermöglichen.
• Work-Life Harmony: Work-Life-Harmony bezieht sich auf das Streben nach einer ganzheitlichen und ausgewogenen Integration von der Arbeit in das Privatleben. Im Gegensatz zur traditionellen Work-Life-Balance, die oft als Trennung und Gleichgewicht zwischen Arbeit und Privatleben gesehen wird, zielt Work-Life-Harmony darauf ab, eine nahtlose Verbindung zwischen diesen beiden Bereichen herzustellen.
9.2 New Work vs. Arbeit 4.0
Der Begriff „Arbeit 4.0“ ist hauptsächlich in Deutschland und teilweise in der Europäischen Union bekannt, während international häufiger der Begriff „New Work“ verwendet wird, um die Auswirkungen der Digitalisierung auf die Arbeitswelt zu beschreiben. Die beiden Begriffe werden im Zusammenhang mit der Arbeit der Zukunft oft als Synonyme verwendet. Das Konzept von Arbeit 4.0 selbst wurde erstmals im November 2015 vom deutschen Bundesministerium für Arbeit und Soziales (BMAS) in einem Bericht mit dem Titel Re-Imagining Work: Green Paper Work 4.018 veröffentlicht. In der Praxis und speziell im deutschsprachigen Raum sind New Work und Arbeit 4.0 als zwei eng miteinander verbundene Konzepte zu betrachten, die sich mit verschiedenen Aspekten der modernen Arbeitswelt befassen. Während sich Arbeit 4.0 vorrangig mit Lösungen zur Bewältigung der digitalen Transformation befasst, konzentriert sich New Work auf den Wandel von Sinn- und Wertefragen, der zu veränderten Erwartungen der Mitarbeiter an die Arbeitswelt führt. Beide Ansätze beeinflussen sich gegenseitig gemäß dem Fraunhofer-Institut für Entwurfstechnik der Mechatronik.
• New Work legt den Fokus auf die individuelle Freiheit der Arbeitnehmer, ihre Arbeit nach ihren eigenen Wünschen und Bedürfnissen zu gestalten. Dabei werden Aspekte wie Eigenverantwortung, Partizipation, Sinnhaftigkeit der Arbeit und persönliche Entfaltung gesondert betrachtet.
• Arbeit 4.0 befasst sich mit den technologischen Entwicklungen und Veränderungen, die die Arbeitswelt prägen. Es umfasst Themen wie Digitalisierung, Automatisierung, Künstliche Intelligenz und die zunehmende Vernetzung von Menschen, Maschinen und Daten. Arbeit 4.0 geht dabei über die rein technologische Perspektive hinaus und führt zu tiefgreifenden Veränderungen in den Organisations- und Managementstrukturen.
Übungsaufgabe 2: Wenn Sie an die Veränderungen denken, die derzeit in Ihrem Unternehmen stattfinden, und an die Art und Weise, wie die Menschen ihre Arbeit wahrnehmen, was sind die drei häufigsten Themen, die Ihnen aufgefallen sind? Wenn Sie etwas an Ihrem Arbeitsumfeld ändern könnten, was wäre das?
Woher kommt der Begriff „New Work“?
Wie bereits in Kapitel 1 erwähnt, wurde der Begriff „New Work“ Anfang der Achtzigerjahre von dem Sozialphilosophen Frithjof Bergmann geprägt. New Work geht von der Annahme aus, dass das bisherige, für die Industriegesellschaft charakteristische Arbeitssystem überholt ist und durch eine sinnvollere und zielorientiertere Arbeitsweise ersetzt werden muss. New Work ist im Grunde die Quintessenz des Strukturwandels in der Arbeitswelt und repräsentiert einen Sammelbegriff für die neuen Arbeitsformen, die im globalen und digitalen Zeitalter entstanden sind. Die Auswirkung der digitalen Transformation der Arbeitswelt im Zusammenhang mit grundlegenden Veränderungen von Werten, Verhalten, Arbeitsstilen und Kultur ist das aufkommende Konzept von „New Work“. Neben den Auswirkungen der Digitalisierung auf die Gesellschaft haben auch demograische Veränderungen und die Globalisierungsbewegung der Bevölkerung eine völlig neue Welt an Möglichkeiten für Unternehmen und deren Wachstum eröffnet. Neue Chancen bringen generell auch neue Risiken mit sich und das gilt auch für die Zukunft der Arbeit. Mittlerweile entwickelt sich New Work zu einem Megatrend mit zunehmend wichtigen Auswirkungen auf den langfristigen Erfolg von Organisationen. Laut Frithjof Harold Bergman wird die Art und Weise, wie Unternehmen und Gesellschaften auf New Work reagieren, entscheidend für ihre Zukunft sein. Die vereinfachte Antwort auf die Frage, was New Work ist, lässt sich auf ein einziges Wort herunterbrechen: Reversal. Bergmann betrachtet die Umkehrung der Rollen, hinsichtlich wer wem in der Beziehung zwischen Arbeit und Mensch dient, als zentral für das Konzept von New Work. Er argumentiert, dass das Ziel und der Zweck der Arbeit in der Geschichte („Old Work“) ausschließlich darin bestand, eine bestimmte Aufgabe zu erfüllen. Diese Ideologie würde die Menschen nur als Mittel zum Zweck betrachten und sie in den Dienst der Arbeit stellen bzw. in eine untergeordnete Position bringen.
New Work zielt darauf ab, diese Ordnung umzukehren und die Arbeit stattdessen den Menschen dienen zu lassen.
Die Bedeutung dieser Aussage liegt darin begründet, dass Arbeit nicht erschöpfend oder ermüdend sein sollte, wie es in einer traditionellen Arbeitsstruktur üblicherweise der Fall ist. Sie sollte im Gegenteil dazu beitragen, Menschen zu besseren und erfüllteren Individuen zu entwickeln. In gewisser Weise kann das Konzept von New Work, wie von Frithjof Harold Bergmann definiert, als Äquivalent zur Erreichung der letzten Stufe der Bedürfnispyramide nach Maslow, der Selbstverwirklichung, betrachtet werden. Es geht darum, das Verlangen zu erfüllen, „alles zu werden, wozu man fähig ist“, indem hohe Leistungsniveaus erreicht werden und aktiv nach persönlichem Wachstum gestrebt wird. New Work ist daher kein Zielzustand, sondern ein fortlaufender Prozess der Transformation und Reflexion. New Work ist eine Bewegung, die von einer inhärenten Unzufriedenheit mit konventionellen Arbeitsumgebungen und Organisationsstrukturen getrieben wird. Es steht im Zusammenhang mit den Veränderungen in den Bedürfnissen und Werten der neuen Mitarbeitergenerationen Y und Z, die im vorherigen Kapitel untersucht wurden.
Im Vergleich zu Arbeit 4.0, die sich hauptsächlich auf die Herausforderungen der neuen Arbeitsweisen und auf die Integration digitaler Technologien konzentriert, repräsentiert New Work einen angestrebten Gedanken, einen Hoffnungsschimmer im Zusammenhang mit der digitalen Revolution, der Möglichkeiten für selbstbestimmte Arbeit bietet.
Kernprinzipien von New Work
1. Selbstständigkeit,
2. Freiheit (inkl. Handlungsfreiheit),
3. Teilhabe an einer Gemeinschaft.
Key-New Work-Konzept - „work that people really, really want”.
Die Betonung mit „really, really“ ist der Schlüssel, um den Hauptunterschied zwischen „New Work“ und „Old Work“ zu verstehen. In der alten Arbeitsweise hatten Menschen nicht die Möglichkeit, darüber zu reflektieren, was sie wirklich wollen. Selbst wenn sie heute danach gefragt würden, würden sie wahrscheinlich einige Zeit brauchen, um darüber nachzudenken. Laut Bergmann können die meisten Menschen diese Frage tatsächlich überhaupt nicht beantworten und das ist das, was im Kontext von New Work als „the poverty of desire“ bekannt ist.
9.3 Leadership 4.0 – Die neuen Kompetenzen einer Führungskraft
Wie bereits in Kapitel 9.1 und teilweise in Kapitel 8.4 erwähnt stellt die digitale Transformation Führungskräfte vor neue Herausforderungen und erfordert eine bewusste Anpassung ihrer Denkweise und Herangehensweise, um sich erfolgreich als Digital Leader positionieren zu können. Digital Leader müssen über spezifische Kompetenzen verfügen, um effektiv in der zunehmend digitalisierten und technologiegetriebenen Welt agieren zu können.
Tobias Kollmann bündelt die erforderlichen Kompetenzen in drei relevante Bereiche:
• Digital Mindset (Wollen): Die erfolgreiche Bewältigung der digitalen Transformation erfordert nicht nur eine Anpassung der Führungskräfte an den kontinuierlichen Wandel, sondern auch eine Verlagerung des Schwerpunkts von Erfahrung als Qualitätsmerkmal auf einen Trial-and-Error-Ansatz. Dies bezieht sich auf die innere Haltung und Denkweise einer Führungskraft in Bezug auf die digitale Transformation. Zu einer digitalen Denkweise gehören Offenheit für Veränderungen, Neugier und die Bereitschaft, neue Dinge auszuprobieren wie z. B. das Vorantreiben digitaler Lösungen in ihrem Verantwortungsbereich.
• Digital Skills (Können): „Unter den Digital Skills wird das konkrete Hintergrundwissen und Know-how rund um digitale Geschäftsmodelle und -prozesse in Bezug auf die Digitale Wirtschaft verstanden.
Dies umfasst sowohl das Basiswissen rund um digitale Daten als auch die daraus resultierende digitale Wertschöpfung für Prozesse, Produkte und Plattformen sowie die diesbezüglichen Entwicklungen.“
• Digital Execution (Machen): Bei der Umsetzungsstrategie werden die Aspekte „was“ (Objektansatz) und „wie“ (Managementansatz) betrachtet. Der Objektansatz bezieht sich auf die Produkte, die Prozesse und die Plattformen und berücksichtigt alle notwendigen technischen Innovationen oder kundenorientierten Veränderungen. Der Managementansatz bezieht sich darauf, wie die Manager die erforderlichen Veränderungen tatsächlich umsetzen können. Stichworte sind: Agilität, Anpassungsfähigkeit, Kundenorientierung, Haltung und
Geschwindigkeit.
Abbildung 8: Handlungsrahmen für Digital Leadership
Digital Leader müssen daher über ein umfassendes Expertenwissen im Bereich der Digitalisierung verfügen (Können) oder zumindest offen dafür sein, sich dieses anzueignen (Wollen) und gleichzeitig die Kompetenz besitzen, dieses Wissen an ihre Mitarbeiter zu vermitteln.
Entscheidend ist, dass sie die bestehenden Strukturen und Prozesse des Unternehmens nicht nur kennen, sondern aktiv leben und im Unternehmen adaptieren und etablieren können. Digital Leader müssen dazu in der Lage sein, die digitale Transformation ganzheitlich zu erfassen und proaktiv mitzugestalten (Machen). Dazu gehört die erfolgreiche Einführung von neuen Technologien ebenso wie die kontinuierliche Weiterentwicklung bestehender Technologien. Diese digitale Kompetenz kann als eine wesentliche Fähigkeit zur erfolgreichen Bewältigung der Herausforderungen des digitalen Zeitalters angesehen werden. Hervorzuheben ist jedoch, dass Digital Leadership nicht nur technische Aspekte, sondern auch soziale Kompetenzen wie Kommunikations- und Kooperationsfähigkeiten umfasst. Dies bedeutet, dass eine hohe Veränderungsfähigkeit für Führungskräfte unerlässlich ist, um den dynamischen Anforderungen der digitalen Transformation gerecht zu werden.
Nur wenn Führungskräfte den Dreiklang aus Wollen, Können und Machen beherrschen, können sie eine führende Rolle bei der digitalen Transformation übernehmen und das Unternehmen erfolgreich in die digitale Zukunft führen.
9.4 Leadership 4.0 Kompatible Konzepte
9.4.1 VOPA+ Modell
Führungskräfte müssen offen für neue Ideen und Technologien sein und die Vernetzung der verschiedenen Bereiche im Unternehmen fördern. Gleichzeitig brauchen die Mitarbeiter mehr Freiraum in ihrer täglichen Arbeit, was ein hohes Maß an Vertrauen als Grundlage für Digital Leadership voraussetzt.
Das VOPA+ ist ein agiles Führungsmodell basierend auf dem Werk Management by Internet30 von Willms Buhseund kann als eine Reaktion auf die Herausforderungen der VUCA-Welt betrachtet werden. Das Akronym VOPA+ steht insbesondere im Hinblick auf die psychologische Sicherheit für Vernetzung, Offenheit, Partizipation, Agilität und das Plus für Vertrauen.
• Vernetzung bezieht sich auf die Nutzung verschiedener Kanäle wie soziale Medien und virtuelle Communities, um den Informationsfluss, die kollektive Intelligenz und die Zusammenarbeit zu fördern.
• Offenheit beinhaltet die aktive Bereitstellung und Weitergabe von Informationen, um eine transparente Kommunikation und eine breite Beteiligung an Entscheidungsprozessen zu ermöglichen.
• Partizipation bedeutet die Einbindung aller Mitarbeiter in Prozesse und Entscheidungen durch die Definition klarer Verantwortlichkeiten und Aufgabenbereiche.
• Agilität spiegelt sich in einer veränderten Führungskultur wider, die eine flexible und anpassungsfähige Arbeitsweise fördert und eine positive Fehlerkultur unterstützt.
• Vertrauen in sich selbst, in die Mitarbeiter und in das Netzwerk steht als nicht verhandelbarer Wert im Mittelpunkt des Modells.
Das VOPA+ Modell setzt die Entwicklung einer entsprechenden Kommunikationskultur im Unternehmen voraus, die die Zusammenarbeit und den Wissensaustausch fördert. Dies bedeutet, dass die Umsetzung des Modells oft von einer Veränderung der Unternehmenskultur abhängig ist. Diese Abhängigkeit von Veränderung bringt sowohl Herausforderungen als auch Chancen mit sich, ist aber ein zu berücksichtigender Faktor, wenn es um die praktische Umsetzung des Modells geht.
Abbildung 9: VOPA+ Modell31
Es folgt die praktische Bedeutung des VOPA+ Modells für Führungskräfte und Handlungsempfehlungen:
• Transparent kommunizieren und selbst eine offene Kommunikationskultur im Unternehmen fördern
o dadurch entstehen Vertrauen und ein verbesserter Informationsfluss.
• Bewusst Gelegenheiten zum Wissensaustausch schaffen und aktivden Wissenstransfer zwischen den Mitarbeitern unterstützen.
• Förderung der teamübergreifenden Zusammenarbeit, um den Austausch von Ideen und die Kooperation zwischen verschiedenen Abteilungen zu erleichtern. Dies unterstützt die Entwicklung innovativer Lösungen und Kooperationen.
• Förderung des selbstständigen Arbeitens und der Eigenverantwortung der Mitarbeiter. Das bedeutet, dass die Mitarbeiter die Möglichkeit haben, selbstständig Entscheidungen zu treffen und Verantwortung für ihre Aufgaben zu übernehmen
o die Führungskräfte haben die große Chance, ihre Mitarbeiter zu unterstützen und einen Rahmen zu schaffen, in dem sie ihr Potenzial entfalten können.
• Zwischenziele definieren und sich auf kontinuierliche Fortschritte konzentrieren
o durch die Festlegung klarer Erwartungen können die Mitarbeiter ihre Arbeit besser strukturieren und ihre Leistung kontinuierlich verbessern.
9.4.2 SCARF-Modell für psychologische Sicherheit
Gespräche sind viel mehr als ein einfacher Informationsaustausch, vor allem dann, wenn es um digitale Führung geht. Ob bewusst oder unbewusst, jedes Mal, wenn wir mit jemandem interagieren, erfüllen wir einige seiner sozialen Bedürfnisse oder nicht. Die von uns gewählte Sprache und unser Verhalten können Menschen entweder ermutigen und motivieren oder sie dazu bringen, sich zurückzuziehen und abzuschalten.
Das SCARF-Modell von David Rock32 ist ein Akronym für Status, Certainty,Autonomy, Relatedness und Fairness und bietet einen Überblick über fünf Dimensionen, die sowohl als positive als auch als negative Auslöser wirken können.
Abbildung 10: SCARF-Modell für psychologische Sicherheit33
Status
Status bezieht sich auf den Wunsch, sich von der Masse abzuheben. Wenn wir unsere neuen Ideen mit anderen teilen und Anerkennung für gute Arbeit erhalten, verbinden wir Status mit einem Gefühl von Bedeutung und Wert. Umgekehrt reagieren wir eher negativ, wenn beispielsweise unsere Ideen nicht anerkannt werden.
Certainty (Gewissheit)
Die Menschen wollen von Natur aus über das, was vor sich geht, Gewissheit haben. Wir wollen unser Umfeld verstehen und die Ergebnisse vorhersagen können. Im Arbeitsumfeld fühlen wir uns in unserer Sicherheit bedroht, wenn unsere Rollen oder Zuständigkeiten nicht klar definiert sind.
Autonomy (Autonomie)
Im Allgemeinen wollen wir alle das Gefühl haben, dass wir die Kontrolle über unsere Arbeit und unsere Entscheidungen haben. Wenn Führungskräfte einen Mikromanagement-Ansatz wählen, riskieren sie, die Autonomie zu gefährden, wenn sie den Teammitgliedern aber Raum und Zeit geben, ihre Arbeit selbstständig zu erledigen, werden vertrauensvolle Beziehungen aufgebaut.
Relatedness (Verbundenheit)
Menschen wollen dazugehören. Niemand möchte sich als Außenseiter einer Gruppe fühlen, vor allem nicht am Arbeitsplatz. Die einfachste und am meisten unterschätzte Möglichkeit, ein Umfeld zu schaffen, in dem sich die Menschen zugehörig fühlen, ist die Verwendung von „wir“ und „uns“ anstelle von Wörtern wie „du“, „ich“ und „sie“, die eine klare Abgrenzung zwischen Gruppen signalisieren.
Fairness (Gerechtigkeit)
Nicht zuletzt wollen Menschen von Natur aus ein Gefühl der Gleichheit und Fairness in sozialen Interaktionen erleben. Führungskräfte können Fairness fördern, indem sie ihren Entscheidungsprozess transparent gestalten. Wenn Mitarbeiter nicht den vollen Überblick haben, denken sie sich automatisch alternative Geschichten aus, was die Wahrscheinlichkeit erhöht, dass sich Menschen benachteiligt fühlen.
Im Bereich der Führung bietet das SCARF-Modell eine gute Möglichkeit, effektiver mit anderen zusammenzuarbeiten, indem es die wahrgenommenen Bedrohungen minimiert und die durch Anerkennung erzeugten positiven Gefühle maximiert. Es erweist sich im Zusammenhang mit kontinuierlicher Entwicklung und Feedback-Frameworks als besonders nützlich. Fünf soziale Bereiche aktivieren in unserem Gehirn ähnliche Reaktionen auf Bedrohung und Belohnung, auf die wir uns selbst für unser physisches Überleben verlassen:
1. Status,
2. Gewissheit,
3. Autonomie,
4. Verbundenheit,
5. Fairness.
9.4.3 Inner Work Life System
Jede Führungskraft weiß, dass Mitarbeiter gute und schlechte Tage haben. Schwankungen in der Arbeitsleistung sind keine Seltenheit und sie sind oft mit menschlichen Faktoren verbunden - zum größten Teil sind die Gründe für Höhen und Tiefen unbekannt.
Eine 2011 von Amabile und Kramer34 veröffentlichte Forschungsarbeit untersucht nach einer umfassenden Analyse von mehr als 12.000 Tagebucheinträgen den dramatischen Einfluss des Arbeitslebens der Mitarbeiter – definiert als eine Mischung aus Wahrnehmung, Emotion und Motivation – auf verschiedene Leistungsdimensionen. Die Ergebnisse zeigen, dass Menschen besser arbeiten, wenn sie im Alltag mehr positive Emotionen, eine stärkere intrinsische Motivation (Leidenschaft für die Arbeit) und eine positivere Wahrnehmung ihrer Arbeit, ihres Teams, ihrer Führungskräfte und ihrer Organisation erleben. Darüber hinaus weisen die Autoren darauf hin, dass das Verhalten von Führungskräften einen direkten Einfluss auf das interne Arbeitsleben der Mitarbeiter hat.
Abbildung 11: Inner Work Life System
Das Konzept des „inneren Arbeitslebens“ (inner work life) bezieht sich auf die dynamische Interaktion persönlicher Wahrnehmungen, zu denen sowohl unmittelbare Eindrücke als auch umfassendere Interpretationen von Ereignissen und deren Bedeutung gehören. Es umfasst auch Emotionen, bei denen es sich um spezifische und intensive Reaktionen oder allgemeine emotionale Zustände wie positive oder negative Stimmungen handeln kann.
Darüber hinaus spielt die Motivation eine zentrale Rolle bei der Frage, „was man tut, wie man es tut und wann man es tut“.
• Perceptions: Die Wahrnehmung von Ereignissen im Arbeitsalltag.
• Emotions: Die Reaktionen auf Ereignisse im Arbeitsalltag.
• Motivation: Emotionen und Wahrnehmung wirken sich direkt auf die Motivation aus. Menschen, die traurig oder wütend über ihre Arbeit sind, werden sich wenig darum bemühen, sie gut zu machen. Wenn sie glücklich und begeistert sind, werden sie sich sehr anstrengen.
Übungsaufgabe 3: Wenn Sie über Ihren gestrigen Arbeitstag nachdenken und sich vorstellen, jemand hätte Sie den ganzen Tag beobachtet, was glauben Sie, hätte diese Person in einen Bericht geschrieben?
Die meisten von uns denken hier wahrscheinlich an die Anzahl der erledigten Aufgaben, die Anzahl der geschriebenen E-Mails, an die Telefonate, an die gehaltenen Präsentationen, an einige Gespräche mit Kollegen, an die großen Brainstorming-Sitzung vor dem Mittagessen usw. Aber was ist mit dem unsichtbaren Entscheidungsprozess, der Priorisierung des Arbeitspensums, den erlebten Zuständen von Zufriedenheit, Irritation oder intensiveren Gefühlen wie Stolz oder Frustration?
Der Kontext der Forschung von Amabile und Kramer liegt in der Leistung von Wissensarbeitern innerhalb von Organisationen und der besten Möglichkeit, innovative Arbeit anzustoßen. Die Leistung jedes Mitarbeiters wird durch das ständige Zusammenspiel von Wahrnehmungen, Emotionen und Motivationen beeinflusst, die durch Ereignisse im Arbeitsalltag einschließlich des Handelns von Führungskräften ausgelöst werden – dennoch bleibt das innere Arbeitsleben für das Management größtenteils unsichtbar.
Das Inner Work Life System wirft die Frage auf, was Führungskräfte tatsächlich tun können, um eine positive Wirkung zu erzielen und zu steigern. Der erfolgreichste Verstärkungseffekt wird erzielt, wenn Menschen Fortschritte machen und gleichzeitig sinnvolle Arbeit leisten.
9.5 Coach anstatt Leader
9.5.1 Coaching als Führungsstil
Um Coaching in der Führung zu verstehen, ist es zunächst wichtig, zu wissen, was Coaching ist und was es nicht ist. Was ist Coaching?
Sehen wir uns zuerst eine Auswahl der am meisten verbreiteten Definitionen von Coaching an:
• ICF (International Coaching Federation): „ICF defines coaching as partnering with clients in a thought-provoking and creative process that inspires them to maximize their personal and professional potential. The process of coaching often unlocks previously untapped sources of imagination, productivity and leadership.“
• BetterUp: „Coaching is when an individual works with a trained professional in a process of self-discovery and self-awareness. Working together, the coach helps the individual identify strengths and develop goals. Together, the coach and coachee practice and build the skills and behaviors required to make progress toward their goals.“
• Haufe: „Coaching ist ein Beratungsansatz, der Menschen Hilfe zur Selbsthilfe gibt, damit sie ihre Ziele erreichen und Lösungen für Konflikte finden. Darüber hinaus stärkt Coaching die Selbstwahrnehmung sowie die Selbstreflexion. Ein/e Coach begleitet die persönliche und berufliche Weiterentwicklung des Coachees.“
Im Grunde genommen ist Coaching nichts anderes als ein Reflexionsprozess, der Menschen dazu motiviert, ihr persönliches und berufliches Potenzial zu maximieren. Das Wichtigste beim Coaching ist, dass der Coach wirklich an die Fähigkeit des Coachees glauben muss, seine eigenen Herausforderungen lösen zu können. Der Coach liefert allgemein keine Lösungsvorschläge, sondern begleitet den Coachee bei der Entwicklung eigener Lösungen durch systematische Fragetechniken.
Was ist Coaching nicht? Coaching ist keine Beratung oder Therapie!
Was ist Coaching in Leadership?
Die Einführung von Coaching-Elementen in den Führungsstil und regelmäßige Einzelgespräche bedeuten nicht, dass eine Führungskraft die Rolle eines professionellen Coaches übernehmen muss. Es geht um die allgemeine Einstellung und darum, dass sich die Führungskräfte als aktivierende Denkpartner für die Teammitglieder positionieren.
Die drei wichtigsten Coaching-Prinzipien für Digital Leader sind:
1. Bewusst eine Coaching-Rolle einzunehmen und als Enabler zu agieren.
2. Teammitgliedern Raum zu geben, um zu reflektieren und eigene Lösungen zu finden.
3. Einen psychologischen „safe space“ für die Teammitglieder zu schaffen, in dem sie ihre Ideen offen teilen können.
Nach der Full Range of Leadership Theory40 gibt es effektives, ineffektives, passives und aktives Führungsverhalten. Je nach Kombination von Verhaltensweisen lassen sich drei Führungsstile wie folgt identifizieren:
Abbildung 12: Subdimensionen des Full-Range-of-Leadership-Modells
Übungsaufgabe 4: Wenn Sie sich Abbildung 11 ansehen und überlegen, was Sie bis jetzt über Coaching in der Führung wissen, in welchen Bereich des Full Range of Leadership fällt Ihrer Meinung nach Coaching als Führungsstil?
• Laissez-Faire: Am unteren Ende der Skala befindet sich die „Nicht-Führung“. Die Führungskraft lässt die Teammitglieder „einfach machen“ und tritt, wie bereits in Kapitel 2.3 erläutert, passiv auf.
• Transaktionale Führung: In der Mitte befindet sich die transaktionelle Führung, welche als ein Austauschprozess betrachtet werden kann. Die Konzepte, die mit diesem Führungsstil in Verbindung gebracht werden können, sind z. B. Management by Objective (MBO) und Old Work. Im Grunde handelt es sich um einen transaktionalen Austausch zwischen positiven Arbeitsbedingungen und Leistung. Die Führungskraft stellt den reibungslosen Ablauf und die Einhaltung der Qualitätsstandards sicher und reagiert dementsprechend stark auf Fehler.
• Transformationale Führung: Am oberen Ende der Skala steht die transformationale Führung, die manchmal auch als „die hohe Kunst der Führung“ bezeichnet wird. In diesem Führungsbereich befinden sich alle modernen Führungsansätze und Konzepte wie Digital Leadership, New Work und Arbeit 4.0. Die Führungskraft zielt darauf ab, Teammitglieder positiv zu verändern und versucht, sie als ganze Menschen zu betrachten, indem sie sich auf ihre individuellen Bedürfnisse, Wünsche und Motivatoren konzentriert. Dieser Ansatz ist höchst personalisiert und erfordert im Vergleich zu den anderen beiden Führungsstilen fortschrittliche Sozialkompetenzen. The future of leadership is already here - warum Coach anstatt Leader? Coaching als Führungsstil dient als aktivstes und effizientestes (transformationales) Führungsverhalten und gewinnt auch im deutschsprachigen Raum zunehmend an Popularität.42 Es ist eine Antwort auf die irreversiblen Veränderungen, die die digitale Transformation im Wertesystem der Gesellschaft und in den Geschäfts- und Betriebsmodellen der traditionellen Organisationen ausgelöst hat. Gleichzeitig stellt es eine Weiterentwicklung der Rolle der Führungskraft dar, die sich noch stärker auf New Work, den Sinn der Arbeit, das Selbstwertgefühl, die Selbstwirksamkeit und die kontinuierliche Entwicklung der Mitarbeiter konzentriert. Der Coaching-Führungsstil bezeichnet eine Führungsform, bei der die Führungskraft die Rolle eines Coaches übernimmt. Unter diesem Führungsstil investiert die Führungskraft Zeit und Energie in die Entwicklung einzelner Teammitglieder. Zudem verdeutlicht sie ihnen, wie ihre Rolle in die übergeordnete Teamstrategie eingebettet ist. Dies führt nicht nur zu einer Verbesserung der individuellen Leistung, sondern auch zu einer Steigerung der Leistung des Teams und der Organisation als Ganzes.
9.5.2 Umsetzung eines coachenden Führungsstils
Jede Idee ist nur so gut wie ihre Umsetzung - ein Beispiel für die Umsetzung von Coaching Leadership könnte folgendermaßen aussehen:
1. Beziehungsaufbau: Beginnen Sie mit Einzelgesprächen mit jedem Teammitglied, um ihre individuellen Karriereziele, Stärken, Entwicklungsbereiche und allgemeine Zufriedenheit mit ihrer aktuellen Position zu verstehen. Nutzen Sie diese Gelegenheit, um Einblicke in ihre Wahrnehmung der Teamleistung zu gewinnen und identifizieren Sie Bereiche, in denen Schwierigkeiten auftreten könnten.
Das Ziel dieser Einzelgespräche ist es, eine vertrauensvolle Beziehung zu jedem Teammitglied aufzubauen und eine offene Kommunikation zu fördern. Indem Sie sich Zeit nehmen, ihre Perspektiven und Ziele zu verstehen, können Sie gezielt Unterstützung und Entwicklungsmöglichkeiten bieten.
2. Identifizierung und Festlegung von Entwicklungszielen: Arbeiten Sie auf der Grundlage der Erkenntnisse aus den Einzelgesprächen mit den Teammitgliedern zusammen, um relevante Entwicklungsziele zu identifizieren. Wählen Sie einen geeigneten Zielsetzungsrahmen wie persönliche OKRs oder auch SMART (Spezifisch - Messbar - Erreichbar - Realistisch - Terminiert), wenn Sie beide damit vertrauter sind oder wenn es besser zum Entwicklungsziel passt.
3. Kontinuierliches Feedback und Unterstützung anbieten: Treffen Sie sich regelmäßig mit den Teammitgliedern, um ihre Fortschritte bei der Erreichung ihrer Ziele zu besprechen und sie danach zu fragen, ob sie Unterstützung benötigen. Bieten Sie Feedback und seien Sie hilfsbereit oder hören Sie zu, wenn Herausforderungen auftreten. Unterstützen Sie sie dabei, ihren Ansatz neu auszurichten, wenn Schwierigkeiten auftreten.
4. Erfolge feiern: Feiern Sie Erfolge innerhalb des Teams, egal ob es sich um kleine oder große Erfolge handelt. Sie können dies auf verschiedene Weise tun, wie z. B. durch persönliche Anerkennung, wenn Herausforderungen gelöst wurden, oder durch regelmäßige Teamsitzungen, bei denen jedes Teammitglied für seine Leistungen gelobt wird. Wichtig ist, dass die Teammitglieder das Gefühl haben, gesehen und geschätzt zu werden.
5. Kontinuierliche Anpassung der Strategie: Ein Coaching Leadership ist auf eine langfristige Strategie ausgerichtet. Um langfristig erfolgreich zu sein, müssen Sie jedoch bereit sein, Ihre Strategie anzupassen und flexibel zu bleiben. Überwachen Sie die Fortschritte des Teams im Vergleich zu den Zielen und passen Sie Ihre Vorgehensweise an, wenn etwas nicht wie geplant funktioniert. Seien Sie agil und passen Sie sich den Bedürfnissen des Teams an, um dessen Wachstum zu unterstützen.
9.5.3 Praxisorientierter Coaching Framework für den Digital Leader
Um die Implementierung im Kontext eines Coaching-Ansatzes weiter zu vertiefen, es ist sinnvoll, eine beispielhafte Strukturierung von Einzelgesprächen zwischen Führungskräften und Teammitgliedern zu betrachten. Yana leitet das digitale Marketingteam eines KMU in Wien und hat wöchentlich ein 30-minütiges Einzelgespräch mit ihrem Teammitglied Thomas. Im dritten Quartal hat er sich vorgenommen, ein neues Dashboard für das Team zu erstellen, um die verfügbaren Daten noch besser visualisieren zu können. Yana beginnt das Gespräch mit einem kurzen Smalltalk und fragt, wie das Wochenende war. Sie weiß auch, dass Thomas bald Urlaub hat, und fragt, ob die Aktivitäten bereits gebucht sind (1). Nach etwa fünf Minuten lenkt Yana das Gespräch in Richtung Dashboard und fragt Thomas, wie es ihm geht, ob Blockaden aufgetreten sind und ob er generell Unterstützung benötigt (2). Thomas nutzt die nächsten fünf bis zehn Minuten, um über den Fortschritt zu sprechen und sagt, dass einige Datenquellen nicht verfügbar sind, er kann aber nicht genau sagen, was der Grund dafür ist. Yana kennt diesen Fehler bereits, sie hat ihn vor ein paar Wochen selbst erlebt und behoben, aber sie möchte Thomas die Möglichkeit geben, selbst eine Lösung zu finden. In den nächsten zehn Minuten stellt sie hilfreiche Fragen wie z. B., ob Thomas schon einmal eine ähnliche Situation erlebt hat, und sie gehen gemeinsam in eine kurze Brainstorming-Runde (3a). Thomas hat nun ein paar Ideen zum Testen und Yana glaubt, dass er eine noch schnellere und nachhaltigere Lösung gefunden hat, um die Fehlermeldung der Datenbank zu beheben. In den letzten vier bis fünf Minuten wünscht Yana Thomas viel Erfolg beim Testen der besprochenen Ideen und sagt, dass sie schon sehr gespannt auf die Ergebnisse ist (4).
10 Fazit und Nachhaltigkeitscheck von Digital Leadership
10.1 Spannungsfeld zwischen Führen und Coachen
Ein Coaching Leadership ist zwar ein großartiges Instrument für eine digitale Führungskraft, es gibt jedoch einige Vor- und Nachteile, die bei der Entscheidung für einen solchen Ansatz berücksichtigt werden müssen.
Vorteile:
• Aufbau stärkerer, vertrauensvoller Beziehungen zwischen Führungskräften und Mitarbeitern/Teams.
• Förderung langfristiger Ergebnisse und nachhaltigen Wachstums.
• Entfaltung des vollen Potenzials von Mitarbeitern und Teams.
• Schaffung eines kooperativen, kollaborativen und unterstützenden Arbeitsumfelds.
• Erhöhtes Mitarbeiterengagement.
• Förderung der kollektiven Intelligenz.
Nachteile:
• Hoher Zeitaufwand und Energieeinsatz seitens der Führungskräfte.
• Zeitverzögerung bis sichtbare Ergebnisse erzielt werden, da der Fokus auf langfristigen Erfolgen liegt.
• Oft mangelnde Soft Skills der Führungskräfte und hohe UpskillingKosten. - not all managers are leaders and not all leaders are coaches.
Es ist wichtig zu beachten, dass die Vor- und Nachteile des Coaching Leaderships von verschiedenen Faktoren abhängen wie der Situation im Unternehmen, den individuellen Fähigkeiten der Führungskräfte und den Bedürfnissen der Mitarbeiter. Ein ausgewogenes Verständnis dieser Aspekte kann dazu beitragen, die Effektivität und Effizienz des Coaching Leaderships für Digital Leadership 4.0 zu maximieren.
Aus praktischer Sicht ist es selten möglich, nur den einen oder den anderen Führungsansatz zu verfolgen. Eine Führungskraft kann nie zu 100 % nur Coach sein, da sie in den meisten Organisationen eine große Verantwortung trägt und meist Experte auf ihrem Gebiet ist. Das bedeutet, dass Sie als Führungskraft unabhängig von ihren besten Coaching-Absichten situativ eingreifen müssen, um schnelle Entscheidungen zu treffen. Angesichts der Komplexität und des ständigen Wandels der heutigen Gesellschaft und Organisationsstrukturen empfiehlt sich ein human-centric adaptiver Führungsansatz, der problemlos mehr als nur einen modernen Führungsstil zulässt.
Abbildung 14: Spannungsfeld zwischen Führen und Coachen
Die wichtigsten Schwerpunkte des Coaching Leaderships können wie folgt zusammengefasst werden:
• Career Growth: Im Rahmen des Coaching-Führungsstils liegt der Fokus auf der Förderung der beruflichen Entwicklung der Teammitglieder.
• Zielorientierung: Die Führungskräfte unterstützen ihre direkten Mitarbeiter dabei, sowohl kurz- als auch langfristige Ziele zu definieren und zu erreichen und dies sowohl auf individueller als auch auf teamorientierter Ebene.
• Zukunftsorientierung: Führungskräfte wissen, dass Veränderungen Zeit benötigen und investieren daher in eine langfristige Strategie und Wachstum.
• Feedback: Der kontinuierliche Austausch von konstruktivem Feedback ist von großer Bedeutung. Dadurch werden die Mitarbeiter in ihrer Zielerreichung und beruflichen Weiterentwicklung unterstützt. Gleichzeitig sind erfolgreiche Führungskräfte offen für Feedback von ihren Teams, um ihren eigenen Führungsstil zu verbessern.
• Mentoring: Führungskräfte nehmen häufig die Rolle von Mentoren für ihre Teams ein. Sie bieten Unterstützung, Anleitung und teilen ihr Fachwissen, um die individuelle Entwicklung und das Wachstum der Mitarbeiter zu fördern.
Übungsaufgabe 5: Nehmen Sie sich unter Berücksichtigung aller neuen Erkenntnisse über Coaching in der Führung zehn Minuten Zeit, um mindestens vier praktischen Situationen zu identifizieren, in denen Sie einen solchen Führungsansatz anwenden könnten oder nicht.
10.2 Digital-Leadership-Mantra
Wie in diesem Skript erläutert, handelt es sich bei digitaler Führung nicht um eine einzige Art von Führung, sondern um viele Formen moderner Führungsstile mit einem gemeinsamen Nenner - einem menschenzentrierten Ansatz. Unabhängig von der persönlich bevorzugten Art der Führung, stellen Konzepte wie Agilität und New Work eine ständige Herausforderung dar und sprengen sogar die Grenzen, wie Menschen miteinander interagieren und zusammenarbeiten. Digital Leadership und die aufkommende Idee von Leadership 4.0 spiegeln unsere Suche nach Zweck, Sinn und Motivation in unserer Arbeit wider. Im Hinblick auf das in Kapitel 9 vorgestellte System des Inner Work Life System gibt es ein bemerkenswertes Zitat, das als ein kurzes Mantra für alle Führungsinitiativen dienen kann:
„Of all the things that can boost inner work life, the most important is making progress in meaningful work.”
Amabile und Kramer (2007) online.
Leadership im digitalen Zeitalter
PROZESSDIGITALISIERUNG
Digitale Transformation im Kontext des Geschäftsprozessmanagements
Die Digitalisierung transformiert das Management von Geschäftsprozessen. Das Thema Prozessdigitalisierung wird anhand der drei Bereiche „Modellierung digitaler Prozesse“, „Analyse und Monitoring von realen Prozessabläufen“ sowie „Intelligente Automatisierung" umfassend und anhand praktischer Beispiele behandelt.
Prozessdigitalisierung
1 Prozessdigitalisierung
1.1 Einführung
Der „Megatrend Digitalisierung“ führt zu einer zunehmenden Durchdringung nahezu aller Lebensbereiche mit Informationstechnologie. Gerade im betrieblichen Umfeld sehen sich Unternehmen aller Branchen mit tiefgreifenden Veränderungen im Zuge dieser als digitale Transformation bezeichneten Entwicklung konfrontiert. Diese Entwicklungen nehmen großen Einfluss auf die Möglichkeiten zur Gestaltung, Ausführung und Auswertung von Arbeitsabläufen und Geschäftsprozessen innerhalb von Unternehmen. Gleichzeitig bieten sich aufgrund neuer digitaler Technologien vielfältige Potentiale zur gezielten Analyse, Vereinfachung und Effizienzsteigerung von Prozessen. Auch eine weitreichende Automatisierung von Abläufen und eine intelligente Entscheidungsunterstützung während der Prozessausführung können auf der Basis von Technologiekonzepten wie Process Mining, Robotic Process Automation und Machine Learning realisiert werden (vgl. Berti et al., 2019).
Die Konsequenzen dieser Entwicklung lassen sich sowohl innerhalb von Unternehmen als auch unternehmensübergreifend in Wertschöpfungsnetzwerken beobachten. Digitale, internetbasierte Geschäftsmodelle entstehen auf der Grundlage verschiedener Bausteine, welche jeweils unterschiedliche Rollen einnehmen (Appelfeller & Feldmann, 2018, S. 9ff.): Digitale Enabler wie IT-Systeme und Kommunikationsinfrastruktur bilden die technische Grundlage und definieren damit die notwendige Ausgangssituation für eine umfassende Digitalisierung. Darauf aufbauend werden entstehende Daten sowie digitalisierte Maschinen und Produkte als Gegenstände der digitalen Transformation bezeichnet, die durch digitale Technologien erweitert werden. Die Einbindung von Mitarbeitern, Kunden und Lieferanten als Akteure berücksichtigt Veränderungen bezüglich der Interaktionen und notwendigen IT-Kompetenzen, welche die beteiligten Handelnden betreffen. Die umfassende Klammer über die drei skizzierten Elemente stellen die Verwender der digitalen Transformation dar, in deren Zentrum digitale Geschäftsmodelle und Prozesse stehen.
Digitalisierte Prozesse bilden den Kern des digitalen Unternehmens und sind essentieller Bestandteil der digitalen Transformation. In der Praxis werden bislang viele Geschäftsprozesse nicht vollständig digital unterstützt durch Software ausgeführt. Häufig finden sich manuelle Zwischenschritte, Medienbrüche oder nicht definierte Systemschnittstellen, die einer umfassenden und ganzheitlichen digitalen Abbildung im Wege stehen. Und selbst wenn alle Schritte eines Prozesses digital durch Informationssysteme unterstützt sind, bestehen oftmals Probleme der Daten- und Datenstrukturintegration: Informationen sind auf eine Vielzahl von Systemen verteilt, Daten werden redundant und in verschiedenen Formaten abgelegt und sind einer automatischen Auswertung nicht zugänglich. Der Großteil der Prozessdigitalisierung heute in Unternehmen vorliegenden Datenbestände ist unstrukturiert (Van der Aalst, 2016, S. 4f.). Eine große Herausforderung für Unternehmen besteht darin, Daten zu extrahieren und zu entscheidungsrelevanten Informationen anzureichern. Die prozessbezogene Auswertung und Zuordnung von Informationen zu bestimmten Ereignissen innerhalb eines Prozesses ist damit ein Schlüsselaspekt für eine gezielte und ganzheitliche Prozessdigitalisierung.
Die Zielsetzung des vorliegenden Skriptums ist es daher, das Themenfeld der Prozessdigitalisierung im Kontext der digitalen Transformation zu strukturieren und wichtige Kernbestandteile zu identifizieren. Insbesondere werden die Zusammenhänge zwischen der digitalen Modellierung, der Analyse und dem Monitoring von realen Prozessabläufen und der intelligenten Automatisierung fokussiert. Hierzu wird das Themenfeld in aufeinander aufbauende Phasen unterteilt und die folgenden Inhalte adressiert:
• In Kapitel 1 werden eine Einführung in aktuelle Trends der digitalen Transformation und eine Übersicht über die Treiber der Digitalisierung präsentiert. Anhand einiger Beispiele werden darüber hinaus die spezifischen Potentiale einer Prozessdigitalisierung sowie die damit einhergehenden Herausforderungen und neue Anforderungen aufgezeigt.
• Die Einordnung des Themenfelds Prozessdigitalisierung in den Bezugsrahmen eines allgemeinen Konzepts zum Geschäftsprozessmanagement erfolgt in Kapitel 2. Diese dient zunächst dazu, begriffliche Grundlagen zu klären und unterschiedliche Aspekte der Prozessdigitalisierung voneinander abzugrenzen. Anschließend werden Methoden anhand der Notationssprachen EPK, BPMN und Petri-Netze konkrete Modellierungskonventionen vorgestellt und in Bezug auf die Abbildung digitaler Prozesse bewertet. Eine strukturierte Konzeption und Modellierung von digitalen Prozessen ist die Grundlage für die nachfolgenden Schritte der Analyse, des Monitorings und der intelligenten Automatisierung von Prozessabläufen.
• Um ein einheitliches Verständnis theoretischer Grundlagen aus den Bereichen Data Mining und Machine Learning zu etablieren, wird in Kapitel 3 eine Zusammenfassung wichtiger Kernkonzepte präsentiert. Die Darstellung wurde um die spezifische Perspektive auf Prozessdaten komplettiert, um insbesondere die nachfolgend behandelte Analysemethode Process Mining zu motivieren und zu kontextualisieren. Auch werden beispielhaft die Grundlagen zur Anwendung von maschinellen Lernverfahren auf prozessbezogene Sequenzdaten thematisiert.
• Innerhalb von Kapitel 4 werden anschließend verschiedene methodische Ansätze zur Auswertung und Bewertung realer Prozessabläufe durch die KI-gestützte Prozessdatenanalyse Process Mining vorgestellt. Zunächst erfolgt eine Positionierung von Process Mining im Rahmen des Geschäftsprozessmanagements aus Kapitel 2, um Einsatzpotentiale deutlich zu machen. Anschließend werden die Grundlagen von sogenannten Ereignislogs behandelt, die historische Ausführungsdaten beinhalten und für Process-Mining-Analysen zwingend notwendig sind. Darauf aufbauend werden die drei Methoden Process Discovery zur Entdeckung von Prozessstrukturen, Process Conformance Checking zur Verifikation von Prozessverhalten in der Realität und Process Enhancement zur gezielten Verbesserung von Geschäftsprozessen vorgestellt. Die Darstellung wird durch eine Auswahl aktuell verfügbarer Process-Mining-Software sowie eine Übersicht zu Methoden innerhalb dieser Software-Tools komplettiert.
• In Kapitel 5 wird die intelligente Prozessautomatisierung durch Robotic Process Automation (RPA) behandelt. Aufbauend auf der in Kapitel 4 dargestellten Analyse von Prozessstrukturen bildet sie den nächsten Schritt zur Realisierung von Automatisierungspotentialen in digitalisierten Prozessen. Neben einer Darstellung von charakteristischen Merkmalen von RPA-Systemen und einer Abgrenzung der Systeme untereinander werden die Evolution von RPA-Systemen sowie Beispiele für mögliche Automatisierungsszenarien beschrieben.
Eine Übersicht zur Marktlage aktueller Software-Tools komplettiert auch dieses Kapitel.
• Abschließend wird in Kapitel 6 eine Vorgehensmethodik zur Entwicklung einer Prozessdigitalisierungsstrategie präsentiert, welche ein praktisch anwendbares Modell zur Identifizierung von Digitalisierungspotentialen und deren Realisierung beschreibt. Weiterhin werden Möglichkeiten zur Fortbildung und Schulung von Mitarbeitern beschrieben sowie Fertigkeiten zur Prozessdigitalisierung in Form eines Skill-Sets zusammengefasst.
• In Kapitel 7 werden ergänzend noch einige Fallstudien zur erfolgreichen Anwendung der vorgestellten Techniken aus der Praxis anhand der Anwendungsdomäne Healthcare vorgestellt, um das Verständnis für deren praktische Anwendbarkeit zu vertiefen.
1.2 Warum Prozessdigitalisierung?
Digitalisierte Prozesse und strukturierte Abläufe sind die Grundbausteine für die Umsetzung der digitalen Transformation. Mit der zunehmenden Digitalisierung von Geschäftsmodellen und dem Angebot an digitalen Dienstleistungen rücken Prozesse als wichtige Bausteine für die Operationalisierung dieser Initiativen in den Mittelpunkt der Betrachtung. Für Unternehmen existieren unterschiedliche Gründe und Motivationen, ihre Anstrengungen im Bereich der Prozessdigitalisierung gezielt zu hinterfragen und auszurichten.
Neben technologiegetriebenen Veränderungen (vgl. Abschnitt 1.3) existiert aufgrund gesellschaftlicher und wirtschaftlicher Veränderungen darüber hinaus ein starker Bedarfssog, der marktgetriebene Anpassungen notwendig macht. Hierzu zählen beispielsweise verkürzte Innovations- und Entwicklungszeiten, eine stärkere Individualisierung der Kundennachfrage sowie die Notwendigkeit, die Effizienz von internen Abläufen weiter zu steigern:
• Der zunehmende Wandel von Geschäftsmodellen und die damit einhergehende Kernausrichtung auf digitale Wertversprechen bedingen eine durchgehende Digitalisierung von Geschäftsprozessen. Ein Beispiel hierfür ist die Bereitstellung von digitalen Services, etwa zur Speicherung von Daten, zur Übersetzung von Dokumenten oder im Bereich E-Commerce.
• Eine geänderte Anspruchshaltung seitens der Kunden zeigt sich beispielsweise in der Erwartung schneller und transparenter Lieferungen von Waren. Geringe Vorlaufzeiten bei Bestellungen und ein detailliertes Tracking einzelner Versandschritte stellen hohe Anforderungen an die digitale Durchgängigkeit und Automatisierung von Prozessabläufen.
• Die zunehmende Individualisierung von Produkten und die bedarfsgerechte Konfiguration und Ausführung von Prozessen beschreiben einen anderen zentralen Aspekt im Kontext der Prozessdigitalisierung. Ein Beispiel hierfür ist die kundenindividuelle Produktion, wie sie bei der Produktion von Druckerzeugnissen und Fotoprodukten heute schon Realität ist: Produktionsprozesse werden in diesen Szenarien durch die Bestellung des Kunden automatisch initiiert und auf einer Anlage ausgeführt, ohne dass eine manuelle Prüfung oder Freigabe erfolgen muss.
• Die Integration von Geschäftsprozessen wird zunehmend zu einem entscheidenden Wettbewerbsfaktor und Unterscheidungskriterium gegenüber Konkurrenten. Beispiele hierfür sind die engere Vernetzung mit Partnern, Lieferanten und Kunden in Wertschöpfungsnetzwerken oder die Etablierung von sogenannten Plattformgeschäftsmodellen, auf denen Dienstleistungen (z. B. freie Ladekapazitäten in der Logistikbranche) bedarfsgerecht angeboten und nachgefragt werden.
Eine umfassende Prozessdigitalisierung stellt eine essentielle Anforderung für die Sicherung der Wettbewerbsfähigkeit von Unternehmen im Kontext sich ändernder Geschäftsmodelle und Kundenanforderungen dar.
Zentrale Zielsetzung ist es, Prozesse nicht nur durch separate IT-Systeme zu unterstützen, sondern eine durchgängig digitale Abbildung von Geschäftsabläufen zu realisieren. Prozessdigitalisierung erfolgt demnach nicht zum reinen Selbstzweck, sondern stellt vielmehr die Grundlage für ein tiefgehendes Datenverständnis und die Entscheidungsunterstützung dar. In der Literatur wird in diesem Zusammenhang auch von datenzentrischem Prozessmanagement gesprochen (Brucker-Kley et al., 2018, S. 10).
1.3 Treiber der Digitalisierung
Die zunehmende Durchdringung von Unternehmensabläufen und Geschäftsprozessen durch Informations- und Kommunikationstechnologie (IKT) ist per se keine neue Entwicklung und dauert seit Jahrzehnten an. Im Zuge der digitalen Transformation lassen sich aber einige Bereiche erkennen, die zu disruptiven Veränderungen und Durchbrüchen führen. Diese aktuellen Entwicklungen im Bereich der Prozessdigitalisierung lassen sich auf eine Reihe von technologischen Entwicklungen der letzten Jahre zurückführen. Die im Folgenden skizzierten Schlüsselfaktoren sind maßgeblich für die transformativen Fortschritte verantwortlich:
• Dramatisch reduzierte Kosten für Rechenleistung, Konnektivität und Speicher. Die in den letzten Jahren zunehmende Nutzung von Cloud Computing sorgt für eine Verschiebung von IT-Services und Softwareangeboten zu zentralisierten Cloud-Anbietern. Die Angebote reichen von der Bereitstellung von Hardware-Ressourcen (Infrastructure-as-a-Service [IaaS]) und Dienstleistungen wie z. B. Laufzeitumgebungen für Web-Anwendungen (Platform-as-a-Service [PaaS]) bis hin zu direkt nutzbaren Anwendungssystemen (Software-as-a-Service [SaaS]).
Als Folge des großen Wettbewerbs zwischen den Anbietern sind stark sinkende Preise für den Zugriff auf Rechenleistung, Übertragungs- und Speicherkapazitäten zu beobachten. Weiterhin ergeben sich aufgrund der Zentralisierung entsprechender Hardware und intelligenter Möglichkeiten zu deren Administration zudem neuartige Skalierungseffekte, die es beispielsweise ermöglichen, die verfügbare Rechenleistung bei Bedarf schnell zu erhöhen und wieder abzusenken, ohne hohe Investitionen in den Aufbau eigener Ressourcen zu machen. Durchbrüche im Bereich von hoch parallelisierten Recheneinheiten ermöglichen darüber hinaus exponentielle Leistungssprünge z. B. bei der Verarbeitung von großen Datenmengen.
In der Folge ergibt sich ein günstiger und nahezu unbeschränkterZugriff auf Rechenleistung, welche die digitale Ausführung und Analyse von Geschäftsprozessen unterstützen kann.
• Verfügbarkeit großer Datenmengen („Big Data“). Die Zunahme der weltweiten Datenmenge folgt einer exponentiellen Wachstumskurve. Global betrachtet betrug die durchschnittliche jährliche Wachstumsrate des Datenvolumens seit dem Jahr 2010 mehr als 50%. Die Tendenz dieser Entwicklung ist stark steigend: 90% aller heute gespeicherten Daten wurde in den letzten zwei Jahren erzeugt. Diese Datenmengen entstammen einer Vielzahl von Quellen, beispielsweise industriellen Sensor-Aktor-Netzwerken, mobilen Endgeräten wie Smartphones, Interaktionen in sozialen Netzwerken oder Geschäftsanwendungen wie prozessorientierten Workflow- oder ERP-Systemen.
Einhergehend mit dem bereits thematisierten Preisverfall für die Speicherung großer Datensammlungen ermöglicht diese Entwicklung den Aufbau umfassender, hochaufgelöster Datenbasen. Moderne Verfahren zur Datenanalyse (Advanced Analytics, Machine Learning etc.) erlauben eine umfassende Auswertung dieser Datenbestände, um beispielsweise Ineffizienzen in Abläufen zu erkennen, zu beheben und eine konsequente Automatisierung umzusetzen. Zusammenfassend bleibt festzuhalten, dass eine wachsende Datenmenge sowie Möglichkeiten zu deren gezielter Auswertung große Potentiale für die Analyse und Automatisierung von digitalisierten Geschäftsprozessen bieten.
• Technologische Reife von Basistechnologien und Software. Aufbauend auf den zuvor genannten Entwicklungen haben sich am Markt verschiedenste Lösungen etabliert, die grundlegende Funktionalitäten zur Prozessdigitalisierung einfach zugänglich machen. Dies betrifft einerseits Basistechnologien zur Auswertung von Daten wie beispielsweise Machine-Learning-Ansätze zur Datensegmentierung, zur Vorhersage von prozessbezogenen (Sequenz-)Daten oder graphenbasierte Process-Mining-Analysen. Ein Ökosystem aus einer wachsenden Anzahl an freien und kommerziellen Software-Tools und Frameworks ermöglicht es, diese Technologien mit vergleichsweise geringem Aufwand für individuelle Lösungen zu implementieren. Andererseits zählt hierzu auch Standardsoftware, welche grundlegende Konzepte des Geschäftsprozessmanagements abbildet und beispielsweise digitale Modellierung, Workflow-Unterstützung sowie die durchgehende Erstellung von Logdaten zur detaillierten Auswertung und Verbesserung von Prozessen erlaubt.
Die wachsende Zahl an Basistechnologie und Anwendungssoftware für die digitale Unterstützung von Geschäftsprozessen führt zu einer dramatischen Reduzierung der Einstiegshürden für die Prozessdigitalisierung.
1.4 Charakteristiken digitaler Prozesse
Aufgrund der genannten Treiber der Digitalisierung sind signifikante Änderungen bei der Umsetzung und Ausführung von Geschäftsprozessen zu erwarten. Wie sich diese Änderungen für konkrete Prozesse genau manifestieren, hängt von einer Reihe von Faktoren ab. Beispielsweise bestehen viele branchen- und industriespezifische Potentiale im Rahmen der Digitalisierung. Diese werden innerhalb des folgenden Abschnitts behandelt. Darüber hinaus lassen sich auch einige allgemeine Charakteristiken für Veränderungen im Rahmen der Prozessdigitalisierung identifizieren (vgl. Appelfeller & Feldmann, 2018, S. 19ff.; Janiesch et al., 2017, S. 3).
• Prozessschritte werden digital durch IT-Systeme unterstützt, sodass Aktivitäten nicht mehr unstrukturiert und ad hoc unter Verwendung verschiedener Software-Tools durchgeführt werden,
• Prozessabläufe werden zunehmend automatisiert, beispielsweise durch die automatische Versendung von Mitteilungen oder den Austausch von Daten,
• Prozessschritte werden mit vorangehenden und nachfolgenden Aktivitäten stärker systemtechnisch integriert, sodass manuelle Schnittstellen und Medienbrüche reduziert werden,
• die Integration zwischen „realer“ und „digitaler“ Prozessausführung nimmt zu, indem auch manuelle und physische Tätigkeiten eine digitale Spur in einem IT-System hinterlassen,
• die Ausführungen von Prozessen sind aufgrund der digitalen Abbildung transparent, durchgängig und in Echtzeit nachvollziehbar,
• Prozesse können aufgrund der digitalen Spuren, die sie bei ihrer Ausführung hinterlassen, detailliert ausgewertet und analysiert werden, um z. B. unerwünschte Abweichungen frühzeitig zu erkennen,
• Prozesse weisen ein höheres Maß an Selbststeuerung auf, sodass Entscheidungen innerhalb eines Prozessablaufs automatisiert werden können und
• die bedarfsgerechte Ausführung von Prozessen nimmt eine wichtige Rolle bei der Planung und Durchführung von periodisch wiederkehrenden Aktivitäten ein.
Die Beispiele innerhalb des folgenden Abschnitts illustrieren, wie die angeführten Charakteristiken die Ausführung von Prozessen in bestimmten Branchen verändern und unter dem Einsatz moderner Technologien transformieren. Hierzu werden Szenarien aus dem Bereich Industrie 4.0 und dem Gesundheitsbereich betrachtet.
1.5 Industriespezifische Potentiale der Prozessdigitalisierung
1.5.1 Prädiktive Wartung im Rahmen der Industrie 4.0
Das erste Anwendungsszenario bezieht sich auf Wartungsprozesse industrieller Anlagen und illustriert das Charakteristikum der bedarfsgerechten Ausführung. Wartungsprozesse in industriellen Anlagen werden typischerweise nach festgelegten Zeitintervallen durchgeführt (z. B. alle sechs Monate) oder an bestimmte technische Parameter geknüpft (z. B. nach 10.000 auf einer Maschine gefertigten Bauteilen). Das Problem bei dieser Art der Festlegung von Wartungsintervallen besteht darin, dass die spezifischen Einsatzbedingungen einer Anlage nicht berücksichtigt werden. In Bezug auf die technischen Parameter könnte es beispielsweise einen großen Unterschied machen, welche Art von Produkten auf der Anlage gefertigt wurde; während 10.000 Einheiten von Produkt A zu einem eher geringen Verschleiß führen, könnten bereits 5.000 Einheiten von Produkt B den gleichen Verschleiß hervorrufen. Im Ergebnis besteht bei fixen Wartungsintervallen also die Gefahr, eine Wartung entweder zu früh durchzuführen – und dadurch unnötige Ressourcen zu verschwenden sowie einen nicht notwendigen Stillstand der Anlage zu verursachen – oder aber einen verschleißbedingten Ausfall der Anlage außerhalb der Wartungsintervalle zu riskieren.
In Abbildung 1 sind die Einflüsse verschiedener Wartungsmodelle auf die Anlageneffektivität (engl. Original Equipment Effectiveness, OEE) dargestellt.
Während eine reaktive Wartung nach Auftreten eines Defekts zu einer geringen Effektivität führt, erreicht auch die heute verbreitete Art der geplanten Wartung nur eine durchschnittliche Effektivität im Bereich von 50‒75%.
Abbildung 1: Einfluss der proaktiven Wartung auf die Verfügbarkeit von Industrieanlagen
(Quelle: Deloitte, 2017)
Eine proaktive Wartung kann in einem übermäßig häufigen Austausch möglicherweise defekter Komponenten bestehen, geht aber zulasten der Ressourceneffizienz. Eine prädiktive Wartung stellt in diesem Szenario das Wunschergebnis dar und beruht auf der ständigen Überwachung von technischen Parametern der Anlage, um einen drohenden Defekt zu erkennen, bevor er tatsächlich auftritt.
Dieses Beispiel verdeutlicht die dynamische Reaktion von Wartungsprozessen in Abhängigkeit bestimmter Variablen im Prozesskontext. Eine Überwachung kritischer Anlagenparameter, z. B. Schwingungen, Temperatur, Druck, kann in Verbindung mit Machine-Learning-Methoden eine präzise Vorhersage von drohenden Defekten und eine flexible Prozesssteuerung ermöglichen.
1.5.2 Track & Trace von Prozessen im Gesundheitsbereich
Das zweite Beispiel illustriert die Charakteristiken der durchgehenden IT-Unterstützung, systemtechnischen Integration sowie Nachvollziehbarkeit von Prozessschritten in Echtzeit. Es entstammt einer Fallstudie zur Prozessimplementierung am DNU Hospital in Aarhus/Dänemark, welches mit mehr als 10.000 Angestellten zu den größten Krankenhäusern in Europa zählt (vgl. Meister et al., 2019, S. 329ff.).
Ziel der Implementierung war eine vertikale und horizontale Integration von Prozessen durch eine einheitliche Informationsarchitektur. Ein besonderer Fokus lag auf der Unterstützung der operativen Prozessdurchführung im Bereich Logistik. Im Bereich der Service-Logistik wurde ein System zur Nachverfolgung (Tracking & Tracing) von Infrastruktur (z. B. Betten, Essen, Wäsche) implementiert, welches eine Echtzeitlokation von Objekten ermöglicht. Die Objekte wurden dazu mit technischer Funktionalität zur drahtlosen Kommunikation ausgestattet. Ein System zur Aufgabenverwaltung unterstützt beispielsweise die Auslieferung von Wäsche auf dem Weg zur Reinigung: Die entsprechenden Container sind mit Funktechnologien ausgestattet, sodass sie bei Erreichen der Laderampe automatisch eine Nachricht an den Transporteur versenden, um über die Abholbereitschaft zu informieren. Auch der weitere Weg bis zur Wiederanlieferung der Container kann schrittweise innerhalb des Systems nachvollzogen werden. Die Auswahl der bei den entsprechenden Schritten zu informierenden Personen kann darüber hinaus dynamisch an deren Verfügbarkeit angepasst werden.
Die digitale Abbildung aller Prozesse erlaubt es außerdem, Auswertungen der Daten durchzuführen und Erkenntnisse über eine weitere Optimierung der Abläufe zu erhalten. Neben der durchgängigen IT-Unterstützung auf Seiten des DNU ist die technische Integration von Systemen von externen Dienstleistern wie Transportunternehmen eine notwendige Voraussetzung für die Realisierung dieser Prozessdigitalisierung.
2 Einordnung und Modellierung von digitalisierten Prozessen
2.1 Einordnung digitalisierter Prozesse
2.1.1 Übersicht
Die digitale Transformation betrifft alle Bereiche eines Unternehmens und verändert verschiedene Aspekte in unterschiedlicher Weise. Wie in Abschnitt 1.1 bereits einleitend erwähnt, lässt sich hierbei zwischen den folgenden Elementen unterscheiden (vgl. Appelfeller & Feldmann, 2018, S. 9):
• Enabler der digitalen Transformation legen die technische Grundlage zur Realisierung der digitalen Transformation. Hierzu zählen IT-Systeme, die analoge Daten in digitale Daten verwandeln und Produkten und Maschinen durch eingebettete Komponenten zu einer digitalen Repräsentation verhelfen. Ebenfalls fallen Elemente zur digitalen Vernetzung in die Kategorie der Enabler, da sie die Grundvoraussetzung für den Datenaustausch und die Kommunikation von digitalen Objekten untereinander bilden.
• Objekte der digitalen Transformation werden durch digitale Technologien transformiert und verändern dadurch ihren Charakter.
Dadurch werden zum einen digitale Daten als Ergebnis von Interaktionen mit Produkten und Maschinen entstehen, welche „digital enabled“ wurden. Zum anderen gelten die digitalisierten Produkte und Maschinen selbst als digitale Objekte.
• Verwender der digitalen Transformation profitieren von der digitalen Transformation und nutzen die sich daraus ergebenden Vorteile.
Hierzu zählen Prozesse, die – unterstützt durch IT-Systeme und digitale Kommunikationsinfrastruktur – effizienter und besser ausgeführt werden können. Weiterhin fallen Geschäftsmodelle als Ganzes in diese Kategorie, welche sich beispielsweise zu Plattformmodellen wandeln können, indem sie die Möglichkeiten der digitalen Transformation nutzen.
• Akteure der digitalen Transformation sind schließlich beteiligte Personen, die von der transformativen Entwicklung betroffen sind, eingebunden werden und Unterstützung erfahren. Hierzu zählen z. B. Mitarbeiter, Kunden und Lieferanten.
Digitale Prozesse stehen als Verwender im Fokus der Betrachtung, da sie eine zentrale Rolle für neuartige Service-Angebote, Ablaufstrukturen und veränderte Wertschöpfungsangebote von Unternehmen einnehmen.
Die digitale Unterstützung von Prozessen durch IT-Systeme führt zu einem digitalen Abbild dieser Abläufe. Diese durchgehende Digitalisierung ermöglicht es, einzelne Schritte transparent nachzuvollziehen, zu analysieren und von verschiedenen Standorten aus Einblicke in den aktuellen Stand und Status eines Prozesses zu erhalten. Kerngedanke hierbei ist, dass jede in der Realität durchgeführte Aktion zu einer digitalen Spur in einem IT-System führen muss. Bei physischen Prozessschritten – beispielsweise dem Wareneingang oder einem Verarbeitungsschritt bei der Produktion eines Produktes – ist hierbei eine Protokollierung der entsprechenden Aktion notwendig. Bevor die unterschiedlichen Arten von digitalisierten Prozessen in Abschnitt 2.1.3 näher erläutert werden, ordnet der nächste Abschnitt die einzelnen Phasen zum Management von Prozessen in ein Rahmenwerk ein.
2.1.2 Geschäftsprozessmanagement
Für den Begriff Geschäftsprozessmanagement (engl. Business Process Management, BPM) existieren verschiedene Auffassungen und Definitionen, weshalb im Folgenden zunächst eine Arbeitsdefinition entwickelt werden soll. Allgemein bezeichnet BPM ein integriertes System zum Management von unternehmerischen Aktivitäten, insbesondere mit einem Schwerpunkt auf der Kontrolle und Steuerung von performancekritischen Geschäftsprozessen. Ein Geschäftsprozess stellt nach SCHEER in diesem Zusammenhang eine „zusammengehörige Abfolge von Unternehmensverrichtungen zum Zweck einer Leistungserstellung“ dar (Scheer, 2002, S. 3). Als umfassender Managementansatz stellt BPM Methoden, Techniken und Software-Werkzeuge bereit, um den Entwurf, die Ausführung und die Analyse von Unternehmensprozessen unter Einbeziehung der beteiligten Personen, Anwendungen, Ressourcen und Informationsquellen zu unterstützen. Im Mittelpunkt eines modernen Geschäftsprozessmanagements steht, im Gegensatz zu disruptiven und meist einmalig durchgeführten Maßnahmen wie Business Process Reengineering, eine kontinuierliche Verbesserung von Geschäftsprozessen. Damit werden die Ziele verfolgt, Unternehmensprozesse an geänderte Bedingungen anzupassen, die Prozesseffizienz zu steigern und eine kontinuierliche Ausrichtung der Prozesse an der Unternehmensstrategie sicherzustellen Die methodische Grundlage hierfür bieten sogenannte BPM-Life-Cycle-Modelle, welche den Lebenszyklus eines Prozesses in verschiedene Phasen unterteilen (vgl. Abbildung 2).
Ausgehend von der Definition einer Unternehmensstrategie (Strategieentwicklung) erfolgt der Entwurf von Geschäftsprozessen unter Berücksichtigung entsprechend definierter Prozessziele (Definition und Modellierung). Die anschließende Implementierung und Ausführung entsprechen der technischen und organisatorischen Realisierung des Prozesses und werden durch eine Auswertung laufender und historischer Prozessabläufe überwacht und durch Maßnahmen wie Soll-Ist-Vergleiche oder Benchmarking analysiert (Monitoring und Controlling). Im nächsten Schritt erfolgt ein Abgleich mit zuvor definierten Indikatoren zur Prozessperformance und zum Grad der Zielerreichung, welcher die Ausgangsbasis für eine Prozessoptimierung und eventuelle Neuausrichtung entlang der Strategie darstellt (Optimierung und Weiterentwicklung).
Abbildung 2: BPM-Lebenszyklus zur Strukturierung des Geschäftsprozessmanagements
Der dargestellte Zyklus bildet den Rahmen für die ganzheitliche Konzeption, Umsetzung und Weiterentwicklung von Geschäftsprozessen. Obwohl die beschriebenen Phasen grundsätzlich auch für analoge und nicht digital unterstützte Prozesse anwendbar sind, ergeben sich für digitalisierte Prozesse vielfältige Potentiale in Bezug auf die Analyse und Automatisierbarkeit. Im nächsten Abschnitt werden diese Aspekte daher näher charakterisiert.
2.1.3 Abgrenzung digitalisierte und automatisierte Prozesse
Digitale Prozesse lassen sich nach APPELFELLER & FELDMANN anhand verschiedener Kriterien weiter differenzieren (vgl. Appelfeller & Feldmann, 2018, S. 20f.). Diese sind jeweils als verhältnismäßiger Anteil derjenigen Prozessaktivitäten zur Gesamtzahl der Aktivitäten definiert, der dem jeweiligen Kriterium entspricht.
Das erste Kriterium stellt hierbei der Digitalisierungsgrad dar, der angibt, welcher Anteil der in einem Prozess enthaltenen Aktivitäten digital durch ein IT-System unterstützt ist. Das Spektrum reicht hier von analogen Prozessen, bei denen alle Aktivitäten ohne IT-Unterstützung durchgeführt werden und die damit auch keine auswertbaren digitalen Spuren hinterlassen, über teildigitalisierte Prozesse, bei denen einzelne Schritte digital unterstützt werden, bis hin zu volldigitalisierten Prozessen, die vollumfänglich durch IT-Systeme abgedeckt sind. Volldigitalisierte Prozesse ermöglichen eine vollständige und transparente Untersuchung von Abläufen, da keine analogen Brüche die Nachvollziehbarkeit verhindern.Strategieentwicklung
Definition und Modellierung
Implementierung
Ausführung
Monitoring und
Controlling
Optimierung und
Weiterentwicklung
Prozessdigitalisierung
Als zweites Kriterium lässt sich der digitale Automatisierungsgrad von Prozessen unterscheiden, welcher angibt, welcher Anteil von Aktivitäten innerhalb eines Prozesses automatisch, d. h. ohne manuelle Beteiligung eines Menschen, stattfindet. Die Automatisierbarkeit von einzelnen Prozessschritten bedingt in nahezu allen Fällen eine Digitalisierung der entsprechenden Schritte, da die automatisierte Verarbeitung auf Eingabedaten angewiesen ist, um eine Entscheidung zu treffen. Beispiele hierfür sind die automatisierte Übernahme von Daten aus einem System über eine definierte Schnittstelle oder die Abfrage von Reporting-Informationen. Analog zum Digitalisierungsgrad kann auch hier wiederum zwischen vollautomatisierten, teilautomatisierten und manuellen Prozessen unterschieden werden. Mit Robotic Process Automation (kurz: RPA) erfährt die Automatisierung von komplexen Prozessschritten gerade große Beachtung und wird im späteren Verlauf detaillierter behandelt (vgl. Abschnitt 5).
Das dritte Kriterium wird als digitaler Integrationsgrad bezeichnet. Dieser gibt Aufschluss darüber, ob Prozessaktivitäten durch ein einheitliches und integriertes IT-System unterstützt werden oder über viele verschiedene Systeme hinweg begleitet werden. Eine vollständige Abbildung in einem System bringt den Vorteil, dass notwendige Daten und Informationen in einer zentralen Datenbasis abgelegt sind und im Verlauf der einzelnen Prozessschritte damit immer auf eine aktuelle Grundlage zurückgegriffen werden kann. Auch wenn keine zentrale Datenbasis vorliegt, kann eine vollständige digitale Integration erreicht werden, falls Schnittstellen zwischen den jeweiligen Einzelsystemen derart implementiert sind, dass ein Datenaustausch transparent und automatisiert erfolgt und es nicht zu redundanter oder inkonsistenter Datenhaltung kommt. Das Spektrum der Ausprägungen des digitalen Integrationsgrads reicht von vollintegrierten digitalen Prozessen über teilintegrierte digitale Prozesse bis hin zu nicht integrierten digitalen Prozessen, welche eine manuelle und damit fehlerträchtige Datenübernahme zwischen einzelnen IT-Systemen notwendig machen.
Mit dem vierten Kriterium wird der digitale Selbststeuerungsgrad von Prozessen charakterisiert. Dieses Kriterium bezeichnet den größten Umbruch im Zuge der digitalen Transformation, da im Unterschied zu den drei vorangegangenen Kriterien nicht mehr nur die Digitalisierbarkeit, Automatisierbarkeit und Integrationsfähigkeit von Prozessaktivitäten betrachtet werden, sondern auch die darüber liegende Entscheidungslogik als Fähigkeit zur eigenständigen Steuerung von Prozessabläufen. Am Beispiel eines vollständig digital unterstützten Produktionsprozesses lässt sich dieser Gedanke folgendermaßen illustrieren: Ein mit RFID-Sensorik ausgerüstetes Werkstück kann an verschiedenen Stationen innerhalb eines Produktionsprozesses ausgelesen werden und auf Basis dieser Informationen von den Maschinen an der entsprechenden Station individuell verarbeitet werden; z. B. können Vorgaben für Bohrungen einer bestimmten Tiefe auf dem Sensor gespeichert sein und daher für jedes Werkstück individuell unterschiedlich interpretiert werden. Eine dermaßen ausgerüstete Produktionsstraße erlaubt die Selbststeuerung der Prozesse durch das jeweilige Werkstück, ohne dass eine zentrale Steuerung oder eine fixe Vorgabe von Prozessschritten in einer definierten Reihenfolge oder mit definierten Prozessparametern notwendig ist. Notwendige Voraussetzungen für diese Art der Selbststeuerung sind eine vollständige Digitalisierung der einzelnen Prozessaktivitäten, eine Vernetzung der beteiligten Komponenten sowie die Konfigurierbarkeit von Prozessparametern in Abhängigkeit von den ausgelesenen Sensorwerten. Analog zu den drei vorherigen Kriterien kann auch bei der digitalen Selbststeuerung zwischen den Ausprägungen der vollen, der teilweisen sowie der fehlenden Selbststeuerung unterschieden werden.
Die vier genannten Kriterien können unabhängig voneinander für einen gegebenen Prozess bewertet und anschließend entsprechend einer beliebig wählbaren Gewichtung zu einem Gesamtwert verdichtet werden. Dieser als Reifegrad bezeichnete Wert kann zur Einschätzung und zum Vergleich des Digitalisierungsstandes für verschiedene Prozesse herangezogen werden.
2.2 Grundlagen der Prozessmodellierung
Die Modellierung von Geschäftsprozessen nimmt als eigene Phase im Lebenszyklus des Geschäftsprozessmanagements direkt nach der Strategiedefinition eine zentrale Rolle ein. Ziel der Modellierung ist es, die Konzeption von Prozessen durch die Verwendung einer einheitlich definierten Notation zu unterstützen.
Grundsätzlich kann ein Modell als die Abbildung der Realität bzw. eines Realitätsausschnittes definiert werden. Die Modellbildung dient vor allem zur Beherrschung der Komplexität, da nicht alle Bestandteile der Realität in einem Modell abgebildet werden können. Komplexität bezieht sich hier auf die unterschiedlichen Bestandteile und Komponenten eines Systems, die in vielfältigen Wechselwirkungen zueinander stehen. Zu den Maßnahmen für die Komplexitätsbeherrschung zählen unter anderem
• die Partitionierung zur Aufteilung von komplexen Systemen in kleinere Einheiten z. B. Daten, Abläufe etc.,
• die Projektion, um Sachverhalte aus unterschiedlichen Perspektiven zu betrachten, z. B. der Perspektive des Benutzers, Managements, Programmierers oder Administrators,
• die Abstraktion zur Konzentration auf bestimmte Aspekte eines Systems und zur Ausblendung nicht relevanter Aspekte, z. B. Klassenbildung (Klasse „Kunden“ als Abstraktion von individuellen Kunden)
Der Begriff Modellierung beschreibt den Abbildungsprozess, der in der Erstellung des Modells resultiert. Wichtig ist hierbei insbesondere der direkte Bezug, d. h. die Ähnlichkeit zwischen Modell und Realität. Je nach intendiertem Zweck kann ein Modell Vorbild oder Nachbild der Realität sein. Als Vorbild dient das Modell der Vorgabe.
Unter Prozessmodellierung wird im Allgemeinen eine Methode zur Beschreibung und zum Austausch über den aktuellen oder zukünftigen Stand eines Geschäftsprozesses verstanden. Sie verwendet eine definierte Notation zur Darstellung der Schritte, Teilnehmer und Logik in Geschäftsprozessen sowie zur Beschreibung der Beziehungen zwischen Ressourcen (z. B. Anwendungssystemen) und Prozessschritten. Prozessmodellierung unterstützt durch eine Formalisierung von Abläufen zur Analyse und Verbesserung von Prozessen deren Umsetzung in IT-Systemen und verfolgt damit die folgenden Zielsetzungen:
• die Prozesskommunikation durch eine gemeinsame und definierte Sprache zu verbessern und dadurch den Wissenstransfer und die Einarbeitung neuer Mitarbeiter zu erleichtern,
• die Kontrolle und Konsistenz durch die Formalisierung von „implizitem Wissen“ zu erhöhen und eine konsistente Prozessausführung unabhängig von Einzelpersonen sicherzustellen, um dadurch dokumentierte Ausnahmebehandlungen, regulatorische Compliance und rechtliche Rahmenbedingungen zu erreichen,
• die Effizienz zu verbessern, indem Optimierungen, eine Verringerung des Ressourceneinsatzes, die Verringerung von Prozessdurchlaufzeiten sowie die kontinuierliche Betrachtung von Prozessen durch Simulation und Analysen ermöglicht werden.
Zur Modellierung existieren unterschiedliche Notationen, von denen im nachfolgenden Abschnitt beispielhaft einige vorgestellt werden.
2.3 Modellierungskonventionen
2.3.1 EPK
Die Ereignisgesteuerte Prozesskette (EPK, engl. Event-driven Process Chain [EPC]) ist eine grafische Modellierungssprache für Geschäftsprozesse, die im Rahmen des ARIS-Konzeptes (Architektur Integrierter Informationssysteme) zur Beschreibung von ablauflogischen Strukturen entwickelt wurde. Zu den Grundelementen der Notation gehören die in Abbildung 3 dargestellten Konstrukte.
Abbildung 3: Grundelemente der Ereignisgesteuerten Prozesskette (EPK)
Eine Funktion bezeichnet eine Aktivität innerhalb eines Prozesses. Sie wird immer durch ein Ereignis ausgelöst und von einem Ereignis gefolgt. Ein Ereignis ist ein Zustand, der vor und nach einer Funktion angenommen wird. Ein Prozess beginnt und endet immer mit mindestens einem Ereignis. Der Kontrollfluss wird als gerichtete Kante dargestellt und verbindet alle Elemente der Modellierungssprache in logischer Reihenfolge. Konnektoren dienen zum Aufspalten oder Vereinigen des Kontrollflusses, wobei zwischen einer parallelen Ausführung von zwei Prozesspfaden (AND), der exklusiven Entscheidung (XOR – nur einer der zur Auswahl stehenden Prozesspfade wird ausgeführt) und der inklusiven Entscheidung (OR – einer oder bis zu alle zur Auswahl stehenden Prozesspfade werden ausgeführt) unterschieden wird. Die Vorteile der EPK als Modellierungsnotation liegen in der einfachen Verständlichkeit der Prozessmodelle aufgrund der geringen Anzahl an verwendeten Grundelementen sowie in der einfachen Erweiterbarkeit um zusätzliche Prozessperspektiven. Beispielsweise können gesonderte Symbole zur Modellierung von Datenaspekten oder IT-Systemen angefügt werden, um einzelne Funktionen genauer zu charakterisieren und Informationsflüsse im
Modell darzustellen. Als Nachteil der EPK ist die Unübersichtlichkeit bei großen Prozessabläufen zu nennen. Bedingt durch die zwingend vorgeschriebene Abfolge von Ereignissen und Funktionen wächst das Modell mit jeder neuen Aktivität um zwei Elemente an.
2.3.2 BPMN, CMMN und DMN
Die Business Process Management and Notation (BPMN) bezeichnet eine erweiterbare und standardisierte grafische Modellierungsnotation. Sie wurde im Jahr 2005 durch die internationale Object Management Group (OMG) zur Pflege übernommen und wird seitdem in regelmäßigen Abständen weiterentwickelt. Die Konvention besitzt eine eingebaute Semantik sowie Regeln, welche die Bedeutung der Formen, Symbole und Verbindungselemente innerhalb der Spezifikation präzise festlegen. Eine Auswahl der Grundelemente der BPMN ist in Abbildung 4 dargestellt; eine vollständige Übersicht zu allen verfügbaren Elementen und Symbolen ist online verfügbar.
Abbildung 4: Grundelemente der Business Process Model and Notation (BPMN)
Die als Flow Objects bezeichneten Elemente dienen zur Beschreibung der Ablauflogik eines Geschäftsprozesses. Events entsprechen wichtigen auslösenden oder resultierenden Ereignissen im Prozessverlauf; im Gegensatz zur EPK-Notation werden Ereignisse aber sparsamer bei der Modellierung verwendet und treten nicht nach jeder durchgeführten Aktivität im Prozess auf.
Prozessaktivitäten werden durch Activities dargestellt, die im Wesentlichen den Funktionen der EPK-Notation entsprechen. Zur Modellierung des Kontrollflusses inklusive Verzweigungen werden Gateways analog zu den Konnektoren der EPK verwendet. Im Bereich Connecting Objects werden unterschiedliche gerichtete Kantenbeziehungen definiert, welche die Prozessablauflogik (Sequence Flow), den Austausch von Nachrichten (Message Flow) und die Zuordnung von Artifacts zu anderen Elementen (Association) modellieren. Die als Swimlanes bezeichneten Elemente Pool und Lanes dienen der Strukturierung von Prozessmodellen und fassen Events und Activities zusammen, die von der gleichen Organisationseinheit ausgeführt werden.
Zu den Vorteilen von BPMN gehört die bei großen Modellen erhöhte Übersichtlichkeit aufgrund der verfügbaren Strukturierungselemente für die Zu-sammenfassung von Prozesselementen, die von der gleichen Organisationseinheit ausgeführt werden. Weiterhin bietet BPMN die Möglichkeit, aus der Prozessdarstellung maschinenlesbare Prozessbeschreibungen in der Ausführungssprache WS-BPEL (Business Process Execution Language) zu generieren. Diese stellen eine automatisierte Methode dar, um von der Modellierung zu einer Implementierung des Prozesses in einem Software-System zu gelangen. Ein Nachteil der BPMN besteht im anfänglich höheren Aufwand für das Erlernen und Interpretieren der Modellierungselemente. Als Ergänzung zur Prozessmodellierung in BPMN wurden vonseiten der OMG zwei weitere Standards definiert. Insbesondere DMN als Standard zur Modellierung von Entscheidungen innerhalb von Prozessen hat für die Modellierung von digitalen Prozessen (vgl. Abschnitt 2.4) große Bedeutung:
• Case Management Model and Notation (CMMN) ist eine grafische Notation zur Erfassung von Szenarien, die auf der Bearbeitung von Fällen (engl. Cases) basiert. Fälle erfordern verschiedene Aktivitäten, die, anders als Prozessaktivitäten, in einer unvorhersehbaren Reihenfolge als Reaktion auf sich ändernde Situationen ausgeführt werden können. Mit einem ereigniszentrierten Ansatz und dem Konzept einer Fallakte (engl. Case File) erweitert CMMN die Grenzen dessen, was mit BPMN modelliert werden kann, einschließlich weniger strukturierter Arbeitsaufwendungen und solcher, die von Wissensarbeitern betrieben werden. Die Verwendung einer Kombination aus BPMN und CMMN ermöglicht es dem Anwender, ein breiteres Spektrum von Anwendungsfällen abzudecken.
• Decision Model and Notation (DMN) ist eine Modellierungssprache und Notation zur präzisen Spezifikation von Geschäftsentscheidungen und Geschäftsregeln. Sie ist leicht verständlich und für die Kommunikation zwischen verschiedenen Prozessbeteiligten geeignet.
Ziel der Notation ist es, die Modellierung von Entscheidungsregeln von der Modellierung von Ablaufstrukturen und der Prozesslogik zu entkoppeln. Dies ermöglicht eine leichtere Pflege und Anpassung von Regelkriterien, ohne die Prozessmodelle selbst modifizieren zu müssen. DMN wurde für den Einsatz neben BPMN und CMMN entwickelt und bietet einen Mechanismus zur Modellierung der mit Prozessen und Fällen verbundenen Entscheidungen.
2.3.3 Petri-Netze
Petri-Netze sind gerichtete Graphen und dienen der Modellierung, Analyse und Simulation von dynamischen Systemen speziell mit nebenläufigen Vorgängen. Sie sind nicht auf die Modellierung von Geschäftsprozessen beschränkt, sondern finden beispielsweise auch bei der Beschreibung von Automaten in der Information oder der Modellierung von technischen Schaltvorgängen Anwendung. Kernelement der Notation ist ein Marken-Konzept (engl. Token), welches den Fluss von Elementen durch das modellierte System beschreibt. Im Gegensatz zu den beiden zuvor dargestellten Modellierungskonventionen EPK und BPMN besitzen Petri-Netze die besondere Eigenschaft, dass ihre Ausführungssemantik mathematisch-formal beschrieben werden kann. Die Grundelemente der Petri-Netz-Notation sind in Abbildung 5 dargestellt.
Abbildung 5: Grundelemente der Petri-Netz-Notation
Stellen (auch Platz, Zustand, Speicher oder Kanal) bezeichnen passive Elemente und dienen als Speicherplatz für eine oder mehrere Marken. Transitionen (auch Hürde oder Zustandsübergang) bezeichnen aktive Elemente, welche eine oder mehrere Marken von verbundenen Eingangsstellen konsumieren und eine oder mehrere Marken in jeder verbundenen Ausgangsstelle produzieren. Stellen und Marken sind durch gerichtete Kanten verbunden, welche den Prozessfluss darstellen.
Der Vorteil der Petri-Netz-Notation liegt in der Möglichkeit zur mathematisch-formal korrekten Beschreibung der Modellsemantik. So kann beispielsweise für jeden definierten Anfangszustand – der durch eine Menge von Marken auf den im Netz enthaltenen Stellen spezifiziert wird – bewiesen werden, ob ein erlaubter Endzustand erreichbar ist. Diese Eigenschaft ist insbesondere für die korrekte Funktionsweise von Process-Discovery-Algorithmen wie dem Alpha Miner (vgl. Abschnitt 4.4.2.2) oder der Bestimmung der Process Conformance, d. h. der Realitätstreue eines Prozessmodells (vgl. Abschnitt 4.4.3.2), von Relevanz. Als Nachteil der Petri-Netz-Notation ist die hohe Komplexität der Notationselemente zu nennen; im Gegensatz zu einfachen grafischen Modellierungskonventionen wie den vorgestellten EPK- und BPMN-Notationen ist für die Interpretation der Prozesslogik nicht nur die Reihenfolge der verbundenen Elemente zu beachten, sondern zusätzlich die Verteilung der einzelnen Marken innerhalb des Netzes zu berücksichtigen. Weiterhin ist die Modellierung von Verzweigungen innerhalb des Prozessflusses aufgrund fehlender dedizierter Elemente für AND-, XOR- und OR-Entscheidungen nur durch komplexe Strukturen abbildbar, was insbesondere bei großen Modellen die Übersicht erschwert.
2.4 Modellierung von Entscheidungsstrukturen digitaler Prozesse
Bei der Unterscheidung von Prozessen hinsichtlich ihres Digitalisierungs-, Automatisierungs-, Integrations- und Selbststeuerungsgrads wurde der Digitalisierungsgrad als maßgeblich, vor allem für eine weitergehende Automatisierung und Selbststeuerung, hervorgehoben. Eine Besonderheit in diesem Zusammenhang stellt die explizite Modellierung von Entscheidungsstrukturen und -regeln mittels der erwähnten DMN dar.
Im Kontext mit Prozessdigitalisierung erlaubt die Modellierung von Entscheidungsstrukturen mittels DMN eine über den reinen Prozessablauf hinausgehende Abbildung von Entscheidungsvariablen und -mechanismen. Auf diese Weise kann die Entscheidung an Verzweigungspunkten innerhalb eines Prozesses spezifiziert werden, was die Grundlage für eine intelligente Automatisierung mittels RPA darstellen kann (vgl. Abschnitt 5). DMN bietet hierzu die Möglichkeit, Abhängigkeiten zwischen verschiedenen Parametern im Prozesskontext (sog. Eingabevariablen) zu modellieren und auf gewünschten Ausgabezuständen abzubilden. Einen Prozessparameter kann beispielsweise eine Dateneingabe darstellen, die zu einer bestimmten Prozessaktivität vorliegt, oder eine Ressource, die eine Aktivität ausführt. Weiterhin ist denkbar, dass auch numerische Werte, wie die bislang angefallene Durchlaufzeit eines Prozesses, als Eingabevariablen für eine Entscheidung herangezogen werden. Abbildung 6 enthält ein Beispiel dazu (eine detaillierte Anleitung inklusive Online-Simulator findet sich bei Camunda2).
Kleidung #1
Eingabe Ausgabe Annotation
Wetter Kleidungsstück
1 Regen Regenjacke
2 Wind Windjacke
3 Sonne Shorts nur privat …
Abbildung 6: Einfaches Beispiel einer in DMN modellierten Entscheidunsstruktur
Das Beispiel zeigt eine Entscheidungsstruktur Kleidung #1, die in Abhängigkeit vom Wetter als Eingabevariable das passende Kleidungsstück als Ausgabe vorschlägt. Dieses einfache Beispiel kann um beliebig komplexe Kombinationen von Variablen erweitert werden. Die nachfolgende Abbildung7 modifiziert das Eingangsbeispiel um kombinierte Abhängigkeiten und Intervallabfragen von Temperaturwerten.
Kleidung #2
Eingabe Ausgabe Annotation
Wetter Temperatur Kleidungsstück
1 Regen ≤ 15 Regenjacke
2 Wind ≤ 10 Windjacke
3 Sonne > 20 Shorts nur privat …
4 Regen & Wind > 15 Leichte Regenjacke ausreichend für Temperatur
5 Sonne < 10 Lange Hose sonst zu kalt
Abbildung 7: Komplexes Beispiel einer in DMN modellierten Entscheidungsstruktur
Das Beispiel zur Entscheidungsstruktur Kleidung #2 verdeutlicht, wie Werte von Eingabevariablen kombiniert werden können. So liegen Regen & Wind als Eingaben parallel vor und führen in Kombination mit einem Temperaturwert von > 15 zu einer individuellen Ausgabe im Vergleich zum separaten Auftreten von Regen oder Wind.
Zur Modellierung von mehrstufigen Abhängigkeiten existiert innerhalb der DMN eine vereinfachte Darstellung namens Decision Requirements Diagram (DRD), welche die Beziehungen von individuellen Entscheidungsstrukturen untereinander abbildet. Im folgenden Beispiel in Abbildung 8 dient die bereits bekannte Entscheidungsstruktur Kleidung wiederum als Eingabevariable für die Entscheidungsstruktur Schuhe, welche zusätzlich noch eine separate Eingabe Lange Wanderung? (Wertebereich ja/nein) erhält. Die Schachtelung lässt sich beliebig fortsetzen und um weitere Elemente ergänzen, sodass sehr komplexe Konstellationen aus Prozessparametern abgebildet werden können.
Abbildung 8: Beispiel eines Decision Requirements Diagram (DRD) für mehrstufige AbhängigkeitenKleidung
Wetter Temperatur
Schuhe
Lange Wanderung?
2.5 Von der Modellierung zur Ausführung
Eine wichtige begriffliche Unterscheidung im Rahmen der Prozessmodellierung besteht zwischen Prozessmodellen einerseits und den in der Realität ausgeführten Prozessen andererseits. Prozessmodelle bilden die allgemeine Struktur und Vorlage für Prozessabläufe, sie modellieren grundsätzlich erlaubtes Verhalten und Regeln für die Entscheidung zwischen unterschiedlichen Prozesspfaden. Man spricht in diesem Zusammenhang von der Typebene. Demgegenüber ist von Prozessen oder präziser von Prozessinstanzen die Rede, wenn es um die individuelle Ausführung eines Prozessmodells geht, die in der konkreten Ausprägung eines Pfades durch ein Modell besteht. Diese Ebene wird als Instanzebene bezeichnet.
Die Ausführung von modellierten Prozessen durch unterstützende IT-Systeme hinterlässt digitale Spuren in Form von sogenannten Ereignislogs, die mit Methoden aus dem Bereich Process Mining verarbeitet und analysiert werden können. Weiterhin bildet eine vollständig digitale Abbildung von Prozessabläufen und den darin enthaltenen Entscheidungsstrukturen die Basis für eine Automatisierung von Prozessaktivitäten. Robotic Process Automation (RPA) stellt hierzu eine moderne Möglichkeit dar und wird in Abschnitt 5 behandelt. Während sowohl Process Mining und RPA vorrangig auf der Instanzebene von Prozessen operieren, also mit der Analyse von Ausführungsdaten bzw. der Automatisierung von Prozessaktivitäten befasst sind, haben sie ebenfalls starken Einfluss auf die Typebene: Die Ergebnisse von Process-Mining-Analysen können helfen, Prozessmodelle gegenüber der Realität zu verifizieren, um Abweichungen und mögliche Fehler in der Modellierung zu erkennen.
Sie bieten gleichzeitig eine Möglichkeit, beobachtbares Prozessverhalten innerhalb von RPA-Anwendungen in Bezug auf Automatisierungspotentiale hin zu überprüfen. In Kombination mit verifizierten Prozessmodellen stellt RPA zudem ein mächtiges Werkzeug zur Überwachung und zum Monitoring von laufenden Prozessinstanzen dar. Abbildung 9 verdeutlich diesen Zusammenhang grafisch.
Abbildung 9: Zusammenhang zwischen Typ- und Instanzebene von Prozessen
3 Theoretische Grundlagen
3.1 Data Mining
Der Begriff Data Mining fasst verschiedene Ansätze zur systematischen Sammlung, Verarbeitung und Analyse von großen Datenmengen zusammen. Das grundsätzliche Ziel besteht darin, Erkenntnisse und Zusammenhänge in unstrukturierten Datenbeständen zu identifizieren und gezielt Wissen über bestimmte Anwendungsbereiche aus diesen zu extrahieren.
Im Rahmen eines als Knowledge Discovery bezeichneten Prozesses werden verschiedene Schritte definiert, um aus Datenbeständen unterschiedlicher Quellen handlungsrelevante Informationen zu gewinnen: Den ersten Schritt stellen die Integration verschiedener Quelldaten und die Bereinigung der integrierten Datenbasis durch das Entfernen fehlerhafter und inkonsistenter Daten dar. Im Anschluss erfolgt die Auswahl relevanter Datenaspekte unter Berücksichtigung des jeweils anwendungsspezifischen Erkenntnisinteresses (vgl. Hypothesengenerierung). Daran anknüpfend kommen verschiedene analytische Verfahren zur Extraktion von Wissen zum Einsatz, beispielsweise zur Erkennung von Mustern, Assoziationen oder Korrelationen zwischen Datenpunkten. Weitere Beispiele stellen die Erkennung von Anomalien im Datenbestand, die automatische Erkennung zusammengehöriger Elemente (Clustering) oder die Klassifikation von Daten in homogene Gruppen dar. Data Mining stellt ein interdisziplinäres Forschungsfeld dar und bedient sich Methoden aus den unterschiedlichen Bereichen der Statistik, Datenbanktechnologien, Machine Learning und Datenvisualisierung. Abhängig von der spezifischen Anwendung und dem damit einhergehenden Erkenntnisinteresse werden weitere Ansätze, beispielsweise zur Wissensrepräsentation und zum Hochleistungsrechnen, angewendet, um Informationen über Datenstrukturen und -zusammenhänge zu identifizieren.
3.2 Sequence Mining
Der Begriff Sequence Mining (auch Sequential pattern mining) bezeichnet einen Teilbereich des Data Mining, der sich mit der Identifikation von Mustern in Sequenzdaten, d. h. Datenpunkten, die in einer bestimmten Reihenfolge auftreten, befasst. Ein verwandter Spezialbereich ist die Zeitreihenanalyse.
Sequence Mining adressiert verschiedene Problemfelder bei der Verarbeitung und Analyse von Sequenzdaten. Hierzu zählen der Aufbau von effizienten Datenstrukturen zur Speicherung und Suche, die Identifikation sich wiederholender Muster und Teilsequenzen, der Vergleich von Sequenzen sowie die Bestimmung der längsten gemeinsamen Teilfolgen. Zu den Anwendungsbereichen zählen beispielsweise die natürliche Sprachverarbeitung: Im Rahmen der Rechtschreibkorrektur müssen in gängigen Programmen zur Textverarbeitung häufig bestimmte Wörter in Teilsequenzen eines längeren Wortes identifiziert werden. Auf diese Weise lassen sich auch zusammengesetzte Begriffskombinationen, die in der deutschen Sprache möglich, oftmals aber nicht in einem Lexikon zu finden sind, korrekt bewerten. Ein weiteres Beispiel stellt die Analyse von DNA-Sequenzen oder Aminosäuren im Bereich der Biologie dar. Anhand der längsten gemeinsamen Teilfolgen zweier DNA-Proben kann beispielsweise ein Verwandtschaftsverhältnis zwischen zwei Personen bestimmt werden.
Bei der Analyse von Prozessausführungsdaten durch Process Mining werden Daten mit ähnlichen Strukturen verarbeitet, weshalb die dort verwendeten Algorithmen Konzepte aus dem Bereich Sequence Mining aufgreifen. Eine Einführung in die mathematischen Grundlagen findet sich bei Van der Aalst (2016, S. 107ff.)
3.3 Traditionelle Machine-Learning-Verfahren
Der Terminus Machine Learning fasst eine Menge von Methoden zusammen, die eigenständig aus einer Menge von Beispieldaten Muster, Regeln und Zusammenhänge extrahieren und im Anschluss daran in der Lage sind, auf Basis ähnlicher Daten eigenständig Entscheidungen zu treffen. Die jeweiligen Ansätze lassen sich grundsätzlich in zwei Gruppen einteilen. Überwachte Lernansätze benötigen eine Menge von sogenannten „Eingabe-/Ausgabepaaren“ als Beispiele für das zu erlernende Verhalten. Soll ein System beispielsweise darauf trainiert werden, aus den verschiedenen Eigenschaften einer Wohnung – Anzahl der Schlafzimmer, Jahr der letzten Renovierung, Wohnfläche, Postleitzahl der Wohnung – eine Vorhersage über die erzielbare Kaltmiete zu treffen, so sind Beispiele dieser Art als Trainingsdaten für den Algorithmus als Eingabe, zusammen mit der in dem jeweiligen Beispiel tatsächlich erzielbaren Miete, notwendig. Der Algorithmus ist in der Lage, aus den Eingabe-/Ausgabepaaren ein mathematisches Modell zu generieren, welches die Struktur und Beziehungen der Daten abbildet. Dieses kann für neue Eingabedaten verwendet werden, um die erzielbare Miete zu prognostizieren.
Unüberwachte Lernverfahren arbeiten ohne die Trennung zwischen Eingabe- und Ausgabedaten und versuchen, auf Basis einer Gesamtdatenmenge Zusammenhänge und Strukturen zu identifizieren. Beispiele hierfür sind die eigenständige Aufteilung von Daten in unterschiedliche Cluster mit zusammengehörigen Eigenschaften oder die Bestimmung der Verteilung der Daten aufgrund statistischer Korrelationen.
Wichtig zum Verständnis der Ansätze ist, dass überwachte und unüberwachte Verfahren im Allgemeinen nicht zur Lösung der gleichen Problemstellung angewendet werden können. Ein häufiger Irrtum besteht in der Annahme, bei Eingabe-/Ausgabepaaren in nicht ausreichender Menge generell auf unüberwachte Verfahren zurückgreifen zu können. Die Vorhersage von Mietpreisen auf Basis des obengenannten Beispiels wird ohne existierende historische Beispiele nicht funktionieren, da ein Algorithmus keine Ansatzpunkte für eine fundierte Vorhersage finden kann.
3.3.1 Decision Tree Learning
Decision Tree Learning stellt eine schnelle und intuitive Machine-Learning-Methode dar, um aus einem Datensatz Entscheidungsregeln abzuleiten. Im Gegensatz zur Ausgabe vieler anderer Ansätze sind die Ergebnisse von Menschen interpretierbar und können einfach nachvollzogen werden. Die Darstellung erfolgt in Form sogenannter Entscheidungsbäume, einer Struktur gerichteter Bäume zur Darstellung von Entscheidungsregeln. Diese bilden mehrstufige Folgen von Entscheidungen ab und ermöglichen eine Klassifizierung von Dateneingaben in vordefinierte Klassen. Die grafische Baumdarstellung visualisiert ausgehend von einer initialen Entscheidung die Abfolge der Regeln entlang der einzelnen Äste des Baums, die letztendlich zu einer Entscheidung in den Blattknoten der Struktur führen. Es existieren verschiedene algorithmische Verfahren zur Konstruktion von Entscheidungsbäumen. Zu den verbreitetsten Ansätzen zählt beispielsweise das ID3-Verfahren, das die Maßzahl Entropie verwendet, um dasjenige Attribut zu finden, welches den Datensatz am besten aufspaltet, sodass die resultierenden Teilmengen möglichst homogen in Bezug auf die vorherzusagenden Klassen sind. Die Entropie ist hierbei ein Maß für die Unsicherheit einer Datenmenge nach einem Split, d. h. dafür, wie viel eindeutiger eine Entscheidung nach einem erfolgten Split getroffen werden kann. Anhand der in Abbildung 10 dargestellten Beispieldaten soll das Verfahren verdeutlicht werden.
Schlafzimmer
(Anzahl)
Renovierung
(Jahr) Wohnfläche (m2) Postleitzahl Miete
(klassiert)
4 2015 100 56153 950‒1.050 €
3 1997 80 14966 750‒850 €
1 2018 54 66182 800‒850 €
3 2002 102 47928 800‒850 €
5 1996 85 87772 950‒1.050 €
… … … … …
… … … … …
Abbildung 10. Beispieldaten zur Vorhersage von erzielbaren Mietpreisen (Auszug)
In einem ersten Schritt ist derjenige Parameter innerhalb der Daten zu finden, der für einen initialen Split geeignet ist. Nehmen wir an, dass das Jahr der Renovierung den größten Einfluss auf die erzielbare Miete hat und daher für den ersten Split ausgewählt wird. Im Beispiel kommt der Algorithmus zu der Erkenntnis, dass das Jahr 2001 die bestmögliche Grenze darstellt, um
Wohnungen mit hohen Mietpreisen von Wohnungen mit niedrigen Mietpreisen zu unterscheiden. Für die jeweils verbleibenden Teilmengen wird das Verfahren wiederholt, bis an den Blattknoten des Baums eine eindeutige Zuordnung in eine Klasse der Miethöhe vorgenommen werden kann. Ein Beispiel eines Baumes ist in Abbildung 11 dargestellt.
Abbildung 11: Beispielhafter Entscheidungsbaum zur Vorhersage von erzielbaren Mietpreisen
3.3.2 Anomalieerkennung
Methoden zur Anomalieerkennung bezeichnen einen Teilbereich des Data Mining. Sie verfolgen das Ziel, abweichendes Verhalten sowie ungewöhnliche Konstellationen in großen Datenbeständen und somit mögliche Problemfälle zu identifizieren. Anomalien sind grundsätzlich kontextabhängig, d. h., in Abhängigkeit von einem konkreten Anwendungsfall muss die Frage, was unter anomalem Verhalten zu verstehen ist, unterschiedlich behandelt werden. Ein sehr einfaches Beispiel stellt die typischerweise lineare Beziehung zwischen dem Gewicht und der Größe einer Person dar: Eine sehr große Person ist im Allgemeinen auch deutlich schwerer als eine vergleichsweise kleinere Person. Die Beziehung der beiden Variablen Gewicht und Größe wird annährend durch eine Gerade beschrieben. Eine extreme Abweichung von dieser Geraden könnte als Anomalie und möglicher Messfehler in Bezug auf eine der beiden Variablen interpretiert werden; diese Abweichung kann relativ zur konkreten Ausgestaltung der Geraden definiert werden.
In Abhängigkeit von der Art von Anomalien lassen sich verschiedene Techniken zur Identifikation unterscheiden. Überwachte Methoden lernen aus einer Menge an Beispielen, „normales“ und „anormales“ Verhalten zu unterscheiden. Sie benötigen vorab eine entsprechende Zahl von Beispielen aus beiden Klassen, was voraussetzt, dass anormales Verhalten auch bereits vorab bekannt ist. Unüberwachte Methoden arbeiten hingegen unter der Annahme, dass die Daten innerhalb eines Datensatzes überwiegend korrekt sind und keine Anomalien darstellen. Sie versuchen, durch die Anwendung von Datenkompressionsverfahren (z. B. Autoencoder) diejenigen
Datenpunkte zu identifizieren, welche im Vergleich zum übrigen Datensatz die größte Abweichung aufweisen.
Zur Erkennung von Abweichungen innerhalb von Prozessverläufen sind grundsätzlich beide Arten der Anomalieerkennung relevant, wobei in vielen Fällen das gewünschte Prozessverhalten a priori bekannt ist.
3.4 Qualitätsmaße für Klassifikationen
Im Rahmen einer Klassifikation durch Machine-Learning-Algorithmen werden einzelne Datenpunkte einer bestimmten Klasse zugeordnet. Bei dieser Zuordnung kann es zu Fehlern kommen, welche letztendlich die Qualität des Klassifikators bestimmen: Je höher die Fehlerrate ist, desto schlechter wird die Qualität üblicherweise bewertet werden. Je nach Anwendungsfall können Fehlklassifikationen darüber hinaus ein unterschiedliches Gewicht haben: Bei der Klassifikation einer Person als „krank“ oder „gesund“ anhand verschiedener vorliegender Symptome ist eine fehlerhafte Klassifikation als „gesund“ im Falle einer Krankheit folgenschwerer als eine fälschliche, übervorsichtige Fehldiagnose als „krank“, obwohl der Patient eigentlich gesund ist.
Zur Unterscheidung von Fehlklassifikationen wird bei der Bewertung eines Klassifikators eine Unterscheidung der Ergebnisse in vier Klassen vorgenommen. Diese Unterscheidung kann anhand eines Beispielsdatensatzes vorgenommen werden, bei dem die tatsächlichen Ergebnisse bekannt sind:
• True positives (TP) bezeichnen die korrekterweise als einer Klasse zugehörig klassifizierten Objekte (im Beispiel: Klassifikation „krank“, wenn eine Person tatsächlich krank ist),
• False Positives (FP) bezeichnen die Objekte, die von einem Klassifikator fälschlicherweise als einer Klasse zugehörig gekennzeichnet wurden („krank“, obwohl eine Person tatsächlich gesund ist),
• False Negatives (FN) bezeichnen die Objekte, die vom Klassifikator fälschlicherweise als einer Klasse zugehörig erkannt wurden („gesund“, wenn eine Person tatsächlich krank ist) und
• True Negatives (TN) bezeichnen Objekte, die von einem Klassifikator nicht als einer Klasse nicht zugehörig erkannt wurden („gesund“ im Fall, dass eine Person tatsächlich gesund ist)
Abbildung 12: Qualitätsmaße zur Beurteilung einer Klassifikation
Abbildung 12 visualisiert die Einteilung in die vier Klassen grafisch. Die ausgewählten Elemente sind die vom Klassifikator als „krank“ bewerteten Objekte im Datensatz. Auf Basis dieser Einteilung lassen sich abgeleitete Qualitätsmaße definieren, welche die getrennte Bewertung einer möglichst umfassenden Klassifikation der tatsächlich relevanten Objekte oder eine möglichst geringe Fehlerrate ermöglichen. Die genannten Qualitätsmaße stammen ursprünglich aus dem Bereich des Information Retrieval, welches sich mit der Identifikation relevanter Dokumente zu einem gegebenen Sachverhalt befasst.
• Die Genauigkeit (engl. precision) bezeichnet die Wahrscheinlichkeit, mit der ein gefundenes Element tatsächlich relevant ist. Sie wird berechnet als Quotient der korrekt positiv klassifizierten Elemente und der Summe aus allen als korrekt klassifizierten Elementen:
𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = 𝑇𝑃
𝑇𝑃+𝐹𝑃
• Die Trefferquote (engl. recall) bezeichnet die Wahrscheinlichkeit, mit der ein relevantes Element korrekt klassifiziert wird. Sie wird berechnet als Quotient der korrekt positiv klassifizierten Elemente und der Summe aus allen relevanten Elementen innerhalb des Datensatzes:
𝑟𝑒𝑐𝑎𝑙𝑙 = 𝑇𝑃
𝑇𝑃+𝐹𝑁
• Das F-Maß (engl. F-Measure) als harmonisches Mittel aus der Genau-
igkeit und der Trefferquote: 𝐹 = 2 ∗ (𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛∗ 𝑟𝑒𝑐𝑎𝑙𝑙)
(𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑟𝑒𝑐𝑎𝑙𝑙)
Aufgrund wechselseitiger Beeinflussungen ist es nicht möglich, die Qualitätsmaße einzeln und unabhängig voneinander zu optimieren. Zur Veranschaulichung betrachten wir einen naiven Klassifikator, der alle Personen unabhängig von der konkreten Datenausprägung als „krank“ klassifiziert. Dieser würde über eine Trefferquote von 100% verfügen, da definitiv alle kranken Personen als solche identifiziert werden würden. Aufgrund der sehr hohen Zahl an fälschlicherweise als krank klassifizierten Personen (false positives) wäre die Genauigkeit des Klassifikators allerdings sehr gering.TP FP false negatives true negatives
Ausgewählte Elemente
Ein weiteres wichtiges Qualitätsmaß für die Beurteilung von Machine-Learning-Modellen ist die Anpassung des Modells an den zum Modelltraining verwendeten Datensatz. Wie in Abschnitt 3.3 thematisiert, wird im Rahmen des überwachten Lernens ein Modell an einem Trainingsdatensatz trainiert, für den sowohl die Eingabe- als auch die Ausgabeparameter bekannt sind. Das Ziel des Modells ist es jedoch, nach der Trainingsphase auch auf neuen Daten, die nicht Teil der Menge an Trainingsbeispielen waren, angewendet zu werden. Eine zu starke Anpassung des Modells äußert sich darin, dass von den spezifischen Datenausprägungen der Trainingsmenge nicht weit genug abstrahiert werden kann, um auch auf unbekannten Daten eine Klassifikation mit einer bestimmten Güte vorzunehmen. Zwei Formen der Anpassung können unterschieden werden:
• Eine Überanpassung (engl. overfitting) liegt vor, wenn das Modell zu stark an die spezifischen Parameter des Trainingsdatensatzes angepasst ist. Dies kann beispielsweise der Fall sein, wenn für die Beschreibung einer Abhängigkeit zwischen Eingabe- und Ausgabewerten zu viele Parameter für die Modellbildung herangezogen werden. Dies kann beispielsweise durch die Wahl einer sehr komplexen mathematischen Funktion höherer Ordnung oder mit vielen linear kombinierten Variablen geschehen, wenn ein Zusammenhang innerhalb der Daten auch durch eine wesentlich einfachere Funktion beschrieben werden könnte.
• Eine Unteranpassung (engl. underfitting) liegt vor, wenn das unter Verwendung der Trainingsdaten erstellte Modell nicht in der Lage ist, die Abhängigkeiten zwischen Eingabe- und Ausgabedaten adäquat in ihrer Struktur abzubilden. Dieser Fall tritt analog zum Beispiel der Überanpassung ein, wenn eine zu einfache mathematische Funktion (z. B. eine lineare Funktion) auf ein höherdimensionales Problem übertragen wird. Die erzielbare Performance wird nicht den Anforderungen an eine präzise Klassifikation der Daten genügen.
Abbildung 13: Beispielhafte Darstellung der Unter- und Überanpassung eines Modells
Die Zusammenhänge sind in Abbildung 13 grafisch dargestellt. Als wie relevant eine Über- bzw. Unteranpassung eines Modells auf einen Datensatz bewertet werden muss, hängt vom konkreten Anwendungsfall ab.Unteranpassung Robustes Modell Überanpassung
3.5 Deep-Learning-Verfahren
Verfahren aus dem Bereich Deep Learning stellen eine Teilmenge von Machine Learning dar. Als konzeptuelle Grundlage für Deep Learning dienen sogenannte künstliche neuronale Netzwerke. Diese bestehen aus einer Ansammlung vieler miteinander verbundener Elemente (Neuronen), die schichtenweise in einer Netzarchitektur angeordnet sind. Beginnend bei der Eingangsschicht (engl. Input layer), die auch als „sichtbare“ Sicht bezeichnet wird und alle Eingabevariablen enthält, die als Eingabe für das neuronale Netzwerk dienen. Bei der Bildklassifikation können die einzelnen Pixel eines Bildes z. B. als Eingabevariablen dienen, welche einzelne Neuronen der Eingabeschichte aktivieren. Ausgehend von der Eingangsschicht leiten die aktivierten Neuronen ihre Ausgabe an Neuronen der folgenden Schichten (engl. Hidden layers) weiter. Entlang dieser Strukturen breiten sich Informationen im Netzwerk bis zur letzten Schicht (engl. Output layer) aus. An dieser Stelle erfolgt die finale Klassifikation der Eingangsinformation, z. B. die Zuordnung eines Eingabebildes zu einer Klasse „Hund“. Besonderheiten im Rahmen des Deep Learning betreffen die Anzahl an Hidden layers: Traditionelle neuronale Netze bestehen aus wenigen Ebenen (beispielsweise drei Ebenen), während Deep-Learning-Verfahren eine weitaus größere Netztiefe mit weit über 100 Ebenen erreichen.
Bedingt durch technische Fortschritte in den vergangenen Jahren gewinnen Deep-Learning-Verfahren zunehmend an Bedeutung und sorgen für große Durchbrüche beispielsweise in den Bereichen Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache sowie Audio- und Bilderkennung, aber auch in der Erkennung von Anomalien und Vorhersage von Prozessverhalten. Ein maßgeblicher Unterschied zu traditionellen Lernverfahren besteht darin, dass die manuelle Vorgabe der zu berücksichtigenden Eingabeparameter (Feature Extraction) entfällt. Im Beispiel der Mietpreisvorhersage (vgl. Abschnitt 3.3) müssen die einzelnen Eingaben explizit vorgegeben werden, während die relevanten Muster bei der Anwendung von Deep Learning eigenständig aus den Daten konstruiert werden.
Nach ihrer grundsätzlichen Funktionsweise werden sogenannte Convolutional Neural Networks (faltende neuronale Netze, CNN) und Recurrent Neural Networks (rückgekoppelte neuronale Netze, RNN) unterschieden. CNN konstruieren vereinfacht gesprochen in jeder weiteren Schicht aus den Ergebnissen der vorangegangenen Schicht zusammengesetzte Muster und erlauben auf diese Weise die aufbauende Erkennung von Strukturen. RNN erlauben Verbindungen von Neuronen einer Schicht zu anderen Neuronen derselben oder einer vorangegangenen Schicht. Auf diese Weise wird die Berücksichtigung von zeitlich kodierten Informationen innerhalb der Daten ermöglicht, was insbesondere bei Sequenzdaten von Bedeutung ist. Ein Beispiel hierfür ist die Übersetzung von Texten, bei der das Auftreten eines Wortes relevant für die Wahrscheinlichkeit der folgenden Wörter im gleichen Satz ist.
3.6 Exkurs: Maschinelles Lernen auf Sequenzdaten
Die Vorhersage von Prozessverhalten basierend auf den Erfahrungen vergangener Prozessausführungen stellt eine wichtige Funktion zur effizienten Planung von unternehmerischen Abläufen dar. Je nach Anwendungsfall können verschiedene Parameter einer Prozessausführung vorhergesagt werden, beispielsweise das zu erwartende Ergebnis, die verbleibende Zeit bis zum Abschluss des Prozesses oder die nächste auszuführende Aktivität. Die Vorhersage nutzt dazu historische Ablaufinformationen, um darauf basierend Einschätzung aktuell laufender Prozessinstanzen zu treffen. Bei industriellen Fertigungsprozessen, wo einzelne Prozessschritte direkt individuellen, physischen Aktivitäten zugeordnet werden können, ist die Vorhersage der verbleibenden Zeit bis zum Prozessende eine wichtige Information, um Ressourcen effizient zur Verfügung zu stellen und die Belegung von Maschinen zu planen. Auch für IT-gestützte Dienstleistungsprozesse wie die Bearbeitung von Kundenanfragen durch einen Service-Mitarbeiter kann eine genaue zeitliche Abschätzung eine bessere interne Ressourcen-Auslastung sowie für den Kunden eine transparentere Abwicklung seiner Anfrage ermöglichen.
Eine Schwierigkeit bei der Anwendung von Machine-Learning-Verfahren auf die skizzierten Problemstellungen besteht insbesondere in der Art und Struktur der Eingabedaten. Gegenüber dem in Abschnitt 3.3.1 aufgeführten Beispiel für die Vorhersage von erzielbaren Mietpreisen basierend auf den Eigenschaften der jeweiligen Wohnungen haben Prozessablaufdaten eine zeitliche Komponente, die im Rahmen einer Vorsage berücksichtigt werden muss. Eine Analogie besteht zum Bereich der Natürlichen Sprachverarbeitung (NLP), wo die Vorhersage des nächsten Wortes zu einem gegebenen Satzanfang (engl. next word prediction) eine gängige Problemstellung ist, z.B. bei der intelligenten Vorschlagsfunktion für das nächste Wort auf Smartphone-Tastaturen.
Historisch gesehen verwendeten viele Ansätze zur next word prediction eine explizite Repräsentation der jeweiligen Sprache. Im Falle von probabilistischen Sprachmodellen werden beispielsweise Wahrscheinlichkeitsverteilungen über Wortfolgen berechnet, sodass der Kontext eines Wortes die Wahrscheinlichkeit für das nächste Wort beeinflusst. In einer solchen Verteilung ist das Wissen gespeichert, dass nach der Wortfolge „Das ist ein“ das Wort „Haus“ wesentlich wahrscheinlicher ist als das Verb „gehen“. Durch die Interpretation von Ereignislogs mit Prozessinstanzdaten als Text, Prozessinstanzen als Sätze und Prozessereignisse als Wörter können diese Techniken übertragen werden, um zukünftige Prozessereignisse vorherzusagen. Die meisten Ansätze verwenden hierzu ebenfalls eine explizite Modelldarstellung wie z. B. Hidden Markov Models (HMM). Ein möglicher Ansatz sieht beispielsweise vor, in einem durch Process Mining erstellten Prozessmodell (vgl. Abschnitt 4.4.2) für jeden XOR-Split im Modell einen Entscheidungsbaum zu bilden. Diese Bäume werden dann verwendet, um die Übergangswahrscheinlichkeit zwischen Zuständen innerhalb eines HMM für eine laufende Prozessinstanz zu berechnen und dadurch das nächste Ereignis vorherzusagen. In den letzten Jahren hat sich die NLP-Forschung von der expliziten Darstellung von Sprachmodellen zu statistischen Methoden fortentwickelt und verwendet insbesondere rückgekoppelte neuronale Netze (RNN) zur Vorhersage des nächsten Wortes. Dieser Ansatz lässt sich auch auf die Vorhersage von Prozessverhalten übertragen (vgl. Evermann et al., 2016). In Evaluationsszenarien der Autoren konnte bei einer ausreichend großen Anzahl an Trainingsdaten eine Genauigkeit (vgl. precision) von mehr als 80% erreicht werden, was bisherige Ansätze in diesem Bereich weit übertrifft. Es ist davon auszugehen, dass die erzielten Fortschritte bei NLP auch für andere Problemstellungen zu einer signifikanten Verbesserung der Vorhersageleistung führen und sich zukünftig noch weiter verbessern werden.
4 Process Mining zur KI-gestützten Prozessdatenanalyse
4.1 Einführung: Data Science in Action
Das Themenfeld „Data Science“ hat in den letzten Jahren stark an Bedeutung gewonnen und hat sich als wichtige Disziplin für die Analyse von Daten und die Gewinnung von handlungsrelevanten Informationen entwickelt. Data Science umfasst – im Gegensatz zum verwandten Begriff „Data Analytics“, der sehr auf die operative Datenanalyse ausgerichtet ist – Konzepte und Theorien aus verschiedenen wissenschaftlichen Nachbardisziplinen (Van der Aalst, 2016, S. 12). Hierzu gehören unter anderem:
• Statistik und Mathematik als grundlegende Lehre zum Umgang mit quantitativen Informationen und Methoden zur Datenauswertung,
• Algorithmen-Lehre als Handlungsvorschriften zur strukturierten Lösung und Berechnung von Problemstellungen,
• Data Mining als die Anwendung statistischer und algorithmischer Methoden auf große (unstrukturierte) Datenmengen,
• Machine Learning als Teilgebiet der Künstlichen Intelligenz zur Mustererkennung und Wissensgenerierung aus historischen Daten,
• Datenbanksysteme als Datenquelle und Methode zur Strukturierung und effizienten Berechnung von mehrdimensionalen Auswertungen,
• datenschutzrechtliche und ethische Aspekte im Umgang mit Daten und dem Schutz personenbezogener Informationen.
Die Zielsetzung von Data Science liegt in der Gewinnung neuer Erkenntnisse aus vorhandenem Datenmaterial, welches explorativ untersucht wird, um Muster, Unregelmäßigkeiten oder Zusammenhänge zu identifizieren. Hierbei wird häufig ein iteratives Vorgehen gewählt, bei dem, ausgehend von ersten Hypothesen, verschiedene Untersuchungsrichtungen verfolgt und weiter präzisiert werden. Im Ergebnis stehen konkrete Erkenntnisse und Handlungsempfehlungen auf Basis der vorhandenen Daten.
Der Fokus von Data-Science-Projekten berücksichtigt im Allgemeinen aber keine zeitbezogenen Aspekte und beschäftigt sich nicht mit der Analyse von prozessualen Abläufen. Im betrieblichen Umfeld steht eine große Zahl von Daten und Informationen aber in direktem oder mindestens mittelbarem Zusammenhang zu Geschäftsprozessen, Workflows oder sonstigen Abläufen, die eine Reihenfolge und zeitliche Komponente auf die Daten ergänzen.
Beispiel: Data-Science-Analysen innerhalb eines Bestellprozesses
Betrachten wir als Beispiel den folgenden vereinfachten Bestellprozess in einem Unternehmen. Im ersten Schritt ist eine Bestellung durch einen Mitarbeiter anzustoßen, indem eine Bestellanforderung (BANF) gestellt wird, welche anschließend durch das Controlling geprüft wird. Ist diese korrekt und vom Controlling nicht zu beanstanden, erfolgt eine Freigabe, welche anschließend durch den Fachbereich genehmigt werden muss.
Liegt diese Genehmigung vor, so wird die Bestellung getätigt und der Bestellprozess abgeschlossen. Traditionelle Methoden aus dem Bereich Data Science fokussieren im Rahmen einer Analyse dieses Prozesses insbesondere auf statische Aspekte der Daten. Beispielsweise könnte der Zusammenhang zwischen den Inhalten einer BANF und einer entsprechenden Ablehnung durch das Controlling oder den Fachbereich untersucht werden, um mithilfe von Machine Learning eine Prognosekomponente zu implementieren und fehlerhafte BANF bereits vor der Einreichung erkennen zu können. Ein weiteres Beispiel wäre ein automatisches Clustering von BANF auf Basis der enthaltenen Bestellpositionen, um einen Überblick über die meistbestellten Objekte zu erhalten.
Demgegenüber stehen zeit- und prozessbezogene Auswertungen üblicherweise nicht im Betrachtungsfokus. Fragen nach der Durchlaufzeit eines Prozesses („Wie lange dauert normalerweise eine Freigabe?“), der Einhaltung des gewünschten Prozessverhaltens („Werden alle Schritte immer wie vorgesehen durchlaufen?“) oder Performanceeinbußen im Prozess („An welchen Stellen hakt es?“) werden damit nicht beantwortet. In der Literatur wird an dieser Stelle auch davon gesprochen, Data Science tendiere dazu, „process agnostic“ zu sein.
Parallel zum Bereich Data Science hat sich mit dem Themenfeld Process Science auch eine eigene Forschungsdisziplin etabliert, welche die Betrachtung von End-to-End-Prozessen in den Mittelpunkt stellt (Van der Aalst, 2016, S. 15).
Der Begriff „Process Science“ bezeichnet eine Sammlung von Konzepten und Methoden zur formalen Beschreibung, operativen Implementierung und laufenden Optimierung von Geschäftsprozessen. Ähnlich wie im Bereich Data Science werden Ansätze aus unterschiedlichen Disziplinen kombiniert, um alle Aspekte abzudecken.
Hierzu zählen unter anderem die folgenden Subdisziplinen:
• statistische Verfahren zur Modellierung von Prozessabläufen unter Unsicherheit der Entscheidungen im Prozessverhalten,
• formale Methoden zur formal-logischen Beschreibung von Prozessen und Korrektheitsbeweisen, beispielsweise aus den Bereichen Automatentheorie, Transitionssysteme und Petri-Netze,
• Optimierungsverfahren zur Bestimmung optimaler Lösungen auf formal beschriebenen Prozessabläufen, z. B. kürzeste Pfade in gewichteten Graph-Modellen,
• Operations Research als Forschungsdisziplin für den Einsatz quantitativer Modelle und Methoden zur Entscheidungsunterstützung,
• Geschäftsprozessmanagement als ganzheitlicher Ansatz zur Prozessausrichtung und kontinuierlichen Verbesserung,
• Prozessautomation durch die informationstechnische Unterstützung von Prozessen und die operative Ausführung z. B. durch WorkflowManagement-Systeme.
Während Data-Science-Analysen üblicherweise prozessunabhängig agieren, verfolgen Process-Science-Methoden häufig stark formale, modellgetriebene Ansätze und berücksichtigen keine prozessualen Instanzdaten (vgl. Abschnitt 0). An der Schnittstelle zwischen Data Science und Process Science hat sich mit dem Bereich Process Mining eine Methode etabliert, welche diese Lücke schließt und die jeweiligen Teilbereiche miteinander verbindet (vgl. Abbildung 14).
Abbildung 14: Process Mining als Schnittstelle zwischen Data Science und Process Science
(Grafik in Anlehnung an Van der Aalst, 2016, S. 16)
Aus methodischer Sicht transferiert Process Mining statistische Verfahren und Methoden zur formalen Beschreibung von Abläufen in Form graphenbasierter Darstellungen auf zeit- und ablaufbezogene Daten und ermöglicht damit eine Anwendung von explorativen Data-Mining- und -Analytics-Ansätzen für eine detailliertere Analyse digitaler Prozesse.
Welche Art von Analysen kann durch Process Mining durchgeführt werden?
Anhand des folgenden Anwendungsbeispiels sollen einige Ansatzpunkte aufgezeigt werden.Statistik und Mathematik
Algorithmen
Data Mining
Machine Learning
Datenbanksysteme
Datenschutz und Ethik
Statistik
Formale Methoden
Optimierungsverfahren
Geschäftsprozessmanagement
Prozessautomation
Operations Research
Data Science Process Science
Process Mining Process Mining
Beispiel: Customer-Journey-Analyse mittels Process Mining
Das folgende Beispiel ist aus der Publikation von Dadashnia et al. (2016) entnommen, bei der der Autor dieses Skriptums Co-Autor ist. Es zeigt einen Ausschnitt aus einer Process-Mining-Analyse eines frei verfügbaren Realdatensatzes der UWV, einem Leistungsträger für die Arbeitnehmerversicherungen in den Niederlanden. Der Datensatz stellt einen Export aus einer Web-Anwendung dar, über die Nutzer ein Profil erstellen und verschiedene Aufgaben im Zusammenhang mit einer Job-Bewerbung wahrnehmen können. In Dadashnia et al. (2016) wird eine detailliertere Beschreibung von Analysen in diesem Szenario präsentiert und konkrete Handlungsempfehlungen zur Beantwortung der Fragen des Process Owners vorgestellt.
Abbildung 15 zeigt ein durch Process-Mining-Algorithmen erstelltes Modell (vgl. Abschnitt 4.4.2 zum Thema „Process Discovery“). Das Modell zeigt den Ablauf zwischen verschiedenen Aktivitäten im Prozessfluss; Aktivitäten werden durch Rechtecke mit unterschiedlicher Einfärbung dargestellt, wobei eine dunklere Farbe eine höhere Frequenz dieser Aktivität symbolisiert. Zu erkennen sind der Prozessbeginn (markiert durch die Zahl „1“) und das Prozessende („2“) sowie die durch gerichtete Pfeile beschriebenen Abläufe zwischen diesen Elementen. Die Zahl an den Pfeilen (z. B. bei „3“) bezeichnet die Anzahl, mit der ein bestimmter Pfad durchlaufen wird. Auf einen Blick zu erkennen sind beispielsweise Bündelungspunkte an zentralen Aktivitäten („4“) und Wiederholungen in Form von Prozessschleifen („5“) im Ablauf.
Abbildung 15: Customer-Journey-Analyse mittels Process Mining
Die Visualisierung stellt den ersten Schritt im Rahmen einer explorativen Prozessanalyse mittels Process Mining dar. An diese „Discovery“ genannte Phase kann sich beispielsweise eine Conformance-Analyse anschließen, die einen Abgleich zwischen tatsächlichem („gelebtem“) Ist-Prozess und einem ggf. modellierten Soll-Prozess vornimmt. Eine andere Möglichkeit besteht in der gezielten Untersuchung von abweichenden Prozessvarianten, um potentielle Anomalien im Ablauf oder Schwachstellen im Prozess (sogenannte Bottlenecks) zu identifizieren.
Process Mining ist eine relativ junge Forschungsdisziplin, die sich zwischen Data Mining und algorithmischer Datenauswertung einerseits und Prozessmodellierung und -analyse andererseits bewegt. Process Mining verfolgt die Zielsetzung, reale Ist-Prozesse (d. h. nicht angenommene Soll-Prozesse) zu entdecken, auf Konformität zu prüfen und zu verbessern, indem Wissen aus Ereignislogs extrahiert wird, die in heutigen IT-Systemen leicht verfügbar sind.
4.2 Einordnung von Process Mining
4.2.1 Positionierung im Geschäftsprozessmanagementzyklus
Wie zuvor dargelegt, fokussiert Process Mining auf die Analyse von Prozessverhalten auf der Basis von sogenannten Prozessinstanzdaten, die als Ergebnis der Prozessausführung durch IT-Systeme entstehen. Anhand des in Abschnitt 2.1.2 eingeführten BPM-Lebenszyklus lassen sich verschiedene Berührungspunkte zwischen Process Mining und den Aktivitäten des Geschäftsprozessmanagements aufzeigen.
Abbildung 16: Einordnung der Process-Mining-Methodik in den BPM-LebenszyklusStrategieentwicklung
Definition und Modellierung
Implementierung
Ausführung
Monitoring und
Controlling
Optimierung und
Weiterentwicklung
Process
Mining
Durch die Ausführung der Prozesse entstehen Ereignislogs, die durch Process Mining ausgewertet und für die verschiedenen Phasen wie folgt verwendet werden können:
• Strategieentwicklung: Unterstützung durch die Analyse von Ereignisprotokollen, indem die Identifizierung von wichtigen Prozessstrukturen erfolgt. Diese können wiederum Input für die strategische Anpassung und Verbesserung von Geschäftsprozessen darstellen.
Weiterhin lassen sich aus der quantitativen Anzahl von Prozessausführungen sowie einzelner Prozessbestandteile Rückschlüsse auf die Bedeutung bestimmter Abläufe ziehen.
• Definition und Modellierung: Durch Anreicherung von Erkennungsmethoden kann die Definition und Konstruktion von Prozessmodellen gestützt werden. Schwachstellen in bestehenden Modellen oder Abweichungen vom modellierten Soll-Zustand können in der Überarbeitung von Modellen berücksichtig werden: So können Vorkehrungen getroffen werden, die verhindern, dass Prozesse anders, als im Soll modelliert, ausgeführt werden können. Alternativ können eine grundsätzliche Überarbeitung der Modelle und eine Anpassung an die Realität erfolgen, sofern dies aus fachlicher Sicht sinnvoll ist.
• Monitoring und Controlling: Durch den Vergleich von aus den Ereignislogs erhobenen Ist-Prozessen mit den definierten Soll-Prozessen kann zur Laufzeit die korrekte Einhaltung eines Prozesses geprüft werden. Abweichungen können somit frühzeitig erkannt und ggf. noch zur Ausführungszeit eines Prozesses korrigiert werden. Durch eine kontinuierliche Überwachung des Prozesses können auch Kennzahlen zu Performance und Ressourcenauslastung permanent beobachtet werden, um mögliche Auswirkungen auf nachgelagerte Prozesse oder relevante Geschäftsentscheidungen a priori kommunizieren zu können (beispielsweise Nichteinhaltung von Lieferzeiten).
• Optimierung und Weiterentwicklung: Als Ergebnis einer umfassenden Process-Mining-Analyse sind konkrete Handlungsempfehlungen für die Optimierung und Weiterentwicklung von Prozessen zu erwarten. Im Gegensatz zu anderen Untersuchungsmethoden, wie interviewgestützte Befragungen, Prozessbeobachtungen oder punktuelle Messungen von Prozessdurchläufen, bietet Process Mining den großen Vorteil, dass die Ergebnisse auf reale Prozessausführungsdaten gestützt sind. Diese Daten erlauben zum einen eine wesentlich objektivere Bewertung von Prozessinstanzen und ermöglichen es zum anderen, eine sehr große Anzahl an Ausführungsdaten zu sehr geringen Grenzkosten zu untersuchen; während der Aufwand für die Auswertung beispielsweise bei Befragungen mindestens im gleichen Maß zunimmt wie die Anzahl der Teilnehmer, bietet Process Mining ein massendatentaugliches Ökosystem für die Prozessanalyse.
4.2.2 Vorgehensmethodik zu Process-Mining-Projekten
Eine verbreitete Vorgehensweise bei der Planung und Umsetzung von Process-Mining-Projekten ist die sogenannte PM2-Methodik. Diese umfasst insgesamt sechs Stufen, die im Sinne einer idealtypischen Umsetzung in einem Unternehmen sequentiell durchgeführt werden (vgl. Abbildung 217). Sie umfasst weiterhin eine Übersicht zur Einbindung unterschiedlicher Teammitglieder und deren Rollen im Projekt. Essentiell für den Erfolg eines Process-Mining-Projektes ist die effektive Zusammenarbeit zwischen interdisziplinär aufgestellten Experten, insbesondere Fachexperten (engl. Business experts) und Prozessexperten (engl. Process experts).
Abbildung 17: PM2-Projektmethodik für Process Mining
• Stufe 1: Planung: Ziel der Planungsphase ist die Initiierung des Projekts und die Festlegung von zu untersuchenden Forschungsfragen.
Dabei gibt es zwei Hauptziele: die Verbesserung der Leistungsfähigkeit eines Geschäftsprozesses und die Überprüfung der Einhaltung bestimmter Regeln und Vorschriften. Innerhalb der ersten Phase werden drei Aktivitäten durchgeführt: die Festlegung von Forschungsfragen und Hypothesen, die Auswahl von Geschäftsprozessen und die Zusammenstellung eines Projektteams. Die Reihenfolge dieser Aktivitäten variiert in Abhängigkeit vom Geschäftsprozess.
1. Ein Process-Mining-Projekt beginnt in der Regel mit der Auswahl des Geschäftsprozesses. Nicht nur die Charakteristiken des Prozesses selbst spielen eine wichtige Rolle, sondern auch die Qualität der vorliegenden Log-Dateien. Dabei können die nachfolgenden vier Probleme bei vorhandenen Daten vorliegen: fehlende Daten, fehlerhafte Daten, ungenaue Daten und irrelevante Daten. Wenn beispielsweise die in der Log-Datei enthaltenen Zeitstempel (vgl. Abschnitt 4.3.1) nicht der tatsächlichen Zeit der Durchführung entsprechen, können möglicherweise Engstellen im Ablauf nicht als solche identifiziert werden. Eine weitere Voraussetzung für die Durchführung von Process Mining stellt die Möglichkeit zur Beeinflussung von Geschäftsprozessen seitens des Unternehmens dar – wenn das Unternehmen auf bestimmte Prozesse keinen Einfluss nehmen kann, dann könnte die Durchführung eines Process-Mining-Projekts keinen Mehrwert oder Verbesserungen für dieses mit sich bringen.
2. In der Planungsphase sind außerdem die Forschungsfragen bzw. das Erkenntnisinteresse in Abhängigkeit von den ausgewählten Prozessen zu ermitteln, um den Schwerpunkt des Projekts bestimmen zu können. Dieser kann beispielsweise im Bereich der Untersuchung der Qualität eines Geschäftsprozesses, seines Zeitaufwands, aber auch im Bereich von Ressourcenverbrauch und Kosten liegen.
3. Schließlich muss ein Projektteam zusammengestellt werden, das nachfolgende Personen beinhaltet: Process Owner, die für die untersuchten Geschäftsprozesse verantwortlich sind;
Fachexperten, welche die Ausführung der Prozesse aus fachlicher Sicht verantworten; Systemexperten, die mit den IT-Aspekten der Prozesse und unterstützenden Systeme vertraut sind; und Prozessanalysten, die in der Analyse von Prozessen und der Anwendung von Process Mining qualifiziert sind. Die wichtigste Rolle spielt die Zusammenarbeit zwischen Fachexperten und Prozessanalysten, um Analyseergebnisse bewerten und relevante und nutzbare Ergebnisse sicherstellen zu können.
• Stufe 2: Extraktion: Hier werden Ereignisdaten und eventuell vorhandene (Soll-)Prozessmodelle aus relevanten IT-Systemen extrahiert. Ausgangspunkte für diese Stufe stellen die Forschungsfragen und die Informationssysteme dar, als Output stehen dagegen die Logdateien eines Prozesses (vgl. Abschnitt 4.3.1). An dieser Stelle ist es wichtig, den Umfang der Extraktion zu bestimmen, diesen dann aus dem System zu extrahieren und das Prozesswissen anschließend zu übertragen:
1. Bei der Bestimmung des Umfangs der Extraktion von Logdateien sind viele Fragen zu berücksichtigen, beispielsweise:
Welcher Zeitraum soll bei der Extraktion berücksichtig werden? Welche Datenattribute werden extrahiert?
2. Sobald der Extraktionsumfang bestimmt wurde, kann die eigentliche Extraktion der Logs durchgeführt werden, indem die ausgewählten prozessbezogenen Daten aus den relevanten Informationssystemen gesammelt und z. B. in Form einer Tabelle zusammengefasst werden.
3. Die Übertragung von Prozesswissen kann zeitlich mit der Extraktion der Logs durchgeführt werden. Prozesswissen kann in unterschiedlicher Form vorliegen: Neben implizitem Prozesswissen, das nur durch Interviews mit Prozessverantwortlichen expliziert werden kann, können auch schriftliche Dokumentationen oder Prozessmodelle existieren.
• Stufe 3: Datenverarbeitung: Das Hauptziel der Datenverarbeitung ist es, die Log-Dateien so zu verarbeiten, dass diese in optimalen Zustand für die Anwendung von Process-Mining-Methoden gebracht werden. Gegebenenfalls kann man die Log-Dateien zur besseren Übersicht nach Prozessmodellen, die hier als Input hinzugezogen werden, filtern. Auf dieser Stufe gibt es vier Arten von Aktivitäten:
1. Das Erstellen von Sichten kann durchgeführt werden, um zu erkennen, welche Datenquelle eine bestimmte Ansicht des betrachteten Prozesses liefern kann: Sollen die Durchlaufzeiten eines Prozesses analysiert werden, wird vorrangig der Prozess des zeitlichen Ablaufs betrachtet; bei einer Analyse von Ressourcennutzung ist die Ressource selbst für die Untersuchung von Bedeutung.
2. Das Aggregieren von Ereignissen kann dazu beitragen, Komplexität zu reduzieren und somit die Struktur von Ergebnissen des Process Mining zu verbessern. Es werden zwei Arten von Aggregation unterschieden: is-a und part-of. Bei einer is-a-Aggregation betrachtet man verschiedene Arten von Ereignissen, die zu einer äquivalenten, aber allgemeineren Ereignisklasse gehören, während die Anzahl der Ereignisse gleich bleibt. Zum Beispiel werden zwei Ereignisse, die mit „Simple Manual Analysis“ und „Complex Manual Analysis“ bezeichnet sind, als Instanzen der Ereignisklasse „Manual Analysis“ betrachtet – diese bleiben dabei als zwei Ereignisse bestehen. Bei einer part-of-Aggregation werden im Gegenzug mehrere Ereignisse zu größeren, wie bei Teilprozessen, verschmolzen.
3. Bei der Anreicherung von Ereignislogs werden zusätzliche Attribute ergänzt. Hierbei gibt es zwei Möglichkeiten: Ableiten oder Bereitstellen von zusätzlichen Ereignissen und Datenattributen auf der Grundlage des existierenden Ereignislogs oder aber durch das Hinzufügen von externen Daten.
4. Das Filtern von Ereignislogs stellt einen häufig genutzten Datenverarbeitungsschritt dar, um die Komplexität zu reduzieren und die Analyse auf bestimmte Teile eines Datensatzes zu konzentrieren. Man unterscheidet drei Arten von Filtertechniken: Attributfilterung, varianz- und Compliance-basierte Filterung. Attributfilterung wird verwendet, um Ereignisse mit bestimmten Ausprägungen von Prozessattributen zu entfernen, die varianzbasierte Technik untersucht hingegen ähnliche Prozessinstanzen, z. B. durch Clustering, um ein Ereignisprotokoll aufteilen und einfachere Prozessmodelle für jeden Teil eines komplexen Prozesses entdecken zu können. Eine flexible Form stellt die Filterung unter Beachtung von Compliance-Vorschriften dar, die Spuren oder Ereignisse entfernen kann, welche der Vorschrift der Untersuchung oder einem bestimmten Prozessmodell nicht entsprechen.
• Stufe 4: Process Mining und Analyse: In der vierten Phase werden Process-Mining-Techniken aufbauend auf der Datenvorbereitung eingesetzt. Ziele dieser Phase sind die Beantwortung der Forschungsfragen und Einblicke in die realen (Ist-)Prozesse. Wenn die Forschungsfragen im Projekt abstrakt formuliert sind, dann können explorative Techniken wie Process Discovery angewendet werden, um konkrete Fragen in einem iterativen Verfahren zu erarbeiten. Sobald spezifische Forschungsfragen definiert sind, kann sich die Analyse auf die Beantwortung dieser konzentrieren. Als Input werden an dieser Stelle die aufbereiteten Ereignislogdateien verwendet. Falls Prozessmodelle verfügbar sind, können sie zur Analyse herangezogen werden. Den Output bilden hier Erkenntnisse, die Forschungsfragen im Zusammenhang mit Performance- und Compliance-Zielen beantworten.
• Stufe 5: Bewertung: Ziel der Evaluierungsstufe ist es, die Analyseergebnisse unter Beachtung der Projektziele in Hinblick auf Möglichkeiten zur Prozessverbesserung zu bewerten. Die Ergebnisse sind dabei Verbesserungsideen für einen Prozess oder neue Forschungsfragen, die in der Zukunft beantwortet werden sollten. Die Aktivitäten dieser Phase sind die Diagnose und die Evaluation:
1. Die Diagnose umfasst folgende Schritte: (1) korrekte Interpretation der Ergebnisse (z. B. durch das fachliche Verständnis des Prozessmodells), (2) Unterscheidung interessanter oder ungewöhnlicher Ergebnisse von den erwarteten Ergebnissen und (3) Ermittlung oder Verfeinerung von Forschungsfragen für mögliche weitere Iterationen.
2. Bei der Evaluation wird die Korrektheit der (unerwarteten) Befunde sichergestellt und plausibilisiert. Die Verifizierung vergleicht die Analyseergebnisse mit den ursprünglichen Systemimplementierungen, während die Validierung die Ergebnisse mit den Ansprüchen der Prozessbeteiligten vergleicht.
Die Herausforderung bei der Überprüfung besteht darin, dass die Prozessanalysten häufig keine Domänenexperten für den Prozess sind, den sie analysieren, wodurch es zu Schwierigkeiten bei der Bewertung von unerwarteten Analyseergebnissen kommen kann. Aus diesem Grund sollten die Fachexperten bei der Überprüfung und Validierung der Ergebnisse beteiligt sein, idealerweise sollte eine Beteiligung bei vorherigen Phasen des Process Mining bestehen.
• Stufe 6: Prozessverbesserung und Support: Ziel der Prozessverbesserung und Prozessunterstützung ist es, die gewonnenen Erkenntnisse zur Verbesserung der eigentlichen Prozessausführung zu nutzen. Die Inputs dieser Phase sind die Verbesserungsideen aus der Bewertungsphase, die Outputs sind die vorgeschlagenen Prozessanpassungen. Zwei Aktivitäten werden unterschieden:
1. Implementierung von Prozessänderungen: Das Erreichen von Prozessverbesserungen ist oft die Hauptmotivation für Process-Mining-Projekte. Allerdings ist die tatsächliche Umsetzung von Prozessänderungen in der Regel ein separates Projekt. Die Ergebnisse eines Process-Mining-Projekts bilden die faktische Basis der Prozessverbesserungen. Nach Implementierung von Verbesserungen im aktuellen Projekt kann anschließend ein erneutes Analyseprojekt durchgeführt werden, um die Erreichung der Verbesserungsziele zu messen.
2. Operativer Support: Process Mining kann eine operative Unterstützung durch die Erkennung problematischer Abläufe, die Vorhersage für die Entwicklung in der Zukunft oder die vorgeschlagenen Maßnahmen liefern. Um Process Mining für eine operative Unterstützung verwenden zu können, ist es notwendig, Analyseergebnisse zu auftretenden Ereignissen in Echtzeit der Prozesslaufzeit zuordnen zu können.
4.3 Datengrundlage
4.3.1 Aufbau von Ereignislogs
Process-Mining-Methoden verarbeiten, wie bereits erwähnt, Daten aus Informationssystemen, die mindestens einen zeitlichen Bezug zu Events aufweisen und damit Auskunft über die Art und Reihenfolge bestimmter Aktivitäten innerhalb eines Prozessablaufs geben. Weitere Informationen (sogenannte Prozessattribute), beispielsweise welche Person oder Rolle eine Aktivität ausgeführt hat, welche Kosten dabei entstanden sind oder welche Daten dabei verarbeitet wurden, können im Rahmen von Analysen ausgewertet werden, sind aber für grundlegende Process-Mining-Analysen nicht notwendig. Diese Eingabedaten werden üblicherweise als Logdaten oder Logdateien bezeichnet, da sie im Idealfall der automatischen Protokollierung von bestimmten Prozessen in einem (Informations-)System entstammen.
Logdateien sind nicht an bestimmte Datenformate oder -strukturen gebunden, sondern können in einer Vielzahl unterschiedlicher Formen vorliegen, wie beispielsweise Datenbanktabellen (dies ist insbesondere bei transaktionsorientierten Anwendungssystemen wie ERP-Systemen der Fall), Webserver-Logs, E-Mail-Archive oder andere Quellen (Van der Aalst et al., 2012, S. 179). Entscheidender als die Struktur der Daten ist deren Qualität (vgl. Abschnitt 4.3.2).
Zu den minimalen Anforderungen an eine Process-Mining-geeignete Logdatei zählen die folgenden Informationen innerhalb des Logs:
• Fall-ID (engl. Case ID): Die Fall-ID hat üblicherweise eine numerische oder alphanumerische Darstellung. Wie bereits erwähnt, arbeitet Process Mining auf der Basis von Prozessinstanzdaten, das bedeutet, dass individuelle Durchführungen eines Prozesses als solche erkennbar und eindeutig identifizierbar sein müssen. Zwei Durchführungen des gleichen Prozesses resultieren demnach in zwei separaten Fall IDs, welche die jeweilige Durchführung eindeutig charakterisieren.
Dies verdeutlicht noch einmal den Unterschied zwischen der Modellierung von Prozessen auf der Typebene und der Analyse tatsächlich ablaufender Prozessvarianten auf der Instanzenebene (vgl. Abschnitt 2.2). Alle Aktivitäten, die Teil einer bestimmten Prozessinstanz sind, werden über die gleiche Fall-ID charakterisiert.
• Zeitstempel (engl. Timestamp): Der Zeitstempel hat eine zeitbezogene Darstellung und wird verwendet, um einem Ereignis einen eindeutigen Zeitpunkt zuzuordnen. Beispiele hierfür sind UNIX-Zeitstempel oder andere Systemzeitangaben aus Informationssystemen, die eine eindeutige Ordnung von zugehörigen Ereignissen erlauben.
• Aktivitätsname (engl. Activity name): Der Aktivitätsname wird teilweise auch als Event ID bezeichnet und beschreibt unterschiedliche Schritte innerhalb eines Prozesses. Wichtig ist hierbei, dass einzelne Aktivitäten eindeutig benannt sind, um diese klar voneinander unterscheiden zu können. In der Praxis werden die Begriffe Aktivität und Ereignis häufig synonym verwendet. Dies ist darin begründet, dass eine Aktivität die jeweiligen Schritte innerhalb des Prozesses bezeichnet, die wiederum zu einem Ereignis im Log führen – entscheidend ist sozusagen die Betrachtungsperspektive.
Die drei genannten Attribute charakterisieren die minimalen Anforderungen an eine Logdatei, um Process-Mining-Methoden anwenden zu können. Sie können um beliebige weitere Informationen ergänzt werden, welche dann wiederum für weitere Analysen genutzt werden können. Ein weiteres typisches Attribut ist beispielsweise die ausführende Ressource (engl. Resource). Diese entspricht der Person (z. B. Mitarbeiter Müller), der Rolle (z. B. Rolle Sachbearbeiter) oder dem System (z. B. SAP ERP Transaktion VF01), die für die Erzeugung eines Ereignisses verantwortlich war. Liegen diese Informationen vor, so lassen sich beispielsweise Aussagen über die Art und Häufigkeit der Zusammenarbeit zwischen verschiedenen Mitarbeitern treffen und in Form von sozialen Netzwerken aufbereiten. Dadurch kann die rein ablauforientierte Prozessanalyse um eine organisatorische Komponente erweitert werden (detaillierte Informationen hierzu finden sich in Abschnitt 4.5.2)
Abbildung 18 zeigt exemplarisch einen Ausschnitt aus einer Logdatei zu einem Bestellprozess mit unterschiedlichen Prozessinstanzen. Neben den drei notwendigen Minimalanforderungen Fall-ID, Zeitstempel und Aktivitätsname sind darüber hinaus noch zwei weitere Prozessattribute (Ressource und Kosten) angegeben. Zur besseren Übersicht sind die Ereignisse innerhalb des Logs bereits nach der Fall-ID gruppiert – dies ist in realen Logdaten nicht zwingend der Fall und dient hier lediglich dem leichteren Verständnis. Diese erste, grau hinterlegte Spalte dient nur zur Referenzierung auf einzelne Zeileneinträge und ist nicht Teil des Ereignislogs.
# Fall-ID Zeitstempel Aktivitätsname mit Präfix Ressource Kosten
1 1 30-12-2010:11.02 A. Eingang Bestellanforderung Nutzer A 10
2 31-12-2010:10.06 B. Eingang Prüfung Controlling Controlling 30
3 05-01-2011:15.12 C. Freigabe Controlling 10
4 06-01-2011:11.18 D. Genehmigung Fachbereich Fachbereich 20
5 07-01-2011:14.24 E. Freigabe zur Bestellung Fachbereich 10
6 09-01-2011:09.14 F. Bestellung abgeschlossen Fachbereich 5
…
8 45 15-01-2011:09:10 B. Eingang Prüfung Controlling Controlling 30
9 15-01-2011:10:34 G. Feststellung fehlende BANF Controlling 10
10 15-01-2011:10:34 H. Ablehnung Controlling 5
11 17-01-2011:15:50 A. Eingang Bestellanforderung Nutzer A 10
12 19-01-2011:11:23 B. Eingang Prüfung Controlling Controlling 20
13 19-01-2011:19:57 C. Freigabe Controlling 10
14 21-01-2011:13:09 D. Genehmigung Fachbereich Fachbereich 20
15 23-01-2011:15:01 E. Freigabe zur Bestellung Fachbereich 10
16 24-01-2011:11:12 F. Bestellung abgeschlossen Fachbereich 5
Abbildung 18: Beispiel Logdatei, jede Zeile entspricht einem Ereignis im Ereignislog
Der Beispielprozess beschreibt den Ablauf einer Bestellung, die üblicherweise in den folgenden Schritten abläuft: (1) Eingang einer Bestellanforderung (BANF) durch Nutzer, (2) Eingang der BANF und Prüfung im Controlling, (3) Freigabe der BANF durch Controlling, (4) Genehmigung durch den Fachbereich, (5) Abschluss der Bestellung. Der Fall mit der ID „1“ folgt genau diesem Ablauf (Zeilen 1 bis 6). Zu jedem Ereignis sind der Zeitstempel sowie die angefallenen Kosten aufgeführt, sodass die Reihenfolge der Aktivitäten und die Kosten der Durchführung zweifelsfrei bestimmt werden können. Der Fall mit der ID „45“ weist ein anderes Verhalten auf, da der erste Schritt „Eingang Bestellanforderung“ nicht durchgeführt wurde; in der Folge kommt es zu einer Ablehnung der BA durch das Controlling (Zeile 10), bevor der Prozess, wie ursprünglich vorgesehen, durchlaufen kann (Zeile 11 bis 16).
Process-Mining-Algorithmen für die Entdeckung von Prozessstrukturen (Process Discovery) sind in der Lage, die in Abbildung 18 dargestellten Informationen in Prozessmodelle zu transferieren.
Zu diesem Zweck wird die Darstellung in eine sogenannte Trace-Notation überführt, welche die Reihenfolge der einzelnen Aktivitäten verwendet, um deren Ordnung im Modell zu erzeugen. Die beiden Prozessinstanzen mit den Fall-IDs „1“ und „45“ entsprechen beispielsweise den folgenden Traces (es werden aus Gründen der Übersichtlichkeit nur die Präfixe aus Abbildung 18 verwendet):
Fall-ID „1“ <A, B, C, D, E, F>
Fall-ID “45” <B, G, H, A, B, C, D, E, F>
An diesem Beispiel wird deutlich, welche Bedeutung die Zeitstempel für die Erzeugung der Trace-Strukturen besitzen und welche Probleme sich aufgrund einer unzureichenden Qualität des Ereignislogs ergeben können. Betrachten wir die folgenden Fragestellungen:
• Vergleich Zeile 9 und 10 in Abbildung 18: Die Aktivitäten G und H besitzen den gleichen Zeitstempel (jeweils 15-01-2011:10:34). Wie lässt sich nun zweifelsfrei bestimmen, ob Aktivität G vor H oder H vor G stattgefunden hat? Um solche Probleme – und damit auch Ungenauigkeiten im Rahmen der Process Discovery und der nachfolgenden Analysen – zu vermeiden, ist es notwendig, auf eine ausreichende Detaillierung der Zeitstempel zu achten. In diesem Fall hätte eine feinere Auflösung der Zeitstempel in Sekunden dieses Problem wohl
verhindert.
• Parallelität vs. Exklusivität von Ereignissen (Van der Aalst et al., 2011, S. 181): Nehmen wir an, G und H hätten eindeutig unterschiedliche Zeitstempel. Wie ist damit umzugehen, falls in zwei unterschiedlichen Traces trotzdem die Aktivität G einmal vor H und einmal nach H auftritt? Dieser Fall tritt in der Praxis häufig auf, beispielsweise wenn frei entschieden werden kann, ob zuerst H und dann G oder umgekehrt zuerst G und dann H ausgeführt werden soll. Für die Erstellung des Modells ist hierbei wichtig zu beachten, dass aus dem Log keine Rückschlüsse auf die Semantik gezogen werden können (vgl. Abschnitt 4.4.2.2): Das bedeutet, es ist zunächst einmal nicht ersichtlich, ob es sich in einem Fall (z. B. „G vor H“) um einen Fehler handelt oder ob dies eine korrekte Möglichkeit der Prozessausführung darstellt.
Darüber hinaus lassen sich am Beispiel von Abbildung 18 auch bereits einige inhaltliche Fragestellungen andiskutieren. Vergleichen wir Zeile 2 mit Zeile 12, so fällt auf, dass für die gleiche Aktivität unterschiedliche Kosten bei der gleichen Ressource angefallen sind. Dies stellt einen interessanten Einstiegspunkt in eine fachliche Diskussion mit dem Process Owner dar. Weiterhin kann an dieser Stelle verifiziert werden, dass es sich nicht um inkorrekte Werte handelt, die auf eine geringe Qualität des Ereignislogs schließen las-
sen. Im folgenden Abschnitt werden die Qualität und der Begriff des „Reifegrads“ für Logdateien weiter detailliert.
4.3.2 Qualität und Reifegrad von Logdateien
Wie bei allen Data-Science-Projekten kommt der Qualität der Eingangsdaten eine sehr hohe Bedeutung zu. Für den bestmöglichen Erfolg und eine große Aussagekraft von Process-Mining-Analysen ist hierbei die Qualität der Ereignislogdaten entscheidend. In der Literatur werden verschiedene allgemeine Kriterien zur Beurteilung des Niveaus von Logdaten definiert (Van der Aalst et al., 2011, S. 179):
• Vertrauenswürdig (engl. trustworthy): Die aufgezeichneten Daten entsprechend der Realität und es kann davon ausgegangen werden, dass Ereignisse auch tatsächlich wie angeben stattgefunden haben.
• Vollständig (engl. complete): Für den gewählten Betrachtungszeitraum (z. B. eine bestimmte zeitliche Periode) sollten die Daten vollständig sein und alle relevanten Attribute enthalten.
• Semantisch korrekt (engl. well-defined semantics): Die Semantik der aufgezeichneten Daten sollte korrekt und konsistent sein, z. B. sollten Wertebereiche von Attributen sinnvoll interpretierbar sein.
• Sicher (engl. safe): Bedenken in Bezug auf Sicherheit und Datenschutz sollten vor der Aufzeichnung ausgeräumt werden.
Auf der Grundlage der allgemeinen Kriterien lässt sich darüber hinaus für Ereignislogs eine Bewertung in Form eines sogenannten Reifegrads ermitteln (Van der Aalst et al., 2011, S. 180). Dieser bewertet auf einer fünfstufigen Skala Qualität und Eignung des Logs für Process-Mining-Analysen. Die fünf Stufen sind in Abbildung 19 dargestellt:
Level Charakterisierung
5 Das Ereignislog ist insgesamt von ausgezeichneter Qualität und erfüllt die Kriterien „vertrauenswürdig“ und „vollständig“ vollkommen. Die Ereignisse sind semantisch klar definiert und ihre Protokollierung erfolgt automatisch, systematisch und sicher. Es findet eine vollumfängliche Berücksichtigung von Datenschutz- und Sicherheitsaspekten statt.
Beispiel: semantisch annotierte Ereignislogs aus Informationssystemen mit dedizierten Funktionalitäten zum Geschäftsprozessmanagement (BPM-System).
4 Die Qualität des Ereignislogs ist sehr gut. Ereignisse werden automatisch, systematisch und zuverlässig erfasst. Die Kriterien „vertrauenswürdig“ und „vollständig“ sind erfüllt. Die Konzepte von „Prozessinstanzen“ (definiert über eine eindeutige Fall-ID) und „Aktivitäten“ werden explizit durch das ausführende Informationssystem unterstützt (Process Awareness).
Beispiel: Ereignislogs aus BPM/Workflow-Systemen, die eine Ausführungskomponente für Prozessinstanzen besitzen.
3 Das Ereignislog ist von mittelmäßiger Qualität. Ereignisse werden durch Informationssysteme automatisch aufgezeichnet, es wird aber kein systematischer Ansatz verfolgt. Das bedeutet beispielsweise, dass keine explizite Logging-Komponente vorhanden ist und Konzepte wie „Prozessinstanzen“ und „Aktivitäten“ nicht explizit im System verwendet werden. Im Gegensatz zu Protokollen auf der vorangegangenen Ebene kann aber mit hoher Sicherheit davon ausgegangen werden, dass die aufgezeichneten Ereignisse der Realität entsprechen (d. h. das Kriterium „vertrauenswürdig“ ist erfüllt, aber nicht zwangsläufig auch das Kriterium „vollständig“). Beispiele für diese Reifegradstufe finden sich häufig bei ERP-Systemen: Da die Systeme keine Process Awareness im Sinne eines BPM-Systems besitzen, müssen Ereignisse aus einer Vielzahl von Tabellen extrahiert werden. Es kann aber davon ausgegangen werden, dass die Informationen korrekt sind (vom ERP erfasste Zahlung existiert tatsächlich und umgekehrt).
Beispiele: Tabellen in ERP-Systemen, Ereignisprotokolle von CRM-Systemen, Transaktions-Protokolle von Messaging-Systemen, Ereignisprotokolle von High-Tech-Systemen.
2 Die Qualität des Ereignislogs ist mäßig und erfolgt nicht systematisch, sondern als Nebenprodukt eines Informationssystems. Ereignisse werden vom System automatisch aufgezeichnet, allerdings wird kein systematischer Ansatz verfolgt, um zu entscheiden, welche Ereignisse aufgezeichnet werden. Die Nutzung des Informationssystems ist nicht zwingend bzw. es ist möglich, das System zu umgehen. Aus diesem Grund kann nicht sichergestellt werden, dass die Kriterien „vertrauenswürdig“ und „vollständig“ sicher erfüllt sind. Diese Reifegradstufe findet sich häufig bei Informationssystemen, die an spezifischen Stellen innerhalb eines Prozesses eingesetzt werden, selbst aber keine Prozessausführungskomponente besitzen und das Konzept einer Prozessinstanz nicht unterstützen. Interaktionen mit dem System werden nicht per se einer einzelnen Instanz zugeordnet.
Beispiele: Ereignisprotokolle von Dokumenten- und Produktmanagementsystemen, Fehlerprotokolle von Embedded Systems, Arbeitsblätter von Servicetechnikern.
1 Das Ereignislog weist eine schlechte Qualität auf. Die Erfüllung der Kriterien „vertrauenswürdig“ und „korrekt“ kann nicht beurteilt werden, es ist aber davon auszugehen, dass diese häufig nicht erfüllt werden. In der Konsequenz entsprechen die aufgezeichneten Ereignisse möglicherweise nicht der Realität. Häufig finden sich Logs dieser Reifegradstufe bei Prozessen, in denen eine Aufzeichnung von Ereignissen händisch und manuell geschieht, beispielsweise papierbasiert.
Beispiele: Spuren in Papierdokumenten, die durch das Unternehmen geleitet werden („gelbe Zettel“), papierbasierte Krankenakten, protokollierte Telefonanrufe.
Abbildung 19: Reifegradstufen für Ereignislogs
Die Beurteilung eines vorliegenden Ereignislogs anhand der aufgezeigten Kriterien und die daraus folgende Verortung innerhalb der fünf Reifegradstufen können Aufschluss über die zu erwartende Qualität der Analyseergebnisse geben.
Als allgemeine Empfehlung lässt sich festhalten, dass für sinnvolle und vertrauenswürdige Analysen durch Process-Mining-Methoden mindestens eine Reifegradstufe von 3 erreicht werden sollte. Abhängig vom konkreten Prozess und den beteiligten IT-Systemen kann eine Analyse aber auch erst bei höheren oder bereits bei niedrigeren Reifegradstufen belastbare Ergebnisse liefern.
4.3.3 Datenformat XES
Ereignislogs können, wie zuvor bereits erwähnt, in einer Vielzahl unterschiedlicher Formate vorliegen, unter anderem als Datenbankexporte, Tabellenstrukturen, CSV- oder Textdateien. Daneben haben sich auch dedizierte Datenstrukturformate auf Basis der XML-Auszeichnungssprache entwickelt, welche eine standardisierte Auszeichnung von Prozessattributen wie Zeitstempel, Aktivitäten und Ressourcen definieren. Ab dem Jahre 2003 wurde der sogenannte MXML (Mining eXtensible Markup Language)-Standard entwickelt, der schnell Einzug in die Open Source Software ProM fand. Durch diverse Erweiterungen wurden schließlich verschiedene Abwandlungen des MXML-Formats verwendet, die aber nicht auf einem einheitlichen Standard basierten, was in der Folge zu unterschiedlichen Versionen und Problemen beim Datenaustausch führt. Aus diesem Grund wurde die Entwicklung des XES (eXtensible Event Stream) genannten Nachfolgers von MXML lanciert. XES verfolgt einen offeneren Ansatz und ist im Kern auf die Erweiterung des Standards ausgelegt. Im Jahre 2010 wurde im Rahmen der Arbeitsgruppe IEEE Task Force on Process Mining der Weg für eine offizielle Positionierung als IEEE Standard eingeschlagen, welcher seit November 2016 in Kraft ist (IEEE 1849-2016 XES Standard).
Ein XES-Dokument (z. B. in Form einer XML-Datei) beschreibt ein Ereignislog mit Prozessinstanzdaten und besteht aus einer beliebigen Anzahl von Traces-Elementen. Jedes dieser Elemente enthält wiederum eine geordnete Liste von Aktivitäten (im Standard als events bezeichnet) des Ereignislogs, die einem bestimmten Fall über die eindeutige ID zugeordnet sind. Jedes der genannten Elemente kann beliebige Attribute aufweisen und dadurch näher spezifiziert werden, wobei auch eine Verschachtelung von Attributen möglich ist. Als Grunddatentypen für Attribute stehen Strings, Datumsformate, Integer, Float und Boolean zur Verfügung.
Abbildung 20: Beispiel eines Ereignislogs im XES-Format
XES wird von einer Vielzahl gängiger Process Mining Softwares wie Celonis,
Disco und ProM unterstützt und kann durch freie Konvertierungslösungen zwischen verschiedenen Formaten umgewandelt werden. Gegenüber rein textbasierten Dateiformaten wie CSV hat XES den großen Vorteil, dass die serialisierten Ereignisprotokolle sehr wenige Informationsverluste aufweisen. Alle Informationselemente im Format sind stark typisiert, wodurch eine maschinelle semantische Interpretation und Verarbeitung ermöglicht wird.
Zusätzlich bleiben die erzeugten Dateien menscheninterpretierbar und einfach verständlich.
4.4 Process Mining Lifecycle
4.4.1 Überblick
Analog zu den Aktivitäten des Geschäftsprozessmanagements lassen sich auch die unterschiedlichen Phasen im Rahmen von Process-Mining-Projekten entlang eines geschlossenen Lebenszyklus ausrichten. Abbildung 21 zeigt das Zusammenspiel zwischen der Modellierung von Prozessen, deren Abbildung in betrieblichen Software-Systemen und der Erzeugung von Ereignislogs, welche die Eingabe für Process Mining darstellen.
Abbildung 21: Überblick Process Mining Lifecycle
Wie bereits erwähnt, können Modelle von Geschäftsprozessen als Vor- und Nachbild der Realität dienen und werden in abstrakter Form, d. h. ohne Bezug zu einzelnen konkreten Prozessabläufen oder Personen, definiert. Man spricht an dieser Stelle – als Abgrenzung zu konkreten Prozessinstanzen und deren Daten (sog. Instanzebene) – von der Typebene der Modelle. Diese Soll-Prozessmodelle definieren gewünschte Prozessabläufe und dienen zur Gestaltung von betrieblichen Software-Systemen, welche diese Abläufe technisch unterstützen (vgl. Implementierungsphase im BPM-Lebenszyklus, in Abschnitt 2.1.2). Die bei der Ausführung von Prozessen innerhalb der Systeme entstehenden Ereignisse werden als Prozessinstanzdaten aufgezeichnet und in strukturierter Form abgelegt. Auf der Grundlage dieser Daten können anschließend verschiedene Methoden des Process Mining angewendet werden: Das Discovery dient der Entdeckung von Prozessstrukturen aus historischen Instanzdaten, mittels Conformance Checking wird ein Abgleich zwischen modellierten Soll- und tatsächlich ablaufenden Ist-Prozessen ermöglicht und im Rahmen des Enhancement kommt es schließlich zu einer Verbesserung von Prozessmodellen auf Basis der Ergebnisse aus den zuvor durchgeführten Analysen. In den folgenden Abschnitten werden diese drei Techniken detaillierter vorgestellt.
4.4.2 Process Discovery
4.4.2.1 Problemstellung und Motivation
Die „Entdeckung“ von Prozessen aus historischen Ausführungsdaten eines Ereignislogs wird im englischen Sprachgebrauch als Process Discovery bezeichnet und stellt eine der anspruchsvollsten Aufgaben innerhalb des Process Mining dar. Sie bezeichnet die Konstruktion eines Prozessmodells durch die Anwendung von Algorithmen, um einen Einblick in die Struktur des Prozesses zu erlangen. Insbesondere findet die Methode Einsatz bei Prozessen, bei denen keine Definition oder Beschreibung vorliegt.
Discovery
Conformance
Enhancement
Prozessinstanzdaten Prozessmodelle
Betriebliche
Software
Gestaltung
Aufzeichnen
von Ereignissen
Typebene
Instanzenebene
Process Mining
Mittels Process Discovery werden aus den historischen Ausführungsdaten eines Ereignislogs die Abläufe und Strukturen (= der Kontrollfluss) eines Prozesses rekonstruiert. Diese Methode dient insbesondere der „Entdeckung“ von Unternehmensprozessen, ohne dass hierfür weitere Informationen oder Vorwissen über vorhandene Prozesse notwendig sind. Auf diese Weise wird eine objektive, schnelle und präzise Darstellung von tatsächlich ablaufenden Ist-Prozessen auf Grundlage von Daten ermöglicht. Zur Formalisierung des Problems sei auf Van der Aalst (2016, S. 163) verwiesen. In Abbildung 22 sind zwei Visualisierungen in unterschiedlichen Modellierungskonventionen als Ergebnis von Process-Discovery-Verfahren dargestellt. Der linke Teil der Abbildung zeigt die Ausgabe des Alpha Miners (vgl. Abschnitt 4.4.2.2) als Petri-Netz, die mithilfe des Software-Pakets PM4PY erzeugt wurde, während der rechte Teil die Darstellung einer Process Map beinhaltet, die unter Verwendung der R-Bibliothek bupaR erstellt wurde.
Abbildung 22: Mittels Process Discovery erzeugte Prozessmodelle als Petri-Netz (links) und als
Die folgenden Absätze gehen auf Details der Darstellungen ein und diskutieren einige essentielle Charakteristiken und Anforderungen, die einen maßgeblichen Einfluss auf das Ergebnis von Process-Discovery-Analysen haben.
• Zur Konstruktion von Prozessstrukturen aus Instanzdaten existieren verschiedene algorithmische Ansätze, die sich je nach Art der Prozesse (Anzahl der Aktivitäten) sowie Größe und Beschaffenheit des Logs (Anzahl der Prozessinstanzen, Strukturinformationen) für ein Discovery eignen. Die beiden prominentesten Vertreter dieser sogenannten Mining-Algorithmen – der Alpha Miner sowie der Heuristics Miner – werden in den folgenden Abschnitten vorgestellt.
• Die verschiedenen Algorithmen unterscheiden sich neben dem Vorgehen zur Modellrekonstruktion auch in der Art der ausgegebenen Modellnotation. Die Ausgabe des Alpha Miner ist ein Stellen-Transitionen-Petri-Netz (engl. place/transition [PT] net). Diese Notation besitzt eine genaue mathematische Definition ihrer Ausführungssemantik und ermöglicht eine Prozessanalyse auf Basis etablierter mathematischer Theorie. Im Ergebnis sind die erzeugten Prozessmodelle semantisch sehr ausdrucksstark und erfassen z. B. Parallelität und Exklusivität von Aktivitäten. Im Gegenzug sind sie aber häufig sehr komplex und schwer verständlich.
Exkurs: Modelldarstellung in gängigen Process-Mining-Anwendungen In der Praxis finden häufig sogenannte Process Maps Anwendung, da sie leicht verständlich sind und sich bezüglich der Komplexität nach verschiedenen Kriterien sehr schnell einschränken lassen (vgl. auch Abbildung 15). Beispielsweise kann über die beiden Parameter „Pfade“ und „Aktivitäten“ die jeweilige Anzahl der im Modell enthaltenen Kantenbeziehungen und Prozessaktivitäten quantitativ beschränkt werden. Auf diese Weise können etwa nur diejenigen Aktivitäten ins Modell aufgenommen werden, die in mindestens 70% aller Prozesse auftauchen oder die 10% der häufigsten Pfade. Damit ist diese Darstellung besonders für explorative Analysen geeignet und kann zur Erkundung der Prozesse eingesetzt werden. Ein wichtiger Unterschied zu den angesprochenen PT nets, die von Algorithmen wie dem Alpha Miner erzeugt werden, ist die im Vergleich sehr eingeschränkte Erfassung der Modellsemantik. Üblicherweise beschränken sich Process Maps auf die reine Darstellung von Vorgänger-Nachfolger-Beziehungen im Prozessablauf. In der Folge kann aus der Darstellung ohne weitere Zusatzinformationen nicht mehr abgeleitet werden, ob sich zwei Aktivitäten beispielsweise ausschließen und innerhalb einer konkreten Prozessinstanz nie gleichzeitig enthalten sein können.
• Neben einem Gesamtüberblick über die Prozessabläufe in Form eines Prozessmodells erlaubt Process Discovery auch die gezielte Analyse von einzelnen Prozessvarianten. Eine Variante fasst alle Prozessabläufe zusammen, welche die gleichen Aktivitäten in der identischen Reihenfolge aufweisen. Hierdurch sind alle Möglichkeiten, wie die analysierten Prozesse in der Vergangenheit durchlaufen wurden, detailliert ersichtlich und können hinsichtlich verschiedener Kriterien (z. B. Performance, Anzahl an notwendigen Wiederholungen einzelner Aktivitäten, Fehler im Prozessablauf) miteinander verglichen werden.
• Ein wichtiges Qualitätsmaß, um zu beurteilen, wie „gut“ ein aus Instanzdaten rekonstruiertes Prozessmodell ist, ist die Repräsentativität, die das Modell für das Prozessverhalten im Ereignislog hat. Hierbei geht es um die Frage, wie gut das Modell alle möglichen Verhaltensweisen erklären kann, ohne im Umkehrschluss zu viel Verhalten zuzulassen. Dieses Problem ist mit dem Konzept von „Overfitting“ und „Underfitting“ aus dem Bereich Machine Learning vergleichbar (siehe Abschnitt 3.4). Die Qualität eines durch die Anwendung von Process Discovery entstandenen Prozessmodells kann als Trade-off zwischen den folgenden vier Kriterien verstanden werden (vgl. Van der Aalst, 2016, S. 166):
o Fitness: Das erstellte Modell sollte in der Lage sein, das im Ereignislog enthaltene Verhalten zu erklären.
o Precision: Das erstellte Modell sollte kein Verhalten zulassen, das in keinem Zusammenhang mit dem im Ereignislog zu beobachtenden Verhalten steht.
o Generalization: Das erstellte Modell sollte generell gut genug sein, um vom Beispielverhalten des Ereignislogs zu abstrahieren.
o Simplicity: Das erstellte Modell sollte so einfach wie möglich gestaltet sein.
Es ist offensichtlich, dass eine Verbesserung eines Kriteriums zwangsläufig zu einer Verschlechterung eines anderen Kriteriums führt. Beispielsweise ist ein präzises Modell in der Lage, das Verhalten des Ereignislogs sehr gut wiederzugeben, ist auf der anderen Seite aber so restriktiv, dass es nicht mehr generalisierbar ist. Die Gewichtung der jeweiligen Kriterien hängt auch stark von der Zielsetzung bei der Untersuchung ab und kann je nach Erkenntnisinteresse variieren.
In den beiden folgenden Abschnitten werden zwei unterschiedliche Algorithmen zur Process Discovery vorgestellt und im Hinblick auf verschiedene Einsatzzwecke kritisch beleuchtet.
4.4.2.2 Alpha Miner
Der Alpha-Algorithmus gilt als einer der ersten Process-Discovery-Ansätze zur Bestimmung eines Prozessmodells, welches die Ausführungssemantik des Ereignislogs, insbesondere Parallelität von Aktivitäten, angemessen berücksichtigt. Er verwendet einen eher naiven, aber einfach zu verstehenden Ansatz, um Prozessmodelle aus Ereignislogs zu erstellen (Van der Aalst et al., 2004). Das Ergebnis des Alpha Miner besteht aus:
1) Einem Petri-Netz-Modell, bei dem alle Übergänge sichtbar und eindeutig sind und den Aktivitäten des Ereignislogs entsprechen.
2) Einer ersten Markierung, die den Status des Petri-Netz-Modells beschreibt, wenn eine Ausführung beginnt.
3) Einer abschließenden Markierung, die den Status des Petri-Netz-Modells beschreibt, wenn eine Ausführung endet.
Die Punkte 2 und 3 bilden zusammengenommen die Ausführungssemantik des Modells ab, was ein wesentliches Element der Petri-Netz-Darstellung ist.
Vorgehensweise: Der Algorithmus erwartet als Eingabe ein Ereignislog L, dessen Elemente (die Aktivitäten des Prozesses) als Menge A bezeichnet werden. Damit bezeichnet a ∈ A eine einzelne Aktivität aus dem Ereignislog.
Der Algorithmus durchläuft das Ereignislog L und sucht nach bestimmten Mustern, um Regeln zur Reihenfolge von Aktivitäten zu bestimmen. Tritt Aktivität a beispielsweise nie nach Aktivität b auf, so kann eine kausale Abhängigkeit zwischen a und b angenommen werden. Insgesamt werden vier verschiedene Muster für Reihenfolgen definiert:
• a > b, genau dann, wenn eine Prozessvariante in L existiert, in der b unmittelbar auf a folgt.
• a → b, genau dann, wenn a > b und b ≯ a, d. h., es existiert eine Prozessvariante in L, in der b unmittelbar auf a folgt, aber a folgt niemals unmittelbar auf b.
• a # b, genau dann, wenn a ≯ b und b ≯ a, d. h., es existiert keine Prozessvariante in L, in der a und b unmittelbare Vorgänger oder Nachfolger voneinander sind.
• a ∥ b, genau dann, wenn, a > b und b > a, d. h., es existieren jeweils Prozessvarianten in L, in denen a unmittelbarer Vorgänger von b ist und umgekehrt.
Die vier genannten Muster werden für alle Paarkombinationen von Aktivitäten in L geprüft. Abbildung 23 zeigt beispielhaft, wie eine solche abgeleitete Regelkonstruktion – die Abhängigkeitsmatrix der Prozessaktivitäten – für ein Ereignislog mit den fünf Aktivitäten a, b, c, d und e aussehen kann. Diese Darstellung wird auch als Fußabdruck (engl. footprint) eines Ereignislogs bezeichnet.
a b c d e
a # → → # →
b # ∥ → #
c ∥ # → #
d # #
e # # → #
Abbildung 23: Beispiel einer durch den Alpha Miner erzeugten Abhängigkeitsmatrix der Prozessaktivitäten
Die abgeleiteten Informationen des Fußabdrucks können zur Bestimmung von Prozessmustern für die Petri-Netz-Darstellung verwendet werden (vgl. Abbildung 24). Diese werden anschließend zu größeren Konstrukten zusammengeführt, sodass iterativ das gesamte Prozessmodell auf der Basis kleinerer Prozessmuster entsteht.
Abbildung 24: Beispiele für Prozessmuster auf Basis von Fußabdrücken
(in Anlehnung an Van der Aalst, 2016, S. 169)
Im letzten Schritt des Algorithmus werden die initiale und die abschließende Markierung des Petri-Netzes ermittelt. Auf diese Weise werden konsistente Zustände des Modells bestimmt, um die Ausführungssemantik korrekt angeben zu können. Da die konkrete Bestimmung der Markierungen eher akademische Relevanz besitzt, sei an dieser Stelle für die formale Herleitung auf Van der Aalst (2016, S. 171ff.) verwiesen. Einschränkungen und praktische Relevanz: Beim praktischen Einsatz des Alpha Miner sind einige Besonderheiten und Limitationen zu beachten, die wichtig für die Interpretation der erzeugten Modelle sind. Bereits ab einer mittleren Anzahl an Aktivitäten und einer mittleren Anzahl unterschiedlicher Prozessvarianten werden die vom Algorithmus erzeugten Modelle bereits sehr komplex. Dies ist darin begründet, dass jede Verbindung zwischen zwei Aktivitäten im Prozess Teil des erstellten Modells wird, unabhängig davon, wie oft sie tatsächlich ausgeführt wird. Häufiges und sehr seltenes Prozessverhalten (sog. Rauschen) sind in der Folge nicht zu unterscheiden und erschweren eine visuelle Analyse aufgrund der hohen Anzahl an Pfaden. Zudem eignet sich die verwendete Petri-Netz-Notation nur bedingt für komplexe Prozessstrukturen mit Verzweigungen und Schleifen. Strukturell bedingt kann der Algorithmus zudem nicht mit Schleifen der Länge 2 umgehen, wohingegen Schleifen größerer Länge, d. h. über mindestens drei Aktivitäten im Zyklus, keine Probleme verursachen. Zur Adressierung des Problems von Schleifen der Länge 2 existiert mit dem Alpha+-Algorithmus eine Alternative, die eine Vor- und eine Nachbereitungsphase zur Anpassung der Schleifenstrukturen vornimmt.
Der Alpha Miner bietet den Vorteil, dass die erzeugten Prozessmodelle einer klaren Ausführungssemantik folgen und durch die verwendete PetriNetz-Notation den Ansprüchen einer formalen Überprüfbarkeit genügen. Als Nachteile zu nennen sind insbesondere die hohe Komplexität und die mangelnde Übersichtlichkeit, welche bereits bei mittlerer Anzahl an Aktivitäten und Prozessvarianten im Ereignislog eintreten.a b
a
b
c
XOR-Split: a → b, a → c und b # c
Vorgänger/Nachfolger: a → b
4.4.2.3 Heuristics Miner
Der Heuristics Miner (vgl. Weijters et al., 2006) stellt eine Weiterentwicklung und Verbesserung des Alpha-Miner-Algorithmus dar und versucht insbesondere, dem Problem der hohen Komplexität der erzeugten Modelle zu begegnen. Hierzu werden einige grundsätzliche Erweiterungen vorgenommen und auf Basis des Ereignislogs weitere Eigenschaften bestimmt, welche zur Priorisierung von spezifischen Prozessstrukturen verwendet werden können.
Gegenüber dem Alpha Miner sind insbesondere die folgenden Aspekte hervorzuheben (vgl. FutureLearn, 2019):
• Explizite Berücksichtigung der Häufigkeiten von Prozesspfaden: Im Gegensatz zum Alpha Miner bietet der Heuristics Miner die Möglichkeit, nur Prozesspfade ab einer bestimmten Auftretenshäufigkeit im Prozessmodell zu berücksichtigen. Prozesspfade sind dabei definiert als die Beziehung zwischen zwei Aktivitäten, z. B. könnten seltene Abläufe (engl. infrequent behavior) herausgefiltert werden, um einen klareren Blick auf die häufigsten Prozessabläufe zu erhalten. Ebenso können auch gerade seltene Prozessabläufe gezielt untersucht werden, da in der Praxis häufig seltene Abweichungen vom Standardverhalten als anomal gelten können.
• Erkennung von kurzen Schleifen: Eine Problematik des Alpha Miner liegt in dessen Unfähigkeit, Prozessschleifen der Länge 2 zu erkennen und korrekt im Modell aufzunehmen. Durch diverse Schritte im Rahmen der Datenaufbereitung des Ereignislogs wird dieser Aspekt durch den Heuristics Miner behoben.
• Erkennung von übersprungenen Aktivitäten: Eine weitere Besonderheit liegt in der Möglichkeit, übersprungene bzw. ausgelassene Aktivitäten in einzelnen Fällen des Ereignislogs zu identifizieren und zu berücksichtigen.
Im Gegensatz zum Alpha Miner ergibt sich aufgrund der drei dargestellten Eigenschaften die abweichende Situation, dass die erstellten Modelle nicht zwangsläufig den formalen Anforderungen der Petri-Netz-Modellierungskonvention genügen. Man spricht auch davon, dass die Soundness-Eigenschaft des Modells verletzt ist, was insbesondere bei der Untersuchung der Ausführungssemantik des Modells einige Einschränkungen mit sich bringt.
Mit Blick auf den praktischen Einsatz des Algorithmus ist die Einschränkung aber in den meisten Fällen nicht relevant. Zum einen besitzt die formale Korrektheit der Petri-Netz-Notation aufgrund der damit einhergehenden Komplexität der Modellierungskonvention ohnehin eher einen akademischen Wert als praktische Relevanz. Zum anderen steht im Vordergrund der meisten Process-Discovery-Vorhaben insbesondere die Entdeckung von Modellstrukturen und gelegten Ist-Prozessen; diese Anforderung kann durch den Algorithmus ohne Einschränkungen bedient werden.
Vorgehensweise: Wie der Alpha Miner erwartet der Algorithmus als Eingabe ein Ereignislog L, dessen Elemente (die Aktivitäten des Prozesses) als Menge
A bezeichnet werden. Damit bezeichnet a ∈ A eine einzelne Aktivität aus dem Ereignislog.
Ebenfalls analog zum Alpha-Miner-Algorithmus wird das Ereignislog L nach Mustern durchsucht, um Regeln zur Reihenfolge von Aktivitäten zu bestimmen. Hierbei wird allerdings ausschließlich die unmittelbare Vorgänger/Nachfolger-Beziehung gemäß
• a > b, genau dann, wenn eine Prozessvariante in L existiert, in der b unmittelbar auf a folgt,
betrachtet. Weiterhin erfolgt die Erstellung der Abhängigkeitsmatrix unter Berücksichtigung der Häufigkeiten von Aktivitäten. Abbildung 25 zeigt die Abhängigkeitsmatrix zu einem Ereignislog L, welches die folgenden fünf Prozessinstanzen (Traces) beinhaltet:
Ereignislog L
# Traces Anzahl in L
1
2
3
4
5
<a,b,c,d,e,g>
<a,b,c,d,f,g>
<a,c,d,b,f,g>
<a,b,d,c,e,g>
<a,d,c,b,f,g>
6
38
2
12
Jeder Trace in L wird durch den Algorithmus nicht nur darauf hin untersucht, ob zwei Aktivitäten in einer unmittelbaren Vorgänger-/Nachfolger-Beziehung stehen, sondern es wird zusätzlich die Anzahl mit einbezogen, mit der ein Trace in L insgesamt auftritt. Am Beispiel des Ereignislogs L in obiger Darstellung tritt der erste Trace <a,b,c,d,e,g> beispielsweise insgesamt sechsmal auf, der zweite Trace 38-mal usw. Zur Bestimmung der Werte in der Abhängigkeitsmatrix werden nun alle Abfolgen von Aktivitäten und die Häufigkeiten der Traces mit den Mustern multipliziert. Betrachten wir z. B. die Beziehung a > b, so zeigt sich, dass a als unmittelbarer Vorgänger von b insgesamt 56-mal auftritt (6-mal im ersten Trace, 38-mal im zweiten Trace und 12-mal im vierten Trace).
> a b c d e f g
a 56 2 4
b 44 12 6
c 4 46 12
d 2 4 18 38
e 18
f 44
g
Abbildung 25: Beispiel einer durch den Heuristics Miner erzeugten Abhängigkeitsmatrix der Prozessaktivitäten zum Ereignislog L
Abschließend wird die erstellte Abhängigkeitsmatrix auf Basis der Häufigkeiten erweitert, um die Signifikanz einer Beziehung zu bestimmen. Hierzu wird die folgende Formel verwendet, um die Signifikanz der Vorgänger-/Nachfolger-Beziehung a > b zu berechnen:
𝑆𝑖𝑔𝑛𝑖𝑓𝑖𝑘𝑎𝑛𝑧 (𝑎 > 𝑏) = |𝑎 > 𝑏| − |𝑏 > 𝑎|
|𝑎 > 𝑏| + |𝑏 > 𝑎| + 1
Durch die Formel wird das Verhältnis der betragsmäßigen Abweichung zwischen den Beziehungen a > b und b > a bestimmt. Kommen beide Beziehungen gleich häufig vor, so ist die Signifikanz gleich 0, je größer die Abweichung, desto größer (mehr Signifikanz) bzw. kleiner (weniger Signifikanz) werden die Werte. Für das Beispiel a > b ergibt sich nach der Formel folgende Berechnung:
56 − 0
56 + 0 + 1 = 56
57 = 0,98
Abbildung 26 zeigt die gesamten Werte auf Basis der Abhängigkeitsmatrix aus Abbildung 25.
> a b c d e f g
a 0,98 0,67 0,80
b -0,98 0,82 067 0,86
c -0,67 -0,82 0,90 0,92
d -0,80 -0,67 -0,90 0,95 0,97
e -0,92 -0,95 0,95
f -0,86 - 0,97 0,98
g -0,95 -0,98
Abbildung 26: Beispiel einer durch den Heuristics Miner erzeugten Abhängigkeitsmatrix der Prozessaktivitäten zum Ereignislog L
Wie erwähnt, deutet ein hoher Signifikanzwert stark darauf hin, dass es eine Abhängigkeitsbeziehung zwischen Aktivität a und b gibt. Welcher Schwellenwert aber ist geeignet, um „hohe“ von „niedrigen“ Werten zu unterscheiden? Ein zu hoher Schwellenwert abstrahiert von Prozessstrukturen, die nur selten im Ereignislog auftreten. Umgekehrt lässt ein zu niedriger Schwellenwert viele Strukturen zu, die nur sehr selten auftreten – und von diesen Strukturen kann es sehr viele geben. Viele Prozesse folgen einer Long-Tail-Verteilung, das bedeutet, dass ein großer Teil der Gesamtanzahl der Prozesse bestimmte Strukturen aufweist, die und viele Prozesse darüber hinaus sehr viele verschiedene unterschiedliche, wenig verbreitete Strukturen. Für die Bestimmung des Schwellenwerts bedeutet dies, dass ein niedriger Wert häufig unmittelbar zu einem wesentlich komplexeren Prozessmodell führt.
Praktische Relevanz: Aufgrund der einfachen Konfigurierbarkeit des Discovery-Ergebnisses eignet sich der Heuristics Miner in der Praxis deutlich besser zur explorativen Analyse von Ereignislogs als der zuvor diskutierte Alpha Miner. Maßgeblich dafür verantwortlich sind zwei Aspekte:
1) Durch die im Algorithmus verankerte Berücksichtigung von Schwellenwerten bei der Entscheidung, ob bestimmte Prozessstrukturen in das entdeckte Modell aufgenommen werden sollen oder nicht, lässt sich schnell zwischen verschiedenen Abstraktionsebenen in der Prozessvisualisierung wechseln. Viele am Markt verfügbare Process-Mining-Lösungen bieten für den Bereich Process Discovery die Funktionalität, den Schwellenwert für die Signifikanz von Aktivitäten und Verbindungen zwischen Aktivitäten (Pfade) über Schieberegler dynamisch anzupassen. Damit wird in einer explorativen Analyse beispielsweise möglich, zu anfangs einen hohen Schwellwert zu wählen, um mit einem sehr einfachen Modell zu starten. Durch sukzessives Absenken des Schwellenwerts können mehr und mehr Prozessstrukturen in das Modell aufgenommen und die Komplexität damit schrittweise erhöht werden. Auf diese Weise kann der Grobüberblick über den grundsätzlichen Prozessablauf verfeinert und um seltene, abweichende Prozessvarianten ergänzt werden.
2) Die subjektive Festlegung von Schwellenwerten führt dazu, dass die strengen formalen Kriterien für die Prozessdarstellung in der PetriNetz-Notation nicht mehr garantiert werden können. Dies hat zur Folge, dass für die Visualisierung von Prozessstrukturen als Ergebnis des Heuristics Miner alternative Notationen entwickelt wurden. Zu nennen sind hier beispielsweise Heuristic Nets, welche optisch stärker an visuell eingängigere Notationen wie EPK oder BPMN angelehnt sind. Dies erleichtert in der Praxis die Interpretierbarkeit der Ergebnisse und erhöht durch die fehlenden Transitionselemente die Übersichtlichkeit.
Der Heuristics Miner erzeugt auf der Basis eines Ereignislogs eine gewichtete Repräsentation von Vorgänger-/Nachfolger-Beziehungen für Prozessaktivitäten und erlaubt damit eine bedarfsbezogene Analyse von Abläufen. Durch die Festlegung unterschiedlicher Schwellenwerte wird es ermöglicht, Prozessstrukturen überblicksartig zu erfassen, indem von seltenem Verhalten abstrahiert wird. Genauso ist aber eine Konzentration auf selten auftretende Prozessstrukturen möglich, was beispielsweise eine Analyse von anomalem Verhalten erlaubt.
4.4.3 Process Conformance Checking
4.4.3.1 Problemstellung und Motivation
Der automatisierte Abgleich von Prozessinstanzdaten eines Ereignislogs mit zuvor modellierten Soll-Prozessen wird als Process Conformance Checking bezeichnet. Diese Methode stellt im Process Mining Lifecycle (vgl. Abbildung 21) die zweite Phase dar und erfolgt meistens im Anschluss an ein Process Discovery, nachdem ein grundlegender Überblick über das Prozessverhalten innerhalb des Ereignislogs vorliegt.
Process Conformance Checking verfolgt das Ziel, ein existierendes Soll-Prozessmodell mit den Instanzdaten eines Ereignislogs des gleichen Prozesses zu vergleichen. Durch den Vergleich sollen insbesondere Gemeinsamkeiten und Unterschiede zwischen Ereignislog und Soll-Modell identifiziert werden. Hierdurch soll überprüft werden, ob das im Soll-Prozess intendierte Verhalten tatsächlich mit der Realität übereinstimmt und umgekehrt. Beispielsweise kann auf diese Weise festgestellt werden, ob alle notwendigen Aktivitäten innerhalb eines Prozesses ausgeführt werden und ob regulatorisch vorgeschriebene Prüfungen (z. B. Vier-Augen-Prinzip) eingehalten werden. Dies erlaubt es, potentielle Verstöße und Regelverletzungen automatisiert zu identifizieren.
Eine notwendige Voraussetzung, um Process Conformance Checking durchzuführen, ist die Existenz von Prozessmodellen in einem Format, das algorithmisch verarbeitet werden kann. Die Herkunft der Modelle kann unterschiedlich sein und beispielsweise manuell von einem Prozessexperten modelliert worden sein. Ebenso ist auch denkbar, dass das Modell als Ergebnis eines Process-Discovery-Algorithmus automatisch erzeugt wurde. Wichtig ist hierbei allerdings, dass die Qualität des Soll-Modells als gesichert angesehen werden kann und eine Art „Goldstandard“ darstellt, der als richtiges Verhalten gilt. Keinen Sinn ergibt es hingegen, ein Modell auf der Basis eines Ereignislogs automatisiert zu erzeugen und anschließend mittels Conformance Checking gegen dieses Ereignislog zu testen. Da beide Eingaben (Modell und Ereignislog) auf den gleichen Eingabedaten (den Prozessinstanzdaten) basieren, wird es immer zu einer vollen Übereinstimmung zwischen beiden Datenquellen kommen.
Conformance Checking wird vor allem verwendet, um ungewünschte, fachliche Abweichungen von einem gewünschten Prozessverhalten zu identifizieren (man spricht davon, dass das Soll-Modell „normativen Charakter“ besitzt). Diese Einschränkung ist insbesondere deshalb wichtig, da eine Abweichung von einem im Soll-Prozess definierten Verhalten nicht zwangsläufig eine fachliche Regelverletzung oder unerwünschtes Verhalten darstellen muss. Manche Abweichungen mögen im Soll-Prozess anders oder überhaupt nicht definiert sein, fachlich aber nicht zu beanstanden sein (das Modell hat dann vor allem „deskriptiven Charakter“). Damit wird gleichzeitig auch eine wichtige Anforderung an die zum Conformance Checking verwendeten Soll-Prozessmodelle gestellt: Diese müssen fachlich wichtige Prozessstrukturen und Regelstrukturen semantisch vollumfänglich abbilden (d. h. in Bezug auf notwendige Aktivitäten, deren Reihenfolge etc.).
Nicht zwangsweise notwendig ist hingegen, dass jedes mögliche Prozessverhalten im Modell abgebildet ist. Gerade wenn keine detailliert modellierten Prozesse vorliegen, sondern beispielsweise nur eine schriftliche Dokumentation, kann die Erstellung geeigneter Soll-Modelle einen erheblichen Aufwand darstellen. Dem wird durch die Einschränkung auf fachlich unbedingt notwendige Entscheidungsstrukturen als Mindestanforderung Rechnung getragen. Wichtig zu betonen ist an dieser Stelle, dass auch tolerierte Abweichungen transparent und für alle Prozessbeteiligten nachvollziehbar sein sollten, sodass Conformance Checking ein wichtiges Mittel zur Unterstützung der Kommunikation unter den Prozessbeteiligten darstellen kann.
Abbildung 27: Übersicht Process Conformance Checking
(in Anlehnung an Van der Aalst, 2016, S. 244)
Abbildung 27 zeigt die Beziehung zwischen Spuren innerhalb der Ereignislogs (unterer Teil der Grafik) und den entsprechenden Teilen innerhalb des Soll-Prozessmodells (oberer Teil der Grafik). Die Conformance-Analyse führt zu zwei unterschiedlichen Erkenntnissen:
• Lokale Erkenntnisse, z. B. dass eine Aktivität laut Instanzdaten mehrfach ausgeführt wurde, obwohl dies laut Soll-Modell kein korrektes Verhalten darstellt,
• Globale Erkenntnisse, z. B. dass insgesamt 95% der im Ereignislog enthaltenen Prozessinstanzen einem laut Soll-Modell korrekten Prozessverhalten entsprechen.
Die Interpretation von lokalen und globalen Erkenntnissen aus der Conformance-Analyse hängt, wie beschrieben, von der fachlichen Bedeutung der Abweichung ab. Nachfolgend werden drei zentrale Einsatzzwecke von Process Conformance Checking thematisiert (vgl. Van der Aalst, 2016, S. 244ff.), bevor in den nächsten beiden Abschnitten zwei konkrete Ansätze zur Conformance-Analyse vorgestellt werden.
Als Teil von GRC-Initiativen (Governance, Risk, Compliance) gewinnt die nachweisliche Einhaltung von regulatorischen Vorgaben in einer Vielzahl an Branchen an Bedeutung. Hierzu zählen beispielsweise internationale Standards wie die allgemeine Familie der ISO-9000-Standards oder branchenspezifische Regulatorien wie das deutsche Bilanzmodernisierungsgesetz (BilMoG) oder die europäischen finanzregulatorischen Vorgaben zu Basel III und MiFID. Die Sicherstellung von Process Conformance kann als Instrument zum Nachweis der Einhaltung bestimmter Vorgaben und Kontrollen eingesetzt werden und ermöglicht – falls es auf der Ebene von Instanzdaten implementiert wird – einen lückenlosen Nachweis von einzelnen Prozessen.X
Der regelmäßige Einsatz von Process Conformance Checking kann auch dazu beitragen, dass Geschäftsprozesse und deren Implementierung innerhalb von Anwendungssystemen weniger stark auseinanderdriften (engl. Business Alignment). In der Praxis werden zur Abbildung bestimmter Prozesse häufig Standard-Software-Systeme wie beispielsweise SAP ERP eingesetzt, welche nicht immer perfekt an die Besonderheiten eines Unternehmens angepasst werden können. Stattdessen werden als best practices bezeichnete Standardverfahren implementiert, welche unter Umständen den spezifischen Besonderheiten bestimmter Branchen nicht gerecht werden können.
Der allgemeinere Begriff Auditing bezeichnet darüber hinaus die Prüfung und Evaluation der Prozesspraktiken eines Unternehmens, um sicherzustellen, dass externe und interne Vorgaben erfüllt werden. Heutzutage erfolgt die Durchführung externer Audits meist auf Basis der Dokumentationen von Prozessbeschreibungen und ggf. stichprobenartigen Tests einer kleinen Teilmenge von Prozessausführungen. Process Conformance Checking stellt Auditoren ein mächtiges Instrument bereit, um die Auditierung schneller, umfassender und effizienter durchzuführen.
4.4.3.2 Token Replay
Das Konzept des Token Replay basiert auf der formalen Definition der PetriNetz-Notation und kann beispielsweise auf die Ergebnisse der Ausführung des Alpha Miner angewendet werden. Es basiert auf einer Erweiterung der Definition des Fitness-Kriteriums (vgl. Abschnitt 4.4.2.1) und erweitert dieses um eine explizite Berücksichtigung von im Netz vorhandenen und fehlenden Token (vgl. Van der Aalst, 2016, S. 246ff.). Die Fitness als Maß dafür, welcher Anteil des im Ereignislog vorhandenen Verhaltens durch ein Modell erklärt werden kann, ist am stärksten mit dem Konzept der Process Conformance verwandt. Das folgende Beispiel illustriert, warum Fitness für sich alleine aber nicht ausreichend ist, um das Maß der Conformance zu bestimmen.
Hierzu greifen wir das in Abschnitt 4.4.2.3 vorgestellte Ereignislog L wieder auf.
Ereignislog L
# Traces Anzahl in L
1
2
3
4
5
<a,b,c,d,e,g>
<a,b,c,d,f,g>
<a,c,d,b,f,g>
<a,b,d,c,e,g>
<a,d,c,b,f,g>
6
38
2
12
4
62
Nehmen wir an, dass die Conformance von Ereignislog L gegenüber drei verschiedenen Prozessmodellen M1, M2 und M3 überprüft werden soll. Zur Berechnung der Fitness wird nun die Anzahl der Traces betrachtet, die durch die jeweiligen Modelle abgebildet werden können. Nehmen wir nun weiter an, dass durch M1 alle Traces aus L, durch M2 die Traces 1, 2, 3 und 5 und durch M3 die Traces 2, 4 und 5 erklärt werden können, dann ergeben sich die folgenden Fitness-Werte:
𝑀1 = 62
62 = 1 𝑀2 = 50
62 = 0,806 𝑀3 = 54
62 = 0,871
Das Problem dieser Berechnung liegt darin, dass nur die exakte Reproduktion eines Trace dazu führt, dass diese positiv in das Maß der Conformance einfließt. Beispielsweise kann das Modell M2 nicht Trace 4 erklären; Trace 4 enthält aber die Teilsequenzen <a,b> und <e,g>, welche aber auch Teil von Trace 1 sind, die von M2 erklärt wird.
In das Maß der Fitness fließen also Teilübereinstimmungen nicht mit ein, was vor dem Hintergrund des eigentlichen Zwecks dieser Metrik auch kein Problem ist. Für den hier betrachteten Fall der Process Conformance ist sie aber zu restriktiv und widerspricht der Intuition: Ein Modell, welches 99 von 100 Aktivitäten eines Trace erklären kann, sollte durch ein geeignetes Conformance-Maß höher bewertet werden als ein Modell, welches nur 10 von 100 Aktivitäten des gleichen Trace erklären kann. Aus diesem Grund wird das Maß der Fitness auf die Betrachtung von Aktivitäten erweitert. Dies erlaubt eine genauere Analyse von abgebildeten Teilsequenzen eines Trace und vermittelt unter Realbedingungen einen wesentlich besseren Eindruck von der Conformance eines Modells.
Hierbei wird das folgende Vorgehen angewandt: Genau wie bei der Berechnung der Fitness wird versucht, alle Traces eines Ereignislogs anhand der Prozessmodelle, deren Conformance berechnet werden soll, durchzuspielen. Tritt hierbei ein Fehler auf, wird die Trace aber nicht wie bislang als nicht erfüllt gewertet. Vielmehr werden die Fehler genauer betrachtet, indem auf Basis der Token im Petri-Netz die folgenden Werte ermittelt werden:
p produced tokens: Anzahl der Token, die vom initialen Zustand des Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines Trace insgesamt durch Transitionen erzeugt werden.
c consumed tokens: Anzahl der Token, die vom initialen Zustand des Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines Trace insgesamt durch Transitionen konsumiert werden.
m missing tokens: Anzahl der Token, die vom initialen Zustand des Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines Trace insgesamt fehlten, d. h., die zur korrekten Auslösung von Transitionen notwendig gewesen wären.
r remaining tokens: Anzahl der Token, die vom initialen Zustand des Petri-Netzes aus betrachtet bis zum Ende des Durchspielens eines Trace insgesamt für das Auslösen von Transitionen fehlten.
Nach dem vollständigen Durchlaufen eines Trace innerhalb eines Modells M wird anhand der folgenden Formel die Fitness des Trace t berechnet (vgl. Rozinat, Van der Aalst, 2005, S. 14ff.):
𝑓𝑖𝑡𝑛𝑒𝑠𝑠 (𝑡, 𝑀) = 1
2 (1 − 𝑚
𝑐 ) + 1
2 (1 − 𝑟
𝑝)
Der erste Teil der Formel berechnet den Anteil der fehlenden Token m im Verhältnis zur Gesamtzahl aller konsumierten Token c. Dieser Wert wird von 1 subtrahiert, um die korrekten Beziehungen abzubilden: 1 − 𝑚
𝑐 = 1, wenn
kein Token verloren geht (m = 0), und 1 − 𝑚
𝑐 = 0, wenn alle konsumierten
Token verloren gehen (m = c). Das Gleiche gilt für den zweiten Teil der Formel, der das Verhältnis der verbleibenden Token r zur Anzahl der produzierten Token p angibt. Hierbei gilt: 1 − 𝑟
𝑝 = 0, wenn keines der produzierten
Token auch tatsächlich konsumiert wurde, und 1 − 𝑟
𝑝 = 1, wenn alle produzierten Token konsumiert wurden. Beide Teile der Formel werden gleich stark gewichtet (jeweils mit dem Faktor 1
2), um Fehlen von notwendigen Token (angegeben durch die Anzahl m) und das Überbleiben von Token (angegeben durch die Anzahl r) gleichermaßen negativ in die erreichte Fitness des Modells einfließen zu lassen.
Die vorgestellte Formel wurde bislang zur Berechnung der Fitness eines Trace t bezogen auf ein Prozessmodell M dargestellt. Darüber hinaus kann auch die Fitness eines vollständigen Ereignislogs L auf die gleiche Weise berechnet werden. Hierzu werden die Werte p, c, m und r der in L enthaltenen Traces aufaddiert und die gleiche Formel 𝑓𝑖𝑡𝑛𝑒𝑠𝑠 (𝐿, 𝑀) zur Berechnung der Fitness von M bezogen auf L verwendet.
Wichtig für die Interpretation der Ergebnisse der Fitness-Berechnung ist die in Abschnitt 4.4.3.1 bereits erwähnte Unterscheidung zwischen dem normativen und dem deskriptiven Charakter eines Modells.
• Besitzt das Modell einen normativen Charakter, d. h., formalisiert es zwingend einzuhaltende Vorgaben, von denen in der Realität nicht abgewichen werden darf, dann kann ein geringer Fitness-Wert wie folgt interpretiert werden: Das Ereignislog, also die Realität des Prozesses, verhält sich nicht konform zum Modell.
• Ist das Modell deskriptiv, d. h., beschreibt es das in der Realität beobachtete Verhalten eines Prozesses, dann beschränkt sich die Interpretation des Fitness-Wertes auf die Tatsache, dass das Modell nicht in der Lage ist, die Realität vollumfänglich zu erklären.
Die Berechnung der Conformance eines Modells nach der Methode des Token Replay kann dazu genutzt werden, das Ereignislog für weitere Analysen vorzustrukturieren und neue Hypothesen für die Untersuchung zu generieren.
Beispielsweise können abweichende von nicht abweichenden Prozessinstanzen getrennt und anschließend separat untersucht werden. Auf diese Weise kann das Ereignislog in homogenere Teilmengen aufgeteilt werden, die weniger Rauschen enthalten und besser interpretierbare Ergebnisse liefern. So kann untersucht werden, welche Gemeinsamkeiten zwischen abweichenden Prozessinstanzen bestehen und welche Charakteristika möglicherweise für die beobachtbaren Abweichungen verantwortlich sind. Hierzu eignen sich z. B. Resource-Map-Analysen zur Untersuchung der Zusammenarbeit verschiedener Prozessbeteiligter.
Weiterhin kann die Klassifizierung von abweichendem und nicht-abweichendem Prozessverhalten auch als Eingabe für die Anwendung von Machine-Learning-Algorithmen wie Decision Trees verwendet werden (vgl. Abschnitt 3.3.1). Basierend auf den im Ereignislog enthaltenen Prozessattributen (Eingabevariablen) kann damit eine Vorhersage von Abweichungen realisiert werden, welche dann wiederum bereits zur Laufzeit eines Prozesses mögliches Fehlverhalten und ungewünschte Abweichungen identifizieren kann.
4.4.3.3 Alignments
Die im vorherigen Abschnitt vorgestellte Methode Token Replay besitzt den großen Vorteil, dass sie für Prozessmodelle in der Petri-Netz-Notation formal nachweisbar ist und die Korrektheit eindeutig nachweisbar ist. Auch ist die Berechnung der Fitness-Metrik sowohl für einzelne Traces als auch für ganze Ereignislogs schnell durchführbar und leicht nachzuvollziehen. Gleichzeitig bringt die Methode aber zwei entscheidende Nachteile mit sich, die eine große Bedeutung für den Einsatz in der Praxis haben. Erstens ist sie auf den Einsatz innerhalb der Petri-Netz-Notation beschränkt und eignet sich nicht für den Conformance-Abgleich mit Prozessmodellen, die in anderen Notationen erstellt wurden. Zweitens existiert bei der Anwendung auf PetriNetzen die Tendenz, dass wenig restriktive Modelle stark bevorzugt werden. Beispielsweise erreichen Modelle, die jedes beliebige Prozessverhalten zulassen (also nicht stark auf das zu prüfende Ereignislog angepasst sind), in Bezug auf die Process Conformance einen hohen Fitness-Wert; dies ist im Sinne einer hohen Aussagekraft der Metrik aber nicht erwünscht.Um die genannten Probleme zu überwinden, wurde das Alignment-Konzept entwickelt. Es verfolgt die Zielsetzung, das im Ereignislog enthaltene Prozessverhalten besser mit dem modellierten Verhalten des Modells abzugleichen und dadurch eine detailliertere Diagnose der Process Conformance zu ermöglichen. Insbesondere sollen abweichende Prozessinstanzen genauer untersucht werden, um festzustellen, an welchen Stellen Differenzen zwischen Ereignislog und Prozessmodell vorliegen. Dadurch kann beispielsweise festgestellt werden, ob einzelne Aktivitäten übersprungen werden oder ob exklusive Prozesspfade in der Realität parallel ausgeführt werden.
Im Gegensatz zur Token Replay Methode können Alignments auf alle Prozessmodellierungsnotationen angewendet werden und sind damit für den Einsatz in der Praxis häufig besser geeignet. Im Folgenden wird zunächst eine intuitive Einführung in das Konzept der Alignments vorgenommen, um die grundlegende Idee und Funktionsweise zu erläutern. Anschließend werden Eigenschaften „guter“ und „schlechter“ Alignments definiert, um aus der Güte Rückschlüsse auf die Process Conformance ziehen zu können.
Abbildung 28: Beispielprozess für Process-Conformance-Analysen mittels Alignments
Zur Verdeutlichung von Process Alignments betrachten wir den in Abbildung 28 dargestellten Beispielprozess. Nach den semantischen Regeln der verwendeten EPK-Notation (vgl. Abschnitt 2.3.1) erlaubt dieses Modell nach der Ausführung der Aktivität a die parallele Ausführung der Prozesspfade <b,c> und <d,e>, bevor der Prozess mit der Aktivität f beendet wird. Demzufolge können die Traces t1 = <a,b,c,d,e,f> und t2 = <a,d,e,b,c,f> durch das Modell erklärt werden, ebenso wie t3 = <a,b,d,c,e,f> und t4 = <a,b,d,e,c,f>. Da die parallelen Teilpfade keine pauschale Aussage über die Reihenfolge der Aktivitäten zulassen, muss also nicht zwingend <b,c> oder <d,e> ausgeführt werden, bevor eine Aktivität aus einem anderen Pfad auftreten darf. Es ist ebenfalls ersichtlich, dass nicht jede beliebige Trace durch das Modell erklärt werden kann; ein Beispiel für ein nicht abbildbares Trace ist t5 =<b,c,d,e,f,a>, da jeder Prozess mit der Aktivität a starten muss. Die Traces t1, t2, t3 und t4 werden in Kombination mit dem Beispielprozess als perfekte Alignments bezeichnet, da sie vollumfänglich durch das Modell erklärt werden können. Alignments werden mit dem Buchstaben γ bezeichnet und durch zweizeilige Tabellenstrukturen, wie nachfolgend dargestellt, beschrieben (vgl. Van der Aalst, 2016, S. 257ff.).
γ1 = a b c d e f
a b c d e f
Die obere Zeile entspricht einem Prozesspfad innerhalb des Ereignislogs, während die untere Zeile einem Prozesspfad innerhalb des Modells entspricht. Das Alignment γ1 entspricht dem Trace t1 und ist optimal, da jeder Schritt im Ereignislog durch einen entsprechenden Schritt im Modell erklärt werden kann. Ebenso ist das folgende Alignment γ2 optimal, welches dem Trace t3 entspricht:
γ2 = a b d c e f
a b d c e f
Die mit dem Modell nicht abbildbare Trace t5 würde gemäß der Darstellung zum folgenden Alignment γ3 führen:
γ3 = >> b d c e f
a b d c e f
Durch das Symbol >> wird eine Diskrepanz zwischen den Prozesspfaden des Ereignislogs und dem Modell ausgedrückt; im Fall von γ3 wird beispielsweise die durch das Modell vorgeschriebene Aktivität a vor der folgenden Aktivität b nicht im Ereignislog abgebildet, wodurch es zu einer Verschiebung der Aktivitäten kommt. Diskrepanzen können in beiden Zeilen auftauchen. Im vorliegenden Fall ist γ3 die beste Lösung und stellt daher das sogenannte optimale Alignment dar.
Optimale Alignments bezeichnen die Ausrichtung zwischen den Prozesspfaden eines Ereignislogs und eines Prozessmodells, d. h. diejenige Ausrichtung, welche die geringste Anzahl an Diskrepanzen aufweist.
Zu jeder Kombination von Prozesspfaden aus Ereignislog und Prozessmodell existiert eine unendliche Anzahl an Alignments. Zur Bestimmung eines optimalen Alignments werden Diskrepanzen mit Kosten belegt und anschließend dasjenige Alignment mit den geringsten Kosten ausgewählt. Wird beispielsweise jede >> Aktion mit den Kosten 1 und jede perfekte Ausrichtung (gleiche Aktivität in Ereignislog und Modell) mit den Kosten 0, so hat das perfekte Alignment ebenfalls Gesamtkosten von 0 und das optimale Alignment die minimalen Kosten ≥ 0. Zur Errechnung einer mit der Fitness-Metrik vergleichbaren Kennzahl kann eine Transformation der Gesamtkosten auf den Wertebereich zwischen 0 und 1 durchgeführt werden. Kosten können darüber hinaus dazu verwendet werden, das Conformance Checking nach spezifischen Anforderungen zu konfigurieren. Aus fachlicher Sichtwichtige Prozessaktivitäten können mit höheren Kosten belegt werden, sodass Abweichungen zwischen diesen Aktivitäten zu einer überproportional stärkeren Abnahme der Conformance führen.
Die Beispiele veranschaulichen die Vorteile von Alignments: Durch die detaillierte Berücksichtigung von Abweichungen auf der Ebene einzelner Prozesspfade kann eine genauere Analyse für den Gesamtprozess durchgeführt werden. So lässt sich beispielsweise zwischen dem Überspringen von Aktivitäten, einer geänderten Reihenfolge bei der Durchführung oder zusätzlichen Aktivitäten in Ereignislog und Modell sicher unterscheiden.
4.4.4 Process Enhancement
Die Verbesserung von Prozessen und Prozessmodellen (engl. Process Enhancement) auf Basis der Analyse durch Process Discovery, Process Conformance Checking sowie anderer Methoden stellt den letzten Schritt innerhalb des Process Mining Lifecycle dar (vgl. Abbildung 21). Im Gegensatz zu den bisherigen beiden Phasen lassen sich für diesen Schritt keine konkreten Methoden oder allgemeingültigen Empfehlungen aussprechen. Die Verbesserung eines Prozesses hängt von der spezifischen Zielsetzung und einer Reihe organisatorischer Rahmenbedingungen ab:
• Ziel der Untersuchung: Hierbei muss festgelegt werden, welches Ziel durch die Prozessverbesserung erreicht werden soll. Beispielsweise könnten im Rahmen der Analysen verschiedene Schwachstellen innerhalb der untersuchten Prozesse identifiziert worden sein, die nun entsprechend korrigiert werden sollen. Beispiele hierfür sind permanente Verzögerungen in bestimmten Prozessschritten, welche durch das Fehlen von notwendigen Daten begründet sind. An dieser Stelle kann eine verpflichtende Prüfung auf Vollständigkeit im Rahmen der Datenerfassung zu einer Verbesserung des Prozesses führen.
• Beeinflussbarkeit des Prozesses: Neben der grundsätzlichen Zielsetzung muss ebenfalls berücksichtig werden, welche Teile des Prozesses durch mögliche Verbesserungsmaßnahmen überhaupt beeinflusst werden können. Handelt es sich um externe Prozesse, die außerhalb der Zuständigkeit des eigenen Unternehmens liegen, bietet sich in der Praxis häufig keine Möglichkeit, direkten Einfluss auf die Ausgestaltung des Prozesses zu nehmen. Eine Verbesserung kann in einem solchen Fall aber z. B. in einer Optimierung der Schnittstelle zwischen internen und externen Prozessabläufen liegen.
• Unterstützende Software: Im Rahmen der Bewertung von Verbesserungsmaßnahmen ist außerdem zu berücksichtigen, welchen Einfluss diese auf die Implementierung in der verwendeten Software haben. Bei der Umsetzung weiterer Prüfschritte innerhalb einer StandardSoftware spielt etwa die technische Realisierbarkeit bzw. die Möglichkeiten des Customizing (beispielsweise im SAP-Kontext) eine zentrale Rolle.
• Modellintention: Besitzt das Modell einen normativen Charakter und modelliert es unbedingt einzuhaltendes Verhalten, von dem aus fachlicher Sicht nicht abgewichen werden darf, so sind Fragen nach der Prozessanpassung anders zu handhaben als bei deskriptiven Modellen. Bei normativen Modellen müssen sich die Anpassungen darauf konzentrieren, Mechanismen zur Sicherstellung der korrekten Ausführung zu implementieren. Sind die Vorgaben des Modells nicht so strikt, kann über eine Änderung des Modells selbst nachgedacht werden, wenn in der Realität eine abweichende, aber fachlich sinnvolle Alternative zum modellierten Verhalten beobachtet werden konnte.
Eine große Bedeutung kommt der Anpassung der Prozessmodelle zu. Hierbei geht es insbesondere darum, existierende Modelle um die aus der Analyse von Ereignislogs gewonnenen Informationen zu erweitern. Stellt sich als Ergebnis einer Process-Conformance-Analyse beispielsweise heraus, dass das in der Realität gelebte Prozessverhalten vom modellierten Soll Verhalten abweicht, so kann eine Anpassung dieser Modelle notwendig werden. Grundsätzlich lassen sich zwei verschiedene Anpassungstypen unterscheiden:
(1) Anpassung des Modells an die Realität, um sicherzustellen, dass diese korrekt abgebildet wird. Je nach Art der Anpassung am Modell und der Art der Modellierung durch eine entsprechende Software kann diese durch Vorschläge unterstützt oder automatisiert durchgeführt werden. Zeigt sich im Rahmen der Analyse beispielsweise, dass ein bestimmter Prozesspfad niemals ausgeführt wird, kann das Entfernen aus dem Modell automatisch geschehen. Auch neue Pfade, die im aktuellen Modell nicht enthalten sind, können automatisiert hinzugefügt werden. Wichtig ist, dass jegliche Art der Prozessanpassung unter direkter Einbeziehung des Prozessverantwortlichen sowie des zuständigen Fachbereichs geschieht.
(2) Erweiterung des Modells zur Verbesserung seiner Aussagekraft. Bei dieser Art der Modellanpassung werden aus dem Ereignislog abgeleitete Daten verwendet, um Zusatzinformationen zu annotieren. Zum Beispiel können Performance-Informationen zur durchschnittlichen, maximalen und minimalen Durchlaufzeit an einzelne Prozessaktivitäten angefügt werden, um ein besseres Prozessverständnis im Rahmen von Schulungen zu vermitteln. Außerdem können häufig von weniger häufig ausgeführten Prozessschritten unterschieden werden, um einen genaueren Eindruck von der Relevanz bestimmter Prozessstrukturen zu vermitteln. Um die Wirksamkeit von Enhancement-Aktivitäten in der Praxis zu überprüfen und sinnvoll evaluieren zu können, kann eine Operationalisierung von Process-Mining-Ansätzen eingesetzt werden. Diese können eine Überwachung von zentralen Kennzahlen und die Einhaltung von gewünschtem Prozessverhalten ermöglichen und bei Abweichungen frühzeitig auf mögliche Probleme hinweisen.
4.4.5 Operational Process Mining
Die in den vorangegangenen Abschnitten präsentierten Methoden zeigen verschiedene Möglichkeiten auf, wie Prozesse auf der Basis von Ereignislogs nach ihrer Ausführung analysiert werden können. Während diese Untersuchung von historischen Daten viele wertvolle Informationen für die Verbesserung von Prozessen liefern kann, wird die Ausführung von aktuell laufenden Prozessinstanzen dadurch nicht beeinflusst. Das Process Mining Manifesto definiert als sechstes Guiding Principle „Process Mining Should be a Continuous Process“ und hebt damit die Notwendigkeit einer kontinuierlichen Prozessbetrachtung hervor (Van der Aalst et al., 2012, S. 184).
Dies motiviert die Entwicklung des sogenannten Operational Process Mining, welches auf operative Geschäftsabläufe ausgerichtet ist und den Zweck hat, aktiv in laufende Prozessinstanzen einzugreifen. Im Gegensatz zu den bislang betrachteten Ereignislogs, welche nur abgeschlossene Prozessinstanzen beinhalteten und offline analysiert wurden, werden hierzu auch laufende, noch nicht abgeschlossene Prozessinstanzen online betrachtet.
Dadurch ergeben sich verschiedene Möglichkeiten zur Beeinflussung laufender Prozessausführungen, die in Abbildung 29 zusammengefasst sind (vgl. Van der Aalst, 2016, S. 301ff.). Die betrachtete Prozessinstanz ist noch nicht abgeschlossen, dementsprechend liegen zu einem bestimmten Zeitpunkt (in der Grafik durch die gestrichelte Linie symbolisiert) gesicherte Informationen über die Prozesshistorie vor, die sowohl die Prozessablauflogik als auch den Prozesskontext betreffen („Welche Aktivitäten wurden ausgeführt?“, „Wie lange dauerte die Ausführung?“, „Wer war an der Ausführung beteiligt?“).
Abbildung 29: Operational Process Mining
Aus der bisher bekannten Prozesshistorie lassen sich verschiedene Erkenntnisse für die Zukunft des Prozesses ableiten. Eine Vorhersage von Prozessabläufen oder Prozessparametern kann beispielsweise durch Vorhersagemodelle ermöglicht werden. Hierzu werden auf einer großen Anzahl an historischen Prozessdaten Modelle trainiert, die als Eingabe eine noch nicht abgeschlossene Prozessinstanz erwarten und auf Basis der bislang vorliegenden Informationen (der bekannten Prozesshistorie für diese Instanz) eine Vorhersage für den weiteren Ablauf treffen. Beispiele für mögliche Vorhersagen sind die:
• erwartete Durchlaufzeit einer Prozessinstanz bis zur Beendigung,
• Wahrscheinlichkeit, dass eine bestimmte Frist eingehalten wird,
• voraussichtlichen Kosten der Prozessausführung,
• wahrscheinlichste nächste Aktivität im Prozessverlauf oder
• Wahrscheinlichkeit, dass eine bestimmte Aktivität noch ausgeführt wird.
Zur Vorhersage selbst können je nach Art der vorhergesagten Variable unterschiedliche Methoden eingesetzt werden. Sollen beispielsweise numerische Werte vorhergesagt werden (z. B. Anzahl der Minuten bis zum Prozessende oder die Kosten der Prozessausführung), so eignen sich Regressionsverfahren für die Prädiktion. Bei kategorialen Daten (z. B. wird eine Frist eingehalten oder nicht) können Klassifikationsverfahren wie Entscheidungsbäume zum Einsatz kommen. Liegen sehr viele historische Ausführungsdaten vor, mit denen Machine-Learning-Modelle angelernt werden können, so ist auch der Einsatz von Deep-Learning-Verfahren denkbar. Eine zweite Möglichkeit besteht in der Erkennung von Prozessabweichungen zur Laufzeit. Ein Beispiel hierfür ist das Auslassen von erwarteten Aktivitäten wie eine vorgeschriebene Prüfung im Prozessverlauf. Damit entspricht die Erkennung von Abweichungen in gewissem Sinne einer Process-Conformance-Prüfung während der Ausführung einer Prozessinstanz. Zur Behandlung der erkannten Abweichung sind verschiedene Alternativen denkbar. Über eine Nachricht könnte dem Prozessausführenden ein Hinweis auf einen möglichen Regelverstoß gegeben werden, sodass dieser noch einmal geprüft werden kann. Alternativ könnte auch die gesamte Prozessausführung gestoppt werden, bis die notwendige Aktivität ausgeführt wurde und der Prozess damit der vorgesehenen Logik folgt.
Die dritte Möglichkeit, eine laufende Prozessausführung operativ zu unterstützen, liegt in der Empfehlung von sinnvollen Handlungsalternativen basierend auf dem bisherigen Prozessverlauf. Diese Option ist ähnlich zur Vorhersage in dem Sinne, dass die bisher ausgeführten Schritte der laufendeProzessinstanz dazu verwendet werden, um eine mögliche Vorhersage darüber zu treffen, welche Handlungen als nächste empfohlen werden können.
Beispiele hierfür sind Handlungen zur:
• Minimierung der verbleibenden Prozessdurchlaufzeit,
• Minimierung der Ressourcennutzung oder
• Maximierung des Anteils korrekter Prozessdurchläufe.
Empfehlungen können in den meisten Fällen niemals optimale Ergebnisse garantieren, da sich eine Empfehlung mit dem Fortschreiten der Prozessausführung in der Zukunft auch ändern kann. Sie ist daher immer als eine zeitbezogene Handlungsanweisung zu betrachten und nicht als sichere Entscheidung für eine bestimmte Alternative.
4.5 Process Mining in der Praxis
4.5.1 Marktübersicht
Heute verfügbare Process-Mining-Software lässt sich grundsätzlich in Tools aus dem akademischen Umfeld und kommerzielle Anwendungen unterteilen. Da Process Mining seinen Ursprung in der Wissenschaft hat, handelt es sich nicht nur um eine außerordentlich formale und detailliert dokumentierte Methode, sondern es existiert auch eine breit ausdifferenzierte Landschaft an quelloffenen Software-Lösungen.
Nach einer Schätzung des Marktforschungsunternehmens Gartner aus dem Jahr 2018 beträgt das geschätzte Marktvolumen für Process-Mining-Software etwa 160 Millionen US-Dollar (Gartner, 2019). Durch die zunehmende Bekanntheit von Process Mining und die damit einhergehende Marktadaption entsprechender Lösungen geht Gartner zudem von einer Verdreifachung bis Vervierfachung des Marktvolumens innerhalb der nächsten zwei Jahre aus. Als Problem für das schnelle Erreichen dieser Volumina wird aktuell vorrangig das vergleichsweise langsame Wachstum der Software-Anbieter gesehen, welche den Bedarf am Markt nur unzureichend bedienen können. Weiterhin gehen die Experten davon aus, dass um das Geschäftsfeld der Software-Lizenzen ein Markt für Beratungs- und Dienstleistungen entstehen wird, dessen Größe die des Lizenzgeschäfts deutlich übersteigen wird.
In den beiden folgenden Abschnitten wird eine Auswahl von Process-Mining-Lösungen aus dem akademischen und dem kommerziellen Marktumfeld präsentiert. Diese soll einen Eindruck der heute verfügbaren, unterschiedlichen Software vermitteln und erhebt nicht den Anspruch auf eine vollständige Beschreibung der Tool-Landschaft. Umfassende und aktuelle Darstellungen von Software-Anbietern im Bereich Process Mining finden sich z. B. bei Gartner (2019) und Peters & Nauroth (2018, S. 41ff.). Basierend auf der Untersuchung der aktuell verfügbaren Marktlösungen hat Gartner zehn Potentiale (engl. Capabilities) zusammengestellt, welche durch Process-Mining-Software abgebildet werden (vgl. Gartner, 2019).
• Automatisiert Entdeckung von Prozessmodellen, Ausnahmen und Prozessinstanzen unter der Angabe von einfachen Ausführungshäufigkeiten und statistischen Auswertungen,
• Automatisierte Entdeckung und Analyse von Kundeninteraktionen und Abgleich mit internen Prozessen,
• Erweiterung der Fähigkeiten zur Datenaufzeichnung für Aktivitäten, die keine strukturierten Transaktionen oder Ereignislogs erzeugen (z.B. E-Mail oder Microsoft Excel),
• Untersuchung der Process Conformance und Fehleranalyse nicht nur durch grafische Verfahren, sondern auch durch detaillierte Datenund Performance-Analysen,
• Intelligente Unterstützung für die Verbesserung von Prozessmodellen durch zusätzliche Informationen, die aus der Analyse der Ereignislogs gewonnen werden,
• Unterstützung für die Datenvor- und -aufbereitung, insbesondere bei großen Datenmengen (Big Data),
• Bereitstellung von Dashboards zur Visualisierung wichtiger Kennzahlen und kontinuierliche Überwachung von Prozessen zur Entscheidungsunterstützung,
• Prädiktive Analysen zur Vorhersage und Simulation verschiedener Szenarien unter Einbezug von Daten aus dem Prozesskontext,
• Bereitstellung einer Plattform zur Erweiterung von Process-Mining-Funktionalitäten über verschiedene Prozesse hinweg durch Advanced Analytics; Bereitstellung von API-Schnittstellen zu Basisfunktionalität, um die Entwicklung von dedizierten Process-Mining-Anwendungen für Anwendungsszenarien wie Finanzprüfungen zu ermöglichen,
• Unterstützung für die Untersuchung von Interaktionen zwischen unterschiedlichen Prozessen und deren wechselseitige Beeinflussung (im Unterschied zu verschiedenen Instanzen des gleichen Prozesses). Nicht jede der genannten Funktionen ist durch jede Software abgebildet, vielmehr zeigt die Liste der Fähigkeiten das heute am Markt verfügbare Spektrum an Funktionalitäten.
4.5.1.1 Akademische Process-Mining-Software
Wissenschaftliche Software-Lösungen wie bupaR und ProM haben einen anderen Fokus als kommerziell nutzbare Tools. Beispielsweise dient ProM der Forschung und Erprobung von wissenschaftlichen Erkenntnissen in praktisch anwendbaren Implementierungen. Die Zielgruppe der Software sind insbesondere Wissenschaftler und interessierte Anwender, die über ein technisches Grundlagenverständnis der verwendeten Konzepte verfügen.
Dementsprechend bietet auch die grafische Nutzeroberfläche der Software viele Möglichkeiten zur Anpassung der enthaltenen Funktionen und legt keinen Fokus auf eine möglichst intuitive Benutzbarkeit. Die Software-Bibliothek bupaR ermöglicht die Nutzung von Process-Mining-Algorithmen innerhalb von Data-Science-Projekten, indem sie eine Anbindung an die statistische Skriptsprache R bietet. Durch die enge Anbindung an diese Ökosysteme kann das Tool schnell mit bestehenden Analyse-Workflows integriert werden. Die Zielgruppe stellen auch hier Nutzer mit einer hohen technischen Expertise dar, die hohe Flexibilität bei der Konfiguration der Algorithmen benötigen. Abbildung 30 stellt die zwei zentralen und frei verfügbaren Software-Lösungen aus dem akademischen Umfeld näher vor.
Software/ Anbieter Beschreibung
bupaR4
Hasselt University
Research Group Business Informatics
bupaR ist eine quelloffene Sammlung von integrierten R-Paketen zur Verarbeitung von Prozessdaten. Sie besteht aus insgesamt acht verschiedenen Paketen, die unterschiedliche Stufen innerhalb von Process-Mining-Projekten unterstützen.
Neben der Kernfunktionalität enthält bupaR Pakete zum schnellen Zugriff auf frei verfügbare Ereignislogdaten (eventdataR), zur animierten Visualisierung von Prozessdurchläufen (processanimateR) und zur Realisierung von Prozess-Dashboards zur Darstellung von Kennzahlen (processmonitR).
Ein Vorteil der Implementierung innerhalb der R-Software-Umgebung ist die Möglichkeit zur Nutzung beliebiger R-Funktionen zum Datenimport, zur Datenvorverarbeitung sowie zur Datenmanipulation (z. B. Listen, Matrizen, Dataframes).
ProM5
Process Mining
Groups at TUE and
RWTH
ProM (als Abkürzung für Process Mining Framework) stellt ein quelloffenes Framework für Process-Mining-Algorithmen dar. Historisch gesehen ist ProM eine der ältesten Software-Lösungen und hat ihren Ursprung in der akademischen Forschung. ProM ist als Standalone- Software konzipiert und kann als Anwendung auf einer Vielzahl von Betriebssystemen lokal ausgeführt werden.
Das Framework ist modular aufgebaut und kann durch eigene Plug-ins beliebig erweitert werden. Nahezu alle in der Wissenschaft diskutierten Process-Mining-Algorithmen sind als Plug-in für ProM verfügbar und können in der Umgebung ausgeführt werden. Darüber hinaus finden sich für die meisten Plug-ins wissenschaftliche Publikationen, welche die technischen Details der Ansätze und Konfigurationsmöglichkeiten erläutern.
Neben der eigentlichen Software verfügt ProM über eine aktive Community, die sowohl aus Vertretern der Wissenschaft als auch Praxisvertretern besteht. Diese diskutieren die Entwicklung aktueller Ansätze und sorgen für eine regelmäßige Veröffentlichung neuer Software-Versionen.
Abbildung 30: Übersicht zu akademischen Process-Mining-Lösungen
4.5.1.2 Kommerzielle Process-Mining-Software
Der Markt für kommerzielle Process-Mining-Software ist relativ jung und war in den vergangenen Jahren einem massiven Wandel unterworfen. Im Gegensatz zu wissenschaftlichen Software-Lösungen sind kommerzielle Lösungen für den schnellen Einsatz in der Unternehmenspraxis optimiert. Sie erlauben es, mit relativ geringem Aufwand und einer benutzerfreundlichen Bedienoberfläche Process-Mining-Analysen auszuführen und die Ergebnisse schnell und übersichtlich zu visualisieren.
Die Bandbreite reicht hierbei von Einzelplatzanwendungen über Web-basierte Systeme mit einer zentralen Komponente zur Datenverarbeitung bis hin zu vollintegrierten Lösungen, die Daten aus operativen Systemen replizieren oder direkt auf diesen aufsetzen. Häufig existieren hierbei auch standardisierte Schnittstellen für die Anbindung an ERP-Systeme wie SAP.
Einzelplatzanwendungen wie Disco werden auf einem einzelnen Computer ausgeführt und eignen sich insbesondere für die flexible Analyse mittelgroßer Datenbestände und die schnelle Exploration eines Datensatzes. Mehr Flexibilität in Bezug auf den Zugriff und die Skalierbarkeit der Rechenleistung bringen Web-basierte Systeme wie Minit oder PAFnow, welche die notwendige Rechenleistung an einem zentralen Server bündeln und für verschiedene Client-Anwendungen bereitstellen, was insbesondere die Analyse von größeren Datenmengen und die gemeinsame Arbeit an einem Datensatz erlaubt. Vollintegrierte Lösungen wie Celonis Process Mining besitzen dedizierte Komponenten zum automatisierten Import von Daten aus operativen Systemen und zur Integration von verschiedenen Datenquellen in einer einheitlichen Datenbasis. Sie eignen sich für den regelmäßigen Einsatz von Process Mining, beispielsweise in Form einer permanenten Prozessüberwachung mittels Dashboard-Lösungen und einer laufenden Kontrolle auf unerwünschte Abweichungen. Celonis arbeitet auf Basis einer sogenannten InMemory-Datenbank (SAP HANA), welche es erlaubt, große Datenmengen im Terabyte-Bereich mit sehr geringen Zugriffszeiten zu verarbeiten. Die Lösung ist daher vor allem für Anwendungsszenarien geeignet, in denen sehr viele Daten anfallen und laufend analysiert werden müssen.
Abbildung 31 stellt die zwei zentralen Process-Mining-Lösungen aus dem kommerziellen Bereich als Beispiele für eine Einzelplatzanwendung sowie eine vollintegrierte Lösung näher vor.
Software/ Anbieter Beschreibung
Disco6
Fluxicon
Disco ist eine einfach zu verwendende Einzelplatzanwendung zur Durchführung von Process-Mining-Analysen, die als kommerzieller Ableger aus dem quelloffenen ProM hervorgegangen ist. Sie hat einen starken Fokus auf die Bereiche Process Discovery und Conformance Checking und richtet sich mit der Art der Visualisierung auch an technisch weniger versierte Fachanwender. Zur Vereinfachung von komplexen Prozessmodellen, die als Resultat von Process Discovery entstehen, verfügt Disco über eine konfigurierbare Darstellung, um die Zahl der darzustellenden Aktivitäten sowie der Pfade des Modells zu beeinflussen.
Darüber hinaus bietet Disco eine große Zahl an Möglichkeiten, um Ereignislogs nach konfigurierbaren Kriterien zu filtern (z. B. Performance, Varianten, Zeitabschnitte im Log) und die Ergebnisse in einer Vielzahl von Formaten zu exportieren.
Celonis Process Mining
Celonis
Celonis ist mit Stand September 2019 der Marktführer im Bereich Process Mining und bei mehr als 600 Kunden weltweit im Einsatz. Der Schwerpunkt der als Intelligent Business Cloud bezeichneten Plattform liegt in der Integration von Process-Mining-Funktionalität mit anderen Micro-Services der Plattform. Diese erlauben die Nutzung der Prozessdaten für Machine-Learning-Anwendungen oder die automatische Analyse von Kennzahlen auf Basis historischer Daten. Bedingt durch den starken Fokus auf Großunternehmen bringt Celonis eine Vielzahl von Komponenten zur nativen Integration in beispielsweise SAP HANA oder Salesforce-Systeme mit. Durch diese direkt einsetzbaren Schnittstellen werden der schnelle Zugriff auf Daten aus operativen Systemen und die Überwachung von Prozessen in Echtzeit ermöglicht, ohne den Umweg über einen (manuellen) dateibasierten Datenexport und -import in einer Process-Mining-Anwendung zu gehen.
Abbildung 31: Übersicht zu kommerziellen Process-Mining-Lösungen
Die vorgestellten Process-Mining-Lösungen beinhalten eine Vielzahl unterschiedlicher Methoden zur Prozessdatenanalyse und eignen sich zur Untersuchung und Visualisierung verschiedener Prozessaspekte sowie deren Zusammenhängen und Ablaufstrukturen. Die im folgenden Abschnitt beschriebenen Methoden sind in unterschiedlichen Software-Werkzeugen, sowohl im Bereich von kommerziellen Lösungen als auch von Open-Source-Projekten, enthalten.
4.5.2 Methodenübersicht Process Mining
Im Folgenden wird eine Auswahl an Methoden beispielhaft anhand des quelloffenen Frameworks bupaR vorgestellt und inhaltlich erläutert (vgl. bupaR, 2019). Einige der behandelten Methoden bieten unterschiedliche Visualisierungsformen für gleichartige Sachverhalte, setzen dabei aber einen anderen Fokus. Der Vorteil dieser großen Bandbreite möglicher Visualisierungen liegt insbesondere darin, dass sie für die visuelle Inspektion eines Ereignislogs genutzt werden können und durch die Fokussierung unterschiedlicher Perspektiven jeweils einen anderen Zugang zu den analysierten Prozessdaten bieten. Aus diesem Grund können sie gerade im Rahmen der Exploration und Hypothesengenerierung (vgl. Phase 1 in Abschnitt 4.2.2) wirkungsvoll eingesetzt werden.
Process Map: Die Process-Map-Darstellung (Abbildung 32) dient zur Visualisierung des tatsächlichen Prozessflusses basierend auf den importierten Ereignislogdaten.
Abbildung 32: Process Map
• Im Log enthaltene Aktivitäten werden durch Knoten in der Darstellung repräsentiert, hierbei gibt die Farbe des Knotens Aufschluss über die Häufigkeit des Auftretens (je dunkler, desto häufiger).
• Kantenbeziehungen zwischen den Knoten kennzeichnen den Prozessfluss, d. h. die mögliche Abfolge einzelner Events im zeitlichen Verlauf.
• Für die Kantenbeziehungen lassen sich verschiedene Maßzahlen anzeigen, bspw. die absolute Anzahl der Übergänge zwischen Events oder die durchschnittliche Dauer eines Übergangs. Diese Darstellung dient insbesondere zur Analyse von Prozessstrukturen, deren Zusammenhängen und der Ablaufreihenfolge von Prozessaktivitäten. Durch die Darstellung von Ausführungshäufigkeiten an den Kanten zwischen einzelnen Aktivitäten und deren visueller Färbung sind zentrale Prozessbestandteile zudem schnell erkennbar. Wie in Abschnitt 4.4.2.1 ausführlich beschrieben, besitzt die Process-Map-Darstellung keine Semantik im Sinne einer Modellierungskonvention und enthält daher keine expliziten Prozessverzweigungen, sodass Exklusivität und Parallelität von Aktivitäten nicht erkennbar sind.
Vorgänger-/Nachfolger-Matrix: Die Vorgänger-/Nachfolger-Matrix (Abbildung 33) erlaubt eine Visualisierung von direkten Beziehungen zwischen zwei einzelnen Events innerhalb des Logs.
• Hierdurch lässt sich ein Überblick über Verteilungen von Vorgänger-/Nachfolger-Beziehungen erstellen, wobei die Intensität der farblichen Markierung eines Eintrags wiederum mit der Anzahl der Einträge zusammenhängt.
• Die Darstellung gibt einen Überblick zur Stringenz eines Prozessablaufs und zum Zusammenhalt einzelner Pfade: Viele Vorgänger/Nachfolger zu einer Aktivität weisen gegenüber wenigen Vorgängern/Nachfolgern auf häufigere Verzweigungen hin.
Abbildung 33: Vorgänger-/Nachfolger-Matrix
Die Darstellung der direkten Vorgänger und Nachfolger einzelner Prozessaktivitäten in einer Matrix vermittelt einen schnellen Überblick über die Zusammenhänge von Prozessstrukturen. Darüber hinaus ermöglicht die Datenstruktur die einfache Filterung von Aktivitäten nach Häufigkeiten, sodass beispielsweise nur Aktivitäten mit einer bestimmten Mindestzahl an Vorgängern oder Nachfolgern für weitere Analysen berücksichtig werden können.
Trace-Analyse: Mit Hilfe einer Trace-Darstellung (Abbildung 34) lassen sich einzelne Prozessvarianten gegenüberstellen.
Abbildung 34: Trace-Analyse
• Gleiche Prozesspfade werden entsprechend zusammengefasst und die relative Häufigkeit in prozentualer Form angegeben.
• Ein Vorteil dieser Darstellung ist unter anderem die direkte Erkennbarkeit von Überschneidungen in einzelnen Prozessvarianten, in dieser Ansicht z. B. die immer gleich durchgeführten Startereignisse.
• Weiterhin lassen sich auch einzelne Prozessfragmente in den Cases entsprechend analysieren und somit gleiche Aktivitätsabfolgen innerhalb verschiedener Cases identifizieren.
Die Trace-Darstellung von Prozessvarianten vermittelt einen schnellen Überblick über die im Ereignislog vorhandenen Prozessstrukturen und deren Verteilung. Durch die Einfärbung gleicher Teil-Traces in gleicher Farbe sind Entscheidungs- und Bündelungspunkte im Prozessverlauf gut erkennbar. Weiterhin lassen sich Wiederholungen und Schleifen von Aktivitäten leicht identifizieren.
Zeitliche Verteilungen (Abbildung 35): Visualisierung der Verteilungen von Prozessinstanzen und deren einzelnen Aktivitäten geordnet nach Durchlaufzeit oder prozentualer Verteilung.
Abbildung 35: Zeitliche Verteilungen
• Ziel dieser Methode ist es, eine direkte Darstellung der Verteilung von zeitlichen Ausreißern zu erstellen.
• Ein weiterer Vorteil ist die Darstellung von Liegezeiten innerhalb einzelner Cases, bis eine Folgeaktivität im Prozess durchgeführt wird.
• Der Farbverlauf der einzelnen Aktivitäten gibt einen ersten Eindruck über Start- und Endereignisse sowie welche Aktivitäten in welcher Reihenfolge abgearbeitet wurden. Die Darstellung kann dabei helfen, eine strukturell bedingte Verzerrung der Datenbasis in Bezug auf die Durchlaufzeiten der Prozessinstanzen zu erkennen und im Rahmen der Datenvorbereitung entsprechend zu berücksichtigen. Im obigen Beispiel ist eine sogenannte Short-Head-Long-Tail-Verteilung zu erkennen. Bei dieser Form der Datenverteilung wird ein Großteil der Daten durch den Short Head charakterisiert, dessen Datenpunkte relativ nahe zusammenliegen (im Beispiel Prozessvarianten mit weniger als einer Woche Durchlaufzeit). Der übrige Teil der Daten liegt im Long Tail und besitzt eine wesentlich größere Streuung und umfasst weniger zusammengehörige Datenpunkte. Bezogen auf die Durchlaufzeiten eines Prozesses könnte eine Zuordnung zum Short Head oder Long Tail darüber Aufschluss geben, wie eine Abweichung beispielsweise auf ungewöhnliches Prozessverhalten zu beurteilen ist. Eine stark überdurchschnittliche Durchlaufzeit deutet üblicherweise auf ein grundsätzliches Problem hin, welches auch eine Erklärung für Unterschiede im Prozessablauf darstellen könnte.
Resource Map (Abbildung 36): Zur Process Map analoge Darstellung vorhandener Ressourcen und deren Beziehungen untereinander.
Abbildung 36: Resource Map
• Hier wird auf einen Blick ersichtlich, welche Abteilungen bzw. Ressourcen innerhalb eines Prozesses in Abhängigkeit zueinanderstehen und interagieren.
• Die Darstellung lehnt sich an die Process-Map-Darstellung an, lässt jedoch keine Rückschlüsse über einen tatsächlichen Prozessablauf zu, sondern über das Zusammenspiel der Prozessbeteiligten.
• Die Farbgebung lässt wie gewohnt Aussagen zur relativen Häufigkeit zu, je dunkler der Farbe der einzelnen Ressource, desto häufiger die Frequentierung.
Die Darstellung innerhalb der Resource Map erlaubt die visuelle Analyse von Zusammenhängen und Strukturen innerhalb der Ausführung von Prozessaktivitäten. Somit wird ersichtlich, welche Abteilungen als Bündelungspunkte fungieren und welche als Verteilpunkte. Zusammen mit einer Betrachtung der Durchlaufzeiten anstelle der Häufigkeiten der Interaktionen lässt dies eine unmittelbare Analyse von Engpässen im Prozessablauf zu (sogenannte Bottlenecks), die in der Überlastung von Ressourcen begründet sind. Daneben können auf diese Weise auch nicht ausgelastete Ressourcen identifiziert und in der Ressourcenplanung berücksichtigt werden.
Ressourcen-Matrix: Zusätzlich zur Darstellung in Form einer Map können die Ressourcen und die dazugehörigen Frequenzen in einer Matrixdarstellung (Abbildung 37) veranschaulicht werden.
Abbildung 37: Ressourcen-Matrix
• Die Darstellung ermöglicht einen direkten Überblick über die Bündelungspunkte der einzelnen Ressourcen sowie die Darstellung der Vorgänger-/Nachfolgerbeziehung.
• Somit können abhängige und unabhängige Ressourcen schnell bestimmt und ggf. reorganisiert werden.
Ähnlich zur Vorgänger-/Nachfolger-Matrix vermittelt die Ressourcen-Matrix einen schnellen Überblick über Zusammenhänge zwischen Ressourcen. Auch hier können die Eigenschaften dieser Datenstruktur genutzt werden, um gezielt diejenigen Ressourcen zu untersuchen, die eine bestimmte Häufigkeit an Beziehungen zu anderen Ressourcen eingehen oder beispielsweise keine Vorgänger bzw. Nachfolger haben.
5 Intelligente Prozessautomatisierung durch Robotic Process Automation
5.1 Definition und Einführung
Die Automatisierung von Prozessabläufen und Aufgaben ist ein zentraler Aspekt im Kontext der digitalen Transformation von Unternehmen. Frühere Entwicklungen im Bereich der Automatisierungstechnik fokussierten häufig die Standardisierung und Automatisierung von physischen Abläufen durch mechanische Systeme. Beispiele hierfür finden sich in der industriellen Fertigung, welche durch den Einsatz von Robotern signifikante Produktionszuwächse verzeichnen konnte. Dieses Prinzip der Automatisierung wird, bedingt durch die zunehmende Digitalisierung von Abläufen und die damit einhergehende Verfügbarkeit automatisch auswertbarer Datenbestände, verstärkt auf den Bereich von wissensintensiven Prozessen übertragen. Die Automatisierung komplexer Geschäftsprozesse mit dem Ziel, die Aufgaben von Menschen innerhalb des Prozesses durch die Implementierung fortschrittlicher Software zu übernehmen, wird unter dem Begriff Robotic Process Automation (RPA) zusammengefasst. In Anlehnung an die mechanische Roboterisierung von Fertigungsprozessen übernehmen Software-Roboter hierbei die Aufgaben von Menschen und imitieren deren Verhalten im Prozess. Bei RPA handelt es sich um eine Methode aus dem Bereich der klassischen Prozessautomatisierung, die durch die Möglichkeiten moderner Technologien wie Process Mining und Machine Learning ergänzt wird. Dies führt zu signifikanten Effizienzsteigerungen und der Entlastung von Mitarbeitern bei repetitiven, kognitiv anspruchsvollen Aufgaben. Das Ziel von RPA ist die selbstständige Ausführung von wiederkehrenden, repetitiven und regelbasierten Aktivitäten innerhalb eines Geschäftsprozesses auf der Basis von strukturierten Daten durch dedizierte Software-Roboter, die speziell für diese Aufgaben implementiert wurden. Die grundlegende Funktionsweise von RPA-Systemen besteht in der Aufzeichnung des Verhaltens eines menschlichen Bearbeiters im Prozess und der anschließenden Automatisierung dieser Verhaltensweisen. Um diese Verhaltensmuster zu identifizieren, können unterschiedliche Verfahren eingesetzt werden. Eine Möglichkeit besteht in der Verwendung von existierenden Prozessmodellen, die den Ablauf, die einzelnen Aktivitäten sowie die relevanten Entscheidungsstrukturen innerhalb des Prozesses beschreiben.
Hierzu eignen sich beispielsweise die zuvor behandelten Modellierungskonventionen in BPMN und DMN. Eine andere bzw. ergänzende Möglichkeit besteht in der Anwendung von Process-Discovery-Algorithmen, um das aktuelle Prozessverhalten aus Instanzdaten zu rekonstruieren. Diese Methode bringt den Vorteil mit sich, dass sicher davon ausgegangen werden kann, dass das rekonstruierte Verhalten der tatsächlichen Arbeitsweise der Prozessbeteiligten entspricht.
Sobald ein klares Bild des zu automatisierenden Verhaltens vorliegt, können die folgenden Schritte innerhalb eines RPA-Systems umgesetzt werden:
• Die einzelnen Prozessschritte werden regelbasiert erfasst und in den Software-Roboter eingepflegt,
• Über Recorder-Funktionalitäten können ergänzend Anwenderinteraktionen mit IT-Systemen im Prozessverlauf aufgezeichnet werden,
• Anschließend können die erfassten Regeln manuell ergänzt und ggf. vor dem Einsatz abgeändert werden,
• Der Software-Roboter nutzt die bestehenden IT-Systeme inklusive der existierenden Benutzerschnittstellen,
• Menschliche Interaktionen mit den Benutzerschnittstellen der Software werden durch den Software-Roboter imitiert und über die gleichen Kontrollinstrumente (z. B. Maus und Tastatur) umgesetzt.
Diese Schritte sollen am Beispiel eines typischen Prozesses zur Rechnungserstellung veranschaulicht werden (vgl. CapGemini, 2016, S. 13). Zur Erstellung einer Rechnung muss sich ein Sachbearbeiter von seinem Arbeitsplatzrechner aus in verschiedenen Systemen anmelden, beispielsweise über eine Remote-Desktop-Verbindung wie Citrix in einem ERP-System, welches die Kundenstammdaten vorhält. In diesem System muss der entsprechende Stammdatensatz des Kunden aufgerufen werden, der als Rechnungsempfänger vorgesehen ist. Anschließend müssen diese Daten in das System zur Rechnungserstellung übertragen werden, wobei Informationen aus verschiedenen Feldern in die korrekten Systemmasken eingefügt werden müssen. Im nächsten Schritt müssen die einzelnen Rechnungspositionen aus der Bestellübersicht des ERP-Systems einzeln übernommen und übertragen werden, was wiederum einen Wechsel zwischen den Anwendungen notwendig macht. Nach der Datenübernahme erfolgt abschließend die Finalisierung der Rechnung und der Prozess endet (vgl. Abbildung 38).
Abbildung 38: Beispielprozess vor und nach der Automatisierung durch RPALogin in System Kopieren der Stammdaten
Wechsel zwischen Anwendungen
Einfügen der Informationen
Finalisierung der Rechnung
20s 40s 30s 20s 60s
Systemwechsel Systemwechsel Systemwechsel Systemwechsel
Wiederholung für jede Rechnungsposition (10x)
Manueller IST-Prozess
Login in System Kopieren der
Stammdaten
Wechsel zwischen
Anwendungen
Einfügen der
Informationen
Finalisierung der
Rechnung
20s 5s 5s 5s 5s
Systemwechsel Systemwechsel Systemwechsel Systemwechsel
Wiederholung für jede Rechnungsposition (10x)
Durch RPA automatisierter SOLL-Prozess
In Abbildung 38 sind unterhalb der einzelnen Prozessschritte die geschätzten Bearbeitungszeiten angegeben. Betrachten wir beispielhaft die Erstellung einer Rechnung mit zehn Rechnungspositionen, so ergibt sich ein zeitlicher Gesamtaufwand von 20s + 40s + 10 * (30s + 20s) + 60s = 620s. Ein Sachbearbeiter ist mit der Erstellung einer Rechnung also mehr als zehn Minuten befasst. Der Prozess der Rechnungserstellung ist damit nicht nur zeitintensiv, sondern bindet darüber hinaus auch wertvolle Ressourcen, die nicht für wertschöpfende Tätigkeiten zur Verfügung stehen. Im Gegensatz zu den repetitiven Aktivitäten innerhalb des Rechnungserstellungsprozesses können kreative oder entscheidungsbezogene Handlungen nicht sinnvoll automatisiert werden und sollten daher den Schwerpunkt der Arbeit von menschlichen Prozessbearbeitern darstellen. Der dargestellte Prozess kann durch den Einsatz einer RPA-Lösung automatisiert werden. Hierzu werden die Prozessschritte durch den Software-Roboter aufgezeichnet und über die gleichen Systemschnittstellen ausgeführt wie von einem Sachbearbeiter: Die Anmeldung im System, das Kopieren der Stammdaten, die Übernahme der einzelnen Rechnungspositionen sowie die finale Erstellung der Rechnung werden vom System übernommen. In Abbildung 38 sind für den automatisierten Prozess ebenfalls Bearbeitungszeiten angegeben, welche einen Eindruck vom Grad der Effizienzsteigerung gegenüber einer manuellen Bearbeitung geben. So ist im Zuge der Automatisierung mit einem zeitlichen Gesamtaufwand von 20s + 5s + 10 * (5s + 5s) + 5s= 130s zu rechnen, was einer Steigerung um den Faktor 5 entspricht.
Die tatsächlichen Bearbeitungszeiten im Rahmen der Automatisierung können in der Praxis abweichen. Dies liegt in der eingeschränkten Reaktionsfähigkeit der verwendeten Systemoberflächen begründet: Während die Bearbeitung einzelner Aufgaben durch einen Software-Roboter prinzipiell ohne zeitliche Verzögerung geschehen kann (z. B. < 1s für das Kopieren und Einfügen einer Rechnungsposition), erzeugt der Wechsel zwischen einzelnen Feldern auf der Benutzeroberfläche sowie der Wechsel zwischen verschiedenen Anwendungen des Systems eine Verzögerung, da diese auf die Bearbeitung durch menschliche Benutzer ausgelegt sind. Software-Roboter müssen in diesen Fällen also gewissermaßen auf die Aktualisierung der Oberfläche warten, bevor sie mit der nächsten Aktivität fortfahren können. Im Rahmen der Automatisierung im beschriebenen Szenario ergeben sich unmittelbar folgende Vorteile gegenüber der Bearbeitung durch einen Sachbearbeiter:
• eine gesteigerte Effizienz der Bearbeitung durch die realisierten zeitlichen Einsparungen, da durch einen Software-Roboter die Bearbeitung um den Faktor 5 beschleunigt wird,
• die dauerhafte und unterbrechungsfreie Einsetzbarkeit der Lösung, da keine Bearbeitungspausen oder sonstigen zeitlichen Restriktionen beachtet werden müssen (24/7 Dauerbetrieb) sowie
• eine geringe Fehleranfälligkeit aufgrund fehlender Ermüdungserscheinungen und Konzentrationsschwächen
Weiterhin entstehen durch die automatisierte Prozessausführung detaillierte Ereignislogdaten der einzelnen Prozessinstanzen, sodass deren Nachvollziehbarkeit erhöht und die Transparenz der Abläufe gesteigert wird.
Hierdurch wird die Durchführung von Prozessen eindeutig nachweisbar, ohne dass die Notwendigkeit einer aufwendigen manuellen Protokollierung besteht. Die Nachvollziehbarkeit der Abläufe ersetzt allerdings keine Kontrolle und Verifikation der Ergebnisse.
Zusammenfassend können RPA-Systeme als eine von Software-Robotern übernommene Automatisierung von Prozessen verstanden werden, die menschliches Verhalten imitieren und dadurch in der Lage sind, bestehende IT-Systeme und deren Benutzeroberflächen zu verwenden. Als Vorteile lassen sich insbesondere eine gesteigerte Effizienz, geringere Fehleranfälligkeit und die Möglichkeit für einen Dauereinsatz feststellen. Darüber hinaus können frei werdende Ressourcen effektiver eingesetzt werden und beispielsweise Aufgaben wahrnehmen, die ein hohes Maß an Kreativität oder Entscheidungskompetenz benötigen.
5.2 Merkmale von RPA-Systemen und Abgrenzung
Nachdem im vorherigen Abschnitt die grundsätzliche Idee von Robotic Process Automation vorgestellt und anhand eines Anwendungsszenarios beispielhaft illustriert wurde, werden nachfolgend die Charakteristika von RPA-Systemen dargestellt und voneinander abgegrenzt. Dieses Verständnis ist wichtig, um die Eignung von RPA für die Automatisierung von Prozessen im eigenen Unternehmen beurteilen und bewerten zu können.
Trotz der Vielzahl an verschiedenen RPA-Lösungen und der verwendeten methodischen Ansätze lassen sich die folgenden Kernelemente als Gemeinsamkeiten der Systeme zusammenfassen:
• Die Systeme arbeiten regelbasiert in dem Sinne, dass keine komplexen Entscheidungen im Prozessverlauf erstmalig getroffen werden, sondern es steht die effiziente Bearbeitung von Routineprozessen im Vordergrund,
• RPA-Systeme eignen sich für die Automatisierung von repetitiven Geschäftsprozessen, die mit hoher Regelmäßigkeit und Frequenz, aber stark standardisiert durchgeführt werden,
• die Systeme benötigen strukturierte Daten als Eingaben und produzieren strukturierte Daten als Ausgabe; ändert sich diese Struktur, ist im Allgemeinen auch eine Anpassung des Systems notwendig, und
• sie eignen sich insbesondere zur Automatisierung von komplexen Prozessketten, die systemübergreifend durchgeführt werden, also die Interaktion zwischen mehreren IT-Systemen beinhalten.
Die identifizierten Gemeinsamkeiten definieren damit auch einige Anforderungen für den Einsatz von RPA. Der Fokus liegt auf der Automatisierung von repetitiven, d. h. sich oft wiederholenden und im Kern gleichen oder sehr ähnlichen Abläufen. Standardisierte Prozessabläufe stellen damit eine klare Grundvoraussetzung für RPA dar, da häufig wechselndes Prozessverhalten nicht in klaren, durch Regeln definierten Strukturen abgebildet werden kann. Weiterhin ist hervorzuheben, dass die Einführung von Software-Robotern mit standardisierten Aufgaben nicht zu einer Automatisierung des Prozesses selbst führt. RPA fungiert als Möglichkeit zur Prozessautomatisierung und nicht als Werkzeug für die Identifikation von Prozessschwachstellen oder Potentialen zur Standardisierung. Eine Standardisierung und ggf. Überarbeitung von Prozessabläufen muss daher im Vorfeld der Automatisierung durch den Einsatz von RPA erfolgen und kann beispielsweise durch Process-Mining-Analysen unterstützt werden.
Robotic Process Automation kann als wichtiger Bestandteil eines ganzheitlichen Geschäftsprozessmanagements im Sinne des in Abschnitt 2.1.2 eingeführten BPM-Lebenszyklusmodells fungieren. Die Entscheidung für die Automatisierung eines Prozesses geht in der Praxis mit verschiedenen Implikationen einher, die bezüglich der strategischen Gesamtausrichtung, ihren Auswirkungen auf andere Prozesse sowie der technischen Umsetzung überprüft werden müssen. Abbildung 39 zeigt die Beziehungen zwischen RPA und den einzelnen Phasen des BPM-Lebenszyklus.
Abbildung 39: Einordnung der von RPA in den BPM-Lebenszyklus
Die Richtung der Pfeile zeigt die Beeinflussung zwischen RPA und den einzelnen Phasen des Lebenszyklus.Strategieentwicklung
Implementierung
Ausführung
Monitoring und
Controlling
RPA
Definition und
Modellierung
Optimierung und
Weiterentwicklung
• Strategieentwicklung: Im Rahmen der Strategieentwicklung sollten Unternehmen eine korrekte Priorisierung von Prozessen in Bezug auf die zu erwartenden Mehrwerte durch eine RPA-gestützte Automatisierung durchführen. Die Relevanz eines Prozesses bleibt das wichtigste Effizienzkriterium, unabhängig davon, ob die Ausführung durch eine weitergehende Automatisierung schneller und weniger fehleranfällig durchgeführt wird. Gleichzeitig bietet RPA den großen Vorteil, dass der Einsatz ohne die Veränderung von Prozessen selbst erfolgen kann; dadurch wird die strategische Ausrichtung nicht durch eine technische Implementierung beeinflusst, sondern diese kann vielmehr als Anlass genommen werden, die Prozessstrategie auf Aktualität hin zu überprüfen.
• Definition und Modellierung: Bei der Einführung von RPA innerhalb eines Prozesses können manuell modellierte oder durch die Anwendung von Process Discovery entstandene Prozessmodelle als Grundlage für die Auswahl der zu automatisierenden Aktivitäten verwendet werden. Die Implementierung von RPA-Systemen innerhalb eines Prozesses kann wiederum im entsprechenden Prozessmodell zu Dokumentationszwecken annotiert werden.
• Implementierung: Da der Einsatz von RPA ohne die Anpassung oder Entwicklung von Systemschnittstellen erfolgt, wird die Implementierung der Geschäftsprozesse nicht beeinflusst.
• Ausführung: Die Ausführung von Prozessen kann aufgrund der Automatisierung aktiv unterstützt und signifikant beschleunigt werden (vgl. Beispiel des Rechnungserstellungsprozesses in Abschnitt 5.1).
• Monitoring und Controlling: RPA stellt eine Möglichkeit dar, ohne den expliziten Einsatz eines Workflow-Management-Systems eine Überwachung von Geschäftsprozessen zur Laufzeit (Monitoring) und die Auswertung von historischen Ausführungen (Controlling) zu realisieren. Zu beachten ist, dass nur bei vollständig automatisierten Prozessen eine digitale Abbildung innerhalb des RPA-Systems erfolgt. RPA adressiert insbesondere manuelle und nicht vollständig digital integrierte Prozesse (vgl. Abschnitt 5.3) und eröffnet damit häufig erstmalig die Möglichkeit einer statistischen Auswertung von Teilprozessen. Da die rein manuelle Ausführung durch Sachbearbeiter unter Verwendung verschiedener IT-Systeme und Tools die Erstellung von auswertbaren Ereignislogs verhindert, kann RPA damit auch die Datenbasis für die Anwendung von Process Mining liefern.
• Optimierung und Weiterentwicklung: Die Erfahrungen aus der Anwendung können eine Weiterentwicklung und Optimierung von Prozessen unterstützen; umgekehrt wirken sich Veränderungen an Prozessen auch direkt auf deren Umsetzung innerhalb des RPA-Systems aus.
Zusammenfassend kann RPA für das Geschäftsprozessmanagement von entscheidender Bedeutung sein. Es kann dazu beitragen, Prozessabläufe transparenter zu machen, und bei der Identifikation von Verbesserungspotentialen helfen. Ein großer Vorteil gegenüber anderen Technologien liegt in der geringen Eintrittshürde bei der Umsetzung, da keine zwingende Notwendigkeit für Änderungen an der strategischen Ausrichtung oder den bestehenden Prozessimplementierungen besteht. Gleichzeitig bleibt die Relevanz einer Aufgabe wichtig, auch wenn sie von RPA schneller und präziser ausgeführt werden kann. Weiterhin stellen die Priorisierung und die Standardisierung von Prozessen wichtige Voraussetzungen für die prinzipielle Anwendbarkeit von RPA dar. In Ergänzung zu den in Abschnitt 5.1 am Beispiel des Rechnungserstellungsprozesses identifizierten Vorteilen existieren die folgenden allgemeinen Vorteile von RPA-Systemen:
• Simulation von menschlichen Verhaltensweisen: Durch die genaue Nachbildung menschlicher Interaktionen mit einem IT-System erfolgt der Einsatz von RPA im Prozess transparent. Dies bietet beispielsweise die Möglichkeit, dass gezielt nur bestimmte Prozessschritte automatisiert werden können, etwa unternehmensinterne Schritte, die keine Berührungspunkte zu externen Prozessbeteiligten wie Kunden oder Lieferanten besitzen. Somit ist für diese Prozessteilnehmer keine Änderung erkennbar und es muss keine Abstimmung erfolgen. Gleichermaßen können aber auch passive externe Interaktionen, bei denen beispielsweise Daten aus einem externen System abgefragt werden, automatisiert werden, ohne dass auf der Seite des anderen Systems eine programmiertechnische Anpassung geschehen muss.
• Keine Anpassung von Prozessen: Als weitere Folge der Simulation von menschlichen Verhaltensweisen müssen auch die zu automatisierenden Prozesse selbst nicht angepasst werden und können direkt im aktuellen Zustand als Eingabe für RPA dienen. Obwohl eine kritische Prüfung der zu automatisierenden Prozesse immer sinnvoll ist (vgl. den folgenden Abschnitt zu den Nachteilen von RPA-Systemen), senkt dies die möglichen Eintrittshürden weiter ab.
• Keine technische Implementierung notwendig: Die Nutzung der existierenden Benutzeroberflächen von IT-Systemen erlaubt es, Prozessverhalten zu automatisieren, ohne technische Anpassungen und aufwendige Implementierungen machen zu müssen. Im Vergleich zur Implementierung einer Datenschnittstelle, über die Informationen in einem spezifizierten Format abgefragt werden können, bedeutet dies einen immensen Vorteil in Bezug auf die anfallenden Kosten sowie den zeitlichen Vorlauf für die technische Umsetzung.
• Schnelle und unkomplizierte Nutzung: Am Markt verfügbare Software-Lösungen sind einfach zu bedienen und erlauben eine schnelle und unkomplizierte Anwendung, ohne ein tiefes technisches Verständnis vorauszusetzen. Tools zum Monitoring der implementierten Software-Roboter ermöglichen eine zentrale Überwachung und Steuerung von deren Arbeitsweise. Sie ermöglichen weiterhin ein schnelles Eingreifen bei auftretenden Fehlern oder unerwarteten Probleme z. B. durch unpassende Dateneingaben.
• Erhöhte Effizienz und bessere Prozessverfügbarkeit: Viele Aufgaben, wie das Einfügen von Informationen oder die Übertragung von Daten zwischen verschiedenen Eingabemasken, lassen sich durch Software-Roboter schneller erledigen, als Sachbearbeiter dazu in der Lage wären. Außerdem benötigen die Systeme keinerlei Pausen und können im Dauerbetrieb eingesetzt werden, was im Ergebnis zu einer gesteigerten Prozessverfügbarkeit und einer schnelleren Bearbeitung von Fällen führt. Die Kosten für die Einführung von RPA amortisieren sich durch die Einsparungen oftmals bereits innerhalb weniger Monate.
• Verbesserte Nutzung von Ressourcen: Die Automatisierung von sich wiederholenden Prozessen kann Mitarbeiter von „monotonen“ und „langweiligen“ Aufgaben entbinden und zu einer besseren Nutzung ihrer Arbeitsleistung führen. Durch die Konzentration auf komplexe, schwierige Probleme oder kommunikative Aufgaben, z. B. im Service-Bereich bei der Beantwortung von Anfragen, kann die Prozessqualität insgesamt gesteigert werden. Letztendlich ist auch eine verbesserte Mitarbeiterzufriedenheit ein wesentlicher Vorteil, der durch Automatisierung erzielt werden kann.
• Flexibilität und Skalierbarkeit: Bestimmte Prozesse werden dauerhaft oder periodisch mit sehr hoher Frequenz ausgeführt. Im Beispiel der Rechnungserstellung könnten beispielsweise zum Ende eines Monats verstärkt Rechnungen erstellt werden. Diese Umstände stellen hohe Anforderungen an die Verfügbarkeit der beteiligten Ressourcen: Kommt es etwa zu krankheitsbedingten Ausfällen von Mitarbeitern oder zu einer außergewöhnlich hohen Zahl an zu bearbeitenden Prozessen, kann die fristgerechte Ausführung häufig nicht garantiert werden. RPA bietet Möglichkeit, die für einen Prozess allokierten Ressourcen flexibel zu skalieren und dadurch hohe Belastungen in Spitzenzeiten abzufedern. Einzelne Software-Roboter können bedarfsweise zu- oder abgeschaltet werden, um der aktuellen Arbeitsbelastung gerecht zu werden. Je nach Art des zu automatisierenden Prozesses und der speziellen fachlichen Anforderungen des Szenarios kann die Bedeutung der genannten Aspekte variieren. Gleichzeitig lassen sich auch einige allgemeine Nachteile identifizieren, die der Einsatz von RPA-Systemen mit sich bringen kann.
• Skalierung von Fehlern: Als Folge der drastisch beschleunigten Ausführung von Prozessen besteht die Gefahr, dass sich Fehler bei Problemen mit der gleichen Geschwindigkeit ausbreiten. Da die Ausführung zudem in den meisten Fällen ohne permanente Überwachung durch einen menschlichen Prozessbeteiligten erfolgt, kann bis zur Entdeckung des Fehlers eine gewisse Zeit vergehen. Beim Beispiel des Rechnungserstellungsprozesses könnte eine geänderte Reihenfolge der Eingabeformularfelder in einem der IT-Systeme dazu führen, dass Daten bei der Übernahme an einer falschen Stelle eingefügt werden. Aus diesem Grund ist, wie bereits angesprochen, eine regelmäßige Ergebniskontrolle und Verifikation essentiell.
• Fehlende Sicherheit bei Release-Wechseln: Im Gegensatz zu einer technischen Integration von IT-Systemen oder der Implementierung einer dedizierten Schnittstelle zum Datenaustausch setzt RPA an der Oberfläche der jeweiligen IT-Systeme an. Dies führt dazu, dass keine direkte Verbindung zu den verarbeiteten Daten besteht und keine Spezifikation darüber existiert, welche Daten in welchem Format und an welcher Stelle gespeichert werden. Im Rahmen eines Software-Release-Wechsels kann eine Änderung an der Benutzeroberfläche, beispielsweise eine geänderte Eingabemaske, dazu führen, dass Daten durch RPA falsch verarbeitet werden. Für kritische Prozesse mit sich häufig ändernden Systemoberflächen stellt RPA damit teilweise keine äquivalente Alternative zu einer umfangreichen technischen Systemintegration dar.
• RPA führt zu keiner Prozessverbesserung per se: Der Einsatz von Automatisierungstechnik führt für sich genommen niemals zu einer Verbesserung des automatisierten Vorgangs. Dieser Umstand gilt auch für RPA, sodass alleine aus dessen Einsatz keine Prozessverbesserung erzielt werden kann. Prozesse werden effizienter ausgeführt, was aber nicht bedeutet, dass keine weitergehenden Optimierungspotentiale existieren. Im Extremfall besteht die Gefahr, dass in sich problematische, aus fachlicher Sicht ineffiziente Prozessstrukturen durch die Automatisierung zementiert werden oder gar fehlerhaftes Prozessverhalten automatisiert wird.
• Aktuell eher für einfache Automatisierungen geeignet: Heute verfügbare RPA-Lösungen eignen sich mit Blick auf die Komplexität eher für die Automatisierung einfacher Aufgaben bei sich wiederholenden Prozessen. Aufgaben, die komplexe Entscheidungen, die Auswertung und Gegenüberstellung verschiedener Informationen oder die kreative Lösung einer erstmalig auftretenden Problemstellung beinhalten, sind durch RPA aktuell nicht lösbar. Die Entwicklung im Bereich von KI-basierten RPA-Systemen bringt aber auch für bestimmte komplexere Anwendungsszenarien große Fortschritte (vgl. Abschnitt 5.4.4).
Die dargestellten allgemeinen Vor- und Nachteile sind beim konkreten Einsatz von Systemen sowie bei der Auswahl von Prozessen für eine Automatisierung jeweils kritisch zu prüfen. Hierbei spielen auch spezifische Anforderungen des jeweiligen Anwendungsszenarios eine bedeutende Rolle. Im nächsten Abschnitt werden verschiedene Kriterien für die Auswahl von Prozessen präsentiert, die für eine Automatisierung durch RPA grundsätzlich geeignet sind.
5.3 Auswahl von automatisierbaren Prozessen
Der Fokus von RPA liegt aktuell auf der Automatisierung von sogenannten Back-Office-Prozessen. Zu den klassischen Anwendungsszenarien zählen beispielsweise die Übertragung von Informationen zwischen mehreren IT-Systemen, die Dateneingabe in vordefinierte Eingabemasken, die Generierung von Massen-E-Mails, die Konvertierung von Dokumenten zwischen verschiedenen Formaten oder die Durchführung von Transaktionen innerhalb von ERP-Systemen. Diesen Prozessen und Aktivitäten ist gemein, dass sie häufig nach bestimmten Vorgaben, gleichen oder sehr ähnlichen Schemata und unter Verwendung der gleichen IT-Systeme ablaufen. Zum Beispiel wird die Konvertierung eines Dokumentes aus einem Eingangsformat (z. B. Microsoft Word .docx) in ein bestimmtes Zielformat (z. B. Adobe PDF .pdf) immer durch die Abfolge der gleichen Befehle innerhalb einer bestimmten Software (z. B. Adobe Acrobat Professional) durchgeführt werden. Häufig bietet die genutzte Software aber keine Möglichkeit zur Automatisierung der gewünschten Funktionen (sog. Scripting) an. Auch die Verwendung einer anderen Software-Alternative (z. B. Linux-basierte Tools mit Scripting Funktion) scheidet für viele unternehmerische Bereiche aus, da bestimmte Vorgaben (z. B. PDF-Zertifizierungen nach einem rechtssicheren Standard) nur durch die vorhandene Software abgebildet werden können. An dieser Stelle kann RPA diese Aufgabe übernehmen. Dieses einfache Beispiel verdeutlicht die grundsätzlichen Überlegungen für die Auswahl von geeigneten Aufgaben und kann für komplexere Prozessabläufe entsprechend erweitert werden. Anhand der beiden Kriterien Prozessstruktur und Prozesshäufigkeit sowie der notwendigen Technologie spannt Abbildung 40 ein Bewertungsraster für die Auswahl von automatisierbaren Prozessen auf. Wie bereits dargestellt, nehmen mit abnehmender Prozessstruktur die Freiheitsgrade und die Entscheidungsfreiheit bei der Prozessausführung zu; während stark strukturierte Prozesse innerhalb von ERP-Systemen und Workflow-Systemen gut abgebildet werden können, ist für Prozesse, die weniger stark durch IT-Systeme unterstützt sind (vgl. die einleitenden Beispiele, die zwar eine klare Struktur aufweisen, aber nicht durch IT-Systeme „geführt“ werden), der Einsatz von heute verfügbaren RPA-Technologien zielführend. Um sehr schwach strukturierte Prozesse abbilden zu können, die zusätzlich ein tiefes Prozessverständnis benötigen oder beispielsweise Daten aus unstrukturierten Dokumenten interpretieren müssen, sind KI-basierte RPA-Ansätze notwendig (vgl. Abschnitt 5.4.4). In Bezug auf das Kriterium Prozesshäufigkeit sind zunächst solche Prozesse interessant, die mit einer hohen Frequenz ausgeführt werden. Prozesse, die mit einer hohen Häufigkeit ausgeführt werden, sind üblicherweise durch existierende ERP- oder Workflow-Systeme unterstützt und in diesen abgebildet. Je „seltener“ und spezieller ein Prozess ist, desto stärker müssen im Allgemeinen auch spezifische Prozessinformationen ausgewertet werden.
RPA kommt insbesondere in denjenigen Prozessen zum Einsatz, die nicht häufig genug ausgeführt werden, um Teil einer Standardlösung zu werden, aber häufig genug, dass ihre Ausführung einen hohen Aufwand für die Prozessbeteiligten bedeutet. Die beiden Kriterien sind nicht als komplett trennscharfe und exklusive Abgrenzung zwischen verschiedenen Prozesstypen zu interpretieren; vielmehr sollen sie das Betrachtungsspektrum bei der Wahl zu automatisierender Prozesse begrenzen und erste Anhaltspunkte für die Auswahl liefern.
Abbildung 40: Durch RPA automatisierbare Geschäftsprozesse
Die Unternehmensberatung CapGemini definiert zusätzlich die folgenden Kriterien für die Auswahl von Prozessen und Aufgaben, die sich für eine Automatisierung durch RPA-Systeme eignen (vgl. CapGemini, 2019, S. 15):
• Prozesse, in denen das Arbeiten mit mehreren IT-Systemen notwendig ist, um beispielsweise Daten aus einem System in ein anderes System zu übertragen,
• Prozesse, in denen häufig menschliche Fehler auftreten, beispielsweise durch Unachtsamkeit oder nachlassende Konzentration aufgrund der hohen Repetitivität der durchgeführten Aufgaben,
• Prozesse, die in eine Reihe von eindeutigen Regeln und Vorschriften aufgeteilt werden können; ein guter Anhaltspunkt für dieses Kriterium ist die Möglichkeit, Entscheidungsstrukturen durch DMN zu modellieren (vgl. Abschnitt 0),
• Prozesse, die bereits eine relativ hohe Automatisierungsrate aufweisen und nach dem Start nur wenig menschliches Eingreifen in den Prozessverlauf notwendig machen,
• Prozesse, die nur in seltenen Fällen eine Ausnahmebehandlung benötigen, d. h., bei denen nur eine beschränkte Zahl möglicher Probleme auftreten kann und welche in ihren Auswirkungen überschaubar sind (keine kritischen Prozesse),
• Prozesse, die dauerhaft in großer Zahl (Massenprozesse) oder in bestimmten Zeiten sehr häufig (Spitzenauslastungen) ausgeführt werden müssen, oder
• Prozesse, für die eine Automatisierung durch dedizierte IT-Systeme sinnvoll ist, die aber in mittlerer Zukunft durch neue Systeme abgelöst werden; dieser Fall tritt oftmals ein, wenn rechtliche Rahmenbedingungen geändert werden oder ein absehbarer Release-Wechsel ansteht (z. B. Umstellung auf SAP S/4HANA). Auch wenn diese Änderungen erst in einigen Jahren umgesetzt sein werden, machen aufwendige Neuentwicklungen an dieser Stelle häufig keinen Sinn mehr.
RPA kann hier eine schnelle Lösung für die Prozessoptimierung darstellen (Quick win).
Im nächsten Abschnitt werden die Unterschiede zwischen den verschiedenen Formen von RPA-Systemen erläutert und die heute bestehenden Systeme gegenüber den zukünftig zu erwartenden Weiterentwicklungen positioniert.
5.4 Evolution von RPA-Systemen
5.4.1 Überblick
Im Zuge von Strategien zur Kostensenkung lagerten viele Unternehmen, beginnend in den 1990er Jahren, routinemäßige Arbeitstätigkeiten in Länder mit einem niedrigeren Lohnniveau aus (Outsourcing). Hierbei wurden insbesondere diejenigen operativen Aktivitäten ausgelagert, die keine wertschöpfenden Tätigkeiten des Kerngeschäfts eines Unternehmens betreffen. Die Tätigkeiten wurden beispielsweise in Osteuropa, Lateinamerika oder Asien (CapGemini, 2016, S. 10) erledigt, dort fanden sich die Kernmärkte, wohin Aktivitäten ausgelagert wurden. Je nach Distanz und Zeitzone der Länder, in die ausgelagert wird, unterscheidet man hierbei zwischen Nearshoring und Offshoring. Häufig werden die outgesourcten Tätigkeiten in sogenannten Shared-Service Center gebündelt, die eine spezielle Unternehmensfunktion wie Buchhaltung, Personal oder IT abbilden. Im Zuge der genannten Outsourcing-Aktivitäten wurden vielfach umfangreiche Standardisierungsinitiativen sowie Maßnahmen zur Harmonisierung von IT-Systemen und Prozessen durchgeführt, um einheitliche Ergebnisstandards für die outgesourcten Tätigkeiten zu definieren.
RPA bietet nun die Möglichkeit, die im Unternehmen verbliebenen Routineaufgaben, welche beispielsweise aus Gründen der Vertraulichkeit nicht für ein Outsourcing in Frage kommen, intelligent zu automatisieren. Mit der Evolution von RPA-Systemen erlangen diese immer größere Fähigkeiten im Umgang mit weniger strukturierten Prozessabläufen und treten aufgrund möglicher weiterer Kosteneinsparungspotentiale in Konkurrenz zum klassischen Outsourcing.
5.4.2 Regelbasierte Systeme
Regelbasierte RPA-Systeme stellen heute die Mehrzahl der am Markt verfügbaren Angebote dar. Sie verfolgen den relativ einfachen Ansatz, einen zuvor im System hinterlegten Prozess Schritt für Schritt abzuarbeiten. Darüber hinaus können weitere Regeln im System hinterlegt werden, beispielsweise können unterschiedliche Aktionen ausgelöst werden, je nachdem, welcher Wert vom System aus einem bestimmten Dateneingabefeld gelesen wurde.
Charakteristisch für regelbasierte RPA-Systeme sind insbesondere die folgenden Punkte:
• Jegliches Systemverhalten muss vorab spezifiziert werden: Das System ist nicht in der Lage, eigenständig auf bestimmte Vorfälle im Prozess zu reagieren, sondern befolgt lediglich die hinterlegten Regeln. Sollte zu einer Ausnahmesituation keine Regel hinterlegt sein, ist das System nicht in der Lage, eine angepasste Entscheidung zu treffen; im Regelfall wird dann auf eine standardisierte Fehlerbehandlung zurückgegriffen (z. B. eine Nachricht an den Prozessverantwortlichen) und die Ausführung des Prozesses bis auf weiteres gestoppt.
• Änderungen an der Benutzeroberfläche der verwendeten IT-Systeme machen eine Anpassung der Software-Roboter notwendig: Ändert sich die Benutzeroberfläche, beispielsweise indem ein Eingabefeld an eine andere Position verschoben wird oder ein Button an eine andere Stelle wandert, so muss diese Änderung manuell im Roboter nachgepflegt werden.
Die beiden angesprochenen Charakteristiken zeigen die Schwachstellen, die heutige RPA-Systeme häufig haben. Sie sind für ein bestimmtes Anwendungsszenario und bestimmte Software-Versionen optimiert und müssen bei Änderungen manuell angepasst werden. Aktuelle Marktlösungen begegnen diesen Problemen aber mit verschiedenen Konzepten wie einer aktuellgepflegten Bibliothek an Vorlagen für Benutzeroberflächen, die automatisch in die Software-Roboter eingespielt werden können. Ändert sich eine 7 Zur Diskussion siehe beispielsweise Deloitte (2016) Oberfläche, so wird diese Änderung in der Vorlage vom Hersteller des RPA-Systems nachgepflegt, sodass die korrekte Funktion weiterhin sichergestellt werden kann.
Die Erstellung der Regeln, nach denen die Software-Roboter arbeiten, erfolgt meistens über eine Rekorder-Funktion, die das Verhalten bei einem menschlichen Benutzer beobachtet und in eine vom RPA-System verwertbare Logik übersetzt. Alternativ existiert auch hier je nach System die Möglichkeit, verfügbare Vorlagenaktivitäten zu verwenden, mit denen ein automatisierter Prozess mit einem grafischen Werkzeug zusammengestellt, modifiziert und getestet werden kann.
5.4.3 Wissensbasierte Systeme
Die nächste Evolutionsstufe von RPA-Systemen liegt in der Automatisierung von wissensintensiven Prozessen, welche über die reine regelbasierte Abarbeitung von Prozessschritten hinausgeht. Wissensbasierte Software-Roboter sind in der Lage, mit Sonderfällen in der Prozessausführung (beispielsweise bislang nicht aufgetretene Datenkonstellationen, geänderte Eingabemasken) umzugehen und darauf intelligent zu reagieren.
Weiterhin sind sie in der Lage, den Kontext eines Prozesses auszuwerten und in die Entscheidungsfindung für die nächste durchzuführende Prozessaktivität miteinzubeziehen. Ein Beispiel aus dem Bereich der Kundenbetreuung verdeutlicht dies: Zu einer textuellen Anfrage eines Kunden, die z. B. per E-Mail in der Kundenbetreuung eintrifft, kann ein Software-Roboter eine entsprechende Vorselektion basierend auf dem Inhalt der Anfrage und weiteren Parametern, wie der Klassifizierung des Kunden und der Dringlichkeit, treffen. Weiterhin denkbar sind die Suche nach Antworten auf die Kundenanfrage in einer Wissensdatenbank zu bereits beantworteten Fragen und die (teil-)automatisierte Beantwortung der Kundenanfrage. Die Umsetzung von wissensbasierten RPA-Systemen erweitert das Spektrum möglicher Anwendungsszenarien für die Prozessautomatisierung signifikant.
Gleichzeitig sind zwei wichtige Aspekte zu beachten:
• Der Einsatz verschiedener Technologien unter anderem aus den Bereichen Informationsextraktion, Natürliche Sprachverarbeitung, Kontexterkennung und Machine Learning ist notwendig, um die skizzierten Anwendungsfälle abzubilden. Diese Technologien erzielen nach aktuellen Entwicklungen für viele Daten und Szenarien sehr gute Resultate, die konkrete Eignung für den praktischen Einsatz in einem Unternehmen muss aber im Einzelfall überprüft werden.
• Bedingt durch die Nutzung der zuvor aufgeführten fortgeschrittenen Technologien ist eine spezifischere Anpassung an den jeweiligen Unternehmensprozess notwendig. Im Vergleich zu regelbasierten Systemen muss außerdem mit einer aufwendigeren und zeitintensiveren Installation der Software-Roboter gerechnet werden. Einige der heute am Markt verfügbaren RPA-Systeme besitzen bereits Teile der dargestellten Funktionalität. Ebenso wie die im nächsten Abschnitt dargestellten KI-basierten Systeme zählen diese Funktionen aber nicht zum direkt nutzbaren Standardumfang der Software, sondern bedürfen einer spezifischen Anpassung an die Unternehmensprozesse.
5.4.4 KI-basierte Systeme
Der Bereich der KI-basierten RPA-Systeme wird im Englischen als Cognitive RPA bezeichnet. Dieser Begriff betont die stärkere funktionale Fokussierung der Software-Roboter auf kognitive Aspekte wie die Wahrnehmung und Interpretation visueller oder auditiver Inhalte. Der Einsatz von Methoden aus dem Bereich der Künstlichen Intelligenz wie Machine Learning, Deep Learning und Computer Vision ermöglicht eine intelligente Reaktion auf Ereignisse im Prozessverlauf sowie Änderungen der Benutzeroberfläche der verwendeten IT-Systeme. Da sich die Funktionalitäten von KI-basierten Systemen ebenso wenig anhand eindeutiger Kriterien festmachen lassen wie Methoden des Bereiches Künstliche Intelligenz allgemein, werden diese nachfolgend anhand zweier Beispiele illustriert.
Das erste Beispiel betrifft die automatische Erkennung von Veränderungen an Benutzeroberflächen von IT-Systemen und die darauf aufbauende Selbstheilung von Software-Robotern. Durch den Einsatz von Computer Vision werden die Systeme in die Lage versetzt, Teile der Benutzeroberfläche wahrzunehmen und einzelne Bereiche (z. B. Applikationsfenster, Menüleisten, Buttons, Eingabefelder) voneinander zu unterscheiden. Durch die Kombination mit Methoden zur Verarbeitung natürlicher Sprache kann weiterhin der Beschriftungstext der einzelnen Elemente erschlossen werden. Dadurch ist ein Software-Roboter nicht mehr nur darauf beschränkt, eine einfache Regel abzuspeichern, die zum Speichern eines Datensatzes einen Mausklick an einer bestimmte Stelle vorsieht, sondern er wird in die Lage versetzt, den Button zum Speichern als solchen zu erkennen und an einer beliebigen Stelle auf dem Bildschirm zu identifizieren (vgl. UiPath, 2019a). Dieses Verfahren wird als „Selbstheilung“ bezeichnet, da es oftmals zum Einsatz kommt, um starre Beschreibungen von einzelnen Elementen auf der Benutzeroberfläche zu ersetzen und damit bei Änderungen der Oberfläche weiterhin eine korrekte Funktion zu ermöglichen.
Das zweite Beispiel befasst sich mit der Interpretation und Extraktion von relevanten Informationen aus Dokumenten. Trotz zunehmender Digitalisierung werden in der Praxis viele Informationen weiterhin papierbasiert ausgetauscht. Bei der Zustellung von Steuerbescheiden ist beispielsweise die Papierform weiterhin stark verbreitet und es ist für Unternehmen notwendig, diese Dokumente zu akzeptieren und im Anschluss zu digitalisieen, um sie einer weiteren Verarbeitung zugänglich zu machen. Hierzu müssen die im Schreiben enthaltenen Daten erkannt und die jeweils relevanten Informationen extrahiert werden. Bei klassischen Verfahren zur Texterkennung (engl. Optical Character Recognition, OCR) besteht das Problem, dass bei einer vollständigen Erfassung des Dokuments die semantische Zuordnung der einzelnen Datenfelder fehlt und es keine Möglichkeit gibt, die erfassten Datenfelder für die weitere Datenverarbeitung korrekt zu kategorisieren und zu klassifizieren. Bei der Erfassung der Zeichenkette „01.01.2020“ ist damit zunächst nicht klar, um welche Art von Datum es sich handelt: das Datum, an dem der Steuerbescheid ergangen ist, das Datum des beabsichtigten Zahlungseingangs, oder ein anderes Datum, das bei der Formulierung eines Steuerbescheides eine Rolle gespielt hat (vgl. Houy et al., 2019, S. 67).
Ein KI-basierter Software-Roboter ist in der Lage, die relevanten Informationen aus dem digitalisierten Papierbeleg zu extrahieren und entsprechend zu verwerten; die Automatisierung geht an dieser Stelle über die reine Extration hinaus und betrifft vor allem die semantisch korrekte Interpretation der Daten.
Während KI-Funktionalitäten aktuell noch nicht Teil aller am Markt verfügbaren Software-Systeme sind, verdeutlichen die beiden Beispiele die weitere Entwicklung und die zukünftigen Potentiale, die aus der Kombination von RPA und KI entstehen werden. Im folgenden Abschnitt wird eine Auswahl relevanter Marktteilnehmer im Bereich RPA präsentiert.
5.5 Marktübersicht
Die folgende Übersicht zu aktuell am Markt verfügbaren Software-Lösungen stellt eine Auswahl von drei Tools dar, die laut dem Marktforschungsunternehmen Gartner zu den Technologieführern im Bereich RPA zählen (vgl. Abbildung 41).
Abbildung 41: Übersicht zu RPA-Software-Lösungen
Die Lösungen der Unternehmen Blue Prism und UiPath zeichnen sich durch einen sehr breiten Funktionsumfang sowie die klare Ausrichtung auf den skalierbaren Einsatz in großen IT-Systemlandschaften aus. Wichtig in diesem Zusammenhang ist z. B. die Wahl zwischen einer lokalen Installation der Plattform (sogenanntes on-premise) und dem Betrieb der Services in einer privaten oder öffentlichen Cloud (z. B. Microsoft-Azure-Instanz oder Cloud des RPA-Anbieters, sogenanntes on-demand).
Daneben bieten die Anbieter eine Zertifizierung nach IT-Sicherheitskriterien sowie den rechtssicheren Umgang und die datenschutzrechtlich konforme Datenhaltung in entsprechenden Cloud-Anwendungen. Teilweise kommen spezielle Zertifizierungen hinzu, die den Einsatz in stark regulierten Bereichen erlauben. Die weiteren in Abbildung 41 aufgeführten Anbieter legen teilweise einen speziellen Fokus auf die Automatisierung von Abläufen in Spezialsoftware, die Anbindung von branchenspezifischen Systemen oder die individuelle Erweiterbarkeit durch Eigenimplementierungen. Für eine umfassende Software-Auswahl unter Berücksichtigung konkreter Anforderungen im eigenen Unternehmen sollten alle verfügbaren Lösungen einer gründlichen Untersuchung unterzogen und miteinander verglichen werden.
Software/Anbieter Beschreibung
Die Intelligent RPA Platform von Blue Prism stellt eine integrierte Plattform zum Einsatz von RPA in Unternehmen dar. Der Betrieb der Plattform kann lokal oder in der Cloud erfolgen. Funktionalitäten sind zwischen den drei Komponenten Object Studio (Erstellung automatisierter Prozesse, Konfiguration von Services), Control Room (Überwachung der Ausführung, Skalierung der Roboter) und Digital Workforce (einzelne Software-Roboter) aufgeteilt.
Die Basisvariante der Plattform kann kostenlos verwendet werden und besitzt gegenüber der kommerziellen Vollversion einen eingeschränkten Funktionsumfang.
Eine Besonderheit der Lösung ist, dass sie sich durch die explizite Berücksichtigung von Standards wie FIPS (Federal Information Processing Standards) der US-Regierung auch für den Einsatz in stark regulierten Bereichen eignet, in denen eine hohe Compliance-Sicherheit eine große Rolle spielt. Daneben verfügt Blue Prism über verschiedene kognitive Services, beispielsweise zur Adaption von Prozessverhalten aus Ereignislogs und zur visuellen Verarbeitung von Eingabedaten wie Bildern oder unstrukturierten Dokumenten. Diese sind in Form sogenannter Skills verfügbar, die vorgefertigte Bausteine darstellen und ohne Implementierungsaufwand eingesetzt werden können.
UiPath Enterprise RPA
Platform9
UiPath
Die UiPath Enterprise RPA Platform unterteilt die Funktionalitäten zur Verwaltung, Ausführung und Überwachung von Software-Robotern ähnlich wie Blue Prism in die drei Komponenten Studio, Orchestrator und Robots.
Die Studio-Komponente enthält neben einem Modellierungswerkzeug für die Erstellung automatisierter Prozessvarianten auch eine Bibliothek mit vorgefertigten Lösungen für Standardprozesse. Eine Besonderheit stellt die Möglichkeit zur Erweiterung durch Eigenimplementierungen in unterstützten Programmiersprachen wie VB.Net, C#, Python und Java dar. Innerhalb der Orchestrator-Komponente kann die Ausührung von Software-Robotern in Echtzeit überwacht und nach einem Zeitplan gesteuert werden. Je nach Art der Installation (lokal, private oder öffentliche Cloud) können außerdem erweiterte Analysefunktionalitäten direkt eingebunden und die Zahl der eingesetzten Software-Roboter zur Laufzeit skaliert werden. Die Robots-Komponente betrifft die Gestaltung der Software-Roboter selbst. Hierbei ist insbesondere die weit fortgeschrittene Möglichkeit zur unüberwachten Ausführung im Hintergrund ein Alleinstellungsmerkmal. Daneben bietet die Komponente die Möglichkeit zur Anbindung verschiedener kognitiver Services wie Computer Vision zum Auslesen von unstrukturierten Informationen aus verschiedenen Quellsystemen sowie Verfahren zur Bilderkennung für die Extraktion von relevanten Daten aus Dokumenten und Bildern.
Abbildung 42: Übersicht zu kommerziellen RPA-Lösungen
6 Definition einer Prozessdigitalisierungsstrategie
6.1 Bewertung von Digitalisierungsreife
In den voranstehenden Abschnitten wurden verschiedene Bausteine für die Digitalisierung von Geschäftsprozessen vorgestellt. Bei der Frage, wie diese zusammengebracht werden können, um eine Strategie für eine ganzheitliche Prozessdigitalisierung zu entwickeln, bietet sich die strukturierte Betrachtung des Themenfelds Digitale Transformation an.
Wie in Abschnitt 2.1.1 bereits erwähnt, verändert die Digitalisierung verschiedene Bereiche eines Unternehmens. Demnach lassen sich Enabler, Objekte, Verwender und Akteure unterscheiden, die alle miteinander in Beziehung stehen, sich gegenseitig beeinflussen und zu wechselseitigen Abhängigkeiten führen. Weiterhin erreichen Unternehmen im Allgemeinen nicht in allen genannten Aspekten die gleichen Fortschritte und befinden sich demzufolge auf unterschiedlichen Entwicklungsständen. Beispielsweise können bei den Enablern große Defizite im Bereich der Vernetzung, der Verfügbarkeit von Kommunikationstechnologien, dem Datenaustausch oder der Ausstattung mit modernen Computersystemen und -schnittstellen bestehen. Objekte müssen die Möglichkeit bieten, Daten zu generieren, das Unternehmen muss in der Folge aber auch in der Lage sein, diese Daten strukturiert zu erfassen, zu verwalten und sinnvoll auszuwerten. Schließlich müssen die Akteure – Mitarbeiter im Unternehmen, Lieferanten, Kunden – bereit sein, die notwendigen Veränderungen mitzutragen. Wenn diese Voraussetzungen gegeben sind, muss ferner sichergestellt werden, dass sie auch dazu befähigt werden, was beispielsweise durch Schulungen, Weiterbildungen und Trainings im Umgang mit neuen Technologien ermöglicht werden kann. Der Fokus des vorliegenden Skriptums liegt im Bereich der Digitalisierung von Prozessen als Verwender der digitalen Transformation. Aufgrund der Menge verfügbarer Daten sowie neuer Technologien aus dem Bereich Advanced Analytics und der Automatisierungstechnik können digitale Prozesse vollkommen neu gestaltet, transparent und jederzeit nachverfolgt und intelligent automatisiert werden. Allerdings bestehen auch in diesem Bereich Abhängigkeiten zu anderen Digitalisierungsinitiativen innerhalb eines Unternehmens. Im Rahmen der Diskussion des BPM-Lebenszyklusmodells ist beispielsweise das Thema der strategischen Ausrichtung von Prozessen bereits angeklungen; die Digitalisierung von Prozessen kann also nicht losgelöst von der Gesamtunternehmensstrategie geschehen und muss außerdem in Relation zu den verfügbaren Ressourcen und Kompetenzen der Mitarbeiter im Umgang mit digitalen Technologien stehen.
Als Werkzeug zur systematischen Untersuchung der aufgezeigten Beziehungen und zur Bewertung und gezielten Weiterentwicklung einzelner Bereiche der digitalen Transformation haben sich Reifegradmodelle etabliert. Diese verfügen typischerweise über eine Menge von Kriterien, um verschiedene Betrachtungsbereiche wie die Strategie eines Unternehmens, seine Prozesse, die verfügbaren Daten und Technologien sowie die Unternehmenskultur strukturiert zu bewerten und auf einer Reifegradstufe einzuordnen. Reifegradmodelle definieren außerdem eine geordnete Sequenz einzelner Stufen, welche den Weg von einer anfänglich geringen Reife über mehrere Zwischenschritte bis hin zu einer hohen Reife beschreiben. Zusätzlich zur rein deskriptiven Verortung innerhalb einer Stufe und Dimension enthält ein Reifegradmodell konkrete Handlungsempfehlungen, um die Reife bezüglich eines bestimmten Kriteriums zu verbessern und damit insgesamt eine höhere Reifegradstufe zu erreichen.
Einen Ansatzpunkt kann das Reifegradmodell nach Appelfeller & Feldmann (2018, S. 23) darstellen. Dieses teilt das Konzept Digitale Transformation in die neun Teilbereiche Lieferanten, digitale Maschinen & Roboter, digitalisierte Mitarbeiter, digitalisierte Produkte & Dienstleistungen, digitale Daten, digitale Vernetzung, IT-Systeme, digitalisierte Prozesse sowie Kunden. Für jeden dieser Teilbereiche wird eine Stufendarstellung erarbeitet, um jedes Element anhand einer Kriterienliste in eine von vier Entwicklungsstufen einzuordnen. Am Beispiel des Geschäftsmodells definieren die Autoren die folgenden Abstufungen: (1) analoges Geschäftsmodell, (2) analoges Geschäftsmodell mit digitalen Prozessen, (3) digital erweitertes Geschäftsmodell und (4) digitales Geschäftsmodell.
Eine Bewertung des eigenen Unternehmens in Bezug auf den aktuellen Digitalisierungsstand anhand eines Reifegradmodells kann helfen, eine objektive Standortbestimmung durchzuführen. Dieser aktuelle Stand kann für die gezielte Analyse von Verbesserungspotentialen in einzelnen Bereichen genutzt werden und die Grundlage für eine Priorisierung von Digitalisierungsaktivitäten darstellen. Hieraus lassen sich anschließend konkrete Zielsetzungen für eine Digitalisierungsstrategie ableiten.
6.2 Vorgehen zur Prozessdigitalisierung
Das Zusammenwirken der drei in diesem Skriptum behandelten Bausteine zur Prozessdigitalisierung – Modellierung digitaler Prozess, Process-Mining-Analysen und Automatisierung mittels RPA – wurde an verschiedenen Stellen bereits punktuell erwähnt. Abbildung 43 fasst die unterschiedlichen Einflüsse und Wechselwirkungen der drei Bausteine zusammen.
Aus dem Zusammenwirken der einzelnen Elemente kann anschließend ein generisches Vorgehensmodell zur Digitalisierung von Prozessen abgeleitet werden.
Abbildung 43: Zusammenwirken der Bausteine zur Prozessdigitalisierung
Die aus der Strategieentwicklung abgeleiteten Zielsetzungen fließen typischerweise im Rahmen der Konzeption in die Modellierung digitaler Prozesse ein. Diese stellt damit den ersten Schritt zur Prozessdigitalisierung dar und ermöglicht eine gezielte Auswahl und Priorisierung von Prozessen. Die Modellierung wiederum dient als Vorlage für die technische Umsetzung und Ausführung von Prozessen, aus der wichtige Erkenntnisse über die tatsächlichen Abläufe in der Realität gezogen werden können. Process-Mining-Analysen stellen ein Werkzeug dar, um digitalisierte Prozesse bezüglich ihrer Regelkonformität und Performance zu untersuchen und unerwünschte Abweichungen zwischen modellierten Soll-Prozessen und tatsächlichen Ist-Prozessen zu identifizieren. Damit stellt die detaillierte Analyse des Prozessverhaltens in der Realität den zweiten Schritt zur Prozessdigitalisierung dar. Die Ergebnisse der Analysen werden im Rahmen der Modellierung aufgegriffen und zur Verbesserung und Aktualisierung bestehender Modelle verwendet, bilden gleichzeitig aber auch die Grundlage für eine Automatisierung mittels RPA und stellen damit den dritten Schritt zur Prozessdigitalisierung dar. Die Wahl der zu automatisierenden Prozesse muss sowohl unter Einbezug strategischer Rahmenvorgaben als auch auf Basis der Analyseergebnisse des tatsächlichen Prozessverhaltens geschehen. Aus der Automatisierung ergibt sich ein direkter Einfluss auf die Ausführung der Prozesse. Darüber hinaus besteht folgender wechselseitiger Einfluss zwischen der Modellierung und der Automatisierung: Modelle stellen die ideale Ausgangsbasis für die Abbildung von automatisierten Prozessen in RPA-Software dar und können teilweise sogar direkt in diese importiert werden. Andererseits müssen Automatisierungsschritte und der Einsatz von RPA innerhalb der Modelle aus Dokumentationsgründen gepflegt werden.Process-Mining-Analysen
Automa sierung mi els RPA
Modellierung digitaler Prozesse
Ausführung
Strategieentwicklung
Zusammenfassend lässt sich das Vorgehen zur Prozessdigitalisierung anhand der drei vorgestellten Bausteine in den folgenden Schritten zusammenfassen:
1. Modellierung digitaler Prozesse unter Beachtung der strategischen Prozessausrichtung und Priorisierung von Prozessen,
2. Process-Mining-Analysen zur Prüfung der Übereinstimmung zwischen modelliertem und gelebtem Prozessverhalten sowie zur transparenten Prozessüberwachung und frühzeitigen Identifikation möglicher Abweichungen und
3. Automatisierung mittels RPA auf der Grundlage der modellierten Prozesse unter Berücksichtigung der Analyseergebnisse und des in der Realität verifizierten Prozessverhaltens.
Weiterhin sollten die folgenden allgemeinen Aspekte bei der Durchführung eines Projektes zur Prozessdigitalisierung beachtet werden. Diese Aspekte sind nicht auf eine bestimmte Phase im Rahmen der Digitalisierung beschränkt und müssen im Verlauf eines Projektes teilweise iterativ durchlaufen werden:
• Klare Zieldefinition: Bei der Durchführung eines Digitalisierungsprojektes sollte das Ziel und damit das erwartete Ergebnis klar definiert sein (vgl. auch den folgenden Punkt). Dies betrifft insbesondere den zweiten und dritten Schritt: Die Analyse von Prozessverhalten mittels Process Mining sollte immer mit einer klaren Intention durchgeführt werden und die Ergebnisse dementsprechend verwertet werden. Wenn beispielsweise die explorative Analyse von möglichem Prozessverhalten erkundet werden soll, muss im Anschluss entschieden werden, wie mit abweichendem Verhalten umgegangen werden soll. Sollen Performance-Probleme bei bestimmten Prozessinstanzen genauer untersucht werden, sollten diese im Anschluss behoben werden. Diese Fragestellungen lassen sich klassischen Data-Science-Projekten zuordnen, bei denen als Ergebnis eine detaillierte Problemanalyse und eine Menge an Handlungsempfehlungen stehen. Etwas anderes ist die Implementierung von Process Mining als permanentes Werkzeug zur Prozessüberwachung und Konformanzprüfung.
• Digitalisierung ist kein Selbstzweck: Die Digitalisierung und insbesondere die Automatisierung eines Prozesses sollte immer in Abstimmung mit der grundsätzlichen Prozessstrategie stehen und unter Beachtung wirtschaftlicher Rahmenbedingungen durchgeführt werden. Nicht jede technisch realisierbare Prozessautomatisierung unter Verwendung von RPA mag aus wirtschaftlicher Sicht sinnvoll sein. Im Allgemeinen bietet es sich an, diejenigen Prozesse für eine Digitalisierung zu wählen, die eine hohe (wirtschaftliche) Relevanz für das Unternehmen haben und beispielsweise aufgrund häufiger oder zeitintensiver Ausführung hohe Kosten verursachen. Weiterhin sollten die vorgestellten Methoden immer in ihrer Gesamtheit betrachtet werden, um die bestmögliche Prozessunterstützung zu ermöglichen. Beispielsweise kann eine Process-Mining-Analyse, die einer RPA-Implementierung vorausgeht, aufzeigen, dass das angenommene Prozessverhalten in der Praxis anders gelebt wird. Bevor ein in der Realität nicht vorkommendes Verhalten automatisiert wird, kann die Möglichkeit einer gezielten Prozessoptimierung ausgeschöpft werden und im Anschluss dieser optimierte Prozess als Grundlage für eine Automatisierung verwendet werden.
• Relevante Daten und IT-Systemen: In allen Phasen der Prozessdigitalisierung spielen IT-Systeme und die darin verarbeiteten, prozessbezogenen Daten eine wichtige Rolle. Bei der Analyse von Prozessverhalten mittels Process Mining ist die Identifikation relevanter Daten oftmals eine große Herausforderung, da für die Erstellung eines kompletten Ereignislogs, das alle Schritte eines Geschäftsprozesses enthält, häufig die Kombination von Daten aus verschiedenen IT-Systemen notwendig ist. In der Praxis muss hier auch häufig auf eine iterative Vorgehensweise zurückgegriffen werden, um relevante Datenbestände zu identifizieren, in ersten Analysen zu untersuchen und ggf. um weitere Daten zu erweitern, um ein vollständiges Bild zu erhalten. Gleiches gilt für die Automatisierung von Prozessen und einzelnen Aufgaben mittels RPA. Die vorhandenen Systeme sind von enormer Bedeutung für die konkrete Implementierung der RPA-Lösung. Aus den genannten Gründen sollte die Berücksichtigung der für das Projekt notwendigen Daten und zu berücksichtigenden IT-Systeme bereits frühzeitig erfolgen. Dies umfasst ebenso organisatorische Rahmenbedingungen wie erforderliche Zugriffsrechte, administrative Ansprechpartner oder den tatsächlichen Zugang zum System (lokal vs. Cloud).
Das dargestellte Vorgehensmodell für die Umsetzung von Projekten zur Prozessdigitalisierung setzt die drei Bausteine Modellierung digitaler Prozess, Process-Mining-Analysen und Automatisierung mittels RPA zueinander in Beziehung. In Kombination mit einer systematischen Evaluation des aktuellen Standes der Digitalisierung (beispielsweise über ein Reifegradmodell) kann dadurch eine gezielte digitale Unterstützung von Prozessen erreicht werden.
6.3 Skill Set im Rahmen der Prozessdigitalisierung
Im Zuge der Prozessdigitalisierung und der Durchführung von Digitalisierungsprojekten nach dem im vorherigen Abschnitt beschriebenen Vorgehensmodell kommen auch auf die Mitarbeiter von Unternehmen neue Herausforderungen zu. Die nachfolgenden Punkte skizzieren wichtige Schritte, die in der Kommunikation mit Mitarbeitern im Rahmen einer Technologieerprobung oder -einführung adressiert werden sollten.
• Commitment der Mitarbeiter sichern: Wie bei allen Digitalisierungsinitiativen besteht auch bei der Prozessdigitalisierung eine wesentliche Herausforderung darin, das Commitment der beteiligten Mitarbeiter zu sichern. Es ist essentiell, dass diese die Ziele und Maßnahmen, z. B. bei der Einführung neuer Technologien oder der Veränderung von Prozessabläufen, aktiv unterstützen und mittragen. Prozessabläufe gegen den Willen von Mitarbeitern zu optimieren, die täglich in diesen Strukturen arbeiten, wird auf Dauer nicht zu einer Verbesserung führen, auch wenn die Optimierung aus sachlogischer Sicht gerechtfertigt erscheint. Gleiches gilt für den Einsatz von Process-Mining-Analysen, mit denen Mitarbeiter im ersten Moment auch die Gefahr einer sehr detaillierten Überwachung und die Vorstellung, „gläsern“ zu werden, verbinden können. Wie beschrieben, kann der Einsatz von Process Mining nur in enger Kooperation zwischen Fachexperten und Prozessanalysten sinnvoll erfolgen; eine gegenseitige Unterstützung beider Partner ist darum sehr wichtig. Gleiches gilt für den Einsatz von RPA, der sich in Absprache mit Mitarbeitern insbesondere auf die Bereiche fokussieren sollte, wo eine tatsächliche Entlastung von Routinetätigkeiten mit mehr Zeit für kommunikative oder komplexe Aufgaben einhergehen kann.
• Bewusstsein für technologische Potentiale schaffen: Ein wichtiger Baustein in der Zusicherung des Commitments von Mitarbeitern ist das Schaffen eines einheitlichen Verständnisses und Bewusstseins für technologische Potentiale. Nur wenn die Möglichkeiten einer neuen Technologie verstanden und Vorteile darin für die eigene Tätigkeit erkannt werden, wird eine aktive Unterstützung seitens der Mitarbeiter einsetzen. Genauso wie die Digitalisierung keinen Selbstzweck darstellt (vgl. Abschnitt 6.2), ist auch eine technologische Neuerung per se nicht faszinierend, sondern gewinnt durch ihren praktischen Nutzen an Relevanz. Weiterhin ist für viele Fälle auch gerade die aktive Einbindung von Fachexperten ohne technischen Hintergrund von immenser Bedeutung, um technische Potentiale überhaupt zu realisieren. Ein Beispiel hierfür ist die Definition von Use Cases anhand praktischer Problemstellungen, die aus einer rein technischen Perspektive ohne Kenntnisse der Fachprobleme überhaupt nicht bekannt sind. Zur Implementierung von RPA-Anwendungen beispielsweise ist eine enge Abstimmung mit den Sachbearbeitern des zu automatisierenden Prozesses notwendig, um fachlich korrekte Prozesse zu automatisieren.
• Ängste und Bedenken ernst nehmen: Ein Bewusstsein für technologische Potentiale und ein Begreifen der Möglichkeiten, aber auch Grenzen einer Technologie können dabei helfen, mögliche Bedenken abzubauen. In jedem Fall ist es notwendig, diese Bedenken und Ängste ernst zu nehmen und geeignet zu adressieren. Während Mitarbeiter bei der Einführung von Automatisierungslösungen vielleicht befürchten, zukünftig mit einer Software konkurrieren zu müssen oder durch diese ersetzt zu werden, bestehen beim Einsatz von Process Mining oftmals Ängste gegenüber zu hoher Transparenz.
Eine Befürchtung ist hier, dass Fehler im eigenen Verhalten in den Daten sichtbar gemacht werden können und zu negativen Konsequenzen führen. Diese Bedenken lassen sich nur durch einen aktiven Einbezug der Mitarbeiter und eine offene Kommunikation über die Ziele und angestrebten Verbesserungen insgesamt zerstreuen. Um die zuvor genannten Punkte angemessen zu berücksichtigen, bieten sich gezielte Schulungen und Fortbildungen für Mitarbeiter an, um ein Skill Set für die Herausforderungen der Prozessdigitalisierung zu entwickeln. An erster Stelle zu nennen sind hierbei technische Grundlagenschulungen, um Ängste und Bedenken gegenüber neuen Technologien abzubauen und ein Bewusstsein für deren Möglichkeiten zu schaffen. Dieses bildet die Grundlage, Fürsprache seitens der Mitarbeiter zu sicher, denn diese müssen von den Möglichkeiten der Technologie tatsächlich überzeugt sein. Inhalte einer technischen Grundlagenschulung sollten insbesondere die allgemeinen Funktionsweisen von Methoden wie Process Mining oder RPA sein.
Hierbei geht es nicht darum, die Teilnehmer in der praktischen Anwendung der Methoden auszubilden, sondern vielmehr darum, ein grundsätzliches Verständnis zu schaffen, beispielsweise um dann in gemeinsamen Workshops nach geeigneten Use Cases und Anwendungsmöglichkeiten im Unternehmen zu suchen. Nur wer eine Technologie und ihre Möglichkeiten versteht und Potentiale für die eigene Arbeit bewerten kann, ist auch in der Lage, wertvolle Beiträge aus Sicht der Fachseite zu liefern. Aus diesem Grund sollte diese Form der Schulung auch breit angelegt werden und allen Mitarbeitern zugänglich sein, die mit einer der betreffenden Techniken in Kontakt kommen.
Darauf aufbauend kann eine technische Expertenschulung für eine Teilgruppe der Mitarbeiter durchgeführt werden, die tatsächlich mit den betreffenden Technologien arbeiten. Hierzu zählen beispielsweise Weiterbildungen im Umgang mit Software-Werkzeugen zur Modellierung von Geschäftsprozessen oder zur explorativen Prozessdatenanalyse mittels Process Mining. Bei diesen Technologien ist davon auszugehen, dass ein dezentraler Einsatz und eine häufige Verwendung stattfinden. So müssen z. B. Prozessbeschreibungen oftmals von verschiedenen Abteilungen aktualisiert oder verfeinert werden, sie dienen als Eingabe für Diskussionen oder zur Kommunikation mit internen und externen Parteien. Ähnliches gilt für Process Mining, das von verschiedenen Anwendern in periodischen Abständen eingesetzt werden kann, um bestimmte Sachverhalte zu überprüfen (z. B. „Warum benötigt ein bestimmter Bestellprozess gerade so viel Zeit?“). Dementsprechend macht es Sinn, das Wissen im Umgang mit diesen Technologien intern und dezentral aufzubauen, anstatt eine zentrale Fachgruppe zu etablieren. Eine Weiterbildung kann über verschiedene Ansätze realisiert werden, wobei sich initial eine Schulung durch externe Berater oder Trainer anbietet. Diese kann anschließend über Train-the-Trainer-Konzepte im Unternehmen weitergetragen werden, sodass nur noch in größeren zeitlichen Abständen Input von außen notwendig ist, beispielsweise bei neuen technologischen Entwicklungen.
Für spezielle Technologiethemen, die eher den Charakter einer einmaligen Implementierung aufweisen, bietet sich die technische Expertenschulung eines Fachteams an. Eine Prozessautomatisierung mittels RPA erfolgt üblicherweise als klar umgrenztes Projekt, welches mit der Implementierung eines Software-Robots endet, der im Regelfall nicht in kurzen Abständen angepasst werden muss. Aus diesem Grund kann das technische Wissen zur Implementierung und Administration intern in einem kleineren Team gebündelt oder sogar komplett extern bezogen werden (insbesondere, wenn eine Software-Lösung ebenfalls on-demand aus der Cloud bezogen wird). Unabhängig von den genannten Differenzierungen der Schulungs- und Fortbildungsmaßnahmen lassen sich einige Fertigkeiten zur Prozessdigitalisierung in Form eines Skill Sets zusammenfassen:
• Problembewusstsein für die Gestaltung und Modellierung von Prozessabläufen,
• Fähigkeit zur Strukturierung von Abläufen und Entscheidungsstrukturen in formalen Notationen,
• Wissen um die Abbildung von Geschäftsprozessen in IT-Systemen,
• Verständnis von Daten- und Prozessschnittstellen in IT-Systemen,
• Fähigkeiten in der Extraktion und Auswertung von großen Datenmengen in strukturierten Datenformaten,
• Wissen zur Auswertung und Interpretation von Daten (Data Analytics, statistische Kenntnisse) und
• Fähigkeit zur Kommunikation von Analyseergebnissen und der Ableitung von Verbesserungsmaßnahmen.
Nicht alle der genannten Fertigkeiten müssen für alle Rollen gleichermaßen ausgebildet sein, auch können die Fertigkeiten mit einer unterschiedlichen Tiefe an Fachexpertise zum Kerngeschäft eines Unternehmens kombiniert werden. Gerade für die Weiterentwicklung der genannten Fähigkeiten existieren diverse Weiterbildungsangebote auf Lernplattformen wie Coursera, Udemy oder edX, die professionelle und zertifizierte Kurse renommierter Universitäten wie der Columbia University oder des Massachusetts Institute of Technology (MIT) anbieten. Diese ermöglichen eine berufsbegleitende Weiterbildung von Mitarbeitern und ein Training on the Job.
6.4 Zusammenfassung und Ausblick
Die Digitalisierung von Geschäftsprozessen ist nur eine Ausprägung der digitalen Transformation innerhalb eines Unternehmens. Geschäftsprozesse stehen aufgrund der direkten Beziehungen zu den operativen Tätigkeiten eines Unternehmens als Verwender der neuen technologischen Möglichkeit aber im direkten Fokus dieser Entwicklungen. Sie nehmen damit eine zentrale Rolle für neuartige Service-Angebote, Ablaufstrukturen und veränderte Wertschöpfungsangebote von Unternehmen ein.
Wie in den vorangegangenen Abschnitten aufgezeigt wurde, umfasst das Thema Prozessdigitalisierung unterschiedliche Aspekte. Im Verlauf dieses Skriptums wurden insbesondere die Zusammenhänge zwischen der digitalen Modellierung, der Analyse und dem Monitoring von realen Prozessabläufen und der intelligenten Automatisierung mittels RPA fokussiert.
Hierbei wurde insbesondere die Zielsetzung verfolgt, das Themenfeld der Prozessdigitalisierung im Kontext der digitalen Transformation zu strukturieren und wichtige Kernbestandteile zu identifizieren. Aufeinander aufbauend wurden hierzu die folgenden Punkte behandelt:
• Eine Einführung in aktuelle Trends der digitalen Transformation sowie eine Übersicht über aktuelle Treiber der Digitalisierung wurden in Kapitel 1 präsentiert. Dort wurden weiterhin die spezifischen Potentiale einer Prozessdigitalisierung sowie neue Anforderungen an digitalisierte Geschäftsprozesse formuliert.
• In Kapitel 2 erfolgte die Einordnung des Themenfelds Prozessdigitalisierung in den Bezugsrahmen eines allgemeinen Konzepts zum Geschäftsprozessmanagement. Diese Einordnung bildete die Ausgangsbasis für die Modellierung von digitalisierten Prozessen sowie die Klärung begrifflicher Grundlagen, um unterschiedliche Aspekte der Prozessdigitalisierung voneinander abzugrenzen. Anhand der Notationssprachen EPK, BPMN und Petri-Netze wurden anschließend konkrete Modellierungskonventionen vorgestellt und in Bezug auf die Abbildung digitaler Prozesse bewertet. Die explizite Modellierung von Entscheidungsstrukturen mittels DMN, die als Grundlage für eine digitale Abbildung und Automatisierung von Prozessen dient, stellte hierbei eine Vertiefung dar.
• Um ein einheitliches Verständnis theoretischer Grundlagen aus den Bereichen Data Mining und Machine Learning zu etablieren, wurde eine Zusammenfassung wichtiger Kernkonzepte in Kapitel 3 präsentiert. Die Darstellung wurde um die spezifische Perspektive auf Prozessdaten komplettiert, welche insbesondere zur Motivation der Analysemethode Process Mining dient und darüber hinaus eine weitergehende Nutzung von Prozessdaten, beispielsweise zur Verwendung als Eingabeparameter für maschinelle Lernverfahren, beispielhaft illustriert.
• Kapitel 4 befasste sich mit der KI-gestützten Prozessdatenanalyse mittels verschiedener Methoden aus dem Bereich Process Mining. Zunächst erfolgte eine grundsätzliche Positionierung von Process Mining innerhalb des Geschäftsprozessmanagements, um dessen Einsatz zu kontextualisieren. Anschließend wurden die Grundlagen von geeigneten Ereignislogs behandelt, welche historische Ausführungsdaten beinhalten und als Eingabe für Analysen dienen. Darauf aufbauend wurden die drei Methoden Process Discovery zur Entdeckung von Prozessstrukturen aus Prozessinstanzdaten, Process Conformance Checking zur Verifikation von Prozessverhalten in der Realität und zur Erkennung von möglichen Abweichungen sowie Process Enhancement als Sammelbegriff für Methoden zur gezielten Verbesserung und Optimierung von Geschäftsprozessen vorgestellt. Die Darstellung wurde komplettiert durch eine Auswahl aktuell verfügbarer Process-Mining-Software sowohl aus dem akademischen als auch dem kommerziellen Bereich sowie durch eine Übersicht über Methoden, die innerhalb dieser Software-Tools zur Verfügung stehen.
• Die intelligente Prozessautomatisierung mittels Robotic Process Automation (RPA) wurde innerhalb von Kapitel 5 behandelt. Nach einer einführenden Darstellung charakteristischer Merkmale von RPA-Software sowie einer Abgrenzung der Systeme untereinander erfolgten die Darstellung eines möglichen Automatisierungsszenarios sowie eine Übersicht über die Evolution von RPA-Systemen. Das Kapitel schloss mit einer Übersicht über die drei führenden Software-Anbieter in diesem Bereich.
• Im abschließenden Kapitel 6 wurde ein Vorgehensmodell für die Digitalisierung von Prozessen anhand der zuvor eingeführten Einzelmethoden Modellierung, Analyse und Automatisierung vorgestellt. Weiterhin wurden diverse Möglichkeiten zur Umsetzung von Fortbildungs- und Schulungsmaßnahmen sowie verschiedene Fertigkeiten zur Prozessdigitalisierung in Form eines Skill Sets zusammengefasst.
7 Fallstudien
7.1 Verbesserung von Behandlungsprozessen in Kliniken durch Process Mining
7.1.1 Ausgangslage und Szenario
Die vorliegende Fallstudie wurde in den Krankenhauskliniken der Isala Clinics durchgeführt, welche den größten nicht-akademischen Klinikkomplex der Niederlande darstellen. Die Kliniken verfügen über insgesamt sieben verschiedene Standorte mit einer Gesamtzahl von knapp 1.000 Betten (vgl. ProcessMining.org [2014]).
Innerhalb der einzelnen Kliniken werden erhebliche Anstrengungen unternommen, um die Qualität der Prozesse zu verbessern. Zu diesem Zweck sind beispielsweise detaillierte Beschreibungen dieser Prozesse erforderlich. Um Einblicke in laufende Behandlungsprozesse zu erhalten, ist allerdings viel Zeit für die Kommunikation zwischen behandelnden Ärzten und das Studium von Patientenakten notwendig. Innerhalb der Isala-IT-Systeme standen große Mengen an Prozessdaten zur Verfügung, die sich für eine Auswertung durch Process Mining als vielversprechender Ansatzpunkt herausstellten. Im Rahmen der Fallstudie wurden die fünf am häufigsten durchgeführten Behandlungsprozesse der urologischen Abteilungen analysiert. Hierbei handelte es sich sowohl um medizinisch komplexe Abläufe für Patienten, die eine stark individualisierte Behandlung benötigen (Krebserkrankungen, Nierensteine), als auch um medizinisch weniger komplexe Abläufe, bei denen eine standardisierte Behandlung ausreichend ist (Phimose, Hydrozele, Hodenhochstand). Diese fünf Prozesse sind den fünf Patientengruppen 1:1 zugeordnet.
Die Anwendung von Process Mining sollte explorativ ausgerichtet werden, d. h., der Ist-Zustand der Prozessabläufe sollte ohne die gezielte Überprüfung von vorab definierten Hypothesen untersucht werden. Gleichzeitig wurden aber die folgenden Fragestellungen vonseiten des Klinikpersonals im Rahmen der Analysen berücksichtigt:
• Wie ist das regelmäßige Verhalten für jede Patientengruppe?
• Gibt es obligatorische medizinische Schritte, die nicht bei Patienten durchgeführt werden?
• Gibt es irgendwelche Schritte, die vermieden werden sollten?
• Können durch Optimierungen Zeiteinsparungen realisiert werden?
7.1.2 Datenauswahl und -extraktion
Die Auswahl geeigneter Datenbestände für die Anwendung von Process-Mining-Analysen geschah in Zusammenarbeit zwischen Datenanalyseexperten und den Fachexperten innerhalb der Kliniken (vgl. Abschnitt 4.2.2). Die Konzentration auf Behandlungsprozesse innerhalb der urologischen Abteilungen erlaubte eine gezielte Einschränkung auf relevante Abläufe bei überschaubarer Fallzahl, ohne weitere Filterkriterien anlegen zu müssen. Für eine erste Analyse und Potentialabschätzung für weitere Prozesse in anderen Fachbereichen stellte sich diese Fokussierung als ideal heraus.
Die Daten wurden aus dem Finanzmodul des in den Kliniken verwendeten Informationssystems entnommen, um für jeden Patienten die von der Klinik erbrachten Leistungen zu identifizieren. Diese Daten wurden um Informationen aus einem Belegungssystem ergänzt, um für die Patienten den Beginn und das Ende ihres Klinikaufenthalts zu ermitteln. Im finalen Datensatz waren alle Aktivitäten enthalten, die über einen Zeitraum von Januar 2009 bis Dezember 2011 für die fünf ausgewählten Patientengruppen durchgeführt wurden.
• 1.386 Fälle (behandelte Patienten)
• 31.378 Ereignisse (Aktivitäten, die für diese Patienten durchgeführt wurden)
• 232 verschiedene Aufgaben (z. B. Untersuchungen, Behandlungen, Aufnahme auf einer Pflegestation)
• 1.124 verschiedene Ablaufsequenzen (von insgesamt 1.386 Sequenzen)
Die große Anzahl an einzelnen Ablaufsequenzen deutet bereits auf eine sehr hohe Variation zwischen den einzelnen Prozessabläufen hin. Diese wurde anschließend detaillierter untersucht.
7.1.3 Analyse des Prozessverhaltens und der Performance
Als eine der ersten Analysen für jede Patientengruppe wurden die zeitlichen Verteilungen der Prozessdurchläufe nach ihrer Durchlaufzeit visualisiert (vgl. Abschnitt 4.5.2). Hierdurch wurde ersichtlich, dass sich zwei Prozessmuster identifizieren lassen:
• Für Patienten mit weniger komplexen Erkrankungen (Phimose, Hydrozele, Hodenhochstand) beträgt die durchschnittliche Behandlungszeit ca. 4 Monate. Darüber hinaus gibt es eine hohe Varianz in der Behandlungszeit, beispielsweise werden einige Patienten bereits nach einem Monat entlassen, während andere Patienten für mehr als ein Jahr in Behandlung waren.
• Für die medizinisch komplexen Erkrankungen (Blasenkrebs, Nierensteine) war die durchschnittliche Behandlungszeit deutlich kürzer (ca. 2 Monate) und wies weiterhin auch eine geringere Variation auf.
Abbildung 44: Zeitliche Verteilung der Behandlungszeiten
(Quelle: ProcessMining.org, 2014)
In Abbildung 44 ist die Verteilung der Behandlungszeiten für die Patientengruppe mit Phimose visuell dargestellt. Die y-Achse stellt einzelne Patienten dar, während auf der x-Achse durch farbige Punkte einzelne Aktivitäten aufgeführt sind, die im Rahmen eines Behandlungsprozesses durchgeführt wurden. Die hohe Varianz der Durchlaufzeiten ist hier direkt erkennbar. In einem weiteren Schritt wurde die Prozess-Performance für jede Patientengruppe untersucht. Dadurch sollte unter anderem ergründet werden, warum es zu Wartezeiten für Patienten kommt und welche Maßnahmen zur Diagnose und Behandlung einen Einfluss auf die erzielte Durchlaufzeit der Behandlungsprozesse haben. Für jede Patientengruppe wurde daher durch die Anwendung von Process Discovery ein Prozessmodell aus den Ereignislogdaten erstellt und anhand von Performance-Kennzahlen analysiert (vgl. Abschnitt 4.5.2). Die folgenden Erkenntnisse konnten hieraus gewonnen werden:
• Für Patienten mit medizinisch weniger komplexen Erkrankungen ließen sich die zeitlichen Verzögerungen in den meisten Fällen auf Engpässe bei der Operation zurückführen, für die die durchschnittliche Wartezeit 1,5 Monate betrug. Einen weiteren Grund für Verzögerungen stellte die präoperative Beurteilung mit einer durchschnittlichen Wartezeit von etwa 22 Tagen dar.
• Obwohl es für alle Patientengruppen eine hohe Variation der Wartezeiten gab, war die durchschnittliche Wartezeit für Patienten mit medizinisch komplexen Erkrankungen sowohl für die Operation als auch für die präoperative Beurteilung deutlich geringer.
• Bei Patienten mit medizinisch weniger komplexen Erkrankungen war die Anzahl der vor einer Operation durchgeführten Maßnahmen (Aktivitäten im Prozessablauf) sehr gering. Bei allen drei untersuchten Patientengruppen wurden für mehr als 90% der Patienten höchstens vier verschiedene Aktivitäten durchgeführt. Diese Zahl war für Patienten mit komplexen medizinischen Erkrankungen wesentlich größer.
Insgesamt wurde deutlich, dass es bei den medizinisch nicht komplexen Erkrankungen hohe Wartezeiten für die Operation und die präoperative Beurteilung gab, obwohl die Anzahl der vor der Operation durchgeführten Maßnahmen gering ist. Für medizinisch komplexe Erkrankungen zeigt sich das genaue Gegenteil. An dieser Stelle scheint laut den Ergebnissen der Fallstudie eine sinnvolle Möglichkeit für Verbesserungen im Prozess zu bestehen.
7.1.4 Interpretation der Ergebnisse und nächste Schritte
Die Ergebnisse der erfolgten Analysen wurden im Anschluss mit den Fachexperten besprochen und auf Plausibilität überprüft. Anschließend erfolgte eine Präsentation vor verschiedenen Urologen und dem Leiter der Urologie der Kliniken.
Die hohe Transparenz der Abläufe verdeutlichte aktuelle Missstände aus Sicht der Patienten (wie beispielsweise die hohe Wartezeit vor Operationen), die dem Klinikpersonal so nicht bewusst waren. Dieses zeigte sich überrascht von der detaillierten Aufbereitung der Analysen; insbesondere die mögliche Detailbetrachtung der Behandlungsprozesse von einzelnen Patienten und die beliebige Aggregation zu Patientengruppen und Filterung nach diversen weiteren Attributen (Alter, Vorerkrankung etc.) kann zu einer maßgeblichen Verbesserung der Prozessqualität führen. Als weiterer Schritt wurde innerhalb der Isala-Kliniken ein Business Case erstellt, um die Einstellung von Mitarbeitern zu ermöglichen, die Process Mining zur Durchführung von Analysen für andere medizinische Disziplinen nutzen. Da das verwendete Klinikinformationssystem keine Möglichkeit zur Verfolgung und Statusabfrage einzelner Behandlungsprozesse bietet (z. B. die durchschnittliche Zeit zwischen der Operation und der vorherigen Untersuchung), sollte geprüft werden, ob sich diese Funktionalität durch ProcessMining-Komponenten nachrüsten lässt. Die geplante Verwendung der erzielten Analyseergebnisse demonstriert den praktischen Nutzen von Process Mining im Gesundheitsbereich.
7.2 RPA-basierte Automatisierung der Abwicklung von Versicherungsansprüchen
7.2.1 Ausgangslage und Szenario
Innerhalb der vorliegenden Fallstudie wird das Potential von Robotic Process Automation (RPA) für die Automatisierung verschiedener Schritte innerhalb der Abwicklung von Versicherungsansprüchen bei Krankenversicherungen demonstriert. Die folgenden Ausführungen beruhen auf den Beschreibungen von The Lab (2019). Um neu eingehende Anträge eines Arztes oder Krankenhauses für ein Verfahren zu überprüfen, sind hohe Aufwände für die Transkription und den Abgleich von Patienteninformationen notwendig.
Hierzu müssen verschiedene Informationssysteme genutzt werden, um alle relevanten Informationen zusammenzutragen. Der typische Bearbeitungsprozess umfasst dabei die folgenden Schritte:
• Eingang eines neuen PDF-Antragsformulars per E-Mail vom Arzt oder Krankenhaus,
• Ablage der PDF-Daten im eigenen Informationssystem zur Antragsbearbeitung,
• Manuelle Suche, um zu überprüfen, ob für die geschädigte Person bereits ein Stammdatensatz im System existiert und ob der Schadensfall bereits beantragt wurde,
• Manuelle Übertragung der Informationen aus dem PDF-Antragsformular in die Standardfelder des Informationssystems zur Antragsbearbeitung,
• Manuelle Benachrichtigung des Kunden per Outlook-E-Mail, dass sein Schadensfall bearbeitet wird.
7.2.2 Projektvorgehen und Prozessauswahl
Der erste Schritt besteht in der Identifikation geeigneter Prozesse, die sich für eine Automatisierung durch RPA innerhalb der Versicherung eignen. Wie in Abschnitt 5.3 dargelegt, eignen sich verschiedene Kriterien für die Überprüfung, ob ein Prozess für eine Automatisierung geeignet ist. Insbesondere repetitive Prozesse, die wenig menschliches Zutun erfordern und häufig auftreten, sind gute Kandidaten für RPA. Durch die sukzessive Überprüfung aller Backoffice-Prozesse konnte im Rahmen der Fallstudie eine überschaubare Liste von Prozessen identifiziert werden. Der im vorherigen Abschnitt beschriebene Prozess der Abwicklung von Versicherungsansprüchen wurde auf diese Weise identifiziert und für die Implementierung eines ersten Automatisierungsprojektes ausgewählt.
Der zweite Schritt umfasst die Bestimmung der aktuellen Prozesskosten, um die Einsparungen durch die RPA-Implementierung beziffern zu können. Zur Bestimmung der aktuellen Prozesskosten wurde in Abstimmung mit der Personalabteilung ein Berechnungsmodell erstellt, welches die Personalkosten eines Mitarbeiters für die Abwicklung des identifizierten Prozesses ins Verhältnis zur Anzahl der bearbeiteten Prozesse setzt. Dieses Modell kann zur Darstellung der erzielten Einsparungen und der sich ergebenden Amortisationszeit verwendet werden.
Im dritten Schritt erfolgt die Analyse und Modellierung des aktuellen Prozesses, um die Anforderungen an den automatisierten Prozess bis auf die Ebene einzelner Mausklicks in den verwendeten IT-Systemen zu dokumentieren. Üblicherweise liegt keine derart detaillierte Beschreibung der Prozessabläufe vor, die direkt für eine RPA-Implementierung verwendet werden kann. Aus diesem Grund wurde zunächst eine Modellierung des identifizierten Prozesses in der BPMN-Notation vorgenommen. Zur Identifikation der einzelnen Schritte wurden Beobachtungen eingesetzt, die entweder persönlich vor Ort durch eine Begleitung von Schadenssachbearbeitern bei deren täglicher Arbeit oder per Screen-Sharing-Software durch eine Beobachtung der Tätigkeiten innerhalb der Informationssysteme durchgeführt wurden. Alle Schritte geschahen nach ausdrücklicher Einwilligung der Mitarbeiter und dienten lediglich zur Erfassung der durchgeführten Arbeitsschritte. Eine weitergehende Verwendung der Daten, etwa zur Überwachung der Leistungsfähigkeit, wurde ausgeschlossen. Prinzipiell ist an dieser Stelle auch der Einsatz von Process Mining denkbar, allerdings liefern die meisten Informationssysteme keine ausreichende Detailprotokollierung von Aktivitäten auf der Ebene von Mausklicks. Als Empfehlung für die Zahl der zu beobachtenden Prozessdurchläufe wird in der Fallstudie von 50 bis 500 Fällen gesprochen.
Die Standardisierung des beobachteten Prozessverhaltens stellt den vierten Schritt im Projektvorgehen dar. Bei der Beobachtung von verschiedenen Sachbearbeitern kann der Fall auftreten, dass diese einzelne Prozessschritte in unterschiedlicher Reihenfolge durchführen, z. B. Daten zwischen dem Antragsformular und dem Informationssystem in abweichender Reihenfolge kopieren und einfügen. Für die Implementierung der RPA-Software muss eine Variante als Standard ausgewählt werden. Als Ergebnis der ersten vier Phasen entsteht ein standardisierter, bis auf Mausklickebene modellierter Prozess in einer einheitlichen Modellierungskonvention, der als Vorlage für die Implementierung in einer geeigneten RPA-Software dienen kann. Die Implementierung des Prozesses in einer RPA-Software stellt den letzten Schritt dar. In der vorliegenden Fallstudie wurde die Software UiPath für die Implementierung ausgewählt.
7.2.3 Ergebnis der Automatisierung
Der zuvor skizzierte typische Bearbeitungsprozess stellt sich nach der Implementierung der RPA-Lösung wie folgt dar:
• Der Software-Bot öffnet die E-Mail-Anwendung und das PDF-Antragsformular, welches die Daten des Geschädigten enthält,
• Informationen aus dem Formular werden vom Software-Bot kopiert und in das webbasierte Dokumentenmanagementsystem der Krankenversicherung eingefügt, wobei das eigentliche Antragsformular automatisch angehängt wird,
• Der Software-Bot durchsucht das Antragsbearbeitungssystem, um zu überprüfen, ob für den Geschädigten bereits ein Stammdatensatz existiert; hierzu wird dessen Name aus der Rechnung kopiert und im Antragsbearbeitungssystem gesucht,
• Schließlich sendet der Software-Bot den Antrag zur Genehmigung an das Back-Office und erstellt automatisch eine Outlook-E-Mail an den Geschädigten, die ihn über die Bearbeitung des Antrags informiert. Die erzielten Einsparungen in Bezug auf Mitarbeiter sind stark von der konkreten Qualifikation der Mitarbeiter sowie dem Gehaltsgefüge der Gesellschaft abhängig. Als grober Richtwert wird in der Fallstudie angenommen, dass ein Software-Bot 20% der FTE (Full-Time Equivalent)-Kosten eines inländisch beschäftigen Mitarbeiters und 30% der FTE-Kosten eines Mitarbeiters aus einer outgesourcten Gesellschaft verursacht. Als weitere Ergebnisse werden eine mögliche Reduktion der Fehlerraten von 20% sowie die Entlastung von Mitarbeitern von lästigen Aufgaben genannt.
7.2.4 Weitere Anwendungen von RPA im Gesundheitswesen
Eine weitere ähnliche Anwendung von RPA im Gesundheitswesen wird in Cognizant (2019) beschrieben. Zielsetzung war die Automatisierung von Prozessen bei einem der führenden US-Dienstleister für die Überprüfung der Leistungsberechtigung bei Schadensmeldungen von Versicherten. Zur Prüfung eines Anspruchs mussten die Mitarbeiter des Dienstleisters sich manuell in die Portale der jeweiligen Gesundheitsdienstleister der Patienten einloggen, um deren Berechtigung und deren Begünstigung für anstehende Termine zu überprüfen, und die Portalnotizen mit den notwendigen Informationen aktualisieren. Ein großes Problem ist hierbei die hohe Anzahl von mehr als 120 Portalen, mit denen die Mitarbeiter vertraut sein müssen und deren Aufbau sich routinemäßig ändert.
Die eigentliche Überprüfung der Leistungsberechtigung umfasste die Anwendung von mehr als 250 komplexen Entscheidungsregeln auf mehr als 35 Felder in den entsprechenden Formularen. Hierbei mussten Informationen zu Mitversicherten, jährliche Selbstbehalte, verbleibende Selbstbehalte usw. ausgewertet werden. Bei kurzfristigen Patientenanfragen musste diese Prüfung innerhalb eines Tages geschehen. In der Konsequenz war der Prozess zeitaufwändig und fehleranfällig, was dazu führte, dass Patienten falsche Informationen erhielten und Anbieter ungenaue Angaben machten, die zu einer Ablehnung von Anträgen führten. Zur Automatisierung dieses Prozesses wurde eine RPA-Lösung implementiert, welche die folgenden Aktivitäten ausführt:
• Extrahieren der Patienteninformationen aus den Portalsystemen der einzelnen Anbieter über alle Anbieterstandorte hinweg,
• Priorisieren der Termine für die weitere Bearbeitung,
• Extrahieren von Termindetails unter Verwendung von zwei Informationssystemen und 14 unterschiedlichen Formularen,
• Konsolidierung der Ausgabeberichte und Bestätigung, ob Patienten Anspruch auf Leistungen haben,
• Validieren und Aktualisieren der Details zur Anspruchsberechtigung innerhalb der Portale.
Insgesamt wurden 23 Software-Bots für diesen Prozess implementiert, welche an fünf Tagen die Woche je 22 Stunden täglich ausgeführt werden. Sie verarbeiten damit mehr als 5.000 Transaktionen pro Tag und ersparen dem RCM-Dienstleister 17.000 Stunden manueller Arbeit jährlich.
Was ist Web Scraping?
Suchmaschinen wie Google nutzen schon lange sogenannte Crawler, die das Internet nach nutzerdefinierten Begriffen durchsuchen. Crawler sind besondere Arten von Bots, die Webseite nach Webseite besuchen, um Assoziationen zu Suchbegriffen zu erstellen und diese zu kategorisieren. Den ersten Crawler gab es übrigens schon 1993, als die erste Suchmaschine – Jumpstation – eingeführt wurde.
Eine Technik des Crawlings ist das Web Scraping oder Web Harvesting. Wir erklären, wie es funktioniert, wofür genau es genutzt wird und wie man es ggf. blockieren kann.
Inhaltsverzeichnis
Web Scraping: Definition
Beim Web Scraping (engl. scraping = „kratzen/abschürfen“) werden Daten von Webseiten extrahiert und gespeichert, um diese zu analysieren oder anderweitig zu verwerten. Beim Scraping werden viele verschiedene Arten von Informationen gesammelt. Das können z. B. Kontaktdaten wie E-Mail-Adressen oder Telefonnummern, aber auch einzelne Suchwörter oder URLs sein. Diese werden dann in lokalen Datenbanken oder Tabellen gesammelt.
Definition
Beim Web Scraping werden Texte aus Webseiten herausgelesen, um Informationen zu gewinnen und zu speichern. Dies ist mit einem automatischen Copy-and-Paste-Prozess vergleichbar. Für die Bildsuche nennt sich der Prozess übrigens ganz treffend Image Scraping.
Wie funktioniert Web Scraping?
Beim Scraping gibt es verschiedene Funktionsweisen, doch generell wird zwischen dem manuellen und dem automatischen Scraping unterschieden. Manuelles Scraping bezeichnet das manuelle Kopieren und Einfügen von Informationen und Daten. Man kann dies mit dem Ausschneiden und Sammeln von Zeitungsartikeln vergleichen. Manuelles Scraping wird nur dann durchgeführt, wenn man vereinzelt Informationen finden und speichern will. Es ist ein sehr arbeitsaufwendiger Prozess, der selten für große Mengen an Daten angewendet wird.
Beim automatischen Scraping wird eine Software oder ein Algorithmus angewendet, der mehrere Webseiten durchsucht, um Informationen zu extrahieren. Je nach Art der Webseite und des Contents gibt es dafür eine spezielle Software. Beim automatischen Scraping werden verschiedene Vorgehensweisen unterschieden:
Hinweis
Was es beim Web Scraping mit Python zu beachten gibt, zeigen wir in diesem Tutorial. Dabei lässt sich der Selenium WebDriver leicht integrieren, um Daten zu sammeln.
Für was wird Web Scraping genutzt?
Web Scraping wird für eine Vielzahl von Aufgaben genutzt. So lassen sich z. B. Kontaktdaten oder spezielle Informationen schnell sammeln. Im professionellen Bereich wird oft gescraped, um im Wettbewerb Vorteile gegenüber Konkurrenten zu erlangen. Durch Daten-Harvesting kann eine Firma alle Produkte eines Konkurrenten einsehen und mit den eigenen vergleichen. Auch bei Finanzdaten bringt Web Scraping einen Mehrwert: Die Information werden von einer externen Website ausgelesen, in ein Tabellenformat übertragen und können dann analysiert und weiterverarbeitet werden.
Ein gutes Beispiel für das Web Scraping ist Google. Die Suchmaschine nutzt die Technologie, um Wetterinformationen oder Preisvergleiche von Hotels und Flügen anzuzeigen. Viele der gängigen Preisvergleichsportale nutzen ebenfalls Scraping, um Informationen von vielen verschiedenen Webseiten und Anbietern darzustellen.
Ist Web Scraping legal?
Das Scraping ist nicht immer legal, und Scraper müssen zunächst einmal die Urheberrechte einer Webseite berücksichtigen. Für manche Webshops und Anbieter hat das Web Scraping durchaus negative Konsequenzen, wenn z. B. durch Aggregatoren das Ranking einer Seite leidet. Es kommt also nicht selten vor, dass ein Unternehmen ein Vergleichsportal verklagt, um das Web Scraping zu unterbinden. In einem solchen Fall entschied allerdings das OLG Frankfurt bereits 2009, dass eine Fluggesellschaft das Scraping durch Vergleichsportale erlauben muss, weil ihre Informationen schließlich frei zugänglich seien. Die Fluglinie habe allerdings die Möglichkeit, technische Maßnahmen zu installieren, um das Scraping zu verhindern.
Das Scraping ist also dann legal, wenn die extrahierten Daten frei zugänglich für Dritte im Web stehen. Um rechtlich auf der sicheren Seite zu sein, sollte man folgendes beim Web Scraping beachten:
Obwohl das Scraping in vielen Fällen erlaubt ist, kann es durchaus zu destruktiven oder gar illegalen Zwecken missbraucht werden. So wird die Technologie beispielsweise oft für Spam eingesetzt. Spammer können mit ihr z. B. E-Mail-Adressen sammeln und Spam-Mails an diese Empfänger senden.
Wie kann man das Web Scraping blockieren?
Um Scraping zu blockieren, können Betreiber von Webseiten verschiedene Maßnahmen ergreifen. Die Datei robots.txt beispielsweise wird eingesetzt, um Suchmaschinen-Bots zu blockieren. Folglich verhindern sie auch das automatische Scraping durch Software-Bots. IP-Adressen von Bots können ebenfalls gesperrt werden. Kontaktdaten und persönliche Informationen lassen sich gezielt verstecken. Sensible Daten wie Telefonnummern kann man außerdem in Bildform oder als CSS hinterlegen, was das Scrapen der Daten erschwert. Außerdem gibt es zahlreiche kostenpflichtige Anbieter von Anti-Bot-Services, die eine Firewall einrichten können.
Bitte beachten Sie den rechtlichen Hinweis zu diesem Artikel.
Quelle: https://www.ionos.de/digitalguide/websites/web-entwicklung/was-ist-web-scraping/
Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen
Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.