Beruflich Dokumente
Kultur Dokumente
SDGs
SDGs
Markus Bodemann
Wiebke Fellner
Vanessa Just Hrsg.
Digitalisierung und
Nachhaltigkeit –
Transformation von
Geschäftsmodellen und
Unternehmenspraxis
Organisationskompetenz Zukunftsfähigkeit
Vanessa Just
Hamburg, Deutschland
© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von
Springer Nature 2022
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen
Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und
Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Digitalisierung und Nachhaltigkeit: Zwei Begriffe, die mehr sind als nur mediale
Buzzwords und maßgeblich Einfluss auf die Transformation von Unternehmen und
Gesellschaft nehmen.
Dabei ist Nachhaltigkeit auch mehr als Klimawandel und Naturschutz; Nachhaltig-
keit hat auch eine große Bedeutung und Einfluss auf Geschäftsprozesse und ist allgegen-
wärtig in unserem Alltag; jeder einzelne ist angehalten zu bewerten inwieweit das Thema
für ihn von Relevanz ist. Bei unserer eigenen Bewertung und im Kontext des Entstehens
des vorliegenden Buches haben wir gemerkt, dass es eigentlich einfach ist und schon
mit wenig Veränderungen große Auswirkungen erreicht werden können. Aber Vor-
sicht: Reboundeffekte sind nicht außer Acht zu lassen und werden oftmals vor allem im
Kontext der Digitalisierungsdiskussion noch vernachlässigt.
Digitalisierung und Nachhaltigkeit – Sie stellen einerseits den Treiber unserer Wirt-
schaft dar, werden aber in anderem Kontext, kurzfristig gedacht, auch als “Bremse”
betrachtet. Die Zielvorgaben der EU hin zur Klimaneutralität sind dabei herausfordernd
und es obliegt der Wirtschaft diese in die Praxis umzusetzen. Damit Deutschland
die beschlossenen Vorgaben der EU erreicht, hat die Bundesregierung ihre Klima-
schutzvorgaben verschärft und will bereits bis 2045 Treibhausgasneutralität erreichen.
Die UN-Klimakonferenz in Glasgow in 2021, wie auch die „Fridays for Future“-
Demonstrationen haben gezeigt, wie ambivalent unsere Gesellschaft dem Thema der
Nachhaltigkeit in Bezug auf Ökologie gegenübersteht. Doch Nachhaltigkeit beschreibt
mehr als die Definition und Umsetzung von Klimazielen. Nachhaltigkeit muss fest in der
Wirtschaft und der Gesellschaft verankert sein, um die Zukunftsfähigkeit sicherzustellen.
Aus diesem Grund steht für uns der Begriff der Nachhaltigkeit im engen Kontext mit
Digitalisierung und Technologien. Nachhaltigkeit erfordert Veränderung, also eine Trans-
formation; diese wiederum Technologie- und Innovationsmanagement. Die Komplexi-
tät dieses Transformationsprozesses muss dabei aus unserer Sicht Unternehmen aller
Branchen erfassen.
Mit der Zusammenstellung wissenschaftlicher und praxisnaher Beiträge möchten wir
Impulse über Branchen hinweg geben, wie Nachhaltigkeit in Unternehmen verankert ist
und werden kann und wie das Ausmaß dabei quantifiziert wird. Digitalisierung ist dabei
V
VI Vorwort
in jeder Branche zu finden und Nachhaltigkeit geht uns alle an: Nachhaltigkeit ist keine
Dimension, sondern sollte Bestandteil jedes Handelns in Hinblick auf Digitalisierung
sein.
Markus Bodemann
Wiebke Fellner
Vanessa Just
Inhaltsverzeichnis
Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Markus Bodemann, Wiebke Fellner und Vanessa Just
VII
VIII Inhaltsverzeichnis
M. Bodemann (*)
Warburg, Deutschland
E-Mail: [email protected]
W. Fellner
Darmstadt, Deutschland
V. Just
Hamburg, Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 1
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_1
2 M. Bodemann et al.
Hatzebruch et al. bieten ein Messverfahren an, um die Nachhaltigkeit der eigenen
Digitalisierung zu messen; um Fortschritte und Herausforderungen zu dokumentieren,
aber auch um sich im Benchmark zu vergleichbaren Unternehmen einzuordnen. Ins-
besondere dann, wenn unternehmerische Verantwortung für die Zukunft ein Bestandteil
der Strategie ist. Es wird postuliert, dass Digitalisierung unmittelbar Wettbewerbsvorteile
erbringt. Mit einem Reifegradmodell werden fünf unternehmerische Fähigkeiten mit ins-
gesamt fünf Ausprägungen aufgeführt und in fünf Reifegrade eingeteilt. Das ermöglicht
eine Justierung, insbesondere auf dem Weg zur Transformation. Dieses Modell kann aber
auch auf Dauer im Rahmen von Benchmarks Orientierungshilfe werden.
Busch zeigt auf, dass die wirtschaftsgeografische Situation eines Unternehmens und
die Umfeldinteraktionen mit Unternehmen und externen Akteuren aktuell Thema in der
Transitions- Forschung sind und unmittelbaren Einfluss auf das Verhalten eines Unter-
nehmens haben kann. Dabei unterscheidet er die vier Ebenen „lokal, regional, national
und global“, wenngleich sich die Bereiche nicht trennscharf unterscheiden lassen und
Überlappungsbereiche existieren. Der räumliche Kontext kann nach seiner Einschätzung
unmittelbaren Einfluss auf Prozesse und Strategien haben, auch im Zusammenhang mit
Transition, Nachhaltigkeit und Digitalisierung.
Nach Damm sind die Messung und Bewertung von Nachhaltigkeit und
Digitalisierung immer eine bewertungsabhängige Größe. Insbesondere die Wirkungen
des Handelns von Individuen, der Gesellschaft oder von Unternehmen hängt somit von
Einstellungen ab. Die Anwendung von Künstlicher Intelligenz kann dazu beitragen,
Wirkungen zu messen. Jedoch unterliegt der hinterlegte Algorithmus ebenfalls der
Gefahr, ein Bias, eine Vorprägung, einzubringen. Daher können ethische Grundsätze
sowohl für den Einsatz von Nachhaltigkeit als auch für den Einsatz von Maschinellem
Lernen als Unterart der Künstlichen Intelligenz Nachhaltigkeit im Unternehmen messbar
machen.
Ebenfalls mit dem Thema Messbarkeit von Nachhaltigkeit und Einsatz von KI
befasst sich Paul. Künstliche Intelligenz kann daher eingesetzt werden, um bspw. im
Rahmen von Mustererkennungen Energieversorgung aus nachhaltigen Quellen zu
optimieren. Paul sieht das größte Potenzial und die höchste Aussagekraft bei der Daten-
erhebung entlang der Geschäftsprozesse. Nicht nur Ableitungen für interne Prozesse
können damit erreicht werden, sondern auch neue Kundenbeziehungen aufgrund von
Veröffentlichungen. Wie bei Damm weist der Artikel auch auf Herausforderungen im
Zusammenhang des Einsatzes von Maschinellem Lernen hin. Unrealistische Annahmen
Einleitung 3
bis hin zu Scheinkorrelationen sind in den Modellen und den Auswertungen zu beachten
und zu reduzieren.
Die Nutzung von Blockchain-Technologie hat sich längst über den Bereich von
Kryptowährungen ausgebreitet. Verschiedene Arten von Blockchain können für sehr
spezifische Aufgaben verwendet werden. Karger et al. bieten ein Modell an, künst-
liche neuronale Netze aus dem Bereich der Künstlichen Intelligenz anzuwenden, um
ein für die Aufgabenstellung und Schwerpunkte passende Blockchain auswählen zu
lassen. Neben den Grundlagen zu Blockchain werden auch negative Aspekte und
widerstreitende Eigenschaften dieser Technologie beleuchtet, bevor die methodischen
Vorgaben für ein selbstlernendes neuronales Netzwerk dargestellt werden. Das Self-
Enforcing Network lernt anhand von Regeln und Iterationen und verstärkt sich dadurch.
Eingaben von Präferenzen in der Nutzung führt dann zu einem Vorschlag einer
Blockchain.
Klüver und Klüver führen die vorangegangen Ausführungen weiter aus. In ihrem
Artikel zeigen sie die Zusammenhänge von Künstlicher Intelligenz, Maschinellem
Lernens und künstlicher neuronaler Netze auf. Wesentlich für die Auswahl und den Ein-
führungsprozess sind dabei der erwartete Nutzen für das Unternehmen und vor allem die
Kenntnis über die Möglichkeiten. Die Darstellung der Grundkonzepte von künstlichen
neuronalen Netzen zeigt verschiedene Variationen, die auch miteinander gekoppelt
werden können. Damit wird jedoch das Zusammenspiel von Topologie, Parametern und
Funktionen beliebig komplex. Abschluss bilden die Herausforderungen für KMUs in der
Auswahl, Einführung und im Betrieb von neuronalen Netzen, aber auch Anwendungen
und Vorteile für die Unternehmen.
hat ein unkonventionelles Vorgehen wichtige Ergebnisse erbracht. Die beiden Wege
der positivistischen und konstruktivistischen Positionen führten dabei zu einer neuen
Forschungsmethodik. CrowdIdeation wird eine nachhaltige Methode zur Ideenfindung
und Realisation bleiben.
Digitalisierung kann jedoch auch den Nutzwert von physischen Produkten für den
Kunden steigern und Verhaltensänderungen unterstützen. Das Einwirken auf ein nach-
haltiges Konsumentenverhalten soll und kann auch Teil einer Geschäftsstrategie werden.
Schmitz et al. stellen die aktuelle Situation des Nachhaltigkeitsbewusstsein und das
reale Handeln dar und welche Gründe für die sogenannte „Attitude-Behaviour-Gap“
angeführt werden können. Dabei wird der vollständige Produktlebenszyklus betrachten,
nicht nur die oftmals verwendete Kombination aus Produktion und Distribution.
Aus der Kenntnis der Gründe lassen sich Maßnahmen in Richtung Transparenz und
Akzeptanz von nachhaltigen Produkten ableiten. Neben Transparenz und vollständigen
Informationen über ein Produkt, spielen dabei Visualisierungen oder auch Reparatur-
anleitungen eine Rolle; auch die Verwendung der Produkte, sharing oder Second-life,
wirkt sich förderlich auf die Umwelt aus. Zudem werden konkrete Beispiele aufgeführt,
in denen Digitalisierung zu mehr Nutzwert und gleichfalls zu mehr Nachhaltigkeit für
den vollständigen Produktlebenszyklus führen kann. Neue Anreize im Rahmen der
Digitalisierung, wie „Gamification“ oder „usability“, erreichen insbesondere jüngere
Kunden.
Projektmanagement stellt eine in der betrieblichen Praxis weit verbreitete – hier jedoch
nicht näher betrachtete – Organisationsform und Managementmethode dar, die sich für
alle Branchen jenseits der Massen- und Großserienproduktion (Lagerfertigung), ins-
besondere für die sogenannte Auftragsproduktion (Einzel- oder Kleinserienfertigung),
grundsätzlich eignet. Dies betrifft nicht nur industriell geprägte Branchen, wie z. B.
den Spezialmaschinen- und den Schiffbau, sondern vor allem auch die Dienstleistungs-
branchen, wie z. B. im Bereich der Softwareproduktion und des Consultings.
Das Management von Projekten zeichnet sich aus betriebswirtschaftlicher Perspektive
vor allem durch die Eigenart aus, im Wesentlichen von schwer formalisierbarem Erfahrungs-
wissen über ältere, bereits durchgeführte Projekte abzuhängen. Dieses Erfahrungswissen
liegt nicht nur, jedoch überwiegend in natürlichsprachlicher Form vor. Es wird daher
oftmals auch als „qualitatives“ Wissen bezeichnet. Die Berücksichtigung dieses qualitativen
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 7
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_2
8 S. Zelewski et al.
Erfahrungswissens stößt jedoch in der betrieblichen Realität auf eine gravierende Heraus-
forderung („Realproblem“), die auf zwei gegenläufigen Tendenzen beruht.
Einerseits liegt es aus betriebswirtschaftlicher Perspektive nahe, das qualitative
Erfahrungswissen wiederzuverwenden („knowledge reuse“), um neue Projekte zu
planen, durchzuführen, zu steuern (Anpassungsplanungen während der Projekt-
durchführung) und mittels Controllings zu begleiten (Projektfortschrittskontrolle und
Aufbereitung von Führungsinformationen über z. B. projektbezogene Erfolgs- und Miss-
erfolgsfaktoren für das „strategische“ Projektmanagement). Für diese Wissenswiederver-
wendung sprechen vor allem drei Gründe.
Erstens wäre es im ökonomischen Sinne ineffizient, die Ressourcen, die für den erst-
maligen Wissenserwerb bei einem alten Projekt eingesetzt wurden, im Falle der Unter-
lassung einer möglichen Wissenswiederverwendung zur Bearbeitung neuer Projekte
erneut aufwenden zu müssen. Zweitens können in einem solchen Unterlassungsfall
Lernkurveneffekte, die sich durch die wiederholte Anwendung gleichartiger Wissens-
komponenten im wissensbasierten Projektmanagement erzielen lassen, nicht ausgeschöpft
werden. Drittens lässt sich die „empirische Evidenz“ anführen, dass es sich in der betrieb-
lichen Praxis für das Management von nicht-trivialen, realistischen Projekten zumeist als
Erfolg versprechendster Managementansatz herausgestellt hat, ein neues Projekt nicht
jedes Mal von Grund auf neu zu planen („planning from scratch“), sondern dasjenige
Erfahrungswissen „intelligent“ wiederzuverwenden, das über alte, bereits durchgeführte –
und möglichst ähnliche – Projekte in einem Unternehmen bereits vorliegt.
Andererseits lässt sich die angestrebte Wiederverwendung von qualitativem
Erfahrungswissen – im Gegensatz zum Operations Management von standardisierten
Produktionsprozessen – kaum mit formalisierten, vor allem mathematisch-quantitativen
Modellen und Methoden zufriedenstellend bewältigen. Vor allem mangelt es im betriebs-
wirtschaftlichen Umfeld an einer wirksamen („effektiven“) Computerunterstützung für
die Wiederverwendung von qualitativem Erfahrungswissen im Projektmanagement.
Aus den vorgenannten Gründen besteht ein „Umsetzungsdefekt“ zwischen dem
wohlbegründeten Ziel, qualitatives Erfahrungswissen im Projektmanagement intensiv
wiederzuverwenden, und den Möglichkeiten für die – vor allem computergestützte –
Wissenswiederverwendung in der betrieblichen Praxis. [Dieser Beitrag stellt eine Kurz-
fassung von Zelewski et al. 2022 (Kap. 1 bis 3) dar, in dem sich weitere Details und vor
allem umfassende Literaturbelege finden.]
Der Einsatz von Techniken aus der Erforschung Künstlicher Intelligenz (KI) – oder
Artificial Intelligence (AI) – zur Unterstützung des betrieblichen Projektmanagements
erweist sich derzeit noch als ein wenig erforschtes Gebiet. Zwar existieren einige wenige
Ansätze, die schon vor geraumer Zeit anregten, beispielsweise die bereits erwähnte
Netzplantechnik mit Erkenntnissen aus der KI-Forschung – damals vor allem unter der
Bezeichnung „Expertensysteme“ – zu bereichern. Aber „moderne“ Beiträge der ein-
schlägigen Fachliteratur zum Themengebiet, das sich als Schnittmenge von „Künstlicher
Intelligenz“, „Projektmanagement“ und „Wissensmanagement“ charakterisieren lässt,
sind dünn gesät (vgl. beispielsweise Auth et al. 2021; Obermayer et al. 2021; Ruiz et al.
2021; Jallow et al. 2020; Shehab et al. 2020; Munir 2019).
Prima facie scheint es nahezuliegen, die derzeit vorherrschenden, nicht immer klar
voneinander abzugrenzenden (Mode-)Strömungen der Deep Learning Networks und
des Machine Learnings zur Unterstützung des betrieblichen Projektmanagements einzu-
setzen. Aber einschlägige, inhaltlich fruchtbare Beiträge lassen sich in dieser Hinsicht
nicht identifizieren. Dies überrascht bei einer näheren inhaltlichen Analyse aber auch
nicht, wie im Folgenden kurz erläutert wird.
Deep Learning Networks und Machine Learning gehören zu einem Zweig der KI-
Forschung, der sich darauf fokussiert, in sehr großen Datensätzen („Big Data“) all-
gemeine Muster oder Regularitäten zu erkennen („Data Analytics“), die möglichst
vielen realen Entitäten (Objekten, Phänomen usw.) gemeinsam zukommen. So geht es
beispielsweise darum, die allgemeinen Persönlichkeits- und Situationsmerkmale zu
erkennen, durch die sich Schuldner mit hoher Bonität auszeichnen, Geräuschmuster
zu identifizieren, anhand derer sich im Allgemeinen Maschinenschäden ankündigen,
oder auch Bildsignale zu bestimmen, die im Allgemeinen eine zuverlässige Karzinom-
diagnose gestatten. Aber die KI-Forschung von Deep Learning Networks und Machine
Learning, die sich an allgemeiner Mustererkennung orientiert, trifft nicht den Kern des
Projektmanagements aus betriebswirtschaftlicher Sicht. Denn Projekte zeichnen sich –
nicht unbedingt hinsichtlich aller ihrer Teile (Aktivitäten, Arbeitspakete, Teilprojekte),
aber doch in ihrer Gesamtheit – durch ihre tendenzielle Einmaligkeit und oftmals auch
durch ihren innovativen Charakter aus. Daher kommt es bei ihrer Planung, ihrer Durch-
führung, ihrer Steuerung und ihrem Controlling nicht auf eine Anlehnung an „allgemeine
Muster“ an, die sich vielleicht aus Daten über die Gesamtheit aller in einem Unter-
nehmen oder einer Branche abgewickelten Projekte gewinnen lassen. Vielmehr geht es
um ein einzelfallbezogenes Projektmanagement, das sich an den Besonderheiten eines
aktuell vorliegenden, neuen Projekts orientiert. Wenn sich also überhaupt (Erfahrungs-)
Wissen aus bereits durchgeführten, alten Projekten wiederverwenden lässt, dann ist
nicht „allgemeines“ oder „durchschnittliches“ Wissen von Interesse, das sich mittels
12 S. Zelewski et al.
Deep Learning Networks und Machine Learnings gewinnen lässt. Stattdessen ist für ein
neues Projekt vor allem Wissen relevant, das über (mindestens) ein altes, mit dem neuen
Projekt aufgrund seiner „Einmaligkeit“ zwar nicht identisches, aber möglichst ähnliches
Projekt vorliegt. Im Projektmanagement geht es also nicht um allgemeine, projekt-
bezogene Muster oder Regularitäten, sondern um die „intelligente“ Wiederverwendung
von Wissen über einzelne, möglichst ähnliche alte Projekte. Diese Orientierung an mög-
lichst ähnlichen Einzelfällen wird auch als „analoges Denken“ (analogical reasoning)
bezeichnet, das dem generalisierenden, mustererkennenden Denken von Deep Learning
Networks und Machine Learning vollkommen fremd ist.
Darüber hinaus ist eine zweite auffällige Diskrepanz zwischen der Mainstream-
KI-Forschung von Deep Learning Networks und Machine Learning einerseits sowie
„intelligenter“ Wissenswiederverwendung im Projektmanagement andererseits fest-
zustellen. Deep Learning Networks und Machine Learning zählen zur sogenannten
„Black-Box AI“ (Amin 2021; Barton 2021; Buxmann et al. 2021). Sie lässt sich dadurch
charakterisieren, dass sie sich zwar in einzelnen, speziellen Anwendungsbereichen
(Domänen) als überaus leistungsfähig erweist, aber von ihren Benutzern kaum nach-
vollzogen werden kann, wie diese KI-Tools zu ihren Entscheidungs- oder Handlungs-
empfehlungen gelangen. Daher werden diese KI-Tools – trotz einiger „Gegenwehr“ ihrer
Protagonisten – oftmals als „Black Boxes“ stigmatisiert, die „irgendwie“ – sogar sehr
gut – „funktionieren“. Aber kaum jemand versteht, wie und warum sie funktionieren.
Dies mag keine Rolle spielen, sofern „man“ auf Empfehlungen eines KI-Tools ver-
traut, überzeugt jedoch nicht, wenn man dessen Empfehlungen kritisch nachvollziehen
oder anhand exogener Gütekriterien überprüfen möchte. Daher hat sich seit wenigen
Jahren die Forschungsrichtung der „Explainable AI“ (XAI) etabliert (Buxmann et al.
2021; Lundberg et al. 2020; Rai 2020), die sich anschickt, für Empfehlungen von Deep
Learning Networks und Machine Learning nachvollziehbare Erklärungen zu liefern.
Aber diese Erklärungen bleiben unbefriedigend, weil sie mittels statistischer Techniken
letztlich nur nachträglich analysieren, welche Inputdatenmuster mit welchen Output-
datenmustern hoch korrelieren. Es ist weithin bekannt, dass statistische Korrelationen
nicht die Qualität kausaler Erklärungen besitzen, die Wirkungsbeziehungen zwischen
Inputdaten als (Repräsentanten von) ursächlichen Sachverhalten und Outputdaten als
(Repräsentanten von) bewirkten Sachverhalten herstellen. Daher stellt die „Explainable
AI“ keine kausalen Erklärungen für die Empfehlungen von Deep Learning Networks und
Machine Learning zur Verfügung, sondern lediglich Erklärungssurrogate in der Gestalt
statistischer Input-Output-Korrelationen.
Aus betriebswirtschaftlicher Sicht erweist es sich jedoch als essenziell, Planungs-,
Durchführungs-, Steuerungs- oder Controllingempfehlungen im Projektmanagement
nicht nur mittels Computerunterstützung „irgendwie“ zu generieren, sondern für
betroffene menschliche Akteure auch plausibel erklären zu können. Nicht nur für
die Motivation dieser Akteure, sondern auch für eventuell drohende juristische Aus-
einandersetzungen zwischen Projektauftragnehmern und -auftraggebern erweist es sich
als unverzichtbar, solche Entscheidungs- oder Handlungsempfehlungen im Bedarfsfall
Case-based Reasoning als White-Box AI: „intelligentes“ … 13
mit plausiblen Argumenten rechtfertigen zu können. Daher bedarf es beim Einsatz von
Künstlicher Intelligenz im Projektmanagement einer „White-Box AI“, deren computer-
gestützt generierten Entscheidungs- oder Handlungsempfehlungen im Bedarfsfall
überprüft werden können, indem sich ihr Zustandekommen „im Computer“ anhand ent-
sprechender Verarbeitungsprotokolle oder – noch besser, da benutzerfreundlicher – auch
mittels spezieller „Erklärungskomponenten“ von fachkundigen Projektmanagern nach-
vollziehen lässt.
Die „White-Box AI“ besitzt in der KI-Forschung eine lange Tradition von mehr als
einem halben Jahrhundert. Sie wird heute – nicht deckungsgleich, aber weitgehend über-
lappend – auch mit „Good Old Fashioned Artificial Intelligence“ (GOFAI) bezeichnet.
Sie umfasst vor allem die sogenannte „symbolische“ KI-Forschung. Dieser Zweig der
KI-Forschung erstreckt sich darauf, Wissensverarbeitung im Allgemeinen und somit
auch Projektwissensmanagement im Besonderen auf einer expliziten, symbolischen
Repräsentation von Wissen zu fundieren und wissensbasierte Entscheidungs- oder
Handlungsempfehlungen mittels expliziter, (zumindest prinzipiell) im Detail nach-
vollziehbarer Schlussfolgerungsweisen (Inferenzregeln) herzuleiten. Zu diesem Zweig
der „White-Box AI“ gehören z. B. die „altertümlichen“ Expertensysteme, aber auch
„moderne“ Ansätze wie Multi-Agenten-Systeme und die nachfolgend angesprochenen
Case-based-Reasoning-Systeme.
Im State of the Art der „White-Box AI“ lassen sich vor allem zwei aktuelle
Forschungsströmungen identifizieren, die für das Projektmanagement aus betriebs-
wirtschaftlicher Perspektive von besonderem Interesse sein könnten.
Erstens sind einige wenige Beiträge in der einschlägigen Fachliteratur zu erwähnen,
die sich damit befassen, wie sich die „White-Box AI“ – nicht nur, aber vor allem in der
Gestalt von KI-Tools auf der Basis des Case-based Reasonings (CBR) – im Projekt-
management Erfolg versprechend einsetzen lässt (Martin et al. 2017; Beißel 2011; Chou
2009). Für die inhaltliche Nähe von CBR-Systemen spricht, dass sich ihre „Cases“ in
„natürlicher“ Weise als Projekte interpretieren lassen. Daher können im Prinzip alle
Erkenntnisse, die für CBR-Systeme im Allgemeinen gewonnen wurden, auf den Ein-
satz von KI-Techniken für das betriebliche Projektmanagement im Speziellen übertragen
werden.
Allerdings leiden die bislang vorliegenden Beiträge zur Anwendung von CBR-
Systemen auf das betriebliche Projektmanagement unter mehreren Mängeln. Zunächst
werden betriebswirtschaftliche Spezifika des Projektmanagements – wie z. B. Lasten-
und Pflichtenhefte sowie projektbezogene Mitarbeiterkompetenzen – zumeist nicht oder
nur in rudimentärer Weise berücksichtigt. Darüber hinaus fokussieren sich CBR-Systeme
im Bereich des Projektmanagements oftmals auf „einfach“ – d. h. vor allem quantitativ
– zu generierende Entscheidungs- oder Handlungsempfehlungen, wie z. B. auf
Schätzungen der mutmaßlich zu erwartenden Projektkosten (García de Soto et al. 2016;
Radziejowska et al. 2015; Ji et al. 2011; Kowalski et al. 2011). Solche CBR-Systeme für
quantitative Projektkostenschätzungen sind aus betriebswirtschaftlicher Sicht keineswegs
zu unterschätzen. Aber sie schöpfen bei Weitem nicht das Potenzial aus, das im Hinblick
14 S. Zelewski et al.
3 Methodischer Rahmen
In diesem Beitrag und einem am Ende erwähnten Folgebeitrag wird erläutert, wie
sich mithilfe von Erkenntnissen aus der Erforschung Künstlicher Intelligenz ein
„intelligentes“ Projektmanagement durch die computergestützte Wiederverwendung von
Erfahrungswissen in der betrieblichen Praxis realisieren lässt.
Das plakative Attribut „intelligent“ wird hier nicht nur als begriffliche Referenz auf
die hier diskutierte Technik Künstlicher Intelligenz – das Case-based Reasoning – ver-
wendet. Vielmehr verweist dieses Attribut auf zwei Sachverhalte, die sich als beitrags-
spezifische inhaltliche Konkretisierungen von (Künstlicher) „Intelligenz“ auffassen
lassen. Erstens wird gezeigt, dass sich mittels Case-based Reasonings die fünf wesent-
lichen Herausforderungen (Probleme), die in Abschn. 2.2 aus der Perspektive des
projektbezogenen Wissensmanagements skizziert wurden, zumindest „prinzipiell“
meistern lassen. Eine derart „problemlösende“ Fähigkeit rechtfertigt, zumindest bei
wohlwollender Betrachtungsweise, die Zuschreibung des Attributs „intelligent“ für ein
Projektmanagement, das auf einem CBR-System basiert. Zweitens wird das Attribut
„intelligent“ hier in bewusster Abgrenzung von konventionellen Computersystemen
verwendet, die sich schon seit vielen Jahrzehnten hinsichtlich der Verarbeitung rein
syntaktisch definierter, insbesondere numerischer Probleme („number crunching“) als
überaus leistungsfähig erwiesen haben. Im Gegensatz dazu geht es in diesem Beitrag
um die Fähigkeit von Computern, vor allem auf der Basis von Ontologien ein inhalt-
liches Verständnis für die Bedeutungen – also der Semantik – der Komponenten von
Erfahrungswissen im Projektmanagement zu entwickeln. Diese semantische Dimension
der Wissensverarbeitung soll durch das Attribut „intelligent“ hervorgehoben werden.
Der Forschungsansatz dieses Beitrags beruht darauf, die generische KI-Technik des
Case-based Reasonings (Amin 2021; Beierle et al. 2019; Richter et al. 2013; Riesbeck
et al. 1989) auf das betriebliche Projektmanagement zu übertragen und an dessen
spezielle Herausforderungen (vgl. Abschn. 2.2) anzupassen. Zu diesem Zweck wird das
allgemeine KI-Konzept eines „Falls“ als das spezielle betriebswirtschaftliche Konzept
eines „Projekts“ interpretiert. Darüber hinaus wird das (Erfahrungs-)Wissen, das über ein
Projekt vorliegt, in die drei Wissenskomponenten der Projektbeschreibung, der Projekt-
lösung und der Projektbewertung strukturiert. Für diese „basale“ Wissensstrukturierung
spricht, dass sich die betriebliche Praxis des Projektmanagements mit diesen drei
Wissenskomponenten sehr gut rekonstruieren lässt.
16 S. Zelewski et al.
Reasonings noch nicht berücksichtigt. Daher wird dieser 4R-Zyklus anhand Abb. 1 in
einer überarbeiteten, vor allem inhaltlich erweiterten Version (z. B. Kowalski et al. 2011)
vorgestellt.
Zunächst wird vom Projektmanagement ein neues Projekt in der Form einer über-
wiegend natürlichsprachlichen Projektbeschreibung als ein Handlungsauftrag (oder als
ein zu lösendes Problem) spezifiziert. Der Handlungsauftrag erstreckt sich auf die bereits
mehrfach angesprochenen Kernaufgaben des Projektmanagements: die Projektplanung,
die Projektdurchführung, die Projektsteuerung und das Projektcontrolling.
Retrieve-Phase: Anhand der Projektbeschreibung wird in der Projektwissens-
basis nach (mindestens) einem ähnlichsten alten, bereits bearbeiteten Projekt gesucht.
Wesentliche Instrumente sind hierbei Ontologien, welche die computergestützte Ver-
arbeitung insbesondere natürlichsprachlichen Wissens ermöglichen und aufgrund ihrer
Repräsentation in Ontologie-Graphen eine Ähnlichkeitsmessung zwischen begrifflichen
Konzepten als Weglängen zwischen konzeptdarstellenden Knoten gestatten. Hierauf wird
im nächsten Kapitel zurückgekommen. Falls in der Retrieve-Phase kein altes Projekt
gefunden wird, das eine benutzerseitig vorgegebene Mindestähnlichkeit aufweist, wird
die Anwendung der CBR-Methode ergebnislos abgebrochen. Daher führt die CBR-
Methode nicht immer zu einem erfolgreichen Ergebnis der Wissenswiederverwendung.
Hierdurch unterscheidet sie sich deutlich von konventionellen Algorithmen.
Reuse-Phase: Es erfolgt eine Gap-Analyse hinsichtlich der Abweichungen zwischen
dem (mindestens einen) ähnlichsten alten Projekt und dem vorgegebenen neuen Projekt.
Anhand der identifizierten Abweichungen wird vor allem die Planung für das alte Projekt
mithilfe von Anpassungsregeln an das neue Projekt angepasst. Das Anpassungsergeb-
nis – die Projektlösung – ergänzt die eingangs vorgegebene Projektbeschreibung für das
neue Projekt. Die Reuse-Phase erstreckt sich zurzeit bei Anwendungen des Case-based
Reasonings auf das betriebliche Projektmanagement nur auf die Projektplanung. Einer
Wissenswiederverwendung für die Projektdurchführung, die Projektsteuerung und das
Projektcontrolling stehen zwar keine grundsätzlichen Hindernisse im Wege. Aber dies-
bezüglich stehen noch keine Forschungsresultate zur Verfügung.
Revise-Phase: Die Projektlösung wird hinsichtlich ihrer Plausibilität überprüft
(„validiert“) und hinsichtlich ihrer Eignung zur Wiederverwendung evaluiert. Dies kann
sowohl „manuell“ durch erfahrene Projektmanager als auch computergestützt mittels
Integritäts- bzw. Generalisierbarkeitsregeln geschehen. Um diese Überprüfungs- und
Evaluierungsarbeiten zu unterstützen, müssen konkrete Lösungsanforderungen an
„akzeptable“ Projektlösungen spezifiziert werden. Falls diese Lösungsanforderungen
von der bisher erarbeiteten Projektlösung nicht vollständig erfüllt werden, müssen
– entweder computergestützt oder seitens erfahrener Projektmanager – Korrekturen
(„Reparaturen“) der bislang vorliegenden Projektlösung vorgenommen werden, die
darauf abzielen, diese vorläufige Projektlösung so zu überarbeiten, dass alle Lösungs-
anforderungen erfüllt werden. Falls sich grundlegende Plausibilitäts- oder Wieder-
verwendbarkeitsanforderungen nicht erfüllen lassen, wird die Anwendung der
CBR-Methode wegen „irreparabler“ Lösungsanforderungen abermals ergebnislos
Case-based Reasoning als White-Box AI: „intelligentes“ …
19
In der Domäne des Projektwissensmanagements gilt es, eine Fülle von projekt-
bezogenem Wissen zu verarbeiten. Es handelt sich insbesondere um Erfahrungswissen
über bereits bearbeitete, alte Projekte, das „im Prinzip“ für Planung, Durchführung,
Steuerung und Controlling neuer Projekte wiederverwendet werden könnte, tatsäch-
lich jedoch kaum benutzt wird. Dieses „an sich“ wiederverwendbare Wissen liegt vor
allem in der Form einer großen Anzahl von Dokumenten mit schlecht strukturiertem,
qualitativem und überwiegend natürlichsprachlich repräsentiertem Wissen über alte
Projekte vor. Diese Dokumente sind in den betroffenen Unternehmen zumeist mit Text-
verarbeitungssoftware erstellt worden und stehen daher in der Regel auf computer-
basierten Datenbanken oder Dokumenten-Servern zur Verfügung. Da die Dokumente,
22 S. Zelewski et al.
Erschwerend kommt hinzu, dass die Dokumente, die den größten Teil des Erfahrungs-
wissens über alte, bereits bearbeitete Projekte umfassen, nicht nur schlecht strukturiert
und in natürlicher Sprache verfasst sind, sondern sich im betrieblichen Alltag auch
noch als hochgradig heterogen hinsichtlich der jeweils präsupponierten Terminologien
erweisen. Diese terminologische Heterogenität lässt sich in komplexen, insbesondere
internationalen Projekten mit einer Vielzahl von Akteuren (Personen, Unternehmen,
hoheitlichen und regierungsfernen Organisationen sowie sogar Softwaresystemen),
kaum vermeiden, weil die Akteure es gewohnt sind, ihre Gedanken in unterschiedlichen
Case-based Reasoning als White-Box AI: „intelligentes“ … 23
Flugzeug Schiff
Klasse Instanz
ist_Instanz_von ist_Instanz_von Legende:
4 Ausblick
Literatur
Munir M (2019) How Artificial Intelligence can help Project Managers? Global J Manage Bus Res
19(4):29–35
Obermayer N, Tóth V (2021) The Impact of Emerging Technologies on Knowledge Management.
In: Garcia-Perez A, Simkin L (Hrsg) 22nd European Conference on Knowledge Management
2(Reading):585–593
Radziejowska A, Zima K (2015) The concept of a knowledge base to aid in cost estimating of
sports facilities. Int J Contemp Manage 14(3):99–113
Rai A (2020) Explainable AI: from black box to glass box. J Acad Market Sci 48(1):137–141
Richter M, Weber R (2013) Case-Based Reasoning. Springer, Berlin - Heidelberg
Riesbeck C, Schank R (1989) Inside Case-Based Reasoning. Lawrence Erlbaum Associates,
Publishers, Hillsdale
Ruiz J, Torres J, Crespo R (2021) The application of artificial intelligence in project management
research: a review. Int J Interact Multimedia Artif Intell 6(6):54–65
Shehab M, Abualigah L, Jarrah M, Alomari O, Daoud M (2020) Artificial intelligence in software
engineering and inverse: review. Int J Comput Integr Manufact 33(1):1129–1144
Zelewski S (2015) Ontologien als Grundlage für das Semantic Knowledge Management
von projektbezogenem Erfahrungswissen. In: Zelewski S, Akca N, Kowalski M (Hrsg)
Organisatorische Innovationen mit Good Governance und Semantic Knowledge Management
in Logistik-Netzwerken. Logos, Berlin, S 81–228
Zelewski S, Schagen J (2022) Case-based Reasoning als KI-Technik zur „intelligenten“, computer-
gestützten Wiederverwendung von Erfahrungswissen im Projektmanagement. KI-LiveS-
Projektbericht Nr. 9, Institut für Produktion und Industrielles Informationsmanagement,
Universität Duisburg-Essen
Zelewski S, Kowalski M, Bergenrodt D (2015) Management von Erfahrungswissen aus inter-
nationalen Logistik-Projekten mithilfe von Case-based Reasoning. In: Zelewski S, Akca
N, Kowalski M (Hrsg) Organisatorische Innovationen mit Good Governance und Semantic
Knowledge Management in Logistik-Netzwerken. Logos, Berlin, S 229–267
Um die Relevanz der Messbarkeit der Nachhaltigkeit von Digitalisierung für Unter-
nehmen zu konkretisieren, beschäftigen sich die ersten beiden Kapitel zum einen mit der
generellen Verantwortung von Unternehmen in Bezug auf eine nachhaltigere Welt und
was dies für den (nachhaltigen) Digitalisierungsprozess von Unternehmen bedeutet. Zum
anderen wird die Notwendigkeit eines Modells zur Bewertung der Nachhaltigkeit von
Digitalisierung in Unternehmen erläutert.
Im Folgenden wird die Forschung und Entwicklung des Reifegradmodells
„Sustainable Digitalization Maturity Model“ (SDMM) vorgestellt. Dabei wird das drei-
fache Verständnis von Nachhaltigkeit zugrunde gelegt, welches von John Elkington
(1998) als „Triple Bottom Line“ der Nachhaltigkeit bezeichnet wurde. Diese Definition
unterteilt Nachhaltigkeit in die ökonomische, ökologisch und soziale Dimension, wobei
„jedes Ziel als notwendiger, unabhängiger und kompromissloser Teil des Ganzen ver-
standen werden muss“ (Rogers und Hudson 2011, 6).
Im Weiteren wird sowohl auf die Methodik des Design Science Research, als auch
auf die damit verbundene Literaturrecherche und die durchgeführten Experteninterviews,
S. Hatzebruch
Mühlheim am Main, Deutschland
E-Mail: [email protected]
V. Just (*) · A. Moring
Hamburg, Deutschland
E-Mail: [email protected]
A. Moring
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 31
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_3
32 S. Hatzebruch et al.
Das Bestreben die Welt nachhaltiger zu gestalten, um sie für heutige und zukünftige
Generationen lebenswert zu machen, fordert ein großes Engagement aller (WCED
1987). Dabei wird das Erreichen von ökologischen, sozialen und ökonomischen Nach-
haltigkeitszielen oft in Zusammenhang mit dem Megatrend Digitalisierung gebracht
(Helbing 2012). Neben dem großen Potenzial, das von digitalen Technologien ausgeht,
bspw. in Bezug auf den Umweltschutz, werden allerdings immer häufiger auch negative
Folgen wie der große Energieverbrauch von Datenzentren vorgebracht (Arnold und
Fischer 2019; Seele und Lock 2017).
Insbesondere Unternehmen, die als soziale Organisation eine dominante Stellung in
der Gesellschaft einnehmen, wird eine große Verantwortung zugeschrieben, wenn es um
den Einfluss auf die Nachhaltigkeitsentwicklung geht (Melville 2010). Beim 2020 online
stattfindenden Digital-Gipfel, durchgeführt durch den BMWi, wurde diese besondere
Rolle der Unternehmen in Bezug auf deren notwendiges Handeln für eine nachhaltigere
Digitalisierung besonders hervorgehoben (BMWi 2018). Lock und Seele (2017)
bezeichnen Unternehmen, neben Medien, Regierungen und Wissenschaft, als einen der
zehn wichtigsten Akteure der Nachhaltigkeit im Kontext der Digitalisierung. Diese den
Unternehmen zugeschriebene Verantwortung wird dabei zum einen durch deren erheb-
liche Beteiligung an der Umweltverschmutzung begründet, die beispielsweise durch
deren hohen Energie- und Wasserverbrauch oder Emissionen entsteht. Darüber hinaus
wird Unternehmen aber auch eine soziale Verantwortung gegenüber der Gesellschaft
und insbesondere deren Mitarbeitern zugeschrieben. Durch das Verhindern von zum
Beispiel Unterbezahlung oder schlechten Arbeitsbedingungen können Unternehmen
maßgeblich soziale Probleme beeinflussen. Außerdem liege es in der Verantwortung
von Unternehmen, wirtschaftliche Entwicklung zu katalysieren, Innovationen voranzu-
treiben und menschliche Bedürfnisse grundlegend zu befriedigen. Als am wichtigsten
wird jedoch erachtet, dass Unternehmen „einen großen Hebel und die notwendigen
Ressourcen haben, um die Welt nachhaltiger zu gestalten“ (Lock und Seele 2017, 240 in
Anlehnung an Shrivastava 1995). Diese Hebelwirkung ergebe sich insbesondere daraus,
dass Unternehmen gleichzeitig Big Data-Generatoren und -Sammler und -Anwender
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 33
sind (um Wissen über ihre Kunden zu gewinnen, in F&E zu innovieren, neue Märkte zu
erschließen, Produkterfolge und -fehler vorherzusagen) (Lock und Seele 2017).
Ob Unternehmen tatsächlich einen positiven Beitrag zu einer nachhaltigen Ent-
wicklung leisten, hängt dabei stark vom Management der digitalen Transformation und
der Anwendungen von Künstlichen Intelligenz (KI) ab (Klumpp und Zijm 2019; Seele
und Lock 2017). Da sowohl Digitalisierung und Nachhaltigkeit und damit auch nach-
haltige Digitalisierung für das gesamte Unternehmen relevant sind, sollte die Planung
und Überwachung dem Upper Management obliegen.
Aus Unternehmenssicht bedeutet dies nicht nur eine Notwendigkeit eine Anpassung
der Strategieausrichtung an den technologischen Veränderungen vorzunehmen um
im zunehmend digitalen Marktumfeld wettbewerbsfähig zu bleiben, sondern das
Thema Nachhaltigkeit als integralen Bestandteil im Unternehmen und insbesondere im
Digitalisierungsprozess zu verankern. Die Umsetzung einer nachhaltigen Digitalisierung
ist allerdings nicht ganz einfach für Unternehmen. Dies liegt zum einen an der
Komplexität, die die nachhaltige Nutzung der technologischen Möglichkeiten, auch aus
strategischer Sicht, z. B. im Sinne von Geschäftsmodellinnovationen, mit sich bringt
(Loebbecke und Picot 2015; Paulus-Rohmer et al. 2016; Teichert 2019). Zum anderen
ist der Einfluss der Digitalisierung auf die Nachhaltigkeit nicht vollständig geklärt, was
zu Ungewissheit führt, welches der „richtige“ Weg für die praktische Umsetzung einer
nachhaltigen Digitalisierung ist (Seele und Lock 2017).
Da neben der Politik auch andere Stakeholder mehr und mehr Transparenz von Unter-
nehmen in Bezug auf deren Nachhaltigkeitsperformance verlangen, wächst allerdings
die Notwendigkeit für Unternehmen eine nachhaltige Digitalisierung systematisch und
glaubhaft vorweisen zu können.
Seele und Lock behaupten, dass die Nutzung des „Potenzials von Nachhaltigkeit
und Digitalisierung auf allen Ebenen, sei es technisch, konzeptionell, politisch oder
wissenschaftlich“ noch am Anfang steht (Seele und Lock 2017, 185). Und tatsäch-
lich ist bei Unternehmen ein heterogenes Verständnis von Nachhaltigkeit in Bezug
auf Digitalisierung festzustellen. Dabei spielt sicherlich auch die Größe von Unter-
nehmen eine Rolle. Kleine Startups, die sich von Anfang an auf Nachhaltigkeit aus-
gerichtet haben, haben möglicherweise einen Vorteil gegenüber großen traditionellen
Unternehmen, da diese alle bisherigen Prozesse auf Nachhaltigkeit umstellen müssen.
Andererseits haben große Unternehmen den Vorteil, mehr Ressourcen zur Verfügung
stehen zu haben, um eine nachhaltige Digitalisierung in die Tat umzusetzen. Aus einem
allgemein ungleichen Verständnis von nachhaltiger Digitalisierung resultiert eine ebenso
unterschiedliche praktische Umsetzung von Digitalisierung, In vielen Unternehmen
scheint dabei der wirtschaftliche Vorteil durch Effizienzgewinne im Vordergrund zu
34 S. Hatzebruch et al.
Die Leistungsmessung von Fähigkeiten wird generell oft als komplex, aber notwendig
in Bezug auf die Erreichung von Unternehmensziele angesehen (Chiesa 2008), da die
Ergebnisse nicht nur Grundlage für Entscheidungsfindungen oder strategischen Planung
sind, sondern auch einen Lerneffekt mit sich bringen (Loch und Tapper 2002). Ein hilf-
reicher und oft genutzter Ansatz, um die Leistungsfähigkeit eines Unternehmens zu
messen bzw. den kontinuierlichen Verbesserungsprozess von Unternehmen zu unter-
stützen – hier in Bezug auf nachhaltige Digitalisierung – ist das Reifegrad Konzept/
Konzept der Reife, welches wertvolle Orientierung für Unternehmen auf dem Weg zur
kontinuierlichen Verbesserung liefert (Becker et al. 2009; Pöppelbuß und Röglinger
2011). Dieser Ansatz wurde daher auch für die Entwicklung des SDMM genutzt.
Allgemein dienen Reifegradmodelle als Instrument, um die aktuelle Position des
Unternehmens auf seinem evolutionären Weg zur vollen Reife zu skalieren (Fraser et al.
2002; Lahti et al. 2009). Den meisten Reifegradmodellen ist gemeinsam, dass sie ein
systematisches Maß darstellen, „um den Ist-Zustand eines Unternehmens zu beurteilen,
Verbesserungsmaßnahmen abzuleiten und zu priorisieren und anschließend den Fort-
schritt ihrer Umsetzung zu steuern“ (auf deutsch übersetzt. Becker et al. 2009, 213).
Das Konzept der Reifegradmessung wurde mit dem Capability Maturity Model
(CMM) des Software Engineering Institute (SEI) eingeführt (Paulk et al. 1991). Seitdem
wurden eine Vielzahl von Reifegradmodellen veröffentlich und erfolgreich eingesetzt
(vgl. z. B. Becker et al. 2009; De Bruin et al. 2005; Pöppelbuß und Röglinger 2011;
Fraser et al. 2002). Allerdings beschäftigt sich keines der bestehenden Modelle mit nach-
haltiger Digitalisierung. Vielmehr gibt es Reifegradmodelle, die sich entweder auf Nach-
haltigkeit oder auf Digitalisierung beziehen. Diese Erkenntnis bestätigte das Vorhaben
ein solches Modell, welches beide Faktoren zusammenbringt, zu entwickeln.
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 35
Methodik
Um ein innovatives und praktisch anwendbares Reifegradmodell zur Messung nach-
haltiger Digitalisierung zu entwickeln, folgten wir der populären Methodik des Design
Science Research (DSR). Diese zielt auf die Schaffung und Bewertung von innovativen
Artefakten ab, welche darauf ausgerichtet sind, Leistung zu verbessern (March und
Smith 1995). Als Basis für die Nutzung von DSR im Hinblick auf die Entwicklung des
Reifegradmodells dienten oft zitierte designwissenschaftliche Richtlinien (für weitere
Details siehe Hevner et al. 2004) und darauf aufbauend ein DSR-Framework, das die
Entwicklung von Artefakten unterstützt (Hevner 2007). Das von Hevner (2007) vor-
geschlagene DSR-Verfahren ist in drei eng verwandte iterative Zyklen unterteilt.
Der Relevanzzyklus stellt den ersten Zyklus von Hevners Framework dar. DSR wird
dabei durch ein Problem initiiert, welches zunächst bestimmt und dessen Anwendungs-
domänenkontext geklärt werden muss (Hevner 2007). Der zweite Zyklus wird als Rigor-
Zyklus bezeichnet. Dieser Teil bringt vorhandenes Wissen, Theorie und Artefakte in
die DSR ein und baut so eine Wissensbasis auf, die Einfluss auf die Entwicklung des
innovativen Artefakts hat. Der Designzyklus und Hauptteil des Prozesses umfasst die
Schlüsselaktivitäten von DSR, das Artefakt iterativ zu entwickeln und zu bewerten
(Hevner 2007). Die hier beschriebene Forschung konzentrierte sich vor allem auf die
Entwicklung (Bauaktivitäten). Die DSR-Aktivitäten, die sich mit der Bewertung und
Umsetzung befassen, wurden bei der Entwicklung des SDMM nicht diskutiert.
und Hudson 2011). Das TBL-Framework besagt außerdem, dass der Idealfall erreicht
ist, wenn ökonomische, soziale und ökologische Nachhaltigkeitsziele gleichzeitig erfüllt
werden – sozusagen an der Schnittmenge des TBL Venn-Diagramms (siehe Roger und
Hudson 2011, 4).
Da es zum Teil widersprüchliche Ziele der drei Komponenten geben kann, zum Bei-
spiel, wenn soziale und ökologische Ziele im Gegensatz zu wirtschaftlichen Zielen stehen
(Rogers und Hudson 2011), weist das TBL-Framework darauf hin, dass Geschäfts-
entscheidungen in einem breiteren, allumfassenden Nachhaltigkeits-Kontext getroffen
werden müssen, da „jedes Ziel als notwendiger, unabhängiger und kompromissloser Teil
des Ganzen verstanden werden muss“ (Rogers und Hudson 2011, 6).
Mit diesem Grundverständnis von Nachhaltigkeit, sowie den Erkenntnissen aus
bereits bestehenden Reifegradmodellen in den separaten Themengebieten Digitalisierung
bzw. Nachhaltigkeit, wurden Experteninterviews durchgeführt. Diese sollten Aufschluss
darüber geben, welche unternehmerischen Fähigkeiten und welche spezifischen Aus-
prägungen dieser, die verschiedenen Reifegrade einer nachhaltigen Digitalisierung
bestimmen.
Das Modell
Basierend auf der durchgeführten Literaturrecherche und der Analyse der Experten-
interviews folgte die iterative Bestimmung von Strukturelementen des Reifegrad-
modells. Dies umfasste die Entscheidungen „über die (…) zu bewertende Dimensionen,
die zuzuweisenden Reifegrade (Bewertungsskala) und die zu formulierenden Zell-
beschreibungen“ (Maier et al. 2009, 150).
Das daraus resultierende Evaluationsmodell SDMM, das es ermöglicht, den Reifegrad
nachhaltiger Digitalisierung (sustainable development = SD) unter Berücksichtigung
der definierten Dimensionen und der ausgewählten Indikatoren für jede Dimension und
der Bedeutung dieser Indikatoren durch Anwendung eines Fragebogens/Workshops
zu bestimmen, ist ein erster Vorschlag zur Ermittlung potenzieller Verbesserungen der
unternehmerischen nachhaltigen Digitalisierung (Hatzebruch et al. 2021). Es besteht aus
fünf Reifegraden, fünf Dimensionen und insgesamt 25 Fähigkeiten, die ungleich in die
Dimensionen gruppiert sind (siehe Abb. 1).
Dabei gilt, um einen hohen Reifegrad zu erreichen, müssen Unternehmen in allen
Dimensionen einen hohen Reifegrad vorweisen können. Für jede der Dimensionen kann
eine spezifische Lösung zur Verbesserung hin zu einer nachhaltigeren Digitalisierung
erforderlich sein. Weiterhin kann unternehmensspezifisch ein Fokus auf unterschiedliche
Indikatoren gelegt werden.
Knowledge Management
Definition of SD Strategy
Internal Communication
Problem Understanding
Innovative Governance
Monitoring and Control
Availability of Budgets
Process Management
Technology Adequacy
Technology Alignment
Employee Readiness
Data Management
4 Advanced
AI Capabilities
3 Established
2 Developed
1 Initial
Abb. 1 Überblick über die Strukturelemente des Reifegradmodells SDMM (Hatzebruch et al.
2021)
hingegen die höchste Stufe (5), so weist dies auf einen Digitalisierungsprozess hin, der
ganzheitlich auf ökonomische, ökologische und soziale Nachhaltigkeit ausgerichtet ist.
Diese Reifegrade begleiten den konsekutiven Prozess von den ersten Anforderungen
bis hin zur ganzheitlichen Transformation zur nachhaltigen Digitalisierungs-Reife.
Die Beschreibungen der Grundkonzeptionen aller fünf Reifegrade können in Abb. 2
gefunden werden.
1 Initial Starting point for the development and improvement towards the highest level of
maturity. Thereby, capabilities are only rudimentarily developed from a strategic as well
as from an operational perspective, and an organizational orientation and culture that
understands the importance of sustainability within the digitalization process of the
company is missing.
2 Developed The developed stage comprises the fundamental requirement towards an advanced
maturity. The awareness for the need of sustainability in the context of digitalization is
existing. However, a comprehensive concept, strategic alignment, and expertise
necessary to realize the issue of SD is not in place.
3 Established The established level constitutes as the third level of maturity, where fundamental
concepts for SD do exist. This includes initial approaches to establish SD processes, but
they are neither well developed yet nor institutionalized from a strategic perspective.
4 Advanced The advanced level of the maturity model, contains that organizational prerequisites for
the sustainable-oriented development of digitalization are available. Thereby, general
concepts to support a defined sustainability objective do exist. A concept and strategic
alignment is sustained by associated specifications and control mechanisms like the
holistic sustainability assessment of digital solutions.
5 Leading The leading stage is the highest level and constitutes a leadership position in the field of
SD. At this stage, capabilities are systematically and continuously developed in
accordance with the strategic direction of the company. Thereby the aspect of
sustainability is considered in every digitalization process, decision and de-sign of digital
technologies.
• Ein zentrales Ergebnis unserer Forschung ist, dass das volle Potenzial der
Digitalisierung nur dann ausgeschöpft werden kann, wenn Nachhaltigkeit als
Gesamtkonzept und nicht als zusätzliches Element betrachtet wird. Das bedeutet,
dass es einen umfassenden strategischen Nachhaltigkeitsansatz geben muss, um die
Digitalisierung erfolgreich zu managen. Deshalb ist die strategische Dimension
innerhalb des Reifegradmodells entscheidend für die Bewertung der nachhaltigen
Digitalisierungs-Reife des Unternehmens. Dabei ist nicht nur die Definition einer
nachhaltigen Digitalisierungs-Strategie in Verbindung mit klaren Nachhaltigkeits-
zielen entscheidend, sondern auch die Ausrichtung an der Unternehmens-(nach-
haltigkeits)-strategie und ebenso die Messung der Zielerreichung. Diese Ziele
sollen nicht nur ökonomischer Natur sein, sondern auch ökologisch und sozial. Dies
inkludiert zum Beispiel die Reduzierung des CO2-Ausstoßes des Unternehmens
um einen bestimmten Prozentsatz pro Jahr in Verbindung mit digitalen Techno-
logien oder die Steigerung der Mitarbeiterzufriedenheit durch flexible Arbeits-
bedingungen wie Home-Office, die durch digitale Lösungen ermöglicht werden.
Für diesen strategischen Aspekt ist eine klare Managementstruktur erforderlich, bei
der die C-Ebene die Hauptverantwortung trägt. Nicht nur, um die Bedeutung von
nachhaltiger Digitalisierung zu symbolisieren, sondern auch, um sicherzustellen,
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 39
dass spezielle Budgets zur Verfügung stehen, um die nachhaltige Entwicklung der
Digitalisierung zu unterstützen.
• Darüber hinaus werden Culture & Leadership als wichtige Faktoren identi-
fiziert, die eine nachhaltige Entwicklung begründen und fördern. Diese Dimension
konzentriert sich in erster Linie auf soziale Aspekte, die sich wiederum auf öko-
nomische und ökologische Ergebnisse auswirken. Dabei beziehen sich alle vor-
geschlagenen Fähigkeiten hauptsächlich auf eine bestimmte Denkweise, von der
man annimmt, dass sie positiv zur nachhaltigen Entwicklung von Unternehmen bei-
trägt. Vor allem das überzeugende Bekenntnis des Top-Managements zu nachhaltiger
Digitalisierung, das sich in dessen Antrieb oder Unterstützung äußern kann, wird
als wichtig angesehen. In gewissem Maße abhängig von diesen Kriterien sind auch
die Fähigkeiten des Wissensmanagements, der innovativen Unternehmensführung
und der internen Kommunikation. Ohne die Bereitschaft der Mitarbeiter zur (nach-
haltigen) Digitalisierung und ihre Beteiligung und Einbindung in die nachhaltigen
Digitalisierungs-Aktivitäten kann der Reifegrad unter dem Gesichtspunkt der Nach-
haltigkeit nicht erreicht werden.
• Da behauptet wird, dass das Erfassen des potenziellen Werts von Technologien
und damit das Erreichen von Wettbewerbsvorteilen über den bloßen Besitz und die
Implementierung von Technologien hinausgeht (Kane et al. 2017, S. 5 f.), spielt die
Prozessdimension eine wichtige Rolle bei der Nutzung von digitalen Technologien.
Daher bedarf es eines digital ausgerichteten Prozessmanagements, das sinnvoll ist
und auf einer soliden digitalen Infrastruktur basiert, die Geschwindigkeit, Robust-
heit und Sicherheit im Informationsaustausch unterstützt. Darüber hinaus ist die Ein-
führung konsistenter interner Richtlinien erforderlich, die das Thema nachhaltige
Digitalisierung unterstützen. Dies kann beinhalten, dass die Lieferantenauswahl für
digitale Technologien oder Bürogeräte eines Unternehmens vom Nachhaltigkeits-
konzept des Anbieters bzw. von bestimmten Zertifikaten, die der Anbieter vorweisen
kann (z. B. das Blauer Engel-Zertifikat DE-UZ 215), abhängig gemacht wird. Ent-
scheidend ist nach Ansicht der Experten auch, die Digitalisierung nicht nur aus dem
Willen zur Digitalisierung herauszubetreiben. So wurden ein tiefes Problemverständ-
nis und die Nachhaltigkeitsbewertung digitaler Lösungen – unter Berücksichtigung
eines zirkulären Wirtschaftsansatzes – als wegweisende Fähigkeiten im Rahmen des
Reifegradmodells identifiziert. Speziell für Softwareprodukte können Unternehmen
auf einige bestehende Ansätze zur Bewertung ihrer Umweltauswirkungen zurück-
greifen, z. B. von Hilty et al. (2017), die auch die damit verbundenen Auswirkungen
auf die Hardware berücksichtigen. Im Rahmen des Entscheidungs- und Umsetzungs-
prozesses neuer digitaler Technologien sollen die Mitarbeitenden miteinbezogen und
unterstützt werden. Auch sollen Ansätze zur Überwachung der Prozessdurchführung
für alle relevanten Prozesse angewandt und auf nachhaltige Effizienz hin verfolgt
werden. Da zur Nachhaltigkeit auch Transparenz gehört, stellt die Kommunikation
und Berichterstattung über die Digitalisierung eine Kernaufgabe dar. Diese sollte auf
systematischen Kennzahlen basieren, die positive und negative Auswirkungen auf die
40 S. Hatzebruch et al.
Anwendungsbeispiel
In den Interviews wurde deutlich, dass zu den Spitzenfähigkeiten die Prozessfähig-
keiten „Problemverständnis“ und „Bewertung digitaler Technologien“ gehören
(Hatzebruch et al. 2021). Aufgrund ihrer Bedeutung und ihres Einflusses auf den Reife-
grad nachhaltiger Digitalisierung werden sie im Folgenden als Beispiele herangezogen,
um zu zeigen, wie die Erkenntnisse aus der vorhandenen Literatur und die Analyse
der Experteninterviews zu spezifischen Beschreibungen von Fähigkeitsmerkmalen
führten. Zu den wichtigsten Erkenntnissen gehört, dass Unternehmen nicht wegen des
Willens zur Digitalisierung digitalisieren dürfen. Deshalb muss immer sichergestellt
werden, dass die Digitalisierung eine geeignete Lösung für ein bestimmtes soziales
oder organisatorisches Problem darstellt. Dazu müssen entsprechende intellektuelle,
technologische und emotionale Fähigkeiten im Unternehmen vorhanden sein, um ein
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 41
tiefes Verständnis für das ursprüngliche Problem zu erlangen, das eine digitale Lösung
rechtfertigt. Dieser Prozess kann eine Anforderungsanalyse für die potenzielle Lösung
des spezifischen Problems beinhalten. Ein weiterer relevanter Faktor, der in der Praxis
nicht angewendet zu werden scheint, ist eine ganzheitliche Bewertung (potenzieller)
digitaler Lösungen durch die Unternehmen. Denn das Ergebnis einer Nachhaltigkeits-
bewertung würde einen umfassenden Überblick über die positiven wie negativen öko-
nomischen, ökologischen und sozialen Auswirkungen liefern. Auf dieser Basis kann
eine konkrete Lösung sorgfältig und sinnvoll abgewogen werden. Hierfür gibt es bereits
einige Regelungen und Bewertungsansätze, die von Unternehmen angewendet werden
können und sollten. Für den Bereich der Bewertung wird es als Best Practice verstanden,
wenn ein zirkulärer Ansatz angewendet wird. Aus dieser Erkenntnis heraus folgten die
Beschreibungen und Ausprägungen der beiden exemplarischen Fähigkeiten pro Reife-
grad (siehe Abb. 3). Dies wurde für alle 25 Fähigkeiten durchgeführt.
Reifegradbewertung
Der Reifegrad nachhaltiger Digitalisierung eines Unternehmens wird anhand der eben
skizzierten Strukturelemente ermittelt. Dies bedeutet insbesondere, dass die Gesamt-
bewertung des Reifegrades eines Unternehmens durch die Reifegradbewertung bestimmt
wird, die sich aus den fünf Dimensionen zusammensetzt, die wiederum auf der Grund-
lage der jeweiligen Fähigkeiten der einzelnen Dimensionen determiniert werden. Die
daraus resultierende Reife erlaubt eine Einordnung in eine der fünf definierten Reife-
gradstufen. Darauf aufbauend kann eine systematische Entwicklung vom aktuellen
Reifegrad zu höheren Stufen durch die Verbesserung der Eigenschaften spezifischer
Fähigkeiten und auf der Grundlage der vom Unternehmen angestrebten Ziele realisiert
werden.
Auf der Grundlage einer Bewertung, inwieweit diese Fähigkeiten vorhanden
sind, erhält ein Unternehmen ein klares Verständnis seiner aktuellen Fähigkeiten und
Schlüsselindikatoren für Maßnahmen und Verbesserungen. Anhand der Bewertungs-
ergebnisse kann ein Fahrplan für das Erreichen höherer Reifegrade erstellt werden.
Dabei können die Unternehmen individuell Prioritäten setzen und sich auf die Fähig-
keiten konzentrieren, die sie als besonders wichtig oder dringend erachten. Für eine
erfolgreiche Entwicklung von Fähigkeiten sollten Unternehmen jedoch die Reife
nachhaltiger Digitalisierung systematisch und fortlaufend bewerten und steuern. Das
bedeutet, dass Maßnahmen ergriffen werden sollten, um den Fortschritt zu bewerten und
den Wert zu ermitteln, der durch die Einführung von nachhaltiger Digitalisierung ent-
steht.
Die Anwendung des Modells ermöglicht es nachhaltige Digitalisierungs-Fähig-
keiten zu einem bestimmten Zeitpunkt zu messen und zu bewerten. Dies verschafft den
Unternehmen ein besseres Verständnis ihrer vorhandenen Fähigkeiten, ermöglicht eine
effizientere Nutzung der Ressourcen und zeigt Möglichkeiten zur Verbesserung der
Nachhaltigkeit auf. Auf diese Weise sind die Unternehmen besser für die Bewältigung
42 S. Hatzebruch et al.
des konvergierenden Megatrends gerüstet und in der Lage, die Beziehungen und Ein-
flüsse zu verstehen, die sich auf die nachhaltige Entwicklung auswirken.
Die allgemeine Wahrnehmung, dass die Digitalisierung von Unternehmen in der Praxis
meist nicht alle drei Dimensionen der Nachhaltigkeit berücksichtigt (Seele und Lock
2017, S. 185), im Gegensatz zum TBL-Framework (Rogers und Hudson 2011, S. 6),
wurde durch die durchgeführten Experteninterviews unserer Forschung bestätigt. Des-
halb kann gesagt werden, dass es sich bei dem Thema nachhaltige Digitalisierung um
ein noch relativ neues, aber sich schnell entwickelndes Feld handelt, das Unternehmen
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 43
Zusammenfassend lässt sich somit sagen, dass es nicht nur eine intensive Forschung
zu allen nachhaltigen Auswirkungen und Effekten digitaler Technologien braucht,
sondern auch politische Initiativen, die eine nachhaltige Digitalisierung von Unter-
nehmen unterstützen. Dadurch würden Unternehmen auch in Zukunft ermutigt werden
einen nachhaltigeren Digitalisierungsprozess durchzuführen und somit die Erreichung
der Nachhaltigkeitsziele zu unterstützen. Das vorgebrachte Reifegradmodell kann dabei
ein erster Anstoß für Unternehmen sein eine nachhaltige Digitalisierung umzusetzen.
Literatur
Arnold M, Fischer A (2019) Fluch und Segen der Digitalisierung im Kontext einer Entwicklung
zur Nachhaltigkeit. Chemnitz Economic Papers, Nr. 031, Chemnitz University of Technology,
Faculty of Economics and Business Administration, Chemnitz, S 1–21
Azapagic A, Perdan S (2000) Indicators of sustainable development for industry: a general
framework. Process Saf Environ Prot 78(4):243–261
Baumgartner RJ, Ebner D (2010) Corporate sustainability strategies: sustainability profiles and
maturity levels. Sustain Dev 18(2):76–89
Becker J, Knackstedt R, Pöppelbuß J (2009) Developing maturity models for IT management. Bus
Inf Syst Eng 1(3):213–222
BMWi (2018) Die EU-Datenschutz-Grundverordnung – Checkliste für die Umsetzung in Unter-
nehmen. https://www.bmwi.de/Redaktion/DE/Publikationen/Digitale-Welt/datenschutzgrund-
verordnung.pdf?__blob=wqpublicationFile&v=16. Zugegriffen: 6. Aug. 2021
Chiesa V, Frattini F, Lazzarotti V, Manzini R (2008) Designing a performance measurement system
for the research activities: a reference framework and an empirical study. J Eng Tech Manage
25(3):213–226
De Bruin T, Rosemann M, Freeze R, Kaulkarni U (2005) Understanding the main phases of
developing a maturity assessment model. In 16th Australasian Conference on Information
Systems (ACIS), Sydney, S 8–19
Donnellan B, Sheridan C, Curry E (2011) A capability maturity framework for sustainable
information and communication technology. IT Prof 13(1):33–40
Elkington J (1998) Accounting for the triple bottom line. Meas Bus Excell 2(3):18–22
Fraser P, Moultrie J, Gregory M (2002) The use of maturity models/grids as a tool in assessing
product development capability. In IEEE International Engineering Management Conference (1),
Cambridge, UK, S 244–249
Hatzebruch S, Just V, Moring A (2021). The advancement and practical application of a maturity
model for assessing “Sustainable Digitalization Readiness” of Companies. Master-Thesis at ISM
Helbing D (2012) The FuturICT knowledge accelerator towards a more resilient and sustainable
future. The European Physical Journal Special Topics 214:5–9
Hevner AR (2007) A three cycle view of design science research. Scand J Inf Syst 19(2):87–92
Hevner AR, March ST, Park J, Ram S (2004) Design science in information systems research. MIS
Q 28(1):75–105
Hilty L, Naumann S, Maksimov Y, Kern E, Filler A, Guldner A, Gröger J (2017) Kriterienkatalog
für nachhaltige Software. UFOPLAN-Projekt „Sustainable Software Design - Entwicklung
einer Methodik zur Bewertung der Ressourceneffizienz von Softwareprodukten“ FKZ-Nr.:
3715 37 601. Öko-Institut, Hochschule Trier, Universität Zürich, Freiburg, S 1–32
Kane GC, Palmer D, Nguyen-Phillips A, Kiron D, Buckley N (2017) Achieving digital maturity.
MIT Sloan Manag Rev 59(1):1–29
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 45
Klumpp M, Zijm H (2019) Logistics innovation and social sustainability: how to prevent an
artificial divide in human-computer interaction. J Bus Logist 40(3):265–278
Lahti M, Shamsuzzoha AHM, Helo P (2009) Developing a maturity model for supply chain
management. Int J Logistics Syst Manage 5(6):654–678
Loch CH, Tapper US (2002) Implementing a strategy-driven performance measurement system for an
applied research group. J Prod Innov Manage: An Int Publ Prod Dev Manage Assoc 19(3):185–198
Lock I, Seele P (2017) Theorizing stakeholders of sustainability in the digital age. Sustain Sci
12(2):235–245
Loebbecke C, Picot A (2015) Reflections on societal and business model transformation arising
from digitization and big data analytics: a research agenda. J Strateg Inf Syst 24(3):149–157
Maier A, Moultrie J, Clarkson J (2009) Developing Maturity Grids for Assessing Organisational
Capabilities: Practitioner Guidance. IEEE Trans Eng Manage 59(1):138–159
March ST, Smith GF (1995) Design and natural science research on information technology. Decis
Support Syst 15(4):251–266
Melville NP (2010) Information systems innovation for environmental sustainability. MIS Q 34(1):1–21
Paulk MC, Curtis B, Chrissis MB (1991) Capability maturity model for software (CMU/SEI-
91-TR-24). Software Engineering Institute, Pittsburgh
Paulus-Rohmer D, Schatton H, Bauernhansl T (2016) Ecosystems, strategy and business models
in the age of digitization-How the manufacturing industry is going to change its logic. Procedia
CIRP 57:8–13
Pöppelbuß J, Röglinger M (2011) What makes a useful maturity model? A framework of general
design principles for maturity models and its demonstration in business process management.
European Conference on Information Systems (ECIS) 2011 Proceedings. 28; in Association
for Information Systems Electronic Library (AISeL). https://aisel.aisnet.org/ecis2011/28.
Zugegriffen 3. März 2021
Rogers K, Hudson B (2011) The triple bottom line. The synergies of transformative perceptions
and practices for sustainability. OD Pract 43(4):3–9
Seele P, Lock I (2017) The game-changing potential of digitalization for sustainability:
possibilities, perils, and pathways. Sustain Sci 12(2):183–185
Shrivastava P (1995) The role of corporations in achieving ecological sustainability. Acad Manag
Rev 20(4):936–960
Teichert R (2019) Digital transformation maturity: a systematic review of literature. Acta
universitatis agriculturae et silviculturae mendelianae brunensis 67(6):1673–1687
WCED (1987) Report of the world commission on environment and development: Our common
future; S. 20-24. https://digitallibrary.un.org/record/139811#record-files-collapse-header.
Zugegriffen 18 Februar 2021
Dr. Vanessa Just ist bei team neusta für die KI Strategie zuständig
und ist Gründerin und CEO der juS.TECH AG. Sie promovierte in
nachhaltiger Automatisierung und Digitalisierung von Geschäfts-
prozessen. Neben der beruflichen Tätigkeit hält sie Vorlesungen an
verschiedenen deutschen Hochschulen und Universitäten und ist
im KI Bundesverband e. V. Mitglied des Vorstands.
Hans-Christian Busch
1 Einleitung
Planetare Grenzen und der anthropogene Klimawandel (Rockström et al. 2009) stellen
derzeit und in den nächsten Jahrzehnten wirtschaftliche und gesellschaftliche Akteure
weltweit vor enorme transformatorische Herausforderungen. Zur Erreichung der mit
diesen Herausforderungen verbundenen Sustainable Development Goals der Vereinten
Nationen und des Überabkommens von Paris sind übergreifende Transformationen in
verschiedenen Bereichen notwendig; unter anderem in Bezug auf Bildung, Gesundheit,
Energie, Nahrungsmittel, Städte sowie Digitalisierung (Sachs et al. 2019). Jede dieser
Transformationsarenen betrifft verschiedene gesellschaftliche, politische sowie öko-
nomische Dimensionen. Aus diesen unterschiedlichen Dimensionen ergeben sich folg-
lich verschiedenartige Implikationen für Unternehmen und deren Strategien (Ernst et al.
2021).1
Besonderes Augenmerk in Nachhaltigkeitsstrategien verdienen die technologie-
bezogenen Transformationsaspekte. Denn die Entwicklung technologischer (inkl.
1 Danksagung: Ein herzliches Dankeschön gilt Johannes Westermeyer für hilfreiche Kommentare
und Anregungen beim Verfassen dieses Beitrags sowie den HerausgeberInnen für die Organisation
dieses Bandes.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 47
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_4
48 H.-C. Busch
Literatur diskutiert (Bailey et al. 2020; Delgado 2018; Knight et al. 2020). Das Cluster-
konzept nach Porter (1990) erkannte damit als einer der ersten management-orientierten
Ansätze die Relevanz strategischer Standortentscheidungen von Unternehmen an
(Knight et al. 2020). Hiernach verbessert ein Standort in Clustern z. B. den Austausch
von Wissen, Informationen, Technologie oder Personen (Porter und Sölvell 1998). In
neuerer Forschung erfolgt eine weitere Verknüpfung der Literatur des Strategischen
Managements und der Wirtschaftsgeographie. Herausgestellt wird insbesondere die
zunehmende Relevanz subnationaler Strukturen und Prozesse (bspw. in Städten oder in
Regionen) für Strategie, die Wechselbeziehungen zwischen Unternehmensstrategie und
regionalen Dynamiken (Bailey et al. 2020) sowie die zunehmende Relevanz wissens-
basierter räumlicher Faktoren (Knight et al. 2020). In Summe veranschaulicht diese
Forschung somit die Vorteilhaftigkeit wirtschaftsgeographischer Perspektiven auf
strategische Prozesse.
Dieser Beitrag fokussiert auf das Schnittfeld der bisher skizzierten Entwicklungs-
tendenzen des digital-nachhaltigen Wandels, einer wirtschaftsgeographischen
Perspektive auf diese Wandelprozesse sowie einer geographisch nuancierten Unter-
nehmensstrategie zur Begegnung dieses Wandels. Im weiteren Verlauf geht der Beitrag
der folgenden Leitfrage nach: wie können unternehmensexterne, räumlich verfasste Ein-
flussfaktoren der digital-nachhaltigen Transformation systematisiert werden, um diese in
Unternehmensstrategien zu berücksichtigen? Ziel des Beitrags ist dazu die systematische
Synthese des Kenntnisstandes aktueller wissenschaftlicher Debatten. Der Beitrag
gliedert sich wie folgt: Nach dieser Einleitung liefert der folgende Abschn. 1.2 einen
knappen Überblick der konzeptuellen Grundlagen einer geographischen Perspektive
auf ökonomische Prozesse. Anschließend fasst Abschn. 1.3 den Kenntnisstand der wirt-
schaftsgeographischen Debatten um digitale Transformationsprozesse einerseits und
Nachhaltigkeitstransitionen andererseits zusammen; zur Anwendung kommt dabei
eine räumliche und multiskalare Perspektive. Abgeleitet daraus resümiert Abschn. 1.4
potenziell relevante Implikationen für die unternehmerische Praxis, bevor Abschn. 1.5
ein abschließendes Fazit zieht.
eines Phänomens, zum Beispiel die räumliche Ausdehnung und Umgrenzung einer Stadt
oder eines Landes (Coe et al. 2020).
Auch wenn eine trennscharfe Abgrenzung der analytischen Maßstabs- bzw. Skalen-
ebenen oft nicht möglich ist, werden folgende beispielhafte Ebenen in wirtschafts-
geographischen Analysen häufig in Betracht genommen: Die lokale Ebene betrifft das
direkte Umfeld eines Standortes; bspw. eine Straße oder ein Stadtvierteil. Die urbane
Ebene betrifft – nun etwas weiter gefasst – das darüber liegende gesamtstädtische
Umfeld. Die regionale Ebene umfasst darüber hinaus subnationale Gebiete, bspw.
Bundesländer als regionale Territorien. Die nationale Ebene umfasst Länder als national-
staatliche Territorien und die globale Ebene umfasst Phänomene weltweiter Ausdehnung
(Coe et al. 2020, S. 29).
In der Analyse ökonomischer Phänomene (bspw. Innovationsprozesse) in räum-
licher Perspektive, wirkt sich die Maßstabsebene auf unterschiedliche Art und Weise
aus. Dies betrifft zum einen, auf welchen Skalenebenen sich ökonomische Prozesse
abspielen. Darüber hinaus ist entscheidend, wie Faktoren auf unterschiedlichen Skalen-
ebenen diese Prozesse (als Einflussgrößen) bedingen (Coe et al. 2020). Letztlich ist
außerdem relevant, wie weitere Prozesse auf verschiedenen Skalenebenen durch das
eigene Handeln (als Auswirkungen) beeinflusst werden. Daher ist eine skalenüber-
greifende (d. h. multiskalare) Perspektive auf ökonomische Prozesse notwendig, denn
diese betreffen gleichzeitig mehrere Skalenebenen (Bunnell und Coe 2001). Ein solcher
skalenübergreifender bzw. multiskalar Ansatz bildet somit in der Regel die heuristische
Grundlage wirtschaftsgeographischer Studien (Asheim 2020; Rodriguez-Pose 2011);
wenngleich auch meist spezifische einzelne Dimensionen und Maßstabsebenen in Ana-
lysen hervorgehoben werden.
Insbesondere die Konzeption und Nomenklatur der Maßstabsebenen (sowie des
Begriffs scale an sich, der in anderen Kontexten bspw. Produktionsvolumina bzw.
-ausmaße bezeichnet) werden gelegentlich unterschiedlich definiert. Zumeist existiert ein
eher vages Verständnis der Bedeutung des ‚Lokalen‘ oder ‚Regionalen‘ in angrenzenden
wirtschaftswissenschaftlichen Diskursen (McCann und Mudambi 2005). Während der
lokale Standort in der Wirtschaftsgeographie die genaue Position (z. B. Koordinaten)
bezeichnet (Clark et al. 2018), behandeln bspw. International Business Studien lokale
Standorte eher mehrdeutig und beziehen sich etwa auf die nationale Ebene (Beugelsdijk
et al. 2010, S. 487). Ähnliches lässt sich für den Regionsbegriff feststellen, der in der
Wirtschaftsgeographie auf subnationaler Ebene definiert ist, in anderen Disziplinen aber
etwa Ländergruppen (z. B. ‚D-A-CH Region‘) oder ganze Kontinente bezeichnen kann
(z. B. ‚Region Asien‘). Die Theoriebildung in der Wirtschaftsgeographie hat zu einem
differenzierteren und präzisen Verständnis des global-lokalen Skalenkontinuums bei-
getragen. Daher wirbt dieser Beitrag mithilfe der präsentierten definitorischen Ein-
grenzungen von location, scale und weiteren Grundbegriffen für die Nutzung dieser
präzisierten Begriffskonzeptionen aus wirtschaftsgeographischer Perspektive.
52 H.-C. Busch
„As all phenomena, for example effects of climate change or industrial restructuring, have
a specific location, a general, sectoral or national analysis will ignore the huge geographical
differences that exist on lower geographical scales such as the regional and local levels.“
(Asheim 2020, S. 27).
Dieser Argumentation folgend unternimmt dieser Abschnitt eine Synthese der aktuellen
Debatten um digitale und nachhaltige Transitionen. Insbesondere soll dabei eine räum-
lich und multiskalare Perspektive, wie zuvor eingeführt, angewandt werden. Deswegen
erfolgt die Literaturdiskussion anhand ausgewählter Skaleneben; d. h. hinsichtlich der
lokalen, urbanen, regionalen, nationalen und globalen Ebene (Coe et al. 2020). Diese
ausgewählten Skalenebenen können in der Regel treffend in bestehenden Debatten-
strängen und empirischen Ergebnissen identifiziert werden und weisen zudem für die
Innovationspraxis und entscheidungsrelevante Regulatorik eine gewisse Bedeutung auf.
Zur späteren Einordnung der nachfolgend diskutierten Beiträge erweist sich
außerdem die von Hölscher und Frantzeskaki (2021) für urbane Räume entwickelte und
von Coenen et al. (2021) für regionale Analysen übernommene Typologie räumlicher
Transformationsprozesse als nützlich. In dieser Typologie werden drei Perspektiven
auf Transitionen unterschieden: Transitionen in Räumen, Transitionen von Räumen und
Transitionen durch Räume. Der erste Typus – Transitionen in Räumen (bspw. in regions)
– bezieht sich auf die räumlich verfassten Kontextfaktoren von Transitionen. Der zweite
Typus – Transitionen von Räumen (bspw. of regions) – nimmt dagegen die räum-
lichen Ergebnisse von Transitionen in den Blick; insbesondere hinsichtlich deren geo-
graphischer Ungleichheiten (Disparitäten). Der dritte Typus – Transitionen durch Räume
(bspw. by regions) – fokussiert schließlich auf die Formbarkeit räumlicher Transitions-
prozesse durch Akteure, z. B. regionale Verwaltungen oder Unternehmen (Coenen et al.
2021, S. 222). Diese für Energietransitionen erfolgreich angewandte Typologie kann
auch zur Systematisierung von weiteren digital-nachhaltigen Transitionsprozessen in
räumlicher Perspektive herangezogen werden.
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 53
Wirtschaftsgeographische Forschung beschäftigt sich schon seit langer Zeit mit den
räumlichen Auswirkungen des technologischen Wandels und hat dabei auch dezidiert
digitale Technologien (Malecki und Moriset 2008) in den Blick genommen (für einen
allgemeinen Überblick siehe Fuchs 2020). Nachdem im ausgehenden 20. Jahrhundert
bereits der „Death of Distance“ – d. h. eine potentielle Irrelevanz räumlicher Nähe und
Distanz induziert durch digitale Kommunikationsmittel – postuliert wurde (Cairncross
1997), zeigten wirtschaftsgeographische Beiträge, dass direkte Kontakte und face-to-face
Kommunikation dennoch weiterhin eine hohe Relevanz aufweisen (Leamer und Storper
2001). Gleichzeitig sind aber insbesondere für innovations- und gründungsbezogene
Aktivitäten regionale Unterschiede in der Digitalisierung von städtischen gegenüber
ländlichen Räumen erkennbar (Haefner und Sternberg 2020).
Analog zu andauernden technologischen Neuerungen, stellen sich auch in der auf
Digitalisierung bezogenen Forschung stetige Anpassungsbedarfe ein; es existiert daher
naturgemäß kein abgeschlossenes Forschungsfeld (Haefner und Sternberg 2020). Und
somit ergeben sich in der jüngsten Entwicklungsstufe des digital-technologischen
Wandels, die unter anderem Industrie 4.0 Technologien, das Internet der Dinge (IoT),
3D-Druck, Künstliche Intelligenz (KI) oder Big Data umfasst (Clifton et al. 2020; De
Propris und Bellandi 2021; Strange und Zucchella 2017), auch aus wirtschaftsgeo-
graphischer Perspektive neue Erkenntnisse. Diese werden im folgenden Abschnitt
anhand der eingangs skizzierten Skalenebenen (lokal, urban, regional, national und
global) synthetisiert. Zwecks Übersichtlichkeit des Beitrags kann diese Literatursynthese
jedoch nur eine unvollständige Selektion der umfassenden und stetig wachsenden
wissenschaftlichen Literatur abbilden.
Auf der lokalen sowie urbanen Maßstabsebene wurden digitale Transitionen u. a.
im Rahmen von offenen Werkstätten und Makerspaces untersucht (Lange und Bürkner
2018). Beides sind neue Orte der städtischen Produktion, an denen häufig digitale
Technologien (bspw. 3D-Druck) zum Einsatz kommen und neue Wertschöpfungs-
modelle entstehen können. In Städten wurde darüber hinaus neue, durch digitale
Technologien induzierte Formen des Produzierens untersucht; hier finden sich hybride
Wertschöpfungsformen an der Schnittstelle von industriell-handwerklicher Produktion
und problemlösungsorientierter Dienstleistung (Busch et al. 2020, 2021; Mühl et al.
2019). Diese neuen digitalen urbanen Produktionsunternehmen profitieren insbesondere
von städtischen Standortqualitäten, z. B. ansässigen hochqualifizierten Fachkräften,
spezialisierten Absatzmärkten oder dem urbanen Innovationsökosystem (Busch et al.
2021).
Ähnliche Ergebnisse digitaler Transformationen in Städten liefert auch die Analyse
technologieorientierter Serviceanbieter, die auf wenige Metropolen weltweit konzentriert
sind (Adler und Florida 2021). Diese umfassen etwa Anbieter der Sharing Economy
(z. B. Fahrdienstanbieter wie Uber) aber auch Gesamtkonzepte wie Smart City. Letzteres
54 H.-C. Busch
Konzept kann als Anwendungsort digitaler Technologien, bspw. Sensoren und Big Data
(Rabari und Storper 2015), auf städtische Herausforderungen verstanden werden; zum
Beispiel zur Bewältigung städtischer Mobilitätsprobleme (Glasmeier und Christopherson
2015). Smart City kann somit als digitales technologiepolitisches Leitbild von Städten
betrachtet werden, dessen Umsetzung auch teilweise als planerischer Neuanfang („from
scratch“) unternommen wurde (Carvalho 2015).
Auch auf der regionalen Maßstabsebene werden digitale Transformationsprozesse
derzeit intensiv insbesondere im Kontext von Industrie 4.0 diskutiert (siehe De Propris
und Bailey 2020; De Propris und Bellandi 2021). Digitalisierung erfordert – etwa in
der Formierung von Industrie 4.0 oder KI – spezifische regionale Kontextbedingungen.
Beispielhaft lässt der Fall des kanadischen Montreals erkennen, dass die dort ansässige
KI-Branche (neben weiteren Faktoren) vor allem aufgrund bereits vorhandener Wissens-
basen aus der Telekommunikationsbranche prosperieren konnte (Doloreux und Turkina
2021). Hinsichtlich dieser für Digitalisierung förderlichen Kontextbedingungen weisen
Regionen allerdings unterschiedlich starke Prägungen auf, insbesondere aufgrund unter-
schiedlicher technologischer und industrieller Vergangenheiten (Balland und Boschma
2021).
Aus diesen regional unterschiedlichen Kontextbedingungen folgt eine ungleiche
Geographie digitaler produktionsbezogener Industrie 4.0 Aktivitäten; d. h. es existieren
regionale Disparitäten. In der Europäischen Union weisen Regionen mit bestehender
technologieorientierter Vergangenheit (bspw. Baden-Württemberg) in der Regel auch
hohe digitale Industrie 4.0 Aktivitäten auf (Corradini et al. 2021). Vorhandene regionale
wirtschaftliche Disparitäten schreiben sich so auch durch neue Technologiedynamiken
potenziell fort. Capello und Lenzi (2021) argumentieren dagegen allerdings, dass diese
digitalisierungsbezogenen Disparitäten auch potenziell vorteilhaft wirken können, wenn
Industrie 4.0-getriebene ‚Innovationsinseln‘ zu Leuchtturmprojekten (best practices) für
andere Regionen werden. Fokussierte Studien stellen derartige regionale Erfolgsbeispiele
heraus; etwa „It’s OWL“ in Nordrhein-Westphalen, welches als größtes räumliches
industrielles Digitalisierungsprojekt Deutschlands gilt (Götz 2021; Götz und Jankowska
2017).
Interdisziplinäre Digitalisierungsstudien auf der nationalen Maßstabsebene haben
darüber hinaus weitere makroökonomische Entwicklungsdynamiken in der Industrie-
produktion und in weiteren Branchen untersucht. Diesbezüglich stellt bspw. ‚Home
Sourcing‘ – d. h. die Rückverlagerung von Produktionskapazitäten aus Schwellen- in
Kernökonomien – ein weiteres Analysefeld ökonomisch fundierter Digitalisierungs-
studien dar (Bailey et al. 2018). In diesem Zusammenhang wird zum Beispiel deutlich,
dass durch Digitalisierung zwar tendenziell keine Produktionsverlagerung im großen
Ausmaß erfolgt, jedoch potentiell innovationsbezogene Produktionsschritte (zurück)
in die Heimatländer der Unternehmen verlegt werden (Ancarani und Di Mauro 2018).
Damit verbunden betreffen diese möglichen Tendenzen vor allem technologieintensive
Unternehmensaktivitäten, wie Forschung und Entwicklung (Bailey et al. 2018).
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 55
Die nationale Ebene bildet darüber hinaus den Rahmen für einige Ansätze der
Industrie- und Digitalisierungspolitik. Verschiedene Länder entwarfen dazu eigene
nationale Digitalisierungsstrategien, beispielsweise ‚Smart Manufacturing‘ in den
USA oder ‚Made-in-China 2025‘ in China (Li 2018; Reischauer 2018). Vielen dieser
Strategien liegt eine Vernetzung der unterschiedlichen nationalen Stakeholder (bspw.
Unternehmen, Industrieverbände, Gewerkschaften, Forschung sowie politischer
Akteure) zugrunde, die über verschiedene Plattformprojekte an der Steuerung von
Digitalisierungsstrategien mitwirken. In Deutschland wurde diese Vernetzungsstrategie
mit der ‚Plattform Industrie 4.0‘ institutionalisiert (Reischauer 2018). Dieser zunächst
auf Deutschland bezogene Industrie 4.0-Ansatz wurde im Rahmen der High-Tech
Strategie im Jahr 2011 initiiert (Kagermann et al. 2013). Im Verlauf der letzten Jahre
entwickelte sich der Begriff jedoch zum Synonym globaler Tendenzen (produktions-
bezogener) Digitalisierung und verbindet diese Debatten nun weltweit unter dem
Terminus ‚Industry 4.0‘ (Kagermann et al. 2016).
Diese Entwicklungen lenken den Blick auf Digitalisierungsprozesse auf der
globalen Maßstabsebene, deren Untersuchung neben den bisher vorgestellten (sub)
nationalen Ebenen ein wichtiges Forschungsfeld der Wirtschaftsgeographie bildet
(Dicken 2015). Auf dieser Ebene ergeben sich durch den digital-technologischen Wandel
potenziell Auswirkungen in globalen Wertschöpfungsketten. Neben Informations- und
Kommunikationstechnologien, die sich in der Vergangenheit bereits auf die Globali-
sierung ausgewirkt haben (Dicken 2015; Leamer und Storper 2001), betreffen die der-
zeitigen Dynamiken nunmehr verstärkt digitalisierte Produktionstechnologien, wie etwa
IoT, Big Data, Robotik oder 3D-Druck (Strange und Zucchella 2017). Digitalisierte
Produktionstechnologien erlauben hier bspw. individualisierte Produktionen (‚Losgröße
1‘), welche die Kostenvorteile von Massenproduktion an Niedriglohnstandorten (im
globalen Süden) potenziell relativiert (Gress und Kalafsky 2015). Abschließende
Erkenntnisse zu diesen Entwicklungstrends lassen sich derzeit allerdings nicht bemessen
(Laplume et al. 2016). So bleibt abzuwarten, welche finalen Implikationen für globale
Strukturen und Prozesse zukünftig aus der verstärkten Nutzung digitaler Technologien
resultieren (Butollo 2021; Fuchs 2020); besonders auch in Hinblick auf bestehende
globale Disparitäten (Graham 2019).
In zusammenfassender Betrachtung der bisher skizzierten Forschungsergebnisse
digitaler Transformationsprozesse aus wirtschaftsgeographischer Perspektive wird
die eingangs diskutierte, dreiteilige Typologie der Transitionsforschung angewandt –
d. h. Transitionen in, von und durch urbane, regionale oder nationale Räume (Coenen
et al. 2021; Hölscher und Frantzeskaki 2021). In der bisher gewählten multiskalaren
Perspektive zeigt die Literaturschau, dass verschiedene Kontextfaktoren Einflüsse auf
digitale Transitionsprozesse ausüben. Digitale Transitionen in Städten oder Regionen
werden so bspw. durch urbane Innovationsökosysteme oder regionale technologische
Spezialisierungen in verwandten Branchen maßgeblich beeinflusst. In der Folge ergeben
sich unterschiedliche Entwicklungstendenzen digitaler Transitionen von Städten,
Regionen oder Nationen, die in ungleichen regionalen und globalen Geographien der
56 H.-C. Busch
Weitgehend parallel zur Forschung mit Bezügen zum technologischen Wandel ent-
wickelte sich in den vergangenen Jahrzenten ein Forschungsstrang, der die dynamischen
Wechselwirkungen von Technologie und Gesellschaft gleichermaßen untersucht (Rip
und Kemp 1998; Truffer 2008). Vor dem Hintergrund der eingangs skizzierten globalen
transformatorischen Herausforderungen hat sich diese Forschung mit der Zeit ver-
stärkt Fragestellungen zugewandt, die dezidiert den Wandel hin zu nachhaltigeren
Wirtschafts- und Gesellschaftsformationen in den Blick nehmen – die Sustainability
Transitions (Markard et al. 2012, 2020; Smith et al. 2010). Nachhaltigkeitstransitionen
bzw. Sustainability Transitions lassen sich hierin definieren als „long-term, multi-
dimensional, and fundamental transformation processes through which established
socio-technical systems shift to more sustainable modes of production and consumption“
(Markard et al. 2012, S. 956). Inhärent in dieser Forschung ist die Analyse von sozio-
technischen Systemen, die aus Akteursnetzwerken (z. B. von Unternehmen und weiteren
Stakeholdern), Institutionen (d. h. Regeln und Normen), materiellen Dimensionen und
Wissen bestehen (Markard et al. 2012; Truffer 2013). Demzufolge werden einzelne
Technologieentwicklungen immer eingebettet in ihre soziale Kontexte analysiert.
Die anfängliche Transitions Forschung wurde allerdings zunehmend dafür kritisiert,
diese Prozesse losgelöst von räumlichen Kontexten zu untersuchen oder räumliche
Dimensionen nur implizit zu berücksichtigen (Coenen et al. 2012; Truffer 2013). Bei-
spielsweise fokussierten grundlegende Studien in der Transitions Forschung anfänglich
hauptsächlich auf die nationale Ebene als Systemgrenze soziotechnischer Transitions-
prozesse (Markard et al. 2012). Dies lässt jedoch außer Acht, dass solche Prozesse
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 57
2020, S. 592). Dies zeigt sich deutlich in den hier zusammengestellten Ergebnissen
diverser Einfluss- bzw. Kontextfaktoren in digital-nachhaltigen Transitionen, die ver-
schiedene geographische Skalenebenen betreffen. Für die unternehmerische Praxis
empfiehlt es sich somit zur Systematisierung räumlich verfasster Aspekte digital-nach-
haltiger Transformationen eine solche multiskalare Perspektive einzunehmen.
Ein zweiter Aspekt betrifft die jüngere Strategieforschung hinsichtlich der ersicht-
lichen Wechselbeziehungen zwischen unternehmerischen Akteuren und den räumlichen
Kontexten, in welche sie eingebettet sind (bspw. Städte, Regionen oder Nationen). Hier
hat die Managementforschung zunehmendes Interesse an Auswirkungen von Strategien
in räumlicher Perspektive entwickelt, die über die strategische unternehmerische Stand-
ortwahl hinausgehen (Bailey et al. 2020; Knight et al. 2020). In Bezug auf digital-nach-
haltige Transitionen betrifft dies deren unterschiedliche Entwicklungsdynamiken an
unterschiedlichen Orten (d. h. die ungleichen Geographien von Transitionen) sowie
die Akteursmacht, die sich aus diesen Wechselwirkungen ergeben kann. Für die unter-
nehmerische Praxis empfiehlt sich somit nicht nur räumliche Einflussfaktoren digital-
nachhaltiger Transitionen systematisch in den Blick zunehmen, sondern zusätzlich auch
die Auswirkungen der Unternehmensstrategie im Raum zu berücksichtigen; auch hierzu
hilft eine multiskalare Perspektive bei der Systematisierung.
Ausgehend von diesen Erkenntnissen entwickelt dieser Abschnitt nun ein
heuristisches Gerüst in Form eines graphischen Canvas, welches die systematische
Erfassung unterschiedlicher unternehmensrelevanter Kontextfaktoren im räumlichen
Kontext erlaubt. Solche graphischen heuristischen Ansätze finden sich prominent
beispielsweise bei Porter (1990) und haben spätestens mit dem Business Model
Canvas nach Osterwalder und Pigneur (2010) Einzug in die anwendungsorientierte
Managementliteratur erhalten. Abb. 1 zeigt diesen heuristischen Canvas zur Erfassung
verschiedener multiskalarer Kontextbedingungen für Unternehmen in digital-nach-
haltigen Transitionen. Ähnlich dem Business Model Canvas soll Abb. 1 zur graphischen
Erfassung dieser Faktoren dienen; im aktuellen Fall bezogen auf verschiedene Skalen-
ebenen. Im Umkehrschluss zeigt Abb. 1 also keine spezifischen Kontextfaktoren; ins-
besondere, da diese Faktoren je nach betrachteten Unternehmen, Technologien oder
Branchen variieren können.
Im Folgenden werdend die Bestandteile des heuristischen Canvas aus Abb. 1 einzeln
erläutert. Aufgrund der Zielsetzung dieser graphischen Heuristik, bilden Unternehmen
das Zentrum der Abbildung. Unternehmensinterne Wertschöpfungsaktivitäten werden in
dieser Vereinfachung allerdings nicht im Detail berücksichtigt, sondern stark reduziert
als ‚Prozesse‘ dargestellt. Auf grundlegende Weise folgt der heuristische Canvas einer
dreiteiligen Input-Prozess-Output Konzeption bzw. etwas angepasst einem Influence-
Prozess-Outcome Modell. Dementsprechend finden sich logisch vorgelagert auf der
linken Seite der Abbildung unternehmensexterne Einflussgrößen (Influences), die
sich auf Unternehmen, deren Strategien, Strukturen und Prozesse auswirken. Logisch
nachgelagert finden sich auf der gegenüberliegenden rechten Seite der Abbildung die
Auswirkungen der Unternehmensaktivitäten auf das externe Unternehmensumfeld
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 61
(Outcomes). Erwähnenswert ist hier, dass diese vor- bzw. nachgelagerte Darstellung
keine strikt lineare Sequenz darstellt und ebenfalls lediglich der analytischen Verein-
fachung dient.
Da die hier dargestellten unternehmensexternen Dimensionen räumlich verortet sind,
empfiehlt sich eine multiskalare Perspektive – wie dieser Beitrag bisher zeigte. Folg-
lich sind in Abb. 1 die zuvor diskutierten geographischen Maßstabsebenen graphisch
dargestellt: lokal (Aspekte in direkter Nachbarschaft), urban (Aspekte des städtischen
Umfelds), regional (Aspekte auf subnationaler Ebene), national (Aspekte eines Landes)
sowie global (weltweite Aspekte). In der Abbildung wurden für diese Darstellung
Kreise um das fokale Unternehmen gezogen (ähnliche Darstellung in multiskalarer
Perspektive finden sich bspw. bei Coe et al. 2004). Als letzte analytische Dimension sind
in der Abbildung tendenzielle Bewertungen der Einflussgrößen und Auswirkungen dar-
gestellt: Erstens finden sich potenziell förderliche Einflüsse bzw. potenziell positive Aus-
wirkungen auf den oberen Halbkreisen. Zweitens sind potenziell hinderliche Einflüsse
bzw. potenziell negative Auswirkungen auf den unteren Halbkreisen der Abbildung zu
finden.
Die Darstellung unterschiedlicher Maßstabsebenen als Kreise um das fokale Unter-
nehmen impliziert, dass es auf derselben Ebene Kontextbedingungen verschiedener
Qualitäten (förderlich oder hinderlich) sowie verschiedenartige Auswirkungen (positiv
62 H.-C. Busch
oder negativ) geben kann. Allerdings stellt diese graphische Heuristik kein vollständiges
Analysewerkzeug zur Strategieformulierung dar, da die Darstellung allenfalls einen zeit-
lichen Auszug (snapshot) relevanter unternehmensexterner Umfeldbedingungen dar-
stellen kann. Naturgemäß können diese Kontextfaktoren mit der Zeit variieren bzw. sich
in Qualität oder Auswirkung ändern. Ferner sollte mit zunehmender Unternehmensgröße
und -komplexität außerdem zwischen einzelnen Unternehmensaktivitäten und Geschäfts-
bereichen differenziert werden, da sich kontextuelle Bedingungen ggf. unterschied-
lich auf einzelne Unternehmenseinheiten auswirken können. Dennoch schafft diese
Systematik einen ersten annäherungsweisen Überblick über die komplexen multi-
dimensionalen und multiskalaren räumlichen Umfeldbedingungen von Unternehmen
innerhalb von digital-nachhaltigen Transitionsprozessen.
Dieser Beitrag unternimmt eine Literatursynthese der beiden Leitthemen des Sammel-
bands – Digitalisierung und Nachhaltigkeit – in wirtschaftsgeographischer Perspektive.
Digitalisierung und Nachhaltigkeit werden hier als komplexe soziotechnische Wandel-
prozesse konzipiert – sogenannte Transitionen. Der Beitrag setzt sich zum Ziel,
unternehmensexterne, räumlich verfasste Einflussfaktoren innerhalb digital-nach-
haltiger Transitionen anhand des bestehenden wissenschaftlichen Kenntnisstands zu
synthetisieren und für unternehmerisch-strategische Zwecke zu systematisieren. Damit
knüpft der Beitrag auf der einen Seite an neuere Strategieforschung an, die zunehmend
(wieder) die Relevanz geographisch nuancierter Perspektiven auf unternehmerische
Prozesse und Strategien entdeckt hat (Bailey et al. 2020; Delgado 2018; Knight et al.
2020). Auf der anderen Seite greift der Beitrag auf Erkenntnisse laufender wirtschafts-
geographischer Forschung hinsichtlich der räumlichen und multiskalaren Dimensionen
von digitalen Transformationsprozessen (De Propris und Bailey 2020; De Propris und
Bellandi 2021) und Nachhaltigkeitstransitionen zurück (Binz et al. 2020; Coenen et al.
2012; Hansen und Coenen 2015).
Die Literatursynthese in multiskalarer Perspektive liefert sowohl für digitale
Transitionen als auch für Nachhaltigkeitstransitionen dabei drei wesentliche Ergebnisse.
Erstens zeigt die Literatur, inwiefern räumlich gebundene Kontextfaktoren den Verlauf
von Transitionen determinieren. Zweitens wird deutlich, in welcher Hinsicht sich Städte,
Regionen oder Nationen in ihren auf Transitionen bezogenen Entwicklungsdynamiken
unterscheiden und sich infolgedessen ungleiche Geographien digital-nachhaltiger
Transitionen ergeben. Drittens wird darüber hinaus die Formbarkeit von Transitionen
durch lokale, urbane, regionale, nationale oder globale Akteure sichtbar. Ein graphischer
heuristischer Canvas nimmt diese Erkenntnisse auf und stellt Unternehmen ein Werk-
zeug zur systematischen Erfassung förderlicher wie hinderlicher Einflussfaktoren sowie
positiver wie negativer Auswirkungen in multiskalarer Perspektive zur Verfügung. Damit
liefert die multiskalare Analyse unternehmensexterner Kontextfaktoren aus wirtschafts-
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 63
Literatur
Adler P, Florida R (2021) The rise of urban tech: how innovations for cities come from cities. Reg
Stud 55:1787–1800. https://doi.org/10.1080/00343404.2021.1962520
Ancarani A, Di Mauro C (2018) Reshoring and industry 4.0: how often do they go together? IEEE
Eng Manage Rev 46:87–96. https://doi.org/10.1109/EMR.2018.2833475
Asheim BT (2020) Economic geography as regional contexts’ reconsidered – Implications for
disciplinary division of labour, research focus and societal relevance. Nor Geogr Tidsskr – Nor
J Geogr 74:25–34. https://doi.org/10.1080/00291951.2020.1732457
Bailey D, Corradini C, de Propris L (2018) ‘Home-sourcing’ and closer value chains in mature
economies: the case of Spanish manufacturing. Camb J Econ 42:1567–1584. https://doi.
org/10.1093/cje/bey020
Bailey D, Pitelis C, Tomlinson PR (2020) Strategic management and regional industrial strategy:
cross-fertilization to mutual advantage. Reg Stud 54:647–659. https://doi.org/10.1080/0034340
4.2019.1619927
Balland P-A, Boschma R (2021) Mapping the potentials of regions in Europe to contribute to new
knowledge production in industry 4.0 technologies. Reg Stud 55:1652–1666. https://doi.org/10.
1080/00343404.2021.1900557
Bathelt H, Glückler J (2018) Wirtschaftsgeographie: Ökonomische Beziehungen in räumlicher
Perspektive, 4. Aufl. Verlag Eugen Ulmer, Stuttgart
Beugelsdijk S, McCann P, Mudambi R (2010) Introduction: Place, space and organization –
economic geography and the multinational enterprise. J Econ Geogr 10:485–493. https://doi.
org/10.1093/jeg/lbq018
Binz C, Coenen L, Murphy JT, Truffer B (2020) Geographies of transition—from topical concerns
to theoretical engagement: a comment on the transitions research agenda. Environ Innov Soc
Trans 34:1–3. https://doi.org/10.1016/j.eist.2019.11.002
Boschma R (2005) Proximity and innovation: a critical assessment. Reg Stud 39:61–74. https://
doi.org/10.1080/0034340052000320887
Braun B, Schulz C (2012) Wirtschaftsgeographie. Eugen Ulmer, Stuttgart
Braun B, Oßenbrügge J, Schulz C (2018) Environmental economic geography and environmental
inequality: challenges and new research prospects. Z Wirtschaftsgeographie 62:120–134.
https://doi.org/10.1515/zfw-2018-0001
Bunnell TG, Coe NM (2001) Spaces and scales of innovation. Prog Hum Geogr 25:569–589.
https://doi.org/10.1191/030913201682688940
Busch H-C, Mühl C, Fuchs M, Fromhold-Eisebith M (2020) Hybride Formen urbaner Produktion
durch Digitalisierung? Trends und Beispiele aus Nordrhein-Westfalen. Raumforsch Raumordn
78:321–336. https://doi.org/10.2478/rara-2020-0013
Busch H-C, Mühl C, Fuchs M, Fromhold-Eisebith M (2021) Digital urban production: how does
Industry 4.0 reconfigure productive value creation in urban contexts? Reg Stud 55:1801–1815.
https://doi.org/10.1080/00343404.2021.1957460
Butollo F (2021) Digitalization and the geographies of production: towards reshoring or global
fragmentation? Compet Chang 25:259–278. https://doi.org/10.1177/1024529420918160
Cairncross F (1997) The death of distance: how the communications revolution will change our
lives. Harvard Business School Press, Boston, MA
64 H.-C. Busch
Capello R, Lenzi C (2021) 4.0 Technologies and the rise of new islands of innovation in European
regions. Reg Stud 55:1724–1737. https://doi.org/10.1080/00343404.2021.1964698
Carvalho L (2015) Smart cities from scratch? A socio-technical perspective. Camb J Reg Econ Soc
8:43–60. https://doi.org/10.1093/cjres/rsu010
Carvalho L, Mingardo G, van Haaren J (2012) Green urban transport policies and cleantech
innovations: evidence from curitiba, göteborg and hamburg. Eur Plan Stud 20:375–396. https://
doi.org/10.1080/09654313.2012.651801
Clark GL, Feldman MP, Gertler MS, Wójcik D (2018) Introduction economic geography in
the twenty-first century. In: Clark GL, Feldman MP, Gertler MS, Wójcik D (Hrsg) The new
handbook of economic geography. Oxford University Press, Oxford, S 1–18
Clifton J, Glasmeier A, Gray M (2020) When machines think for us: the consequences for work
and place. Camb J Reg Econ Soc 13:3–23. https://doi.org/10.1093/cjres/rsaa004
Coe N, Hess M, Yeung HW (2004) ‘Globalizing’ regional development: a global production
networks perspective. Trans Inst Br Geogr 29:468–484. https://doi.org/10.1111/j.0020-
2754.2004.00142.x
Coe NM, Kelly PF, Yeung HW (2020) Economic geography: a comtemporary introduction, 3.
Aufl. Wiley, Hoboken
Coenen L, Truffer B (2012) Places and spaces of sustainability transitions: geographical
contributions to an emerging research and policy field. Eur Plan Stud 20:367–374. https://doi.
org/10.1080/09654313.2012.651802
Coenen L, Benneworth P, Truffer B (2012) Toward a spatial perspective on sustainability
transitions. Res Policy 41:968–979. https://doi.org/10.1016/j.respol.2012.02.014
Coenen L, Hansen T, Glasmeier A, Hassink R (2021) Regional foundations of energy transitions.
Camb J Reg Econ Soc 14:219–233. https://doi.org/10.1093/cjres/rsab010
Corradini C, Santini E, Vecciolini C (2021) The geography of industry 4.0 technologies across
european regions. Reg Stud 55:1667–1680. https://doi.org/10.1080/00343404.2021.1884216
De Propris L, Bailey D (Hrsg) (2020) Industry 4.0 and regional transformation. Routledge, London
De Propris L, Bellandi M (2021) Regions beyond Industry 4.0. Reg Stud 55:1609–1616. https://
doi.org/10.1080/00343404.2021.1974374
Delgado M (2018) Firms in context: internal and external drivers of success. In: Clark GL,
Feldman MP, Gertler MS, Wójcik D (Hrsg) The New Handbook of Economic Geography.
Oxford University Press, Oxford, S 324–346
Dewald U, Fromhold-Eisebith M (2015) Trajectories of sustainability transitions in scale-
transcending innovation systems: the case of photovoltaics. Environ Innov Soc Trans 17:110–
125. https://doi.org/10.1016/j.eist.2014.12.004
Dewald U, Truffer B (2012) The local sources of market formation: explaining regional growth
differentials in german photovoltaic markets. Eur Plan Stud 20:397–420. https://doi.org/10.108
0/09654313.2012.651803
Dicken P (2015) Global shift. Mapping the changing contours of the world economy, 7. Aufl.
Sage, Los Angeles
Doloreux D, Turkina E (2021) New path creation in the artificial intelligence industry: regional
preconditions, new actors and their collective actions, and policies. Reg Stud 55:1751–1763.
https://doi.org/10.1080/00343404.2021.1919610
Ernst D, Sailer U, Gabriel R (Hrsg) (2021) Nachhaltige Betriebswirtschaft. UKV Verlag, Tübingen
Fastenrath S, Braun B (2018) Lost in transition? Directions for an economic geography of urban
sustainability transitions. Sustainability 10:2434. https://doi.org/10.3390/su10072434
Frantzeskaki N, Broto VC, Coenen L (Hrsg) (2017) Urban sustainability transitions. Routledge,
New York
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 65
Freeman C, Louçã F (2001) As time goes by: from the industrial revolutions to the information
revolution. Oxford University Press, Oxford
Freeman C, Perez C (1988) Structural crises of adjustment, business cycles and investment
behaviour. In: Dosi G, Freeman C, Nelson R, Silverberg G, Soete L (Hrsg) Technological
change and economic theory. Pinter Publishers, London, New York, S 38–66
Freeman C, Soete L (1997) The economics of industrial innovation, 3. Aufl. Routledge, Abingdon
Fuchs M (2020) Does the digitalization of manufacturing boost a ‘smart’ era of capital
accumulation? Z Wirtschaftsgeographie 64:47–57. https://doi.org/10.1515/zfw-2019-0012
Fuenfschilling L, Binz C (2018) Global socio-technical regimes. Res Policy 47:735–749. https://
doi.org/10.1016/j.respol.2018.02.003
Geels FW (2002) Technological transitions as evolutionary reconfiguration processes: a multi-
level perspective and a case-study. Res Policy 31:1257–1274. https://doi.org/10.1016/S0048-
7333(02)00062-8
Glasmeier A, Christopherson S (2015) Thinking about smart cities. Camb J Reg Econ Soc 8:3–12.
https://doi.org/10.1093/cjres/rsu034
Götz M (2021) Clusters, digital transformation and regional development in Germany. Routledge,
New York
Götz M, Jankowska B (2017) Clusters and Industry 4.0 – do they fit together? Eur Plan Stud
25:1633–1653. https://doi.org/10.1080/09654313.2017.1327037
Graham M (Hrsg) (2019) Digital economies at global margins. The MIT Press, Cambridge, MA
Gress DR, Kalafsky RV (2015) Geographies of production in 3D: theoretical and research
implications stemming from additive manufacturing. Geoforum 60:43–52. https://doi.
org/10.1016/j.geoforum.2015.01.003
Haefner L, Sternberg R (2020) Spatial implications of digitization: state of the field and research
agenda. Geogr Compass 14:e12544. https://doi.org/10.1111/gec3.12544
Hansen T, Coenen L (2015) The geography of sustainability transitions: review, synthesis and
reflections on an emergent research field. Environ Innov Soc Trans 17:92–109. https://doi.
org/10.1016/j.eist.2014.11.001
Hodson M, Marvin S (2012) Mediating low-carbon urban transitions? Forms of organization,
knowledge and action. Eur Plan Stud 20:421–439. https://doi.org/10.1080/09654313.2012.651
804
Hölscher K, Frantzeskaki N (2021) Perspectives on urban transformation research: transformations
in, of, and by cities. Urban Transform 3:2. https://doi.org/10.1186/s42854-021-00019-z
Kagermann H, Wahlster W, Helbig J (2013) Umsetzungsempfehlungen für das Zukunftsprojekt
Industrie 4.0: Abschlussbericht des Arbeitskreises Industrie 4.0. Acatech, München
Kagermann H, Anderl R, Gausemeier J, Schuh G, Wahlster W (2016) Industrie 4.0 im globalen
Kontext: Strategien der Zusammenarbeit mit internationalen Partnern (acatech Studie). Utz,
München
Knight E, Kumar V, Wójcik D, O’Neill P (2020) The competitive advantage of regions: economic
geography and strategic management intersections. Reg Stud 54:591–595. https://doi.org/10.10
80/00343404.2020.1739262
Lange B, Bürkner H-J (2018) Flexible value creation: conceptual prerequisites and empirical
explorations in open workshops. Geoforum 88:96–104. https://doi.org/10.1016/j.geo-
forum.2017.11.020
Laplume AO, Petersen B, Pearce JM (2016) Global value chains from a 3D printing perspective. J
Int Bus Stud 47:595–609. https://doi.org/10.1057/jibs.2015.47
Leamer EE, Storper M (2001) The economic geography of the internet age. J Int Bus Stud 32:641–
665. https://doi.org/10.1057/palgrave.jibs.84909988
66 H.-C. Busch
Philipp Damm
1 https://www.bmu.de/themen/nachhaltigkeit-digitalisierung/nachhaltigkeit/was-ist-nachhaltige-
entwicklung
P. Damm (*)
Zell u. A., Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 69
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_5
70 P. Damm
Abzugrenzen sind jedoch Vorurteile, diese führen zur selben Reaktion, sind aber
durch Stereotype bedingt. Oft laufen solche Handlungen verdeckt und unbewusst ab, sie
beeinflussen unsere Handlung jedoch in gleicher Art und Weise wie bewusste Interessen.
Für die folgende Betrachtung werden die bisher genannten Faktoren analysiert.
Andere individuellere Faktoren wie beispielsweise Intelligenz, Talent, Fähigkeit, Fertig-
keit, Alter, Hormone oder bewusstseinsverändernde Substanzen werden nicht berück-
sichtigt.
Durch die genannten Faktoren kann somit eine einheitliche Bewertung von Nach-
haltigkeit ausgeschlossen werden – sowohl im privaten als auch im beruflichen Kontext –
da es immer auf das bewertende Individuum und dessen Ganzheitspsychologie ankommt.
Die grundsätzliche Frage bleibt dabei bestehen – wie nachhaltig sind Unternehmen?
Und gibt es überhaupt die Nachhaltigkeit in einem Unternehmen? Oder ist jedes
Individuum einzeln verantwortlich für das Unternehmen? Oder ist das Unternehmen ver-
antwortlich für jedes Individuum?
Zu Klärung dieser Frage bietet es sich an das Thema in zwei Dimensionen der
Zuständigkeit zu unterteilen:
Die gesellschaftliche Dimension lässt sich mit einer Befragung in kleinerem Umfang nur
bedingt ermitteln, da die Zufälligkeit der Stichprobe allein durch die Tatsache, dass die
Bewertenden das Verhältnis eines Individuums zur Gesellschaftlichen nicht validieren
können, ohne dass die Personen sich kennen, nicht herstellen lässt.
Im Folgenden wird eine Umfrage der Arbeitsgruppe Klima des KI Bundes-
verband e. V. vorgestellt, mit welcher die persönliche Dimension des Einflusses von
digitaler Technologie auf die Nachhaltigkeit eines Unternehmens untersucht wird. Die
Forschungsfrage ist, ob die Teilnehmenden, geleitet durch die persönlichen Faktoren der
Wahrnehmung, das selbe Unternehmen anders im Bezug zur Nachhaltigkeit bewerten,
wenn es in den Bezug zu KI gesetzt wird. In diesem Fall entspricht KI nachweislich dem
Interessensthema der Zielgruppe.
2 Bertelsmann Stiftung.
72 P. Damm
Abb. 1 Sektoren
Abb. 3 Abteilungen
sehr breite Sicht auf das Thema KI hat. Dies ergibt sich daraus, dass bei der Frage nach
konkreten Anwendungen keine einzige Doppelnennung enthalten ist, aber jede Lösung
für sich genommen eine reale und realistische Anwendung sein kann. Weiterhin verteilen
sich die Personen über verschiedensten Unternehmensfunktionen und ermöglichen so
einen breiten Blick auf das Gesamtbild im Unternehmenskontext (Abb. 3).
Neben der Abfrage über den technischen Hintergrund wurden ebenfalls Fragen zum
Thema Nachhaltigkeit in Unternehmen gestellt. Hier ergibt sich das Bild, dass genau
die Hälfte der Teilnehmenden keine Kenntnisse über die Verankerung des Themas in der
74 P. Damm
Unternehmensstrategie hat. Bei lediglich 15 % der Teilnehmenden ist das Thema Nach-
haltigkeit bereits im Unternehmenskontext ein Bestandteil der Entscheidungsfindung.
20 % der Unternehmen sind nach der ISO14001 zertifiziert, wobei diese Unter-
nehmen wiederum nicht Bestandteil derer sind, welche eine Nachhaltigkeitsstrategie
in der Unternehmensstrategie besitzen. 10 % der Teilnehmenden gaben sonstige Zerti-
fizierungen für Nachhaltigkeit an, wobei in der Folgefrage nach der konkreten Zerti-
fizierung nur Antworten im Sinne von „Weiß ich nicht genau“ gegeben wurden.
Inhaltlich konnten folgende Erkenntnisse gewonnen werden. Es werden immer die
Mittelwerte der Ergebnisse dunkel hinterlegt, wobei höhere Zahlen die Zustimmung zur
Frage/Aussage bedeuten. Im ersten Block geht es nur um die Nachhaltigkeit ohne den
technologischen Bezug.
Welche Priorität hat das Thema Nachhaltigkeit in Ihrem Unternehmen im Vergleich
zu anderen Unternehmenszielen, wie z. B. Gewinn?
0 1 2 3 4 5 6 7 8 9 10
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 75
0 1 2 3 4 5
0 1 2 3 4 5
Emissions – Kompensationen
0 1 2 3 4 5
Nachhaltigkeitsbericht
0 1 2 3 4 5
Im Folgenden werden nun die inhaltlich gleichen Themen im Bezug mit digitaler
Technologie, also in diesem Fall dem Interessenfeld der Befragten, vorgestellt.
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
0 1 2 3 4 5
Die Ergebnisse zeigen eindeutig, dass das Potential von KI im Bezug zur Nachhaltigkeit
bei Unternehmen groß ist. Gleichzeitig zeigt es aber auch, dass die Wahrnehmung einen
großen Einfluss auf die Bewertung hat. Die Unternehmen haben sich über die Fragen
nicht verändert, die Zustimmung zur Nachhaltigkeit ist jedoch deutlich angestiegen
durch die Verknüpfung mit KI. Diese beiden Schlussfolgerungen bestätigen sich über die
weiteren Fragen, welche hier nicht alle vorgestellt werden können.
Die Frage, inwieweit nun Unternehmen nachhaltig sind, hängt aber nicht nur von
der Wahrnehmung ab, sondern auch von der Bereitschaft Verantwortung für das eigene
Handeln zu übernehmen. Endet die Verantwortung mit der Entwicklung eines Produkts
und geht an den Betreibenden über, oder trägt das Unternehmen weiterhin die Ver-
antwortung?
Gerade bei Software sind hier die Bemessungsspielräume groß. So wird die Hardware
in der Regel bezogen, wodurch deren Produktion in die Bilanz des jeweiligen Herstellers
fällt. Die Software an sich erzeugt keine Emissionen, sondern die Server, auf denen diese
betrieben wird. Letztlich muss also nur Verantwortung dafür übernommen werden, die
richtigen Provider auszuwählen. Diese Tatsache verleitet dazu, dass Reboundeffekte
unterschlagen werden und die Emissionen nicht verursachungsgerecht zugeordnet
werden.
Hierzu gibt es eine bereits bestehende Veröffentlichung des Bundesverbandes
Deutsche Startups e. V., welche im Folgenden als Abschluss vorgestellt wird.
Zur Notwendigkeit ethischer Leitlinien besteht unter deutschen KI-Startups ein Grund-
konsens. 88 % wollen gesellschaftliche Verantwortung übernehmen und 81 % finden,
dass ethische Fragen auch bei der Entwicklung der Technologie berücksichtigt werden
müssen.
Könnten ethische Grundsätze die Grundlage zur Messung von sozialer Nachhaltigkeit
leiten?
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 77
„Die Debatte um den Einsatz von KI ist in Deutschland zu polarisiert: Jede Techno-
logie hat ihre Vor- und Nachteile, die wir abwägen müssen. Das muss aber lösungs-
orientiert passieren, damit wir die Chancen von KI für uns auch nutzen können. Zugleich
gibt es natürlich auch Bereiche wie die Auswertung von DNA oder Gesichtserkennung,
wo wir klare Regeln und Grenzen brauchen. Die meisten europäischen KI-Startups
haben aber einen klaren ethischen Wertekompass, der eine gute Basis für unser KI-Öko-
system ist.“ Marian Gläser (Gründer & CEO Brighter AI)
Der Einfluss von KI-Lösungen auf unseren Alltag wird in den kommenden Jahren
weiter zunehmen. Daher ist es umso wichtiger, die Entwicklung der Technologie inklusiv
auszugestalten und ihre Folgen frühzeitig mitzudenken. Die Debatte darf sich aber
gleichzeitig nicht in Zukunftsvisionen erschöpfen, sondern muss auf Basis aktueller Ent-
wicklungen geführt werden. Ein plakatives Beispiel dazu: Mehr als zwei Drittel aller KI-
Sprachassistenten haben eine weibliche Stimme und tragen so aktiv zur Reproduktion
traditioneller Rollenbilder und Geschlechterstereotypen bei. Dabei handelt es sich um
ein systematisches Problem, das erstens auf das Thema Repräsentation und zweitens auf
die große Bedeutung der Sensibilität für ethische Fragen im Technologiesektor verweist.
Ein wichtiger Aspekt im Kontext Ethik und KI ist die Nutzung persönlicher Daten
und die Wahrung der Privatsphäre. Hier zeigen unsere Daten, dass sich in diesem Sektor
in Deutschland ein eigenes Geschäftsfeld etabliert, das in Israel so bisher nicht zu finden
ist: Im Bereich AI Techstack sind in Deutschland 13,8 % der Startups im Bereich Privacy
aktiv und unterstützen mit ihren Tools andere Firmen dabei, die Privatsphäre ihrer
Kundinnen und Kunden zu schützen. Die Einführung der DSGVO hat diese Entwicklung
politisch forciert und die Frage, wie KI-Lösungen Privacy-freundlich umgesetzt
werden können, wird mit Blick auf die Akzeptanz der Technologie zukünftig weiter an
Bedeutung gewinnen.
KI ist schon lange kein reines Forschungsthema mehr und im wirtschaftlichen
und gesellschaftlichen Alltag angekommen. Neben den großen Tech-Unternehmen
sind es vor allem Startups, die die Technologie in die unterschiedlichsten Geschäfts-
felder hineintragen. Vor diesem Hintergrund stellen sich für Politik und Gesell-
schaft Fragen zu möglichen ethischen Herausforderungen beim Einsatz von KI. Was
tun, wenn datengetriebene und damit vermeintlich kluge Entscheidungen bestimmte
Bevölkerungsgruppen systematisch diskriminieren? Auf welche Weise können unsere
Wertvorstellungen bei der Entwicklung von KI-Lösungen berücksichtigt werden?
Wie lässt sich die Logik der Technologie transparent und kontrollierbar machen? Die
Debatte um solche und ähnliche Fragestellungen wird politisch unter anderem durch
die Europäische Kommission, die UN und OECD und auf nationaler Ebene durch die
KI-Strategie der Bundesregierung sowie den Einsatz der KI-Enquete-Kommission oder
die Datenethikkommission vorangetrieben. Daneben forcieren aber auch die Zivil-
gesellschaft sowie Tech-Konzerne, die selbst KI-Anwendungen entwickeln oder die
nötige Infrastruktur bereitstellen, den Diskurs. Trotz unterschiedlicher Positionen im
78 P. Damm
Einzelnen hat sich an dieser Schnittstelle von Politik, Öffentlichkeit und Wirtschaft ein
Konsens über die zentrale Bedeutung ethischer Fragen im Bereich KI herausgebildet.
Zudem lassen sich inhaltliche Überschneidungen und ein normativer Kern der Debatte
identifizieren (Fjeld et al. 2020). Dieser enthält unter der Maxime der informationellen
Selbstbestimmung die Themenfelder Privatsphäre, Verantwortung, Sicherheit, Trans-
parenz und Erklärbarkeit, Fairness und Diskriminierungsfreiheit, menschliche Kontrolle,
fachliche Kompetenz sowie die Förderung menschlicher Werte. Die praktische Relevanz
dieser normativen Ansätze verdeutlicht alleine schon ein genauerer Blick auf nur einen
ausgewählten Aspekt: Fairness und Diskriminierungsfreiheit: Da KI oft mit Daten
arbeitet, die in der Praxis gesammelt wurden, besteht die Gefahr, gesellschaftliche Miss-
stände und Stereotypen zu reproduzieren oder sogar zu verstärken. So besteht beim
Einsatz von KI am Beispiel des Gerichtswesens die Gefahr, verzerrte Urteile aus der Ver-
gangenheit als Basis für vermeintlich objektivere Urteile zu nutzen und so Ungerechtig-
keiten im Justizwesen zu verfestigen. Ähnlich verhält es sich bei KI-Algorithmen,
die zur Selektion von Bewerbungen eingesetzt werden. Hier besteht gerade im Tech-
Bereich unter anderem die Gefahr, Frauen systematisch zu benachteiligen, da die Ana-
lyse bisher erfolgreicher Bewerbungen primär auf Lebensläufen von Männern und
deren typischen Angaben basiert. Diesen Risiken versuchen verschiedene Akteurinnen
und Akteure in Deutschland mit Regelwerken und Leitlinien zu begegnen, die in der
Praxis helfen sollen, KI im Sinne der gesellschaftlichen Werte zu gestalten. Ein Beispiel
dafür sind die Algo.Rules, entwickelt von der Bertelsmann Stiftung in einem offenen
und partizipativen Prozess mit vielen Beteiligten. Zusätzlich zu neun grundsätzlichen
Regeln arbeiten die Stiftung und iRights in diesem Projekt auch an Möglichkeiten zur
praktischen Anwendung. In diesem Kontext ebenfalls interessant ist das KI Gütesiegel
des KI Bundesverbands, bei dem es sich um eine Selbstverpflichtung für Unternehmen
zur Einhaltung von Prinzipien in den vier Bereichen Ethik, Unvoreingenommenheit,
Transparenz sowie Sicherheit und Datenschutz handelt. Beide Initiativen zeigen, dass
die Öffentlichkeit und Politik Regeln befürworten, um ethische Fragestellungen im Ent-
wicklungsprozess von KI zu implementieren und dies breit diskutiert wird
„Digitale Ethik ist der Schlüssel für den erfolgreichen Einsatz von KI. Dabei ist es
notwendig, dass die Anwender zu einem eigenverantwortlichen Umgang mit neuen
Technologien befähigt werden. Andererseits müssen die Programmierer und Techniker,
die diese Technologien bereitstellen und verbessern, dies verantwortungsvoll tun und sie
müssen wissen, woran sie sich orientieren sollen. Denn selbstlernende Systeme brauchen
definierte und von den Entwicklern initial eingepflegte Grenzen, innerhalb derer sie
agieren dürfen.“
Manuela Mackert (Chief Compliance Officer der Deutschen Telekom)3
3 https://ki-verband.de/wp-content/uploads/2020/09/Studie_KI-Wo-stehen-deutsche-Startups.pdf
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 79
4 Fazit
Die Wahrnehmung hat einen Einfluss auf die Bewertung der Nachhaltigkeit von Unter-
nehmen. Moderne Technologien helfen dabei, das Image aufzubessern. Sie helfen aber
auch dabei tatsächliche Innovation zu erzielen, die wiederum die Nachhaltigkeit ver-
bessert. In Summe lässt es sich jedoch nur schwer greifen, da es keine transparente, ein-
heitliche, ethisch übereinstimmende, bewertungsunabhängige und interessenlose Daten- und
Bewertungsgrundlage gibt. Besonders bei der Ethik scheiden sich die Ansichten.
Es bleibt abzuwarten, ob sich die Regulation von KI in den Vordergrund drängt, oder
das konsequente Ausnutzen der Chancen, die sich durch die Technologie bieten. Es bleibt
ebenso abzuwarten, ob sich die Nachhaltigkeit in die positiven Emotionen oder die negativen
Emotionen einnistet, ob Nachhaltigkeit als Chance oder als Bedrohung wahrgenommen wird.
Und am Ende bedürfen beide Themen einer deutlich größeren Transparenz, welche
sich unter anderem durch Bildung erzielen lässt.
Literatur
Annemarie Paul
1 Einleitung
Ist Nachhaltigkeit nur ein Trend? Das Thema Nachhaltigkeit hat sich spätestens im Jahr
2021 vom Trend zum Wettbewerbsfaktor entwickelt. Neben den negativen Folgen des
Klimawandels und zunehmenden Regulierungen gelten auch steigende Anforderungen
von Kaufinteressierten und Unternehmensbeteiligten, die Erweiterung von Produkt-
portfolios sowie transparenzsteigernde Unternehmensanreize als Treiber von Nach-
haltigkeit (zum Beispiel Davis-Peccoud et al. 2020; Muster und Schrader 2016; Winston
2021). Doch was bedeutet Nachhaltigkeit? Laut Meadowcroft (2022) ist ein Handeln
nachhaltig, wenn ökologische, ökonomische und soziale Maßnahmen in der Gegenwart
keinen negativen Einfluss auf die Zukunft haben.
Unternehmen agieren auf verschiedenste Art und Weise nachhaltig. So treffen
Innovatoren mit Nachhaltigkeit als Geschäftsmodell auf Unternehmen, die allein auf-
grund einer gesetzlichen Berichtspflicht Nachhaltigkeitsmaßnahmen umsetzen. Eine
Gemeinsamkeit der Unternehmen ist zumeist, dass die Daten, die zur Messung der Nach-
haltigkeitsdimensionen erhoben werden, nur bedingt interpretierbar sind. So werden
Nachhaltigkeitsdaten oft inkonsistent oder unvollständig erfasst und Kennzahlen nicht
nachvollziehbar kommuniziert. Nachhaltigkeitsberichte sind somit oft nur eingeschränkt
glaubwürdig. Eine Vergleichbarkeit über Unternehmen hinweg ist erschwert (Pinchot
und Christianson 2019).
A. Paul (*)
Hamburg, Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 81
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_6
82 A. Paul
spezifiziert ist, beziehen sich die Ausführungen auf die Umwelteinflüsse. Gegebene
Empfehlungen zur Datenerfassung und -auswertung können auch auf weitere Nach-
haltigkeitsdimensionen bezogen werden.
Der Artikel ist wie folgt gegliedert: Im ersten Teil wird erläutert, welche Anreize
Unternehmen haben, Nachhaltigkeitsdaten zu erfassen. Darauffolgend wird eine Über-
sicht spezifischer Nachhaltigkeitskennzahlen gegeben, die Unternehmen im Rahmen
ihrer Geschäftsprozesse erfassen können. Kapitel vier behandelt Herausforderungen
der Datenerfassung, während Kapitel fünf den Ablauf eines Datenanalyseprojekts mit
Maschinellem Lernen beschreibt. Im Anschluss werden fünf potenzielle Fallstricke
in der Anwendung von Künstlicher Intelligenz erläutert. Im letzten Kapitel werden
die erhaltenen Erkenntnisse zur Erfassung und Auswertung von Nachhaltigkeitsdaten
zusammengefasst und Handlungsempfehlungen gegeben.
Neben der Berichtspflicht führt die zunehmende Relevanz des Themas der Nach-
haltigkeit zu geschäftsbezogenen Anreizen der Berichterstellung. Grob kann in
geschäftsentwickelnde und effizienzsteigernde Aspekte unterschieden werden.
Geschäftsentwickelnde Potenziale sind zumeist nach außen gerichtet. So kann die
Offenlegung des Nachhaltigkeitsgrades von Unternehmensprozessen neue Geschäfts-
felder und Produktentwicklungen sowie Datenpartnerschaften ermöglichen. Das Auf-
zeigen kontinuierlicher und erfolgreicher Nachhaltigkeitsbestrebungen kann außerdem
zu gestärkten ESG-Ratings (Environmental, Social and Corporate Governance) führen.
Diese steigern das Investoreninteresse und verbessern Finanzkonditionen. Das Aufzeigen
eines grünen Fußabdrucks kann ferner das Marken und Employer Branding prägen und
Neukundengewinnung, Kundenloyalität sowie Beschäftigtenwerbung positiv beein-
flussen. Weiterhin bietet die Auswertung von Nachhaltigkeitsdaten zuvor potenziell
unentdeckte Möglichkeiten der Leistungsoptimierung. So können durch Messung des
Energieverbrauchs entlang der Produktions- und Lieferkette Einsparungspotenziale und
eine überhöhte Nutzung von Strom und anderen Ressourcen erkannt und somit Kosten
gesenkt und die Effizienz gesteigert werden (Grünberg-Bochard und Schaltegger 2014).
In einer Umfrage des Rankings der Nachhaltigkeitsberichte (2018) wurden Motive
und Zielsetzung einer Nachhaltigkeitsberichterstattung erfasst. Mit 72 % berichtet
die Mehrheit von 52 befragten kleinen und mittelständischen Unternehmen (KMU) in
Deutschland, dass die Berichterstattung von der Unternehmensleitung initiiert wurde.
Sonstige Motive, wie intrinsische Motivation und zunehmende Kundenanfragen zum
Thema Nachhaltigkeit, bilden mit 42 % und 34 % deutlich schwächere Motive. Unter
den mit der Nachhaltigkeitsberichterstattung gesetzten Zielen dominieren mit 88 % und
81 % die allgemeine Reputationswirkung sowie die damit einhergehende Öffentlich-
keitssensibilisierung. Letzterer Aspekt zeigt eine intrinsische Motivation der Unter-
nehmen auf. Während etwa zwei Drittel der befragten KMUs auch die Förderung von
Kundenbindung und Beschäftigtenmotivation angibt, sticht mit 75 % die verbesserte
Messbarkeit unternehmensinterner Prozesse durch Nachhaltigkeitsdaten hervor.
Unabhängig der Beweggründe eines Unternehmens einen Lagebericht zur Nach-
haltigkeit zu erstellen, bilden transparenzgebende Daten die Grundlage. Im Folgenden
wird erläutert, welche Daten erfasst werden können, bevor auf Herausforderungen in der
Datenerfassung eingegangen wird.
3 Nachhaltigkeitsdaten
Zahlreiche Datenpunkte können über die Nachhaltigkeitsdaten hinaus erfasst werden und
die Datenbasis einer KI-Lösung im Bereich Nachhaltigkeit nutzenbringend erweitern.
Dies gilt im Unternehmenskontext und unternehmensübergreifend. Im Folgenden
möchte ich auf drei ergänzende Datengruppen eingehen: Beobachtungsdaten von Auf-
traggebenden, Umfragedaten und Metadaten zum Nachhaltigkeitsreport.
Beobachtungsdaten von Auftraggebenden dienen der Erfassung von Reaktionen von
kaufenden Personen auf die Nachhaltigkeitsmaßnahmen von Unternehmen. Anhand
Daten als Schlüsselkomponente von Anwendungen … 87
werden. Beim unbewachten Lernen werden Strukturen ohne vorgegebenes Label erkannt
(Salian 2018).
Um die Güte eines Modells final zu testen wird das trainierte Modell auf die Test-
daten angewendet und, ohne weitere Änderungen an den Daten vorzunehmen, die
jeweilige Leistungsmetrik evaluiert. Die Wahl der Leistungsmetrik bestimmt die Modell-
evaluierung essenziell. So müssen Leistungsmetriken, die aus analytischer Sicht relevant
sind, nicht unbedingt mit der Leistungsmetrik aus Geschäftssicht übereinstimmen.
Ein Beispiel bietet die absolute Abweichung vom Label. Während aus ML-Sicht die
Abweichung vom Label (Anlage fällt aus oder nicht) so gering wie möglich sein soll,
kann aus Geschäftssicht, je nach Kontext, eine höhere Falsch-Negativ-Rate (Anlage wird
nicht gewartet und fällt unvorhergesehen aus) mit deutlich negativeren Konsequenzen
einhergehen als eine Falsch-Positiv-Rate (falsch vorhergesagter Ausfall einer Anlage
und Anlage wird unnötig gewartet). In der Summe lohnt es sich verschiedene Metriken
zur Evaluierung eines ML-Modells heranzuziehen. Sollte das Modell die Trainings-
daten gut abbilden, die zufällig bestimmten Testdaten jedoch nur schwer vorhersagen
können, so ist das Modell eingeschränkt übertragbar und es liegt eine Überanpassung an
die Trainingsdaten (Overfitting) vor. In diesem Fall muss der Schritt des Trainings noch
einmal wiederholt und die Modellgüte mit neu generierten Testdaten erneut bemessen
werden.1
Sollte das ML-Modell den im ersten Schritt definierten Projekterfolg erfüllen, so kann
die Lösung hin zu einem Datenprodukt verstetigt werden. Nicht alle datengetriebenen
Lösungen erfahren diesen Schritt. Dennoch bieten die ersten sechs Prozessschritte des
Maschinellen Lernens viele Einsichten. So kann es sein, dass weitere Daten erhoben
oder Geschäftsprozesse noch besser verstanden werden müssen, um diese algorithmisch
abzubilden. Auch wird die erste Erprobung einer KI-Lösung oft im Rahmen einer Mach-
barkeitsstudie (Proof of Concept) untersucht. Ein Abbruch des Projekts nach Evaluierung
der Machbarkeitsstudie sowie Anpassungen im Folgeverlauf des Projekts sind valide
Optionen, um sicherzustellen, dass die ML-Lösung Mehrwert generiert und dieser
voll extrahiert werden kann. Ist eine Erweiterung hin zu einem Datenprodukt geplant,
so müssen Aspekte wie die Skalierbarkeit der Modelle, die Kontinuität von Daten-
flüssen, die Automatisierung von Trainingsprozessen, Testprozesse zur Sicherung der
Prozessverlässlichkeit und die Integration in die bestehende Dateninfrastruktur beachtet
werden. Auch die persistente Einbettung in die Arbeitsprozesse von Beschäftigten und in
Kundeninteraktionen ist von Relevanz und sollte mit A/B-Tests bestmöglich untersucht
1 Um die Modellevaluierung so objektiv wie möglich zu gestalten, wird allgemein nicht nur
zwischen Trainings- und Testdaten unterschieden, sondern auch ein Validierungsdatensatz ver-
wendet. Während die Trainings- und Validierungsdatensätze zum Trainieren des Modells ver-
wendet werden, findet die finale Evaluierung (einmalig) mit zuvor komplett ungesehenen Testdaten
statt. Zur Vereinfachung des ML-Prozesses wird sich in der hier verwendeten Beschreibung nur auf
Trainings- und Testdaten bezogen.
92 A. Paul
und gesteuert werden.2 Im letzten Schritt des ML- Projekts, der Instandhaltung, muss der
kontinuierliche Einsatz und die Wartung des Datenprodukts sichergestellt werden. Dieser
Projektschritt dauert über die Lebensdauer des Datenprodukts an.
Wie im vorherigen Kapitel beschrieben sind der Dateninput und die Wahl und
Implementierung des Modells in Kombination mit Geschäftswissen und statistischen
Kenntnissen die Schlüsselkomponenten eines Projekts mit Maschinellem Lernen. Bei
der Umsetzung der Projekte gibt es bezugnehmend auf jede der Komponenten Fall-
stricke, die zu einer Fehlinterpretation und -kalkulation der Ergebnisse führen können.
Im Folgenden möchte ich auf fünf Fallstricke eingehen:
1. Unrealistische Annahmen
[Betroffene Komponenten: Dateninput, Geschäftswissen, statistische Kenntnisse]
Die ML-Modelle werden auf Basis der eingespeisten Daten optimiert. Sofern sich die
Daten auf einen bestimmten Bereich oder eine Gruppe beziehen, sind die damit ein-
hergehenden Modellannahmen nicht notwendigerweise direkt auf andere Bereiche
und Gruppen übertragbar. Eine bedingungslose Skalierbarkeit der Ergebnisse ist
somit nicht geben. Diese Einschränkung gilt auch über verschiedene Zeitperioden
hinweg – insbesondere, wenn es sich im Rahmen einer Machbarkeitsstudie um
einen einmaligen Datenextrakt handelt. So sinkt die Vorhersagegüte eines Modells
im Rahmen einer Zeitreihenanalyse je weiter der Vorhersagezeitpunkt im Vergleich
zum letzten Datenpunkt in der Zukunft liegt. Darüber hinaus können unerwartete
und zuvor ungesehene Ereignisse nicht unbedingt prognostiziert werden. Ein ent-
scheidender Einschnitt wie die aktuelle Coronapandemie ist nur vorhersagbar, wenn
im Modell enthaltene Indikatoren bereits zuvor darauf hinweisen. Angrenzend dazu
sind erhobene Datenpunkte während der Pandemie, je nach Kontext, nur schwer nutz-
bar um reguläre Entwicklungen und Trends vorherzusagen. Die gewonnen Einsichten
eines Modells, das aus Daten während der Coronapandemie lernt, würden sich in
diesem Fall nur teilweise oder gar nicht auf die Testdaten (Zeit nach der Pandemie)
übertragen lassen (siehe Erklärung zum Overfitting in Abschn. 5).
2. Zu hohe Komplexität
[Betroffene Komponenten: Wahl des ML-Modells, statistische Kenntnisse]
2 A/B-Testsstellen eine Form eines kontrollierten Experiments dar, bei dem zwei verschiedene
Versionen einer Website, einer Benutzeroberfläche, eines Preises oder anderer Faktoren
randomisiert einer Nutzergruppe zugeordnet werden und auf Basis ihres Verhaltens gegeneinander
abgewogen werden (Gallo 2017).
Daten als Schlüsselkomponente von Anwendungen … 93
Auch wenn die Anwendung von KI neue Potenziale in der Datenanalyse eröffnet, so
ist die erste Frage einer jeden Zielsetzungsphase eines Projekts mit Maschinellem
Lernen, ob eine Lösung eher mit einfachen analytischen Methoden wie deskriptiver
Statistik anstatt einem komplexeren ML-Ansatz erzielt werden kann. Weiterhin sinkt
mit zunehmender Komplexität des Analyseansatzes zumeist die Erklärbarkeit der
erzielten Ergebnisse. Warum hat die KI eine bestimmte Vorhersage getroffen? Wie
sicher ist diese Entscheidung und welche Faktoren haben diese beeinflusst? Wie
können Entscheidungsfehler korrigiert werden? Ist die Entscheidung ethisch gerecht?
All dies sind Fragen, die mit Erklärbarem Maschinenlernen (Explainable AI) an
Bedeutung gewinnen.
Während einige ML-Algorithmen wie Entscheidungsbäume relativ nachvollziehbar
sind, weisen komplexere Ansätze wie Neurale Netze eine deutlich geringere Trans-
parenz auf. Einen ersten Einblick in die Logik des berechneten Modells erlauben
Techniken zur Visualisierung der Relevanz von Einflussfaktoren. Weiterhin bietet
sich die Analyse von Was-wäre-wenn-Szenarien an, um die Nachvollziehbarkeit
der Entscheidungen eines ML-Algorithmus zu erhöhen. Während Datenlösungen
im medizinischen Bereich gegebenenfalls eine höhere Transparenz als diejenigen in
der Nachhaltigkeit erfordern, so sind die Möglichkeiten jedoch bisher begrenzt und
aktuell im Fokus der Forschung (Gohel et al. 2021).
3. Verzerrungen in den Daten
[Betroffene Komponenten: Dateninput, statistische Kenntnisse]
Das aktive Datenverständnis spielt eine wichtige Rolle zur Analyse, kann jedoch
durch unbekannte Verzerrungen in den Daten beeinträchtigt werden. Soziale
Ungleichgewichte in der Datenerfassung und Stichprobenrestriktionen hin zur Über-
repräsentation einer bestimmten Produktgruppe, die die Repräsentativität der Daten
einschränken, bieten Beispiele, die die Interpretierbarkeit der Daten und finalen
Analyseergebnisse beeinflussen (Omowole 2021). Dieser Zusammenhang gilt auch
intertemporal. So können auch scheinbar inklusive Daten aufgrund historischer
Ungleichgewichte zu einer Verzerrung von ML-Ergebnissen führen.3
Während Daten und Algorithmen umfassender gestaltet werden können, so werden
Datenverzerrungen durch kognitive Verzerrungen im Denken und Handeln verschärft.
Kognitive Verzerrungen sind das Ergebnis mentaler Abkürzungen, die unsere Ent-
scheidungsfindung (oft unbewusst) beeinflussen (zum Beispiel Kahneman 2011).
Dementsprechend entdecken wir Verzerrungen in den Daten auch bei umsichtigem
Denken erst sehr spät oder gar nicht. Die Ergebnisse der ML-Lösung spiegeln diese
fehlende Vielfalt wider.
Beispielfragen, die dabei helfen können, Verzerrungen in den Daten zu erkennen sind:
Welche Daten wurden mit welchem Zweck zur Verfügung gestellt? Wie werden die
Daten in den internen Betriebssystemen aufbereitet und archiviert? Welche Kunden-
gruppe fordert aktiv Auskunft über die Nachhaltigkeit der gekauften Produkte und
Dienstleistungen ein und was sagt dies über andere Kunden aus – andere bestehende
und potenzielle Kunden? Welche Nachhaltigkeitspotenziale wurden bereits in
bestimmten Unternehmensbereichen realisiert und lässt dies Schlussfolgerungen auf
weitere Bereiche zu? Durch das Stellen der richtigen Fragen können wir die Inhalte
und Herkunft von Daten besser verstehen und somit deren Einfluss auf vergangene,
aktuelle und zukünftige ML-Lösungen in den Kontext setzen.
4. Scheinkorrelation
[Betroffene Komponenten: statistische Kenntnisse]
Scheinkorrelation beschreibt das Phänomen, dass zwei Variablen statistisch gemessen
miteinander zusammenhängen, dies aber auf eine dritte, nicht beobachtete Variable
wie einem gemeinsamen Zeittrend zurückzuführen ist (Haig 2003). Beispielsweise
kann eine positive Korrelation zwischen der Anzahl neuer Beschäftigter und dem Ein-
satz nachhaltiger Technologien beobachtet werden. Der zunehmende Technologie-
einsatz kann Neueinstellungen bedingen. Oder forcieren die neuen Beschäftigten
die Anwendung nachhaltiger Technologien? Eine dritte Variable, die steigende
Nachfrage nach nachhaltig produzierten Produkten eines Unternehmens, verursacht
höchstwahrscheinlich den Anstieg beider Variablen. Die Darstellung zeigt, dass
Korrelation nicht mit Kausalität einhergeht, kausal zusammenhängende Variablen
jedoch auch korreliert sind. Scheinkorrelation erklärt auch den Zusammenhang
zweier unabhängiger Variablen, die relativ bemessen sind und einen gemeinsamen
Nenner aufweisen. So wäre eine Korrelationsmessung zwischen der Anzahl neuer
Beschäftigter und dem Einsatz nachhaltiger Technologien auch ungleich null, wenn
beide Kennzahlen pro Beschäftigten berechnet würden.
5. Unklare Definition der Leistungsmetrik
[Betroffene Komponenten: Geschäftswissen, statistische Kenntnisse]
Bei der Definition der Leistungsmetrik eines ML-Modells ist wichtig, dass die
gewählte Kennzahl das gewünschte Resultat beziehungsweise den anvisierten Ist-
zustand widerspiegelt. Wird, als Beispiel, die Einsparung von Treibhausgas-
emissionen durch die Einsetzung einer bestimmten Technologie approximiert, kann
die Optimierung des Technologieeinsatzes mithilfe eines ML-Modells dazu führen,
dass die Technologie vermehrt eingesetzt wird, aber aufgrund von Nebeneffekten oder
anderen Faktoren die Treibhausgasemissionen dennoch steigen. Der Grund dafür ist,
dass der Technologieeinsatz nur als Näherungsvariable für die Emissionen eingesetzt
wurde.
Daten als Schlüsselkomponente von Anwendungen … 95
Dieser Beitrag zeigt, wie vielfältig die Anreize und Herausforderungen von Unter-
nehmen sind Nachhaltigkeitsdaten zu erheben. Erfassungsprobleme reichen dabei von
bewusster Intransparenz bis hin zu unbewussten Datenfehlern wie eine inkonsistente
Ausgestaltung von Datenerfassungsfragen und schwer zu verstehenden Kennzahlen.
Neben der Erstellung von Nachhaltigkeitsreports eröffnen Methoden Künstlicher
Intelligenz neue und bisher zumeist nicht realisierte Potenziale in der Auswertung von
Nachhaltigkeitsdaten. Anwendungsbeispiele erstrecken sich entlang des gesamten
Geschäftsprozesses – vom Ressourceneinsatz über die Produktion und den Trans-
port hin zur Produktnutzung. Dennoch gilt auch bei der potenziellen Umsetzung eines
ML-Projekts, dass der Mehrwert die Kosten überwiegen sollte. Je nach Datenproblem
kann eine Lösung mithilfe einfacher Analyseansätze effizienter und durch eine spar-
samere Rechenleistung kostensparender im Vergleich zu Maschinellem Lernen sein. Ein
umfangreiches Datenverständnis und eine umsichtige Interpretation der Analyseergeb-
nisse sind essenziell, um Fallstricke wie Scheinkorrelation und Verzerrungen in den
Daten adressieren zu können.
Ohne einen Anspruch auf Vollständigkeit zu erheben lassen sich aus den voran-
gegangenen Ausführungen mindestens drei Handlungsempfehlungen für neu zu
realisierende KI-Projekte im Bereich der Nachhaltigkeit ableiten: Erstens, noch bevor
einzelne ML-Lösungen oder gar eine KI-Strategie in Betracht gezogen werden, sollte
eine klare Datenstrategie vorhanden sein und aktiv im Unternehmen umgesetzt werden.
Somit kann ein Überblick über alle Datenquellen geschaffen und Zuständigkeiten zur
Erhöhung und Wahrung der Datenqualität festgelegt werden. Darüber hinaus lassen
sich auch Lücken in der Datenerfassung von Unternehmensprozessen schließen, die
für zukünftige Datenlösungen hinderlich wären. Der zweite Punkt umfasst den aktiven
Wissensaustausch zu den erfassten Daten und zum analytischen Problem. KI-Experten
bringen die Werkzeuge und das Wissen zur Anwendung von Maschinellem Lernen
mit. Diese können jedoch nur im ständigen Dialog mit Personen mit Datenbank- und
Domänenexpertise und weiteren Interessensgruppen wie Kaufinteressierten zielgerichtet
angewendet werden. Die größte Herausforderung dabei ist das gemeinsame Ver-
ständnis der verschiedenen Parteien. Ein weiterer wichtiger Punkt ist das Erwartungs-
management. Ein KI-Projekt ist kein Universalwerkzeug, das ohne sinnvollen
Dateninput und ohne eine plausible Definition der Annahmen bedingungslos erfolgsver-
sprechende Erkenntnisse und Lösungen liefert. Die geschäftsgetriebene Problemstellung
muss klar durchdrungen werden und die relevanten Daten verfügbar sein, um qualitativ
hochwertige Datenlösungen zu generieren. Der gesamte Projektablauf des Maschinellen
Lernens erfolgt iterativ. Dies ermöglicht Schwachstellen in den Daten, der Vorgehens-
weise und im Austausch schnell zu erkennen und zu adressieren. Vor allem die Phase
der Datenaufbereitung kann sehr zeitaufwendig sein und nach dem Erhalt neuer Daten-
erkenntnisse eine mehrmalige Nachbearbeitung erfordern. Nicht jede Verzögerung im
96 A. Paul
Literatur
Blattner L, Nelson, S (2021) How costly is noise? Data and disparities in consumer credit. arXiv
preprint arXiv:2105.07554
Copeland BJ (2022) Artificial Intelligence, Encyclopedia Britannica. https://www.britannica.com/
technology/artificial-intelligence/. Zugegriffen: 26. Jan. 2022
CSR-RUG (2017) Gesetz zur Stärkung der nichtfinanziellen Berichterstattung er Unternehmen in
ihren Lage- und Konzernlageberichten (CSR-Richtlinie-Umsetzungsgesetz) in der Fassung der
Bekanntmachung vom 18.4.2017. In: Bundesanzeiger Nr. 20, Bundesgesetzblatt Teil I
Dastin J (2018) Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G/.
Zugegriffen: 20. Jan. 2022
Davis-Peccoud J et al (2020) Sustainability is the Next Digital, Bain & company. https://www.
bain.com/insights/sustainability-is-the-next-digital/. Zugegriffen: 28. Jan. 2022
European Commission (2022) Corporate sustainability reporting. https://ec.europa.eu/info/
business-economy-euro/company-reporting-and-auditing/company-reporting/corporate-
sustainability-reporting_en/. Zugegriffen: 20. Jan. 2022
Gallo A (2017) A refresher on A/B testing. Harvard Business Review, Analytics and Data Science.
https://hbr.org/2017/06/a-refresher-on-ab-testing. Zugegriffen: 28. Jan. 2022
Gohel P et al (2021) Explainable AI: current status and future directions. arXiv preprint
arXiv:2107.07045
Government Data Quality Hub (2021) Meet the data quality dimensions. gov.uk. https://www.gov.
uk/government/news/meet-the-data-quality-dimensions/. Zugegriffen: 25. Jan. 2022
Griffiths S (2020) Why your internet habits are not as clean as you think. BBC Future. https://
www.bbc.com/future/article/20200305-why-your-internet-habits-are-not-as-clean-as-you-
think/. Zugegriffen: 28. Jan. 2022
Grünberg-Bochard J, Schaltegger S (2014) Zukunftsstrategie Nachhaltiges Unternehmertum. In:
von Müller C, Zinth CP (Hrsg) Managementperspektiven für die Zivilgesellschaft des 21. Jahr-
hunderts. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-02523-6_8/
Haig BD (2003) What is a spurious correlation? Understanding statistics: statistical issues in
psychology. Edu Soc Sci 2(2):125–132
Hardesty L (2018). Study finds gender and skin-type bias in commercial artificial-intelligence
systems. MIT News. https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-
intelligence-systems-0212/. Zugegriffen: 25. Jan. 2022
Hosch WL (2022) Machine learning, Encyclopedia Britannica. https://www.britannica.com/
technology/machine-learning/. Zugegriffen: 20. Jan. 2022
Kahneman D (2011) Thinking, fast and slow. Penguin, London
Kozyrkov C (2019) 12 steps to applied AI, a roadmap for every machine learning project, medium.
https://medium.com/swlh/12-steps-to-applied-ai-2fdad7fdcdf3/. Zugegriffen: 28. Jan. 2022
Mayer AL (2008) Strengths and weaknesses of common sustainability indices for multi-
dimensional systems. Environ Int 34(2):277–291
Daten als Schlüsselkomponente von Anwendungen … 97
Die Geburtsstunde der Blockchain kann in das Jahr 2008 verortet werden. In diesem
Jahr wurde die Grundidee der Blockchain erstmalig in dem Whitepaper zum Bitcoin
von Satoshi Nakamoto (2008) vorgeschlagen, einer Person oder Personengruppe mit
bislang ungeklärter Identität. Auch zehn Jahre später denken viele Leute fälschlicher-
weise noch immer, bei der Blockchain und dem Bitcoin handelt es sich um das ein und
dasselbe (Marr 2018). Technisch betrachtet ist die Blockchain keine vollständig neue
Erfindung, sondern vielmehr eine Kombination aus Technologien und Verfahren, welche
bereits vorher bestanden. So kommen bei der Blockchain etwa kryptografische Verfahren
wie Public-Key-Verschlüsselungsverfahren (Diffie und Hellmann 1976) oder Hash-
Funktionen (Merkle 1979, Rabin 1978) zum Einsatz.
E. Karger (*)
Dorsten, Deutschland
E-Mail: [email protected]
P. Gonserkewitz
Velbert, Deutschland
E-Mail: [email protected]
C. Klüver
Essen, Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 99
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis , Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_7
100 E. Karger et al.
Für den Begriff „Blockchain“ ist in den vergangenen Jahren eine Vielzahl ver-
schiedener Definitionen entstanden, wobei eine allgemeingültige und einheitliche
Definition bislang fehlt. Dem reinen Namen nach ist eine Blockchain eine „Kette aus
Blöcken“. Ein Block enthält dabei Daten, wie beispielsweise Ereignisse oder Trans-
aktionen, die in zusammengefasster Form in einem Block hinterlegt werden (Condos
et al. 2016). Die Blockchain kann daher als eine Art von Datenbank aufgefasst werden,
die eine Reihe von Datensätzen in einem Block zusammenfügt. Jeder Block ist an die
Reihe der übrigen Blöcke angefügt bzw. mit dieser verknüpft (Walport 2015).
Jedes Mitglied eines Blockchain-Netzwerkes, in der Literatur auch „Knoten“ oder
„Peer“ genannt, kann diese Blöcke sowie die Gültigkeit der darin gespeicherten Trans-
aktionen überprüfen sowie neue Transaktionen hinzufügen; das nachträgliche Verändern
ist jedoch unmöglich (Bogart und Rice 2015).
In anderen Definitionen handelt es sich bei der Blockchain um ein elektronisches
Hauptbuch bzw. Register für digitale Aufzeichnungen, Ereignisse oder Transaktionen,
die in zusammengefasster Form dargestellt werden (Condos et al. 2016). Im Falle der
Bitcoin-Blockchain handelt es sich bei den Daten in den Blöcken der Blockchain bei-
spielsweise um Transaktionen von Bitcoins zwischen einzelnen Nutzern des Bitcoin-
Netzwerkes. Darüber hinaus kann eine Unterscheidung getroffen werden zwischen der
Blockchain als Begriff für eine Datenstruktur, einen Algorithmus, ein Technologiepaket
oder als Oberbegriff für ein verteiltes Peer-to-Peer System „mit einem gemeinsamen
Einsatzgebiet“ (Drescher 2017, 53).
Iansiti und Lakhani (2017) sowie Casey und Wong (2017) fassen einige Merkmale
und Eigenschaften zusammen, welche für die Blockchain charakteristisch sind:
• Dezentrale Datenbank: Die gesamte Datenbank der Transaktionen, welche über die
Blockchain abgewickelt wurden, und ihre vollständige Historie sind für jeden Knoten
des Blockchain-Netzwerkes verfügbar und einsehbar. Keine einzelne Partei hat die
Kontrolle über die Daten und Informationen, und alle Mitglieder eines Blockchain-
Netzwerkes können die Transaktionen überprüfen, ohne eine vermittelnde Instanz
einschalten zu müssen.
• Irreversibilität der Einträge: Sobald eine Transaktion Teil der Blockchain ist, kann
sie nicht mehr verändert werden, da eine Transaktion mit jeder zuvor durchgeführten
Transaktion verknüpft ist. Dies wird durch verschiedene Ansätze und Algorithmen
ermöglicht, welche die Dauerhaftigkeit und korrekte Reihenfolge der Transaktionen
gewährleisten.
• Transparenz und Pseudonymität: Transaktionen und die damit verbundenen Werte
sind innerhalb eines Blockchain-Netzwerks für jedes Mitglied sichtbar. Die einzel-
nen Mitglieder einer Blockchain, auch Knoten genannt, haben eine alphanumerische
Adresse als eindeutige Kennung. Die Transaktionen finden zwischen diesen
Blockchain-Adressen statt.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 101
Die oben skizzierten Merkmale treffen in dieser Form auf die meisten Blockchains zu.
Es muss jedoch beachtet werden, dass es sich heutzutage, mehr als 10 Jahre nach der
erstmaligen Beschreibung des Bitcoins, bei der Blockchain längst nicht mehr um eine
einheitliche Technologie handelt. Stattdessen befinden sich weltweit viele tausend
Blockchain-Projekte in der Entwicklung. Diese Blockchains unterscheiden sich teil-
weise signifikant voneinander und weisen unterschiedliche technische Eigenschaften und
Merkmale auf (Tasca und Tessone 2019; Hameed et al. 2022).
Konsensmechanismus
Eine weitere zentrale Eigenschaft, anhand derer Blockchain-Netzwerke sich unter-
scheiden, ist der zugrunde liegende Konsensmechanismus (Hellwig et al. 2021). Trans-
aktionen, welche in einem Blockchain-Netzwerk als valide angesehen werden, müssen in
den nächsten Block der Blockchain mitaufgenommen werden. Dies bedeutet, dass inner-
halb des Netzwerkes ein Konsens darüber gefunden werden muss, welche Transaktionen
gültig sind und fester Bestandteil der Blockchain werden sollen.
Der Konsensmechanismus soll für diesen Konsens bezüglich gültiger Transaktionen
innerhalb eines Blockchain-Netzwerkes sorgen. Das Bitcoin-Netzwerk nutzt dabei das
sogenannte Proof-of-Work (PoW) Schema als Konsensmechanismus (Zohar 2015;
Schlatt et al. 2016). Hierbei müssen die sogenannten „Miner“, also die Knoten des
Blockchain-Netzwerkes, welche die neuen Blöcke und die darin enthaltenen Trans-
aktionen validieren wollen, eine Menge an energieintensivem Rechenaufwand erbringen,
um einen bestimmten Hash-Wert zu finden. Weitere Details zu verschiedenen Konsens-
mechanismen werden in Abschn. 1.1 vorgestellt.
Die Blockchain-Technologie wird kontinuierlich weiterentwickelt und für eine Viel-
zahl von verschiedenen Anwendungsbereichen erprobt und verwendet. Die Blockchain
ist heutzutage nicht mehr nur auf digitale Kryptowährungen beschränkt, sondern wird
in verschiedensten Branchen, Szenarien und Anwendungsgebieten untersucht und
eingesetzt. Beispiele sind die Nutzung der Blockchain im Kontext von Smart Cities
(Esposito et al. 2021), dem Internet der Dinge (Alfrhan et al. 2021), im Gesundheits-
sektor (Rejeb et al. 2021) oder in der Musikindustrie (Baym et al. 2019).
Smart Contracts sind ein weiterer oft genannter Begriff im Zusammenhang mit der
Blockchain. Hierunter wird eine Software verstanden, die das Verhalten oder die Logik
von Verträgen imitiert, was es Unternehmen ermöglicht, die Vertragsbedingungen zu
automatisieren. Ein intelligenter Vertrag kann sich auf Datenfelder beziehen, die in
der Blockchain enthalten sind (Tapscott und Tapscott 2016). Solche „Verträge“ oder
Prozesse bedürfen keiner menschlichen Interpretation oder Intervention und können von
einem Computerprogramm ausgeführt werden (Franco 2015; Kushwaha et al. 2022).
Die Blockchain und auf ihr beruhende Kryptowährungen sorgen in verschiedenen
Zusammenhängen immer wieder auch für negative Schlagzeilen. Eine Schattenseite
von Kryptowährungen, insbesondere des Bitcoins, ist die Verwendung für kriminelle
Zwecke oder zur Geldwäsche. Kryptowährungen sind für Kriminelle aus einer Vielzahl
von Gründen attraktiv: Die Anonymität, die einfache Nutzung und die Tatsache, dass
die Nutzung von Kryptowährungen unabhängig von Grenzen oder Gesetzen ist, machen
sie geeignet für kriminelle Zwecke. Ein weiteres Problem, das im Zusammenhang mit
Bitcoin häufig genannt wird, ist der hohe Energieverbrauch. Wie bereits erwähnt müssen
die sogenannten Miner in PoW-Netzwerken einen Hash-Wert finden, der bestimmten
Anforderungen entspricht. Der dafür erforderliche Energieverbrauch hat ein immenses
Ausmaß erreicht, vergleichbar mit dem Verbrauch von Ländern wie Belgien oder den
Niederlanden.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 103
1.1 Konsensalgorithmen
Geschwindigkeit leicht variieren kann. Es dauert ca. 10 min, einen neuen Block mit
Transaktionen zu validieren; dies ist im Vergleich zu anderen Konsensalgorithmen
sehr langsam (Naz und Lee 2020). Aus diesem Grund ist dieser Algorithmus nicht für
Anwendungsfälle geeignet, in denen viele Transaktionen durchgeführt werden müssen
(Bamakan et al. 2020).
die für die Erstellung der Blöcke erforderliche Rechenleistung auf Null reduziert wird.
Rebello et al. (2020) geben die Geschwindigkeit mit maximal 4000 Transaktionen pro
Sekunde an.
2021). Da die validierenden Knoten bekannt sind, ist das Risiko, das von diesen Knoten
ausgeht, gering (Bashar et al. 2019).
aktionen pro Sekunde angegeben. Nach Farshidi et al. (2020) liegt die Geschwindigkeit
von RCP bei ca. 1500 Transaktionen pro Sekunde. Die Anzahl der Nicht-Validierungs-
knoten ist hoch skalierbar, da sie nicht zum Konsens beitragen (Zhang und Lee 2020).
Da eine schnelle und häufige Kommunikation zwischen den Validierungsknoten statt-
findet, muss die Anzahl der Validierungsknoten klein gehalten werden, wodurch die
Dezentralisierung leidet (Khan et al. 2020).
Raft
Die Grundidee des Raft-Algorithmus besteht darin, dass die Knoten gemeinsam einen
sogenannten Leader wählen und die übrigen Knoten zu Followern werden (Alsunaidi
und Alhaidari 2019). Es gibt 3 Arten von Knoten: Leader, Kandidat und Follower. Im
ersten Schritt wählen die Knoten einen Leader, der die Mehrheit der Stimmen von allen
anderen Knoten erhalten muss (Ongaro und Ousterhout 2014). Der Leader ist für die
Registrierung neuer Transaktionen auf der Blockchain verantwortlich und gibt die Ein-
träge an alle Knoten weiter, damit diese ihre Protokolle ebenfalls aktualisieren können
(Mingxiao et al. 2017). Der Leader muss permanent Signale an die anderen Knoten
zurücksenden. Wenn die Knoten keine solche Signale mehr erhalten, muss ein neuer
Leader gewählt werden (Ongaro und Ousterhout 2014). Der Konsensalgorithmus läuft
in verschiedenen Zeitphasen, von denen jede mit der Wahl eines neuen Leaders beginnt,
wenn der alte Leader keine Signale mehr sendet.
Laut Panda et al. (2019) ist Raft für private und hybride Blockchains geeignet.
Alsunaidi und Alhaidari (2019) sowie Mingxiao et al. (2017) geben die Geschwindigkeit
von Raft mit mehr als 10.000 Transaktionen pro Sekunde an. Die genaue Geschwindig-
keit hängt von der Rechenleistung des führenden Knotens ab. Aufgrund der ständigen
Kommunikation zwischen den Knoten ist die Skalierbarkeit des Netzwerks begrenzt
(Mingxiao et al. 2017). Da kein Mining erforderlich ist, ist der Energieverbrauch von
Raft jedoch sehr gering (Alsunaidi und Alhaidari 2019). Zudem können bis zu 50 %
der Knoten des Blockchain-Netzwerkes ausfallen, ohne die Funktion von Raft einzu-
schränken (Panda et al. 2019). Ein wesentlicher Nachteil besteht jedoch darin, dass
Raft keine böswilligen Knoten tolerieren kann, da der Leader absolute Macht über das
Blockchain-Netzwerk hat (Mingxiao et al. 2017). Sobald ein böswilliger Leader die
Kontrolle hat, kann das Blockchain-Netzwerk zerstört werden.
Tendermint
Tendermint basiert auf einer Mischung aus PBFT und PoS. In Tendermint müssen
die Knoten eines Netzwerkes Coins einsetzen, um ein validierender Knoten werden
zu können. Der validierende Knoten wird in jeder Runde durch einen Algorithmus
bestimmt, der die Wahrscheinlichkeit einer Wahl mit der Anzahl der gesetzten Coins
verknüpft. Je mehr Coins von einem Knoten gesetzt werden, desto höher ist die Wahr-
scheinlichkeit, dass dieser als der validierende Knoten ausgewählt wird (Xiao et al.
2020). Ein Block kann vorgeschlagen werden, und dieser nicht validierte Block wird
an alle Knoten gesendet. Nach Khan et al. (2020) ist Tendermint nur für Blockchains
108 E. Karger et al.
geeignet, in denen nicht jeder Knoten automatisch Validierungsrechte hat. Zu der Anzahl
der möglichen Transaktionen von Tendermint finden sich sehr verschiedene Angaben.
Während Monrat et al. (2019) diese mit weniger als 10.000 Transaktionen pro Sekunde
beziffern, geben Xiao et al. (2020) sie mit mehr als 1000 Transaktionen pro Sekunde an.
Zwar kann ein auf Tendermint basierendes Blockchain-Netzwerk skaliert werden, durch
eine steigende Anzahl der Knoten dauert die Bestätigung eines Blocks jedoch länger. Da
kein Mining durchgeführt werden muss ist Tendermint sehr energieeffizient.
Die bisherigen Ausführungen lassen erkennen, dass bei der Auswahl einer geeigneten
Blockchain-Technologie verschiedene Aspekte berücksichtigt werden müssen. Aus
diesem Grund werden in der Literatur diverse Unterstützungssysteme vorgeschlagen
(Abdo und Zeadally 2021; Meng et al. 2021; Kamble et al. 2021; Nayak et al. 2022;
Himeur et al. 2022), in denen verschiedene Methoden und Herausforderungen diskutiert
werden.
Das von uns entwickelte und hier vorgestellte Modell ist für diejenigen konzipiert, die
sich einen ersten Überblick verschaffen möchten, ob die Verwendung einer Blockchain-
Technologie überhaupt sinnvoll ist und falls ja, welche Konsensalgorithmen empfohlen
werden.
Zunächst wird das Self-Enforcing Network und das methodische Vorgehen bei der
Entwicklung des Modells vorgestellt; anschließend werden exemplarisch Empfehlungen
des Unterstützungssystems gezeigt.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 109
vnorm ist der normierte Wert, r bezieht sich auf die rohen Datenwerte in der semantischen
Matrix und n auf das Intervall, in welchem die Normierung erfolgen soll.
Für SEN müssen, wie für alle neuronalen Netzwerke (NN), eine spezifische Lern-
regel, eine Lernrate, ggf. Anzahl der Lernschritte und bestimmte Funktionen angegeben
werden (siehe Beitrag Klüver und Klüver, „Chancen und Herausforderungen beim
Einsatz neuronaler Netzwerke als Methoden der Künstlichen Intelligenz oder des
Maschinellen Lernens in KMU“). Im Folgenden werden lediglich die Bestandteile
des SEN vorgestellt, die für das Unterstützungssystem zur Auswahl einer Blockchain-
Technologie relevant sind.
Lernregel: Self-Enforcing Rule (SER) Bei allen NN befinden sich die wesentlichen
Informationen in der sog. Gewichtsmatrix. Diese wird normaler Weise zu Beginn per
Zufall generiert und anhand einer Lernregel so lange modifiziert, bis der gewünschte
Lernerfolg erreicht wird.
Bei SEN findet keine Zufallsgenerierung statt, was das besondere Charakteristikum
des Netzwerkes darstellt. Die Werte aus der semantischen Matrix, die reale Datenmengen
oder ein spezielles Modell enthält, werden in die SEN-Gewichtsmatrix transformiert.
Falls ein Objekt O das Attribut A nicht hat, dann ist der Wert der semantischen Matrix
vsm = 0 und der entsprechende Gewichtswert woa = 0 (w steht für weight). In allen
anderen Fällen wird der Gewichtswert aus der semantischen Matrix gemäß der Gl. 1.2
entnommen und normalisiert.
woa = c ∗ vsm (1.2)
c ist eine Konstante, die vom Benutzer als Parameter eingestellt werden kann. Sie ent-
spricht der bekannten „Lernrate“ und wird im Intervall 0 < c < 1 festgelegt. Bei der
Lernrate handelt es sich um einen numerischen Wert, der den Lernprozess in einem NN
beeinflusst.
110 E. Karger et al.
Die Lernregel, die entsprechend dem jeweiligen Problem die Werte der Gewichts-
matrix variiert, wird in Gl. 1.3 dargestellt:
w(t + 1) = w(t) + �wund (1.3)
w = c ∗ vsm
Falls w(t) = 0, dann ist w(t + 1) = 0 für alle weiteren Lernschritte.
Da es sich bei SEN um ein Netzwerk handelt, das Prinzipien der Kognitionswissen-
schaft folgt, kann zusätzlich ein sog. „cue validity factor“ (cvf) berücksichtigt werden,
um eines oder mehrere Attribute in der Bedeutung für ein Modell, besonders hervorzu-
heben oder abzuschwächen. Die Gl. 1.3 wird dann zu Gl. 1.4 erweitert:
w = c ∗ woa ∗ cvfa (1.4)
einen Benutzer einfach zu bedienen ist, werden die Attribute als Fragen formuliert. Der
angegebene Wertebereich befindet sich zwischen 0 (nicht relevant) und 1 (sehr relevant)
mit Ausnahme der Transaktionen, die zwischen 0 und maximal 10.000 pro Sekunde
betragen können (Abb. 1).
In der semantischen Matrix werden die Zugehörigkeitsgrade der Attribute zu den
jeweiligen Objekten angegeben.
Im ersten Schritt ist es notwendig zu identifizieren, welcher Transaktionszugang
(öffentlich, privat oder hybrid) infrage kommt. Die Zuordnung ist zum Beispiel relativ
einfach, wenn ein öffentlicher Zugang benötigt wird, da in diesem Fall der Zugehörig-
keitsgrad zu dem Objekt „Erlaubnislos öffentlich“ 1.0 ist, hingegen zu dem Objekt
„Privat innerhalb der Organisation“ = 0.0.
Anschließend sind die Fragen von zentraler Bedeutung, die sich auf „Sicherheit“,
„Performanz“, Zentralisierung“, „Dezentralisierung“ oder Energieverbrauch beziehen,
da von deren Relevanz die Wahl eines geeigneten Konsensalgorithmus abhängt. Ent-
sprechend erfolgt die Bewertung in der semantischen Matrix differenziert und für die
Anzahl der Transaktionen werden die in Abschn. 1.1 genannte Werte für die Algorithmen
eingetragen, z. B. für den Konsensalgorithmus Raft 10.000 Interaktionen pro Sekunde.
Auf diese Weise ergibt sich einerseits die sog. „externe Topologie“ des SEN (Klüver
et al. 2021), damit ist die Verteilung der einzelnen Neuronen auf Schichten gemeint,
sowie andererseits die interne Topologie, d. h. die Gewichtsmatrix des SEN, die durch
die Lernregel aus der semantischen Matrix generiert wurde (Abb. 2).
In diesem SEN wird ausgenutzt, dass die Topologie je nach Anwendungsfall variiert
werden kann. Inhaltlich bedeutet diese Vorgehensweise, dass ein Benutzer nicht nur
die Information erhält, ob und falls ja, welcher Transaktionszugang in Betracht kommt,
sondern auch, welcher Konsensalgorithmus empfohlen wird.
112 E. Karger et al.
Abb. 2 Externe Topologie des SEN. Die Attribute, die Bestandteile der Blockchains
charakterisieren, werden auf die jeweiligen Objekte abgebildet, die den Transaktionszugang
repräsentieren. Diese sind anschließend die Attribute für die neun Konsensalgorithmen (Objekte)
in der nächsten Schicht
wichtig) und 1 (sehr wichtig) angeben kann (mit Ausnahme der notwendigen Trans-
aktionen). Dies bietet den Vorteil, dass der Benutzer seine Vorstellungen hinsicht-
lich der Anforderungen beliebig und auch subjektiv angeben kann. SEN klassifiziert
anschließend die Angaben nach der größten Ähnlichkeit zu den gelernten Daten.
Exemplarisch zeigen wir zunächst die Empfehlungen für drei Szenarien.
Szenario 1 „3.000 Transaktionen gewünscht“: Ein Benutzer gibt lediglich an, dass eine
gemeinsame Datenbasis notwendig ist, Drittpersonen ausgeschlossen werden sollen,
Interessenskonflikte vorliegen und 3000 Transaktionen erwünscht sind.
Szenario 2 „Performanz ist sehr wichtig, viele Transaktionen“ In diesem Fall werden
diverse Kriterien als relevant angegeben, insbesondere die Performanz und die Not-
wendigkeit von 10.000 Transaktionen.
Hat unter anderem die Sicherheit in einer privaten Blockchain eine sehr hohe
Priorität, dann wird als Konsensalgorithmus Tendermint in beiden Berechnungsmodi
empfohlen (Abb. 5).
Für das dritte Szenario erfolgt die Empfehlung aus Abb. 6.
In dem letzten Beispiel wird ein Aspekt aus dem genannten Blockchain-Trilemma
aufgegriffen. Wenn die Angaben des Benutzers denen aus dem dritten Szenario ent-
sprechen, mit dem Unterschied, dass der Energieverbrauch keine Rolle spielt und die
Sicherheit besonders wichtig ist, dann sieht die Empfehlung durch SEN wie in Abb. 7
aus.
SEN empfiehlt in dieser Konstellation jeweils Proof of Work als den besten Konsens-
algorithmus.
Zusammengefasst lässt sich anhand der Beispiele festhalten, dass ein Benutzer
anhand gezielter Fragen eine Unterstützung hinsichtlich des Transaktionszugangs und
der Konsensalgorithmen erhält, anhand individueller Kriterien und Bewertungen.
In den Szenarios wurde davon ausgegangen, dass die Beantwortung der Fragen
gewissenhaft erfolgt. Ist dies nicht der Fall und ein Benutzer gibt zum Beispiel bei allen
Fragen den Wert 1 und bei den Transaktionen 10.000 an, ergibt sich die Situation, dass
116 E. Karger et al.
Abb. 8 Ergebnis des SEN bei nicht adäquater Beantwortung der Fragen
im Ranking die Aktivierung negativ ist, während die Distanzen entsprechend sehr hoch
sind (Abb. 8).
1.3 Fazit
noch detaillierte und genauere Empfehlung über eine geeignete Blockchain, welche den
Anforderungen und Präferenzen des Nutzers entspricht. Durch den Aufbau von SEN
sind derartige Erweiterungen gut umsetzbar. Zudem erscheint eine Anbindung von SEN
an eine Benutzeroberfläche sinnvoll. Diese könnte über eine Webanwendung realisiert
und von Nutzern komfortabel zur Eingabe von Präferenzen und Informationen genutzt
werden. Die vom Nutzer eingegebenen Daten werden dann von SEN zur Empfehlung
einer geeigneten Blockchain genutzt. Dies erlaubt eine hohe Benutzerfreundlichkeit und
gestattet die Nutzung auch ohne tiefere Kenntnisse von SEN selbst.
Literatur
Abdo JB, Zeadally S (2021) Neural network-based blockchain decision scheme. Information
Security Journal: A Global Perspective 30(3):173–187
Alfrhan A, Moulahi T, Alabdulatif A (2021) Comparative study on hash functions for lightweight
blockchain in Internet of Things (IoT). Blockchain: Research and Applications 2(4):100036
Alsunaidi SJ, Alhaidari FA (2019) A Survey of Consensus Algorithms for Blockchain Technology.
2019 Inter Conf Comp Inf Sci (ICCIS), 1–6. https://doi.org/10.1109/ICCISci.2019.8716424
Bamakan SMH, Motavali A, Babaei Bondarti A (2020) A survey of blockchain consensus
algorithms performance evaluation criteria. Expert Syst Appl 154:113385. https://doi.
org/10.1016/j.eswa.2020.113385
Bashar G, Hill G, Singha S, Marella P, Dagher GG, Xiao J (2019) Contextualizing consensus
protocols in blockchain: a short survey. 2019 First IEEE International Conference on Trust,
Privacy and Security in Intelligent Systems and Applications (TPS-ISA), 190–195. https://doi.
org/10.1109/TPS-ISA48467.2019.00031
Baym N, Swartz L, Alarcon A (2019) Convening technologies: blockchain and the music industry.
Int J Commun 13:402–421
Bogart S, Rice K (2015) The blockchain report: welcome to the internet of value. Needham
Insights 5:1–10
Casey MJ, Wong P (2017) Global supply chains are about to get better, thanks to blockchain.
https://hbr.org/2017/03/global-supply-chains-are-about-to-get-better-thanks-to-blockchain
Chaudhry N, Yousaf MM (2018) Consensus algorithms in blockchain: comparative analysis,
challenges and opportunities. 2018 12th International Conference on Open Source Systems and
Technologies (ICOSST) 54–63. https://doi.org/10.1109/ICOSST.2018.8632190
Condos J, Sorrell WH, Donegan SL (2016) Blockchain technology: opportunities and risks. ver-
mont legislative reports. https://legislature.vermont.gov/assets/Legislative-Reports/blockchain-
technology-re-port-final.pdf
Diffie W, Hellman M (1976) New directions in cryptography. IEEE Transations on Information
Theory 22(6):644–654
Drescher D (2017) Blockchain Grundlagen. Eine Einführung in die elementaren Konzepte in 25
Schritten. Frechen, mitp (mitp Business)
Eigelshoven F, Ullrich A, Bender B (2020) Public blockchain – a systematic literature review on
the sustainability of consensus algorithms. 28th European Conference on Information Systems
(ECIS), 20
Esposito C, Ficco M, Gupta BB (2021) Blockchain-based authentication and authorization for
smart city applications. Inf Process Manage 58(2):102468
118 E. Karger et al.
Farshidi S, Jansen S, Espana S, Verkleij J (2020) Decision support for blockchain platform
selection: three industry case studies. IEEE Trans Eng Manage 67(4):1109–1128. https://doi.
org/10.1109/TEM.2019.2956897
Ferdous MS, Chowdhury MJM, Hoque MA, Colman AW (2020) Blockchain Consensus
Algorithms: A Survey. ArXiv: Distributed, Parallel, and Cluster Computing, 38
Franco P (2015) Understanding Bitcoin: Cryptography, Engineering and Economics. Chichester,
West Sussex Wiley
Hameed K, Barika M, Garg S, Amin MB, Kang B (2022) A taxonomy study on securing
Blockchain-based Industrial applications: An overview, application perspectives, requirements,
attacks, countermeasures, and open issues. J Ind Inf Integr 26:100312
Hao Y, Li Y, Dong X, Fang L, Chen P (2018) Performance Analysis of Consensus Algorithm in
Private Blockchain. 2018 IEEE Intelligent Vehicles Symposium (IV), 280–285. https://doi.
org/10.1109/IVS.2018.8500557
Hellwig D, Karlic G, Huchzermeier A (2021) Konsensmechanismen. In: Hellwig D, Karlic G,
Huchzermeier A (Hrsg) Entwickeln Sie Ihre eigene Blockchain: Ein praktischer Leitfaden zur
Distributed-Ledger-Technologie. Springer, Berlin, S 57–80
Himeur Y, Sayed A, Alsalemi A, Bensaali F, Amira A, Varlamis I, Eirinaki M, Sardianos C,
Dimitrakopoulos G (2022) Blockchain-based recommender systems: applications, challenges
and future opportunities. Computer Science Review 43:100439
Iansiti M, Lakhani KR (2017) The truth about blockchain. Harv Bus Rev 95(1):118–127
Kamble SS, Gunasekaran A, Kumar V, Belhadi A, Foropon C (2021) A machine learning based
approach for predicting blockchain adoption in supply Chain. Technol Forecast Soc Chang
163:120465
Kaur S, Chaturvedi S, Sharma A, Kar J (2021) A research survey on applications of consensus
protocols in blockchain. Security and Communication Networks 2021:1–22. https://doi.
org/10.1155/2021/6693731
Khan D, Jung LT, Ahmed Hashmani M, Waqas A (2020) A Critical Review of Blockchain Con-
sensus Model. 2020 3rd International Conference on Computing, Mathematics and Engineering
Technologies (ICoMET) 1–6. https://doi.org/10.1109/iCoMET48670.2020.9074107
Klüver C, Klüver J (Hrsg) (2021N) Neue Algorithmen für praktische Probleme. Variationen zu
Künstlicher Intelligenz und Künstlichem Leben. Springer Vieweg, Wiesbaden
Klüver C, Klüver J, Schmidt J (2021) Modellierung komplexer Prozesse durch naturanaloge Ver-
fahren. Künstliche Intelligenz und Künstliches Leben. Springer Vieweg, Wiesbaden
Kushwaha SS, Joshi S, Singh D, Kaur M, Lee HN (2022) Systematic review of security
vulnerabilities in ethereum blockchain smart contract. IEEE Access 10:6605–6621
Marr B (2018) A very brief History of blockchain technology everyone should read. Hg. v. Forbes.
https://www.forbes.com/si-tes/bernardmarr/2018/02/16/a-very-brief-history-of-blockchain-
technology-everyone-should-read/#33b428e7bc47
Meng Y, Nazir S, Guo UI (2021) A decision support system for the uses of lightweight blockchain
designs for P2P computing. Peer Peer Netw Appl 14(5):2708–2718
Merkle RC (1979) Secrecy, authentication, and public key systems: Doctoral Dissertation,
Standford, CA, USA
Mingxiao D, Xiaofeng M, Zhe Z, Xiangwei W, Qijun C (2017) A review on consensus algorithm
of blockchain. 2017 IEEE Int Conf Syst Man Cybern SMC 2567–2572. https://doi.org/10.1109/
SMC.2017.8123011
Monrat AA, Schelen O, Andersson K (2019) A survey of blockchain from the perspectives of
applications, challenges, and opportunities. IEEE Access 7:117134–117151. https://doi.
org/10.1109/ACCESS.2019.2936094
Nakamoto S (2008) Bitcoin: a peer-to-peer electronic cash system. https://bitcoin.org/bitcoin.pdf
Entscheidungsunterstützung zur Auswahl einer geeigneten … 119
Zhang S, Lee J-H (2020) Analysis of the main consensus protocols of blockchain. ICT Express
6(2):93–97. https://doi.org/10.1016/j.icte.2019.08.001
Zhou Q, Huang H, Zheng Z, Bian J (2020) Solutions to scalability of blockchain: a survey. IEEE
Access 8:16440–16455
Ziolkowski R, Miscione G, Schwabe G (2020) Decision problems in blockchain governance: old
wine in new bottles or walking in someone else’s shoes? J Manag Inf Syst 37(2):316–348.
https://doi.org/10.1080/07421222.2020.1759974
Zohar A (2015) Bitcoin: under the hood. Commun ACM 58(9):104–113
Neuronale Netzwerke (NN) haben in den letzten Jahren eine große mediale Aufmerk-
samkeit erlebt und werden durchaus kontrovers diskutiert. Nicht selten dreht es sich
um die Frage, ob Künstliche Intelligenz (KI) „Segen oder Fluch“ bedeutet, wobei nicht
weiter differenziert wird, was mit KI gemeint ist. KI wird nicht nur synonym für NN ver-
wendet, sondern auch für Deep Learning (DL) oder für das Maschinelle Lernen (ML),
wodurch häufig Missverständnisse oder sogar Skepsis entstehen.
Eine genaue Terminologie bzw. Klassifikation der Methoden ist im Kontext der
Transformation in das digitale Zeitalter nicht nur für Menschen wichtig, die mit solchen
Methoden arbeiten, sondern auch für technische Systeme, die zum Beispiel für eine auto-
matisierte Koordination verschiedener Methoden zuständig sein sollen.
Die entwickelten Methoden und deren Anwendungen sind durch interdisziplinäre
Forschungen entstanden, in denen nicht selten unterschiedliche Terminologien für den
gleichen Sachverhalt verwendet werden, oder umgekehrt, gleiche Begriffe, die jedoch
etwas anderes bedeuten können (Klüver und Klüver 2021a). Aus der Vielfalt mög-
licher Einteilungen wird in Abb. 1 der Forschungshintergrund, die Charakteristika der
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 121
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_8
122 C. Klüver und J. Klüver
Methoden sowie die Einsatzgebiete gezeigt. Diese Einordnung spielt für diesen Beitrag
eine wesentliche Rolle, da die Denk- und Vorgehensweise bei dem Einsatz neuronaler
Netzwerke anhand dieser Differenzierung erfolgen wird.
In Abb. 1 wird zwischen den Forschungsschwerpunkten und den Anwendungsfeldern
unterschieden. Die Forschungsgebiete der Künstlichen Intelligenz und des Künstlichen
Lebens beeinflussen sich gegenseitig, da beispielsweise die Erkenntnisse der Evolution
für kognitive Entwicklungen fruchtbar genutzt werden können.
Die Schwerpunkte der Forschungen lassen sich sehr vereinfacht ausgedrückt
beschreiben als die Rekonstruktion der Naturereignisse, des Lebens und der kognitiven
Prozesse, die durch Optimierungen, Anpassungen und Selbstorganisation charakterisiert
sind und die ebenso intelligentes Verhalten sowie Problemlösestrategien ermöglichen.
Das Wesentliche ist, dass die Methoden theorie- und modellorientiert sind.
In der Statistik, deren Methoden für empirische Beobachtungen konzipiert wurden
und die einen starken Einfluss auf das maschinelle Lernen haben, ist die Vorgehens-
weise problem- und modellorientiert, während beim maschinellen Lernen die Daten- und
Performanz-Orientierung vordergründig ist (VDI 2019; Klüver et al. 2021). Auf diese
Unterscheidung werden wir w.u. zurückgreifen.
Wie der Abb. 1 ebenfalls zu entnehmen ist, befassen sich unterschiedliche Fach-
disziplinen mit den gleichen Problemen wie Text- oder Spracherkennung, oder es werden
(auf den ersten Blick) die gleichen Methoden für unterschiedliche Probleme eingesetzt.
In Abb. 2 werden die bekanntesten Methoden und deren Zuordnung zu den Fach-
disziplinen aufgeführt. In diesem Beitrag ist lediglich die Einteilung Neuronaler Netz-
werke als Methode der (subsymbolischen) KI einerseits dargestellt und andererseits als
Chancen und Herausforderungen beim Einsatz neuronaler … 123
Abb. 2 Methoden der verschiedenen Fachdisziplinen. (vgl. VDI 2019, 6; erweitert in Klüver et al.
2021, 3)
Methode des ML, deren Variationen mit der Eigenschaft des „Tiefen Lernens“ (Deep
Learning) gekennzeichnet sind.
Unter dem Begriff subsymbolische KI ist gemeint, dass keine explizite Verarbeitungs-
regeln vorgegeben werden (VDI 2019); ähnlich wie im (menschlichen) Gehirn, entstehen
die Lösungsvorschläge durch die Verarbeitung der Informationen durch vernetzte Ein-
heiten (konnektionistischer Ansatz).
Die einleitende Frage, ob es einen Unterschied zwischen KI und ML gibt, kann
demnach nicht an dem Oberbegriff der Neuronalen Netzwerke festgemacht werden;
sinnvoller ist es, dies anhand der Vorgehensweise zu erläutern.
Die Unterscheidung zwischen theorie- und modellorientiertem Vorgehen (KI) sowie
daten- und performanzorientiertem (ML) gibt bereits eine Orientierung, wie Neuro-
nale Netzwerke eingesetzt werden. Die KI orientierte Anwendung ist danach bestrebt,
kognitive Prozesse zu erfassen und die entsprechenden Modelle zum Beispiel zur Ent-
scheidungsunterstützung einzusetzen. Die ML orientierte Anwendung basiert auf
(großen) Datenmengen, die von Menschen nicht mehr erfasst werden können, und auf
Performanz, also eine möglichst optimale Parameterwahl, die eine schnelle Erfassung
der Muster, Anomalien etc. ermöglicht. Somit ist die Vorgehensweise bei NN als
Methode der KI oder des ML ganz unterschiedlich.
Der Einsatz Neuronaler Netzwerke hängt demnach von dem erhofften Nutzen in
Unternehmen ab, und davon abhängig ist die Wahl einer geeigneten Infrastruktur sowie
der in Frage kommenden Netzwerke.
Um dies zu illustrieren, werden zwei Beispiele für die jeweilige Vorgehensweise
dargestellt. Als Methode wird jeweils ein Self-Enforcing Network (SEN) eingesetzt;
124 C. Klüver und J. Klüver
dabei handelt es sich um ein selbstorganisiert lernendes Netzwerk (s. Abschn. 2.1;
Karger et al., „Entscheidungsunterstützung zur Auswahl einer geeigneten Blockchain-
Technologie mit einem Self-Enforcing Network“). Da es hier um die Konkretisierung der
Vorgehensweise geht, wird auf Details verzichtet.
1 Die Weiterentwicklung des Projektes wird vom Bundesministerium für Digitales und Verkehr für
drei Jahre gefördert.
Chancen und Herausforderungen beim Einsatz neuronaler … 125
Abb. 3 Modellentwicklung zur Entscheidungsunterstützung. (vgl. Zinkhan et al. 2021, 407 leicht
modifiziert)
Als Ergebnis wird gezeigt, wie die Daten durch SEN strukturiert werden. SEN lernt
die Daten (Zuordnung der Messdaten an verschiedenen Tagen zu der jeweiligen Station)
vom 01.12.2021 bis zum 10.12.2021 (insgesamt 240 Datensätze, die die Informationen
aus Tab. 1 enthalten). Die Daten vom 01.01.2021 bis zum 30.11.2021 (insgesamt 8016
Messdaten) wurden als neue Inputvektoren in SEN importiert.
2 https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/subdaily/
wind/
126
Abb. 4 Ergebnis der Clusterung der Wind-Daten für das Jahr 2021. Die (roten) Kreuze repräsentieren die Lerndaten, die (blauen) Kreise die neuen
Inputvektoren. Links ist die Clusterung mit der Normalisierung der Daten zwischen −1 und 1, rechts zwischen 0 und 1
C. Klüver und J. Klüver
Chancen und Herausforderungen beim Einsatz neuronaler … 127
Zunächst muss festgehalten werden, dass es nicht „das“ Neuronale Netzwerk gibt.
NN können als „Rahmen-Algorithmen“ verstanden werden, die teilweise zusätzlich
mit Funktionsschichten oder -Zellen angereichert werden, um komplexe Probleme
bearbeiten zu können. Entsprechend gibt es in der Zwischenzeit, wie bereits erwähnt,
128 C. Klüver und J. Klüver
Funktionen
Ein Neuron, das die Informationen an andere Neuronen weiterleitet, wird als sendendes
Neuron bezeichnet; ein empfangendes Neuron verwendet verschiedene Funktionen für
die Verarbeitung der Informationen. Die Berechnung eines sog. „Nettoinputs“ erfolgt
dadurch, dass alle ankommenden Informationen der sendenden Neuronen aufsummiert
werden; anschließend wird über eine „Aktivierungsfunktion“ berechnet, wie hoch die
tatsächliche Aktivierung sein soll; das bedeutet, dass die Aktivierung eines Neurons ein-
geschränkt werden kann, so dass dessen Wert z. B. nicht höher als 1.0 ist. Diese Funktion
ist in NN besonders wichtig. Schließlich wird über die „Ausgabefunktion“ bestimmt,
Abb. 5 Vereinfachte Darstellung eines natürlichen (linke Seite) und eines formalen Neurons
(rechte Seite) (Klüver et al. 2021, 174), erweitert um das Ergebnis eines Lernprozesses
Chancen und Herausforderungen beim Einsatz neuronaler … 129
welcher Wert an andere Neuronen weitergegeben wird, oder, falls es sich um ein Aus-
gabeneuron y handelt, welcher Wert als Ergebnis ausgegeben wird.
Damit wird die Informationsverarbeitung innerhalb eines NN beschrieben, jedoch
nicht dessen besondere Fähigkeit, nämlich die des Lernens. Im unteren Teil der Abb. 5
wird gezeigt, dass eine Verbindung zwischen zwei Neuronen sehr dick ist. Dies bedeutet
eine durch „Lernen“ generierte starke Verbindung der beiden Neuronen, z. B. für
logische oder semantische Zusammenhänge. Die entsprechende Veränderung erfolgt
im biologischen Vorbild, nämlich dem Gehirn, über bio-chemische Prozesse, in einem
künstlichen NN über spezifische Lernregeln.
Das Lernen in NN
Das Charakteristikum für die Lernfähigkeit bei NN besteht in einer besonderen Eigen-
schaft, nämlich die Veränderung der eigenen Topologie: Verbindungen können durch
Lernprozesse entstehen oder gekappt werden; zusätzlich wird anhand der speziellen
Lernregeln die Intensität der Verbindungen eigenständig verändert.
Die Lernregeln orientieren sich an klassischen Lernformen und werden in drei Haupt-
kategorien eingeteilt: Überwachtes, bestärkendes und selbstorganisiertes (nicht-über-
wachtes) Lernen (VDI 2019; Klüver et al. 2021).
Ein Netzwerk lernt „überwacht“, wenn dem Netzwerk die (erwarteten) Klassen oder
die Zielmuster mitgeteilt werden. Anhand der Lernregel wird zunächst die Differenz
zwischen „soll und ist“ berechnet und anschließend mit der sog. „Lernrate“ multipliziert.
Bei der Lernrate, ein Parameter, der in NN äußerst wichtig ist, handelt es sich um einen
numerischen Wert, der die Lerneffizienz beeinflusst. Der so berechnete Fehler sorgt für
eine Korrektur der jeweiligen Verbindungsgewichte.
Bei dem „bestärkenden“ Lernen wird dem Netzwerk jeweils mitgeteilt, ob das Ergeb-
nis besser oder schlechter ist und das Verhalten wird (im behavioristischen Sinne)
belohnt oder bestraft. Da die Netzwerke auf diese Weise eine sehr lange Trainingszeit
benötigen, wird diese Lernform überwiegend in hybriden Systemen eingesetzt; damit
ist die Koppelung verschiedener Netzwerke oder Algorithmen gemeint. Die aktuell
bekannteste Form solcher Koppelungen sind Agentensysteme oder Roboter, die mit NN
gekoppelt werden, um deren jeweilige Lerneffizienz zu steigern.
Die selbstorganisiert lernenden Netzwerke, auch als nicht-überwacht bezeichnet,
erhalten keine Ziele und auch keine unmittelbare Rückmeldung. Diese NN lernen
und bilden die Daten nach Ähnlichkeitskriterien ab und werden insbesondere für
die Clusterung und Klassifizierung von Daten eingesetzt. Die Lernregel ist meistens
kompetitiv und wird als „winner-take-all“ bezeichnet.
Diese grundlegenden Konzepte werden variiert und miteinander kombiniert, um
komplexe Probleme lösen zu können.
Im Folgenden werden allgemein die Gemeinsamkeiten und Unterschiede aufgezeigt
zwischen klassischen NN und solchen, die als „Deep Learning“ bezeichnet und über-
wiegend als Methode des Maschinellen Lernens eingesetzt werden. Da in der Praxis
überwacht-lernende Netzwerke dominieren, beziehen sich die Hinweise auf diesen Lern-
typus.
130 C. Klüver und J. Klüver
Die unterschiedlichen NN-Typen lassen sich anhand der Architektur (externe Topo-
logie) und insbesondere durch deren zusätzlichen „Funktionsschichten“ oder „Funktions-
zellen“ unterscheiden (Klüver et al. 2021). Das klassische MLP besteht aus mindestens
drei Schichten (Eingabe-, Zwischen und Ausgabeschicht), wobei die Informationen
vorwärtsgerichtet (feed forward) von der Eingabeschicht zur Ausgabeschicht weiter-
geleitet werden (Abb. 6).
Diese Netzwerke haben eine lange Tradition und werden nach wie vor vielfältig
eingesetzt, zum Beispiel für Zeitreihen-, Datenanalysen, (medizinische/technische)
Prognosen (z. B. Wijayaningrum et al. 2021), Regressionsanalysen oder Schätzung von
Metallelementen im Boden (Li et al. 2022). Für Textklassifizierungen zeigen Galke und
Scherp (2021), dass diese auf Grund neuester Entwicklungen nicht in Vergessenheit
geraten sollten.
Abb. 6 Im Zentrum befindet sich die Architektur (externe Topologie) eines MLP. Oberhalb und
unterhalb werden Funktionsschichten bzw. Funktionszellen dargestellt. (vgl. Klüver et al. 2021)
Chancen und Herausforderungen beim Einsatz neuronaler … 133
Autoencoder
Die besondere Fähigkeit der Autoencoder besteht darin, die Eingabedaten so gut zu
komprimieren, dass sie anschließend wieder reproduziert werden können. Für die Netz-
werke sind zwei zusätzliche (Funktions-)Schichten wichtig: In der Encoder-Schicht
werden wesentliche Merkmale (latente Repräsentationen) gelernt; die Dekomprimierung,
also die Reproduzierung der Eingabedaten, erfolgt in der Decoder-Schicht.
Diese Netzwerke werden mitunter als „selbst-überwacht“ bezeichnet, da der
Inputvektor „intern kopiert“ wird (also nicht von außen vorgegeben) und somit dem
Netz als „Zielvektor“ dient. Der Lernprozess mit der Backpropagation-Lernregel besteht
darin, den Fehler in der latenten Repräsentation zu minimieren (Singh und Ogunfunmi
2022).
Zwischenzeitlich gibt es zahlreiche Variationen und Erweiterungen und insbesondere
„hybride Ansätze“ wie die Koppelung der Autoencoder mit CNN oder LSTM (z. B.
Gauger et al. 2022; Singh und Ogunfunmi 2022).
Überwiegend ist das „Rahmennetzwerk“ nach wie vor das Multi-Layer-Perceptron
(MLP), angereichert durch zusätzliche Schichten und/oder Zellen, die jeweils mit-
einander kombiniert werden, um große Datenmengen bewältigen zu können.
Es sind, Dank der fortgeschrittenen Technik, in verschiedenen Bereichen Erfolge
erzielt worden, der Preis dafür ist jedoch die Erhöhung der Komplexität, da zusätzliche
Berechnungen, Funktionen, Optimierer etc. Teile des Netzwerkes werden, wodurch das
Training dieser Netzwerke und die Interpretation der Ergebnisse nicht einfach sind.
Um einen kleinen Eindruck zu vermitteln, welche Probleme mit NN bearbeitet
werden, zeigen wir eine Auswahl an Architekturen und exemplarisch deren Einsatz-
gebiete.
3 Ursprünglich bezog sich der Begriff Rekurrenz auf den Informationsfluss innerhalb eines Netz-
werkes.
134 C. Klüver und J. Klüver
Im Folgenden orientieren wir uns erneut an der Unterscheidung zwischen theorie- und
modellorientierten NN-Typen und Architekturen, die große Datenmengen verarbeiten
können und zu den ML-Methoden gehören.
4 DieHebbsche Lernregel ist für alle neuronale Netzwerke fundamental und findet sich in allen
Lernregeln wieder.
Chancen und Herausforderungen beim Einsatz neuronaler … 135
Abb. 7 Kleine Übersicht theorie- und modellorientierter NN-Architekturen. (Katal und Singh
2022, 246 (Hopfield); Brito da Silva et al. 2019, 3 (ART); Klüver et al. 2021, 216 (SOM), vgl.
Yorek et al. 2016, 3)
Convolutional Layer eine wichtige Rolle und das Besondere ist, dass es sich um vor-
trainierte Netzwerke handelt, die für andere Probleme angepasst werden. Damit kann die
Trainingszeit signifikant verkürzt werden.
Das Konzept rekurrenter Netzwerke ist insbesondere wichtig, wenn Informationen
in der Zeit berücksichtigt werden sollen. Dieses Verfahren wird in LSTM verfeinert und
erweitert ausgenutzt.
Bei den folgenden Netzwerkarchitekturen in Abb. 9 handelt es sich um gekoppelte
(hybride) Systeme, die eine Mischform zwischen überwachtem und unüberwachtem
Lernen aufweisen. Diese unüberwachte Form des Lernens entspricht dem des
maschinellen Lernens (Welsch et al. 2018; Richter 2019), das auf statistischen Lernver-
fahren basiert und nicht dem selbstorganisierten Lernen in Abschn. 2.1 entspricht.
136 C. Klüver und J. Klüver
Abb. 8 Überwacht-lernende Netzwerke. (VDI 2019, 10 und Thiemermann et al. 2021, 330
(CNN); Klüver et al. 2021, 206 und 234 (LSTM und ResNet); Wikipedia.org (RNN))
Die Variational Autoencoder (AE) sind eine Erweiterung der in Abschn. 2.2
erwähnten Autoencoder, indem zusätzlich Wahrscheinlichkeitsverteilungen bei der
latenten Repräsentation berücksichtigt werden (Singh und Ogunfunmi 2022). Diese
können nicht nur Daten komprimieren und dekodieren, sondern ebenso neue Inhalte
generieren, die den bereits gelernten ähneln.
Für die Generierung neuer, insbesondere synthetischer Daten, haben sich die
Generative Adversial Networks (GAN) bewährt. Diese werden unter anderem für die
Chancen und Herausforderungen beim Einsatz neuronaler … 137
Abb. 9 Hybride Netzwerkarchitekturen. (Nach Mohammadi et al. 2018). Bei den beiden
umrandeten Architekturen handelt es sich nicht um neuronale Netzwerke im strengen Sinne
Erste mögliche Option Das Vorgehen zur Erstellung eines solchen Unterstützungssystems
kann sehr unterschiedlich sein. Zum einen können verschiedene Algorithmen eingesetzt
werden, um automatisiert Texte im Internet zu suchen, die Anwendungen neuronaler
Netzwerke beinhalten. Diese gefundenen Dokumente können durch Spracherkennungs-
algorithmen analysiert werden. Die in Frage kommenden Texte werden weiterhin ana-
lysiert, selektiert und kodiert, um die Trainingsdaten für ein NN zu erhalten.
Chancen und Herausforderungen beim Einsatz neuronaler … 139
Da die Datenmenge je nach Suchanfrage sehr hoch ist (nur für die Suchanfrage
„Neuronale Netze für die Bilderkennung“ wurden Anfang des Jahres 2022 bei Google
Scholar 1270 Dokumente gefunden; für „neural networks for image recognition“ waren
es 2.190.000), bietet sich für das Training des Entscheidungssystems zum Beispiel die
Koppelung von AE, CNN und LSTM an. Grundsätzlich bieten sich ebenso andere Netz-
werktypen an, die in diesem Beitrag nicht thematisiert werden.
Nach dem Training eines Netzwerkes, das eine Zuordnung der NN-Eigenschaften auf
entsprechende Netzwerktypen lernt, kann ein Benutzer (als neuer Eingabevektor) seine
Anfrage hinsichtlich seines Interesses stellen und eine Netzwerk-Empfehlung für einen
Anwendungsfall erhalten.
Dies ist ein sehr komplexer und langwieriger Weg, ganz zu schweigen von den
Kosten, denn dieser Prozess muss für alle möglichen Anwendungen durchlaufen werden.
Diese Option ist jedoch zum Beispiel bei der Analyse sozialer Netzwerke interessant,
sofern ein Unternehmen einen Mehrwert in solchen Analysen sieht.
Zweite mögliche Option Eine andere Option besteht darin, dass Experten eine Ein-
schätzung der Eignung von Netzwerktypen für verschiedene Anwendungen abgeben.
Daraus wird ein Modell entwickelt und einem Netzwerk als Trainingsmenge präsentiert.
Anschließend kann ein Benutzer erneut seine Suchanfrage stellen.
Das entstandene Modell kann mit verschiedenen Netzwerken getestet werden (z. B.
SOM oder MLP). In Abb. 10 zeigen wir die Ergebnisse mit einem zweischichtigen über-
wacht-lernenden Netzwerk (unter Anwendung der Delta-Lernregel) und dem selbst-
organisiert lernenden Netzwerk SEN.
Die Netzwerke haben die Zuordnung von 27 Merkmalen und Anwendungsgebieten
zu einer Auswahl an Netzwerktypen gelernt. Anschließend erfolgt nach einer Anfrage,
in unserem Beispiel „Bilderkennung mit großen Datenmengen“ die Empfehlung eines
Netzwerkes.
Beide Netzwerke empfehlen in diesem Fall ein CNN, da es sich um große Daten-
mengen handelt. Entsprechend können verschiedene Anwendungsfälle nach dem
Trainingsprozess eingegeben werden, um eine Empfehlung zu erhalten.
Diese Option verbraucht weniger Ressourcen und bietet sich an, wenn innerhalb eines
Unternehmens ein entsprechendes Know-How vorliegt oder Externe befragt werden
können und die Datenmenge überschaubar ist.
Ein und dasselbe Problem kann demnach methodisch ganz unterschiedlich gelöst
werden, der jeweilige algorithmische Aufwand und Ressourcenverbrauch ist jedoch
nicht vergleichbar. Aus diesem Grund stellt sich immer die Frage nach dem unter-
nehmerischen Mehrwert.
140
Abb. 10 Links die Empfehlung eines überwacht-lernenden zweischichtigen Netzwerkes, rechts die Empfehlung durch SEN, in diesem Beispiel mit
der sog. SEN-Visualisierung. Je näher ein Netzwerktypus zum Zentrum angezogen wird, desto größer die Übereinstimmung zu der Suchanfrage
C. Klüver und J. Klüver
Chancen und Herausforderungen beim Einsatz neuronaler … 141
In der beruflichen Praxis werden wir sehr häufig damit konfrontiert, dass neuronale
Netze eine gewisse Faszination auslösen, die Funktionsweise jedoch nicht ganz einfach
zu verstehen ist. Die verwirrende Vielfalt an Netzwerktypen, Parametern, Optimieren
und zusätzlichen Algorithmen führen erst recht dazu, dass eine intensive Auseinander-
setzung mit der Materie unumgänglich ist – und damit leider die Faszination eher der
Resignation Platz macht.5
Weitere Erfahrungen zeigen, dass in Unternehmen eine gewisse Unsicherheit vor-
herrscht, ob unbedingt riesige Datenmengen vorliegen müssen (Big Data) oder „nur“
mehrere Gigabyte ausreichen, um eine KI sinnvoll einzusetzen.
Geht es um Sicherheitsaspekte wird es noch schwieriger, denn da stellt sich die Frage,
ob man einer KI oder NN vertrauen kann, wenn nicht nachvollziehbar ist, wie diese
zu einem Ergebnis kommen. Wie kann also sichergestellt werden, dass die Netzwerke
Sicherheitslücken rechtzeitig aufdecken?
Diese Fragen können nur individuell beantwortet werden, da es keine Pauschalaus-
sagen oder Patentrezepte geben kann. Es sei nur angemerkt, dass die Datenmenge für
ein KI-orientiertes Modell im oben definierten Sinne nicht ausschlaggebend ist; sind
umgekehrt sehr viele Datenmengen vorhanden (Big Data), dann müssen nicht nur die
Netzwerke eine entsprechende Leistung erbringen können (ML-orientierter Ansatz),
sondern auch die Hardware – und damit verbunden, muss eine passende Infrastruktur
vorliegen. Somit sind zunächst einige Herausforderungen zu berücksichtigen.
Herausforderungen
In der aktuellen Diskussion um Digitalisierung und KI im Allgemeinen werden gerade für
KMU in der Literatur etliche Herausforderungen als auch Chancen angesprochen (z. B.
Haarmeier 2021; Aichele und Herrmann 2021; Axmann und Harmoko 2021; Mockenhaupt
2021; Pohlink und Fischer 2021; Gauger et al. 2022; Schneider 2022; Hartmann 2022).
An dieser Stelle sollen lediglich einige Aspekte angesprochen werden.
5 Die komplexen Berechnungen in vielen neuronalen Netze haben uns veranlasst, SEN zu
konzipieren, da es unwahrscheinlich ist, dass das Gehirn zum Beispiel die Verknüpfungen per
Zufall generiert oder komplizierte Berechnungen durchgeführt werden.
6 Es ist z. B. erstaunlich wie viele Schreibweisen für die Stadt Köln in einer Datenbasis zu finden
waren.
142 C. Klüver und J. Klüver
Infrastruktur Es gibt zahlreiche Frameworks und Bibliotheken, die den Einsatz von
neuronalen Netzwerken als Methode des maschinellen Lernens erleichtern; deren
Nutzung erfordern jedoch eine sehr gute Fachkompetenz und eine entsprechende Infra-
struktur (VDI 2020). Somit ist der unternehmerische Mehrwert, der zum Beispiel über
Leistungskennzahlen ermittelt werden kann, von entscheidender Bedeutung.
Vorgehensweise
Für die Darstellung der Vorgehensweise bei der unternehmerischen Einführung neuro-
naler Netzwerke als Methode des maschinellen Lernens folgen wir der Empfehlung
des VDI (2020; vgl. Reinhart et al. 2018); diese wird für den Einsatz als KI-orientierte
Methode generalisiert Abb. 11.
Typische Phasen eines ML- oder KI-Projektes. Im Verantwortungsbereich des Unter-
nehmens sollten alle in grau gekennzeichneten Phasen bleiben; die anderen Phasen
(schraffiert) können mit externen Experten realisiert werden (VDI 2020, 21).
Die Identifikation eines Anwendungsfalls fällt je nach Ausrichtung des Unternehmens
unterschiedlich aus. Für ein produzierendes Unternehmen, in dem hochentwickelte
technische Maschinen eingesetzt werden, dürfte es eher naheliegend sein, NN für die
Überprüfung der Qualität einzusetzen. Dies gilt auch für die Überwachung von Sensor-
daten.
Für beratende Dienstleistungsunternehmen dürfte es schwieriger sein, sich zu über-
legen, in welchem Maße NN eingesetzt werden können. Hier spielen Aspekte wie
Erfahrung, Intuition und Einschätzungsfähigkeit einer sozialen Situation eine wichtige
Rolle, Fähigkeiten also, die einer Maschine nicht zugetraut werden.
Abb. 11 Vorgehensweise bei der unternehmerischen Einführung. (vgl. VDI 2020, 21)
Die Phasen „Erhebung der Trainingsdaten“ bzw. „Experten einbinden“ und „Kate-
gorisierung der Trainingsdaten“ bzw. „Modellentwicklung“ weisen auf die unterschied-
liche methodische Vorgehensweise hin (Abschn. 1) beim Einsatz von NN. In beiden
Fällen sind unternehmerische Fachkenntnisse erforderlich. Mit Experten sind Mitarbeiter
gemeint, deren spezifisches Fachwissen für die Entwicklung des KI-Modells erforder-
lich ist (s. Beispiele zur Auswahl einer geeigneten Landebahn oder eines geeigneten
Netzwerktypus). Dieses Expertenwissen kann auch für Modelle genutzt werden, die
kognitive, soziale Fähigkeiten sowie Erfahrungswissen voraussetzen.
Die weiteren Phasen sind, wie der Abb. 11 zu entnehmen ist, sehr ähnlich, die
Validierung im Falle der KI-Modellierung muss nicht nur hinsichtlich der Leistungs-
fähigkeit des neuronalen Netzwerkes, sondern auch hinsichtlich des entwickelten
Modells erfolgen.
Die zyklische Überprüfung des Systems ist in beiden Fällen wichtig, da neue Daten
auch einen Einfluss auf das jeweilige NN-Ergebnis haben können. Somit ist davon aus-
zugehen, dass die NN-Modelle angepasst werden müssen.
Chancen
Während die Herausforderungen für alle Ausrichtungen der KMU sehr ähnlich sind,
sind die Vorteile nicht allgemein einzuschätzen. Einige Anregungen können helfen,
Anwendungsmöglichkeiten zu identifizieren.
In produzierenden Unternehmen, bei denen es zum Beispiel um die Qualitätsprüfung
der Produkte geht, ist der Einsatz neuronaler Netzwerke von großem Vorteil. Die Über-
prüfung ist durch Menschen allein schon durch die Geschwindigkeit in der Produktion
144 C. Klüver und J. Klüver
nicht zu bewältigen. Darüber hinaus lassen sich auch Anomalien leichter erkennen (VDI
2020).
Im Bereich der Personalplanung werden neuronale Netze schon seit einigen Jahren
in verschiedenen Kontexten (auch kritisch) diskutiert. Durch die Digitalisierung werden
neue Potentiale aufgezeigt (Roedenbeck et al. 2021; Loscher 2021; Klüver und Klüver
2021a; Jing et al. 2022).
Allgemein kann festgehalten werden, dass NN mit der Fähigkeit des Deep Learning
für Bild- und Textbearbeitung, Zeitreihen und Prognosen als Unterstützungsinstrument
eingesetzt werden können. Die Vorteile sind allerdings realistisch einzuschätzen, da die
Leistungsfähigkeit einiger Grenzen unterliegen.
Um weitere Potentiale zu erschließen sind insbesondere die Bereiche zu untersuchen,
für die es keine Unterstützungssysteme gibt – für die Bereiche demnach, in denen Mit-
arbeiter nach dem „Bauchgefühl“ entscheiden müssen oder für die Standardalgorith-
men nicht geeignet sind. Ebenso dienen diese als Unterstützung für Entscheidungen, die
subjektiven Kriterien unterliegen. Anhand der Ergebnisse können ggf. Präzisierungen
z. B. bei der Klasseneinteilung vorgenommen werden. In Klüver und Klüver (2021a, b)
werden einige Einsatzmöglichkeiten im betrieblichen Kontext gezeigt.
5 Fazit
Es wird angenommen, dass durch die Digitalisierung sehr viele zusätzliche Daten zur
Verfügung stehen werden, die in vielfältiger Weise genutzt werden können, um die
Wertschöpfungskette zu verbessern. In der aktuellen Diskussion wird ebenso die Not-
wendigkeit einer neuen Führung (Digital Leadership) oder eines agilen Projekt-
managements diskutiert (Landes et al. 2022; Roth und Corsten 2022; Schneider 2022).
Gerade auf diesem Gebiet können neuronale Netzwerke als KI-Methode fruchtbar ein-
gesetzt werden. Gemeinsam mit Mitarbeitern können innerbetriebliche Modelle ent-
wickelt werden, die als Entscheidungsunterstützung eingesetzt werden. Zugleich besteht
die Chance, eine Transparenz zu schaffen, die zu einer erhöhten Mitarbeiterzufriedenheit
führt.
Das Ziel dieses Beitrags ist die Vermittlung eines grundlegenden Verständnisses des
vielfältigen Gebiets der NN. Deswegen haben wir bewusst darauf verzichtet, alle kaum
noch überschaubaren Einzelheiten genau zu erklären; insbesondere sind die formal-
mathematischen Details hier nicht dargestellt. Die entsprechenden Literaturhinweise
füllen diese Lücken (hoffentlich) aus. Es ging uns auch um einen Orientierungsrahmen
in dem Sinn, dass Interessenten an NN hier erste Informationsmöglichkeiten erhalten,
wie ihre Probleme durch den Einsatz von NN erfolgreich bearbeitet werden können.
Insofern geht es, metaphorisch gesprochen, um einen ersten Ausblick in eine (noch)
unbekannte Landschaft.
Chancen und Herausforderungen beim Einsatz neuronaler … 145
Literatur
Adate A, Tripathy BK (2022) A survey on deep learning methodologies of recent applications. In:
Acharjya DP, Mitra A, Zaman N (Hrsg) Deep learning in data analytics. Studies in big data, Bd
91. Springer, Cham. https://doi.org/10.1007/978-3-030-75855-4_9
Aichele C, Herrmann J (Hrsg) (2021) Betriebswirtschaftliche KI-Anwendungen. Springer Vieweg,
Wiesbaden. https://doi.org/10.1007/978-3-658-33532-8
Axmann B, Harmoko H (2021) Herausforderungen bei der Einführung neuer digitaler Techno-
logien bei KMU Teil 1: Am Beispiel der Künstlichen Intelligenz. Z Wirtsch Fabr 116(4):269–
271
Bazarbaev M, Chuluunsaikhan T, Oh H, Ryu G-A, Nasridinov A, Yoo K-H (2022) Generation
of time-series working patterns for manufacturing high-quality products through auxiliary
classifier generative adversarial network. Sensors 22(1)
Botvinick M, Wang JX, Dabney W, Miller JM, Kurth-Nelson Z (2020) Deep reinforcement
learning and its neuroscientific implications. Neuron 107(4):603–616. https://doi.org/10.1016/j.
neuron.2020.06.014
Brito da Silva LE, Elnabarawy I, Wunsch DC (2019) A survey of adaptive resonance theory neural
network models for engineering applications. Neural Netw 120:167–203
Cisek G (2021) Machtwechsel der Intelligenzen. Springer Wieweg, Wiesbaden. https://doi.
org/10.1007/978-3-658-31863-5
Deutscher Wetterdienst (2021) https://opendata.dwd.de/climate_environment/CDC/observations_
germany/climate/subdaily/wind/. Zugegriffen: 10. Dez. 2021
Ertel W (2021) Neuronale Netze. In: Ertel W (Hrsg) Grundkurs Künstliche Intelligenz: Eine
praxisorientierte Einführung. Springer Fachmedien Wiesbaden, Wiesbaden, S 285–349
Galke L, Scherp A (2021) Forget me not: A gentle reminder to mind the simple multi-layer
perceptron baseline for text classification. arXiv preprint arXiv:2109.03777
Gauger I, Nagel T, Huber M (2022) Hybrides Maschinelles Lernen im Kontext der Produktion. In:
Hartmann EA (Hrsg) Digitalisierung souverän gestalten II. Handlungsspielräume in digitalen
Wertschöpfungsnetzwerken. Springer, Heidelberg, S 64–79
Ghojogh B, Ghodsi A, Karray F, Crowley M (2021) Restricted boltzmann machine and deep belief
network: tutorial and survey. arXiv preprint arXiv:2107.12521
Goodfellow I, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, Courville A, Bengio
Y (2020) Generative adversarial networks. Commun ACM 63(11):139–144. https://doi.
org/10.1145/3422622
Grätz A (2021) Schutz des Systems – Künstliche Neuronale Netze. In: Grätz A (Hrsg) Künstliche
Intelligenz im Urheberrecht: Eine Analyse der Zurechnungskriterien und der Prinzipien der
Verwandten Schutzrechte vor dem Hintergrund artifizieller Erzeugnisse. Springer Fachmedien
Wiesbaden, Wiesbaden, S 45–72
Grossberg S (2021) A unified neural theory of conscious seeing, hearing, feeling, and knowing.
Cogn Neurosci 12(2):69–73. https://doi.org/10.1080/17588928.2020.1839401
Haarmeier M (2021) Künstliche Intelligenz für den Mittelstand: Erfolgreiche Einführung und
Nutzung von KI-Anwendungen in Unternehmen. Springer Fachmedien Wiesbaden, Wiesbaden
146 C. Klüver und J. Klüver
1 Einführung
Deutschland gilt als Land der KI-Skeptiker und führt den weltweiten Vergleich damit an.
Laut einer Studie des DIW und der TU Berlin sind 34 % der Deutschen der Meinung,
dass KI negative Auswirkungen auf die Gesellschaft haben wird, die heute noch nicht
voraussehbar sind (Giering et al. 2021).
Diese Skepsis schlägt sich auch im deutschen Mittelstand nieder, indem Unternehmen
bisher noch davor zurückschrecken KI in ihre Prozesse einzubauen. Zu groß ist noch die
Unbekanntheit der Technologie und zu unberührt sind Synergiefelder, welche entstehen,
wenn die Künstliche Intelligenz auf den Mittelstand trifft.
Mit Blick auf internationale Entwicklungen und branchenübergreifende Fortschritte
besteht jedoch die Gefahr, dass durch diese abwartende Haltung des Mittelstands irrever-
sible Wettbewerbsnachteile entstehen. Diese besitzen das Potenzial deutsche KMUs
zurückzuwerfen und die deutsche Wirtschaft nachhaltig zu schwächen. Denn durch eine
V. Just (*)
Hamburg, Deutschland
E-Mail: [email protected]
V. Roth
Weinstadt, Deutschland
E-Mail: [email protected]
E. Singer
neusinger GmbH, Frankfurt am Main, Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 151
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_9
152 V. Just et al.
2 Status Quo
„KI ist eine relativ neue Technologie und es gibt täglich neue Entwicklungen und
Forschungsergebnisse. KI-Startups können sich auf spezielle Themenbereiche fokussieren
und daher schnell neue Anwendungen implementieren und Ergebnisse liefern. Daher
sind KI-Startups eine treibende Innovationskraft und ein zentraler Erfolgsfaktor für die
Anwendung von KI in allen Bereichen der Wirtschaft und Verwaltung“
Jörg Bienert, Vorstandsvorsitzender KI Bundesverband
Wie vorausgehend dargelegt prägt Künstliche Intelligenz schon heute unser Leben,
nicht nur im gesellschaftlichen, sondern auch im unternehmerischen Umfeld – sei es
in Form von Sprachassistenten, Navigationssystemen, Smart Home oder Bildanalyse-
verfahren zur Diagnose von Krankheiten. Grundsätzlich kann festgehalten werden: Das
Potenzial von KI ist enorm und noch weitestgehend unausgeschöpft, obwohl sie einen
maßgeblichen Innovationsbeitrag leisten kann. Es ist jedoch wichtig die Potential-
betrachtung auch in den Kontext zu bestehenden rechtlichen, ethischen und sozialen
Fragen zu stellen. Gerade da KI maßgeblich Einfluss auf Geschäftsmodelle, aber auch
Arbeitswelten nehmen wird, sodass bestehende Berufsbilder und Arbeitsinhalte einem
Wandel unterworfen sein werden und bereits sind (Expertenkommission Forschung und
Innovation 2021).
Dass dieser Wandel viele positiven Aspekte hat, wird vor allem im Hinblick auf Syn-
ergien zwischen KI-Startups und der etablierten Wirtschaft deutlich. Die Kooperation
wird als Win–Win-Chance betrachtet. Auf der einen Seite sehen KI-Startups ein enormes
Potenzial in der Kooperation mit etablierten Unternehmen in Deutschland in finanzieller
und innovativer Hinsicht. So kooperieren bereits 72 % der KI-Startups laut einer
Umfrage mit etablierten Unternehmen. Dabei werden 77 % der Umsätze in diesem B2B
Bereich erwirtschaftet. Diese Quote liegt deutlich über dem allgemeinen Startup-Trend,
welche nur 69 % in B2B Geschäften ihren Umsatz erzielen (Hirschfeld et al. 2021).
Eine solche Kooperation mit Unternehmen ist jedoch nicht nur finanziell spannend für
KI-Startups, sondern auch im Hinblick auf die Verbesserung der KI-Modelle. So können
hochklassige Unternehmensdaten die Weiterentwicklung ihrer Lösungen deutlich voran-
bringen – wovon dann wieder die Unternehmen profitieren. Gerade in industriellen
Prozessen fallen große Mengen an Daten an, die durch KI nutzbar gemacht werden
können.
Dies erkennen mittlerweile immer mehr Unternehmen und setzen vermehrt auf KI.
Zwar setzen 2021 nur 8 % der deutschen Unternehmen auf KI, dies ist jedoch ein erheb-
licher Anstieg zu 2019 (2 %). Einen Einsatz planen oder diskutieren aber mittlerweile
schon 30 % der Unternehmen und immer weniger geben an, dass KI kein Thema für sie
154 V. Just et al.
sei (Barton und Müller 2021). Die Tendenz geht dadurch klar nach oben und ein lang-
sames Umdenken ist zu erkennen.
Beklagt wird jedoch nach wie vor, dass KI in Unternehmen oft nur als Vehikel zur
Kostensenkung wahrgenommen wird. So nennen 33 % Einsparungen und 29 % die
Steigerung der Asset-Effizienz als wesentliche Motive ihrer KI-Nutzung (Kaul et al.
2019). Eine Kooperation mit KI-Startups bietet Unternehmen jedoch zudem die
Möglichkeit ihre gesamte Wertschöpfungskette intelligent zu gestalten – von der Ein-
gangslogistik bis hin zum Kundendienst, von F&E bis hin zum Personalwesen. Das
gesamte Geschäftsmodell kann dadurch gewinnbringend umgestaltet werden und auf
neue wirtschaftliche Trends, aber auch interne Prozessprobleme, schneller reagiert
werden. Bereits bestehende Anwendungsbeispiele werden in Abschn. 4 besprochen,
welches aufzeigt wie verschiedene mittelständische Unternehmen durch KI ihr gesamtes
Geschäftsmodell transferieren konnten.
„Daten sind der Rohstoff des 21. Jahrhunderts. Und Künstliche Intelligenz ist die Kern-
kompetenz für Volkswirtschaften und Unternehmen, um aus dem Rohstoff Daten Wissen zu
generieren und wettbewerbsfähig zu bleiben.“
Axel Menneking, VP Startup Incubation & Venturing, Managing Director hub:raum Invest-
ment Fund at Deutsche Telekom AG
Unter Bezugnahme von Wertschöpfung und Reifegrad der von KI-Startups angebotenen
Lösungen liegt das größte Potenzial in Deutschland in industriellen Anwendungen. Die
Genauigkeit und Optimierung der KI Systeme hängt jedoch stark von der Bereitstellung
und dem Zugriff auf Unternehmensdaten ab. Nur 35,6 % der KI-Startups geben hier
an, ausreichend Zugang zu relevanten Daten zu haben. So ist der Wunsch nach einem
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 155
besseren Datenzugang groß (64 %). Etwa drei Viertel der KI-Startups fordern einen
besseren Zugang zu öffentlichen Daten (Open Data). Die viel thematisierte EU-Daten-
schutzregulierung (DSGVO) scheint dabei eine Ursache der Datenknappheit zu sein, da
mehr als die Hälfte (52,4 %) der KI-Startups darin einen internationalen Wettbewerbs-
nachteil sieht (Hirschfeld et al. 2021).
Diese Faktoren sind mitunter verantwortlich dafür, dass andere Länder in verschiedenen
Bereichen Deutschland als Technologiestandort enteilt sind. Das folgende Kapitel zeigt
verschiedene dieser Entwicklungen auf.
Schon heute sehen viele Länder großes Potenzial in der KI-Technologie. Das belegen
unter anderem die hohen Investitionen, die Länder wie China und die USA, aber auch
Indien und Israel in diesem Bereich tätigen. KI-Technologie wird jetzt schon sehr stark
genutzt und in den nächsten 5–10 Jahren wird erwartet, dass das Nutzen des Einsatzes
der KI exponentiell steigt (Groth et al. 2018). In der Zukunft wird KI beispielsweise
nötig sein, um autonomes Fahren zu ermöglichen, Energie- und Mobilitätssysteme zu
vernetzen und Städte in Smart Cities zu verwandeln.
Finanzierung
Ein Problem, das sich schon seit Jahren abzeichnet ist die KI-Finanzierung in Deutsch-
land bzw. in der EU, denn es werde zu wenig Kapital zur Verfügung gestellt. Dies betrifft
zum einen die KI-Forschung, als auch Investitionen in KI-Startups und Unternehmen.
So wird in den USA im Vergleich zu Deutschland aktuell pro Kopf das 10-Fache, in
Israel sogar das 19-Fache in KI-Startups investiert (Dealroom 2021). Besonders groß,
laut KI-Startups und Expert:innen der Branche sei der Bedarf bei strategischen und VC-
Investitionen (Groth et al. 2018). Grund hierfür kann die generelle Zurückhaltung der
deutschen Wirtschaft gegenüber KI und Deep-Tech sein.
Dies führt in der Summe dazu, dass KI-Forschende, ihre Erkenntnisse und
Forschungen entweder nicht weiter verfolgen oder mit diesen in andere Länder aus-
wandern, wo sie mehr Unterstützung, auch finanzieller Natur erfahren.
Dieser fehlende Technologietransfer ist in einer ähnlichen Form auch bei den KI-
Startups zu beobachten. Für viele Startups ist es einfacher eine ausländische Finanzierung
zu erhalten. Dies führt einerseits dazu, dass Teile des KI-Unternehmens den aus-
ländischen Investoren gehören und andererseits in manchen Fällen dazu, dass das Startup
selbst in das Ausland zieht und somit dem deutschen bzw. EU-Markt verloren geht.
Weltweite Vorreiter
Im Wettrennen um ML & AI in B2C wird es für Deutschland und die EU schwer mit
US-amerikanischen (z. B. Google, Amazon, Microsoft etc.) und chinesischen Konzernen
(z. B. Alibaba, Baidu etc.) mitzuhalten. Durch einen früheren Start der Entwicklungen
156 V. Just et al.
von innovativen Produkten, konnten sie somit Kunden, aber auch Erfahrungen sammeln.
Zeitgleich wuchs das Investitionsvolumen von diesen Unternehmen und den Staaten
auf ein Vielfaches deutscher Niveaus. Vor allem China forciert eine Beschleunigung
der Tech-Entwicklungen und plant bis 2025 die USA zu überholen und bis 2030 zum
Weltführer in dem Bereich aufzusteigen. Wortmeldungen häufen sich, dass China dies
erreichen könnte (Menten 2021).
Durch die unaufhaltsamen Prozesse, internationale Ambitionen und der bestehende
Rückstand steht die deutsche und europäische Wirtschaft vor einer großen Heraus-
forderung dies aufzuholen. Aus Technologie-Kreisen wird deshalb eine schnelle Hand-
lungsoffensive gefordert.
Chance B2B
Im B2B-Bereich sieht es ganz anders aus, und es scheint als sei das Rennen hier noch
nicht entschieden. Dadurch, dass Deutschland noch immer der Weltmarktführer im
industriellen Bereich ist, ist es noch immer möglich die ML/AI-Führungsrolle im
Bereich B2B für sich und Europa zu beanspruchen. Um dies zu gewährleisten, müssen
aber die mittelständischen Industrieunternehmen mobilisiert werden und möglichst
schnell die Digitalisierung voranbringen. Große Plattform-Unternehmen wie Amazon
und Microsoft haben verstanden, dass sie für einen erfolgreichen Einsatz von KI in der
Industrie Kooperationen brauchen, da sie das Domänenwissen noch nicht besitzen. Eine
Aneignung erscheint selbst diesen Tech-Riesen als zu große Herausforderung.
Eine Kooperation mit diesen Konzernen bietet dem deutschen Mittelstand jedoch
nicht nur eine Chance, sondern birgt auch die Gefahr nur als Startwerkzeug zu dienen.
Besitzen diese das Know-how, sind genug finanzielle Ressourcen vorhanden, um im
Alleingang weiterzumachen. Um diese Gefahr zu minimieren, besteht für den deutschen
Mittelstand die Möglichkeit die notwendigen KI-Lösungen lokal (in DE/EU) und in
Kooperation mit KI-Startups oder Unternehmen zu entwickeln und letztendlich zu
beziehen.
Wie eine solche Win-Win-Symbiose aussehen kann, d. h. gemeinsam eine Lösung in
dem speziellen Bereich entwickeln und diese dann gemeinsam den Kunden anzubieten,
wird im nächsten Abschnitt anhand von Use-Cases beschrieben.
Bei KMUs sind häufig mangelnde Fachkenntnisse, fehlende Fachleute oder Unklarheit
über geeignete Einsatzbereiche und Anwendungsfälle von KI der Haupthinderungsgrund
für den bisher noch geringen Einsatz von KI. Für diese Dinge gilt: die richtigen Partner
können Abhilfe schaffen. Zahlreiche Start-ups, Dienstleister oder Forschungseinrichtungen
in Deutschland verfügen über die notwendigen Ressourcen und können bei der Entwicklung
gewinnbringender Anwendungen unterstützen. Denn der Nutzen von KI liegt auf der Hand:
sei es bei der Automatisierung und Beschleunigung von Prozessen, der Entwicklung neuer
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 157
Geschäftsmodelle oder der Steigerung der Qualität von Produkten und Dienstleistungen. Für
all das gibt es bereits Best Practices.
Marco Huber, Professor Universität Stuttgart und Head of Center for Cyber Cognitive
Intelligence (CCI), Fraunhofer IPA
Wie vorausgehend dargelegt ist das Potenzial von KI enorm. Im Rahmen dieses Kapitels
werden ausgewählte Anwendungsszenarien deutscher KI-Startups vorgestellt. Die Use-
Cases sollen dabei einen Branchenquerschnitt darstellen. Dabei wird jeweils die Heraus-
forderung, als auch der Lösungsansatz und der Mehrwert analysiert und beleuchtet.
Wenn man sich mit einem Thema beschäftigt, sollte man sich zuerst die Frage stellen:
„Welche Problemstellung wollen wir mittels Technologie/KI lösen?“. Im geschäftlichen
Leben wird diese Frage am Ende oft mit der Frage „Wie sieht unser Business-Case aus?“
gleichgestellt.
Diese Monetisierung muss nicht unbedingt in der direkten Form ablaufen: „wir
investieren 200.000 € in KI und in 6 Monaten verdienen wir dadurch 500.000 € “,
obwohl dies die naheliegendste Vorgehensweise wäre. Öfter sind es indirekte „Ver-
dienste“, die wichtig sind: Geldsparen durch Prozessoptimierung, Imageverbesserung,
Innovationsdrang usw. Am Ende muss es aber einen geschäftlichen Sinn ergeben.
Ein Anwendungsbeispiel der Firma OmniBot GmbH hat Breitenwirkung und ist als
„Conversational AI Plattform für den Kundenservice“ ein KI-Use-Case, der nachfolgend
näher beschrieben, das Potenzial hat unser tägliches Business-to-Customer Geschäft
nachhaltig zu beeinflussen und optimieren.
In Contact Centern gehen tagtäglich unzählige Kundenanfragen ein. Hierbei können –
besonders bei Anrufspitzen – für die Kunden teilweise Wartezeiten entstehen. Aber auch
für die Mitarbeiter:innen im Kundenservice des Unternehmens können sich wieder-
holende Standardanfragen der Kund:innen eine Belastung darstellen, wenn sie zu Unter-
forderung führen. Hinzu kommt häufig ein Arbeitskräftemangel im Kundenservice, denn
zusätzliches Personal stellt einen hohen Kostenfaktor dar. Zugleich gibt es große Eng-
pässe auf dem Arbeitsmarkt für Kundenberater, sodass Personalmangel eine der größten
Herausforderungen der Kundenservice-Branche ist. Vor dem Hintergrund steigender
Kundenanforderungen und gleichzeitiger Personalknappheit ist es für Unternehmen ent-
scheidend, die Kundenzufriedenheit zu erhöhen sowie die Kundenbindung auszubauen,
um im Wettbewerb gegenüber starken Konkurrenten bestehen zu können. Die Customer
Journey rückt damit beständig in den Fokus, denn Kund:innen erwarten ein reibungs-
loses, schnelles und erfolgreiches Serviceerlebnis. So hat eine Studie gezeigt, dass 54 %
aller Kund:innen einen Chatbot gegenüber menschlichem Kontakt bevorzugen, wenn sie
zehn Minuten Zeit sparen können (Brown 2019). Gleichzeitig sind 82 % der Endkunden
unzufrieden mit langwierigen und umständlichen, menübasierten Interactive-Voice-
Response-Systemen (IVR) (NICE und BCG 2016). Insgesamt ist das Potenzial von
158 V. Just et al.
Als erste Maßnahme für Unternehmen um sich diesem Use-Case in der Anwendung zu
nähren, ist ein unverbindliches Test-Reporting auf Basis eines einfachen Datensamples
(Export) aus dem Transport-Management System, um die Plattform mit eigenen Daten
auszuprobieren. Auf diese Weise trägt Appanion dazu bei Nachhaltigkeit zu fördern und
niedrigschwellig Unternehmen für den Frachttransport zugänglich zu machen.
Der Finanzsektor profitiert ebenso stark von einem Einsatz KI-basierter Anwendungen.
Heute schon existieren einige Erfahrungswerte aus sehr unterschiedlichen KI-
Richtungen wie Betrugs- und Anomalienerkennung, Kreditrisikobewertung,
Simulationen von Mikro- und Makroökonomischen Entwicklungen, Nachrichten-
basiertes Monitoring von Unternehmen etc.
In diesem Abschnitt beschreiben wir an einem Beispiel aus dem Projektgeschäft
der neusinger GmbH eine KI-basierte Anwendung für die Vorhersage der Kunden-
abwanderung in den Banken.
Banken – wie auch die meisten anderen Wirtschaftsunternehmen – sind daran
interessiert deren Kundschaft möglichst lang zu halten. Eine deutsche Bank aus unserem
Beispiel verfolgt in diesem Kontext die Regel „1–3-7“. Diese bedeutet, dass wenn das
Halten zufriedener Kund:innen einen einfachen Aufwand für die Bank bedeutet, kostet
das Halten eines unzufriedenen Kunden das 3-fache. Die Gewinnung eines neuen
Kunden bedeutet dann das 7-fache Aufwand.
Die „1–3-7“ Regel macht deutlich, dass es wirtschaftlicher ist, einen unzufriedenen
Kunden rechtzeitig zu erkennen und ihn zu erhalten versuchen, als einen neuen zu
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 161
akquirieren. Um diese Problematik anzugehen, hat man in der Bank das Projekt
Customer Churn Prediction gestartet. Das Ziel davon war, mithilfe von Daten und KI-
Algorithmen möglichst früh die Wechselintention von Kund:innen zu erkennen. Dabei
wurde im ersten Schritt der Fokus auf die Geschäftskundschaft gelegt, weil diese 80 %
des Gesamtumsatzes erwirtschaften und dabei bloß 20 % der Gesamtkundenzahl aus-
machen.
Wie fängt man die Umsetzung eines solchen Projekts an? – Man benötigt eine ver-
lässliche Datenbasis, auf welcher die zu erstellende KI-Lösung die Prognosen berechnen
wird. Für die Kundenabwanderungsproblematik wurden primär Kundenstammdaten und
Transaktionsdaten herangezogen. Mengenmäßig wurden ca. 100 Mln Transaktionsdaten-
sätze in einem Zeitraum über zwei Jahre und ca. 75 Tausend Kunden betrachtet. Für die
Verwendung durch KI müssen auf dieser Datenbasis einige Verarbeitungsschritte unter-
nommen werden. Darunter fallen bspw. eine Bereinigung wegen schlechter Datenquali-
tät, Aggregierungen von Daten, Ableitung einer Vielzahl von statistischen Kennzahlen
etc.
Dann musste aus der Datensicht das Ereignis einer Kundenabwanderung definiert
werden. Ungeeignet ist es dabei den Kündigungszeitpunkt zu betrachten. Viel besser
ist es dabei als die Abwanderung ein Fehlen von Transaktionen auf den Konten eines
Kund:in innerhalb eines Zeitraumes (bspw. 60 Tage) zu definieren.
In den weiteren Schritten folgt dann eine Modellierung (Programmierung) der eigent-
lichen KI-Funktionalität. Dafür existieren bereits einige Best Practices. Nichtsdestotrotz
hängt oft die Art der Umsetzung mit den konkreten Kundendaten zusammen, sodass die
Umsetzung immer etwas Experimentieren und Ausprobieren vorsieht.
Was genau macht die KI mit der vorhandenen Datenbasis?
In diesem Projektbeispiel schaut sich die KI die Vergangenheitstransaktionen (letzte
zwei Jahre) von allen Kunden an. Dabei weiß die KI, welche Kund:innen tatsächlich
die Bank in der Vergangenheit verlassen und welche der Bank treu geblieben sind. Aus
Millionen von Transaktionen erkennt die KI mithilfe von speziellen Mathematischen
Methoden (wie bspw. Logistic Regression) und von neuronalen Netzen komplexe Ver-
haltensmuster der Kundschaft, die auf eine Abwanderung hindeuten. Diesen Prozess
nennt man Training der KI.
Wenn die KI auf den Vergangenheitsdaten trainiert ist, lässt man sie für die
aktuellen Daten täglich anwenden. Dabei wenn die KI in diesen aktuellen Daten vor-
her erlernte „verdächtige“ Verhaltensmuster erkennt, wird entsprechender Kundenbe-
rater benachrichtigt, dass bspw. der Kunde „ABC GmbH“ mit einer Wahrscheinlichkeit
von 78 % in 65 Tagen abwandert. Zusätzlich werden weitere statistische Indikatoren und
die Stammdaten angezeigt, damit der Kundenberater daraus optimale Handlung ableiten
kann.
In unserem Beispiel war es möglich in einem Zeitraum von 3 bis 5 Monaten im
Voraus eine sehr genaue Abwanderungsvorhersage zu liefern.
162 V. Just et al.
Damit die KI mit der Zeit nicht „veraltet“, weil sich das Kundenverhalten grundsätz-
lich ändert, wiederholt man das Training der KI regelmäßig. In unserem Fall wird dies
wöchentlich gemacht.
In weiteren Ausbaustufen der Kundenabwanderung können die zu treffenden
Maßnahmen, die heute noch durch den Kundenberater erledigt werden, weiter auto-
matisiert werden.
Dies Beispiel aus der Finanz-Branche ist auf viele anderen Branchen übertragbar.
Auch die verwendeten KI-Methoden bleiben im Kern dieselben. Was sich ändert, ist die
Datenbasis.
bisher nicht. Am Markt können bisher nur individuale Lösungen in Form von einmaligen
Projekten in Auftrag gegeben werden.
Die Lösung wird auf einem CO2 neutralen GreenCloud Server in Deutschland
gehostet. Insgesamt wird so eine sichere, nachhaltige und innovative digitale Dienst-
leistung für kleine und mittelständische Unternehmen geschaffen.
Die vorgestellten Anwendungsszenarien haben nur einen kleinen Einblick in die viel-
fältige, erfolgreiche KI-Akteurslandschaft Deutschlands gegeben. Als einordnen und
bewertenden Statement nachfolgend KI-Expertin Christina Strobel:
Meiner Meinung nach kann der Mittelstand nicht als ‚KI-fern‘ bezeichnet werden. Dennoch
wird, trotz des bestehenden Fortschrittsgedankens und der bereits schrittweisen Anwendung
von KI im Mittelstand, KI häufig noch nicht holistisch betrachtet. Es wird, abgesehen von
der Frage ‚Wie kann KI dazu beitragen unsere Produktion effektiver und damit kosten-
effizienter zu machen?", nicht konsequent die Frage danach gestellt, wie die Technologie
das Unternehmen als Ganzes beeinflussen könnte (also auch außerhalb der reinen Effizienz-
steigerung der Produktion). Ziel sollte es sein die Unternehmung als solche mehr als
volatiles, ganzheitliches Konstrukt zu denken und das disruptive Potential von KI für dieses
zu erkennen. Starre Prozesse und Funktionsdenken wirken dabei dem Momentum der Ver-
änderung aktuell noch häufig entgegen. Sprich: KI könnte noch viel mehr, wenn man sie
nicht nur im Silo eines einzelnen Prozesses/einer einzelnen Funktion einsetzt, sondern sie
bereichsübergreifend aufsetzt und denkt.”
5.2 Rahmenbedingungen
Das Thema KI und der Bezug zum Mittelstand hat schon bereits in der letzten
Legislaturperiode der Bundesregierung an Aufmerksamkeit gewonnen. Das Potential
für den Mittelstand wurde erkannt und fortschrittliche Initiativen wie z. B. “Mittelstand
Digital” wurden ins Leben gerufen, welche den Mittelstand durch Kompetenzzentren
den Zugang zu neuen Technologien erleichtern soll.
Blickt man auf Infrastruktur und den rechtlichen Rahmen, besteht aber noch Hand-
lungsbedarf.
Infrastruktur
Für die Implementierung von erfolgreichen und modernen KI-Anwendungen bedarf es
einer erstklassigen digitalen Infrastruktur, die den zuverlässigen und schnellen Daten-
austausch und deren Verwertung ermöglicht. Gerade durch die große geografische Ver-
streuung von mittelständischen Unternehmen ist ein flächendeckender Aufbau von
Infrastruktur unabdingbar. Kurzum: ohne Infrastruktur keine Zukunft für KI-Netzwerke.
Dabei gilt es für Deutschland die erheblichen Versäumnisse in der LTE-Abdeckung in
Hinblick auf 5G zu korrigieren. Deutschland hängt laut einer Studie bisher im inter-
nationalen Vergleich weit zurück und belegt den drittletzten Platz mit einer LTE-
Abdeckung von 66 %. Europäische Nachbarn schneiden deutlich besser ab (z. B. die
Niederlande mit über 90 %) (Speedcheck 2019). Zudem sind diese Staaten im neuen
Standard 5G schon fortgeschritten, während Deutschland gerade erst startet.
Will Deutschland mit den anderen Nationen mitziehen, vor allem Tech-Nationen wie
Japan und den USA, so ist die Politik in der Pflicht gezielt eine bessere Infrastruktur zu
schaffen und zu initiieren.
Regulierung
Neben dem Aufbau einer Infrastruktur ist der richtige rechtliche Rahmen für KI
wichtig, um Freiraum und Sicherheit für Entwicklungen zu gewährleisten. Dies hat die
europäische Kommission erkannt und einen Entwurf für eine KI-Regulierung veröffent-
licht. Diese für Frühjahr/Sommer 2022 erwartete Regulierung hat das Ziel die Grundlage
für eine Nutzung im Sinne der europäischen Werte und Gesetze zu schaffen.
Gerade durch die Debatte über den Missbrauch von Daten oder die Gefahr von
„unethischer“ KI, soll die KI-Regulierung den Grundstein für vertrauenswürdige KI
legen. So werden Anwendungen in verschiedene Risikostufen eingeteilt, um sicherzu-
stellen, dass KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch,
unparteiisch und unter menschlicher Kontrolle sind (EU Kommission 2019). So bewertet
knapp die Hälfte der deutschen Start-Ups eine solche Regulierung als positiv (Hirsch-
feld et al. 2021). KI-Unternehmen hoffen jedoch, dass diese Regulierung und damit ent-
stehende bürokratische Prozesse nicht das Innovationspotenzial einschränken und sie vor
große Herausforderungen stellen.
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 167
Diese KI-Regulierung wird jedoch nicht nur einen fundamentalen Einfluss auf die
Arbeits- und Entwicklungsprozesse von KI-Unternehmen haben, sondern auch auf die
Konsument:innen. Diese können z. B. mittelständische Unternehmen sein, die KI bereits
einsetzen oder einsetzen wollen. Gerade für diese Unternehmen, die von KI profitieren
oder profitieren könnten, sich aber in kein Wagnis begeben wollen, ist es essentiell
rechtliche Rahmenbedingungen verständlich und ohne Widersprüche zu gestalten. Die
Regulierung solle dabei anhand von klaren Guidelines Sicherheit in der Anwendung
schaffen, fordert der KI Bundesverband. Die Regulierung habe deshalb die Ver-
antwortung das Vertrauen zu KI aufzubauen. So können unklare und schwer zugängliche
Regeln die Skepsis des Mittelstands noch weiter verstärken (KI Bundesverband, 2021b).
Dazu komme ein Zurückschrecken durch das Risiko gegen die Regulierung zu verstoßen
und dafür bestraft zu werden.
So stößt der Vorschlag bereits auf große Kritik:
Die geplante EU-weite horizontale KI-Regulierung ist jedoch primär von Ängsten
getrieben. Sollte sie verabschiedet werden, würde insbesondere der Mittelstand an der
Umsetzung von Innovationen gehindert werden und an Wettbewerbsfähigkeit verlieren.
Nahezu jeder sicherheitskritische Anwendungsfall ist heute eigentlich schon reguliert.
Diese bestehenden vertikalen Regulierungen sollten bei Bedarf eher KI-spezifisch angepasst
werden.
Prof. Dr. Patrick Glauner, Technische Hochschule Deggendorf und skyrocket.ai GmbH
KI-Prämie
Als weitere politische Initiative sehen Wirtschaftsvertreter:innen die Einführung einer
KI-Prämie für den Mittelstand, um das Investitionsrisiko zu senken und die Bereit-
schaft zu erhöhen. So könnten „mutige“ mittelständische Unternehmen den finanziellen
Anreiz und die Absicherung erhalten, wenn sie KI-Systeme in ihre Unternehmens-
prozesse einbauen. KI-Unternehmen erhoffen sich dadurch eine höhere Bereitschaft ihre
Produkte anzunehmen. So könne eine solche KI-Prämie als Katalysator zur Freisetzung
von Potenzialen im deutschen Mittelstand wirken und erheblich zur Überwindung von
Skepsis und Misstrauen beitragen.
168 V. Just et al.
6 Finanzierung
Das Entwicklungs- und Entfaltungspotenzial von KI hängt nicht nur an den politischen
Rahmenbedingungen, sondern auch sehr stark an der privatwirtschaftlichen Bereit-
stellung von finanziellen Mitteln. Diese bestimmen nicht nur den Handlungsspielraum
von KI-Unternehmen, sondern beeinflussen den globalen Markt maßgeblich.
Investment in KI
Die deutsche KI-Forschung nimmt weltweit eine Spitzenposition ein. Eine Studie des
Deutschen Start-Up Verbands und hub:raum, zeigt jedoch auf, dass dieses Potential, das
in der Wissenschaft liegt, im Bereich der Wirtschaft nicht ausgeschöpft wird (Hirsch-
feld et al. 2021). Auf der einen Seite habe die deutsche Wissenschaft zwar das Wissen
und Know-how und den internationalen Vorteil, dieser werde aber zu wenig in markt-
fähige Produkte umgewandelt und weiterentwickelt. So liegen Firmengründungen für
innovative KI-Anwendungen im internationalen Vergleich unter den Erwartungen.
Zum einen fehle Kapital, um aus Startups international erfolgreiche Unternehmen
zu machen, was die Innovationskraft der deutschen Wirtschaft schwächt und Wachstum
behindert. Eine Studie hält fest, dass 2018 nur 13 % der Corporate-Venture-Capital-
Investitionen auf europäische KI-Startups entfielen, während der Anteil in Nordamerika
bei 44 % und in Asien bei 42 % lag. Staatlich finanzierte VC-Fonds oder kapitalbasierte
Rentenmodelle, die in Venture Capital investieren, könnten dabei Europa helfen mehr
VC zu mobilisieren (Dealroom 2021).
So hängen Investitionen in KI und die Auswirkungen auf den Mittelstand zusammen:
Zum anderen kommen auch Forderungen nach sogenannten KI-Transferzentren auf, die
Forscher:innen mit KI-Unternehmen zusammenbringen sollen.
investieren. Positive Folgen sind daher für den Forschungstransfer als auch für KI-Unter-
nehmer: innen zu erwarten, da der Fokus auf den deutschen Markt verstärkt werde. Diese
Fokussierung und Diversifizierung der Anwendungen im Mittelstand mache dadurch das
KI-Ökosystem erfolgversprechender für Investor:innen.
Ein sich verstärkender Kreislauf, von dem der Mittelstand, KI-Unternehmen, KI-
Forscher:innen, sowie Investor:innen profitieren, könne dadurch erzielt werden.
6.1 Daten
Erhält ein KI-Netzwerk die finanzielle Unterstützung und die richtigen Rahmen-
bedingungen, so steht und fällt der Erfolg dennoch mit der Bereitstellung von Daten, mit
welchen es trainiert wird. Entscheidend ist hierbei wohin die Daten fließen und wie sie in
ein KI-Netzwerk finden.
Datenkunde
Die richtige Bereitstellung von Daten ist essentieller Bestandteil von erfolgreichen
KI-Netzwerken. In Unternehmen, herrschen bisher noch weite Wissenslücken, wie
und welche Daten digitalisiert werden müssen, um z. B. einen Produktionsprozess zu
optimieren. Schulungen für Mitarbeiter:innen, die von Arbeitgebenden initiiert werden,
können dabei Abhilfe leisten. Zudem fordern Wirtschaftsverbände, wie der KI-Bundes-
verband, Schüler:innen und Studierende durch Datenkunde-Module bereits in der
schulischen Ausbildung zu sensibilisieren (KI Bundesverband, 2021a).
Passiert das nicht, läuft der Mittelstand Gefahr erhebliche Einschnitte in der Hand-
lungsautonomie zu verzeichnen.
6.2 Ausblick
Künstliche Intelligenz hat das Potential den Mittelstand zu verändern und voranzu-
bringen. In Anbetracht der vielen Baustellen, die aber noch bestehen, ist vor allem der
Mittelstand selbst dazu angehalten zukunftsträchtige KI-Strategien zu erstellen und pro-
aktiv zu handeln.
Hierfür müssen Mitarbeiter:innen von Anfang an mitgenommen und ausgebildet
werden, um KI-Know-how zu erwerben, während das Unternehmen ein Gesamtkonzept
entwickelt. Kooperationen mit anderen mittelständischen Unternehmen, eine genaue
Benennung, an welchen Stellen KI in der Wertschöpfungskette genutzt werden kann,
sollten dabei feste Bestandteile eines solchen Konzeptes sein (Kaul et al. 2019).
Zudem arbeitet die Forschung an einer Optimierung für den Zugang des Mittelstands
zu KI-Anwendungen.
“Eine Kernaufgabe der heutigen Forschung liegt darin, KI für mittelständische Unter-
nehmen anwendbar zu machen. Hierzu werden Ansätze zur Vereinfachung der Anwendung
von KI-Methoden entwickelt, welche deren Nutzung ohne tiefes KI-Expertenwissen und
Programmierkenntnisse ermöglichen. Zudem wird in der Forschung an einer höheren
Dateneffizienz der KI-Anwendungen gearbeitet, wodurch bisherige Ansätze aus dem Big
Data Bereich auch für Unternehmen mit kleineren Datensätzen nutzbar werden.“
Marcus Röhler, M.Sc., Fraunhofer-Institut für Gießerei-, Composite- und Verarbeitungs-
technik IGCV
Greifen die Ränder ineinander und Unternehmen erhalten die Unterstützung und vorteil-
haften Rahmenbedingungen hat KI die Möglichkeit den deutschen Mittelstand in seiner
führenden Position zu sichern und diese sogar auszubauen.
Literatur
Dr. Vanessa Just ist Gründerin und CEO der juS.TECH AG,
einem wachsenden Start-Up Unternehmensverbund für Nachhaltig-
keit in der Digitalisierung und für die KI-Strategie bei team neusta
zuständig. Sie promovierte in nachhaltiger Automatisierung und
Digitalisierung von Geschäftsprozessen. Neben der beruflichen
Tätigkeit hält sie Vorlesungen an verschiedenen deutschen Hoch-
schulen und Universitäten. Dr. Vanessa Just ist im KI Bundes-
verband Leiterin der Regionalgruppen Nord und Nord-West,
besonders aktiv in der Arbeitsgruppe Klima & Nachhaltigkeit, der
Taskforce
Copyright für das Portraitfoto: © by Faceland.com
D19B8026
172 V. Just et al.
Raphaël Murswieck
R. Murswieck (*)
HEYDELBERGER Institut für strategisches Innovationsmanagement IfsIM, Bammental,
Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 173
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis , Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_10
174 R. Murswieck
Innovationen treten grundsätzlich auf vielfältige Weisen auf und entstehen durch Ideen
aus unterschiedlichen Quellen innerhalb und außerhalb einer Organisation. Die vor-
liegende Studie konzentriert sich auf den Innovationsprozess und die Entstehung von
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 175
• Welche digitalen Werkzeuge werden oder wurden im Netzwerk eingesetzt und welche
Rolle spielen diese strukturell?
• Wie werden Ideen in der frühen Phase des Innovationsprozesses (Fuzzy Front End,
kurz „FFE“) in digitalen Netzwerken generiert und mit welchen Auswahlmethoden
anschließend behandelt?
Das Forschungsdesign der Studie zielte darauf ab, neben informellen Interviews in
Online-Konferenzen bzw. Konferenzschaltungen und Telefonaten des Open Source
Medical Supplies (OSMS)-Netzwerkes eine Analyse der digitalen Werkzeuge (siehe
Tab. 1) durchzuführen, um informelle Prozesse und Schlüsselfaktoren zu identifizieren,
die eine Rolle bei der Entstehung von Lösungsansätzen aufgrund von Ideen und deren
Auswahlmethoden zur Pandemiebekämpfung spielen.
Aus den Kernzielen der Studie soll idealerweise hieraus ableitend gemäß der
Grounded Theory eine Theorie in Bezug auf die frühe Phase des Innovationsprozesses in
Open Source-Netzwerken formuliert und diskutiert werden.
Für die Studie wurde, wie bereits einleitend erwähnt, die Grounded Theory
Methodology (GTM) nach Strauss und Corbin (1996) als Untersuchungsmethode
gewählt, da sie einen anerkannten Forschungsansatz innerhalb der Sozialwissenschaften
darstellt, insbesondere wenn es darum geht, vertiefte, explorative Studien durchzuführen.
Darüber hinaus ermöglicht die Methode den Forschern, Daten auf der Grundlage einer
qualitativen Methode zu sammeln und der akademischen Gemeinschaft zur Verfügung zu
stellen.
Die vorliegende Studie fokussiert sich u. a. auf den Zeitpunkt der Ideenent-
stehung, englisch „Fuzzy-Front End“, kurz FFE, welches Teil der frühen Phase im
Innovationsprozess (vgl. Murswieck 2021, S. 13 und S. 130) gilt und im Vergleich
zum Innovationsprozess als Ganzes einen noch recht unerforschten Bereich inner-
halb der Innovationsforschung darstellt (vgl. Rowold und Bormann 2015). Die Grund-
idee der GTM ist zunächst einmal die Erforschung und Formulierung neuer Theorien
und Modelle aus empirischen Feldbeobachtungen. In diesem Zusammenhang bietet die
GTM nach Strauss/Corbin eine intermediäre Forschungsmethodik zwischen den beiden
theoretischen, extremen Forschungspolen: der positivistischen Position auf der einen
und der konstruktivistischen Position auf der anderen Seite (vgl. Albeck 2016; Brand
2009). Letztere bezieht sich auf eine aufgrund ihrer Individualität nicht messbare Reali-
tät; die positivistische Sichtweise hingegen orientiert sich an den Naturwissenschaften,
bei denen die beobachtete Realität gemessen und bewiesen werden kann. Die GTM zielt
jedoch darauf ab, eine Theorie aus Daten abzuleiten, die „im Laufe des Forschungsfort-
schritts systematisch gesammelt und analysiert“ werden, und soll ebenso „Einblicke
176 R. Murswieck
liefern, das Verständnis verbessern und eine sinnvolle Anleitung zum Handeln geben“1
(Strauss und Corbin, 1998, S. 12). Daher wird abschließend versucht eine Theorie
anhand von Schlüsselfaktoren zu formulieren, die als Grundlage für eine Diskussion
unter Einbindung von Literatur dient.
Bewährte Techniken der GTM sind die Beschreibung von Beobachtungen, die Durch-
führung von (möglichst informellen) Interviews oder auch die Analyse von Dokumenten,
die in den Studien verwendet werden können. Zusammengefasst können drei aufeinander
aufbauende Hauptaspekte innerhalb der GTM beschrieben werden, um eine Theorie
zu entwickeln mit dem Ziel einen verwertbaren Nutzen aus den Daten zu schaffen:
das Beschreiben der erhobenen Daten, das konzeptionelle Ordnen der Daten sowie das
abschließende Theoretisieren und Konstruieren (Abb. 1).
Die Theoretisierung umfasst sowohl die beschreibende als auch die konzeptionelle
Ordnung und ist das Ergebnis der Konstruktion einer Theorie, die auf den geordneten
Daten basiert. Daher beginnt der Prozess der Theoretisierung mit der Beschreibung
Abb. 1 Methodisches Vorgehen anhand der Grounded Theory Methodologie. (Quelle: Eigene
Darstellung nach Strauss, A.L. and Corbin J.M. (1996 [1990]), Grounded Theory: Grundlagen
qualitativer Sozialforschung. Beltz/PsychologieVerlagsUnion Weinheim)
auf der Grundlage der Feldbeobachtungen, der informellen (und damit unbeein-
flussten) Interviews oder dem Material, das innerhalb des Forschungsobjekts beispiels-
weise in den Dokumenten gefunden wurde. Die konzeptionelle Ordnung baut auf der
Beschreibung auf, die durch Strukturierung und Kategorisierung des Inhalts (Daten aus
der Beschreibung) erfolgt. Dies geschieht durch das Organisieren und Ordnen der Daten
z. B. anhand von Eigenschaften oder Dimensionen.
In der vorliegenden Studie wurden entsprechend der Aktivitäten aus den digitalen
Meetings und Aufzeichnungen des Open Source Medical Supplies (OSMS) – Netzwerk
beobachtet und erst später in Bezug auf Innovationen untersucht und entsprechend der
GTM in Bereiche kategorisiert und ausgewertet. Im Vergleich zu gestandenen Unter-
nehmen mit ihren meist etablierten Prozessen sind neu entstehende Strukturen, wie
den wachsenden und agilen Netzwerken im Kontext der Pandemiebekämpfung, eine
Besonderheit. Die für die GTM übliche, iterative Vorgehensweise von der Beschreibung
zur Theorienbildung wird gerade im vorliegendem Studienkontext allein durch die
dynamischen Netzwerke zu einer Besonderheit innerhalb des Studienablaufs. Die
kontinuierlich, neu entstehenden Inhalte in den verschiedenen Medien des bzw. der
OSMS-Netzwerke bieten somit ausreichendes Material im Rahmen des iterativen
Prozesses die neuen Ideen als auch die Aufbereitung dieser zu beobachten.
Schließlich wurden die Ideen dahingehend überprüft, wie sie zu Innovationen führen
beziehungsweise verworfen werden. Die Analyse der Beschreibungen und schließlich
das Ableiten von Schlüsselfaktoren als Theorie für akademische Gemeinschaft bezogen
auf die Innovationsleistung auf Organisationsebene der OSMS-Aktivitäten können
letzten Endes Impulse für Unternehmen geben ihre eigenen Innovationsstrategien zu
hinterfragen, zu ergänzen oder insgesamt zu optimieren.
178 R. Murswieck
3 Ergebnisse
Mithilfe der genannten Medien konnten die Informationen zwischen den OSMS-
Mitgliedern gesteuert und ausgetauscht werden.
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 179
Die Organisation des Netzwerkes konnte, wie später erläutert, hierbei als zentraler
Schlüsselfaktor identifiziert werden, da hierdurch die zahlreichen Informationen in allen
Medien kanalisiert werden, insbesondere um neuen Inhalt aus öffentlichen Facebook-
Kommentaren (Hilferufe aus aller Welt, den Bedarf von Krankenhäusern und Ein-
richtungen, Ideen und technische Lösungsansätze) zu sammeln, zu bewerten und
bestenfalls in Aktionen umzusetzen. Neben länderspezifischen Gruppen (mit „slack“
als soziales Medium) in jeweiliger Landessprache wurde schnell deutlich, dass nur mit
einer funktionierenden Organisations- und Managementstruktur, wie sie in Unternehmen
herrscht, das Netzwerk effizient (also schnell) sowie effektiv (also zielführend) zur
Pandemiebewältigung beitragen kann. Zu erwähnen sei, dass aufgrund der Netzwerk-
Struktur und der Menge an Informationen nicht alle Medien „offiziell“ verwaltet wurden
oder werden können. Vielmehr dienen die unterschiedlichen Medien und deren Kanäle
zur Vernetzung und dem Austausch der Mitglieder. Offiziell werden drei Bereiche ver-
waltet: Abb. 3 zeigt die identifizierten Plattformen, die verwaltet werden:
2 Die Nutzung von Facebook ist aufgrund von Restriktionen nicht in allen Ländern möglich, so
dass nur User mit Zugang zum Netzwerk die Community nutzen konnten.
180 R. Murswieck
Abb. 3 Identifizierte, verwaltete Bereiche des OSMS Netzwerkes. Quelle: Eigene Darstellung
Der Autor selbst stand hierbei auch im persönlichen Kontakt mit dem Co-Gründer
des OSMS-Netzwerkes, um sich über Aufgaben und Funktionen im Netzwerk auszu-
tauschen. Die zentrale Aussage des Co-Gründers, dass der Aufbau des Führungsteams
und die Steuerung des globalen Netzwerkes erhebliche zeitliche Kapazitäten erfordere
(„more than a full-time job“) macht die Anforderungen an die ehrenamtlichen Fach- und
Führungskräfte in der Anfangszeit der Krise deutlich. Im Gegensatz zu gestandenen
Unternehmen zeigt sich beim OSMS-Netzwerk, dass alle Mitglieder grundsätzlich auf
„Augenhöhe“ interagieren, die Steuerung des Netzwerkes an sich jedoch ebenso wie in
Unternehmen hierarchisch organisiert ist, was auch heute noch Anfang 2022 der Fall ist
(OSMS 2022).
Die erste Leitfrage „Welche digitalen Werkzeuge werden im Netzwerk eingesetzt und
welche Rolle spielen diese strukturell?“ kann nach der Analyse wie folgt beantwortet
werden:
Die in Abb. 3 genutzten Plattformen dienen der externen Kommunikation (Webpage,
Facebook) sowie der Gewinnung von neuen Informationen und dem Austausch zwischen
internen und externen Personen (Facebook, Google-Drive Filesharing). Alle anderen
eingangs erwähnter Medien wie whatsapp, slack, Telefon- und Videokonferenzen
dienen vielmehr der internen Kommunikation, dessen Ergebnisse, Aktionen und Bei-
träge zur Lösung der pandemiebedingten Herausforderungen in die offiziell verwalteten
Dokumentenstruktur einfließen.
Dies führt direkt zur Bearbeitung der zweiten zentralen Leitfrage „Wie werden
Ideen, die in der frühen Phase des Innovationsprozesses (Fuzzy Front End, kurz „FFE“)
in digitalen Netzwerken generiert und nach welchen Auswahlkriterien behandelt?“.
Beobachtet wurde folgender Ablauf (s. Abb. 4), von der Idee bis zur veröffentlichten
Open-Source-Lösung:
Auffallend konnte festgestellt werden, dass Ideen meist nach einem „Hilferuf“-
Posting generiert wurden und somit als lösungsorientierte, sachliche Antwort, oftmals
mit bereits ersten konstruktiven Lösungen einhergingen. Hierbei wurde ohne Rücksicht
auf das Herkunftsland Hilfestellung in Form von Informationen, Projektbeispiele und
Verlinkung auf externe Ressourcen (Hochschul-Webseiten, Github, etc.) geleistet mit
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 181
dem Ziel schnell einem Hilferuf mit einer konkreten Lösung beizuholen. Dies führte
entsprechend dazu, dass Verfasser mit ihren Hilferufen aus besonders regulierten Wirt-
schaftsräumen in Bezug auf die Zulassung als Schutzprodukt oder Medizinprodukt wie
den USA, Canada oder der EU bei der Umsetzung der Ideen in konkrete Lösungen
einen höheren Prüfungs-Aufwand betreiben müssen als beispielsweise Länder mit bis-
lang pragmatischem Ansatz (wie in Indien, wo erst seit 2018 die Zulassung von Medizin-
produkten reguliert ist). Hilferuf-Verfasser aus strenger regulierten Ländern wurden
jedoch öfters auch enttäuscht, da sie nicht immer die pragmatischen Lösungsansätze
direkt umsetzen konnten. Nichtsdestotrotz wurden die Ideen intern im Netzwerk auf-
genommen und entsprechend dem Schema aus Abb. 4 bearbeitet. Die internationalen
Teams in den jeweiligen Themen-Gruppen (beispielsweise auf slack) konnten diese dann
individuell bewerten und dem „Product“-Owner auf globaler Ebene Feedback geben
bzw. die Dokumentation im filesharing-system ergänzen.
Abb. 5 zeigt beispielhaft das Ergebnis einer organisierten Open-Source Lösung.
Die Ergebnisse zeigen aufgrund der Beobachtungen des 70.000 – Mitgliederstarken
Netzwerkes die Strukturierung und Organisation von Ideen, die konkret zu Produkten
geführt haben und auch zum Zeitpunkt der vorliegenden Veröffentlichung nach wie vor
zugänglich sind. Es gilt die hieraus gewonnenen Erkenntnisse in Form von Schlüssel-
faktoren bezogen auf die Innovationsleistung auf Organisationsebene zu identifizieren
und schließlich zur Theorienbildung entsprechend der Grounded Theory zu konstruieren.
182 R. Murswieck
1. Eine internationale Plattform wie Facebook kann als Community in der Ideenfindung
als erfolgsversprechender Faktor eingesetzt werden. Dies gilt zumindest in Krisen-
situationen wie im Fall einer globalen Pandemie.
2. Eine am Bedarf orientierte Offenheit und Flexibilität zur Ideenfindung führt schnell
zu konkreten Lösungen.
3. (Internationale) Zusammenarbeit ist ein Schlüssel, wenn es um interdisziplinäre
Lösungen geht.
4. Eine „Entrepreneur“-Einstellung und Teamwork bei den aktiven Gruppenmitgliedern
führt ebenso zu konkreten Lösungsansätzen
5. Schnelles Handeln ist elementar, um lebensrettende Lösungen zu liefern.
6. Verantwortung und Machtverteilung sind Voraussetzungen für eine funktionierende
Struktur.
7. Geld spielt nicht immer eine zentrale Rolle, zumindest, wenn es um Lebensrettung
geht und die Gemeinschaft profitiert.
und anderseits auch eine persönliche Einstellung der (aktiven) Crowd-Mitglieder, die
als Kollektiv ein gemeinsames Ziel antreibt. Dieses gemeinsame Ziel im Kontext der
Pandemie könnte als „Time is Life“ (und nicht „Money“) beschrieben werden und als
starker Motivator stehen; zumindest im Kontext einer internationalen Pandemie könnten
diese zwei Faktoren als wesentliche Erfolgsfaktoren beschrieben werden, bei der
unabhängig vom Herkunftsland Grenzen eine geringere Rolle spielen als vielmehr die
Erarbeitung global relevanter Lösungsansätze.
4 Diskussion
anerkannten Normen und den erwähnten EU-Verordnungen üblichen Ablauf, von der
Idee bis zur Marktzulassung wie folgender Darstellung (Abb. 6) vereinfacht zu ent-
nehmen ist. Dabei ist stets zu prüfen, ob ein Produkt oder auch eine digitale Lösung
als Medizinprodukt überhaupt als solches klassifiziert wird und den Zulassungsprozess
durchlaufen muss oder ob andere Vorschriften zur Zulassung greifen.
Im Pandemiegeschehen waren gerade zu Beginn ebenso schnelle Lösungen von
Nöten, auch im Hinblick neuer Produktideen, die einen Beitrag zur Eindämmung des
Pandemiegeschehen leisten können.
Die Pandemie hat alle Akteure, einschließlich der Regulierungsbehörden
selbst, gezwungen, schnellere Entwicklungs- und Zulassungszyklen im Sinne der
Pandemiebekämpfung zuzulassen. Dabei sind die regulatorisch geforderten Aspekte an
die Produktsicherheit in Pandemiezeiten ebenso einzuhalten wie im Standardprozess.
Einen Vergleich für die unterschiedliche Produktentwicklung haben Antonini et al.
Anfang (2021) aus den USA beschrieben, die aufgrund ähnlicher Regulierungssysteme
und Anforderungen an die Medizinproduktezulassung mit dem System und Vorgehen
innerhalb der EU grundsätzlich vergleichbar ist. Ein krisenbedingter Ansatz durch-
läuft den Autoren nach grundsätzlich denselben Ablauf wie im traditionellen Verfahren
ohne Krise von der Idee zum fertigen, zugelassenen Produkt; der Unterschied liegt in
den aufwendigeren Verfahren der Zulassung. Die Open Source – Netzwerke, wie dem
OSMS – Netzwerk, sind krisenbedingt und auch aufgrund der fehlenden Erfahrung im
regulatorischen Umfeld (zumindest in der Menge der Netzwerkmitglieder) einem ein-
fachen Innovationsprozess gefolgt, den gestandene Unternehmen grundsätzlich nicht
folgen können. Ideen und Entwicklungen folgen hier standardisierten Abläufen, die
auch oftmals von Benannten Stellen im Rahmen von regulatorisch geprägten Qualitäts-
managementsystemen zertifiziert werden. Eine Änderung der Prozesse ist zwar jederzeit
im Rahmen der Gesetze und Normen möglich, aber nicht schnell umzusetzen. Hier wird
deutlich, dass der traditionelle Ansatz zeitaufwendig und von zahlreichen „Reviews“
geprägt ist. Je nach Produktklasse ist eine Einbindung von klinischen Einrichtungen für
Tests und Studien und weiterer staatlicher oder benannter Stellen erforderlich, sodass die
Review-Zyklen nicht nur zeit- und ressourcenaufwendig, sondern kostspielig werden. Es
wird daher ersichtlich, dass ein krisenbedingter Innovationsansatz für höher klassifizierte
Medizinprodukte (Klassen IIa, IIb und III) nicht geeignet erscheint. Für die unterste
Klasse I mit einem niedrigen Risiko und ohne Besonderheiten hinsichtlich Patienten-
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 185
sicherheit (wie Sterilität) jedoch ist der krisenbedingte Ansatz auch im regulären Betrieb
ohne Pandemie grundsätzlich anwendbar, da der Aufwand deutlich geringer ist. Die
Zulassung als Medizinprodukt Klasse I obliegt in vielen Fällen dem Hersteller, der in der
Regel auch der „Inverkehrbringer“ ist. Dies bedeutet, auch dass dieser auch die Haftung
hinsichtlich Produktleistung und Patientensicherheit für das Bereitstellen im Markt über-
nimmt. Analysiert man schließlich die Produkte aus dem OSMS-Netzwerk, stellt man
zunächst fest, dass die regulatorische Haftung für das Produkt nicht dem Netzwerk und
den Mitgliedern zukommt, sondern den lokal angesiedelten Privatpersonen, FabLabs,
Maker-Werkstätten oder Unternehmen, die auf die Open-Source- Ressourcen zur Her-
stellung der Waren zurückgreifen. Das OSMS-Netzwerk hat in den eigenen Dokumenten
die Thematik der Regulatorik stets aufgegriffen, die Umsetzung und Beachtung jedoch
obliegt offenbar den Kreisen, die die Produkte herstellen und – wenn nicht verkaufen –
verteilen und damit auch rechtlich in Verkehr bringen.
Ferner sind zahlreiche Produktentwicklungen (wie medizinische Masken) der Klasse
1 zugeordnet oder manchmal auch kein Medizinprodukt im Sinne der EU-Verordnung
(wenngleich als Produkt im Gesundheitsmarkt eingesetzt). Damit fallen sie aus dem
klassischen Ansatz raus bzw. können problemlos „schneller“ im Krisenmodus entwickelt
und umgesetzt werden.
Jährliche Befragungen von Medizinproduktherstellern durch den Mitgliederverband
„BVMed“ zeigen, dass unabhängig vom Pandemiegeschehen, ein Drittel des regulären
Umsatzes mit neuen Produkten bzw. Innovationen erzielt werden, wobei die Medizin-
produkte mehrheitlich der unteren Risikoklasse I zugeordnet wird, was sich mit den
geringeren Zulassungs- und Dokumentationspflichten erklären lässt (BVMed 2021).
Der krisenbedingte Ansatz erscheint also grundsätzlich auch auf gestandene Medtech-
Unternehmen anwendbar zu sein, wenn die Anforderungen an die Zulassung eher gering
einzustufen sind.
Es sei abschließend an dieser Stelle bemerkt, dass auch Produkte höherer Klassen
im Netzwerk (mit-)entwickelt und von lokalen FabLabs hergestellt wurden, wie bei-
spielsweise ein „T-Stück“ zur Erhöhung der Kapazitäten der auch von Engpässen stark
betroffenen Beatmungsgeräten. Mit diesem können zwei statt ein Patient mit einem
Beatmungsgerät künstlich beatmet werden, sofern dies medizinisch im Einzelfall mög-
lich ist. Solche Produkte benötigen für eine rasche Umsetzung und Marktzulassung eine
Sonderfreigabe bzw. Sonderzulassung seitens der Behörden, wie dies in den USA von
der Food and Drug Administration (FDA) erfolgte (Hahn 2020). In Deutschland kann
das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Krisenzeiten
Sonderzulassungen ermöglichen. Für den Regelfall ist dies somit nicht anwendbar.
Die Observationsstudie auf Basis der Grounded Theory Methodologie hat Einblicke
in die Open-Source-Aktivitäten des OSMS-Netzwerkes gegeben, die mithilfe weltweit
aktiver Mitglieder in wenigen Monaten eine Open-Source-Bibliothek erschaffen haben,
186 R. Murswieck
Literatur
Brand V (2009) Empirical Business Ethics Research and Paradigm Analysis. J Bus Ethics
86(4):429–449
Branswell H., (2020), Coronavirus concerns trigger global run on supplies for health workers,
causing shortages. https://www.statnews.com/2020/02/07/coronavirus-concerns-trigger-global-
run-on-supplies-for-health-workers-causing-shortages/. Accessed 16. May 2020
BVMed (2021), Branchenbericht Medizintechnologien 2020 online: https://www.bvmed.de/down-
load/bvmed-branchenbericht-medtech.pdf [abgefragt am: 12.12.2021]
Chesbrough HW (2003) Open innovation: The new imperative for creating and profiting from
technology. Harvard Business School Press, Boston
Elgin B, Tozzi J (2020) U.S. hospital workers are making masks, protective gear from office
supplies a mid equipment, Time, March 18, 2020), online: https://time.com/5805557/
homemade-medical-face-mask-shortage [abgefragt am 26.01.2022]
Europäische Kommission (2022), online: https://ec.europa.eu/health/medical-devices-sector/new-
regulations_en [abgefragt am 27.01.2022]
Hahn S. (2020), FDA statement „Coronavirus (COVID-19) Update: FDA takes action to help
increase U.S. supply of ventilators and respirators for protection of health care workers, patients“
online: https://www.fda.gov/news-events/press-announcements/coronavirus-covid-19-update-fda-
takes-action-help-increase-us-supply-ventilators-and-respirators [abgefragt am 14.12.2021]
Iyengar KP, Vaishya R, Bahl S, Vaish A (2020), Impact of the coronavirus pandemic on the supply
chain in healthcare, British Journal of Healthcare Management 26(6). https://doi.org/10.12968/
bjhc.2020.0047 [assessed 20. Dec.2021]
McKinsey GI, (2016). Digital Europe: Pushing the frontier, capturing the benefits. McKinsey
Global Institute. online: https://www.mckinsey.com/~/media/McKinsey/Business%20Functions/
McKinsey%20Digital/Our%20Insights/Digital%20Europe%20Pushing%20the%20frontier%20
capturing%20the%20benefits/Digital-Europe-Full-report-June-2016.ashx. Accessed 28. Januar
2022
Murswieck R (2021) Sustainable Management, Wertschöpfung und Effizienz: Innovation Per-
formance in the 21st Century – Designing Business Related to Cultural, Digital and Environ-
mental Challenges. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-34761-1
Murswieck RG, Ceausu I, Irmer S, Just V (2019) THE INNOVATION PROCESS OF MEDICAL
DEVICES IN GERMANY RESPECTING THE NEW EU REGULATION. International
Journal of Advanced Engineering and Management Research 4(1), ISSN: 2456–3676
Murswieck R, Geldmacher J, Dünnweber M, Kirschner C (2017) Exploration and assessment
of digital technologies’ importance and adoption along the value-added chain, BASIQ Inter-
national Conference 2017, 5/31/2017, Graz, Austria, published in BASIQ 2017 Conference
Proceedings. 470-477, ISSN 2457-483X
Neil JR, John GL (2020) Challenges and solutions for addressing critical shortage of supply chain
for personal and protective equipment (PPE) arising from Coronavirus disease (COVID19)
pandemic – Case study from the Republic of Ireland, Science of The Total Environment
725:138532, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2020.138532. Accessed 20.
Dec. 2021
OSMS – Open Source Medical Supplies (2021). OSMS-Webpage online: https://opensource
medicalsupplies.org/about/ [abgefragt am 28.12.2021]
OSMS – Open Source Medical Supplies (2022). OSMS-Webpage online: https://opensource
medicalsupplies.org/about/team/ [abgefragt am 26.01.2022]
Rowold J, Bormann K (2015) Innovationsförderndes Human Ressource Management. Grundlagen,
Modelle und Praxis. Springer-Gabler, Berlin
188 R. Murswieck
1 Einleitung
In der heutigen Welt sind Unternehmen mit dynamischen Trends und der Notwendigkeit
konfrontiert, radikale Veränderungen in ihren Geschäftsmodellen vorzunehmen. Diese
Trends umfassen dabei laut dem Zukunftsinstitut (2021) unter anderem die Neo-Ökologie,
die Digitalisierung sowie veränderte gesellschaftliche Anforderungen in Bezug auf Werte-
systeme und Konsummuster. Daher befassen sich Forschung und Praxis gleichermaßen
mit Fragen der Zukunftssicherung und zentralen zukünftigen Wirkungs- und Bedürf-
nisfeldern (z Punkt 2021). Die Future-Ready Studie von Vodafone (2020) zeigt auf, dass
75 % der befragten Unternehmen eine Änderung ihres Geschäftsmodells anstreben.
Bei diesen angestrebten Veränderungen nimmt das Thema Nachhaltigkeit eine ent-
scheidende Rolle ein und „climate action failure“ wird im diesjährigen Global Risks
Report des World Economic Forum (2021) als eines der größten Risiken angesehen.
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 189
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_11
190 A.-K. Schmitz et al.
über die bestmögliche Ausgestaltung solcher Modelle in der Praxis, da es nur wenig
Forschung im Bereich digitaler Lösungen für Konsumgüter gibt (Calabresa et al. 2018;
Sousa-Zoomer und Cauchick-Miguel 2019).
Der vorliegende Beitrag betrachtet daher nachhaltigen Konsum als Herausforderung
für Konsumenten und Unternehmen. Anhand eines konzeptionellen Rahmens werden
verschiedene Praxisbeispiele für digitale Lösungen zur Förderung von nachhaltigem
Konsum beschrieben und hinsichtlich ihres Nachhaltigkeitspotenzials eingeordnet.
Hierdurch soll einerseits ein Beitrag dazu geleistet werden, das begrenzte Verständ-
nis digitaler Lösungen im Rahmen von nachhaltigem Konsumverhalten zu verbessern
und andererseits die vielfältigen praktischen Anwendungsgebiete solcher Lösungen
aufgezeigt werden. Es gibt bereits eine Vielzahl an digitalen Lösungen. Diese wurden
jedoch oft aus anderen Motiven (wie bspw. Experience oder Convenience) entwickelt
und bisher nicht primär unter dem Nachhaltigkeitsaspekt betrachtet. Daher werden
abschließend Empfehlungen für die Gestaltung konkreter Lösungen zur Förderung von
nachhaltigem Konsumverhalten abgeleitet.
mehr als ein Drittel gestiegen (IfD Allensbach 2021). Laut dem aktuellen Consumer
Barometer der Wirtschaftsprüfung KPMG und dem Marktforschungsinstitut IFH Köln
sind sogar 69 % der Befragten bereit, einen höheren Preis für ein nachhaltiges Produkt
zu bezahlen (KPMG 2020b).
Auf der anderen Seite werfen viele Daten Zweifel auf, welche Priorität Konsumenten
der Nachhaltigkeit beimessen und inwieweit sich auch ihr tatsächliches Verhalten ver-
ändert hat. So gibt es erhebliche Unterschiede zwischen Produktkategorien. Regionalität
wird beispielsweise bei Obst und Gemüse, Backwaren und Fleisch als deutlich wichtiger
empfunden als bei Fischprodukten oder Getränken (Bundesministerium für Ernährung
und Landwirtschaft 2021b). Des Weiteren bleibt ein günstiger Preis das Hauptkriterium
z. B. beim Kauf von Kosmetikprodukten, noch vor allen Nachhaltigkeitsaspekten
(Pospulse 2020). Außerdem sind sowohl der Pro-Kopf-Verbrauch von Verpackungen
sowie der Gesamtverbrauch von Kunststoffverpackungen in Deutschland innerhalb der
letzten zehn Jahre deutlich angestiegen (Bundesministerium für Umwelt, Naturschutz
und nukleare Sicherheit 2020; Umweltbundesamt 2020).
Eine der Erklärungen für dieses Phänomen ist die sogenannte „Attitude-Behavior-
Gap“, oder übersetzt die Kluft zwischen „Sagen“ und „Tun“ (Carrington et al. 2010).
Sie beschreibt die Diskrepanz zwischen der Intention, die Konsumenten vor dem Kauf
bzw. der Kaufentscheidung haben und dem tatsächlichen Ergebnis des Kaufs. So konnte
Futerra (2005) in Untersuchungen zeigen, dass zwar mehr als 30 % der Konsumenten die
Absicht hatten, nachhaltig zu konsumieren, dies aber nur 2 % auch in die Tat umsetzten.
Forscher erklären dieses Verhalten damit, dass Konsumenten weniger nachhaltig sind,
als sie glauben (Auger und Devinney 2007; Carrigan und Attalla 2001). In einer kürzlich
durchgeführten Analyse von ElHaffar et al. (2020) wurde zudem aufgezeigt, dass es Ver-
zerrungen im Antwortverhalten von Konsumenten erschweren, die „Attitude-Behaviour-
Gap“ aufzuzeigen. Zu den Hauptursachen für diese Verzerrungen zählen 1) sozial
erwünschte Antworten (social-desirability bias) ohne Bezug zu den tatsächlichen Ver-
haltensweisen und 2) Einschätzungen, die vom Konsumenten selbst abgegeben wurden
(self-reported bias) (siehe u. a. Johnstone et al. 2015; McGuire und Beattie 2019).
Entlang des Konsumprozesses, von der Informationssuche über den eigentlichen
Konsum bis hin zur Entsorgung von Produkten, existieren diverse Barrieren, die Konsu-
menten von nachhaltigem Konsum abhalten. Diese lassen sich in die von Newton und
Meyer (2013) vorgeschlagenen Cluster einbetten: 1) Verantwortlichkeit für das Problem,
2) Zeitliche Beschränkungen und mangelnde Priorisierung, 3) Informationsmangel
und Zugang, 4) Organisatorische Herausforderungen und 5) Finanzielle Mittel. Cluster
1 beschreibt individuelle Faktoren, welche sich mit der „Verantwortlichkeit für das
Problem“ beschäftigen. Hier ist der fehlende Glaube an den Einfluss einzelner Konsu-
menten zu nennen (Johnstone et al. 2015). Darüber hinaus ist festgestellt worden, dass
einige Verbraucher die Dringlichkeit von Nachhaltigkeitsthemen nicht erkennen und
weder negative Auswirkungen der Konsumgesellschaft auf die Umwelt noch auf das
eigene Leben wahrnehmen. Dies hängt teilweise auch mit einem mangelnden Vertrauen
in die Wirksamkeit von Nachhaltigkeitsinitiativen und -versprechen der Unternehmen
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 193
zusammen (Bang et al. 2000; Calderon-Monge et al. 2020; Gleim et al. 2013; Padel
und Foster 2005; Schlaile et al. 2018). Diese Erkenntnis geht einher mit dem 2. Cluster,
dem der „Zeitlichen Beschränkungen und einem mangelnden Prioritätsgrad“ (Newton
und Meyer 2013). Der vorherrschende Lifestyle in der heutigen hyperkompetitiven,
übersättigten Welt sucht nach abwechslungsreichen und trendigen Produkten, die
zudem bequem gekauft werden können (Padel und Foster 2005). Auch die teils ver-
schwenderischen gesellschaftlichen Normen (Power et al. 2017) und Gewohn-
heiten (Altinbasak-Farina et al. 2019, Gleim et al. 2013; Padel und Foster 2005;
Tsakiridou et al. 2008; White et al. 2019) erschweren es Konsumenten, Nachhaltigkeit
zu priorisieren. Im Kontext des 3. Clusters „Informationsmangel und Zugang“ sind
Faktoren wie Informationskomplexität (Bang et al. 2000; Calderon-Monge et al. 2020;
Gleim et al. 2013; Padel und Foster 2005; Schlaile et al. 2018) und auch fehlende,
unzureichende oder verwirrende Informationen darüber, wie man nachhaltig handeln
kann, zu nennen (Power et al. 2017; Frank 2018). Im 4. Cluster, „Organisatorische
Herausforderungen“, bestehen vor allem situative Faktoren wie eine mangelnde Verfüg-
barkeit nachhaltiger Optionen (Gleim et al. 2013; Padel und Foster 2005; Power et al.
2017; White et al. 2019) oder auch eine vergleichsweise (wahrgenommene) schlechte
Produktqualität (Gleim et al. 2013; Padel und Foster 2005; Tsakiridou et al. 2008). Auch
die Umgebungsbedingungen, die Stimmung der Verbraucher, die Tageszeit oder auch
Stress können situative Barrieren sein (Johnstone et al. 2015; Frank 2018). Zuletzt umfasst
das 5. Cluster die „finanzielle“ Barriere und meint den zumeist höheren Preis für nach-
haltige Produkte und eine oftmals nicht ausreichend (vorhandene) Zahlungsbereitschaft der
Konsumenten (Altinbasak-Farina et al. 2019, Gleim et al. 2013; Tsakiridou et al. 2008).
All diese Barrieren hindern Konsumenten, (noch) nachhaltiger zu konsumieren.
Daher ist es wichtig, dass Unternehmen Konsumenten dabei unterstützen, diese
Barrieren zu überwinden. Dafür müssen allerdings produktbezogene und/oder ein-
geständige Dienstleistungen angeboten werden, die für Konsumenten attraktiv und ein-
fach zugänglich sind.
Nachhaltiges Handeln ist nicht nur für Konsumenten, sondern auch für Unternehmen ein
bedeutsames Thema geworden und hat mittlerweile Auswirkungen auf alle strategischen
Entscheidungen. Nichtsdestotrotz reichen die zahlreichen unternehmensseitigen
Initiativen nachhaltiger zu wirtschaften noch nicht aus, um selbst rundum nachhaltig zu
sein und die „Attitude-Behviour Gap“ zu verringern. Der ökologische Fußabdruck pro
Konsument steigt weiter an, da sich konsumbezogene Prozesse nur schwer von Unter-
nehmen kontrollieren oder beeinflussen lassen (Power et al. 2017; Unilever 2021).
Um ihre Umweltauswirkungen deutlich zu verringern, müssen Unternehmen eine
ganzheitliche Verantwortung für ihre Produkte über deren gesamten Lebenszyklus
194 A.-K. Schmitz et al.
hinweg anstreben (Zu 2013, Hickl 2017). Dazu zählt insbesondere auch der Konsum-
und Verwertungsprozess. Konsumenten sollen zu einem nachhaltigen Umgang mit
angebotenen Produkten und Dienstleistungen bewegt werden. Hierdurch lässt sich
nicht nur der ökologische Fußabdruck von Unternehmen senken, sondern Unternehmen
können auch zeigen, dass sie sich zielgerichtet um Nachhaltigkeit bemühen, ver-
antwortungsvoll handeln und ganzheitliche Nachhaltigkeitslösungen forcieren, die gut
für die Wirtschaft, die Gesellschaft und die Umwelt sind.
In der akademischen Literatur werden daher nachhaltigkeitsorientierte Innovationen
und die Prämisse „Gutes tun, indem man neue Dinge tut“ (Adams et al. 2016, S. 11;
Bocken et al. 2014) vielfältig diskutiert. In diesem Zusammenhang ist festzustellen, dass
es bereits viele produktbezogene Innovationen, aber auch ergänzende Dienstleistungen
gibt. Tukker (2004) verweist darauf, dass integrierte Angebote, die physische Produkte
und Dienstleistungen miteinander kombinieren, zur Förderung von Nachhaltigkeit bei-
tragen können. So zeigen Calabrese et al. (2018) auf, dass die Nachhaltigkeitsziele der
United Nations durch Produkt-Service-Systeme, nachhaltigkeitsorientierte Innovationen
aber auch Dienstleistungsinnovationen gefördert werden können. Dies stimmt mit
der Aussage von Vargo und Lush (2004; 2008) überein, dass eine Dienstleistungs-
logik für jedes Unternehmen unabdingbar ist (Calabrese et al. 2021). Auch Djellal und
Gallouj (2016) sehen viel Erfolgspotenzial für die Ökologisierung mit Hilfe integrierter
Konzepte bestehend aus Produkten und ergänzenden Dienstleistungen. Übergreifend
spricht die Wissenschaft dabei von Servitization, bzw. im Digitalkontext von Digital
Servitization (Kowalkowski et al. 2017; Gebauer 2021).
Hinsichtlich der Integration von Nachhaltigkeitsaspekten und der Anwendbarkeit
des Servitization-Konzeptes auf die Konsumgüterindustrie gibt es bislang nur wenige
Forschungsbeiträge (Holst et al. 2017; Kuzmina et al. 2019). Zudem stoßen vorhandene
Kenntnisse über klassische langlebige Konzepte oder suffizienzorientierte Geschäfts-
modelle (Bocken et al. 2014) an Ihre Grenzen, da diese im Widerspruch zum schnell-
lebigen Charakter der Branche stehen (Kuzmina et al. 2019). Ein Schwachpunkt
derzeitiger Aktivitäten ist, dass ihr Fokus auf der Bewusstseinsbildung liegt, aber keine
tatsächliche Verhaltensänderung beim Konsumenten bewirkt wird (Harvard Business
manager 2020; Capgemini 2021).
Nutzerorientierte Dienstleistungen hingegen, können für „schnelle“ Kreisläufe
praktikabel sein. Diese Dienstleistungen reichen in der Praxis von der Information,
Beratung bis hin zu Reparatur- und Nachfüllservices. Ferner gibt es bereits durch die
Sharing Economy und peer-to-peer Plattformen Pooling-, Vermietungs- und Nutzungs-
services (Tukker 2004; Martinez et al. 2017). Erfolgreich sind diese Dienstleistungen,
wenn sie kontextadaptiv, überall verfügbar, personalisiert, benutzerfreundlich und
nutzenstiftend sind (Leimeister et al. 2014). Darüber hinaus müssen die Angebote Spaß
machen und zum Lifestyle des Konsumenten passen (Holst et al. 2017). Dies könnte
auch eine Begründung dafür sein, warum solche Angebote nur selten unter dem Nach-
haltigkeitsaspekt betrachtet werden, sondern vielmehr Experience und Convenience
fokussieren.
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 195
Unternehmen bringen zunehmend eine Vielzahl innovativer Lösungen auf den Markt,
die das Potenzial haben, den Konsumenten zu nachhaltigem Konsum anzuleiten oder ihn
dabei zu unterstützen. Das folgende 3 V-Modell bietet einen konzeptionellen Rahmen für
die Einordnung solcher Lösungen entlang der einzelnen Konsumphasen und hinsichtlich
ihres Nachhaltigkeitspotenzials (Abb. 1).
In Anlehnung an (Vadakkepatt et al. 2021) lassen sich dabei drei Kategorien unter-
scheiden: Vermeiden, Verringern und Verwerten.
Vermeiden – beschreibt Aktivitäten, welche die Entstehung von schlechten Ein-
flüssen auf die Umwelt verhindern. In diese Kategorie lassen sich Dienstleistungen ein-
ordnen, die dazu beitragen, Kauf oder Konsum bzw. deren Folgen zu vermeiden. Digitale
Dienstleistungen, die auf diese Kategorie einzahlen, werden also optimalerweise noch
vor einer Kaufentscheidung vom Konsumenten genutzt, um diesen von Fehlkäufen
abzuhalten oder ihn von nachhaltigen Alternativen zu überzeugen. Das Nachhaltigkeits-
potenzial ist hier am größten, da alles was gar nicht erst entsteht, anfällt oder produziert
wird, auch keine negativen Auswirkungen z. B. in Form von CO2-Emissionen haben
kann.
Verringern – umfasst alle Aktivitäten, die unternommen werden, um die Aus-
wirkungen auf Natur und Umwelt so gering wie möglich zu halten. Dabei geht es
Visualisierung ihrer Produkte helfen. So können Konsumenten mit der IKEA App
ein Möbelstück virtuell im eigenen Wohnzimmer platzieren. Ähnlich dazu erlaubt das
Unternehmen MisterSpex die virtuelle Anprobe von Brillen. All diese Visualisierungs-
Möglichkeiten führen dazu, dass Konsumenten ein besseres Gefühl für das Produkt
bekommen. So lassen sich Fehlkäufe und unnötige Retouren vermeiden. Des Weiteren
können sich Kunden durch die Visualisierung den Weg in ein Geschäft ersparen und
neben ökologischen, zusätzlich auch eigene finanzielle und zeitliche Ressourcen ein-
sparen.
Um das alltägliche Leben zu Hause nachhaltiger zu gestalten, gibt es mittlerweile
viele Smart-Home Applikationen, die den Fokus auf die Einsparung von Ressourcen
legen. So gibt es Dashboard-Lösungen von Amazon oder Samsung, die einen detaillierten
Überblick über den Energieverbrauch anzeigen und Vorschläge für Einsparungen
machen. Andere Tools, wie z. B. ‚Somat Smart‘ von Henkel helfen, den Verbrauch von
Spülmittel bei jedem Waschgang zu senken, um dessen ökologische Auswirkungen zu
verringern. Viele dieser Dienstleistungen können, richtig eingesetzt, signifikante Beiträge
zur Verringerung des ökologischen Fußabdrucks im Haushalt leisten.
Personalisierte Kleidung erfreut sich seit vielen Jahren wachsender Beliebt-
heit. Wo Kleidung früher jedoch lediglich zusätzlich bestickt oder bedruckt wurde,
bieten Hersteller heute vermehrt maßgeschneiderte Lösungen an. ‚Zyse me‘ von H&M
bietet dem Konsumenten eine digital-unterstütze Vermessung seiner Körpermaße
und produziert die Kleidung daraufhin passgenau in der gewünschten Qualität und
Farbe. Dies hat zur Folge, dass zum einen unnötige Produktion vermieden wird und
zum anderen Retouren oder Umtausche verringert werden. Nachteilig ist, dass sich
personalisierte Produkte zum Ende der Nutzung schwieriger weiterverkaufen lassen
(z. B. über Second-Hand Plattformen).
Zunehmend populär werden auch Bonusprogramme. Diese belohnen den Konsu-
menten für jeden nachhaltigen Kauf in Form von Bonuspunkten, Rabatten oder Gut-
schriften. Zum Beispiel bietet das Oekobonus-Programm die Möglichkeit, für jeden
nachhaltigen Kauf Punkte zu sammeln und später in Prämien umzutauschen. Diese
Dienstleistung schafft also einen Anreiz für Konsumenten, beim Kauf verstärkt auf
Nachhaltigkeit zu achten, um dann für entsprechend nachhaltiges Einkaufen belohnt zu
werden. Unvorteilhaft an diesen Lösungen ist jedoch, dass sie womöglich zu unnötigem
Konsum anregen, welcher vielleicht vermeidbar wäre.
Viele Unternehmen bieten Konsumenten bereits seit einigen Jahren, die Möglichkeit
den ökologischen Fußabdruck, der mit dem Kauf oder Konsum eines Produktes ein-
hergeht zu kompensieren. Solche kostenpflichtigen Kompensations-Initiativen wurden
bisher vor allem von Fluggesellschaften angeboten. Mittlerweile machen auch Unter-
nehmen, wie zum Beispiel Zalando den Ausgleich von negativen Emissionen möglich.
Das Unternehmen Otto sensibilisiert Konsumenten, indem der CO2-Fußabdruck vieler
Produkte sichtbar gemacht wird und bietet entsprechende Kompensationsmöglichkeiten
gegen Aufpreis an. Diese Lösungen verhindern zwar nicht den Ausstoß von CO2 oder
198 A.-K. Schmitz et al.
anderen Emissionen, können jedoch durch Investition in geeignete Projekte die öko-
logischen Schäden zumindest reduzieren oder teilweise ausgleichen.
Zunehmend angeboten und nachgefragt werden Reparatur- Services, die es
erlauben, beschädigte Produkte zur Reparatur einzusenden oder mit Hilfe von digitalen
Applikationen selbst zu reparieren. Manche Lösungen bieten aufwändige Erklärvideos,
andere sogar die Video-Zuschaltung von Fachpersonal, das bei der Fehlersuche und
-behebung unterstützend zur Seite steht. Durch Reparaturen kann die Lebenszeit von
Produkten deutlich verlängert werden, was zur Vermeidung von Neukäufen sowie einer
Reduktion von Abfällen führt.
Wenn Produkte nicht mehr repariert werden können oder eine Reparatur nicht mehr
wirtschaftlich ist, müssen diese Produkte so gut es geht dem Recycling zugeführt
werden. Synonym dazu werden oft die Begriffe „Kreislaufwirtschaft“, „Circular
Economy“ oder „Cradle-to-Cradle“ verwendet. Sie alle zielen darauf ab, ein Produkt
bzw. die Mehrheit der Bestandteile so lange und effektiv wie möglich zu nutzen und
am Ende des Produktlebenszyklus wieder für neue Produktionen zu verwenden. Die
innovative Lösung „Looop“ von H&M erlaubt es, Kleidung in ihre Bestandteile zu zer-
legen, um daraus dann wieder neue Kleidung herzustellen. Das Trade-In & Recycling-
programm von Apple ermutigt Konsumenten, alte Elektrogeräte einzutauschen und dafür
eine Gutschrift für den nächsten Kauf zu erhalten. So wird eine fachgerechte Zerlegung
der Geräte sichergestellt, und die Bestandteile können entweder wiederverwendet,
recycelt oder entsorgt werden.
Tab. 1 gibt einen Überblick über den Fokus verschiedener Praxisbeispiele digitaler
Lösungen für traditionelle Geschäftsmodelle.
Neben traditionellen Geschäftsmodellen, die vor allem im Konsumgüterbereich
zu finden sind, gibt es viele Geschäftsmodelle, die von Grunde auf nahezu vollständig
auf Nachhaltigkeit setzen. So gibt es beispielsweise Vermietungsmodelle für Spiel-
zeuge oder Möbel. Diese Modelle sind flexibel und konsumentenorientiert und ver-
suchen die Nutzungszeit von Produkten oder Dienstleistungen zu erhöhen, sodass das
Gesamtnutzungspotenzial maximal ausgeschöpft wird. Zudem zeigen viele Lösungen
aus der „Sharing Economy“, dass ein Teilen von Produkten oder Dienstleistungen,
ein wirkungsvolles Mittel zur Ressourcenschonung sein kann. Des Weiteren haben sich
„Second-Life“ Modelle etabliert, welche das Ziel haben, bereits genutzte Produkte
wieder zu verkaufen. Dies wird von Unternehmen, wie z. B. IKEA oder Zalando
organisiert und kommerziell betrieben oder von Consumer-to-Consumer (C2C) Platt-
formen, wie z. B. Vinted ermöglicht. „Food saving“ Modelle, wie zum Beispiel ‚Too
good to go‘ oder ‚Motatos‘ versuchen, Lebensmittel vor dem Wegwerfen zu bewahren
und zu attraktiven Konditionen weiterzuverkaufen. Da Lebensmittel im Vergleich zu
anderen langlebigen Produkten schnell verderben, tragen solche Modelle dazu bei,
Lebensmittel-Abfälle deutlich zu verringern oder sogar ganz zu vermeiden.
In Tab. 2 findet sich eine Übersicht verschiedener auf Nachhaltigkeit basierender
Plattform-Modelle.
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 199
Literatur
Calabresa A, Costa R, Ghiron NL, Tiburzi L, Rahbek E, Pedersen G (2021) How sustainable-
orientated service innovation strategies are contributing to the sustainable development goals.
Technol Forecast Soc Chang 169:120816
Calderon-Monge E, Pastor-Sanz I, Sendra Garcia FJ (2020) Analysis of sustainable consumer
behavior as a business opportunity. J Bus Res 120:74–81
Capgemini (2021) Studie: Nachhaltigkeit ist kein Nice-to-have mehr, sondern ein Wettbewerbsvor-
teil. https://www.capgemini.com/de-de/2021/03/studie-nachhaltigkeit-retail/. Zugegriffen: 07.
Nov. 2021
Carrigan M, Attalla A (2001) The myth of the ethical consumer – do ethics matter in purchase
behaviour? J Consum Mark 18(7):560–577
Carrington MJ, Neville BA, Whitwell GJ (2010) Why ethical consumers don’t walk their talk:
towards a framework for understanding the gap between the ethical purchase intentions and
actual buying behaviour of ethically minded consumers. J Bus Ethics 97(1):139–158
Delmas MA, Burbano VC (2011) The drivers of greenwashing. Calif Manage Rev 54(1):64–87
Djellal F, Gallouj F (2016) Service innovation for sustainability: paths for greening through service
innovation. In Service innovation. Springer, Tokyo: 187–215
ElHaffar G, Durif F, Dubé L (2020) Towards closing the attitude-intention-behavior gap in green
consumption: A narrative review of the literature and an overview of future research directions.
J Cleaner Prod. 275:122556
Frank P (2018) Me, my family or the public good? Do inter-role conflicts of consumer-citizens
reduce their ethical consumption behaviour? Int J Consum Stud 42(3):306–315
Futerra SCL (2005) The rules of the game: the principals of climate change communication
(Department for Environment, Food and Rural Affairs, London, UK)
Gebauer H, Paiola M, Saccani N, Rapaccini M (2021) Digital servitization: Crossing the
perspectives of digitization and servitization. Advance online publication, Industrial Marketing
Management
Gleim MR, Smith JS, Andrews D, Cronin JJ (2013) Against the green: a multi-method
examination of the barriers to green consumption. J Retail 89(1):44–61
Gunasekaran A, Spalanzani A (2012) Sustainability of manufacturing and services: Investigations
for research and applications. Int J Prod Econ 140:35–47
Harvard Business manager (2020) Wann Kunden grün Kaufen. https://www.manager-
m a g a z i n . d e / h a r va r d / m a r k e t i n g / n a c h h a l t i g k e i t - w a n n - k u n d e n - g r u e n - k a u f e n -
a-00000000-0002-0001-0000-000165377617. Zugegriffen: 14. Okt. 2021
Hickle G (2017) Extending the boundaries: an assessment of the integration of extended producer
responsibility within corporate social responsibility. Bus Strateg Environ 26:112–124
Holst A, Löffler CR, Philipps S (2017) How digital reframes the business case for sustainability in
consumer markets. In: Osburg T, Lohrmann C (Hrsg) Sustainability in a digital world. Springer
International Publishing, S 105–116
IfD Allensbach (2021) Allensbacher Markt- und Werbeträger-Analyse – AWA 2021. https://
de.statista.com/statistik/daten/studie/264566/umfrage/kaeufertypen-bevorzugung-von-
produkten-aus-fairem-handel-fair-trade/. Zugegriffen: 11. Dez. 2021
Johnstone ML, Lay Peng T (2015) An exploration of environmentally-conscious consumers and
the reasons why they do not buy green products. Mark Intell Plan 33(5):804–825
Kowalkowski C, Gebauer H, Kamp B, Parry G (2017) Servitization and deservitization: Overview,
concepts, and definitions. Ind Mark Manage 60:4–10
Kowalkowski C, Gebauer H, Oliva R (2017) Service growth in product firms: Past, present, and
future. Ind Mark Manage 60:82–88
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 203
KPMG (2020a) Wie äußert sich bei Ihnen der Fokus auf nachhaltige Mode beim Shopping?
In: TextilWirtschaft – Ausgabe 40/2020a, Seite 26. https://de.statista.com/statistik/daten/
studie/1179997/umfrage/umfrage-unter-verbrauchern-zu-nachhaltigem-modekauf-in-deutsch-
land/. Zugegriffen: 11. Dez. 2021
KPMG (2020b) Nachhaltigkeit ist mehr als nur ein kurzzeitiger Trend. https://home.kpmg/de/de/
home/media/press-releases/2020b/03/nachhaltigkeit-ist-mehr-als-nur-ein-kurzzeitiger-trend-
consumer-barometer.html. Zugegriffen: 11. Dez. 2021
Kuzmina K, Prendeville S, Walker D, Charnley F (2019) Future scenarios for fast-moving
consumer goods in a circular economy. Futures 107:74–88
Leimeister JM, Österle H, Alter S (2014) Digital services for consumers. Electron Mark 24:255–
258
Lemon KN, Verhoef PC (2016) Understanding customer experience throughout the customer
journey. J Mark 80(6):69–96
Martinez V, Neely A, Velu C, Leinster-Evans S, Bisessar D (2017) Exploring the Journey to
Services. Int J Prod Econ 192:66–80
McGuire L, Geoffrey B (2019) Talking green and acting green are two different things: An
experimental investigation of the relationship between implicit and explicit attitudes and low
carbon consumer choice. Semiotica Journal 227:99–125
McKinsey & Company (2020) Survey: Consumer sentiment on sustainability in fashion. https://
www.mckinsey.com/industries/retail/our-insights/survey-consumer-sentiment-on-sustainability-
in-fashion. Zugegriffen: 09. Dez. 2021
McKinsey & Company (2021) Prioritizing sustainability in the consumer sector. https://www.
mckinsey.com/industries/retail/our-insights/prioritizing-sustainability-in-the-consumer-sector.
Zugegriffen: 27. Nov. 2021
Mukarram M (2020) Impact of COVID-19 on the UN Sustainable Development Goals (SDGs).
Strateg Anal 44(3):253–258
Newton P, Meyer D (2013) Exploring the attitudes-action gap in household resource consumption:
does “Environmental Lifestyle” segmentation align with consumer behaviour? Sustainability
5(3):1211–1233
NYU & STERN Center for Sustainable Business (2021) Sustainable Market Share Index.
https://www.stern.nyu.edu/sites/default/files/assets/documents/Final%202021%20CSB%20
Practice%20Forum-%207.14.21.pdf. Zugegriffen: 12. Okt. 2021
Padel S, Foster C (2005) Exploring the gap between attitudes and behaviour. British Food Journal
107(8):606–625
Pospulse (2020) Studie: Düfte und Drogeriemärkte, Seite 34. https://de.statista.com/statistik/daten/
studie/1171393/umfrage/umfrage-unter-konsumenten-zu-kriterien-beim-kauf-von-drogerie-
produkten/. Zugegriffen: 11. Dez. 2021
Pospulse (2021) Studie: Kauf und Konsum von Fleisch- & Wurstwaren 2020/2021. https://
de.statista.com/statistik/daten/studie/1170139/umfrage/erwuenschte-veraenderungen-
hinsichtlich-des-fleischangebots-im-supermarkt/. Zugegriffen: 06. Dez. 2021
Power N, Beattie G, McGuire L (2017) Mapping our underlying cognitions and emotions about
good environmental behavior: Why we fail to act despite the best of intentions. Semiotica
215:193–234
Schlaile MP, Klein K, Böck W (2018) From bounded morality to consumer social responsibility:
a transdisciplinary approach to socially responsible consumption and its obstacles. J Bus Ethics
149(3):561–588
Sheth JN, Sethia NK, Srinivas S (2011) Mindful consumption: a customer-centric approach to
sustainability. J Acad Mark Sci 39:21–39
204 A.-K. Schmitz et al.
Skarmeas D, Leonidou CH (2013) When consumers doubt, Watch out! The role of CSR
skepticism. J Bus Res 66(10):1831–1838
Sousa-Zoomer TT, Cauchick-Miguel PA (2019) Exploring business model innovation for
sustainability: an investigation of two product service systems. Total Qual Manag Bus Excell
30(5):594–612
Stewart R, Niero M (2018) Circular economy in corporate sustainability strategies: A review of
corporate sustainability reports in the fast-moving consumer goods sector. Bus Strateg Environ
27:1005–1022
Tsakiridou E, Boutsouki C, Zotos Y, Mattas K (2008) Attitudes and behaviour towards organic
products: an exploratory study. International Journal of Retail & Distribution 36(2):158–175
Tukker A (2004) Eight types of product–service system: Eight ways to sustainability? Experiences
from SusProNet. Bus Strateg Environ 13(4):246–260
Umweltbundesamt (2020) Aufkommen und Verwertung von Verpackungsabfällen in Deutschland
im Jahr 2018. https://de.statista.com/statistik/daten/studie/914344/umfrage/verpackungen-ver-
brauch-pro-person-in-deutschland/. Zugegriffen: 04. Dez. 2021
Unilever (2021) Unilever Sustainable Living Plan 2010 to 2020 – Summary of 10 year’s progress.
https://assets.unilever.com/files/92ui5egz/production/16cb778e4d31b81509dc5937001559f1f5c
863ab.pdf/uslp-summary-of-10-years-progress.pdf. Zugegriffen: 08. Dez. 2021
Vadakkepatt GG, Winterich KP, Mittal V, Zinn W, Beitelspacher L, Aloysius J, Ginger J, Reilman J
(2021) Sustainable Retailing. J Retail 97:62–80
Vargo SL, Lusch RF (2004) Evolving to a New Dominant Logic for Marketing. J Mark 68:1–17
Vargo SL, Lusch RF (2008) Service-dominant logic: continuing the evolution. J Acad Mark Sci
36(1):1–10
Vodafone (2020) The vodafone business future ready report 2020. https://www.vodafone.com/
business/news-and-insights/white-paper/future-ready-report-2020. Zugegriffen 03. Dez. 2021
White K, Habib R, Hardisty DJ (2019) How to SHIFT consumer behaviors to be more sustainable:
a literature review and guiding framework. J Mark 83(3):22–49
World Economic Forum (2021) The global risks report (2021) https://www.weforum.org/reports/
the-global-risks-report-2021. Zugegriffen: 16. April 2021
Yang M, Evans S (2019) Product-service system business model archetypes and sustainability. J
Clean Prod 220(2):1156–1166
Yeow P, Dean A, Tucker D (2014) Bags for life: The embedding of ethical consumerism. J Bus
Ethics 125(1):87–99
Punkt Z (2021) Der neue Blick auf die globale Dynamik des Wandels. https://z-punkt.de/de/
themen/megatrends. Zugegriffen: 10. Dez. 2021
Zfk – Zeitung für kommunale Wirtschaft (2020) Umfrage: Drei von vier Deutschen wollen nach-
haltig leben. https://www.zfk.de/politik/deutschland/umfrage-drei-von-vier-deutschen-wollen-
nachhaltig-leben. Zugegriffen: 11. Dez. 2021
Zu L (2013) Sustainable Production and Consumption. In: Idowu SO, Capaldi N, Zu L, Gupta AD
(Hrsg) Encyclopedia of Corporate Social Responsibility. Springer, Berlin
Zukunftsinstitut (2021) Die Megatrends. https://www.zukunftsinstitut.de/dossier/megatrends/.
Zugegriffen: 01. Dez. 2021
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 205
1 Einleitung
Dieser Beitrag illustriert visionär, Einflüsse – im Sinne von Chancen und Risiken – zu
den in Unternehmen getroffenen ESG-Maßnahmen auf die Kapitalverzinsung von
Investoren realistisch quantitativ zu messen. Doch vorweg werfen wir einen Blick auf die
Einordnung und Definitionsversuche der Begriffe ‚Digitalisierung‘ und ‚Nachhaltigkeit‘:
„Der Begriff der Digitalisierung beschreibt auf einer technologischen Ebene ins-
besondere zwei Entwicklungen: den Prozess, der Informationen in maschinenlesbare
Daten umsetzt und speichert, sowie Vorgänge der Datenverarbeitung, -übermittlung
und -kombination. Mit ihrer Hilfe werden Formate wie Schrift, Sprache oder Bild
umgewandelt und damit für uns Menschen erfassbar. Diese Prozesse finden mithilfe von
Computern, Software und dem Internet automatisiert und vernetzt statt.“1
1 Vgl.PBP Informationen Zur Politischen Bildung (2020), Digitalisierung, Heft 344, S. 4/5,
abgerufen am 12.12.2021.
J. P. Becker (*)
Bornheim (NRW), Deutschland
E-Mail: [email protected]
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 207
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_12
208 J. P. Becker
„Die Digitalisierung folgt dem Bacon´schen2 Diktum ‚Wissen ist Macht‘. In der Folge
sind […] ‚Daten der Rohstoff des 21. Jahrhunderts‘3 und somit in einer zukunftsfähigen
Produktion (Industrie 4.0) das zentrale Element, um Optimierungen und damit Profit-
maximierung zu erreichen. Das Nutzen möglichst vieler Daten zur Erzielung höherer
Unternehmensgewinne folgt dabei dem Grundprinzip einer marktwirtschaftlichen Wirt-
schaftsordnung. Es gilt sich darüber im Klaren zu sein, dass der Handel mit Daten auch
in weiter Zukunft noch unser wirtschaftliches Handeln stark bestimmen wird.“4
In der Regel löst die Digitalisierung von Daten und Informationen in der Praxis
prozessuale Analyse aus: es folgt einerseits die qualitative Auswertung mithilfe der so
genannten (Balanced) Scorecard und quantitativ mit der so genannten deskriptiven
Statistik. Digitalisierte Daten und Informationen werden qualitativ per ausgewogenem
Berichtsbogen und/oder quantitativ bewertet, d. h. summiert, (gewichtet) gemittelt,
Datenausreißer festgestellt und (Teil-) Ergebnisse grafisch dargestellt, um mögliche
Zusammenhänge und Tendenzen optisch sichtbar zu machen. Andererseits sollen erste
Erkenntnisse der Deskription folgend explorativ zukünftige Erwartungen erklären.
Die Idee des vorteilhaften Zusammenwirkens von Digitalisierung und Nachhaltigkeit
legt vielleicht der Grundstein des Wirtschaftens: „Wirtschaften ist das Entscheiden über
knappe Güter in privaten und öffentlichen Betrieben.“5 Folglich stellt sich die Frage, ob
mit Nachhaltigkeitsaspekten auch Güterknappheit gegeben sein muss. Oder ob aufgrund
einer zu definierenden Knappheit automatisch der Nachhaltigkeitsgedanke im Sinne der
Vermeidung von Ressourcenverschwendung in den Vordergrund rückt.
Als quantitativ nachhaltig definiert der DUDEN beispielsweise im Sinne der Öko-
logie: „Prinzip, nach dem nicht mehr verbraucht werden darf, als jeweils nachwachsen,
sich regenerieren, künftig wieder bereitgestellt werden kann.“6 Das Bundesministerium
für wirtschaftliche Zusammenarbeit und Entwicklung definiert Nachhaltigkeit wie folgt:
„Nachhaltigkeit oder nachhaltige Entwicklung bedeutet, die Bedürfnisse der Gegenwart
so zu befriedigen, dass die Möglichkeiten zukünftiger Generationen nicht eingeschränkt
werden. Dabei ist es wichtig, die drei Dimensionen der Nachhaltigkeit – wirtschaftlich
2 Vgl. Bacon, Francis, Sir, englischer Philosoph (1597), Meditationes sacrae: „Nam et ipsa scientia
potestas est“, in Journal: The Works of Francis Bacon, 1864, 14. Jg., S. 149.
3 Vgl. Zitat Dr. Angela Merkel, https://www.heise.de/newsticker/meldung/Merkel-Daten-sind-Roh-
bafin.de/SharedDocs/Veroeffentlichungen/DE/Meldung/2021/meldung_211104_Offenlegungsver-
ordnung.html, abgerufen am 13.12.2021.
10 Vgl. Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), unter: https://www.bafin.de/
SharedDocs/Veroeffentlichungen/DE/Meldung/2021/meldung_210730_EU_Offenlegungsver-
ordnung.html, abgerufen am 13.12.2021.
11 Vgl. Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates vom 18. Juni
2020 über die Einrichtung eines Rahmens zur Erleichterung nachhaltiger Investitionen und zur
Änderung der Verordnung (EU) 2019/2088, unter: https://eur-lex.europa.eu/legal-content/DE/TXT/
PDF/?uri=CELEX:32020R0852, abgerufen am 21.12.2021.
210 J. P. Becker
einhält und (4) den von der Kommission festgelegten technischen Bewertungskriterien
entspricht.12
Mit der Transparenzförderung durch die Offenlegungsverordnung sollen Kapitalgeber
Unterstützung erhalten, nicht nur in nachhaltige Produkte zu investieren, sondern sich
auch über den möglichen Einfluss von ESG-Maßnahmen auf die Rendite bewusst zu
werden.
Die folgenden Kapitel beleuchten daher die Begriffe Rendite und Risiko aus Sicht
der Kapitalgeber und stellen ein kohärentes quantitatives Messverfahren der Einfluss-
stärke, insbesondere zu ESG-Maßnahmen, auf die Performance der Investoren vor;
eine qualitative und quantitative Messbarkeit wird im Übrigen in Ziffer (15) der Offen-
legungsverordnung in Aussicht gestellt.
2.1 Einführung
Dieses Kapitel geht auf generisches ganzzeitliches Kapitalanlageverhalten ein und stellt
ein normiertes Grundlagenmodell vor: ‚Future Yield and Taxes‘, kurz FYT. Rendite ent-
spricht allgemeingültig erzieltem oder erzielbarem Gewinn zum eingesetzten Kapital
über die Investitionszeit. Die Theorien des Capital Asset Pricing Model (CAPM) und
Arbitrage Pricing Theory (APT) mit normativer Prägung und Faktormodellen können
bis heute nicht empirisch valide erklären, welche makroökonomischen und Unternehmen
relevanten Faktoren erwartete Rendite unter adjustiertem Risiko signifikant beein-
flussen. In der Praxis häufig eingesetzte Kennzahlen der Performancemessung basieren
entweder auf implizite und explizite Methoden der Kapitalkosten, oder werden als Ver-
hältniszahlen oft in der mathematischen Einheit Prozent ausgewiesen. Sie beobachten
überwiegend auf Ebene der Assets und nicht generisch auf der für Kapitalgeber, zu
denen neben der natürlichen Person auch die Personen- oder Kapitalgesellschaft, der
Institutionelle Investor, die Bank oder gar der Fiskus gehörten.
FYT misst im Wesentlichen die zeitliche Entwicklungsgeschwindigkeit der Kapital-
geberrentabilität, als RoI-PACE definiert. Die Rentabilität erklärt sich aus dem Ver-
hältnis der Summe an Rückflüssen aus Vorabgewinnen, steuerlichen Ergebnissen
und Veräußerungsüberschüssen zum tatsächlich eingesetzten Kapital der Geber. Das
Modell FYT modifiziert damit den einschlägig bekannten Baldwin-Zins – auch bekannt
als modifizierter Interner Zinsfuß der dynamischen Investitionsrechnung – durch
Substitution der Cashflow-Positionen auf Ebene der Assets gegen die o. a. wesent-
12 Vgl.Präsentation zum Vortrag der BaFin „Überblick über die Verordnung (EU) 2018/2088“,
unter: https://www.bafin.de/SharedDocs/Veranstaltungen/DE/210610_Vortrag_Verordnung_
wa_41.html, abgerufen am 21.12.2022.
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 211
Buy-Hold-Sell
(Investieren-Halten-Veräußern).
Das Modell FYT gemäß Gl. 5 berücksichtigt dieses Investitionsprinzip gemäß Abb. 1
und weist ein mit alternativen Zinsergebnissen vergleichbares, mathematisch ohne
Annahmen behaftetes zinshomogenes Ergebnis aus. Auf Ausführungen zur Wideranlage
von Kapitalrückflüssen und Vor- und Nachsteuereffekte wird an dieser Stelle verzichtet.13
13 Vgl. Becker, Jan Paul (2020), Nach 60 Jahren Baldwin-Zins: Das Modifizierte Modell
‚Future Yield After Taxes‘, S. 12 und 18 f., abrufbar unter: https://papers.ssrn.com/sol3/papers.
cfm?abstract_id=3628280.
212 J. P. Becker
Kapitalgeber stellen für die Investition Eigenkapital in Form eines Art „Eigenkapital-
kredits“ bereit. Die Interpretation des Eigenkapitals als speziellen Typs des Investitions-
kredits beruht auf drei wesentlichen Investitionsgrundsätzen: (a) Kapitalsicherung durch
dingliche Sicherheiten, (b) Kapitalverzinsung für den Verzicht auf Konsum oder alter-
native Investitionsmöglichkeiten und (c) Kapitalgewinnerzielung mit der vollständigen
Rückführung des Investitionskapitals zuzüglich erwirtschaftetem Mehrkapitals. Nicht
altruistisch handelnde, rationale Kapitalgeber motiviert mit der Investition – heuristisch
betrachtet – der über Zeit zu realisierende Kapitalgewinn, bestenfalls ohne Risiko.
Etymologisch leitet sich das Wort Rendite von dem italienischen Wort ‚rendita‘ ab, auf
Deutsch übersetzt: Gewinn. Rendite entwickelt sich proportional zum Gewinn, aber
im Verhältnis zum eingesetzten Kapital der Kapitalgeber über die Investitionszeit. Ob
Rendite (statistisch definiert oder im wahrsten Sinn des Wortes) erwartet oder realisiert
wird, ist an dieser Stelle unerheblich.
Nach der gesicherten, einmalig oder ratierlich erfolgten Kapitalinvestition (K0)
erwartet der Anleger für einen vereinbarten Zeitraum (n) die Verzinsung seines „Eigen-
kapitalkredits“ mit dem Ziel des Kapitalgewinns unter möglichst geringem Risiko; Risiko
wird in diesem Kontext auf Seite 10 definiert. Der Investitionszeitraum muss für die
Separierung zur Kapitalinvestition zu den Folgephasen größer null sein, kann aber länger
andauern als nur eine zu definierende Periode. Dem Anleger wird in dieser Investitions-
und Anlagezeit das Kapital nicht zurückgewährt; würde es zurückgewährt, beeinflusste
das die Variable des Investitionskapitals. Das Kapital ist also über die Kapitalanlagelauf-
zeit gegen Wert gebunden und kann – realistisch betrachtet – ausschließlich aus erwirt-
schafteten Investitions- bzw. Vorabgewinnrückflüssen bedient werden. Der Nominalzins
der Kapitalverzinsung (i) kann dabei jede reelle Zahl annehmen. Nach Ablauf der
Investitionszeit hat der Kapitalgeber im Optimalfall seine Kapitaleinlage und die erzielten
Zinsbeträge als kumulierten Kapitalendwert (Kn) erhalten. Die offensichtlich zur
Anwendung kommende Methode des Kapitalendwerts entwickelt sich unter Berück-
sichtigung der Methode der geometrischen Rendite für n ∈ {n|ℜ>0} wie folgt:
Kn = K0 · (1 + i1 ) · (1 + i2 ) · . . . · (1 + in−1 ) · (1 + in ) (1)
Da das für Kapitalgeber gebundene Investitionskapital nicht zurückgewährt wird, ist es
retrospektiv unerheblich, wie die Periodenzinssätze lauteten; mit Feststellung des
Kapitalendwerts nach vollständigem Abschluss der Investition haben sich die Zinssätze
Periodenlänge unabhängig bzw. allgemeingültig mit i1 = i2 = … = in-1 = in für
n ∈ {n|ℜ>0} gleich hoch entwickelt:
Kn = K0 · (1 + i)n (2)
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 213
Mit Gl. 2 tritt der Zinseszinseffekt aufgrund der Perioden übergreifenden Thesaurierung
der Verzinsungsergebnisse in den Vordergrund, sodass die stets gleich hohe Kapitalver-
zinsung (i) je Periode nach wenigen mathematischen Umformungen wie folgt dargestellt
werden kann:
n1 1
Kn RoC n
i= −1= −1 (3)
K0 K0
Das generisch zinshomogene Ergebnis (i) entspricht dem Verhältnis aus zeitlich
kumulierten Kapitalrückflüssen (RoC) als Kapitalendwert (Kn) zum Investitionskapital
(K0), was Kapitalrentabilität (RoI) auszeichnet. K0 darf nicht null betragen, d. h. Kapital-
einsatz muss gegeben sein. Je geringer der Kapitaleinsatz, desto höher die mögliche
Rentabilität.
Das Gesamtergebnis, bestenfalls mit Gewinn, kann über die Banktage genaue
Investitionszeit (n) mit ν ∈ N wie folgt gemessen werden:
v
n := (4)
360
14 Vgl. Ebert et al. (2012), Controlling in der Wohnungswirtschaft‘, in: Mändle E, Mändle M
(2012), Haufe Praxisratgeber 6518, 2. Auflage, ISBN 978 3 648 02.528 4, S. 215.
214 J. P. Becker
bzw. umgestellt:
Wt = R · Wi + Wi = Wi · (1 + R) (7)
(Wi) beschreibt den gegebenen Investitionsbetrag („given amount“) und (Wt) das End-
vermögen („terminal wealth“).
Es sind sofort die Ähnlichkeiten der Gl. 5 versus (6) und (2) versus (7) zu erkennen:
die statische Investitionszeit wird dynamisiert, verfolgt aber weiterhin die Grund-
prinzipien der Rentabilitätsbetrachtung zurgeometrischen Rendite.
Zu der sicherlich wichtigen Frage, warum die Kredittilgung als Vermögen mehrende
Komponente der Renditebildung nicht ebenfalls als wesentliche Variable der Rück-
flüsse zählt, ist wie folgt zu differenzieren: Die Höhe des nach einer Investitionszeit
verbleibenden Kredits entwickelt sich aus der Differenz des Ursprungsnominalkredits
und der Summe der Kredittilgungen. Höhere unterjährige Tilgungsbeträge einer Cash-
flow-Planung führen zu geringeren entnehmbaren Vorabgewinnen, vice versa. Höhere
Kredittilgungen begünstigen nach der Veräußerung von refinanzierten Assets geringere
verbleibende Kredite und damit einen höheren Veräußerungsüberschuss. Dies spiegelt
sich direkt in der Höhe der Rentabilität. Die Kredittilgung ist den indirekt beein-
flussenden Variablen des Kapitalrückflusses zuzuordnen und zählt daher nicht zu den
wesentlichen Kapitalrückflussvariablen.
15 Vgl. Markowitz, Harry (1952), Portfolio Selection, The Journal of Finance, Vol. 7, Nr. 1,
S. 77–71.
16 Vgl. Sharpe, William F. (1964), Capital Asset Prices: A Theory of Market Equilibrium under
3.1 Einführung
Risiko wird allgemein als Abweichung zur erwarteten Rendite definiert, statistisch
betrachtet der Volatilität. Denkbar ist auch das stochastische Verlustrisiko zum Kapitalein-
satz. Jedoch können unsystematische Risiken, also beeinflussbare Risiken, mittels Diversi-
fikation von Assets in Portfolien durch gegensteuernde Maßnahmen reduziert werden.
Harry Markowitz zeigte mit seinem Aufsatz 1952 zur ‚Portfolio Selection‘ auf, dass sich die
Summe der einzelnen Asset-Risiken in einem Portfolio zu einem zu erwartenden Gesamt-
risikos aufgrund der Korrelation der Einzelrisiken verändern (vgl. Fußnote 13). Diese
Risikozusammenhänge werden entweder mit dem deskriptiven Maß der Kovarianz, für
metrisch skalierte Daten mit dem Korrelationskoeffizienten nach Bravais-Pearson17 bzw. für
ordinalskalierte Daten mit dem Randkorrelationskoeffizient nach Spearman18 bewertet.
In diesem Kapitel steht weiterhin die Beobachtung der Kapitalrückflüsse nach erfolgter
Investition im Vordergrund. Es stellt sich einerseits die Frage, ob die Geschwindig-
keit der Kapitalrückflüsse (RoI-PACE) dem Wunsch nach jährlicher Kapitalverzinsung
der Kapitalgeber entspricht, dem sogenannten INVESTOR´S i; denn jeder Kapitalgeber
hat eine Vorstellung davon, wie stark besichert, wie lange und wie hoch verzinst Kapital
bereitgestellt bzw. investiert sein soll. Andererseits bestehen nicht nur direkte Risiken
hinsichtlich der Erzielung der jährlichen Kapitalverzinsung, sondern auch indirekte, sich
auf die Rendite auswirkende Risiken (wie ergänzend Chancen) für Kapitalgeber, aber auf
Ebene der Assets; die indirekten Einflüsse zeigen sich Assetklassen unterschiedlich und
stark. Daher ist eine Beobachtungsebenen übergreifende Kohärenz hedonischer Variabeln
– zu einem Algorithmus geformt – herzustellen, die die Einflussstärken dieser Variablen
(auf Ebene der Assets) auf die Performanceebene der Kapitalgeber quantitativ messen zu
können unterstützt, was mit Kapital 4 aufgezeigt wird.
Hypothese: die Entwicklung der von Kapitalgebern gewünschten RoI-PACE lässt auf die
Risikobereitschaft der Kapitalgeber schließen und verhält sich diametral zum Kapital-
bedarf der Assets.
Der FYT-Zins gemäß Gl. 5 entwickelt sich diskret. Eine zeitstetige bzw. kontinuier-
liche Rendite entwickelt sich funktional logarithmisch:19
1
FYTstetig = · (ln RoC − ln K0 ) (8)
n
In den folgenden Betrachtungen wird die Kapitalrentabilität gegen die Eulersche Zahl
ersetzt und um die Faktoren (a, b) wie folgt erweitert:
1
Euler − FYT (a, b, n) = a · eb· n − 1 (9)
Der Faktor (a) in der zeitstetigen Funktion nimmt die Position der Bestimmung der
Steigung der FYT-Funktion ein; der Faktor (b) ist für die Funktionsneigung der RoI-
PACE verantwortlich. Die Investitionszeit (n) kann weiterhin reelle Zahlen annehmen
und Kalenderjahr- oder Banktage genau beobachten (Abb. 2).
Lemma 1: Wenn extrem Risiko averse Kapitalgeber im Investitionszeitpunkt Kapital
einbringen und dies eine vollständige Kapitalbindung (gegen den Wert der Assets) zur
Folge hat, dann erwarten sie aufgrund der Aversion in der folgenden Periode das ein-
gesetzte Kapital vollständig aus erwirtschafteten Gewinnen der Assets zurück, verharren
auf dem Breakeven (der Null-Prozent-Linie), bis die Veräußerung der Assets im beispiel-
haften Zeitpunkt zehn zu (gewünschtem) Gewinnkapital führt. Assets sehen sich aber
kaum in der Lage, aus erwirtschafteten Gewinnen ohne Liquidation das Investitions-
kapital der Kapitalgeber vollständig auszukehren.
19 Vgl. May, Stefan (2019), Arithmetische und geometrische versus diskrete und stetige Rendite, in
„Arbeitsberichte – Working Papers“, Heft Nr. 47, Technische Hochschule Ingolstadt, S. 5 ff.
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 217
Das FYT-Risiko 1. Art konzentriert sich direkt auf die allgemeine Entwicklung der
seitens Assets/Portfolien angebotenen versus von Kapitalgebern gewünschten Rück-
flüsse. Solche Rückflüsse entstehen aus Vorabgewinnen und steuerlichen Ergebnissen in
der HOLD-Phase und ohne Liquidationseffekt der SELL-Phase, da ansonsten sofort das
Modell des FYT-Zinses Anwendung finden kann. Die Kennzahl NFI misst die Fläche
zwischen den beiden Funktionsverläufen über die Investitionszeit. Sie sollte bestenfalls
null betragen, damit sich Angebot und Erwartung identisch entwickeln.
Jedoch können auch auf Ebene der Assets Risiken bzw. nachteilige Einflüsse Aus-
wirkungen auf die Rendite der Kapitalgeber haben. Die Stärke dieser indirekten Ein-
flüsse je Asset-Klasse kann mit hedonischen Algorithmen Asset-Kapitalgeber-Ebenen
kohärent festgestellt werden. Die Hedonik setzt voraus, dass in Gl. 5 die Variablen der
Kapitalrückflüsse (RoC) sowie des Kapitaleinsatzes (K0), eventuell auch mit zu berück-
sichtigenden Erwerbsnebenkosten, durch einzelne Variablen beschrieben werden. Zu
den drei Investitionsphasen, Buy-Hold-Sell, ist ein entsprechender Algorithmus, also ein
schematischer Rechenvorgang, zu einem „Kapitalrückfluss-Wasserfall“ zu skizzieren.
Die Basis dieses Rechenvorgangs der indirekten Einflussmessung auf den FYT-
Zins der Kapitalgeber bezeichne ich als ‚Hedonischer Unternehmen Rendite Analyse
Algorithmus‘, kurz HURAA. Die Vorgehensweise gilt generisch für jede Asset-Klasse.
Der Algorithmus kann allerdings unterschiedlich aufgebaut und komplex sein.
HURAA bietet die gewünschte Robustheit zur Kohärenz der Ebenen Kapitalgeber
versus Asset bzw. Portfolio. Solche Algorithmen lassen sich wiederum auf höheren
Ebenen zur Asset-Ebene mit weiteren Ebenen-Variablen transformieren. Damit kann
die Stärke der Auswirkungen sämtlicher Einflüsse, die rechenbar sind und zu Teiler-
gebnissen führen, über alle Ebenen kohärent bis auf die Ebene zur Rendite der Kapital-
geber in einem „Wasserfall“ festgestellt werden.
Das folgende Beispiel (Tab. 1) verdeutlicht die sich abzeichnende Komplexität für
unterschiedliche Asset-Klassen. Nehmen wir folgende Variablen zur Aufstellung eines
nur einfachen Algorithmus zu Immobilien an:
(11)
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 219
(12)
Das Einsetzen von (12) in (13) bestimmt beispielhaft den Cashflow vor Ertragssteuern
für ein Jahr der Kapitalinvestition bzw. mit dem Faktor zehn für vereinfacht zehn Jahre.
abgerufen am 19.12.2021.
220 J. P. Becker
4.1 Einführung
Die Hedonik erleichtert die Ebenen kohärente Aufstellung von Algorithmen. Sie
erleichtert, Einflüsse und Stärken einzelner Variablen oder von Gruppenvariablen zu
messen, die beispielsweise die Mittelverwendung oder die Finanzierung auf Ebene der
Asset beschreiben. Die Bezugsgröße der Messung der Einflussstärken soll die Kapital-
verzinsung der Investoren sein, um nicht nur die Auswirkung im Rahmen einer Sensitivi-
tätsanalyse festzustellen.
Der Algorithmus gemäß Gl. 14 wirkt vollständig ausformuliert komplex; das liegt an
dem Grundmodell FYT mit Anwendung der expliziten Kapitalwertmethode.
Die Elastizität erklärt inhaltlich die Auswirkung der relativen Veränderungen abhängiger
Variablen auf eine Zielgröße.21 Abhängige Variablen können die in Kap. 3.3 auf Seite 15
genannten einzelnen Variablen, aber auch unterschiedliche Sachverhalte beschreibende
Variablengruppen sein.
Nehmen wir an, dass ein Immobilienkaufpreis (KP) und die Kapitalverzinsung (FYT)
gegeben sind. Zu der Elastizität stellt sich nun die Frage, wie stark sich die Veränderung
von KP auf FYT auswirkt. Die Veränderung des Kaufpreises von KP auf KP + ΔKP führt
zu der möglichen Veränderung der Kapitalverzinsung mit:
ΔFYT = FYT (KP + ΔKP) – FYT (KP). Die relative Änderung zeigt sich wie folgt:
�FYT
FYT
= FYT (KP+�KP)−FYT
FYT (KP)
(KP)
. Die durchschnittliche (Bogen-) Elastizität von FYT im
KP FYT (KP+�KP)
Intervall [KP, KP + ΔKP] ist FYT / KP = FYT
�FYT �KP KP �FYT
· �KP = FYT · �KP
.
Die prozentuale Änderung der Kapitalverzinsung bei einer 1 %-igen Änderung des
Kaufpreises führt im Grenzwert für ΔKP → 0 zur Punktelastizität (EL):
KP ∂FYT
ELKP FYT = · (15)
FYT ∂KP
Schritt 1
Aufstellung eines Kapitalgeber-Asset-Ebenen übergreifenden kohärenten hedonischen
Algorithmus, wie in Abschn. 3.3 aufseiten 14 ff. erläutert. Der Algorithmus sollte
optimalerweise ganzzeitlich alle drei Phasen, Buy-Hold-Sell, umfassen.
Schritt 2
Nun sind die einzelnen oder gruppierten, d. h. multikriteriellen sequentiell oder parallel
eintretenden ESG-Maßnahmen in dem Algorithmus zu berücksichtigen.
Schritt 3
Bestimmung der Punktelastizität zu den einzelnen oder Sachverhalte beschreibenden
Variablen unter Beachtung der Gl 15. Dazu ist der FYT-Algorithmus partiell abzuleiten,
was wir im Folgenden anhand eines erhöhten Kaufpreises konkretisieren werden.
Der Immobilienkaufpreis soll einvernehmlich zwischen zwei Parteien als fairer Wert
festgestellt sein: er entspricht summarisch dem Sachwert (X1) und Grundstückswert,
Letzteres aus dem Produkt Grundstücksgröße (X2) und Bodenrichtwert (X3):
KP := X1 + X2·X3 (16)
Der differenzierbare Algorithmus gemäß Gl. 14 ist nach der Variable, Kaufpreis (KP),
partiell abzuleiten.
Die Punktelastizität mit der Messung der Kaufpreisanpassung durch ESG-
Maßnahmen auf die „Rendite“ der Kapitalgeber wäre mit Gl. 15 beispielhaft bestimm-
bar: ELKP FYT = FYT · ∂KP .
KP ∂FYT
5 Zusammenfassung
Die Verordnung des europäischen Parlaments und des Rates vom 27. November 2019
über nachhaltigkeitsbezogene Offenlegungspflichten im Finanzdienstleistungssektor,
kurz Offenlegungsverordnung, möchte Anlegern die Möglichkeit geben einschätzen zu
können, wie nachhaltig ein Produkt ist und welchen Einfluss Nachhaltigkeitsrisiken auf
die Rendite haben könnten. Sie wird voraussichtlich ab dem 01.07.2022 in Kraft treten.
Maßnahmen zu den Nachhaltigkeitskriterien, Umwelt, Soziales und Unternehmens-
führung, können sich vorteilhaft oder nachteilig auswirken: vorteilhaft beispiels-
weise mit der Einsparung von knappen Ressourcen, nachteilig zum Beispiel aufgrund
erhöhter Immobilienkaufpreise. Vermieter-Mieter-Ebenen übergreifend können sich auch
geringere Jahresmieten einstellen, wenn der Mieter selbst ESG-Maßnahmen durchführt,
die personal- oder allgemein kostenintensiv sind, oder umgekehrt vorteilhaft geringere
Immobilienbetriebskosten anfallen.
Nachhaltigkeitsrisiken wurden und werden in der Praxis wahrscheinlich überwiegend
mit der absoluten Ergebnisänderung auf eine Zielgröße gemessen (Ergebnisdifferenz
ohne und mit Maßnahmen). Die in diesem Kapitel vorgestellte Punkelastizität bietet die
Vision der quantitativen Messung der relativen Einflussstärke einzelner oder selektiver
Sachverhalte beschreibenden Gruppenvariablen auf hier die Zielgröße der von der
Investitionszeit abhängigen Kapitalverzinsung der Investoren. Mit dem Verfahren kann
bestimmt werden, ob beispielsweise eine Kaufpreiserhöhung stärker ins Gewicht des
Risikos für Kapitalgeber fällt als die Reduzierung von Mieten oder Betriebskosten.
Dieses Verfahren ist nicht abschließend auf Immobilien anwendbar, sondern mit der-
gleichen Technik auf Wertpapiere, Unternehmensbewertungen, die betriebliche Alters-
vorsorge, in der Versicherungswirtschaft oder vielleicht zukünftig auf die Aktien basierte
Rente einsetzbar. Ebenen kohärente, hedonisch erzeugte Algorithmen unterstützen
generisch die Messung der relativen Einflussstärke von ESG-Maßnahmen.
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 223
Literatur
Bacon, Francis, Sir, englischer Philosoph (1597), Meditationes sacrae: „Nam et ipsa scientia
potestas est“, in Journal: The Works of Francis Bacon 1864(14):149
Bea, Schweitzer (2009) Allgemeine Betriebswirtschaftslehre, Bd. 1 Grundsatzfragen, 10. Aufl. 10th
rev. and ed. 2009. paperback. XVIII, 507 p. Paperback ISBN 978 3 8252 1081 6.Cf. https://
docplayer.org/122732274-Allgemeine-betriebswirtschaftslehre.html. Lucius & Lucius Verlag
Becker JP (2020), Nach 60 Jahren Baldwin-Zins: Das Modifizierte Modell ‚Future Yield After
Taxes‘, auf SSRN abrufbar
Böker F (2009), Formelsammlung für Wirtschaftswissenschaftler, Mathematik und Statistik,
Pearson Deutschland GmbH, ISBN 978–3–8273–7160–7, auf SSRN abrufbar
Ebert G, Monie F, Steinhübel V (2012) Controlling in der Wohnungswirtschaft‘. In: Mändle E,
Mändle M (2012) Haufe Praxisratgeber 6518, 2. Aufl. ISBN 978 3 648 02528 4, auf SSRN
abrufbar
Markowitz H (1952) Portfolio selection. The Journal of Finance 7(1)
May S (2019) Arithmetische und geometrische versus diskrete und stetige Rendite, in „Arbeits-
berichte – Working Papers“, Heft Nr. 47, Technische Hochschule Ingolstadt, auf SSRN abrufbar
PBP Informationen Zur Politischen Bildung (2020) Digitalisierung, Heft 344, auf SSRN abrufbar
Peters H (2012) Wirtschaftsmathematik, 4. Aufl. W. Kohlhammer GmbH, Stuttgart, ISBN 978-3-
17-022195-6
Präsentation zum Vortrag der BaFin „Überblick über die Verordnung (EU) 2018/2088“
Sharpe WF (1964) Capital asset prices: a theory of market equilibrium under conditions of risk.
The Journal of Finance 19(3):425–442
Verordnung (EU) 2019/2088 des Europäischen Parlaments und des Rates vom 27. November 2019
über nachhaltigkeitsbezogene Offenlegungspflichten im Finanzdienstleistungssektor
Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates vom 18. Juni 2020 über
die Einrichtung eines Rahmens zur Erleichterung nachhaltiger Investitionen und zur Änderung
der Verordnung (EU) 2019/2088
Wittpahl V (2016) Digitalisierung, iit-Themenbank, Springer, ISBN 978–3–662–52853–2. https://
docplayer.org/122732274-Allgemeine-betriebswirtschaftslehre.html
Das KI-Tool jCORA (Fink et al. 2021b; Bergenrodt et al. 2015a, b) – das Akronym jCORA
steht für „java based Case- and Ontology-based Reasoning Application“ – stellt eine proto-
typische Software für ein ontologiegestütztes CBR-System dar. Es wurde am Institut für
Produktion und Industrielles Produktionsmanagement der Universität Duisburg-Essen
für die „intelligente“ Wiederverwendung von Erfahrungswissen im betrieblichen Projekt-
management im Rahmen des BMBF-Verbundprojekts OrGoLo entwickelt und im Rahmen
© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 225
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_13
226 Z. Stephan et al.
wird, auf der Instanzen- oder Objektebene mithilfe des CBR-Systems jCORA als die
Instanziierung einer Projekt-Ontologie auffassen, die zuvor auf der Konzept- oder
Metaebene mithilfe eines Ontologie-Editors wie Protégé erstellt wurde. Ein ontologie-
gestütztes CBR-System wie jCORA bewegt sich also – im Gegensatz zu den zugrunde
liegenden Ontologien – immer auf der Instanzenebene. Dies stellt für den praktischen
Einsatz von jCORA einen wichtigen Hintergrund dar, der bei einem „unreflektierten“
Gebrauch dieses KI-Tools leicht übersehen werden könnte.
Bei näherem Hinsehen zeigt sich jedoch, dass die Unterscheidung zwischen Konzept-
oder Metaebene, auf der Ontologien angesiedelt sind, und der Instanzen- oder Objekt-
ebene, auf der CBR-Systeme operieren, doch nicht so klar ist, wie im voranstehenden
Absatz „prima facie“ nahegelegt wurde. Diese „Ebenenvermengung“ tritt dadurch ein,
dass sich auch in Ontologien Instanzen – vor allem in der Gestalt von konzeptzugehörigen
Individuen und von Attributwerten – spezifizieren lassen. Diese Option bietet u. a. auch
der Ontologie-Editor Protégé. Um diese „Ebenenvermengung“ zu bereinigen, bietet sich
folgende Demarkation an: In Ontologien können Instanzen (vor allem Individuen für
Konzepte und Werte für Attribute) spezifiziert werden, solange sie sich nicht ausschließlich
auf einen einzelnen, konkreten Realitätsausschnitt auf der Objektebene beziehen, sondern
„nur“ auf der Metaebene die sprachlichen – jetzt instanzenbezogenen – Ausdrucksmittel
bereitstellen, mit denen sich Instanzen aus beliebigen Realitätsausschnitten bezeichnen
lassen. Beispielsweise können in einer Projekt-Ontologie auf der Metaebene für sämt-
liche Erdteile, Nationen und Regionen die Mengen konkreter Instanzen als grundsätzlich
zulässige sprachliche Ausdrucksmittel angelegt werden, ohne festzulegen, welche dieser
sprachlichen Ausdrucksmittel für ein einzelnes, konkretes Projekt tatsächlich verwendet
werden. Aus dieser „verfeinerten“ Perspektive können in einer Ontologie auf der Konzept-
oder Metaebene zwar Mengen zulässiger Instanzen spezifiziert werden, aber die Auswahl
einzelner Instanzen daraus erfolgt erst auf der Instanzen- oder Objektebene im Rahmen
eines CBR-Systems, mit dessen Hilfe das Wissen über einzelne, konkrete Objekte erfasst,
verarbeitet und gegebenenfalls wiederverwendet (also insgesamt „gemanagt“) wird.
Im Hinblick auf den CBR-Zyklus liegt ein besonderer Fokus des KI-Tools jCORA
auf der Retrieve-Phase, in der mittels eines Berechnungsalgorithmus (Bergenrodt et al.
2015a) die Ähnlichkeiten zwischen alten und neuen Projekten ermittelt werden können.
Der Berechnungsalgorithmus erweist sich als komplexer als die meisten analogen ähn-
lichkeitsbezogenen Algorithmen in anderen CBR-Systemen. Dies liegt vor allem
daran, dass in jCORA eine „rekursive“ Ähnlichkeitsberechnung erfolgt (Bergenrodt
et al. 2015b) und Einschränkungen auf jeweils zwei miteinander zu vergleichende
Projektmerkmale in der Gestalt von Limitationen hinsichtlich der Kardinalitäten von
Relationen und Attributen wie im CBR-System „myCBR“ vermieden werden. Auf die
Details dieses Berechnungsalgorithmus für projektbezogene Ähnlichkeiten kann in der
hier gebotenen Kürze nicht näher eingegangen werden. Stattdessen wird auf ausführ-
liche Beschreibungen der Funktionsweise dieses Berechnungsalgorithmus einschließlich
zugrunde liegender Berechnungsformeln und Berechnungsbeispiele verwiesen, die an
anderer Stelle dokumentiert sind (Bergenrodt et al. 2015b).
228 Z. Stephan et al.
Anwendungen des KI-Tools jCORA nur noch von Projekten – sowohl auf der Instanzen-
als auch auf der Konzeptebene – die Rede sein und durch andere Bezeichnungszusätze
zwischen Instanzen- und Konzeptebene unterschieden werden. Beispielsweise kann auf
der Instanzenebene von einer „Projektbeschreibung_Projekt_4711“ für ein konkretes
Projekt mit der Bezeichnung „Projekt_4711“ gesprochen werden, während auf der
Konzeptebene weiterhin die generische Bezeichnung „Projektbeschreibung“ (für alle im
CBR-System berücksichtigten Projekte) verwendet wird.
Darüber hinaus bietet das KI-Tool jCORA die Möglichkeit, zwischen globalen
und lokalen Instanzen zu unterscheiden. Sie beziehen sich jeweils auf alle Projekte
(„global“), die mittels jCORA aus der Wissensperspektive „gemanagt“ werden und in
der Wissensbasis von jCORA gespeichert sind oder gespeichert werden können, bzw. auf
nur ein einzelnes Projekt („lokal“). Diese Unterscheidung kann sich auf die Funktions-
weise des Berechnungsalgorithmus für die Ähnlichkeit zwischen Projekten auswirken,
lässt sich aber in der hier gebotenen Kürze nicht im Detail erläutern.
Ausgehend von der Instanz „Fallbeschreibung“ kann per Rechtsklick eine neue nicht-
taxonomische Relation zur Erweiterung des Fallgraphs hinzugefügt werden. Es öffnet
sich das Fenster „Relation hinzufügen“, das in Abb. 2 dargestellt ist.
Wie aus Abb. 2 ersichtlich, wird dem Benutzer eine Vielzahl von nicht-taxonomischen
Relationen angezeigt. Grundsätzlich werden dem Benutzer alle nicht-taxonomischen
Relationen angezeigt, die in der zugrundeliegenden Projekt-Ontologie dasjenige Konzept
oder ein dem angezeigten Konzept übergeordnetes Konzept – im vorliegenden Bei-
spiel das Konzept „Projektbeschreibung“ – im Vorbereich („Domain“) haben, dem
die in jCORA jeweils ausgewählte Instanz – hier die Instanz „Fall-beschreibung“ –
zugeordnet ist. Mittels der jeweils ausgewählten Relation kann die bereits ausgewählte
Instanz mit einer Instanz verknüpft werden, die zu einem anderen Konzept gehört, das
in der zugrundeliegenden Projekt-Ontologie im Nachbereich („Range“) der jeweils
betroffenen nicht-taxonomischen Relation vorkommt. Eine solche Instanz kann entweder
als sogenannte lokale Instanz in jCORA selbst oder als globale Instanz in der zugrunde-
liegenden Projekt-Ontologie spezifiziert werden. Bestehende Instanzen – d. h. entweder
globale Instanzen aus der zugrunde liegenden Projekt-Ontologie oder lokale Instanzen,
die im jeweils betrachteten Projekt („Fall“) bereits angelegt wurden – werden in der
Abb. 2 im Fenster auf der rechten Seite angezeigt. Solche Instanzen bestehen im hier
betrachteten Beispiel jedoch noch nicht und müssen daher neu angelegt werden. Um eine
neue Instanz zu erstellen, wird zunächst der Button „Neue Instanz …“ angeklickt. Es
öffnet sich das nachfolgend in Abb. 3 dargestellte Fenster.
Wie in Abb. 3 exemplarisch dargestellt wird, erfolgt das Erstellen einer neuen Instanz,
indem für die Instanz ein Name vergeben und die Instanz einem in der zugrunde-
liegenden Ontologie modellierten Konzept zugeordnet wird. Anschließend kann der
Button „Erstellen“ gedrückt werden und die Instanz hinzugefügt werden. Ist die Instanz
erfolgreich hinzugefügt worden, erweitert sich der Fallgraph in jCORA um die hinzu-
gefügte Relation, verknüpft mit der hinzugefügten Instanz. Abbildung 4 verdeutlicht die
exemplarische Erweiterung des Fallgraphs.
Case-based Reasoning als White-Box AI: „intelligentes“ … 231
Wie aus Abb. 11 ersichtlich, ist in jCORA lediglich die Anpassungsregel „Kopiere
Lösung“ hinterlegt. Mit ihrer Hilfe kann die gesamte Lösung eines bereits bearbeiteten,
alten Projekts in die Lösung für ein neues Projekt kopiert werden. Eine solche
Anpassung wird auch als Nulladaption bezeichnet (Bergmann et al. 2021; Bergenrodt
et al. 2015b). Sie ist aus der Sicht des betrieblichen Projektmanagements unbefriedigend,
weil das schlichte Kopieren einer alten Projektlösung wegen der „Einzigartigkeit“ von
Projekten mit großer Wahrscheinlichkeit keine überzeugende Lösung für ein neues
Projekt liefern wird. Stattdessen kann eine solche Kopieraktivität lediglich eine „Aus-
gangslösung“ offerieren, die vom Benutzer des KI-Tools jCORA an die Besonderheiten
der Beschreibung eines neuen Projekts „manuell“ angepasst werden muss. Ein solches
„manuelles“ Anpassungserfordernis widerspricht der Anforderung, Projekte möglichst
weitgehend mit „intelligenten“ KI-Tools computerunterstützt managen zu können.
Allerdings bietet das KI-Tool eine „generische“ Anpassungsfunktion „adapt“
(Bergenrodt et al. 2015b; Zelewski et al. 2022). Diese Anpassungsfunktion kann als
eine „funktionale Blaupause“ oder „Shell“ genutzt werden kann, um mittels einer
präzise definierten Syntax benutzerspezifische Anpassungsregeln zu spezifizieren. Diese
Anpassungsregeln legen fest, wie die Lösung eines ausgewählten alten Projekts an die
Beschreibung eines neuen Projekts angepasst werden kann.
Um eine Anpassungsregel in jCORA anzuwenden, gilt es, die entsprechende
Anpassungsregel aus der Menge der vorhandenen Anpassungsregeln (linke Seite in der
Abb. 11) auszuwählen und mittels Anklickens des in Abb. 11 nach rechts weisenden
Pfeils zu den ausgewählten Regeln (rechte Seite in der Abb. 11) hinzuzufügen. Die nach-
folgende Abb. 12 verdeutlicht die Anwendung der Anpassungsregel „Kopiere Lösung“,
die bislang als einzige Anpassungsregel in jCORA implementiert ist.
Nachdem die jeweilige(n) Anpassungsregel(n) ausgewählt wurde(n), muss schließlich
am rechten unteren Rand, wie in Abb. 12 nachzuvollziehen, der Button „Anwenden“
angeklickt werden. Anschließend werden alle ausgewählten Anpassungsregeln auf das
neue Projekt angewendet.
Neben der automatischen Anpassung mittels Anpassungsregeln besteht, wie bereits
erwähnt, zudem die Möglichkeit, manuelle Anpassungen entweder ergänzend zur
Anwendung von computergestützten Anpassungsregeln oder auch von vornherein vor-
zunehmen. Dazu kann die vorläufige Lösung eines neuen Projekts beliebig – allerdings
unter Beachtung der durch die jeweils zugrunde liegende Projekt-Ontologie zur Ver-
fügung gestellten sprachlichen Ausdrucksmittel – angepasst, um neue Wissens-
komponenten erweitert oder auch von alten Wissenskomponenten bereinigt werden.
Im Rahmen der nachfolgenden Revise-Phase können die vorgenommen Anpassungen
hinsichtlich ihrer Eignung im Hinblick auf die Anforderungen des neuen Projekts über-
prüft und evaluiert werden. Eine automatische Überprüfung und Evaluation durch
jCORA sind gegenwärtig nicht möglich. Die Überprüfung und Evaluation müssen daher
derzeit noch durch Benutzer des KI-Tools – wie z. B. durch Projektmanagementexperten
– erfolgen. Die Überprüfungs- und Evaluationsergebnisse sind wichtige Wissensbestand-
teile für die dritte Wissenskomponente der eingangs vorgestellten Wissensstruktur im
Case-based Reasoning als White-Box AI: „intelligentes“ …
Abb. 11 Anpassung der Lösungen alter Projekte an die Beschreibung eines neuen Projekts in jCORA
243
244
Abb. 14 Ausschnitt aus einem mit jCORA erstellten Fallgraphen für ein IT-Projekt
247
248 Z. Stephan et al.
Aus der Abb. 14 wird deutlich, dass sich Projekt-Ontologien und ihre Anwendung auf
konkrete Projekte im KI-Tool jCORA mittels Instanziierung der ontologiezugehörigen
Konzepte und Relationen in ihrer Gesamtheit nur schwer visualisieren lassen. Obwohl
es sich bei der Abb. 14 lediglich um einen Ausschnitt aus einer instanziierten Projekt-
Ontologie in jCORA handelt, wirkt bereits dieser Fallgraph unübersichtlich. Dies gilt
insbesondere im Hinblick auf die zahlreichen Knoten- und Kantenüberschneidungen
sowie die nicht immer klaren Zuordnungen von Kantenanschriften zu Kanten. In dieser
Hinsicht lässt die Visualisierung von instanziierten Projekt-Ontologien in jCORA mittels
Fallgraphen noch erhebliche Wünsche an die Übersichtlichkeit der Fallgraphen offen.
Daher lassen sich „große“ instanziierte Projekt-Ontologien für betriebswirtschaftlich
realistische Projekte in der Regel nicht mehr visuell aufbereiten, sondern müssen anhand
von vor allem tabellarischen Darstellungen der involvierten Instanzen von Konzepten
und Relationen mühsam nachvollzogen werden.
Abb. 15 zeigt einen weiteren Ausschnitt, dieses Mal jedoch aus einer Projekt-Onto-
logie, die mithilfe des Ontologie-Editors Protégé erstellt wurde. Der Ontologie-Aus-
schnitt bezieht sich auf Kompetenzen von Projektmitarbeitern. Die Knoten in der Grafik
(Ontologie-Graph), die in Protégé mittels der Funktion „Export Graph as Image“ sowie
mithilfe des Plug-ins „Onto-Graf“ editiert wurde, repräsentieren entweder Kompetenz-
arten als Konzepte (oder synonym als „Klassen“ oder „Typen“, jeweils mit einem
Kreis in der linken oberen Knotenecke) oder einzelne, konkrete Kompetenzen (oder
synonym als „Instanzen“, jeweils mit einer Raute in der linken oberen Knotenecke).
Die gerichteten Kanten drücken aus, dass ein Konzept (Superkonzept) einem anderen
Konzept (Subkonzept) übergeordnet ist oder ein Konzept die untergeordneten Instanzen
umfasst.
Aus Abb. 15 wird ersichtlich, dass nur einigen, aber nicht allen Konzepten jeweils
konkrete Instanzen zugeordnet sind. Dies entspricht dem bereits an früherer Stelle dis-
kutierten Freiheitsgrad, dass in einer Ontologie Instanzen spezifiziert werden können,
aber nicht müssen. Darüber hinaus lässt sich erkennen, dass sich die Visualisierung
des Ontologie-Ausschnitts nicht als benutzerfreundlich erweist. Dies liegt einerseits
an den unübersichtlichen Kantenüberschneidungen und andererseits an den „hässlich“
anmutenden Zeilenumbrüchen in den Knoteninschriften.
Am Ende der Bearbeitung eines neuen Projekts wird im Rahmen der Retain-
Phase das mittels Case-based Reasonings bearbeitete neue Projekt mit seinen drei
charakteristischen Wissenskomponenten der Projektbeschreibung, der Projektlösung
und der Projektbewertung in der Projektwissensbasis als „gelerntes“ Wissen gespeichert.
Dieses Projektwissen steht für nachfolgende Anwendungen des KI-Tools jCORA als
Wissen über ein nunmehr altes, bereits bearbeitetes Projekt zur Verfügung.
Case-based Reasoning als White-Box AI: „intelligentes“ … 249
Abb. 15 Ausschnitt aus einer mit Protégé erstellten Projekt-Ontologie mit Fokus auf Projekt-
kompetenzen
• Zwar kann ein Benutzer des KI-Tools jCORA unabhängig vom Berechnungsalgorith-
mus für Projektähnlichkeiten mithilfe der integrierten Suchfunktion auch nach
eigenem „Gutdünken“ gezielt nach ähnlichen Projekten suchen. Dies kommt der
Anforderung entgegen, einen Benutzer nicht einseitig einem „KI-Algorithmus auszu-
liefern“, sondern ihm auch ein autonomes Suchverhalten zu ermöglichen. Allerdings
unterstützt die Suchfunktion in jCORA bisher nur die Suche nach einer Fall-ID (sie
entspricht einer eindeutigen Projektbezeichnung). Dies ist wenig benutzerfreundlich.
Stattdessen wäre es wünschenswert, ähnliche Projekte auch anhand von betriebs-
wirtschaftlich relevanten Kriterien, wie z. B. Branche, Region oder Projekttyp, aus-
wählen zu können. Dies ist in jCORA derzeit jedoch noch nicht möglich.
• Zwar bietet das KI-Tool jCORA die Möglichkeit, in einer Projektbeschreibung oder
Projektlösung nach Instanzen mit einer bestimmten Eigenschaft zu suchen, wie z. B.
nach einem Mitarbeiter mit einer bestimmten Kompetenz, wie etwa im allgemeinen
IT- oder im speziellen KI-Bereich. Aber es wird von jCORA nur das erste Suchergeb-
nis ausgewiesen. Es ist nicht möglich, sich eine Liste aller Instanzen anzeigen zu
lassen, die das Suchkriterium erfüllen.
• Die Auswahl von nur einem ähnlichsten alten Projekt, um das Wissen über dessen
Projektbearbeitung auf ein neues Projekt zu übertragen, kann sich als zu eng
erweisen. Stattdessen sollte erwogen werden, für die Bearbeitung eines neuen
Projekts das Wissen über mehrere, jeweils möglichst ähnliche alte Projekte heran-
zuziehen. Die Bestimmung der Anzahl einzubeziehender möglichst ähnlicher alter
Projekte bleibt derzeit jedoch weitgehend im Dunkeln.
• Es existieren keine klaren Handlungsempfehlungen dafür, wie hoch die Mindest-
schwelle für akzeptable Mindestähnlichkeiten für alte Projekte festgelegt werden
sollte, die in die Reuse-Phase für die Bearbeitung neuer Projekte einbezogen werden.
• Die Anpassung von Projektlösungen für alte, möglichst ähnliche Projekte (mit
akzeptabler Mindestähnlichkeit zu einem neuen Projekt) an ein neues Projekt wird in
der Reuse-Phase nicht „effektiv“ unterstützt. Es wird lediglich eine „Copy-Funktion“
für die Übernahme der Projektlösung eines alten Projekts angeboten. Ein solches
Kopieren einer alten Projektlösung leistet jedoch keinen konstruktiven Beitrag zu
ihrer Anpassung an ein neues Projekt.
• Für die Revise-Phase werden keine computergestützten Hilfen offeriert, um
Empfehlungen zur Lösung eines neuen Projekts hinsichtlich ihrer Plausibilität zu
überprüfen („validieren“) und hinsichtlich ihrer Eignung zur Wiederverwendung zu
evaluieren.
• Die Visualisierung von instanziierten Projekt-Ontologien mittels Fallgraphen erweist
sich in jCORA für betriebswirtschaftlich realistische Projekte im Allgemeinen als
unübersichtlich und infolgedessen als benutzerunfreundlich.
• Es fehlt in jCORA an einem Rollenkonzept, mit dessen Hilfe sich festlegen lässt,
welche Benutzergruppen – z. B. definiert über spezielle Benutzerrollen – welche
Zugriffsrechte, insbesondere Lese- und Schreibrechte, auf welche Wissens-
komponenten in der Projektwissensbasis besitzen. Beispielsweise kann es seitens des
Case-based Reasoning als White-Box AI: „intelligentes“ … 251
Insgesamt betrachtet, lässt sich festhalten, dass vom KI-Tool jCORA mehrere
Erwartungen, die an ein ontologiegestütztes CBR-System gerichtet werden, derzeit
noch nicht erfüllt werden. Aber dieses (selbst-)kritische Urteil sollte insofern relativiert
werden, als die oben angeführten (eventuell auch mehr) Kritikpunkte auch gegenüber
anderen KI-Tools für ontologiegestützte CBR-Systeme in derselben Ergebnisoffenheit
zu diskutieren wären. Ein wissenschaftlicher Diskurs („Benchmarking“) hinsichtlich
der Leistungsfähigkeit solcher ontologiegestützter CBR-Systeme wäre aus der Sicht der
Verfasser dieses Beitrags hochwillkommen. Insbesondere wäre es wünschenswert, einen
„übergreifend“ akzeptierten Katalog von Leistungskriterien zu vereinbaren, die einem
solchen „Benchmarking“ zugrunde liegen. Vielleicht vermag der vorliegende Beitrag die
Entwicklung eines solchen Kriterienkatalogs zu „motivieren“.
Im Gegensatz zum „Mainstream“ der modernen KI-Forschung, der vor allem durch Deep
Learning Networks und – oftmals nicht klar voneinander getrennt – Machine Learning
gekennzeichnet ist, gehört das Case-based Reasoning zu einem speziellen, aber ebenso
sehr leistungsfähigen Forschungsansatz der KI. Es betrifft den Ansatz der „White-Box
AI“, weil Case-based Reasoning von vornherein so angelegt ist, dass ein CBR-System
seinem Anwender erklären kann (Amin 2021), wie es zu seinen Handlungsempfehlungen
für die Lösung eines neuen Problems, wie etwa der Planung, der Durchführung, der
Steuerung und dem Controlling eines neuen Projekts, gelangt ist. Diese „intrinsisch“
angelegte Erklärungsfähigkeit und somit auch Transparenz seiner Funktionsweise unter-
scheidet Case-based Reasoning deutlich von Deep Learning Networks und Machine
Learning, die aufgrund der schweren Nachvollziehbarkeit ihrer internen Funktions-
weisen überwiegend dem Ansatz der „Black-Box AI“ zugerechnet werden.
Aus den vorgenannten Gründen eignet sich ein ontologiegestütztes CBR-System wie
das KI-Tool jCORA aufgrund seiner Zugehörigkeit zum Ansatz der „White-Box AI“
vor allem für solche Managementaufgaben, die im betrieblichen Alltag nicht nur zur
Bewältigung von Mengenproblemen einer Computerunterstützung bedürfen, sondern
aus Gründen der Akzeptanz von computergestützt erzeugten Handlungsempfehlungen
252 Z. Stephan et al.
durch die jeweils betroffenen Mitarbeiter und Kunden ebenso eine leicht nachvollzieh-
bare Erklärung dieser Handlungsempfehlungen benötigen. Insbesondere auf der
Managementebene von Unternehmen wird dieser Akzeptanzaspekt oftmals unterschätzt.
Ein ontologiegestütztes CBR-System wie das KI-Tool jCORA schließt diese
Akzeptanz- und Erklärungslücke im Projektmanagement, indem die Empfehlungen für
die Bearbeitung eines neuen Projekts auf der Basis der Wiederverwendung von Wissen
– insbesondere Erfahrungswissen – über bereits bearbeitete, alte Projekte schrittweise
nachvollzogen werden kann und sich auch durch Visualisierungen der jeweils ein-
bezogenen Wissenskomponenten verdeutlichen lässt. Dazu tragen vor allem die im
Prinzip jederzeit mögliche Überprüfung der Berechnungsergebnisse des eingesetzten
Ähnlichkeitsalgorithmus, die Festlegung von Mindestähnlichkeiten, die transparente
Festlegung von Gewichten für bearbeitungsrelevante Attribute und Relationen sowie der
Ausweis aller alten Projekte bei, welche die vorgegebene Mindestähnlichkeit erreichen
oder überschreiten. Falls ein KI-Tool wie jCORA auch noch um Anpassungsregeln für
die Anpassung der Projektlösung(en) für (mindestens) ein ähnlichstes altes Projekt an die
Projektbeschreibung eines neuen Projekts – über die rein kopierbasierte „Nulladaption“
hinaus – erweitert wird, lässt sich noch besser erklären, anhand welcher Anpassungs-
regeln die Handlungsempfehlung in der Gestalt einer Projektlösung für ein neues Projekt
computergestützt gewonnen wurde. Mit einer derart reichhaltig fundierten Erklärungs-
fähigkeit gehen ontologiegestützte CBR-Systeme als Exemplare der „White-Box AI“
weit über die Erklärungsansätze hinaus, die zurzeit für die „Black-Box AI“ unter der
Bezeichnung des „Explainable AI“ diskutiert werden, aber aus inhaltlicher Sicht im
Allgemeinen auf nicht mehr als auf statistischen Korrelationen zwischen Input- und
Outputdatenmustern beruhen. Solche Korrelationen besitzen jedoch – zumindest aus
erkenntnistheoretischer Perspektive – allenfalls eine schwache Erklärungskraft.
Des Weiteren kann ein ontologiegestütztes CBR-System aus der Management-
perspektive – gemeint ist hier nicht nur das Projekt-, sondern auch das IT-Management
– als ein „Kristallisierungskeim“ für Bestrebungen dienen, im wissensintensiven Projekt-
management ein „Knowledge Repository“, „Wissensportal“ oder „Projektportal“ zu
etablieren, mit dessen Hilfe die Mitarbeiter des Projektmanagements eines Unter-
nehmens – in Abhängigkeit von ihren Zugriffsrechten (z. B. auf der Basis eines Rollen-
konzepts) – auf verfügbares projektrelevantes Wissen, insbesondere Erfahrungswissen
über alte, bereits bearbeitete Projekte, zugreifen können. Eine solches „Portal“ hätte den
Vorzug, dass die Mitarbeiter sich nicht durch das Dickicht „diffus verstreuten“ Wissens
über alte Projekte in den IT-Systemen eines Unternehmens „quälen“ müssen, sondern
mithilfe eines unternehmensweit zentral administrierten Wissens- oder Projektportals die
Gelegenheit besitzen, stets über eine klar definierte IT-Schnittstelle – z. B. mittels einer
„modernen“ Browser-Software – auf das unternehmensweit verfügbare, explizit archi-
vierte Projektwissen zurückgreifen zu können.
Darüber hinaus ist ein ontologiegestütztes CBR-System wie das KI-Tool jCORA in
der Lage, die fünf wesentlichen Herausforderungen (Probleme) des Projektmanagements
– allerdings in unterschiedlichem Ausmaß – zu meistern, die im vorangehenden Beitrag
Case-based Reasoning als White-Box AI: „intelligentes“ … 253
längere Sicht einen höheren Nutzen durch Bereitstellung und Wiederverwendung von
(Erfahrungs-)Wissen bewirken kann. Außerdem gehört es zu den typischen Aufgaben des
Projektmanagements, sich um die innerbetrieblichen Schnittstellen zwischen diversen
IT-Systemen zu kümmern. Dies betrifft vor allem die Anforderung, dass in einem KI-
Tool für das betriebliche Projektmanagement wie jCORA auch projektrelevantes Wissen
erfasst und wiederverwendet werden kann, dass in anderen betrieblichen IT-Systemen
gespeichert ist.
Das Wissenserosionsproblem wird durch ein KI-Tool wie jCORA gelöst, sofern es
gelingt, projektrelevantes Erfahrungswissen von Projektmanagern mit großer Berufs-
erfahrung in einem solchen ontologiegestützten CBR-System als Wissen über bereits
bearbeitete, alte Projekte zu archivieren. In dieser Hinsicht gelten Ausführungen zum
Wissensdispersionsproblem in analoger Weise. Dies betrifft vor allem Anreizsysteme,
die Projektmanager motivieren, ihr reichhaltiges Erfahrungswissen in ein solches KI-
Tool einzubringen. Aber auch die Anforderung, die Benutzerfreundlichkeit eines solchen
KI-Tools erheblich zu steigern, kann die Bereitschaft der Projektmanager fördern, ihr
Erfahrungswissen in ein KI-Tool wie jCORA einzubringen. Sowohl die Etablierung von
Anreizsystemen im Wissensmanagement als auch die Förderung der Benutzerfreundlich-
keit von KI-Tools stellen typische Aufgaben der Managementebene dar.
Das Wissensformproblem wird durch ein ontologiegestütztes CBR-System fast voll-
ständig gelöst, weil ein solches KI-Tool dafür prädestiniert ist, qualitatives, überwiegend
natürlichsprachliches (Erfahrungs-)Wissen computergestützt zu erfassen und auszu-
werten, vor allem zur Bearbeitung neuer Projekte zielgerichtet wiederzuverwenden. Aus
der Managementperspektive ergeben sich in dieser Hinsicht keine speziellen Handlungs-
erwartungen.
Auch das Wissensmengenproblem wird durch ein ontologiegestütztes CBR-System
fast vollständig gelöst, weil ein solches KI-Tool „im Prinzip“ erlaubt, beliebig große
Projektwissensbasen mit (Erfahrungs-)Wissen über bereits bearbeitete, alte Projekte
hinsichtlich der Bearbeitung eines neuen Projekts „intelligent“ auszuwerten. Die
Konstruktion der Lösung für ein neues Projekt anhand der Lösung (mindestens) eines
ähnlichsten alten Projekts unterstützt sowohl die Effektivität als auch die Effizienz des
Projektmanagements. Die Effektivität des Projektmanagements lässt sich z. B. im Hin-
blick auf die Projektdurchführungsqualität – vor allem die Ergebnisqualität – fördern,
indem Erfahrungswissen über kritische Erfolgsfaktoren, vor allem auch kritische
Misserfolgsfaktoren verwendet wird, um aus früheren Fehlern zu lernen und dadurch
Qualitätsmängeln bei neuen Projekten vorzubeugen. Auch die Effizienz des Projekt-
managements, wie z. B. in Bezug auf geringere Projektplanungsdauern, kann durch die
computergestützte Wiederverwendung von (Erfahrungs-)Wissen über bereits bearbeitete,
alte Projekte erheblich gesteigert werden, weil neue Projekte nicht „von Grund auf“
(„planning from scratch“) neu geplant werden müssen.
Allerdings stehen diese beiden optimistischen Einschätzungen unter mindestens vier
grundsätzlichen Vorbehalten, die sich sowohl an das Management von Unternehmen mit
Case-based Reasoning als White-Box AI: „intelligentes“ … 255
3 Ausblick
eines ähnlichsten alten Projekts als Grundlage für die Bearbeitung eines neuen Projekts
mithilfe projektspezifischer Ähnlichkeitswerte begründen, eventuell ergänzt um die Ein-
haltung oder Verletzung vorgegebener Mindestähnlichkeiten. Aber die ausgewiesenen
Ähnlichkeitswerte müssen vom Benutzer eines CBR-Systems „geglaubt“ werden, weil
die eingesetzten Algorithmen zur Ähnlichkeitsberechnung viel zu komplex sind, als
dass sie sich unmittelbar „durchschauen“ ließen. Daher wäre es im Interesse der Trans-
parenz und Nachvollziehbarkeit – in Übereinstimmung mit dem Konzept der bereits
hervorgehobenen „White-Box AI“ – willkommen, wenn einem Benutzer die Möglichkeit
geboten würde (z. B. mittels eines Buttons „Erläuterung der Ähnlichkeitsberechnung“),
vom CBR-System ein Protokoll der konkret durchgeführten Ähnlichkeitsberechnung
anzufordern und auch zu archivieren oder auszudrucken. An das Berechnungsprotokoll
lassen sich weitergehende Anforderungen aus der Sicht einer benutzerfreundlichen
Erklärungsfähigkeit stellen. Dazu gehört beispielsweise die Anforderung, dass nicht
nur numerische Berechnungen protokolliert werden, sondern auch hinterlegt wird, auf-
grund welcher allgemeiner Berechnungsformeln (in Bezug auf eine Dokumentation des
implementierten Berechnungsalgorithmus) diese Berechnungen erfolgt sind.
Bezüglich der Reuse-Phase wird vom KI-Tool jCORA die Anpassung von Projekt-
lösungen für alte, möglichst ähnliche Projekte (mit akzeptabler Mindestähnlichkeit
zu einem neuen Projekt) an ein neues Projekt noch nicht unterstützt. Es wird ledig-
lich eine „Copy-Funktion“ für die Übernahme der Projektlösung eines alten Projekts
angeboten. Ein solches Kopieren einer alten Projektlösung leistet jedoch keinen Bei-
trag zu ihrer Anpassung an ein neues Projekt. Auch andere Ansätze zur Anpassung von
Projektlösungen für alte Projekte an neue Projekte überzeugen derzeit noch nicht. Es
handelt sich entweder um sehr abstrakte, weitgehend formalsprachliche Anpassungs-
konzepte ohne den wichtigen semantischen Bezug zu qualitativem Erfahrungswissen.
Oder es handelt sich um Anpassungskonzepte für Spezialfälle, wie z. B. die Anpassung
von Kostenschätzungen für neue Projekte an Wissen über die Kosten alter Projekte. Ins-
gesamt betrachtet, liegen für das Wissensanpassungsproblem des Case-based Reasonings
aus betriebswirtschaftlicher Sicht – sowohl in Bezug auf die semantische Wissensver-
arbeitungsdimension als auch in Bezug auf die Allgemeinheit der Anpassungsfähig-
keit – bisher noch keine überzeugenden Lösungsvorschläge vor. Daher kann aktuell von
einem „adaptiven Lösungsdefekt“ des Case-based Reasonings zumindest aus betriebs-
wirtschaftlicher Perspektive gesprochen werden.
Für die Revise-Phase werden keine computergestützten Hilfen offeriert, um
Empfehlungen zur Lösung eines neuen Projekts hinsichtlich ihrer Plausibilität zu
überprüfen („validieren“) und hinsichtlich ihrer Eignung zur Wiederverwendung zu
evaluieren. Hierfür werden in der einschlägigen Fachliteratur – wenn überhaupt – nur
plausible, aber kaum verallgemeinerbare Beispiele für „passende“ Einzelfälle erwähnt.
Für eine allgemein einsetzbare, computergestützte Überprüfung und Evaluierung von
Lösungsempfehlungen, die durch ein CBR-System generiert werden, bedarf es daher
weitreichender zukünftiger Forschungen.
Case-based Reasoning als White-Box AI: „intelligentes“ … 259
Es wäre wünschenswert, aus den Resultaten der Reuse-Phase (Projektlösung) und der
Revise-Phase (Projektbewertung und gegebenenfalls überarbeitete Projektlösung) einen
übersichtlichen „Project Report“ in überwiegend natürlichsprachlicher Form generieren
zu können, der insbesondere über „Lessons Learned“ sowie über projektbezogene
kritische Erfolgs- und Misserfolgsfaktoren informiert.
Für die Visualisierung von instanziierten Projekt-Ontologien mittels Fallgraphen
sollte das KI-Tool jCORA erheblich überarbeitet werden. Hierfür bieten sich zwei Wege
an. Einerseits wird die „Funktionalität“ von jCORA im Hinblick auf die Generierung
und Überarbeitung von Fallgraphen erheblich erweitert. Dazu wäre es erforder-
lich, die generierten Fallgraphen im Nachhinein manuell ohne „Tricksereien“ über-
arbeiten zu können, um z. B. Überschneidungen von Knoten und Kanten zu entzerren,
Knotengrößen an die enthaltenen Instanzen- und Konzeptbezeichnungen anzupassen und
Kantenanschriften so zu verschieben, dass sie sich visuell klarer den jeweils betroffenen
Kanten zuordnen lassen. Eine solche Erweiterung von jCORA um die Fähigkeit, visuell
wesentlich überzeugendere Fallgraphen zu erstellen, wird jedoch erhebliche, vor allem
professionelle Programmierungsressourcen binden. Daher wäre es andererseits zu
erwägen, die „Funktionalität“ von jCORA nur insoweit zu erweitern, dass die in jCORA
generierten Fallgraphen über eine Software-Schnittstelle in eine betriebsübliche Grafik-
Software exportiert und dort entsprechend überarbeitet werden können. Als solche
Grafik-Softwares kommen vor allem MS PowerPoint und MS Visio in Betracht.
CBR-Systeme wie das prototypische KI-Tool jCORA und auch „Hilfssysteme“ wie der
Ontologie-Editor Protégé leiden hinsichtlich ihrer „Tauglichkeit“ für die betriebliche
Praxis grundsätzlich darunter, dass sie überwiegend an Forschungseinrichtungen – wie
z. B. Universitätsinstituten – entwickelt wurden, in denen eine andere Informations-
technik- oder Organisationskultur als in der betrieblichen Praxis herrscht.
Beispielsweise werden an Forschungseinrichtungen andere Programmiersprachen
(z. B. C#, Python und Java) und Entwicklungsumgebungen (z. B. Apache und Ruby on
Rails) bevorzugt, als es in der betrieblichen Praxis üblich ist (wie z. B. im Hinblick auf
betriebswirtschaftliche Standardsoftware im Umfeld von SAP, MS Navision und Oracle
– abgesehen von problematischer, weil veralteter „Legacy Software“ in Unternehmen).
Hinzu kommt, dass Anforderungen der betrieblichen Praxis an ein KI-Tool (Fink et al.
2021b; Schagen et al. 2020) oftmals andere Aspekte – wie etwa die Benutzerfreundlich-
keit – betonen als im Fokus von wissenschaftlichen Forschungsinteressen stehen (wie
z. B. die Ausdrucksmächtigkeit einer Wissensmodellierung und die „Performance“ eines
Algorithmus zur Ähnlichkeitsberechnung).
260 Z. Stephan et al.
Literatur