Als pdf oder txt herunterladen
Als pdf oder txt herunterladen
Sie sind auf Seite 1von 266

Organisationskompetenz Zukunftsfähigkeit

Gregor Weber Hrsg.

Markus Bodemann
Wiebke Fellner
Vanessa Just Hrsg.

Digitalisierung und
Nachhaltigkeit –
Transformation von
Geschäftsmodellen und
Unternehmenspraxis
Organisationskompetenz Zukunftsfähigkeit

Reihe herausgegeben von


Gregor Weber, ecoistics.institute, Breunigweiler, Rheinland-Pfalz, Deutschland
Das Thema Nachhaltigkeit gewinnt in Wirtschaft, Wissenschaft und Gesellschaft immer
mehr an Bedeutung. Die Management-Reihe „Organisationskompetenz Zukunftsfähig-
keit“ geht davon aus, dass die Wettbewerbsfähigkeit nicht nur eines jeden Unternehmens
sondern auch der Volkswirtschaft und so der Gesellschaft vom gesamtheitlichen Ein-
klang der ökonomischen, sozialen und ökologischen Herausforderungen abhängt. Der
Begriff Zukunftsfähigkeit geht hierbei über das bisherige Verständnis der Corporate
Social Responsibility (CSR), also der gesellschaftlichen Verantwortung von Unter-
nehmen hinaus, indem er Unternehmen als Teil der Gesellschaft definiert und den
Schwerpunkt auf das verantwortliche Handeln des Menschen als Individuum und somit
Kern eines jeden Unternehmens und der Gesellschaft setzt; dies bezeichnen wir auch
als Ecoistik. Durch ganzheitlich nachhaltiges Wirtschaften werden Organisationen in
Ihrer Zukunftsfähigkeit gestärkt und durch deren evolutionäre Weiterentwicklung wird
schließlich eine vollständige Transformation von deren Geschäftsfeldern und Modellen
möglich.
Um dies zu erreichen ist es notwendig, Managementwissen in den Bereichen
Zukunftsfähige Unternehmens- und Führungskultur, Organisationsentwicklung,
Transition/Change, Klima- und Umweltmanagement, Ressourceneffizienz, Gesund-
heitsmanagement und anderen klassischen betriebs- und volkswirtschaftlichen
Spezialdisziplinen (z.B. Forschung und Entwicklung, Personalwesen, Marketing,
Kommunikation, Produktion, etc.) und der Gesellschaft zu verzahnen, denn Zukunfts-
fähigkeit gelingt nur im Verbund, also gesamtsystemischer Betrachtung. Die Reihe
„Organisationskompetenz Zukunftsfähigkeit“ möchte genau hier ansetzen um
bestehenden wie künftigen Entscheidern eine Plattform zu bieten ihr Wissen und ihre
Kompetenz in diesem wichtigen Themenfeld auszubauen, aber auch durch Beisteuern
von Fach- und Praxisbeiträgen zu teilen. Denn nur, wenn Unternehmen umfänglich und
authentisch Zukunftsfähigkeit, also gesellschaftlichen Mehrwert generieren, können sie
auch in Zukunft erfolgreich am Markt bestehen.
Markus Bodemann · Wiebke Fellner ·
Vanessa Just
(Hrsg.)

Digitalisierung und Nach-


haltigkeit – Transformation
von Geschäftsmodellen und
Unternehmenspraxis
Hrsg.
Markus Bodemann Wiebke Fellner
Warburg, Deutschland Darmstadt, Deutschland

Vanessa Just
Hamburg, Deutschland

ISSN 2662-4192 ISSN 2662-4206 (electronic)


Organisationskompetenz Zukunftsfähigkeit
ISBN 978-3-662-65508-5 ISBN 978-3-662-65509-2 (eBook)
https://doi.org/10.1007/978-3-662-65509-2

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;


detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von
Springer Nature 2022
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen
Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und
Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.

Planung/Lektorat: Christine Sheppard


Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von
Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort

Digitalisierung und Nachhaltigkeit: Zwei Begriffe, die mehr sind als nur mediale
Buzzwords und maßgeblich Einfluss auf die Transformation von Unternehmen und
Gesellschaft nehmen.
Dabei ist Nachhaltigkeit auch mehr als Klimawandel und Naturschutz; Nachhaltig-
keit hat auch eine große Bedeutung und Einfluss auf Geschäftsprozesse und ist allgegen-
wärtig in unserem Alltag; jeder einzelne ist angehalten zu bewerten inwieweit das Thema
für ihn von Relevanz ist. Bei unserer eigenen Bewertung und im Kontext des Entstehens
des vorliegenden Buches haben wir gemerkt, dass es eigentlich einfach ist und schon
mit wenig Veränderungen große Auswirkungen erreicht werden können. Aber Vor-
sicht: Reboundeffekte sind nicht außer Acht zu lassen und werden oftmals vor allem im
Kontext der Digitalisierungsdiskussion noch vernachlässigt.
Digitalisierung und Nachhaltigkeit – Sie stellen einerseits den Treiber unserer Wirt-
schaft dar, werden aber in anderem Kontext, kurzfristig gedacht, auch als “Bremse”
betrachtet. Die Zielvorgaben der EU hin zur Klimaneutralität sind dabei herausfordernd
und es obliegt der Wirtschaft diese in die Praxis umzusetzen. Damit Deutschland
die beschlossenen Vorgaben der EU erreicht, hat die Bundesregierung ihre Klima-
schutzvorgaben verschärft und will bereits bis 2045 Treibhausgasneutralität erreichen.
Die UN-Klimakonferenz in Glasgow in 2021, wie auch die „Fridays for Future“-
Demonstrationen haben gezeigt, wie ambivalent unsere Gesellschaft dem Thema der
Nachhaltigkeit in Bezug auf Ökologie gegenübersteht. Doch Nachhaltigkeit beschreibt
mehr als die Definition und Umsetzung von Klimazielen. Nachhaltigkeit muss fest in der
Wirtschaft und der Gesellschaft verankert sein, um die Zukunftsfähigkeit sicherzustellen.
Aus diesem Grund steht für uns der Begriff der Nachhaltigkeit im engen Kontext mit
Digitalisierung und Technologien. Nachhaltigkeit erfordert Veränderung, also eine Trans-
formation; diese wiederum Technologie- und Innovationsmanagement. Die Komplexi-
tät dieses Transformationsprozesses muss dabei aus unserer Sicht Unternehmen aller
Branchen erfassen.
Mit der Zusammenstellung wissenschaftlicher und praxisnaher Beiträge möchten wir
Impulse über Branchen hinweg geben, wie Nachhaltigkeit in Unternehmen verankert ist
und werden kann und wie das Ausmaß dabei quantifiziert wird. Digitalisierung ist dabei

V
VI Vorwort

in jeder Branche zu finden und Nachhaltigkeit geht uns alle an: Nachhaltigkeit ist keine
Dimension, sondern sollte Bestandteil jedes Handelns in Hinblick auf Digitalisierung
sein.

Markus Bodemann
Wiebke Fellner
Vanessa Just
Inhaltsverzeichnis

Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Markus Bodemann, Wiebke Fellner und Vanessa Just

Technologie, Methoden, Auswertung/Messung


Case-based Reasoning als White-Box AI: „intelligentes“
Projektmanagement durch die computergestützte Wiederverwendung
von Erfahrungswissen in der betrieblichen Praxis – Teil 1: Grundlagen
aus der Management- und der KI-Perspektive. . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Stephan Zelewski, Tatjana Heeb und Jan Peter Schagen
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen . . . . . . . . . 31
Sabrina Hatzebruch, Vanessa Just und Andreas Moring
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige
Transitionen und resultierende Implikationen für Unternehmen. . . . . . . . . . . . . 47
Hans-Christian Busch
Awareness deutscher Unternehmen für nachhaltige Digitalisierung. . . . . . . . . . . 69
Philipp Damm
Daten als Schlüsselkomponente von Anwendungen Künstlicher
Intelligenz am Beispiel der Nachhaltigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Annemarie Paul
Entscheidungsunterstützung zur Auswahl einer geeigneten Blockchain-
Technologie mit einem Self-Enforcing Network. . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Erik Karger, Phil Gonserkewitz und Christina Klüver
Chancen und Herausforderungen beim Einsatz neuronaler
Netzwerke als Methoden der Künstlichen Intelligenz oder des Maschinellen
Lernens in KMU. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Christina Klüver und Jürgen Klüver

VII
VIII Inhaltsverzeichnis

Spezifische Innovationsleistungen und -lösungen


KI im deutschen Mittelstand: Wo stehen wir? Wo geht die Reise hin?. . . . . . . . . 151
Vanessa Just, Valentin Roth und Eduard Singer
Innovationsleistung digitaler Open Source-Netzwerke im Kontext
der SARS-CoV-2-Pandemiebekämpfung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Raphaël Murswieck
Digitale Lösungen mit Potenzial: Impulse und Beispiele zur Förderung
von nachhaltigem Konsumentenverhalten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Anna-Karina Schmitz, Florian Platzek und Katharina Göring-Lensing-Hebben
Quantitative Messung der Einflussstärke von ESG-Maßnahmen auf
die Rendite von Kapitalgebern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Jan Paul Becker
Case-based Reasoning als White-Box AI: „intelligentes“ Projektmanagement
durch die computergestützte Wiederverwendung von Erfahrungswissen
in der betrieblichen Praxis — Teil 2: Das KI-Tool jCORA für
ontologiegestütztes Case-based Reasoning im Projektmanagement . . . . . . . . . . . 225
Zelewski Stephan, Heeb Tatjana und Schagen Jan Peter
Einleitung

Markus Bodemann, Wiebke Fellner und Vanessa Just

Das Ihnen vorliegende Buch ist in zwei Teile aufgeteilt.

I) Technologie, Methoden, Auswertung/Messung


II) Spezifische Innovationsleistungen und -lösungen

Damit sollen einerseits wissenschaftliche Erkenntnisse aus verschiedenen Branchen


einen Einblick in den Stand neuer digitaler Technologien und Werkzeuge geben. Die
konkreten Beispiele aus der Praxis zeigen ergänzend im zweiten Abschnitt des Buches
mögliche Anwendungsszenarien mit einem Einblick in die reale Umsetzung auf.

I) Technologie, Methoden, Auswertung/Messung


Zelewski et al. stellen den Einsatz von Künstlicher Intelligenz im Rahmen von
Projektmanagement vor; ein Gebiet, das bisher noch wenig erforscht ist. Die oftmals
angenommene Einzigartigkeit von Projekten soll anhand der computergestützten Ver-
arbeitung von Erfahrungen für andere, ähnliche Projekte verwendet werden. Aus-
gang für die Forschung dafür sind die Herausforderungen des Projektmanagements:
Wissen-Akquisition, Lokalisierung von Wissen im Unternehmen, Abwanderung des

M. Bodemann (*)
Warburg, Deutschland
E-Mail: [email protected]
W. Fellner
Darmstadt, Deutschland
V. Just
Hamburg, Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 1
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_1
2 M. Bodemann et al.

personenimmanenten Wissens der Projektmitarbeiter, die Auswertung von Wissen und


das Problem des Wissensvolumens. Anhand von vier Phasen (retrieve, reuse, revise und
retain) soll dem Anwender die Möglichkeit gegeben werden, Ähnlichkeiten mit anderen
Projekten zu identifizieren, um so von bereits vorliegenden Erfahrungen zu partizipieren.
Jedoch kann der Einsatz von KI auch dazu führen, dass noch kein Erfahrungswissen vor-
liegt, um Anpassungen für potenzielle Probleme anzubieten.

Hatzebruch et al. bieten ein Messverfahren an, um die Nachhaltigkeit der eigenen
Digitalisierung zu messen; um Fortschritte und Herausforderungen zu dokumentieren,
aber auch um sich im Benchmark zu vergleichbaren Unternehmen einzuordnen. Ins-
besondere dann, wenn unternehmerische Verantwortung für die Zukunft ein Bestandteil
der Strategie ist. Es wird postuliert, dass Digitalisierung unmittelbar Wettbewerbsvorteile
erbringt. Mit einem Reifegradmodell werden fünf unternehmerische Fähigkeiten mit ins-
gesamt fünf Ausprägungen aufgeführt und in fünf Reifegrade eingeteilt. Das ermöglicht
eine Justierung, insbesondere auf dem Weg zur Transformation. Dieses Modell kann aber
auch auf Dauer im Rahmen von Benchmarks Orientierungshilfe werden.

Busch zeigt auf, dass die wirtschaftsgeografische Situation eines Unternehmens und
die Umfeldinteraktionen mit Unternehmen und externen Akteuren aktuell Thema in der
Transitions- Forschung sind und unmittelbaren Einfluss auf das Verhalten eines Unter-
nehmens haben kann. Dabei unterscheidet er die vier Ebenen „lokal, regional, national
und global“, wenngleich sich die Bereiche nicht trennscharf unterscheiden lassen und
Überlappungsbereiche existieren. Der räumliche Kontext kann nach seiner Einschätzung
unmittelbaren Einfluss auf Prozesse und Strategien haben, auch im Zusammenhang mit
Transition, Nachhaltigkeit und Digitalisierung.
Nach Damm sind die Messung und Bewertung von Nachhaltigkeit und
Digitalisierung immer eine bewertungsabhängige Größe. Insbesondere die Wirkungen
des Handelns von Individuen, der Gesellschaft oder von Unternehmen hängt somit von
Einstellungen ab. Die Anwendung von Künstlicher Intelligenz kann dazu beitragen,
Wirkungen zu messen. Jedoch unterliegt der hinterlegte Algorithmus ebenfalls der
Gefahr, ein Bias, eine Vorprägung, einzubringen. Daher können ethische Grundsätze
sowohl für den Einsatz von Nachhaltigkeit als auch für den Einsatz von Maschinellem
Lernen als Unterart der Künstlichen Intelligenz Nachhaltigkeit im Unternehmen messbar
machen.
Ebenfalls mit dem Thema Messbarkeit von Nachhaltigkeit und Einsatz von KI
befasst sich Paul. Künstliche Intelligenz kann daher eingesetzt werden, um bspw. im
Rahmen von Mustererkennungen Energieversorgung aus nachhaltigen Quellen zu
optimieren. Paul sieht das größte Potenzial und die höchste Aussagekraft bei der Daten-
erhebung entlang der Geschäftsprozesse. Nicht nur Ableitungen für interne Prozesse
können damit erreicht werden, sondern auch neue Kundenbeziehungen aufgrund von
Veröffentlichungen. Wie bei Damm weist der Artikel auch auf Herausforderungen im
Zusammenhang des Einsatzes von Maschinellem Lernen hin. Unrealistische Annahmen
Einleitung 3

bis hin zu Scheinkorrelationen sind in den Modellen und den Auswertungen zu beachten
und zu reduzieren.
Die Nutzung von Blockchain-Technologie hat sich längst über den Bereich von
Kryptowährungen ausgebreitet. Verschiedene Arten von Blockchain können für sehr
spezifische Aufgaben verwendet werden. Karger et al. bieten ein Modell an, künst-
liche neuronale Netze aus dem Bereich der Künstlichen Intelligenz anzuwenden, um
ein für die Aufgabenstellung und Schwerpunkte passende Blockchain auswählen zu
lassen. Neben den Grundlagen zu Blockchain werden auch negative Aspekte und
widerstreitende Eigenschaften dieser Technologie beleuchtet, bevor die methodischen
Vorgaben für ein selbstlernendes neuronales Netzwerk dargestellt werden. Das Self-
Enforcing Network lernt anhand von Regeln und Iterationen und verstärkt sich dadurch.
Eingaben von Präferenzen in der Nutzung führt dann zu einem Vorschlag einer
Blockchain.

Klüver und Klüver führen die vorangegangen Ausführungen weiter aus. In ihrem
Artikel zeigen sie die Zusammenhänge von Künstlicher Intelligenz, Maschinellem
Lernens und künstlicher neuronaler Netze auf. Wesentlich für die Auswahl und den Ein-
führungsprozess sind dabei der erwartete Nutzen für das Unternehmen und vor allem die
Kenntnis über die Möglichkeiten. Die Darstellung der Grundkonzepte von künstlichen
neuronalen Netzen zeigt verschiedene Variationen, die auch miteinander gekoppelt
werden können. Damit wird jedoch das Zusammenspiel von Topologie, Parametern und
Funktionen beliebig komplex. Abschluss bilden die Herausforderungen für KMUs in der
Auswahl, Einführung und im Betrieb von neuronalen Netzen, aber auch Anwendungen
und Vorteile für die Unternehmen.

II) Spezifische Innovationsleistungen und -lösungen


Obwohl eine allgemeine Skepsis in Deutschland gegenüber dem Einsatz von Künst-
licher Intelligenz zu verzeichnen ist, kann der Einsatz als Innovation einen wesent-
lichen Wettbewerbsvorteil erzeugen. Global nehmen die Investitionen in diesem Bereich
ebenso zu wie die Einsatzmöglichkeiten. Just et al. gehen auf die Herausforderungen im
Zuge der Implementierung ein, aber auch auf die Anwendungsmöglichkeiten von KI im
Mittelstand. Neben der Weiterentwicklung von Chatbots für die direkte Interaktion von
Mensch und Maschine bietet dieser Beitrag auch Vorschläge zu Optimierung, Prognose
und Mustererkennung und Verwertung für KMUs an. Abschließend werden Vorschläge
zur Anpassung der allgemeinen, auch individuellen, von rechtlichen bis zu technischen
Rahmenbedingungen, für Unternehmen geliefert.
Die Corona-Pandemie hat die Digitalisierung beschleunigt und auch neue Arten und
Wege der Kollaboration hervorgebracht. Murswieck zeigt auf, wie Engpässe im Rahmen
von Corona durch neue Netzwerke überbrückt werden konnten und soziale Medien zum
Vertrieb von lokalen Produkten im Gesundheitswesen verwertet wurden. Im Ergebnis
hat die Pandemie zu schnellen Innovationen und unkonventionellen Lösungen geführt.
Insbesondere bei der Entwicklung und Einführung von Produkten im Gesundheitswesen
4 M. Bodemann et al.

hat ein unkonventionelles Vorgehen wichtige Ergebnisse erbracht. Die beiden Wege
der positivistischen und konstruktivistischen Positionen führten dabei zu einer neuen
Forschungsmethodik. CrowdIdeation wird eine nachhaltige Methode zur Ideenfindung
und Realisation bleiben.
Digitalisierung kann jedoch auch den Nutzwert von physischen Produkten für den
Kunden steigern und Verhaltensänderungen unterstützen. Das Einwirken auf ein nach-
haltiges Konsumentenverhalten soll und kann auch Teil einer Geschäftsstrategie werden.
Schmitz et al. stellen die aktuelle Situation des Nachhaltigkeitsbewusstsein und das
reale Handeln dar und welche Gründe für die sogenannte „Attitude-Behaviour-Gap“
angeführt werden können. Dabei wird der vollständige Produktlebenszyklus betrachten,
nicht nur die oftmals verwendete Kombination aus Produktion und Distribution.
Aus der Kenntnis der Gründe lassen sich Maßnahmen in Richtung Transparenz und
Akzeptanz von nachhaltigen Produkten ableiten. Neben Transparenz und vollständigen
Informationen über ein Produkt, spielen dabei Visualisierungen oder auch Reparatur-
anleitungen eine Rolle; auch die Verwendung der Produkte, sharing oder Second-life,
wirkt sich förderlich auf die Umwelt aus. Zudem werden konkrete Beispiele aufgeführt,
in denen Digitalisierung zu mehr Nutzwert und gleichfalls zu mehr Nachhaltigkeit für
den vollständigen Produktlebenszyklus führen kann. Neue Anreize im Rahmen der
Digitalisierung, wie „Gamification“ oder „usability“, erreichen insbesondere jüngere
Kunden.

Becker widmet sich in seinem Beitrag dem nachhaltigen Investment in Immobilien.


Dabei wird das Modell „Future Yield after Taxes“ (FYT) als Ausgang für verschiedene
Betrachtungen herangezogen. Die Gewinnerzielungsabsicht bei Kapitalanlagen ist
treibender Faktor; Verknappung von Gütern und Klimawandel ist im Bereich der
Immobilien ebenfalls ein Thema, kann jedoch auch mit Nachhaltigkeit verknüpft
werden. Somit ist auch hier eine Transformation des Geschäftsmodells und der Unter-
nehmenspraxis zu erwarten.
In dem zweiten Beitrag gehen Zelewski et al. auf eine Lösung des Case-Based
Reasoning in Bezug auf Projektmanagement ein. Ein ontologisches System bietet die
Möglichkeit auf, Meta- bzw. Konzeptebene gespeichertes und vergleichbares Wissen
in Beziehung zu setzen. Über einen Ähnlichkeitsvergleich sind somit unter Berück-
sichtigung von Filtern und Mindestanforderungen Vorschläge zu erreichen. An einer
konkreten Lösung werden Möglichkeiten, aber auch Grenzen aufgezeigt. So wird das
einfache Kopieren (Nulladaption) einer alten Projektmanagementlösung aufgrund der
erwarteten Einzigartigkeit des Projekts nicht zum gewünschten Erfolg führen. Vor-
teil im vorgestellten Fall ist die verfolgte Nachvollziehbarkeit einer Empfehlung. Als
Abschluss geben Zelewski et al. noch Hinweise auf bereits identifizierte Vorgaben auf-
grund der durchgeführten Forschung, so u. a. Schnittstellen, aber auch Art und Umfang
der Visualisierung und die Usability.
Technologie, Methoden, Auswertung/Messung
Case-based Reasoning als White-Box
AI: „intelligentes“ Projektmanagement
durch die computergestützte
Wiederverwendung von
Erfahrungswissen in der betrieblichen
Praxis – Teil 1: Grundlagen aus der
Management- und der KI-Perspektive
Stephan Zelewski, Tatjana Heeb und Jan Peter Schagen

1 Einführung in das Realproblem der Wiederverwendung


von Erfahrungswissen im Projektmanagement

Projektmanagement stellt eine in der betrieblichen Praxis weit verbreitete – hier jedoch
nicht näher betrachtete – Organisationsform und Managementmethode dar, die sich für
alle Branchen jenseits der Massen- und Großserienproduktion (Lagerfertigung), ins-
besondere für die sogenannte Auftragsproduktion (Einzel- oder Kleinserienfertigung),
grundsätzlich eignet. Dies betrifft nicht nur industriell geprägte Branchen, wie z. B.
den Spezialmaschinen- und den Schiffbau, sondern vor allem auch die Dienstleistungs-
branchen, wie z. B. im Bereich der Softwareproduktion und des Consultings.
Das Management von Projekten zeichnet sich aus betriebswirtschaftlicher Perspektive
vor allem durch die Eigenart aus, im Wesentlichen von schwer formalisierbarem Erfahrungs-
wissen über ältere, bereits durchgeführte Projekte abzuhängen. Dieses Erfahrungswissen
liegt nicht nur, jedoch überwiegend in natürlichsprachlicher Form vor. Es wird daher
oftmals auch als „qualitatives“ Wissen bezeichnet. Die Berücksichtigung dieses qualitativen

S. Zelewski (*) · T. Heeb · J. P. Schagen


Institut für Produktion und Industrielles Informationsmanagement,
Universität Duisburg-Essen, Duisburg, Deutschland
E-Mail: [email protected]
T. Heeb
E-Mail: [email protected]
J. P. Schagen
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 7
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_2
8 S. Zelewski et al.

Erfahrungswissens stößt jedoch in der betrieblichen Realität auf eine gravierende Heraus-
forderung („Realproblem“), die auf zwei gegenläufigen Tendenzen beruht.
Einerseits liegt es aus betriebswirtschaftlicher Perspektive nahe, das qualitative
Erfahrungswissen wiederzuverwenden („knowledge reuse“), um neue Projekte zu
planen, durchzuführen, zu steuern (Anpassungsplanungen während der Projekt-
durchführung) und mittels Controllings zu begleiten (Projektfortschrittskontrolle und
Aufbereitung von Führungsinformationen über z. B. projektbezogene Erfolgs- und Miss-
erfolgsfaktoren für das „strategische“ Projektmanagement). Für diese Wissenswiederver-
wendung sprechen vor allem drei Gründe.
Erstens wäre es im ökonomischen Sinne ineffizient, die Ressourcen, die für den erst-
maligen Wissenserwerb bei einem alten Projekt eingesetzt wurden, im Falle der Unter-
lassung einer möglichen Wissenswiederverwendung zur Bearbeitung neuer Projekte
erneut aufwenden zu müssen. Zweitens können in einem solchen Unterlassungsfall
Lernkurveneffekte, die sich durch die wiederholte Anwendung gleichartiger Wissens-
komponenten im wissensbasierten Projektmanagement erzielen lassen, nicht ausgeschöpft
werden. Drittens lässt sich die „empirische Evidenz“ anführen, dass es sich in der betrieb-
lichen Praxis für das Management von nicht-trivialen, realistischen Projekten zumeist als
Erfolg versprechendster Managementansatz herausgestellt hat, ein neues Projekt nicht
jedes Mal von Grund auf neu zu planen („planning from scratch“), sondern dasjenige
Erfahrungswissen „intelligent“ wiederzuverwenden, das über alte, bereits durchgeführte –
und möglichst ähnliche – Projekte in einem Unternehmen bereits vorliegt.
Andererseits lässt sich die angestrebte Wiederverwendung von qualitativem
Erfahrungswissen – im Gegensatz zum Operations Management von standardisierten
Produktionsprozessen – kaum mit formalisierten, vor allem mathematisch-quantitativen
Modellen und Methoden zufriedenstellend bewältigen. Vor allem mangelt es im betriebs-
wirtschaftlichen Umfeld an einer wirksamen („effektiven“) Computerunterstützung für
die Wiederverwendung von qualitativem Erfahrungswissen im Projektmanagement.
Aus den vorgenannten Gründen besteht ein „Umsetzungsdefekt“ zwischen dem
wohlbegründeten Ziel, qualitatives Erfahrungswissen im Projektmanagement intensiv
wiederzuverwenden, und den Möglichkeiten für die – vor allem computergestützte –
Wissenswiederverwendung in der betrieblichen Praxis. [Dieser Beitrag stellt eine Kurz-
fassung von Zelewski et al. 2022 (Kap. 1 bis 3) dar, in dem sich weitere Details und vor
allem umfassende Literaturbelege finden.]

2 Überblick über den State of the Art

2.1 Wissensmanagement im konventionellen


Projektmanagement

Wissensmanagement spielt seit geraumer Zeit in der betriebswirtschaftlichen Fach-


literatur eine herausragende Rolle. Es fällt jedoch auf, dass dort der spezielle Aspekt,
Case-based Reasoning als White-Box AI: „intelligentes“ … 9

(Erfahrungs-)Wissen im Projektmanagement (wieder) zu verwenden, kaum gewürdigt


wird. Vor allem in der populären Wissensmanagementliteratur findet das betriebs-
wirtschaftlich so bedeutsame Projektmanagement kaum explizite Beachtung.
Immerhin wird in der Fachliteratur zum Projektmanagement bereits des Öfteren
gewürdigt, dass sich das Projektmanagement in der betrieblichen Praxis als eine
besonders wissensintensive Managementaufgabe erweist. In diesem Zusammenhang
wird zuweilen direkt von einem „Projektwissensmanagement“ oder „project knowledge
management“ gesprochen.
Generell befasst sich das Projektwissensmanagement mit der Aufgabe, umfang-
reiches und oftmals wenig oder gar nicht strukturiertes – infolgedessen als „komplex“
charakterisiertes – Wissen aus unterschiedlichen, zumeist heterogenen Quellen so
miteinander zu kombinieren oder – mit anderen Worten – zu integrieren, dass die
angestrebten Projektziele unter Berücksichtigung der projektrelevanten Einflussgrößen
(„Determinanten“) im Falle von Optimierungszielen bestmöglich oder im Hinblick
auf Satisfizierungsziele zumindest in zufriedenstellender Weise erfüllt werden. Zu den
typischen Projektzielen gehören beispielsweise die Einhaltung von Terminen („Dead-
lines“) für die vereinbarte Projektfertigstellung, die Sicherung der vereinbarten
Projektqualität einschließlich der vereinbarten Projektleistung (wie in Pflichten- und
Lastenheften festgeschrieben) sowie die Erzielung eines „akzeptablen“ Projekterfolgs,
wie z. B. hinsichtlich möglichst geringer Projektkosten oder möglichst hoher Projekt-
gewinne, Projektdeckungsbeiträge oder Projektrenditen.
Für das Projektwissensmanagement existieren sowohl in der Betriebswirtschafts-
lehre als auch in der betrieblichen Praxis vor allem zwei Managementansätze. Einer-
seits existieren zahlreiche Techniken (d. h. Methoden, Modelle und computergestützte
Werkzeuge oder „Tools“), die dafür ausgelegt sind, Projektplanungs-, -durchführungs-,
-steuerungs- und -controllingaufgaben auf mathematisch-quantitativer Grundlage
zu erfüllen. Dazu gehören beispielsweise die Netzplantechnik und das Earned Value
Management. Andererseits sind im Projektmanagement Software-Produkte verbreitet,
die in erster Linie keine direkte (modell- und methodenbasierte) Planungs-, Steuerungs-
oder Controllingunterstützung bieten, sondern primär der strukturierten Kommunikation
zwischen den Mitgliedern eines Projektteams dienen. Dies betrifft vor allem Projekt-
management-Softwares im Umfeld des „modernen“ Agilen Projektmanagements, wie
z. B. zur Unterstützung der Projektmanagementmethode Scrum. Beide Management-
ansätze weisen jedoch keinen Lösungsbeitrag hinsichtlich des Realproblems auf,
qualitatives Erfahrungswissen im Projektmanagement „intelligent“ wiederzuverwenden.
Darauf wird im folgenden Kapitel anhand von fünf wesentlichen Herausforderungen an
das projektbezogene Wissensmanagement näher eingegangen.
10 S. Zelewski et al.

2.2 Kritik am Wissensmanagement im konventionellen


Projektmanagement

Die Wiederverwendung von – vor allem qualitativem – Erfahrungswissen für die


Planung, die Durchführung, die Steuerung und das Controlling von Projekten leidet in
der betrieblichen Praxis unter fünf wesentlichen Herausforderungen (Problemen).

• Wissensakquisitionsproblem: Das projektrelevante, vor allem qualitative Erfahrungs-


wissen aus alten Projekten ist als „implizites“ oder „tazites“ Wissen „in den Köpfen“
von Projektmanagern mit großer Berufserfahrung „eingeschlossen“. Daher erweist es
sich der Wiederverwendung durch Dritte als nur schwer zugänglich.
• Wissensdispersionsproblem: Das Erfahrungswissen kann zwar als „organisationales“
oder „kollektives“ Wissen in einem Unternehmen „prinzipiell“ zur Verfügung stehen,
ist aber über zahlreiche personelle (Projektmanagement, Projektmitarbeiter) und
maschinelle (Computer, Software) Akteure des Unternehmens verstreut, sodass weit-
gehend Unklarheit darüber besteht, wo sich dieses Erfahrungswissen im Unternehmen
konkret lokalisieren und wie sich darauf konkret zugreifen lässt.
• Wissenserosionsproblem: Projektrelevantes Erfahrungswissen geht einem Unter-
nehmen oftmals dadurch verloren, dass Projektmanager mit großer Berufserfahrung
ein Unternehmen verlassen (z. B. infolge Verrentung) oder zumindest den Weg in die
„innere Emigration“ wählen (z. B. aufgrund beruflicher Enttäuschungen), ohne ihr
Erfahrungswissen mit dem Unternehmen in expliziter Form zu teilen.
• Wissensformproblem: Projektrelevantes Erfahrungswissen lässt sich selbst dann,
wenn es in einem Unternehmen in explizit dokumentierter, allgemein zugänglicher
Form vorliegt, aufgrund seiner bereits erwähnten „qualitativen“, überwiegend natür-
lichsprachlichen Wissensform im Allgemeinen nicht computergestützt auswerten, vor
allem nicht zur Bearbeitung neuer Projekte zielgerichtet wiederverwenden.
• Wissensmengenproblem: Eine Computerunterstützung, wie im Wissensformproblem
angesprochen, erweist sich für die betriebliche Praxis des Projektmanagements als
unverzichtbar, um die oftmals sehr großen Wissensarchive mit Erfahrungen über
bereits durchgeführte Projekte für die Bearbeitung neuer Projekte effektiv (z. B. im
Hinblick auf eine größere Projektdurchführungsqualität) und effizient (z. B. in Bezug
auf geringere Projektplanungsdauern) nutzen zu können.

Konventionelle betriebswirtschaftliche Projektmanagementmethoden und auch


informationstechnisch geprägte Projektmanagementmethoden sind derzeit nicht in
der Lage, die zuvor skizzierten fünf wesentlichen Herausforderungen der Wieder-
verwendung von projektbezogenem, überwiegend qualitativem Erfahrungswissen
umfassend zu bewältigen.
Case-based Reasoning als White-Box AI: „intelligentes“ … 11

2.3 Überblick über projektbezogenes Wissensmanagement mit


KI-Techniken

Der Einsatz von Techniken aus der Erforschung Künstlicher Intelligenz (KI) – oder
Artificial Intelligence (AI) – zur Unterstützung des betrieblichen Projektmanagements
erweist sich derzeit noch als ein wenig erforschtes Gebiet. Zwar existieren einige wenige
Ansätze, die schon vor geraumer Zeit anregten, beispielsweise die bereits erwähnte
Netzplantechnik mit Erkenntnissen aus der KI-Forschung – damals vor allem unter der
Bezeichnung „Expertensysteme“ – zu bereichern. Aber „moderne“ Beiträge der ein-
schlägigen Fachliteratur zum Themengebiet, das sich als Schnittmenge von „Künstlicher
Intelligenz“, „Projektmanagement“ und „Wissensmanagement“ charakterisieren lässt,
sind dünn gesät (vgl. beispielsweise Auth et al. 2021; Obermayer et al. 2021; Ruiz et al.
2021; Jallow et al. 2020; Shehab et al. 2020; Munir 2019).
Prima facie scheint es nahezuliegen, die derzeit vorherrschenden, nicht immer klar
voneinander abzugrenzenden (Mode-)Strömungen der Deep Learning Networks und
des Machine Learnings zur Unterstützung des betrieblichen Projektmanagements einzu-
setzen. Aber einschlägige, inhaltlich fruchtbare Beiträge lassen sich in dieser Hinsicht
nicht identifizieren. Dies überrascht bei einer näheren inhaltlichen Analyse aber auch
nicht, wie im Folgenden kurz erläutert wird.
Deep Learning Networks und Machine Learning gehören zu einem Zweig der KI-
Forschung, der sich darauf fokussiert, in sehr großen Datensätzen („Big Data“) all-
gemeine Muster oder Regularitäten zu erkennen („Data Analytics“), die möglichst
vielen realen Entitäten (Objekten, Phänomen usw.) gemeinsam zukommen. So geht es
beispielsweise darum, die allgemeinen Persönlichkeits- und Situationsmerkmale zu
erkennen, durch die sich Schuldner mit hoher Bonität auszeichnen, Geräuschmuster
zu identifizieren, anhand derer sich im Allgemeinen Maschinenschäden ankündigen,
oder auch Bildsignale zu bestimmen, die im Allgemeinen eine zuverlässige Karzinom-
diagnose gestatten. Aber die KI-Forschung von Deep Learning Networks und Machine
Learning, die sich an allgemeiner Mustererkennung orientiert, trifft nicht den Kern des
Projektmanagements aus betriebswirtschaftlicher Sicht. Denn Projekte zeichnen sich –
nicht unbedingt hinsichtlich aller ihrer Teile (Aktivitäten, Arbeitspakete, Teilprojekte),
aber doch in ihrer Gesamtheit – durch ihre tendenzielle Einmaligkeit und oftmals auch
durch ihren innovativen Charakter aus. Daher kommt es bei ihrer Planung, ihrer Durch-
führung, ihrer Steuerung und ihrem Controlling nicht auf eine Anlehnung an „allgemeine
Muster“ an, die sich vielleicht aus Daten über die Gesamtheit aller in einem Unter-
nehmen oder einer Branche abgewickelten Projekte gewinnen lassen. Vielmehr geht es
um ein einzelfallbezogenes Projektmanagement, das sich an den Besonderheiten eines
aktuell vorliegenden, neuen Projekts orientiert. Wenn sich also überhaupt (Erfahrungs-)
Wissen aus bereits durchgeführten, alten Projekten wiederverwenden lässt, dann ist
nicht „allgemeines“ oder „durchschnittliches“ Wissen von Interesse, das sich mittels
12 S. Zelewski et al.

Deep Learning Networks und Machine Learnings gewinnen lässt. Stattdessen ist für ein
neues Projekt vor allem Wissen relevant, das über (mindestens) ein altes, mit dem neuen
Projekt aufgrund seiner „Einmaligkeit“ zwar nicht identisches, aber möglichst ähnliches
Projekt vorliegt. Im Projektmanagement geht es also nicht um allgemeine, projekt-
bezogene Muster oder Regularitäten, sondern um die „intelligente“ Wiederverwendung
von Wissen über einzelne, möglichst ähnliche alte Projekte. Diese Orientierung an mög-
lichst ähnlichen Einzelfällen wird auch als „analoges Denken“ (analogical reasoning)
bezeichnet, das dem generalisierenden, mustererkennenden Denken von Deep Learning
Networks und Machine Learning vollkommen fremd ist.
Darüber hinaus ist eine zweite auffällige Diskrepanz zwischen der Mainstream-
KI-Forschung von Deep Learning Networks und Machine Learning einerseits sowie
„intelligenter“ Wissenswiederverwendung im Projektmanagement andererseits fest-
zustellen. Deep Learning Networks und Machine Learning zählen zur sogenannten
„Black-Box AI“ (Amin 2021; Barton 2021; Buxmann et al. 2021). Sie lässt sich dadurch
charakterisieren, dass sie sich zwar in einzelnen, speziellen Anwendungsbereichen
(Domänen) als überaus leistungsfähig erweist, aber von ihren Benutzern kaum nach-
vollzogen werden kann, wie diese KI-Tools zu ihren Entscheidungs- oder Handlungs-
empfehlungen gelangen. Daher werden diese KI-Tools – trotz einiger „Gegenwehr“ ihrer
Protagonisten – oftmals als „Black Boxes“ stigmatisiert, die „irgendwie“ – sogar sehr
gut – „funktionieren“. Aber kaum jemand versteht, wie und warum sie funktionieren.
Dies mag keine Rolle spielen, sofern „man“ auf Empfehlungen eines KI-Tools ver-
traut, überzeugt jedoch nicht, wenn man dessen Empfehlungen kritisch nachvollziehen
oder anhand exogener Gütekriterien überprüfen möchte. Daher hat sich seit wenigen
Jahren die Forschungsrichtung der „Explainable AI“ (XAI) etabliert (Buxmann et al.
2021; Lundberg et al. 2020; Rai 2020), die sich anschickt, für Empfehlungen von Deep
Learning Networks und Machine Learning nachvollziehbare Erklärungen zu liefern.
Aber diese Erklärungen bleiben unbefriedigend, weil sie mittels statistischer Techniken
letztlich nur nachträglich analysieren, welche Inputdatenmuster mit welchen Output-
datenmustern hoch korrelieren. Es ist weithin bekannt, dass statistische Korrelationen
nicht die Qualität kausaler Erklärungen besitzen, die Wirkungsbeziehungen zwischen
Inputdaten als (Repräsentanten von) ursächlichen Sachverhalten und Outputdaten als
(Repräsentanten von) bewirkten Sachverhalten herstellen. Daher stellt die „Explainable
AI“ keine kausalen Erklärungen für die Empfehlungen von Deep Learning Networks und
Machine Learning zur Verfügung, sondern lediglich Erklärungssurrogate in der Gestalt
statistischer Input-Output-Korrelationen.
Aus betriebswirtschaftlicher Sicht erweist es sich jedoch als essenziell, Planungs-,
Durchführungs-, Steuerungs- oder Controllingempfehlungen im Projektmanagement
nicht nur mittels Computerunterstützung „irgendwie“ zu generieren, sondern für
betroffene menschliche Akteure auch plausibel erklären zu können. Nicht nur für
die Motivation dieser Akteure, sondern auch für eventuell drohende juristische Aus-
einandersetzungen zwischen Projektauftragnehmern und -auftraggebern erweist es sich
als unverzichtbar, solche Entscheidungs- oder Handlungsempfehlungen im Bedarfsfall
Case-based Reasoning als White-Box AI: „intelligentes“ … 13

mit plausiblen Argumenten rechtfertigen zu können. Daher bedarf es beim Einsatz von
Künstlicher Intelligenz im Projektmanagement einer „White-Box AI“, deren computer-
gestützt generierten Entscheidungs- oder Handlungsempfehlungen im Bedarfsfall
überprüft werden können, indem sich ihr Zustandekommen „im Computer“ anhand ent-
sprechender Verarbeitungsprotokolle oder – noch besser, da benutzerfreundlicher – auch
mittels spezieller „Erklärungskomponenten“ von fachkundigen Projektmanagern nach-
vollziehen lässt.
Die „White-Box AI“ besitzt in der KI-Forschung eine lange Tradition von mehr als
einem halben Jahrhundert. Sie wird heute – nicht deckungsgleich, aber weitgehend über-
lappend – auch mit „Good Old Fashioned Artificial Intelligence“ (GOFAI) bezeichnet.
Sie umfasst vor allem die sogenannte „symbolische“ KI-Forschung. Dieser Zweig der
KI-Forschung erstreckt sich darauf, Wissensverarbeitung im Allgemeinen und somit
auch Projektwissensmanagement im Besonderen auf einer expliziten, symbolischen
Repräsentation von Wissen zu fundieren und wissensbasierte Entscheidungs- oder
Handlungsempfehlungen mittels expliziter, (zumindest prinzipiell) im Detail nach-
vollziehbarer Schlussfolgerungsweisen (Inferenzregeln) herzuleiten. Zu diesem Zweig
der „White-Box AI“ gehören z. B. die „altertümlichen“ Expertensysteme, aber auch
„moderne“ Ansätze wie Multi-Agenten-Systeme und die nachfolgend angesprochenen
Case-based-Reasoning-Systeme.
Im State of the Art der „White-Box AI“ lassen sich vor allem zwei aktuelle
Forschungsströmungen identifizieren, die für das Projektmanagement aus betriebs-
wirtschaftlicher Perspektive von besonderem Interesse sein könnten.
Erstens sind einige wenige Beiträge in der einschlägigen Fachliteratur zu erwähnen,
die sich damit befassen, wie sich die „White-Box AI“ – nicht nur, aber vor allem in der
Gestalt von KI-Tools auf der Basis des Case-based Reasonings (CBR) – im Projekt-
management Erfolg versprechend einsetzen lässt (Martin et al. 2017; Beißel 2011; Chou
2009). Für die inhaltliche Nähe von CBR-Systemen spricht, dass sich ihre „Cases“ in
„natürlicher“ Weise als Projekte interpretieren lassen. Daher können im Prinzip alle
Erkenntnisse, die für CBR-Systeme im Allgemeinen gewonnen wurden, auf den Ein-
satz von KI-Techniken für das betriebliche Projektmanagement im Speziellen übertragen
werden.
Allerdings leiden die bislang vorliegenden Beiträge zur Anwendung von CBR-
Systemen auf das betriebliche Projektmanagement unter mehreren Mängeln. Zunächst
werden betriebswirtschaftliche Spezifika des Projektmanagements – wie z. B. Lasten-
und Pflichtenhefte sowie projektbezogene Mitarbeiterkompetenzen – zumeist nicht oder
nur in rudimentärer Weise berücksichtigt. Darüber hinaus fokussieren sich CBR-Systeme
im Bereich des Projektmanagements oftmals auf „einfach“ – d. h. vor allem quantitativ
– zu generierende Entscheidungs- oder Handlungsempfehlungen, wie z. B. auf
Schätzungen der mutmaßlich zu erwartenden Projektkosten (García de Soto et al. 2016;
Radziejowska et al. 2015; Ji et al. 2011; Kowalski et al. 2011). Solche CBR-Systeme für
quantitative Projektkostenschätzungen sind aus betriebswirtschaftlicher Sicht keineswegs
zu unterschätzen. Aber sie schöpfen bei Weitem nicht das Potenzial aus, das im Hinblick
14 S. Zelewski et al.

auf die Wiederverwendung von Erfahrungswissen im Projektmanagement vor allem im


Hinblick auf qualitative Projektresultate (vertragsgemäße Leistungserfüllung, Projekt-
qualität hinsichtlich vielfältiger Dimensionen des betrieblichen Qualitätsmanagements,
Kompetenzentwicklung der Projektmitarbeiter usw.) besteht.
Aus den vorgenannten Gründen überrascht es nicht, dass sich die wenigen bis-
lang bekannt gewordenen Ansätze, Case-based Reasoning für Zwecke des Projekt-
managements einzusetzen, bislang nicht als erfolgreich herausgestellt haben, sondern
weithin ein „Nischen-“ oder „Spezialisten-Dasein“ fristen. Dies gilt zumindest dann,
wenn nicht nur „Sandkastenbeispiele“ aus der akademischen Forschung, sondern
Anforderungen der betrieblichen Praxis an computergestützte Projektmanagement-
systeme berücksichtigt werden.
Zweitens existieren mehrere Ansätze, den Einsatz von KI-Tools im Projekt-
management dadurch zu unterstützen, dass die projektbezogenen „Begrifflichkeiten“
der betrieblichen Praxis in eine „computerverständliche“ Form überführt werden.
Das wesentliche Instrument der KI-Forschung für solche Transformationen von über-
wiegend natürlichsprachlichen Begriffen in eine computergestützt verarbeitbare Form
sind sogenannte Ontologien (Getuli 2020; Zelewski 2015; Guarino 1997; Gruber 1995).
Ontologien für Zwecke des Projektmanagements existieren bereits (Martin et al. 2017;
Bruno et al. 2015; Dong et al. 2011). Aber diese Ontologien leiden derzeit noch unter
zwei wesentlichen Defiziten.
Erstens wurden diese Ontologien überwiegend von Autoren entwickelt, die aus den
Computer- oder Ingenieurwissenschaften stammen. Ihre Ontologien lassen unschwer
erkennen, dass wenig Verständnis für die betriebswirtschaftliche Fachsprache sowie für
die subtilen sprachlichen Nuancierungen und Differenzierungen besteht, die in betriebs-
wirtschaftlichen Diskussionen üblich sind. Dies betrifft beispielsweise die betriebs-
wirtschaftlich gebotene, fachsprachliche Differenzierung zwischen Kosten versus
Auszahlungen versus Aufwendungen (und vieles anderes mehr). Diese Ontologien sind
daher aus betriebswirtschaftlicher Perspektive inakzeptabel.
Zweitens fehlt es den vorliegenden Ontologien an einer „tiefgründigen“ und
„umfassenden“ Fundierung in den Begrifflichkeiten des betrieblichen Projekt-
managements, wie z. B. im Hinblick auf Projektmanagementziele, typische Projekt-
managementaufgaben und Rahmenbedingungen des Projektmanagements. Zu den
typischen Projektmanagementaufgaben gehört beispielsweise das projektbezogene
Risikomanagement, das aus betriebswirtschaftlicher Perspektive eine hohe Praxis-
relevanz besitzt, aber in Ontologien bislang noch kaum berücksichtigt wurde.
Aufgrund der voranstehenden Erkenntnisse zum State of the Art stellt sich das
wissenschaftliche Problem, Konzepte und Instrumente, insbesondere computergestützte
Werkzeuge („Tools“), auszuarbeiten, die zeigen, wie sich Case-based Reasoning als KI-
Technik mit „White-Box AI“-Charakter zur Unterstützung der „intelligenten“ Wieder-
verwendung von Erfahrungswissen im Projektmanagement grundsätzlich nutzen lässt
(CBR-Postulat). Zugleich gehört zum wissenschaftlichen Problem die ergänzende
Case-based Reasoning als White-Box AI: „intelligentes“ … 15

Anforderung, das projektrelevante Erfahrungswissen mithilfe von Ontologien für die


Begrifflichkeiten des Projektmanagements in computerverständlicher Form für CBR-
Systeme aufzubereiten (Ontologie-Postulat).

3 Methodischer Rahmen

3.1 Überblick über den Forschungsansatz

In diesem Beitrag und einem am Ende erwähnten Folgebeitrag wird erläutert, wie
sich mithilfe von Erkenntnissen aus der Erforschung Künstlicher Intelligenz ein
„intelligentes“ Projektmanagement durch die computergestützte Wiederverwendung von
Erfahrungswissen in der betrieblichen Praxis realisieren lässt.
Das plakative Attribut „intelligent“ wird hier nicht nur als begriffliche Referenz auf
die hier diskutierte Technik Künstlicher Intelligenz – das Case-based Reasoning – ver-
wendet. Vielmehr verweist dieses Attribut auf zwei Sachverhalte, die sich als beitrags-
spezifische inhaltliche Konkretisierungen von (Künstlicher) „Intelligenz“ auffassen
lassen. Erstens wird gezeigt, dass sich mittels Case-based Reasonings die fünf wesent-
lichen Herausforderungen (Probleme), die in Abschn. 2.2 aus der Perspektive des
projektbezogenen Wissensmanagements skizziert wurden, zumindest „prinzipiell“
meistern lassen. Eine derart „problemlösende“ Fähigkeit rechtfertigt, zumindest bei
wohlwollender Betrachtungsweise, die Zuschreibung des Attributs „intelligent“ für ein
Projektmanagement, das auf einem CBR-System basiert. Zweitens wird das Attribut
„intelligent“ hier in bewusster Abgrenzung von konventionellen Computersystemen
verwendet, die sich schon seit vielen Jahrzehnten hinsichtlich der Verarbeitung rein
syntaktisch definierter, insbesondere numerischer Probleme („number crunching“) als
überaus leistungsfähig erwiesen haben. Im Gegensatz dazu geht es in diesem Beitrag
um die Fähigkeit von Computern, vor allem auf der Basis von Ontologien ein inhalt-
liches Verständnis für die Bedeutungen – also der Semantik – der Komponenten von
Erfahrungswissen im Projektmanagement zu entwickeln. Diese semantische Dimension
der Wissensverarbeitung soll durch das Attribut „intelligent“ hervorgehoben werden.
Der Forschungsansatz dieses Beitrags beruht darauf, die generische KI-Technik des
Case-based Reasonings (Amin 2021; Beierle et al. 2019; Richter et al. 2013; Riesbeck
et al. 1989) auf das betriebliche Projektmanagement zu übertragen und an dessen
spezielle Herausforderungen (vgl. Abschn. 2.2) anzupassen. Zu diesem Zweck wird das
allgemeine KI-Konzept eines „Falls“ als das spezielle betriebswirtschaftliche Konzept
eines „Projekts“ interpretiert. Darüber hinaus wird das (Erfahrungs-)Wissen, das über ein
Projekt vorliegt, in die drei Wissenskomponenten der Projektbeschreibung, der Projekt-
lösung und der Projektbewertung strukturiert. Für diese „basale“ Wissensstrukturierung
spricht, dass sich die betriebliche Praxis des Projektmanagements mit diesen drei
Wissenskomponenten sehr gut rekonstruieren lässt.
16 S. Zelewski et al.

Die Projektbeschreibung entspricht den Ergebnissen des Requirements Engineerings,


mit deren Hilfe die Anforderungen an ein Projekt – z. B. im Rahmen einer Projektaus-
schreibung – spezifiziert werden. Vor allem Lasten- und Pflichtenhefte (jeweils aus der
Auftraggeber- bzw. Auftragnehmerperspektive formuliert), die zu den weit verbreiteten
Instrumenten des Projektmanagements gehören, lassen sich unmittelbar in die Struktur
einer Projektbeschreibung überführen. In der Regel wird eine vollständige Projektbe-
schreibung weitaus mehr Details umfassen, als in Lasten- und Pflichtenheften üblich
sind. Beispielsweise ist es nicht üblich, in den auftragnehmerbezogenen Pflichtenheften
die betriebswirtschaftlichen Formalziele festzuhalten, die ein Unternehmen mit der
Akquisition eines neuen Projekts verfolgt. Ebenso finden sich die Kompetenzen, die für
die Erfolg versprechende Projektrealisierung erforderlich erscheinen, im Allgemeinen
nicht in einem Pflichtenheft, sind aber für eine realistische Projektbeschreibung
erforderlich. Bereits anhand dieser wenigen Beispiele zeigt sich, dass es in einem CBR-
System mittels der Wissenskomponente „Projektbeschreibung“ möglich ist, projekt-
relevantes Wissen sehr umfangreich, auf hohem Detaillierungsniveau und realitätsnah zu
repräsentieren.
Die Projektlösung gibt die Ergebnisse der Projektplanung (Soll-Ergebnisse) und der
Projektdurchführung (Ist-Ergebnisse) wieder. Die Projektlösung kann zu Steuerungs-
und Controllingzwecken auch in zahlreichen zeitpunktbezogenen Varianten erstellt
werden, die einen zeitpunktbezogenen Vergleich der jeweils aktuellen Soll- und Ist-
Ergebnisse erlauben. Eine solche zeitbezogene „Versionierung“ der Projektlösung stellt
zurzeit lediglich eine konzeptionelle Idee dar, die in der Fachliteratur zum Case-based
Reasoning noch nicht berücksichtigt wird.
Die Projektbewertung dient dazu, Erfahrungswissen hinsichtlich der „Güte“ der
Projektplanung und -durchführung zu sammeln. Dieses Bewertungswissen fällt vor
allem in den Phasen der Projekt-steuerung und des Projektabschlusses – als wesent-
lichem Bestandteil des Projektcontrollings – an. Das Bewertungswissen schlägt sich
in typischen Projektdokumenten wie „Lessons Learned“, „Debriefings“ und „Project
Reports“ nieder. Ebenso kann das Bewertungswissen aus einem systematischen Ver-
gleich zwischen jeweils komplementären Soll- und Ist-Ergebnissen gewonnen werden,
die im Rahmen der Projektlösung erhoben wurden. Solche Soll-Ist-Vergleiche und die
Bewertung ihrer Relevanz aus Unternehmenssicht stellen eine der Hauptaufgaben des
Projektcontrollings dar. Insbesondere können hieraus führungsrelevante Informationen
für künftige Projekte gewonnen werden. Dazu gehören vor allem Erkenntnisse über
kritische Erfolgs- und Misserfolgsfaktoren des Projektmanagements.

3.2 Analogie-Methode des Case-based Reasonings

Case-based Reasoning beruht grundsätzlich auf der Inferenzmethode des analogen


Schließens. Daher wird Case-based Reasoning auch als eine Analogie-Methode der KI-
Forschung bezeichnet. Sie unterscheidet sich grundsätzlich von heute vorherrschenden
Case-based Reasoning als White-Box AI: „intelligentes“ … 17

„Main Stream“-Ansätzen der KI-Forschung, wie insbesondere Deep Learning Networks


und Machine Learning.
Mithilfe der Inferenzmethode des analogen Schließens wird ein komplexes Problem
– hier die Planung, die Durchführung, die Steuerung und das Controlling eines Projekts
– nicht auf konventionelle, analytische Art in einfacher zu handhabende Teilprobleme
zerlegt, um aus den Lösungen für die Teilprobleme schließlich eine Lösung für das
ursprüngliche, umfassende Problem zu synthetisieren. Stattdessen wird zur Lösung für
ein neues Problem nach Erfahrungen mit alten, bereits bearbeiteten („gelösten“) und
– vor allem – möglichst ähnlichen („analogen“), aber in der Regel ebenso komplexen
Problemen gesucht. Dieses Erfahrungswissen über bereits bekannte Problemlösungen
wird auf das neue, noch zu lösende Problem übertragen und erforderlichenfalls an die
Besonderheiten des neuen Problems angepasst. Diese Inferenzmethode des analogen
Schließens entspricht stark der Vorgehensweise menschlicher Akteure, die sich in ihrem
Alltagshandeln an früheren Handlungen in ähnlichen Situationen orientieren. Dies trägt
wesentlich zur „Erklärbarkeit“ und „intuitiven Nach-vollziehbarkeit“ von Handlungs-
empfehlungen bei, die von CBR-Systemen generiert werden.
Die epistemische Rechtfertigung dieser Übertragung von lösungsbezogenem Wissen
über alte Probleme auf neue Probleme beruht einerseits auf der Ähnlichkeit zwischen
alten Problemen und neuem Problem sowie andererseits auf der epistemischen Grund-
überzeugung, dass sich für ähnliche Probleme ähnliche Lösungen eignen (Analogie-
prinzip). Die universelle Anwendbarkeit dieses Analogieprinzips kann durchaus
bezweifelt werden. Beispielsweise begründen Einsichten aus der „Katastrophentheorie“
(auch bekannt als „deterministisches Chaos“) mit Diskontinuitäten trotz kontinuier-
licher Problemvariationen erhebliche Zweifel daran, dass ähnliche Ursachen (Probleme)
stets zu ähnlichen Wirkungen (Lösungen) führen. Stattdessen können bereits gering-
fügige, z. B. zufallsbedingte Schwankungen bei der Konstitution der Ursachen eines
Phänomens zu sehr unterschiedlichen Manifestationen dieses Phänomens führen. Von
Komplikationen dieser Art wird beim analogiebasierten Problemlösen jedoch grundsätz-
lich abgesehen.
In einem CBR-System für Zwecke des Projektmanagements wird die zuvor skizzierte,
im Allgemeinen auf Probleme bezogene Inferenzmethode des analogen Schließens auf
Projekte als spezielle Problemausprägung übertragen. Ein neues Projekt wird bearbeitet,
indem in einer Projektwissensbasis mit möglichst umfangreichem Erfahrungs-
wissen über bereits bearbeitete („durchgeführte“ oder „gelöste“), alte Projekte nach
(mindestens) einem ähnlichsten alten Projekt gesucht, das Erfahrungswissen hinsichtlich
der alten Projektbearbeitung(en) aufgerufen und erforderlichenfalls an das neue Projekt
angepasst wird.
Die KI-Technik des Case-based Reasonings, Erfahrungswissen über Projekte zu
sammeln und mithilfe der Inferenzmethode des analogen Schließens für die Bearbeitung
neuer Projekte wiederzuverwenden, lässt sich anhand des 4R-Zyklus in Anlehnung an
Aamodt und Plaza (1994) anwendungsnah und intuitiv eingänglich beschreiben. Die
ursprüngliche Version dieses 4R-Zyklus hat jedoch einige Eigenarten des Case-based
18 S. Zelewski et al.

Reasonings noch nicht berücksichtigt. Daher wird dieser 4R-Zyklus anhand Abb. 1 in
einer überarbeiteten, vor allem inhaltlich erweiterten Version (z. B. Kowalski et al. 2011)
vorgestellt.
Zunächst wird vom Projektmanagement ein neues Projekt in der Form einer über-
wiegend natürlichsprachlichen Projektbeschreibung als ein Handlungsauftrag (oder als
ein zu lösendes Problem) spezifiziert. Der Handlungsauftrag erstreckt sich auf die bereits
mehrfach angesprochenen Kernaufgaben des Projektmanagements: die Projektplanung,
die Projektdurchführung, die Projektsteuerung und das Projektcontrolling.
Retrieve-Phase: Anhand der Projektbeschreibung wird in der Projektwissens-
basis nach (mindestens) einem ähnlichsten alten, bereits bearbeiteten Projekt gesucht.
Wesentliche Instrumente sind hierbei Ontologien, welche die computergestützte Ver-
arbeitung insbesondere natürlichsprachlichen Wissens ermöglichen und aufgrund ihrer
Repräsentation in Ontologie-Graphen eine Ähnlichkeitsmessung zwischen begrifflichen
Konzepten als Weglängen zwischen konzeptdarstellenden Knoten gestatten. Hierauf wird
im nächsten Kapitel zurückgekommen. Falls in der Retrieve-Phase kein altes Projekt
gefunden wird, das eine benutzerseitig vorgegebene Mindestähnlichkeit aufweist, wird
die Anwendung der CBR-Methode ergebnislos abgebrochen. Daher führt die CBR-
Methode nicht immer zu einem erfolgreichen Ergebnis der Wissenswiederverwendung.
Hierdurch unterscheidet sie sich deutlich von konventionellen Algorithmen.
Reuse-Phase: Es erfolgt eine Gap-Analyse hinsichtlich der Abweichungen zwischen
dem (mindestens einen) ähnlichsten alten Projekt und dem vorgegebenen neuen Projekt.
Anhand der identifizierten Abweichungen wird vor allem die Planung für das alte Projekt
mithilfe von Anpassungsregeln an das neue Projekt angepasst. Das Anpassungsergeb-
nis – die Projektlösung – ergänzt die eingangs vorgegebene Projektbeschreibung für das
neue Projekt. Die Reuse-Phase erstreckt sich zurzeit bei Anwendungen des Case-based
Reasonings auf das betriebliche Projektmanagement nur auf die Projektplanung. Einer
Wissenswiederverwendung für die Projektdurchführung, die Projektsteuerung und das
Projektcontrolling stehen zwar keine grundsätzlichen Hindernisse im Wege. Aber dies-
bezüglich stehen noch keine Forschungsresultate zur Verfügung.
Revise-Phase: Die Projektlösung wird hinsichtlich ihrer Plausibilität überprüft
(„validiert“) und hinsichtlich ihrer Eignung zur Wiederverwendung evaluiert. Dies kann
sowohl „manuell“ durch erfahrene Projektmanager als auch computergestützt mittels
Integritäts- bzw. Generalisierbarkeitsregeln geschehen. Um diese Überprüfungs- und
Evaluierungsarbeiten zu unterstützen, müssen konkrete Lösungsanforderungen an
„akzeptable“ Projektlösungen spezifiziert werden. Falls diese Lösungsanforderungen
von der bisher erarbeiteten Projektlösung nicht vollständig erfüllt werden, müssen
– entweder computergestützt oder seitens erfahrener Projektmanager – Korrekturen
(„Reparaturen“) der bislang vorliegenden Projektlösung vorgenommen werden, die
darauf abzielen, diese vorläufige Projektlösung so zu überarbeiten, dass alle Lösungs-
anforderungen erfüllt werden. Falls sich grundlegende Plausibilitäts- oder Wieder-
verwendbarkeitsanforderungen nicht erfüllen lassen, wird die Anwendung der
CBR-Methode wegen „irreparabler“ Lösungsanforderungen abermals ergebnislos
Case-based Reasoning als White-Box AI: „intelligentes“ …
19

Abb. 1 CBR-Zyklus für die Wissenswiederverwendung im betrieblichen Projektmanagement


20 S. Zelewski et al.

abgebrochen. Andernfalls fließen die Erkenntnisse der Revise-Phase in die Projekt-


bewertung ein. Dies betrifft vor allem Erkenntnisse hinsichtlich der Eignung einer
Projektlösung hinsichtlich ihrer Wiederverwendung für andere, neue Projekte, wie z. B.
im Hinblick auf die Unterscheidung zwischen „typischen“ (zur Wissenswiederver-
wendung prädestinierten) und „idiosynkratischen“ (hinsichtlich ihrer Generalisierbar-
keit höchst fragwürdigen) Projekten. Beispielsweise kann sich eine Projektlösung für
ein einzelnes Projekt zwar als plausibel erweisen (vor allem dann, wenn die Projekt-
anforderungen aus der Projektbeschreibung vollständig erfüllt werden), aber dennoch
hinsichtlich der „generalisierenden“ Wissenswiederverwendung große Bedenken auf-
werfen, weil sich das betroffene Projekt aufgrund der Gesamtheit seiner Projekt-
merkmale als einmalig erweist.
In der Retain-Phase wird das Tripel aus der Projektbeschreibung, der Projektlösung
und der Projektbewertung für das neue Projekt als Wissen über ein ursprünglich neues,
jetzt „gelerntes“ neues Projekt und somit hinsichtlich des Lern- und Wissensver-
arbeitungsprozesses „altes“ Projekt in die Projektwissensbasis aufgenommen. Diese
Retain-Phase erweist sich aus betriebswirtschaftlicher Perspektive als wenig interessant,
insbesondere nicht als „problemgeladen“ wie die drei voranstehenden Phasen. Aber in
informationstechnischer Hinsicht spielt die Retain-Phase vor allem im Hinblick auf den
Prozess der projektbezogenen Wissensakkumulation dennoch eine wichtige Rolle.
Schließlich wird parallel zur Retain-Phase die Projektlösung als eine Handlungs-
empfehlung für das neue Projekt an das Projektmanagement ausgegeben. Diese Hand-
lungsempfehlung kann als „Hintergrundwissen“ auch die Projektbewertung umfassen.
Aus betriebswirtschaftlicher Sicht ist diese „Lösungsanreicherung“ ausdrücklich
zu empfehlen, weil sie es den Mitarbeitern und Entscheidungsträgern im Projekt-
management ermöglicht, die vom CBR-System generierte Projektlösung aus dem Blick-
winkel der Projektbewertung zu interpretieren (erweiterte Handlungsempfehlung).
Zurzeit steht die KI-Technik des Case-based Reasonings – vor allem im Hinblick
auf die zugrunde liegende Inferenzmethode des analogen Schließens – vor drei grund-
legenden methodischen Herausforderungen (Problemen) hinsichtlich ihrer Anwendung
auf die Wiederverwendung von Erfahrungswissen im betrieblichen Projektmanagement:

• Ähnlichkeitsmessungsproblem: Für die Verarbeitung überwiegend natürlichsprach-


lichen Erfahrungswissens aus alten, bereits bearbeiteten und möglichst ähnlichen
Projekten muss in der Retrieve-Phase eine möglichst „umfassende“ Ermittlung
von Projektähnlichkeiten in die Algorithmen des Case-based Reasonings integriert
werden. Dies stellt ein keineswegs triviales Problem dar, das sich in drei Subprobleme
ausdifferenzieren lässt: Es lässt sich erheblich darüber streiten, erstens welche
Merkmale aus Projektbeschreibungen in eine Ähnlichkeitsberechnung einbezogen
werden (Problem der Merkmalsrelevanz), zweitens wie die quantitative Ähnlichkeits-
messung je Projektmerkmal konkret erfolgt (Problem des Ähnlichkeitsmaßstabs) und
drittens wie die Ergebnisse der Ähnlichkeitsmessung je Projektmerkmal zu einem
Case-based Reasoning als White-Box AI: „intelligentes“ … 21

Gesamtmaß für die Ähnlichkeit zweier Projekte aggregiert werden (Aggregations-


problem).
• Wissensanpassungsproblem: Zweitens erweist es sich in der Reuse-Phase nach
wie vor als besonders schwer, das Erfahrungswissen, das über die Bearbeitung
(mindestens) eines alten, bereits bearbeiteten Projekts computergestützt zur Ver-
fügung steht, an die „idiosynkratischen“ Besonderheiten eines neuen Projekts anzu-
passen. Entsprechende Anpassungsregeln werden zwar zuweilen am Rande erwähnt
oder als wünschenswert hervorgehoben. Aber konkrete Konzepte oder sogar
computergestützte Werkzeuge für solche Anpassungsregeln liegen zurzeit nur für
Spezialfälle oder nur in abstrakter, für das betriebliche Projektmanagement kaum
anwendungstauglicher Form vor.
• Validierungs- und Evaluierungsproblem: Für die Revise-Phase liegen noch kaum all-
gemein einsetzbare Konzepte vor, wie sich die Plausibilität einer Projektlösung über-
prüfen („validieren“) und hinsichtlich ihrer Eignung zur Wiederverwendung einstufen
(„evaluieren“) lässt. Einzelne Vorschläge aus der einschlägigen Fachliteratur (Bei-
erle et al. 2019; Richter et al. 2013; Aamodt et al. 1994) zu diesen Aspekten bleiben
zumeist sehr vage und oberflächlich. Außerdem liegen keine substanziellen Erkennt-
nisse darüber vor, wie sich Projektlösungen für bearbeitete Projekte im Falle von
Validitäts- oder Wiederverwendbarkeitsmängeln so überarbeiten („reparieren“) lassen,
dass sie vor ihrer Übernahme in die Projektwissensbasis die Lösungsanforderungen
im Hinblick auf Validität und Generalisierbarkeit erfüllen.

Die voranstehenden Ausführungen zur Analogie-Methode des Case-based Reasonings


verdeutlichen, dass es sich hierbei keineswegs um einen „einfachen Algorithmus“ oder
eine weitgehend „beherrschte“ KI-Technik handelt. Vielmehr weist das Case-based
Reasoning mehrere methodische „Untiefen“ auf, die seine Anwendung auf das betrieb-
liche Projektmanagement zwar nicht grundsätzlich infrage stellen, aber dennoch einer
sorgfältigen Beachtung und auch weiterer Forschungsanstrengungen bedürfen.

3.3 Ontologien für die Projektmanagement-Domäne

In der Domäne des Projektwissensmanagements gilt es, eine Fülle von projekt-
bezogenem Wissen zu verarbeiten. Es handelt sich insbesondere um Erfahrungswissen
über bereits bearbeitete, alte Projekte, das „im Prinzip“ für Planung, Durchführung,
Steuerung und Controlling neuer Projekte wiederverwendet werden könnte, tatsäch-
lich jedoch kaum benutzt wird. Dieses „an sich“ wiederverwendbare Wissen liegt vor
allem in der Form einer großen Anzahl von Dokumenten mit schlecht strukturiertem,
qualitativem und überwiegend natürlichsprachlich repräsentiertem Wissen über alte
Projekte vor. Diese Dokumente sind in den betroffenen Unternehmen zumeist mit Text-
verarbeitungssoftware erstellt worden und stehen daher in der Regel auf computer-
basierten Datenbanken oder Dokumenten-Servern zur Verfügung. Da die Dokumente,
22 S. Zelewski et al.

die auf diesen computerbasierten Systemen gespeichert sind, umfangreiches Erfahrungs-


wissen über alte Projekte enthalten, werden die Systeme hier als Projektwissensbasen
bezeichnet.
Zwar bestehen aufgrund der Existenz solcher Projektwissensbasen vielversprechende
Voraussetzungen dafür, wissensintensive Geschäftsprozesse des Projektmanagements
– vor allem Prozesse der Wiederverwendung von projektbezogenem Erfahrungs-
wissen – computergestützt auszuführen. Jedoch sind aktuell verfügbare computer-
gestützte Projektmanagementsysteme auf die Fähigkeit beschränkt, Dokumente mit
dem Erfahrungswissen über alte Projekte in einer Projektwissensbasis zu vorgegebenen
Beschreibungen neuer Projekte nur dann auffinden zu können, wenn sich die neuen
Projektbeschreibungen und die alten Projektdokumente auf der rein syntaktischen Ebene
von „Text-Sequenzen“ als ähnlich erweisen. Daher erfolgt die Suche in einer Projekt-
wissensbasis nach Dokumenten über ähnliche alte Projekte nur mithilfe von Suchworten
(oder deren Kombinationen) als ein simples „string matching“. Eine inhaltsadressierte
und somit semantische Suche nach wiederverwendbarem Erfahrungswissen findet auf
diese Weise nicht statt.
Aus den vorgenannten Gründen besteht eine große Herausforderung für das
computergestützte Projektwissensmanagement darin, das Erfahrungswissen über alte,
bereits bearbeitete Projekte in einer für Computer leicht zugänglichen Weise aufzu-
bereiten und im Hinblick auf neue Projekte wiederzuverwenden. Diese Herausforderung
lässt sich – inhaltlich etwas verengt, dafür aber plakativ – als „Dilemma der Natürlich-
sprachlichkeit“ umschreiben:

• Einerseits ist die Natürlichsprachlichkeit der Wissensrepräsentation oftmals not-


wendig, um qualitatives Projektwissen in einer inhaltsreichen und den betrieblichen
Mitarbeitern im Projektmanagement vertrauten Ausdrucksweise darzustellen.
• Andererseits erfordert der Einsatz von Computersystemen, um das o. a. Wissens-
mengenproblem zu beherrschen, eine formalsprachliche Wissensrepräsentation.
Hinzu kommt, dass die Messung von Ähnlichkeiten zwischen Projektbeschreibungen
quantitative Ähnlichkeitsmaßstäbe in Bezug auf die miteinander zu vergleichenden
Projektmerkmale voraussetzt, sofern Ähnlichkeit als ein genuin quantitativer Sachver-
halt konzeptualisiert wird.

Erschwerend kommt hinzu, dass die Dokumente, die den größten Teil des Erfahrungs-
wissens über alte, bereits bearbeitete Projekte umfassen, nicht nur schlecht strukturiert
und in natürlicher Sprache verfasst sind, sondern sich im betrieblichen Alltag auch
noch als hochgradig heterogen hinsichtlich der jeweils präsupponierten Terminologien
erweisen. Diese terminologische Heterogenität lässt sich in komplexen, insbesondere
internationalen Projekten mit einer Vielzahl von Akteuren (Personen, Unternehmen,
hoheitlichen und regierungsfernen Organisationen sowie sogar Softwaresystemen),
kaum vermeiden, weil die Akteure es gewohnt sind, ihre Gedanken in unterschiedlichen
Case-based Reasoning als White-Box AI: „intelligentes“ … 23

unternehmens-, organisations- oder softwarespezifischen „Dialekten“ sowie in unter-


schiedlichen Nationalsprachen auszudrücken.
Ontologien bieten einen vielversprechenden Ansatz, die zuvor skizzierten Schwierig-
keiten zu überwinden, natürlichsprachlich repräsentiertes, insbesondere qualitatives und
terminologisch heterogenes Projektwissen computergestützt aufzubereiten und wiederzu-
verwenden. Insbesondere ist es mit der Hilfe von Ontologien möglich, die „semantischen
Distanzen“ und somit auch die Ähnlichkeit zwischen natürlichsprachlichen Begriffen
zu „vermessen“, mit denen das qualitative Wissen über unterschiedliche Projekte in den
Dokumenten einer Projektwissensbasis repräsentiert wird.
In der hier gebotenen Kürze kann die wissenschaftliche Diskussion über ein
„angemessenes“ Ontologieverständnis nicht referiert werden. Stattdessen wird ein Onto-
logieverständnis zugrunde gelegt, das zwar der vielfach zitierten Ontologiedefinition von
Gruber (1995) folgt, aber einige Schwächen dieses Definitionsansatzes zu vermeiden
versucht (Zelewski 2015): Eine Ontologie ist eine explizite und formalsprachliche Spezi-
fikation derjenigen sprachlichen Ausdrucksmittel, die nach Maßgabe einer von mehreren
Akteuren gemeinsam verwendeten Konzeptualisierung von realen Phänomenen für die
Konstruktion repräsentationaler Modelle als erforderlich erachtet werden. Die Kon-
zeptualisierung erstreckt sich auf jene realen Phänomene, die in einem subjekt- und
zweckabhängig eingegrenzten Realitätsausschnitt von den Akteuren als wahrnehmbar
oder vorstellbar angesehen werden und für die Kommunikation zwischen den Akteuren
benutzt oder benötigt werden.
Wichtig an dieser Ontologiedefinition ist, dass sie – im Gegensatz zur vielzitierten
Ontologiedefinition von Gruber – es nicht nahelegt, bei einer Ontologie würde es sich
um eine formalsprachliche Spezifikation des Wissens über einen Realitätsausschnitt
handeln (dies würde eher ein repräsentationales Modell des betroffenen Realitätsaus-
schnitts darstellen). Vielmehr spezifiziert eine Ontologie „nur“ die (formal-)sprach-
lichen Ausdrucksmittel, mit deren Hilfe sich vor allem repräsentationale Modelle von
Realitätsausschnitten konstruieren lassen. Diese „Beschränkung“ des Ontologiebegriffs
auf sprachliche Ausdrucksmittel kommt in der einschlägigen Fachliteratur, aber auch in
„populärwissenschaftlichen“ Beiträgen zum Ontologie-Thema oftmals viel zu kurz oder
wird sogar vollständig ignoriert. Infolgedessen fällt es zuweilen schwer, Ontologien
(ohne ihre Beschränkung auf sprachliche Ausdrucksmittel) von formalsprachlichen
Modellen für einen Realitätsausschnitt inhaltlich präzise abzugrenzen.
In der hier gebotenen Kürze kann keine Ontologie präsentiert werden, die aus
betriebswirtschaftlicher Perspektive für die Domäne des Projektmanagements realistisch
und begrifflich präzise wäre. Eine solche Ontologie wäre viel zu umfangreich, um in
einem „Textdokument“ wie diesem Beitrag dokumentiert werden zu können. Stattdessen
wird in der nachfolgenden Abb. 2 nur ein kleiner Ausschnitt aus einer Projekt-Onto-
logie (Zelewski et al. 2015) für internationale Logistik-Projekte mit starkem Bezug auf
internationale Zoll-Bestimmungen und Verpackungen im internationalen Güterverkehr
präsentiert, um einen „intuitiven“ Zugang zu solchen Projekt-Ontologien zu vermitteln.
ist_ein ist_ein
ist_ein hat_Verpackung
24

Region HS-Position Verpackung


ist_ein ist_ein ist_Teil_von ist_Instanz_von ist_Instanz_von
geographischer
Wirtschaftsraum besteht
Raum HS-Kapitel _aus
ist_Instanz_von ist_Instanz_von hat_ Karton Gasflasche
ist_ein ist_ein Verpackung

Erdteil Freihandelszone Kapitel VI Kapitel XX besteht Verpackungs- besteht


_aus material _aus
ist_Teil_von hat_Kapitel
ist_Instanz_von ist_Instanz_von ist_Instanz_von
hat_Kapitel
ist_Instanz_von
ist_Instanz
HS-Code
Asien Europa ist_Instanz
_von _von Pappe Metall
XX 9613 VI 2804 hat_Verpackung
ist_Teil ist_Teil hat_HS-Position
ist_Teil_von Streichhölzer Wasserstoff
_von _von
hat_HS-Code
ist_Teil hat_HS-Code Gut
Land
_von
ist_Instanz ist_Instanz_von
Thing ist_ein ist_Instanz_von
ist_Instanz _von
_von ist_Instanz Streichhölzer
_von ist_ein Wasserstoff
hat_Zielort hat_Gut
Japan Deutschland Geschäftsvorfall hat_Gefahrgutklasse
China hat_Startort
ist_Teil ist_Instanz_von ist_ein hat_Gefahr
ist_Teil_von ist_Instanz_von Gefahrgutklasse
ist_Teil_von _von gutklasse
ist_Instanz_von hat_Startort hat_Gut
Ort Fall 1 ist_ein ist_ein
ist_Teil ist_Instanz hat_Gut entzündbare
ist_Instanz_von
Fall 2 Gase
_von _von Feststoffe
ist_Instanz ist_Instanz
Wuhu Tokyo Duisburg _von _von
ist_ein wird_transportiert_mit
hat_Startort Transportmittel selbstentzünd- entzündbare
hat_Zielort Gase
hat_Zielort
bare feste Stoffe
ist_ein ist_ein
hat_Gefahrgutklasse

Flugzeug Schiff
Klasse Instanz
ist_Instanz_von ist_Instanz_von Legende:

Boeing 747 Containerschiff taxonomische Relation


Nr. 132 „Klaus“ ist_Instanz_von
wird_transportiert_mit nicht-taxonomische Relation
wird_transportiert_mit
S. Zelewski et al.

Abb. 2 Ausschnitt aus einer Ontologie für internationale Logistik-Projekte


Case-based Reasoning als White-Box AI: „intelligentes“ … 25

Ontologien stellen einen zentralen Ansatzpunkt dafür dar, um das bereits


beschriebene Ähnlichkeitsmessungsproblem für das Case-based Reasoning zu lösen.
Insbesondere bieten sich Ontologien an, um die sprachlichen Ausdrucksmittel für
Erfahrungswissen über Projekte zu strukturieren. Dies wird nachfolgend im Hinblick auf
eine Projekt-Ontologie ansatzweise verdeutlicht.
Die besondere Herausforderung – oder sogar „Kunstfertigkeit“ – besteht für das Case-
based Reasoning darin, mithilfe einer Projekt-Ontologie die Ähnlichkeit zwischen zwei
Projekten – in der Regel zwischen einem neuen Projekt und jeweils einem alten, bereits
bearbeiteten, in der Projektwissensbasis enthaltenen Projekt – anhand des Wissens über
die beiden betroffenen Projekte quantitativ präzise zu beurteilen (zu „messen“).
Zum Zweck der Ähnlichkeitsmessung müssen projektspezifische Ausprägungen
von Projektmerkmalen, die Mitarbeiter eines Unternehmens hinsichtlich des Projekt-
managements für relevant erachten, miteinander verglichen werden. Diese Merkmals-
ausprägungen finden sich einerseits vor allem in den Beschreibungen alter, bereits
bearbeiteter Projekte, zuweilen aber auch in den zugehörigen Projektbewertungen
(z. B. im Hinblick auf kritische Erfolgs- und Misserfolgsfaktoren). Diese Projekt-
beschreibungen und Projektbewertungen alter Projekte sind in der Projektwissens-
basis eines CBR-Systems abgelegt. Andererseits müssen Merkmalsausprägungen in
der Beschreibung eines neuen, zukünftig zu bearbeitenden Projekts beachtet werden.
Hinsichtlich dieser Projektmerkmale und ihrer Ausprägungen besteht tendenziell ein
„herausfordernder“ Konflikt:

• Einerseits gehören zu den Projektmerkmalen, die es miteinander zu vergleichen gilt,


im Projektmanagement – wie bereits eingangs ausführlicher dargestellt wurde – vor
allem qualitative Projektmerkmale, die nicht in numerischer Weise erfasst, sondern
in der Regel natürlichsprachlich beschrieben werden. Dies betrifft insbesondere
Erfahrungswissen über alte, bereits bearbeitete Projekte, das für neue Projekte
wiederverwendet werden soll.
• Andererseits muss die Projektähnlichkeit auf einer kardinalen Ähnlichkeitsskala, die
durch einen näher zu spezifizierenden quantitativen Ähnlichkeitsmaßstab definiert
wird, gemessen werden, um die Erwartung der betrieblichen Praxis an präzise
(„numerische“) Ähnlichkeitsurteile, die in der Regel in „Prozent“ oder auf einer
Intervallskala [0;1] angegeben werden, zu erfüllen.

Dieser scheinbare Widerspruch zwischen – zumindest teilweise – qualitativen Projekt-


merkmalen und quantitativ zu messender Projektähnlichkeit entspricht dem „Dilemma
der Natürlichsprachlichkeit“ des Projektwissensmanagements, das an früherer Stelle
skizziert wurde.
Ein Erfolg versprechendes Konzept zur Lösung dieses scheinbaren Widerspruchs
steht auf der Basis des hier vorgestellten KI-Ansatzes der Ontologien bereits zur Ver-
fügung. Es beruht auf der Verknüpfung von zwei Gestaltungsprinzipien. Auf der einen
Seite wird das für einen Vergleich zu berücksichtigende Wissen – hier also das Wissen
26 S. Zelewski et al.

über die Ausprägungen der Projektmerkmale der miteinander zu vergleichenden


Projekte – mithilfe einer Ontologie strukturiert. Dies ermöglicht die Einbeziehung
von qualitativem, vor allem natürlichsprachlich repräsentiertem (Erfahrungs-)Wissen.
Auf der anderen Seite wird die Ähnlichkeit von Projekten durch die Vermessung von
Distanzen („Weglängen“) entlang der Kanten zwischen den Knoten einer graphen-
theoretischen Repräsentation der Ontologie – einem Ontologie-Netz (siehe die o. a.
Abb. 2) – bestimmt. Mittels dieser Kanten (für taxonomische und nicht-taxonomische
Relationen und deren Instanzen) und Knoten (für Konzepte – oder synonym: Klassen
– und deren Instanzen) eines Ontologie-Netzes wird das Wissen über die projekt-
beschreibenden Merkmalsausprägungen in einer mathematischen, formalsprach-
lich „verarbeitbaren“ Form verankert. Mithilfe der Vermessung von Distanzen in
einem graphentheoretisch definierten Ontologie-Netz wird eine quantitative Skala für
die Messung der Ähnlichkeit zwischen zwei Projekten konstituiert. Auf diese Weise
gestatten es Ontologien, präzise – graphentheoretisch fundierte – Algorithmen für die
Messung der Ähnlichkeit zwischen zwei Projekten zu entwickeln, die vor allem auch
in der Lage sind, die „semantische“ (nicht nur rein numerisch fundierte) Ähnlichkeit
zwischen alten und neuen Projekten exakt zu ermitteln.
Darüber hinaus gilt es, den zuvor skizzierte KI-Ansatz für eine ontologiebasierte
Messung der Ähnlichkeit zwischen jeweils zwei Projekten in die umfassendere KI-
Technik des Case-based Reasonings zu integrieren, um die Wiederverwendung
von Erfahrungswissen im Projektmanagement zu unterstützen, das großenteils als
qualitatives, natürlichsprachlich repräsentiertes Wissen vorliegt. In dieser Hinsicht
existieren bereits einige bemerkenswerte Forschungsansätze zu sogenannten ontologie-
gestützten CBR-Systemen (Avdeenko et al. 2018; Martin et al. 2017; Bouhana et al.
2015; Beißel 2011), in denen Case-based Reasoning einerseits und Ontologien anderer-
seits miteinander kombiniert werden. Diese ontologiegestützten CBR-Systeme stehen
derzeit an der „vorderen Forschungsfront“ des Transfers von KI-Erkenntnissen aus der
universitären Forschung in konkrete Anwendungen der betrieblichen Praxis – wie dem
hier als Beispiel betrachteten Projektmanagement.

4 Ausblick

In einem Folgebeitrag dieser Multigrafie (Case-based Reasoning als White-Box AI …


Teil 2: Das KI-Tool jCORA für ontologiegestütztes Case-based-Reasoning im Projekt-
management) wird der Prototyp jCORA für ein KI-Tool vorgestellt, das die Wieder-
verwendung von Erfahrungswissen im Projektmanagement auf der Grundlage von
ontologiegestütztem Case-based-Reasoning konkret unterstützt. Ebenso wird dort
erläutert werden, wie sich die fünf Herausforderungen (Probleme), die im hier vor-
liegenden, ersten Beitrag hinsichtlich der Wiederverwendung von Erfahrungswissen im
Projektmanagement vorgestellt wurden, durch ein solches KI-Tool meistern lassen.
Case-based Reasoning als White-Box AI: „intelligentes“ … 27

Literatur

Aamodt A, Plaza E (1994) Case-based reasoning: foundational issues, methodological variations,


and system approaches. AI Commun 7(1):39–59
Amin K (2021) DeepKAF: A Knowledge Intensive Framework for Heterogeneous Case-Based
Reasoning in Textual Domains. Eigenverlag, Kaiserslautern
Auth G, Jöhnk J, Wiecha D (2021) Künstliche Intelligenz im Projektmanagement. In: Barton T, Müller
C (Hrsg) Künstliche Intelligenz in der Anwendung. Springer Vieweg, Wiesbaden, S 149–173
Avdeenko T, Makarova E (2018) Knowledge representation model based on case-based reasoning and
the domain ontology: application to the it consultation. IFAC-PapersOnLine 51(11):1218–1223
Barton T (2021) Anwendungspotenziale für kausale Inferenz im Online-Marketing. In: Barton T,
Müller C (Hrsg) Künstliche Intelligenz in der Anwendung. Springer Vieweg, Wiesbaden, S 93–98
Beierle C, Kern-Isberner G (2019) Methoden wissensbasierter Systeme. 6. Aufl., Springer Vieweg,
Wiesbaden
Beißel S (2011) Ontologiegestütztes Case-Based Reasoning. Gabler, Wiesbaden
Bouhana A, Zidi A, Fekih A, Chabchoub H, Abed M (2015) An ontology-based CBR approach for
personalized itinerary search systems for sustainable urban freight transport. Expert Systems
with Applications 42(7):3724–3741
Bruno G, Antonelli D, Villa A (2015) A reference ontology to support product lifecycle
management. Procedia CIRP 33:41–46
Buxmann P, Schmidt H (2021) Ethische Aspekte der Künstlichen Intelligenz. In: Buxmann P,
Schmidt H (Hrsg) Künstliche Intelligenz. 2. Aufl., Springer Gabler, Berlin, S 215–229
Chou J (2009) Web-based CBR system applied to early cost budgeting for pavement maintenance
project. Expert Syst Appl 36(2):2947–2960
García de Soto B, Adey B (2016) Preliminary resource-based estimates combining artificial
intelligence approaches and traditional techniques. In: Hajdu M, Skibniewski M (Hrsg)
Creative Construction Conference 2016. Diamond Congress Ltd., Budapest, S 237–243
Dong H, Hussain F, Chang E (2011) ORPMS: an ontology-based real-time project monitoring
system in the cloud. J Univ Comput Sci 17(8):1161–1182
Getuli V (2020) Ontologies for knowledge modeling in construction planning. Firenze University
Press, Firenze
Gruber T (1995) Toward principles for the design of ontologies used for knowledge sharing. Int J
Hum-Comput Stud 43(5–6):907–928
Guarino N (1997) Understanding, building and using ontologies. Int J Hum-Comput Stud
46(2/3):293–310
Jallow H, Renukappa S, Suresh S (2020) Knowledge Management and Artificial Intelligence (AI).
In: Garcia-Perez A, Simkin L (Hrsg) 21st European Conference on Knowledge Management.
Academic Conferences and Publishing International Ltd., Sonning Common, S 363–369
Ji S, Park M, Lee H, Ahn J, Kim N, Son B (2011) Military Facility Cost Estimation System Using
Case-Based Reasoning in Korea. J Comput Civ Eng 25(3):218–231
Kowalski M, Zelewski S, Günes N, Kühn T (2011) Kostenschätzungen für die Reaktivierung
passiver Gleisanschlüsse – Eine neue Methode für Kostenschätzungen mithilfe von Case-based
Reasoning (CBR) basiert auf der Wiederverwendung von historischem Projektwissen. EI – Der
Eisenbahningenieur 62(6):49–54
Lundberg S, Erion G, Chen H, DeGrave A, Prutkin J, Nair B, Katz R, Himmelfarb J, Bansal N,
Lee S (2020) From local explanations to global understanding with explainable AI for trees.
Nat Mach Intell 2(1):56–67
Martin A, Emmenegger S, Hinkelmann K, Thönssen B (2017) A viewpoint-based case-based
reasoning approach utilising an enterprise architecture ontology for experience management.
Enterp Inf Syst 11(4):551–575
28 S. Zelewski et al.

Munir M (2019) How Artificial Intelligence can help Project Managers? Global J Manage Bus Res
19(4):29–35
Obermayer N, Tóth V (2021) The Impact of Emerging Technologies on Knowledge Management.
In: Garcia-Perez A, Simkin L (Hrsg) 22nd European Conference on Knowledge Management
2(Reading):585–593
Radziejowska A, Zima K (2015) The concept of a knowledge base to aid in cost estimating of
sports facilities. Int J Contemp Manage 14(3):99–113
Rai A (2020) Explainable AI: from black box to glass box. J Acad Market Sci 48(1):137–141
Richter M, Weber R (2013) Case-Based Reasoning. Springer, Berlin - Heidelberg
Riesbeck C, Schank R (1989) Inside Case-Based Reasoning. Lawrence Erlbaum Associates,
Publishers, Hillsdale
Ruiz J, Torres J, Crespo R (2021) The application of artificial intelligence in project management
research: a review. Int J Interact Multimedia Artif Intell 6(6):54–65
Shehab M, Abualigah L, Jarrah M, Alomari O, Daoud M (2020) Artificial intelligence in software
engineering and inverse: review. Int J Comput Integr Manufact 33(1):1129–1144
Zelewski S (2015) Ontologien als Grundlage für das Semantic Knowledge Management
von projektbezogenem Erfahrungswissen. In: Zelewski S, Akca N, Kowalski M (Hrsg)
Organisatorische Innovationen mit Good Governance und Semantic Knowledge Management
in Logistik-Netzwerken. Logos, Berlin, S 81–228
Zelewski S, Schagen J (2022) Case-based Reasoning als KI-Technik zur „intelligenten“, computer-
gestützten Wiederverwendung von Erfahrungswissen im Projektmanagement. KI-LiveS-
Projektbericht Nr. 9, Institut für Produktion und Industrielles Informationsmanagement,
Universität Duisburg-Essen
Zelewski S, Kowalski M, Bergenrodt D (2015) Management von Erfahrungswissen aus inter-
nationalen Logistik-Projekten mithilfe von Case-based Reasoning. In: Zelewski S, Akca
N, Kowalski M (Hrsg) Organisatorische Innovationen mit Good Governance und Semantic
Knowledge Management in Logistik-Netzwerken. Logos, Berlin, S 229–267

Herr Univ.-Prof. Dr. Stephan Zelewski ist Inhaber einer


Professur für Betriebswirtschaftslehre und Direktor des Instituts für
Produktion und Industrielles Informationsmanagement an der
Fakultät für Wirtschaftswissenschaften der Universität Duisburg-
Essen. Er studierte Betriebs- und Volkswirtschaftslehre in Münster
und Köln, wurde 1985 mit einer Arbeit über betriebswirtschaftliche
Anwendungspotenziale der Künstlichen Intelligenz promoviert und
1992 mit einer Arbeit zur Strukturalistischen Produktionstheorie
habilitiert. Seine Hauptarbeitsgebiete erstrecken sich auf computer-
gestütztes Produktionsmanagement an der Nahtstelle zwischen
Betriebswirtschaftslehre und Wirtschaftsinformatik mit Fokus auf
Projektmanagement, Logistik, Supply Chain Management sowie
Produktionsplanung und -steuerung. Dazu zählt ebenso der Trans-
fer von Erkenntnissen aus der Erforschung Künstlicher Intelligenz
auf ökonomische Probleme, insbesondere im Hinblick auf
Wissensbasierte Systeme, Ontologien und Case-based Reasoning.
Nebenarbeitsgebiete betreffen Operations Research, Spieltheorie
(faire Verteilung von Effizienzgewinnen in Supply Webs) sowie
Produktions- und Wissenschaftstheorie (Non Statement View).
Case-based Reasoning als White-Box AI: „intelligentes“ … 29

Frau Dipl.-Math. Tatjana Heeb ist wissenschaftliche Mit-


arbeiterin am Institut für Produktion und Industrielles
Informationsmanagement der Universität Duisburg-Essen. Sie
studierte Mathematik mit dem Nebenfach Wirtschaft und dem
Schwerpunkt Operations Research an der Universität Duisburg-
Essen. Seit 2013 unterstützt sie das Institut für Produktion und
Industrielles Informationsmanagement mit Lehrtätigkeiten in den
Bereichen des Projekt- und problemorientiertes Lernens, der
Existenzgründung und der Techniken des wissenschaftlichen
Arbeitens. Derzeit konzentriert sie sich neben dem Verbundprojekt
KI-LiveS auf ihr Dissertationsprojekt zum Thema „Semi- oder
vollautomatische Generierung von Wissenskomponenten aus über-
wiegend natürlichsprachlichen Texten für ontologiegestützte Case-
based-Reasoning-Systeme“.

Herr Jan Peter Schagen, M.Sc., ist wissenschaftlicher Mit-


arbeiter und Promotionsstudent am Institut für Produktion und
Industrielles Informationsmanagement an der Fakultät für Wirt-
schaftswissenschaften der Universität Duisburg-Essen. Er studierte
an der Universität Duisburg-Essen, Campus Essen, den Bachelor-
studiengang Betriebswirtschaftslehre (B.Sc.) und anschließend den
Masterstudiengang Märkte und Unternehmen (M.Sc.). Im Rahmen
seiner Tätigkeit als wissenschaftlicher Mitarbeiter arbeitet er unter
anderem im Verbundprojekt KI-LiveS, das anstrebt, Techniken aus
der Erforschung Künstlicher Intelligenz in die betriebliche Praxis
zu transferieren. Daneben konzentriert er sich auf sein Dis-
sertationsprojekt, das sich insbesondere der systematischen Kon-
zipierung, Implementierung und Evaluierung von Adaptionsregeln
für ein ontologiegestütztes Case-based-Reasoning-System im
Rahmen der „intelligenten“ Wiederverwendung von Erfahrungs-
wissen im Projektmanagement widmet.
Messbarkeit der Nachhaltigkeit von
Digitalisierung in Unternehmen

Sabrina Hatzebruch, Vanessa Just und Andreas Moring

Um die Relevanz der Messbarkeit der Nachhaltigkeit von Digitalisierung für Unter-
nehmen zu konkretisieren, beschäftigen sich die ersten beiden Kapitel zum einen mit der
generellen Verantwortung von Unternehmen in Bezug auf eine nachhaltigere Welt und
was dies für den (nachhaltigen) Digitalisierungsprozess von Unternehmen bedeutet. Zum
anderen wird die Notwendigkeit eines Modells zur Bewertung der Nachhaltigkeit von
Digitalisierung in Unternehmen erläutert.
Im Folgenden wird die Forschung und Entwicklung des Reifegradmodells
„Sustainable Digitalization Maturity Model“ (SDMM) vorgestellt. Dabei wird das drei-
fache Verständnis von Nachhaltigkeit zugrunde gelegt, welches von John Elkington
(1998) als „Triple Bottom Line“ der Nachhaltigkeit bezeichnet wurde. Diese Definition
unterteilt Nachhaltigkeit in die ökonomische, ökologisch und soziale Dimension, wobei
„jedes Ziel als notwendiger, unabhängiger und kompromissloser Teil des Ganzen ver-
standen werden muss“ (Rogers und Hudson 2011, 6).
Im Weiteren wird sowohl auf die Methodik des Design Science Research, als auch
auf die damit verbundene Literaturrecherche und die durchgeführten Experteninterviews,

S. Hatzebruch
Mühlheim am Main, Deutschland
E-Mail: [email protected]
V. Just (*) · A. Moring
Hamburg, Deutschland
E-Mail: [email protected]
A. Moring
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 31
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_3
32 S. Hatzebruch et al.

eingegangen. Es folgt eine Beschreibung der Strukturelemente des SDMM, welches


die resultierenden fünf Entwicklungsstufen, fünf Dimensionen und dazugehörige unter-
nehmerische Fähigkeiten beschreibt. Nach einem Anwendungsbeispiel, welches Unter-
nehmen die praktische Anwendung des Modells näherbringen soll, und der genauen
Erläuterung der Reifegradbewertung, folgt ein Ausblick, der sich mit nachhaltiger
Digitalisierung in der Zukunft auseinandersetzt und bspw. darauf eingeht welchen Ein-
fluss Künstliche Intelligenz (KI) auf das Modell haben kann.

1 Unternehmerische Verantwortung für eine nachhaltige


Zukunft

Das Bestreben die Welt nachhaltiger zu gestalten, um sie für heutige und zukünftige
Generationen lebenswert zu machen, fordert ein großes Engagement aller (WCED
1987). Dabei wird das Erreichen von ökologischen, sozialen und ökonomischen Nach-
haltigkeitszielen oft in Zusammenhang mit dem Megatrend Digitalisierung gebracht
(Helbing 2012). Neben dem großen Potenzial, das von digitalen Technologien ausgeht,
bspw. in Bezug auf den Umweltschutz, werden allerdings immer häufiger auch negative
Folgen wie der große Energieverbrauch von Datenzentren vorgebracht (Arnold und
Fischer 2019; Seele und Lock 2017).
Insbesondere Unternehmen, die als soziale Organisation eine dominante Stellung in
der Gesellschaft einnehmen, wird eine große Verantwortung zugeschrieben, wenn es um
den Einfluss auf die Nachhaltigkeitsentwicklung geht (Melville 2010). Beim 2020 online
stattfindenden Digital-Gipfel, durchgeführt durch den BMWi, wurde diese besondere
Rolle der Unternehmen in Bezug auf deren notwendiges Handeln für eine nachhaltigere
Digitalisierung besonders hervorgehoben (BMWi 2018). Lock und Seele (2017)
bezeichnen Unternehmen, neben Medien, Regierungen und Wissenschaft, als einen der
zehn wichtigsten Akteure der Nachhaltigkeit im Kontext der Digitalisierung. Diese den
Unternehmen zugeschriebene Verantwortung wird dabei zum einen durch deren erheb-
liche Beteiligung an der Umweltverschmutzung begründet, die beispielsweise durch
deren hohen Energie- und Wasserverbrauch oder Emissionen entsteht. Darüber hinaus
wird Unternehmen aber auch eine soziale Verantwortung gegenüber der Gesellschaft
und insbesondere deren Mitarbeitern zugeschrieben. Durch das Verhindern von zum
Beispiel Unterbezahlung oder schlechten Arbeitsbedingungen können Unternehmen
maßgeblich soziale Probleme beeinflussen. Außerdem liege es in der Verantwortung
von Unternehmen, wirtschaftliche Entwicklung zu katalysieren, Innovationen voranzu-
treiben und menschliche Bedürfnisse grundlegend zu befriedigen. Als am wichtigsten
wird jedoch erachtet, dass Unternehmen „einen großen Hebel und die notwendigen
Ressourcen haben, um die Welt nachhaltiger zu gestalten“ (Lock und Seele 2017, 240 in
Anlehnung an Shrivastava 1995). Diese Hebelwirkung ergebe sich insbesondere daraus,
dass Unternehmen gleichzeitig Big Data-Generatoren und -Sammler und -Anwender
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 33

sind (um Wissen über ihre Kunden zu gewinnen, in F&E zu innovieren, neue Märkte zu
erschließen, Produkterfolge und -fehler vorherzusagen) (Lock und Seele 2017).
Ob Unternehmen tatsächlich einen positiven Beitrag zu einer nachhaltigen Ent-
wicklung leisten, hängt dabei stark vom Management der digitalen Transformation und
der Anwendungen von Künstlichen Intelligenz (KI) ab (Klumpp und Zijm 2019; Seele
und Lock 2017). Da sowohl Digitalisierung und Nachhaltigkeit und damit auch nach-
haltige Digitalisierung für das gesamte Unternehmen relevant sind, sollte die Planung
und Überwachung dem Upper Management obliegen.
Aus Unternehmenssicht bedeutet dies nicht nur eine Notwendigkeit eine Anpassung
der Strategieausrichtung an den technologischen Veränderungen vorzunehmen um
im zunehmend digitalen Marktumfeld wettbewerbsfähig zu bleiben, sondern das
Thema Nachhaltigkeit als integralen Bestandteil im Unternehmen und insbesondere im
Digitalisierungsprozess zu verankern. Die Umsetzung einer nachhaltigen Digitalisierung
ist allerdings nicht ganz einfach für Unternehmen. Dies liegt zum einen an der
Komplexität, die die nachhaltige Nutzung der technologischen Möglichkeiten, auch aus
strategischer Sicht, z. B. im Sinne von Geschäftsmodellinnovationen, mit sich bringt
(Loebbecke und Picot 2015; Paulus-Rohmer et al. 2016; Teichert 2019). Zum anderen
ist der Einfluss der Digitalisierung auf die Nachhaltigkeit nicht vollständig geklärt, was
zu Ungewissheit führt, welches der „richtige“ Weg für die praktische Umsetzung einer
nachhaltigen Digitalisierung ist (Seele und Lock 2017).
Da neben der Politik auch andere Stakeholder mehr und mehr Transparenz von Unter-
nehmen in Bezug auf deren Nachhaltigkeitsperformance verlangen, wächst allerdings
die Notwendigkeit für Unternehmen eine nachhaltige Digitalisierung systematisch und
glaubhaft vorweisen zu können.

2 Notwendigkeit eines Modells zur Bewertung der


Nachhaltigkeit von Digitalisierung in Unternehmen

Seele und Lock behaupten, dass die Nutzung des „Potenzials von Nachhaltigkeit
und Digitalisierung auf allen Ebenen, sei es technisch, konzeptionell, politisch oder
wissenschaftlich“ noch am Anfang steht (Seele und Lock 2017, 185). Und tatsäch-
lich ist bei Unternehmen ein heterogenes Verständnis von Nachhaltigkeit in Bezug
auf Digitalisierung festzustellen. Dabei spielt sicherlich auch die Größe von Unter-
nehmen eine Rolle. Kleine Startups, die sich von Anfang an auf Nachhaltigkeit aus-
gerichtet haben, haben möglicherweise einen Vorteil gegenüber großen traditionellen
Unternehmen, da diese alle bisherigen Prozesse auf Nachhaltigkeit umstellen müssen.
Andererseits haben große Unternehmen den Vorteil, mehr Ressourcen zur Verfügung
stehen zu haben, um eine nachhaltige Digitalisierung in die Tat umzusetzen. Aus einem
allgemein ungleichen Verständnis von nachhaltiger Digitalisierung resultiert eine ebenso
unterschiedliche praktische Umsetzung von Digitalisierung, In vielen Unternehmen
scheint dabei der wirtschaftliche Vorteil durch Effizienzgewinne im Vordergrund zu
34 S. Hatzebruch et al.

stehen, ökologische und soziale Fragestellungen werden im Digitalisierungsprozess


dahingegen gar nicht oder nur unzureichend thematisiert.
Die steigende Relevanz einer nachhaltigen Digitalisierung von Unternehmen, aber
gleichzeitig dem uneinheitlichen Verständnis bzw. der fehlenden Definition dieses Begriffs
in der Praxis und in der Literatur, führte zu der Erkenntnis, dass es notwendig ist, eine
Möglichkeit zu haben, die Nachhaltigkeit von Digitalisierung in Unternehmen systematisch
bewerten zu können um anhand dessen Unternehmen im nachhaltigen Digitalisierungs-
prozess zu unterstützen und geeignete Verbesserungspotenziale identifizieren zu können.
Daher setzen wir uns das Ziel ein wissenschaftlich basiertes Bewertungsmodell zu ent-
wickeln, welches auf Grundlage spezieller Ausprägungen unternehmerischer Fähigkeiten
die Messung der Nachhaltigkeit von Digitalisierung ermöglicht (Hatzebruch et al. 2021).
Die Forschungserkenntnisse und insbesondere das entstandene Reifegradmodell nach-
haltiger Digitalisierung werden in den folgenden Kapiteln vorgestellt.

3 Entstehung des Reifegradmodells zum Messen


nachhaltiger Digitalisierung

Die Leistungsmessung von Fähigkeiten wird generell oft als komplex, aber notwendig
in Bezug auf die Erreichung von Unternehmensziele angesehen (Chiesa 2008), da die
Ergebnisse nicht nur Grundlage für Entscheidungsfindungen oder strategischen Planung
sind, sondern auch einen Lerneffekt mit sich bringen (Loch und Tapper 2002). Ein hilf-
reicher und oft genutzter Ansatz, um die Leistungsfähigkeit eines Unternehmens zu
messen bzw. den kontinuierlichen Verbesserungsprozess von Unternehmen zu unter-
stützen – hier in Bezug auf nachhaltige Digitalisierung – ist das Reifegrad Konzept/
Konzept der Reife, welches wertvolle Orientierung für Unternehmen auf dem Weg zur
kontinuierlichen Verbesserung liefert (Becker et al. 2009; Pöppelbuß und Röglinger
2011). Dieser Ansatz wurde daher auch für die Entwicklung des SDMM genutzt.
Allgemein dienen Reifegradmodelle als Instrument, um die aktuelle Position des
Unternehmens auf seinem evolutionären Weg zur vollen Reife zu skalieren (Fraser et al.
2002; Lahti et al. 2009). Den meisten Reifegradmodellen ist gemeinsam, dass sie ein
systematisches Maß darstellen, „um den Ist-Zustand eines Unternehmens zu beurteilen,
Verbesserungsmaßnahmen abzuleiten und zu priorisieren und anschließend den Fort-
schritt ihrer Umsetzung zu steuern“ (auf deutsch übersetzt. Becker et al. 2009, 213).
Das Konzept der Reifegradmessung wurde mit dem Capability Maturity Model
(CMM) des Software Engineering Institute (SEI) eingeführt (Paulk et al. 1991). Seitdem
wurden eine Vielzahl von Reifegradmodellen veröffentlich und erfolgreich eingesetzt
(vgl. z. B. Becker et al. 2009; De Bruin et al. 2005; Pöppelbuß und Röglinger 2011;
Fraser et al. 2002). Allerdings beschäftigt sich keines der bestehenden Modelle mit nach-
haltiger Digitalisierung. Vielmehr gibt es Reifegradmodelle, die sich entweder auf Nach-
haltigkeit oder auf Digitalisierung beziehen. Diese Erkenntnis bestätigte das Vorhaben
ein solches Modell, welches beide Faktoren zusammenbringt, zu entwickeln.
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 35

Methodik
Um ein innovatives und praktisch anwendbares Reifegradmodell zur Messung nach-
haltiger Digitalisierung zu entwickeln, folgten wir der populären Methodik des Design
Science Research (DSR). Diese zielt auf die Schaffung und Bewertung von innovativen
Artefakten ab, welche darauf ausgerichtet sind, Leistung zu verbessern (March und
Smith 1995). Als Basis für die Nutzung von DSR im Hinblick auf die Entwicklung des
Reifegradmodells dienten oft zitierte designwissenschaftliche Richtlinien (für weitere
Details siehe Hevner et al. 2004) und darauf aufbauend ein DSR-Framework, das die
Entwicklung von Artefakten unterstützt (Hevner 2007). Das von Hevner (2007) vor-
geschlagene DSR-Verfahren ist in drei eng verwandte iterative Zyklen unterteilt.
Der Relevanzzyklus stellt den ersten Zyklus von Hevners Framework dar. DSR wird
dabei durch ein Problem initiiert, welches zunächst bestimmt und dessen Anwendungs-
domänenkontext geklärt werden muss (Hevner 2007). Der zweite Zyklus wird als Rigor-
Zyklus bezeichnet. Dieser Teil bringt vorhandenes Wissen, Theorie und Artefakte in
die DSR ein und baut so eine Wissensbasis auf, die Einfluss auf die Entwicklung des
innovativen Artefakts hat. Der Designzyklus und Hauptteil des Prozesses umfasst die
Schlüsselaktivitäten von DSR, das Artefakt iterativ zu entwickeln und zu bewerten
(Hevner 2007). Die hier beschriebene Forschung konzentrierte sich vor allem auf die
Entwicklung (Bauaktivitäten). Die DSR-Aktivitäten, die sich mit der Bewertung und
Umsetzung befassen, wurden bei der Entwicklung des SDMM nicht diskutiert.

Theoretischer Hintergrund und Experteninterviews


Die Forschung baute auf bereits existierender Literatur zu den Themenkomplexen
Digitalisierung und Nachhaltigkeit auf. Bei der Recherche wurde ersichtlich, dass für
ein ausreichend umfassendes Bewertungsmodell die drei Aspekte der Nachhaltigkeit
– ökonomisch, ökologisch, sozial – berücksichtigt werden müssten. Dieses dreifache
Verständnis von Nachhaltigkeit wurde von John Elkington als „Triple Bottom Line“
der Nachhaltigkeit bezeichnet. Es beinhaltet einen Ansatz zur Messung der Leistung
eines Unternehmens in Bezug auf wirtschaftliche, soziale und ökologische Belange
(Elkington 1998, 18 ff.). Die ökonomische Dimension der Nachhaltigkeit wird dabei
oft als „generische Dimension“ von Unternehmen angesehen (Baumgartner und Ebner
2010, 78). Diese umfasst allgemeine monetäre oder wirtschaftliche Aspekte eines Unter-
nehmens, die sichergestellt werden müssen, um lange wettbewerbsfähig zu bleiben
(Azapagic und Perdan 2000). Die ökologische Dimension der Nachhaltigkeit berück-
sichtigt darüber hinaus Umweltauswirkungen wie Ressourcennutzung oder Emissionen,
die sich aus der Geschäftstätigkeit ergeben (Baumgartner und Ebner 2010). Die dritte
Dimension, die soziale Nachhaltigkeit, umfasst die Verantwortung des Unternehmens
für seine Geschäftstätigkeit gegenüber seinen Stakeholdern, einschließlich ethischer und
wohlfahrtsbezogener Überlegungen (Baumgartner und Ebner 2010).
Dieser Ansatz hebt hervor, dass die drei Dimensionen nicht in Isolation betrachtet
werden können, da sie sich gegenseitig beeinflussen können und daher auch bei dem
Bestreben einer nachhaltigen Digitalisierung berücksichtigt werden müssen (Rogers
36 S. Hatzebruch et al.

und Hudson 2011). Das TBL-Framework besagt außerdem, dass der Idealfall erreicht
ist, wenn ökonomische, soziale und ökologische Nachhaltigkeitsziele gleichzeitig erfüllt
werden – sozusagen an der Schnittmenge des TBL Venn-Diagramms (siehe Roger und
Hudson 2011, 4).
Da es zum Teil widersprüchliche Ziele der drei Komponenten geben kann, zum Bei-
spiel, wenn soziale und ökologische Ziele im Gegensatz zu wirtschaftlichen Zielen stehen
(Rogers und Hudson 2011), weist das TBL-Framework darauf hin, dass Geschäfts-
entscheidungen in einem breiteren, allumfassenden Nachhaltigkeits-Kontext getroffen
werden müssen, da „jedes Ziel als notwendiger, unabhängiger und kompromissloser Teil
des Ganzen verstanden werden muss“ (Rogers und Hudson 2011, 6).
Mit diesem Grundverständnis von Nachhaltigkeit, sowie den Erkenntnissen aus
bereits bestehenden Reifegradmodellen in den separaten Themengebieten Digitalisierung
bzw. Nachhaltigkeit, wurden Experteninterviews durchgeführt. Diese sollten Aufschluss
darüber geben, welche unternehmerischen Fähigkeiten und welche spezifischen Aus-
prägungen dieser, die verschiedenen Reifegrade einer nachhaltigen Digitalisierung
bestimmen.

Das Modell
Basierend auf der durchgeführten Literaturrecherche und der Analyse der Experten-
interviews folgte die iterative Bestimmung von Strukturelementen des Reifegrad-
modells. Dies umfasste die Entscheidungen „über die (…) zu bewertende Dimensionen,
die zuzuweisenden Reifegrade (Bewertungsskala) und die zu formulierenden Zell-
beschreibungen“ (Maier et al. 2009, 150).
Das daraus resultierende Evaluationsmodell SDMM, das es ermöglicht, den Reifegrad
nachhaltiger Digitalisierung (sustainable development = SD) unter Berücksichtigung
der definierten Dimensionen und der ausgewählten Indikatoren für jede Dimension und
der Bedeutung dieser Indikatoren durch Anwendung eines Fragebogens/Workshops
zu bestimmen, ist ein erster Vorschlag zur Ermittlung potenzieller Verbesserungen der
unternehmerischen nachhaltigen Digitalisierung (Hatzebruch et al. 2021). Es besteht aus
fünf Reifegraden, fünf Dimensionen und insgesamt 25 Fähigkeiten, die ungleich in die
Dimensionen gruppiert sind (siehe Abb. 1).
Dabei gilt, um einen hohen Reifegrad zu erreichen, müssen Unternehmen in allen
Dimensionen einen hohen Reifegrad vorweisen können. Für jede der Dimensionen kann
eine spezifische Lösung zur Verbesserung hin zu einer nachhaltigeren Digitalisierung
erforderlich sein. Weiterhin kann unternehmensspezifisch ein Fokus auf unterschiedliche
Indikatoren gelegt werden.

Strukturelemente Fünf Entwicklungsstufen


Das Modell beschreibt fünf verschiedene Entwicklungsstufen in Bezug auf eine nach-
haltige Digitalisierung von Unternehmen. Der evolutionäre Prozess der Reifung beginnt
auf der Ausgangsebene (1), wobei von einem Unternehmen keine Anstrengungen für
die Nachhaltigkeit der Digitalisierung unternommen werden. Erreicht ein Unternehmen
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 37

Strategy Process Data Technology Culture &


Leadership

Alignment with Corporate (Sustainability) Strategy


5 Leading

Sustainability Assessment of Digital Solutions


Measurement of Attainment of SD Objectives
Establishment of Management Structure

Decision and Implementation Process

Commitment of Top Management


Data Security/Protection/Privacy
Data Analytics and Exploitation
Communication and Reporting

Green Business Infrastructure

Knowledge and Expertise


Establishment of Policies

Knowledge Management
Definition of SD Strategy

Internal Communication
Problem Understanding

Innovative Governance
Monitoring and Control
Availability of Budgets

Process Management

Technology Adequacy
Technology Alignment

Employee Readiness
Data Management
4 Advanced

AI Capabilities
3 Established

2 Developed

1 Initial

Abb. 1 Überblick über die Strukturelemente des Reifegradmodells SDMM (Hatzebruch et al.
2021)

hingegen die höchste Stufe (5), so weist dies auf einen Digitalisierungsprozess hin, der
ganzheitlich auf ökonomische, ökologische und soziale Nachhaltigkeit ausgerichtet ist.
Diese Reifegrade begleiten den konsekutiven Prozess von den ersten Anforderungen
bis hin zur ganzheitlichen Transformation zur nachhaltigen Digitalisierungs-Reife.
Die Beschreibungen der Grundkonzeptionen aller fünf Reifegrade können in Abb. 2
gefunden werden.

Fünf Dimensionen und dazugehörige unternehmerische Fähigkeiten


Die gesamte Reifegradpositionierung wird auf die fünf Dimensionen Strategy,
Process, Data, Technology sowie Culture & Leadership heruntergebrochen. Diese
beschreiben strategische und operative Handlungsfelder innerhalb eines nachhaltigen
Digitalisierungs-Prozesses von Unternehmen. Die Dimension Strategy untersucht die
strategische Ausrichtung und die organisatorischen Rahmenbedingungen und Strukturen
in Bezug auf nachhaltige Digitalisierung. Die Dimensionen Process sowie Culture &
Leadership befassen sich mit der operativen Umsetzung und Integration der strategischen
nachhaltigen Digitalisierungs-Ziele. Während die Dimensionen Data und Technology
die Komponenten und Architekturen untersuchen, die zur Förderung von nachhaltiger
Digitalisierung eingesetzt werden.
Jede Dimension besteht wiederum aus Fähigkeiten, die relevante Aspekte von
nachhaltiger Digitalisierung darstellen. Sie dienen als Beurteilungskriterien für
die Bewertung des Ist-Zustandes eines Unternehmens in Bezug auf nachhaltige
38 S. Hatzebruch et al.

No. Maturity Level Description

1 Initial Starting point for the development and improvement towards the highest level of
maturity. Thereby, capabilities are only rudimentarily developed from a strategic as well
as from an operational perspective, and an organizational orientation and culture that
understands the importance of sustainability within the digitalization process of the
company is missing.
2 Developed The developed stage comprises the fundamental requirement towards an advanced
maturity. The awareness for the need of sustainability in the context of digitalization is
existing. However, a comprehensive concept, strategic alignment, and expertise
necessary to realize the issue of SD is not in place.
3 Established The established level constitutes as the third level of maturity, where fundamental
concepts for SD do exist. This includes initial approaches to establish SD processes, but
they are neither well developed yet nor institutionalized from a strategic perspective.
4 Advanced The advanced level of the maturity model, contains that organizational prerequisites for
the sustainable-oriented development of digitalization are available. Thereby, general
concepts to support a defined sustainability objective do exist. A concept and strategic
alignment is sustained by associated specifications and control mechanisms like the
holistic sustainability assessment of digital solutions.
5 Leading The leading stage is the highest level and constitutes a leadership position in the field of
SD. At this stage, capabilities are systematically and continuously developed in
accordance with the strategic direction of the company. Thereby the aspect of
sustainability is considered in every digitalization process, decision and de-sign of digital
technologies.

Abb. 2 Beschreibung der fünf Reifegrade (Hatzebruch et al. 2021)

Digitalisierung und implizieren Maßnahmen zur Verbesserung. Diese werden im


Folgenden je Dimension erläutert.

• Ein zentrales Ergebnis unserer Forschung ist, dass das volle Potenzial der
Digitalisierung nur dann ausgeschöpft werden kann, wenn Nachhaltigkeit als
Gesamtkonzept und nicht als zusätzliches Element betrachtet wird. Das bedeutet,
dass es einen umfassenden strategischen Nachhaltigkeitsansatz geben muss, um die
Digitalisierung erfolgreich zu managen. Deshalb ist die strategische Dimension
innerhalb des Reifegradmodells entscheidend für die Bewertung der nachhaltigen
Digitalisierungs-Reife des Unternehmens. Dabei ist nicht nur die Definition einer
nachhaltigen Digitalisierungs-Strategie in Verbindung mit klaren Nachhaltigkeits-
zielen entscheidend, sondern auch die Ausrichtung an der Unternehmens-(nach-
haltigkeits)-strategie und ebenso die Messung der Zielerreichung. Diese Ziele
sollen nicht nur ökonomischer Natur sein, sondern auch ökologisch und sozial. Dies
inkludiert zum Beispiel die Reduzierung des CO2-Ausstoßes des Unternehmens
um einen bestimmten Prozentsatz pro Jahr in Verbindung mit digitalen Techno-
logien oder die Steigerung der Mitarbeiterzufriedenheit durch flexible Arbeits-
bedingungen wie Home-Office, die durch digitale Lösungen ermöglicht werden.
Für diesen strategischen Aspekt ist eine klare Managementstruktur erforderlich, bei
der die C-Ebene die Hauptverantwortung trägt. Nicht nur, um die Bedeutung von
nachhaltiger Digitalisierung zu symbolisieren, sondern auch, um sicherzustellen,
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 39

dass spezielle Budgets zur Verfügung stehen, um die nachhaltige Entwicklung der
Digitalisierung zu unterstützen.
• Darüber hinaus werden Culture & Leadership als wichtige Faktoren identi-
fiziert, die eine nachhaltige Entwicklung begründen und fördern. Diese Dimension
konzentriert sich in erster Linie auf soziale Aspekte, die sich wiederum auf öko-
nomische und ökologische Ergebnisse auswirken. Dabei beziehen sich alle vor-
geschlagenen Fähigkeiten hauptsächlich auf eine bestimmte Denkweise, von der
man annimmt, dass sie positiv zur nachhaltigen Entwicklung von Unternehmen bei-
trägt. Vor allem das überzeugende Bekenntnis des Top-Managements zu nachhaltiger
Digitalisierung, das sich in dessen Antrieb oder Unterstützung äußern kann, wird
als wichtig angesehen. In gewissem Maße abhängig von diesen Kriterien sind auch
die Fähigkeiten des Wissensmanagements, der innovativen Unternehmensführung
und der internen Kommunikation. Ohne die Bereitschaft der Mitarbeiter zur (nach-
haltigen) Digitalisierung und ihre Beteiligung und Einbindung in die nachhaltigen
Digitalisierungs-Aktivitäten kann der Reifegrad unter dem Gesichtspunkt der Nach-
haltigkeit nicht erreicht werden.
• Da behauptet wird, dass das Erfassen des potenziellen Werts von Technologien
und damit das Erreichen von Wettbewerbsvorteilen über den bloßen Besitz und die
Implementierung von Technologien hinausgeht (Kane et al. 2017, S. 5 f.), spielt die
Prozessdimension eine wichtige Rolle bei der Nutzung von digitalen Technologien.
Daher bedarf es eines digital ausgerichteten Prozessmanagements, das sinnvoll ist
und auf einer soliden digitalen Infrastruktur basiert, die Geschwindigkeit, Robust-
heit und Sicherheit im Informationsaustausch unterstützt. Darüber hinaus ist die Ein-
führung konsistenter interner Richtlinien erforderlich, die das Thema nachhaltige
Digitalisierung unterstützen. Dies kann beinhalten, dass die Lieferantenauswahl für
digitale Technologien oder Bürogeräte eines Unternehmens vom Nachhaltigkeits-
konzept des Anbieters bzw. von bestimmten Zertifikaten, die der Anbieter vorweisen
kann (z. B. das Blauer Engel-Zertifikat DE-UZ 215), abhängig gemacht wird. Ent-
scheidend ist nach Ansicht der Experten auch, die Digitalisierung nicht nur aus dem
Willen zur Digitalisierung herauszubetreiben. So wurden ein tiefes Problemverständ-
nis und die Nachhaltigkeitsbewertung digitaler Lösungen – unter Berücksichtigung
eines zirkulären Wirtschaftsansatzes – als wegweisende Fähigkeiten im Rahmen des
Reifegradmodells identifiziert. Speziell für Softwareprodukte können Unternehmen
auf einige bestehende Ansätze zur Bewertung ihrer Umweltauswirkungen zurück-
greifen, z. B. von Hilty et al. (2017), die auch die damit verbundenen Auswirkungen
auf die Hardware berücksichtigen. Im Rahmen des Entscheidungs- und Umsetzungs-
prozesses neuer digitaler Technologien sollen die Mitarbeitenden miteinbezogen und
unterstützt werden. Auch sollen Ansätze zur Überwachung der Prozessdurchführung
für alle relevanten Prozesse angewandt und auf nachhaltige Effizienz hin verfolgt
werden. Da zur Nachhaltigkeit auch Transparenz gehört, stellt die Kommunikation
und Berichterstattung über die Digitalisierung eine Kernaufgabe dar. Diese sollte auf
systematischen Kennzahlen basieren, die positive und negative Auswirkungen auf die
40 S. Hatzebruch et al.

Nachhaltigkeit im Zeitvergleich aufzeigen, einschließlich Zielen, Maßnahmen und


Indikatoren, z. B. CO2-Emissionsreduzierung durch IKT, Rechenzentrumseffizienz,
verbrauchte Kilowattstunden pro Jahr (pro Gerät) und der Prozentsatz an recyceltem
Papier und reduziertem Druckaufwand (Donnellan et al. 2011).
• Die Datendimension stellt Fähigkeiten dar, die die Grundlage für andere Fähigkeiten,
z. B. innerhalb der Prozessdimension, bilden. Als Bewertungskriterien werden u. a.
ein Datenmanagement vorgeschlagen, das hohen Ansprüchen an Qualität, Vollständig-
keit, Konsistenz und Aktualität genügt, da dies ökonomische, ökologische und soziale
Aspekte beeinflusst. Darüber hinaus sollten die Unternehmen geeignete Maßnahmen
zur Datensicherheit, zum Datenschutz und zur Wahrung der Privatsphäre ergreifen.
Doch erst die Analyse und Verwertung von Daten offenbart den wirklichen Nutzen
für nachhaltige Digitalisierung. Unternehmen, die sich nicht nur auf die Analyse
von betriebswirtschaftlichen, sondern auch auf ökologische und soziale Kennzahlen
konzentrieren, sind im Vorteil. Wenn die Schlussfolgerungen systematisch genutzt
und antizipierte Verbesserungsmaßnahmen so schnell wie möglich in die Praxis
umgesetzt werden, kann dies für das Überleben in einem dynamischen und wett-
bewerbsorientierten Markt entscheidend sein.
• Die technologische Dimension kann als das Herzstück des Reifegradmodells ver-
standen werden. Die befragten Experten stellten fest, dass durch die digitale Techno-
logie und die damit verbundene Infrastruktur (Hardware etc.) der größte Hebel hinzu
einer nachhaltigen Digitalisierung erzielt werden könne. Dabei wird der Ausbau zu
einer grünen Unternehmensinfrastruktur, einschließlich umweltfreundlicher Firmen-
gebäude, Maschinen, Hardware und Büroausstattung sowie Ökostrombeschaffung als
entscheidend angesehen. Darüber hinaus tragen die technologische Ausrichtung und
die Angemessenheit zur Reife nachhaltiger Digitalisierung bei. Eine weitere Fähig-
keit, die nicht fehlen darf, ist das Vorhandensein der notwendigen Kenntnisse und
Fähigkeiten im Umgang mit und der Umsetzung von digitalen Technologien, die
durch kontinuierliche Weiterbildung und gegenseitigen Erfahrungsaustausch, auch mit
Externen, gefördert werden müssen.

Anwendungsbeispiel
In den Interviews wurde deutlich, dass zu den Spitzenfähigkeiten die Prozessfähig-
keiten „Problemverständnis“ und „Bewertung digitaler Technologien“ gehören
(Hatzebruch et al. 2021). Aufgrund ihrer Bedeutung und ihres Einflusses auf den Reife-
grad nachhaltiger Digitalisierung werden sie im Folgenden als Beispiele herangezogen,
um zu zeigen, wie die Erkenntnisse aus der vorhandenen Literatur und die Analyse
der Experteninterviews zu spezifischen Beschreibungen von Fähigkeitsmerkmalen
führten. Zu den wichtigsten Erkenntnissen gehört, dass Unternehmen nicht wegen des
Willens zur Digitalisierung digitalisieren dürfen. Deshalb muss immer sichergestellt
werden, dass die Digitalisierung eine geeignete Lösung für ein bestimmtes soziales
oder organisatorisches Problem darstellt. Dazu müssen entsprechende intellektuelle,
technologische und emotionale Fähigkeiten im Unternehmen vorhanden sein, um ein
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 41

tiefes Verständnis für das ursprüngliche Problem zu erlangen, das eine digitale Lösung
rechtfertigt. Dieser Prozess kann eine Anforderungsanalyse für die potenzielle Lösung
des spezifischen Problems beinhalten. Ein weiterer relevanter Faktor, der in der Praxis
nicht angewendet zu werden scheint, ist eine ganzheitliche Bewertung (potenzieller)
digitaler Lösungen durch die Unternehmen. Denn das Ergebnis einer Nachhaltigkeits-
bewertung würde einen umfassenden Überblick über die positiven wie negativen öko-
nomischen, ökologischen und sozialen Auswirkungen liefern. Auf dieser Basis kann
eine konkrete Lösung sorgfältig und sinnvoll abgewogen werden. Hierfür gibt es bereits
einige Regelungen und Bewertungsansätze, die von Unternehmen angewendet werden
können und sollten. Für den Bereich der Bewertung wird es als Best Practice verstanden,
wenn ein zirkulärer Ansatz angewendet wird. Aus dieser Erkenntnis heraus folgten die
Beschreibungen und Ausprägungen der beiden exemplarischen Fähigkeiten pro Reife-
grad (siehe Abb. 3). Dies wurde für alle 25 Fähigkeiten durchgeführt.

Reifegradbewertung
Der Reifegrad nachhaltiger Digitalisierung eines Unternehmens wird anhand der eben
skizzierten Strukturelemente ermittelt. Dies bedeutet insbesondere, dass die Gesamt-
bewertung des Reifegrades eines Unternehmens durch die Reifegradbewertung bestimmt
wird, die sich aus den fünf Dimensionen zusammensetzt, die wiederum auf der Grund-
lage der jeweiligen Fähigkeiten der einzelnen Dimensionen determiniert werden. Die
daraus resultierende Reife erlaubt eine Einordnung in eine der fünf definierten Reife-
gradstufen. Darauf aufbauend kann eine systematische Entwicklung vom aktuellen
Reifegrad zu höheren Stufen durch die Verbesserung der Eigenschaften spezifischer
Fähigkeiten und auf der Grundlage der vom Unternehmen angestrebten Ziele realisiert
werden.
Auf der Grundlage einer Bewertung, inwieweit diese Fähigkeiten vorhanden
sind, erhält ein Unternehmen ein klares Verständnis seiner aktuellen Fähigkeiten und
Schlüsselindikatoren für Maßnahmen und Verbesserungen. Anhand der Bewertungs-
ergebnisse kann ein Fahrplan für das Erreichen höherer Reifegrade erstellt werden.
Dabei können die Unternehmen individuell Prioritäten setzen und sich auf die Fähig-
keiten konzentrieren, die sie als besonders wichtig oder dringend erachten. Für eine
erfolgreiche Entwicklung von Fähigkeiten sollten Unternehmen jedoch die Reife
nachhaltiger Digitalisierung systematisch und fortlaufend bewerten und steuern. Das
bedeutet, dass Maßnahmen ergriffen werden sollten, um den Fortschritt zu bewerten und
den Wert zu ermitteln, der durch die Einführung von nachhaltiger Digitalisierung ent-
steht.
Die Anwendung des Modells ermöglicht es nachhaltige Digitalisierungs-Fähig-
keiten zu einem bestimmten Zeitpunkt zu messen und zu bewerten. Dies verschafft den
Unternehmen ein besseres Verständnis ihrer vorhandenen Fähigkeiten, ermöglicht eine
effizientere Nutzung der Ressourcen und zeigt Möglichkeiten zur Verbesserung der
Nachhaltigkeit auf. Auf diese Weise sind die Unternehmen besser für die Bewältigung
42 S. Hatzebruch et al.

Process Capability: “Problem Understanding”


Initial Developed Established Advanced Leading
Digitalization projects are Digitalization projects are Digitalization project are Each digitalization project The implementation of
realized without a deep realized with a basic reasoned and based on a is reasoned and based on digital technologies are
understanding and understanding of an deep understanding of a deep understanding of reasoned and based on a
analysis of the original original problem to be an existing social or the existing social or deep understanding of
problem to be solved. solved which at least organizational problem to organizational problem to the existing social or
justifies the be solved but a be solved and a organizational problem to
implementation of a requirements analysis requirements analysis be solved and a
digital solution. for a potential solution is focusing on economic requirements analysis
not conducted. Required factors is conducted. focusing on economical,
intellectual and technical Required intellectual and ecological and social
qualities of those technical qualities of factors is conducted.
responsible do exist. those responsible do exist. Required intellectual,
technical as well as
emotional intelligence
qualities of those
responsible do exist.

Process Capability: “Sustainability Assessment of Digital Solutions”


Initial Developed Established Advanced Leading
Digitals soutions are only Digitals soutions are A holistic sustainability A holistic sustainability A holistic sustainability
assessed by economic assessed by a few assessment, of internally assessment, considering assessment of existing
factors such as the internally defined clearly defined a circular economy and potential digital
purchase price. sustainability factors. sustainability factors and approach as well as technologies, considering
objectives, of existing and social factors, of existing a circular economy
potential digital and potential digital approach as well as
technologies is executed technologies is social factors which is
at irregular intervals. continuously executed. based on best-practice
approaches and
standards, is
continuously executed.

Abb. 3 Beschreibung von zwei exemplarischen Prozessfähigkeiten (Hatzebruch et al. 2021)

des konvergierenden Megatrends gerüstet und in der Lage, die Beziehungen und Ein-
flüsse zu verstehen, die sich auf die nachhaltige Entwicklung auswirken.

4 Nachhaltige Digitalisierung in der Zukunft

Die allgemeine Wahrnehmung, dass die Digitalisierung von Unternehmen in der Praxis
meist nicht alle drei Dimensionen der Nachhaltigkeit berücksichtigt (Seele und Lock
2017, S. 185), im Gegensatz zum TBL-Framework (Rogers und Hudson 2011, S. 6),
wurde durch die durchgeführten Experteninterviews unserer Forschung bestätigt. Des-
halb kann gesagt werden, dass es sich bei dem Thema nachhaltige Digitalisierung um
ein noch relativ neues, aber sich schnell entwickelndes Feld handelt, das Unternehmen
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 43

aufgrund eines uneinheitlichen Verständnisses, sowie fehlender Richtlinien und Best


Practices vor Herausforderungen, aber sicherlich auch Chancen, stellt.
Wie bereits erläutert sollten in einer umfassenden Strategie für eine nachhaltige
Digitalisierung, sowohl der ökonomische als auch der ökologische, der soziale und
deren gegenseitige Abhängigkeit im Digitalisierungsprozess berücksichtig werden. Ein
solch umfänglicher Ansatz wird durch das vorgeschlagene Reifegradmodell angeregt und
sollte in Zukunft von Unternehmen umgesetzt werden.
Diese Forschung stellt somit einen ersten Versuch dar, die Komplexität von nach-
haltiger Digitalisierung aufzuzeigen und zu verdeutlichen, was Unternehmen beachten
müssen, um eine nachhaltige Digitalisierungs-Reife zu erlangen. Dabei wird nicht nur
die strategische Notwendigkeit eines nachhaltigen Digitalisierungs-Managements auf-
gezeigt und welche Aspekte eine nachhaltige Digitalisierung von Unternehmen beein-
flussen, sondern es wird auch ein universell in der Praxis anwendbares Reifegradmodell
vorgestellt, das es Unternehmen ermöglicht, ihren aktuellen Status der nachhaltigen
Digitalisierungs-Reife zu bewerten.
Das vorgeschlagene Modell weist eine Reihe von Nachhaltigkeitsindikatoren/unter-
nehmerischen Fähigkeiten auf, welche als ein erster Ansatz zu verstehen sind Nach-
haltigkeit von Digitalisierung messbar zu machen. Diese sollen zur Diskussion anregen
und müssen aufgrund von sich weiterentwickelnder digitalen Technologien stetig
auf Relevanz überprüft werden. Es ist sogar wahrscheinlich, dass Faktoren angepasst
werden müssen. Beispielsweise, wenn es um die Anwendung von KI geht, welche in
den nächsten Jahren gewiss an Wichtigkeit zunehmen wird. Potenzielle neue Faktoren
sollten systematisch überprüft und in das Model eingefügt werden, um eine zeitgemäße
Bewertung von nachhaltiger Bewertung gewährleisten zu können.
Da „Reifegradmodelle aufgrund veränderter Bedingungen, technologischer Fort-
schritte oder neuer wissenschaftlicher Erkenntnisse naturgemäß veralten“ (Becker
et al. 2009, 219), muss das vorgestellte Reifegradmodell regelmäßig validiert werden.
So können notwendige Anpassungen entsprechend vorgenommen werden. Dies
kann Anpassungen der Fähigkeitsbeschreibungen bestimmter Reifegrade beinhalten,
aber auch das Hinzufügen oder Abziehen von Fähigkeiten in Bezug auf nachhaltige
Digitalisierung.
Während des Forschungsprozesses wurde deutlich, dass es zwar einige Standards
zur Bewertung der Nachhaltigkeit digitaler Technologien gibt (z. B. ISO/IEC 25010
Standard: Systems and Software Quality Requirements and Evaluation), es jedoch
mehr Standards und ganzheitliche Bewertungsmethoden für digitale Technologien
geben muss, auf die sich Unternehmen verlassen können. Darüber hinaus müssen die
bestehenden Bewertungsmaßstäbe und Zertifikate für nachhaltige Entwicklung ver-
breitet und für alle Unternehmen zugänglich gemacht werden, da viele Unternehmen
die bestehenden Maßnahmen nicht zu kennen scheinen. Einige der Befragten Interview-
partnern forderten außerdem mehr politische Anreize und Regulierung, z. B. in Form von
Steueranreizen oder Gebühren, um nachhaltige Digitalisierung voranzubringen. Auch
dies sollte von den Entscheidungsträgern kritisch hinterfragt werden.
44 S. Hatzebruch et al.

Zusammenfassend lässt sich somit sagen, dass es nicht nur eine intensive Forschung
zu allen nachhaltigen Auswirkungen und Effekten digitaler Technologien braucht,
sondern auch politische Initiativen, die eine nachhaltige Digitalisierung von Unter-
nehmen unterstützen. Dadurch würden Unternehmen auch in Zukunft ermutigt werden
einen nachhaltigeren Digitalisierungsprozess durchzuführen und somit die Erreichung
der Nachhaltigkeitsziele zu unterstützen. Das vorgebrachte Reifegradmodell kann dabei
ein erster Anstoß für Unternehmen sein eine nachhaltige Digitalisierung umzusetzen.

Literatur

Arnold M, Fischer A (2019) Fluch und Segen der Digitalisierung im Kontext einer Entwicklung
zur Nachhaltigkeit. Chemnitz Economic Papers, Nr. 031, Chemnitz University of Technology,
Faculty of Economics and Business Administration, Chemnitz, S 1–21
Azapagic A, Perdan S (2000) Indicators of sustainable development for industry: a general
framework. Process Saf Environ Prot 78(4):243–261
Baumgartner RJ, Ebner D (2010) Corporate sustainability strategies: sustainability profiles and
maturity levels. Sustain Dev 18(2):76–89
Becker J, Knackstedt R, Pöppelbuß J (2009) Developing maturity models for IT management. Bus
Inf Syst Eng 1(3):213–222
BMWi (2018) Die EU-Datenschutz-Grundverordnung – Checkliste für die Umsetzung in Unter-
nehmen. https://www.bmwi.de/Redaktion/DE/Publikationen/Digitale-Welt/datenschutzgrund-
verordnung.pdf?__blob=wqpublicationFile&v=16. Zugegriffen: 6. Aug. 2021
Chiesa V, Frattini F, Lazzarotti V, Manzini R (2008) Designing a performance measurement system
for the research activities: a reference framework and an empirical study. J Eng Tech Manage
25(3):213–226
De Bruin T, Rosemann M, Freeze R, Kaulkarni U (2005) Understanding the main phases of
developing a maturity assessment model. In 16th Australasian Conference on Information
Systems (ACIS), Sydney, S 8–19
Donnellan B, Sheridan C, Curry E (2011) A capability maturity framework for sustainable
information and communication technology. IT Prof 13(1):33–40
Elkington J (1998) Accounting for the triple bottom line. Meas Bus Excell 2(3):18–22
Fraser P, Moultrie J, Gregory M (2002) The use of maturity models/grids as a tool in assessing
product development capability. In IEEE International Engineering Management Conference (1),
Cambridge, UK, S 244–249
Hatzebruch S, Just V, Moring A (2021). The advancement and practical application of a maturity
model for assessing “Sustainable Digitalization Readiness” of Companies. Master-Thesis at ISM
Helbing D (2012) The FuturICT knowledge accelerator towards a more resilient and sustainable
future. The European Physical Journal Special Topics 214:5–9
Hevner AR (2007) A three cycle view of design science research. Scand J Inf Syst 19(2):87–92
Hevner AR, March ST, Park J, Ram S (2004) Design science in information systems research. MIS
Q 28(1):75–105
Hilty L, Naumann S, Maksimov Y, Kern E, Filler A, Guldner A, Gröger J (2017) Kriterienkatalog
für nachhaltige Software. UFOPLAN-Projekt „Sustainable Software Design - Entwicklung
einer Methodik zur Bewertung der Ressourceneffizienz von Softwareprodukten“ FKZ-Nr.:
3715 37 601. Öko-Institut, Hochschule Trier, Universität Zürich, Freiburg, S 1–32
Kane GC, Palmer D, Nguyen-Phillips A, Kiron D, Buckley N (2017) Achieving digital maturity.
MIT Sloan Manag Rev 59(1):1–29
Messbarkeit der Nachhaltigkeit von Digitalisierung in Unternehmen 45

Klumpp M, Zijm H (2019) Logistics innovation and social sustainability: how to prevent an
artificial divide in human-computer interaction. J Bus Logist 40(3):265–278
Lahti M, Shamsuzzoha AHM, Helo P (2009) Developing a maturity model for supply chain
management. Int J Logistics Syst Manage 5(6):654–678
Loch CH, Tapper US (2002) Implementing a strategy-driven performance measurement system for an
applied research group. J Prod Innov Manage: An Int Publ Prod Dev Manage Assoc 19(3):185–198
Lock I, Seele P (2017) Theorizing stakeholders of sustainability in the digital age. Sustain Sci
12(2):235–245
Loebbecke C, Picot A (2015) Reflections on societal and business model transformation arising
from digitization and big data analytics: a research agenda. J Strateg Inf Syst 24(3):149–157
Maier A, Moultrie J, Clarkson J (2009) Developing Maturity Grids for Assessing Organisational
Capabilities: Practitioner Guidance. IEEE Trans Eng Manage 59(1):138–159
March ST, Smith GF (1995) Design and natural science research on information technology. Decis
Support Syst 15(4):251–266
Melville NP (2010) Information systems innovation for environmental sustainability. MIS Q 34(1):1–21
Paulk MC, Curtis B, Chrissis MB (1991) Capability maturity model for software (CMU/SEI-
91-TR-24). Software Engineering Institute, Pittsburgh
Paulus-Rohmer D, Schatton H, Bauernhansl T (2016) Ecosystems, strategy and business models
in the age of digitization-How the manufacturing industry is going to change its logic. Procedia
CIRP 57:8–13
Pöppelbuß J, Röglinger M (2011) What makes a useful maturity model? A framework of general
design principles for maturity models and its demonstration in business process management.
European Conference on Information Systems (ECIS) 2011 Proceedings. 28; in Association
for Information Systems Electronic Library (AISeL). https://aisel.aisnet.org/ecis2011/28.
Zugegriffen 3. März 2021
Rogers K, Hudson B (2011) The triple bottom line. The synergies of transformative perceptions
and practices for sustainability. OD Pract 43(4):3–9
Seele P, Lock I (2017) The game-changing potential of digitalization for sustainability:
possibilities, perils, and pathways. Sustain Sci 12(2):183–185
Shrivastava P (1995) The role of corporations in achieving ecological sustainability. Acad Manag
Rev 20(4):936–960
Teichert R (2019) Digital transformation maturity: a systematic review of literature. Acta
universitatis agriculturae et silviculturae mendelianae brunensis 67(6):1673–1687
WCED (1987) Report of the world commission on environment and development: Our common
future; S. 20-24. https://digitallibrary.un.org/record/139811#record-files-collapse-header.
Zugegriffen 18 Februar 2021

Sabrina Hatzebruch absolvierte ihr Bachelorstudium in Wirt-


schaftswissenschaften an der Johann Wolfgang Goethe-Universität
in Frankfurt am Main. Von 2019 bis 2022 absolvierte sie ihr
Masterstudium mit dem Schwerpunkt „International Management“
an der International School of Management in Frankfurt. In ihrer
Masterarbeit erforschte sie die Messbarkeit Nachhaltiger
Digitalisierung in Unternehmen.
46 S. Hatzebruch et al.

Dr. Vanessa Just ist bei team neusta für die KI Strategie zuständig
und ist Gründerin und CEO der juS.TECH AG. Sie promovierte in
nachhaltiger Automatisierung und Digitalisierung von Geschäfts-
prozessen. Neben der beruflichen Tätigkeit hält sie Vorlesungen an
verschiedenen deutschen Hochschulen und Universitäten und ist
im KI Bundesverband e. V. Mitglied des Vorstands.

Copyright für das Portraitfoto © by Faceland.com.Prof. Dr.


Andreas Moring lehrt und forscht in den Bereichen Digitale Wirt-
schaft, Künstliche Intelligenz und Nachhaltigkeit. Er ist
Ambassador des Artificial Intelligence Center ARIC in Hamburg
und Advisor und Beirat in verschiedenen Unternehmen. Moring ist
Leiter des juS.TECH Instituts für Data Science, KI und Nach-
haltigkeit und Mitgründer der juS.TECH AG. Zuletzt veröffent-
lichte er Bücher und Studien zur Digitalisierung und
Nachhaltigkeit in der Immobilienwirtschaft und zur erfolgreichen
Mensch-KI-Kooperation in Unternehmen und Organisationen.
Wirtschaftsgeographische Perspektiven
auf digital-nachhaltige Transitionen
und resultierende Implikationen für
Unternehmen

Hans-Christian Busch

1 Einleitung

Planetare Grenzen und der anthropogene Klimawandel (Rockström et al. 2009) stellen
derzeit und in den nächsten Jahrzehnten wirtschaftliche und gesellschaftliche Akteure
weltweit vor enorme transformatorische Herausforderungen. Zur Erreichung der mit
diesen Herausforderungen verbundenen Sustainable Development Goals der Vereinten
Nationen und des Überabkommens von Paris sind übergreifende Transformationen in
verschiedenen Bereichen notwendig; unter anderem in Bezug auf Bildung, Gesundheit,
Energie, Nahrungsmittel, Städte sowie Digitalisierung (Sachs et al. 2019). Jede dieser
Transformationsarenen betrifft verschiedene gesellschaftliche, politische sowie öko-
nomische Dimensionen. Aus diesen unterschiedlichen Dimensionen ergeben sich folg-
lich verschiedenartige Implikationen für Unternehmen und deren Strategien (Ernst et al.
2021).1
Besonderes Augenmerk in Nachhaltigkeitsstrategien verdienen die technologie-
bezogenen Transformationsaspekte. Denn die Entwicklung technologischer (inkl.

1 Danksagung: Ein herzliches Dankeschön gilt Johannes Westermeyer für hilfreiche Kommentare
und Anregungen beim Verfassen dieses Beitrags sowie den HerausgeberInnen für die Organisation
dieses Bandes.

H.-C. Busch (*)


Wirtschafts- und Sozialgeographisches Institut, Universität Köln, Köln, Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 47
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_4
48 H.-C. Busch

organisationaler) Produkt- und Prozessinnnovationen bildet vor allem die Grundlage


wettbewerbsfähigen unternehmerischen Handelns (Freeman und Soete 1997). Darüber
hinaus betrifft Technologie den Klimawandel auf der einen Seite als Problemursache und
schafft auf der anderen Seite aber auch potenzielle Lösungsmöglichkeiten für umwelt-
bezogene Herausforderungen (Rip und Kemp 1998; van den Bergh et al. 2011). Nach
verschiedenartigen Epochen des technologischen Wandels – von der Dampfmaschine,
über die produktionsbezogene Mechanisierung und Automatisierung (Freeman und
Louçã 2001; Freeman und Perez 1988) – prägen nunmehr digitalisierte Technologien die
aktuelle Entwicklungsstufe der globalisierten Produktion (Kagermann et al. 2013; Sachs
2020). Als Kernaufgabe zukunftsweisender Unternehmensstrategien erscheint es daher
lohnenswert die digitale und nachhaltige Transformation als Querschnittsaufgabe mit
ökonomischen, sozialen, technologischen und ökologischen Dimensionen in den Blick
zu nehmen (Messner et al. 2019).
Ähnlich zum unternehmerischen Erfolg im Allgemeinen (Delgado 2018; Porter und
Sölvell 1998), liegen auch wesentliche Einflussfaktoren digital-nachhaltiger Trans-
formationsprozesse außerhalb der unternehmerischen Organisationsgrenzen und fallen
damit oftmals außerhalb des unternehmerischen Einflussbereiches. Weiter gefasste
Erklärungs- und Analyseansätze sind daher notwendig. Zur Analyse dieser digital-nach-
haltigen unternehmensexternen Transformationsaspekte kann auf eine langanhaltende
interdisziplinäre Forschungstraditionen verschiedener Transition Studies zurück-
gegriffen werden, welche die Wechselwirkungen zwischen Technologie und Gesell-
schaft in verschiedenen Perspektiven untersuchen (Geels 2002; Markard et al. 2012; Rip
und Kemp 1998). Zu berücksichtigen bleibt bei einer solchen Analyse vor allem, dass
Kontextfaktoren in transformatorischen Prozessen räumlich verfasst, d. h. mit konkreten
lokalisierten Akteuren und Institutionen verbunden sind. Unter dem Einfluss wirtschafts-
geographischer Perspektiven haben die Transition Studies daher in den vergangenen
zehn Jahren einen ‚spatial turn‘ erfahren, der den Analysefokus verstärkt auf räumliche
Aspekte von Nachhaltigkeitstransitionen richtet (Binz et al. 2020; Coenen et al. 2012;
Hansen und Coenen 2015; Truffer 2013).
Als Wissenschaft der räumlichen Analyse ökonomischer Prozesse hat die Wirtschafts-
geographie somit diverse Anstöße der nachhaltigkeits-fokussierten Transitionsdebatten
geliefert. Die Disziplin blickt darüber hinaus auf eine langanhaltende Forschungs-
tradition des digital-technologischen Wandels zurück (De Propris und Bellandi 2021;
Fuchs 2020; Leamer und Storper 2001; Storper 1997). Die wirtschaftsgeographische
Perspektive analysiert neben der Umfeldeinbettung insbesondere die Beziehungen
von Unternehmen zu externen Akteuren. Die Analyse unternehmensexterner Kontext-
faktoren aus wirtschaftsgeographischer Perspektive (Asheim 2020) schafft so wert-
volle Informationsgrundlagen zur Formulierung zukunftsweisender digital-nachhaltiger
Strategien.
Eine Integration wirtschaftsgeographischer Perspektiven in akademische Debatten
des strategischen Managements wurde bereits vor einiger Zeit von Porter angestoßen
(Porter und Sölvell 1998) und wird derzeit (wieder) verstärkt in der wissenschaftlichen
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 49

Literatur diskutiert (Bailey et al. 2020; Delgado 2018; Knight et al. 2020). Das Cluster-
konzept nach Porter (1990) erkannte damit als einer der ersten management-orientierten
Ansätze die Relevanz strategischer Standortentscheidungen von Unternehmen an
(Knight et al. 2020). Hiernach verbessert ein Standort in Clustern z. B. den Austausch
von Wissen, Informationen, Technologie oder Personen (Porter und Sölvell 1998). In
neuerer Forschung erfolgt eine weitere Verknüpfung der Literatur des Strategischen
Managements und der Wirtschaftsgeographie. Herausgestellt wird insbesondere die
zunehmende Relevanz subnationaler Strukturen und Prozesse (bspw. in Städten oder in
Regionen) für Strategie, die Wechselbeziehungen zwischen Unternehmensstrategie und
regionalen Dynamiken (Bailey et al. 2020) sowie die zunehmende Relevanz wissens-
basierter räumlicher Faktoren (Knight et al. 2020). In Summe veranschaulicht diese
Forschung somit die Vorteilhaftigkeit wirtschaftsgeographischer Perspektiven auf
strategische Prozesse.
Dieser Beitrag fokussiert auf das Schnittfeld der bisher skizzierten Entwicklungs-
tendenzen des digital-nachhaltigen Wandels, einer wirtschaftsgeographischen
Perspektive auf diese Wandelprozesse sowie einer geographisch nuancierten Unter-
nehmensstrategie zur Begegnung dieses Wandels. Im weiteren Verlauf geht der Beitrag
der folgenden Leitfrage nach: wie können unternehmensexterne, räumlich verfasste Ein-
flussfaktoren der digital-nachhaltigen Transformation systematisiert werden, um diese in
Unternehmensstrategien zu berücksichtigen? Ziel des Beitrags ist dazu die systematische
Synthese des Kenntnisstandes aktueller wissenschaftlicher Debatten. Der Beitrag
gliedert sich wie folgt: Nach dieser Einleitung liefert der folgende Abschn. 1.2 einen
knappen Überblick der konzeptuellen Grundlagen einer geographischen Perspektive
auf ökonomische Prozesse. Anschließend fasst Abschn. 1.3 den Kenntnisstand der wirt-
schaftsgeographischen Debatten um digitale Transformationsprozesse einerseits und
Nachhaltigkeitstransitionen andererseits zusammen; zur Anwendung kommt dabei
eine räumliche und multiskalare Perspektive. Abgeleitet daraus resümiert Abschn. 1.4
potenziell relevante Implikationen für die unternehmerische Praxis, bevor Abschn. 1.5
ein abschließendes Fazit zieht.

2 Konzeptionelle Grundlagen der Wirtschaftsgeographie

Auch wenn Unternehmen einen zentralen Forschungsgegenstand der Wirtschaftsgeo-


graphie darstellen (Clark et al. 2018; Schamp 2000), fanden sich dagegen wirtschafts-
geographische Perspektiven lange Zeit vergleichsweise selten in ökonomischen Analysen
wieder (Rodriguez-Pose 2011). Daher lohnt sich zu Beginn dieses Beitrags – analog zu
verwandten Überblicksarbeiten der geographischen Transitionsforschung (Hansen und
Coenen 2015) – ein Überblick der konzeptionellen Grundlagen der Wirtschaftsgeo-
graphie sowie eine kurze definitorische Eingrenzung wirtschaftsgeographischer Grund-
begriffe. Notwendigerweise muss dabei eine Reduktion vorgenommen werden. Und
daher soll dieser einführende Überblick hier insbesondere die Vorteile herausstellen, die
50 H.-C. Busch

sich aus Analysen in wirtschaftsgeographischer Perspektive im Allgemeinen und für die


Analyse des digital-nachhaltigen Wandels im Besonderen ergeben können.
Die Wirtschaftsgeographie versteht sich als „empirische Wissenschaft, die
Organisationsprobleme in räumlichen Kontexten unter spezifischen politisch-
institutionellen Rahmenbedingungen“ untersucht (Bathelt und Glückler 2018, S. 19).
Dies geschieht gleichzeitig in räumlicher Perspektive und in Bezug auf unterschied-
liche Maßstabsebenen (Braun und Schulz 2012, S. 250). Mitberücksichtigt werden in
wirtschaftsgeographischen Analysen auch ökologische und soziale Implikationen öko-
nomischer Prozesse (Braun et al. 2018) sowie Aspekte, die nicht strikt ökonomischen
Logiken unterliegen, gleichsam aber ökonomisch relevant sein können (Braun und
Schulz 2012, S. 250; Clark et al. 2018). Wichtige konzeptionelle Zugänge zu einer räum-
lichen Perspektive auf ökonomische Prozesse finden sich u. a. in den Begriffen Stand-
ort (location), Raum (place) und Territorium (territory) sowie Distanz (distance), Nähe
(proximity) und Maßstabsebene (scale) (in Anlehnung an Clark et al. 2018; Coe et al.
2020).
Der lokale Standort, z. B. eine Produktionsstätte eines Unternehmens (Schamp 2000),
kann über präzise Angaben wie geographische Koordinaten oder (in der Regel) als
Adresse angegeben werden. Raum dagegen bezeichnet in der neueren wirtschaftsgeo-
graphischen Konzeption sozial-konstruierte Aspekte von Orten, denen spezifische (inter)
subjektive Bedeutungen zugeschrieben werden (Clark et al. 2018). Territorien bilden,
im Gegensatz dazu, räumlich verfasste, d. h. in der Regel umgrenzte Machtsysteme ab;
bspw. die Grenzen einer kommunalen Gebietskörperschaft oder eines Nationalstaates. In
diesen Grundkonzepten der räumlichen Perspektive wird so der Fokus von physischen
über soziale hin zu politischen Phänomenen gelegt (Clark et al. 2018).
Um diese wirtschaftsgeographischen Grundbegriffe in Beziehung zu setzen, dis-
kutieren Clark et al. (2018, S. 2) darüber hinaus weitere Konzepte: Das Konzept der
Distanz (distance) beschreibt hier in der Regel die physische (z. B. metrische) Distanz
zwischen zwei Orten (locations); mediiert durch physische Distanz kann auch etwa
zeitliche Distanz gemessen werden. Das Konzept der Nähe bzw. Proximität (proximity)
geht über die physische Distanz hinaus und inkludiert nach Boschma (2005) außerdem
soziale, organisationale, institutionelle und kognitive Dimensionen. Dies impliziert, dass
nicht geographische Nähe (bzw. physische Distanz) allein für Unternehmensinteraktion
(bspw. Lernen oder Innovation) genügt, sondern weitere Nähedimensionen notwendig
sind (Boschma 2005, S. 72).
Das analytische Konzept der Maßstabsebene (scale) beschreibt schließlich die Aus-
dehnung der untersuchten Phänomene. Dabei kann in verschiedene nicht-hierarchische
und kontinuierliche Ebenen unterschieden werden, die gleichzeitig nebeneinander
bestehen und sozial konstruiert sind, d. h. erst durch gesellschaftliche Prozesse ent-
stehen (Coe et al. 2020). Als solches kann der Maßstab bzw. das englische scale etwa
Zeit, Raum oder sonstige Strukturen bemessen (Raven et al. 2012). Für wirtschaftsgeo-
graphische Analysen beschreibt scale die Größe bzw. das Ausmaß eines Gebietes oder
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 51

eines Phänomens, zum Beispiel die räumliche Ausdehnung und Umgrenzung einer Stadt
oder eines Landes (Coe et al. 2020).
Auch wenn eine trennscharfe Abgrenzung der analytischen Maßstabs- bzw. Skalen-
ebenen oft nicht möglich ist, werden folgende beispielhafte Ebenen in wirtschafts-
geographischen Analysen häufig in Betracht genommen: Die lokale Ebene betrifft das
direkte Umfeld eines Standortes; bspw. eine Straße oder ein Stadtvierteil. Die urbane
Ebene betrifft – nun etwas weiter gefasst – das darüber liegende gesamtstädtische
Umfeld. Die regionale Ebene umfasst darüber hinaus subnationale Gebiete, bspw.
Bundesländer als regionale Territorien. Die nationale Ebene umfasst Länder als national-
staatliche Territorien und die globale Ebene umfasst Phänomene weltweiter Ausdehnung
(Coe et al. 2020, S. 29).
In der Analyse ökonomischer Phänomene (bspw. Innovationsprozesse) in räum-
licher Perspektive, wirkt sich die Maßstabsebene auf unterschiedliche Art und Weise
aus. Dies betrifft zum einen, auf welchen Skalenebenen sich ökonomische Prozesse
abspielen. Darüber hinaus ist entscheidend, wie Faktoren auf unterschiedlichen Skalen-
ebenen diese Prozesse (als Einflussgrößen) bedingen (Coe et al. 2020). Letztlich ist
außerdem relevant, wie weitere Prozesse auf verschiedenen Skalenebenen durch das
eigene Handeln (als Auswirkungen) beeinflusst werden. Daher ist eine skalenüber-
greifende (d. h. multiskalare) Perspektive auf ökonomische Prozesse notwendig, denn
diese betreffen gleichzeitig mehrere Skalenebenen (Bunnell und Coe 2001). Ein solcher
skalenübergreifender bzw. multiskalar Ansatz bildet somit in der Regel die heuristische
Grundlage wirtschaftsgeographischer Studien (Asheim 2020; Rodriguez-Pose 2011);
wenngleich auch meist spezifische einzelne Dimensionen und Maßstabsebenen in Ana-
lysen hervorgehoben werden.
Insbesondere die Konzeption und Nomenklatur der Maßstabsebenen (sowie des
Begriffs scale an sich, der in anderen Kontexten bspw. Produktionsvolumina bzw.
-ausmaße bezeichnet) werden gelegentlich unterschiedlich definiert. Zumeist existiert ein
eher vages Verständnis der Bedeutung des ‚Lokalen‘ oder ‚Regionalen‘ in angrenzenden
wirtschaftswissenschaftlichen Diskursen (McCann und Mudambi 2005). Während der
lokale Standort in der Wirtschaftsgeographie die genaue Position (z. B. Koordinaten)
bezeichnet (Clark et al. 2018), behandeln bspw. International Business Studien lokale
Standorte eher mehrdeutig und beziehen sich etwa auf die nationale Ebene (Beugelsdijk
et al. 2010, S. 487). Ähnliches lässt sich für den Regionsbegriff feststellen, der in der
Wirtschaftsgeographie auf subnationaler Ebene definiert ist, in anderen Disziplinen aber
etwa Ländergruppen (z. B. ‚D-A-CH Region‘) oder ganze Kontinente bezeichnen kann
(z. B. ‚Region Asien‘). Die Theoriebildung in der Wirtschaftsgeographie hat zu einem
differenzierteren und präzisen Verständnis des global-lokalen Skalenkontinuums bei-
getragen. Daher wirbt dieser Beitrag mithilfe der präsentierten definitorischen Ein-
grenzungen von location, scale und weiteren Grundbegriffen für die Nutzung dieser
präzisierten Begriffskonzeptionen aus wirtschaftsgeographischer Perspektive.
52 H.-C. Busch

3 Ein kontextualisiertes Verständnis des digital-


nachhaltigen Wandels

Eine ergänzende räumliche Betrachtungsweise durch die Wirtschaftsgeographie hat laut


Asheim (2020, S. 27) in den interdisziplinären Debatten um Nachhaltigkeitstransitionen
auf der einen Seite und um den industriellen Wandel (mit digitalen Technologien als
aktuell diskutierter Entwicklungsstufe) auf der anderen Seite zu Steigerungen der
Forschungsleistung sowie gesellschaftspolitischen Relevanz dieser Felder beigetragen.
Asheim führt dazu wie folgt aus:

„As all phenomena, for example effects of climate change or industrial restructuring, have
a specific location, a general, sectoral or national analysis will ignore the huge geographical
differences that exist on lower geographical scales such as the regional and local levels.“
(Asheim 2020, S. 27).

Dieser Argumentation folgend unternimmt dieser Abschnitt eine Synthese der aktuellen
Debatten um digitale und nachhaltige Transitionen. Insbesondere soll dabei eine räum-
lich und multiskalare Perspektive, wie zuvor eingeführt, angewandt werden. Deswegen
erfolgt die Literaturdiskussion anhand ausgewählter Skaleneben; d. h. hinsichtlich der
lokalen, urbanen, regionalen, nationalen und globalen Ebene (Coe et al. 2020). Diese
ausgewählten Skalenebenen können in der Regel treffend in bestehenden Debatten-
strängen und empirischen Ergebnissen identifiziert werden und weisen zudem für die
Innovationspraxis und entscheidungsrelevante Regulatorik eine gewisse Bedeutung auf.
Zur späteren Einordnung der nachfolgend diskutierten Beiträge erweist sich
außerdem die von Hölscher und Frantzeskaki (2021) für urbane Räume entwickelte und
von Coenen et al. (2021) für regionale Analysen übernommene Typologie räumlicher
Transformationsprozesse als nützlich. In dieser Typologie werden drei Perspektiven
auf Transitionen unterschieden: Transitionen in Räumen, Transitionen von Räumen und
Transitionen durch Räume. Der erste Typus – Transitionen in Räumen (bspw. in regions)
– bezieht sich auf die räumlich verfassten Kontextfaktoren von Transitionen. Der zweite
Typus – Transitionen von Räumen (bspw. of regions) – nimmt dagegen die räum-
lichen Ergebnisse von Transitionen in den Blick; insbesondere hinsichtlich deren geo-
graphischer Ungleichheiten (Disparitäten). Der dritte Typus – Transitionen durch Räume
(bspw. by regions) – fokussiert schließlich auf die Formbarkeit räumlicher Transitions-
prozesse durch Akteure, z. B. regionale Verwaltungen oder Unternehmen (Coenen et al.
2021, S. 222). Diese für Energietransitionen erfolgreich angewandte Typologie kann
auch zur Systematisierung von weiteren digital-nachhaltigen Transitionsprozessen in
räumlicher Perspektive herangezogen werden.
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 53

3.1 Die Geographie des digitalen Wandels

Wirtschaftsgeographische Forschung beschäftigt sich schon seit langer Zeit mit den
räumlichen Auswirkungen des technologischen Wandels und hat dabei auch dezidiert
digitale Technologien (Malecki und Moriset 2008) in den Blick genommen (für einen
allgemeinen Überblick siehe Fuchs 2020). Nachdem im ausgehenden 20. Jahrhundert
bereits der „Death of Distance“ – d. h. eine potentielle Irrelevanz räumlicher Nähe und
Distanz induziert durch digitale Kommunikationsmittel – postuliert wurde (Cairncross
1997), zeigten wirtschaftsgeographische Beiträge, dass direkte Kontakte und face-to-face
Kommunikation dennoch weiterhin eine hohe Relevanz aufweisen (Leamer und Storper
2001). Gleichzeitig sind aber insbesondere für innovations- und gründungsbezogene
Aktivitäten regionale Unterschiede in der Digitalisierung von städtischen gegenüber
ländlichen Räumen erkennbar (Haefner und Sternberg 2020).
Analog zu andauernden technologischen Neuerungen, stellen sich auch in der auf
Digitalisierung bezogenen Forschung stetige Anpassungsbedarfe ein; es existiert daher
naturgemäß kein abgeschlossenes Forschungsfeld (Haefner und Sternberg 2020). Und
somit ergeben sich in der jüngsten Entwicklungsstufe des digital-technologischen
Wandels, die unter anderem Industrie 4.0 Technologien, das Internet der Dinge (IoT),
3D-Druck, Künstliche Intelligenz (KI) oder Big Data umfasst (Clifton et al. 2020; De
Propris und Bellandi 2021; Strange und Zucchella 2017), auch aus wirtschaftsgeo-
graphischer Perspektive neue Erkenntnisse. Diese werden im folgenden Abschnitt
anhand der eingangs skizzierten Skalenebenen (lokal, urban, regional, national und
global) synthetisiert. Zwecks Übersichtlichkeit des Beitrags kann diese Literatursynthese
jedoch nur eine unvollständige Selektion der umfassenden und stetig wachsenden
wissenschaftlichen Literatur abbilden.
Auf der lokalen sowie urbanen Maßstabsebene wurden digitale Transitionen u. a.
im Rahmen von offenen Werkstätten und Makerspaces untersucht (Lange und Bürkner
2018). Beides sind neue Orte der städtischen Produktion, an denen häufig digitale
Technologien (bspw. 3D-Druck) zum Einsatz kommen und neue Wertschöpfungs-
modelle entstehen können. In Städten wurde darüber hinaus neue, durch digitale
Technologien induzierte Formen des Produzierens untersucht; hier finden sich hybride
Wertschöpfungsformen an der Schnittstelle von industriell-handwerklicher Produktion
und problemlösungsorientierter Dienstleistung (Busch et al. 2020, 2021; Mühl et al.
2019). Diese neuen digitalen urbanen Produktionsunternehmen profitieren insbesondere
von städtischen Standortqualitäten, z. B. ansässigen hochqualifizierten Fachkräften,
spezialisierten Absatzmärkten oder dem urbanen Innovationsökosystem (Busch et al.
2021).
Ähnliche Ergebnisse digitaler Transformationen in Städten liefert auch die Analyse
technologieorientierter Serviceanbieter, die auf wenige Metropolen weltweit konzentriert
sind (Adler und Florida 2021). Diese umfassen etwa Anbieter der Sharing Economy
(z. B. Fahrdienstanbieter wie Uber) aber auch Gesamtkonzepte wie Smart City. Letzteres
54 H.-C. Busch

Konzept kann als Anwendungsort digitaler Technologien, bspw. Sensoren und Big Data
(Rabari und Storper 2015), auf städtische Herausforderungen verstanden werden; zum
Beispiel zur Bewältigung städtischer Mobilitätsprobleme (Glasmeier und Christopherson
2015). Smart City kann somit als digitales technologiepolitisches Leitbild von Städten
betrachtet werden, dessen Umsetzung auch teilweise als planerischer Neuanfang („from
scratch“) unternommen wurde (Carvalho 2015).
Auch auf der regionalen Maßstabsebene werden digitale Transformationsprozesse
derzeit intensiv insbesondere im Kontext von Industrie 4.0 diskutiert (siehe De Propris
und Bailey 2020; De Propris und Bellandi 2021). Digitalisierung erfordert – etwa in
der Formierung von Industrie 4.0 oder KI – spezifische regionale Kontextbedingungen.
Beispielhaft lässt der Fall des kanadischen Montreals erkennen, dass die dort ansässige
KI-Branche (neben weiteren Faktoren) vor allem aufgrund bereits vorhandener Wissens-
basen aus der Telekommunikationsbranche prosperieren konnte (Doloreux und Turkina
2021). Hinsichtlich dieser für Digitalisierung förderlichen Kontextbedingungen weisen
Regionen allerdings unterschiedlich starke Prägungen auf, insbesondere aufgrund unter-
schiedlicher technologischer und industrieller Vergangenheiten (Balland und Boschma
2021).
Aus diesen regional unterschiedlichen Kontextbedingungen folgt eine ungleiche
Geographie digitaler produktionsbezogener Industrie 4.0 Aktivitäten; d. h. es existieren
regionale Disparitäten. In der Europäischen Union weisen Regionen mit bestehender
technologieorientierter Vergangenheit (bspw. Baden-Württemberg) in der Regel auch
hohe digitale Industrie 4.0 Aktivitäten auf (Corradini et al. 2021). Vorhandene regionale
wirtschaftliche Disparitäten schreiben sich so auch durch neue Technologiedynamiken
potenziell fort. Capello und Lenzi (2021) argumentieren dagegen allerdings, dass diese
digitalisierungsbezogenen Disparitäten auch potenziell vorteilhaft wirken können, wenn
Industrie 4.0-getriebene ‚Innovationsinseln‘ zu Leuchtturmprojekten (best practices) für
andere Regionen werden. Fokussierte Studien stellen derartige regionale Erfolgsbeispiele
heraus; etwa „It’s OWL“ in Nordrhein-Westphalen, welches als größtes räumliches
industrielles Digitalisierungsprojekt Deutschlands gilt (Götz 2021; Götz und Jankowska
2017).
Interdisziplinäre Digitalisierungsstudien auf der nationalen Maßstabsebene haben
darüber hinaus weitere makroökonomische Entwicklungsdynamiken in der Industrie-
produktion und in weiteren Branchen untersucht. Diesbezüglich stellt bspw. ‚Home
Sourcing‘ – d. h. die Rückverlagerung von Produktionskapazitäten aus Schwellen- in
Kernökonomien – ein weiteres Analysefeld ökonomisch fundierter Digitalisierungs-
studien dar (Bailey et al. 2018). In diesem Zusammenhang wird zum Beispiel deutlich,
dass durch Digitalisierung zwar tendenziell keine Produktionsverlagerung im großen
Ausmaß erfolgt, jedoch potentiell innovationsbezogene Produktionsschritte (zurück)
in die Heimatländer der Unternehmen verlegt werden (Ancarani und Di Mauro 2018).
Damit verbunden betreffen diese möglichen Tendenzen vor allem technologieintensive
Unternehmensaktivitäten, wie Forschung und Entwicklung (Bailey et al. 2018).
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 55

Die nationale Ebene bildet darüber hinaus den Rahmen für einige Ansätze der
Industrie- und Digitalisierungspolitik. Verschiedene Länder entwarfen dazu eigene
nationale Digitalisierungsstrategien, beispielsweise ‚Smart Manufacturing‘ in den
USA oder ‚Made-in-China 2025‘ in China (Li 2018; Reischauer 2018). Vielen dieser
Strategien liegt eine Vernetzung der unterschiedlichen nationalen Stakeholder (bspw.
Unternehmen, Industrieverbände, Gewerkschaften, Forschung sowie politischer
Akteure) zugrunde, die über verschiedene Plattformprojekte an der Steuerung von
Digitalisierungsstrategien mitwirken. In Deutschland wurde diese Vernetzungsstrategie
mit der ‚Plattform Industrie 4.0‘ institutionalisiert (Reischauer 2018). Dieser zunächst
auf Deutschland bezogene Industrie 4.0-Ansatz wurde im Rahmen der High-Tech
Strategie im Jahr 2011 initiiert (Kagermann et al. 2013). Im Verlauf der letzten Jahre
entwickelte sich der Begriff jedoch zum Synonym globaler Tendenzen (produktions-
bezogener) Digitalisierung und verbindet diese Debatten nun weltweit unter dem
Terminus ‚Industry 4.0‘ (Kagermann et al. 2016).
Diese Entwicklungen lenken den Blick auf Digitalisierungsprozesse auf der
globalen Maßstabsebene, deren Untersuchung neben den bisher vorgestellten (sub)
nationalen Ebenen ein wichtiges Forschungsfeld der Wirtschaftsgeographie bildet
(Dicken 2015). Auf dieser Ebene ergeben sich durch den digital-technologischen Wandel
potenziell Auswirkungen in globalen Wertschöpfungsketten. Neben Informations- und
Kommunikationstechnologien, die sich in der Vergangenheit bereits auf die Globali-
sierung ausgewirkt haben (Dicken 2015; Leamer und Storper 2001), betreffen die der-
zeitigen Dynamiken nunmehr verstärkt digitalisierte Produktionstechnologien, wie etwa
IoT, Big Data, Robotik oder 3D-Druck (Strange und Zucchella 2017). Digitalisierte
Produktionstechnologien erlauben hier bspw. individualisierte Produktionen (‚Losgröße
1‘), welche die Kostenvorteile von Massenproduktion an Niedriglohnstandorten (im
globalen Süden) potenziell relativiert (Gress und Kalafsky 2015). Abschließende
Erkenntnisse zu diesen Entwicklungstrends lassen sich derzeit allerdings nicht bemessen
(Laplume et al. 2016). So bleibt abzuwarten, welche finalen Implikationen für globale
Strukturen und Prozesse zukünftig aus der verstärkten Nutzung digitaler Technologien
resultieren (Butollo 2021; Fuchs 2020); besonders auch in Hinblick auf bestehende
globale Disparitäten (Graham 2019).
In zusammenfassender Betrachtung der bisher skizzierten Forschungsergebnisse
digitaler Transformationsprozesse aus wirtschaftsgeographischer Perspektive wird
die eingangs diskutierte, dreiteilige Typologie der Transitionsforschung angewandt –
d. h. Transitionen in, von und durch urbane, regionale oder nationale Räume (Coenen
et al. 2021; Hölscher und Frantzeskaki 2021). In der bisher gewählten multiskalaren
Perspektive zeigt die Literaturschau, dass verschiedene Kontextfaktoren Einflüsse auf
digitale Transitionsprozesse ausüben. Digitale Transitionen in Städten oder Regionen
werden so bspw. durch urbane Innovationsökosysteme oder regionale technologische
Spezialisierungen in verwandten Branchen maßgeblich beeinflusst. In der Folge ergeben
sich unterschiedliche Entwicklungstendenzen digitaler Transitionen von Städten,
Regionen oder Nationen, die in ungleichen regionalen und globalen Geographien der
56 H.-C. Busch

Digitalisierung resultieren. Schließlich zeigt die Perspektive auf digitale Transitionen


durch Städte, Regionen oder Nationen, dass Akteure auf diesen Ebenen aktive Rollen
in der Gestaltung digitaler Transformationspfade einnehmen können; bspw. in Form
von urbanen Smart Cities, regionalen Industrie 4.0 Innovationsinseln oder nationalen
digitalen High-Tech Strategien.
Abschließend muss überdies festgehalten werden, dass zwischen den hier dar-
gestellten Phänomenen auf unterschiedlichen Maßstabsebenen ggf. keine trennscharfe
Unterscheidung vorgenommen werden kann. Wo zum Beispiel ein regionaler Prozess
endet und ein urbaner Prozess beginnt, lässt sich nicht immer eindeutig abgrenzen.
Folglich sind auch meist unterschiedliche Skalenebenen gleichermaßen für digitale
Transitionsprozesse relevant, auch wenn Analysen in der Regel nur einzelne Aspekte
auf bestimmten Ebenen besonders hervorheben. Dezidiert multiskalare Analysen einzel-
ner digitaler Transitionsprozesse sind allerdings in der Wirtschaftsgeographie und
angrenzenden Forschungen derzeit noch selten. Solch multiskalare Perspektiven werden
dagegen bereits vermehrt in der wirtschaftsgeographischen Nachhaltigkeitsforschung
eingenommen, die der folgende Abschnitt aufgreift.

3.2 Die Geographie des nachhaltigen Wandels

Weitgehend parallel zur Forschung mit Bezügen zum technologischen Wandel ent-
wickelte sich in den vergangenen Jahrzenten ein Forschungsstrang, der die dynamischen
Wechselwirkungen von Technologie und Gesellschaft gleichermaßen untersucht (Rip
und Kemp 1998; Truffer 2008). Vor dem Hintergrund der eingangs skizzierten globalen
transformatorischen Herausforderungen hat sich diese Forschung mit der Zeit ver-
stärkt Fragestellungen zugewandt, die dezidiert den Wandel hin zu nachhaltigeren
Wirtschafts- und Gesellschaftsformationen in den Blick nehmen – die Sustainability
Transitions (Markard et al. 2012, 2020; Smith et al. 2010). Nachhaltigkeitstransitionen
bzw. Sustainability Transitions lassen sich hierin definieren als „long-term, multi-
dimensional, and fundamental transformation processes through which established
socio-technical systems shift to more sustainable modes of production and consumption“
(Markard et al. 2012, S. 956). Inhärent in dieser Forschung ist die Analyse von sozio-
technischen Systemen, die aus Akteursnetzwerken (z. B. von Unternehmen und weiteren
Stakeholdern), Institutionen (d. h. Regeln und Normen), materiellen Dimensionen und
Wissen bestehen (Markard et al. 2012; Truffer 2013). Demzufolge werden einzelne
Technologieentwicklungen immer eingebettet in ihre soziale Kontexte analysiert.
Die anfängliche Transitions Forschung wurde allerdings zunehmend dafür kritisiert,
diese Prozesse losgelöst von räumlichen Kontexten zu untersuchen oder räumliche
Dimensionen nur implizit zu berücksichtigen (Coenen et al. 2012; Truffer 2013). Bei-
spielsweise fokussierten grundlegende Studien in der Transitions Forschung anfänglich
hauptsächlich auf die nationale Ebene als Systemgrenze soziotechnischer Transitions-
prozesse (Markard et al. 2012). Dies lässt jedoch außer Acht, dass solche Prozesse
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 57

(ähnlich zu Prozessen der digitalen Transformation im vorherigen Abschnitt) auch auf


weiteren räumlichen Skalenebenen stattfinden können bzw. gleichermaßen unterschied-
liche Ebenen betreffen (Truffer 2013). Darüber hinaus vernachlässigt diese Perspektive,
dass die Grenzen soziotechnischer Systeme nicht notwendigerweise mit territorialen
(d. h. administrativen) Systemgrenzen übereinstimmen müssen (Smith et al. 2010).
Infolgedessen lässt sich ein wachsendes wissenschaftliches Interesse an den Skalen-
ebenen und räumlichen Kontextfaktoren als Determinanten von Nachhaltigkeits-
transitionen beobachten. So wird seit circa zehn Jahren wissenschaftlich intensiv an einer
Geographie der Nachhaltigkeitstransitionen (geography of sustainability transitions)
geforscht (Binz et al. 2020; Hansen und Coenen 2015). Wichtige (ausgewählte) Erkennt-
nisse dieser jüngeren wirtschaftsgeographischen Transitions Forschung werden im
Folgenden anhand der zuvor genutzten Skalenebenen synthetisiert. Auch hier kann die
Literatursynthese allerdings in Anbetracht des rasant wachsenden Forschungsfelds
höchstens eine unvollständige Selektion abbilden (es sei hier außerdem auf umfassende
Überblicksarbeiten und Themenhefte zu dieser Forschung hingewiesen, v. a. Coenen
et al. 2021; Coenen und Truffer 2012; Hansen und Coenen 2015; Truffer et al. 2015).
Dem Aufruf einer dezidiert wirtschaftsgeographischen Perspektive auf Nachhaltig-
keitstransitionen folgend, wurden erste Studien unter anderem auf der lokalen sowie
urbanen Maßstabsebene durchgeführt (Coenen und Truffer 2012). Beispielsweise
zeigt die Analyse grüner Transportinfrastruktur in den Städten Hamburg, Göteburg
und Curitiba (Brasilien) wie Städte zum einen durch ihre technologische Vergangen-
heit unterschiedlich prägend auf Nachhaltigkeitstransitionen einwirken können und
zum anderen aktiven Einfluss auf den Transitionsprozess haben (Carvalho et al.
2012). Allerdings hängt dieser Einfluss auch von weiteren Faktoren auf anderen
Maßstabsebenen ab (Coenen und Truffer 2012). Deutlich zeigt sich dies beispiels-
weise in der Analyse des Fallbeispiels von Manchester, wo verschiedene nicht-
städtische Interessensgruppen (bspw. auf regionaler oder nationaler Ebene) Einfluss
auf die städtische Nachhaltigkeitsstrategie ausgeübt haben (Hodson und Marvin 2012).
Diese Forschungsarbeiten verdeutlichen demnach, wie komplexe urbane Kontext-
qualitäten Nachhaltigkeitstransitionen sowohl positiv wie negativ beeinflussen können
(Frantzeskaki et al. 2017). In Städten kommen also einerseits alle für die Transitionen
potenziell relevanten Akteure zusammen (Fastenrath und Braun 2018), sodass komplexe
Prozesse koordiniert werden können; andererseits entstehen in dieser Hinsicht auch
tendenziell Reibungen, die Wandelprozesse zu mehr Nachhaltigkeit hemmen können
(Frantzeskaki et al. 2017).
Auf der regionalen Maßstabsebene wurden Nachhaltigkeitstransitionen unter
anderem in Bezug auf Energiewendeprozesse (energy transitions) untersucht (Coenen
et al. 2021). Dazu unterstreicht die Analyse der Regionen Emden und Bottrop das
Zusammenwirken einer Vielzahl beteiligter regionaler Akteure sowie die komplexen,
multi-dimensionalen Wandelprozesse in regionalen Transitionen (Mattes et al. 2015).
Vergleichbar komplexe Akteurskonstellationen wurden auch im Fallbeispiel der Region
Augsburg untersucht, wo sich verschiedene regionale Stakeholder in temporären
58 H.-C. Busch

Koalitionen (bspw. ‚Runde Tische‘) aktiv in den Prozess der Nachhaltigkeitstransition


einbringen (Pflitsch und Strambach 2018). Zusätzlich zeigt das häufig zitierte Beispiel
der so genannten ‚Energieregion‘ in Murau (Österreich) die Wirkmächtigkeit und die
Skalierbarkeit (scaling) regionaler Entwicklungen: dieser Fall verdeutlicht, wie regionale
Wandelprozesse zwar einerseits zunächst begrenzt (auf regionaler Ebene) wirken, aber
andererseits als Modelregionen für Entwicklungen in größerem Ausmaß (bspw. auf
nationaler Ebene) fungieren können (Späth und Rohracher 2010).
Wirtschaftsgeographische Studien auf der nationalen Maßstabsebene haben Nach-
haltigkeitstransitionen darüber hinaus in weiteren Dimensionen untersucht. Als eine der
ersten geographisch fundierten Studien untersuchen Dewald und Truffer (2012) bei-
spielsweise die Entstehung des deutschen Marktes für Solarphotovoltaik. Ausgehend von
der nationalen Ebene als Analyseeinheit zeigt diese Studie die Bedeutung formalisierter
und informeller institutioneller Prozesse ‚von unten nach oben‘ (bottom-up). Diese Ent-
wicklungsdynamik wurde maßgeblich von ‚lokalen Solarinitiativen‘ getrieben, welche
als privat initiierte Netzwerke (bspw. Anwender, Kleinunternehmer oder Aktivisten)
lokale Energiewendeprozesse angestoßen haben (Dewald und Truffer 2012). Erkennbar
wird somit, dass die auf den ersten Blick nationalen Makrodynamiken des deutschen
Solarphotovoltaikmarktes durch eine Vielzahl lokaler Mikrodynamiken initiiert
wurden. In einem weiteren Schritt verfolgen Dewald und Fromhold-Eisebith (2015)
einen dezidiert multiskalaren Ansatz und legen dar, wie unterschiedliche institutionelle
Rahmenbedingungen die Bildung eines Innovationssystems für Solarphotovoltaik in
Deutschland auf unterschiedlichen Skalenebenen mitgeprägt haben. Folglich zeigt
sich durch diese (und weitere) Arbeiten der Mehrwert geographischer Analysen von
Transitionsprozessen, die gleichermaßen nationale, regionale und lokale Dynamiken
inkludieren.
Die multiskalare Analyse des deutschen Innovationssystems für Solarphotovoltaik
(Dewald und Fromhold-Eisebith 2015) nimmt ebenfalls die globale Maßstabsebene
in den Blick. Die globale Ebene wurde in der wirtschaftsgeographischen Transitions
Forschung erst seit Kurzem systematisch in multiskalaren Analysen mitberücksichtigt
(Miörner und Binz 2021). Dahingehend hat sich insbesondere gezeigt, dass sozio-
technische Systeme durch internationale Netzwerke institutionalisiert und somit gleich-
zeitig an verschiedenen Orten weltweit an Einfluss gewinnen; dies zeigte die Analyse
einer missglückten Nachhaltigkeitstransitionen im chinesischen Abwassersektor, deren
Entwicklung durch globale Dynamiken gehemmt wurde (Fuenfschilling und Binz 2018).
Diese Studien machen einerseits zwar deutlich, dass Analysen von Transitionsprozessen
die globale Skalenebene mitberücksichtigen sollten und andererseits, dass aber der ana-
lytische Fokus auf eine einzelne Skalenebene nicht ausreicht, um diese Phänomene
vollständig zu erfassen. Vielmehr sollte das Zusammenwirken von Prozessen auf und
zwischen verschiedenen Skalenebenen dezidiert bei Analysen von Nachhaltigkeits-
transitionen in den Blick genommen werden (Dewald und Fromhold-Eisebith 2015;
Fuenfschilling und Binz 2018; Miörner und Binz 2021).
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 59

Zusammenfassend kann unter Rückbezug auf die eingangs diskutierte dreiteilige


Transitionstypologie (Transitionen in, von und durch Räume) auch die hier präsentierte
wirtschaftsgeographische Forschung der Nachhaltigkeitstransitionen gebündelt werden
(Coenen et al. 2021; Hölscher und Frantzeskaki 2021). Erstens zeigt diese Forschung
Transitionsprozesse in Städten, Regionen oder Ländern als beeinflusst von räumlichen
Kontextbedingungen; dies betrifft aber nicht nur Faktoren einer Maßstabsebene, sondern
in der Regel multiskalare Bündel verschiedener Einflussgrößen. Aufgrund dieser Unter-
schiede zeigt sich zweitens, dass sich Transitionsprozesse von Städten, Regionen oder
Nationen unterschiedlich entwickeln können; es resultiert auch hier eine ungleiche Geo-
graphie der Nachhaltigkeitstransitionen. Drittens stellt die wirtschaftsgeographische
Nachhaltigkeitsforschung insbesondere auch die Akteursmacht städtischer, regionaler,
nationaler oder globaler Stakeholder heraus (Transitionen durch). Diese sind einer-
seits in der Lage Transitionsprozesse zu beeinflussen und können andererseits zudem
Vorbildfunktionen für weitere Städte, Regionen oder Nationen übernehmen. Als vierter
und letzter Aspekt bleibt hervorzuheben, dass durch die wirtschaftsgeographische
Perspektive auf Nachhaltigkeitstransitionen insbesondere die Multiskalarität dieser
Prozesse hervorgehoben wird; gleichsam fokussieren viele der angeführten Studien
aus analytischen Gründen auf spezifische einzelne Maßstabsebenen, ohne jedoch die
Relevanz weiterer Skalenebenen zu unterschlagen.

4 Implikationen für die unternehmerische Praxis

Abgeleitet aus den bisher zusammengefassten Erkenntnissen formuliert dieser Abschnitt


nun Implikationen für die unternehmerische Praxis. Insbesondere wird dazu ein
heuristisches Gerüst für unternehmerische Entscheidungsträger in graphischer Form
konzipiert. Die Synthese der aktuell laufenden Debatten digitaler sowie nachhaltiger
Transitionen aus wirtschaftsgeographischer Perspektive zeigt, wie Wandelprozesse ver-
schiedene Skalenebenen betreffen. Gleichzeitig zeigt die Synthese auch, wie aus den
Wechselwirkungen der Akteure (z. B. Unternehmen) in Wandelprozessen unterschied-
liche Entwicklungsdynamiken für bspw. Städte, Regionen oder Nationen resultieren
können. Die Unterscheidung in Einflussfaktoren im räumlichen Kontext (Transitionen in
Städten, Regionen oder Nationen) und in multiskalare Ebenen verdeutlicht demnach ins-
besondere die komplexe Umfeldeinbettung von Unternehmen als Akteure in Transitions-
prozessen.
Auf diese Weise wird sichtbar, dass bereits für unternehmerische strategische
Prozesse diskutierte Aspekte (Delgado 2018; Knight et al. 2020) auch für digital-nach-
haltige Strategien Anwendung finden. Herauszustellen sind hier insbesondere zwei
Aspekte: Der erste Aspekte nimmt das wachsende Interesse auf, welches die jüngere
Managementforschung an Prozessen auf subnationalen Maßstabsebenen (d. h. vor allem
bezogen auf regionale oder urbane Ebenen) entwickelt hat und in eine feiner granulierte
geographische Perspektive auf Strategieprozesse zu übertragen beginnt (Knight et al.
60 H.-C. Busch

2020, S. 592). Dies zeigt sich deutlich in den hier zusammengestellten Ergebnissen
diverser Einfluss- bzw. Kontextfaktoren in digital-nachhaltigen Transitionen, die ver-
schiedene geographische Skalenebenen betreffen. Für die unternehmerische Praxis
empfiehlt es sich somit zur Systematisierung räumlich verfasster Aspekte digital-nach-
haltiger Transformationen eine solche multiskalare Perspektive einzunehmen.
Ein zweiter Aspekt betrifft die jüngere Strategieforschung hinsichtlich der ersicht-
lichen Wechselbeziehungen zwischen unternehmerischen Akteuren und den räumlichen
Kontexten, in welche sie eingebettet sind (bspw. Städte, Regionen oder Nationen). Hier
hat die Managementforschung zunehmendes Interesse an Auswirkungen von Strategien
in räumlicher Perspektive entwickelt, die über die strategische unternehmerische Stand-
ortwahl hinausgehen (Bailey et al. 2020; Knight et al. 2020). In Bezug auf digital-nach-
haltige Transitionen betrifft dies deren unterschiedliche Entwicklungsdynamiken an
unterschiedlichen Orten (d. h. die ungleichen Geographien von Transitionen) sowie
die Akteursmacht, die sich aus diesen Wechselwirkungen ergeben kann. Für die unter-
nehmerische Praxis empfiehlt sich somit nicht nur räumliche Einflussfaktoren digital-
nachhaltiger Transitionen systematisch in den Blick zunehmen, sondern zusätzlich auch
die Auswirkungen der Unternehmensstrategie im Raum zu berücksichtigen; auch hierzu
hilft eine multiskalare Perspektive bei der Systematisierung.
Ausgehend von diesen Erkenntnissen entwickelt dieser Abschnitt nun ein
heuristisches Gerüst in Form eines graphischen Canvas, welches die systematische
Erfassung unterschiedlicher unternehmensrelevanter Kontextfaktoren im räumlichen
Kontext erlaubt. Solche graphischen heuristischen Ansätze finden sich prominent
beispielsweise bei Porter (1990) und haben spätestens mit dem Business Model
Canvas nach Osterwalder und Pigneur (2010) Einzug in die anwendungsorientierte
Managementliteratur erhalten. Abb. 1 zeigt diesen heuristischen Canvas zur Erfassung
verschiedener multiskalarer Kontextbedingungen für Unternehmen in digital-nach-
haltigen Transitionen. Ähnlich dem Business Model Canvas soll Abb. 1 zur graphischen
Erfassung dieser Faktoren dienen; im aktuellen Fall bezogen auf verschiedene Skalen-
ebenen. Im Umkehrschluss zeigt Abb. 1 also keine spezifischen Kontextfaktoren; ins-
besondere, da diese Faktoren je nach betrachteten Unternehmen, Technologien oder
Branchen variieren können.
Im Folgenden werdend die Bestandteile des heuristischen Canvas aus Abb. 1 einzeln
erläutert. Aufgrund der Zielsetzung dieser graphischen Heuristik, bilden Unternehmen
das Zentrum der Abbildung. Unternehmensinterne Wertschöpfungsaktivitäten werden in
dieser Vereinfachung allerdings nicht im Detail berücksichtigt, sondern stark reduziert
als ‚Prozesse‘ dargestellt. Auf grundlegende Weise folgt der heuristische Canvas einer
dreiteiligen Input-Prozess-Output Konzeption bzw. etwas angepasst einem Influence-
Prozess-Outcome Modell. Dementsprechend finden sich logisch vorgelagert auf der
linken Seite der Abbildung unternehmensexterne Einflussgrößen (Influences), die
sich auf Unternehmen, deren Strategien, Strukturen und Prozesse auswirken. Logisch
nachgelagert finden sich auf der gegenüberliegenden rechten Seite der Abbildung die
Auswirkungen der Unternehmensaktivitäten auf das externe Unternehmensumfeld
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 61

Abb. 1 Heuristischer Canvas zur Erfassung relevanter unternehmensexterner potenziell förder-


licher bzw. hinderlicher Einflussgrößen und potenziell positiver bzw. negativer Auswirkungen in
multiskalarer Perspektive. (Eigene Darstellung)

(Outcomes). Erwähnenswert ist hier, dass diese vor- bzw. nachgelagerte Darstellung
keine strikt lineare Sequenz darstellt und ebenfalls lediglich der analytischen Verein-
fachung dient.
Da die hier dargestellten unternehmensexternen Dimensionen räumlich verortet sind,
empfiehlt sich eine multiskalare Perspektive – wie dieser Beitrag bisher zeigte. Folg-
lich sind in Abb. 1 die zuvor diskutierten geographischen Maßstabsebenen graphisch
dargestellt: lokal (Aspekte in direkter Nachbarschaft), urban (Aspekte des städtischen
Umfelds), regional (Aspekte auf subnationaler Ebene), national (Aspekte eines Landes)
sowie global (weltweite Aspekte). In der Abbildung wurden für diese Darstellung
Kreise um das fokale Unternehmen gezogen (ähnliche Darstellung in multiskalarer
Perspektive finden sich bspw. bei Coe et al. 2004). Als letzte analytische Dimension sind
in der Abbildung tendenzielle Bewertungen der Einflussgrößen und Auswirkungen dar-
gestellt: Erstens finden sich potenziell förderliche Einflüsse bzw. potenziell positive Aus-
wirkungen auf den oberen Halbkreisen. Zweitens sind potenziell hinderliche Einflüsse
bzw. potenziell negative Auswirkungen auf den unteren Halbkreisen der Abbildung zu
finden.
Die Darstellung unterschiedlicher Maßstabsebenen als Kreise um das fokale Unter-
nehmen impliziert, dass es auf derselben Ebene Kontextbedingungen verschiedener
Qualitäten (förderlich oder hinderlich) sowie verschiedenartige Auswirkungen (positiv
62 H.-C. Busch

oder negativ) geben kann. Allerdings stellt diese graphische Heuristik kein vollständiges
Analysewerkzeug zur Strategieformulierung dar, da die Darstellung allenfalls einen zeit-
lichen Auszug (snapshot) relevanter unternehmensexterner Umfeldbedingungen dar-
stellen kann. Naturgemäß können diese Kontextfaktoren mit der Zeit variieren bzw. sich
in Qualität oder Auswirkung ändern. Ferner sollte mit zunehmender Unternehmensgröße
und -komplexität außerdem zwischen einzelnen Unternehmensaktivitäten und Geschäfts-
bereichen differenziert werden, da sich kontextuelle Bedingungen ggf. unterschied-
lich auf einzelne Unternehmenseinheiten auswirken können. Dennoch schafft diese
Systematik einen ersten annäherungsweisen Überblick über die komplexen multi-
dimensionalen und multiskalaren räumlichen Umfeldbedingungen von Unternehmen
innerhalb von digital-nachhaltigen Transitionsprozessen.

5 Zusammenfassung und Fazit

Dieser Beitrag unternimmt eine Literatursynthese der beiden Leitthemen des Sammel-
bands – Digitalisierung und Nachhaltigkeit – in wirtschaftsgeographischer Perspektive.
Digitalisierung und Nachhaltigkeit werden hier als komplexe soziotechnische Wandel-
prozesse konzipiert – sogenannte Transitionen. Der Beitrag setzt sich zum Ziel,
unternehmensexterne, räumlich verfasste Einflussfaktoren innerhalb digital-nach-
haltiger Transitionen anhand des bestehenden wissenschaftlichen Kenntnisstands zu
synthetisieren und für unternehmerisch-strategische Zwecke zu systematisieren. Damit
knüpft der Beitrag auf der einen Seite an neuere Strategieforschung an, die zunehmend
(wieder) die Relevanz geographisch nuancierter Perspektiven auf unternehmerische
Prozesse und Strategien entdeckt hat (Bailey et al. 2020; Delgado 2018; Knight et al.
2020). Auf der anderen Seite greift der Beitrag auf Erkenntnisse laufender wirtschafts-
geographischer Forschung hinsichtlich der räumlichen und multiskalaren Dimensionen
von digitalen Transformationsprozessen (De Propris und Bailey 2020; De Propris und
Bellandi 2021) und Nachhaltigkeitstransitionen zurück (Binz et al. 2020; Coenen et al.
2012; Hansen und Coenen 2015).
Die Literatursynthese in multiskalarer Perspektive liefert sowohl für digitale
Transitionen als auch für Nachhaltigkeitstransitionen dabei drei wesentliche Ergebnisse.
Erstens zeigt die Literatur, inwiefern räumlich gebundene Kontextfaktoren den Verlauf
von Transitionen determinieren. Zweitens wird deutlich, in welcher Hinsicht sich Städte,
Regionen oder Nationen in ihren auf Transitionen bezogenen Entwicklungsdynamiken
unterscheiden und sich infolgedessen ungleiche Geographien digital-nachhaltiger
Transitionen ergeben. Drittens wird darüber hinaus die Formbarkeit von Transitionen
durch lokale, urbane, regionale, nationale oder globale Akteure sichtbar. Ein graphischer
heuristischer Canvas nimmt diese Erkenntnisse auf und stellt Unternehmen ein Werk-
zeug zur systematischen Erfassung förderlicher wie hinderlicher Einflussfaktoren sowie
positiver wie negativer Auswirkungen in multiskalarer Perspektive zur Verfügung. Damit
liefert die multiskalare Analyse unternehmensexterner Kontextfaktoren aus wirtschafts-
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 63

geographischer Perspektive idealerweise eine wertvolle Informationsgrundlage zur


Berücksichtigung in zukunftsweisenden digital-nachhaltigen Strategien.

Literatur

Adler P, Florida R (2021) The rise of urban tech: how innovations for cities come from cities. Reg
Stud 55:1787–1800. https://doi.org/10.1080/00343404.2021.1962520
Ancarani A, Di Mauro C (2018) Reshoring and industry 4.0: how often do they go together? IEEE
Eng Manage Rev 46:87–96. https://doi.org/10.1109/EMR.2018.2833475
Asheim BT (2020) Economic geography as regional contexts’ reconsidered – Implications for
disciplinary division of labour, research focus and societal relevance. Nor Geogr Tidsskr – Nor
J Geogr 74:25–34. https://doi.org/10.1080/00291951.2020.1732457
Bailey D, Corradini C, de Propris L (2018) ‘Home-sourcing’ and closer value chains in mature
economies: the case of Spanish manufacturing. Camb J Econ 42:1567–1584. https://doi.
org/10.1093/cje/bey020
Bailey D, Pitelis C, Tomlinson PR (2020) Strategic management and regional industrial strategy:
cross-fertilization to mutual advantage. Reg Stud 54:647–659. https://doi.org/10.1080/0034340
4.2019.1619927
Balland P-A, Boschma R (2021) Mapping the potentials of regions in Europe to contribute to new
knowledge production in industry 4.0 technologies. Reg Stud 55:1652–1666. https://doi.org/10.
1080/00343404.2021.1900557
Bathelt H, Glückler J (2018) Wirtschaftsgeographie: Ökonomische Beziehungen in räumlicher
Perspektive, 4. Aufl. Verlag Eugen Ulmer, Stuttgart
Beugelsdijk S, McCann P, Mudambi R (2010) Introduction: Place, space and organization –
economic geography and the multinational enterprise. J Econ Geogr 10:485–493. https://doi.
org/10.1093/jeg/lbq018
Binz C, Coenen L, Murphy JT, Truffer B (2020) Geographies of transition—from topical concerns
to theoretical engagement: a comment on the transitions research agenda. Environ Innov Soc
Trans 34:1–3. https://doi.org/10.1016/j.eist.2019.11.002
Boschma R (2005) Proximity and innovation: a critical assessment. Reg Stud 39:61–74. https://
doi.org/10.1080/0034340052000320887
Braun B, Schulz C (2012) Wirtschaftsgeographie. Eugen Ulmer, Stuttgart
Braun B, Oßenbrügge J, Schulz C (2018) Environmental economic geography and environmental
inequality: challenges and new research prospects. Z Wirtschaftsgeographie 62:120–134.
https://doi.org/10.1515/zfw-2018-0001
Bunnell TG, Coe NM (2001) Spaces and scales of innovation. Prog Hum Geogr 25:569–589.
https://doi.org/10.1191/030913201682688940
Busch H-C, Mühl C, Fuchs M, Fromhold-Eisebith M (2020) Hybride Formen urbaner Produktion
durch Digitalisierung? Trends und Beispiele aus Nordrhein-Westfalen. Raumforsch Raumordn
78:321–336. https://doi.org/10.2478/rara-2020-0013
Busch H-C, Mühl C, Fuchs M, Fromhold-Eisebith M (2021) Digital urban production: how does
Industry 4.0 reconfigure productive value creation in urban contexts? Reg Stud 55:1801–1815.
https://doi.org/10.1080/00343404.2021.1957460
Butollo F (2021) Digitalization and the geographies of production: towards reshoring or global
fragmentation? Compet Chang 25:259–278. https://doi.org/10.1177/1024529420918160
Cairncross F (1997) The death of distance: how the communications revolution will change our
lives. Harvard Business School Press, Boston, MA
64 H.-C. Busch

Capello R, Lenzi C (2021) 4.0 Technologies and the rise of new islands of innovation in European
regions. Reg Stud 55:1724–1737. https://doi.org/10.1080/00343404.2021.1964698
Carvalho L (2015) Smart cities from scratch? A socio-technical perspective. Camb J Reg Econ Soc
8:43–60. https://doi.org/10.1093/cjres/rsu010
Carvalho L, Mingardo G, van Haaren J (2012) Green urban transport policies and cleantech
innovations: evidence from curitiba, göteborg and hamburg. Eur Plan Stud 20:375–396. https://
doi.org/10.1080/09654313.2012.651801
Clark GL, Feldman MP, Gertler MS, Wójcik D (2018) Introduction economic geography in
the twenty-first century. In: Clark GL, Feldman MP, Gertler MS, Wójcik D (Hrsg) The new
handbook of economic geography. Oxford University Press, Oxford, S 1–18
Clifton J, Glasmeier A, Gray M (2020) When machines think for us: the consequences for work
and place. Camb J Reg Econ Soc 13:3–23. https://doi.org/10.1093/cjres/rsaa004
Coe N, Hess M, Yeung HW (2004) ‘Globalizing’ regional development: a global production
networks perspective. Trans Inst Br Geogr 29:468–484. https://doi.org/10.1111/j.0020-
2754.2004.00142.x
Coe NM, Kelly PF, Yeung HW (2020) Economic geography: a comtemporary introduction, 3.
Aufl. Wiley, Hoboken
Coenen L, Truffer B (2012) Places and spaces of sustainability transitions: geographical
contributions to an emerging research and policy field. Eur Plan Stud 20:367–374. https://doi.
org/10.1080/09654313.2012.651802
Coenen L, Benneworth P, Truffer B (2012) Toward a spatial perspective on sustainability
transitions. Res Policy 41:968–979. https://doi.org/10.1016/j.respol.2012.02.014
Coenen L, Hansen T, Glasmeier A, Hassink R (2021) Regional foundations of energy transitions.
Camb J Reg Econ Soc 14:219–233. https://doi.org/10.1093/cjres/rsab010
Corradini C, Santini E, Vecciolini C (2021) The geography of industry 4.0 technologies across
european regions. Reg Stud 55:1667–1680. https://doi.org/10.1080/00343404.2021.1884216
De Propris L, Bailey D (Hrsg) (2020) Industry 4.0 and regional transformation. Routledge, London
De Propris L, Bellandi M (2021) Regions beyond Industry 4.0. Reg Stud 55:1609–1616. https://
doi.org/10.1080/00343404.2021.1974374
Delgado M (2018) Firms in context: internal and external drivers of success. In: Clark GL,
Feldman MP, Gertler MS, Wójcik D (Hrsg) The New Handbook of Economic Geography.
Oxford University Press, Oxford, S 324–346
Dewald U, Fromhold-Eisebith M (2015) Trajectories of sustainability transitions in scale-
transcending innovation systems: the case of photovoltaics. Environ Innov Soc Trans 17:110–
125. https://doi.org/10.1016/j.eist.2014.12.004
Dewald U, Truffer B (2012) The local sources of market formation: explaining regional growth
differentials in german photovoltaic markets. Eur Plan Stud 20:397–420. https://doi.org/10.108
0/09654313.2012.651803
Dicken P (2015) Global shift. Mapping the changing contours of the world economy, 7. Aufl.
Sage, Los Angeles
Doloreux D, Turkina E (2021) New path creation in the artificial intelligence industry: regional
preconditions, new actors and their collective actions, and policies. Reg Stud 55:1751–1763.
https://doi.org/10.1080/00343404.2021.1919610
Ernst D, Sailer U, Gabriel R (Hrsg) (2021) Nachhaltige Betriebswirtschaft. UKV Verlag, Tübingen
Fastenrath S, Braun B (2018) Lost in transition? Directions for an economic geography of urban
sustainability transitions. Sustainability 10:2434. https://doi.org/10.3390/su10072434
Frantzeskaki N, Broto VC, Coenen L (Hrsg) (2017) Urban sustainability transitions. Routledge,
New York
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 65

Freeman C, Louçã F (2001) As time goes by: from the industrial revolutions to the information
revolution. Oxford University Press, Oxford
Freeman C, Perez C (1988) Structural crises of adjustment, business cycles and investment
behaviour. In: Dosi G, Freeman C, Nelson R, Silverberg G, Soete L (Hrsg) Technological
change and economic theory. Pinter Publishers, London, New York, S 38–66
Freeman C, Soete L (1997) The economics of industrial innovation, 3. Aufl. Routledge, Abingdon
Fuchs M (2020) Does the digitalization of manufacturing boost a ‘smart’ era of capital
accumulation? Z Wirtschaftsgeographie 64:47–57. https://doi.org/10.1515/zfw-2019-0012
Fuenfschilling L, Binz C (2018) Global socio-technical regimes. Res Policy 47:735–749. https://
doi.org/10.1016/j.respol.2018.02.003
Geels FW (2002) Technological transitions as evolutionary reconfiguration processes: a multi-
level perspective and a case-study. Res Policy 31:1257–1274. https://doi.org/10.1016/S0048-
7333(02)00062-8
Glasmeier A, Christopherson S (2015) Thinking about smart cities. Camb J Reg Econ Soc 8:3–12.
https://doi.org/10.1093/cjres/rsu034
Götz M (2021) Clusters, digital transformation and regional development in Germany. Routledge,
New York
Götz M, Jankowska B (2017) Clusters and Industry 4.0 – do they fit together? Eur Plan Stud
25:1633–1653. https://doi.org/10.1080/09654313.2017.1327037
Graham M (Hrsg) (2019) Digital economies at global margins. The MIT Press, Cambridge, MA
Gress DR, Kalafsky RV (2015) Geographies of production in 3D: theoretical and research
implications stemming from additive manufacturing. Geoforum 60:43–52. https://doi.
org/10.1016/j.geoforum.2015.01.003
Haefner L, Sternberg R (2020) Spatial implications of digitization: state of the field and research
agenda. Geogr Compass 14:e12544. https://doi.org/10.1111/gec3.12544
Hansen T, Coenen L (2015) The geography of sustainability transitions: review, synthesis and
reflections on an emergent research field. Environ Innov Soc Trans 17:92–109. https://doi.
org/10.1016/j.eist.2014.11.001
Hodson M, Marvin S (2012) Mediating low-carbon urban transitions? Forms of organization,
knowledge and action. Eur Plan Stud 20:421–439. https://doi.org/10.1080/09654313.2012.651
804
Hölscher K, Frantzeskaki N (2021) Perspectives on urban transformation research: transformations
in, of, and by cities. Urban Transform 3:2. https://doi.org/10.1186/s42854-021-00019-z
Kagermann H, Wahlster W, Helbig J (2013) Umsetzungsempfehlungen für das Zukunftsprojekt
Industrie 4.0: Abschlussbericht des Arbeitskreises Industrie 4.0. Acatech, München
Kagermann H, Anderl R, Gausemeier J, Schuh G, Wahlster W (2016) Industrie 4.0 im globalen
Kontext: Strategien der Zusammenarbeit mit internationalen Partnern (acatech Studie). Utz,
München
Knight E, Kumar V, Wójcik D, O’Neill P (2020) The competitive advantage of regions: economic
geography and strategic management intersections. Reg Stud 54:591–595. https://doi.org/10.10
80/00343404.2020.1739262
Lange B, Bürkner H-J (2018) Flexible value creation: conceptual prerequisites and empirical
explorations in open workshops. Geoforum 88:96–104. https://doi.org/10.1016/j.geo-
forum.2017.11.020
Laplume AO, Petersen B, Pearce JM (2016) Global value chains from a 3D printing perspective. J
Int Bus Stud 47:595–609. https://doi.org/10.1057/jibs.2015.47
Leamer EE, Storper M (2001) The economic geography of the internet age. J Int Bus Stud 32:641–
665. https://doi.org/10.1057/palgrave.jibs.84909988
66 H.-C. Busch

Li L (2018) China‘s manufacturing locus in 2025: with a comparison of “Made-in-China 2025”


and “Industry 4.0”. Technol Forecast Soc Chang 135:66–74. https://doi.org/10.1016/j.
techfore.2017.05.028
Malecki EJ, Moriset B (2008) The digital economy: business organization, production processes
and regional developments. Routledge, Abingdon
Markard J, Raven R, Truffer B (2012) Sustainability transitions: an emerging field of research and
its prospects. Res Policy 41:955–967. https://doi.org/10.1016/j.respol.2012.02.013
Markard J, Geels FW, Raven R (2020) Challenges in the acceleration of sustainability transitions.
Environ Res Lett 15:81001. https://doi.org/10.1088/1748-9326/ab9468
Mattes J, Huber A, Koehrsen J (2015) Energy transitions in small-scale regions – what we can
learn from a regional innovation systems perspective. Energy Policy 78:255–264. https://doi.
org/10.1016/j.enpol.2014.12.011
McCann P, Mudambi R (2005) Analytical differences in the economics of geography: the case of
the multinational firm. Environ Plann A: Econ Space 37:1857–1876. https://doi.org/10.1068/
a37311
Messner D, Schlacke S, Fromhold-Eisebith M, Grote U, Matthies E, Pittel K, Schellnhuber HJ,
Schieferdecker I, Schneidewind U (2019) Towards our common digital future. Flagship report.
WBGU, Berlin
Miörner J, Binz C (2021) Towards a multi-scalar perspective on transition trajectories. Environ
Innov Soc Trans 40:172–188. https://doi.org/10.1016/j.eist.2021.06.004
Mühl C, Busch H-C, Fromhold-Eisebith M, Fuchs M (2019) Urbane Produktion Dynamisierung
stadtregionaler Arbeitsmärkte durch Digitalisierung und Industrie 40? Forschungsinstitut für
gesellschaftlichen Wandel FGW, Düsseldorf
Osterwalder A, Pigneur Y (2010) Business model generation: a handbook for visionaries, game
changers, and challengers. Wiley, Hoboken
Pflitsch G, Strambach S (2018) Regionale Transitionspfade zur Nachhaltigkeit. Standort 42:235–
242. https://doi.org/10.1007/s00548-018-0554-9
Porter ME (1990) Competitive advantage of nations.: creating and sustaining superior per-
formance. Free Press, New York
Porter ME, Sölvell Ö (1998) The role of geography in the process of innovation and the
sustainable competitive advantage of firms. In: Chandler AD, Hagstrom P, Sölvell Ö (Hrsg) The
dynamic firm: the role of technology, strategy, organization, and regions. Oxford University
Press, Oxford, S 440–457
Rabari C, Storper M (2015) The digital skin of cities: urban theory and research in the age of the
sensored and metered city, ubiquitous computing and big data. Camb J Reg Econ Soc 8:27–42.
https://doi.org/10.1093/cjres/rsu021
Raven R, Schot J, Berkhout F (2012) Space and scale in socio-technical transitions. Environ Innov
Soc Trans 4:63–78. https://doi.org/10.1016/j.eist.2012.08.001
Reischauer G (2018) Industry 4.0 as policy-driven discourse to institutionalize innovation
systems in manufacturing. Technol Forecast Soc Chang 132:26–33. https://doi.org/10.1016/j.
techfore.2018.02.012
Rip A, Kemp R (1998) Technological change. In: Rayner S, Malone L (Hrsg) Human choice and
climate change. Batelle Press, Washington D.C., S 327–399
Rockström J, Steffen W, Noone K, Persson Å, Chapin FS, Lambin EF, Lenton TM, Scheffer M,
Folke C, Schellnhuber HJ, Nykvist B, de Wit CA, Hughes T, van der Leeuw S, Rodhe H, Sörlin
S, Snyder PK, Costanza R, Svedin U, Falkenmark M, Karlberg L, Corell RW, Fabry VJ, Hansen
J, Walker B, Liverman D, Richardson K, Crutzen P, Foley JA (2009) A safe operating space for
humanity. Nature 461:472–475. https://doi.org/10.1038/461472a
Wirtschaftsgeographische Perspektiven auf digital-nachhaltige … 67

Rodriguez-Pose A (2011) Economists as geographers and geographers as something else: on the


changing conception of distance in geography and economics. J Econ Geogr 11:347–356.
https://doi.org/10.1093/jeg/lbq034
Sachs JD (2020) The ages of globalization: geography, technology, and institutions. Columbia Uni-
versity Press, New York
Sachs JD, Schmidt-Traub G, Mazzucato M, Messner D, Nakicenovic N, Rockström J (2019) Six
transformations to achieve the sustainable development goals. Nat Sustain 2:805–814. https://
doi.org/10.1038/s41893-019-0352-9
Schamp EW (2000) Vernetzte Produktion Industriegeographie aus institutioneller Perspektive.
Wissenschaftliche Buchgesellschaft, Darmstadt
Smith A, Voß J-P, Grin J (2010) Innovation studies and sustainability transitions: The allure of the
multi-level perspective and its challenges. Res Policy 39:435–448. https://doi.org/10.1016/j.
respol.2010.01.023
Späth P, Rohracher H (2010) ‘Energy regions’: the transformative power of regional discourses
on socio-technical futures. Res Policy 39:449–458. https://doi.org/10.1016/j.respol.2010.01.017
Storper M (1997) The regional world: territorial development in a global economy. Guilford Press,
New York
Strange R, Zucchella A (2017) Industry 4.0, global value chains and international business.
Multinatl Bus Rev 25:174–184. https://doi.org/10.1108/MBR-05-2017-0028
Truffer B (2008) Society, technology, and region: contributions from the social study of technology
to economic geography. Environ Plann A: Econ Space 40:966–985. https://doi.org/10.1068/
a39170
Truffer B (2013) Zur geographischen Spezifizierung soziotechnischer Systeme. Technikfolgenab-
schätzung – Theorie Prax 22:20–26. https://doi.org/10.14512/tatup.22.2.20
Truffer B, Murphy JT, Raven R (2015) The geography of sustainability transitions: contours of an
emerging theme. Environ Innov Soc Trans 17:63–72. https://doi.org/10.1016/j.eist.2015.07.004
van den Bergh JC, Truffer B, Kallis G (2011) Environmental innovation and societal transitions:
Introduction and overview. Environ Innov Soc Trans 1:1–23. https://doi.org/10.1016/j.
eist.2011.04.010

Hans-Christian Busch ist Doktorand und wissenschaftlicher Mit-


arbeiter am Wirtschafts- und Sozialgeographischen Institut an der
Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität
zu Köln. Der Schwerpunkt seines Forschungsinteresses liegt in der
geographischen Innovationsforschung – darin insbesondere digitale
Innovation und Umweltinnovation. Vor Beginn der Promotion war
er unter anderem als wissenschaftliche Hilfskraft am Fraunhofer
IMW und der Handelshochschule Leipzig tätig. Zuvor studierte er
Wirtschaftsgeographie (M.Sc.) an der RWTH Aachen, der Uni-
versity of California Santa Barbara (USA) und an der Universidade
de São Paulo (Brasilien).
Copyright für das Portraitfoto (c) Hanieh Saadati, Frankfurt.
Awareness deutscher Unternehmen für
nachhaltige Digitalisierung

Philipp Damm

1 Welchen Einfluss hat die Wahrnehmung einzelner


Personen auf die Nachhaltigkeit eines Unternehmens?

Das Thema Nachhaltigkeit bekommt einen immer größeren Stellenwert, sowohl im


unternehmerischen Kontext als auch im privaten Sektor. Eine derzeit in Deutschland
relevante Definition von Nachhaltigkeit ist beim Bundesministerium für Umwelt, Natur-
schutz, nukleare Sicherheit und Verbraucherschutz zu finden.
„Die Ressourcen der Erde werden heute genutzt wie in keinem Zeitalter zuvor. Und
das, obwohl sie oftmals nur begrenzt zur Verfügung stehen. Nachhaltigkeit bedeutet,
mit den Ressourcen zu haushalten. Hier und heute sollten Menschen nicht auf Kosten
der Menschen in anderen Regionen der Erde und auf Kosten zukünftiger Generationen
leben.“1
Doch wer bewertet, ob die begrenzten Ressourcen durch das Handeln einzelner
Menschen sich nicht direkt negativ auf die Kosten der zukünftigen Generationen aus-
wirken?

1 https://www.bmu.de/themen/nachhaltigkeit-digitalisierung/nachhaltigkeit/was-ist-nachhaltige-

entwicklung

P. Damm (*)
Zell u. A., Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 69
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_5
70 P. Damm

Derzeit existieren keine ausschließlich bewertungsunabhängigen Kenngrößen, um die


Nachhaltigkeit eines Unternehmens zu bestimmen. Die erfassten Daten sind deswegen
auch nur eingeschränkt interpretierbar und oftmals für Außenstehende intransparent.
Ein großes Potenzial für einheitliches Reporting von komplexen Unternehmensvor-
gängen liegt dahingegen in der Technologie „Künstliche Intelligenz“. Der Begriff, kurz
auch KI genannt, wird viel diskutiert und trotzdem wird der Begriff oft missverstanden.
Basierend auf Copeland (2021) ist KI die Fähigkeit von maschinellen Anlagen das Ver-
halten von Menschen nachzuahmen, wobei der Fokus auf den Bereichen Prediction,
Optimization aber auch Autonomous System liegt. Die Nähe der Wahrnehmung des
Begriffs KI zu menschlichem Handeln wird unter anderem durch Bilder geprägt, welche
in der Regel für die Veranschaulichung verwendet werden. Probieren sie es aus, geben
sie den Begriff in einer Suchmaschine im Internet ein. Sie werden nur Bilder erhalten,
bei denen menschenähnliche Roboter, digitale Gehirne oder sonstige komplex wirkende
Illustrationen veranschaulichen sollen, dass Intelligenz ein rein menschlicher Charakter-
zug ist.
Doch wieso ist das so? Diese Frage lässt sich in der Welt von Emotionen,
Kommunikation, Interaktion und Wahrnehmung beantworten. Menschen halten
Maschinen dann für besonders intelligent, wenn diese Emotionen aufweisen, komplexe
Interaktionen durchführen können und dabei selbst Lernen können. Andere Faktoren
sind unter anderem Handlungsmotive, Interessen, Glaubensgrundsätze oder Werte.
Einige Faktoren führen dazu, dass die menschliche Wahrnehmung eingeschränkt wird,
andere erweitern wiederum die Wahrnehmung. Zu den einschränkenden Emotionen
gehört beispielsweise die Angst, wohingegen Freude den Blick weitet. Dieses Beispiel
zeigt eindeutig auf, dass Gefühle immer die individuelle Wahrnehmung eines Menschen
beeinflussen.
Stellen sie sich nun selbst folgende Frage: Wie sieht ihre Welt aus, wenn sie Angst
haben? Die Vermutung liegt nahe, dass bei den meisten die Aufmerksamkeit in einer
solchen Situation ansteigt, wobei sich die Wahrnehmung verengt.
Im Unterschied zu dieser Emotion kann aber auch eine Stimmungslage ausschlag-
gebend für eine veränderte Wahrnehmung sein. Verstirbt beispielsweise ein nahe-
stehendes Lebewesen, so kann dies Ursache für Trauer sein, welche die persönliche
Wahrnehmung verändert.
Neben Emotionen und Stimmung existieren Grundbedürfnisse wie beispielsweise
Hunger, welche auch direkten Einfluss auf die Stimmungslage haben können, aber durch
den Menschen befriedigt werden müssen.
Doch wie ist es denn mit persönlichen Interessen oder Werten? Diese sind in keiner
der bereits genannten Kategorien zuzuordnen, können jedoch unsere Wahrnehmung in
gleicher Weise beeinflussen. Haben sie es bereits einmal erlebt, dass sie zum Beispiel ein
neues Auto kaufen wollten und plötzlich hatten sie das Gefühl, dass es viel mehr dieser
Fahrzeuge im Straßenverkehr gibt? Dieses Phänomen ist auch auf andere Beispiele über-
tragbar und weit verbreitet.
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 71

Abzugrenzen sind jedoch Vorurteile, diese führen zur selben Reaktion, sind aber
durch Stereotype bedingt. Oft laufen solche Handlungen verdeckt und unbewusst ab, sie
beeinflussen unsere Handlung jedoch in gleicher Art und Weise wie bewusste Interessen.
Für die folgende Betrachtung werden die bisher genannten Faktoren analysiert.
Andere individuellere Faktoren wie beispielsweise Intelligenz, Talent, Fähigkeit, Fertig-
keit, Alter, Hormone oder bewusstseinsverändernde Substanzen werden nicht berück-
sichtigt.
Durch die genannten Faktoren kann somit eine einheitliche Bewertung von Nach-
haltigkeit ausgeschlossen werden – sowohl im privaten als auch im beruflichen Kontext –
da es immer auf das bewertende Individuum und dessen Ganzheitspsychologie ankommt.
Die grundsätzliche Frage bleibt dabei bestehen – wie nachhaltig sind Unternehmen?
Und gibt es überhaupt die Nachhaltigkeit in einem Unternehmen? Oder ist jedes
Individuum einzeln verantwortlich für das Unternehmen? Oder ist das Unternehmen ver-
antwortlich für jedes Individuum?

Zu Klärung dieser Frage bietet es sich an das Thema in zwei Dimensionen der
Zuständigkeit zu unterteilen:

1. Die persönliche Dimension: Wir und ich in unserem persönlichen Leben


2. Die gesellschaftliche Dimension Ich im Verhältnis zu anderen

Die gesellschaftliche Dimension lässt sich mit einer Befragung in kleinerem Umfang nur
bedingt ermitteln, da die Zufälligkeit der Stichprobe allein durch die Tatsache, dass die
Bewertenden das Verhältnis eines Individuums zur Gesellschaftlichen nicht validieren
können, ohne dass die Personen sich kennen, nicht herstellen lässt.
Im Folgenden wird eine Umfrage der Arbeitsgruppe Klima des KI Bundes-
verband e. V. vorgestellt, mit welcher die persönliche Dimension des Einflusses von
digitaler Technologie auf die Nachhaltigkeit eines Unternehmens untersucht wird. Die
Forschungsfrage ist, ob die Teilnehmenden, geleitet durch die persönlichen Faktoren der
Wahrnehmung, das selbe Unternehmen anders im Bezug zur Nachhaltigkeit bewerten,
wenn es in den Bezug zu KI gesetzt wird. In diesem Fall entspricht KI nachweislich dem
Interessensthema der Zielgruppe.

2 Umfrage zum Thema Nachhaltigkeit in Unternehmen

Nachhaltiges Unternehmertum beschäftigt derzeit viele Unternehmen in Deutschland.


Bereits bei über 50 % der Unternehmen in Deutschland ist das Thema Nachhaltigkeit in
der Geschäftsführung angekommen.2 Umfragen richten sich in der Regel immer an die

2 Bertelsmann Stiftung.
72 P. Damm

Abb. 1 Sektoren

Expert:innen eines Themengebiets. So werden Nachhaltigkeitsbeauftrage zum Thema


Nachhaltigkeit befragt und KI Expert:innen zu KI Themen. In diesem Fall wurden
gezielt KI Expert:innen zu Nachhaltigkeitsthemen befragt.
Die Erhebung der Daten erfolgte über eine Umfrage, welche online in Form eines
Fragebogens umgesetzt war. Der Link zur Umfrage wurde über soziale Medien ver-
breitet. Die Zielgruppe sind KI Expert:innen, sowohl Anwender:innen als auch
Entwickler:innen aus verschiedenen Unternehmen im Mittelstand in Deutschland.
Die Umfrage wurde anonym durchgeführt, weshalb die Validierung der tatsächlichen
Rolle nicht eindeutig möglich ist. An einigen Stellen im Fragebogen sind Fragen zur
Validierung der Rolle eingestellt worden und zusätzlich konnte auf freiwilliger Basis die
Mailadresse am Ende angegeben werden. Für die Auswertung werden nur diejenigen
Teilnehmenden berücksichtigt, welche eindeutig der Zielgruppe zugeordnet werden
können. Die Stichprobe umfasst eine finale Größe von 20 Teilnehmenden.
Insgesamt sind die Branchen Dienstleistungen, Software, Automobilbau Maschinen-
bau/Anlagenbau/Bau, Öffentliche Einrichtungen, Chemie/Pharma und Transport ver-
treten. Die Verteilung innerhalb der Branchen kann als ausgewogen beschrieben werden,
nur die Branche Chemie und Pharma ist mit einer einzigen Antwort unterrepräsentiert.
Dahingegen ist der Dienstleistungssektor überrepräsentiert (Abb. 1).
35 % der Teilnehmenden arbeiten in Unternehmen mit mehr als 1000 Angestellten.
30 % der Unternehmen erwirtschaften einen Umsatz größer als 50 Mio. EUR. Die
meisten Unternehmen liegen im Bereich zwischen 10 und 50 Mio. Somit lässt sich
schlussfolgern, dass besonders der Mittelstand in dieser Umfrage vertreten ist (Abb. 2).
Bezogen auf die Tätigkeit der Teilenehmenden halten sich Entwickler:innen und
Anwender:innen die Waage, lediglich eine Person hat gar keinen Hintergrund mit künst-
licher Intelligenz. Es ist davon auszugehen, dass die teilnehmende Personengruppe eine
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 73

Abb. 2 Anzahl der Mitarbeitenden

Abb. 3 Abteilungen

sehr breite Sicht auf das Thema KI hat. Dies ergibt sich daraus, dass bei der Frage nach
konkreten Anwendungen keine einzige Doppelnennung enthalten ist, aber jede Lösung
für sich genommen eine reale und realistische Anwendung sein kann. Weiterhin verteilen
sich die Personen über verschiedensten Unternehmensfunktionen und ermöglichen so
einen breiten Blick auf das Gesamtbild im Unternehmenskontext (Abb. 3).
Neben der Abfrage über den technischen Hintergrund wurden ebenfalls Fragen zum
Thema Nachhaltigkeit in Unternehmen gestellt. Hier ergibt sich das Bild, dass genau
die Hälfte der Teilnehmenden keine Kenntnisse über die Verankerung des Themas in der
74 P. Damm

Unternehmensstrategie hat. Bei lediglich 15 % der Teilnehmenden ist das Thema Nach-
haltigkeit bereits im Unternehmenskontext ein Bestandteil der Entscheidungsfindung.
20 % der Unternehmen sind nach der ISO14001 zertifiziert, wobei diese Unter-
nehmen wiederum nicht Bestandteil derer sind, welche eine Nachhaltigkeitsstrategie
in der Unternehmensstrategie besitzen. 10 % der Teilnehmenden gaben sonstige Zerti-
fizierungen für Nachhaltigkeit an, wobei in der Folgefrage nach der konkreten Zerti-
fizierung nur Antworten im Sinne von „Weiß ich nicht genau“ gegeben wurden.
Inhaltlich konnten folgende Erkenntnisse gewonnen werden. Es werden immer die
Mittelwerte der Ergebnisse dunkel hinterlegt, wobei höhere Zahlen die Zustimmung zur
Frage/Aussage bedeuten. Im ersten Block geht es nur um die Nachhaltigkeit ohne den
technologischen Bezug.
Welche Priorität hat das Thema Nachhaltigkeit in Ihrem Unternehmen im Vergleich
zu anderen Unternehmenszielen, wie z. B. Gewinn?

0 1 2 3 4 5 6 7 8 9 10

Verpflichtende Nachhaltigkeitsziele für Management

0 1 2 3 4 5

Mobilität (Weniger Geschäftsreisen, Bahnfahrten, Mitarbeitermobilität)

0 1 2 3 4 5

Energie (Ökostrom, Wärmeversorgung, Wasserversorgung)

0 1 2 3 4 5

Herstellung von Produkten

0 1 2 3 4 5

Nutzung der Produkte (z. B. Energieeffizienz)

0 1 2 3 4 5

Corporate Governance/Corporate Social Responsibility

0 1 2 3 4 5
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 75

Sozialsponsoring (z. B. Spenden für Hilfsorganisationen)

0 1 2 3 4 5

Gesundheit der Mitarbeitenden

0 1 2 3 4 5

Emissions – Kompensationen

0 1 2 3 4 5

Nachhaltigkeitsbericht

0 1 2 3 4 5

Im Folgenden werden nun die inhaltlich gleichen Themen im Bezug mit digitaler
Technologie, also in diesem Fall dem Interessenfeld der Befragten, vorgestellt.

Energie & Wärme (z. B. bessere Nutzung erneuerbarer Energien)

0 1 2 3 4 5

Industrie (z. B. Predictive Maintenance)

0 1 2 3 4 5

Transport (z. B. Optimierung von Transportrouten)

0 1 2 3 4 5

Landwirtschaft (z. B. Precision Farming)

0 1 2 3 4 5

Supply Chain (z. B. Verbesserung der Lieferketten)

0 1 2 3 4 5

Ökosysteme (z. B. Überwachung von Waldbränden, Biodiversität)


76 P. Damm

0 1 2 3 4 5

Finanzen (z. B. Nachhaltigkeitsbewertungen)

0 1 2 3 4 5

Entwicklungshilfe (z. B. Prognosen zur Effektivität)

0 1 2 3 4 5

Die Ergebnisse zeigen eindeutig, dass das Potential von KI im Bezug zur Nachhaltigkeit
bei Unternehmen groß ist. Gleichzeitig zeigt es aber auch, dass die Wahrnehmung einen
großen Einfluss auf die Bewertung hat. Die Unternehmen haben sich über die Fragen
nicht verändert, die Zustimmung zur Nachhaltigkeit ist jedoch deutlich angestiegen
durch die Verknüpfung mit KI. Diese beiden Schlussfolgerungen bestätigen sich über die
weiteren Fragen, welche hier nicht alle vorgestellt werden können.
Die Frage, inwieweit nun Unternehmen nachhaltig sind, hängt aber nicht nur von
der Wahrnehmung ab, sondern auch von der Bereitschaft Verantwortung für das eigene
Handeln zu übernehmen. Endet die Verantwortung mit der Entwicklung eines Produkts
und geht an den Betreibenden über, oder trägt das Unternehmen weiterhin die Ver-
antwortung?
Gerade bei Software sind hier die Bemessungsspielräume groß. So wird die Hardware
in der Regel bezogen, wodurch deren Produktion in die Bilanz des jeweiligen Herstellers
fällt. Die Software an sich erzeugt keine Emissionen, sondern die Server, auf denen diese
betrieben wird. Letztlich muss also nur Verantwortung dafür übernommen werden, die
richtigen Provider auszuwählen. Diese Tatsache verleitet dazu, dass Reboundeffekte
unterschlagen werden und die Emissionen nicht verursachungsgerecht zugeordnet
werden.
Hierzu gibt es eine bereits bestehende Veröffentlichung des Bundesverbandes
Deutsche Startups e. V., welche im Folgenden als Abschluss vorgestellt wird.

3 KI MIT VERANTWORTUNG

Zur Notwendigkeit ethischer Leitlinien besteht unter deutschen KI-Startups ein Grund-
konsens. 88 % wollen gesellschaftliche Verantwortung übernehmen und 81 % finden,
dass ethische Fragen auch bei der Entwicklung der Technologie berücksichtigt werden
müssen.
Könnten ethische Grundsätze die Grundlage zur Messung von sozialer Nachhaltigkeit
leiten?
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 77

„Die Debatte um den Einsatz von KI ist in Deutschland zu polarisiert: Jede Techno-
logie hat ihre Vor- und Nachteile, die wir abwägen müssen. Das muss aber lösungs-
orientiert passieren, damit wir die Chancen von KI für uns auch nutzen können. Zugleich
gibt es natürlich auch Bereiche wie die Auswertung von DNA oder Gesichtserkennung,
wo wir klare Regeln und Grenzen brauchen. Die meisten europäischen KI-Startups
haben aber einen klaren ethischen Wertekompass, der eine gute Basis für unser KI-Öko-
system ist.“ Marian Gläser (Gründer & CEO Brighter AI)
Der Einfluss von KI-Lösungen auf unseren Alltag wird in den kommenden Jahren
weiter zunehmen. Daher ist es umso wichtiger, die Entwicklung der Technologie inklusiv
auszugestalten und ihre Folgen frühzeitig mitzudenken. Die Debatte darf sich aber
gleichzeitig nicht in Zukunftsvisionen erschöpfen, sondern muss auf Basis aktueller Ent-
wicklungen geführt werden. Ein plakatives Beispiel dazu: Mehr als zwei Drittel aller KI-
Sprachassistenten haben eine weibliche Stimme und tragen so aktiv zur Reproduktion
traditioneller Rollenbilder und Geschlechterstereotypen bei. Dabei handelt es sich um
ein systematisches Problem, das erstens auf das Thema Repräsentation und zweitens auf
die große Bedeutung der Sensibilität für ethische Fragen im Technologiesektor verweist.
Ein wichtiger Aspekt im Kontext Ethik und KI ist die Nutzung persönlicher Daten
und die Wahrung der Privatsphäre. Hier zeigen unsere Daten, dass sich in diesem Sektor
in Deutschland ein eigenes Geschäftsfeld etabliert, das in Israel so bisher nicht zu finden
ist: Im Bereich AI Techstack sind in Deutschland 13,8 % der Startups im Bereich Privacy
aktiv und unterstützen mit ihren Tools andere Firmen dabei, die Privatsphäre ihrer
Kundinnen und Kunden zu schützen. Die Einführung der DSGVO hat diese Entwicklung
politisch forciert und die Frage, wie KI-Lösungen Privacy-freundlich umgesetzt
werden können, wird mit Blick auf die Akzeptanz der Technologie zukünftig weiter an
Bedeutung gewinnen.
KI ist schon lange kein reines Forschungsthema mehr und im wirtschaftlichen
und gesellschaftlichen Alltag angekommen. Neben den großen Tech-Unternehmen
sind es vor allem Startups, die die Technologie in die unterschiedlichsten Geschäfts-
felder hineintragen. Vor diesem Hintergrund stellen sich für Politik und Gesell-
schaft Fragen zu möglichen ethischen Herausforderungen beim Einsatz von KI. Was
tun, wenn datengetriebene und damit vermeintlich kluge Entscheidungen bestimmte
Bevölkerungsgruppen systematisch diskriminieren? Auf welche Weise können unsere
Wertvorstellungen bei der Entwicklung von KI-Lösungen berücksichtigt werden?
Wie lässt sich die Logik der Technologie transparent und kontrollierbar machen? Die
Debatte um solche und ähnliche Fragestellungen wird politisch unter anderem durch
die Europäische Kommission, die UN und OECD und auf nationaler Ebene durch die
KI-Strategie der Bundesregierung sowie den Einsatz der KI-Enquete-Kommission oder
die Datenethikkommission vorangetrieben. Daneben forcieren aber auch die Zivil-
gesellschaft sowie Tech-Konzerne, die selbst KI-Anwendungen entwickeln oder die
nötige Infrastruktur bereitstellen, den Diskurs. Trotz unterschiedlicher Positionen im
78 P. Damm

Einzelnen hat sich an dieser Schnittstelle von Politik, Öffentlichkeit und Wirtschaft ein
Konsens über die zentrale Bedeutung ethischer Fragen im Bereich KI herausgebildet.
Zudem lassen sich inhaltliche Überschneidungen und ein normativer Kern der Debatte
identifizieren (Fjeld et al. 2020). Dieser enthält unter der Maxime der informationellen
Selbstbestimmung die Themenfelder Privatsphäre, Verantwortung, Sicherheit, Trans-
parenz und Erklärbarkeit, Fairness und Diskriminierungsfreiheit, menschliche Kontrolle,
fachliche Kompetenz sowie die Förderung menschlicher Werte. Die praktische Relevanz
dieser normativen Ansätze verdeutlicht alleine schon ein genauerer Blick auf nur einen
ausgewählten Aspekt: Fairness und Diskriminierungsfreiheit: Da KI oft mit Daten
arbeitet, die in der Praxis gesammelt wurden, besteht die Gefahr, gesellschaftliche Miss-
stände und Stereotypen zu reproduzieren oder sogar zu verstärken. So besteht beim
Einsatz von KI am Beispiel des Gerichtswesens die Gefahr, verzerrte Urteile aus der Ver-
gangenheit als Basis für vermeintlich objektivere Urteile zu nutzen und so Ungerechtig-
keiten im Justizwesen zu verfestigen. Ähnlich verhält es sich bei KI-Algorithmen,
die zur Selektion von Bewerbungen eingesetzt werden. Hier besteht gerade im Tech-
Bereich unter anderem die Gefahr, Frauen systematisch zu benachteiligen, da die Ana-
lyse bisher erfolgreicher Bewerbungen primär auf Lebensläufen von Männern und
deren typischen Angaben basiert. Diesen Risiken versuchen verschiedene Akteurinnen
und Akteure in Deutschland mit Regelwerken und Leitlinien zu begegnen, die in der
Praxis helfen sollen, KI im Sinne der gesellschaftlichen Werte zu gestalten. Ein Beispiel
dafür sind die Algo.Rules, entwickelt von der Bertelsmann Stiftung in einem offenen
und partizipativen Prozess mit vielen Beteiligten. Zusätzlich zu neun grundsätzlichen
Regeln arbeiten die Stiftung und iRights in diesem Projekt auch an Möglichkeiten zur
praktischen Anwendung. In diesem Kontext ebenfalls interessant ist das KI Gütesiegel
des KI Bundesverbands, bei dem es sich um eine Selbstverpflichtung für Unternehmen
zur Einhaltung von Prinzipien in den vier Bereichen Ethik, Unvoreingenommenheit,
Transparenz sowie Sicherheit und Datenschutz handelt. Beide Initiativen zeigen, dass
die Öffentlichkeit und Politik Regeln befürworten, um ethische Fragestellungen im Ent-
wicklungsprozess von KI zu implementieren und dies breit diskutiert wird
„Digitale Ethik ist der Schlüssel für den erfolgreichen Einsatz von KI. Dabei ist es
notwendig, dass die Anwender zu einem eigenverantwortlichen Umgang mit neuen
Technologien befähigt werden. Andererseits müssen die Programmierer und Techniker,
die diese Technologien bereitstellen und verbessern, dies verantwortungsvoll tun und sie
müssen wissen, woran sie sich orientieren sollen. Denn selbstlernende Systeme brauchen
definierte und von den Entwicklern initial eingepflegte Grenzen, innerhalb derer sie
agieren dürfen.“
Manuela Mackert (Chief Compliance Officer der Deutschen Telekom)3

3 https://ki-verband.de/wp-content/uploads/2020/09/Studie_KI-Wo-stehen-deutsche-Startups.pdf
Awareness deutscher Unternehmen für nachhaltige Digitalisierung 79

4 Fazit

Die Wahrnehmung hat einen Einfluss auf die Bewertung der Nachhaltigkeit von Unter-
nehmen. Moderne Technologien helfen dabei, das Image aufzubessern. Sie helfen aber
auch dabei tatsächliche Innovation zu erzielen, die wiederum die Nachhaltigkeit ver-
bessert. In Summe lässt es sich jedoch nur schwer greifen, da es keine transparente, ein-
heitliche, ethisch übereinstimmende, bewertungsunabhängige und interessenlose Daten- und
Bewertungsgrundlage gibt. Besonders bei der Ethik scheiden sich die Ansichten.
Es bleibt abzuwarten, ob sich die Regulation von KI in den Vordergrund drängt, oder
das konsequente Ausnutzen der Chancen, die sich durch die Technologie bieten. Es bleibt
ebenso abzuwarten, ob sich die Nachhaltigkeit in die positiven Emotionen oder die negativen
Emotionen einnistet, ob Nachhaltigkeit als Chance oder als Bedrohung wahrgenommen wird.
Und am Ende bedürfen beide Themen einer deutlich größeren Transparenz, welche
sich unter anderem durch Bildung erzielen lässt.

Literatur

Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit, und Verbraucherschutz (2021)


In: Kurzinfo – Was ist nachhaltige Entwicklung. https://www.bmu.de/themen/nachhaltigkeit-
digitalisierung/nachhaltigkeit/was-ist-nachhaltige-entwicklung
Fjeld J, Achten N, Hilligoss H, Nagy A, Srikumar M (2020) Principled Artificial Intelligence:
Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI
Jakob Christof Kunzelmann (2021) Nachhaltigkeit wird für deutsche Unternehmen immer
wichtiger. https://www.bertelsmann-stiftung.de/de/themen/aktuelle-meldungen/2021/november/
nachhaltigkeit-wird-fuer-deutsche-unternehmen-immer-wichtiger?tx_rsmbstpress_pi1%5Bdate_
from%5D=01.09.2009&tx_rsmbstpress_pi1%5Buidcategory%5D=1
Startups und künstliche Intelligenz – Innovation trifft Verantwortung (2021) Bundesverband
Deutsche Startups e.V. dl-studie-startups-ki.pdf (ki-verband.de)
Künstliche Intelligenz – Wo stehen deutsche Startups? (2020) Bundesverband Deutsche Startups e.V.
https://ki-verband.de/wp-content/uploads/2020/09/Studie_KI-Wo-stehen-deutsche-Startups.pdf

Philipp Damm ist Co-Founder, Start-up CFO und Projektleiter für


Produktentwicklung in Esslingen und Uelzen, Deutschland. Seine
Leidenschaft ist es komplexe Herausforderungen für Kunden zu
lösen und unternehmerisches Handeln nachhaltig und damit lang-
fristig sowie zukunftsorientiert zu gestalten. Er weist fünf Jahre
Erfahrung in den Bereichen Projektleitung, Project Office, agile
Unternehmensführung sowie nachhaltiger Künstlicher Intelligenz
in verschiedenen Teams in der privaten Wirtschaft auf. Derzeit
leitet er Projekte im Bereich Medizintechnologie, sowie Projekte
zur Messung von Emissionen im Zusammenhang mit digitaler
Infrastruktur und digitaler Technologie. Neben den beruflichen
Interessen ist Philipp leidenschaftlicher Musiker und engagiert sich
in mehreren gemeinnützigen Organisationen, sowie in der Arbeits-
gruppe Klima des KI Bundesverband e. V.
Daten als Schlüsselkomponente von
Anwendungen Künstlicher Intelligenz
am Beispiel der Nachhaltigkeit

Annemarie Paul

1 Einleitung

Ist Nachhaltigkeit nur ein Trend? Das Thema Nachhaltigkeit hat sich spätestens im Jahr
2021 vom Trend zum Wettbewerbsfaktor entwickelt. Neben den negativen Folgen des
Klimawandels und zunehmenden Regulierungen gelten auch steigende Anforderungen
von Kaufinteressierten und Unternehmensbeteiligten, die Erweiterung von Produkt-
portfolios sowie transparenzsteigernde Unternehmensanreize als Treiber von Nach-
haltigkeit (zum Beispiel Davis-Peccoud et al. 2020; Muster und Schrader 2016; Winston
2021). Doch was bedeutet Nachhaltigkeit? Laut Meadowcroft (2022) ist ein Handeln
nachhaltig, wenn ökologische, ökonomische und soziale Maßnahmen in der Gegenwart
keinen negativen Einfluss auf die Zukunft haben.
Unternehmen agieren auf verschiedenste Art und Weise nachhaltig. So treffen
Innovatoren mit Nachhaltigkeit als Geschäftsmodell auf Unternehmen, die allein auf-
grund einer gesetzlichen Berichtspflicht Nachhaltigkeitsmaßnahmen umsetzen. Eine
Gemeinsamkeit der Unternehmen ist zumeist, dass die Daten, die zur Messung der Nach-
haltigkeitsdimensionen erhoben werden, nur bedingt interpretierbar sind. So werden
Nachhaltigkeitsdaten oft inkonsistent oder unvollständig erfasst und Kennzahlen nicht
nachvollziehbar kommuniziert. Nachhaltigkeitsberichte sind somit oft nur eingeschränkt
glaubwürdig. Eine Vergleichbarkeit über Unternehmen hinweg ist erschwert (Pinchot
und Christianson 2019).

A. Paul (*)
Hamburg, Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 81
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_6
82 A. Paul

Während die Erstellung von Nachhaltigkeitsreports eine Möglichkeit der Nutzung


von Nachhaltigkeitsdaten darstellt, liegen weitere und bisher zumeist nicht realisierte
Potenziale in der Anwendung von Künstlicher Intelligenz (KI). Künstliche Intelligenz
wird viel diskutiert und dennoch wird ihr Konzept oft missverstanden. Laut Copeland
(2022) beschreibt Künstliche Intelligenz die Fähigkeit von Maschinen, menschliche
kognitive Prozesse wie Lernen, Argumentieren und Problemlösung zu verstehen und
zu simulieren. Die Anwendungen der Künstlichen Intelligenz reichen von Optimierung,
Vorhersagen und Mustererkennung (schwache KI) bis hin zu autonomen Robotern, die
menschliches intellektuelles Verhalten nachbilden oder sogar übertreffen (starke KI).
Maschinelles Lernen beschreibt einen Teilbereich der Künstlichen Intelligenz, in dem
Daten mithilfe von unabhängig lernenden Computersystemen analysiert werden, um
neue Erkenntnisse zu gewinnen (Hosch 2022).
Das Anwendungsspektrum von KI im Bereich der Nachhaltigkeit erstreckt sich
über den gesamten Geschäftsprozess – vom Ressourceneinsatz, der Produktion und
dem Transport bis hin zum Produkt. Beispiele sind vielseitig: Energienachfragespitzen
können mithilfe von KI zur besseren Planbarkeit und Abdeckung mit erneuerbaren
Energien vorhergesagt werden. Die Vorhersage von Verfügbarkeiten von erneuerbaren
Energien trägt zur Optimierung der Energiezusammensetzung bei. Die Voraussage von
Anlagenlecks dient der Reduktion von Emissionen und Produktionsunfällen. Daran
angrenzend erlaubt die vorausschauende Instandhaltung von Anlagen energieineffiziente
Ausfälle zu minimieren und hilft dabei Produktionsverluste zu reduzieren. Bedarfs-
prognosen sowie Lager- und Routenoptimierung erlauben Effizienzsteigerungen bei der
Organisation von Warentransfers oder den Einsatz nachhaltiger Flottentechnologien.
Die Produktnutzung kann durch die Analyse von Kundenverhalten zur Motivation zu
„grünerem“ Verhalten nachhaltiger gestaltet werden. Darüber hinaus können durch die
Optimierung des Materialeinsatzes Verpackungen reduziert und die Wiederverwendbar-
keit von Materialen erhöht werden. Ein letztes Anwendungsbeispiel von KI bietet die
Optimierung der Müllsammelprozesse entlang der Produktionskette.
Essenzielle Grundlage für die Umsetzung von KI-Lösungen sind Daten. Dabei ent-
fallen bis zu 80 % des Aufwandes eines Projekts mit Maschinellem Lernen (ML) auf
das Datenverständnis und die Datenaufbereitung. Spiegelt sich das zu untersuchende
Problem in den Daten wider? Falls nicht, gibt es Näherungsdaten, die verwendet werden
können? Wie wurden die Daten erfasst und vorgefiltert? Welche Implikationen hat dies
auf die Aussagekraft und Interpretation der Daten? Sind die Daten von ausreichender
Qualität? Sind genügend Datenpunkte vorhanden, um das Modell zu trainieren und
zu testen? All diese Fragen sollten als initialer Schritt eines ML-Projekts beantwortet
werden (Schwenkenbecher 2022).
Dieser Beitrag erläutert den Prozess von der Erfassung von Nachhaltigkeitsdaten bis
zur Entwicklung eines Datenprodukts. Es wird auf Anreize und Herausforderungen in
der Datenerfassung sowie Fallstricke in der Umsetzung eines Projekts mit Maschinellem
Lernen eingegangen. Der Fokus liegt auf Daten, die den ökologischen Aspekt von
Nachhaltigkeit abbilden. Sofern der Begriff der Nachhaltigkeit im Kontext nicht näher
Daten als Schlüsselkomponente von Anwendungen … 83

spezifiziert ist, beziehen sich die Ausführungen auf die Umwelteinflüsse. Gegebene
Empfehlungen zur Datenerfassung und -auswertung können auch auf weitere Nach-
haltigkeitsdimensionen bezogen werden.
Der Artikel ist wie folgt gegliedert: Im ersten Teil wird erläutert, welche Anreize
Unternehmen haben, Nachhaltigkeitsdaten zu erfassen. Darauffolgend wird eine Über-
sicht spezifischer Nachhaltigkeitskennzahlen gegeben, die Unternehmen im Rahmen
ihrer Geschäftsprozesse erfassen können. Kapitel vier behandelt Herausforderungen
der Datenerfassung, während Kapitel fünf den Ablauf eines Datenanalyseprojekts mit
Maschinellem Lernen beschreibt. Im Anschluss werden fünf potenzielle Fallstricke
in der Anwendung von Künstlicher Intelligenz erläutert. Im letzten Kapitel werden
die erhaltenen Erkenntnisse zur Erfassung und Auswertung von Nachhaltigkeitsdaten
zusammengefasst und Handlungsempfehlungen gegeben.

2 Anreize zur Erfassung von Nachhaltigkeitsdaten

Anreize Nachhaltigkeitsdaten zu erheben und diese – zumindest partiell – offenzulegen


sind vielfältig. In der Europäischen Union sind seit der Verabschiedung der Richtlinie
2014/95/EU im Jahr 2014 öffentlich relevante Unternehmen mit im Jahresdurchschnitt
mehr als 500 Beschäftigten verpflichtet, die Nachhaltigkeit ihrer Unternehmenstätig-
keit regelmäßig zu berichten (European Commission 2022). Darunter fallen börsen-
notierte Unternehmen, Kreditinstitute und Versicherungsunternehmen. In Deutschland
wurde die Berichtspflicht mit dem CSR-Richtlinie-Umsetzungsgesetz (Corporate Social
Responsibility) im Jahr 2017 noch einmal erweitert und in nationales Recht umgesetzt.
Inhalte der geforderten Berichterstattung umfassen Umwelt-, Arbeitnehmer- und Sozial-
belange sowie Bemühungen zur Menschenrechtsachtung und zur Korruptionsver-
meidung. Ökologische Berichtaspekte werden im Gesetzestext beispielhaft spezifiziert
und umfassen mögliche Erklärungen zu Treibhausgasemissionen, Wasserverbrauch,
Luftverschmutzung und Artenschutz (CSR-RUG 2017).
Der nichtfinanzielle Bericht hat das übergreifende Ziel die Nachhaltigkeits-
dimensionen der Geschäftsprozesse eines Unternehmens verständlich darzustellen. Des
Weiteren soll unternehmerisches Bewusstsein geschaffen werden, um Nachhaltigkeits-
risiken und Implikationen fehlender Nachhaltigkeit frühzeitig zu erkennen und vorzu-
beugen (CSR-RUG 2017). Während inhaltliche Empfehlungen zur Ausgestaltung eines
Nachhaltigkeitsberichts gegeben werden, verbleiben Vorgaben zur Form und zum Detail-
grad im unternehmerischen Ermessen. Dennoch wird auch hier zunehmend Transparenz
geschaffen. So definiert das Ranking der Nachhaltigkeitsberichte (2021a) Eckpunkte
einer qualitativ hochwertigen und aussagekräftigen Nachhaltigkeitsberichterstattung für
verschiedene Industrien. Darüber hinaus zeichnet das Ranking regelmäßig die besten
Berichterstatter anhand verschiedenster Kriterien – von Strategie und Zielentwicklung
hin zu Produktverantwortung – aus.
84 A. Paul

Neben der Berichtspflicht führt die zunehmende Relevanz des Themas der Nach-
haltigkeit zu geschäftsbezogenen Anreizen der Berichterstellung. Grob kann in
geschäftsentwickelnde und effizienzsteigernde Aspekte unterschieden werden.
Geschäftsentwickelnde Potenziale sind zumeist nach außen gerichtet. So kann die
Offenlegung des Nachhaltigkeitsgrades von Unternehmensprozessen neue Geschäfts-
felder und Produktentwicklungen sowie Datenpartnerschaften ermöglichen. Das Auf-
zeigen kontinuierlicher und erfolgreicher Nachhaltigkeitsbestrebungen kann außerdem
zu gestärkten ESG-Ratings (Environmental, Social and Corporate Governance) führen.
Diese steigern das Investoreninteresse und verbessern Finanzkonditionen. Das Aufzeigen
eines grünen Fußabdrucks kann ferner das Marken und Employer Branding prägen und
Neukundengewinnung, Kundenloyalität sowie Beschäftigtenwerbung positiv beein-
flussen. Weiterhin bietet die Auswertung von Nachhaltigkeitsdaten zuvor potenziell
unentdeckte Möglichkeiten der Leistungsoptimierung. So können durch Messung des
Energieverbrauchs entlang der Produktions- und Lieferkette Einsparungspotenziale und
eine überhöhte Nutzung von Strom und anderen Ressourcen erkannt und somit Kosten
gesenkt und die Effizienz gesteigert werden (Grünberg-Bochard und Schaltegger 2014).
In einer Umfrage des Rankings der Nachhaltigkeitsberichte (2018) wurden Motive
und Zielsetzung einer Nachhaltigkeitsberichterstattung erfasst. Mit 72 % berichtet
die Mehrheit von 52 befragten kleinen und mittelständischen Unternehmen (KMU) in
Deutschland, dass die Berichterstattung von der Unternehmensleitung initiiert wurde.
Sonstige Motive, wie intrinsische Motivation und zunehmende Kundenanfragen zum
Thema Nachhaltigkeit, bilden mit 42 % und 34 % deutlich schwächere Motive. Unter
den mit der Nachhaltigkeitsberichterstattung gesetzten Zielen dominieren mit 88 % und
81 % die allgemeine Reputationswirkung sowie die damit einhergehende Öffentlich-
keitssensibilisierung. Letzterer Aspekt zeigt eine intrinsische Motivation der Unter-
nehmen auf. Während etwa zwei Drittel der befragten KMUs auch die Förderung von
Kundenbindung und Beschäftigtenmotivation angibt, sticht mit 75 % die verbesserte
Messbarkeit unternehmensinterner Prozesse durch Nachhaltigkeitsdaten hervor.
Unabhängig der Beweggründe eines Unternehmens einen Lagebericht zur Nach-
haltigkeit zu erstellen, bilden transparenzgebende Daten die Grundlage. Im Folgenden
wird erläutert, welche Daten erfasst werden können, bevor auf Herausforderungen in der
Datenerfassung eingegangen wird.

3 Nachhaltigkeitsdaten

3.1 Nachhaltigkeitsdaten entlang des Geschäftsprozesses

Abb. 1 unterteilt potenziell zu erfassende Nachhaltigkeitsdaten entlang des Geschäfts-


prozesses und identifiziert, in Anlehnung an das Ranking der Nachhaltigkeitsberichte
(2021b), drei grobe Kategorien: Ressourceneinsatz, Produktion und Transport sowie
Produkt.
Daten als Schlüsselkomponente von Anwendungen … 85

Abb. 1 Nachhaltigkeitsdatenerfassung entlang des Geschäftsprozesses. (Quelle: In Anlehnung an


das Ranking der Nachhaltigkeitsberichte 2021b)

Der Prozessbaustein des Ressourceneinsatzes beschreibt Daten der zur Produktion


und damit verbundener Vorgänge verwendeten Energie. Schlüsseldaten zur Bewertung
umfassen den Gesamtenergieeinsatz verschiedenster Energieträger wie Wärme,
Elektrizität und Gas. Direkt verbunden ist die Energieerzeugung, die als negativer Ver-
brauch in Relation zur Energieeffizienz der Energie produzierenden Anlagen in die
Verbrauchskalkulation eingehen kann. Eine Differenzierung erfolgt durch die Quanti-
fizierung des Anteils regenerativer Energien am Gesamtenergieeinsatz. Zu erfassende
Daten sind durch die Bemessung von Grünstromverträgen, eingesetzten Technologien
oder ökologischen Maßnahmen erweiterbar. Einen weiteren Datenblock stellen negative
Externalitäten der Produktionsprozesse dar – aus eigenen Anlagen und gekaufter
Energie. Beispiele sind Schadstoffbelastungen im Wasser und Emissionen wie Treib-
hausgase, Lärm und Gerüche.
Die zweite Kategorie beschreibt Daten der Produktion und des Transports. Erste
Ansatzpunkte der Datenerfassung umfassen den Rohstoff- und Materialeinsatz sowie
den Transport- und Personenverkehr. Beim Rohstoff- und Materialeinsatz wird der Anteil
an den Gesamtkosten sowie der Anteil ökologisch nachhaltiger Materialen bemessen.
Darüber hinaus sind Informationen zur Art der Rohstoffe und des Materials relevant:
Welche Materialgruppe weist spezifische Charakteristika auf, die eine Beschaffung,
Verwertung und Entsorgung besonders ökologisch aufwendig gestalten? Welchen
Grad der Substitution hin zu nachhaltigen und wiederverwertbaren Materialen haben
die Gruppen? Der Aspekt des Transport- und Personenverkehrs schließt sich direkt an
und spiegelt die Umwelteinflüsse von Fuhrparks und anderen Transportmitteln eines
Unternehmens wider. Dabei können Daten zum Einsatz umweltschonender Techno-
logien, Schadstoffklassen, aber auch allgemeine Kennzahlen zur Nachhaltigkeit der
Beschäftigtenmobilität quantifiziert werden. Weitere Themenschwerpunkte in dieser
Kategorie sind das Abfallaufkommen und Produktions- und Transportfehler. Der erste
Punkt bezieht sich auf das produktionsbezogene Abfallaufkommen an sich und eine
mögliche Wiederverwendbarkeit und Verwertung entstehender Abfallprodukte. Zusätz-
lich stehen Bestrebungen zur Reduktion von Abfällen und der allgemeine Abfallkreis-
lauf von Abfallvermeidung bis Beseitigung im Fokus. Der ökologische Abdruck von
86 A. Paul

Produktions- und Transportfehlern kann durch Inzidenzen, Schadenshöhen und daraus


entstehenden Umweltbelastungen bemessen werden.
Die letzte Kategorie der Datenerfassung bezieht sich auf das Produkt selbst. Die öko-
logische Produktverantwortung drückt sich einerseits durch das Design aus. Beispiel-
daten schließen die Verwendung ökologisch nachhaltiger Verpackungsmaterialien, die
Lebensdauer, Möglichkeiten der Reparatur und die Wiederverwendbarkeit des Produkts
ein. Angrenzend zum Design steht die beabsichtigte Produktnutzung durch Konsu-
menten. Werden mit dem Produkt Verhaltensweisen ökologisch nachhaltiger? Löst das
Produkt ökologische Probleme? Welche ökologisch nachhaltigen Produkt(weiter-)ent-
wicklungen sind geplant? Dies betrifft insbesondere die Reduktion von Schadstoffen,
die verlängerte Reparaturfähigkeit des Produkts und die Reintegration in den Kreislauf
nach vollendeter Nutzung. Als letzter Aspekt der Nachhaltigkeit des Produkts kann die
Lieferantenverantwortung genannt werden. Neben Maßnahmen zum Monitoring zur
Einhaltung gesetzlicher Anforderungen steht es im Ermessen eines Unternehmens auch
darüber hinaus ökologische Anforderungen zu stellen. So kann beispielsweise daten-
technisch festgehalten werden, wie viele Liefernde zusätzliche Zertifikate zur Nach-
haltigkeit ihrer Lieferprozesse vorweisen können.
Die Vielfältigkeit der Ausprägung von Geschäftsprozessen lässt großen Spielraum,
um die ökologische Nachhaltigkeit eines Unternehmens zu erfassen und entsprechende
Handlungsmaßnahmen zur Verbesserung dieser einzuleiten. Um Veränderungen über die
Zeit zu verfolgen, können Minderungen und Steigerungen der genannten Datenpunkte
quantitativ erfasst und berechnet werden. Die Veränderungsdaten dienen insbesondere der
Erfolgsbewertung des ökologischen Maßnahmenportfolios eines Unternehmens. Neben
den eher standardisierten Datenpunkten entlang des Geschäftsprozesses gibt es auch zahl-
reiche Kennzahlen, die bisher weniger Beachtung gefunden haben. So verursachen auch
Bürotätigkeiten wie das Drucken, Kopieren und das Senden von E-Mails – insbesondere
an große Personenkreise und mit umfangreichen Anhängen – über die genutzten Speicher-
kapazitäten und Prozessoraufwände Emissionen. Gleiches gilt für alle Rechnungsprozesse,
die im Hintergrund Anlagen antreiben und optimieren (zum Beispiel Griffiths 2020).

3.2 Weitere Datengruppen

Zahlreiche Datenpunkte können über die Nachhaltigkeitsdaten hinaus erfasst werden und
die Datenbasis einer KI-Lösung im Bereich Nachhaltigkeit nutzenbringend erweitern.
Dies gilt im Unternehmenskontext und unternehmensübergreifend. Im Folgenden
möchte ich auf drei ergänzende Datengruppen eingehen: Beobachtungsdaten von Auf-
traggebenden, Umfragedaten und Metadaten zum Nachhaltigkeitsreport.
Beobachtungsdaten von Auftraggebenden dienen der Erfassung von Reaktionen von
kaufenden Personen auf die Nachhaltigkeitsmaßnahmen von Unternehmen. Anhand
Daten als Schlüsselkomponente von Anwendungen … 87

von Trackingdaten kann das Nutzungsverhalten von Webseiten nachvollzogen werden.


Während die Erfassung der Daten im Rahmen der Datenschutzgrundverordnung eine
eindeutige Zustimmung des Webseitenpublikums erfordert, erlauben die Daten heraus-
zufinden, welchen Stellengrad Nachhaltigkeitsinformationen im Kauf- und Suchver-
halten haben. Dabei offenbart sich beispielsweise, ob andere als zuvor intendierte
Gruppen kaufender Personen auf die Informationen reagieren. Zusätzliche allgemeine
Interaktionsdaten mit Auftraggebenden bieten telefonische Anfragen zu Nachhaltigkeits-
themen, Nachfragen via E-Mail oder auch den Sozialen Medien. In der Kombination
beider Datenquellen lassen sich Wechsel zwischen Online- und Offline-Kanälen von
Kaufinteressierten nachvollziehen und gegebenenfalls nachjustieren, um eine effiziente
und zielgerichtete Kommunikation der Nachhaltigkeitsinformationen eines Unter-
nehmens sicherzustellen und den Kundenservice zu verbessern. Daran angrenzend
können Daten zu Marketingkampagnen, wie die Anzahl der Klickzahlen einer E-Mail
oder eines Beitrages in den Sozialen Medien, zurate gezogen werden. Daten zu Kunden-
beschwerden, die sich auf fehlende oder misslungene Maßnahmen beziehen, dienen als
weitere Beobachtungsdaten.
Die zweite Datengruppe umfasst Umfragedaten zu Auftraggebenden und Personen
mit verschiedenster Expertise im Bereich Nachhaltigkeit. Aufgrund ihrer flexiblen
Handhabung sind Umfragen leicht skalierbar – über diverse Endgeräte, Gruppen und
Regionen hinweg – und lassen eine umfangreiche Datenerfassung (wie Einstellungen,
Verhaltensweisen und Kennzahlen) zu Nachhaltigkeitsthemen zu. Eine Herausforderung
ist dabei, dass das Umfragedesign das Fragenverständnis und damit auch das Antwort-
verhalten von Befragten entscheidend beeinflusst. So kann die Reihenfolge der Fragen
bestimmte Erwartungen erwecken und zur Auswahl gegebene Antwortmöglichkeiten
von Individuen unterschiedlich verstanden werden. Weiterhin können Befragte aufgrund
ihres subjektiven Fragenverständnisses potenziell inakkurate Angaben machen oder
Fragen systematisch auslassen. Hier gilt es zu verstehen, welche Unterschiede zwischen
antwortenden und nicht antwortenden Befragten bestehen, um Verzerrungen in den
Daten zu vermeiden.
Die dritte Datengruppe bilden Datenpunkte des aus Nachhaltigkeitsdaten eines Unter-
nehmens generierten Nachhaltigkeitsreports. Angaben zu ökologischen Zielen, Hand-
lungsansätzen und Herausforderungen in der Umsetzung können mit weiteren Daten wie
Veröffentlichungsdatum, Unternehmenskennzahlen wie Informationen zum Anlagen-
bestand und Beschäftigtenzahlen sowie externen Daten wie Pressereports und Feedback
in Sozialen Medien angereichert werden. Eine Auswertung der Daten erfolgt per Text-
analyse und weiteren analytischen Ansätzen, um Aufschlüsse über das Öffentlichkeits-
bild eines Unternehmens, die Produktnachfrage und dessen Entwicklung zu erhalten. Ein
ML-basierter Ansatz bietet die Möglichkeit, Aufschluss über die Vergleichbarkeit von
Nachhaltigkeitsreports über Unternehmen hinweg zu erhalten und mögliche Wege hin zu
einer übergreifenden Standardisierung der Reports aufzuzeigen.
88 A. Paul

4 Herausforderungen bei der Erfassung von


Nachhaltigkeitsdaten

Während mehr Unternehmen ihren ökologischen Fußabdruck quantifizieren, äußern


Wissenschaft und Finanzwirtschaft vermehrt Kritik an der Qualität und Interpretier-
barkeit der erfassten Nachhaltigkeitsdaten (Mayer 2008; Pinchot und Christianson
2019). Um ein umfassendes Verständnis dieser Beobachtung zu gewinnen, werden im
ersten Teil des Abschnitts sechs Kriterien vorgestellt, um Datenqualität zu messen. Im
Anschluss wird betrachtet, inwiefern aktuell verfügbare Nachhaltigkeitsdaten diese
Bewertungskriterien erfüllen.
Die Basis einer aussagekräftigen Analyse von Nachhaltigkeitsdaten stellen eine aus-
reichende Datenverfügbarkeit und Datenqualität dar. Zur Evaluierung der Datenqualität
werden zumeist sechs Kriterien betrachtet: Vollständigkeit, Eindeutigkeit, Konsistenz,
Validität, Genauigkeit und Aktualität.
Vollständigkeit stellt die Frage, ob alle benötigten Daten vorhanden sind. Dabei
kann zwischen allgemeiner Vollständigkeit (sind die Daten erhoben und verfügbar?)
und spezifischer Datenverfügbarkeit (sind die vorhandenen Daten lesbar und zeigen sie
einen ausreichenden Füllgrad?) unterschieden werden. Eindeutigkeit bezieht sich auf
Duplikate, während Konsistenz die Nachvollziehbarkeit einzelner Beobachtungen über
Datenquellen hinweg beschreibt. Validität beleuchtet, ob die Daten gesetzten Standards
bezüglich des Datentyps und der Datenwerte entsprechen. Das Kriterium der Genauig-
keit hinterfragt die Glaubwürdigkeit der Daten zur Abbildung realer Zustände. Der
Aspekt der Aktualität prüft, ob Daten zum erwarteten Zeitpunkt verfügbar und auf dem
neuesten Stand sind (Government Data Quality Hub 2021).
Nachhaltigkeitsdaten werden von jedem Unternehmen oder Unternehmensver-
bund einzeln erfasst, ausgewertet und publiziert. Wie in Abschn. 1 erwähnt, unterliegen
dabei weder Lageberichte von berichtspflichtigen noch freiwillig berichtenden Unter-
nehmen spezifischen Normen und Data Governance-Prozessen. Pinchot und Christianson
(2019) untersuchen die Qualität von Nachhaltigkeitsdaten in einer Umfrage unter 30
ESG-Investierenden von 25 US-amerikanischen Finanzunternehmen. Sie konnten vier
Hauptkritikpunkte identifizierten: Der erste Punkt betrifft die Unvollständigkeit der
Nachhaltigkeitsdaten. Lücken in der Berichterstattung und eine fehlende Abdeckung
aller Unternehmenseinheiten erschweren eine vollständige Evaluierung eines Unter-
nehmens. Zweitens wird der Qualitätsaspekt der Validität genannt. So sind Berichts-
metriken oft inkonsistent. Eine Vergleichbarkeit über Unternehmen hinweg und über die
Zeit ist beeinträchtigt. Als dritter Schwachpunkt wird die quantitative Belastbarkeit der
Fragen zum Thema Nachhaltigkeit aufgeführt. Dabei wird insbesondere die verbreitete
Nutzung von Entscheidungsfragen genannt, die viel Interpretationsspielraum lassen
und die Aussagekraft der Indikatoren schmälern. Als letzten Punkt nennen die befragten
Investierenden die inkonsistente und intransparente Auswertung der Nachhaltigkeits-
daten, die zumeist auf zahlreichen impliziten Annahmen beruht. Insgesamt wird deutlich,
Daten als Schlüsselkomponente von Anwendungen … 89

dass die Schwachpunkte der Nachhaltigkeitsberichterstattung nicht allein in der Verfüg-


barkeit und Qualität von Daten liegen, sondern sich auch auf die schwer nachvollzieh-
bare Auswertung dieser beziehen. Diese Aussage wird durch weitere Studien unterstützt,
die des Weiteren eine divergierende Skalierung der Daten, die Wahl der System-
annahmen zur Erfassung der Daten sowie die Anwendung von Datentransformationen
wie Gewichtung und Aggregation als weitere Kritikpunkte identifizieren (Mayer 2008;
Reid und Rout 2020).

5 Datenanalyse mit Künstlicher Intelligenz

Eine Möglichkeit Nachhaltigkeitsdaten auszuwerten und neue Analysepotenziale zu


realisieren ist Maschinelles Lernen (ML). Während der Ablauf eines ML-Projekts nicht
spezifisch für den Kontext der Nachhaltigkeit ist, verdeutlicht dieser dennoch, welche
Anforderungen an (zukünftige) Nachhaltigkeitsdaten gestellt werden. In Anlehnung an
Kozyrkov (2019) gliedert Abb. 2 den Prozess eines ML-Projekts in acht Schritte: Ziel-
setzung, Datenverfügbarkeit, Datenaufbereitung, Datenexploration, Training, Test,
Erweiterung zum Datenprodukt und Instandhaltung.
Der erste Schritt eines ML-Projekts, die Zielsetzung, umfasst das Ausloten und die
klare Abgrenzung der Fragestellung. Hierzu zählen das umfassende Verständnis der
Fragestellung, das Prüfen der Datenverfügbarkeit und der notwendigen Tools sowie die
Identifikation möglicher Lösungsansätze. Eine zunehmende Datenbasis von Nachhaltig-
keitsdaten – in Abhängigkeit der Datenqualität – erweitert das Analysespektrum. Eine
Schlüsselfrage ist dennoch, ob Maschinelles Lernen einen tatsächlichen Mehrwert zur
Analyse bieten kann. Trotz Enthusiasmus und möglicher positiver Außenwirkung sollten
einfache Lösungen komplexeren und oft kostspieligeren Ansätzen wie dem Maschinellen
Lernen vorgezogen werden, wenn das gleiche Resultat erzielt werden kann. Einher-
gehend damit wird im Schritt der Zielsetzung definiert, wie der Projekterfolg bemessen
wird und welchen Minimalerfolg das Projekt zur Weiterentwicklung hin zu einem Daten-
produkt zu erfüllen hat.

Abb. 2 Prozess eines Analyseprojekts mit Maschinellem Lernen. (Quelle: In Anlehnung an


Kozyrkov 2019)
90 A. Paul

Im Schritt der Datenverfügbarkeit werden alle relevanten Daten zusammengetragen,


kombiniert und selektiert. Nachhaltigkeitsdaten können hier mit anderen Unternehmens-
daten wie Kosten- und Umsatzinformationen vereint werden. Ein besonderes Augenmerk
liegt auf dem gewählten Aggregationslevel des Hauptdatensatzes, welches sich aus der
Fragestellung bestimmt. So geben beispielsweise Emissionsdaten auf regionaler Ebene
nur begrenzt Auskunft über die Emissionen einzelner Standorte, insbesondere wenn die
Variation zwischen den Standorten sehr hoch ist. Dieser Projektschritt umfasst auch erste
Datenqualitätsanalysen. Wenn Hauptvariablen zahlreiche fehlende oder inkonsistente
Werte aufweisen oder, je nach Fragestellung, keine historischen Daten verfügbar sind,
ist die Suche nach alternativen Datenquellen wichtig. Falls der grundlegende Prozess der
Datengenerierung keine Korrektur zulässt und keine alternative Datenquelle gefunden
werden kann, kann dies das vorzeitige Projektende bedeuten. Dabei ist jedoch hervor-
zuheben, dass jeder der acht Schritte – insbesondere mit vertiefter Dateneinsicht – einen
Projektabbruch oder eine Umorientierung des Projektfokus zulässt.
Der dritte Schritt umfasst die Datenaufbereitung und macht deutlich, warum nicht nur
die Qualität, sondern auch die Quantität der Daten relevant ist. In diesem Schritt wird
die Gesamtheit des zu analysierenden Hauptdatensatzes in zwei Teile unterteilt – einen
Trainings- und Testdatensatz. Während die Trainingsdaten zur Evaluierung der Modell-
qualität innerhalb der Trainingsphase genutzt werden, dienen die Testdaten der Aus-
wertung des finalen Analysemodells und somit zur abschließenden Erfolgsprüfung des
Modells. Die Idee ist, dass das Modell des Maschinellen Lernens nur anhand eines Teils
der Daten lernt. Die Testdaten erlauben somit einzuschätzen, ob das Modell auch eine
Vorhersagekraft für zuvor nicht gesehene Daten hat und somit allgemeingültig ist. Die
Güte der Anwendung auf die Testdaten ist entscheidend zur Bemessung des Projekt-
erfolgs.
Nach Aufteilung der Daten schließt sich die Datenexploration an. Hier gilt es, den
Datensatz näher kennenzulernen. Dabei werden zumeist deskriptive Statistiken aus-
gegeben, Abbildungen zum Erkennen erster Zusammenhänge erstellt, die Datenqualität
auf Inkonsistenzen und Fehler untersucht sowie bestehende Variablen zu neuen Kenn-
zahlen vereint und erweitert. Diese Phase des Projekts ist stark durch den Austausch mit
verschiedenen Domänen und Expertengruppen geprägt. Ziel ist es, das „Was“ und das
„Wozu“ der Daten zu verstehen und zu hinterfragen.
Im Projektschritt des Trainings werden verschiedene Algorithmen des Maschinellen
Lernens auf die Trainingsdaten angewendet, um ein Modell zu erstellen. Es wird das
Modell gewählt, welches die bestmöglichen Ergebnisse erzielt. Die Grundidee ist es
Muster in den Daten zu erkennen und diese mithilfe des ML-Modells so repräsentativ
wie möglich abzubilden. Dabei kann das Modell entweder überwacht oder unbewacht
lernen. Ersterer Lerntyp beschreibt den Fall, in dem die Daten bereits ein Label auf-
weisen. Als Beispiel dient die vorausschauende Instandhaltung, bei der auf Basis
historischer Anlagedaten – mit bereits bekannten Wartungs- und Ausfallzeitpunkten von
Anlagen – zukünftige Wartungsbedarfe und Ausfallwahrscheinlichkeiten vorhergesagt
Daten als Schlüsselkomponente von Anwendungen … 91

werden. Beim unbewachten Lernen werden Strukturen ohne vorgegebenes Label erkannt
(Salian 2018).
Um die Güte eines Modells final zu testen wird das trainierte Modell auf die Test-
daten angewendet und, ohne weitere Änderungen an den Daten vorzunehmen, die
jeweilige Leistungsmetrik evaluiert. Die Wahl der Leistungsmetrik bestimmt die Modell-
evaluierung essenziell. So müssen Leistungsmetriken, die aus analytischer Sicht relevant
sind, nicht unbedingt mit der Leistungsmetrik aus Geschäftssicht übereinstimmen.
Ein Beispiel bietet die absolute Abweichung vom Label. Während aus ML-Sicht die
Abweichung vom Label (Anlage fällt aus oder nicht) so gering wie möglich sein soll,
kann aus Geschäftssicht, je nach Kontext, eine höhere Falsch-Negativ-Rate (Anlage wird
nicht gewartet und fällt unvorhergesehen aus) mit deutlich negativeren Konsequenzen
einhergehen als eine Falsch-Positiv-Rate (falsch vorhergesagter Ausfall einer Anlage
und Anlage wird unnötig gewartet). In der Summe lohnt es sich verschiedene Metriken
zur Evaluierung eines ML-Modells heranzuziehen. Sollte das Modell die Trainings-
daten gut abbilden, die zufällig bestimmten Testdaten jedoch nur schwer vorhersagen
können, so ist das Modell eingeschränkt übertragbar und es liegt eine Überanpassung an
die Trainingsdaten (Overfitting) vor. In diesem Fall muss der Schritt des Trainings noch
einmal wiederholt und die Modellgüte mit neu generierten Testdaten erneut bemessen
werden.1
Sollte das ML-Modell den im ersten Schritt definierten Projekterfolg erfüllen, so kann
die Lösung hin zu einem Datenprodukt verstetigt werden. Nicht alle datengetriebenen
Lösungen erfahren diesen Schritt. Dennoch bieten die ersten sechs Prozessschritte des
Maschinellen Lernens viele Einsichten. So kann es sein, dass weitere Daten erhoben
oder Geschäftsprozesse noch besser verstanden werden müssen, um diese algorithmisch
abzubilden. Auch wird die erste Erprobung einer KI-Lösung oft im Rahmen einer Mach-
barkeitsstudie (Proof of Concept) untersucht. Ein Abbruch des Projekts nach Evaluierung
der Machbarkeitsstudie sowie Anpassungen im Folgeverlauf des Projekts sind valide
Optionen, um sicherzustellen, dass die ML-Lösung Mehrwert generiert und dieser
voll extrahiert werden kann. Ist eine Erweiterung hin zu einem Datenprodukt geplant,
so müssen Aspekte wie die Skalierbarkeit der Modelle, die Kontinuität von Daten-
flüssen, die Automatisierung von Trainingsprozessen, Testprozesse zur Sicherung der
Prozessverlässlichkeit und die Integration in die bestehende Dateninfrastruktur beachtet
werden. Auch die persistente Einbettung in die Arbeitsprozesse von Beschäftigten und in
Kundeninteraktionen ist von Relevanz und sollte mit A/B-Tests bestmöglich untersucht

1 Um die Modellevaluierung so objektiv wie möglich zu gestalten, wird allgemein nicht nur
zwischen Trainings- und Testdaten unterschieden, sondern auch ein Validierungsdatensatz ver-
wendet. Während die Trainings- und Validierungsdatensätze zum Trainieren des Modells ver-
wendet werden, findet die finale Evaluierung (einmalig) mit zuvor komplett ungesehenen Testdaten
statt. Zur Vereinfachung des ML-Prozesses wird sich in der hier verwendeten Beschreibung nur auf
Trainings- und Testdaten bezogen.
92 A. Paul

und gesteuert werden.2 Im letzten Schritt des ML- Projekts, der Instandhaltung, muss der
kontinuierliche Einsatz und die Wartung des Datenprodukts sichergestellt werden. Dieser
Projektschritt dauert über die Lebensdauer des Datenprodukts an.

6 Fallstricke in der Anwendung von Künstlicher Intelligenz

Wie im vorherigen Kapitel beschrieben sind der Dateninput und die Wahl und
Implementierung des Modells in Kombination mit Geschäftswissen und statistischen
Kenntnissen die Schlüsselkomponenten eines Projekts mit Maschinellem Lernen. Bei
der Umsetzung der Projekte gibt es bezugnehmend auf jede der Komponenten Fall-
stricke, die zu einer Fehlinterpretation und -kalkulation der Ergebnisse führen können.
Im Folgenden möchte ich auf fünf Fallstricke eingehen:

1. Unrealistische Annahmen
[Betroffene Komponenten: Dateninput, Geschäftswissen, statistische Kenntnisse]
Die ML-Modelle werden auf Basis der eingespeisten Daten optimiert. Sofern sich die
Daten auf einen bestimmten Bereich oder eine Gruppe beziehen, sind die damit ein-
hergehenden Modellannahmen nicht notwendigerweise direkt auf andere Bereiche
und Gruppen übertragbar. Eine bedingungslose Skalierbarkeit der Ergebnisse ist
somit nicht geben. Diese Einschränkung gilt auch über verschiedene Zeitperioden
hinweg – insbesondere, wenn es sich im Rahmen einer Machbarkeitsstudie um
einen einmaligen Datenextrakt handelt. So sinkt die Vorhersagegüte eines Modells
im Rahmen einer Zeitreihenanalyse je weiter der Vorhersagezeitpunkt im Vergleich
zum letzten Datenpunkt in der Zukunft liegt. Darüber hinaus können unerwartete
und zuvor ungesehene Ereignisse nicht unbedingt prognostiziert werden. Ein ent-
scheidender Einschnitt wie die aktuelle Coronapandemie ist nur vorhersagbar, wenn
im Modell enthaltene Indikatoren bereits zuvor darauf hinweisen. Angrenzend dazu
sind erhobene Datenpunkte während der Pandemie, je nach Kontext, nur schwer nutz-
bar um reguläre Entwicklungen und Trends vorherzusagen. Die gewonnen Einsichten
eines Modells, das aus Daten während der Coronapandemie lernt, würden sich in
diesem Fall nur teilweise oder gar nicht auf die Testdaten (Zeit nach der Pandemie)
übertragen lassen (siehe Erklärung zum Overfitting in Abschn. 5).
2. Zu hohe Komplexität
[Betroffene Komponenten: Wahl des ML-Modells, statistische Kenntnisse]

2 A/B-Testsstellen eine Form eines kontrollierten Experiments dar, bei dem zwei verschiedene
Versionen einer Website, einer Benutzeroberfläche, eines Preises oder anderer Faktoren
randomisiert einer Nutzergruppe zugeordnet werden und auf Basis ihres Verhaltens gegeneinander
abgewogen werden (Gallo 2017).
Daten als Schlüsselkomponente von Anwendungen … 93

Auch wenn die Anwendung von KI neue Potenziale in der Datenanalyse eröffnet, so
ist die erste Frage einer jeden Zielsetzungsphase eines Projekts mit Maschinellem
Lernen, ob eine Lösung eher mit einfachen analytischen Methoden wie deskriptiver
Statistik anstatt einem komplexeren ML-Ansatz erzielt werden kann. Weiterhin sinkt
mit zunehmender Komplexität des Analyseansatzes zumeist die Erklärbarkeit der
erzielten Ergebnisse. Warum hat die KI eine bestimmte Vorhersage getroffen? Wie
sicher ist diese Entscheidung und welche Faktoren haben diese beeinflusst? Wie
können Entscheidungsfehler korrigiert werden? Ist die Entscheidung ethisch gerecht?
All dies sind Fragen, die mit Erklärbarem Maschinenlernen (Explainable AI) an
Bedeutung gewinnen.
Während einige ML-Algorithmen wie Entscheidungsbäume relativ nachvollziehbar
sind, weisen komplexere Ansätze wie Neurale Netze eine deutlich geringere Trans-
parenz auf. Einen ersten Einblick in die Logik des berechneten Modells erlauben
Techniken zur Visualisierung der Relevanz von Einflussfaktoren. Weiterhin bietet
sich die Analyse von Was-wäre-wenn-Szenarien an, um die Nachvollziehbarkeit
der Entscheidungen eines ML-Algorithmus zu erhöhen. Während Datenlösungen
im medizinischen Bereich gegebenenfalls eine höhere Transparenz als diejenigen in
der Nachhaltigkeit erfordern, so sind die Möglichkeiten jedoch bisher begrenzt und
aktuell im Fokus der Forschung (Gohel et al. 2021).
3. Verzerrungen in den Daten
[Betroffene Komponenten: Dateninput, statistische Kenntnisse]
Das aktive Datenverständnis spielt eine wichtige Rolle zur Analyse, kann jedoch
durch unbekannte Verzerrungen in den Daten beeinträchtigt werden. Soziale
Ungleichgewichte in der Datenerfassung und Stichprobenrestriktionen hin zur Über-
repräsentation einer bestimmten Produktgruppe, die die Repräsentativität der Daten
einschränken, bieten Beispiele, die die Interpretierbarkeit der Daten und finalen
Analyseergebnisse beeinflussen (Omowole 2021). Dieser Zusammenhang gilt auch
intertemporal. So können auch scheinbar inklusive Daten aufgrund historischer
Ungleichgewichte zu einer Verzerrung von ML-Ergebnissen führen.3
Während Daten und Algorithmen umfassender gestaltet werden können, so werden
Datenverzerrungen durch kognitive Verzerrungen im Denken und Handeln verschärft.
Kognitive Verzerrungen sind das Ergebnis mentaler Abkürzungen, die unsere Ent-
scheidungsfindung (oft unbewusst) beeinflussen (zum Beispiel Kahneman 2011).
Dementsprechend entdecken wir Verzerrungen in den Daten auch bei umsichtigem

3 Zum Beispiel können KI-basierte Einstellungsprozesse männliche gegenüber weiblichen


Bewerbenden vorziehen, wenn sie mit Daten von Bewerbenden trainiert werden, die historisch
gesehen eher männlich waren (Dastin 2018). Auch bei Gesichtserkennungssystemen (Hardesty
2018), individualisierter Werbung (Simonite 2015) und bei Hypothekengenehmigungen (Blattner
und Nelson 2021) konnten aufgrund von verzerrten Daten diskriminierende Entscheidungen der KI
aufgezeigt werden.
94 A. Paul

Denken erst sehr spät oder gar nicht. Die Ergebnisse der ML-Lösung spiegeln diese
fehlende Vielfalt wider.
Beispielfragen, die dabei helfen können, Verzerrungen in den Daten zu erkennen sind:
Welche Daten wurden mit welchem Zweck zur Verfügung gestellt? Wie werden die
Daten in den internen Betriebssystemen aufbereitet und archiviert? Welche Kunden-
gruppe fordert aktiv Auskunft über die Nachhaltigkeit der gekauften Produkte und
Dienstleistungen ein und was sagt dies über andere Kunden aus – andere bestehende
und potenzielle Kunden? Welche Nachhaltigkeitspotenziale wurden bereits in
bestimmten Unternehmensbereichen realisiert und lässt dies Schlussfolgerungen auf
weitere Bereiche zu? Durch das Stellen der richtigen Fragen können wir die Inhalte
und Herkunft von Daten besser verstehen und somit deren Einfluss auf vergangene,
aktuelle und zukünftige ML-Lösungen in den Kontext setzen.
4. Scheinkorrelation
[Betroffene Komponenten: statistische Kenntnisse]
Scheinkorrelation beschreibt das Phänomen, dass zwei Variablen statistisch gemessen
miteinander zusammenhängen, dies aber auf eine dritte, nicht beobachtete Variable
wie einem gemeinsamen Zeittrend zurückzuführen ist (Haig 2003). Beispielsweise
kann eine positive Korrelation zwischen der Anzahl neuer Beschäftigter und dem Ein-
satz nachhaltiger Technologien beobachtet werden. Der zunehmende Technologie-
einsatz kann Neueinstellungen bedingen. Oder forcieren die neuen Beschäftigten
die Anwendung nachhaltiger Technologien? Eine dritte Variable, die steigende
Nachfrage nach nachhaltig produzierten Produkten eines Unternehmens, verursacht
höchstwahrscheinlich den Anstieg beider Variablen. Die Darstellung zeigt, dass
Korrelation nicht mit Kausalität einhergeht, kausal zusammenhängende Variablen
jedoch auch korreliert sind. Scheinkorrelation erklärt auch den Zusammenhang
zweier unabhängiger Variablen, die relativ bemessen sind und einen gemeinsamen
Nenner aufweisen. So wäre eine Korrelationsmessung zwischen der Anzahl neuer
Beschäftigter und dem Einsatz nachhaltiger Technologien auch ungleich null, wenn
beide Kennzahlen pro Beschäftigten berechnet würden.
5. Unklare Definition der Leistungsmetrik
[Betroffene Komponenten: Geschäftswissen, statistische Kenntnisse]
Bei der Definition der Leistungsmetrik eines ML-Modells ist wichtig, dass die
gewählte Kennzahl das gewünschte Resultat beziehungsweise den anvisierten Ist-
zustand widerspiegelt. Wird, als Beispiel, die Einsparung von Treibhausgas-
emissionen durch die Einsetzung einer bestimmten Technologie approximiert, kann
die Optimierung des Technologieeinsatzes mithilfe eines ML-Modells dazu führen,
dass die Technologie vermehrt eingesetzt wird, aber aufgrund von Nebeneffekten oder
anderen Faktoren die Treibhausgasemissionen dennoch steigen. Der Grund dafür ist,
dass der Technologieeinsatz nur als Näherungsvariable für die Emissionen eingesetzt
wurde.
Daten als Schlüsselkomponente von Anwendungen … 95

7 Zusammenfassung und Handlungsempfehlungen

Dieser Beitrag zeigt, wie vielfältig die Anreize und Herausforderungen von Unter-
nehmen sind Nachhaltigkeitsdaten zu erheben. Erfassungsprobleme reichen dabei von
bewusster Intransparenz bis hin zu unbewussten Datenfehlern wie eine inkonsistente
Ausgestaltung von Datenerfassungsfragen und schwer zu verstehenden Kennzahlen.
Neben der Erstellung von Nachhaltigkeitsreports eröffnen Methoden Künstlicher
Intelligenz neue und bisher zumeist nicht realisierte Potenziale in der Auswertung von
Nachhaltigkeitsdaten. Anwendungsbeispiele erstrecken sich entlang des gesamten
Geschäftsprozesses – vom Ressourceneinsatz über die Produktion und den Trans-
port hin zur Produktnutzung. Dennoch gilt auch bei der potenziellen Umsetzung eines
ML-Projekts, dass der Mehrwert die Kosten überwiegen sollte. Je nach Datenproblem
kann eine Lösung mithilfe einfacher Analyseansätze effizienter und durch eine spar-
samere Rechenleistung kostensparender im Vergleich zu Maschinellem Lernen sein. Ein
umfangreiches Datenverständnis und eine umsichtige Interpretation der Analyseergeb-
nisse sind essenziell, um Fallstricke wie Scheinkorrelation und Verzerrungen in den
Daten adressieren zu können.
Ohne einen Anspruch auf Vollständigkeit zu erheben lassen sich aus den voran-
gegangenen Ausführungen mindestens drei Handlungsempfehlungen für neu zu
realisierende KI-Projekte im Bereich der Nachhaltigkeit ableiten: Erstens, noch bevor
einzelne ML-Lösungen oder gar eine KI-Strategie in Betracht gezogen werden, sollte
eine klare Datenstrategie vorhanden sein und aktiv im Unternehmen umgesetzt werden.
Somit kann ein Überblick über alle Datenquellen geschaffen und Zuständigkeiten zur
Erhöhung und Wahrung der Datenqualität festgelegt werden. Darüber hinaus lassen
sich auch Lücken in der Datenerfassung von Unternehmensprozessen schließen, die
für zukünftige Datenlösungen hinderlich wären. Der zweite Punkt umfasst den aktiven
Wissensaustausch zu den erfassten Daten und zum analytischen Problem. KI-Experten
bringen die Werkzeuge und das Wissen zur Anwendung von Maschinellem Lernen
mit. Diese können jedoch nur im ständigen Dialog mit Personen mit Datenbank- und
Domänenexpertise und weiteren Interessensgruppen wie Kaufinteressierten zielgerichtet
angewendet werden. Die größte Herausforderung dabei ist das gemeinsame Ver-
ständnis der verschiedenen Parteien. Ein weiterer wichtiger Punkt ist das Erwartungs-
management. Ein KI-Projekt ist kein Universalwerkzeug, das ohne sinnvollen
Dateninput und ohne eine plausible Definition der Annahmen bedingungslos erfolgsver-
sprechende Erkenntnisse und Lösungen liefert. Die geschäftsgetriebene Problemstellung
muss klar durchdrungen werden und die relevanten Daten verfügbar sein, um qualitativ
hochwertige Datenlösungen zu generieren. Der gesamte Projektablauf des Maschinellen
Lernens erfolgt iterativ. Dies ermöglicht Schwachstellen in den Daten, der Vorgehens-
weise und im Austausch schnell zu erkennen und zu adressieren. Vor allem die Phase
der Datenaufbereitung kann sehr zeitaufwendig sein und nach dem Erhalt neuer Daten-
erkenntnisse eine mehrmalige Nachbearbeitung erfordern. Nicht jede Verzögerung im
96 A. Paul

Projektablauf ist daher vorhersehbar. Bei nicht ausreichender Analysegrundlage sollte


nicht vor erneuter Grundlagenarbeit wie der Erfassung neuer Daten zurückgeschreckt
werden, auch wenn diese Zeit bedarf. Somit kann die Produktivsetzung kostspieliger und
qualitativ minderwertiger ML-Anwendungen vermieden werden.

Literatur

Blattner L, Nelson, S (2021) How costly is noise? Data and disparities in consumer credit. arXiv
preprint arXiv:2105.07554
Copeland BJ (2022) Artificial Intelligence, Encyclopedia Britannica. https://www.britannica.com/
technology/artificial-intelligence/. Zugegriffen: 26. Jan. 2022
CSR-RUG (2017) Gesetz zur Stärkung der nichtfinanziellen Berichterstattung er Unternehmen in
ihren Lage- und Konzernlageberichten (CSR-Richtlinie-Umsetzungsgesetz) in der Fassung der
Bekanntmachung vom 18.4.2017. In: Bundesanzeiger Nr. 20, Bundesgesetzblatt Teil I
Dastin J (2018) Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G/.
Zugegriffen: 20. Jan. 2022
Davis-Peccoud J et al (2020) Sustainability is the Next Digital, Bain & company. https://www.
bain.com/insights/sustainability-is-the-next-digital/. Zugegriffen: 28. Jan. 2022
European Commission (2022) Corporate sustainability reporting. https://ec.europa.eu/info/
business-economy-euro/company-reporting-and-auditing/company-reporting/corporate-
sustainability-reporting_en/. Zugegriffen: 20. Jan. 2022
Gallo A (2017) A refresher on A/B testing. Harvard Business Review, Analytics and Data Science.
https://hbr.org/2017/06/a-refresher-on-ab-testing. Zugegriffen: 28. Jan. 2022
Gohel P et al (2021) Explainable AI: current status and future directions. arXiv preprint
arXiv:2107.07045
Government Data Quality Hub (2021) Meet the data quality dimensions. gov.uk. https://www.gov.
uk/government/news/meet-the-data-quality-dimensions/. Zugegriffen: 25. Jan. 2022
Griffiths S (2020) Why your internet habits are not as clean as you think. BBC Future. https://
www.bbc.com/future/article/20200305-why-your-internet-habits-are-not-as-clean-as-you-
think/. Zugegriffen: 28. Jan. 2022
Grünberg-Bochard J, Schaltegger S (2014) Zukunftsstrategie Nachhaltiges Unternehmertum. In:
von Müller C, Zinth CP (Hrsg) Managementperspektiven für die Zivilgesellschaft des 21. Jahr-
hunderts. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-02523-6_8/
Haig BD (2003) What is a spurious correlation? Understanding statistics: statistical issues in
psychology. Edu Soc Sci 2(2):125–132
Hardesty L (2018). Study finds gender and skin-type bias in commercial artificial-intelligence
systems. MIT News. https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-
intelligence-systems-0212/. Zugegriffen: 25. Jan. 2022
Hosch WL (2022) Machine learning, Encyclopedia Britannica. https://www.britannica.com/
technology/machine-learning/. Zugegriffen: 20. Jan. 2022
Kahneman D (2011) Thinking, fast and slow. Penguin, London
Kozyrkov C (2019) 12 steps to applied AI, a roadmap for every machine learning project, medium.
https://medium.com/swlh/12-steps-to-applied-ai-2fdad7fdcdf3/. Zugegriffen: 28. Jan. 2022
Mayer AL (2008) Strengths and weaknesses of common sustainability indices for multi-
dimensional systems. Environ Int 34(2):277–291
Daten als Schlüsselkomponente von Anwendungen … 97

Meadowcroft J (2022) Sustainability, Encyclopedia Britannica. https://www.britannica.com/


science/sustainability/. Zugegriffen: 22. Jan. 2022
Muster V, Schrader U (2016) Wenn die Mitarbeiter auf Nachhaltigkeit achten, Innovationen in Unter-
nehmen. Wirtschaftswoche. https://www.wiwo.de/technologie/green/innovationen-in-unternehmen-
wenn-die-mitarbeiter-auf-nachhaltigkeit-achten/13868980.html/. Zugegriffen: 29. Jan. 2022
Omowole A (2021) Research shows AI is often biased, Here’s how to make algorithms work for all
of us. World Economic Forum. https://www.weforum.org/agenda/2021/07/ai-machine-learning-
bias-discrimination/. Zugegriffen: 20. Jan. 2022
Pinchot A, Christianson G (2019) What investors want from sustainability data. World Resources
Institute. https://www.wri.org/insights/what-investors-want-sustainability-data/. Zugegriffen:
10. Jan. 2022
Ranking der Nachhaltigkeitsberichte (2018) Nachhaltigkeitsberichterstattung in Zeiten der
Berichtspflicht, Ergebnisse einer Befragung von Großunternehmen, KMU und sonstigen
berichtspflichtigen Unternehmen im Rahmen des Rankings der Nachhaltigkeitsberichte 2018.
Institut für ökologische Wirtschaftsforschung und future e. V. – verantwortung unternehmen
(Hrsg), Berlin
Ranking der Nachhaltigkeitsberichte (2021a) Anforderungen an die Nachhaltigkeitsbericht-
erstattung, Kriterien und Bewertungsmethode im Ranking der Nachhaltigkeitberichte 2021a
von IÖW und future. Institut für ökologische Wirtschaftsforschung und future e. V. – ver-
antwortung unternehmen (Hrsg), Berlin
Ranking der Nachhaltigkeitsberichte (2021b) Anforderungen an die Nachhaltigkeitsbericht-
erstattung - Tabellenformat, Vollständiges Kriterienset für alle Branchen und KMU. Institut für
ökologische Wirtschaftsforschung und future e. V. – verantwortung unternehmen (Hrsg), Berlin
Reid J, Rout M (2020) Developing sustainability indicators – the need for radical transparency.
Ecol Ind 110:105941
Salian I (2018) SuperVize Me: What’s the difference between supervised, unsupervised, semi-
supervised and reinforcement learning? nvidia blog. https://blogs.nvidia.com/blog/2018/08/02/
supervised-unsupervised-learning/. Zugegriffen: 23. Jan. 2022
Schwenkenbecher J (2022) Wie sieht eine gute psychologische Studie aus? Spektrum.de. https://
www.spektrum.de/news/forschungspraxis-wie-sieht-eine-gute-psychologische-studie-aus/1970
152#Echobox=1643030038?utm_source=pocket-newtab-global-de-DE/. Zugegriffen: 26. Jan.
2022
Simonite T (2015) Probing the dark side of Google’s Ad-Targeting System. MIT Technology Review.
https://www.technologyreview.com/2015/07/06/110198/probing-the-dark-side-of-googles-ad-
targeting-system/. Zugegriffen: 30. Jan. 2022
Winston A (2021) Sustainable business went mainstream in 2021. Harvard Business Review,
Government. https://hbr.org/2021/12/sustainable-business-went-mainstream-in-2021/.
Zugegriffen: 28. Jan. 2022
98 A. Paul

Dr. Annemarie Paul ist Senior Data Scientistin, promovierte


Ökonomin und Mikroökonometrikerin, Speakerin, Meetup-
Organisatorin und Mentorin in Hamburg, Deutschland. Ihre
Passion ist es, reale Probleme mit Daten und Technologie ver-
ständlich zu machen. Sie weist eine neunjährige Erfahrung in
den Bereichen Data Science und Maschinellem Lernen in der
Forschung und verschiedenen Data Science Teams in der Privat-
wirtschaft auf. Aktuell entwickelt sie datengesteuerte Lösungen,
um Einblicke in das Kundenverhalten zu gewinnen, den Kunden-
service zu verbessern und Prozesse effizienter zu gestalten. Ihr
Interesse gilt auch der Erklärbarkeit von Künstlicher Intelligenz
(Explainable AI), der Automatisierung von Datenaufbereitungs-
prozessen und Machine Learning Operations (MLOps). Anne-
marie ist Mitbegründerin der AI Spotlight Series Nord, die
KI-Innovationen in Norddeutschland beleuchtet, und Mit-
organisatorin von Programmierworkshops. Als Mentorin berät sie
regelmäßig Berufseinsteigende und Startups auf ihrem Weg in das
Feld der Künstlichen Intelligenz.
Entscheidungsunterstützung zur
Auswahl einer geeigneten Blockchain-
Technologie mit einem Self-Enforcing
Network

Erik Karger, Phil Gonserkewitz und Christina Klüver

1 Einführung in die Blockchain-Technologie

Die Geburtsstunde der Blockchain kann in das Jahr 2008 verortet werden. In diesem
Jahr wurde die Grundidee der Blockchain erstmalig in dem Whitepaper zum Bitcoin
von Satoshi Nakamoto (2008) vorgeschlagen, einer Person oder Personengruppe mit
bislang ungeklärter Identität. Auch zehn Jahre später denken viele Leute fälschlicher-
weise noch immer, bei der Blockchain und dem Bitcoin handelt es sich um das ein und
dasselbe (Marr 2018). Technisch betrachtet ist die Blockchain keine vollständig neue
Erfindung, sondern vielmehr eine Kombination aus Technologien und Verfahren, welche
bereits vorher bestanden. So kommen bei der Blockchain etwa kryptografische Verfahren
wie Public-Key-Verschlüsselungsverfahren (Diffie und Hellmann 1976) oder Hash-
Funktionen (Merkle 1979, Rabin 1978) zum Einsatz.

E. Karger (*)
Dorsten, Deutschland
E-Mail: [email protected]
P. Gonserkewitz
Velbert, Deutschland
E-Mail: [email protected]
C. Klüver
Essen, Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 99
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis , Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_7
100 E. Karger et al.

Für den Begriff „Blockchain“ ist in den vergangenen Jahren eine Vielzahl ver-
schiedener Definitionen entstanden, wobei eine allgemeingültige und einheitliche
Definition bislang fehlt. Dem reinen Namen nach ist eine Blockchain eine „Kette aus
Blöcken“. Ein Block enthält dabei Daten, wie beispielsweise Ereignisse oder Trans-
aktionen, die in zusammengefasster Form in einem Block hinterlegt werden (Condos
et al. 2016). Die Blockchain kann daher als eine Art von Datenbank aufgefasst werden,
die eine Reihe von Datensätzen in einem Block zusammenfügt. Jeder Block ist an die
Reihe der übrigen Blöcke angefügt bzw. mit dieser verknüpft (Walport 2015).
Jedes Mitglied eines Blockchain-Netzwerkes, in der Literatur auch „Knoten“ oder
„Peer“ genannt, kann diese Blöcke sowie die Gültigkeit der darin gespeicherten Trans-
aktionen überprüfen sowie neue Transaktionen hinzufügen; das nachträgliche Verändern
ist jedoch unmöglich (Bogart und Rice 2015).
In anderen Definitionen handelt es sich bei der Blockchain um ein elektronisches
Hauptbuch bzw. Register für digitale Aufzeichnungen, Ereignisse oder Transaktionen,
die in zusammengefasster Form dargestellt werden (Condos et al. 2016). Im Falle der
Bitcoin-Blockchain handelt es sich bei den Daten in den Blöcken der Blockchain bei-
spielsweise um Transaktionen von Bitcoins zwischen einzelnen Nutzern des Bitcoin-
Netzwerkes. Darüber hinaus kann eine Unterscheidung getroffen werden zwischen der
Blockchain als Begriff für eine Datenstruktur, einen Algorithmus, ein Technologiepaket
oder als Oberbegriff für ein verteiltes Peer-to-Peer System „mit einem gemeinsamen
Einsatzgebiet“ (Drescher 2017, 53).
Iansiti und Lakhani (2017) sowie Casey und Wong (2017) fassen einige Merkmale
und Eigenschaften zusammen, welche für die Blockchain charakteristisch sind:

• Dezentrale Datenbank: Die gesamte Datenbank der Transaktionen, welche über die
Blockchain abgewickelt wurden, und ihre vollständige Historie sind für jeden Knoten
des Blockchain-Netzwerkes verfügbar und einsehbar. Keine einzelne Partei hat die
Kontrolle über die Daten und Informationen, und alle Mitglieder eines Blockchain-
Netzwerkes können die Transaktionen überprüfen, ohne eine vermittelnde Instanz
einschalten zu müssen.
• Irreversibilität der Einträge: Sobald eine Transaktion Teil der Blockchain ist, kann
sie nicht mehr verändert werden, da eine Transaktion mit jeder zuvor durchgeführten
Transaktion verknüpft ist. Dies wird durch verschiedene Ansätze und Algorithmen
ermöglicht, welche die Dauerhaftigkeit und korrekte Reihenfolge der Transaktionen
gewährleisten.
• Transparenz und Pseudonymität: Transaktionen und die damit verbundenen Werte
sind innerhalb eines Blockchain-Netzwerks für jedes Mitglied sichtbar. Die einzel-
nen Mitglieder einer Blockchain, auch Knoten genannt, haben eine alphanumerische
Adresse als eindeutige Kennung. Die Transaktionen finden zwischen diesen
Blockchain-Adressen statt.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 101

• Direkter Peer-to-Peer-Versand: Die Peers bzw. Mitglieder eines Blockchain-


Netzwerkes können direkt miteinander kommunizieren und Transaktionen aus-
tauschen. Dies beinhaltet auch die Speicherung und Weiterleitung von Informationen
an alle anderen Peers. Eine zentrale Instanz, welche die Abwicklung oder Weiter-
leitung von Transaktionen verantwortet, ist nicht erforderlich.

Die oben skizzierten Merkmale treffen in dieser Form auf die meisten Blockchains zu.
Es muss jedoch beachtet werden, dass es sich heutzutage, mehr als 10 Jahre nach der
erstmaligen Beschreibung des Bitcoins, bei der Blockchain längst nicht mehr um eine
einheitliche Technologie handelt. Stattdessen befinden sich weltweit viele tausend
Blockchain-Projekte in der Entwicklung. Diese Blockchains unterscheiden sich teil-
weise signifikant voneinander und weisen unterschiedliche technische Eigenschaften und
Merkmale auf (Tasca und Tessone 2019; Hameed et al. 2022).

Zugang zu Transaktionen und deren Validierung


Blockchains lassen sich grob anhand zweier Eigenschaften klassifizieren: Dem Zugang
zu Transaktionen sowie dem Zugang zur Transaktionsvalidierung (Peters und Panayi
2015; Ziolkowski et al. 2020).
Öffentliche Blockchains erlauben es jedem Teilnehmer, sowohl Transaktionen zu
erstellen als auch zu validieren. In privaten Blockchains können nur autorisierte Knoten
Transaktionen lesen, einreichen und validieren. Hybride Blockchains erlauben es jedem
Teilnehmer, neue Transaktionen zu lesen und einzureichen; allerdings können hier nur
autorisierte Knoten neue Transaktionen validieren.
In Tab. 1 werden die drei Blockchain-Typen und ihre Eigenschaften gegenüber-
gestellt.

Tab. 1  Zugang zu Transaktionsvalidierung


Privat Öffentlich
Zugang zu Transaktionen Öffentlich Hybride Blockchain: Alle Öffentliche Blockchain:
Knoten können Trans- Jeder Knoten kann sowohl
aktionen lesen und zum Transaktionen lesen, zum
Netzwerk hinzufügen. Netzwerk hinzufügen als
Jedoch können nur einige auch validieren
ausgewählte Knoten
Transaktionen validieren
Privat Private Blockchain: Ledig- Nicht möglich
lich ausgewählte Knoten
können Transaktionen
lesen, zum Netzwerk
hinzufügen oder validieren
102 E. Karger et al.

Konsensmechanismus
Eine weitere zentrale Eigenschaft, anhand derer Blockchain-Netzwerke sich unter-
scheiden, ist der zugrunde liegende Konsensmechanismus (Hellwig et al. 2021). Trans-
aktionen, welche in einem Blockchain-Netzwerk als valide angesehen werden, müssen in
den nächsten Block der Blockchain mitaufgenommen werden. Dies bedeutet, dass inner-
halb des Netzwerkes ein Konsens darüber gefunden werden muss, welche Transaktionen
gültig sind und fester Bestandteil der Blockchain werden sollen.
Der Konsensmechanismus soll für diesen Konsens bezüglich gültiger Transaktionen
innerhalb eines Blockchain-Netzwerkes sorgen. Das Bitcoin-Netzwerk nutzt dabei das
sogenannte Proof-of-Work (PoW) Schema als Konsensmechanismus (Zohar 2015;
Schlatt et al. 2016). Hierbei müssen die sogenannten „Miner“, also die Knoten des
Blockchain-Netzwerkes, welche die neuen Blöcke und die darin enthaltenen Trans-
aktionen validieren wollen, eine Menge an energieintensivem Rechenaufwand erbringen,
um einen bestimmten Hash-Wert zu finden. Weitere Details zu verschiedenen Konsens-
mechanismen werden in Abschn. 1.1 vorgestellt.
Die Blockchain-Technologie wird kontinuierlich weiterentwickelt und für eine Viel-
zahl von verschiedenen Anwendungsbereichen erprobt und verwendet. Die Blockchain
ist heutzutage nicht mehr nur auf digitale Kryptowährungen beschränkt, sondern wird
in verschiedensten Branchen, Szenarien und Anwendungsgebieten untersucht und
eingesetzt. Beispiele sind die Nutzung der Blockchain im Kontext von Smart Cities
(Esposito et al. 2021), dem Internet der Dinge (Alfrhan et al. 2021), im Gesundheits-
sektor (Rejeb et al. 2021) oder in der Musikindustrie (Baym et al. 2019).
Smart Contracts sind ein weiterer oft genannter Begriff im Zusammenhang mit der
Blockchain. Hierunter wird eine Software verstanden, die das Verhalten oder die Logik
von Verträgen imitiert, was es Unternehmen ermöglicht, die Vertragsbedingungen zu
automatisieren. Ein intelligenter Vertrag kann sich auf Datenfelder beziehen, die in
der Blockchain enthalten sind (Tapscott und Tapscott 2016). Solche „Verträge“ oder
Prozesse bedürfen keiner menschlichen Interpretation oder Intervention und können von
einem Computerprogramm ausgeführt werden (Franco 2015; Kushwaha et al. 2022).
Die Blockchain und auf ihr beruhende Kryptowährungen sorgen in verschiedenen
Zusammenhängen immer wieder auch für negative Schlagzeilen. Eine Schattenseite
von Kryptowährungen, insbesondere des Bitcoins, ist die Verwendung für kriminelle
Zwecke oder zur Geldwäsche. Kryptowährungen sind für Kriminelle aus einer Vielzahl
von Gründen attraktiv: Die Anonymität, die einfache Nutzung und die Tatsache, dass
die Nutzung von Kryptowährungen unabhängig von Grenzen oder Gesetzen ist, machen
sie geeignet für kriminelle Zwecke. Ein weiteres Problem, das im Zusammenhang mit
Bitcoin häufig genannt wird, ist der hohe Energieverbrauch. Wie bereits erwähnt müssen
die sogenannten Miner in PoW-Netzwerken einen Hash-Wert finden, der bestimmten
Anforderungen entspricht. Der dafür erforderliche Energieverbrauch hat ein immenses
Ausmaß erreicht, vergleichbar mit dem Verbrauch von Ländern wie Belgien oder den
Niederlanden.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 103

1.1 Konsensalgorithmen

Ein Konsensalgorithmus ist erforderlich, um einen „Konsens“ darüber zu schaffen,


welche Einträge und Transaktionen in einem Blockchain-Netzwerk valide sind und in
die Blockchain mitaufgenommen werden. Der Konsensalgorithmus legt Regeln dafür
fest, wie Daten in der Blockchain aktualisiert werden und verfolgt das Ziel, das System
fehlertolerant zu machen. Es gibt mittlerweile eine Vielzahl von verschiedenen Konsens-
algorithmen, welche sich hinsichtlich ihres Aufbaus und ihrer Funktionsweise stark
unterscheiden.
Die Wahl des Konsensverfahrens ist bei der Konzeption eines Blockchain-Netzwerkes
eine wichtige Entscheidung und wirkt sich direkt auf die Leistungsfähigkeit und Eigen-
schaften der Blockchain aus (Hao et al. 2018). Verschiedene Konsensalgorithmen haben
unterschiedliche Eigenschaften in Bezug auf Geschwindigkeit, Sicherheit, Energiever-
brauch und Transaktionskosten.
Die Betrachtung sämtlicher Konsensalgorithmen wäre für das Modell (Abschn. 1.2.2)
kontraproduktiv, da viele Konsensverfahren bislang nur theoretischer Natur sind. Wir
konzentrieren uns daher auf diejenigen, die sich bereits in der Fachliteratur und in der
Praxis bewährt haben.

Proof of Work (PoW)


Das PoW-Verfahren ist der wohl bekannteste Konsensalgorithmus und bildet die
Grundlage von Bitcoin und Ethereum, den derzeit wichtigsten und populärsten
Blockchain-Systemen. Bei diesem Konsensalgorithmus findet ein Wettbewerb zwischen
verschiedenen Knoten statt, die Rechenleistung bereitstellen (Kaur et al. 2021). Sobald
ein Knoten das mathematische Rätsel gelöst hat, wird das Ergebnis an das Netzwerk
gesendet und andere Knoten können die Korrektheit leicht und ohne viel Rechenauf-
wand überprüfen (Bashar et al. 2019). Zudem erhält der Knoten, der das Problem gelöst
hat, eine Belohnung (Mingxiao et al. 2017). Der Prozess des Findens einer Lösung wird
auch als „Minen“ bezeichnet. Diese wird verwendet, um ein mathematisches Problem
zu lösen. Je höher die eingesetzte Rechenleistung eines Knotens ist, desto höher ist die
Chance, die Belohnung zu erhalten.
Da für den Mining-Prozess viel Rechenleistung benötigt wird, werden leistungsfähige
Grafikkarten oder im besten Fall spezielle Mining-Hardware benötigt. Insbesondere da
nach dem Mining-Prozess nur ein Knoten die Belohnung erhält und die restliche Energie
verschwendet wird, kann dieser Prozess als nicht nachhaltig bezeichnet werden (Monrat
et al. 2019). Einige Mining-Datenzentren wurden sogar in der Nähe von Wasserkraft-
werken gebaut, um Ressourcen zu sparen (Wang et al. 2020).
Besondere Vorteile sind die dezentrale Struktur und die Skalierbarkeit der Knoten-
punkte (Bamakan et al. 2020). Auch wenn das PoW-Verfahren als relativ sicher gilt,
ist die Performance recht gering. Im Bitcoin-Netzwerk können beispielsweise etwa
7–30 Transaktionen pro Sekunde ausgeführt werden (Xiao et al. 2020), wobei die
104 E. Karger et al.

Geschwindigkeit leicht variieren kann. Es dauert ca. 10 min, einen neuen Block mit
Transaktionen zu validieren; dies ist im Vergleich zu anderen Konsensalgorithmen
sehr langsam (Naz und Lee 2020). Aus diesem Grund ist dieser Algorithmus nicht für
Anwendungsfälle geeignet, in denen viele Transaktionen durchgeführt werden müssen
(Bamakan et al. 2020).

Proof of Stake (PoS)


Der PoS-Algorithmus ist als ressourcenschonende Alternative zum PoW-Verfahren ent-
standen (Chaudhry und Yousaf 2018). Dem PoS-Protokoll liegt die Idee zugrunde, dass
Nutzer mit einer hohen Anzahl digitaler Münzen bzw. Coins tendenziell vertrauens-
würdiger sind. Je mehr Münzen ein Teilnehmer besitzt, desto höher ist die Wahrschein-
lichkeit, dass er den nächsten Block validiert (Wang et al. 2020). Unabhängig davon
wird der Miner des nächsten Blocks nach dem Zufallsprinzip ausgewählt (Chaudhry und
Yousaf 2018). PoS ist generell für alle Blockchain-Systeme geeignet, welche öffentlich
sind (Mingxiao et al. 2017).
Der große Vorteil von PoS gegenüber PoW ist die Einsparung von Ressourcen. Es
wird keine leistungsstarke Hardware benötigt, da die Hinterlegung der Währung das
Mining ersetzt (Naz und Lee 2020). Laut Kaur et al. (2021) wird der Energieverbrauch
im Vergleich zu PoW um 99 % reduziert. Eigelshoven et al. (2020) geben die Energie-
und Ressourceneffizienz jedoch nur als mittel an. Dafür ist die Dezentralisierung sehr
hoch, da die Hardwareanforderungen und der Energieverbrauch gering sind (Kaur
et al. 2021). Blöcke werden schneller erstellt als bei PoW, da keine aufwändigen
mathematischen Rätsel zu lösen sind (Panda et al. 2019). Ebenfalls ist die Geschwindig-
keit von PoS im Vergleich zu PoW höher und wird von Rebello et al. (2020) mit bis zu
250 Transaktionen pro Sekunde angegeben.

Delegated Proof of Stake (DPoS)


DPoS ist eine Variante von PoS und beinhaltet ein Wahlsystem, bei dem eine bestimmte
Anzahl von Knoten gewählt wird und als Stellvertreter für alle Benutzer fungiert (Wang
et al. 2020). Die Validatoren werden in DPoS als Delegierte bezeichnet und in einem
sogenannten Delegierungsprozess gewählt. Ein Teilnehmer kann seine verfügbaren
Münzen verwenden, um einen Delegierten zu wählen, der das Netzwerk im Namen des
Teilnehmers sichert (Xiao et al. 2020). Das Stimmrecht ist anteilig zur Anzahl der Coins,
die ein Teilnehmer besitzt. Im Falle eines Fehlverhaltens eines ausgewählten Delegierten
kann dieser abgewählt und ersetzt werden (Khan et al. 2020). Daher kann DPoS als ein
demokratischer Prozess beschrieben werden, in dem Wahlen stattfinden und die Macht
von den Beteiligten gehalten wird (Monrat et al. 2019).
Aufgrund der geringeren Anzahl von Delegierten werden weniger Knoten für die
Blockgenerierung benötigt, was bedeutet, dass Blöcke schneller generiert und Trans-
aktionen schneller validiert werden. DPoS ist effizienter und energiesparender als PoS
(Eigelshoven et al. 2020). Auch die Ausführung von Transaktionen ist im Vergleich zum
PoS kostengünstiger (Bamakan et al. 2020). Zhang und Lee (2020) argumentieren, dass
Entscheidungsunterstützung zur Auswahl einer geeigneten … 105

die für die Erstellung der Blöcke erforderliche Rechenleistung auf Null reduziert wird.
Rebello et al. (2020) geben die Geschwindigkeit mit maximal 4000 Transaktionen pro
Sekunde an.

Practical Byzantine Fault Tolerance (PBFT)


Beim PBFT fungiert ein Knoten als Leader und die anderen Knoten als Backup (Monrat
et al. 2019). Sobald der führende Knoten eine Anfrage erhält, werden die Backup-
Knoten benachrichtigt und die Anfrage wird vom führenden Knoten verarbeitet, der sie
an das gesamte Netzwerk sendet. Jeder Knoten verarbeitet die Transaktion parallel und
sendet das Ergebnis ebenfalls an das gesamte Netzwerk. Wenn die Übereinstimmung
groß genug ist, wird die Anfrage ausgeführt (Ramkumar et al. 2020). Wenn dies nicht
der Fall ist, wird der Block abgelehnt und nicht validiert. Es fällt keine Transaktions-
gebühr an und es gibt keine Belohnung für die Erstellung des Blocks (Alsunaidi und
Alhaidari 2019). Da es nur eine kleine Anzahl von validierenden Knoten im Netzwerk
gibt, ist dieser Konsensalgorithmus nur für private und hybride Blockchains geeignet
(Wang et al. 2020). Außerdem ist die Identität der validierenden Knoten bekannt, sodass
die Anonymität nicht mehr gewährleistet werden kann (Zhang und Lee 2020). Da im
gesamten Netzwerk nur der führende Knoten neue Blöcke erstellt ist der Ressourcen-
verbrauch im Vergleich zu dem PoW-Verfahren geringer (Zhang et al. 2020). Da jeder
Knoten mit jedem anderen kommunizieren muss, ist die Skalierbarkeit jedoch begrenzt
(Mingxiao et al. 2017). Bamakan et al. (2020) beschreiben die Leistung am Beispiel von
Stellar mit 1000 Transaktionen pro Sekunde.

Proof of Authority (PoA)


Das Proof of Authority (PoA)-Protokoll aktualisiert die Blockchain im Vergleich
zu anderen Konsensalgorithmen wie PoW oder PoS durch eine geringe Anzahl von
validierenden Knoten. Es ähnelt dem Proof of Stake-Konzept mit dem Unterschied,
dass für die Validierung eine Identität anstelle von Geldwerten erforderlich ist (Xiao
et al. 2020). Um sich als validierender Knoten zu qualifizieren, muss der Teilnehmer
einen Zertifizierungsprozess durchlaufen (Khan et al. 2020). Wenn sich ein validierender
Knoten falsch verhält, kann dieser von den Teilnehmern abgewählt werden (Xiao et al.
2020). Indem die Anzahl der validierenden Knoten niedrig gehalten wird, steigt die
Leistung der Blockchain und die Transaktionskosten sinken (Kaur et al. 2021). Aufgrund
seiner starken Zentralisierung und da die Identität der validierenden Knoten dem Netz-
werk bekannt sind, ist der PoA-Algorithmus am ehesten für private Blockchains geeignet
(Khan et al. 2020; Bashar et al. 2019).
Dieser Konsensalgorithmus benötigt sehr wenig Rechenleistung, weswegen die
Erstellung eines neuen Blocks mit dem PoA-Protokoll nur mit geringen Kosten ver-
bunden ist. Farshidi et al. (2020) geben die Geschwindigkeit mit 2500 Transaktionen pro
Sekunde an. Die Skalierbarkeit des Netzwerks ist sehr hoch, da nur eine kleine Anzahl
von validierenden Knoten benötigt wird, um Transaktionen zu verifizieren (Kaur et al.
106 E. Karger et al.

2021). Da die validierenden Knoten bekannt sind, ist das Risiko, das von diesen Knoten
ausgeht, gering (Bashar et al. 2019).

Proof of Elapsed Time (PoET)


Der Konsensalgorithmus PoET wählt einen zufälligen Knoten des Blockchain-
Netzwerkes in einem lotterieähnlichen System aus (Khan et al. 2020). Jeder Knoten setzt
einen zufälligen Timer und der Teilnehmer, bei dem der Timer zuerst abläuft, darf den
nächsten Block der Blockchain validieren (Rebello et al. 2020). Ähnlich wie bei dem
PoW-Verfahren muss ein mathematisches Problem gelöst werden, aber nur der zuvor
ausgewählte Knoten führt den Mining-Prozess durch (Bamakan et al. 2020). Durch eine
sogenannte vertrauenswürdige Ausführungsumgebung (Trusted Execution Environment,
TEE) wird sichergestellt, dass die Wartezeit nicht manipuliert werden kann.
Nach Khan et al. (2020) sowie Ramkumar et al. (2020) ist das PoET-Verfahren
sowohl für öffentliche als auch für private und hybride Blockchains geeignet. Bei PoET
handelt es sich um einen Konsens-Algorithmus mit geringem Stromverbrauch, da nur
der validierende Knoten Strom benötigt und die anderen Knoten im Standby-Modus sind
(Kaur et al. 2021). Am Beispiel von Hyperledger Sabretooth geben Rebello et al. (2020)
die Geschwindigkeit mit 1150 Transaktionen pro Sekunde an. Der PoET-Mechanis-
mus ermöglicht zwar eine hohe Skalierung der Blockchain, was die Latenzzeit für die
Bestätigung von Transaktionen jedoch erhöhen kann (Ferdous et al. 2020).

Ripple Consensus Protocol (RCP)


Beim RCP werden die eingereichten Transaktionen über sogenannte Validierungsknoten
und Tracking-Knoten an das gesamte Netzwerk gesendet (Wan et al. 2020). Die Haupt-
aufgabe der Tracking-Knoten ist die Verteilung von Transaktionen und die Ausführung
von Abfragen. Ein Validierungsknoten hat die gleichen Aufgaben mit dem Zusatz, dass
er Daten zur Blockchain hinzufügen kann (Tasca und Tessone 2019). Jeder Validierungs-
knoten hat eine Unique Node List (UNL), die alle vertrauenswürdigen Knoten enthält
(Chaudhry und Yousaf 2018). Knoten, die in der UNL stehen, können entscheiden, ob sie
eine Transaktion unterstützen oder nicht. Jeder Validierungsknoten sendet seine eigene
Transaktionsliste an andere Validierungsknoten, die dann verglichen werden.
Im nächsten Schritt müssen die Validierungsknoten abstimmen, ob die Transaktion
ausgeführt wird, und die nächste Runde beginnt, wenn die Übereinstimmung mehr
als 50 % beträgt (Zhang und Lee 2020). In der nächsten Runde wird geprüft, ob die
Übereinstimmung zwischen den Validierungsknoten größer als 80 % ist, und wenn dies
der Fall ist, wird die Transaktion schließlich der Blockchain hinzugefügt.
Alle paar Sekunden wird der Algorithmus von allen Knoten ausgeführt, um einen
Konsens für neue Transaktionen zu erreichen (Ramkumar et al. 2020). Der Konsens-
algorithmus ist aufgrund der Identifizierung der Validierungsknoten nur für private und
hybride Blockchains geeignet. Für RCP wird keine leistungsstarke Hardware benötigt,
was auch bedeutet, dass der Energieverbrauch sehr gering ist (Eigelshoven et al. 2020).
Die Geschwindigkeit von RCP wird von Xiao et al. (2020) mit Tausenden von Trans-
Entscheidungsunterstützung zur Auswahl einer geeigneten … 107

aktionen pro Sekunde angegeben. Nach Farshidi et al. (2020) liegt die Geschwindigkeit
von RCP bei ca. 1500 Transaktionen pro Sekunde. Die Anzahl der Nicht-Validierungs-
knoten ist hoch skalierbar, da sie nicht zum Konsens beitragen (Zhang und Lee 2020).
Da eine schnelle und häufige Kommunikation zwischen den Validierungsknoten statt-
findet, muss die Anzahl der Validierungsknoten klein gehalten werden, wodurch die
Dezentralisierung leidet (Khan et al. 2020).

Raft
Die Grundidee des Raft-Algorithmus besteht darin, dass die Knoten gemeinsam einen
sogenannten Leader wählen und die übrigen Knoten zu Followern werden (Alsunaidi
und Alhaidari 2019). Es gibt 3 Arten von Knoten: Leader, Kandidat und Follower. Im
ersten Schritt wählen die Knoten einen Leader, der die Mehrheit der Stimmen von allen
anderen Knoten erhalten muss (Ongaro und Ousterhout 2014). Der Leader ist für die
Registrierung neuer Transaktionen auf der Blockchain verantwortlich und gibt die Ein-
träge an alle Knoten weiter, damit diese ihre Protokolle ebenfalls aktualisieren können
(Mingxiao et al. 2017). Der Leader muss permanent Signale an die anderen Knoten
zurücksenden. Wenn die Knoten keine solche Signale mehr erhalten, muss ein neuer
Leader gewählt werden (Ongaro und Ousterhout 2014). Der Konsensalgorithmus läuft
in verschiedenen Zeitphasen, von denen jede mit der Wahl eines neuen Leaders beginnt,
wenn der alte Leader keine Signale mehr sendet.
Laut Panda et al. (2019) ist Raft für private und hybride Blockchains geeignet.
Alsunaidi und Alhaidari (2019) sowie Mingxiao et al. (2017) geben die Geschwindigkeit
von Raft mit mehr als 10.000 Transaktionen pro Sekunde an. Die genaue Geschwindig-
keit hängt von der Rechenleistung des führenden Knotens ab. Aufgrund der ständigen
Kommunikation zwischen den Knoten ist die Skalierbarkeit des Netzwerks begrenzt
(Mingxiao et al. 2017). Da kein Mining erforderlich ist, ist der Energieverbrauch von
Raft jedoch sehr gering (Alsunaidi und Alhaidari 2019). Zudem können bis zu 50 %
der Knoten des Blockchain-Netzwerkes ausfallen, ohne die Funktion von Raft einzu-
schränken (Panda et al. 2019). Ein wesentlicher Nachteil besteht jedoch darin, dass
Raft keine böswilligen Knoten tolerieren kann, da der Leader absolute Macht über das
Blockchain-Netzwerk hat (Mingxiao et al. 2017). Sobald ein böswilliger Leader die
Kontrolle hat, kann das Blockchain-Netzwerk zerstört werden.

Tendermint
Tendermint basiert auf einer Mischung aus PBFT und PoS. In Tendermint müssen
die Knoten eines Netzwerkes Coins einsetzen, um ein validierender Knoten werden
zu können. Der validierende Knoten wird in jeder Runde durch einen Algorithmus
bestimmt, der die Wahrscheinlichkeit einer Wahl mit der Anzahl der gesetzten Coins
verknüpft. Je mehr Coins von einem Knoten gesetzt werden, desto höher ist die Wahr-
scheinlichkeit, dass dieser als der validierende Knoten ausgewählt wird (Xiao et al.
2020). Ein Block kann vorgeschlagen werden, und dieser nicht validierte Block wird
an alle Knoten gesendet. Nach Khan et al. (2020) ist Tendermint nur für Blockchains
108 E. Karger et al.

geeignet, in denen nicht jeder Knoten automatisch Validierungsrechte hat. Zu der Anzahl
der möglichen Transaktionen von Tendermint finden sich sehr verschiedene Angaben.
Während Monrat et al. (2019) diese mit weniger als 10.000 Transaktionen pro Sekunde
beziffern, geben Xiao et al. (2020) sie mit mehr als 1000 Transaktionen pro Sekunde an.
Zwar kann ein auf Tendermint basierendes Blockchain-Netzwerk skaliert werden, durch
eine steigende Anzahl der Knoten dauert die Bestätigung eines Blocks jedoch länger. Da
kein Mining durchgeführt werden muss ist Tendermint sehr energieeffizient.

Blockchain-Trilemma Bei der Auswahl einer geeigneten Blockchain ist zu beachten,


dass sich einige Eigenschaften und Merkmale einer Blockchain negativ beeinflussen.
Dieses sogenannte Blockchain-Trilemma umfasst die Sicherheit, Dezentralisierung
sowie die Skalierbarkeit. Diese können nicht gemeinsam und in perfekter Ausprägung
koexistieren (Zhou et al. 2020). So würde beispielsweise eine zentrale Instanz für die
Validierung von Blockchain-Transaktionen die Skalierbarkeit erhöhen, dadurch aber der
Grundidee der Blockchain nach Dezentralität widersprechen. Oftmals wird der Energie-
verbrauch der Blockchain ebenfalls in diese Abwägungsbetrachtung miteinbezogen. Der
aktuell populärste Konsensalgorithmus PoW hat einen sehr hohen Energieverbrauch,
sorgt dafür aber auch für ein hohes Maß an Sicherheit. Das alternative Verfahren PoS
benötigt zwar deutlich weniger Energie, wird jedoch allgemein auch als unsicherer
bewertet (Zhou et al. 2020).
Eine Abwägung und Priorisierung dieser Eigenschaften ist daher bei der Auswahl
einer Blockchain zu beachten.

1.2 Auswahl einer Blockchain-Technologie durch ein Self-


Enforcing Network (SEN)

Die bisherigen Ausführungen lassen erkennen, dass bei der Auswahl einer geeigneten
Blockchain-Technologie verschiedene Aspekte berücksichtigt werden müssen. Aus
diesem Grund werden in der Literatur diverse Unterstützungssysteme vorgeschlagen
(Abdo und Zeadally 2021; Meng et al. 2021; Kamble et al. 2021; Nayak et al. 2022;
Himeur et al. 2022), in denen verschiedene Methoden und Herausforderungen diskutiert
werden.
Das von uns entwickelte und hier vorgestellte Modell ist für diejenigen konzipiert, die
sich einen ersten Überblick verschaffen möchten, ob die Verwendung einer Blockchain-
Technologie überhaupt sinnvoll ist und falls ja, welche Konsensalgorithmen empfohlen
werden.
Zunächst wird das Self-Enforcing Network und das methodische Vorgehen bei der
Entwicklung des Modells vorgestellt; anschließend werden exemplarisch Empfehlungen
des Unterstützungssystems gezeigt.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 109

1.2.1 Das Self-Enforcing Network (SEN)


Bei SEN handelt es sich um ein selbstorganisiert-lernendes neuronales Netzwerk
(Klüver und Klüver 2021; Klüver et al. 2021); das bedeutet, dass das Netzwerk aus
vorgegebenen Daten eine Ordnung nach Ähnlichkeiten herstellt. Als Grundlage für die
Konstruktion eines Modells dient die sog. Semantische Matrix, die Objekte enthält, die
durch bestimmte Attribute charakterisiert werden. Die numerischen Werte in der Matrix
drücken den Zugehörigkeitsgrad eines Attributs zum jeweiligen Objekt aus.
Die Daten werden für den Lernprozess und für die Klassifizierung neuer Daten auto-
matisch normalisiert. Der Wertebereich kann für die Attribute individuell oder global
angegeben werden; in den meisten Fällen wird dieser jedoch im Intervall zwischen [0,1]
oder im Intervall [-1,1] kodiert. Dies geschieht gemäß der Gl. 1.1
vraw − rmin
vnorm = ∗ (nmax − nmin ) + nmin (1.1)
rmax − rmin

vnorm ist der normierte Wert, r bezieht sich auf die rohen Datenwerte in der semantischen
Matrix und n auf das Intervall, in welchem die Normierung erfolgen soll.
Für SEN müssen, wie für alle neuronalen Netzwerke (NN), eine spezifische Lern-
regel, eine Lernrate, ggf. Anzahl der Lernschritte und bestimmte Funktionen angegeben
werden (siehe Beitrag Klüver und Klüver, „Chancen und Herausforderungen beim
Einsatz neuronaler Netzwerke als Methoden der Künstlichen Intelligenz oder des
Maschinellen Lernens in KMU“). Im Folgenden werden lediglich die Bestandteile
des SEN vorgestellt, die für das Unterstützungssystem zur Auswahl einer Blockchain-
Technologie relevant sind.

Lernregel: Self-Enforcing Rule (SER) Bei allen NN befinden sich die wesentlichen
Informationen in der sog. Gewichtsmatrix. Diese wird normaler Weise zu Beginn per
Zufall generiert und anhand einer Lernregel so lange modifiziert, bis der gewünschte
Lernerfolg erreicht wird.
Bei SEN findet keine Zufallsgenerierung statt, was das besondere Charakteristikum
des Netzwerkes darstellt. Die Werte aus der semantischen Matrix, die reale Datenmengen
oder ein spezielles Modell enthält, werden in die SEN-Gewichtsmatrix transformiert.
Falls ein Objekt O das Attribut A nicht hat, dann ist der Wert der semantischen Matrix
vsm = 0 und der entsprechende Gewichtswert woa = 0 (w steht für weight). In allen
anderen Fällen wird der Gewichtswert aus der semantischen Matrix gemäß der Gl. 1.2
entnommen und normalisiert.
woa = c ∗ vsm (1.2)
c ist eine Konstante, die vom Benutzer als Parameter eingestellt werden kann. Sie ent-
spricht der bekannten „Lernrate“ und wird im Intervall 0 < c < 1 festgelegt. Bei der
Lernrate handelt es sich um einen numerischen Wert, der den Lernprozess in einem NN
beeinflusst.
110 E. Karger et al.

Die Lernregel, die entsprechend dem jeweiligen Problem die Werte der Gewichts-
matrix variiert, wird in Gl. 1.3 dargestellt:
w(t + 1) = w(t) + �wund (1.3)
w = c ∗ vsm
Falls w(t) = 0, dann ist w(t + 1) = 0 für alle weiteren Lernschritte.
Da es sich bei SEN um ein Netzwerk handelt, das Prinzipien der Kognitionswissen-
schaft folgt, kann zusätzlich ein sog. „cue validity factor“ (cvf) berücksichtigt werden,
um eines oder mehrere Attribute in der Bedeutung für ein Modell, besonders hervorzu-
heben oder abzuschwächen. Die Gl. 1.3 wird dann zu Gl. 1.4 erweitert:
w = c ∗ woa ∗ cvfa (1.4)

Die „Selbstverstärkung“ (Self-Enforcing Rule) in der Lernregel bedeutet, dass das


eigentliche Netzwerk durch die Transformation der semantischen Matrix in die
Gewichtsmatrix generiert wird (die 0-Werte zu Beginn in der Gewichtsmatrix werden
durch die Lernregel selbst verändert) und dass das Netzwerk sich selbst durch die Anzahl
der Lernschritte bzw. durch die Lernrate verstärkt.

Aktivierungsfunktion Jedes NN enthält verschiedene Funktionen, von denen die


Aktivierungsfunktion für das Lernverhalten besonders wichtig ist. SEN bietet insgesamt
sieben solcher Funktionen an (Klüver et al. 2021); für das konstruierte Modell haben wir
die sog. „Logaritmisch-lineare“-Funktion eingesetzt (Gl. 1.5):
  lg3 (ai + 1) ∗ wij , wennaj ≥ 0
aj = (1.5)
lg3 (|ai + 1|) ∗ −wij , sonst
aj steht für den Aktivierungswert des empfangenden Neurons j, ai für den Aktivierungs-
wert des sendenden Neurons i und wij steht wie üblich bei neuronalen Netzwerken für
den Gewichtswert (weight) der Verbindung zwischen i und j.
Der Logarithmus ist als „dämpfender Effekt“ eingeführt worden; die Basis 3 dient
dazu, dass die Werte weder zu groß noch zu klein werden.

Visualisierungen Das SEN verfügt zusätzlich über verschiedene Visualisierungsmöglich-


keiten, um die Ergebnisse schnell interpretieren zu können. Einige davon werden in
Abschn. 1.2.3 vorgestellt.
Um SEN einzusetzen, muss zunächst die semantische Matrix erstellt werden. Diese
wird im Folgenden exemplarisch erläutert.

1.2.2 Methodisches Vorgehen und das SEN-Modell


Für die Erstellung der semantischen Matrix wurden aus den Erläuterungen w. o. zunächst
50 Attribute identifiziert, die für die Entscheidung einer Blockchain-Technologie
besonders relevant sind. Um zu gewährleisten, dass das Unterstützungssystem für
Entscheidungsunterstützung zur Auswahl einer geeigneten … 111

Abb. 1 Identifizierte Attribute (Auszug)

einen Benutzer einfach zu bedienen ist, werden die Attribute als Fragen formuliert. Der
angegebene Wertebereich befindet sich zwischen 0 (nicht relevant) und 1 (sehr relevant)
mit Ausnahme der Transaktionen, die zwischen 0 und maximal 10.000 pro Sekunde
betragen können (Abb. 1).
In der semantischen Matrix werden die Zugehörigkeitsgrade der Attribute zu den
jeweiligen Objekten angegeben.
Im ersten Schritt ist es notwendig zu identifizieren, welcher Transaktionszugang
(öffentlich, privat oder hybrid) infrage kommt. Die Zuordnung ist zum Beispiel relativ
einfach, wenn ein öffentlicher Zugang benötigt wird, da in diesem Fall der Zugehörig-
keitsgrad zu dem Objekt „Erlaubnislos öffentlich“ 1.0 ist, hingegen zu dem Objekt
„Privat innerhalb der Organisation“ = 0.0.
Anschließend sind die Fragen von zentraler Bedeutung, die sich auf „Sicherheit“,
„Performanz“, Zentralisierung“, „Dezentralisierung“ oder Energieverbrauch beziehen,
da von deren Relevanz die Wahl eines geeigneten Konsensalgorithmus abhängt. Ent-
sprechend erfolgt die Bewertung in der semantischen Matrix differenziert und für die
Anzahl der Transaktionen werden die in Abschn. 1.1 genannte Werte für die Algorithmen
eingetragen, z. B. für den Konsensalgorithmus Raft 10.000 Interaktionen pro Sekunde.
Auf diese Weise ergibt sich einerseits die sog. „externe Topologie“ des SEN (Klüver
et al. 2021), damit ist die Verteilung der einzelnen Neuronen auf Schichten gemeint,
sowie andererseits die interne Topologie, d. h. die Gewichtsmatrix des SEN, die durch
die Lernregel aus der semantischen Matrix generiert wurde (Abb. 2).
In diesem SEN wird ausgenutzt, dass die Topologie je nach Anwendungsfall variiert
werden kann. Inhaltlich bedeutet diese Vorgehensweise, dass ein Benutzer nicht nur
die Information erhält, ob und falls ja, welcher Transaktionszugang in Betracht kommt,
sondern auch, welcher Konsensalgorithmus empfohlen wird.
112 E. Karger et al.

Abb. 2 Externe Topologie des SEN. Die Attribute, die Bestandteile der Blockchains
charakterisieren, werden auf die jeweiligen Objekte abgebildet, die den Transaktionszugang
repräsentieren. Diese sind anschließend die Attribute für die neun Konsensalgorithmen (Objekte)
in der nächsten Schicht

In der Modellierung kann ebenso das Blockchain-Trilemma berücksichtigt werden,


indem die Gewichtswerte zwischen den Einheiten verstärkt oder abgeschwächt werden.
Wenn die Sicherheit eine zentrale Rolle spielt, dann wird zugleich der Energieverbrauch
erhöht; ist hingegen die Performanz besonders wichtig, hat diese einen negativen Ein-
fluss auf die Sicherheit.
Der Vorteil des Einsatzes von SEN als Entscheidungsunterstützungssystems besteht
darin, dass die konstruierte semantische Matrix transparent ist und durch Experten
validiert werden kann. Ebenso wichtig ist eine differenzierte Bewertung der einzelnen
Merkmale und Anforderungen wie Skalierbarkeit, Zentralisierung etc., die in der Aus-
prägung der Konsensalgorithmen variieren können oder sehr weit auseinanderliegen wie
im Falle der Transaktionen.
Da sich die Werte der semantischen Matrix in der Gewichtsmatrix des neuronalen
Netzwerks widerspiegeln, können die einzelnen Prozesse rekonstruiert werden.
Im Folgenden zeigen wir einige Ergebnisse des SEN, um dies zu konkretisieren.

1.2.3 Entscheidungsunterstützung durch SEN


Der Lernprozess startet mit der Normalisierung der Daten in einem Intervall zwischen
[-1,1], einer Lernrate von 0.1 und unter Anwendung der logarithmisch-linearen
Aktivierungsfunktion. Nach nur einem Lernschritt sind alle Informationen der
semantischen Matrix, d. h. welche Charakteristika für den jeweiligen Transaktions-
zugang und für die Konsensalgorithmen gelten, durch SEN gelernt worden.
Nach dem Training hat ein Benutzer die Möglichkeit, die jeweiligen Fragen zu
beantworten, indem er zu jeder Frage einen numerischen Wert zwischen 0 (nicht
Entscheidungsunterstützung zur Auswahl einer geeigneten … 113

wichtig) und 1 (sehr wichtig) angeben kann (mit Ausnahme der notwendigen Trans-
aktionen). Dies bietet den Vorteil, dass der Benutzer seine Vorstellungen hinsicht-
lich der Anforderungen beliebig und auch subjektiv angeben kann. SEN klassifiziert
anschließend die Angaben nach der größten Ähnlichkeit zu den gelernten Daten.
Exemplarisch zeigen wir zunächst die Empfehlungen für drei Szenarien.

Szenario 1 „3.000 Transaktionen gewünscht“: Ein Benutzer gibt lediglich an, dass eine
gemeinsame Datenbasis notwendig ist, Drittpersonen ausgeschlossen werden sollen,
Interessenskonflikte vorliegen und 3000 Transaktionen erwünscht sind.

Szenario 2 „Performanz ist sehr wichtig, viele Transaktionen“ In diesem Fall werden
diverse Kriterien als relevant angegeben, insbesondere die Performanz und die Not-
wendigkeit von 10.000 Transaktionen.

Szenario 3 „Öffentliche Transaktionen, Sicherheit besonders wichtig“ Erneut werden


etliche Kriterien als relevant angegeben, mit dem Schwerpunkt auf Sicherheit und der
Angabe, dass die Transaktionen öffentlich sind.
In Abb. 3 werden die Ergebnisse des SEN in zwei Visualisierungen gezeigt. Auf der
linken Seite werden die Benutzereingaben der o. g. Szenarien und Konsensalgorithmen
in der Nähe des jeweiligen Transaktionszugangs angeordnet. Somit erhält ein Benutzer
eine direkte und allgemeine Übersicht aller enthaltenen Blockchain-Technologien und
eine Einordnung der eigenen Angaben.
Auf der rechten Seite in Abb. 3 steht die Anfrage eines Benutzers im Zentrum der
Visualisierung und die Informationen, die der Anfrage am besten entsprechen, werden
zum Zentrum angezogen.
Während in der sog. „Karten-Visualisierung“ die Ergebnisse des Lernprozesses
(mit einem x markiert) und der Eingaben (mit einem o markiert) gleichzeitig angezeigt
werden, wird in der SEN-Visualisierung jede Abfrage gesondert aufgerufen. Im rechten
Bild werden die Ergebnisse für Szenario 3 „Öffentliche Transaktionen, Sicherheit
besonders wichtig“ gezeigt: Die Objekte „Erlaubnislos öffentlich“ und „Proof of Stake“
werden am stärksten zum Zentrum angezogen und dienen als Empfehlung im vor-
liegenden Fall.
Zusätzliche Visualisierungen beinhalten differenzierte Berechnungen des SEN. Im
Fall des „Rankings“ werden die Objekte in einer Rangliste ausgegeben, die den stärksten
Aktivierungswert durch die neue Eingabe eines Benutzers aufweisen. In den Distanzen
werden die Objekte angezeigt, die den kleinsten Abstand zu der neuen Eingabe auf-
weisen.
In den Abb. 4 und 5 werden die Ergebnisse für die drei Szenarien vorgestellt.
Für Szenario 1 wird nicht empfohlen, eine Blockchain-Technologie einzusetzen
(Abb. 4).
114

Abb. 3 Visualisierungen der Empfehlungen durch SEN


E. Karger et al.
Entscheidungsunterstützung zur Auswahl einer geeigneten … 115

Abb. 4 Empfehlungen durch SEN für Szenario 1

Abb. 5 Empfehlungen durch SEN für Szenario 2

Abb. 6 Empfehlung durch SEN für Szenario 3

Abb. 7 Empfehlung durch SEN bei veränderten Prioritäten

Hat unter anderem die Sicherheit in einer privaten Blockchain eine sehr hohe
Priorität, dann wird als Konsensalgorithmus Tendermint in beiden Berechnungsmodi
empfohlen (Abb. 5).
Für das dritte Szenario erfolgt die Empfehlung aus Abb. 6.
In dem letzten Beispiel wird ein Aspekt aus dem genannten Blockchain-Trilemma
aufgegriffen. Wenn die Angaben des Benutzers denen aus dem dritten Szenario ent-
sprechen, mit dem Unterschied, dass der Energieverbrauch keine Rolle spielt und die
Sicherheit besonders wichtig ist, dann sieht die Empfehlung durch SEN wie in Abb. 7
aus.
SEN empfiehlt in dieser Konstellation jeweils Proof of Work als den besten Konsens-
algorithmus.
Zusammengefasst lässt sich anhand der Beispiele festhalten, dass ein Benutzer
anhand gezielter Fragen eine Unterstützung hinsichtlich des Transaktionszugangs und
der Konsensalgorithmen erhält, anhand individueller Kriterien und Bewertungen.
In den Szenarios wurde davon ausgegangen, dass die Beantwortung der Fragen
gewissenhaft erfolgt. Ist dies nicht der Fall und ein Benutzer gibt zum Beispiel bei allen
Fragen den Wert 1 und bei den Transaktionen 10.000 an, ergibt sich die Situation, dass
116 E. Karger et al.

Abb. 8 Ergebnis des SEN bei nicht adäquater Beantwortung der Fragen

im Ranking die Aktivierung negativ ist, während die Distanzen entsprechend sehr hoch
sind (Abb. 8).

1.3 Fazit

Blockchain-Technologien werden zunehmend für eine Vielzahl von Anwendungsfällen


erprobt und eingesetzt. Blockchains existieren mittlerweile in vielen verschiedenen
Ausprägungen. Diese lassen sich zunächst anhand Ihres Zugangs in öffentliche, private
und hybride Blockchains unterteilen. Doch auch anhand von technischen Merkmalen
und Details können Blockchains in eine Vielzahl von verschiedenen Kategorien ein-
geteilt werden. Für Unternehmensentscheider oder Praktiker ist die Fülle an Blockchain-
Technologien ohne Hilfe oder entsprechende Expertise nur schwer zu überblicken. Dies
erschwert die Auswahl einer geeigneten Blockchain, sofern ein Einsatz geplant ist.
In dem vorliegenden Beitrag wurde ein Entscheidungsunterstützungssystem für
die Auswahl einer geeigneten Blockchain vorgestellt, welches auf einem SEN beruht.
Dieses System ist anhand von Eingaben und Präferenzen des Nutzers in der Lage, eine
geeignete Blockchain-Technologie vorzuschlagen. Dies umfasst sowohl die Frage des
Blockchain-Typs (öffentlich, privat, hybrid) als auch die Auswahl eines geeigneten
Konsens-Algorithmus. Hierdurch kann einem Nutzer, unter Berücksichtigung persön-
licher Präferenzen und Bedarfe, eine geeignete Blockchain für einen bestimmten
Anwendungsfall vorgeschlagen werden. In diesem Beitrag wurde gezeigt, dass die Ver-
wendung eines SEN für diesen Anwendungsfall zuverlässige Empfehlungen ermöglicht.
Für die Zukunft sind einige Erweiterungen für das hier vorgeschlagene, auf SEN
basierende Entscheidungsunterstützungssystem denkbar. Zunächst erscheint es sinnvoll,
SEN um weitere technische Merkmale von Blockchains zu erweitern. Dies gestattet eine
Entscheidungsunterstützung zur Auswahl einer geeigneten … 117

noch detaillierte und genauere Empfehlung über eine geeignete Blockchain, welche den
Anforderungen und Präferenzen des Nutzers entspricht. Durch den Aufbau von SEN
sind derartige Erweiterungen gut umsetzbar. Zudem erscheint eine Anbindung von SEN
an eine Benutzeroberfläche sinnvoll. Diese könnte über eine Webanwendung realisiert
und von Nutzern komfortabel zur Eingabe von Präferenzen und Informationen genutzt
werden. Die vom Nutzer eingegebenen Daten werden dann von SEN zur Empfehlung
einer geeigneten Blockchain genutzt. Dies erlaubt eine hohe Benutzerfreundlichkeit und
gestattet die Nutzung auch ohne tiefere Kenntnisse von SEN selbst.

Literatur

Abdo JB, Zeadally S (2021) Neural network-based blockchain decision scheme. Information
Security Journal: A Global Perspective 30(3):173–187
Alfrhan A, Moulahi T, Alabdulatif A (2021) Comparative study on hash functions for lightweight
blockchain in Internet of Things (IoT). Blockchain: Research and Applications 2(4):100036
Alsunaidi SJ, Alhaidari FA (2019) A Survey of Consensus Algorithms for Blockchain Technology.
2019 Inter Conf Comp Inf Sci (ICCIS), 1–6. https://doi.org/10.1109/ICCISci.2019.8716424
Bamakan SMH, Motavali A, Babaei Bondarti A (2020) A survey of blockchain consensus
algorithms performance evaluation criteria. Expert Syst Appl 154:113385. https://doi.
org/10.1016/j.eswa.2020.113385
Bashar G, Hill G, Singha S, Marella P, Dagher GG, Xiao J (2019) Contextualizing consensus
protocols in blockchain: a short survey. 2019 First IEEE International Conference on Trust,
Privacy and Security in Intelligent Systems and Applications (TPS-ISA), 190–195. https://doi.
org/10.1109/TPS-ISA48467.2019.00031
Baym N, Swartz L, Alarcon A (2019) Convening technologies: blockchain and the music industry.
Int J Commun 13:402–421
Bogart S, Rice K (2015) The blockchain report: welcome to the internet of value. Needham
Insights 5:1–10
Casey MJ, Wong P (2017) Global supply chains are about to get better, thanks to blockchain.
https://hbr.org/2017/03/global-supply-chains-are-about-to-get-better-thanks-to-blockchain
Chaudhry N, Yousaf MM (2018) Consensus algorithms in blockchain: comparative analysis,
challenges and opportunities. 2018 12th International Conference on Open Source Systems and
Technologies (ICOSST) 54–63. https://doi.org/10.1109/ICOSST.2018.8632190
Condos J, Sorrell WH, Donegan SL (2016) Blockchain technology: opportunities and risks. ver-
mont legislative reports. https://legislature.vermont.gov/assets/Legislative-Reports/blockchain-
technology-re-port-final.pdf
Diffie W, Hellman M (1976) New directions in cryptography. IEEE Transations on Information
Theory 22(6):644–654
Drescher D (2017) Blockchain Grundlagen. Eine Einführung in die elementaren Konzepte in 25
Schritten. Frechen, mitp (mitp Business)
Eigelshoven F, Ullrich A, Bender B (2020) Public blockchain – a systematic literature review on
the sustainability of consensus algorithms. 28th European Conference on Information Systems
(ECIS), 20
Esposito C, Ficco M, Gupta BB (2021) Blockchain-based authentication and authorization for
smart city applications. Inf Process Manage 58(2):102468
118 E. Karger et al.

Farshidi S, Jansen S, Espana S, Verkleij J (2020) Decision support for blockchain platform
selection: three industry case studies. IEEE Trans Eng Manage 67(4):1109–1128. https://doi.
org/10.1109/TEM.2019.2956897
Ferdous MS, Chowdhury MJM, Hoque MA, Colman AW (2020) Blockchain Consensus
Algorithms: A Survey. ArXiv: Distributed, Parallel, and Cluster Computing, 38
Franco P (2015) Understanding Bitcoin: Cryptography, Engineering and Economics. Chichester,
West Sussex Wiley
Hameed K, Barika M, Garg S, Amin MB, Kang B (2022) A taxonomy study on securing
Blockchain-based Industrial applications: An overview, application perspectives, requirements,
attacks, countermeasures, and open issues. J Ind Inf Integr 26:100312
Hao Y, Li Y, Dong X, Fang L, Chen P (2018) Performance Analysis of Consensus Algorithm in
Private Blockchain. 2018 IEEE Intelligent Vehicles Symposium (IV), 280–285. https://doi.
org/10.1109/IVS.2018.8500557
Hellwig D, Karlic G, Huchzermeier A (2021) Konsensmechanismen. In: Hellwig D, Karlic G,
Huchzermeier A (Hrsg) Entwickeln Sie Ihre eigene Blockchain: Ein praktischer Leitfaden zur
Distributed-Ledger-Technologie. Springer, Berlin, S 57–80
Himeur Y, Sayed A, Alsalemi A, Bensaali F, Amira A, Varlamis I, Eirinaki M, Sardianos C,
Dimitrakopoulos G (2022) Blockchain-based recommender systems: applications, challenges
and future opportunities. Computer Science Review 43:100439
Iansiti M, Lakhani KR (2017) The truth about blockchain. Harv Bus Rev 95(1):118–127
Kamble SS, Gunasekaran A, Kumar V, Belhadi A, Foropon C (2021) A machine learning based
approach for predicting blockchain adoption in supply Chain. Technol Forecast Soc Chang
163:120465
Kaur S, Chaturvedi S, Sharma A, Kar J (2021) A research survey on applications of consensus
protocols in blockchain. Security and Communication Networks 2021:1–22. https://doi.
org/10.1155/2021/6693731
Khan D, Jung LT, Ahmed Hashmani M, Waqas A (2020) A Critical Review of Blockchain Con-
sensus Model. 2020 3rd International Conference on Computing, Mathematics and Engineering
Technologies (ICoMET) 1–6. https://doi.org/10.1109/iCoMET48670.2020.9074107
Klüver C, Klüver J (Hrsg) (2021N) Neue Algorithmen für praktische Probleme. Variationen zu
Künstlicher Intelligenz und Künstlichem Leben. Springer Vieweg, Wiesbaden
Klüver C, Klüver J, Schmidt J (2021) Modellierung komplexer Prozesse durch naturanaloge Ver-
fahren. Künstliche Intelligenz und Künstliches Leben. Springer Vieweg, Wiesbaden
Kushwaha SS, Joshi S, Singh D, Kaur M, Lee HN (2022) Systematic review of security
vulnerabilities in ethereum blockchain smart contract. IEEE Access 10:6605–6621
Marr B (2018) A very brief History of blockchain technology everyone should read. Hg. v. Forbes.
https://www.forbes.com/si-tes/bernardmarr/2018/02/16/a-very-brief-history-of-blockchain-
technology-everyone-should-read/#33b428e7bc47
Meng Y, Nazir S, Guo UI (2021) A decision support system for the uses of lightweight blockchain
designs for P2P computing. Peer Peer Netw Appl 14(5):2708–2718
Merkle RC (1979) Secrecy, authentication, and public key systems: Doctoral Dissertation,
Standford, CA, USA
Mingxiao D, Xiaofeng M, Zhe Z, Xiangwei W, Qijun C (2017) A review on consensus algorithm
of blockchain. 2017 IEEE Int Conf Syst Man Cybern SMC 2567–2572. https://doi.org/10.1109/
SMC.2017.8123011
Monrat AA, Schelen O, Andersson K (2019) A survey of blockchain from the perspectives of
applications, challenges, and opportunities. IEEE Access 7:117134–117151. https://doi.
org/10.1109/ACCESS.2019.2936094
Nakamoto S (2008) Bitcoin: a peer-to-peer electronic cash system. https://bitcoin.org/bitcoin.pdf
Entscheidungsunterstützung zur Auswahl einer geeigneten … 119

Nayak A, Chowdhury D, De S, Bhattacharyya S, Muhammad K, Gorbachev S (2022) A novel


intelligent blockchain framework with intelligence replication. Advanced computational
paradigms and hybrid intelligent computing. Springer Singapore, Singapore, S 661–672
Naz S, Lee SU-J (2020) Why the new consensus mechanism is needed in blockchain technology?
2020 Second International Conference on Blockchain Computing and Applications (BCCA)
92-99. https://doi.org/10.1109/BCCA50787.2020.9274461
Ongaro D, Ousterhout J (2014) In Search of an understandable consensus algorithm. USENIX
Annual Technical Conference 305–319. https://www.usenix.org/system/files/conference/atc14/
atc14-paper-ongaro.pdf
Panda SS, Mohanta BK, Satapathy U, Jena D, Gountia D, Patra TK (2019) Study of blockchain
based decentralized consensus algorithms. TENCON 2019 – 2019 IEEE Region 10 Conference
(TENCON) 908–913 https://doi.org/10.1109/TENCON.2019.8929439
Peters GW, Panayi E (2015) Understanding modern banking ledgers through blockchain techno-
logies: future of transaction processing and smart contracts on the internet of money. http://
arxiv.org/pdf/1511.05740v1
Rabin MO (1978) Digitalized Signatures. In: DeMillo RA (Hrsg) Foundations of secure
computation. Academic Press, New York, S 155–166
Rejeb A, Treiblmaier H, Rejeb K et al (2021) Blockchain research in healthcare: a bibliometric
review and current research trends. J Data, Inf Manag 3:109–124. https://doi.org/10.1007/
s42488-021-00046-2
Ramkumar N, Sudhasadasivam G, Saranya KG (2020) A survey on different con-
sensus mechanisms for the blockchain technology. 2020 International Conference on
Communication and Signal Processing (ICCSP) 0458–0464. https://doi.org/10.1109/
ICCSP48568.2020.9182267
Rebello GAF, Camilo GF, Guimarães LCB, de Souza LAC, Duarte OCMB (2020) On the Security
and Performance of Proof-based Consensus Protocols. 2020 4th Conference on Cloud and
Internet of Things (CIoT), 67–74 https://doi.org/10.1109/CIoT50422.2020.9244295
Schlatt V, Schweizer A, Urbach N, Fridgen G (2016) Blockchain: Grundlagen, Anwendungen
und Potenziale: Projektgruppe Wirtschaftsinformatik des Fraunhofer-Instituts für Angewandte
Informationstechnik FIT. https://www.fit.fraunhofer.de/content/dam/fit/de/documents/
Blockchain_WhitePa-per_Grundlagen-Anwendungen-Potentiale.pdf
Tapscott D, Tapscott A (2016) The Impact of the Blockchain Goes Beyond Financial Services.
https://hbr.org/2016/05/the-impact-of-the-blockchain-goes-beyond-financial-services
Tasca P, Tessone CJ (2019) Taxonomy of blockchain technologies. Principles of identification and
classification. Ledger. https://doi.org/10.5195/ledger.2019.140
Walport M (2015) Distributed ledger technology: beyond block chain. A report by the UK
Government Chief Scientific Adviser. Government Office for Science. https://assets.publishing.
service.gov.uk/government/uploads/system/uploads/attachment_data/file/492972/gs-16-1-
distributed-ledger-technology.pdf
Wan S, Li M, Liu G, Wang C (2020) Recent advances in consensus protocols for blockchain: A
survey. Wireless Netw 26(8):5579–5593. https://doi.org/10.1007/s11276-019-02195-0
Wang Q, Huang J, Wang S, Chen Y, Zhang P, He L (2020) A comparative study of blockchain
consensus algorithms. J Phys: Conf Ser 1437:012007. https://doi.org/10.1088/1742-
6596/1437/1/012007
Xiao Y, Zhang N, Lou W, Hou YT (2020) A survey of distributed consensus protocols for
blockchain networks. IEEE Commun Surv Tutor 22(2):1432–1465. https://doi.org/10.1109/
COMST.2020.2969706
Zhang C, Wu C, Wang X (2020) Overview of blockchain consensus mechanism. Proceedings
of the 2020 2nd International Conference on Big Data Engineering, 7–12. https://doi.
org/10.1145/3404512.3404522
120 E. Karger et al.

Zhang S, Lee J-H (2020) Analysis of the main consensus protocols of blockchain. ICT Express
6(2):93–97. https://doi.org/10.1016/j.icte.2019.08.001
Zhou Q, Huang H, Zheng Z, Bian J (2020) Solutions to scalability of blockchain: a survey. IEEE
Access 8:16440–16455
Ziolkowski R, Miscione G, Schwabe G (2020) Decision problems in blockchain governance: old
wine in new bottles or walking in someone else’s shoes? J Manag Inf Syst 37(2):316–348.
https://doi.org/10.1080/07421222.2020.1759974
Zohar A (2015) Bitcoin: under the hood. Commun ACM 58(9):104–113

Erik Karger, geboren 1993 in Marl, studierte nach seinem Abitur


Betriebswirtschaftslehre und Wirtschaftsinformatik an der Uni-
versität Duisburg-Essen. Bereits während seines Studiums befasste
er sich viel mit digitalen Technologien und deren Auswirkungen
und Anwendungspotenzialen für Unternehmen. Seit Herbst 2019
ist er wissenschaftlicher Mitarbeiter und Doktorand in Essen und
forscht zu den Themen Blockchain, künstliche Intelligenz sowie
deren Kombination. Er ist (Mit)Autor von 12 wissenschaftlichen
Beiträgen zu verschiedenen Themen der Wirtschaftsinformatik.
Nebenberuflich ist er als selbstständiger Seminar- und Übungsleiter
tätig und gibt Kurse zu Grundlagen und Potenzialen der
Digitalisierung.

Phil Gonserkewitz wurde 1992 in Velbert geboren. Nach der


Schulzeit absolvierte er zunächst eine Ausbildung zum Bankkauf-
mann bei einer Sparkasse. Aufgrund seines großen Interesses an
der IT begann er 2017 ein Studium im Bereich der Wirtschafts-
informatik an der Universität Duisburg-Essen. Hierbei vertiefte er
sich auf das Management von IT-Systemen und die Heraus-
forderungen von IT in Organisationen und Unternehmen. Unter
den Technologien der Digitalisierung gehört insbesondere die
Blockchain zu seinen großen Interessen, welche er auch in seiner
Abschlussarbeit behandelte. Aktuell studiert Phil Gonserkewitz
Wirtschaftsinformatik im Master an der Universität Duisburg-
Essen.

PD Dr. Christina Klüver studierte Erziehungswissenschaften


und Informatik für Geisteswissenschaften, promovierte 1997 in
Kommunikationswissenschaft und ist seit 2005 in Informatik
habilitiert. Sie ist Privatdozentin für Soft Computing an der Uni-
versität Duisburg-Essen und Geschäftsführerin des Unternehmens
REBASK® GmbH. Gemeinsam mit Prof. Dr. Jürgen Klüver hat sie
Algorithmen der Künstlichen Intelligenz und des Künstlichen
Lebens entwickelt, die zur Analyse sozialer, kognitiver, öko-
nomischer und technischer Komplexität eingesetzt werden. Ihre
Arbeiten sind in zahlreichen (internationalen) Publikationen
dokumentiert.
Chancen und Herausforderungen
beim Einsatz neuronaler Netzwerke als
Methoden der Künstlichen Intelligenz
oder des Maschinellen Lernens in KMU

Christina Klüver und Jürgen Klüver

1 Einleitung: Methoden der Künstlichen Intelligenz oder des


Maschinelles Lernens – oder ist doch beides das Gleiche?

Neuronale Netzwerke (NN) haben in den letzten Jahren eine große mediale Aufmerk-
samkeit erlebt und werden durchaus kontrovers diskutiert. Nicht selten dreht es sich
um die Frage, ob Künstliche Intelligenz (KI) „Segen oder Fluch“ bedeutet, wobei nicht
weiter differenziert wird, was mit KI gemeint ist. KI wird nicht nur synonym für NN ver-
wendet, sondern auch für Deep Learning (DL) oder für das Maschinelle Lernen (ML),
wodurch häufig Missverständnisse oder sogar Skepsis entstehen.
Eine genaue Terminologie bzw. Klassifikation der Methoden ist im Kontext der
Transformation in das digitale Zeitalter nicht nur für Menschen wichtig, die mit solchen
Methoden arbeiten, sondern auch für technische Systeme, die zum Beispiel für eine auto-
matisierte Koordination verschiedener Methoden zuständig sein sollen.
Die entwickelten Methoden und deren Anwendungen sind durch interdisziplinäre
Forschungen entstanden, in denen nicht selten unterschiedliche Terminologien für den
gleichen Sachverhalt verwendet werden, oder umgekehrt, gleiche Begriffe, die jedoch
etwas anderes bedeuten können (Klüver und Klüver 2021a). Aus der Vielfalt mög-
licher Einteilungen wird in Abb. 1 der Forschungshintergrund, die Charakteristika der

C. Klüver (*) · J. Klüver


Essen, Deutschland
E-Mail: [email protected]
J. Klüver
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 121
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_8
122 C. Klüver und J. Klüver

Abb. 1 Forschungsgebiete und Anwendungen

Methoden sowie die Einsatzgebiete gezeigt. Diese Einordnung spielt für diesen Beitrag
eine wesentliche Rolle, da die Denk- und Vorgehensweise bei dem Einsatz neuronaler
Netzwerke anhand dieser Differenzierung erfolgen wird.
In Abb. 1 wird zwischen den Forschungsschwerpunkten und den Anwendungsfeldern
unterschieden. Die Forschungsgebiete der Künstlichen Intelligenz und des Künstlichen
Lebens beeinflussen sich gegenseitig, da beispielsweise die Erkenntnisse der Evolution
für kognitive Entwicklungen fruchtbar genutzt werden können.
Die Schwerpunkte der Forschungen lassen sich sehr vereinfacht ausgedrückt
beschreiben als die Rekonstruktion der Naturereignisse, des Lebens und der kognitiven
Prozesse, die durch Optimierungen, Anpassungen und Selbstorganisation charakterisiert
sind und die ebenso intelligentes Verhalten sowie Problemlösestrategien ermöglichen.
Das Wesentliche ist, dass die Methoden theorie- und modellorientiert sind.
In der Statistik, deren Methoden für empirische Beobachtungen konzipiert wurden
und die einen starken Einfluss auf das maschinelle Lernen haben, ist die Vorgehens-
weise problem- und modellorientiert, während beim maschinellen Lernen die Daten- und
Performanz-Orientierung vordergründig ist (VDI 2019; Klüver et al. 2021). Auf diese
Unterscheidung werden wir w.u. zurückgreifen.
Wie der Abb. 1 ebenfalls zu entnehmen ist, befassen sich unterschiedliche Fach-
disziplinen mit den gleichen Problemen wie Text- oder Spracherkennung, oder es werden
(auf den ersten Blick) die gleichen Methoden für unterschiedliche Probleme eingesetzt.
In Abb. 2 werden die bekanntesten Methoden und deren Zuordnung zu den Fach-
disziplinen aufgeführt. In diesem Beitrag ist lediglich die Einteilung Neuronaler Netz-
werke als Methode der (subsymbolischen) KI einerseits dargestellt und andererseits als
Chancen und Herausforderungen beim Einsatz neuronaler … 123

Abb. 2 Methoden der verschiedenen Fachdisziplinen. (vgl. VDI 2019, 6; erweitert in Klüver et al.
2021, 3)

Methode des ML, deren Variationen mit der Eigenschaft des „Tiefen Lernens“ (Deep
Learning) gekennzeichnet sind.
Unter dem Begriff subsymbolische KI ist gemeint, dass keine explizite Verarbeitungs-
regeln vorgegeben werden (VDI 2019); ähnlich wie im (menschlichen) Gehirn, entstehen
die Lösungsvorschläge durch die Verarbeitung der Informationen durch vernetzte Ein-
heiten (konnektionistischer Ansatz).
Die einleitende Frage, ob es einen Unterschied zwischen KI und ML gibt, kann
demnach nicht an dem Oberbegriff der Neuronalen Netzwerke festgemacht werden;
sinnvoller ist es, dies anhand der Vorgehensweise zu erläutern.
Die Unterscheidung zwischen theorie- und modellorientiertem Vorgehen (KI) sowie
daten- und performanzorientiertem (ML) gibt bereits eine Orientierung, wie Neuro-
nale Netzwerke eingesetzt werden. Die KI orientierte Anwendung ist danach bestrebt,
kognitive Prozesse zu erfassen und die entsprechenden Modelle zum Beispiel zur Ent-
scheidungsunterstützung einzusetzen. Die ML orientierte Anwendung basiert auf
(großen) Datenmengen, die von Menschen nicht mehr erfasst werden können, und auf
Performanz, also eine möglichst optimale Parameterwahl, die eine schnelle Erfassung
der Muster, Anomalien etc. ermöglicht. Somit ist die Vorgehensweise bei NN als
Methode der KI oder des ML ganz unterschiedlich.
Der Einsatz Neuronaler Netzwerke hängt demnach von dem erhofften Nutzen in
Unternehmen ab, und davon abhängig ist die Wahl einer geeigneten Infrastruktur sowie
der in Frage kommenden Netzwerke.
Um dies zu illustrieren, werden zwei Beispiele für die jeweilige Vorgehensweise
dargestellt. Als Methode wird jeweils ein Self-Enforcing Network (SEN) eingesetzt;
124 C. Klüver und J. Klüver

dabei handelt es sich um ein selbstorganisiert lernendes Netzwerk (s. Abschn. 2.1;
Karger et al., „Entscheidungsunterstützung zur Auswahl einer geeigneten Blockchain-
Technologie mit einem Self-Enforcing Network“). Da es hier um die Konkretisierung der
Vorgehensweise geht, wird auf Details verzichtet.

SEN als Entscheidungsunterstützung (KI-Ansatz)


Bei der Entwicklung eines Modells, das als Entscheidungsunterstützung für die Flug-
sicherung am Frankfurter Flughafen entwickelt wurde (Zinkhan 2021; Zinkhan et al.
2021), waren mehrere Experten involviert, nämlich Mitarbeiter des Deutschen Wetter-
dienstes (DWD), die die Wetterprognosen zur Verfügung stellen, der Flugsicherung,
die entscheiden müssen, welche Start- und Landebahn abhängig von den Wetter-
prognosen – in diesem Fall insbesondere der Windrichtung – gewählt werden muss, und
der Forschungsgruppe CoBASC, die das neuronale Netzwerk entwickelt haben. Das
Expertenwissen (Entscheidungen der Flugsicherung anhand der Wetterprognosen) und
die gesammelten Daten aus der Vergangenheit wurden verwendet, um einen jeweiligen
Referenztypen für zwei Start- und Landebahnen zu entwickeln (Abb. 3). Unter
„Referenztypus“ wird ein exemplarischer Fall verstanden, auf den andere Fälle sich
beziehen können.
Das komplexe Modell wurde über einen längeren Zeitraum evaluiert und angepasst,
bis sichergestellt werden konnte, dass die Empfehlungen durch SEN den Entscheidungen
der Verantwortlichen in der Flugsicherung entsprechen. In diesem Modell war das Ziel,
die kognitiven Leistungen der Fluglotsen zu rekonstruieren.
Die Entwicklung des Modells setzt theoretische wie praktische Kenntnisse voraus und
führte dazu, dass die zu lernende Datenmenge auf lediglich 2 Vektoren reduziert werden
konnte, die als Referenztypen für die jeweilige Landebahn, je nach Windrichtung, dienen.
Die jeweiligen Wetterprognosen werden im SEN automatisch als neue Inputvektoren
importiert und zu den beiden Referenztypen klassifiziert. SEN empfiehlt entsprechend,
welche Landebahn für die aktuellen Windverhältnisse am besten geeignet ist.1

SEN zur Analyse der Winddaten (ML-Ansatz)


Für den Einsatz von SEN als ML-Methode zur Datenanalyse, wurden die vom DWD
öffentlich zur Verfügung gestellten Winddaten verwendet (Deutscher Wetterdienst 2021).
Diese enthalten strukturierte Mess-Daten, die in Tab. 1 auszugsweise gezeigt werden.
Bei den vorgestellten Daten in Tab. 1 handelt sich um stündliche Messungen der
Messstation Frasdorf-Greimelberg (Stations-ID 15120) am 01.12.2021. QN steht für das
Qualitätsniveau der Daten, F für die mittlere Windgeschwindigkeit in m/s und D für die
mittlere Windrichtung in Grad.

1 Die Weiterentwicklung des Projektes wird vom Bundesministerium für Digitales und Verkehr für
drei Jahre gefördert.
Chancen und Herausforderungen beim Einsatz neuronaler … 125

Abb. 3 Modellentwicklung zur Entscheidungsunterstützung. (vgl. Zinkhan et al. 2021, 407 leicht
modifiziert)

Tab. 1  Auszug der Messdaten STATIONS_ID MESS_DATUM QN_3 F D


vom Deutschen Wetterdienst2
15120 2021120100 1 5.0 240
15120 2021120101 1 5.3 240
15120 2021120102 1 6.6 230
15120 2021120103 1 7.7 230
15120 2021120104 1 8.8 230
15120 2021120105 1 8.9 230

Als Ergebnis wird gezeigt, wie die Daten durch SEN strukturiert werden. SEN lernt
die Daten (Zuordnung der Messdaten an verschiedenen Tagen zu der jeweiligen Station)
vom 01.12.2021 bis zum 10.12.2021 (insgesamt 240 Datensätze, die die Informationen
aus Tab. 1 enthalten). Die Daten vom 01.01.2021 bis zum 30.11.2021 (insgesamt 8016
Messdaten) wurden als neue Inputvektoren in SEN importiert.

2 https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/subdaily/

wind/
126

Abb. 4 Ergebnis der Clusterung der Wind-Daten für das Jahr 2021. Die (roten) Kreuze repräsentieren die Lerndaten, die (blauen) Kreise die neuen
Inputvektoren. Links ist die Clusterung mit der Normalisierung der Daten zwischen −1 und 1, rechts zwischen 0 und 1
C. Klüver und J. Klüver
Chancen und Herausforderungen beim Einsatz neuronaler … 127

Die Daten wurden unterschiedlich normalisiert. Im ersten Fall in einem Intervall-


bereich zwischen −1 und 1, im zweiten zwischen 0 und 1. Die Ergebnisse werden in
Abb. 4 gezeigt.
Da es sich um ein sog. selbstorganisiert-lernendes Netzwerk handelt, werden die
Daten nach deren Ähnlichkeit strukturiert bzw. geclustert. Interessant ist, dass im SEN
bei der Normalisierung der Daten zwischen −1 und 1 drei Cluster entstehen. Eine kurze
Überprüfung der Daten zeigt, dass sich im Cluster links die Daten ab dem 28.09.2021
befinden, mit nur einer auffälligen Gemeinsamkeit: Alle geclusterten Datensätze haben
für das Attribut „Qualitätsmerkmale“ (QN_3) den Wert 1; rechts daneben sind alle Daten
mit dem Wert für dieses Attribut 3 und rechts mit dem Wert 10. Die Qualitätsmerkmale
sind wie folgt kodiert: „1 – nur formale Prüfung beim Entschlüsseln und Laden, 3 –
in ROUTINE mit dem Verfahren QUALIMET und QCSY geprüft, 10 – in ROUTINE
geprüft, routinemäßige Korrektur beendet“ (Deutscher Wetterdienst).
Bei der Normalisierung der Daten zwischen 0 und 1 ist die Einteilung in drei Clustern
nicht mehr erkennbar und nur eine entsprechende Analyse zeigt, ob lediglich die
Anordnung eine andere ist, oder ob die Normalisierung zu anderen Erkenntnissen führt.
Im Gegensatz zum vorherigen Beispiel können die Daten zunächst explorativ ana-
lysiert werden – ein zugrundeliegendes Modell ist nicht notwendig. Die weitere Analyse
der Daten ist natürlich ebenso abhängig von einer Fragestellung. In diesem Fall könnten
zum Beispiel die Ausreißer von Interesse sein, oder die Analyse der Daten, die teilweise
Subcluster entstehen lassen.
In beiden Fällen wurde derselbe Netzwerktyp verwendet, lediglich die Vorgehens-
weise war unterschiedlich. Generell lassen sich jedoch nicht alle Probleme mit einem
Netzwerktypus gleich gut lösen. Aus diesem Grund gibt es eine Vielzahl an ver-
schiedenen Netzwerktypen, die jeweils ihre Vor- und Nachteile haben.
Im nächsten Abschnitt werden daher die Grundkonzepte der NN erläutert; die Anzahl
der unterschiedlichen Netzwerktypen und deren primäre Eignung für verschiedene
Problemstellungen stellen bereits eine Herausforderung dar, der wir uns im Abschn. 3
widmen. In diesem Kontext wird demonstriert, wie neuronale Netzwerke bei dieser Ent-
scheidung unterstützend eingesetzt werden können. Da die unternehmerischen Ziele sehr
vielfältig sind, befassen wir uns in Abschn. 4 exemplarisch mit den Herausforderungen
und Vorteilen, die sich durch den Einsatz von NN ergeben, sowohl aus der KI- als auch
einer ML-Perspektive.

2 Grundkonzepte Neuronaler Netzwerke

Zunächst muss festgehalten werden, dass es nicht „das“ Neuronale Netzwerk gibt.
NN können als „Rahmen-Algorithmen“ verstanden werden, die teilweise zusätzlich
mit Funktionsschichten oder -Zellen angereichert werden, um komplexe Probleme
bearbeiten zu können. Entsprechend gibt es in der Zwischenzeit, wie bereits erwähnt,
128 C. Klüver und J. Klüver

zahlreiche Netzwerktypen, die für unterschiedliche Probleme erfolgreich eingesetzt


werden (Krüger 2021; Haarmeier 2021).
Im Folgenden werden wir – unter Verzicht auf Formeln – die Grundlogik der Netz-
werke erläutern und worin die Gemeinsamkeiten sowie Unterschiede bei den ver-
schiedenen Netzwerktypen bestehen.

2.1 Grundlegende Operationsweise Neuronaler Netzwerke


(entsprechend anpassen

Neuronale Netzwerke orientieren sich an der Funktionsweise natürlicher Neuronen,


daher auch der Name. In einer sehr einfachen Darstellung wird gezeigt, wie ein natür-
liches in ein formales Neuron transformiert werden kann (Abb. 5).
Die Informationen werden über Dendriten aufgenommen, über das Axon zu den
Synapsen weitergeleitet und fungieren in einem künstlichen NN als Eingabeneuronen
x, die mit anderen Neuronen verbunden sind; diese Informationen müssen für ein NN
numerischer Art sein. Die Gewichtswerte (w für weight) stellen die Stärke einer Ver-
bindung dar, die sowohl positiv als auch negativ sein kann.

Funktionen
Ein Neuron, das die Informationen an andere Neuronen weiterleitet, wird als sendendes
Neuron bezeichnet; ein empfangendes Neuron verwendet verschiedene Funktionen für
die Verarbeitung der Informationen. Die Berechnung eines sog. „Nettoinputs“ erfolgt
dadurch, dass alle ankommenden Informationen der sendenden Neuronen aufsummiert
werden; anschließend wird über eine „Aktivierungsfunktion“ berechnet, wie hoch die
tatsächliche Aktivierung sein soll; das bedeutet, dass die Aktivierung eines Neurons ein-
geschränkt werden kann, so dass dessen Wert z. B. nicht höher als 1.0 ist. Diese Funktion
ist in NN besonders wichtig. Schließlich wird über die „Ausgabefunktion“ bestimmt,

Abb. 5 Vereinfachte Darstellung eines natürlichen (linke Seite) und eines formalen Neurons
(rechte Seite) (Klüver et al. 2021, 174), erweitert um das Ergebnis eines Lernprozesses
Chancen und Herausforderungen beim Einsatz neuronaler … 129

welcher Wert an andere Neuronen weitergegeben wird, oder, falls es sich um ein Aus-
gabeneuron y handelt, welcher Wert als Ergebnis ausgegeben wird.
Damit wird die Informationsverarbeitung innerhalb eines NN beschrieben, jedoch
nicht dessen besondere Fähigkeit, nämlich die des Lernens. Im unteren Teil der Abb. 5
wird gezeigt, dass eine Verbindung zwischen zwei Neuronen sehr dick ist. Dies bedeutet
eine durch „Lernen“ generierte starke Verbindung der beiden Neuronen, z. B. für
logische oder semantische Zusammenhänge. Die entsprechende Veränderung erfolgt
im biologischen Vorbild, nämlich dem Gehirn, über bio-chemische Prozesse, in einem
künstlichen NN über spezifische Lernregeln.

Das Lernen in NN
Das Charakteristikum für die Lernfähigkeit bei NN besteht in einer besonderen Eigen-
schaft, nämlich die Veränderung der eigenen Topologie: Verbindungen können durch
Lernprozesse entstehen oder gekappt werden; zusätzlich wird anhand der speziellen
Lernregeln die Intensität der Verbindungen eigenständig verändert.
Die Lernregeln orientieren sich an klassischen Lernformen und werden in drei Haupt-
kategorien eingeteilt: Überwachtes, bestärkendes und selbstorganisiertes (nicht-über-
wachtes) Lernen (VDI 2019; Klüver et al. 2021).
Ein Netzwerk lernt „überwacht“, wenn dem Netzwerk die (erwarteten) Klassen oder
die Zielmuster mitgeteilt werden. Anhand der Lernregel wird zunächst die Differenz
zwischen „soll und ist“ berechnet und anschließend mit der sog. „Lernrate“ multipliziert.
Bei der Lernrate, ein Parameter, der in NN äußerst wichtig ist, handelt es sich um einen
numerischen Wert, der die Lerneffizienz beeinflusst. Der so berechnete Fehler sorgt für
eine Korrektur der jeweiligen Verbindungsgewichte.
Bei dem „bestärkenden“ Lernen wird dem Netzwerk jeweils mitgeteilt, ob das Ergeb-
nis besser oder schlechter ist und das Verhalten wird (im behavioristischen Sinne)
belohnt oder bestraft. Da die Netzwerke auf diese Weise eine sehr lange Trainingszeit
benötigen, wird diese Lernform überwiegend in hybriden Systemen eingesetzt; damit
ist die Koppelung verschiedener Netzwerke oder Algorithmen gemeint. Die aktuell
bekannteste Form solcher Koppelungen sind Agentensysteme oder Roboter, die mit NN
gekoppelt werden, um deren jeweilige Lerneffizienz zu steigern.
Die selbstorganisiert lernenden Netzwerke, auch als nicht-überwacht bezeichnet,
erhalten keine Ziele und auch keine unmittelbare Rückmeldung. Diese NN lernen
und bilden die Daten nach Ähnlichkeitskriterien ab und werden insbesondere für
die Clusterung und Klassifizierung von Daten eingesetzt. Die Lernregel ist meistens
kompetitiv und wird als „winner-take-all“ bezeichnet.
Diese grundlegenden Konzepte werden variiert und miteinander kombiniert, um
komplexe Probleme lösen zu können.
Im Folgenden werden allgemein die Gemeinsamkeiten und Unterschiede aufgezeigt
zwischen klassischen NN und solchen, die als „Deep Learning“ bezeichnet und über-
wiegend als Methode des Maschinellen Lernens eingesetzt werden. Da in der Praxis
überwacht-lernende Netzwerke dominieren, beziehen sich die Hinweise auf diesen Lern-
typus.
130 C. Klüver und J. Klüver

2.2 Klassische überwacht-lernende Neuronale Netze und Deep


Learning

Zu den klassischen überwacht-lernenden NN gehören die sog. Multi-Layer Perceptrons


(MLP), die deswegen so wichtig sind, da diese in den modernen Architekturen integriert
werden. Das Lernverfahren, das über viele Jahre gemeinsam mit diesen Netzwerken ein-
gesetzt wurde, ist der sog. „Backpropagation-Lernalgorithmus“.
In der allgemeinen Beschreibung der Lerntypen in Abschn. 2.1 wurde erwähnt, dass
dem Netzwerk ein Ziel vorgegeben wird. Das Netzwerk verändert seine „interne“ Topo-
logie, d. h. die Gewichtsmatrix, bis der gewünschte Lernerfolg eintritt. Besteht die sog.
„externe“ Topologie (Klüver et al. 2021) nur aus zwei Schichten, nämlich eine Ein-
gabe- und eine Ausgabeschicht, kann eine sehr einfache Lernregel verwendet werden,
die als „Delta“ oder „Widrow-Hoff“ Lernregel bezeichnet wird und allgemein so
beschrieben werden kann: Die Distanz zwischen soll (Ziel) und ist (Ausgabe des Netz-
werkes) wird mit der Lernrate multipliziert; das Ergebnis dieser Fehlerberechnung wird
für die Anpassung eines Gewichtswertes verwendet und dient im günstigen Falle der
Minimierung der Distanz bzw. des Fehlers. Für das gesamte Netz wird eine sog. Fehler-
funktion (loss function) bestimmt, um sicher zu stellen, dass alle Muster hinreichend gut
gelernt wurden. Der Vorgang wird so oft wiederholt, bis ein zufriedenstellendes Ergebnis
vorliegt.
Diese Lernregel funktioniert jedoch nicht in dieser Grundform bei mehr als zwei
Schichten. Sobald auch nur eine Zwischenschicht eingefügt wird, auch als „hidden
layer“ bezeichnet, muss die Lernregel erweitert werden, da keine Ziele für Neuronen
der Zwischenschicht vorgegeben werden können. Der berechnete Fehler durch die
Delta-Lernregel muss somit proportional für die Anpassung der Gewichte weiterer
Schichten „zurückgeschoben“ bzw. „zurück propagiert“ werden; deswegen wird die
Lernregel als „back propagation“ bezeichnet (u. A. Ertel 2021; Werner 2021). Es
sei an dieser Stelle bereits angemerkt, dass in ML bzw. DL dieses Lernverfahren als
„Gradientenabstiegslernen“ bezeichnet wird.
Dieses Lernverfahren ist die wichtigste Gemeinsamkeit zwischen den NN-Typen, die
zur Klasse der überwacht-lernenden Algorithmen zählen. Eine weitere Gemeinsamkeit
besteht darin, dass zusätzlich sog. Optimierer (Optimizer) verwendet werden, um die
Lerneffizienz zu steigern.
Für alle Netzwerktypen müssen neben der Bestimmung der Aktivierungs- und Aus-
gabefunktion bestimmte Parameter eingestellt werden, wie zum Beispiel die Anzahl der
Schichten oder die Lernrate. In DL bzw. ML wird differenziert zwischen Parametern, die
manuell vor dem Training eingestellt werden müssen, als Hyper-Parameter bezeichnet,
und Parameter, die gelernt werden; damit sind zum Beispiel die Gewichtswerte gemeint
(VDI 2020).
Die größte Herausforderung bei allen NN-Typen besteht darin, das Zusammenspiel
zwischen Topologie, Parametern, Funktionen und ggf. Optimierern zu berücksichtigen
und eine möglichst optimale Wahl zu treffen.
Chancen und Herausforderungen beim Einsatz neuronaler … 131

Die unterschiedlichen NN-Typen lassen sich anhand der Architektur (externe Topo-
logie) und insbesondere durch deren zusätzlichen „Funktionsschichten“ oder „Funktions-
zellen“ unterscheiden (Klüver et al. 2021). Das klassische MLP besteht aus mindestens
drei Schichten (Eingabe-, Zwischen und Ausgabeschicht), wobei die Informationen
vorwärtsgerichtet (feed forward) von der Eingabeschicht zur Ausgabeschicht weiter-
geleitet werden (Abb. 6).
Diese Netzwerke haben eine lange Tradition und werden nach wie vor vielfältig
eingesetzt, zum Beispiel für Zeitreihen-, Datenanalysen, (medizinische/technische)
Prognosen (z. B. Wijayaningrum et al. 2021), Regressionsanalysen oder Schätzung von
Metallelementen im Boden (Li et al. 2022). Für Textklassifizierungen zeigen Galke und
Scherp (2021), dass diese auf Grund neuester Entwicklungen nicht in Vergessenheit
geraten sollten.

Deep Learning-Architekturen als Methoden des Maschinellen Lernens


Zwischenzeitlich gibt es eine große Anzahl an Netzwerktypen und Architekturen von
denen drei Konzepte allgemein vorgestellt werden (Adate und Tripathy 2022).
Zu den bekanntesten Netzwerktypen gehören aktuell die „Faltungsnetze“
(Convolutional Neural Networks – CNN), Netzwerke mit Lang-Kurzzeitgedächtniszellen
(Long Short-Term Memory – LSTM) sowie Variationen der Autoencoder (AE). Genau
betrachtet, handelt es sich um Konzepte, die verschieden kombiniert werden können.
Die Charakteristika dieser Netzwerke werden in Abb. 6 oberhalb (CNN) und unter-
halb des klassischen MLP-Netzwerkes dargestellt (LSTM links und AE rechts).

Convolutional Neural Networks (CNN)


Diese Netzwerke sind durch die Convolutional- und Pooling-Schichten charakterisiert.
Diese Schichten sind essenziell für die Extraktion der Merkmale (zum Beispiel in
einem Bild) und zur Komprimierung der Daten (Cisek 2021; Werner 2021). Der Begriff
der „Faltung“ mag auf den ersten Blick verwirren, da bei diesen Netzwerken nichts
im üblichen Wortsinne „gefaltet“ wird, sondern nur im mathematischen Sinne, indem
spezielle Funktionen eingesetzt werden.
Wenn dem Netzwerk ein Bild als Matrix (Breite x Höhe x Farbkanäle) präsentiert
wird, werden sog. „Filter“ eingesetzt, die dafür zuständig sind, die Merkmale
wie Kanten, Linien oder bestimmte Formen aus dem Gesamtbild herauszulösen
(Convolutional Layer) und zusätzlich, zum Beispiel, eine mögliche Verrauschung zu
eliminieren (Pooling Layer). Dadurch wird die Gesamtmenge der Informationen auf
die wesentlichen Merkmale reduziert (komprimiert). Für das eigentliche Neuronale
Netzwerk (in ML häufig als „dense layer“ oder „fully connected“ bezeichnet), im ein-
fachsten Falle ein MLP mit nur einer Zwischenschicht, muss die jeweilige Matrix zu
einem Vektor umgewandelt werden. Dieser Prozess wird als „flattening“ bezeichnet.
Somit handelt es sich bei den Convolution- und Pooling-Schichten, sehr vereinfacht
ausgedrückt, um Funktionsschichten, die dazu dienen, für das Neuronale Netzwerk die
Daten auf das Wesentliche zu reduzieren, und damit auf das, was vom Netzwerk gelernt
werden soll.
132 C. Klüver und J. Klüver

Abb. 6 Im Zentrum befindet sich die Architektur (externe Topologie) eines MLP. Oberhalb und
unterhalb werden Funktionsschichten bzw. Funktionszellen dargestellt. (vgl. Klüver et al. 2021)
Chancen und Herausforderungen beim Einsatz neuronaler … 133

Long Short-Term Memory (LSTM)


Diese Netzwerke werden als rekurrent bezeichnet3, da über sog. Gedächtniszellen
frühere Zustände oder Informationen berücksichtigt werden können. Eine solche Zelle
verfügt über drei Tore: Vergessens-, Eingabe-, und Ausgabetor (Abb. 6 unten links).
Die Trainingsdatensätze werden im Netzwerk nach und nach eingegeben und jedes
Tor erfüllt eine bestimmte Funktion: Im Vergessenstor wird festgelegt, wie viele ver-
gangene Informationen beibehalten oder „vergessen“ werden; im Eingabetor wird ent-
schieden, welche neue Information zu einem aktuellen Zustand hinzugefügt wird;
schließlich wird durch das Ausgabetor nur der Wert ausgegeben, der für die weitere Ver-
arbeitung relevant ist.
Diese Zellen haben die Funktion eines „Gedächtnisses“, da frühere Informationen
nicht zwangsläufig verloren gehen. Damit können zum Beispiel Zeitreihen oder Sprach-
und Texterkennung effizienter durchgeführt werden (Haarmeier 2021).

Autoencoder
Die besondere Fähigkeit der Autoencoder besteht darin, die Eingabedaten so gut zu
komprimieren, dass sie anschließend wieder reproduziert werden können. Für die Netz-
werke sind zwei zusätzliche (Funktions-)Schichten wichtig: In der Encoder-Schicht
werden wesentliche Merkmale (latente Repräsentationen) gelernt; die Dekomprimierung,
also die Reproduzierung der Eingabedaten, erfolgt in der Decoder-Schicht.
Diese Netzwerke werden mitunter als „selbst-überwacht“ bezeichnet, da der
Inputvektor „intern kopiert“ wird (also nicht von außen vorgegeben) und somit dem
Netz als „Zielvektor“ dient. Der Lernprozess mit der Backpropagation-Lernregel besteht
darin, den Fehler in der latenten Repräsentation zu minimieren (Singh und Ogunfunmi
2022).
Zwischenzeitlich gibt es zahlreiche Variationen und Erweiterungen und insbesondere
„hybride Ansätze“ wie die Koppelung der Autoencoder mit CNN oder LSTM (z. B.
Gauger et al. 2022; Singh und Ogunfunmi 2022).
Überwiegend ist das „Rahmennetzwerk“ nach wie vor das Multi-Layer-Perceptron
(MLP), angereichert durch zusätzliche Schichten und/oder Zellen, die jeweils mit-
einander kombiniert werden, um große Datenmengen bewältigen zu können.
Es sind, Dank der fortgeschrittenen Technik, in verschiedenen Bereichen Erfolge
erzielt worden, der Preis dafür ist jedoch die Erhöhung der Komplexität, da zusätzliche
Berechnungen, Funktionen, Optimierer etc. Teile des Netzwerkes werden, wodurch das
Training dieser Netzwerke und die Interpretation der Ergebnisse nicht einfach sind.
Um einen kleinen Eindruck zu vermitteln, welche Probleme mit NN bearbeitet
werden, zeigen wir eine Auswahl an Architekturen und exemplarisch deren Einsatz-
gebiete.

3 Ursprünglich bezog sich der Begriff Rekurrenz auf den Informationsfluss innerhalb eines Netz-
werkes.
134 C. Klüver und J. Klüver

3 Einsatzgebiete Neuronaler Netzwerke und geeignete


Architekturen

Im Folgenden orientieren wir uns erneut an der Unterscheidung zwischen theorie- und
modellorientierten NN-Typen und Architekturen, die große Datenmengen verarbeiten
können und zu den ML-Methoden gehören.

Theorie- und modellorientierte NN


In Abb. 7 wird eine Auswahl verschiedener NN-Typen gezeigt, die an natürlichen
Prozesse orientiert sind. Die sog. Hopfield-Netze verhalten sich nach den physikalischen
Prinzipien des Magnetismus (Kruse et al. 2015; Katal und Singh 2022). Verfahren
der Thermodynamik spielen eine wesentliche Rolle und als Lernregel wird die sog.
Hebbsche Lernregel eingesetzt.4 Diese Lernregel kann als Grundform des bestärkenden
Lernens verstanden werden, indem einzelne Neuronen sich gegenseitig verstärken, wenn
sie zusammengehören.
Die Adaptive Resonanztheorie (ART) und deren Variationen, die Selbstorganisierende
Karte (Self-Organized Maps – SOM) und Selbstverstärkende Netzwerke (Self-Enforcing
Networks – SEN) orientieren sich an biologische Prinzipien des Gehirns und ermög-
lichen, insbesondere kognitive Fähigkeiten zu modellieren (Brito da Silva et al. 2019;
Yorek et al. 2016; Grossberg 2021; Klüver und Klüver 2021a, b, 2022).
Schließlich gehören zu dieser Kategorie die bereits erwähnten Multi-Layer-
Perceptrons (MLP), denen die biologische Reizverarbeitung im Gehirn anhand der
Wahrnehmung zum Vorbild diente (von der Malsburg 1986). Die theoretischen Konzepte
und Modelle sind durch den Erfolg der Algorithmen in den Hintergrund geraten, doch
diese Prinzipien dienen zum Beispiel für die Entwicklung eines Perceptron Modells für
Quantum Computer (Maronese und Prati 2021).
In Abb. 7 werden zu den vereinfacht dargestellten Architekturen, dem theoretischen
Hintergrund sowie dem Lernverhalten einige Anwendungsgebiete exemplarisch vor-
gestellt.
Wie bereits erwähnt, finden sich MLP in den meisten Deep Learning-Methoden, auf
die wir ebenfalls nur exemplarisch hinweisen können.

Daten- und Performanz orientierte NN


In Abb. 8 werden die bekanntesten Konzepte überwacht-lernender Netzwerke vor-
gestellt, sowie deren möglichen Einsatzgebiete. Zu den bereits thematisierten CNN und
LSTM (Abschn. 2.2) sind sog. ResNet-Varianten (Residual Networks) zu erwähnen, die
repräsentativ für „Transferlearning“ stehen. Wie der Abbildung zu entnehmen ist, spielen

4 DieHebbsche Lernregel ist für alle neuronale Netzwerke fundamental und findet sich in allen
Lernregeln wieder.
Chancen und Herausforderungen beim Einsatz neuronaler … 135

Abb. 7 Kleine Übersicht theorie- und modellorientierter NN-Architekturen. (Katal und Singh
2022, 246 (Hopfield); Brito da Silva et al. 2019, 3 (ART); Klüver et al. 2021, 216 (SOM), vgl.
Yorek et al. 2016, 3)

Convolutional Layer eine wichtige Rolle und das Besondere ist, dass es sich um vor-
trainierte Netzwerke handelt, die für andere Probleme angepasst werden. Damit kann die
Trainingszeit signifikant verkürzt werden.
Das Konzept rekurrenter Netzwerke ist insbesondere wichtig, wenn Informationen
in der Zeit berücksichtigt werden sollen. Dieses Verfahren wird in LSTM verfeinert und
erweitert ausgenutzt.
Bei den folgenden Netzwerkarchitekturen in Abb. 9 handelt es sich um gekoppelte
(hybride) Systeme, die eine Mischform zwischen überwachtem und unüberwachtem
Lernen aufweisen. Diese unüberwachte Form des Lernens entspricht dem des
maschinellen Lernens (Welsch et al. 2018; Richter 2019), das auf statistischen Lernver-
fahren basiert und nicht dem selbstorganisierten Lernen in Abschn. 2.1 entspricht.
136 C. Klüver und J. Klüver

Abb. 8 Überwacht-lernende Netzwerke. (VDI 2019, 10 und Thiemermann et al. 2021, 330
(CNN); Klüver et al. 2021, 206 und 234 (LSTM und ResNet); Wikipedia.org (RNN))

Die Variational Autoencoder (AE) sind eine Erweiterung der in Abschn. 2.2
erwähnten Autoencoder, indem zusätzlich Wahrscheinlichkeitsverteilungen bei der
latenten Repräsentation berücksichtigt werden (Singh und Ogunfunmi 2022). Diese
können nicht nur Daten komprimieren und dekodieren, sondern ebenso neue Inhalte
generieren, die den bereits gelernten ähneln.
Für die Generierung neuer, insbesondere synthetischer Daten, haben sich die
Generative Adversial Networks (GAN) bewährt. Diese werden unter anderem für die
Chancen und Herausforderungen beim Einsatz neuronaler … 137

Abb. 9 Hybride Netzwerkarchitekturen. (Nach Mohammadi et al. 2018). Bei den beiden
umrandeten Architekturen handelt es sich nicht um neuronale Netzwerke im strengen Sinne

Generierung von Daten eingesetzt, wenn zu wenige Trainingsdaten vorhanden sind


(Goodfellow 2020; Bazarbaev et al. 2022). In der Bildbearbeitung können diese bei-
spielsweise neue Gesichter aus einem Beispiel von exemplarischen Datensätzen
generieren.
138 C. Klüver und J. Klüver

Die letzten beiden Architekturen, nämlich „Restricted Boltzmann Machines“ (RBM)


und „Deep Belief Networks“ (DBN) sind in der Abbildung umrandet, da RBM nicht
zu der Klasse neuronaler Netzwerke gehören, sondern zu den klassischen Methoden
des maschinellen Lernens (s. Abb. 2). Werden diese als Schichten mit einem über-
wacht-lernenden Netzwerk gekoppelt, handelt es sich um ein „Deep Belief“ Netzwerk
(Ghojogh et al. 2021). In diesem Fall dienen RBM als Funktionsschichten für MLP, die
den Zweck haben, das Training in MLP mit sehr vielen Schichten („tiefe Netze“, daher
Deep Learning) zu ermöglichen.
Diese kleine Auswahl an Architekturen zeigt, wie vielfältig neuronale Netze
konstruiert werden können. Um große Datenmengen verarbeiten zu können, sind ins-
besondere für überwacht-lernende Netzwerke zusätzliche Funktionen und Algorithmen
konzipiert worden, um die Daten zu komprimieren oder um Nachteile des Standard-
Lernalgorithmus (Backpropagation bzw. Gradientenabstiegslernen) bei einer sehr hohen
Anzahl an Schichten zu kompensieren.
Die Kombination mit unüberwacht-lernenden Algorithmen ist wichtig, um Daten ver-
arbeiten zu können, die keine Bezeichner haben (Labels) oder deren Zielobjekte oder
-klassen nicht bekannt sind.
NN werden auch eingesetzt, um das Lernen anderer Systeme überhaupt zu ermög-
lichen, zu beschleunigen bzw. zu verbessern wie im Falle der Agentensysteme oder der
Robotik, deren Einheiten die Strategien nach dem Prinzip des bestärkenden Lernens
entwickeln und bei denen eine Vorgabe der Ziele nicht praktikabel ist (Botvinick et al.
2020).
Die Kombinationsvielfalt ist kaum noch überschaubar, der Preis dafür ist, wie
bereits bemerkt, dass die Systeme immer komplexer werden, wodurch das Finden einer
geeigneten Architektur und einer optimalen Parameterwahl sehr viel Zeit in Anspruch
nimmt.

Auswahl eines geeigneten Netzwerktypus


Die Auswahl eines geeigneten Netzwerktypen ist, insbesondere für Anfänger auf dem
Gebiet, nicht einfach. Nun kann man für dieses Problem auch neuronale Netzwerke als
Entscheidungsunterstützung einsetzen.

Erste mögliche Option Das Vorgehen zur Erstellung eines solchen Unterstützungssystems
kann sehr unterschiedlich sein. Zum einen können verschiedene Algorithmen eingesetzt
werden, um automatisiert Texte im Internet zu suchen, die Anwendungen neuronaler
Netzwerke beinhalten. Diese gefundenen Dokumente können durch Spracherkennungs-
algorithmen analysiert werden. Die in Frage kommenden Texte werden weiterhin ana-
lysiert, selektiert und kodiert, um die Trainingsdaten für ein NN zu erhalten.
Chancen und Herausforderungen beim Einsatz neuronaler … 139

Da die Datenmenge je nach Suchanfrage sehr hoch ist (nur für die Suchanfrage
„Neuronale Netze für die Bilderkennung“ wurden Anfang des Jahres 2022 bei Google
Scholar 1270 Dokumente gefunden; für „neural networks for image recognition“ waren
es 2.190.000), bietet sich für das Training des Entscheidungssystems zum Beispiel die
Koppelung von AE, CNN und LSTM an. Grundsätzlich bieten sich ebenso andere Netz-
werktypen an, die in diesem Beitrag nicht thematisiert werden.
Nach dem Training eines Netzwerkes, das eine Zuordnung der NN-Eigenschaften auf
entsprechende Netzwerktypen lernt, kann ein Benutzer (als neuer Eingabevektor) seine
Anfrage hinsichtlich seines Interesses stellen und eine Netzwerk-Empfehlung für einen
Anwendungsfall erhalten.
Dies ist ein sehr komplexer und langwieriger Weg, ganz zu schweigen von den
Kosten, denn dieser Prozess muss für alle möglichen Anwendungen durchlaufen werden.
Diese Option ist jedoch zum Beispiel bei der Analyse sozialer Netzwerke interessant,
sofern ein Unternehmen einen Mehrwert in solchen Analysen sieht.

Zweite mögliche Option Eine andere Option besteht darin, dass Experten eine Ein-
schätzung der Eignung von Netzwerktypen für verschiedene Anwendungen abgeben.
Daraus wird ein Modell entwickelt und einem Netzwerk als Trainingsmenge präsentiert.
Anschließend kann ein Benutzer erneut seine Suchanfrage stellen.
Das entstandene Modell kann mit verschiedenen Netzwerken getestet werden (z. B.
SOM oder MLP). In Abb. 10 zeigen wir die Ergebnisse mit einem zweischichtigen über-
wacht-lernenden Netzwerk (unter Anwendung der Delta-Lernregel) und dem selbst-
organisiert lernenden Netzwerk SEN.
Die Netzwerke haben die Zuordnung von 27 Merkmalen und Anwendungsgebieten
zu einer Auswahl an Netzwerktypen gelernt. Anschließend erfolgt nach einer Anfrage,
in unserem Beispiel „Bilderkennung mit großen Datenmengen“ die Empfehlung eines
Netzwerkes.
Beide Netzwerke empfehlen in diesem Fall ein CNN, da es sich um große Daten-
mengen handelt. Entsprechend können verschiedene Anwendungsfälle nach dem
Trainingsprozess eingegeben werden, um eine Empfehlung zu erhalten.
Diese Option verbraucht weniger Ressourcen und bietet sich an, wenn innerhalb eines
Unternehmens ein entsprechendes Know-How vorliegt oder Externe befragt werden
können und die Datenmenge überschaubar ist.
Ein und dasselbe Problem kann demnach methodisch ganz unterschiedlich gelöst
werden, der jeweilige algorithmische Aufwand und Ressourcenverbrauch ist jedoch
nicht vergleichbar. Aus diesem Grund stellt sich immer die Frage nach dem unter-
nehmerischen Mehrwert.
140

Abb. 10 Links die Empfehlung eines überwacht-lernenden zweischichtigen Netzwerkes, rechts die Empfehlung durch SEN, in diesem Beispiel mit
der sog. SEN-Visualisierung. Je näher ein Netzwerktypus zum Zentrum angezogen wird, desto größer die Übereinstimmung zu der Suchanfrage
C. Klüver und J. Klüver
Chancen und Herausforderungen beim Einsatz neuronaler … 141

4 Chancen und Herausforderungen

In der beruflichen Praxis werden wir sehr häufig damit konfrontiert, dass neuronale
Netze eine gewisse Faszination auslösen, die Funktionsweise jedoch nicht ganz einfach
zu verstehen ist. Die verwirrende Vielfalt an Netzwerktypen, Parametern, Optimieren
und zusätzlichen Algorithmen führen erst recht dazu, dass eine intensive Auseinander-
setzung mit der Materie unumgänglich ist – und damit leider die Faszination eher der
Resignation Platz macht.5
Weitere Erfahrungen zeigen, dass in Unternehmen eine gewisse Unsicherheit vor-
herrscht, ob unbedingt riesige Datenmengen vorliegen müssen (Big Data) oder „nur“
mehrere Gigabyte ausreichen, um eine KI sinnvoll einzusetzen.
Geht es um Sicherheitsaspekte wird es noch schwieriger, denn da stellt sich die Frage,
ob man einer KI oder NN vertrauen kann, wenn nicht nachvollziehbar ist, wie diese
zu einem Ergebnis kommen. Wie kann also sichergestellt werden, dass die Netzwerke
Sicherheitslücken rechtzeitig aufdecken?
Diese Fragen können nur individuell beantwortet werden, da es keine Pauschalaus-
sagen oder Patentrezepte geben kann. Es sei nur angemerkt, dass die Datenmenge für
ein KI-orientiertes Modell im oben definierten Sinne nicht ausschlaggebend ist; sind
umgekehrt sehr viele Datenmengen vorhanden (Big Data), dann müssen nicht nur die
Netzwerke eine entsprechende Leistung erbringen können (ML-orientierter Ansatz),
sondern auch die Hardware – und damit verbunden, muss eine passende Infrastruktur
vorliegen. Somit sind zunächst einige Herausforderungen zu berücksichtigen.

Herausforderungen
In der aktuellen Diskussion um Digitalisierung und KI im Allgemeinen werden gerade für
KMU in der Literatur etliche Herausforderungen als auch Chancen angesprochen (z. B.
Haarmeier 2021; Aichele und Herrmann 2021; Axmann und Harmoko 2021; Mockenhaupt
2021; Pohlink und Fischer 2021; Gauger et al. 2022; Schneider 2022; Hartmann 2022).
An dieser Stelle sollen lediglich einige Aspekte angesprochen werden.

Datenqualität Die Digitalisierung und Anwendung von (KI- und ML-)Methoden


gehen Hand in Hand. Je besser die Datenqualität ist, je einheitlicher und reproduzier-
barer die Daten kodiert werden (z. B. Datum, Uhrzeit, Namen, Dokumentarten, Struktur
der Daten/Tabellen, etc.), umso „leichter“ ist die Vorverarbeitung der Daten für die
Methodenanwendung. Die Vorverarbeitung und Auswahl der Daten beanspruchen grund-
sätzlich sehr viel Zeit, daher wäre es wünschenswert, sich unternehmensintern und mit
den Kooperationspartnern auf entsprechende Vorgaben zu einigen.6

5 Die komplexen Berechnungen in vielen neuronalen Netze haben uns veranlasst, SEN zu
konzipieren, da es unwahrscheinlich ist, dass das Gehirn zum Beispiel die Verknüpfungen per
Zufall generiert oder komplizierte Berechnungen durchgeführt werden.
6 Es ist z. B. erstaunlich wie viele Schreibweisen für die Stadt Köln in einer Datenbasis zu finden

waren.
142 C. Klüver und J. Klüver

Rechtliche, ethische Normen Zwischenzeitlich gibt es einige Richtlinien, die zu


beachten sind (VDI 2020; Grätz 2021; Wittpahl 2021; Mangelsdorf 2022). Die Analyse
unternehmerischer Daten ermöglichen zwangsläufig auch die Überprüfung des Mit-
arbeiterverhaltens. Da beispielsweise Mitarbeiter Dokumente auf den Server hoch- oder
runterladen, bestimmte Seiten aufrufen etc. ist deren Arbeitsverhalten implizit schon ver-
folgbar.7 Werden diese Daten zum Training eines NN verwendet, sollten die Mitarbeiter
involviert werden.

Methodenkompetenz Der Umgang mit neuronalen Netzen erfordert viel Erfahrung.


Da die unterschiedlichen Netzwerkarchitekturen sehr komplex sein können, sind
Spezialisierungen auf bestimmte Netzwerktypen gängige Praxis. Es ist zwar grundsätz-
lich möglich, verschiedene Netzwerktypen zur Lösung eines Problems einzusetzen, der
Ressourcenverbrauch kann jedoch sehr unterschiedlich ausfallen.

Infrastruktur Es gibt zahlreiche Frameworks und Bibliotheken, die den Einsatz von
neuronalen Netzwerken als Methode des maschinellen Lernens erleichtern; deren
Nutzung erfordern jedoch eine sehr gute Fachkompetenz und eine entsprechende Infra-
struktur (VDI 2020). Somit ist der unternehmerische Mehrwert, der zum Beispiel über
Leistungskennzahlen ermittelt werden kann, von entscheidender Bedeutung.

Vorgehensweise
Für die Darstellung der Vorgehensweise bei der unternehmerischen Einführung neuro-
naler Netzwerke als Methode des maschinellen Lernens folgen wir der Empfehlung
des VDI (2020; vgl. Reinhart et al. 2018); diese wird für den Einsatz als KI-orientierte
Methode generalisiert Abb. 11.
Typische Phasen eines ML- oder KI-Projektes. Im Verantwortungsbereich des Unter-
nehmens sollten alle in grau gekennzeichneten Phasen bleiben; die anderen Phasen
(schraffiert) können mit externen Experten realisiert werden (VDI 2020, 21).
Die Identifikation eines Anwendungsfalls fällt je nach Ausrichtung des Unternehmens
unterschiedlich aus. Für ein produzierendes Unternehmen, in dem hochentwickelte
technische Maschinen eingesetzt werden, dürfte es eher naheliegend sein, NN für die
Überprüfung der Qualität einzusetzen. Dies gilt auch für die Überwachung von Sensor-
daten.
Für beratende Dienstleistungsunternehmen dürfte es schwieriger sein, sich zu über-
legen, in welchem Maße NN eingesetzt werden können. Hier spielen Aspekte wie
Erfahrung, Intuition und Einschätzungsfähigkeit einer sozialen Situation eine wichtige
Rolle, Fähigkeiten also, die einer Maschine nicht zugetraut werden.

7 Dies ist natürlich grundsätzlich mit verschiedenen Methoden möglich.


Chancen und Herausforderungen beim Einsatz neuronaler … 143

Abb. 11 Vorgehensweise bei der unternehmerischen Einführung. (vgl. VDI 2020, 21)

Die Phasen „Erhebung der Trainingsdaten“ bzw. „Experten einbinden“ und „Kate-
gorisierung der Trainingsdaten“ bzw. „Modellentwicklung“ weisen auf die unterschied-
liche methodische Vorgehensweise hin (Abschn. 1) beim Einsatz von NN. In beiden
Fällen sind unternehmerische Fachkenntnisse erforderlich. Mit Experten sind Mitarbeiter
gemeint, deren spezifisches Fachwissen für die Entwicklung des KI-Modells erforder-
lich ist (s. Beispiele zur Auswahl einer geeigneten Landebahn oder eines geeigneten
Netzwerktypus). Dieses Expertenwissen kann auch für Modelle genutzt werden, die
kognitive, soziale Fähigkeiten sowie Erfahrungswissen voraussetzen.
Die weiteren Phasen sind, wie der Abb. 11 zu entnehmen ist, sehr ähnlich, die
Validierung im Falle der KI-Modellierung muss nicht nur hinsichtlich der Leistungs-
fähigkeit des neuronalen Netzwerkes, sondern auch hinsichtlich des entwickelten
Modells erfolgen.
Die zyklische Überprüfung des Systems ist in beiden Fällen wichtig, da neue Daten
auch einen Einfluss auf das jeweilige NN-Ergebnis haben können. Somit ist davon aus-
zugehen, dass die NN-Modelle angepasst werden müssen.

Chancen
Während die Herausforderungen für alle Ausrichtungen der KMU sehr ähnlich sind,
sind die Vorteile nicht allgemein einzuschätzen. Einige Anregungen können helfen,
Anwendungsmöglichkeiten zu identifizieren.
In produzierenden Unternehmen, bei denen es zum Beispiel um die Qualitätsprüfung
der Produkte geht, ist der Einsatz neuronaler Netzwerke von großem Vorteil. Die Über-
prüfung ist durch Menschen allein schon durch die Geschwindigkeit in der Produktion
144 C. Klüver und J. Klüver

nicht zu bewältigen. Darüber hinaus lassen sich auch Anomalien leichter erkennen (VDI
2020).
Im Bereich der Personalplanung werden neuronale Netze schon seit einigen Jahren
in verschiedenen Kontexten (auch kritisch) diskutiert. Durch die Digitalisierung werden
neue Potentiale aufgezeigt (Roedenbeck et al. 2021; Loscher 2021; Klüver und Klüver
2021a; Jing et al. 2022).
Allgemein kann festgehalten werden, dass NN mit der Fähigkeit des Deep Learning
für Bild- und Textbearbeitung, Zeitreihen und Prognosen als Unterstützungsinstrument
eingesetzt werden können. Die Vorteile sind allerdings realistisch einzuschätzen, da die
Leistungsfähigkeit einiger Grenzen unterliegen.
Um weitere Potentiale zu erschließen sind insbesondere die Bereiche zu untersuchen,
für die es keine Unterstützungssysteme gibt – für die Bereiche demnach, in denen Mit-
arbeiter nach dem „Bauchgefühl“ entscheiden müssen oder für die Standardalgorith-
men nicht geeignet sind. Ebenso dienen diese als Unterstützung für Entscheidungen, die
subjektiven Kriterien unterliegen. Anhand der Ergebnisse können ggf. Präzisierungen
z. B. bei der Klasseneinteilung vorgenommen werden. In Klüver und Klüver (2021a, b)
werden einige Einsatzmöglichkeiten im betrieblichen Kontext gezeigt.

5 Fazit

Es wird angenommen, dass durch die Digitalisierung sehr viele zusätzliche Daten zur
Verfügung stehen werden, die in vielfältiger Weise genutzt werden können, um die
Wertschöpfungskette zu verbessern. In der aktuellen Diskussion wird ebenso die Not-
wendigkeit einer neuen Führung (Digital Leadership) oder eines agilen Projekt-
managements diskutiert (Landes et al. 2022; Roth und Corsten 2022; Schneider 2022).
Gerade auf diesem Gebiet können neuronale Netzwerke als KI-Methode fruchtbar ein-
gesetzt werden. Gemeinsam mit Mitarbeitern können innerbetriebliche Modelle ent-
wickelt werden, die als Entscheidungsunterstützung eingesetzt werden. Zugleich besteht
die Chance, eine Transparenz zu schaffen, die zu einer erhöhten Mitarbeiterzufriedenheit
führt.
Das Ziel dieses Beitrags ist die Vermittlung eines grundlegenden Verständnisses des
vielfältigen Gebiets der NN. Deswegen haben wir bewusst darauf verzichtet, alle kaum
noch überschaubaren Einzelheiten genau zu erklären; insbesondere sind die formal-
mathematischen Details hier nicht dargestellt. Die entsprechenden Literaturhinweise
füllen diese Lücken (hoffentlich) aus. Es ging uns auch um einen Orientierungsrahmen
in dem Sinn, dass Interessenten an NN hier erste Informationsmöglichkeiten erhalten,
wie ihre Probleme durch den Einsatz von NN erfolgreich bearbeitet werden können.
Insofern geht es, metaphorisch gesprochen, um einen ersten Ausblick in eine (noch)
unbekannte Landschaft.
Chancen und Herausforderungen beim Einsatz neuronaler … 145

Ein konkretes Verständnis dieser Techniken setzt freilich die eingehende


Beschäftigung mit dem gewählten Typus voraus. Auch für dies abstrakte Gebiet gilt, wie
so häufig, der berühmte Satz von Erich Kästner: „Es gibt nichts Gutes, außer man tut es.“

Literatur

Adate A, Tripathy BK (2022) A survey on deep learning methodologies of recent applications. In:
Acharjya DP, Mitra A, Zaman N (Hrsg) Deep learning in data analytics. Studies in big data, Bd
91. Springer, Cham. https://doi.org/10.1007/978-3-030-75855-4_9
Aichele C, Herrmann J (Hrsg) (2021) Betriebswirtschaftliche KI-Anwendungen. Springer Vieweg,
Wiesbaden. https://doi.org/10.1007/978-3-658-33532-8
Axmann B, Harmoko H (2021) Herausforderungen bei der Einführung neuer digitaler Techno-
logien bei KMU Teil 1: Am Beispiel der Künstlichen Intelligenz. Z Wirtsch Fabr 116(4):269–
271
Bazarbaev M, Chuluunsaikhan T, Oh H, Ryu G-A, Nasridinov A, Yoo K-H (2022) Generation
of time-series working patterns for manufacturing high-quality products through auxiliary
classifier generative adversarial network. Sensors 22(1)
Botvinick M, Wang JX, Dabney W, Miller JM, Kurth-Nelson Z (2020) Deep reinforcement
learning and its neuroscientific implications. Neuron 107(4):603–616. https://doi.org/10.1016/j.
neuron.2020.06.014
Brito da Silva LE, Elnabarawy I, Wunsch DC (2019) A survey of adaptive resonance theory neural
network models for engineering applications. Neural Netw 120:167–203
Cisek G (2021) Machtwechsel der Intelligenzen. Springer Wieweg, Wiesbaden. https://doi.
org/10.1007/978-3-658-31863-5
Deutscher Wetterdienst (2021) https://opendata.dwd.de/climate_environment/CDC/observations_
germany/climate/subdaily/wind/. Zugegriffen: 10. Dez. 2021
Ertel W (2021) Neuronale Netze. In: Ertel W (Hrsg) Grundkurs Künstliche Intelligenz: Eine
praxisorientierte Einführung. Springer Fachmedien Wiesbaden, Wiesbaden, S 285–349
Galke L, Scherp A (2021) Forget me not: A gentle reminder to mind the simple multi-layer
perceptron baseline for text classification. arXiv preprint arXiv:2109.03777
Gauger I, Nagel T, Huber M (2022) Hybrides Maschinelles Lernen im Kontext der Produktion. In:
Hartmann EA (Hrsg) Digitalisierung souverän gestalten II. Handlungsspielräume in digitalen
Wertschöpfungsnetzwerken. Springer, Heidelberg, S 64–79
Ghojogh B, Ghodsi A, Karray F, Crowley M (2021) Restricted boltzmann machine and deep belief
network: tutorial and survey. arXiv preprint arXiv:2107.12521
Goodfellow I, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, Courville A, Bengio
Y (2020) Generative adversarial networks. Commun ACM 63(11):139–144. https://doi.
org/10.1145/3422622
Grätz A (2021) Schutz des Systems – Künstliche Neuronale Netze. In: Grätz A (Hrsg) Künstliche
Intelligenz im Urheberrecht: Eine Analyse der Zurechnungskriterien und der Prinzipien der
Verwandten Schutzrechte vor dem Hintergrund artifizieller Erzeugnisse. Springer Fachmedien
Wiesbaden, Wiesbaden, S 45–72
Grossberg S (2021) A unified neural theory of conscious seeing, hearing, feeling, and knowing.
Cogn Neurosci 12(2):69–73. https://doi.org/10.1080/17588928.2020.1839401
Haarmeier M (2021) Künstliche Intelligenz für den Mittelstand: Erfolgreiche Einführung und
Nutzung von KI-Anwendungen in Unternehmen. Springer Fachmedien Wiesbaden, Wiesbaden
146 C. Klüver und J. Klüver

Hartmann EA (2022) Digitalisierung souverän gestalten II. Handlungsspielräume in digitalen


Wertschöpfungsnetzwerken. Springer, Heidelberg. https://doi.org/10.1007/978-3-662-64408-9
Jing X, Bo W, Gihong M (2022) Research on human resource allocation model based on SOM
neural network. Research Anthology on Human Resource Practices for the Modern Workforce.
IGI Global, Hershey, S 513–525
Katal A, Singh N (2022) Artificial neural network: models, applications, and challenges. In:
Tomar R, Hina MD, Zitouni R, Ramdane-Cherif A (Hrsg) Innovative trends in computational
intelligence. Springer International Publishing, Cham, S 235–257. https://doi.org/10.1007/978-
3-030-78284-9_11
Klüver C, Klüver J (2021a) Decision Support in Everyday Business Using Self-enforcing Net-
works. In: Dingli A, Haddod F, Klüver C (Hrsg) Artificial Intelligence in industry 4.0: a
collection of innovative research case-studies that are reworking the way we look at industry
4.0 thanks to Artificial Intelligence. Springer International Publishing, Cham, S 31–44
Klüver C, Klüver J (Hrsg) (2021b) Neue Algorithmen für praktische Probleme. Springer Vieweg,
Wiesbaden
Klüver C, Klüver J, Schmidt J (2021) Modellierung komplexer Prozesse durch naturanaloge Ver-
fahren. Springer Vieweg, Wiesbaden
Klüver C, Klüver J (2022) Ewiges Leben durch künstliche Intelligenz und künstliche Gesell-
schaften. In: Willmann T, El Maleq A (Hrsg) Sterben 2.0: (Trans-)Humanistische Perspektiven
zwischen Cyberspace, Mind Uploading und Kryonik. De Gruyter, 121–137
Krüger S (2021) Was ist KI und was nicht. In: Krüger S (Hrsg) Die KI-Entscheidung: Künst-
liche Intelligenz und was wir daraus machen. Springer Fachmedien Wiesbaden, Wiesbaden, S
71–212
Kruse R, Borgelt C, Braune C, Klawonn F, Moewes C, Steinbrecher M (2015) Computational
Intelligence. Eine methodische Einführung in Künstliche Neuronale Netze, Evolutionäre
Algorithmen, Fuzzy-Systeme und Bayes-Netze. Springer Vieweg, Wiesbaden
Landes M, Steiner E, Utz T (2022) Unternehmen im Wandel – Interdisziplinäre Wege zu Kreativi-
tät und Innovation. In: Landes M, Steiner E, Utz T (Hrsg) Kreativität und Innovation in
Organisationen : Impulse aus Innovationsforschung, Management, Kunst und Psychologie.
Springer, Berlin, S 1–8
Li F, Zhang X, Lu A, Xu L, Ren D, You T (2022) Estimation of metal elements content in soil
using x-ray fluorescence based on multilayer perceptron. Environ Monit Assess 194(2):1–12.
https://doi.org/10.1007/s10661-022-09750-x
Loscher G (2021) Potenziale in den Handlungsfeldern des Personalmanagements’, Quick Guide
People Analytics: Wie Sie das Personalmanagement verändern können. Springer Fachmedien
Wiesbaden, Wiesbaden, S 61–92
Mangelsdorf A, Wittenbrink N, Gabriel P (2022) Regulierung und Zertifizierung von KI in der
Industrie: Ziele, Kriterien und Herausforderungen. Digitalisierung souverän gestalten II.
Springer Vieweg, Berlin, S 110–119
Maronese M, Prati E (2021) A continuous rosenblatt quantum perceptron. Int J Quantum Inf
19(04):2140002
Mockenhaupt A (2021) Maschinelles Lernen. In: Mockenhaupt A (Hrsg) Digitalisierung und
Künstliche Intelligenz in der Produktion: Grundlagen und Anwendung. Springer Fachmedien
Wiesbaden, Wiesbaden, S 133–163
Mohammadi M, Al-Fuqaha A, Sorour S, Guizani M (2018) Deep learning for IoT Big Data and
streaming analytics: a survey. IEEE Communications Surveys & Tutorials 20(4):2923–2960
Pohlink C, Fischer S (2021) Verantwortungsvolle und robuste KI in Unternehmen. In:
Knappertsbusch I, Gondlach K (Hrsg) Arbeitswelt und KI 2030: Herausforderungen und
Strategien für die Arbeit von morgen. Springer Fachmedien Wiesbaden, Wiesbaden, S 155–163
Chancen und Herausforderungen beim Einsatz neuronaler … 147

Reinhart F, Neumann K, Aswolinskiy W, Steil J, Hammer B (2018) Maschinelles Lernen in


technischen Systemen. In: Trächtler A, Gausemeier J (Hrsg) Steigerung der Intelligenz
mechatronischer Systeme. Springer, Berlin, S 73–118
Richter S (2019) Statistisches und maschinelles Lernen. Springer Spektrum, Berlin. https://doi.
org/10.1007/978-3-662-59354-7_1
Roedenbeck M, Qari S, Herold M (2021) Künstliche Intelligenz im Recruiting: Performancever-
gleiche des (un-)supervised Learnings bei Bewerbungsdokumenten. In: Barton T, Müller C
(Hrsg) Künstliche Intelligenz in der Anwendung: Rechtliche Aspekte, Anwendungspotenziale
und Einsatzszenarien. Springer Fachmedien Wiesbaden, Wiesbaden, S 219–237
Roth S, Corsten H (Hrsg) (2022) Handbuch Digitalisierung. Vahlen, München
Schneider T (2022) Digitalisierung und Künstliche Intelligenz. Springer Gabler, Wiesbaden
Singh A (2022) Ogunfunmi T (2022) An overview of variational autoencoders for source
separation, finance, and bio-signal applications. Entropy 24:55. https://doi.org/10.3390/
e24010055
Thiemermann S, Braun G, Klüver C (2021) Homogenitätsprüfung von LED-Lichtleitern durch
Neuronale Netzwerke. In: Klüver C, Klüver J (Hrsg) Neue Algorithmen für praktische
Probleme: Variationen zu Künstlicher Intelligenz und Künstlichem Leben. Springer Fach-
medien Wiesbaden, Wiesbaden, S 325–339
VDI-Statusreport (2019) Maschinelles Lernen. Künstliche Intelligenz mit neuronalen Netzen in
optischen Mess- und Prüfsystemen. https://www.vdi.de/ueber-uns/presse/publikationen/details/
kuenstliche-intelligenz-mit-neuronalen-netzen-in-optischen-mess-und-pruefsystemen
VDI-Statusreport (2020) Maschinelles Lernen in KMU – Künstliche Intelligenz im eigenen Unter-
nehmen nutzen. https://www.vdi.de/ueber-uns/presse/publikationen/details/vdi-statusreport-
maschinelles-lernen-in-kmu
von der Malsburg C (1986) Frank Rosenblatt: principles of neurodynamics: perceptrons and the
theory of brain mechanisms. In: Palm G, Aertsen A (Hrsg) Brain theory. Springer, Berlin.
https://doi.org/10.1007/978-3-642-70911-1_20
Welsch A, Eitle V, Buxmann P (2018) Maschinelles Lernen. HMD Praxis der Wirtschafts-
informatik 55(2):366–382
Werner M (2021) Künstliche Neuronen und Lernen. In: Werner M (Hrsg) Digitale Bildver-
arbeitung: Grundkurs mit neuronalen Netzen und MATLAB®-Praktikum. Springer Fachmedien
Wiesbaden, Wiesbaden, S 319–347
Wijayaningrum VN, Saragih TH, Putriwijaya NN (2021) Optimal multi-layer perceptron para-
meters for early stage diabetes risk prediction’. IOP Conference Series: Materials Science and
Engineering 1073(1):012070
Wittpahl V (2021) Künstliche Intelligenz. Technologie, Anwendung, Gesellschaft. Springer
Vieweg, Berlin. https://doi.org/10.1007/978-3-662-58042-4
Yorek N, Ugulu I, Aydin H (2016) Using self-organizing neural network map combined with
ward’s clustering algorithm for visualization of students’ cognitive structural models
about aliveness concept. Comput Intell Neurosci (Article ID 2476256). https://doi.
org/10.1155/2016/2476256
Zinkhan D (2021) Entscheidungsunterstützungssystem zur Interpretation probabilistischer Wetter-
vorhersagen für den Flughafen Frankfurt. In: Klüver C, Klüver J (Hrsg) Neue Algorithmen für
praktische Probleme: Variationen zu Künstlicher Intelligenz und Künstlichem Leben. Springer
Fachmedien Wiesbaden, Wiesbaden, S 229–244
Zinkhan D, Eiermann S, Klüver C, Klüver J (2021) Decision support systems for air traffic control
with self-enforcing networks based on weather forecast and reference types for the direction of
operation. Advances in Computational Intelligence. Springer International Publishing, Cham,
S 404–415
148 C. Klüver und J. Klüver

PD Dr. Christina Klüver studierte Erziehungswissenschaften


und Informatik für Geisteswissenschaften, promovierte 1997 in
Kommunikationswissenschaft und ist seit 2005 in Informatik
habilitiert. Sie ist Privatdozentin für Soft Computing an der Uni-
versität Duisburg-Essen, Mitglied der Forschungsgruppe CoBASC
und Geschäftsführerin des Unternehmens REBASK® GmbH.
Gemeinsam mit Prof. Dr. Jürgen Klüver hat sie Algorithmen der
Künstlichen Intelligenz und des Künstlichen Lebens entwickelt, die
zur Datenanalyse, Modellierung und Lösung praktischer Probleme
eingesetzt werden.

Prof. Dr. Jürgen Klüver studierte Mathematik und Philosophie,


promovierte 1970 in Philosophie, war Leiter des Hochschul-
didaktischen Zentrums und Professor für Informationstechnologien
an der Universität Essen. Seit 2002 ist er der Leiter der Forschungs-
gruppe CoBASC (Computer Based Analysis of Social Complexity).
Er entwickelte neue Algorithmen auf der Basis naturanaloger Ver-
fahren und diverse formale Modelle zur Analyse und Simulation
sozialer, kognitiver, ökonomischer und technischer Prozesse. Die
Ergebnisse der Forschungsarbeiten wurden in zahlreichen (inter-
nationalen) Publikationen dokumentiert.
Spezifische Innovationsleistungen und -lösungen
KI im deutschen Mittelstand: Wo stehen
wir? Wo geht die Reise hin?
Darstellung von KI-Anwendungsszenarien
im Mittelstand unter Berücksichtigung und
Erläuterung der aktuellen KI-Landschaft Deutschlands

Vanessa Just, Valentin Roth und Eduard Singer

1 Einführung

Deutschland gilt als Land der KI-Skeptiker und führt den weltweiten Vergleich damit an.
Laut einer Studie des DIW und der TU Berlin sind 34 % der Deutschen der Meinung,
dass KI negative Auswirkungen auf die Gesellschaft haben wird, die heute noch nicht
voraussehbar sind (Giering et al. 2021).
Diese Skepsis schlägt sich auch im deutschen Mittelstand nieder, indem Unternehmen
bisher noch davor zurückschrecken KI in ihre Prozesse einzubauen. Zu groß ist noch die
Unbekanntheit der Technologie und zu unberührt sind Synergiefelder, welche entstehen,
wenn die Künstliche Intelligenz auf den Mittelstand trifft.
Mit Blick auf internationale Entwicklungen und branchenübergreifende Fortschritte
besteht jedoch die Gefahr, dass durch diese abwartende Haltung des Mittelstands irrever-
sible Wettbewerbsnachteile entstehen. Diese besitzen das Potenzial deutsche KMUs
zurückzuwerfen und die deutsche Wirtschaft nachhaltig zu schwächen. Denn durch eine

V. Just (*)
Hamburg, Deutschland
E-Mail: [email protected]
V. Roth
Weinstadt, Deutschland
E-Mail: [email protected]
E. Singer
neusinger GmbH, Frankfurt am Main, Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 151
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_9
152 V. Just et al.

Beschleunigung der Produktentwicklung und eine Verkürzung von Produktionszyklen


gilt heute oft das Motto: „the first takes it all“.
KMUs verfügen üblicherweise noch über keine oder geringe KI-Budgets. In der
Studie „Künstliche Intelligenz im Mittelstand“ gaben 69 % der KMUs an, dass ihnen
weniger als ein Prozent ihres Firmen Budgets für KI zur Verfügung stehe. 27 % der
Unternehmen planten bereits mit ein bis vier Prozent. Gerade mal drei Prozent teilten
mit, dass Ihr Budget größer als 10 % ist (Ulrich et al. 2021).
Dies reicht jedoch nicht aus, um eine individuelle Entwicklung für firmenspezifische
Prozesse durchzuführen. Abhilfe könnte hier nur ein Zusammenschluss verschiedener
KI-Unternehmen bieten. Ansonsten bieten ausschließlich KI-Standardprodukte, die
aber in ihrer Nutzung allgemein und firmenunspezifisch sind, KMUs eine Lösung und
Möglichkeit zur Anwendung.
Nichtsdestotrotz ist KI zum Trend geworden und viele Führungskräfte haben den
Wunsch KI in ihren Abteilungen und Unternehmen einzusetzen.
Daraus ergibt sich in vielen Situationen die Problematik, dass KI zwar in Firmen-
prozessen eingesetzt wird, dieser Use-Case aber nicht von einem Business-Case getragen
wird und dem Unternehmen kaum langfristigen Mehrwert bietet. Dieser vorschnelle
„Innovationsaktivismus“ verbraucht im schlimmsten Fall das ganze KI-Budget und das
Unternehmen ist auf dem gleichen Innovationsstand wie davor. Umso wichtiger ist es,
dass eine KI-Strategie nahe an den Prozessen erarbeitet wird und Unterstützung in dem
ganzen Unternehmen findet.
So bleiben die vielfältigen und teilweise einzigartigen KI-Lösungen, die deutsche KI-
Unternehmen und Startups anbieten, größtenteils noch ungenutzt.
Die starke Position, die Deutschland in der Forschung innehat, kann leider nicht im
Technologietransfer bestätigt werden. Nur wenige Innovationen Made in Germany
finden in Deutschland Anwendung, sodass andere Länder sich diese Innovationen ein-
kaufen. Verena Hubertz, Initiatorin des Zukunftsfonds 2.0, beschreibt diese strategisch,
wie wirtschaftlich unkluge Entwicklung als einen „Export von Wohlstand“.
Spricht man nun von der sogenannten KI-Landschaft in Deutschland, besteht diese
aus KI-Nutzer:innen, KI-Berater:innen, KI-Umsetzer:innen, KI-Produkte und KI-
Forschung. Unter KI-Nutzer:innen fallen dann üblicherweise die KMUs, die einen
Bedarf zur Anwendung von KI haben. Solche Unternehmen zeichnen sich durch einen
gewissen KI-Reifegrad aus. Mit zunehmendem Erfahrungslevel mit KI steigen die
Anforderungen und die Ausgereiftheit solcher technologischen Lösungen.
KI-Berater:innen können dann helfen, den Bedarf zu eruieren, die potenziellen Use-
Cases/Business-Cases zu definieren und passende Lösungen zu finden. Wenn es keine
passende KI-Produkte gibt, sind KI-Forschende und KI-Umsetzer:innen gefragt. Die
mittelständischen Unternehmen können dann in der Kooperation mit der Forschung und/
oder einem KI-Startup eine individuelle KI-gestützte Lösung an ihren Bedarf angepasst,
entwickeln. Der aktuelle Status Quo und bestehende Herausforderungen in der KI-Land-
schaft Deutschlands werden im nachfolgenden Kapitel näher beleuchtet.
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 153

2 Status Quo

„KI ist eine relativ neue Technologie und es gibt täglich neue Entwicklungen und
Forschungsergebnisse. KI-Startups können sich auf spezielle Themenbereiche fokussieren
und daher schnell neue Anwendungen implementieren und Ergebnisse liefern. Daher
sind KI-Startups eine treibende Innovationskraft und ein zentraler Erfolgsfaktor für die
Anwendung von KI in allen Bereichen der Wirtschaft und Verwaltung“
Jörg Bienert, Vorstandsvorsitzender KI Bundesverband

Wie vorausgehend dargelegt prägt Künstliche Intelligenz schon heute unser Leben,
nicht nur im gesellschaftlichen, sondern auch im unternehmerischen Umfeld – sei es
in Form von Sprachassistenten, Navigationssystemen, Smart Home oder Bildanalyse-
verfahren zur Diagnose von Krankheiten. Grundsätzlich kann festgehalten werden: Das
Potenzial von KI ist enorm und noch weitestgehend unausgeschöpft, obwohl sie einen
maßgeblichen Innovationsbeitrag leisten kann. Es ist jedoch wichtig die Potential-
betrachtung auch in den Kontext zu bestehenden rechtlichen, ethischen und sozialen
Fragen zu stellen. Gerade da KI maßgeblich Einfluss auf Geschäftsmodelle, aber auch
Arbeitswelten nehmen wird, sodass bestehende Berufsbilder und Arbeitsinhalte einem
Wandel unterworfen sein werden und bereits sind (Expertenkommission Forschung und
Innovation 2021).

2.1 Synergien mit der etablierten Wirtschaft

Dass dieser Wandel viele positiven Aspekte hat, wird vor allem im Hinblick auf Syn-
ergien zwischen KI-Startups und der etablierten Wirtschaft deutlich. Die Kooperation
wird als Win–Win-Chance betrachtet. Auf der einen Seite sehen KI-Startups ein enormes
Potenzial in der Kooperation mit etablierten Unternehmen in Deutschland in finanzieller
und innovativer Hinsicht. So kooperieren bereits 72 % der KI-Startups laut einer
Umfrage mit etablierten Unternehmen. Dabei werden 77 % der Umsätze in diesem B2B
Bereich erwirtschaftet. Diese Quote liegt deutlich über dem allgemeinen Startup-Trend,
welche nur 69 % in B2B Geschäften ihren Umsatz erzielen (Hirschfeld et al. 2021).
Eine solche Kooperation mit Unternehmen ist jedoch nicht nur finanziell spannend für
KI-Startups, sondern auch im Hinblick auf die Verbesserung der KI-Modelle. So können
hochklassige Unternehmensdaten die Weiterentwicklung ihrer Lösungen deutlich voran-
bringen – wovon dann wieder die Unternehmen profitieren. Gerade in industriellen
Prozessen fallen große Mengen an Daten an, die durch KI nutzbar gemacht werden
können.
Dies erkennen mittlerweile immer mehr Unternehmen und setzen vermehrt auf KI.
Zwar setzen 2021 nur 8 % der deutschen Unternehmen auf KI, dies ist jedoch ein erheb-
licher Anstieg zu 2019 (2 %). Einen Einsatz planen oder diskutieren aber mittlerweile
schon 30 % der Unternehmen und immer weniger geben an, dass KI kein Thema für sie
154 V. Just et al.

sei (Barton und Müller 2021). Die Tendenz geht dadurch klar nach oben und ein lang-
sames Umdenken ist zu erkennen.
Beklagt wird jedoch nach wie vor, dass KI in Unternehmen oft nur als Vehikel zur
Kostensenkung wahrgenommen wird. So nennen 33 % Einsparungen und 29 % die
Steigerung der Asset-Effizienz als wesentliche Motive ihrer KI-Nutzung (Kaul et al.
2019). Eine Kooperation mit KI-Startups bietet Unternehmen jedoch zudem die
Möglichkeit ihre gesamte Wertschöpfungskette intelligent zu gestalten – von der Ein-
gangslogistik bis hin zum Kundendienst, von F&E bis hin zum Personalwesen. Das
gesamte Geschäftsmodell kann dadurch gewinnbringend umgestaltet werden und auf
neue wirtschaftliche Trends, aber auch interne Prozessprobleme, schneller reagiert
werden. Bereits bestehende Anwendungsbeispiele werden in Abschn. 4 besprochen,
welches aufzeigt wie verschiedene mittelständische Unternehmen durch KI ihr gesamtes
Geschäftsmodell transferieren konnten.

Hindernisse zur Implementierung


Um diesen unternehmerischen Wandel bestmöglich zu begegnen, sind jedoch Quali-
fizierungsangebote für mittelständische Unternehmen von großer Bedeutung. Laut
aktuellen Analysen der Universität Saarland sind diese Qualifizierungsangebote aber
als ausbaufähig identifiziert (Kaul et al. 2019). Oftmals fehlt in den KMUs eine klare
Vorstellung von KI und den potenziellen Bezug auf ihre Produktionsprozesse. Ein
klares Ziel kommt nicht intrinsisch aus dem Unternehmen selbst. Erforderlich dafür
sind externe Expert:innen, die eine KI-Strategie erarbeiten können. Für mittelständische
Unternehmen stellt diese externe Konsultation jedoch eine Herausforderung und Über-
windung dar. Gerade weil KI oft an die Assoziation des Arbeitsplatzverlustes gebunden
ist und Arbeitgeber:innen diesen Trend nicht vorantreiben wollen. Expert:innen sind
sich jedoch sicher, dass die Implementierung von KI und die Automatisierung einzel-
ner Prozesse nicht zu Kündigungen führen muss. Zeit, die vorher für jene Prozesse
aufgebracht wurde, könnte nun zu kreativen, nicht von KI zu bewältigenden Aufgaben
allokiert werden (Kaul et al. 2019).

Herausforderung Datenzugang und Datenschutz

„Daten sind der Rohstoff des 21. Jahrhunderts. Und Künstliche Intelligenz ist die Kern-
kompetenz für Volkswirtschaften und Unternehmen, um aus dem Rohstoff Daten Wissen zu
generieren und wettbewerbsfähig zu bleiben.“

Axel Menneking, VP Startup Incubation & Venturing, Managing Director hub:raum Invest-
ment Fund at Deutsche Telekom AG

Unter Bezugnahme von Wertschöpfung und Reifegrad der von KI-Startups angebotenen
Lösungen liegt das größte Potenzial in Deutschland in industriellen Anwendungen. Die
Genauigkeit und Optimierung der KI Systeme hängt jedoch stark von der Bereitstellung
und dem Zugriff auf Unternehmensdaten ab. Nur 35,6 % der KI-Startups geben hier
an, ausreichend Zugang zu relevanten Daten zu haben. So ist der Wunsch nach einem
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 155

besseren Datenzugang groß (64 %). Etwa drei Viertel der KI-Startups fordern einen
besseren Zugang zu öffentlichen Daten (Open Data). Die viel thematisierte EU-Daten-
schutzregulierung (DSGVO) scheint dabei eine Ursache der Datenknappheit zu sein, da
mehr als die Hälfte (52,4 %) der KI-Startups darin einen internationalen Wettbewerbs-
nachteil sieht (Hirschfeld et al. 2021).
Diese Faktoren sind mitunter verantwortlich dafür, dass andere Länder in verschiedenen
Bereichen Deutschland als Technologiestandort enteilt sind. Das folgende Kapitel zeigt
verschiedene dieser Entwicklungen auf.

3 KI im internationalen Wettbewerb

Schon heute sehen viele Länder großes Potenzial in der KI-Technologie. Das belegen
unter anderem die hohen Investitionen, die Länder wie China und die USA, aber auch
Indien und Israel in diesem Bereich tätigen. KI-Technologie wird jetzt schon sehr stark
genutzt und in den nächsten 5–10 Jahren wird erwartet, dass das Nutzen des Einsatzes
der KI exponentiell steigt (Groth et al. 2018). In der Zukunft wird KI beispielsweise
nötig sein, um autonomes Fahren zu ermöglichen, Energie- und Mobilitätssysteme zu
vernetzen und Städte in Smart Cities zu verwandeln.

Finanzierung
Ein Problem, das sich schon seit Jahren abzeichnet ist die KI-Finanzierung in Deutsch-
land bzw. in der EU, denn es werde zu wenig Kapital zur Verfügung gestellt. Dies betrifft
zum einen die KI-Forschung, als auch Investitionen in KI-Startups und Unternehmen.
So wird in den USA im Vergleich zu Deutschland aktuell pro Kopf das 10-Fache, in
Israel sogar das 19-Fache in KI-Startups investiert (Dealroom 2021). Besonders groß,
laut KI-Startups und Expert:innen der Branche sei der Bedarf bei strategischen und VC-
Investitionen (Groth et al. 2018). Grund hierfür kann die generelle Zurückhaltung der
deutschen Wirtschaft gegenüber KI und Deep-Tech sein.
Dies führt in der Summe dazu, dass KI-Forschende, ihre Erkenntnisse und
Forschungen entweder nicht weiter verfolgen oder mit diesen in andere Länder aus-
wandern, wo sie mehr Unterstützung, auch finanzieller Natur erfahren.
Dieser fehlende Technologietransfer ist in einer ähnlichen Form auch bei den KI-
Startups zu beobachten. Für viele Startups ist es einfacher eine ausländische Finanzierung
zu erhalten. Dies führt einerseits dazu, dass Teile des KI-Unternehmens den aus-
ländischen Investoren gehören und andererseits in manchen Fällen dazu, dass das Startup
selbst in das Ausland zieht und somit dem deutschen bzw. EU-Markt verloren geht.

Weltweite Vorreiter
Im Wettrennen um ML & AI in B2C wird es für Deutschland und die EU schwer mit
US-amerikanischen (z. B. Google, Amazon, Microsoft etc.) und chinesischen Konzernen
(z. B. Alibaba, Baidu etc.) mitzuhalten. Durch einen früheren Start der Entwicklungen
156 V. Just et al.

von innovativen Produkten, konnten sie somit Kunden, aber auch Erfahrungen sammeln.
Zeitgleich wuchs das Investitionsvolumen von diesen Unternehmen und den Staaten
auf ein Vielfaches deutscher Niveaus. Vor allem China forciert eine Beschleunigung
der Tech-Entwicklungen und plant bis 2025 die USA zu überholen und bis 2030 zum
Weltführer in dem Bereich aufzusteigen. Wortmeldungen häufen sich, dass China dies
erreichen könnte (Menten 2021).
Durch die unaufhaltsamen Prozesse, internationale Ambitionen und der bestehende
Rückstand steht die deutsche und europäische Wirtschaft vor einer großen Heraus-
forderung dies aufzuholen. Aus Technologie-Kreisen wird deshalb eine schnelle Hand-
lungsoffensive gefordert.

Chance B2B
Im B2B-Bereich sieht es ganz anders aus, und es scheint als sei das Rennen hier noch
nicht entschieden. Dadurch, dass Deutschland noch immer der Weltmarktführer im
industriellen Bereich ist, ist es noch immer möglich die ML/AI-Führungsrolle im
Bereich B2B für sich und Europa zu beanspruchen. Um dies zu gewährleisten, müssen
aber die mittelständischen Industrieunternehmen mobilisiert werden und möglichst
schnell die Digitalisierung voranbringen. Große Plattform-Unternehmen wie Amazon
und Microsoft haben verstanden, dass sie für einen erfolgreichen Einsatz von KI in der
Industrie Kooperationen brauchen, da sie das Domänenwissen noch nicht besitzen. Eine
Aneignung erscheint selbst diesen Tech-Riesen als zu große Herausforderung.
Eine Kooperation mit diesen Konzernen bietet dem deutschen Mittelstand jedoch
nicht nur eine Chance, sondern birgt auch die Gefahr nur als Startwerkzeug zu dienen.
Besitzen diese das Know-how, sind genug finanzielle Ressourcen vorhanden, um im
Alleingang weiterzumachen. Um diese Gefahr zu minimieren, besteht für den deutschen
Mittelstand die Möglichkeit die notwendigen KI-Lösungen lokal (in DE/EU) und in
Kooperation mit KI-Startups oder Unternehmen zu entwickeln und letztendlich zu
beziehen.
Wie eine solche Win-Win-Symbiose aussehen kann, d. h. gemeinsam eine Lösung in
dem speziellen Bereich entwickeln und diese dann gemeinsam den Kunden anzubieten,
wird im nächsten Abschnitt anhand von Use-Cases beschrieben.

4 Konkrete KI-Anwendungsszenarien im Einsatz im


deutschen Mittelstand

Bei KMUs sind häufig mangelnde Fachkenntnisse, fehlende Fachleute oder Unklarheit
über geeignete Einsatzbereiche und Anwendungsfälle von KI der Haupthinderungsgrund
für den bisher noch geringen Einsatz von KI. Für diese Dinge gilt: die richtigen Partner
können Abhilfe schaffen. Zahlreiche Start-ups, Dienstleister oder Forschungseinrichtungen
in Deutschland verfügen über die notwendigen Ressourcen und können bei der Entwicklung
gewinnbringender Anwendungen unterstützen. Denn der Nutzen von KI liegt auf der Hand:
sei es bei der Automatisierung und Beschleunigung von Prozessen, der Entwicklung neuer
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 157

Geschäftsmodelle oder der Steigerung der Qualität von Produkten und Dienstleistungen. Für
all das gibt es bereits Best Practices.
Marco Huber, Professor Universität Stuttgart und Head of Center for Cyber Cognitive
Intelligence (CCI), Fraunhofer IPA

Wie vorausgehend dargelegt ist das Potenzial von KI enorm. Im Rahmen dieses Kapitels
werden ausgewählte Anwendungsszenarien deutscher KI-Startups vorgestellt. Die Use-
Cases sollen dabei einen Branchenquerschnitt darstellen. Dabei wird jeweils die Heraus-
forderung, als auch der Lösungsansatz und der Mehrwert analysiert und beleuchtet.
Wenn man sich mit einem Thema beschäftigt, sollte man sich zuerst die Frage stellen:
„Welche Problemstellung wollen wir mittels Technologie/KI lösen?“. Im geschäftlichen
Leben wird diese Frage am Ende oft mit der Frage „Wie sieht unser Business-Case aus?“
gleichgestellt.
Diese Monetisierung muss nicht unbedingt in der direkten Form ablaufen: „wir
investieren 200.000 € in KI und in 6 Monaten verdienen wir dadurch 500.000 € “,
obwohl dies die naheliegendste Vorgehensweise wäre. Öfter sind es indirekte „Ver-
dienste“, die wichtig sind: Geldsparen durch Prozessoptimierung, Imageverbesserung,
Innovationsdrang usw. Am Ende muss es aber einen geschäftlichen Sinn ergeben.

4.1 Conversational AI Plattform für den Kundenservice

Ein Anwendungsbeispiel der Firma OmniBot GmbH hat Breitenwirkung und ist als
„Conversational AI Plattform für den Kundenservice“ ein KI-Use-Case, der nachfolgend
näher beschrieben, das Potenzial hat unser tägliches Business-to-Customer Geschäft
nachhaltig zu beeinflussen und optimieren.
In Contact Centern gehen tagtäglich unzählige Kundenanfragen ein. Hierbei können –
besonders bei Anrufspitzen – für die Kunden teilweise Wartezeiten entstehen. Aber auch
für die Mitarbeiter:innen im Kundenservice des Unternehmens können sich wieder-
holende Standardanfragen der Kund:innen eine Belastung darstellen, wenn sie zu Unter-
forderung führen. Hinzu kommt häufig ein Arbeitskräftemangel im Kundenservice, denn
zusätzliches Personal stellt einen hohen Kostenfaktor dar. Zugleich gibt es große Eng-
pässe auf dem Arbeitsmarkt für Kundenberater, sodass Personalmangel eine der größten
Herausforderungen der Kundenservice-Branche ist. Vor dem Hintergrund steigender
Kundenanforderungen und gleichzeitiger Personalknappheit ist es für Unternehmen ent-
scheidend, die Kundenzufriedenheit zu erhöhen sowie die Kundenbindung auszubauen,
um im Wettbewerb gegenüber starken Konkurrenten bestehen zu können. Die Customer
Journey rückt damit beständig in den Fokus, denn Kund:innen erwarten ein reibungs-
loses, schnelles und erfolgreiches Serviceerlebnis. So hat eine Studie gezeigt, dass 54 %
aller Kund:innen einen Chatbot gegenüber menschlichem Kontakt bevorzugen, wenn sie
zehn Minuten Zeit sparen können (Brown 2019). Gleichzeitig sind 82 % der Endkunden
unzufrieden mit langwierigen und umständlichen, menübasierten Interactive-Voice-
Response-Systemen (IVR) (NICE und BCG 2016). Insgesamt ist das Potenzial von
158 V. Just et al.

auf Künstlicher Intelligenz basierenden Voicebots im Kundenservice größtenteils noch


ungenutzt, wenngleich auf Kundenseite die Bereitschaft zur Nutzung von Voicebots hoch
ist (Capgemini 2019) und etwa die Hälfte aller Kundenservice-Aktivitäten durch Künst-
liche Intelligenz, wie zum Beispiel einen Voicebot, abgedeckt werden könnten.
Denn die Kund:innen erwarten eine reibungslose Bearbeitung ihrer Anliegen und
ein zügiges Lösen ihrer Probleme. Für den Kundenservice haben daher insbesondere
Systeme auf Basis von Künstlicher Intelligenz ein großes Zukunftspotenzial, denn diese
erlauben eine automatisierte und zugleich kompetente Beantwortung von Kundenan-
fragen. Die Conversational AI Plattform von OmniBot in Verbindung mit der Customer-
Experience-Expertise des Unternehmens Majorel bietet die Möglichkeit, Voicebots
innerhalb von kurzer Zeit zu entwickeln, zu trainieren und skalierbar im Kundenservice
einzusetzen. Ergänzt wird die technische Komponente zur Lösung von Kundenanliegen
um menschliche Kundenberater von Majorel, die im Bedarfsfall den Service persönlich
übernehmen – beispielsweise bei komplexen Anliegen, die menschliches Einfühlungs-
vermögen erfordern. Diese Verbindung von Technologie und Mensch erzielt sowohl
Mehrwerte für Kund:innen als auch für Unternehmen.
Die Conversational AI Plattform von OmniBot in Zusammenspiel mit der Expertise
von Majorel in der optimalen Dialogführung im Contact Center bietet die Möglich-
keit, in kürzester Zeit vollständig skalierbare Voicebots für den Kundenservice zu ent-
wickeln, wodurch Kund:innen automatisiert mit Unternehmen in Kontakt treten können.
Ergänzt wird die Technologie von Majorel um die menschliche Komponente, sodass die
Bot-Lösung komplexe oder Einfühlungsvermögen erfordernde Anliegen an kompetente
Mitarbeiter:innen im Servicecenter übergeben kann. Mithilfe der Conversational
AI Plattform kann ein automatisiertes, sprachbasiertes Dialogsystem in Form eines
Voicebots selbstständig Kundenanfragen klassifizieren, interpretieren und gemäß des
Dialogmanagements reagieren. Technologien wie Automatic Speech Recognition sowie
Natural Language Understanding und Processing ermöglichen es den Endkunden, ihr
Anliegen frei und in eigenen Worten zu beschreiben. Das Plattformsystem erkennt sogar
komplexe Anfragen und kann Kundenanliegen im natürlich-sprachlichen Dialog direkt
lösen, wobei es ständig dazulernt. Darüber hinaus ist die Ausspielung über weitere
Kanäle und die Anbindung an andere Systeme möglich.
Ein Echtzeit-Monitoring analysiert die Interaktion zwischen Kundschaft und
Voicebot. Dadurch ist es möglich, das Gespräch gezielt an einen menschlichen Kunden-
betreuter weiterzuleiten, der in schwierigen Fällen – etwa einer Kundenbeschwerde
– unterstützen kann. Während der Voicebot Standardprozesse vollautomatisiert und
abschließend bearbeitet, übernehmen Mitarbeiter:innen im Servicecenter das Kunden-
anliegen in kritischen, betreuungsintensiven Situationen, die menschliche Fähigkeiten
und Eigenschaften wie Verständnis und Empathie erfordern. Die von OmniBot und
Majorel angebotene Conversational AI Plattform verbindet künstliche und mensch-
liche Intelligenz miteinander und ermöglicht, Kundenanliegen schnell zu lösen und das
Serviceerlebnis zu automatisieren.
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 159

Grundsätzlich werden Kundenanliegen schnell, zuverlässig und unkompliziert


gelöst. Die Kundenzufriedenheit wird gesteigert, indem der Voicebot rund um die
Uhr, unabhängig von Wochenenden und Feiertagen, Kundenanrufe entgegennimmt
und automatisiert beantwortet. Damit entfallen auch lange Wartezeiten. Die natürliche
Sprachführung sorgt für ein besseres Kundenerlebnis, da sich Kund:innen nicht durch
zeitraubende Auswahlansagen navigieren müssen,sondern stattdessen ihr Anliegen in
eigenen Worten formulieren können. Eine verbesserte Kundenerfahrung und reduzierte
Kundenabwanderungsrate wird außerdem durch verkürzte Bearbeitungszeiten durch
den Voicebot insbesondere bei Standardanfragen erreicht. Bei komplizierteren
Anliegen, Problemfällen oder kritischen Situationen werden Kunden persönlich von
Mitarbeiter:innen im Servicecenter betreut, die durch die vorgelagerte Automatisierung
mehr Zeit für die Lösung der Kundenprobleme aufbringen können. Dies steigert ins-
gesamt die Qualität des Kundenservices. Unternehmen haben durch die automatisierte
Abwicklung von Kundenanfragen mithilfe des Einsatzes der Conversational AI Plattform
die Möglichkeit, ihre Personalkosten zu reduzieren. Auch in Situationen mit sehr hohem
Anrufvolumen können Standardanfragen bei gleichbleibender Effizienz ohne zusätz-
liches Personal bearbeitet werden. Darüber hinaus werden Fehler, die bei Routineauf-
gaben auftreten können und zu Kundenunzufriedenheit oder höherem Aufwand führen
können, vermieden.
Durch die Vorarbeit des Voicebots benötigen Servicemitarbeiter außerdem weniger
Zeit zur Bearbeitung. Die Lösung von OmniBot und Majorel bietet nicht nur ein
qualitativ hochwertiges Kundenerlebnis, sondern erlaubt es Unternehmen durch die
ganzheitliche Übernahme der Kundenkommunikation, ihren strategischen Fokus auf ihr
Kerngeschäft zu legen.
Damit schafft die Lösung eine positive Kundenerfahrung und bietet einen echten
Mehrwert für Unternehmen.

4.2 Transport Emission Management

Ein weiteres Anwendungsszenario, das vorgestellt wird ist „shipzero – Transport


Emission Management“ der Firma Appanion Labs GmbH.
shipzero berechnet präzise Emissionsdaten für den Frachttransport auf Basis von
Transportauftragsdaten und Bewegungsdaten der Transportmittel. Dabei kann das
Modell unterschiedlichste Arten von Transporten und Dateninputs robust und zuver-
lässig verarbeiten und fehlende Informationen auf Basis statistischer Modellierungen
dynamisch ergänzen oder validieren.
Damit zielt shipzero auf folgendes Problem ab: Großunternehmen müssen
ihren Emissionsfußabdruck senken. Insbesondere der Transport als externalisierte
Dienstleistung über Partner stellt dabei eine große Herausforderung dar. Unter-
nehmen haben keine direkte Übersicht oder Entscheidungsgewalt über die tatsäch-
lich Emissionenverursachenden Transportaktivitäten, gleichzeitig ist der Pfad zur
160 V. Just et al.

Dekarbonisierung in der Logistik technologisch noch offen und die effizienteste


Investitionsentscheidung (Zeitpunkt und Art der Maßnahme) hängen von einer Vielzahl
von Einflussfaktoren ab. Da setzt shipzero an und wertet als lösungsorientierte Plattform
große Datenmengen an Transportauftragsdaten aus und verknüpft diese, wo immer mög-
lich, mit tatsächlichen Messdaten aus Fahrzeugtelematik oder Verbrauchsabrechnungen.
Über diesen Weg lassen sich realistische Berechnungsmodelle trainieren, die einerseits
den aktuellen Stand der Flottentransformation abbilden und andererseits mit den unter-
schiedlichsten Arten von Eingangsinformation umgehen kann, um in der fragmentierten
Systemlandschaft der Logistikbranche Integrationsaufwände zu minimieren.
Als praktischer Nutzen lassen sich folgende Punkte festhalten:

• Zeitsparende Emissionskalkulation auf Einzeltransportebene


• Benchmark der gesamten Transportleistung und beteiligten Parteien
• Identifikation von „Hotspots“, die für Optimierungsmaßnahmen als erstes geeignet
sind
• fortlaufendes Tracking, statt jährlich manueller Auswertung

Als erste Maßnahme für Unternehmen um sich diesem Use-Case in der Anwendung zu
nähren, ist ein unverbindliches Test-Reporting auf Basis eines einfachen Datensamples
(Export) aus dem Transport-Management System, um die Plattform mit eigenen Daten
auszuprobieren. Auf diese Weise trägt Appanion dazu bei Nachhaltigkeit zu fördern und
niedrigschwellig Unternehmen für den Frachttransport zugänglich zu machen.

4.3 Finanzen – Customer Churn

Der Finanzsektor profitiert ebenso stark von einem Einsatz KI-basierter Anwendungen.
Heute schon existieren einige Erfahrungswerte aus sehr unterschiedlichen KI-
Richtungen wie Betrugs- und Anomalienerkennung, Kreditrisikobewertung,
Simulationen von Mikro- und Makroökonomischen Entwicklungen, Nachrichten-
basiertes Monitoring von Unternehmen etc.
In diesem Abschnitt beschreiben wir an einem Beispiel aus dem Projektgeschäft
der neusinger GmbH eine KI-basierte Anwendung für die Vorhersage der Kunden-
abwanderung in den Banken.
Banken – wie auch die meisten anderen Wirtschaftsunternehmen – sind daran
interessiert deren Kundschaft möglichst lang zu halten. Eine deutsche Bank aus unserem
Beispiel verfolgt in diesem Kontext die Regel „1–3-7“. Diese bedeutet, dass wenn das
Halten zufriedener Kund:innen einen einfachen Aufwand für die Bank bedeutet, kostet
das Halten eines unzufriedenen Kunden das 3-fache. Die Gewinnung eines neuen
Kunden bedeutet dann das 7-fache Aufwand.
Die „1–3-7“ Regel macht deutlich, dass es wirtschaftlicher ist, einen unzufriedenen
Kunden rechtzeitig zu erkennen und ihn zu erhalten versuchen, als einen neuen zu
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 161

akquirieren. Um diese Problematik anzugehen, hat man in der Bank das Projekt
Customer Churn Prediction gestartet. Das Ziel davon war, mithilfe von Daten und KI-
Algorithmen möglichst früh die Wechselintention von Kund:innen zu erkennen. Dabei
wurde im ersten Schritt der Fokus auf die Geschäftskundschaft gelegt, weil diese 80 %
des Gesamtumsatzes erwirtschaften und dabei bloß 20 % der Gesamtkundenzahl aus-
machen.
Wie fängt man die Umsetzung eines solchen Projekts an? – Man benötigt eine ver-
lässliche Datenbasis, auf welcher die zu erstellende KI-Lösung die Prognosen berechnen
wird. Für die Kundenabwanderungsproblematik wurden primär Kundenstammdaten und
Transaktionsdaten herangezogen. Mengenmäßig wurden ca. 100 Mln Transaktionsdaten-
sätze in einem Zeitraum über zwei Jahre und ca. 75 Tausend Kunden betrachtet. Für die
Verwendung durch KI müssen auf dieser Datenbasis einige Verarbeitungsschritte unter-
nommen werden. Darunter fallen bspw. eine Bereinigung wegen schlechter Datenquali-
tät, Aggregierungen von Daten, Ableitung einer Vielzahl von statistischen Kennzahlen
etc.
Dann musste aus der Datensicht das Ereignis einer Kundenabwanderung definiert
werden. Ungeeignet ist es dabei den Kündigungszeitpunkt zu betrachten. Viel besser
ist es dabei als die Abwanderung ein Fehlen von Transaktionen auf den Konten eines
Kund:in innerhalb eines Zeitraumes (bspw. 60 Tage) zu definieren.
In den weiteren Schritten folgt dann eine Modellierung (Programmierung) der eigent-
lichen KI-Funktionalität. Dafür existieren bereits einige Best Practices. Nichtsdestotrotz
hängt oft die Art der Umsetzung mit den konkreten Kundendaten zusammen, sodass die
Umsetzung immer etwas Experimentieren und Ausprobieren vorsieht.
Was genau macht die KI mit der vorhandenen Datenbasis?
In diesem Projektbeispiel schaut sich die KI die Vergangenheitstransaktionen (letzte
zwei Jahre) von allen Kunden an. Dabei weiß die KI, welche Kund:innen tatsächlich
die Bank in der Vergangenheit verlassen und welche der Bank treu geblieben sind. Aus
Millionen von Transaktionen erkennt die KI mithilfe von speziellen Mathematischen
Methoden (wie bspw. Logistic Regression) und von neuronalen Netzen komplexe Ver-
haltensmuster der Kundschaft, die auf eine Abwanderung hindeuten. Diesen Prozess
nennt man Training der KI.
Wenn die KI auf den Vergangenheitsdaten trainiert ist, lässt man sie für die
aktuellen Daten täglich anwenden. Dabei wenn die KI in diesen aktuellen Daten vor-
her erlernte „verdächtige“ Verhaltensmuster erkennt, wird entsprechender Kundenbe-
rater benachrichtigt, dass bspw. der Kunde „ABC GmbH“ mit einer Wahrscheinlichkeit
von 78 % in 65 Tagen abwandert. Zusätzlich werden weitere statistische Indikatoren und
die Stammdaten angezeigt, damit der Kundenberater daraus optimale Handlung ableiten
kann.
In unserem Beispiel war es möglich in einem Zeitraum von 3 bis 5 Monaten im
Voraus eine sehr genaue Abwanderungsvorhersage zu liefern.
162 V. Just et al.

Damit die KI mit der Zeit nicht „veraltet“, weil sich das Kundenverhalten grundsätz-
lich ändert, wiederholt man das Training der KI regelmäßig. In unserem Fall wird dies
wöchentlich gemacht.
In weiteren Ausbaustufen der Kundenabwanderung können die zu treffenden
Maßnahmen, die heute noch durch den Kundenberater erledigt werden, weiter auto-
matisiert werden.
Dies Beispiel aus der Finanz-Branche ist auf viele anderen Branchen übertragbar.
Auch die verwendeten KI-Methoden bleiben im Kern dieselben. Was sich ändert, ist die
Datenbasis.

4.4 Social Media und Nachrichten basiertes Marktmonitoring

Nachrichten-basiertes Monitoring von Marktteilnehmern oder Produkten stellt in letzter


Zeit einen stark nachgefragten Use-Case dar. Diese Art des Use-Cases war vor der KI-Ära
unmöglich. D. h. wenn wir bei bestimmten KI-Use-Cases eine Optimierung existierender
Vorgehen erreichen, sprechen wir in diesem Fall von einer bisher nicht verwendeten
Möglichkeit, auf Marktänderungen (wie bspw. Produktpreise der Konkurrenz) schnell und
ganzheitlich zu reagieren. Ein konkretes Anwendungsbeispiel wird gerade für die Deutsche
Bundesbank durch KI-Spezialisten der neusinger.ai umgesetzt. Dort werden verschiedene
europäische FinTechs automatisiert überwacht. Und zwar nur auf Basis frei verfügbarer
Informationen aus den Web-Seiten, Nachrichten und Social-Media-Kanälen. Änderungen
wie abgeschlossene Finanzierungsrunden, neue Produktideen, Kooperationspartner:innen
oder weitere für die Unternehmen signifikante Änderungen werden automatisiert durch KI-
Algorithmen abgefangen und für die weitere Analyse bereitgestellt.
Die Industrie überwacht auf diese Art gerne Produktänderungen auf dem Markt mit
Hilfe von KI. Grundsätzlich gibt es dafür verschiedene Implementierungsansätze. In
unserem Beispiel wird wie folgt vorgegangen.
Als erstes werden relevante zu beobachtende Produkte definiert. Dann wird das Inter-
net automatisiert nach diesen Produkten durchsucht. Die relevanten Inhalte der Nach-
richten- oder Social-Media-Kanäle werden automatisiert von der KI gelesen. Dabei
sprechen wir von den Techniken wie Web-Scraping, Named Entity Recognition und
Natural Language Understanding, die den Einsatz diverser neuronaler Netze und einer
vorgelagerten automatisierten Datenaufbereitung erfordern.
Die in den Nachrichten gefundenen Produkte werden in eine semantische Beziehung
mit weiteren relevanten Entitäten, wie Unternehmen, Orten, Personen, Preisen, Produkt-
eigenschaften gebracht. Diese ermittelten Abhängigkeiten zwischen Entitäten werden in
Form eines sogenannten Graphens abgebildet. Dieser Graph wird täglich neu aufgebaut
und speichert die komplette Historie an Daten. Sollten relevante Änderungen in dem
Aufbau des Graphens vorkommen, wird dies ein weiterer KI-basierter Klassifizierungs-
algorithmus bemerken und einen entsprechenden Report mit relevanten Produkt-
informationen zusammenstellen.
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 163

4.5 Intelligente Stammdatenextraktion aus


Rechnungsdokumenten auf Basis von nachhaltiger
Künstlicher Intelligenz

Die „Intelligente Stammdatenextraktion aus Rechnungsdokumenten auf Basis von nach-


haltiger Künstlicher Intelligenz“ ist die Entwicklung einer Prozessinnovation, welche als
Dienstleistung in Form eines cloudbasierten Tools für KMU angeboten werden kann.
In den meisten Unternehmen werden die Rechnungen (und weitere Dokumente wie
zum Beispiel Lieferscheine, Mahnungen, etc.) entweder per Mail empfangen oder von
Mitarbeiter:innen eingescannt. Dadurch ist das am meisten verbreitete Ablageformat das
Portable Document Format (PDF). Um mit den Stammdaten aus einem PDF-Dokument
arbeiten zu können, ist eine manuelle Extraktion der Stammdaten notwendig. Das heißt,
diese müssen per Hand in ein Warenhaussystem, die Buchhaltung oder eine ander-
weitige Tabelle übertragen werden. Das Übertragen von Rechnungsdaten ist gerade bei
kleinen Unternehmen unter anderem im Handwerk, mit vielen Rechnungspositionen
für z. B. Schrauben und Werkzeug, nicht nur besonders aufwendig und damit öko-
nomisch nicht nachhaltig, sondern stellt auch unter sozialen Aspekten eine sehr mono-
tone und repetitive Tätigkeit dar. Die meisten IT-Dienstleister bieten für diesen Vorgang
maßgeschneiderte Automatisierungssoftware an, welche jedoch ohne Generalisierungs-
ansätze für KMUs nicht wirtschaftlich ist. In der englischsprachigen Forschung
erreichen generalisierte Sprachmodelle eine Genauigkeit von über 98 % für das Aus-
lesen von Stammdaten aus Rechnungen. Solche erfolgreichen Sprachanwendungen im
Englischen, welche auf Künstlicher Intelligenz/Machine Learning basieren, sind auf-
grund großer und kostenaufwendig trainierender Sprachmodelle, nicht ohne Weiteres in
den deutschen Sprachraum zu übertragen.
Im Rahmen dieses Projektes wurde ein robustes System zur automatischen Auslese
der Stammdaten aus Rechnungen mit hohem Innovationsanteil entwickelt. Im zweiten
Schritt wurde die Implementierung dieses Systems auf einem klimaneutralen Server in
Deutschland konzipiert. Dadurch ergeben sich für Kund:innen in Deutschland gleich
mehrere Vorteile. Ein entscheidender Punkt ist, dass beim Hosting in Deutschland die
europäischen Datenschutzbestimmungen gelten sowie der Gerichtsstand sich in Deutsch-
land befindet. Gleichzeitig hat die Nutzung der Dienstleistung keinen negativen Einfluss
auf die CO2 Bilanz des Kunden. Das dritte Ziel dieses Use-Cases war die Lösung in
bestehende Unternehmens-IT von Pilotkunden zu implementieren.
Die Dateien werden im Hintergrund des verwendeten Systems über den Server
geschickt und das final umgewandelte Ausgabedokument mit den Inhalten zurück-
gegeben. Für den Anwender bedeutet das, dass anstelle des Rechnungsdokuments eine
gleichnamige Datei, zum Beispiel im Dateiformat CSV, hinterlegt wird. Diese Datei ist
dann für die eigentliche Software im Vergleich zu einer PDF-Datei lesbar.
Im Unterschied zu bisherigen Systemen, welche auf Basis von Künstlicher Intelligenz
arbeiten, ist kein Training beim Endnutzenden notwendig. Durch das Zwischenschalten
von IT-Systemhäusern wird die Implementierung ebenfalls für den Endkunden ohne
164 V. Just et al.

Aufwand ablaufen. In Summe ergibt sich so ein schlanker, transparenter, günstiger,


sicherer und nachhaltiger Prozess.
Ein solches Projekt startet mit der Analyse der Datengrundlage. Dabei werden von
den ersten Kunden:innen Rechnungen eingesehen, welche bereits annotiert sein müssen.
Das bedeutet, dass die auszulesenden Stammdaten bereits in einem Datensatz vorhanden
sein müssen, welcher bereits existiert. Ist kein Datensatz vorhanden, im dem alle not-
wendigen Stammdaten enthalten sind, dann müssen die Daten erst gelabelt werden. Im
Labeln der Daten liegt der erste und nur schwer zu planende Ressourcenaufwand. Als
Basis werden ungefähr 10.000 Rechnungen benötigt.
Der zweite Schritt im Projekt ist der Beginn des Trainings, mit dem Ziel einen Proof
of Concept zu erstellen. Verwendet wird dafür die EDA (Explorative Datenanalyse).
Diese wird für die Optimierung im Hinblick auf maschinelles Lernen verwendet. Damit
lässt sich unter anderem sicherstelle, dass die Annotationen korrekt sind, die Klassen
ausbalanciert sind und Bias durch Daten vermieden wird. Anschließend wird der Text,
welcher in den PDFs und Scan Dateien (nur Bild) enthalten ist, in maschinenlesbaren
Text umgewandelt. Dazu wird folgendes Element aus einer Open-Source-Bibliothek mit
dem Namen Tesseract verwendet. Nach der Umwandlung erfolgt die Implementierung
einer textbasierten Baseline. Das erste Modell basiert auf einem reinen Sprachmodell
und dient als Vergleich für komplexere Modelle, die im nächsten Schritt implementiert
werden. Als Input dienen die Rechnungen in Textformat, als Output liefert das Modell
Textausschnitte für jede Stammdatenkategorie. Als Sprachmodell wird ein Transformer-
basiertes tiefes neuronales Netzwerk verwendet, das auf großen Datensätzen für die
deutsche Sprache trainiert wird. Abschließend erfolgt die Evaluation des Modells auf
einem separaten Testset an Daten, um unterschiedliche Modelle aussagekräftig ver-
gleichen zu können.
Basierend auf den Ergebnissen, welche bis zu diesem Zeitpunkt im Projekt
erzielt werden können, erfolgt dann die Implementierung eines multimodalen Proto-
typs. Abschließend wird dann die Implementierung und Evaluation der LayoutLM-
Architektur für den erläuterten Anwendungsfall, speziell für die deutsche Sprache,
durchgeführt. Der erste Schritt ist dann die automatische Verarbeitung einer PDF-Datei
durch Tesseract und der zweite Schritt die Output-Generierung durch das in den vor-
herigen Schritten ausgearbeitete Sprachmodell.
Zusammenfassend kann gesagt werden, dass durch Methoden der Künstlichen
Intelligenz (KI) können die Stammdaten von Rechnungen, mittels einer Cloud-
anwendung, extrahiert und anschließend in einem gängigen und für die Weiterver-
arbeitung geeigneten Format, zur Verfügung gestellt werden. Jeder Vorgang stellt eine
Dienstleistung dar, welche sich besonders für KMU mit ähnlichen Kreditoren, eignet.
Der Aufwand aufseiten des Kunden ist letztlich die Anbindung an die Server über ein
IT-Systemhaus. Durch das Zusammenfassen von vielen KMUs aus der gleichen Branche,
welche deshalb auch ähnliche Rechnungen erhalten, müssen die KI-Modelle nicht
einzeln vortrainiert werden, wodurch die Kosten für jedes einzelne Unternehmen deut-
lich gesenkt werden können. Eine einfache Cloudlösung mit Fokus auf KMU besteht
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 165

bisher nicht. Am Markt können bisher nur individuale Lösungen in Form von einmaligen
Projekten in Auftrag gegeben werden.
Die Lösung wird auf einem CO2 neutralen GreenCloud Server in Deutschland
gehostet. Insgesamt wird so eine sichere, nachhaltige und innovative digitale Dienst-
leistung für kleine und mittelständische Unternehmen geschaffen.
Die vorgestellten Anwendungsszenarien haben nur einen kleinen Einblick in die viel-
fältige, erfolgreiche KI-Akteurslandschaft Deutschlands gegeben. Als einordnen und
bewertenden Statement nachfolgend KI-Expertin Christina Strobel:

Meiner Meinung nach kann der Mittelstand nicht als ‚KI-fern‘ bezeichnet werden. Dennoch
wird, trotz des bestehenden Fortschrittsgedankens und der bereits schrittweisen Anwendung
von KI im Mittelstand, KI häufig noch nicht holistisch betrachtet. Es wird, abgesehen von
der Frage ‚Wie kann KI dazu beitragen unsere Produktion effektiver und damit kosten-
effizienter zu machen?", nicht konsequent die Frage danach gestellt, wie die Technologie
das Unternehmen als Ganzes beeinflussen könnte (also auch außerhalb der reinen Effizienz-
steigerung der Produktion). Ziel sollte es sein die Unternehmung als solche mehr als
volatiles, ganzheitliches Konstrukt zu denken und das disruptive Potential von KI für dieses
zu erkennen. Starre Prozesse und Funktionsdenken wirken dabei dem Momentum der Ver-
änderung aktuell noch häufig entgegen. Sprich: KI könnte noch viel mehr, wenn man sie
nicht nur im Silo eines einzelnen Prozesses/einer einzelnen Funktion einsetzt, sondern sie
bereichsübergreifend aufsetzt und denkt.”

Dr. Christina Strobel, Normungsroadmap Künstliche Intelligenz

5 Ausblick und Zusammenfassung

5.1 Folgende Schritte

Die ausgewählten Anwendungsszenarien haben dargestellt, welche weitreichende Rolle


KI im Mittelstand übernehmen kann und wie KI konkret die Innovationskraft des Mittel-
stands voranbringt. Unternehmen haben die Chance durch die Implementierung von KI
effizienter und nachhaltiger zu werden, während ein erheblicher Anteil der Kosten ein-
gespart werden kann. Gerade im Hinblick auf die Zukunft erscheint dies eine essentielle
und zugleich unabdingbare Entwicklung, um die Wirtschaftsstärke des Mittelstands und
somit auch Deutschlands zu sichern.
Die Entwicklung steht jedoch noch am Anfang. Expert:innen, sowohl im Mittelstand
als auch aus dem Bereich der KI, sind sich einig, dass noch einige Hürden überwunden
werden müssen, um das volle Potential aus der Synergie hervorzurufen.
Die Wirtschaft erhofft sich demnach ein gemeinsames Fortschreiten, um die
Potenziale freizusetzen und die vorherrschende gesellschaftliche Skepsis zu überwinden.
Dabei spielen die politische Bereitschaft, der Zugang zu Investitionen und die
Position im internationalen Vergleich eine grundlegende Rolle.
166 V. Just et al.

5.2 Rahmenbedingungen

Das Thema KI und der Bezug zum Mittelstand hat schon bereits in der letzten
Legislaturperiode der Bundesregierung an Aufmerksamkeit gewonnen. Das Potential
für den Mittelstand wurde erkannt und fortschrittliche Initiativen wie z. B. “Mittelstand
Digital” wurden ins Leben gerufen, welche den Mittelstand durch Kompetenzzentren
den Zugang zu neuen Technologien erleichtern soll.
Blickt man auf Infrastruktur und den rechtlichen Rahmen, besteht aber noch Hand-
lungsbedarf.

Infrastruktur
Für die Implementierung von erfolgreichen und modernen KI-Anwendungen bedarf es
einer erstklassigen digitalen Infrastruktur, die den zuverlässigen und schnellen Daten-
austausch und deren Verwertung ermöglicht. Gerade durch die große geografische Ver-
streuung von mittelständischen Unternehmen ist ein flächendeckender Aufbau von
Infrastruktur unabdingbar. Kurzum: ohne Infrastruktur keine Zukunft für KI-Netzwerke.
Dabei gilt es für Deutschland die erheblichen Versäumnisse in der LTE-Abdeckung in
Hinblick auf 5G zu korrigieren. Deutschland hängt laut einer Studie bisher im inter-
nationalen Vergleich weit zurück und belegt den drittletzten Platz mit einer LTE-
Abdeckung von 66 %. Europäische Nachbarn schneiden deutlich besser ab (z. B. die
Niederlande mit über 90 %) (Speedcheck 2019). Zudem sind diese Staaten im neuen
Standard 5G schon fortgeschritten, während Deutschland gerade erst startet.
Will Deutschland mit den anderen Nationen mitziehen, vor allem Tech-Nationen wie
Japan und den USA, so ist die Politik in der Pflicht gezielt eine bessere Infrastruktur zu
schaffen und zu initiieren.

Regulierung
Neben dem Aufbau einer Infrastruktur ist der richtige rechtliche Rahmen für KI
wichtig, um Freiraum und Sicherheit für Entwicklungen zu gewährleisten. Dies hat die
europäische Kommission erkannt und einen Entwurf für eine KI-Regulierung veröffent-
licht. Diese für Frühjahr/Sommer 2022 erwartete Regulierung hat das Ziel die Grundlage
für eine Nutzung im Sinne der europäischen Werte und Gesetze zu schaffen.
Gerade durch die Debatte über den Missbrauch von Daten oder die Gefahr von
„unethischer“ KI, soll die KI-Regulierung den Grundstein für vertrauenswürdige KI
legen. So werden Anwendungen in verschiedene Risikostufen eingeteilt, um sicherzu-
stellen, dass KI-Systeme, die in der EU verwendet werden, sicher, transparent, ethisch,
unparteiisch und unter menschlicher Kontrolle sind (EU Kommission 2019). So bewertet
knapp die Hälfte der deutschen Start-Ups eine solche Regulierung als positiv (Hirsch-
feld et al. 2021). KI-Unternehmen hoffen jedoch, dass diese Regulierung und damit ent-
stehende bürokratische Prozesse nicht das Innovationspotenzial einschränken und sie vor
große Herausforderungen stellen.
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 167

Diese KI-Regulierung wird jedoch nicht nur einen fundamentalen Einfluss auf die
Arbeits- und Entwicklungsprozesse von KI-Unternehmen haben, sondern auch auf die
Konsument:innen. Diese können z. B. mittelständische Unternehmen sein, die KI bereits
einsetzen oder einsetzen wollen. Gerade für diese Unternehmen, die von KI profitieren
oder profitieren könnten, sich aber in kein Wagnis begeben wollen, ist es essentiell
rechtliche Rahmenbedingungen verständlich und ohne Widersprüche zu gestalten. Die
Regulierung solle dabei anhand von klaren Guidelines Sicherheit in der Anwendung
schaffen, fordert der KI Bundesverband. Die Regulierung habe deshalb die Ver-
antwortung das Vertrauen zu KI aufzubauen. So können unklare und schwer zugängliche
Regeln die Skepsis des Mittelstands noch weiter verstärken (KI Bundesverband, 2021b).
Dazu komme ein Zurückschrecken durch das Risiko gegen die Regulierung zu verstoßen
und dafür bestraft zu werden.
So stößt der Vorschlag bereits auf große Kritik:

Die geplante EU-weite horizontale KI-Regulierung ist jedoch primär von Ängsten
getrieben. Sollte sie verabschiedet werden, würde insbesondere der Mittelstand an der
Umsetzung von Innovationen gehindert werden und an Wettbewerbsfähigkeit verlieren.
Nahezu jeder sicherheitskritische Anwendungsfall ist heute eigentlich schon reguliert.
Diese bestehenden vertikalen Regulierungen sollten bei Bedarf eher KI-spezifisch angepasst
werden.

Prof. Dr. Patrick Glauner, Technische Hochschule Deggendorf und skyrocket.ai GmbH

Expert:innen der Branche empfehlen deshalb, dass eine derartige KI-Regulierung,


auf europäischer und nationaler Ebene nur unter engem Austausch mit Wirtschafts-
verbänden, Vertreter:innen von Start-ups, KI-Expert:innen und Gewerkschaften ver-
abschiedet werden solle. Nur durch diese Balance könne sichergestellt werden, dass
Innovationskraft nicht dem Opfer von regulatorischem Aktionismus wird.

KI-Prämie
Als weitere politische Initiative sehen Wirtschaftsvertreter:innen die Einführung einer
KI-Prämie für den Mittelstand, um das Investitionsrisiko zu senken und die Bereit-
schaft zu erhöhen. So könnten „mutige“ mittelständische Unternehmen den finanziellen
Anreiz und die Absicherung erhalten, wenn sie KI-Systeme in ihre Unternehmens-
prozesse einbauen. KI-Unternehmen erhoffen sich dadurch eine höhere Bereitschaft ihre
Produkte anzunehmen. So könne eine solche KI-Prämie als Katalysator zur Freisetzung
von Potenzialen im deutschen Mittelstand wirken und erheblich zur Überwindung von
Skepsis und Misstrauen beitragen.
168 V. Just et al.

6 Finanzierung

Das Entwicklungs- und Entfaltungspotenzial von KI hängt nicht nur an den politischen
Rahmenbedingungen, sondern auch sehr stark an der privatwirtschaftlichen Bereit-
stellung von finanziellen Mitteln. Diese bestimmen nicht nur den Handlungsspielraum
von KI-Unternehmen, sondern beeinflussen den globalen Markt maßgeblich.

Investment in KI
Die deutsche KI-Forschung nimmt weltweit eine Spitzenposition ein. Eine Studie des
Deutschen Start-Up Verbands und hub:raum, zeigt jedoch auf, dass dieses Potential, das
in der Wissenschaft liegt, im Bereich der Wirtschaft nicht ausgeschöpft wird (Hirsch-
feld et al. 2021). Auf der einen Seite habe die deutsche Wissenschaft zwar das Wissen
und Know-how und den internationalen Vorteil, dieser werde aber zu wenig in markt-
fähige Produkte umgewandelt und weiterentwickelt. So liegen Firmengründungen für
innovative KI-Anwendungen im internationalen Vergleich unter den Erwartungen.
Zum einen fehle Kapital, um aus Startups international erfolgreiche Unternehmen
zu machen, was die Innovationskraft der deutschen Wirtschaft schwächt und Wachstum
behindert. Eine Studie hält fest, dass 2018 nur 13 % der Corporate-Venture-Capital-
Investitionen auf europäische KI-Startups entfielen, während der Anteil in Nordamerika
bei 44 % und in Asien bei 42 % lag. Staatlich finanzierte VC-Fonds oder kapitalbasierte
Rentenmodelle, die in Venture Capital investieren, könnten dabei Europa helfen mehr
VC zu mobilisieren (Dealroom 2021).
So hängen Investitionen in KI und die Auswirkungen auf den Mittelstand zusammen:

„Die Summen, die in KI investiert werden in Deutschland sind im internationalen Ver-


gleich immer noch viel zu klein. Da Investments aber KI-Firmen helfen, ihre Produkte
schneller zu entwickeln, wirkt sich deren fehlendes Kapital auch negativ auf den Mittel-
stand auf, welcher wiederum KI-Anwendungen nutzt oder nutzen muss, um im Wettbewerb
zu bestehen. Kurz gesagt: fehlt Geld bei KI-Entwicklungen, büßt zwangsläufig auch der
Mittelstand an internationaler Konkurrenzfähigkeit ein. So besteht in diesem Feld großer
Handlungsbedarf von Politik die richtigen Rahmenbedingungen zu schaffen, damit in
Deutschland mehr Venture Capital in KI investiert wird.“

Rasmus Rothe, Co-founder und CEO von Merantix

Zum anderen kommen auch Forderungen nach sogenannten KI-Transferzentren auf, die
Forscher:innen mit KI-Unternehmen zusammenbringen sollen.

Bereitschaft des Mittelstandes


Ein weiterer wichtiger Punkt spielt an dieser Stelle jedoch auch der Mittelstand und
die Bereitschaft KI in die Arbeitspraxis einzubauen. Wird die Verknüpfung zwischen
KI-Entwickler:innen und den Unternehmen geschaffen, sodass KI-Anwendungen in
den im Mittelstand einen Abnehmer finden, wird der Anreiz geschaffen in KI weiter zu
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 169

investieren. Positive Folgen sind daher für den Forschungstransfer als auch für KI-Unter-
nehmer: innen zu erwarten, da der Fokus auf den deutschen Markt verstärkt werde. Diese
Fokussierung und Diversifizierung der Anwendungen im Mittelstand mache dadurch das
KI-Ökosystem erfolgversprechender für Investor:innen.
Ein sich verstärkender Kreislauf, von dem der Mittelstand, KI-Unternehmen, KI-
Forscher:innen, sowie Investor:innen profitieren, könne dadurch erzielt werden.

6.1 Daten

Erhält ein KI-Netzwerk die finanzielle Unterstützung und die richtigen Rahmen-
bedingungen, so steht und fällt der Erfolg dennoch mit der Bereitstellung von Daten, mit
welchen es trainiert wird. Entscheidend ist hierbei wohin die Daten fließen und wie sie in
ein KI-Netzwerk finden.

Datenkunde
Die richtige Bereitstellung von Daten ist essentieller Bestandteil von erfolgreichen
KI-Netzwerken. In Unternehmen, herrschen bisher noch weite Wissenslücken, wie
und welche Daten digitalisiert werden müssen, um z. B. einen Produktionsprozess zu
optimieren. Schulungen für Mitarbeiter:innen, die von Arbeitgebenden initiiert werden,
können dabei Abhilfe leisten. Zudem fordern Wirtschaftsverbände, wie der KI-Bundes-
verband, Schüler:innen und Studierende durch Datenkunde-Module bereits in der
schulischen Ausbildung zu sensibilisieren (KI Bundesverband, 2021a).

Daten- und Digitale Souveränität


Eine weitere Herausforderung entsteht im Hinblick auf die Digitale Souveränität
Europas. Die jüngsten Fortschritte und Entwicklungen der Künstlichen Intelligenz (ins-
besondere im Hinblick auf große KI-Modelle, z. B. GPT-3) stammen ausschließlich
von US-amerikanischen und chinesischen Unternehmen. So ist anzunehmen, dass
europäische Akteure in diesem Feld ins Hintertreffen geraten und dass das innovative
europäische KI-Ökosystem von KI-Lösungen aus China und den USA abhängig wird.
Dies könne sich darin auswirken, dass viele Sprachen wie z. B. deutsch nicht weiter
unterstützt werden können, der Schutz von Privatsphäre und persönlichen Daten ver-
nachlässigt wird und Transparenz-Ansprüche nicht mehr erfüllt werden können.
Wenn zeitnah keine Verknüpfung zwischen KI-Lösungen und dem Mittelstand her-
gestellt wird, steht der deutsche Mittelstand vor einer schwierigen Zukunft. Spätes
Reagieren heißt, KI-Lösungen müssen aus China und den USA oder anderen Ländern
bezogen werden, um wirtschaftlich zu bleiben. Nur durch Synergieeffekte zwischen
Unternehmen und KI-Entwickler:innen innerhalb Europas könne dies verhindert werden.
Wird den KI-Unternehmen signalisiert, dass Abnehmer im deutschen Mittelstand
enormes Wertschöpfungspotenzial haben, wird die Gefahr gemindert, dass ausschließlich
ausländische KI-Systeme bezogen werden müssen.
170 V. Just et al.

Passiert das nicht, läuft der Mittelstand Gefahr erhebliche Einschnitte in der Hand-
lungsautonomie zu verzeichnen.

6.2 Ausblick

Künstliche Intelligenz hat das Potential den Mittelstand zu verändern und voranzu-
bringen. In Anbetracht der vielen Baustellen, die aber noch bestehen, ist vor allem der
Mittelstand selbst dazu angehalten zukunftsträchtige KI-Strategien zu erstellen und pro-
aktiv zu handeln.
Hierfür müssen Mitarbeiter:innen von Anfang an mitgenommen und ausgebildet
werden, um KI-Know-how zu erwerben, während das Unternehmen ein Gesamtkonzept
entwickelt. Kooperationen mit anderen mittelständischen Unternehmen, eine genaue
Benennung, an welchen Stellen KI in der Wertschöpfungskette genutzt werden kann,
sollten dabei feste Bestandteile eines solchen Konzeptes sein (Kaul et al. 2019).
Zudem arbeitet die Forschung an einer Optimierung für den Zugang des Mittelstands
zu KI-Anwendungen.

“Eine Kernaufgabe der heutigen Forschung liegt darin, KI für mittelständische Unter-
nehmen anwendbar zu machen. Hierzu werden Ansätze zur Vereinfachung der Anwendung
von KI-Methoden entwickelt, welche deren Nutzung ohne tiefes KI-Expertenwissen und
Programmierkenntnisse ermöglichen. Zudem wird in der Forschung an einer höheren
Dateneffizienz der KI-Anwendungen gearbeitet, wodurch bisherige Ansätze aus dem Big
Data Bereich auch für Unternehmen mit kleineren Datensätzen nutzbar werden.“
Marcus Röhler, M.Sc., Fraunhofer-Institut für Gießerei-, Composite- und Verarbeitungs-
technik IGCV

Greifen die Ränder ineinander und Unternehmen erhalten die Unterstützung und vorteil-
haften Rahmenbedingungen hat KI die Möglichkeit den deutschen Mittelstand in seiner
führenden Position zu sichern und diese sogar auszubauen.

Literatur

Barton T, Müller C (2021) Künstliche Intelligenz in der Anwendung. https://doi.org/10.1007/978-


3-658-30936-7
Brown E (2019, January 2) Over half of consumers will choose a chatbot over a human to save
time | ZDNet. ZD Net. https://www.zdnet.com/article/over-half-of-consumers-will-choose-a-
chatbot-over-a-human-to-save-time/
Capgemini (2019) Smart Talk – How organizations and consumers are embracing voice and chat
assistants. https://www.capgemini.com/wp-content/uploads/2019/09/Report_Conversational-
Interfaces-1.pdf
Dealroom (2021) Startup cities in the Entrepreneurial Age. https://dealroom.co/uploaded/2021/07/
Dealroom-Sifted-startup-cities-2021.pdf?x20197
KI im deutschen Mittelstand: Wo stehen wir? Wo geht … 171

EU Kommission (2019) Künstliche Intelligenz – Exzellenz und Vertrauen | EU-Kommission.


https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-
artificial-intelligence_de
Expertenkommission Forschung und Innovation (2021) Gutachten zu Forschung, Innovation und
technologischer Leistungsfähigkeit Deutschlands 2021, EFI, Berlin
Giering O, Adriaans J, Kirchner S, Fedorets A (2021) DIW Berlin: Künstliche Intelligenz in
Deutschland: Erwerbstätige wissen oft nicht, dass sie mit KI-basierten Systemen arbeiten. DIW
Wochenbericht: Gutachten zu Forschung, Innovation und technologischer Leistungsfähigkeit
Deutschlands 2021, EFI, Berlin. 48:783–789. https://doi.org/10.18723/DIW_WB:2021-48-1
Groth Dr OJ, Nitzberg Dr M, Zehr D (2018) Vergleich nationaler Strategien zur Förderung von
Künstlicher Intelligenz. www.kas.de
Hirschfeld Dr A, Gilde J, Walk V, Cann V, Seitz Prof Dr J, Willbold K, Haiber, R (2021)
STARTUPS UND KÜNSTLICHE INTELLIGENZ Innovation trifft Verantwortung. https://
deutschestartups.org/wp-content/uploads/2021/12/Startups-und-Ku%CC%88nstliche-
Intelligenz-%E2%80%93-Innovation-trifft-Verantwortung-2021.pdf
Kaul A, Schieler M, Hans C (2019) Künstliche Intelligenz im europäischen Mittelstand. Gutachten
zu Forschung, Innovation und technologischer Leistungsfähigkeit Deutschlands 2021, EFI,
Berlin
KI Bundesverband. (2021a). Positionspapier des KI Bundesverbands für die Legislaturperiode
2021a-2025. https://ki-verband.de/wp-content/uploads/2021a/06/ki_positionspapier_0806021.pdf
KI Bundesverband. (2021b). Feedback to the European Commission’s regulation proposal on the
Artificial Intelligence Act. https://ki-verband.de/wp-content/uploads/2021b/08/Stellungnahme-
KI-Regulierung-an-EC.docx-3.pdf
Menten J. (2021 November 22). The Pentagon needs a new AI strategy to catch up with China
– California News Times. California Newstime. https://californianewstimes.com/the-pentagon-
needs-a-new-ai-strategy-to-catch-up-with-china/600264/
NICE & BCG (2016). NICE-BCG CX Survey Highlights. Abgerufen: Juni 20, 2022, von https://
www.nice.com/websites/analytics/cn/files/CX/DC/NICE-BCG-2016-Customer-survey.pdf
Speedcheck. (2019). Mobilfunk Report 2019 – Deutschland, EU und USA. In Speedcheck.
Abgerufen: Januar 28, 2022, from https://www.speedcheck.org/de/
Stresing CJ, Bolits MA, Dahmann A, Parsons C, Styma F, Fuest K, Born D, Krys C (2018) Venture
capital Fueling innovation and economic growth. Gutachten zu Forschung, Innovation und
technologischer Leistungsfähigkeit Deutschlands 2021, EFI, Berlin.
Ulrich P, Frank V, Kratt M (2021) Künstliche Intelligenz im Mittelstand. https://opus-htw-aalen.
bsz-bw.de/frontdoor/index/index/docId/1316

Dr. Vanessa Just ist Gründerin und CEO der juS.TECH AG,
einem wachsenden Start-Up Unternehmensverbund für Nachhaltig-
keit in der Digitalisierung und für die KI-Strategie bei team neusta
zuständig. Sie promovierte in nachhaltiger Automatisierung und
Digitalisierung von Geschäftsprozessen. Neben der beruflichen
Tätigkeit hält sie Vorlesungen an verschiedenen deutschen Hoch-
schulen und Universitäten. Dr. Vanessa Just ist im KI Bundes-
verband Leiterin der Regionalgruppen Nord und Nord-West,
besonders aktiv in der Arbeitsgruppe Klima & Nachhaltigkeit, der
Taskforce
Copyright für das Portraitfoto: © by Faceland.com
D19B8026
172 V. Just et al.

Valentin Roth arbeitet im KI Bundesverband eng mit der


Geschäftsführung zusammen. In Zusammenwirken mit Wirtschaft,
Politik und Forschung verfolgt er dabei das Ziel Künstliche
Intelligenz in Deutschland und Europa voranzubringen.
Er studiert zudem einen Bachelor in Politik, Recht und Öko-
nomie (PLE) sowie einen Bachelor of Laws (LL.B) an der IE Uni-
versity in Madrid, Spanien. Durch dieses breite Studienfeld erwirbt
er interdisziplinäres Wissen im Hinblick auf internationale und
gesamtgesellschaftliche Entwicklungen.

Eduard Singer ist ein Technologie-Manager/Startup-Gründer mit


über 15 Jahren Erfahrung. Im Jahr 2018 hat Eduard das KI/Big
Data Startup neusinger.ai mit Sitz in Frankfurt mitgegründet, von
Frühjahr 2020 bis Sommer 2021 war er zudem Lead des AI Lab
Kurpfalz @ Technologiepark Heidelberg GmbH.
Parallel ist Eduard als Unternehmens- und Startup-Coach/
Berater und Mentor u.a. für Plug and Play Tech Center (München)
& TechQuartier (Frankfurt) tätig und ist Teil der „KI-Task-
force Mittelstand“ & Leiter der Arbeitsgruppe Finanzen & Ver-
sicherungen des KI-Bundesverbandes.
Seit November 2021 ist Eduard Vizepräsident der Deutsch-
Ukrainischen Gesellschaft für Wirtschaft und Wissenschaft e. V.
Innovationsleistung digitaler Open
Source-Netzwerke im Kontext der SARS-
CoV-2-Pandemiebekämpfung

Raphaël Murswieck

1 Kontext und Einführung

Die Auswirkungen der SARS-CoV-2 Pandemie haben gerade im Gesundheitssektor etablierte


Unternehmen sowie vor allem Herstellern von Medizinprodukten, persönlicher Schutzaus-
rüstung und Arzneimittel massiv auf die Probe gestellt. Die Entwicklung, Produktion und
Logistik gerade von dringend erforderlicher Schutzausrüstung zu Beginn der Pandemie
(und später auch von SARS-CoV-2 Antigen-Schnelltests, Impfstoffen und schließlich PCR-
Labortests) hat weltweit zu deutlichen Engpässen entlang der Lieferketten geführt (Rowan
und Laffey 2020; Branswell 2020; Iyengar, 2020). Durch die mediale Präsenz der Eng-
pässe haben sich zu Beginn Anfang 2020 daher schnell neue, privat initiierte, Open-Source-
Netzwerke über die sozialen Medien gebildet, die in unterschiedlichen Regionen weltweit
kooperierend Erfolge durch lokal hergestellte Waren im Gesundheitssektor aufweisen
konnten. Dies hat sich in lokalen „Maker“-Zentren, „FabLabs“ oder privaten Werkstätten
gezeigt, die in die Lage versetzt wurden auf Basis öffentlich frei zugänglicher Anleitungen
funktionierende „Laien“-Medizinprodukte und -Schutzausrüstung herzustellen.
Eine differenzierte Betrachtung der privaten Aktivitäten in Form einer Observations-
studie speziell als Teil von digitalen, sozialen Netzwerken im In- und Ausland und den
damit verbundenen Herangehensweisen zur Lösung von COVID-19-bezogenen Heraus-
forderungen, zeigt, dass neben regulierungsbedingt langwierigen Innovationsprozessen

R. Murswieck (*)
HEYDELBERGER Institut für strategisches Innovationsmanagement IfsIM, Bammental,
Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 173
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis , Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_10
174 R. Murswieck

im Medizinwesen durchaus auch unkonventionelle Herangehensweisen im Gesund-


heitswesen erfolgreich sein können (vgl. Antonini et al. 2021). Gerade weil in den welt-
weit neu entstandenen Netzwerken auch zahlreiche Personen aktiv wurden, die bislang
keinen Kontakt bzw. keine Erfahrung innerhalb der Gesundheitsbranche hatten, lohnt ein
Blick auf die Entstehungs- und Innovationsprozesse die, was die Leistung in Form von
entwickelter, produzierter und gelieferter Ware betrifft, einen signifikanten Beitrag im
Pandemiegeschehen auf Nachfrageseite leisten konnte.
Das „Open Source Medical Supplies“ – Netzwerk entstand im März 2020 als Antwort
und Ergebnis auf die sich überschlagenden Ereignisse der Covid19-Pandemie (OSMS
2021), ausgebrochen in Wuhan, China, mit der Meldung des ersten Todesfalles am 11.
Januar 2020 und der bestätigten Verbreitung des SARS-CoV2-Virus Ende Januar 2020
in Südkorea, Japan, Thailand und den USA (Taylor 2021). Bereits im Februar 2020
wurde in China ein Lockdown für 760 Mio. Menschen verhängt, um die Ausbreitung
des Virus zu vermeiden mit der Konsequenz, dass auch Produktionen stillgelegt wurden,
die einen direkten Einfluss auf den Warenexport in die USA hatten und somit zu einem
Mangel von Schutzausrüstung führten (Zhong und Mozur 2020). Der Mangel dringend
benötigter Schutzausrüstung wie Masken, Schutzbrillen, Kittel, etc. war so offensicht-
lich, dass Krankenhäuser weltweit anfingen sich mit provisorischen Mitteln selbst
auszuhelfen: selbst angefertigte Kunststoff-Schutzschilde aus Büromaterialien, Staub-
schutzanzüge aus anderen Branchen (Elgin und Tozzin 2020) oder gekaufte Schwimm-
und Tauchbrillen, um überhaupt einen Schutz zu erlangen beim Umgang mit infizierten
Patienten.
Im Folgenden wird eine partizipative Observationsstudie mithilfe der sogenannten
„Grounded Theory Methodology“, kurz GTM, vorgestellt, anhand dieser Einblicke in
Netzwerke wie dem „Open Source Medical Supplies“, kurz OSMS-Netzwerk gewonnen
werden konnte. Die Innovationserfolge in Form öffentlich zugänglicher Anleitungen
(Open Source) einschließlich Herstellprozesse konnten systematisiert und analysiert
werden. Ein Vergleich mit konventionellen, eher langwierigen Innovationsprozessen im
Bereich der Medizintechnik, zeigt Potenziale auf, die sich mittel- und langfristig auch
Medtech-Unternehmen als Wettbewerbsvorteil zu Nutze machen können.
Nach Beschreibung des Studiendesigns werden zunächst die Studienergebnisse
systematisch vorgestellt und abschließend im Kontext von Innovationsprozessen in
der Medizintechnik durch Vergleiche sowie anhand von Literatur gegenübergestellt
und diskutiert. Die Erkenntnisse aus den digitalen Open Source – Netzwerken werden
schließlich auf Übertragbarkeit in die Unternehmenspraxis bewertetet.

2 Studienziel und Studiendesign

Innovationen treten grundsätzlich auf vielfältige Weisen auf und entstehen durch Ideen
aus unterschiedlichen Quellen innerhalb und außerhalb einer Organisation. Die vor-
liegende Studie konzentriert sich auf den Innovationsprozess und die Entstehung von
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 175

Ideen, die aufgrund spezifischer Impulse innerhalb von Open-Source-Netzwerken


zur Lösung von pandemiebedingten Herausforderungen zur Versorgung mit Engpass-
Medizinprodukten geboren wurden. Bei der Vorgehensweise standen zwei Fragen im
Vordergrund:

• Welche digitalen Werkzeuge werden oder wurden im Netzwerk eingesetzt und welche
Rolle spielen diese strukturell?
• Wie werden Ideen in der frühen Phase des Innovationsprozesses (Fuzzy Front End,
kurz „FFE“) in digitalen Netzwerken generiert und mit welchen Auswahlmethoden
anschließend behandelt?

Das Forschungsdesign der Studie zielte darauf ab, neben informellen Interviews in
Online-Konferenzen bzw. Konferenzschaltungen und Telefonaten des Open Source
Medical Supplies (OSMS)-Netzwerkes eine Analyse der digitalen Werkzeuge (siehe
Tab. 1) durchzuführen, um informelle Prozesse und Schlüsselfaktoren zu identifizieren,
die eine Rolle bei der Entstehung von Lösungsansätzen aufgrund von Ideen und deren
Auswahlmethoden zur Pandemiebekämpfung spielen.
Aus den Kernzielen der Studie soll idealerweise hieraus ableitend gemäß der
Grounded Theory eine Theorie in Bezug auf die frühe Phase des Innovationsprozesses in
Open Source-Netzwerken formuliert und diskutiert werden.
Für die Studie wurde, wie bereits einleitend erwähnt, die Grounded Theory
Methodology (GTM) nach Strauss und Corbin (1996) als Untersuchungsmethode
gewählt, da sie einen anerkannten Forschungsansatz innerhalb der Sozialwissenschaften
darstellt, insbesondere wenn es darum geht, vertiefte, explorative Studien durchzuführen.
Darüber hinaus ermöglicht die Methode den Forschern, Daten auf der Grundlage einer
qualitativen Methode zu sammeln und der akademischen Gemeinschaft zur Verfügung zu
stellen.
Die vorliegende Studie fokussiert sich u. a. auf den Zeitpunkt der Ideenent-
stehung, englisch „Fuzzy-Front End“, kurz FFE, welches Teil der frühen Phase im
Innovationsprozess (vgl. Murswieck 2021, S. 13 und S. 130) gilt und im Vergleich
zum Innovationsprozess als Ganzes einen noch recht unerforschten Bereich inner-
halb der Innovationsforschung darstellt (vgl. Rowold und Bormann 2015). Die Grund-
idee der GTM ist zunächst einmal die Erforschung und Formulierung neuer Theorien
und Modelle aus empirischen Feldbeobachtungen. In diesem Zusammenhang bietet die
GTM nach Strauss/Corbin eine intermediäre Forschungsmethodik zwischen den beiden
theoretischen, extremen Forschungspolen: der positivistischen Position auf der einen
und der konstruktivistischen Position auf der anderen Seite (vgl. Albeck 2016; Brand
2009). Letztere bezieht sich auf eine aufgrund ihrer Individualität nicht messbare Reali-
tät; die positivistische Sichtweise hingegen orientiert sich an den Naturwissenschaften,
bei denen die beobachtete Realität gemessen und bewiesen werden kann. Die GTM zielt
jedoch darauf ab, eine Theorie aus Daten abzuleiten, die „im Laufe des Forschungsfort-
schritts systematisch gesammelt und analysiert“ werden, und soll ebenso „Einblicke
176 R. Murswieck

Tab. 1  Studiencharakteristik Open Source-Netzwerke im Gesundheitssektor


Aspekt Charakteristik
Studienziel a.) Gewinnung von neuem Datenmaterial bei der Entstehung
von Innovationsprozessen digitaler Open-Source-Netzwerke im
Kontext der Pandemiebekämpfung
b.) Analyse und Ableiten von Schlüsselfaktoren bezogen auf die
Innovationsleistung auf Organisationsebene
Untersuchungsgegenstand Open Source Medical Supplies – Netzwerk und dezentral
organisierte Parallel-Netzwerke (sog. Individual Maker/
FabLabs/u. ä.)
Untersuchungszeitraum April 2020 – Juli 2021 (partizipativer Studienanteil)
Review Assessement Dezember 2021 – Januar 2022 (literaturbasierter Studienanteil)
Methodology 1. Grounded Theory
2. Literaturstudie
(Fokus auf Dokumente der Open Source Medical Supplies –
Netzwerke)
Datenerhebung Feldbeobachtungen
Informelle Interviews innerhalb der Netzwerke
Analyse (nicht-)öffentlicher Dokumenten in den Netzwerken
Durchführung der Studie Studiendurchführung durch den Autor:
Feldnotizen gem. der Grounded Theory Methodology (GTM),
Iterativer Erfassungsmodus

liefern, das Verständnis verbessern und eine sinnvolle Anleitung zum Handeln geben“1
(Strauss und Corbin, 1998, S. 12). Daher wird abschließend versucht eine Theorie
anhand von Schlüsselfaktoren zu formulieren, die als Grundlage für eine Diskussion
unter Einbindung von Literatur dient.
Bewährte Techniken der GTM sind die Beschreibung von Beobachtungen, die Durch-
führung von (möglichst informellen) Interviews oder auch die Analyse von Dokumenten,
die in den Studien verwendet werden können. Zusammengefasst können drei aufeinander
aufbauende Hauptaspekte innerhalb der GTM beschrieben werden, um eine Theorie
zu entwickeln mit dem Ziel einen verwertbaren Nutzen aus den Daten zu schaffen:
das Beschreiben der erhobenen Daten, das konzeptionelle Ordnen der Daten sowie das
abschließende Theoretisieren und Konstruieren (Abb. 1).
Die Theoretisierung umfasst sowohl die beschreibende als auch die konzeptionelle
Ordnung und ist das Ergebnis der Konstruktion einer Theorie, die auf den geordneten
Daten basiert. Daher beginnt der Prozess der Theoretisierung mit der Beschreibung

1 Übersetzt aus dem Englischen durch den Autor.


Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 177

Abb. 1 Methodisches Vorgehen anhand der Grounded Theory Methodologie. (Quelle: Eigene
Darstellung nach Strauss, A.L. and Corbin J.M. (1996 [1990]), Grounded Theory: Grundlagen
qualitativer Sozialforschung. Beltz/PsychologieVerlagsUnion Weinheim)

auf der Grundlage der Feldbeobachtungen, der informellen (und damit unbeein-
flussten) Interviews oder dem Material, das innerhalb des Forschungsobjekts beispiels-
weise in den Dokumenten gefunden wurde. Die konzeptionelle Ordnung baut auf der
Beschreibung auf, die durch Strukturierung und Kategorisierung des Inhalts (Daten aus
der Beschreibung) erfolgt. Dies geschieht durch das Organisieren und Ordnen der Daten
z. B. anhand von Eigenschaften oder Dimensionen.
In der vorliegenden Studie wurden entsprechend der Aktivitäten aus den digitalen
Meetings und Aufzeichnungen des Open Source Medical Supplies (OSMS) – Netzwerk
beobachtet und erst später in Bezug auf Innovationen untersucht und entsprechend der
GTM in Bereiche kategorisiert und ausgewertet. Im Vergleich zu gestandenen Unter-
nehmen mit ihren meist etablierten Prozessen sind neu entstehende Strukturen, wie
den wachsenden und agilen Netzwerken im Kontext der Pandemiebekämpfung, eine
Besonderheit. Die für die GTM übliche, iterative Vorgehensweise von der Beschreibung
zur Theorienbildung wird gerade im vorliegendem Studienkontext allein durch die
dynamischen Netzwerke zu einer Besonderheit innerhalb des Studienablaufs. Die
kontinuierlich, neu entstehenden Inhalte in den verschiedenen Medien des bzw. der
OSMS-Netzwerke bieten somit ausreichendes Material im Rahmen des iterativen
Prozesses die neuen Ideen als auch die Aufbereitung dieser zu beobachten.
Schließlich wurden die Ideen dahingehend überprüft, wie sie zu Innovationen führen
beziehungsweise verworfen werden. Die Analyse der Beschreibungen und schließlich
das Ableiten von Schlüsselfaktoren als Theorie für akademische Gemeinschaft bezogen
auf die Innovationsleistung auf Organisationsebene der OSMS-Aktivitäten können
letzten Endes Impulse für Unternehmen geben ihre eigenen Innovationsstrategien zu
hinterfragen, zu ergänzen oder insgesamt zu optimieren.
178 R. Murswieck

Abb. 2 GTM-Memo: Informations-Struktur der OSMS-Netzwerke, Quelle: eigene Darstellung

3 Ergebnisse

Grundlage der Ergebnisse sind entsprechend der Grounded Theory – Vorgehensweise


zunächst die strukturellen Ergebnisse sowie die Kategorisierung auf Basis der durch-
geführten Feldbeobachtungen. Als Beispiel einer erfolgten Kategorisierung soll aus-
gehend von den oben bereits beschriebenen Leitfragen der Studie die vorgefundene
Struktur der Open Source – Netzwerke als GTM typisches „Memo“ gem. Abb. 2 dar-
gestellt werden, wobei hier die Nutzung folgender Medien in den Netzwerken fest-
gestellt wurden:

• Soziales Netzwerk „Facebook“ als öffentliches Medium


• Webpage als öffentliches Medium (https://opensourcemedicalsupplies.org/)
• Google Drive als Filesharing-System
• Nicht-Öffentliche Kommunikationskanäle in „slack“
• Messengerdienste mit „whatsapp“ als Schwerpunkt sowie weitere („Signal“,
„Threema“,..)
• Nicht-öffentliche Telefonkonferenzen
• Nicht-öffentliche Videokonferenzen (Teams, Zoom,..)

Mithilfe der genannten Medien konnten die Informationen zwischen den OSMS-
Mitgliedern gesteuert und ausgetauscht werden.
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 179

Im Zuge des Netzwerk-Aufbaus wurde die Plattform „facebook.com“ als sichtbares


Kommunikationselement intensiv genutzt. Im Frühsommer 2020 erreichte die OSMS-
Gruppe auf Facebook (s.a. https://www.facebook.com/groups/opensourcecovid19medic
alsupplies) bereits knapp 70.000 internationale User bzw. Gruppenmitglieder2, was sich
bis heute (Stand: Januar 2022) etwa gehalten hat.
Die Struktur der Netzwerk-Aktivitäten lässt sich in Anlehnung an Abbildung Abb. 2
in drei zentrale Bereiche mit jeweiligem Hintergrund kategorisieren:

1. Sichtbarkeit des Netzwerkes


a) Öffentlich einsehbare Informationen und Aktionen
b) Nicht-öffentlich einsehbare Aktivitäten
2. Kommunikationsschema
a) Lokale Gruppen auf regionale Länderebene
b) Globale und damit zentral bedeutsamer Austausch
3. Adressierte Themen die strukturiert werden
a) Organisation und Management des Netzwerkes mit Verantwortlichkeiten
b) Kanalisierung des Bedarfs anhand konkreter Probleme in der Pandemiebe­
wältigung, produktbezogen
c) Ideensammlung des Netzwerkes zur Lösung der Herausforderungen, produkt-
bezogen
d) Ausgearbeitete, technische Lösungen zur Bedarfsbefriedigung, produktbezogen
e) Regulatorik und Angelegenheiten zur gesetzkonformen Behandlung der Lösungen

Die Organisation des Netzwerkes konnte, wie später erläutert, hierbei als zentraler
Schlüsselfaktor identifiziert werden, da hierdurch die zahlreichen Informationen in allen
Medien kanalisiert werden, insbesondere um neuen Inhalt aus öffentlichen Facebook-
Kommentaren (Hilferufe aus aller Welt, den Bedarf von Krankenhäusern und Ein-
richtungen, Ideen und technische Lösungsansätze) zu sammeln, zu bewerten und
bestenfalls in Aktionen umzusetzen. Neben länderspezifischen Gruppen (mit „slack“
als soziales Medium) in jeweiliger Landessprache wurde schnell deutlich, dass nur mit
einer funktionierenden Organisations- und Managementstruktur, wie sie in Unternehmen
herrscht, das Netzwerk effizient (also schnell) sowie effektiv (also zielführend) zur
Pandemiebewältigung beitragen kann. Zu erwähnen sei, dass aufgrund der Netzwerk-
Struktur und der Menge an Informationen nicht alle Medien „offiziell“ verwaltet wurden
oder werden können. Vielmehr dienen die unterschiedlichen Medien und deren Kanäle
zur Vernetzung und dem Austausch der Mitglieder. Offiziell werden drei Bereiche ver-
waltet: Abb. 3 zeigt die identifizierten Plattformen, die verwaltet werden:

2 Die Nutzung von Facebook ist aufgrund von Restriktionen nicht in allen Ländern möglich, so
dass nur User mit Zugang zum Netzwerk die Community nutzen konnten.
180 R. Murswieck

Abb. 3 Identifizierte, verwaltete Bereiche des OSMS Netzwerkes. Quelle: Eigene Darstellung

Der Autor selbst stand hierbei auch im persönlichen Kontakt mit dem Co-Gründer
des OSMS-Netzwerkes, um sich über Aufgaben und Funktionen im Netzwerk auszu-
tauschen. Die zentrale Aussage des Co-Gründers, dass der Aufbau des Führungsteams
und die Steuerung des globalen Netzwerkes erhebliche zeitliche Kapazitäten erfordere
(„more than a full-time job“) macht die Anforderungen an die ehrenamtlichen Fach- und
Führungskräfte in der Anfangszeit der Krise deutlich. Im Gegensatz zu gestandenen
Unternehmen zeigt sich beim OSMS-Netzwerk, dass alle Mitglieder grundsätzlich auf
„Augenhöhe“ interagieren, die Steuerung des Netzwerkes an sich jedoch ebenso wie in
Unternehmen hierarchisch organisiert ist, was auch heute noch Anfang 2022 der Fall ist
(OSMS 2022).
Die erste Leitfrage „Welche digitalen Werkzeuge werden im Netzwerk eingesetzt und
welche Rolle spielen diese strukturell?“ kann nach der Analyse wie folgt beantwortet
werden:
Die in Abb. 3 genutzten Plattformen dienen der externen Kommunikation (Webpage,
Facebook) sowie der Gewinnung von neuen Informationen und dem Austausch zwischen
internen und externen Personen (Facebook, Google-Drive Filesharing). Alle anderen
eingangs erwähnter Medien wie whatsapp, slack, Telefon- und Videokonferenzen
dienen vielmehr der internen Kommunikation, dessen Ergebnisse, Aktionen und Bei-
träge zur Lösung der pandemiebedingten Herausforderungen in die offiziell verwalteten
Dokumentenstruktur einfließen.
Dies führt direkt zur Bearbeitung der zweiten zentralen Leitfrage „Wie werden
Ideen, die in der frühen Phase des Innovationsprozesses (Fuzzy Front End, kurz „FFE“)
in digitalen Netzwerken generiert und nach welchen Auswahlkriterien behandelt?“.
Beobachtet wurde folgender Ablauf (s. Abb. 4), von der Idee bis zur veröffentlichten
Open-Source-Lösung:
Auffallend konnte festgestellt werden, dass Ideen meist nach einem „Hilferuf“-
Posting generiert wurden und somit als lösungsorientierte, sachliche Antwort, oftmals
mit bereits ersten konstruktiven Lösungen einhergingen. Hierbei wurde ohne Rücksicht
auf das Herkunftsland Hilfestellung in Form von Informationen, Projektbeispiele und
Verlinkung auf externe Ressourcen (Hochschul-Webseiten, Github, etc.) geleistet mit
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 181

Abb. 4 Identifizierter Ablauf von der Idee zur Open-Source-Lösung im OSMS-Netzwerk.


(Quelle: Eigene Darstellung)

dem Ziel schnell einem Hilferuf mit einer konkreten Lösung beizuholen. Dies führte
entsprechend dazu, dass Verfasser mit ihren Hilferufen aus besonders regulierten Wirt-
schaftsräumen in Bezug auf die Zulassung als Schutzprodukt oder Medizinprodukt wie
den USA, Canada oder der EU bei der Umsetzung der Ideen in konkrete Lösungen
einen höheren Prüfungs-Aufwand betreiben müssen als beispielsweise Länder mit bis-
lang pragmatischem Ansatz (wie in Indien, wo erst seit 2018 die Zulassung von Medizin-
produkten reguliert ist). Hilferuf-Verfasser aus strenger regulierten Ländern wurden
jedoch öfters auch enttäuscht, da sie nicht immer die pragmatischen Lösungsansätze
direkt umsetzen konnten. Nichtsdestotrotz wurden die Ideen intern im Netzwerk auf-
genommen und entsprechend dem Schema aus Abb. 4 bearbeitet. Die internationalen
Teams in den jeweiligen Themen-Gruppen (beispielsweise auf slack) konnten diese dann
individuell bewerten und dem „Product“-Owner auf globaler Ebene Feedback geben
bzw. die Dokumentation im filesharing-system ergänzen.
Abb. 5 zeigt beispielhaft das Ergebnis einer organisierten Open-Source Lösung.
Die Ergebnisse zeigen aufgrund der Beobachtungen des 70.000 – Mitgliederstarken
Netzwerkes die Strukturierung und Organisation von Ideen, die konkret zu Produkten
geführt haben und auch zum Zeitpunkt der vorliegenden Veröffentlichung nach wie vor
zugänglich sind. Es gilt die hieraus gewonnenen Erkenntnisse in Form von Schlüssel-
faktoren bezogen auf die Innovationsleistung auf Organisationsebene zu identifizieren
und schließlich zur Theorienbildung entsprechend der Grounded Theory zu konstruieren.
182 R. Murswieck

Abb. 5 Dokumentationsschema im OSMS-Netzwerk am Beispiel eines Schutzschildes, Quelle:


eigene Darstellung auf Basis öffentlich zugänglicher Open-Source-Bibliothek

Diese durch Ableitung der Beobachtungen „konstruierten“ Schlüsselfaktoren dienen als


Ausgangspunkt für weitere Studien.

Folgende Schlüsselfaktoren konnten im Rahmen der Studie identifiziert werden:

1. Eine internationale Plattform wie Facebook kann als Community in der Ideenfindung
als erfolgsversprechender Faktor eingesetzt werden. Dies gilt zumindest in Krisen-
situationen wie im Fall einer globalen Pandemie.
2. Eine am Bedarf orientierte Offenheit und Flexibilität zur Ideenfindung führt schnell
zu konkreten Lösungen.
3. (Internationale) Zusammenarbeit ist ein Schlüssel, wenn es um interdisziplinäre
Lösungen geht.
4. Eine „Entrepreneur“-Einstellung und Teamwork bei den aktiven Gruppenmitgliedern
führt ebenso zu konkreten Lösungsansätzen
5. Schnelles Handeln ist elementar, um lebensrettende Lösungen zu liefern.
6. Verantwortung und Machtverteilung sind Voraussetzungen für eine funktionierende
Struktur.
7. Geld spielt nicht immer eine zentrale Rolle, zumindest, wenn es um Lebensrettung
geht und die Gemeinschaft profitiert.

Zusammengefasst könnten zwei Erfolgskriterien zur Innovationsleistung in Form einer


Theorie entsprechend der GTM-Systematik konstruiert abgeleitet werden: einerseits
eine crowdbasierte Ideenfindung, die als „Crowd Ideation“ beschrieben werden könnte
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 183

und anderseits auch eine persönliche Einstellung der (aktiven) Crowd-Mitglieder, die
als Kollektiv ein gemeinsames Ziel antreibt. Dieses gemeinsame Ziel im Kontext der
Pandemie könnte als „Time is Life“ (und nicht „Money“) beschrieben werden und als
starker Motivator stehen; zumindest im Kontext einer internationalen Pandemie könnten
diese zwei Faktoren als wesentliche Erfolgsfaktoren beschrieben werden, bei der
unabhängig vom Herkunftsland Grenzen eine geringere Rolle spielen als vielmehr die
Erarbeitung global relevanter Lösungsansätze.

4 Diskussion

Um einen Leistungsvergleich zwischen dem Open Source Medical Supplies- Netzwerk


und der gestandenen Industrie vornehmen zu können, lohnt ein Blick auf die geltenden
Gesetze in der EU.
Es wurde bereits erwähnt, dass die Zulassung von Medizinprodukten den gesetz-
lichen Anforderungen auf europäischer Gesetzgebung unterliegen. Innovationsvor-
haben wie Produktneuentwicklungen, -Verbesserungen oder auch „nur“ Nachahmungen
existierender Medizinprodukte („Kopien“), die von Herstellern in Verkehr gebracht
werden, unterliegen klaren Vorgaben beispielsweise hinsichtlich Dokumentation
oder Leistungstests. Im Kontext der Pandemie seien hier beispielsweise medizinische
Masken, Beatmungsgeräte und weitere Produkte genannt, wie auch zum Beispiel
die zwischenzeitlich sehr bekannten Antigen-Schnelltests oder auch PCR-Tests als
Diagnostik-Produkte zum Nachweis des Coronavirus SARS-CoV-2. Diese, wie auch
andere Medizinprodukte unterliegen zwei zentralen, neuen EU-Verordnungen, die
unabhängig und zufällig im Verlauf der SARS-CoV-2-Pandemie in Kraft getreten sind
und damit die vorherigen EU-Richtlinien mit ihren bundesdeutschen Durchführungs-
gesetzen abgelöst haben: einerseits die seit 26. Mai 2021 in Kraft getretene Medizin-
produktverordnung (EU) 2017/745 (Medical Device Regulation, kurz MDR) für
klassische Medizinprodukte sowie die seit 22. Mai 2022 geltende Verordnung über
In-Vitro Diagnostika (EU) 2017/746 (In-Vitro Diagnostik Regulation, kurz IVDR)
(Europäische Kommission 2022).
Beide genannten Verordnungen haben die Hürde für eine Marktzulassung in der
Europäischen Union aufgrund verschärfter und umfassenderer Dokumentations-
anforderungen, beispielsweise durch verstärkte klinische Leistungsnachweise unter Ein-
beziehung von Benannten Stellen (z. B. TÜV, Dekra, SGS,..) erhöht. Vermerkt sei aber
auch, dass das Inkrafttreten der MDR um ein Jahr verschoben und die Übergangsfristen
für die Umsetzung insgesamt auch aufgrund der Pandemie im Sinne der Hersteller ver-
längert wurden (Stiller und Murswieck 2021).
Entwicklungs- und Zulassungszyklen von vielen Monaten bis zu mehreren Jahren
sind bis zur Marktreife im Gesundheitswesen durchaus üblich und erfordern neben
finanziellen Mitteln auch ein gewisses Durchhaltevermögen, zumindest wenn noch
zusätzlich eine Erstattung durch die Krankenkassen angestrebt wird. Der Entwicklungs-
und damit Innovationsprozess selbst erfolgt einem in der Branche aufgrund von
184 R. Murswieck

Abb. 6 Entwicklungs- und Zulassungsprozess von Medizinprodukten. (Quelle: Eigene Dar-


stellung in Anlehnung an Murswieck et al. (2019))

anerkannten Normen und den erwähnten EU-Verordnungen üblichen Ablauf, von der
Idee bis zur Marktzulassung wie folgender Darstellung (Abb. 6) vereinfacht zu ent-
nehmen ist. Dabei ist stets zu prüfen, ob ein Produkt oder auch eine digitale Lösung
als Medizinprodukt überhaupt als solches klassifiziert wird und den Zulassungsprozess
durchlaufen muss oder ob andere Vorschriften zur Zulassung greifen.
Im Pandemiegeschehen waren gerade zu Beginn ebenso schnelle Lösungen von
Nöten, auch im Hinblick neuer Produktideen, die einen Beitrag zur Eindämmung des
Pandemiegeschehen leisten können.
Die Pandemie hat alle Akteure, einschließlich der Regulierungsbehörden
selbst, gezwungen, schnellere Entwicklungs- und Zulassungszyklen im Sinne der
Pandemiebekämpfung zuzulassen. Dabei sind die regulatorisch geforderten Aspekte an
die Produktsicherheit in Pandemiezeiten ebenso einzuhalten wie im Standardprozess.
Einen Vergleich für die unterschiedliche Produktentwicklung haben Antonini et al.
Anfang (2021) aus den USA beschrieben, die aufgrund ähnlicher Regulierungssysteme
und Anforderungen an die Medizinproduktezulassung mit dem System und Vorgehen
innerhalb der EU grundsätzlich vergleichbar ist. Ein krisenbedingter Ansatz durch-
läuft den Autoren nach grundsätzlich denselben Ablauf wie im traditionellen Verfahren
ohne Krise von der Idee zum fertigen, zugelassenen Produkt; der Unterschied liegt in
den aufwendigeren Verfahren der Zulassung. Die Open Source – Netzwerke, wie dem
OSMS – Netzwerk, sind krisenbedingt und auch aufgrund der fehlenden Erfahrung im
regulatorischen Umfeld (zumindest in der Menge der Netzwerkmitglieder) einem ein-
fachen Innovationsprozess gefolgt, den gestandene Unternehmen grundsätzlich nicht
folgen können. Ideen und Entwicklungen folgen hier standardisierten Abläufen, die
auch oftmals von Benannten Stellen im Rahmen von regulatorisch geprägten Qualitäts-
managementsystemen zertifiziert werden. Eine Änderung der Prozesse ist zwar jederzeit
im Rahmen der Gesetze und Normen möglich, aber nicht schnell umzusetzen. Hier wird
deutlich, dass der traditionelle Ansatz zeitaufwendig und von zahlreichen „Reviews“
geprägt ist. Je nach Produktklasse ist eine Einbindung von klinischen Einrichtungen für
Tests und Studien und weiterer staatlicher oder benannter Stellen erforderlich, sodass die
Review-Zyklen nicht nur zeit- und ressourcenaufwendig, sondern kostspielig werden. Es
wird daher ersichtlich, dass ein krisenbedingter Innovationsansatz für höher klassifizierte
Medizinprodukte (Klassen IIa, IIb und III) nicht geeignet erscheint. Für die unterste
Klasse I mit einem niedrigen Risiko und ohne Besonderheiten hinsichtlich Patienten-
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 185

sicherheit (wie Sterilität) jedoch ist der krisenbedingte Ansatz auch im regulären Betrieb
ohne Pandemie grundsätzlich anwendbar, da der Aufwand deutlich geringer ist. Die
Zulassung als Medizinprodukt Klasse I obliegt in vielen Fällen dem Hersteller, der in der
Regel auch der „Inverkehrbringer“ ist. Dies bedeutet, auch dass dieser auch die Haftung
hinsichtlich Produktleistung und Patientensicherheit für das Bereitstellen im Markt über-
nimmt. Analysiert man schließlich die Produkte aus dem OSMS-Netzwerk, stellt man
zunächst fest, dass die regulatorische Haftung für das Produkt nicht dem Netzwerk und
den Mitgliedern zukommt, sondern den lokal angesiedelten Privatpersonen, FabLabs,
Maker-Werkstätten oder Unternehmen, die auf die Open-Source- Ressourcen zur Her-
stellung der Waren zurückgreifen. Das OSMS-Netzwerk hat in den eigenen Dokumenten
die Thematik der Regulatorik stets aufgegriffen, die Umsetzung und Beachtung jedoch
obliegt offenbar den Kreisen, die die Produkte herstellen und – wenn nicht verkaufen –
verteilen und damit auch rechtlich in Verkehr bringen.
Ferner sind zahlreiche Produktentwicklungen (wie medizinische Masken) der Klasse
1 zugeordnet oder manchmal auch kein Medizinprodukt im Sinne der EU-Verordnung
(wenngleich als Produkt im Gesundheitsmarkt eingesetzt). Damit fallen sie aus dem
klassischen Ansatz raus bzw. können problemlos „schneller“ im Krisenmodus entwickelt
und umgesetzt werden.
Jährliche Befragungen von Medizinproduktherstellern durch den Mitgliederverband
„BVMed“ zeigen, dass unabhängig vom Pandemiegeschehen, ein Drittel des regulären
Umsatzes mit neuen Produkten bzw. Innovationen erzielt werden, wobei die Medizin-
produkte mehrheitlich der unteren Risikoklasse I zugeordnet wird, was sich mit den
geringeren Zulassungs- und Dokumentationspflichten erklären lässt (BVMed 2021).
Der krisenbedingte Ansatz erscheint also grundsätzlich auch auf gestandene Medtech-
Unternehmen anwendbar zu sein, wenn die Anforderungen an die Zulassung eher gering
einzustufen sind.
Es sei abschließend an dieser Stelle bemerkt, dass auch Produkte höherer Klassen
im Netzwerk (mit-)entwickelt und von lokalen FabLabs hergestellt wurden, wie bei-
spielsweise ein „T-Stück“ zur Erhöhung der Kapazitäten der auch von Engpässen stark
betroffenen Beatmungsgeräten. Mit diesem können zwei statt ein Patient mit einem
Beatmungsgerät künstlich beatmet werden, sofern dies medizinisch im Einzelfall mög-
lich ist. Solche Produkte benötigen für eine rasche Umsetzung und Marktzulassung eine
Sonderfreigabe bzw. Sonderzulassung seitens der Behörden, wie dies in den USA von
der Food and Drug Administration (FDA) erfolgte (Hahn 2020). In Deutschland kann
das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in Krisenzeiten
Sonderzulassungen ermöglichen. Für den Regelfall ist dies somit nicht anwendbar.

5 Fazit und Zusammenfassung

Die Observationsstudie auf Basis der Grounded Theory Methodologie hat Einblicke
in die Open-Source-Aktivitäten des OSMS-Netzwerkes gegeben, die mithilfe weltweit
aktiver Mitglieder in wenigen Monaten eine Open-Source-Bibliothek erschaffen haben,
186 R. Murswieck

um pandemiebedingte Engpässe von Medizinprodukten und Schutzgütern zu begegnen.


Es wurde ein reaktiver, lösungsorientierter Innovationsprozess beobachtet, der auf
Grundlage eines global angelegten „Crowd Ideation“ – Ansatz mithilfe digitaler Platt-
formen wie Facebook und slack als auch Arbeitsplattformen bzw. Speichersystemen wie
GoogleDrive zu einer hohen Anzahl bedarfsorientierter Lösungen führte – zumindest in
Krisenzeiten mit einem gemeinsamen „Time is Life“ – Spirit.
Im Vergleich zu gestandenen Unternehmen konnte das OSMS-Netzwerk unabhängig
bestehender Strukturen schnell handeln und pragmatische Lösungen erarbeiten, die
durch die online Community mittels verschiedener digitaler Plattformen und Hilfsmittel
auf Machbarkeit überprüft und durch eine entstandene Managementstruktur des Netz-
werks als Open Source – Ressource veröffentlicht wurde. Im Vergleich zum OSMS-
Netzwerk haben sich im Vergleich hierzu Unternehmen im Gesundheitsmarkt vor
Beginn der Pandemie Ende 2019 grundsätzlich in unterschiedlichen Ausgangssituationen
befunden und, aus Sicht des Autors viel wichtiger, damit unterschiedlich schnell auf die
gesteigerten und auch gewechselten Anforderungen reagiert oder reagieren können. Ein
mäßiger Digitalisierungsgrad, insbesondere auch entlang der Wertschöpfungskette, wie
dies bei Produktionsunternehmen vor der Pandemie beobachtet werden konnte, erscheint
in Krisenzeiten nicht von Vorteil (Vgl. McKinsey 2016; Murswieck 2017).
Abgesehen von internen Ideen (nach dem „closed innovation – Ansatz“, wie ihn auch
Chesbrough (2003) vor 20 Jahren bereits als veralteten Innovationsansatz beschreibt)
entstehen die meisten Ideen für neue Medizinprodukte zwischenzeitlich bereits mit
Hilfe von medizinischem Fachpersonal, (BVMed 2021), wobei hier vermerkt sei, dass
die Ideen über den klassischen Außendienst der Hersteller von der Klinik in die Ent-
wicklungsabteilungen eingebracht werden. Als ein wesentliches Ergebnis und Fazit der
Studie könnte vom heutigen Standpunkt vermutet werden, dass die Innovationsleistung
zahlreicher Unternehmen, so auch im Medizinwesen, abermals durch eine konsequentere
Nutzung der online-community gesteigert werden könnte. Dies würde im Fuzzy-Front-
End (FFE) als Teil der frühen Phase des Innovationsprozesses eine Steigerung der
Ideenanzahl bedeuten. Im Vergleich zum „Time is Life“ – Spirit im Netzwerk müssten
wirtschaftlich arbeitende Unternehmen jedoch vermutlich einen alternativen Anreiz zur
Motivation schaffen.

Literatur

Albeck W (2016) Geschäftsmodellinnovationen für das mittlere Marktsegment Eine empirische


Untersuchung deutschsprachiger Maschinenbauunternehmen in China. Springer Gabler, Wies-
baden
Antonini M-J, Plana D, Srinivasan S, Atta L, Achanta A, Yang H, Cramer AK, Freake J, Sinha
MS, Yu SH, LeBoeuf NR, Linville-Engler B, Sorger PK (2021) A crisis-responsive framework
for medical device development applied to the COVID-19 pandemic, frontiers in digital health.
3:25. https://www.frontiersin.org/article/https://doi.org/10.3389/fdgth.2021.617106. Accessed
20. Dec. 2021
Innovationsleistung digitaler Open Source-Netzwerke im Kontext … 187

Brand V (2009) Empirical Business Ethics Research and Paradigm Analysis. J Bus Ethics
86(4):429–449
Branswell H., (2020), Coronavirus concerns trigger global run on supplies for health workers,
causing shortages. https://www.statnews.com/2020/02/07/coronavirus-concerns-trigger-global-
run-on-supplies-for-health-workers-causing-shortages/. Accessed 16. May 2020
BVMed (2021), Branchenbericht Medizintechnologien 2020 online: https://www.bvmed.de/down-
load/bvmed-branchenbericht-medtech.pdf [abgefragt am: 12.12.2021]
Chesbrough HW (2003) Open innovation: The new imperative for creating and profiting from
technology. Harvard Business School Press, Boston
Elgin B, Tozzi J (2020) U.S. hospital workers are making masks, protective gear from office
supplies a mid equipment, Time, March 18, 2020), online: https://time.com/5805557/
homemade-medical-face-mask-shortage [abgefragt am 26.01.2022]
Europäische Kommission (2022), online: https://ec.europa.eu/health/medical-devices-sector/new-
regulations_en [abgefragt am 27.01.2022]
Hahn S. (2020), FDA statement „Coronavirus (COVID-19) Update: FDA takes action to help
increase U.S. supply of ventilators and respirators for protection of health care workers, patients“
online: https://www.fda.gov/news-events/press-announcements/coronavirus-covid-19-update-fda-
takes-action-help-increase-us-supply-ventilators-and-respirators [abgefragt am 14.12.2021]
Iyengar KP, Vaishya R, Bahl S, Vaish A (2020), Impact of the coronavirus pandemic on the supply
chain in healthcare, British Journal of Healthcare Management 26(6). https://doi.org/10.12968/
bjhc.2020.0047 [assessed 20. Dec.2021]
McKinsey GI, (2016). Digital Europe: Pushing the frontier, capturing the benefits. McKinsey
Global Institute. online: https://www.mckinsey.com/~/media/McKinsey/Business%20Functions/
McKinsey%20Digital/Our%20Insights/Digital%20Europe%20Pushing%20the%20frontier%20
capturing%20the%20benefits/Digital-Europe-Full-report-June-2016.ashx. Accessed 28. Januar
2022
Murswieck R (2021) Sustainable Management, Wertschöpfung und Effizienz: Innovation Per-
formance in the 21st Century – Designing Business Related to Cultural, Digital and Environ-
mental Challenges. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-34761-1
Murswieck RG, Ceausu I, Irmer S, Just V (2019) THE INNOVATION PROCESS OF MEDICAL
DEVICES IN GERMANY RESPECTING THE NEW EU REGULATION. International
Journal of Advanced Engineering and Management Research 4(1), ISSN: 2456–3676
Murswieck R, Geldmacher J, Dünnweber M, Kirschner C (2017) Exploration and assessment
of digital technologies’ importance and adoption along the value-added chain, BASIQ Inter-
national Conference 2017, 5/31/2017, Graz, Austria, published in BASIQ 2017 Conference
Proceedings. 470-477, ISSN 2457-483X
Neil JR, John GL (2020) Challenges and solutions for addressing critical shortage of supply chain
for personal and protective equipment (PPE) arising from Coronavirus disease (COVID19)
pandemic – Case study from the Republic of Ireland, Science of The Total Environment
725:138532, ISSN 0048-9697, https://doi.org/10.1016/j.scitotenv.2020.138532. Accessed 20.
Dec. 2021
OSMS – Open Source Medical Supplies (2021). OSMS-Webpage online: https://opensource
medicalsupplies.org/about/ [abgefragt am 28.12.2021]
OSMS – Open Source Medical Supplies (2022). OSMS-Webpage online: https://opensource
medicalsupplies.org/about/team/ [abgefragt am 26.01.2022]
Rowold J, Bormann K (2015) Innovationsförderndes Human Ressource Management. Grundlagen,
Modelle und Praxis. Springer-Gabler, Berlin
188 R. Murswieck

Stiller M, Murswieck R. (2021), MDR – Kompaktratgeber: Praxisbezogener Einstieg für Hersteller


von Medizinprodukten in die Medical Device Regulation (MDR) inklusive deutscher Fassung,
Tredition, Hamburg, ISBN: 978–3347231146
Strauss AL, Corbin JM (1996 [1990]). Grounded Theory: Grundlagen qualitativer Sozialforschung.
Beltz/PsychologieVerlagsUnion, Weinheim
Taylor DB (2021) “A Timeline of the Coronavirus Pandemic”, The New York Times, January
10, 2021, online: https://www.nytimes.com/article/coronavirus-timeline.html [abgefragt am
26.01.2022]
Zhong R. and Mozur P. (2020) “To Tame Coronavirus, Mao-Style ocial Control Blankets China”,
The New York Times, February 15, 2020, online: https://www.nytimes.com/2020/02/15/
business/china-coronavirus-lockdown.html [abgefragt am 26.01.2022]

Raphaël Murswieck, Jahrgang 1978, ist Leiter des HEYDEL­


BERGER Instituts sowie Berater für Produkt- und Geschäftsent-
wicklung in der Gesundheitsbranche.
Nach seinem Studium der Ingenieurs- und Wirtschaftswissen-
schaften mit Promotion hat er in den Bereichen Marketing &
Vertrieb, Produktentwicklung und der Prozessgestaltung als Fach-
und Führungskraft international in der Industrie Erfahrungen
sammeln können. Auf Basis von Markt- bzw. Kundenbedürfnissen
projektiert er heute in Zusammenarbeit mit Geschäftspartnern neue
Produkt- und Serviceideen im Kontext nachhaltiger Geschäfts-
modellinnovationen.
Im Rahmen seiner Forschungsarbeiten hat er sich tief-
ergehende Fachexpertise im Bereich des Innovationsmanagements
angeeignet. Die Untersuchung organisatorischer Einflussfaktoren
zur Steigerung der unternehmerischen Innovationsleistung auf
Makro- und Mikroebene bildet den Schwerpunkt seiner Arbeiten,
die auch in Artikeln und Trainings einfließen.
Digitale Lösungen mit Potenzial: Impulse
und Beispiele zur Förderung von
nachhaltigem Konsumentenverhalten

Anna-Karina Schmitz, Florian Platzek und


Katharina Göring-Lensing-Hebben

1 Einleitung

In der heutigen Welt sind Unternehmen mit dynamischen Trends und der Notwendigkeit
konfrontiert, radikale Veränderungen in ihren Geschäftsmodellen vorzunehmen. Diese
Trends umfassen dabei laut dem Zukunftsinstitut (2021) unter anderem die Neo-Ökologie,
die Digitalisierung sowie veränderte gesellschaftliche Anforderungen in Bezug auf Werte-
systeme und Konsummuster. Daher befassen sich Forschung und Praxis gleichermaßen
mit Fragen der Zukunftssicherung und zentralen zukünftigen Wirkungs- und Bedürf-
nisfeldern (z Punkt 2021). Die Future-Ready Studie von Vodafone (2020) zeigt auf, dass
75 % der befragten Unternehmen eine Änderung ihres Geschäftsmodells anstreben.
Bei diesen angestrebten Veränderungen nimmt das Thema Nachhaltigkeit eine ent-
scheidende Rolle ein und „climate action failure“ wird im diesjährigen Global Risks
Report des World Economic Forum (2021) als eines der größten Risiken angesehen.

A.-K. Schmitz (*) · F. Platzek


Henkel Center for Consumer Goods, WHU – Otto Beisheim School of Management,
Vallender, Deutschland
E-Mail: [email protected]
F. Platzek
E-Mail: [email protected]
K. Göring-Lensing-Hebben
Lehrstuhl für Strategie und Marketing, WHU – Otto Beisheim School of Management,
Düsseldorf, Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 189
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_11
190 A.-K. Schmitz et al.

Insbesondere der menschengemachte Klimawandel ist ein zunehmend konkretes und


unmittelbares Phänomen (Yeow et al. 2014). Seine schwerwiegenden Konsequenzen
erfordern ein grundlegendes Umdenken in allen Bereichen der Gesellschaft.
Konsequenterweise hat sich Nachhaltigkeit als Transformationstreiber etabliert und
Unternehmen entwickeln zunehmend ein systematisches und holistisches Verständnis der
Nachhaltigkeitsherausforderungen, um nachhaltig und dennoch profitabel zu sein (BCG
2021). Insbesondere etablierte Unternehmen müssen hier umdenken und sich „neu“
erfinden, da ihre Geschäftspraktiken und -modelle häufig per se nicht nachhaltig sind
(Gunasekaran und Spalanzani 2012). Zu hoher und übermäßiger Konsum als potenzielles
Problem erfährt erst seit kurzem vermehrt Aufmerksamkeit, da seine Folgen unmittel-
barer und sichtbarer werden (Sheth et al. 2011). So fehlt es vor allem in der Konsum-
güterindustrie oft an ganzheitlichen Zukunftskonzepten für Nachhaltigkeit (Stewart und
Niero 2018; McKinsey 2021). Andererseits berichtet das Center for Sustainable Business
der NYU, dass in den letzten Jahren mehr als die Hälfte des Wachstums von Konsum-
güterunternehmen auf solche Produkte entfällt, die als nachhaltig vermarktet werden
(NYU und STERN 2021).
Daher hat das Konzept der Produktverantwortung in jüngster Zeit in der Forschung an
Aufmerksamkeit gewonnen. Produktverantwortung verlangt von Unternehmen, dass sie
für den gesamten Lebenszyklus ihrer Produkte Verantwortung übernehmen (Zu 2013).
Bisher haben sich Unternehmen in ihren Nachhaltigkeitsbemühungen vorrangig auf ihre
Lieferketten und Produktionen konzentriert. Nach einer Einschätzung von A.T. Kearney
(2010) versuchen 63 % der Konsumgüterunternehmen, die Treibhausgasemissionen in
ihrer Lieferkette zu reduzieren. Es bemühen sich jedoch nur 21 %, die mit der Nutzung
ihrer Produkte verbundenen Umweltauswirkungen zu verringern.
Dies ist überraschend, da der größte Teil des ökologischen Fußabdrucks vieler
Produkte, insbesondere bei Konsumgütern, in der Konsumphase entsteht (A.T. Kearney
2010). Betrachtet man das Beispiel Unilever, so sieht man, dass trotz einer Verringerung
der CO2-Emissionen in der Produktion, der gesamte ökologische Fußabdruck pro Ver-
braucher um etwa fünf Prozent angestiegen ist (Power et al. 2017; Unilever 2021).
Um ihren ökologischen Fußabdruck deutlich zu reduzieren, müssen Unternehmen also
sicherstellen, dass Konsumenten nachhaltig mit ihren Produkten umgehen.
Deswegen ist die Schaffung niedrigschwelliger Lösungen für Konsumenten, die
oftmals, ohne groß nachzudenken und mit viel Routine konsumieren, wichtig, um nach-
haltige Konsummuster zu kreieren (Bashir et al. 2020). Diese Lösungen können unter
anderem neue Konsumformen durch dienstleistungsbasierte Modelle, Änderungen
entlang des Produktlebenszyklus sowie Ansätze aus der Sharing Economy umfassen
(Martinez et al. 2017; Bashir et al. 2020). Yang und Evans (2019) verweisen in diesem
Zusammenhang auch auf sog. integrierte Lösungen als Kombination aus Produkt
und begleitender Dienstleistung, wodurch sich Unternehmen als Lösungsanbieter
positionieren und Konsumenten die Verantwortung in Teilbereichen abnehmen können.
Ein wesentlicher Transformationsenabler bei der Umsetzung solcher Lösungen ist
die Digitalisierung. Zum jetzigen Zeitpunkt besteht jedoch nur ein begrenztes Verständnis
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 191

über die bestmögliche Ausgestaltung solcher Modelle in der Praxis, da es nur wenig
Forschung im Bereich digitaler Lösungen für Konsumgüter gibt (Calabresa et al. 2018;
Sousa-Zoomer und Cauchick-Miguel 2019).
Der vorliegende Beitrag betrachtet daher nachhaltigen Konsum als Herausforderung
für Konsumenten und Unternehmen. Anhand eines konzeptionellen Rahmens werden
verschiedene Praxisbeispiele für digitale Lösungen zur Förderung von nachhaltigem
Konsum beschrieben und hinsichtlich ihres Nachhaltigkeitspotenzials eingeordnet.
Hierdurch soll einerseits ein Beitrag dazu geleistet werden, das begrenzte Verständ-
nis digitaler Lösungen im Rahmen von nachhaltigem Konsumverhalten zu verbessern
und andererseits die vielfältigen praktischen Anwendungsgebiete solcher Lösungen
aufgezeigt werden. Es gibt bereits eine Vielzahl an digitalen Lösungen. Diese wurden
jedoch oft aus anderen Motiven (wie bspw. Experience oder Convenience) entwickelt
und bisher nicht primär unter dem Nachhaltigkeitsaspekt betrachtet. Daher werden
abschließend Empfehlungen für die Gestaltung konkreter Lösungen zur Förderung von
nachhaltigem Konsumverhalten abgeleitet.

2 Nachhaltiger Konsum als Herausforderung für


Konsumenten und Unternehmen

2.1 Nachhaltiges Konsumverhalten: mehr Schein als Sein?

Das Konsumentenverhalten hat sich in den vergangenen Jahren grundlegend verändert.


Technologischer Fortschritt, Globalisierung und Digitalisierung erlauben einen nahezu
unbegrenzten Zugang zu Waren, Dienstleistungen und Informationen. Urbanisierung
und Wachstum der Mittelschicht führen zu steigendem Wohlstand und zunehmend
heterogenen Konsumentenbedürfnissen. Weitgehend ungeachtet der Konsequenzen für
Umwelt und Gesellschaft ist eine Konsumgesellschaft entstanden, deren Folgen in den
vergangenen Jahren immer sichtbarer wurden. Eine Häufung von Naturkatastrophen
und die Corona-Pandemie sorgen daher zunehmend für ein gesamtgesellschaftliches
Umdenken. Konsumenten wird es immer wichtiger, Konsum nachhaltig(er) zu gestalten
und ihre Auswirkungen auf die Umwelt zu reduzieren (Mukarram 2020). So scheint es
folgerichtig, dass nachhaltige Produkte und Dienstleistungen immer stärker nachgefragt
werden und Einzug in nahezu alle Branchen erhalten.
Dennoch ist der Trend zu nachhaltigerem Konsum differenzierter zu betrachten.
Auf der einen Seite zeigen Befragungen, dass drei von vier Deutschen ein nachhaltiger
Lebensstil wichtig oder sehr wichtig ist (Zfk 2020). So ist beispielsweise der Pro-Kopf
Fleischkonsum im Jahr 2020 im Vergleich zum Jahr 2010 um 7,4 % gesunken (Bundes-
ministerium für Ernährung und Landwirtschaft 2021a) und rund 40 % der Konsumenten
wünschen sich weniger Massentierhaltung und bessere Qualität beim Fleisch (Pospulse
2021). Bereits mehr als die Hälfte der Bevölkerung kauft nachhaltige Kleidung (KPMG
2020a), und die Wichtigkeit von fair-gehandelten Produkten ist seit dem Jahr 2013 um
192 A.-K. Schmitz et al.

mehr als ein Drittel gestiegen (IfD Allensbach 2021). Laut dem aktuellen Consumer
Barometer der Wirtschaftsprüfung KPMG und dem Marktforschungsinstitut IFH Köln
sind sogar 69 % der Befragten bereit, einen höheren Preis für ein nachhaltiges Produkt
zu bezahlen (KPMG 2020b).
Auf der anderen Seite werfen viele Daten Zweifel auf, welche Priorität Konsumenten
der Nachhaltigkeit beimessen und inwieweit sich auch ihr tatsächliches Verhalten ver-
ändert hat. So gibt es erhebliche Unterschiede zwischen Produktkategorien. Regionalität
wird beispielsweise bei Obst und Gemüse, Backwaren und Fleisch als deutlich wichtiger
empfunden als bei Fischprodukten oder Getränken (Bundesministerium für Ernährung
und Landwirtschaft 2021b). Des Weiteren bleibt ein günstiger Preis das Hauptkriterium
z. B. beim Kauf von Kosmetikprodukten, noch vor allen Nachhaltigkeitsaspekten
(Pospulse 2020). Außerdem sind sowohl der Pro-Kopf-Verbrauch von Verpackungen
sowie der Gesamtverbrauch von Kunststoffverpackungen in Deutschland innerhalb der
letzten zehn Jahre deutlich angestiegen (Bundesministerium für Umwelt, Naturschutz
und nukleare Sicherheit 2020; Umweltbundesamt 2020).
Eine der Erklärungen für dieses Phänomen ist die sogenannte „Attitude-Behavior-
Gap“, oder übersetzt die Kluft zwischen „Sagen“ und „Tun“ (Carrington et al. 2010).
Sie beschreibt die Diskrepanz zwischen der Intention, die Konsumenten vor dem Kauf
bzw. der Kaufentscheidung haben und dem tatsächlichen Ergebnis des Kaufs. So konnte
Futerra (2005) in Untersuchungen zeigen, dass zwar mehr als 30 % der Konsumenten die
Absicht hatten, nachhaltig zu konsumieren, dies aber nur 2 % auch in die Tat umsetzten.
Forscher erklären dieses Verhalten damit, dass Konsumenten weniger nachhaltig sind,
als sie glauben (Auger und Devinney 2007; Carrigan und Attalla 2001). In einer kürzlich
durchgeführten Analyse von ElHaffar et al. (2020) wurde zudem aufgezeigt, dass es Ver-
zerrungen im Antwortverhalten von Konsumenten erschweren, die „Attitude-Behaviour-
Gap“ aufzuzeigen. Zu den Hauptursachen für diese Verzerrungen zählen 1) sozial
erwünschte Antworten (social-desirability bias) ohne Bezug zu den tatsächlichen Ver-
haltensweisen und 2) Einschätzungen, die vom Konsumenten selbst abgegeben wurden
(self-reported bias) (siehe u. a. Johnstone et al. 2015; McGuire und Beattie 2019).
Entlang des Konsumprozesses, von der Informationssuche über den eigentlichen
Konsum bis hin zur Entsorgung von Produkten, existieren diverse Barrieren, die Konsu-
menten von nachhaltigem Konsum abhalten. Diese lassen sich in die von Newton und
Meyer (2013) vorgeschlagenen Cluster einbetten: 1) Verantwortlichkeit für das Problem,
2) Zeitliche Beschränkungen und mangelnde Priorisierung, 3) Informationsmangel
und Zugang, 4) Organisatorische Herausforderungen und 5) Finanzielle Mittel. Cluster
1 beschreibt individuelle Faktoren, welche sich mit der „Verantwortlichkeit für das
Problem“ beschäftigen. Hier ist der fehlende Glaube an den Einfluss einzelner Konsu-
menten zu nennen (Johnstone et al. 2015). Darüber hinaus ist festgestellt worden, dass
einige Verbraucher die Dringlichkeit von Nachhaltigkeitsthemen nicht erkennen und
weder negative Auswirkungen der Konsumgesellschaft auf die Umwelt noch auf das
eigene Leben wahrnehmen. Dies hängt teilweise auch mit einem mangelnden Vertrauen
in die Wirksamkeit von Nachhaltigkeitsinitiativen und -versprechen der Unternehmen
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 193

zusammen (Bang et al. 2000; Calderon-Monge et al. 2020; Gleim et al. 2013; Padel
und Foster 2005; Schlaile et al. 2018). Diese Erkenntnis geht einher mit dem 2. Cluster,
dem der „Zeitlichen Beschränkungen und einem mangelnden Prioritätsgrad“ (Newton
und Meyer 2013). Der vorherrschende Lifestyle in der heutigen hyperkompetitiven,
übersättigten Welt sucht nach abwechslungsreichen und trendigen Produkten, die
zudem bequem gekauft werden können (Padel und Foster 2005). Auch die teils ver-
schwenderischen gesellschaftlichen Normen (Power et al. 2017) und Gewohn-
heiten (Altinbasak-Farina et al. 2019, Gleim et al. 2013; Padel und Foster 2005;
Tsakiridou et al. 2008; White et al. 2019) erschweren es Konsumenten, Nachhaltigkeit
zu priorisieren. Im Kontext des 3. Clusters „Informationsmangel und Zugang“ sind
Faktoren wie Informationskomplexität (Bang et al. 2000; Calderon-Monge et al. 2020;
Gleim et al. 2013; Padel und Foster 2005; Schlaile et al. 2018) und auch fehlende,
unzureichende oder verwirrende Informationen darüber, wie man nachhaltig handeln
kann, zu nennen (Power et al. 2017; Frank 2018). Im 4. Cluster, „Organisatorische
Herausforderungen“, bestehen vor allem situative Faktoren wie eine mangelnde Verfüg-
barkeit nachhaltiger Optionen (Gleim et al. 2013; Padel und Foster 2005; Power et al.
2017; White et al. 2019) oder auch eine vergleichsweise (wahrgenommene) schlechte
Produktqualität (Gleim et al. 2013; Padel und Foster 2005; Tsakiridou et al. 2008). Auch
die Umgebungsbedingungen, die Stimmung der Verbraucher, die Tageszeit oder auch
Stress können situative Barrieren sein (Johnstone et al. 2015; Frank 2018). Zuletzt umfasst
das 5. Cluster die „finanzielle“ Barriere und meint den zumeist höheren Preis für nach-
haltige Produkte und eine oftmals nicht ausreichend (vorhandene) Zahlungsbereitschaft der
Konsumenten (Altinbasak-Farina et al. 2019, Gleim et al. 2013; Tsakiridou et al. 2008).
All diese Barrieren hindern Konsumenten, (noch) nachhaltiger zu konsumieren.
Daher ist es wichtig, dass Unternehmen Konsumenten dabei unterstützen, diese
Barrieren zu überwinden. Dafür müssen allerdings produktbezogene und/oder ein-
geständige Dienstleistungen angeboten werden, die für Konsumenten attraktiv und ein-
fach zugänglich sind.

2.2 Verantwortung der Unternehmen: Digitale Lösungen als


Ansatzpunkt

Nachhaltiges Handeln ist nicht nur für Konsumenten, sondern auch für Unternehmen ein
bedeutsames Thema geworden und hat mittlerweile Auswirkungen auf alle strategischen
Entscheidungen. Nichtsdestotrotz reichen die zahlreichen unternehmensseitigen
Initiativen nachhaltiger zu wirtschaften noch nicht aus, um selbst rundum nachhaltig zu
sein und die „Attitude-Behviour Gap“ zu verringern. Der ökologische Fußabdruck pro
Konsument steigt weiter an, da sich konsumbezogene Prozesse nur schwer von Unter-
nehmen kontrollieren oder beeinflussen lassen (Power et al. 2017; Unilever 2021).
Um ihre Umweltauswirkungen deutlich zu verringern, müssen Unternehmen eine
ganzheitliche Verantwortung für ihre Produkte über deren gesamten Lebenszyklus
194 A.-K. Schmitz et al.

hinweg anstreben (Zu 2013, Hickl 2017). Dazu zählt insbesondere auch der Konsum-
und Verwertungsprozess. Konsumenten sollen zu einem nachhaltigen Umgang mit
angebotenen Produkten und Dienstleistungen bewegt werden. Hierdurch lässt sich
nicht nur der ökologische Fußabdruck von Unternehmen senken, sondern Unternehmen
können auch zeigen, dass sie sich zielgerichtet um Nachhaltigkeit bemühen, ver-
antwortungsvoll handeln und ganzheitliche Nachhaltigkeitslösungen forcieren, die gut
für die Wirtschaft, die Gesellschaft und die Umwelt sind.
In der akademischen Literatur werden daher nachhaltigkeitsorientierte Innovationen
und die Prämisse „Gutes tun, indem man neue Dinge tut“ (Adams et al. 2016, S. 11;
Bocken et al. 2014) vielfältig diskutiert. In diesem Zusammenhang ist festzustellen, dass
es bereits viele produktbezogene Innovationen, aber auch ergänzende Dienstleistungen
gibt. Tukker (2004) verweist darauf, dass integrierte Angebote, die physische Produkte
und Dienstleistungen miteinander kombinieren, zur Förderung von Nachhaltigkeit bei-
tragen können. So zeigen Calabrese et al. (2018) auf, dass die Nachhaltigkeitsziele der
United Nations durch Produkt-Service-Systeme, nachhaltigkeitsorientierte Innovationen
aber auch Dienstleistungsinnovationen gefördert werden können. Dies stimmt mit
der Aussage von Vargo und Lush (2004; 2008) überein, dass eine Dienstleistungs-
logik für jedes Unternehmen unabdingbar ist (Calabrese et al. 2021). Auch Djellal und
Gallouj (2016) sehen viel Erfolgspotenzial für die Ökologisierung mit Hilfe integrierter
Konzepte bestehend aus Produkten und ergänzenden Dienstleistungen. Übergreifend
spricht die Wissenschaft dabei von Servitization, bzw. im Digitalkontext von Digital
Servitization (Kowalkowski et al. 2017; Gebauer 2021).
Hinsichtlich der Integration von Nachhaltigkeitsaspekten und der Anwendbarkeit
des Servitization-Konzeptes auf die Konsumgüterindustrie gibt es bislang nur wenige
Forschungsbeiträge (Holst et al. 2017; Kuzmina et al. 2019). Zudem stoßen vorhandene
Kenntnisse über klassische langlebige Konzepte oder suffizienzorientierte Geschäfts-
modelle (Bocken et al. 2014) an Ihre Grenzen, da diese im Widerspruch zum schnell-
lebigen Charakter der Branche stehen (Kuzmina et al. 2019). Ein Schwachpunkt
derzeitiger Aktivitäten ist, dass ihr Fokus auf der Bewusstseinsbildung liegt, aber keine
tatsächliche Verhaltensänderung beim Konsumenten bewirkt wird (Harvard Business
manager 2020; Capgemini 2021).
Nutzerorientierte Dienstleistungen hingegen, können für „schnelle“ Kreisläufe
praktikabel sein. Diese Dienstleistungen reichen in der Praxis von der Information,
Beratung bis hin zu Reparatur- und Nachfüllservices. Ferner gibt es bereits durch die
Sharing Economy und peer-to-peer Plattformen Pooling-, Vermietungs- und Nutzungs-
services (Tukker 2004; Martinez et al. 2017). Erfolgreich sind diese Dienstleistungen,
wenn sie kontextadaptiv, überall verfügbar, personalisiert, benutzerfreundlich und
nutzenstiftend sind (Leimeister et al. 2014). Darüber hinaus müssen die Angebote Spaß
machen und zum Lifestyle des Konsumenten passen (Holst et al. 2017). Dies könnte
auch eine Begründung dafür sein, warum solche Angebote nur selten unter dem Nach-
haltigkeitsaspekt betrachtet werden, sondern vielmehr Experience und Convenience
fokussieren.
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 195

Insgesamt scheint der Gedanke, Produkte mit Dienstleistungen zu kombinieren, um


Nachhaltigkeit im B2C-Bereich zu fördern noch nicht genügend verbreitet. Dement-
sprechend wenig ist über die Anwendungsfälle bekannt, die Unternehmen dazu ver-
anlassen, eine dienstleistungsorientierte Strategie zu verfolgen. Im Folgenden werden
daher digitale Lösungen aus der Praxis betrachtet und hinsichtlich ihrer Nachhaltigkeits-
potenziale entlang der Customer Journey analysiert.

3 Digitale Lösungen zur Unterstützung von nachhaltigem


Konsumentenverhalten

3.1 Das 3 V-Modell: Vermeiden – Verringern – Verwerten

Unternehmen bringen zunehmend eine Vielzahl innovativer Lösungen auf den Markt,
die das Potenzial haben, den Konsumenten zu nachhaltigem Konsum anzuleiten oder ihn
dabei zu unterstützen. Das folgende 3 V-Modell bietet einen konzeptionellen Rahmen für
die Einordnung solcher Lösungen entlang der einzelnen Konsumphasen und hinsichtlich
ihres Nachhaltigkeitspotenzials (Abb. 1).
In Anlehnung an (Vadakkepatt et al. 2021) lassen sich dabei drei Kategorien unter-
scheiden: Vermeiden, Verringern und Verwerten.
Vermeiden – beschreibt Aktivitäten, welche die Entstehung von schlechten Ein-
flüssen auf die Umwelt verhindern. In diese Kategorie lassen sich Dienstleistungen ein-
ordnen, die dazu beitragen, Kauf oder Konsum bzw. deren Folgen zu vermeiden. Digitale
Dienstleistungen, die auf diese Kategorie einzahlen, werden also optimalerweise noch
vor einer Kaufentscheidung vom Konsumenten genutzt, um diesen von Fehlkäufen
abzuhalten oder ihn von nachhaltigen Alternativen zu überzeugen. Das Nachhaltigkeits-
potenzial ist hier am größten, da alles was gar nicht erst entsteht, anfällt oder produziert
wird, auch keine negativen Auswirkungen z. B. in Form von CO2-Emissionen haben
kann.
Verringern – umfasst alle Aktivitäten, die unternommen werden, um die Aus-
wirkungen auf Natur und Umwelt so gering wie möglich zu halten. Dabei geht es

Abb. 1 Das 3 V-Modell der Nachhaltigkeit, eigene Darstellung


196 A.-K. Schmitz et al.

darum, das Konsumentenverhalten während der Produktnutzung so zu beeinflussen,


dass Ressourcen möglichst schonend genutzt werden. Digitale, produktbezogene
Dienstleistungen in diesem Bereich sollten vor allem so gestaltet sein, dass sich die
Ressourcen-Einsparungen kaum auf den eigentlichen Produkt- oder Dienstleistungs-
nutzen auswirken, damit die Akzeptanz des Konsumenten erhöht wird.
Verwerten – beinhaltet alle Maßnahmen und Aktivitäten am Ende des Konsum-
zyklus, welche die Verwertung oder Wiederverwendung von Produkten fördern. Alle
Folgen der Produkt- bzw. Dienstleistungsnutzung, die zuvor nicht vermieden oder ver-
ringert werden konnten, müssen am Ende der Nutzung bestmöglich gemildert werden.
So können digitale Lösungen dazu beitragen, dass Produkte je nach Zustand recycelt
oder wiederverwendet werden. Je einfacher und bequemer dem Konsumenten digitale
Lösungen für Verwertung und Wiederverwendung zur Verfügung stehen, desto größer
wird die Akzeptanz und die Relevanz für zukünftige Geschäftsmodelle sein.

3.2 Überblick von digitalen Lösungen zur Förderung von


nachhaltigem Konsum

Im Folgenden werden digitale Lösungen vorgestellt und hinsichtlich ihrer Einsatzmög-


lichkeiten und ihres Nachhaltigkeitspotenzials eingeordnet. Hierbei werden zwei Arten
von Lösungen unterschieden: digitale Lösungen für mehr Nachhaltigkeit in traditionellen
Geschäftsmodellen und Lösungen in Form von Plattform-Modellen, die bereits
ursprünglich auf Nachhaltigkeit basieren.
Vielen traditionellen Unternehmen in der Konsumgüterindustrie fällt es schwer,
ihre Geschäftsmodelle zu digitalisieren. Dadurch, dass sie lange Zeit sehr produkt-
getrieben agiert haben, wurde digitalen Lösungen oftmals wenig Beachtung geschenkt.
In den vergangenen Jahren haben sich Konsumgüterhersteller jedoch zunehmend damit
beschäftigt, den Konsum mithilfe digitaler Lösungen angenehmer, effizienter und nach-
haltiger zu gestalten. Dabei lassen sich im Hinblick auf Nachhaltigkeitsaspekte ver-
schiedene Schwerpunkte der Lösungen unterscheiden: Information, Visualisierung,
Smart-Home, Personalisierung, Belohnung, Kompensation, Reparatur und Recycling.
Nachstehend werden verschiedene Beispiele für diese Schwerpunkte und ihr Beitrag zu
den „3 V’s“, Vermeiden, Verringern und Verwerten, erörtert.
Digitale Applikationen, wie zum Beispiel die Code-Check App oder der WWF Fisch-
ratgeber können dazu beitragen, dass der Konsument entscheidende Informationen über
ein gewisses Produkt schnell und unkompliziert finden kann. Diese Informationen lassen
ihn dann darüber entscheiden, ob ein Produkt nachhaltig oder gesund „genug“ ist und
infolgedessen gekauft wird oder nicht. Dies erhöht nicht nur die Transparenz, sondern
schafft auch ein verstärktes Bewusstsein für die Herkunft oder Inhaltsstoffe eines
Produktes und hilft dem Konsumenten, reflektierte Entscheidungen zu treffen.
Um Kaufentscheidungen besser treffen zu können, implementieren viele Unter-
nehmen zunehmend Anwendungen, die Konsumenten bei der Vorstellung und
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 197

Visualisierung ihrer Produkte helfen. So können Konsumenten mit der IKEA App
ein Möbelstück virtuell im eigenen Wohnzimmer platzieren. Ähnlich dazu erlaubt das
Unternehmen MisterSpex die virtuelle Anprobe von Brillen. All diese Visualisierungs-
Möglichkeiten führen dazu, dass Konsumenten ein besseres Gefühl für das Produkt
bekommen. So lassen sich Fehlkäufe und unnötige Retouren vermeiden. Des Weiteren
können sich Kunden durch die Visualisierung den Weg in ein Geschäft ersparen und
neben ökologischen, zusätzlich auch eigene finanzielle und zeitliche Ressourcen ein-
sparen.
Um das alltägliche Leben zu Hause nachhaltiger zu gestalten, gibt es mittlerweile
viele Smart-Home Applikationen, die den Fokus auf die Einsparung von Ressourcen
legen. So gibt es Dashboard-Lösungen von Amazon oder Samsung, die einen detaillierten
Überblick über den Energieverbrauch anzeigen und Vorschläge für Einsparungen
machen. Andere Tools, wie z. B. ‚Somat Smart‘ von Henkel helfen, den Verbrauch von
Spülmittel bei jedem Waschgang zu senken, um dessen ökologische Auswirkungen zu
verringern. Viele dieser Dienstleistungen können, richtig eingesetzt, signifikante Beiträge
zur Verringerung des ökologischen Fußabdrucks im Haushalt leisten.
Personalisierte Kleidung erfreut sich seit vielen Jahren wachsender Beliebt-
heit. Wo Kleidung früher jedoch lediglich zusätzlich bestickt oder bedruckt wurde,
bieten Hersteller heute vermehrt maßgeschneiderte Lösungen an. ‚Zyse me‘ von H&M
bietet dem Konsumenten eine digital-unterstütze Vermessung seiner Körpermaße
und produziert die Kleidung daraufhin passgenau in der gewünschten Qualität und
Farbe. Dies hat zur Folge, dass zum einen unnötige Produktion vermieden wird und
zum anderen Retouren oder Umtausche verringert werden. Nachteilig ist, dass sich
personalisierte Produkte zum Ende der Nutzung schwieriger weiterverkaufen lassen
(z. B. über Second-Hand Plattformen).
Zunehmend populär werden auch Bonusprogramme. Diese belohnen den Konsu-
menten für jeden nachhaltigen Kauf in Form von Bonuspunkten, Rabatten oder Gut-
schriften. Zum Beispiel bietet das Oekobonus-Programm die Möglichkeit, für jeden
nachhaltigen Kauf Punkte zu sammeln und später in Prämien umzutauschen. Diese
Dienstleistung schafft also einen Anreiz für Konsumenten, beim Kauf verstärkt auf
Nachhaltigkeit zu achten, um dann für entsprechend nachhaltiges Einkaufen belohnt zu
werden. Unvorteilhaft an diesen Lösungen ist jedoch, dass sie womöglich zu unnötigem
Konsum anregen, welcher vielleicht vermeidbar wäre.
Viele Unternehmen bieten Konsumenten bereits seit einigen Jahren, die Möglichkeit
den ökologischen Fußabdruck, der mit dem Kauf oder Konsum eines Produktes ein-
hergeht zu kompensieren. Solche kostenpflichtigen Kompensations-Initiativen wurden
bisher vor allem von Fluggesellschaften angeboten. Mittlerweile machen auch Unter-
nehmen, wie zum Beispiel Zalando den Ausgleich von negativen Emissionen möglich.
Das Unternehmen Otto sensibilisiert Konsumenten, indem der CO2-Fußabdruck vieler
Produkte sichtbar gemacht wird und bietet entsprechende Kompensationsmöglichkeiten
gegen Aufpreis an. Diese Lösungen verhindern zwar nicht den Ausstoß von CO2 oder
198 A.-K. Schmitz et al.

anderen Emissionen, können jedoch durch Investition in geeignete Projekte die öko-
logischen Schäden zumindest reduzieren oder teilweise ausgleichen.
Zunehmend angeboten und nachgefragt werden Reparatur- Services, die es
erlauben, beschädigte Produkte zur Reparatur einzusenden oder mit Hilfe von digitalen
Applikationen selbst zu reparieren. Manche Lösungen bieten aufwändige Erklärvideos,
andere sogar die Video-Zuschaltung von Fachpersonal, das bei der Fehlersuche und
-behebung unterstützend zur Seite steht. Durch Reparaturen kann die Lebenszeit von
Produkten deutlich verlängert werden, was zur Vermeidung von Neukäufen sowie einer
Reduktion von Abfällen führt.
Wenn Produkte nicht mehr repariert werden können oder eine Reparatur nicht mehr
wirtschaftlich ist, müssen diese Produkte so gut es geht dem Recycling zugeführt
werden. Synonym dazu werden oft die Begriffe „Kreislaufwirtschaft“, „Circular
Economy“ oder „Cradle-to-Cradle“ verwendet. Sie alle zielen darauf ab, ein Produkt
bzw. die Mehrheit der Bestandteile so lange und effektiv wie möglich zu nutzen und
am Ende des Produktlebenszyklus wieder für neue Produktionen zu verwenden. Die
innovative Lösung „Looop“ von H&M erlaubt es, Kleidung in ihre Bestandteile zu zer-
legen, um daraus dann wieder neue Kleidung herzustellen. Das Trade-In & Recycling-
programm von Apple ermutigt Konsumenten, alte Elektrogeräte einzutauschen und dafür
eine Gutschrift für den nächsten Kauf zu erhalten. So wird eine fachgerechte Zerlegung
der Geräte sichergestellt, und die Bestandteile können entweder wiederverwendet,
recycelt oder entsorgt werden.
Tab. 1 gibt einen Überblick über den Fokus verschiedener Praxisbeispiele digitaler
Lösungen für traditionelle Geschäftsmodelle.
Neben traditionellen Geschäftsmodellen, die vor allem im Konsumgüterbereich
zu finden sind, gibt es viele Geschäftsmodelle, die von Grunde auf nahezu vollständig
auf Nachhaltigkeit setzen. So gibt es beispielsweise Vermietungsmodelle für Spiel-
zeuge oder Möbel. Diese Modelle sind flexibel und konsumentenorientiert und ver-
suchen die Nutzungszeit von Produkten oder Dienstleistungen zu erhöhen, sodass das
Gesamtnutzungspotenzial maximal ausgeschöpft wird. Zudem zeigen viele Lösungen
aus der „Sharing Economy“, dass ein Teilen von Produkten oder Dienstleistungen,
ein wirkungsvolles Mittel zur Ressourcenschonung sein kann. Des Weiteren haben sich
„Second-Life“ Modelle etabliert, welche das Ziel haben, bereits genutzte Produkte
wieder zu verkaufen. Dies wird von Unternehmen, wie z. B. IKEA oder Zalando
organisiert und kommerziell betrieben oder von Consumer-to-Consumer (C2C) Platt-
formen, wie z. B. Vinted ermöglicht. „Food saving“ Modelle, wie zum Beispiel ‚Too
good to go‘ oder ‚Motatos‘ versuchen, Lebensmittel vor dem Wegwerfen zu bewahren
und zu attraktiven Konditionen weiterzuverkaufen. Da Lebensmittel im Vergleich zu
anderen langlebigen Produkten schnell verderben, tragen solche Modelle dazu bei,
Lebensmittel-Abfälle deutlich zu verringern oder sogar ganz zu vermeiden.
In Tab. 2 findet sich eine Übersicht verschiedener auf Nachhaltigkeit basierender
Plattform-Modelle.
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 199

Tab. 1  Digitale Lösungen für traditionelle Geschäftsmodelle


Fokus der Lösung Beispiele
Information Fischratgeber (WWF), Code Check App (Codecheck), Fashion Footprint
Tool (Farfetch), Blockchain Lebensmittel Nachverfolgbarkeit (Albert
Heijn), Wasch-Label Scanner (Henkel)
Visualisierung Place AP (IKEA), Brillen-Anprobe online (Mister Spex), AR Sneaker
Anprobe (Gucci), Body-Videoscan (Presize), Virtual make-up try on
(L’Oréal), Choicify (Henkel)
Smart-Home Somat Smart (Henkel), Smart Fridge (LG), Family Hub (Samsung), Alexa
Energy Dashboard (Amazon)
Personalisierung Zyse me (H&M), Tailor Shop (Levi’s), Nike By You (Nike)
Belohnung Bonus-Programm (Oekobonus), Wertewandel (LifeVerde)
Kompensation CO2 Compensaid (by Lufthansa), atmosfair (Atmosfair), CO2
Kompensation (Zalando), Produkt-Kompensation (Otto)
Reparatur Repair & Care (Zalando), Repair Service (Patagonia), iFixit (Fairphone),
Repair Clinic (IFIXIT), Virtual Repair (neli)
Recycling Looop (H&M), Handy Recycling (O2), TradeIn & Recycling (Apple)

Tab. 2  Plattform-Modelle auf Basis von Nachhaltigkeit


Fokus der Lösung Beispiele
Vermietung Mietservice für Kleidung (Ralph Lauren), Rental-service (Burberry),
Spielzeug-Vermietung (meinespielzeugkiste.de), Möbel Vermietung (Lyght
Living), Fahrradabo (Swapfiets)
Sharing Economy Mitfahr-Plattform (BlaBlaCar), Ridesharing (UberX Share), Moia (VW)
Second-Life Fundgrube (IKEA), Amazon Second Chance (Amazon), Zalando Zircle
(Zalando), Second-Hand Kleidung (Vinted), Infinite Play (Adidas)
Food saving Lebensmittel retten (Too good to go), Supermarkt (Motatos)

4 Ausblick: Das Potenzial digitaler Lösungen für mehr


Nachhaltigkeit nutzen

Nachhaltigkeit ist eines der wichtigsten Zukunftsthemen für Unternehmen. Um ihren


ökologischen Fußabdruck zu reduzieren ist es erforderlich, dass Unternehmen Ver-
antwortung für den gesamten Lebenszyklus ihrer Produkte, also auch für die Konsum-
phase, übernehmen. Dies ist jedoch mit enormen Herausforderungen verbunden, da sich
ein zunehmend ambivalentes Konsumentenverhalten abzeichnet. Auf der einen Seite
wollen Konsumenten mehr Nachhaltigkeit und nachhaltigere Produkte, auf der anderen
Seite gibt es jedoch viele Barrieren wie z. B. Preisbewusstsein und Bequemlichkeit die
200 A.-K. Schmitz et al.

verhindern, dass Konsumenten ihr gegenwärtiges Konsumverhalten grundlegend ver-


ändern.
Digitale Lösungen können hier einen wertvollen Beitrag leisten, indem sie nicht nur
das Konsumentenverhalten in Bezug auf Nachhaltigkeit positiv beeinflussen, sondern
auch bestehende Geschäftsmodelle transformieren und innovieren. So schaffen zum Bei-
spiel visuelle Lösungen, basierend auf Augmented-Reality nicht nur einen Rückgang
der Retouren-Quote, sondern reduzieren auch Informationsasymmetrien und verbessern
Konsumentenerlebnisse, welche nachweislich zu einer höheren Loyalität und Zufrieden-
heit führen (Lemon und Verhoef 2016). Genau diese Resultate sollten, neben ernsthaften
Nachhaltigkeitsbemühungen, die Treiber für Unternehmen sein, in digitale und nach-
haltige Lösungen zu investieren.
Bei der Gestaltung digitaler Lösungen sind demnach einige elementare Punkte zu
beachten. Zunächst einmal brauchen digitale Lösungen einen „Fit“ zur Nachhaltigkeits-
strategie und zum Geschäftsmodell des Unternehmens. Das bedeutet, dass Unternehmen
solche Lösungen auch im Hinblick auf Nachhaltigkeit ernst meinen und entsprechend
kommunizieren müssen. Neben allen Innovationsbemühungen von Unternehmen, ist
es wichtig, die Glaubwürdigkeit solcher Lösungen in Bezug auf Nachhaltigkeit stetig
zu evaluieren. Viele Studien zeigen das Misstrauen von Konsumenten gegenüber den
Nachhaltigkeitsinitiativen vieler Unternehmen (Skarmeas und Leonidou 2013). Gerade
deshalb ist es wichtig, digitale Lösungen langfristig zu betrachten, und in die gesamte
Marketing- und Kommunikationsstrategie einzubinden. Der Eindruck des „Green-
washings“ kann viele Konsumenten davon abhalten, vermeintlich nachhaltige Lösungen
anzunehmen oder zu nutzen (Delmas und Burbano 2011). Eine Integration der Lösungen
in das Geschäftsmodell ist unerlässlich, da sonst die Glaubwürdigkeit sowie der Nutzen
für Konsumenten begrenzt ist.
Digitale Lösungen müssen zudem aktiv die Barrieren der Konsumenten für nach-
haltigen Konsum adressieren. Viele der in diesem Beitrag diskutierten Lösungen haben
nicht nur einen positiven Einfluss auf Nachhaltigkeit, sondern schaffen auch einen
zusätzlichen Nutzen für Konsumenten. Dieser ist elementar, um die bisher bestehenden
Barrieren für nachhaltiges Konsumentenverhalten zu überwinden. Ferner addressieren
diese Lösungen implizit Nachhaltigkeit, aber stellen Experience-Aspekte wie die
Benutzerfreundlichkeit, Personalisierung und auch Gamification in den Vordergrund.
Richtig umgesetzt, können Unternehmen von solchen digitalen Lösungen in mehrer-
lei Hinsicht profitieren. Investitionen in Nachhaltigkeit sind kein Selbstzweck, sondern
können dazu genutzt werden, zusätzlichen Nutzen für Konsumenten zu schaffen und
das eigene Angebot im Markt zu differenzieren. So ist es nicht verwunderlich, dass
aktuell häufig noch andere Motive im Hinblick auf digitale Lösungen dominieren. Diese
zahlen z. B. sehr stark auf Aspekte wie Experience und Convenience ein. Gerade in der
Konsumgüterindustrie wird eine reine Differenzierung über Produkt-Attribute immer
schwieriger. Hier können digitale Lösungen zum entscheidenden Wettbewerbsvorteil
werden und die Loyalität von Konsumenten signifikant erhöhen.
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 201

In diesem Beitrag wurden Praxisbeispiele verschiedener digitaler Lösungen daher


explizit unter dem Nachhaltigkeitsaspekt betrachtet. Viele dieser Lösungen sind heute
noch nicht ganzheitlich nachhaltig. Obwohl Potenziale zur Förderung von Nachhaltig-
keit offensichtlich sind, findet eine Beurteilung unter diesem Gesichtspunkt nur sehr
beschränkt statt. Ein entscheidender Schritt für Unternehmen ist es also, vorhandene
und potenzielle digitale Lösungen auch unter dem Nachhaltigkeitsaspekt genauer zu
betrachten. Digitale Lösungen können, richtig eingesetzt, einen Mehrwert bieten, müssen
aber stetig optimiert und an den Bedürfnissen der Konsumenten ausgerichtet werden.

Literatur

Kearney AT (2010) Sustainability – a Product Lifecycle Approach, Turning corporate sustainability


pledges into real business targets. https://www.kearney.com/documents/20152/434399/
Sustainability-A_Product_Life-Cycle_Approach.pdf/af682b8f-e42e-120b-f757-c0b1b9b4d9e
8?t=1493942403000. Zugegriffen 17. Okt. 2021
Adams R, Jeanrenaud S, Bessant J, Denyer D, Overy P (2016) Sustainability-oriented Innovation:
A Systematic Review. Int J Manag Rev 18(2):180–205
Altinbasak-Farina, I, Guleryuz-Turkel, G (2019) Profiling Green Consumers in an Emerging
Country Context. In: Altinbasak-Farina, I, Burnaz, S (2019) Ethics, Social Responsibility and
Sustainability in Marketing. Springer Singapore: 193–214
Auger P, Devinney TM (2007) Do what consumers say matter? The misalignment of preferences
with unconstrained ethical intentions. J Bus Ethics 76:361–383
Bang HK, Ellinger AE, Hadjimarcou J, Traichal PA (2000) Consumer concern, knowledge, belief,
and attitude toward renewable energy: An application of the reasoned action theory. Psychol
Mark 17(6):449–468
Bashir H, Jørgensen S, Tynes Pedersen LJ, Skard S (2020) Experimenting with sustainable
business models in fast moving consumer goods. J Clean Prod 270:1–12
Bocken N, Short SW, Rana P, Evans S (2014) A literature and practice review to develop
sustainable business model archetypes. J Clean Prod 65:42–56
BCG – Boston Consulting Group (2021) Four steps to sustainable business model innovation.
https://www.bcg.com/de-de/publications/2021/four-strategies-for-sustainable-business-model-
innovation. Zugegriffen: 28. Nov. 2021
Bundesministerium für Ernährung und Landwirtschaft (2021a) Versorgung mit Fleisch in Deutsch-
land im Kalenderjahr 2020. https://de.statista.com/statistik/daten/studie/36573/umfrage/pro-
kopf-verbrauch-von-fleisch-in-deutschland-seit-2000/. Zugegriffen: 11. Nov. 2021a
Bundesministerium für Ernährung und Landwirtschaft (2021b) Deutschland, wie es isst – Der
BMEL-Ernährungsreport 2021b. https://de.statista.com/statistik/daten/studie/1122033/umfrage/
relevanz-der-regionalen-herkunft-ausgewaehlter-lebensmittel-in-deutschland/. Zugegriffen: 11.
Dez. 2021b
Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (2020) Verpackungen
gesamt Verbrauch, Verwertung, Quoten 1991 bis 2018. https://de.statista.com/statistik/daten/
studie/156525/umfrage/verbrauch-von-kunststoffverpackung-in-deutschland-seit-1991/.
Zugegriffen: 12. Nov. 2021
Calabrese A, Castaldi C, Forte G, Levialdi NG (2018) Sustainability-oriented service innovation:
An emerging research field. J Clean Prod 193:533–548
202 A.-K. Schmitz et al.

Calabresa A, Costa R, Ghiron NL, Tiburzi L, Rahbek E, Pedersen G (2021) How sustainable-
orientated service innovation strategies are contributing to the sustainable development goals.
Technol Forecast Soc Chang 169:120816
Calderon-Monge E, Pastor-Sanz I, Sendra Garcia FJ (2020) Analysis of sustainable consumer
behavior as a business opportunity. J Bus Res 120:74–81
Capgemini (2021) Studie: Nachhaltigkeit ist kein Nice-to-have mehr, sondern ein Wettbewerbsvor-
teil. https://www.capgemini.com/de-de/2021/03/studie-nachhaltigkeit-retail/. Zugegriffen: 07.
Nov. 2021
Carrigan M, Attalla A (2001) The myth of the ethical consumer – do ethics matter in purchase
behaviour? J Consum Mark 18(7):560–577
Carrington MJ, Neville BA, Whitwell GJ (2010) Why ethical consumers don’t walk their talk:
towards a framework for understanding the gap between the ethical purchase intentions and
actual buying behaviour of ethically minded consumers. J Bus Ethics 97(1):139–158
Delmas MA, Burbano VC (2011) The drivers of greenwashing. Calif Manage Rev 54(1):64–87
Djellal F, Gallouj F (2016) Service innovation for sustainability: paths for greening through service
innovation. In Service innovation. Springer, Tokyo: 187–215
ElHaffar G, Durif F, Dubé L (2020) Towards closing the attitude-intention-behavior gap in green
consumption: A narrative review of the literature and an overview of future research directions.
J Cleaner Prod. 275:122556
Frank P (2018) Me, my family or the public good? Do inter-role conflicts of consumer-citizens
reduce their ethical consumption behaviour? Int J Consum Stud 42(3):306–315
Futerra SCL (2005) The rules of the game: the principals of climate change communication
(Department for Environment, Food and Rural Affairs, London, UK)
Gebauer H, Paiola M, Saccani N, Rapaccini M (2021) Digital servitization: Crossing the
perspectives of digitization and servitization. Advance online publication, Industrial Marketing
Management
Gleim MR, Smith JS, Andrews D, Cronin JJ (2013) Against the green: a multi-method
examination of the barriers to green consumption. J Retail 89(1):44–61
Gunasekaran A, Spalanzani A (2012) Sustainability of manufacturing and services: Investigations
for research and applications. Int J Prod Econ 140:35–47
Harvard Business manager (2020) Wann Kunden grün Kaufen. https://www.manager-
m a g a z i n . d e / h a r va r d / m a r k e t i n g / n a c h h a l t i g k e i t - w a n n - k u n d e n - g r u e n - k a u f e n -
a-00000000-0002-0001-0000-000165377617. Zugegriffen: 14. Okt. 2021
Hickle G (2017) Extending the boundaries: an assessment of the integration of extended producer
responsibility within corporate social responsibility. Bus Strateg Environ 26:112–124
Holst A, Löffler CR, Philipps S (2017) How digital reframes the business case for sustainability in
consumer markets. In: Osburg T, Lohrmann C (Hrsg) Sustainability in a digital world. Springer
International Publishing, S 105–116
IfD Allensbach (2021) Allensbacher Markt- und Werbeträger-Analyse – AWA 2021. https://
de.statista.com/statistik/daten/studie/264566/umfrage/kaeufertypen-bevorzugung-von-
produkten-aus-fairem-handel-fair-trade/. Zugegriffen: 11. Dez. 2021
Johnstone ML, Lay Peng T (2015) An exploration of environmentally-conscious consumers and
the reasons why they do not buy green products. Mark Intell Plan 33(5):804–825
Kowalkowski C, Gebauer H, Kamp B, Parry G (2017) Servitization and deservitization: Overview,
concepts, and definitions. Ind Mark Manage 60:4–10
Kowalkowski C, Gebauer H, Oliva R (2017) Service growth in product firms: Past, present, and
future. Ind Mark Manage 60:82–88
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 203

KPMG (2020a) Wie äußert sich bei Ihnen der Fokus auf nachhaltige Mode beim Shopping?
In: TextilWirtschaft – Ausgabe 40/2020a, Seite 26. https://de.statista.com/statistik/daten/
studie/1179997/umfrage/umfrage-unter-verbrauchern-zu-nachhaltigem-modekauf-in-deutsch-
land/. Zugegriffen: 11. Dez. 2021
KPMG (2020b) Nachhaltigkeit ist mehr als nur ein kurzzeitiger Trend. https://home.kpmg/de/de/
home/media/press-releases/2020b/03/nachhaltigkeit-ist-mehr-als-nur-ein-kurzzeitiger-trend-
consumer-barometer.html. Zugegriffen: 11. Dez. 2021
Kuzmina K, Prendeville S, Walker D, Charnley F (2019) Future scenarios for fast-moving
consumer goods in a circular economy. Futures 107:74–88
Leimeister JM, Österle H, Alter S (2014) Digital services for consumers. Electron Mark 24:255–
258
Lemon KN, Verhoef PC (2016) Understanding customer experience throughout the customer
journey. J Mark 80(6):69–96
Martinez V, Neely A, Velu C, Leinster-Evans S, Bisessar D (2017) Exploring the Journey to
Services. Int J Prod Econ 192:66–80
McGuire L, Geoffrey B (2019) Talking green and acting green are two different things: An
experimental investigation of the relationship between implicit and explicit attitudes and low
carbon consumer choice. Semiotica Journal 227:99–125
McKinsey & Company (2020) Survey: Consumer sentiment on sustainability in fashion. https://
www.mckinsey.com/industries/retail/our-insights/survey-consumer-sentiment-on-sustainability-
in-fashion. Zugegriffen: 09. Dez. 2021
McKinsey & Company (2021) Prioritizing sustainability in the consumer sector. https://www.
mckinsey.com/industries/retail/our-insights/prioritizing-sustainability-in-the-consumer-sector.
Zugegriffen: 27. Nov. 2021
Mukarram M (2020) Impact of COVID-19 on the UN Sustainable Development Goals (SDGs).
Strateg Anal 44(3):253–258
Newton P, Meyer D (2013) Exploring the attitudes-action gap in household resource consumption:
does “Environmental Lifestyle” segmentation align with consumer behaviour? Sustainability
5(3):1211–1233
NYU & STERN Center for Sustainable Business (2021) Sustainable Market Share Index.
https://www.stern.nyu.edu/sites/default/files/assets/documents/Final%202021%20CSB%20
Practice%20Forum-%207.14.21.pdf. Zugegriffen: 12. Okt. 2021
Padel S, Foster C (2005) Exploring the gap between attitudes and behaviour. British Food Journal
107(8):606–625
Pospulse (2020) Studie: Düfte und Drogeriemärkte, Seite 34. https://de.statista.com/statistik/daten/
studie/1171393/umfrage/umfrage-unter-konsumenten-zu-kriterien-beim-kauf-von-drogerie-
produkten/. Zugegriffen: 11. Dez. 2021
Pospulse (2021) Studie: Kauf und Konsum von Fleisch- & Wurstwaren 2020/2021. https://
de.statista.com/statistik/daten/studie/1170139/umfrage/erwuenschte-veraenderungen-
hinsichtlich-des-fleischangebots-im-supermarkt/. Zugegriffen: 06. Dez. 2021
Power N, Beattie G, McGuire L (2017) Mapping our underlying cognitions and emotions about
good environmental behavior: Why we fail to act despite the best of intentions. Semiotica
215:193–234
Schlaile MP, Klein K, Böck W (2018) From bounded morality to consumer social responsibility:
a transdisciplinary approach to socially responsible consumption and its obstacles. J Bus Ethics
149(3):561–588
Sheth JN, Sethia NK, Srinivas S (2011) Mindful consumption: a customer-centric approach to
sustainability. J Acad Mark Sci 39:21–39
204 A.-K. Schmitz et al.

Skarmeas D, Leonidou CH (2013) When consumers doubt, Watch out! The role of CSR
skepticism. J Bus Res 66(10):1831–1838
Sousa-Zoomer TT, Cauchick-Miguel PA (2019) Exploring business model innovation for
sustainability: an investigation of two product service systems. Total Qual Manag Bus Excell
30(5):594–612
Stewart R, Niero M (2018) Circular economy in corporate sustainability strategies: A review of
corporate sustainability reports in the fast-moving consumer goods sector. Bus Strateg Environ
27:1005–1022
Tsakiridou E, Boutsouki C, Zotos Y, Mattas K (2008) Attitudes and behaviour towards organic
products: an exploratory study. International Journal of Retail & Distribution 36(2):158–175
Tukker A (2004) Eight types of product–service system: Eight ways to sustainability? Experiences
from SusProNet. Bus Strateg Environ 13(4):246–260
Umweltbundesamt (2020) Aufkommen und Verwertung von Verpackungsabfällen in Deutschland
im Jahr 2018. https://de.statista.com/statistik/daten/studie/914344/umfrage/verpackungen-ver-
brauch-pro-person-in-deutschland/. Zugegriffen: 04. Dez. 2021
Unilever (2021) Unilever Sustainable Living Plan 2010 to 2020 – Summary of 10 year’s progress.
https://assets.unilever.com/files/92ui5egz/production/16cb778e4d31b81509dc5937001559f1f5c
863ab.pdf/uslp-summary-of-10-years-progress.pdf. Zugegriffen: 08. Dez. 2021
Vadakkepatt GG, Winterich KP, Mittal V, Zinn W, Beitelspacher L, Aloysius J, Ginger J, Reilman J
(2021) Sustainable Retailing. J Retail 97:62–80
Vargo SL, Lusch RF (2004) Evolving to a New Dominant Logic for Marketing. J Mark 68:1–17
Vargo SL, Lusch RF (2008) Service-dominant logic: continuing the evolution. J Acad Mark Sci
36(1):1–10
Vodafone (2020) The vodafone business future ready report 2020. https://www.vodafone.com/
business/news-and-insights/white-paper/future-ready-report-2020. Zugegriffen 03. Dez. 2021
White K, Habib R, Hardisty DJ (2019) How to SHIFT consumer behaviors to be more sustainable:
a literature review and guiding framework. J Mark 83(3):22–49
World Economic Forum (2021) The global risks report (2021) https://www.weforum.org/reports/
the-global-risks-report-2021. Zugegriffen: 16. April 2021
Yang M, Evans S (2019) Product-service system business model archetypes and sustainability. J
Clean Prod 220(2):1156–1166
Yeow P, Dean A, Tucker D (2014) Bags for life: The embedding of ethical consumerism. J Bus
Ethics 125(1):87–99
Punkt Z (2021) Der neue Blick auf die globale Dynamik des Wandels. https://z-punkt.de/de/
themen/megatrends. Zugegriffen: 10. Dez. 2021
Zfk – Zeitung für kommunale Wirtschaft (2020) Umfrage: Drei von vier Deutschen wollen nach-
haltig leben. https://www.zfk.de/politik/deutschland/umfrage-drei-von-vier-deutschen-wollen-
nachhaltig-leben. Zugegriffen: 11. Dez. 2021
Zu L (2013) Sustainable Production and Consumption. In: Idowu SO, Capaldi N, Zu L, Gupta AD
(Hrsg) Encyclopedia of Corporate Social Responsibility. Springer, Berlin
Zukunftsinstitut (2021) Die Megatrends. https://www.zukunftsinstitut.de/dossier/megatrends/.
Zugegriffen: 01. Dez. 2021
Digitale Lösungen mit Potenzial: Impulse und Beispiele … 205

Jun.-Prof. Dr. Anna-Karina Schmitz ist Inhaberin der Junior-


professur für Marketing und Direktorin des Henkel Centers for
Consumer Goods (HCCG) an der WHU – Otto Beisheim School of
Management. Im Rahmen ihrer Forschung beschäftigt sie sich mit
den Themenfeldern Marken- und Preismanagement, Nachhaltigkeit
und Social Media. Zuvor absolvierte sie ihren Bachelor und Master
of Science in Business Administration mit den Schwerpunkten
Corporate Development und Marketing an der Universität zu Köln.
Bevor sie sich für eine wissenschaftliche Laufbahn entschied, war
Anna-Karina Schmitz in der Entertainment-Industrie tätig und ver-
antwortete das Management verschiedener großer Musical- und
Theater-Produktionen im In- und Ausland. Anschließend
promovierte sie am Lehrstuhl für Strategie und Marketing an der
WHU – Otto Beisheim School of Management zum Thema
Premiumisierung von Marken(portfolios).

Florian Platzek ist seit 2020 als wissenschaftlicher Mitarbeiter an


der WHU Otto-Beisheim School of Management am Henkel
Center for Consumer Goods tätig. Zusammen mit Jun.-Prof. Dr.
Anna-Karina Schmitz forscht er rund um die Themen Strategie,
Marketing und Nachhaltigkeit in der Konsumgüterindustrie. Nach
seinem Bachelor-Abschluss in Betriebswirtschaft an der Wirt-
schaftsuniversität Wien, absolviert er den CEMS Master in
Management in Irland und Südkorea. Neben mehreren Stationen in
der Industrie und Unternehmensberatung, gründete er den WU-
Marketing Club an der Wirtschaftsuniversität Wien, welcher seit
jeher eine Plattform für den engen Austausch zwischen branchen-
führenden Unternehmen und Studierenden schafft.

Katharina Göring-Lensing Hebben ist seit 2020 als wissen-


schaftliche Mitarbeiterin an der WHU Otto-Beisheim School of
Management am Lehrstuhl für Strategie & Marketing von Prof. Dr.
Martin Fassnacht tätig. Ihre Forschungsschwerpunkte decken die
Schnittstelle zwischen Unternehmen und Konsumenten in Bezug
auf strategische Nachhaltigkeitsthemen ab, welche auch das
Promotionsvorhaben umfassen. Zuvor absolvierte sie ein duales
Studium der Betriebswirtschaftslehre in Kooperation mit einem
Technologiekonzern aus Münster. Anschließend schloss sie ihr
Masterstudium an der Fachhochschule Münster mit dem Schwer-
punkt International Marketing & Sales erfolgreich ab. Praktische
Erfahrungen sammelte sie durch diverse Praktika und Werk-
studententätigkeiten insbesondere in den Bereichen Projekt-
management und Business Development.
Quantitative Messung der Einflussstärke
von ESG-Maßnahmen auf die Rendite
von Kapitalgebern

Jan Paul Becker

1 Einleitung

Dieser Beitrag illustriert visionär, Einflüsse – im Sinne von Chancen und Risiken – zu
den in Unternehmen getroffenen ESG-Maßnahmen auf die Kapitalverzinsung von
Investoren realistisch quantitativ zu messen. Doch vorweg werfen wir einen Blick auf die
Einordnung und Definitionsversuche der Begriffe ‚Digitalisierung‘ und ‚Nachhaltigkeit‘:
„Der Begriff der Digitalisierung beschreibt auf einer technologischen Ebene ins-
besondere zwei Entwicklungen: den Prozess, der Informationen in maschinenlesbare
Daten umsetzt und speichert, sowie Vorgänge der Datenverarbeitung, -übermittlung
und -kombination. Mit ihrer Hilfe werden Formate wie Schrift, Sprache oder Bild
umgewandelt und damit für uns Menschen erfassbar. Diese Prozesse finden mithilfe von
Computern, Software und dem Internet automatisiert und vernetzt statt.“1

1 Vgl.PBP Informationen Zur Politischen Bildung (2020), Digitalisierung, Heft 344, S. 4/5,
abgerufen am 12.12.2021.

J. P. Becker (*)
Bornheim (NRW), Deutschland
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 207
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_12
208 J. P. Becker

„Die Digitalisierung folgt dem Bacon´schen2 Diktum ‚Wissen ist Macht‘. In der Folge
sind […] ‚Daten der Rohstoff des 21. Jahrhunderts‘3 und somit in einer zukunftsfähigen
Produktion (Industrie 4.0) das zentrale Element, um Optimierungen und damit Profit-
maximierung zu erreichen. Das Nutzen möglichst vieler Daten zur Erzielung höherer
Unternehmensgewinne folgt dabei dem Grundprinzip einer marktwirtschaftlichen Wirt-
schaftsordnung. Es gilt sich darüber im Klaren zu sein, dass der Handel mit Daten auch
in weiter Zukunft noch unser wirtschaftliches Handeln stark bestimmen wird.“4
In der Regel löst die Digitalisierung von Daten und Informationen in der Praxis
prozessuale Analyse aus: es folgt einerseits die qualitative Auswertung mithilfe der so
genannten (Balanced) Scorecard und quantitativ mit der so genannten deskriptiven
Statistik. Digitalisierte Daten und Informationen werden qualitativ per ausgewogenem
Berichtsbogen und/oder quantitativ bewertet, d. h. summiert, (gewichtet) gemittelt,
Datenausreißer festgestellt und (Teil-) Ergebnisse grafisch dargestellt, um mögliche
Zusammenhänge und Tendenzen optisch sichtbar zu machen. Andererseits sollen erste
Erkenntnisse der Deskription folgend explorativ zukünftige Erwartungen erklären.
Die Idee des vorteilhaften Zusammenwirkens von Digitalisierung und Nachhaltigkeit
legt vielleicht der Grundstein des Wirtschaftens: „Wirtschaften ist das Entscheiden über
knappe Güter in privaten und öffentlichen Betrieben.“5 Folglich stellt sich die Frage, ob
mit Nachhaltigkeitsaspekten auch Güterknappheit gegeben sein muss. Oder ob aufgrund
einer zu definierenden Knappheit automatisch der Nachhaltigkeitsgedanke im Sinne der
Vermeidung von Ressourcenverschwendung in den Vordergrund rückt.
Als quantitativ nachhaltig definiert der DUDEN beispielsweise im Sinne der Öko-
logie: „Prinzip, nach dem nicht mehr verbraucht werden darf, als jeweils nachwachsen,
sich regenerieren, künftig wieder bereitgestellt werden kann.“6 Das Bundesministerium
für wirtschaftliche Zusammenarbeit und Entwicklung definiert Nachhaltigkeit wie folgt:
„Nachhaltigkeit oder nachhaltige Entwicklung bedeutet, die Bedürfnisse der Gegenwart
so zu befriedigen, dass die Möglichkeiten zukünftiger Generationen nicht eingeschränkt
werden. Dabei ist es wichtig, die drei Dimensionen der Nachhaltigkeit – wirtschaftlich

2 Vgl. Bacon, Francis, Sir, englischer Philosoph (1597), Meditationes sacrae: „Nam et ipsa scientia
potestas est“, in Journal: The Works of Francis Bacon, 1864, 14. Jg., S. 149.
3 Vgl. Zitat Dr. Angela Merkel, https://www.heise.de/newsticker/meldung/Merkel-Daten-sind-Roh-

stoffe-des-21-Jahrhunderts-2867735.html, abgerufen am 13.12.2021.


4 Vgl. Wittpahl, Volker (2016), DIGITALISIERUNG, iit-Themenbank, Springer Verlag,

ISBN 978–3-662–52.853-2, S. 18.


5 Vgl. Bea, Schweitzer (2009), Allgemeine Betriebswirtschaftslehre, Bd. 1 Grundsatzfragen, 10.

Auflage, Lucius & Lucius Verlag, abgerufen auf https://docplayer.org/122732274-Allgemeine-


betriebswirtschaftslehre.html.
6 Vgl. Duden Wörterbuch, Nachhaltigkeit, unter: https://www.duden.de/rechtschreibung/Nach-

haltigkeit, abgerufen am 13.12.2021.


Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 209

effizient, sozial gerecht, ökologisch tragfähig – gleichberechtigt zu betrachten.“7 Dieser


Definitionsversuch würdigt demnach das Wirtschaften knapper Güter.
Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) veröffentlichte am
04.11.2021 zum Thema Nachhaltigkeit und der Offenlegungsverordnung8 einen mit dem
Institut der Wirtschaftsprüfer (IDW) abgestimmten Praxishinweis. Der Hinweis dient als
Orientierung bei der Umsetzung der europäischen Offenlegungsverordnung. Die Ver-
ordnung schreibt Anbietern von Finanzprodukten vor, „potenziellen Anlegerinnen und
Anlegern in einheitlicher Weise entscheidungsrelevante Informationen mit Bezug zu den
Nachhaltigkeitskriterien ESG (Environment, Social, Governance – Umwelt, Soziales,
Unternehmensführung) zur Verfügung stellen müssen. Damit sollen Anleger einschätzen
können, wie nachhaltig ein Produkt ist und welchen Einfluss Nachhaltigkeitsrisiken
auf die Rendite haben könnten. Die Europäische Union will dadurch private Gelder in
nachhaltige Wirtschaftstätigkeiten umleiten, um den Folgen des Klimawandels, der
Ressourcenverknappung und anderer nachhaltigkeitsbezogener Probleme entgegenzu-
wirken.“9 Anwendungsbeginn der Verordnung ist voraussichtlich der 1. Juli 2022.10 Mit
der Taxonomie-Verordnung vom 18.06.202011 wurde die Offenlegungsverordnung vom
27.11.2019 in dem Punkt ökologische Nachhaltigkeit ergänzt bzw. konkretisiert. Gemäß
Artikel 3 der Taxonomie-Verordnung gelten als ökologisch nachhaltig die Produkte, die
1) einen wesentlichen Beitrag zur Verwirklichung mindestens eines der Umweltziele des
Artikels 9 Taxonomie-Verordnung leistet, 2) die Umweltziele des Artikel 9 Taxonomie-
Verordnung nicht erheblich beeinträchtigen, 3) den Mindestschutz nach Artikel 18

7 Vgl. Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung, Nachhaltigkeit,


unter: https://www.bmz.de/de/service/lexikon/nachhaltigkeit-nachhaltige-entwicklung-14700,
abgerufen am 13.12.2021.
8 Vgl. Verordnung (EU) 2019/2088 des Europäischen Parlaments und des Rates vom 27. November

2019 über nachhaltigkeitsbezogene Offenlegungspflichten im Finanzdienstleistungssektor, unter:


https://eur-lex.europa.eu/legal-content/DE/ALL/?uri=CELEX:32019R2088, abgerufen am
13.12.2021.
9 Vgl. Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), Nachhaltigkeit, unter: https://www.

bafin.de/SharedDocs/Veroeffentlichungen/DE/Meldung/2021/meldung_211104_Offenlegungsver-
ordnung.html, abgerufen am 13.12.2021.
10 Vgl. Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin), unter: https://www.bafin.de/

SharedDocs/Veroeffentlichungen/DE/Meldung/2021/meldung_210730_EU_Offenlegungsver-
ordnung.html, abgerufen am 13.12.2021.
11 Vgl. Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates vom 18. Juni

2020 über die Einrichtung eines Rahmens zur Erleichterung nachhaltiger Investitionen und zur
Änderung der Verordnung (EU) 2019/2088, unter: https://eur-lex.europa.eu/legal-content/DE/TXT/
PDF/?uri=CELEX:32020R0852, abgerufen am 21.12.2021.
210 J. P. Becker

einhält und (4) den von der Kommission festgelegten technischen Bewertungskriterien
entspricht.12
Mit der Transparenzförderung durch die Offenlegungsverordnung sollen Kapitalgeber
Unterstützung erhalten, nicht nur in nachhaltige Produkte zu investieren, sondern sich
auch über den möglichen Einfluss von ESG-Maßnahmen auf die Rendite bewusst zu
werden.
Die folgenden Kapitel beleuchten daher die Begriffe Rendite und Risiko aus Sicht
der Kapitalgeber und stellen ein kohärentes quantitatives Messverfahren der Einfluss-
stärke, insbesondere zu ESG-Maßnahmen, auf die Performance der Investoren vor;
eine qualitative und quantitative Messbarkeit wird im Übrigen in Ziffer (15) der Offen-
legungsverordnung in Aussicht gestellt.

2 Rendite der Kapitalanlage

2.1 Einführung

Dieses Kapitel geht auf generisches ganzzeitliches Kapitalanlageverhalten ein und stellt
ein normiertes Grundlagenmodell vor: ‚Future Yield and Taxes‘, kurz FYT. Rendite ent-
spricht allgemeingültig erzieltem oder erzielbarem Gewinn zum eingesetzten Kapital
über die Investitionszeit. Die Theorien des Capital Asset Pricing Model (CAPM) und
Arbitrage Pricing Theory (APT) mit normativer Prägung und Faktormodellen können
bis heute nicht empirisch valide erklären, welche makroökonomischen und Unternehmen
relevanten Faktoren erwartete Rendite unter adjustiertem Risiko signifikant beein-
flussen. In der Praxis häufig eingesetzte Kennzahlen der Performancemessung basieren
entweder auf implizite und explizite Methoden der Kapitalkosten, oder werden als Ver-
hältniszahlen oft in der mathematischen Einheit Prozent ausgewiesen. Sie beobachten
überwiegend auf Ebene der Assets und nicht generisch auf der für Kapitalgeber, zu
denen neben der natürlichen Person auch die Personen- oder Kapitalgesellschaft, der
Institutionelle Investor, die Bank oder gar der Fiskus gehörten.
FYT misst im Wesentlichen die zeitliche Entwicklungsgeschwindigkeit der Kapital-
geberrentabilität, als RoI-PACE definiert. Die Rentabilität erklärt sich aus dem Ver-
hältnis der Summe an Rückflüssen aus Vorabgewinnen, steuerlichen Ergebnissen
und Veräußerungsüberschüssen zum tatsächlich eingesetzten Kapital der Geber. Das
Modell FYT modifiziert damit den einschlägig bekannten Baldwin-Zins – auch bekannt
als modifizierter Interner Zinsfuß der dynamischen Investitionsrechnung – durch
Substitution der Cashflow-Positionen auf Ebene der Assets gegen die o. a. wesent-

12 Vgl.Präsentation zum Vortrag der BaFin „Überblick über die Verordnung (EU) 2018/2088“,
unter: https://www.bafin.de/SharedDocs/Veranstaltungen/DE/210610_Vortrag_Verordnung_
wa_41.html, abgerufen am 21.12.2022.
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 211

Abb. 1 Zahlungsstrom des generischen Investitionsmodells (Eigene Darstellung)

lichen, die Kapitalverzinsung beeinflussenden Variablen. FYT modifiziert aber auch


die sogenannte VoFi-Rendite des Vollständigen Finanzplans durch Substitut des End-
vermögens gegen die Summe der erzielten oder erzielbaren Rückflüsse auf Ebene der
Kapitalgeber. FYT entspricht demnach dem Zinseszins bzw. der geometrischen Rendite
und unterliegt der Methode der expliziten Kapitalkosten.

2.2 Das generische Investitionsprinzip

Aus der wirtschaftlichen Perspektive kann das folgende generische Investitionsver-


halten mit induziertem Zahlungsstrom für jede Art Kapitalgeber, gleich, ob natürliche
Person, Personen- oder Kapitalgesellschaft, Institutioneller Investor, Bank oder Fiskus,
beschrieben werden (Abb. 1):
Es ist unerheblich, ob die Investition ratierlich oder en bloc erfolgt; ebenso ist nicht
relevant, ob die Kapitalrückflüsse in Form von Vorabgewinnen und steuerlichen Ergeb-
nissen am folgenden Tag, Woche, Monat oder Jahr geleistet werden. Gleiches gilt für
die Liquidation zum Veräußerungszeitpunkt (n), oder für die Generationen übergreifende
Sicht von z. B. 30 Jahren. Kapitalgeber unterliegen herausgearbeitet dem zeitlichen
Grundprinzip:

Buy-Hold-Sell
(Investieren-Halten-Veräußern).

Das Modell FYT gemäß Gl. 5 berücksichtigt dieses Investitionsprinzip gemäß Abb. 1
und weist ein mit alternativen Zinsergebnissen vergleichbares, mathematisch ohne
Annahmen behaftetes zinshomogenes Ergebnis aus. Auf Ausführungen zur Wideranlage
von Kapitalrückflüssen und Vor- und Nachsteuereffekte wird an dieser Stelle verzichtet.13

13 Vgl. Becker, Jan Paul (2020), Nach 60 Jahren Baldwin-Zins: Das Modifizierte Modell
‚Future Yield After Taxes‘, S. 12 und 18 f., abrufbar unter: https://papers.ssrn.com/sol3/papers.
cfm?abstract_id=3628280.
212 J. P. Becker

2.3 Das Modell ‚Future Yield and Taxes (FYT)‘

Kapitalgeber stellen für die Investition Eigenkapital in Form eines Art „Eigenkapital-
kredits“ bereit. Die Interpretation des Eigenkapitals als speziellen Typs des Investitions-
kredits beruht auf drei wesentlichen Investitionsgrundsätzen: (a) Kapitalsicherung durch
dingliche Sicherheiten, (b) Kapitalverzinsung für den Verzicht auf Konsum oder alter-
native Investitionsmöglichkeiten und (c) Kapitalgewinnerzielung mit der vollständigen
Rückführung des Investitionskapitals zuzüglich erwirtschaftetem Mehrkapitals. Nicht
altruistisch handelnde, rationale Kapitalgeber motiviert mit der Investition – heuristisch
betrachtet – der über Zeit zu realisierende Kapitalgewinn, bestenfalls ohne Risiko.

Die Motivation zur Investition ist Gewinnerzielungsabsicht.

Etymologisch leitet sich das Wort Rendite von dem italienischen Wort ‚rendita‘ ab, auf
Deutsch übersetzt: Gewinn. Rendite entwickelt sich proportional zum Gewinn, aber
im Verhältnis zum eingesetzten Kapital der Kapitalgeber über die Investitionszeit. Ob
Rendite (statistisch definiert oder im wahrsten Sinn des Wortes) erwartet oder realisiert
wird, ist an dieser Stelle unerheblich.
Nach der gesicherten, einmalig oder ratierlich erfolgten Kapitalinvestition (K0)
erwartet der Anleger für einen vereinbarten Zeitraum (n) die Verzinsung seines „Eigen-
kapitalkredits“ mit dem Ziel des Kapitalgewinns unter möglichst geringem Risiko; Risiko
wird in diesem Kontext auf Seite 10 definiert. Der Investitionszeitraum muss für die
Separierung zur Kapitalinvestition zu den Folgephasen größer null sein, kann aber länger
andauern als nur eine zu definierende Periode. Dem Anleger wird in dieser Investitions-
und Anlagezeit das Kapital nicht zurückgewährt; würde es zurückgewährt, beeinflusste
das die Variable des Investitionskapitals. Das Kapital ist also über die Kapitalanlagelauf-
zeit gegen Wert gebunden und kann – realistisch betrachtet – ausschließlich aus erwirt-
schafteten Investitions- bzw. Vorabgewinnrückflüssen bedient werden. Der Nominalzins
der Kapitalverzinsung (i) kann dabei jede reelle Zahl annehmen. Nach Ablauf der
Investitionszeit hat der Kapitalgeber im Optimalfall seine Kapitaleinlage und die erzielten
Zinsbeträge als kumulierten Kapitalendwert (Kn) erhalten. Die offensichtlich zur
Anwendung kommende Methode des Kapitalendwerts entwickelt sich unter Berück-
sichtigung der Methode der geometrischen Rendite für n ∈ {n|ℜ>0} wie folgt:
Kn = K0 · (1 + i1 ) · (1 + i2 ) · . . . · (1 + in−1 ) · (1 + in ) (1)
Da das für Kapitalgeber gebundene Investitionskapital nicht zurückgewährt wird, ist es
retrospektiv unerheblich, wie die Periodenzinssätze lauteten; mit Feststellung des
Kapitalendwerts nach vollständigem Abschluss der Investition haben sich die Zinssätze
Periodenlänge unabhängig bzw. allgemeingültig mit i1 = i2 = … = in-1 = in für
n ∈ {n|ℜ>0} gleich hoch entwickelt:

Kn = K0 · (1 + i)n (2)
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 213

Mit Gl. 2 tritt der Zinseszinseffekt aufgrund der Perioden übergreifenden Thesaurierung
der Verzinsungsergebnisse in den Vordergrund, sodass die stets gleich hohe Kapitalver-
zinsung (i) je Periode nach wenigen mathematischen Umformungen wie folgt dargestellt
werden kann:
  n1  1
Kn RoC n
i= −1= −1 (3)
K0 K0

Das generisch zinshomogene Ergebnis (i) entspricht dem Verhältnis aus zeitlich
kumulierten Kapitalrückflüssen (RoC) als Kapitalendwert (Kn) zum Investitionskapital
(K0), was Kapitalrentabilität (RoI) auszeichnet. K0 darf nicht null betragen, d. h. Kapital-
einsatz muss gegeben sein. Je geringer der Kapitaleinsatz, desto höher die mögliche
Rentabilität.
Das Gesamtergebnis, bestenfalls mit Gewinn, kann über die Banktage genaue
Investitionszeit (n) mit ν ∈ N wie folgt gemessen werden:
v
n := (4)
360

Diese Information ist dahingehend wichtig, da Kapitalanleger den Kapitalendwert in der


Regel nicht über bare Mittel, sondern unbar auf einem Bankkonto des Geldinstituts mit
Feststellung sogenannter Valuten bzw. Wertstellungen generieren. Sollte die Investitions-
zeit (n) nicht mit der Menge der natürlichen Zahlen bestimmt werden können, kann die
Anzahl der Investitionstage (ν) von Gemeinjahren mit 365 Tagen abweichen und bei-
spielsweise 360 Banktage betragen.
Mit der Zinsfunktion (3) wird deutlich, dass die maximale Investitionsbereitschaft
des Anlegers bei 100 % des Nominalbetrags liegt, inklusive aller möglichen (Erwerbs-)
Nebenkosten. Die Funktion entwickelt sich in Abhängigkeit von der Rentabilität mit
jeder Zeitraumbetrachtung zum kumulierten Kapitalendwert diskret. Der genuine Werte-
bereich des diskreten Zinssatzes im Sinne der Performance liegt im Intervall [-1, ∞).
Nach Ebert, Monien und Steinhübel (2012)14 sind Kennzahlen zweckorientierte
Informationsgrößen und geben in komprimierter und konzentrierter Form über wichtige,
quantitativ erfassbare betriebswirtschaftliche Tatbestände und Entwicklungen eines
Unternehmens oder einer Institution Auskunft und bilden somit das Kernstück jedes
Berichts. Das Modell FYT, zu Deutsch, ‚Zukunftsrendite und Steueraufkommen‘,
weist einen thesaurierten Zinseszins eines Kapitalanlageangebots über gleichlang
transformierte Perioden aus. Dieser Zins müsste retrospektiv oder zukünftig mit zins-
homogenen Ergebnissen anderer Kapitalinvestitionen mindestens erzielt werden. FYT
versteht sich als ein ergänzendes Renditemodell für Kapitalgeber und erfüllt eine nicht

14 Vgl. Ebert et al. (2012), Controlling in der Wohnungswirtschaft‘, in: Mändle E, Mändle M

(2012), Haufe Praxisratgeber 6518, 2. Auflage, ISBN 978 3 648 02.528 4, S. 215.
214 J. P. Becker

abschließende Liste an Anforderungen an Kennzahlen, wie zur Validität, Objektivität,


Aktualität, Robustheit, Automatisierbarkeit, Wirtschaftlichkeit und Flexibilität.
Mit dem vorgestellten Grundmodell (3) für Kapitalgeber kann mit
RoI := RoC
K0
und K0 �= 0 folgendes Grundmodell FYT definiert werden:
Harry Markowitz legte bekanntlich 1952 mit seinem Aufsatz ‚Portfolio Selection‘ den
 1
RoC n 1
FYT (n) = − 1 := RoI n − 1 (5)
K0

Grundstein, Finanzmärkte quantitativ zu beschreiben und das Rendite-Risiko-Kalkül von


Einzeltiteln untereinander und im Portfolio zu untersuchen.15 William Sharpe
konkretisierte 1964 mit seinem Aufsatz ‚Capital Asset Prices: A Theory of Market Equi-
librium under Conditions of Risk’ auf Seite 428 die Messung der „rate of return in his
investment“ (R) mit:16
Wt − W i Wt
R≡ = −1
Wi Wi (6)

bzw. umgestellt:
Wt = R · Wi + Wi = Wi · (1 + R) (7)

(Wi) beschreibt den gegebenen Investitionsbetrag („given amount“) und (Wt) das End-
vermögen („terminal wealth“).
Es sind sofort die Ähnlichkeiten der Gl. 5 versus (6) und (2) versus (7) zu erkennen:
die statische Investitionszeit wird dynamisiert, verfolgt aber weiterhin die Grund-
prinzipien der Rentabilitätsbetrachtung zurgeometrischen Rendite.
Zu der sicherlich wichtigen Frage, warum die Kredittilgung als Vermögen mehrende
Komponente der Renditebildung nicht ebenfalls als wesentliche Variable der Rück-
flüsse zählt, ist wie folgt zu differenzieren: Die Höhe des nach einer Investitionszeit
verbleibenden Kredits entwickelt sich aus der Differenz des Ursprungsnominalkredits
und der Summe der Kredittilgungen. Höhere unterjährige Tilgungsbeträge einer Cash-
flow-Planung führen zu geringeren entnehmbaren Vorabgewinnen, vice versa. Höhere
Kredittilgungen begünstigen nach der Veräußerung von refinanzierten Assets geringere
verbleibende Kredite und damit einen höheren Veräußerungsüberschuss. Dies spiegelt
sich direkt in der Höhe der Rentabilität. Die Kredittilgung ist den indirekt beein-
flussenden Variablen des Kapitalrückflusses zuzuordnen und zählt daher nicht zu den
wesentlichen Kapitalrückflussvariablen.

15 Vgl. Markowitz, Harry (1952), Portfolio Selection, The Journal of Finance, Vol. 7, Nr. 1,

S. 77–71.
16 Vgl. Sharpe, William F. (1964), Capital Asset Prices: A Theory of Market Equilibrium under

Conditions of Risk, The Journal of Finance, Vol. 19, Nr. 3, S. 425–442.


Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 215

3 Risiko der Kapitalanlage

3.1 Einführung

Risiko wird allgemein als Abweichung zur erwarteten Rendite definiert, statistisch
betrachtet der Volatilität. Denkbar ist auch das stochastische Verlustrisiko zum Kapitalein-
satz. Jedoch können unsystematische Risiken, also beeinflussbare Risiken, mittels Diversi-
fikation von Assets in Portfolien durch gegensteuernde Maßnahmen reduziert werden.
Harry Markowitz zeigte mit seinem Aufsatz 1952 zur ‚Portfolio Selection‘ auf, dass sich die
Summe der einzelnen Asset-Risiken in einem Portfolio zu einem zu erwartenden Gesamt-
risikos aufgrund der Korrelation der Einzelrisiken verändern (vgl. Fußnote 13). Diese
Risikozusammenhänge werden entweder mit dem deskriptiven Maß der Kovarianz, für
metrisch skalierte Daten mit dem Korrelationskoeffizienten nach Bravais-Pearson17 bzw. für
ordinalskalierte Daten mit dem Randkorrelationskoeffizient nach Spearman18 bewertet.
In diesem Kapitel steht weiterhin die Beobachtung der Kapitalrückflüsse nach erfolgter
Investition im Vordergrund. Es stellt sich einerseits die Frage, ob die Geschwindig-
keit der Kapitalrückflüsse (RoI-PACE) dem Wunsch nach jährlicher Kapitalverzinsung
der Kapitalgeber entspricht, dem sogenannten INVESTOR´S i; denn jeder Kapitalgeber
hat eine Vorstellung davon, wie stark besichert, wie lange und wie hoch verzinst Kapital
bereitgestellt bzw. investiert sein soll. Andererseits bestehen nicht nur direkte Risiken
hinsichtlich der Erzielung der jährlichen Kapitalverzinsung, sondern auch indirekte, sich
auf die Rendite auswirkende Risiken (wie ergänzend Chancen) für Kapitalgeber, aber auf
Ebene der Assets; die indirekten Einflüsse zeigen sich Assetklassen unterschiedlich und
stark. Daher ist eine Beobachtungsebenen übergreifende Kohärenz hedonischer Variabeln
– zu einem Algorithmus geformt – herzustellen, die die Einflussstärken dieser Variablen
(auf Ebene der Assets) auf die Performanceebene der Kapitalgeber quantitativ messen zu
können unterstützt, was mit Kapital 4 aufgezeigt wird.

3.2 FYT-Risiko 1. Art: der ‘Non FYT Indicator (NFI)’

Hypothese: die Entwicklung der von Kapitalgebern gewünschten RoI-PACE lässt auf die
Risikobereitschaft der Kapitalgeber schließen und verhält sich diametral zum Kapital-
bedarf der Assets.

17 Vgl. Böker, Fred (2009), Formelsammlung für Wirtschaftswissenschaftler, Mathematik und


Statistik, Pearson Deutschland GmbH, ISBN 978–3-8273–7160-7, S. 277 f.
18 Vgl. Böker, Fred (2009), Formelsammlung für Wirtschaftswissenschaftler, Mathematik und

Statistik, Pearson Deutschland GmbH, ISBN 978–3-8273–7160-7, S. 278 f.


216 J. P. Becker

Abb. 2 FYT-Enwicklung extrem freudigen bzw. -aversen Risikoverhaltens. (Eigene Darstellung)

Der FYT-Zins gemäß Gl. 5 entwickelt sich diskret. Eine zeitstetige bzw. kontinuier-
liche Rendite entwickelt sich funktional logarithmisch:19
1
FYTstetig = · (ln RoC − ln K0 ) (8)
n

In den folgenden Betrachtungen wird die Kapitalrentabilität gegen die Eulersche Zahl
ersetzt und um die Faktoren (a, b) wie folgt erweitert:

1
Euler − FYT (a, b, n) = a · eb· n − 1 (9)

Der Faktor (a) in der zeitstetigen Funktion nimmt die Position der Bestimmung der
Steigung der FYT-Funktion ein; der Faktor (b) ist für die Funktionsneigung der RoI-
PACE verantwortlich. Die Investitionszeit (n) kann weiterhin reelle Zahlen annehmen
und Kalenderjahr- oder Banktage genau beobachten (Abb. 2).
Lemma 1: Wenn extrem Risiko averse Kapitalgeber im Investitionszeitpunkt Kapital
einbringen und dies eine vollständige Kapitalbindung (gegen den Wert der Assets) zur
Folge hat, dann erwarten sie aufgrund der Aversion in der folgenden Periode das ein-
gesetzte Kapital vollständig aus erwirtschafteten Gewinnen der Assets zurück, verharren
auf dem Breakeven (der Null-Prozent-Linie), bis die Veräußerung der Assets im beispiel-
haften Zeitpunkt zehn zu (gewünschtem) Gewinnkapital führt. Assets sehen sich aber
kaum in der Lage, aus erwirtschafteten Gewinnen ohne Liquidation das Investitions-
kapital der Kapitalgeber vollständig auszukehren.

19 Vgl. May, Stefan (2019), Arithmetische und geometrische versus diskrete und stetige Rendite, in

„Arbeitsberichte – Working Papers“, Heft Nr. 47, Technische Hochschule Ingolstadt, S. 5 ff.
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 217

Lemma 2: Extrem Risiko freudige Kapitalgeber erwarten entgegen der Vorstellung


der Risiko aversen Kapitalgeber während der gesamten Investitionszeit keine Rückflüsse
(ähnlich bei thesaurierenden Anlageinstrumenten) und erwarten mit der Veräußerung
der Assets mehr Rückflüsse als Kapital eingesetzt, was zu einer Rentabilität größer eins
führen sollte. Assets werden daher in die vorteilhafte Lage versetzt, mit dem Investitions-
kapital langfristig arbeiten zu können.
Ergebnis: Beide Fälle erklären diametrales Verhalten der Risikobereitschaft der
Kapitalgeber versus Kapitalbedarf der Assets.
Das folgende anschauliche Beispiel in Abb. 3 spiegelt einen realistischen Fall:
Der Kapitalgeber legt eine Investitionssumme auf Zeit an und bindet damit sein
Kapital. Es werden frühestens ab der dritten Periode Rückflüsse aus Vorabgewinnen
und steuerlichen Ergebnissen erwartet. Dementsprechend entwickelt sich die FYT-
Kapitalgeber-Funktion (grau), hier nicht-linear regressiert. Das Portfolio aus z. B. unter-
schiedlichen Asset-Klassen (blau) dagegen bietet unabhängig von der Erwartung der
Kapitalgeber Rückflüsse, die sich deutlich sichtbar von der Erwartung anfänglich vorteil-
haft unterscheiden. Zwischen den beiden Funktionen entsteht eine messbare Fläche.
In Periode 8.5 tritt ein Schnittpunkt beider Funktionen auf, der exakt bestimmt
werden kann. Der Schnittpunkt erklärt, dass Kapitalgeber nun kumuliert höhere Rück-
flüsse erwarten als das Portfolio auskehren kann. Zudem bleibt die Funktion des
Portfolios in der letzten Periode noch unter dem Breakeven, während die RoI-PACE der
Investoren bereits die Gewinnphase ansteuert; auch hier ist in Abbildung 05 eine Fläche
umgekehrter Höhe nach dem Schnittpunkt feststellbar.
Die Kennzahl ‚Non FYT Indicator (NFI)‘ misst mit mathematisch uneigentlicher
Integration die Flächen vor als auch nach potenziellen Schnittpunkten. Im Ergebnis
fördert NFI Kapitalgebern die Transparenz, ob einzelne Assets oder Portfolien die

Abb. 3 Schnittpunkt Kapitalanlageangebot versus Kapitalinvestition (eigene Darstellung)


218 J. P. Becker

Kapitalrückflusserwartung der Investoren während der Haltephase erfüllen. Als optimal


zeichnet sich eine Fläche identisch null ab. Daher gilt mit Euler-FYT-Funktionen
(eFYT):
!
→0
NFI(n) = n·[eFYTASSET (n) − eFYTINVESTOR (n)] − (10)

3.3 FYT-Risiko 2. Art: der ‚Hedonische Unternehmen Rendite


Analyse Algorithmen (HURAA)‘

Das FYT-Risiko 1. Art konzentriert sich direkt auf die allgemeine Entwicklung der
seitens Assets/Portfolien angebotenen versus von Kapitalgebern gewünschten Rück-
flüsse. Solche Rückflüsse entstehen aus Vorabgewinnen und steuerlichen Ergebnissen in
der HOLD-Phase und ohne Liquidationseffekt der SELL-Phase, da ansonsten sofort das
Modell des FYT-Zinses Anwendung finden kann. Die Kennzahl NFI misst die Fläche
zwischen den beiden Funktionsverläufen über die Investitionszeit. Sie sollte bestenfalls
null betragen, damit sich Angebot und Erwartung identisch entwickeln.
Jedoch können auch auf Ebene der Assets Risiken bzw. nachteilige Einflüsse Aus-
wirkungen auf die Rendite der Kapitalgeber haben. Die Stärke dieser indirekten Ein-
flüsse je Asset-Klasse kann mit hedonischen Algorithmen Asset-Kapitalgeber-Ebenen
kohärent festgestellt werden. Die Hedonik setzt voraus, dass in Gl. 5 die Variablen der
Kapitalrückflüsse (RoC) sowie des Kapitaleinsatzes (K0), eventuell auch mit zu berück-
sichtigenden Erwerbsnebenkosten, durch einzelne Variablen beschrieben werden. Zu
den drei Investitionsphasen, Buy-Hold-Sell, ist ein entsprechender Algorithmus, also ein
schematischer Rechenvorgang, zu einem „Kapitalrückfluss-Wasserfall“ zu skizzieren.
Die Basis dieses Rechenvorgangs der indirekten Einflussmessung auf den FYT-
Zins der Kapitalgeber bezeichne ich als ‚Hedonischer Unternehmen Rendite Analyse
Algorithmus‘, kurz HURAA. Die Vorgehensweise gilt generisch für jede Asset-Klasse.
Der Algorithmus kann allerdings unterschiedlich aufgebaut und komplex sein.
HURAA bietet die gewünschte Robustheit zur Kohärenz der Ebenen Kapitalgeber
versus Asset bzw. Portfolio. Solche Algorithmen lassen sich wiederum auf höheren
Ebenen zur Asset-Ebene mit weiteren Ebenen-Variablen transformieren. Damit kann
die Stärke der Auswirkungen sämtlicher Einflüsse, die rechenbar sind und zu Teiler-
gebnissen führen, über alle Ebenen kohärent bis auf die Ebene zur Rendite der Kapital-
geber in einem „Wasserfall“ festgestellt werden.
Das folgende Beispiel (Tab. 1) verdeutlicht die sich abzeichnende Komplexität für
unterschiedliche Asset-Klassen. Nehmen wir folgende Variablen zur Aufstellung eines
nur einfachen Algorithmus zu Immobilien an:

Feststellung des Eigenkapitals auf Basis des Investitionsbedarfs (BUY-Phase)


Eigenkapital(EK) = (1 − X12)·[(X1 + X2·X3)·(1 + X8 + X10 + (X9 + X11)·(1 + 19%·(100% − X7))]

(11)
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 219

Tab. 1  Übersicht Algorithmus-Variablen Immobilie (eigene Darstellung)


Variable Bezeichnung Variable Bezeichnung
X1 Sachwert (Gutachter) X8 Grunderwerbsteuer
X2 Grundstücksgröße X9 Notarkosten
X3 Bodenrichtwert X10 Grundbuchgebühren
X4 Vermietbare Fläche X11 Maklerkosten
X5 Jahresmietzins Gewerbe X12 Fremdkapitalquote
X6 Jahresmietzins Wohnen X13 Fremdkapitalannuität
X7 Gewerbeanteil (VoSt.- Abzug) X14 Instandhaltungen

Fremdkapital (FK) = X12·[(X1 + X2·X3)·(1 + X8 + X10 + (X9 + X11)·(1 + 19%·(100% − X7))]

(12)

Feststellung des Cashflows, vereinfacht vor Steueraufkommen (HOLD-Phase)

Cashflow = 12 · X4 · (X7 · X5 + (1 − X7) · X6) − FK · X13 − X14


Mieterlös pro Jahr Annuit ät Instandhaltungen
(13)

Das Einsetzen von (12) in (13) bestimmt beispielhaft den Cashflow vor Ertragssteuern
für ein Jahr der Kapitalinvestition bzw. mit dem Faktor zehn für vereinfacht zehn Jahre.

Bestimmung des hedonisch aufgestellten FYT-Zinses für vereinfacht zehn Jahre


  101
1 Cashflow + Steuern + Liquidation
FYT (X1, . . . , X14) = RoI 10 −1= −1
Eigenkapital
(14)
Die Rentabilität (RoI) entwickelt sich proportional zum Verhältnis aus Summe der
Kapitalrückflüsse (RoC) zum Eigenkapital (EK). Die Kapitalrückflüsse setzen sich
aus den Cashflows vor Steuern für zum Beispiel zehn Jahre (wegen der steuerlichen
Spekulationsfrist zu privaten Veräußerungsgeschäften gemäß § 23 EStG20, was für natür-
liche Personen oder nicht gewerblich geprägte Personengesellschaft zu berücksichtigen
wäre), den entsprechenden steuerlichen Ergebnissen mal (Spitzen-) Steuersatz (Steuern)
und dem Liquidationsüberschuss nach Fremdkapitalbedienung (Liquidation) zusammen.
Steuerliche Ergebnisse, wie auch der Liquidationsüberschuss können negativ ausfallen,
was zur Folge hat, dass Kapitalgeber vorteilhaft einen steuerlichen Vorteil mit der
Steuererstattung bzw. Veräußerungsnachteil in Form des Liquidationsverlusts erzielten.

20 Vgl. Einkommensteuergesetz (EStG), abrufbar unter: https://www.gesetze-im-internet.de/estg/,

abgerufen am 19.12.2021.
220 J. P. Becker

Solche Ebenen kohärenten Algorithmen in noch detaillierterer Form werden im


Folgenden die Grundlage für quantitative Messungen der ESG-Einflussstärken auf die
„Rendite“ bilden, konkret auf die Kapitalverzinsung der Kapitalgeber.

4 Quantitative Messung von ESG-Einflussstärken

4.1 Einführung

Die Hedonik erleichtert die Ebenen kohärente Aufstellung von Algorithmen. Sie
erleichtert, Einflüsse und Stärken einzelner Variablen oder von Gruppenvariablen zu
messen, die beispielsweise die Mittelverwendung oder die Finanzierung auf Ebene der
Asset beschreiben. Die Bezugsgröße der Messung der Einflussstärken soll die Kapital-
verzinsung der Investoren sein, um nicht nur die Auswirkung im Rahmen einer Sensitivi-
tätsanalyse festzustellen.
Der Algorithmus gemäß Gl. 14 wirkt vollständig ausformuliert komplex; das liegt an
dem Grundmodell FYT mit Anwendung der expliziten Kapitalwertmethode.

4.2 Die Punktelastizität

Die Elastizität erklärt inhaltlich die Auswirkung der relativen Veränderungen abhängiger
Variablen auf eine Zielgröße.21 Abhängige Variablen können die in Kap. 3.3 auf Seite 15
genannten einzelnen Variablen, aber auch unterschiedliche Sachverhalte beschreibende
Variablengruppen sein.
Nehmen wir an, dass ein Immobilienkaufpreis (KP) und die Kapitalverzinsung (FYT)
gegeben sind. Zu der Elastizität stellt sich nun die Frage, wie stark sich die Veränderung
von KP auf FYT auswirkt. Die Veränderung des Kaufpreises von KP auf KP + ΔKP führt
zu der möglichen Veränderung der Kapitalverzinsung mit:
ΔFYT = FYT (KP + ΔKP) – FYT (KP). Die relative Änderung zeigt sich wie folgt:
�FYT
FYT
= FYT (KP+�KP)−FYT
FYT (KP)
(KP)
. Die durchschnittliche (Bogen-) Elastizität von FYT im
KP FYT (KP+�KP)
Intervall [KP, KP + ΔKP] ist FYT / KP = FYT
�FYT �KP KP �FYT
· �KP = FYT · �KP
.
Die prozentuale Änderung der Kapitalverzinsung bei einer 1 %-igen Änderung des
Kaufpreises führt im Grenzwert für ΔKP → 0 zur Punktelastizität (EL):
KP ∂FYT
ELKP FYT = · (15)
FYT ∂KP

21 Vgl. Peters, Horst (2012), Wirtschaftsmathematik, 4. Auflage, W. Kohlhammer GmbH, Stuttgart,

ISBN 978–3-17–022.195-6, S. 162 ff.


Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 221

Der FYT-Algorithmus muss in den Veränderungen der zu beobachtenden Einzel-/


Gruppenvariablen differenzierbar und FYT ≠ 0 sein. Als mathematisch nachteilig zeigt
sich die partielle Funktionsableitung bei mehrdimensionaler Analysis mit der Neben-
bedingung ceteris paribus.
Die Punktelastizität gibt näherungsweise an, um wie viel Prozent sich die Kapitalver-
zinsung (FYT) anpasst, wenn sich der Kaufpreis (KP) um 1 % ändert.22

4.3 Quantitative Messung der Einflussstärken von ESG-


Maßnahmen

Maßnahmen in den Bereichen, Umwelt, Soziales, Unternehmensführung (ESG Environ-


ment, Social, Governance) können verschieden anfallen: bei Immobilien beispielsweise
kann die Umsetzung solcher Maßnahmen einerseits für einen höheren Investitions-
aufwand, andererseits bei der Suche nach ESG berücksichtigenden Immobilien oder
Mietern für personalintensiveres und zeitlich längeres Research sorgen, was sich
amortisieren sollte. Dagegen stehen möglicherweise die monetären Vorteile der Betriebs-
kosteneinsparungen im Bereich der Umwelt, oder ein zügigerer Vertrieb aufgrund der
erhöhten Nachfrage nach ESG fokussierenden Immobilien. Die Auflistung der öko-
logischen und ökonomischen Vor- und Nachteile sind hiermit nicht abschließend.
Erkennbar ist jedoch, dass sich einzelne oder Gruppenvariablen in dem entwickelten
Algorithmus zu Xi + ΔXi anpassen, wenngleich ΔXi negativ ausfallen kann. Im
Folgenden gilt es, mit dem Messinstrument der Punkelastizität die Einflussstärke der
Anpassungen auf die Kapitalverzinsung der Investoren quantitativ festzustellen.
Dazu sind die folgenden generischen Schritte notwendig:

Schritt 1
Aufstellung eines Kapitalgeber-Asset-Ebenen übergreifenden kohärenten hedonischen
Algorithmus, wie in Abschn. 3.3 aufseiten 14 ff. erläutert. Der Algorithmus sollte
optimalerweise ganzzeitlich alle drei Phasen, Buy-Hold-Sell, umfassen.

Schritt 2
Nun sind die einzelnen oder gruppierten, d. h. multikriteriellen sequentiell oder parallel
eintretenden ESG-Maßnahmen in dem Algorithmus zu berücksichtigen.

22 Vgl. Böker, Fred (2009), Formelsammlung für Wirtschaftswissenschaftler, Mathematik und

Statistik, Pearson Deutschland GmbH, ISBN 978–3-8273–7160-7, S. 94.


222 J. P. Becker

Schritt 3
Bestimmung der Punktelastizität zu den einzelnen oder Sachverhalte beschreibenden
Variablen unter Beachtung der Gl 15. Dazu ist der FYT-Algorithmus partiell abzuleiten,
was wir im Folgenden anhand eines erhöhten Kaufpreises konkretisieren werden.
Der Immobilienkaufpreis soll einvernehmlich zwischen zwei Parteien als fairer Wert
festgestellt sein: er entspricht summarisch dem Sachwert (X1) und Grundstückswert,
Letzteres aus dem Produkt Grundstücksgröße (X2) und Bodenrichtwert (X3):
KP := X1 + X2·X3 (16)

Der differenzierbare Algorithmus gemäß Gl. 14 ist nach der Variable, Kaufpreis (KP),
partiell abzuleiten.
Die Punktelastizität mit der Messung der Kaufpreisanpassung durch ESG-
Maßnahmen auf die „Rendite“ der Kapitalgeber wäre mit Gl. 15 beispielhaft bestimm-
bar: ELKP FYT = FYT · ∂KP .
KP ∂FYT

5 Zusammenfassung

Die Verordnung des europäischen Parlaments und des Rates vom 27. November 2019
über nachhaltigkeitsbezogene Offenlegungspflichten im Finanzdienstleistungssektor,
kurz Offenlegungsverordnung, möchte Anlegern die Möglichkeit geben einschätzen zu
können, wie nachhaltig ein Produkt ist und welchen Einfluss Nachhaltigkeitsrisiken auf
die Rendite haben könnten. Sie wird voraussichtlich ab dem 01.07.2022 in Kraft treten.
Maßnahmen zu den Nachhaltigkeitskriterien, Umwelt, Soziales und Unternehmens-
führung, können sich vorteilhaft oder nachteilig auswirken: vorteilhaft beispiels-
weise mit der Einsparung von knappen Ressourcen, nachteilig zum Beispiel aufgrund
erhöhter Immobilienkaufpreise. Vermieter-Mieter-Ebenen übergreifend können sich auch
geringere Jahresmieten einstellen, wenn der Mieter selbst ESG-Maßnahmen durchführt,
die personal- oder allgemein kostenintensiv sind, oder umgekehrt vorteilhaft geringere
Immobilienbetriebskosten anfallen.
Nachhaltigkeitsrisiken wurden und werden in der Praxis wahrscheinlich überwiegend
mit der absoluten Ergebnisänderung auf eine Zielgröße gemessen (Ergebnisdifferenz
ohne und mit Maßnahmen). Die in diesem Kapitel vorgestellte Punkelastizität bietet die
Vision der quantitativen Messung der relativen Einflussstärke einzelner oder selektiver
Sachverhalte beschreibenden Gruppenvariablen auf hier die Zielgröße der von der
Investitionszeit abhängigen Kapitalverzinsung der Investoren. Mit dem Verfahren kann
bestimmt werden, ob beispielsweise eine Kaufpreiserhöhung stärker ins Gewicht des
Risikos für Kapitalgeber fällt als die Reduzierung von Mieten oder Betriebskosten.
Dieses Verfahren ist nicht abschließend auf Immobilien anwendbar, sondern mit der-
gleichen Technik auf Wertpapiere, Unternehmensbewertungen, die betriebliche Alters-
vorsorge, in der Versicherungswirtschaft oder vielleicht zukünftig auf die Aktien basierte
Rente einsetzbar. Ebenen kohärente, hedonisch erzeugte Algorithmen unterstützen
generisch die Messung der relativen Einflussstärke von ESG-Maßnahmen.
Quantitative Messung der Einflussstärke von ESG-Maßnahmen … 223

Literatur

Bacon, Francis, Sir, englischer Philosoph (1597), Meditationes sacrae: „Nam et ipsa scientia
potestas est“, in Journal: The Works of Francis Bacon 1864(14):149
Bea, Schweitzer (2009) Allgemeine Betriebswirtschaftslehre, Bd. 1 Grundsatzfragen, 10. Aufl. 10th
rev. and ed. 2009. paperback. XVIII, 507 p. Paperback ISBN 978 3 8252 1081 6.Cf. https://
docplayer.org/122732274-Allgemeine-betriebswirtschaftslehre.html. Lucius & Lucius Verlag
Becker JP (2020), Nach 60 Jahren Baldwin-Zins: Das Modifizierte Modell ‚Future Yield After
Taxes‘, auf SSRN abrufbar
Böker F (2009), Formelsammlung für Wirtschaftswissenschaftler, Mathematik und Statistik,
Pearson Deutschland GmbH, ISBN 978–3–8273–7160–7, auf SSRN abrufbar
Ebert G, Monie F, Steinhübel V (2012) Controlling in der Wohnungswirtschaft‘. In: Mändle E,
Mändle M (2012) Haufe Praxisratgeber 6518, 2. Aufl. ISBN 978 3 648 02528 4, auf SSRN
abrufbar
Markowitz H (1952) Portfolio selection. The Journal of Finance 7(1)
May S (2019) Arithmetische und geometrische versus diskrete und stetige Rendite, in „Arbeits-
berichte – Working Papers“, Heft Nr. 47, Technische Hochschule Ingolstadt, auf SSRN abrufbar
PBP Informationen Zur Politischen Bildung (2020) Digitalisierung, Heft 344, auf SSRN abrufbar
Peters H (2012) Wirtschaftsmathematik, 4. Aufl. W. Kohlhammer GmbH, Stuttgart, ISBN 978-3-
17-022195-6
Präsentation zum Vortrag der BaFin „Überblick über die Verordnung (EU) 2018/2088“
Sharpe WF (1964) Capital asset prices: a theory of market equilibrium under conditions of risk.
The Journal of Finance 19(3):425–442
Verordnung (EU) 2019/2088 des Europäischen Parlaments und des Rates vom 27. November 2019
über nachhaltigkeitsbezogene Offenlegungspflichten im Finanzdienstleistungssektor
Verordnung (EU) 2020/852 des Europäischen Parlaments und des Rates vom 18. Juni 2020 über
die Einrichtung eines Rahmens zur Erleichterung nachhaltiger Investitionen und zur Änderung
der Verordnung (EU) 2019/2088
Wittpahl V (2016) Digitalisierung, iit-Themenbank, Springer, ISBN 978–3–662–52853–2. https://
docplayer.org/122732274-Allgemeine-betriebswirtschaftslehre.html

Jan Paul Becker ist diplomierter Volkswirt der Rheinische Fried-


rich-Wilhelms-Universität Bonn. Bereits während und nach seinem
Studium übte er zehn Jahre lang die Tätigkeiten als Geschäftsbe-
sorger, Immobilienfondsmanager und -controller geschlossener
Immobilienfonds aus. Vor über zehn Jahren digitalisierte er erfolg-
reich analoge Daten und Informationen geschlossener Immobilien-
fonds, aus denen u. a. Portfolioanalysen für Investoren resultierten.
2011 verließ er als Freiberufler und zugleich geschäftsführender
Gesellschafter das Unternehmen, um sich der Forschungsfrage
zu widmen: ‚Wie kann normiert und empirisch validiert Rendite,
Risiko und Korrelation in heterogen aufgestellten Portfolien für
Kapitalgeber gemessen werden?‘. Als Lehrbeauftragter an zwei
Hochschulen, Autor von Büchern und Fachartikeln entwickelte Jan
Paul Becker seit dem Jahr 2015 wissenschaftlich das in der Praxis
224 J. P. Becker

anwendbare und Transparenz fördernde Modell ‚Future Yield


before/after Taxes (FYT)‘. Das Modell kann sowohl die Sicht der
investierenden natürlichen Person, aber auch die des Portfolio-
managers, Produktinitiators, Bank oder Fiskus einnehmen; es misst
vergangenheitsorientiert, aber auch visionär auf Grundlage über-
lassener Daten. Geplant ist die Gründung eines privatrechtlichen
Instituts mit wissenschaftlichem Beirat in der Dom-Stadt Köln.
Case-based Reasoning als White-Box
AI: „intelligentes“ Projektmanagement
durch die computergestützte
Wiederverwendung von
Erfahrungswissen in der betrieblichen
Praxis — Teil 2: Das KI-Tool jCORA
für ontologiegestütztes Case-based
Reasoning im Projektmanagement
Zelewski Stephan, Heeb Tatjana und Schagen Jan Peter

1 Ein KI-Tool für ontologiegestütztes Case-based-Reasoning


zur Wiederverwendung von Erfahrungswissen im
Projektmanagement

1.1 Überblick über das KI-Tool jCORA

Das KI-Tool jCORA (Fink et al. 2021b; Bergenrodt et al. 2015a, b) – das Akronym jCORA
steht für „java based Case- and Ontology-based Reasoning Application“ – stellt eine proto-
typische Software für ein ontologiegestütztes CBR-System dar. Es wurde am Institut für
Produktion und Industrielles Produktionsmanagement der Universität Duisburg-Essen
für die „intelligente“ Wiederverwendung von Erfahrungswissen im betrieblichen Projekt-
management im Rahmen des BMBF-Verbundprojekts OrGoLo entwickelt und im Rahmen

Z. Stephan (*) · H. Tatjana · S. Jan Peter


Institut für Produktion und Industrielles Informationsmanagement,
Universität Duisburg-Essen, Duisburg, Deutschland
E-Mail: [email protected]
H. Tatjana
E-Mail: [email protected]
S. Jan Peter
E-Mail: [email protected]

© Der/die Autor(en), exklusiv lizenziert an Springer-Verlag GmbH, DE, ein Teil von 225
Springer Nature 2022
M. Bodemann et al. (Hrsg.), Digitalisierung und Nachhaltigkeit – Transformation
von Geschäftsmodellen und Unternehmenspraxis, Organisationskompetenz
Zukunftsfähigkeit, https://doi.org/10.1007/978-3-662-65509-2_13
226 Z. Stephan et al.

des BMBF-Verbundprojekts KI-LiveS weiterentwickelt. [Dieser Beitrag stellt eine Kurz-


fassung von Zelewski et al. (2022) (Kap. 4 bis 6) dar, in dem sich weitere Details und vor
allem umfassende Literaturbelege finden.]
Das KI-Tool jCORA greift die projektbezogene Wissensstrukturierung auf, die
zwischen Projektbeschreibung, Projektlösung und Projektbewertung unterscheidet. In
der Projektbeschreibung werden alle Informationen über ein Projekt angelegt, die als
Anforderungen an ein Projekt, wie z. B. im Rahmen einer Projektausschreibung, bekannt
sind. In der Projektlösung werden die Aktivitäten beschrieben, die für das betroffene
Projekt geplant oder durchgeführt wurden. In der Projektbewertung wird am Projektende
die Güte der Projektbearbeitung bewertet. Insbesondere werden die Ergebnisse einer
Analyse kritischer Erfolgs- und Misserfolgsfaktoren festgehalten.
Außerdem orientiert sich die Funktionsweise des KI-Tools jCORA an dem weithin
bekannten CBR-Zyklus. Darüber hinaus greift jCORA stets auf eine Projekt-Ontologie
zurück, die mithilfe eines Ontologie-Editors, wie z. B. Protégé, erstellt wurde. Daher
wird das KI-Tool hier und in anderen Beiträgen bewusst als ein ontologiegestütztes
CBR-System bezeichnet. Als Standard-Austauschformat zwischen Ontologie-Editor
und CBR-System jCORA werden Ontologien im OWL-Format (OWL als „kreatives“
Akronym für „Web Ontology Language“) vorausgesetzt.
Die Abgrenzung zwischen einem Ontologie-Editor (wie z. B. Protégé) und einem
CBR-System (wie hier jCORA) erweist sich als keineswegs trivial, obwohl dieses
Demarkationsproblem in der einschlägigen Fachliteratur kaum diskutiert wird.
Auf den ersten Blick lässt sich eine klare Grenze zwischen einer Ontologie, wie z. B.
einer Projekt-Ontologie, und einem CBR-System, wie z. B. jCORA im Bereich des
betrieblichen Projektmanagements, ziehen. Aus diesem „groben“ Blickwinkel gehört
eine Ontologie zur Konzept- oder Metaebene, auf der nur sprachliche Ausdrucksmittel
(für z. B. die Modellierung von Projekten) mit der Hilfe von Konzepten, ihren Attributen
sowie den Relationen zwischen den Konzepten (sowohl die taxonomische Relation „is
a“ als auch die Vielfalt nicht-taxonomischer Relationen) spezifiziert werden. Für diese
Konzepte, Attribute und Relationen werden keine konkreten, auf ein einzelnes Projekt
bezogenen Werte spezifiziert. Daher stellt eine Ontologie niemals ein repräsentatives
Modell für einen konkreten Realitätsausschnitt, wie z. B. ein reales Projekt, dar, sondern
bezieht sich auf der Konzept- oder Metaebene immer nur auf die sprachlichen Aus-
drucksmittel (begrifflichen Konzepte), die sich auf einer untergeordneten Instanzen- oder
Objektebene benutzen lassen, um auf dieser untergeordneten Ebene konkrete Realitäts-
ausschnitte, wie z. B. ein reales Projekt, zu modellieren. Ein CBR-System gehört dieser
„untergeordneten“ Ebene an. Es dient dazu, durch die Zuweisung konkreter Werte zu
den Konzepten, Attributen und Relationen einer „übergeordneten“ Ontologie z. B. ein
reales Projekt zu modellieren. Diese Wertzuweisung wird als „Instanziierung“ einer
Ontologie bezeichnet. Mittels dieser Instanziierung werden Konzepten jeweils einzelne
Objekte oder Individuen, Attributen jeweils einzelne Attributwerte bzw. Relationen
jeweils einzelne Relationselemente zugeordnet, die sich jeweils auf ein einzelnes,
konkretes Projekt beziehen. Aus dieser Perspektive lässt sich die Erfassung des Wissens,
das in einem Unternehmen über ein einzelnes, konkretes Projekt vorliegt oder erhoben
Case-based Reasoning als White-Box AI: „intelligentes“ … 227

wird, auf der Instanzen- oder Objektebene mithilfe des CBR-Systems jCORA als die
Instanziierung einer Projekt-Ontologie auffassen, die zuvor auf der Konzept- oder
Metaebene mithilfe eines Ontologie-Editors wie Protégé erstellt wurde. Ein ontologie-
gestütztes CBR-System wie jCORA bewegt sich also – im Gegensatz zu den zugrunde
liegenden Ontologien – immer auf der Instanzenebene. Dies stellt für den praktischen
Einsatz von jCORA einen wichtigen Hintergrund dar, der bei einem „unreflektierten“
Gebrauch dieses KI-Tools leicht übersehen werden könnte.
Bei näherem Hinsehen zeigt sich jedoch, dass die Unterscheidung zwischen Konzept-
oder Metaebene, auf der Ontologien angesiedelt sind, und der Instanzen- oder Objekt-
ebene, auf der CBR-Systeme operieren, doch nicht so klar ist, wie im voranstehenden
Absatz „prima facie“ nahegelegt wurde. Diese „Ebenenvermengung“ tritt dadurch ein,
dass sich auch in Ontologien Instanzen – vor allem in der Gestalt von konzeptzugehörigen
Individuen und von Attributwerten – spezifizieren lassen. Diese Option bietet u. a. auch
der Ontologie-Editor Protégé. Um diese „Ebenenvermengung“ zu bereinigen, bietet sich
folgende Demarkation an: In Ontologien können Instanzen (vor allem Individuen für
Konzepte und Werte für Attribute) spezifiziert werden, solange sie sich nicht ausschließlich
auf einen einzelnen, konkreten Realitätsausschnitt auf der Objektebene beziehen, sondern
„nur“ auf der Metaebene die sprachlichen – jetzt instanzenbezogenen – Ausdrucksmittel
bereitstellen, mit denen sich Instanzen aus beliebigen Realitätsausschnitten bezeichnen
lassen. Beispielsweise können in einer Projekt-Ontologie auf der Metaebene für sämt-
liche Erdteile, Nationen und Regionen die Mengen konkreter Instanzen als grundsätzlich
zulässige sprachliche Ausdrucksmittel angelegt werden, ohne festzulegen, welche dieser
sprachlichen Ausdrucksmittel für ein einzelnes, konkretes Projekt tatsächlich verwendet
werden. Aus dieser „verfeinerten“ Perspektive können in einer Ontologie auf der Konzept-
oder Metaebene zwar Mengen zulässiger Instanzen spezifiziert werden, aber die Auswahl
einzelner Instanzen daraus erfolgt erst auf der Instanzen- oder Objektebene im Rahmen
eines CBR-Systems, mit dessen Hilfe das Wissen über einzelne, konkrete Objekte erfasst,
verarbeitet und gegebenenfalls wiederverwendet (also insgesamt „gemanagt“) wird.
Im Hinblick auf den CBR-Zyklus liegt ein besonderer Fokus des KI-Tools jCORA
auf der Retrieve-Phase, in der mittels eines Berechnungsalgorithmus (Bergenrodt et al.
2015a) die Ähnlichkeiten zwischen alten und neuen Projekten ermittelt werden können.
Der Berechnungsalgorithmus erweist sich als komplexer als die meisten analogen ähn-
lichkeitsbezogenen Algorithmen in anderen CBR-Systemen. Dies liegt vor allem
daran, dass in jCORA eine „rekursive“ Ähnlichkeitsberechnung erfolgt (Bergenrodt
et al. 2015b) und Einschränkungen auf jeweils zwei miteinander zu vergleichende
Projektmerkmale in der Gestalt von Limitationen hinsichtlich der Kardinalitäten von
Relationen und Attributen wie im CBR-System „myCBR“ vermieden werden. Auf die
Details dieses Berechnungsalgorithmus für projektbezogene Ähnlichkeiten kann in der
hier gebotenen Kürze nicht näher eingegangen werden. Stattdessen wird auf ausführ-
liche Beschreibungen der Funktionsweise dieses Berechnungsalgorithmus einschließlich
zugrunde liegender Berechnungsformeln und Berechnungsbeispiele verwiesen, die an
anderer Stelle dokumentiert sind (Bergenrodt et al. 2015b).
228 Z. Stephan et al.

Nachdem eine Ähnlichkeitsberechnung in Bezug auf zwei Projekte als „CBR-Anfrage“


gestartet wurde, können Gewichtungen für die ähnlichkeitsrelevanten Projektmerkmale
eingestellt werden. Für jede Relation und jedes Attribut, das in einer Projektbeschreibung
enthalten ist, lässt sich eine Gewichtung im Intervall von 0 % bis 100 % festlegen.
Dadurch ist es möglich, in flexibler Weise für jede einzelne Ähnlichkeitsberechnung fest-
zulegen, wie wichtig einem Benutzer des CBR-Systems die Projektmerkmale zweier mit-
einander verglichener Projekte im Hinblick auf ihre Projektähnlichkeit sind.
Die Reuse- und die Revise-Phase werden vom KI-Tool jCORA derzeit noch kaum
unterstützt. Für die Reuse-Phase wird – bis auf eine wenig hilfreiche Kopierfunktion,
welche die Lösung für ein altes ähnlichstes Projekt als Lösungsvorschlag für ein neues
Projekt unverändert übernimmt – noch kein systematisches Anpassungswissen, vor allem
in der Gestalt von Anpassungsregeln (Zima 2015; Richter et al. 2013; Kim et al. 2012;
Kowalski et al. 2011; Zelewski et al. 2011), computergestützt angeboten. Stattdessen
müssen die Anpassungen der Projektlösungen alter Projekte an ein neues Projekt derzeit
noch „manuell“ erfolgen. Für die Revise-Phase bietet jCORA überhaupt keine Unter-
stützung. Lediglich die Retain-Phase wird von jCORA „vollautomatisch“ und ohne Ein-
schränkungen durchgeführt.

1.2 Beschreibung des KI-Tools jCORA aus der


Benutzerperspektive

1.2.1 Spezifizierung einer Projektbeschreibung


Im Folgenden wird die Funktionsweise des KI-Tools jCORA anhand einiger Screen-
shots in exemplarischer Weise verdeutlicht (siehe auch Fink et al. 2021b; Weber et al.
2021b; Bergenrodt et al. 2015a, b). Insbesondere wird auf die Darstellung des Wissens
über Projekte mithilfe von „Fallgraphen“ zurückgegriffen. Sie gestatten in jCORA eine
– in Grenzen (darauf wird noch zurückgekommen) – benutzerfreundliche Visualisierung
des projektrelevanten, vom CBR-System gespeicherten und verarbeitbaren Wissens über
Projekte, vor allem des projektbezogenen Erfahrungswissens.
Im Rahmen der „Retrieve-Phase“ erlaubt das KI-Tool jCORA, für ein neues Projekt
anhand dessen Projektbeschreibung sowohl ein ähnlichstes altes Projekt als auch mehrere
ähnlichste alte Projekte zu ermitteln. Dazu muss zunächst eine Projektbeschreibung für
das jeweils betrachtete neue Projekt in jCORA angelegt werden. Abb. 1 zeigt den Beginn
der Erstellung einer Projektbeschreibung für ein neues Projekt in jCORA.
Um Instanzen eines Konzepts vom betroffenen Konzept terminologisch zu unter-
scheiden, wird in den hier präsentierten Anwendungen des KI-Tools jCORA im KI-
LiveS-Projekt zunächst zwischen Fällen (wie z. B. der o. a. Fallbeschreibung) auf der
Instanzenebene jeweils in der oberen Zeile der Knotenbeschriftungen und Projekten
(wie z. B. der o. a. Projektbeschreibung) auf der Konzeptebene jeweils in der unteren
Zeile der Knotenbeschriftungen unterschieden. Diese Unterscheidung zwischen Fällen
und Projekten erweist sich jedoch als intuitiv kaum zugänglich. Daher soll in folgenden
Case-based Reasoning als White-Box AI: „intelligentes“ … 229

Abb. 1 Start der Projektbeschreibung in jCORA


230 Z. Stephan et al.

Anwendungen des KI-Tools jCORA nur noch von Projekten – sowohl auf der Instanzen-
als auch auf der Konzeptebene – die Rede sein und durch andere Bezeichnungszusätze
zwischen Instanzen- und Konzeptebene unterschieden werden. Beispielsweise kann auf
der Instanzenebene von einer „Projektbeschreibung_Projekt_4711“ für ein konkretes
Projekt mit der Bezeichnung „Projekt_4711“ gesprochen werden, während auf der
Konzeptebene weiterhin die generische Bezeichnung „Projektbeschreibung“ (für alle im
CBR-System berücksichtigten Projekte) verwendet wird.
Darüber hinaus bietet das KI-Tool jCORA die Möglichkeit, zwischen globalen
und lokalen Instanzen zu unterscheiden. Sie beziehen sich jeweils auf alle Projekte
(„global“), die mittels jCORA aus der Wissensperspektive „gemanagt“ werden und in
der Wissensbasis von jCORA gespeichert sind oder gespeichert werden können, bzw. auf
nur ein einzelnes Projekt („lokal“). Diese Unterscheidung kann sich auf die Funktions-
weise des Berechnungsalgorithmus für die Ähnlichkeit zwischen Projekten auswirken,
lässt sich aber in der hier gebotenen Kürze nicht im Detail erläutern.
Ausgehend von der Instanz „Fallbeschreibung“ kann per Rechtsklick eine neue nicht-
taxonomische Relation zur Erweiterung des Fallgraphs hinzugefügt werden. Es öffnet
sich das Fenster „Relation hinzufügen“, das in Abb. 2 dargestellt ist.
Wie aus Abb. 2 ersichtlich, wird dem Benutzer eine Vielzahl von nicht-taxonomischen
Relationen angezeigt. Grundsätzlich werden dem Benutzer alle nicht-taxonomischen
Relationen angezeigt, die in der zugrundeliegenden Projekt-Ontologie dasjenige Konzept
oder ein dem angezeigten Konzept übergeordnetes Konzept – im vorliegenden Bei-
spiel das Konzept „Projektbeschreibung“ – im Vorbereich („Domain“) haben, dem
die in jCORA jeweils ausgewählte Instanz – hier die Instanz „Fall-beschreibung“ –
zugeordnet ist. Mittels der jeweils ausgewählten Relation kann die bereits ausgewählte
Instanz mit einer Instanz verknüpft werden, die zu einem anderen Konzept gehört, das
in der zugrundeliegenden Projekt-Ontologie im Nachbereich („Range“) der jeweils
betroffenen nicht-taxonomischen Relation vorkommt. Eine solche Instanz kann entweder
als sogenannte lokale Instanz in jCORA selbst oder als globale Instanz in der zugrunde-
liegenden Projekt-Ontologie spezifiziert werden. Bestehende Instanzen – d. h. entweder
globale Instanzen aus der zugrunde liegenden Projekt-Ontologie oder lokale Instanzen,
die im jeweils betrachteten Projekt („Fall“) bereits angelegt wurden – werden in der
Abb. 2 im Fenster auf der rechten Seite angezeigt. Solche Instanzen bestehen im hier
betrachteten Beispiel jedoch noch nicht und müssen daher neu angelegt werden. Um eine
neue Instanz zu erstellen, wird zunächst der Button „Neue Instanz …“ angeklickt. Es
öffnet sich das nachfolgend in Abb. 3 dargestellte Fenster.
Wie in Abb. 3 exemplarisch dargestellt wird, erfolgt das Erstellen einer neuen Instanz,
indem für die Instanz ein Name vergeben und die Instanz einem in der zugrunde-
liegenden Ontologie modellierten Konzept zugeordnet wird. Anschließend kann der
Button „Erstellen“ gedrückt werden und die Instanz hinzugefügt werden. Ist die Instanz
erfolgreich hinzugefügt worden, erweitert sich der Fallgraph in jCORA um die hinzu-
gefügte Relation, verknüpft mit der hinzugefügten Instanz. Abbildung 4 verdeutlicht die
exemplarische Erweiterung des Fallgraphs.
Case-based Reasoning als White-Box AI: „intelligentes“ … 231

Abb. 2 Relation hinzufügen in jCORA


232

Abb. 3 neue Instanz erstellen


Z. Stephan et al.
Case-based Reasoning als White-Box AI: „intelligentes“ … 233

Neben nicht-taxonomischen Relationen können in jCORA auch Attribute ver-


wendet werden, um Instanzen aus dem Nachbereich einer nicht-taxonomischen Relation
konkrete Attributwerte zuzuordnen. Dazu ist – wie in der Abb. 4 durch die orange
Umrandung gekennzeichnet – eine Instanz anzuklicken. Danach muss in dem sich am
rechten Rand öffnenden Menü „Attribute“ das Plus-Symbol „+“ angeklickt werden.
Dadurch öffnet sich das nachfolgende, in Abb. 5 dargestellte Fenster.
Wie aus Abb. 5 ersichtlich, ist zunächst das gewünschte Attribut – im vorliegenden
Beispiel „betrifftEuro“ – aus der Menge der Attribute auszuwählen, die für Instanzen
des Konzepts „Gesamtkosten“ aus dem Nachbereich („Range“) der hier betrachteten
Relation „hatProjektvolumenKostenPlan“ zur Verfügung stehen. Dem Benutzer werden
alle Attribute angezeigt, die in der zugrunde liegenden Ontologie für das Konzept
„Gesamtkosten“ definiert sind. jCORA ordnet dem ausgewählten Attribut automatisch
denjenigen Datentyp zu, der in der zugrunde liegenden Ontologie des jeweils betroffenen
Attributs festgelegt wurde. Schließlich gilt es, einen Attributwert – im vorliegenden Bei-
spiel „1.000.000“ [EUR] – anzugeben. Je nach Datentyp kann dies ein numerischer Wert,
eine Zeichenkette oder auch ein boolescher Wert sein. Die nachfolgende Abb. 6 verdeut-
licht die Zuordnung des Attributwerts.
Sind alle erforderlichen Angaben getätigt, gilt es, den Button „Übernehmen“ (siehe
Abb. 5) zu drücken. Anschließend ist der erstelle Attributwert in jCORA der aus-
gewählten Instanz zugeordnet.
Auf die dargestellte Weise kann der Fallgraph in jCORA so lange um nicht-
taxonomische Relationen, Instanzen und zugehörige Attributwerte erweitert werden,
bis aus Sicht des Benutzers alle relevanten Wissenskomponenten, die zur Beschreibung
eines Projekts als notwendig erachtet werden und zur Verfügung stehen, angelegt
wurden.

1.2.2 Ermittlung ähnlichster Projekte


Wenn die Projektbeschreibung (hier mit der Instanz „Fallbeschreibung“) als vollständig
erachtet wird, bietet sich dem Benutzer die Möglichkeit, als Vorbereitung für die Ähn-
lichkeitsberechnung einzelne nicht-taxonomische Relationen und Attribute gemäß seinen
eigenen Präferenzen anhand von Prozentwerten zu gewichten. Zudem können benutzer-
spezifische Gewichtsprofile gespeichert und später aufgerufen werden. Abb. 7 zeigt einen
Ausschnitt aus einer exemplarischen Gewichtung von nicht-taxonomischen Relationen
und Attributen in jCORA.
Wenn die angegebenen Gewichte den Präferenzen des Benutzers entsprechen, kann
der Benutzer die Ähnlichkeitsberechnung starten. Dazu ist der Button „Anfrage starten
…“ zu drücken, der in der Abb. 7 in der linken oberen Ecke (blau) umrandet zu sehen
ist. Die Dauer des Rechenprozesses für die Ähnlichkeitsberechnung hängt einerseits von
der Anzahl der in der Projektwissensbasis gespeicherten Projekte mit ihren Projektbe-
schreibungen und andererseits vom Umfang der zu vergleichenden Projekte ab.
Nach Beendigung der Ähnlichkeitsberechnung werden dem Benutzer die
Berechnungsergebnisse präsentiert. jCORA bietet sowohl eine grafische als auch eine
234

Abb. 4 Erweiterung des Fallgraphens in jCORA


Z. Stephan et al.
Case-based Reasoning als White-Box AI: „intelligentes“ … 235

Abb. 5 Attribut hinzufügen in jCORA


236

Abb. 6 Erweiterung des Fallgraphs um ein Attribut


Z. Stephan et al.
Case-based Reasoning als White-Box AI: „intelligentes“ … 237

Abb. 7 Einstellen von Gewichten in jCORA


238 Z. Stephan et al.

tabellarische Ergebnispräsentation. Abb. 8 zeigt zunächst die grafische Ergebnis-


präsentation.
Wie aus Abb. 8 ersichtlich, erfolgt die grafische Ergebnispräsentation in jCORA
mittels eines zweidimensionalen Koordinatensystems, in dem auf der senkrechten Achse
die Ähnlichkeitswerte auf einer Skala von 0 bis 1 (entsprechend 0 bis 100 %) und auf
der horizontalen Achse die in der Projektwissensbasis gespeicherten alten, bereits
bearbeiteten Projekte aufgetragen sind. Diese grafische Ergebnispräsentation erweist
sich jedoch als noch „ausbaufähig“, weil sie auf den ersten Blick intuitiv nur schwer ver-
ständlich ist.
Wesentlich aussagekräftiger ist die tabellarische Ergebnispräsentation. Der Benutzer
kann sie aufrufen, indem er auf den Button „Ergebnisse Anzeigen …“ klickt, der sich in
der Abb. 8 am unteren rechten Bildrand befindet. Die resultierende tabellarische Ergeb-
nispräsentation wird in Abb. 9 dargestellt.
Wie aus Abb. 9 ersichtlich, werden in der tabellarischen Ergebnispräsentation die in
der Projektwissensbasis gespeicherten Projekte unter Angabe ihrer jeweiligen Projekt-
bezeichnung („Fall-ID“) mit der berechneten Ähnlichkeit auf einer Skala von 0 bis
100 % Prozent angezeigt, und zwar geordnet von größter Ähnlichkeit bis zu geringster
Ähnlichkeit.
Ausgehend von der tabellarischen Ergebnispräsentation stehen dem Benutzer ver-
schiedene Optionen zur Verfügung.
Um im Rahmen der Retrieve-Phase bei einer großen Anzahl von alten Projekten eine
Vorauswahl derjenigen Projekte vornehmen zu können, die eine im Einzelfall festzu-
legende Mindestähnlichkeit aufweisen, kann eine solche Mindestähnlichkeit mithilfe
der Funktion „Filter“ festgelegt werden. Siehe hierzu die nachfolgende Abb. 10, in der
diese Filterfunktion am linkeren oberen Rand als (blau) umrandetes Eingabefeld hervor-
gehoben wird. Diese Abbildung zeigt, dass bei einer Mindestähnlichkeit von 60 % nur
noch ein Projekt – mit der Bezeichnung „Projekt_Hamburg“ – angeführt wird, das mit
einer berechneten Ähnlichkeit von 64 % in Bezug auf das betrachtete neue Projekt diese
Mindestähnlichkeit erreicht.
Wenn keine hinreichend ähnlichen, bereits bearbeiteten, alten Projekte in der Projekt-
wissensbasis enthalten sind, bricht die Bearbeitung eines neuen Projekts mithilfe
des KI-Tools jCORA an dieser Stelle ab. Stattdessen muss auf eine andere Projekt-
managementmethode mit anderen unterstützenden IT-Tools zurückgegriffen werden.

1.2.3 Wiederverwendung von projektbezogenem Erfahrungswissen


Im Rahmen der „Reuse-Phase“ kann, ausgehend von der in den Abb. 9 und 10 dar-
gestellten tabellarischen Ergebnispräsentation, mindestens ein altes Projekt und das dort
in den Wissenskomponenten der Projektlösung und der Projektbewertung gespeicherte
Erfahrungswissen wiederverwendet werden. Hierzu ist der Button „Adaptieren“ anzu-
klicken. Dadurch öffnet sich ein neues Fenster, das die Anwendung von Anpassungs-
regeln auf das ausgewählte alte Projekt ermöglicht. Die nachfolgende Abb. 11 zeigt das
Fenster, das durch das Anklicken des Buttons „Adaptieren“ geöffnet wird.
Case-based Reasoning als White-Box AI: „intelligentes“ … 239

Abb. 8 Grafische Ergebnispräsentation in jCORA


240

Abb. 9 Tabellarische Ergebnispräsentation in jCORA


Z. Stephan et al.
Case-based Reasoning als White-Box AI: „intelligentes“ … 241

Abb. 10 Einstellen der Mindestähnlichkeit in jCORA


242 Z. Stephan et al.

Wie aus Abb. 11 ersichtlich, ist in jCORA lediglich die Anpassungsregel „Kopiere
Lösung“ hinterlegt. Mit ihrer Hilfe kann die gesamte Lösung eines bereits bearbeiteten,
alten Projekts in die Lösung für ein neues Projekt kopiert werden. Eine solche
Anpassung wird auch als Nulladaption bezeichnet (Bergmann et al. 2021; Bergenrodt
et al. 2015b). Sie ist aus der Sicht des betrieblichen Projektmanagements unbefriedigend,
weil das schlichte Kopieren einer alten Projektlösung wegen der „Einzigartigkeit“ von
Projekten mit großer Wahrscheinlichkeit keine überzeugende Lösung für ein neues
Projekt liefern wird. Stattdessen kann eine solche Kopieraktivität lediglich eine „Aus-
gangslösung“ offerieren, die vom Benutzer des KI-Tools jCORA an die Besonderheiten
der Beschreibung eines neuen Projekts „manuell“ angepasst werden muss. Ein solches
„manuelles“ Anpassungserfordernis widerspricht der Anforderung, Projekte möglichst
weitgehend mit „intelligenten“ KI-Tools computerunterstützt managen zu können.
Allerdings bietet das KI-Tool eine „generische“ Anpassungsfunktion „adapt“
(Bergenrodt et al. 2015b; Zelewski et al. 2022). Diese Anpassungsfunktion kann als
eine „funktionale Blaupause“ oder „Shell“ genutzt werden kann, um mittels einer
präzise definierten Syntax benutzerspezifische Anpassungsregeln zu spezifizieren. Diese
Anpassungsregeln legen fest, wie die Lösung eines ausgewählten alten Projekts an die
Beschreibung eines neuen Projekts angepasst werden kann.
Um eine Anpassungsregel in jCORA anzuwenden, gilt es, die entsprechende
Anpassungsregel aus der Menge der vorhandenen Anpassungsregeln (linke Seite in der
Abb. 11) auszuwählen und mittels Anklickens des in Abb. 11 nach rechts weisenden
Pfeils zu den ausgewählten Regeln (rechte Seite in der Abb. 11) hinzuzufügen. Die nach-
folgende Abb. 12 verdeutlicht die Anwendung der Anpassungsregel „Kopiere Lösung“,
die bislang als einzige Anpassungsregel in jCORA implementiert ist.
Nachdem die jeweilige(n) Anpassungsregel(n) ausgewählt wurde(n), muss schließlich
am rechten unteren Rand, wie in Abb. 12 nachzuvollziehen, der Button „Anwenden“
angeklickt werden. Anschließend werden alle ausgewählten Anpassungsregeln auf das
neue Projekt angewendet.
Neben der automatischen Anpassung mittels Anpassungsregeln besteht, wie bereits
erwähnt, zudem die Möglichkeit, manuelle Anpassungen entweder ergänzend zur
Anwendung von computergestützten Anpassungsregeln oder auch von vornherein vor-
zunehmen. Dazu kann die vorläufige Lösung eines neuen Projekts beliebig – allerdings
unter Beachtung der durch die jeweils zugrunde liegende Projekt-Ontologie zur Ver-
fügung gestellten sprachlichen Ausdrucksmittel – angepasst, um neue Wissens-
komponenten erweitert oder auch von alten Wissenskomponenten bereinigt werden.
Im Rahmen der nachfolgenden Revise-Phase können die vorgenommen Anpassungen
hinsichtlich ihrer Eignung im Hinblick auf die Anforderungen des neuen Projekts über-
prüft und evaluiert werden. Eine automatische Überprüfung und Evaluation durch
jCORA sind gegenwärtig nicht möglich. Die Überprüfung und Evaluation müssen daher
derzeit noch durch Benutzer des KI-Tools – wie z. B. durch Projektmanagementexperten
– erfolgen. Die Überprüfungs- und Evaluationsergebnisse sind wichtige Wissensbestand-
teile für die dritte Wissenskomponente der eingangs vorgestellten Wissensstruktur im
Case-based Reasoning als White-Box AI: „intelligentes“ …

Abb. 11 Anpassung der Lösungen alter Projekte an die Beschreibung eines neuen Projekts in jCORA
243
244

Abb. 12 Anwendung der Anpassungsregel „Kopiere Lösung“ in jCORA


Z. Stephan et al.
Case-based Reasoning als White-Box AI: „intelligentes“ … 245

Case-based Reasoning, die Projektbewertung. Das Einpflegen solcher Erkenntnisse in


die Projektbewertung erfolgt in jCORA analog zum Erstellen der Projektbeschreibung.
Die Projektbewertung wird zunächst „leer“ aufgerufen, weil davon ausgegangen wird,
dass Projektbewertungen grundsätzlich projektspezifisch und somit einzelfallspezifisch
erfolgen. Deshalb können sie in jCORA nicht – wie im Falle von Projektlösungen mittels
der Anpassungsregel „Kopiere Lösung“ – aus dem ausgewählten ähnlichsten alten
Projekt unmittelbar übernommen werden.
Erfüllt eine vorliegende Projektlösung die Anforderungen seitens des Projekt-
managements nicht im wünschenswerten Umfang, kann diese Projektlösung weiter
angepasst („repariert“) werden. Dazu stehen die im Rahmen der Reuse-Phase dar-
gelegten automatischen und manuellen Anpassungsmöglichkeiten wiederum zur Ver-
fügung. Ein solches Wechselspiel aus Überprüfung und Evaluierung einerseits sowie
Anpassung andererseits sollte so lange geschehen, bis die Anforderungen an die Projekt-
lösung durch die Projektlösung erfüllt sind. Andernfalls, wenn sich diese Anforderungs-
erfüllung nach einer als „angemessen“ empfundenen Anzahl von Anpassungen der
Projektlösung nicht eingestellt hat, ist der CBR-Zyklus als „erfolglos“ abzubrechen.
Dann ist es mithilfe des KI-Tools jCORA nicht gelungen, für das neue Projekt aus dem
Erfahrungswissen über bereits bearbeitete, alte Projekte eine zufriedenstellende Projekt-
lösung herzuleiten. Dieses Scheitern sollte in der Projektbewertung für das neue Projekt
als „Negativwissen“ festgehalten werden. In der betrieblichen Praxis muss in diesem
Fall auf eine andere Projektmanagementmethode als das Case-based Reasoning über-
gegangen werden (mit entsprechenden, anderen IT-Tools), um das neue Projekt auf
andere Weise zu bearbeiten. Dies können Methoden des Agilen Projektmanagements
oder auch konventionelle Projektmanagementmethoden, wie z. B. die Netzplantechnik,
sein.

1.2.4 Überblick über die Projektwissensbasis von jCORA


In Abb. 13 wird zunächst auf der obersten Ebene der Wissensstrukturierung ver-
deutlicht, wie im KI-Tool jCORA das vollständige Wissen über ein Projekt auf der
Konzept- oder Metaebene (in den jeweils unteren Zeilen der Knoteninschriften) in die
drei generischen Wissenskomponenten der Projektbeschreibung, der Projektlösung und
der Projektbewertung ausdifferenziert wird. Die zugehörigen Instanzen werden auf der
Instanzen- oder Objektebene (in den jeweils oberen Zeilen der Knoteninschriften) als
Fallbeschreibungen, Falllösungen bzw. Fallbewertungen bezeichnet.
Abb. 14 zeigt einen Ausschnitt aus einem vollständigen, mit dem KI-Tool jCORA
erstellten Fallgraphen für ein konkretes, aber im Hinblick auf die beteiligten Personen
pseudonymisiertes IT-Projekt. Im linken Ausschnittteil lässt sich die bereits in Abb. 13
visualisierte Wissensstruktur – bestehend aus den drei generischen Wissenskomponenten
der Projektbeschreibung, der Projektlösung und der Projektbewertung – unmittel-
bar wiedererkennen. Auch werden bei näherem Hinschauen in den Knoten und an den
Kanten zahlreiche Bezüge zum Projektmanagement sowie zu projektbezogenen Mit-
arbeiterkompetenzen deutlich.
246

Abb. 13 Wissensstrukturierung in jCORA anhand von Projektbeschreibung, Projektlösung und Projektbewertung


Z. Stephan et al.
Case-based Reasoning als White-Box AI: „intelligentes“ …

Abb. 14 Ausschnitt aus einem mit jCORA erstellten Fallgraphen für ein IT-Projekt
247
248 Z. Stephan et al.

Aus der Abb. 14 wird deutlich, dass sich Projekt-Ontologien und ihre Anwendung auf
konkrete Projekte im KI-Tool jCORA mittels Instanziierung der ontologiezugehörigen
Konzepte und Relationen in ihrer Gesamtheit nur schwer visualisieren lassen. Obwohl
es sich bei der Abb. 14 lediglich um einen Ausschnitt aus einer instanziierten Projekt-
Ontologie in jCORA handelt, wirkt bereits dieser Fallgraph unübersichtlich. Dies gilt
insbesondere im Hinblick auf die zahlreichen Knoten- und Kantenüberschneidungen
sowie die nicht immer klaren Zuordnungen von Kantenanschriften zu Kanten. In dieser
Hinsicht lässt die Visualisierung von instanziierten Projekt-Ontologien in jCORA mittels
Fallgraphen noch erhebliche Wünsche an die Übersichtlichkeit der Fallgraphen offen.
Daher lassen sich „große“ instanziierte Projekt-Ontologien für betriebswirtschaftlich
realistische Projekte in der Regel nicht mehr visuell aufbereiten, sondern müssen anhand
von vor allem tabellarischen Darstellungen der involvierten Instanzen von Konzepten
und Relationen mühsam nachvollzogen werden.
Abb. 15 zeigt einen weiteren Ausschnitt, dieses Mal jedoch aus einer Projekt-Onto-
logie, die mithilfe des Ontologie-Editors Protégé erstellt wurde. Der Ontologie-Aus-
schnitt bezieht sich auf Kompetenzen von Projektmitarbeitern. Die Knoten in der Grafik
(Ontologie-Graph), die in Protégé mittels der Funktion „Export Graph as Image“ sowie
mithilfe des Plug-ins „Onto-Graf“ editiert wurde, repräsentieren entweder Kompetenz-
arten als Konzepte (oder synonym als „Klassen“ oder „Typen“, jeweils mit einem
Kreis in der linken oberen Knotenecke) oder einzelne, konkrete Kompetenzen (oder
synonym als „Instanzen“, jeweils mit einer Raute in der linken oberen Knotenecke).
Die gerichteten Kanten drücken aus, dass ein Konzept (Superkonzept) einem anderen
Konzept (Subkonzept) übergeordnet ist oder ein Konzept die untergeordneten Instanzen
umfasst.
Aus Abb. 15 wird ersichtlich, dass nur einigen, aber nicht allen Konzepten jeweils
konkrete Instanzen zugeordnet sind. Dies entspricht dem bereits an früherer Stelle dis-
kutierten Freiheitsgrad, dass in einer Ontologie Instanzen spezifiziert werden können,
aber nicht müssen. Darüber hinaus lässt sich erkennen, dass sich die Visualisierung
des Ontologie-Ausschnitts nicht als benutzerfreundlich erweist. Dies liegt einerseits
an den unübersichtlichen Kantenüberschneidungen und andererseits an den „hässlich“
anmutenden Zeilenumbrüchen in den Knoteninschriften.
Am Ende der Bearbeitung eines neuen Projekts wird im Rahmen der Retain-
Phase das mittels Case-based Reasonings bearbeitete neue Projekt mit seinen drei
charakteristischen Wissenskomponenten der Projektbeschreibung, der Projektlösung
und der Projektbewertung in der Projektwissensbasis als „gelerntes“ Wissen gespeichert.
Dieses Projektwissen steht für nachfolgende Anwendungen des KI-Tools jCORA als
Wissen über ein nunmehr altes, bereits bearbeitetes Projekt zur Verfügung.
Case-based Reasoning als White-Box AI: „intelligentes“ … 249

Abb. 15 Ausschnitt aus einer mit Protégé erstellten Projekt-Ontologie mit Fokus auf Projekt-
kompetenzen

1.3 Limitationen des KI-Tools jCORA

Aus den voranstehenden – mitunter bewusst kritischen – Ausführungen zu ontologie-


gestützten CBR-Systemen im Allgemeinen und zum KI-Tool jCORA im Besonderen
ergeben sich zahlreiche Einschränkungen („Limitationen“), die den Einsatz solcher KI-
Tools in der betrieblichen Praxis des Projektmanagements behindern.

• Es gibt keinen allgemein akzeptierten Algorithmus zur Berechnung der Ähnlich-


keit zwischen Projekten auf der Grundlage von Projekt-Ontologien. Stattdessen
konkurrieren mehrere Vorschläge für solche Berechnungsalgorithmen miteinander um
die „Aufmerksamkeit“ in der „Scientific Community“.
• Der Berechnungsalgorithmus für Projektähnlichkeiten, der im KI-Tool jCORA
implementiert ist, erweist sich zwar als „relativ fortgeschritten“ (vor allem auf-
grund der rekursiven Ähnlichkeitsberechnung), wurde aber in der einschlägigen
Fachliteratur bislang kaum rezipiert. Es ist daher fraglich, ob er sich in der der ein-
schlägigen Fachliteratur als „anschlussfähig“ erweist.
250 Z. Stephan et al.

• Zwar kann ein Benutzer des KI-Tools jCORA unabhängig vom Berechnungsalgorith-
mus für Projektähnlichkeiten mithilfe der integrierten Suchfunktion auch nach
eigenem „Gutdünken“ gezielt nach ähnlichen Projekten suchen. Dies kommt der
Anforderung entgegen, einen Benutzer nicht einseitig einem „KI-Algorithmus auszu-
liefern“, sondern ihm auch ein autonomes Suchverhalten zu ermöglichen. Allerdings
unterstützt die Suchfunktion in jCORA bisher nur die Suche nach einer Fall-ID (sie
entspricht einer eindeutigen Projektbezeichnung). Dies ist wenig benutzerfreundlich.
Stattdessen wäre es wünschenswert, ähnliche Projekte auch anhand von betriebs-
wirtschaftlich relevanten Kriterien, wie z. B. Branche, Region oder Projekttyp, aus-
wählen zu können. Dies ist in jCORA derzeit jedoch noch nicht möglich.
• Zwar bietet das KI-Tool jCORA die Möglichkeit, in einer Projektbeschreibung oder
Projektlösung nach Instanzen mit einer bestimmten Eigenschaft zu suchen, wie z. B.
nach einem Mitarbeiter mit einer bestimmten Kompetenz, wie etwa im allgemeinen
IT- oder im speziellen KI-Bereich. Aber es wird von jCORA nur das erste Suchergeb-
nis ausgewiesen. Es ist nicht möglich, sich eine Liste aller Instanzen anzeigen zu
lassen, die das Suchkriterium erfüllen.
• Die Auswahl von nur einem ähnlichsten alten Projekt, um das Wissen über dessen
Projektbearbeitung auf ein neues Projekt zu übertragen, kann sich als zu eng
erweisen. Stattdessen sollte erwogen werden, für die Bearbeitung eines neuen
Projekts das Wissen über mehrere, jeweils möglichst ähnliche alte Projekte heran-
zuziehen. Die Bestimmung der Anzahl einzubeziehender möglichst ähnlicher alter
Projekte bleibt derzeit jedoch weitgehend im Dunkeln.
• Es existieren keine klaren Handlungsempfehlungen dafür, wie hoch die Mindest-
schwelle für akzeptable Mindestähnlichkeiten für alte Projekte festgelegt werden
sollte, die in die Reuse-Phase für die Bearbeitung neuer Projekte einbezogen werden.
• Die Anpassung von Projektlösungen für alte, möglichst ähnliche Projekte (mit
akzeptabler Mindestähnlichkeit zu einem neuen Projekt) an ein neues Projekt wird in
der Reuse-Phase nicht „effektiv“ unterstützt. Es wird lediglich eine „Copy-Funktion“
für die Übernahme der Projektlösung eines alten Projekts angeboten. Ein solches
Kopieren einer alten Projektlösung leistet jedoch keinen konstruktiven Beitrag zu
ihrer Anpassung an ein neues Projekt.
• Für die Revise-Phase werden keine computergestützten Hilfen offeriert, um
Empfehlungen zur Lösung eines neuen Projekts hinsichtlich ihrer Plausibilität zu
überprüfen („validieren“) und hinsichtlich ihrer Eignung zur Wiederverwendung zu
evaluieren.
• Die Visualisierung von instanziierten Projekt-Ontologien mittels Fallgraphen erweist
sich in jCORA für betriebswirtschaftlich realistische Projekte im Allgemeinen als
unübersichtlich und infolgedessen als benutzerunfreundlich.
• Es fehlt in jCORA an einem Rollenkonzept, mit dessen Hilfe sich festlegen lässt,
welche Benutzergruppen – z. B. definiert über spezielle Benutzerrollen – welche
Zugriffsrechte, insbesondere Lese- und Schreibrechte, auf welche Wissens-
komponenten in der Projektwissensbasis besitzen. Beispielsweise kann es seitens des
Case-based Reasoning als White-Box AI: „intelligentes“ … 251

Projektmanagements oder der Unternehmensführung als inakzeptabel empfunden


werden, dass beliebige Mitarbeiter des Projektmanagements auf alle Wissensbestand-
teile der Projektbewertung für alte Projekte zugreifen können und somit Einsicht vor
allem auch auf kritische Aspekte, wie z. B. kritische Projekt-Misserfolgsfaktoren,
erlangen. Diese Zugriffsrechte, die für die betriebliche Praxis eine nicht zu unter-
schätzende Bedeutung besitzen, wurden in der prototypischen CBR-Software jCORA
noch nicht berücksichtigt.

Insgesamt betrachtet, lässt sich festhalten, dass vom KI-Tool jCORA mehrere
Erwartungen, die an ein ontologiegestütztes CBR-System gerichtet werden, derzeit
noch nicht erfüllt werden. Aber dieses (selbst-)kritische Urteil sollte insofern relativiert
werden, als die oben angeführten (eventuell auch mehr) Kritikpunkte auch gegenüber
anderen KI-Tools für ontologiegestützte CBR-Systeme in derselben Ergebnisoffenheit
zu diskutieren wären. Ein wissenschaftlicher Diskurs („Benchmarking“) hinsichtlich
der Leistungsfähigkeit solcher ontologiegestützter CBR-Systeme wäre aus der Sicht der
Verfasser dieses Beitrags hochwillkommen. Insbesondere wäre es wünschenswert, einen
„übergreifend“ akzeptierten Katalog von Leistungskriterien zu vereinbaren, die einem
solchen „Benchmarking“ zugrunde liegen. Vielleicht vermag der vorliegende Beitrag die
Entwicklung eines solchen Kriterienkatalogs zu „motivieren“.

2 Rückblick auf Grundlagen des Case-based Reasonings

Im Gegensatz zum „Mainstream“ der modernen KI-Forschung, der vor allem durch Deep
Learning Networks und – oftmals nicht klar voneinander getrennt – Machine Learning
gekennzeichnet ist, gehört das Case-based Reasoning zu einem speziellen, aber ebenso
sehr leistungsfähigen Forschungsansatz der KI. Es betrifft den Ansatz der „White-Box
AI“, weil Case-based Reasoning von vornherein so angelegt ist, dass ein CBR-System
seinem Anwender erklären kann (Amin 2021), wie es zu seinen Handlungsempfehlungen
für die Lösung eines neuen Problems, wie etwa der Planung, der Durchführung, der
Steuerung und dem Controlling eines neuen Projekts, gelangt ist. Diese „intrinsisch“
angelegte Erklärungsfähigkeit und somit auch Transparenz seiner Funktionsweise unter-
scheidet Case-based Reasoning deutlich von Deep Learning Networks und Machine
Learning, die aufgrund der schweren Nachvollziehbarkeit ihrer internen Funktions-
weisen überwiegend dem Ansatz der „Black-Box AI“ zugerechnet werden.
Aus den vorgenannten Gründen eignet sich ein ontologiegestütztes CBR-System wie
das KI-Tool jCORA aufgrund seiner Zugehörigkeit zum Ansatz der „White-Box AI“
vor allem für solche Managementaufgaben, die im betrieblichen Alltag nicht nur zur
Bewältigung von Mengenproblemen einer Computerunterstützung bedürfen, sondern
aus Gründen der Akzeptanz von computergestützt erzeugten Handlungsempfehlungen
252 Z. Stephan et al.

durch die jeweils betroffenen Mitarbeiter und Kunden ebenso eine leicht nachvollzieh-
bare Erklärung dieser Handlungsempfehlungen benötigen. Insbesondere auf der
Managementebene von Unternehmen wird dieser Akzeptanzaspekt oftmals unterschätzt.
Ein ontologiegestütztes CBR-System wie das KI-Tool jCORA schließt diese
Akzeptanz- und Erklärungslücke im Projektmanagement, indem die Empfehlungen für
die Bearbeitung eines neuen Projekts auf der Basis der Wiederverwendung von Wissen
– insbesondere Erfahrungswissen – über bereits bearbeitete, alte Projekte schrittweise
nachvollzogen werden kann und sich auch durch Visualisierungen der jeweils ein-
bezogenen Wissenskomponenten verdeutlichen lässt. Dazu tragen vor allem die im
Prinzip jederzeit mögliche Überprüfung der Berechnungsergebnisse des eingesetzten
Ähnlichkeitsalgorithmus, die Festlegung von Mindestähnlichkeiten, die transparente
Festlegung von Gewichten für bearbeitungsrelevante Attribute und Relationen sowie der
Ausweis aller alten Projekte bei, welche die vorgegebene Mindestähnlichkeit erreichen
oder überschreiten. Falls ein KI-Tool wie jCORA auch noch um Anpassungsregeln für
die Anpassung der Projektlösung(en) für (mindestens) ein ähnlichstes altes Projekt an die
Projektbeschreibung eines neuen Projekts – über die rein kopierbasierte „Nulladaption“
hinaus – erweitert wird, lässt sich noch besser erklären, anhand welcher Anpassungs-
regeln die Handlungsempfehlung in der Gestalt einer Projektlösung für ein neues Projekt
computergestützt gewonnen wurde. Mit einer derart reichhaltig fundierten Erklärungs-
fähigkeit gehen ontologiegestützte CBR-Systeme als Exemplare der „White-Box AI“
weit über die Erklärungsansätze hinaus, die zurzeit für die „Black-Box AI“ unter der
Bezeichnung des „Explainable AI“ diskutiert werden, aber aus inhaltlicher Sicht im
Allgemeinen auf nicht mehr als auf statistischen Korrelationen zwischen Input- und
Outputdatenmustern beruhen. Solche Korrelationen besitzen jedoch – zumindest aus
erkenntnistheoretischer Perspektive – allenfalls eine schwache Erklärungskraft.
Des Weiteren kann ein ontologiegestütztes CBR-System aus der Management-
perspektive – gemeint ist hier nicht nur das Projekt-, sondern auch das IT-Management
– als ein „Kristallisierungskeim“ für Bestrebungen dienen, im wissensintensiven Projekt-
management ein „Knowledge Repository“, „Wissensportal“ oder „Projektportal“ zu
etablieren, mit dessen Hilfe die Mitarbeiter des Projektmanagements eines Unter-
nehmens – in Abhängigkeit von ihren Zugriffsrechten (z. B. auf der Basis eines Rollen-
konzepts) – auf verfügbares projektrelevantes Wissen, insbesondere Erfahrungswissen
über alte, bereits bearbeitete Projekte, zugreifen können. Eine solches „Portal“ hätte den
Vorzug, dass die Mitarbeiter sich nicht durch das Dickicht „diffus verstreuten“ Wissens
über alte Projekte in den IT-Systemen eines Unternehmens „quälen“ müssen, sondern
mithilfe eines unternehmensweit zentral administrierten Wissens- oder Projektportals die
Gelegenheit besitzen, stets über eine klar definierte IT-Schnittstelle – z. B. mittels einer
„modernen“ Browser-Software – auf das unternehmensweit verfügbare, explizit archi-
vierte Projektwissen zurückgreifen zu können.
Darüber hinaus ist ein ontologiegestütztes CBR-System wie das KI-Tool jCORA in
der Lage, die fünf wesentlichen Herausforderungen (Probleme) des Projektmanagements
– allerdings in unterschiedlichem Ausmaß – zu meistern, die im vorangehenden Beitrag
Case-based Reasoning als White-Box AI: „intelligentes“ … 253

(Case-based Reasoning als White-Box AI …Teil 1: Grundlagen aus der Management-


und der KI-Perspektive) aus der Perspektive des projektbezogenen Wissensmanagements
skizziert wurden.
Das Wissensakquisitionsproblem wird nicht vollständig gelöst, aber konstruktiv
angegangen. Die Explizierung von „implizitem“ oder „tazitem“ Wissen, das „in den
Köpfen“ von Projektmanagern mit großer Berufserfahrung „eingeschlossen“ ist, wird
durch die überwiegend benutzerfreundliche, von mehreren Visualisierungskomponenten
begleitete Oberfläche des KI-Tools jCORA unterstützt. Aus der Perspektive des Projekt-
managements bedarf es aber noch einer Steigerung der Benutzerfreundlichkeit, vor allem
im Hinblick auf die Visualisierungskomponenten. Außerdem wird aus der Management-
perspektive empfohlen, die Benutzung eines KI-Tools wie jCORA im betrieblichen All-
tag durch umfangreiche E-Learning-Angebote (Allam et al. 2021; Schagen et al. 2021;
Weber et al. 2021a, b) sowie Use Cases (Auth et al. 2021; Fink et al. 2021a) zu fördern.
Die E-Learning-Angebote sind vor allem für Mitarbeiter des Projektmanagements
gedacht, die keine umfangreichen „Software-Handbücher“ oder ähnliche Dokumente
studieren möchten, bevor sie an ihren Arbeitsplätzen ein KI-Tool produktiv nutzen.
Die Use Cases sollen einem potenziellen Benutzer des KI-Tools jCORA in einer klar
strukturierten Weise verdeutlichen, wie er dieses CBR-System für seine „Standard-Auf-
gaben“ im Projektmanagement konkret einsetzen kann.
Das Wissensdispersionsproblem lässt sich aus der Perspektive des Projekt-
managements lösen, wenn es sich zu klaren Vorgaben für das projektbezogene
Wissensmanagement durchringt, dass „alles“ projektrelevante Wissen – zumindest im
erheblichen Umfang – in einem KI-Tool für das betriebliche Projektmanagement wie
jCORA zusammengetragen wird. Dies gilt unabhängig davon, ob das projektrelevante
Wissen über personelle oder maschinelle Akteure eines Unternehmens „verstreut“
ist. Auf den ersten Blick handelt es sich um eine reine Managementaufgabe, die das
jeweils eingesetzte KI-Tool nicht betrifft. Schließlich muss das Projektmanagement
die organisatorischen Vorkehrungen dafür treffen, dass das projektrelevante Wissen in
ein KI-Tool wie jCORA eingebracht wird. Schlichte „Vorgaben“ oder „Anweisungen“
werden in der betrieblichen Praxis nicht ausreichen, um drohende Akzeptanzwiderstände
seitens der betroffenen Mitarbeiter zu überwinden. Daher sollte verstärkt über Anreiz-
systeme nachgedacht werden, die es betroffenen Mitarbeitern als individuell vorteilhaft
erscheinen lassen, ihr projektrelevantes Wissen in ein solches KI-Tool einzubringen. Die
konkrete Ausgestaltung solcher Anreizsysteme stellt eine typische Managementaufgabe
dar. Allerdings zeigt sich bei näherem Hinsehen, dass sich die Lösung des Wissensdis-
persionsproblems nicht einseitig dem Projektmanagement anlasten lässt. Stattdessen
muss auch das Design des eingesetzten KI-Tools zur Problemlösung beitragen. Dazu
gehört einerseits, dass die Benutzerfreundlichkeit eines KI-Tools wie jCORA erheblich
gesteigert werden muss, um Mitarbeiter im Projektmanagement zu motivieren, in dieses
KI-Tool ihr projektrelevantes Wissen einzubringen. Aus der Managementperspektive ist
insbesondere über erhebliche Investments in die Weiterentwicklung der Benutzerfreund-
lichkeit eines KI-Tools nachzudenken, die zunächst nur „Kosten verursacht“ und erst auf
254 Z. Stephan et al.

längere Sicht einen höheren Nutzen durch Bereitstellung und Wiederverwendung von
(Erfahrungs-)Wissen bewirken kann. Außerdem gehört es zu den typischen Aufgaben des
Projektmanagements, sich um die innerbetrieblichen Schnittstellen zwischen diversen
IT-Systemen zu kümmern. Dies betrifft vor allem die Anforderung, dass in einem KI-
Tool für das betriebliche Projektmanagement wie jCORA auch projektrelevantes Wissen
erfasst und wiederverwendet werden kann, dass in anderen betrieblichen IT-Systemen
gespeichert ist.
Das Wissenserosionsproblem wird durch ein KI-Tool wie jCORA gelöst, sofern es
gelingt, projektrelevantes Erfahrungswissen von Projektmanagern mit großer Berufs-
erfahrung in einem solchen ontologiegestützten CBR-System als Wissen über bereits
bearbeitete, alte Projekte zu archivieren. In dieser Hinsicht gelten Ausführungen zum
Wissensdispersionsproblem in analoger Weise. Dies betrifft vor allem Anreizsysteme,
die Projektmanager motivieren, ihr reichhaltiges Erfahrungswissen in ein solches KI-
Tool einzubringen. Aber auch die Anforderung, die Benutzerfreundlichkeit eines solchen
KI-Tools erheblich zu steigern, kann die Bereitschaft der Projektmanager fördern, ihr
Erfahrungswissen in ein KI-Tool wie jCORA einzubringen. Sowohl die Etablierung von
Anreizsystemen im Wissensmanagement als auch die Förderung der Benutzerfreundlich-
keit von KI-Tools stellen typische Aufgaben der Managementebene dar.
Das Wissensformproblem wird durch ein ontologiegestütztes CBR-System fast voll-
ständig gelöst, weil ein solches KI-Tool dafür prädestiniert ist, qualitatives, überwiegend
natürlichsprachliches (Erfahrungs-)Wissen computergestützt zu erfassen und auszu-
werten, vor allem zur Bearbeitung neuer Projekte zielgerichtet wiederzuverwenden. Aus
der Managementperspektive ergeben sich in dieser Hinsicht keine speziellen Handlungs-
erwartungen.
Auch das Wissensmengenproblem wird durch ein ontologiegestütztes CBR-System
fast vollständig gelöst, weil ein solches KI-Tool „im Prinzip“ erlaubt, beliebig große
Projektwissensbasen mit (Erfahrungs-)Wissen über bereits bearbeitete, alte Projekte
hinsichtlich der Bearbeitung eines neuen Projekts „intelligent“ auszuwerten. Die
Konstruktion der Lösung für ein neues Projekt anhand der Lösung (mindestens) eines
ähnlichsten alten Projekts unterstützt sowohl die Effektivität als auch die Effizienz des
Projektmanagements. Die Effektivität des Projektmanagements lässt sich z. B. im Hin-
blick auf die Projektdurchführungsqualität – vor allem die Ergebnisqualität – fördern,
indem Erfahrungswissen über kritische Erfolgsfaktoren, vor allem auch kritische
Misserfolgsfaktoren verwendet wird, um aus früheren Fehlern zu lernen und dadurch
Qualitätsmängeln bei neuen Projekten vorzubeugen. Auch die Effizienz des Projekt-
managements, wie z. B. in Bezug auf geringere Projektplanungsdauern, kann durch die
computergestützte Wiederverwendung von (Erfahrungs-)Wissen über bereits bearbeitete,
alte Projekte erheblich gesteigert werden, weil neue Projekte nicht „von Grund auf“
(„planning from scratch“) neu geplant werden müssen.
Allerdings stehen diese beiden optimistischen Einschätzungen unter mindestens vier
grundsätzlichen Vorbehalten, die sich sowohl an das Management von Unternehmen mit
Case-based Reasoning als White-Box AI: „intelligentes“ … 255

projektorientierter Geschäftstätigkeit als auch an das Management von Hochschulen hin-


sichtlich ihrer Projektaktivitäten richten.
Erstens leiden KI-Tools wie jCORA derzeit noch unter nicht-trivialen Performance-
Problemen hinsichtlich der Wissenswiederverwendung, vor allem im Hinblick auf die
Berechnung von Projektähnlichkeiten. Solche Performance-Probleme beeinträchtigen
vor allem die Effizienz des Projektmanagements, weil die Zeitdauern (als Inputgrößen)
für die Ermittlung ähnlichster alter Projekte und auch für die Anpassung ihrer Projekt-
lösungen an die Beschreibung eines neuen Projekts (als Outputgrößen) die Geduld von
Mitarbeitern im Projektmanagement überstrapazieren können. Daher werden aus der
Managementperspektive vor allem zwei Anstrengungen benötigt. Einerseits werden
Investments in informationstechnische, vor allem algorithmische Verbesserungen der
eingesetzten IT-Tools benötigt. Solche Investments übersteigen in der Regel die erheb-
lich eingeschränkten Forschungsetats von Hochschulen. Daher sollte sich in dieser Hin-
sicht das Management von KI-affinen Unternehmen stärker in die Pflicht nehmen lassen,
prototypische KI-Tools, die an Hochschulen mithilfe von „Steuergeldern“ entwickelt
wurden, durch den Einsatz unternehmensspezifischer Personal- und Finanzressourcen
im Sinne eines „Performance Tunings“ professionell weiterzuentwickeln. Dies gilt natür-
lich nur für KI-Tools, die einem Unternehmen hinsichtlich ihres Einsatzes im eigenen
Unternehmen als Erfolg versprechend eingestuft werden. Andererseits lassen sich solche
Investments in informationstechnische, vor allem algorithmische Verbesserungen von
KI-Tools nur dann erwarten, wenn sich im Rahmen einer Nutzen-Kosten-Analyse (oder
anderer, anspruchsvollerer betriebswirtschaftlicher Analysetechniken) nachweisen lässt,
dass sich die unternehmensseitige Weiterentwicklung eines prototypischen KI-Tools
„rechnet“. Solche Nutzen-Kosten-Analysen sind nur unternehmensspezifisch möglich.
Erste Ansätze hierfür liegen zwar bereits vor, beziehen sich aber eher auf die Nutzung
eines KI-Tools wie jCORA im Projektmanagement (Weber et al. 2021b) als auf dessen
unternehmensinterne Weiterentwicklung zwecks Performance-Steigerung. Daher bleibt
es bei dem Desiderat, aus der Managementperspektive von KI-affinen Unternehmen
Investments in die Performance-Steigerung von KI-Tools für das Projektmanagement
intensiver zu prüfen. Dies kann auch in Kooperation mit Hochschulinstituten, wie z. B.
im Rahmen von „wirtschaftsnahen“ Master- und Doktorarbeiten, geschehen.
Zweitens bedürfen die beiden vorgenannten Plausibilitätsurteile („Hypothesen“) hin-
sichtlich der Effektivitäts- und Effizienzsteigerung des Projektmanagements durch Ein-
satz von KI-Tools einer sorgfältigen empirischen Überprüfung. Solche Überprüfungen
sind bislang noch nicht in wissenschaftlich akzeptabler Qualität erfolgt. Daher wäre
es wünschenswert, dass Verantwortliche im Projektmanagement von Unternehmen
intensiver mit Forschungseinrichtungen, wie z. B. Hochschulinstituten, zusammen-
arbeiten, um entsprechende Effektivitäts- und Effizienzmessungen im Vergleich
zwischen KI-Tools und konventionellen Projektmanagement-Tools zu ermöglichen.
Drittens sind aus der Managementperspektive eines Unternehmens mit vor-
rangig projektorientierter Geschäftstätigkeit Investitionsanalysen, Nutzen-Kosten-
Analysen oder auch methodisch anspruchsvollere Wirtschaftlichkeitsanalysen (wie
256 Z. Stephan et al.

z. B. der Analytic Hierarchy Process, Outranking-Methoden wie Promethee und


viele weitere multikriterielle Bewertungstechniken) erforderlich, um im Einzel-
fall eines Unternehmens zu prüfen, ob sich der Einsatz eines KI-Tools wie jCORA im
Projektmanagement betriebswirtschaftlich als vorteilhaft erweist („rechnet“). Solche
Wirtschaftlichkeitsanalysen liegen bislang nur in einigen wenigen Ansätzen vor. Daher
stellt es eine besondere Herausforderung an das Management eines KI-affinen Unter-
nehmens dar, eine solche Wirtschaftlichkeitsanalyse für den Einsatz eines KI-Tools wie
jCORA im eigenen Unternehmen entweder intern durchzuführen oder extern in Auf-
trag zu geben. Ein Projektmanagement mit Sensibilität („AI awareness“) nicht nur für
die wirtschaftlichen Erfolgspotenziale (Chancen), sondern auch für Risiken des Ein-
satzes von KI-Tools sollte eine solche Wirtschaftlichkeitsanalyse einschließlich einer
betriebswirtschaftlichen, eventuell (im Interesse der Corporate Social Responsibility)
auch gesellschaftlich orientierten Chancen-Risiken-Analyse auf jeden Fall eigenständig
durchführen oder mithilfe Dritter durchführen lassen.
Viertens ist einzuräumen, dass in diesem Beitrag vornehmlich aus einer „technischen“
Perspektive argumentiert wurde, wie sich Erkenntnisse aus der KI-Forschung in der
Gestalt von ontologiegestützten CBR-Systemen nutzen lassen, um die Wiederver-
wendung von insbesondere Erfahrungswissen im betrieblichen Projektmanagement
zu unterstützen. Die Argumentation erstreckte sich zwar nicht nur auf rein technische,
IT-fokussierte Aspekte, sondern bezog vor allem auch Aspekte der Benutzerfreundlich-
keit solcher CBR-Systeme aus ebenso personalwirtschaftlicher Perspektive ein. Aber
über das Denken über Benutzerfreundlichkeit seitens informations- versus personalwirt-
schaftlicher Interessensvertreter lässt sich ausgiebig diskutieren. Daher wird als weitere
Limitation angeführt, dass genuin personalwirtschaftliche Aspekte („social relations“)
des Wissensmanagements im Rahmen des Projektmanagements (Ren et al. 2020) in
diesem Beitrag nicht thematisiert wurden.

3 Ausblick

3.1 Offene Probleme hinsichtlich der projektbezogenen


Wissensverarbeitung mittels eines KI-Tools wie jCORA

In diesem Ausblick wird vor allem auf Anwendungsschwierigkeiten des ontologie-


gestützten Case-based Reasonings für das Projektmanagement in der betrieblichen
Praxis eingegangen. Diese Anwendungsschwierigkeiten stimmen inhaltlich teilweise mit
den „Limitationen“ überein, die speziell für das KI-Tool jCORA bereits angesprochen
wurden, gehen aber auch darüber hinaus, um allgemeine Aspekte des Case-based
Reasonings zu akzentuieren. Des Weiteren werden im Folgenden weniger die „ein-
schränkenden“ als vielmehr die für zukünftige Forschungs- und Implementierungs-
arbeiten „herausfordernden“ Aspekte als offene Probleme thematisiert.
Case-based Reasoning als White-Box AI: „intelligentes“ … 257

Generell stellt die sprachliche, vor allem natürlichsprachliche Ausdrucksfähigkeit von


KI-Techniken wie Ontologien (z. B. Protégé) und CBR-Systemen (z. B. jCORA) einen
Engpass dar. Dies gilt insbesondere in Bezug auf Relationen, weil in allen gängigen KI-
Tools nur zweistellige Relationen unterstützt werden. Dies ist aber zu wenig, wie sich in
Bezug auf Kompetenzen im Projektmanagement aus betriebswirtschaftlicher Sicht ver-
deutlichen lässt. Daher sollten KI-Techniken, insbesondere die zugehörigen computer-
gestützten Werkzeuge, in Zukunft auch die Editierung und Verarbeitung von mindestens
dreistelligen Relationen gestatten. Eine flexible Handhabung von N-stelligen Relationen
mit N ≥ 2 (ohne Obergrenze) wäre aus Benutzersicht willkommen. Relationen mit einem
mehr- oder mengenwertigen Nachbereich lassen sich hingegen durch eine Relations-
elementevervielfachung auf der Instanzenebene pragmatisch bewältigen.
Hinsichtlich der Retrieve-Phase mangelt es an einem übergreifenden Konzept, um die
Leistungsfähigkeit konkurrierender Berechnungsalgorithmen für Projektähnlichkeiten
miteinander zu vergleichen. Insbesondere bedarf es einer Einigung, welche Leistungs-
determinanten – vor allem Inputdeterminanten wie Rechenzeiten und Speicherplatz-
bedarfe sowie Outputdeterminanten wie die Übereinstimmung von algorithmisch
ermittelten Ähnlichkeitswerten mit intuitiv „plausiblen“ Ähnlichkeitswerten (im Sinne
von „Benchmarkings“) – zugrunde gelegt werden sollen. Das „tiefgründige“ Gebiet,
welche Ähnlichkeitswerte unter welchen Bedingungen als „plausibel“ gelten sollten,
ist bislang weitgehend unerforscht, wenn von rein formal definierten „Ähnlichkeits-
metriken“ abgesehen wird, die in Bezug auf natürlichsprachliches Erfahrungswissen
jedoch kaum weiterhelfen.
Details von Ähnlichkeitsberechnungen lassen sich wegen der komplexen Berechnungs-
algorithmen und ihrer „kompakten“, nur spärlich kommentierten Implementierung
zuweilen nicht im Detail nachvollziehen und infolgedessen auch kaum kritisch über-
prüfen. Dies betrifft auch das prototypische KI-Tool jCORA, und zwar insbesondere
im Hinblick auf seine Verarbeitung von Ähnlichkeitstabellen auf der „elementaren
Ebene“ der Ähnlichkeitsberechnung für Instanzen desselben Konzepts, die qualitatives
Erfahrungswissen darstellen. Daher ist es wünschenswert, die implementierten
Algorithmen für Ähnlichkeitsberechnungen wesentlich detaillierter und expliziter zu
dokumentieren. Außerdem wäre es hilfreich, wenn Ähnlichkeitstabellen, die für ein
„pragmatisches“ Case-based Reasoning auf der Instanzenebene eine beachtliche Rolle
spielen können, nicht innerhalb eines Algorithmus für Ähnlichkeitsberechnungen „fest
verdrahtet“ wären. Stattdessen sollte es möglich sein, solche Ähnlichkeitstabellen einem
Algorithmus für Ähnlichkeitsberechnungen über eine wohldefinierte Schnittstelle extern
vorzugeben, wie z. B. mittels einfacher Excel-Tabellen, die in der betrieblichen Praxis
weit verbreitet sind. Oder das KI-Tool jCORA sollte um eine einfach aufzurufende und
zu bedienende „Eingabemaske“ erweitert werden, mit deren Hilfe sich eine instanzen-
bezogene Ähnlichkeitstabelle auf intuitiv unmittelbar verständliche Weise editieren lässt.
Darüber hinaus wäre eine ähnlichkeitsbezogene „Erklärungskomponente“ von CBR-
Systemen wünschenswert. Zwar können aktuelle CBR-Systeme wie das prototypische
KI-Tool jCORA schon jetzt ihre Handlungsempfehlungen für die Auswahl (mindestens)
258 Z. Stephan et al.

eines ähnlichsten alten Projekts als Grundlage für die Bearbeitung eines neuen Projekts
mithilfe projektspezifischer Ähnlichkeitswerte begründen, eventuell ergänzt um die Ein-
haltung oder Verletzung vorgegebener Mindestähnlichkeiten. Aber die ausgewiesenen
Ähnlichkeitswerte müssen vom Benutzer eines CBR-Systems „geglaubt“ werden, weil
die eingesetzten Algorithmen zur Ähnlichkeitsberechnung viel zu komplex sind, als
dass sie sich unmittelbar „durchschauen“ ließen. Daher wäre es im Interesse der Trans-
parenz und Nachvollziehbarkeit – in Übereinstimmung mit dem Konzept der bereits
hervorgehobenen „White-Box AI“ – willkommen, wenn einem Benutzer die Möglichkeit
geboten würde (z. B. mittels eines Buttons „Erläuterung der Ähnlichkeitsberechnung“),
vom CBR-System ein Protokoll der konkret durchgeführten Ähnlichkeitsberechnung
anzufordern und auch zu archivieren oder auszudrucken. An das Berechnungsprotokoll
lassen sich weitergehende Anforderungen aus der Sicht einer benutzerfreundlichen
Erklärungsfähigkeit stellen. Dazu gehört beispielsweise die Anforderung, dass nicht
nur numerische Berechnungen protokolliert werden, sondern auch hinterlegt wird, auf-
grund welcher allgemeiner Berechnungsformeln (in Bezug auf eine Dokumentation des
implementierten Berechnungsalgorithmus) diese Berechnungen erfolgt sind.
Bezüglich der Reuse-Phase wird vom KI-Tool jCORA die Anpassung von Projekt-
lösungen für alte, möglichst ähnliche Projekte (mit akzeptabler Mindestähnlichkeit
zu einem neuen Projekt) an ein neues Projekt noch nicht unterstützt. Es wird ledig-
lich eine „Copy-Funktion“ für die Übernahme der Projektlösung eines alten Projekts
angeboten. Ein solches Kopieren einer alten Projektlösung leistet jedoch keinen Bei-
trag zu ihrer Anpassung an ein neues Projekt. Auch andere Ansätze zur Anpassung von
Projektlösungen für alte Projekte an neue Projekte überzeugen derzeit noch nicht. Es
handelt sich entweder um sehr abstrakte, weitgehend formalsprachliche Anpassungs-
konzepte ohne den wichtigen semantischen Bezug zu qualitativem Erfahrungswissen.
Oder es handelt sich um Anpassungskonzepte für Spezialfälle, wie z. B. die Anpassung
von Kostenschätzungen für neue Projekte an Wissen über die Kosten alter Projekte. Ins-
gesamt betrachtet, liegen für das Wissensanpassungsproblem des Case-based Reasonings
aus betriebswirtschaftlicher Sicht – sowohl in Bezug auf die semantische Wissensver-
arbeitungsdimension als auch in Bezug auf die Allgemeinheit der Anpassungsfähig-
keit – bisher noch keine überzeugenden Lösungsvorschläge vor. Daher kann aktuell von
einem „adaptiven Lösungsdefekt“ des Case-based Reasonings zumindest aus betriebs-
wirtschaftlicher Perspektive gesprochen werden.
Für die Revise-Phase werden keine computergestützten Hilfen offeriert, um
Empfehlungen zur Lösung eines neuen Projekts hinsichtlich ihrer Plausibilität zu
überprüfen („validieren“) und hinsichtlich ihrer Eignung zur Wiederverwendung zu
evaluieren. Hierfür werden in der einschlägigen Fachliteratur – wenn überhaupt – nur
plausible, aber kaum verallgemeinerbare Beispiele für „passende“ Einzelfälle erwähnt.
Für eine allgemein einsetzbare, computergestützte Überprüfung und Evaluierung von
Lösungsempfehlungen, die durch ein CBR-System generiert werden, bedarf es daher
weitreichender zukünftiger Forschungen.
Case-based Reasoning als White-Box AI: „intelligentes“ … 259

Es wäre wünschenswert, aus den Resultaten der Reuse-Phase (Projektlösung) und der
Revise-Phase (Projektbewertung und gegebenenfalls überarbeitete Projektlösung) einen
übersichtlichen „Project Report“ in überwiegend natürlichsprachlicher Form generieren
zu können, der insbesondere über „Lessons Learned“ sowie über projektbezogene
kritische Erfolgs- und Misserfolgsfaktoren informiert.
Für die Visualisierung von instanziierten Projekt-Ontologien mittels Fallgraphen
sollte das KI-Tool jCORA erheblich überarbeitet werden. Hierfür bieten sich zwei Wege
an. Einerseits wird die „Funktionalität“ von jCORA im Hinblick auf die Generierung
und Überarbeitung von Fallgraphen erheblich erweitert. Dazu wäre es erforder-
lich, die generierten Fallgraphen im Nachhinein manuell ohne „Tricksereien“ über-
arbeiten zu können, um z. B. Überschneidungen von Knoten und Kanten zu entzerren,
Knotengrößen an die enthaltenen Instanzen- und Konzeptbezeichnungen anzupassen und
Kantenanschriften so zu verschieben, dass sie sich visuell klarer den jeweils betroffenen
Kanten zuordnen lassen. Eine solche Erweiterung von jCORA um die Fähigkeit, visuell
wesentlich überzeugendere Fallgraphen zu erstellen, wird jedoch erhebliche, vor allem
professionelle Programmierungsressourcen binden. Daher wäre es andererseits zu
erwägen, die „Funktionalität“ von jCORA nur insoweit zu erweitern, dass die in jCORA
generierten Fallgraphen über eine Software-Schnittstelle in eine betriebsübliche Grafik-
Software exportiert und dort entsprechend überarbeitet werden können. Als solche
Grafik-Softwares kommen vor allem MS PowerPoint und MS Visio in Betracht.

3.2 Offene Probleme hinsichtlich der betrieblichen Integration


von CBR-Systemen wie jCORA

CBR-Systeme wie das prototypische KI-Tool jCORA und auch „Hilfssysteme“ wie der
Ontologie-Editor Protégé leiden hinsichtlich ihrer „Tauglichkeit“ für die betriebliche
Praxis grundsätzlich darunter, dass sie überwiegend an Forschungseinrichtungen – wie
z. B. Universitätsinstituten – entwickelt wurden, in denen eine andere Informations-
technik- oder Organisationskultur als in der betrieblichen Praxis herrscht.
Beispielsweise werden an Forschungseinrichtungen andere Programmiersprachen
(z. B. C#, Python und Java) und Entwicklungsumgebungen (z. B. Apache und Ruby on
Rails) bevorzugt, als es in der betrieblichen Praxis üblich ist (wie z. B. im Hinblick auf
betriebswirtschaftliche Standardsoftware im Umfeld von SAP, MS Navision und Oracle
– abgesehen von problematischer, weil veralteter „Legacy Software“ in Unternehmen).
Hinzu kommt, dass Anforderungen der betrieblichen Praxis an ein KI-Tool (Fink et al.
2021b; Schagen et al. 2020) oftmals andere Aspekte – wie etwa die Benutzerfreundlich-
keit – betonen als im Fokus von wissenschaftlichen Forschungsinteressen stehen (wie
z. B. die Ausdrucksmächtigkeit einer Wissensmodellierung und die „Performance“ eines
Algorithmus zur Ähnlichkeitsberechnung).
260 Z. Stephan et al.

Aus den vorgenannten Gründen werden im Folgenden einige Aspekte angeführt,


die aus der Sicht der Verfasser dieses Beitrags wesentlich dazu beitragen könnten, die
Integration von CBR-Systemen – wie z. B. dem KI-Tool jCORA – zu fördern:

• Ein CBR-System sollte wohldefinierte (Software-)Schnittstellen besitzen, um projekt-


relevantes Wissen aus konventionellen Softwaresystemen – wie z. B. SAP 4/Hana
im Hinblick auf konventionelle Projektmanagementmethoden oder Jira in Bezug auf
agile Projektmanagementmethoden wie Scrum – importieren zu können. Vor allem
sind auch Input-Schnittstellen zu Text- und Tabellenverarbeitungssystemen wie
MS Word bzw. MS Excel wünschenswert, weil in diesen konventionellen Software-
systemen oftmals projektrelevantes Wissen archiviert wird.
• Ein CBR-System sollte wohldefinierte (Software-)Schnittstellen besitzen, um seine
Handlungsempfehlungen in Bezug auf neue Projekte in konventionelle Software-
systeme exportieren zu können.
• Es wäre wünschenswert, die Projektwissensbasis eines CBR-Systems nicht als
„Stand-alone Software“ zu realisieren, sondern diese Projektwissensbasis in eine
betrieblich übliche Projektmanagement-Software zu integrieren, um vielfältige
Schnittstellenprobleme zu vermeiden. Angesichts der bereits angesprochenen Soft-
ware- und Schnittstellenprobleme erscheint dieser Wunsch jedoch derzeit als sehr
schwer zu realisieren.
• Für die vorgenannte Integrationsaufgabe (hinsichtlich der Projektwissensbasis eines
CBR-Systems in eine betrieblich übliche Projektmanagement-Software) bietet es
sich an, eine systematische Prozessmodellierung der im Projektmanagement üblichen
Geschäftsprozesse mit den Wissensobjekten zu verknüpfen, die von einem CBR-
System im Projektmanagement erzeugt, verwaltet und wiederverwendet werden:
entweder als die drei generischen Wissenskomponenten der Projektbeschreibung,
-lösung und -bewertung von alten oder neuen Projekten oder auch als einzelne
Bestandteile dieser drei generischen Wissenskomponenten. Eine solche Kombination
von projektbezogener Prozessmodellierung mit projektbezogenen Wissensobjekten
wurde zwar bislang noch nicht systematisch erarbeitet, aber erste vielversprechende
Ansätze liegen bereits vor (Gentner et al. 2003).
• Für ein CBR-System sind hinsichtlich seines Einsatzbereichs im betrieblichen
Projektmanagement umfangreiche Datenschutzregelungen vorzusehen. Dies betrifft
vor allem Rollenkonzepte, in denen festgelegt wird, welche Mitarbeiter eines Unter-
nehmens in welche „Rolle“ (organisatorische oder funktionale Zuständigkeit) welche
Zugriffsrechte (vor allem Lese- und Schreibrechte) auf die Projektwissensbasis eines
CBR-Systems erhalten. In dieser Hinsicht sind Mitbestimmungsrechte eines Betriebs-
oder Personalrats und individuelle Rechte von Mitarbeitern auf informationelle
Selbstbestimmung sorgfältig und „sensibel“ zu beachten. Beispielsweise kann ein
CBR-System mit Projektwissensbasis erhebliches persönlichkeitsrelevantes Wissen
hinsichtlich der Beteiligung einzelner Mitarbeiter – insbesondere ihrer „Performance“
Case-based Reasoning als White-Box AI: „intelligentes“ … 261

– an den Projekten eines Unternehmens umfassen. Daher sollte ein „praxistaug-


liches“ CBR-System vor allem auch ein Rollenkonzept umfassen, das festlegt, welche
betrieblichen Personengruppen in welchem Ausmaß Zugriff auf das in einem CBR-
System gespeicherte Wissen erhalten. Entsprechende Betriebsvereinbarungen besitzen
für die betriebliche Praxis vermutlich eine herausragende Bedeutung.
• Ein CBR-System sollte mit einer Cockpit- oder Dash-Board-Funktionalität aus-
gestattet werden, um Mitarbeitern – vor allem Führungskräften – im Projekt-
management jederzeit anzeigen zu können, welche der aktuell geplanten oder
durchgeführten Projekte gegebenenfalls besondere „Eingriffe“ zur Gegen-
steuerung erfordern, falls der erwartete Projekterfolg erheblich gefährdet wird.
Diese Funktionalität wäre vor allem aus der Perspektive des Projektcontrollings
willkommen.
• Mithilfe von Use Cases sollte noch intensiver aufgezeigt werden, wie sich ein CBR-
System in die betriebliche „Alltagsarbeit“ des Projektmanagements aus der Benutzer-
perspektive „praxistauglich“ integrieren lässt.

Die voranstehend angesprochenen Aspekte sind sicherlich nicht vollständig, mögen


aber ausreichen, um zu verdeutlichen, dass die Fortentwicklung eines CBR-Systems
nicht nur aus der Perspektive von KI-Techniken angezeigt ist, sondern vor allem auch
einer sorgfältigen Berücksichtigung des Integrationsbedarfs in bestehende – oftmals
„konventionelle“ (also nicht KI-affine) – betriebliche Informationstechnik- und
Organisationsstrukturen bedarf.

Literatur

Allam S, Heeb T, Zelewski S (2021) Konzipierung und Implementierung eines E-Learning-


Moduls für ein ontologiegestütztes Case-based Reasoning Tool zur Unterstützung des Projekt-
managements im Rahmen des KI-LiveS-Projekts. KI-LiveS-Projektbericht Nr. 5. Institut für
Produktion und Industrielles Informationsmanagement, Universität Duisburg-Essen
Amin K (2021) DeepKAF: a knowledge intensive framework for heterogeneous case-based
reasoning in textual domains. Eigenverlag, Kaiserslautern
Auth G, Jöhnk J, Wiecha D (2021) Künstliche Intelligenz im Projektmanagement. In: Barton T,
Müller C (Hrsg) Künstliche Intelligenz in der Anwendung. Springer Vieweg, Wiesbaden, S
149–173
Bergenrodt D, Kowalski M (2015a) Konzipierung, Implementierung und kritische Evaluierung
einer Projektwissensbank auf Basis von semantischen Methoden der Künstlichen Intelligenz.
OrGoLo-Projektbericht Nr. 31. Institut für Produktion und Industrielles Informations-
management, Universität Duisburg-Essen
Bergenrodt D, Kowalski M, Zelewski S (2015b) Prototypische Implementierung des ontologie-
gestützten CBR-Tools jCORA. In: Zelewski S, Akca N, Kowalski M (Hrsg) Organisatorische
Innovationen mit Good Governance und Semantic Knowledge Management in Logistik-Netz-
werken. Logos, Berlin, S 475–553
262 Z. Stephan et al.

Bergmann R, Minor M, Bach K, Althoff K, Muñoz-Avila H (2021) Fallbasiertes Schließen. In:


Görz G, Schmid U, Braun T (Hrsg) Handbuch der Künstlichen Intelligenz. 6. Aufl., de Gruyter
Oldenbourg, Berlin, S 343–393
Fink S, Hauke M, Ye B, Schagen J, Zelewski S (2021a) Erstellung und kritische Analyse von
Use Cases für Anwendungen von KI-Tools im betrieblichen Projektmanagement. KI-LiveS-
Projektbericht Nr. 7. Institut für Produktion und Industrielles Informationsmanagement, Uni-
versität Duisburg-Essen
Fink S, Röhrig K, Heeb T, Schagen J, Zelewski S (2021b) Konzipierung und Implementierung
eines ontologiegestützten Case-based-Reasoning-Systems für die Wiederverwendung von
projektbezogenem Erfahrungswissen. KI-LiveS-Projektbericht Nr. 3. Institut für Produktion
und Industrielles Informationsmanagement, Universität Duisburg-Essen
Gentner C, von Mevius M (2003) Entwicklung eines unternehmensbezogenen Unternehmens-
portals zum dynamischen Wissensmanagement. In: Reimer U, Abecker A, Staab S, Stumme G
(Hrsg) WM2003: Professionelles Wissensmanagement. GI Verlag, Bonn, S 363–368
Kim M, Lee S, Woo S, Shin D (2012) Approximate cost estimating model for river facility
construction based on case-based reasoning with genetic algorithms. KSCE [Korean Society of
Civil Engineers] J Civ Eng 16(3):283–292
Kowalski M, Zelewski S, Günes N, Kühn T (2011) Kostenschätzungen für die Reaktivierung
passiver Gleisanschlüsse – Eine neue Methode für Kostenschätzungen mithilfe von Case-based
Reasoning (CBR) basiert auf der Wiederverwendung von historischem Projektwissen. EI – Der
Eisenbahningenieur, 62(6):49–54
Ren X, Yan Z, Wang Z, He J (2020) Inter-project knowledge transfer in project-based
organizations: an organizational context perspective. Manage Decis 58(5):844–863
Richter M, Weber R (2013) Case-based reasoning. Springer, Berlin
Schagen J, Zelewski S, Heeb T. (2020) Erhebung und Analyse der Anforderungen an ein KI-Tool aus
der Perspektive der betrieblichen Praxis – mit Fokus auf der Wiederverwendung von Erfahrungs-
wissen im Bereich des betrieblichen Projektmanagements. KI-LiveS-Projektbericht Nr. 1. Institut
für Produktion und Industrielles Informationsmanagement, Universität Duisburg-Essen
Schagen T, Heeb T, Zelewski S, Schagen J (2021) Entwicklung eines E-Learning-Moduls für ein
ontologiegestütztes Case-based Reasoning Tool für das betriebliche Projektmanagement. KI-
LiveS-Projektbericht Nr. 8. Institut für Produktion und Industrielles Informationsmanagement,
Universität Duisburg-Essen
Weber L, Allam S, Camgöz A, Heeb T, Zelewski S (2021a) Erstellung eines E-Learning-Moduls
für den Ontologie-Editor Protégé. KI-LiveS-Projektbericht Nr. 6. Institut für Produktion und
Industrielles Informationsmanagement, Universität Duisburg-Essen
Weber L, Heeb T, Sethupathy G, Schagen J, Zelewski S (2021b) „Intelligente“ Wiederverwendung
von Erfahrungswissen im betrieblichen Projektmanagement mithilfe von KI-Techniken bei
sicherheitskritischen IT-Projekten mit Fokus auf PRINCE2 und Risikomanagement. KI-LiveS-
Projektbericht Nr. 4. Institut für Produktion und Industrielles Informationsmanagement, Uni-
versität Duisburg-Essen
Zelewski S, Schagen J (2022) Case-based Reasoning als KI-Technik zur „intelligenten“, computer-
gestützten Wiederverwendung von Erfahrungswissen im Projektmanagement. KI-LiveS-
Projektbericht Nr. 9. Institut für Produktion und Industrielles Informationsmanagement,
Universität Duisburg-Essen
Zelewski S, Kowalski M, Kühn T (2011) Kostenschätzung für die Reaktivierung von Gleis-
anschlüssen mithilfe von Case-based Reasoning. In: Zelewski S, Jene S (Hrsg) Kooperationen
zwischen Eisenbahnverkehrsunternehmen, Bd 1. Logos, Berlin, S 489–503
Zima K (2015) The case-based reasoning model of cost estimation at the preliminary stage of a
construction project. Procedia Eng 122:57–64
Case-based Reasoning als White-Box AI: „intelligentes“ … 263

     Herr Univ.-Prof. Dr. Stephan Zelewski ist Inhaber einer


Professur für Betriebswirtschaftslehre und Direktor des Instituts für
Produktion und Industrielles Informationsmanagement an der
Fakultät für Wirtschaftswissenschaften der Universität Duisburg-
Essen. Er studierte Betriebs- und Volkswirtschaftslehre in Münster
und Köln, wurde 1985 mit einer Arbeit über betriebswirtschaftliche
Anwendungspotenziale der Künstlichen Intelligenz promoviert und
1992 mit einer Arbeit zur Strukturalistischen Produktionstheorie
habilitiert. Seine Hauptarbeitsgebiete erstrecken sich auf computer-
gestütztes Produktionsmanagement an der Nahtstelle zwischen
Betriebswirtschaftslehre und Wirtschaftsinformatik mit Fokus auf
Projektmanagement, Logistik, Supply Chain Management sowie
Produktionsplanung und -steuerung. Dazu zählt ebenso der Trans-
fer von Erkenntnissen aus der Erforschung Künstlicher Intelligenz
auf ökonomische Probleme, insbesondere im Hinblick auf
Wissensbasierte Systeme, Ontologien und Case-based Reasoning.
Nebenarbeitsgebiete betreffen Operations Research, Spieltheorie
(faire Verteilung von Effizienzgewinnen in Supply Webs) sowie
Produktions- und Wissenschaftstheorie (Non Statement View).

     Frau Dipl.-Math. Tatjana Heeb ist wissenschaftliche Mit-


arbeiterin am Institut für Produktion und Industrielles Informations-
management der Universität Duisburg-Essen. Sie studierte
Mathematik mit dem Nebenfach Wirtschaft und dem Schwerpunkt
Operations Research an der Universität Duisburg-Essen. Seit 2013
unterstützt sie das Institut für Produktion und Industrielles
Informationsmanagement mit Lehrtätigkeiten in den Bereichen des
Projekt- und problemorientiertes Lernens, der Existenzgründung und
der Techniken des wissenschaftlichen Arbeitens. Derzeit konzentriert
sie sich neben dem Verbundprojekt KI-LiveS auf ihr Dissertations-
projekt zum Thema „Semi- oder vollautomatische Generierung von
Wissenskomponenten aus überwiegend natürlichsprachlichen Texten
für ontologiegestützte Case-based-Reasoning-Systeme“.

Herr Jan Peter Schagen, M.Sc., ist wissenschaftlicher Mitarbeiter


und Promotionsstudent am Institut für Produktion und Industrielles
Informationsmanagement an der Fakultät für Wirtschaftswissen-
schaften der Universität Duisburg-Essen. Er studierte an der Uni-
versität Duisburg-Essen, Campus Essen, den Bachelorstudiengang
Betriebswirtschaftslehre (B.Sc.) und anschließend den Masterstudien-
gang Märkte und Unternehmen (M.Sc.). Im Rahmen seiner Tätigkeit
als wissenschaftlicher Mitarbeiter arbeitet er unter anderem im Ver-
bundprojekt KI-LiveS, das anstrebt, Techniken aus der Erforschung
Künstlicher Intelligenz in die betriebliche Praxis zu transferieren.
Daneben konzentriert er sich auf sein Dissertationsprojekt, das sich
insbesondere der systematischen Konzipierung, Implementierung und
Evaluierung von Adaptionsregeln für ein ontologiegestütztes Case-
based-Reasoning-System im Rahmen der „intelligenten“ Wiederver-
wendung von Erfahrungswissen im Projektmanagement widmet.

Das könnte Ihnen auch gefallen