Christoph Stockstrom Planung Und Umsetzung Von Innovationsprojekten Zur Wirkung Des Coalignment
Christoph Stockstrom Planung Und Umsetzung Von Innovationsprojekten Zur Wirkung Des Coalignment
Forschungs-/Entwicklungs-/Innovations-
Management
Herausgegeben von
Professor Dr. Hans Dietmar Bürgel (em.)
Universität Stuttgart
Professorin Dr. Diana Grosse, vorm. de Pay
Technische Universität Bergakademie Freiberg
Professor Dr. Cornelius Herstatt
Technische Universität Hamburg-Harburg
Professor Dr. Hans Koller
Universität der Bundeswehr Hamburg
Professor Dr. Martin G. Möhrle
Universität Bremen
Die Reihe stellt aus integrierter Sicht von Betriebswirtschaft und Technik Arbeits-
ergebnisse auf den Gebieten Forschung, Entwicklung und Innovation vor. Die
einzelnen Beiträge sollen dem wissenschaftlichen Fortschritt dienen und die
Forderungen der Praxis auf Umsetzbarkeit erfüllen.
Christoph Stockstrom
Planung und Umsetzung
von Innovationsprojekten
Zur Wirkung des Coalignment
RESEARCH
Bibliografische Information der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der
Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
<http://dnb.d-nb.de> abrufbar.
1. Auflage 2009
ISBN 978-3-8349-1829-1
Für Sina
Geleitwort
Die Arbeit von Herrn Dipl. Kfm. Christoph Stockstrom widmet sich der Fragestellung,
wie Innovationsprojekte im Spannungsfeld von Effizienz und Flexibilität geplant
werden müssen, damit sie möglichst erfolgreich umgesetzt und abgeschlossen werden
können. Diese Frage wird in der Innovationsforschung konträr diskutiert, wobei
das Spektrum der vertretenen Meinungen von der Forderung nach einer möglichst
elaborierten, formalen und umfassenden Planung bis hin zu Forderungen nach der
Abkehr von klassischen Planungsmethoden hin zur Improvisation reicht.
Herr Stockstrom greift diese Diskussion auf und nutzt Planungsansätze aus den
Bereichen des strategischen Managements und der Planung betriebswirtschaftlicher
Informationssysteme, um zunächst zu untersuchen, welche Beiträge formale, effizi-
enzbezogene Planungselemente einerseits und flexible Planungselemente andererseits
zum Projekterfolg leisten. Seine Ausführungen zeigen, dass sich die bisher konträr
geführte Diskussion zur Erfolgswirksamkeit gegebenenfalls um eine Annäherung und
Kombination der verschiedenen propagierten Verfahren bemühen sollte und lassen
Herrn Stockstrom zu der Frage gelangen, ob Planungsprozesse, denen es gelingt
sowohl formale als auch flexible Elemente miteinander zu vereinen, erfolgswirksamer
sind als Planungsprozesse, die primär formal oder primär flexibel sind.
Herr Stockstrom bleibt an diesem Punkt nicht stehen. Er widmet sich zudem
der Frage, wie die Erfolgswirksamkeit des von ihm skizzierten Planungsprozesses
durch den Planungsgegenstand, im Sinne der Charakteristika des zugrundeliegenden
Projekts, und den Planungskontext, im Sinne der Umweltdynamik, beeinflusst wird.
Er zeigt, dass die von ihm erzielten Ergebnisse über verschiedene Projekttypen und
Unternehmensumfelder hinweg stabil sind.
Die Innovationsforschung hat eine Reihe von Erfolgsfaktoren identifiziert und unter
diesen eine umfassende, formale und detaillierte Eingangsplanung von Innovations-
projekten als bedeutsamen Einflussfaktor herausgearbeitet. Andere Quellen hingegen
weisen immer wieder darauf hin, dass es sich bei Innovationsprojekten in aller Regel
nicht um eine Reihe vorhersehbarer Schritte handelt, die im vorhinein identifiziert
und geplant werden können, da es zu Beginn der Projektdurchführung häufig an
einem genauen Verständnis der spezifischen Projektaufgaben, deren Abfolge, der
Interdependenzen zwischen den Aufgaben sowie ihrer zeitlichen Befristung mangelt.
Insofern stellt sich die Frage, wie Innovationsprojekte vor diesem Hintergrund geplant
werden sollten und welchen Beitrag die Planung zum Projekterfolg leisten kann. Aus
diesen Überlegungen heraus entstand die vorliegende Arbeit während meiner Zeit als
wissenschaftlicher Mitarbeiter am Arbeitsbereich Technologie- und Innovationsman-
agement der Technischen Universität Hamburg-Harburg.
Es ist kein Geheimnis, dass eine Dissertation trotz des einen Namens, der auf
dem Umschlag steht, niemals nur das Werk einer einzelnen Person ist. Dies trifft
auch auf die vorliegende Arbeit zu, an deren Entstehung und zu deren Gelingen
viele Menschen beigetragen haben, denen ich an dieser Stelle danken möchte. Mein
besonderer Dank gilt zunächst meinem akademischen Lehrer Herrn Professor Dr.
Cornelius Herstatt, der mich und meine Arbeit begleitet und betreut hat. Seine
Kreativität, Inspiration und Förderung sowie sein motivierendes Vertrauen in das
Gelingen dieser Arbeit haben wesentlich zu ihrem erfolgreichen Abschluss beigetragen.
Die vielfältigen wissenschaftlichen und praktischen Erfahrungen, die er mir während
meiner Arbeit an seinem Lehrstuhl vermittelt hat, werden mir auch in Zukunft
wertvolle Dienste erweisen. Ebenso möchte ich mich sehr herzlich bei Herrn Professor
Dr. Martin G. Möhrle bedanken, der diese Arbeit als Zweitgutachter mit wertvollen
Hinweisen und Anregungen gefördert hat und trotz eines vollen Terminkalenders in
X
kürzester Zeit sein Gutachten erstellt hat. Herrn Professor Dr.-Ing. Otto von Estorff
danke ich herzlich für die Übernahme des Vorsitzes in der Prüfungskommission.
Auch Kollegen und Freunden danke ich für die Zeit, in der sie mir den Rücken für
konzentriertes Arbeiten freigehalten haben und sich als Lektoren mit vielen wertvollen
Hinweisen um diese Arbeit verdient gemacht haben. Dr. Nils Andres, Dr. Stephan
Buse, Dr. Christina Raasch und Rajnish Tiwari möchte ich für die Verbesserungsvor-
schläge und Korrekturhinweise danken, die ihrem intensiven Lektorat entstammen.
Dem Team des Arbeitsbereichs Technologie- und Innovationsmanagement möchte
sehr herzlich für die gute Zusammenarbeit danken - dies gilt ganz besonders für
Carola Tiedemann, Andreas Kühl, Dr. Jürgen Sandau, Dr. Jan G. Sander und Dr.
Robert Tietz. Ein großer Dank für die technische Unterstützung gebührt Jan Koch,
der mir bei vielen zeitintensiven Fragen zu Linux und LATEX zur Seite gestanden hat,
sowie dem Support der Open Source Software Gemeinde.
Vor allem aber danke ich meiner Familie. Ohne ihr Verständnis und ihre unersetzli-
che, liebevolle Unterstützung wäre diese Arbeit nicht möglich gewesen. Meinen Eltern
und Geschwistern danke ich dafür, dass sie mich in meinen Entscheidungen stets
bestärkt haben und bei allen meinen Vorhaben uneingeschränkt unterstützt haben.
Ohne sie hätte ich diesen Weg nicht gehen können. Meine Großeltern haben mich
mit ihrem Urvertrauen und unerschütterlichen Optimismus in meine Fähigkeiten
immer wieder zum Lächeln gebracht und mir über manche Hürde hinweggeholfen. Ein
besonderer Dank gebührt meiner Frau Sina, die den gesamten Prozess der Erstellung
dieser Arbeit am intensivsten begleitet hat und von ihm betroffen war. Ihre Liebe und
und positiven Impulse haben mein seelisches Gleichgewicht stets wieder hergestellt.
Ich könnte mir keine bessere Partnerin wünschen.
Christoph Stockstrom
Inhaltsverzeichnis
Abbildungsverzeichnis XV
Tabellenverzeichnis XVII
Abkürzungsverzeichnis XIX
1 Einleitung 1
1.1 Problemstellung und Zielsetzung . . . . . . . . . . . . . . . . . . . . . 1
1.2 Bezugsrahmen und Eingrenzung der Untersuchung . . . . . . . . . . . 4
1.3 Vorgehensweise und Aufbau der Arbeit . . . . . . . . . . . . . . . . . 6
2 Konzeptionelle Grundlagen 9
2.1 Innovation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Innovationsgrad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Innovationstypologien im Überblick . . . . . . . . . . . . . . . 16
2.2.2 Operationalisierungen des Innovationsgrades . . . . . . . . . . 26
2.3 Planung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.1 Begriffsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.2 Funktionen und Grenzen der Planung . . . . . . . . . . . . . . 35
2.3.3 Ebenen der Planung . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.4 Improvisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Planung und Innovation . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4.1 Strategische Ebene . . . . . . . . . . . . . . . . . . . . . . . . 50
2.4.2 Taktische Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.4.3 Operative Ebene . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4.3.1 Der Projektbegriff . . . . . . . . . . . . . . . . . . . 53
2.4.3.2 Planung von Innovationsprojekten . . . . . . . . . . 55
3.3 Umsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.4 Einflussfaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4.1 Innovationsgrad . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4.2 Branchenumfeld . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.4.3 Projektkomplexität . . . . . . . . . . . . . . . . . . . . . . . . 104
3.5 Projekterfolg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.6 Hypothesensystem und Modellstruktur im Überblick . . . . . . . . . 118
5 Schlussbetrachtung 223
5.1 Zusammenfassung wesentlicher Ergebnisse . . . . . . . . . . . . . . . 223
5.2 Implikationen für die Unternehmenspraxis . . . . . . . . . . . . . . . 226
5.3 Limitierungen und Ansatzpunkte für weitere Forschungsbemühungen 229
Literaturverzeichnis 233
A Anhang 1 281
Abbildungsverzeichnis
1.1 Bezugsrahmen der Untersuchung . . . . . . . . . . . . . . . . . . . . 4
1.2 Eingrenzung der Untersuchung . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Aufbau der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . 7
On the one hand, marketers are urged to plan carefully and to research
”
markets thoroughly. On the other, though, they are required to be nimble
enough to make quick adjustments in both new products and strategies.
To participate successfully in new product development, then, marketers
must walk the tightrope between these imperatives.“ (Moorman und
Miner, 1995, S. 1)
and emphasis on one may mean harming the other. The management
practices and paradigms that lead to innovation and efficiency are different
and generally contradictory.“ (Naveh, 2005, S. 2790).
Why did we all agree to go through this pain? Only because we all
”
underestimated what was ahead of us. The risks we thought we were
facing turned out to be irrelevant; the problems that did hit us were
unexpected; and the outcome was different from the original idea.“
Unterstützt wird diese Sichtweise von Andersen (1996), der argumentiert, dass ein
Projekt eine einzigartige Herausforderung darstelle, für die eine Eingangsplanung
unpraktikabel sei, da Einzigartigkeit impliziere, dass es unmöglich sei, bereits zu
so einem frühen Zeitpunkt über alle notwendigen Aktivitäten informiert zu sein.
Daher sei es sehr wahrscheinlich, dass Eingangsplanungen bei einer Veränderung
der Informationslage an den tatsächlichen Projektverlauf angepasst werden müssten.
Dvir und Lechler (2004) zeigen, dass sich diese Änderungen des ursprünglichen Plans
negativ auf den Projekterfolg auswirken und die erfolgswirksamen Effekte eines
guten Projektplans nicht nur mindern, sondern sogar übersteigen können. Darüber
hinaus weisen Song und Montoya-Weiss (1998) darauf hin, dass es erforderlich sei,
die Planungsaktivitäten stärker an dem Neuigkeitsgrad der jeweiligen Innovation
und damit an der mit dem Projekt verbundenen Unsicherheit zu orientieren. Daher
hat eine weitere Forschungsrichtung im Innovationsmanagement den Nutzen einer
ausgiebigen Projekteingangsplanung in Frage gestellt und vertritt die Auffassung,
dass die Fähigkeit, im Projektverlauf kurzfristig auf Veränderungen zu reagieren
und zu improvisieren, einen entscheidenden Schlüssel zum Erfolg in der Neuprodukt-
entwicklung darstellt (Eisenhardt und Tabrizi, 1995; Ward, Liker, Cristiano und
Sobeck II, 1995; Brown und Eisenhardt, 1997; Moorman und Miner, 1998a; Miner,
Bassoff und Moorman, 2001).
Aus diesen gegensätzlichen Positionen wird deutlich, dass die Rolle der Planung als
Erfolgsfaktor von Innovationsprojekten trotz vielfacher Forschungsbemühungen nicht
eindeutig geklärt ist. Insofern überrascht es nicht, dass Thieme, Song und Shin (2003,
S. 116) weiteren Forschungsbedarf anmahnen: future studies could provide much
”
more insight into the factors that promote good planning in NPD and the nature of
good planning itself.“ Dieser Bedarf resultiert auch daraus, dass sich ein Großteil der
bestehenden Studien nicht detailliert mit den verschiedenen Aspekten der Planung
beschäftigt, sondern diese lediglich unter einem Überbegriff zusammenfasst und
aggregiert betrachtet (Stockstrom und Herstatt, 2008). Das Ziel dieser Arbeit ist es
daher, ein besseres Verständnis der Planung von Neuproduktentwicklungsprojekten
zu erarbeiten und damit zu einer Verringerung der identifizierten Forschungslücke
beizutragen. Aufgrund der bereits existierenden Anzahl empirischer Befunde und der
hier skizzierten Problematik soll dies in Form einer quantitativ-konfirmatorischen
4 Einleitung
Untersuchung des Spannungsfeldes von Effizienz und Flexibilität in der Planung von
Neuproduktentwicklungsprojekten unter Berücksichtigung
Dabei ist es ein ausdrückliches Ziel der vorliegenden Arbeit, konkrete Handlungs-
empfehlungen für die Praxis zu entwickeln, um den von Witte (1988) artikulierten
Forderungen nach praktischer Relevanz, theoretischer Attraktivität und Zugang zum
empirischen Feld nachzukommen.
indirekte Erfolgswirkung
Flexibilität
Umsetzung
Gestaltung der
Projekterfolg
Projektplanung
Einflussfaktoren
Im Rahmen der vorliegenden Arbeit werden sowohl die direkte als auch die indirek-
te Wirkungsbeziehung zwischen Projektplanung und Projekterfolg untersucht. Die
Ausführungen haben verdeutlicht, dass es eine Reihe potenzieller Einflussfaktoren
auf diesen Wirkungszusammenhang gibt, die sich sowohl auf das jeweilige Projekt
als auch den Branchenkontext des innovierenden Unternehmens zurückführen lassen.
4 Empirische Untersuchung
Untersuchungsdesign
g
Datenaufbereitung
Empirische Überprüfung der Untersuchungshypothesen
5 Schlussbetrachtung
Zusammenfassung wesentlicher Ergebnisse
Implikationen für die Unternehmenspraxis
Limitierungen der Analyse und Ansätze für weitere Forschungsbemühungen
Kapitel 4 widmet sich der empirischen Untersuchung der Planung und Umsetzung
von Innovationsprojekten. Hierzu wird zunächst in Abschnitt 4.1 das Untersuchungs-
design dargestellt. Dabei wird detailliert auf die Operationalisierung der Modellvariab-
len, das Erhebungsdesign, die erzielte Stichprobe sowie auf die zur Analyse genutzten
statistischen Verfahren eingegangen. Abschnitt 4.2 beschreibt die nach der Erhebung
erforderlichen Schritte zur Aufbereitung der erhobenen Daten, um Kodierungsfehler
und nicht akzeptable Fälle von der weiteren Untersuchung ausschließen zu können
sowie eventuell auftretende Probleme durch fehlende Werte zu beheben. Der folgende
Abschnitt 4.3 hat die empirische Überprüfung der Untersuchungshypothesen zum
Gegenstand.
8 Einleitung
Die Arbeit schließt mit Kapitel 5, in dem zunächst die zentralen Ergebnisse
der vorangegangenen Analysen zusammengefasst werden. Auf Basis der Untersu-
chungsbefunde werden anschließend in Abschnitt 5.2 Implikationen und konkrete
Handlungsempfehlungen für die Unternehmen der betrachteten Branchen formuliert.
Da es sich um eine branchenübergreifende Betrachtung handelt, ist zudem anzuneh-
men, dass auch Betriebe aus anderen Branchen, die im Rahmen dieser Arbeit nicht
betrachtet werden konnten, von den aufgezeigten Wirkungszusammenhängen profitie-
ren können. Abschließend wird in Abschnitt 5.3 auf die Limitationen der vorliegenden
Arbeit eingegangen und es werden Ansatzpunkte für weitere Forschungsbemühungen
aufgezeigt.
2 Konzeptionelle Grundlagen
Das folgende Kapitel dient einer Einführung in für die vorliegende Arbeit relevante,
grundlegende Begrifflichkeiten und Forschungsrichtungen. Ein wesentliches Ziel der
Arbeit ist die Konzeptualisierung des Planungsprozesses von Innovationsprojekten,
so dass es einer Auseinandersetzung mit den beiden immanenten Grundkonzepten
der Planung und der Innovation bedarf.
Eine Auseinandersetzung mit dem Phänomen Innovation“ bedarf neben einer
”
grundlegenden Einführung und Begriffsklärung vor allem auch einer Diskussion des
Neuheitsgrades, auch als Innovationsgrad bezeichnet. Im Rahmen der Erschließung
des Planungsbegriffs ist sowohl auf die Rolle der Planung auf Unternehmens- und
Projektebene, als auch auf die planerischen Besonderheiten von Innovationsprojekten
einzugehen. Schließlich wird das in der Literatur als Gegenpol zur Planung diskutierte
Konzept der Improvisation näher erläutert.
2.1 Innovation
Unternehmen unterliegen genau wie ihr Umfeld einem ständigen technischen, wirt-
schaftlichen und sozialen Wandel. Dieser Wandel beeinflusst die Attraktivität der
von einem Unternehmen am Markt offerierten Dienstleistungen und Produkte und
verlangt somit eine unternehmerische Reaktion zur Aufrechterhaltung der Wett-
bewerbsfähigkeit. Innovationen gemäß der sich aus dem Wandel ergebenden An-
forderungen sind eine solche Reaktion und insbesondere erfolgreiche Unternehmen
nutzen diese, um sich Veränderungen in der Umwelt, den verfügbaren Ressourcen,
dem technischen Fortschritt und dem Wettbewerb anzupassen (vgl. z. B. Schilling,
2008; Salaman und Storey, 2002; Pleschak und Sabisch, 1996). Hierbei geht es nicht
zuletzt um das Überleben des Unternehmens, wie Edvinsson et al. (2004, S. 42)
verdeutlichen:
10 Konzeptionelle Grundlagen
Wesentliches Merkmal des Begriffs Innovation“ ist die Entstehung von etwas Neuem
”
(lat.: innovatio = Neuerung, Erneuerung), jedoch wird in der Literatur eine Vielzahl
uneinheitlicher Definitionen gebraucht (vgl. z. B. Hauschildt, 2004; Pleschak und
Sabisch, 1996; Mueser, 1985), so dass eine Abgrenzungen des Begriffs geboten
erscheint.1 Die von Edvinsson et al. (2004, S. 42) vorgeschlagene Innovationsformel
reuse of existing insights and knowledge combined with the new know-
”
ledge as invention and then commercialised and capitalised“
macht deutlich, dass der Innovationsbegriff zunächst vom Begriff der Invention
abzugrenzen ist. Diese ist die erstmalige technische Realisierung einer neuen Pro-
blemlösung als Ergebnis von Forschung und Entwicklung (Pleschak und Sabisch,
1996). Damit ist die Invention das Ergebnis erfolgreicher Bemühungen in Forschung
und Entwicklung, also die Erfindung, die jedoch nicht zwangsläufig geplant gewe-
sen sein muss, sondern auch als Zufallsprodukt“ entstanden sein kann (Specht
”
und Beckmann, 1996). Hieraus wird deutlich: Innovation ist mehr als Invention“
”
(Hauschildt, 2004, S. 24), da sie untrennbar mit der tatsächlichen Nutzung bzw.
der Markteinführung verbunden ist (Specht und Beckmann, 1996). Mit der ersten
wirtschaftlichen Anwendung der Neuerung fügt die Innovation der Invention einen
Zweck hinzu, die Invention alleine ist nur Mittel, aber damit die Grundlage der Inno-
vation (Cutler, 2000). Erweitert man diesen engen Innovationsbegriff und gestattet
ein Verständnis im weiteren Sinne, so umfasst der Begriff Innovation die Begriffe der
Invention und der Innovation im engeren Sinne (Hauschildt, 2004). Dieses weiter
gefasste Verständnis bildet die Grundlage zahlreicher Lehrbücher (vgl. z. B. Specht
und Beckmann, 1996) und wird noch einmal in Abbildung 2.1 auf Seite 11 dargestellt.
Die Abbildung verdeutlicht, dass es weiterhin erforderlich ist, die Innovation vom
Begriff der Imitation abzugrenzen. Während auch die Imitation aus der subjektiven
Sicht des imitierenden Unternehmens etwas Neues enthalten kann, beschreibt der
Begriff jedoch die Nachahmung, also die wiederholte Anwendung einer neuen Pro-
blemlösung durch ein anderes Unternehmen (Pleschak und Sabisch, 1996). Besonders
deutlich wird dies in der Definition von Schwartz (1978, S. 46):
1
Für einen Überblick über diese Definitionen sei auf Mueser (1985) verwiesen, dessen Beitrag
allein eine Gegenüberstellung von 39 Innovationsdefinitionen liefert.
Innovation 11
Im Folgenden soll der Begriff der Innovation für die weiteren Ausführungen dieser
Arbeit definiert werden. Zur Erlangung eines tieferen Verständnisses wird dabei
auf die objekt-, subjekt- und prozessbezogene Dimension des Innovationsbegriffs
eingegangen (vgl. z. B. Hauschildt, 2004).
Aktivität
(Prozess) Forschung Konkurrenz
Markt- Markt-
und durch
einführung durchsetzung
Entwicklung Nachahmung
Innovation
Invention Diffusion Imitation
im eng. Sinne
Ergebnis
Im Rahmen dieser prozessualen Betrachtung wird der Prozess der Erstellung einer
Produktinnovation häufig als Produktinnovationsprozess, Produktentwicklungspro-
zess oder (Neu-)Produktentwicklung bezeichnet (vgl. z. B. Schlaak, 1999; Specht und
Beckmann, 1996). Im Englischen haben sich hierfür die Begriffe product develop-
”
ment“ bzw. new product development“ (NPD) durchgesetzt (vgl. z. B. Kim und
”
Wilemon, 2003; Souder, Sherman und Davies-Cooper, 1998; Brown und Eisenhardt,
1995). Im Weiteren werden die Begriffe Produktinnovationsprozess, Produktent-
wicklungsprozess bzw. (Neu-)Produktentwicklung synonym für Prozesse verwendet,
deren Ziel die Einführung eines neuen Produktes bzw. einer neuen Dienstleistung
in den Markt ist. In der Literatur zur Innovationsforschung existiert eine Vielzahl
an Modellen des Innovationsprozesses, die sich terminologisch, durch die Anzahl
der Prozessphasen, die Differenziertheit der Strukturierung und die Annahmen über
die zeitliche Abfolge bzw. Parallelität der Prozessphasen unterscheiden. Sie die-
nen als idealisierte Abbildungen der Realität der Komplexitätsreduktion, wobei ein
hoher Differenzierungsgrad einem branchen- und situationsunabhängigen, allgemei-
nen Modell entgegensteht (vgl. z. B. Verworn und Herstatt, 2002; R. G. Cooper, 1994).
Damit bezieht sich das Innovationsmanagement auf die bewusste Gestaltung von
Innovationsprozessen sowie des Systems innerhalb dessen sich die Prozesse vollziehen
Innovation 13
Eine Innovation liegt nach dieser objektbezogenen Betrachtung also nur vor, wenn es
sich um eine neuartige Zweck-Mittel-Kombination handelt (Hauschildt, 2004). Dahin-
ter verbirgt sich die Frage nach der Induzierung der Innovation, welche ein wichtiger
14 Konzeptionelle Grundlagen
Neben der vorgestellten Differenzierung des Innovationsbegriffs, die sich auf den Pro-
zess der Erstellung einer Produktinnovation sowie dessen Ergebnis bezieht, lassen sich
Innovationen auch nach ihrer Zugehörigkeit zu Funktionsbereichen untergliedern, wo-
bei von einer funktionaltypischen Differenzierung gesprochen wird. Gemäß Hauschildt
(2004) und Zahn und Weidler (1995) lassen sich nach dieser Perspektive technische,
Innovationsgrad 15
2.2 Innovationsgrad
Im Rahmen des letzten Abschnitts wurde die grundsätzliche Neuartigkeit von Inno-
vationen erläutert. Allerdings haben die Ausführungen auch gezeigt, dass es in der
Kombination von Zweck und Mittel zu durchaus unterschiedlichen Konstellationen
kommen kann, so dass eine pauschale Unterteilung in Innovation auf der einen Seite
und Nicht-Innovation auf der anderen Seite unbefriedigend erscheint. Vielmehr ist es
wünschenswert, graduelle Unterschiede gegenüber dem bisherigen Ist-Zustand aufzei-
gen zu können und damit einen Innovationsgrad mess- und bewertbar zu machen
(Hauschildt und Salomo, 2005, S. 10):
This abundance of typologies has resulted in the same name being used
”
for different types of innovations and the same innovation being classified
under different typologies.“
Bei einer Strukturierung des Neuheitsgrades von Innovationen genügt es nicht, radika-
le und inkrementale Innovationen auf Basis rein technischer Aspekte zu unterscheiden,
wie dies beispielsweise bei Henderson und Clark (1990) geschieht. Folglich sind bei-
spielsweise die Typologien von Ali (1994) und P. Anderson und Tushman (1990) als
zu eingeschränkt zu beurteilen. Radikale Innovationen sind häufig dadurch gekenn-
zeichnet, dass sie einerseits mit langen Entwicklungszeiten, hohen Investitionen und
hoher Unsicherheit verbunden sind (McDermott und Colarelli O’Conner, 2002; Leifer
et al., 2000), andererseits aber auch einen deutlich höheren Kundennutzen realisieren
und dadurch nachhaltige Wettbewerbsvorteile schaffen können (Chandy und Tellis,
2000, 1998). Radikale Innovationen haben damit potenziell eine wesentlich profundere
18 Konzeptionelle Grundlagen
Auswirkung auf das innovierende Unternehmen (Gatignon et al., 2002). Neben einem
Konsens zur Benennung hochgradiger und geringer Innovationen stellen die verschie-
denen Dichotomien zudem auf unterschiedliche Dimensionen des Neuheitsgrades ab,
was die Vergleichbarkeit weiter erschwert. Darüber hinaus wird selbst im Rahmen
gleicher verbaler Klassifikationen auf unterschiedliche Neuheitsdimensionen abgestellt,
wie ein Vergleich der Studien von Balachandra und Friar (1997), Atuahene-Gima
(1995), C. Freeman (1994) und Lee und Na (1994) zeigt. Tabelle 2.2 auf Seite 19
verdeutlicht diese Problematik. Insofern erscheint die rein dichotome Betrachtung
von Innovationen als ungenügend und es ist Green, Gavin und Aiman-Smith (1995,
S. 203) zuzustimmen, die feststellen:
Auch die Innovationsforschung hat sich angesichts der Vielschichtigkeit des Innovati-
onsbegriffs und der Schwierigkeiten mit einer rein dichotomischen Betrachtung auf
die Entwicklung erweiterter Typologien konzentriert, um darüber zu einer differen-
zierteren Abstufung des Neuheitsbegriffs zu gelangen.3
3
Neben der hier dargestellten Dichotomie zwischen radikalen und inkrementalen Innovationen
wird u. a. noch zwischen Innovationen in Kern- und peripheren Systemen (vgl. z. B. Ulrich und
Eppinger, 2004; Henderson, 1995, 1993; Pinch und Bijker, 1989; Clark, 1985) und kompentenz-
vernichtenden und -verstärkenden Innovationen (vgl. z. B. Gatignon et al., 2002; P. Anderson
und Tushman, 1990; Tushman und Anderson, 1986; Abernathy und Clark, 1985) unterschie-
den. Die hieraus resultierenden Typologien müssen nicht mit der ausführlicher dargestellten
Kategorisierung in radikale und inkrementale Innovationen übereinstimmen. Hierzu und für eine
ausführlichere Darstellung siehe Weise (2005).
Studie Innovationsgrad Dimension des Neuheitsgrades
niedrig hoch
Balachandra und Friar (1997) incremental radical Change in Technology and Product Configu-
ration
Innovationsgrad
Tabelle 2.2: Dichotomisierungen des Innovationsgrades. In Anlehnung an Steinhoff (2006) und Garcia und Calantone (2002)
19
20 Konzeptionelle Grundlagen
Der Ansatz von Henderson und Clark Die von Henderson und Clark (1990) ent-
wickelte Typologisierung stellt auf eine Klassifikation des Innovationsbegriffs anhand
der beiden Dimensionen Kernkomponenten“ und Schnittstellen“ ab, die jeweils
” ”
in die Kategorien geändert“ und unverändert“ unterteilt werden. Wie Abbildung
” ”
2.2 verdeutlicht, wird in der daraus resultierenden Matrix zwischen inkrementalen,
modularen, architektonischen und radikalen Innovationen unterschieden, wobei bei
letztgenannten sowohl neue Kernkomponenten als auch neue Schnittstellen genutzt
werden.
Core Concepts
Reinforced Overturned
Concepts and Components
Incremental Modular
Linkages between Core
Unchanged
Innovation Innovation
Architectural Radical
Changed
Innovation Innovation
Abbildung 2.2: Klassifizierung neuer Produkte nach Henderson und Clark. Quelle:
Henderson und Clark (1990)
Innovationsgrad 21
Die Darstellung von Henderson und Clark verdeutlicht, dass radikale Innovatio-
nen mit erheblichen technischen Neuerungen verbunden sind. Dabei stellt diese
Typologisierung allerdings ausschließlich auf technologische Dimensionen ab und
vernachlässigt die bereits erwähnten Markt- und Unternehmensdimensionen.
Der Ansatz von Booz, Allen & Hamilton Die von der Unternehmensberatung
Booz, Allen & Hamilton (1982) entwickelte Klassifizierung differenziert Innovationen
anhand der beiden Dimensionen Neuheitsgrad des Produktes für das entwickelnde
”
Unternehmen“ und Neuheitsgrad aus der Sicht des Marktes“. Diese Dimensionen
”
werden in die Kategorien niedrig“, mittel“ und hoch“ unterteilt.
” ” ”
Neu für den Markt
niedrig mittel hoch
Völlig neue
Neue Produktlinien für
hoch Produkte
das Unternehmen
(„new-to-the-world“)
Neu für das Unternehmen
Verbesserung Ergänzungen
mittel bestehender bestehender
Produkte Produktlinien
Repositionie-
rungen
niedrig Kostenreduktionen
bestehender
Produkte
Abbildung 2.3: Klassifizierung neuer Produkte nach Booz, Allen & Hamilton. Quelle:
Booz, Allen & Hamilton (1982)
Nach der Klassifikation von Booz, Allen & Hamilton werden Innovationen, die
sowohl für das Unternehmen als auch für den Markt einen hohen Neuheitsgrad auf-
weisen, als radikal bzw. new-to-the-world“ bezeichnet. Damit steht insbesondere die
”
subjektive Dimension der Innovation im Mittelpunkt dieses Ansatzes. Vernachlässigt
wird allerdings der bei Henderson und Clark (1990) im Fokus stehende Aspekt der
Technologie, welcher als wesentliches Merkmal des Innovationsbegriffs angesehen
werden kann (Hauschildt, 2004).
22 Konzeptionelle Grundlagen
Der Ansatz von Hauschildt Hauschildt (2004) nutzt für seine Innovationstypolo-
gie die bereits geschilderte Perspektive der Zweck-Mittel-Beziehung. Eine radikale
Zweck
(Bedürfnis, Kundennutzen, Anwendung)
alt neu
(Technologie, Lösungsprinzip)
Mittelinduzierte Radikale
neu
Innovation Innovation
Mittel
Inkrementale Zweckinduzierte
alt
Innovation Innovation
Abbildung 2.4: Klassifizierung neuer Produkte nach Hauschildt. Quelle: Hauschildt (2004)
Innovation ist nach Hauschildt damit ein Produkt, welches neue Kundenbedürfnisse
mittels neuer Technologien befriedigt.
Der Ansatz von Lynn und Akgün Der Ansatz von Lynn und Akgün (1998) hat
in der Literatur zum Innovationsmanagement weite Verbreitung erfahren. Anhand
der beiden Dimensionen Marktunsicherheit“ und Technologische Unsicherheit“
” ”
unterscheiden die beiden Autoren zwischen vier verschiedenen Innovationstypen.
Eine radikale Innovation liegt nach Lynn und Akgün dann vor, wenn sie sowohl
Innovationsgrad 23
Technologische Unsicherheit
gering hoch
Evolutionäre Radikale
hoch
Marktinnovation Innovation
Marktunsicherheit
Evolutionäre
Inkrementale
gering technische
Innovation
Innovation
Abbildung 2.5: Klassifizierung neuer Produkte nach Lynn und Akgün. Quelle: Lynn und
Akgün (1998)
eine hohe marktbezogene als auch eine hohe technologische Unsicherheit aufweist.
Während keine Operationalisierung der Dimensionen erfolgt, liefert Lynn (1993)
jedoch Hinweise zu deren Bestimmung: Marktunsicherheit“ bezieht sich hiernach
”
auf das vorhandene Wissen hinsichtlich des Zielmarktes, des Marktpotentials, des
optimalen Markteintrittszeitpunkts, der Preisbereitschaft und der aus Anwendersicht
relevanten Leistungsmerkmale. Technologische Unsicherheit“ hingegen bezieht sich
”
auf das Ausmaß, in dem Kenntnisse bezüglich der Umsetzbarkeit, der Produktleis-
tung, des Produktionsprozesses, der Produktionskosten, der Entwicklungskosten und
der Entwicklungszeit vorliegen.
handelt (Garcia und Calantone, 2002). Auch die Frage danach, was genau neu ist,
wird nicht einheitlich beantwortet. Für einen entsprechenden Überblick siehe Tabelle
2.2 auf Seite 19 und 2.3 auf Seite 25. Einigkeit herrscht hingegen darüber, dass eine
Kombination aus markt- und/oder technologiebezogenen Faktoren zu berücksichtigen
ist (Garcia und Calantone, 2002, S. 112 f.):
Tabelle 2.3: Ausgewählte Innovationstypologien. In Anlehnung an Steinhoff (2006) und Garcia und Calantone (2002)
25
26 Konzeptionelle Grundlagen
Studie Operationalisierung
Gemeinsam ist den hier genannten Studien, dass sie alle von einer umfassenden
Literaturanalyse ausgehen und sich auf dieser Basis um die Identifikation übereinstim-
mender Dimensionen des Innovationsgrades bemühen. Diese werden dann basierend
auf den jeweils angestellten konzeptionellen Überlegungen zu einem Messvorschlag
Innovationsgrad 27
zusammengefasst. Dabei wird der Innovationsgrad von allen als ein mehrdimensionales
Konstrukt aufgefasst, das über eine einfache nominal oder ordinal skalierte Messung
im Sinne der vorgestellten Dichotomien und Typologien hinausgeht.
Der Ansatz von Green et al. Die erste dieser Arbeiten, die Untersuchung von
Green et al. (1995), basiert auf der Analyse von 25 Studien. Hieraus leiten die
Verfasser vier Dimensionen des Innovationsgrades, bei ihnen als radicalness of inno-
”
vation“ bezeichnet, ab. Die Dimension Technologische Unsicherheit“ ( technological
” ”
uncertainty“) beschäftigt sich mit der Frage, ob das Wissen über die zugrundeliegen-
de Technologie bereits besteht oder erst im Rahmen wissenschaftlicher Forschung
erschlossen werden muss und wie dynamisch und damit schwerer zu prognostizie-
ren die daraus resultierenden Wissenszuwächse sind. Technische Unerfahrenheit“
”
( technical inexperience“) betrachtet den Wissensstand des Unternehmens hinsicht-
”
lich der zugrundeliegenden Technologie, unabhängig davon, ob dieses Wissen in der
wissenschaftlichen Forschung vorhanden ist, oder nicht. Die Dimension Geschäftliche
”
Unerfahrenheit“ ( business inexperience“) geht der Frage nach, ob bei der Vermark-
”
tung des zu entwickelnden Produktes auf bestehende Erfahrungen und Prozesse
zurückgegriffen werden kann oder inwieweit Geschäftsprozesse zum Absatz des Pro-
duktes geändert bzw. neu entwickelt werden müssen. Schließlich wird das Ausmaß
der mit der Entwicklung dieser Technologie verbundenen Kosten im Rahmen der
Dimension Technologiekosten“ ( technology cost“) untersucht. Es gelingt den Auto-
” ”
ren, ihren Messansatz in einer empirischen Prüfung zu bestätigen, im Rahmen derer
allerdings ein Indikator eliminiert werden muss.
Der Ansatz von Schlaak Die Untersuchung von Schlaak (1999) stützt sich auf
die Analyse von 47 empirischen Studien. Ausgehend von dem von Leavitt (1965)
entwickelten Diamond Model“ und den Überlegungen von Zahn (1991) wird der In-
”
novationsgrad zunächst anhand von vier Dimensionen theoretisch konzeptionalisiert,
die jeweils in mehrere Faktoren unterteilt werden: Aufgabe“ (bestehend aus den
”
Faktoren Markt“, Technologie“ und Technik“), Prozesse“ (bestehend aus den
” ” ” ”
Faktoren Beschaffung“, Produktion“ und Absatz“), Struktur“ (bestehend aus den
” ” ” ”
Faktoren Strategie“, Kultur“ und Organisation“) und Ressourcen“ (bestehend
” ” ” ”
aus den Faktoren Wissen“, Arbeit“ und Kapital“). Im Rahmen der empirischen
” ” ”
Überprüfung wird ein Messmodell mit 24 Indikatoren, die sich drei Dimensionen
28 Konzeptionelle Grundlagen
und sieben Faktoren zuordnen lassen, bestätigt. Die erste Dimension Technik und
”
Produktion“ bezieht sich auf Veränderungen in der Produkttechnologie, im Produk-
tionsprozess und im Beschaffungsbereich. Die Dimension Absatz und Ressourcen“
”
beschäftigt sich mit Veränderungen im Absatzmarkt (z. B. neue Zielgruppen, Ver-
triebskanäle oder Werbemedien) und im Kapitalbedarf (z. B. erhöhte Marketing- oder
FuE-Kosten). Die dritte Dimension Struktur“ widmet sich eventuell erforderlichen
”
Umgestaltungen der formalen und informalen Organisation.
Der Ansatz von Avlonitis et al. Avlonitis et al. (2001) entwickeln ihr Mess-
modell für die Bewertung des Innovationsgrades von Finanzdienstleistungen. Der
auf einer Analyse von 10 Studien basierende Messkatalog wird im Rahmen der
empirischen Überprüfung als ein vier Dimensionen umfassendes Modell mit 15 Indika-
toren bestätigt. Die Dimensionen Neuartigkeit der Betriebs- und Vertriebsprozesse“
”
( operating/delivery process newness“), Modifikation der Dienstleistung“ ( service
” ” ”
modification“) und Neuartigkeit der Dienstleistung für das Unternehmen“ ( service
” ”
newness to the company“) spiegeln dabei die Unternehmensperspektive auf den
Innovationsgrad wider. Die verbleibende Dimension Neuartigkeit der Dienstleistung
”
für den Markt“ ( service newness to the market“) widmet sich der marktbezogenen
”
Perspektive auf den Innovationsgrad.
Der Ansatz von Danneels und Kleinschmidt Die Untersuchung von Danneels
und Kleinschmidt (2001) fußt auf der Analyse von 24 vorangegangenen Studien. Die
Autoren arbeiten zunächst heraus, dass der Neuheitsgrad sowohl aus Kunden- als
auch aus Unternehmenssicht betrachtet werden sollte und leiten die Dimensionen
Eigenschaften der Innovation“ ( innovation attributes“), Umfang des Adoptionsrisi-
” ” ”
kos“ ( adoption risk“) sowie Umfang notwendiger Verhaltensänderungen“( behavior
” ” ”
change“) aus Kundensicht und Vertrautheit mit der zugrundeliegenden Technolo-
”
gie bzw. dem Zielmarkt“ ( familiarity with technological environment and market
”
environment“) sowie Übereinstimmung der zugrundeliegenden Technologie mit beste-
”
henden technologischen bzw. marketingbezogenen Ressourcen“ ( fit with technological
”
resources and marketing resources“) aus Unternehmenssicht ab. Im Rahmen ihrer
empirischen Überprüfung konzentrieren sich die Verfasser allerdings ausschließlich
Innovationsgrad 29
auf die Unternehmensperspektive, für die sie ein Messmodell mit fünf Faktoren4 und
19 Indikatoren bestätigen können.
Der Ansatz von Garcia und Calantone Garcia und Calantone (2002) stützen
sich in ihrem Beitrag auf die Analyse von 21 empirischen Studien. Auf Basis ihrer
Auswertungen erarbeiten sie eine Unterteilung in eine Mikro- und eine Makroebene
einerseits sowie eine Technologie- und eine Marketingebene andererseits. Auf der Mi-
kroebene wird der Innovationsgrad auf das jeweilige Unternehmen bzw. seine Kunden
bezogen, während auf der Makroebene die Branche des Unternehmens oder sogar
die Welt als Referenz herangezogen wird. Die Differenzierung nach Technologie- und
Marketingebene beschäftigt sich mit den ausgelösten Veränderungen. Marketingdis-
kontinuitäten können die Schaffung neuer Absatzmärkte oder Marketingfähigkeiten
erfordern, während Technologiediskontinuitäten die Generierung neuen technologi-
schen Wissens, neue Produktionsprozesse oder Paradigmenwechsel in der Forschung
und im Technologieeinsatz verlangen. Die Verfasser erarbeiten entlang dieser Di-
mensionen einen Katalog von Items als Vorschlag für eine Operationalisierung des
Innovationsgrades, unterziehen diesen jedoch keiner empirischen Überprüfung.
Die Studien von Salomo und Billing Die Veröffentlichungen von Salomo (2003)
und Billing (2003) bemühen sich, durch ein Nebeneinanderstellen dieser meta-ana-
lytischen Untersuchungen ein möglichst vollständiges aber überschneidungsfreies
Messkonzept für den Innovationsgrad zu entwickeln. Trotz der unterschiedlichen
literarischen Fundierung der oben geschilderten Untersuchungen zeigen sich wesentli-
che Gemeinsamkeiten, so dass dieses Vorgehen zweckmäßig erscheint. Hinsichtlich
der Perspektive, aus der die Neuartigkeit beurteilt werden soll (vgl. Hauschildt,
2004), unterscheiden die Studien von Garcia und Calantone (2002) und Danneels
und Kleinschmidt (2001) beide auf erster Ebene explizit zwischen einer Mikroper-
spektive (innerbetriebliche Perspektive) und einer Makroperspektive (überbetriebliche
Perspektive) des Innovationsgrades (vgl. z. B. Billing, 2003). Eine ähnliche, wenn
auch implizite Unterteilung, findet sich bei Green et al. (1995) in der Unterscheidung
4
Neben den vier Faktoren Vertrautheit mit der Technologie bzw. dem Zielmarkt“ und
”
Übereinstimmung der neuen Technologie mit vorhandenen technologischen bzw. marketing-
”
bezogenen Ressourcen“ im Unternehmen wird der fünfte Faktor mit neue Marketingaktivitäten“
”
bezeichnet und beschreibt, inwieweit neues Vertriebspersonal, neue Werbung, Marktforschungs-
methoden und Kundendienste erforderlich sind.
30 Konzeptionelle Grundlagen
1. den Markt-Innovationsgrad
2. den Technologie-Innovationsgrad
3. den Umfeld-Innovationsgrad
Innovationsgrad 31
4. den Organisations-Innovationsgrad
Innovationsgrad
Makro-Perspektive Mikro-Perspektive
Neuer Kunden- Neues techn. Infrastruktur Neuer Markt Neues techn. Strategie
nutzen Prinzip Prinzip
Lernaufwand Informale
Organisation
auch nur mit einer Markt- oder Technologiediskontinuität verbunden sein, nicht aber
mit beiden.
2.3 Planung
Dieser Abschnitt widmet sich den Grundlagen der betrieblichen Planung, um damit
ein Fundament für das in Kapitel 3 zu entwickelnde Untersuchungsmodell zu schaffen.
Hierzu wird zunächst dem Begriff der Planung nachgegangen, bevor in Abschnitt
2.3.2 auf die Funktionen der Planung eingegangen wird. Anschließend werden die
verschiedenen Ebenen der betrieblichen Planung erörtert. Schließlich wird in Abschnitt
2.3.4 Improvisation als weitere und die Planung ergänzende Form betrieblicher
Problemlösungsprozesse (Müller, 2008) dargestellt.
2.3.1 Begriffsbestimmung
Der Begriff der Planung bzw. des Planens leitet sich vom lateinischen planta (Fußsoh-
le, Grundfläche, Grundriss eines Gebäudes) ab (vgl. z. B. Voigt, 1993; Kreikebaum,
1989). Planen wird seit dem 15. Jahrhundert im deutschsprachigen Raum im Sinne
von entwerfen und vorhaben verwendet, während die Termini Planung bzw. Unter-
nehmensplanung erst im Laufe des 20. Jahrhunderts Verwendung fanden (Voigt,
1993). Demnach beinhaltet Planung den Entwurf eines Schemas davon, was zu tun
bzw. auszuführen ist. Sie ist somit vom Begriff der Improvisation (lat.: im-providere
= ad hoc entscheiden, etwas dem Zufall überlassen, planlos handeln) abzugrenzen
(Kreikebaum, 1989), auf den in Abschnitt 2.3.4 auf Seite 42 näher eingegangen wird.
Der Begriff der Planung wird in der Literatur kontrovers diskutiert, wobei insbe-
sondere der Umfang des Planungsbegriffs als auch dessen Abgrenzung zur Steuerung
umstritten sind (vgl. z. B. Weber, 2004; Goeldel, 1997; Laufer, 1991; Mintzberg,
1981). Tabelle 2.5 auf Seite 34 verdeutlicht beispielhaft die Vielfalt möglicher Defini-
tionen des Planungsbegriffs. In Ermangelung einer umfassenden Definition analysiert
Mintzberg (1981) daher vier verschiedene Ansätze – Planning as future thinking“,
”
Planning as integrated decision making“, Planning as formalized procedure and
” ”
articulated result“ und Planning as programming“ – um aufzuzeigen, welche Aspekte
”
Planung 33
in eine Definition einfließen sollten. In ähnlicher Weise formuliert Laufer (1991) eine
Reihe konstituierender Merkmale für den Planungsbegriff:
• Entscheidungsprozesse
• antizipatives Entscheiden
• Prozesse, die Teile oder alle der folgenden Aktivitäten enthalten: Informations-
suche und systematische -analyse, Entwicklung von Entscheidungsalternativen,
systematische und explizite Analyse und Bewertung der Alternativen, Entschei-
dung
• Fixierung in Dokumenten
• Implementierung
In einer späteren Arbeit umschreibt Laufer Planung als den Prozess der Entschei-
dung, was zu tun ist und wie es zu tun ist, noch bevor Handlungen erforderlich sind
(Laufer, 1992). Planung stellt damit den Entwurf einer Grundordnung dar, nach
der sich das betriebliche Geschehen in Zukunft vollziehen soll und kann damit als
das gedankliche, systematische Gestalten zukünftigen Handelns bezeichnet werden
(Ehrmann, 1995). Diese gedankliche Vorwegnahme zukünftigen Handelns“ manifes-
”
tiert sich im Treffen von Entscheidungen, die in die Zukunft gerichtet sind“ (Wöhe,
”
1996, S. 140), die auch als Antizipationsentscheidungen“ (Koch, 1982) bezeichnet
”
werden.
Wie bereits erwähnt, wird der Begriff der Planung intensiv diskutiert (vgl. z. B.
Weber, 2004). Ein Blick auf Tabelle 2.5 verdeutlicht, dass sich die meisten Definitionen
des Planungsbegriffs auf den Prozess der Formulierung von Plänen beschränken
und damit das letzte der von Laufer (1991) genannten Kriterien nicht erfüllen.
Die vorliegende Arbeit weicht von dieser relativ engen Sichtweise ab, da in der
34 Konzeptionelle Grundlagen
Autor Definition
Weber (2004, S. 311) Planung ist ein in der betriebswirtschaftlichen Diskussion häufig ver-
”
wendeter, allerdings im Detail unscharfer Begriff [...]. Weitgehende
Einigkeit unter den Autoren liegt bezüglich der folgenden Merkmale
vor: Planung wird als ein rationaler, sich an Zielen orientierender Pro-
zess gesehen. Planung bezieht sich auf zukünftiges Handeln. Planung
bedeutet einen Informationsverarbeitungsprozess. Ohne relevantes Wis-
sen kann nicht geplant werden.“
Wöhe (1996, S. 140) Planung ist die gedankliche Vorwegnahme zukünftigen Handelns durch
”
Abwägen verschiedener Handlungsalternativen und Entscheidungen für
den günstigsten Weg. Planung bedeutet also das Treffen von Entschei-
dungen, die in die Zukunft gerichtet sind und durch die der betriebliche
Prozeßablauf als Ganzes und in allen seinen Teilen festgelegt wird.“
Ehrmann (1995, S. 19) Planung ist der Entwurf einer Ordnung, nach der sich das betriebli-
”
che Geschehen in der Zukunft vollziehen soll, sie ist das gedankliche,
systematische Gestalten des zukünftigen Handelns.“
Voigt (1993, S. 5) Planung ist bewußtes, rationales und damit menschliches Denkhandeln
”
- auch dann, wenn es von Maschinen (z. B. Computern) unterstützt
wird [...]. Durch Planung nimmt [der Mensch] zukünftige Geschehnisse
gedanklich vorweg, strukturiert und ’ordnet’ sie und versucht, Maßnah-
men, die er erst später ausführen will, schon jetzt möglichst zielgünstig
festzulegen oder auszuwählen.“
Bircher (1989, S. 1505) Planung kann verstanden werden als ein systematischer, informations-
”
verarbeitender, von Führungskräften getragener und soziale Interak-
tionsprozesse einschließender Prozess der qualitativen, quantitativen
und zeitlichen Bestimmung zukünftiger Ziele, Mittel und Verfahren
zur mittelbaren Gestaltung und Lenkung des operationellen Systems.“
Kreikebaum (1989, S. 23) Planung ist also diejenige kollektive Tätigkeit in Organisationen, die
”
zum gegenwärtigen Zeitpunkt eine Entscheidung vorbereitet und unter
verschiedenen Handlungsmöglichkeiten eine Alternative auswählt.“
Martino (1964a, S. 17) Planning is the determination of requirements upon project resources
”
and their necessary order of commitment in the various operations that
must be performed to achieve the project objectives.“
1984). Ziel dieser Darstellung der Planungsfunktionen sollt es daher nicht sein, einen
erschöpfenden Überblick zu liefern, sondern vielmehr die zahlreichen Funktionen der
Planung zu unterstreichen und damit ihre Bedeutung für die betrieblichen Aktivitäten
herauszustellen (Hamprecht, 1996).
Als Hauptfunktion der Planung wird die Steigerung der Erfolgswahrscheinlichkeit
”
bzw. Effizienz menschlichen Handelns und des Einsatzes knapper Ressourcen“ (Krys-
tek und Zumbrock, 1993, S. 41) angesehen. Sie dient also der Sicherung bzw. Stei-
gerung von Effektivität und Effizienz der Unternehmensaktivitäten (Hahn, 1993).
Hieraus lassen sich weitere Funktionen der Planung ableiten, die im Folgenden kurz
skizziert werden:5
5
Über die hier dargestellten Funktionen hinaus werden in der Literatur auch die Synergiefunktion
(Krystek und Zumbrock, 1993), die Unterstützung der Informationsverarbeitung, der Konsensbil-
dung und Konfliktaustragung (Goeldel, 1997), die Gestaltungsfunktion, die Steuerungsfunktion
sowie die Informationsfunktion (Schenkel, 2006) genannt.
Planung 37
wird diese Funktion der Planung zuweilen auch als Prognosefunktion bezeichnet (vgl.
z. B. Schenkel, 2006).
Neben den genannten Funktionen der Planung und dem daraus gezogenen Nutzen
weist die Planung als Problemlösungsprozess jedoch eine Reihe von Limitationen auf,
die im Folgenden näher betrachtet werden sollen.
Wie bereits ausgeführt trägt Planung über die Beschaffung und Auswertung von
Informationen zur Entscheidungsfindung bei. Hierbei wird die Zukunft gemäß der Li-
nearitätsannahme der Planung aus vergangenheits- oder gegenwartsbezogenen Daten
extrapoliert (Pina e Cunha und Vieira da Cunha, 2002). Mit zunehmender Volatilität,
Unsicherheit und Risiken wird diese Annahme jedoch zunehmend problematischer
und die Planung erschwert (Grant, 2003; Bettis und Hitt, 1995). So führen Pina e
Cunha und Vieira da Cunha (2002, S. 300) aus:
Ein Plan ist also immer nur so gut wie die Informationen, auf denen er basiert. Diese
Situation verlangt nach einer Änderung traditioneller Planungweisen (Grant, 2003):
Pläne müssen offen für Veränderungen sein und Flexibilität sowie die Abkehr von
hierarchischen Weisungsstrukturen können zu wesentlichen Erfolgsfaktoren werden
(Kenny, 2003; Pascale, 1999). Gerade auch im Rahmen der Neuproduktentwicklung
wird aufgrund der hohen Unsicherheit wiederholt auf diese Notwendigkeit hingewiesen
(vgl. z. B. Verganti, 1999; Moorman und Miner, 1998a; Brown und Eisenhardt, 1997).
Planungs- und Entscheidungsprozesse sind zudem stets durch eine politische Dimen-
sion gekennzeichnet und können somit auf Widerstand stoßen (Dean und Sharfman,
1996; Ramanujam, Venkatraman und Camillus, 1986): Organisationsmitglieder haben
aufgrund funktionaler, hierarchischer, berufsbedingter oder persönlicher Faktoren un-
terschiedliche Interessen und versuchen, diese durch die Beeinflussung von Planungs-
und Entscheidungsprozessen bestmöglich zu vertreten. Im Falle von Interessenkonflik-
ten kann es daher zu Ablehnung oder Widerstand gegenüber der Planung kommen,
indem die Beteiligung an der Planung verweigert, sie nicht akzeptiert oder ihre
Planung 39
Umsetzung boykottiert wird (Thomas, 2002; Guth und MacMillan, 1986). Hierdurch
vermindert sich die Effektivität der Planung (Dean und Sharfman, 1996; Ramanujam
et al., 1986).
Planung verlangt darüber hinaus den Einsatz von Ressourcen in Form von Zeit
und Finanzmitteln, z. B. für die Entlohnung der Planenden (Ramanujam und Ven-
katraman, 1987a, 1987b). Insofern sind Planungsbemühungen Grenzen durch den
Umfang der hierzu zur Verfügung gestellten Ressourcen gesetzt.
Abschließend muss konstatiert werden, dass Planung per se keinen Erfolg garan-
tiert. So sind empirische Befunde zur Erfolgswirksamkeit der Planung uneinheitlich:
Zu dem auf strategischer Ebene vielfach untersuchten Zusammenhang zwischen
(formaler) Planung und Unternehmenserfolg liegen inkonsistente empirische Befunde
vor (Ramanujam und Venkatraman, 1987a; King, 1983; S. J. Armstrong, 1982) und
die Stärke des Zusammenhangs schwankt in Abhängigkeit von dem betrachteten
Erfolgsmaß (Ramanujam und Venkatraman, 1987b), so dass Sinha (1990, S. 491) von
dem elusive link between planning and performance“ spricht. Der Autor zeigt zudem,
”
dass Planung nur wenig zu technologie- und neuproduktentwicklungsbezogenen
Entscheidungen beiträgt.
Auf Projektebene sind diese Befunde einheitlicher. Lechler (1997) identifizierte
13 empirische Untersuchungen zum Zusammenhang zwischen Projektplanung und
Projekterfolg, die alle signifikante mittel bis stark positive Wirkungen der Planung
auf den Projekterfolg nachweisen konnten. Dieser Zusamenhang wird auch in ak-
tuelleren Untersuchungen von Dvir und Lechler (2004) und Weise (2005) bestätigt.
Jedoch existiert daneben eine Reihe von Untersuchungen, die den Wert formaler
Planung in Neuproduktentwicklungsprojekten relativieren und aufgrund der hohen
Unsicherheit mehr Flexibilität und Offenheit für Veränderungen fordern (Verganti,
1999; Moorman und Miner, 1998a; Brown und Eisenhardt, 1997). Die Argumentation
verläuft hierbei analog zu der bereits geschilderten Kritik an der Liniaritätsannahme
der Planung. Die Bedeutung dieses Einwands wird auch aus der bereits zitierten
Untersuchung von Dvir und Lechler (2004) deutlich, die zeigen, dass die positiven
Effekte der Planung auf den Projekterfolg in ihrer Wirkung durch die negativen
Effekte von Zieländerungen, die sich aufgrund geänderter Informationen ergeben,
übertroffen werden.
40 Konzeptionelle Grundlagen
Dabei wird die strategische Planung stufenweise konkretisiert und in bereichs- und
abteilungsbezogene operative Maßnahmenprogramme für kürzere Zeiträume - z. B.
in Form von Jahresplänen - heruntergebrochen (Welge und Al-Laham, 2001). Diese
werden ggf. in der mittel- bis kurzfristigen taktischen Planung weiter verfeinert und
detailliert (Koch, 1982). Hieraus ergibt sich eine Verzahnung der strategischen mit
”
der operativen Ebene“ (Welge und Al-Laham, 2001, S. 530), in der die Strategie
in einem System koordinierter Bereichsplanungen“ (Koch, 1982, S. 37) abgebildet
”
wird, das auch als integrierte Gesamtunternehmensplanung bezeichnet wird (Welge
und Al-Laham, 2001; Hahn, 1989; Hoffmann, 1989).
2.3.4 Improvisation
Das Phänomen der Improvisation in Organisationen gewinnt erst seit kurzem das
Interesse der Organisationforschung, so dass dieses Forschungsfeld noch nicht vollstän-
dig erschlossen ist und die bisherigen Arbeiten häufig konzeptioneller Natur sind und
zur Theorieentwicklung auf diesem Gebiet beitragen (Vieira Da Cunha, Kamoche und
Pina e Cunha, 2003). Gleichwohl wird dem Konzept der Improvisation bereits heute
weitreichender Einfluss auf eine Reihe organisationaler Phänomene wie Teamwork,
Kreativität, Produktentwicklung und organisationale Anpassung und Erneuerung
zugeschrieben (Kamoche, Pina e Cunha und Vieira da Cunha, 2003). Organisationale
Improvisation wurde insbesondere im Bereich schnelllebiger und von Wettbewerb
geprägten Situationen wie der Neuproduktentwicklung (Moorman und Miner, 1998a,
1998b; Eisenhardt und Tabrizi, 1995) oder im Bereich des Krisenmanagements
(Weick, 1993) untersucht (Miner et al., 2001). Darüber hinaus haben Forscher das
Phänomen der Improvisation auch außerhalb des organisationalen Kontextes in
einer Reihe verschiedener Bereiche wie z. B. Theater und Musik (Vera und Crossan,
2004; Kamoche et al., 2003; Zack, 2000; Barrett, 1998), Bildung (Irby, 1992; Borko
und Livingston, 1989) und der Psychiatrie (Embrey, Guthrie, White und Dietz,
1996) beobachtet und analysiert. Insbesondere aus den Bereichen Jazz und Theater
hat die Forschung zur Improvisation in Organisationen und im Management den
Ansatz entliehen, dass Ideen entworfen und unmittelbar umgesetzt werden (Crossan,
Pina e Cunha, Vera und Vieira da Cunha, 2005). Crossan, White, Lane und Klus
Planung 43
Das Konzept der Improvisation lässt sich nach dem hier geschilderten Verständnis
auf einem Kontinuum positionieren (Moorman und Miner, 1998b, 1995). Dessen einer
Extrempunkt bildet die totale Improvisation, bei der eine Organisation Handlungen
ausführt, die gänzlich von vorherigen Plänen, Regeln oder standardisierten Routinen
losgelöst sind. Den anderen Extrempunkt bilden Handlungen, die in vorherigen
Plänen und Routinen genau definiert sind und von denen auch bei unerwarteten
Geschehnissen oder Informationen nicht abgewichen wird. Zwischen diesen Extrem-
punkten sind verschiedene Grade an Improvisation möglich (Moorman und Miner,
1995). Insofern ist Improvisation, gerade auch im Hinblick auf die in Abschnitt 2.3.2
6
Improvisation unterscheidet sich damit von einer Reihe verwandter Konstrukte, von denen in
der Literatur insbesondere Kreativität, Anpassung und Innovation diskutiert werden. Während
die drei letztgenannten Konstrukte darauf abzielen, die Vielfalt zu erhöhen und effektiv zu sein,
versucht Improvisation zusätzlich, diese Vielfalt soweit zu bündeln, dass sie effizient genutzt
werden kann (Pina e Cunha, Vieira da Cunha und Kamoche, 1999; Moorman und Miner, 1995).
44 Konzeptionelle Grundlagen
Autor Definition
Müller (2008, S. 261) Für die weitere Darstellung wird Improvisation als ein in-
”
formationsverarbeitendes, gestaltungs- und auch zukunfts-
orientiertes Problemlösungsverhalten definiert, bei dem:
1. Konzeption und Realisierung der Maßnahme simultan
erfolgen, so dass
2. die Realisierung der Maßnahme ohne eine vollständige
antizipative Reflexion von Alternativen und deren Konse-
quenzen beginnt und
3. die Zwischenergebnisse der Realisierung durch simultane
Rückkopplung in der weiteren Problemlösung berücksichtigt
werden.“
Miner et al. (2001, S. 314) Improvisation is the deliberate and substantive fusion of
”
the design and execution of a novel production.“
Pina e Cunha et al. (1999, S. 302) Organizational improvisation can thus be defined as the
”
conception of action as it unfolds, by and organization
and/or its members, drawing on available material, cogniti-
ve, affective and social resources.“
Moorman und Miner (1998a, S. 702) The degree to which composition and execution converge
”
in time.“
Voigt (1993, S. 12) Improvisationen sind Ad-hoc-Entscheidungen ohne ’pla-
”
nungstypische’ Vorbereitung und Gründlichkeit, insbeson-
dere ohne großen Informationsaufwand.“
geschilderten Grenzen der Planung, als eine notwendige, die Planung ergänzende
”
Form der betrieblichen Problemlösung“ anzusehen (Müller, 2008, S. 255). In glei-
cher Art und Weise umschreibt Mintzberg (1999) die realisierte Strategie als eine
Mischung aus intendierten und im Laufe des Prozesses entstehenden (emergenten)
Strategien und liefert damit ebenfalls eine gute Beschreibung des Verhältnisses zwi-
schen Planung und Improvisation: Während intendierte Strategien typischerweise
analytischer, geplanter und formaler sind, werden emergente Strategien als intuitivere,
handlungsorientiertere und fortlaufende Prozesse beschrieben (Crossan, 1998).
(Weick, 2001; Moorman und Miner, 1998a, 1998b; Crossan und Sorrenti, 1997; Hatch,
1997; Moorman und Miner, 1995). Improvisation tritt demnach auf, wenn sowohl 1)
ein Bedarf an a) Schnelligkeit und b) Handlung besteht als auch 2) eine Situation als
unerwartet und als nicht in Plänen berücksichtigt wahrgenommen wird (Pina e Cunha
et al., 1999): Hieraus lässt sich ableiten, dass das auslösende Ereignis als wichtig
genug wahrgenommen werden muss, um eine Handlung zu rechtfertigen. Zudem muss
es im Rahmen der Einflussmöglichkeiten der Organisation liegen. Dieses Ereignis kann
dabei sowohl als Problem als auch als günstige Gelegenheit wahrgenommen werden.
Schließlich dürfen weder Routinen noch vorgegebene Handlungsmuster existieren.
So ist beispielsweise der Druckabfall in einer Flugzeugkabine als ein unerwartetes
Ereignis zu werten, welchem allerdings mit hochstandardisierten und langfristig
vorher festgelegten Routinen begegnet wird.
Ähnliche Ansätze finden sich bereits bei Emery und Trist (1965) sowie J. W. Meyer
und Rowan (1977), die ausführen, dass Organisationen wie Schulen oder Forschungs-
einrichtungen sehr detaillierte und strenge Verwaltungsrichtlinien haben, die in ihnen
arbeitenden Personen jedoch relativ viel Freiheit hinsichtlich der Herangehensweise
an ihre Arbeit genießen. Insofern bedarf es institutioneller Regeln, die dem Einzelnen
Vertrauen entgegenbringen (Emery und Trist, 1965), was von J. W. Meyer und
Rowan (1977, S. 357) auch als the logic of confidence and good faith“ bezeichnet
”
wird. Dies verdeutlicht das paradoxe Wesen der Improvisation, die eine Struktur
benötigt, die die Grenze der Handlungen definiert, aber gleichzeitig flexibel genug ist,
um überhaupt neue Handlungen zu ermutigen (Roux-Dufort und Vidaillet, 2003).
Wenn Improvisation auftritt, kann diese sowohl positive als auch negative Aus-
wirkungen haben (Miner et al., 2001; Pina e Cunha et al., 1999), wodurch sich in
der Forschung zwei Meinungen durchgesetzt haben, die Improvisation entweder als
generell schädlich oder generell nützlich beschreiben (Moorman und Miner, 1998a,
S.7):
Aufgrund der genannten positiven Effekte wird in der Literatur davor gewarnt,
dass Organisationsforscher Gefahr laufen, die Bedeutung von Improvisation für Un-
ternehmen zu überschätzen (Moorman und Miner, 1998a; Hatch, 1997). Folglich ist
es erforderlich, sich auch den negativen Aspekten von Improvisation zu widmen: Die
aus einer Improvisation gewonnenen Erkenntnisse können zu fehlerhaften Verallge-
meinerungen führen, wenn die erfolgreichen Improvisationhandlungen lediglich in
der fraglichen Situation sinnvoll waren, nicht jedoch als generelle Handlungsweisen
im Unternehmen (Moorman und Miner, 1998b, 1995). Selbst wenn die Improvi-
sationshandlungen zu generellen Handlungsweisen verallgemeinert werden können,
besteht keine Sicherheit darüber, ob die improvisierte Vorgehensweise die effizientes-
te ist (Pina e Cunha et al., 1999). Produktentwicklung aus Improvisationen kann
nach Miner, Moorman und Bassoff (1997) dazu führen, dass das Unternehmen seine
Ressourcen aufgrund fehlender Koordination auf zu viele Projekte verteilt (oppor-
tunity trap), bzw. dass einzelne Projekte durch viele kleine improvisationsbedingte
Änderungen zu langsam entwickelt werden und zu teuer werden (specification creep).
Improvisiertes Verhalten kann zudem ausufern. Gerade im Unternehmensumfeld
liegt ihr Wert jedoch in der Komplementierung geplanter Strategien und nicht in
permanenter Improvisation, die ähnlich einem Teufelskreis weiter Schwierigkeiten und
Komplexität schafft, die wiederum improvisiertes Verhalten auslöst (Pina e Cunha et
48 Konzeptionelle Grundlagen
Auf Basis der bisherigen Ausführungen ist zu konstatieren, dass sowohl Planung
als auch Improvisation wichtige und erforderliche Problemlösungsprozesse in Orga-
nisationen darstellen. Beide Verhalten werden zudem im Kontext von Innovation
genutzt. Allerdings zeigt sich ferner ebenfalls, dass beiden Ansätzen Grenzen gesteckt
sind. Im Folgenden soll daher das Verhältnis von Planung und Innovation näher
beleuchtet werden, um ein besseres Verständnis über deren Wirkungsbeziehung zu
entwickeln.
Overall
Budget
Forecast
Profit
Opportunity
by Product Level 1: Strategic
Constraints
Portfolio Selection,
Budgeting &
Timing
Management Level
Operating
Results Level 3: Operational
Project Execution:
Task Scheduling,
Sequencing, &
Crashing
Level 0: Operating
Infrastructure Results
Determine Nominal
Operating
Assumptions
Planning Frequency
und flexible Modelle deutlich besser geeignet sind, um die Realität in der Neuprodukt-
entwicklung abzubilden (McCarthy, Tsinopoulos, Allen und Rose-Andersen, 2006),
da die Entscheidungen auf den verschiedenen hierarchischen Ebenen eine Vielzahl an
Interdependenzen aufweisen können (Anderson, Jr. und Joglekar, 2005). Abbildung
2.7 zeigt ein im Bereich des Operations Management entwickeltes Modell der Planung
in der Neuproduktentwicklung. Der dort beschriebene Level 0: Infrastructure“ ist
”
die Ebene, auf der Ausgangsannahmen für die Planung auf den verschiedenen hier-
archischen Ebenen aus den Betriebsdaten abgeleitet werden. Zu diesen Annahmen
gehören typischerweise Marktprojektionen, Technologievorhersagen, Zeitvorgaben
und Kapazitätsbedarfe. Insofern verläuft die Planung auf den verschiedenen Ebenen,
die im Folgenden detaillierter dargestellt werden, nicht streng sequentiell, sondern
weist einen gewissen Grad an Überlappung auf (Anderson, Jr. und Joglekar, 2005).
50 Konzeptionelle Grundlagen
Die Autoren unterstreichen damit noch einmal die Notwendigkeit der Verbindung von
Technologie und Markt zum Erreichen der Unternehmensziele. Typische Fragestellun-
gen der strategischen Innovationsplanung lauten somit beispielsweise Welche Markt-
”
und Produktstrategie ist die erfolgversprechendste?“, Welche Technologien sollen
”
in zukünftigen Produkten eingesetzt werden?“, Welches Produktportfolio sollte
”
angestrebt werden?“ oder Wann sollen neue Entwicklungsaktivitäten begonnen
”
werden?“. Planung trägt hier also zu Entscheidungen über die Zielmärkte des Unter-
nehmens, dessen Produktportfolio, Projektpriorisierungen, Ressourcenallokationen
und zukünftig zu nutzende Technologien bei (Krishnan und Ulrich, 2001). Mansfield
und Wagner (1975) zeigen, dass diese Faktoren einen wesentlichen Einfluss auf
den wirtschaftlichen Erfolg von F&E-Aktivitäten eines Unternehmens haben. Auch
Roussel, Saad und Erickson (1991) stellen die strategische Bedeutung von Forschung
und Entwicklung für die Erhaltung und den Ausbau bestehender Geschäftsfelder, die
Erschließung neuer Geschäftsfelder und die technologiebezogenen Fähigkeiten des
Unternehmens heraus. Diese Ebene ist somit von zentraler Bedeutung (Anderson, Jr.
und Joglekar, 2005, S. 350):
Planung und Innovation 51
This planning level influences, not only the immediate profit of the
”
firm, but also its market penetration and ist future technological base.“
Aufgrund ihrer hohen Bedeutung wird die Planung auf dieser Ebene durch eine
Vielzahl an Techniken unterstützt, von denen insbesondere Portfolio- und Road-
mappingtechniken (vgl. z. B. Möhrle und Isenmann, 2007) und das Konzept des
Entwicklungstrichters zu nennen sind (vgl. z. B. Whalen, 2007; Anderson, Jr. und
Joglekar, 2005; Wheelwright und Clark, 1992b). Auch die betriebswirtschaftliche
Forschung auf dem Gebiet des Operations Management hat verschiedene Modelle
(vgl. z. B. Kavadias und Loch, 2003; Li, Loulou und Rahman, 2003; Huchzermeier
und Loch, 2001) zur Planungsunterstützung auf dieser Ebene entwickelt.
Diese Ebene der Planung hat in der Forschung zur Neuproduktentwicklung ver-
gleichsweise wenig Aufmerksamkeit erhalten (Herroelen, 2005; Krishnan und Ulrich,
2001). Eine Ausnahme bildet die Arbeit von Leus und Herroelen (2004), in der
die Autoren ein Modell zur Ressourcenallokation für Projekte, bei denen die Dauer
einzelner Aktivitäten ungewiss ist, entwickeln. Herroelen (2005) führt unzureichend
ausgebildete und/oder unerfahrene Projektmanager als einen der Hauptgründe für
das Überschreiten von Budget- und Zeitvorgaben an und unterstreicht damit die
Bedeutung der auf dieser Ebene zu treffenden Entscheidungen.
52 Konzeptionelle Grundlagen
Auf dieser Ebene wird F&E typischerweise in Form von Projekten durchgeführt
(Kerssens-van Drongelen und Bilderbeek, 1999). Wheelwright und Clark (1992b, S.
51) unterstreichen, dass sich die Planung auf dieser Ebene jedoch nicht ausschließlich
auf einzelne Projekte konzentrieren darf, sondern vielmehr im Kontext der weiteren,
ebenfalls verfolgten Entwicklungsprojekte und der Innovationsstrategie geschehen
müsse:
Auf dieser Ebene gilt es, Entwicklungsziele zu priorisieren, die Zeit- und Ab-
laufplanung für die einzelnen Projektaktivitäten vorzunehmen und Meilensteine zu
definieren (Krishnan und Ulrich, 2001). Um ein tieferes Verständnis für die hiermit
verbundenen Planungsaktivitäten zu gewinnen soll im Folgenden zunächst auf den
Begriff des Projekts eingegangen werden, bevor die Projektplanung diskutiert wird.
Planung und Innovation 53
Die Definitionsansätze widmen sich dabei explizit und implizit der Projektaufgabe,
dem Projektverlauf, der Projektorganisation und dem Projektergebnis (Lechler, 1997).
Autor Definition
Tonicha (2008, S. ix) [...]we define a project as a group of integrated activities aimed at
”
carrying out one or several objectives of quality within a certain time
and with a limited budget and availability of resources[...]“
DIN 69901 Ein Projekt ist ein Vorhaben, das im wesentlichen durch Einmaligkeit
”
der Bedingungen in ihrer Gesamtheit gekennzeichnet ist, wie z. B.
Zielvorgabe,
zeitliche, finanzielle, personelle oder andere Begrenzungen,
Abgrenzung gegenüber anderen Vorhaben,
projektspezifische Organisation.“
Cleland (2004, S. 209) A broad definition of a project is that it is a combination of orga-
”
nizational resources being pulled together to create something that
did not previously exist and that will, when completed, provide a
performance capability to support strategic management initiatives in
the enterprise.“
Tuman, Jr. (1988, S. 655) A project is an organization of people dedicated to a specific purpose
”
or objective. Projects may be large, expensive, unique, or high-risk
undertakings; however, all projects have to be completed by a certain
date, within some expected level of performance. At a minimum, all
projects need to have well-defined objectives and sufficient resources
to carry out all the required tasks.“
Martino (1964b, S. 17) A project is any task which has a defineable end and requires the
”
expenditure of one or more resources in each of the separate but
interrelated and interdependent activities which must be completed to
achieve the objectives for which the task (or project) was instituted.“
Gaddis (1959, S. 89) A project is an organization unit dedicated to the attainment of
”
a goal - generally the successful completion of a developmental pro-
duct on time, within budget, and in conformance with predetermined
performance specifications.“
des Projektmanagements (Lechler, 1997). Diesem kommt eine hohe Bedeutung zu,
da viele Projekte, insbesondere in den Bereichen Bauvorhaben und Entwicklung
mit erheblicher Unsicherheit behaftet sind (Archer und Ghasemzadeh, 2004), die
sich in hohen Abbruchraten und erfolglosen Projektabschlüssen widerspiegelt (vgl.
z. B. Thiry, 2004). Insbesondere Neuproduktentwicklungsprojekten kommt dabei
eine besondere Rolle zu (Milosevic, 2004, S. 1291):
with other types of projects, they also have differences. These differences
and other features [...] have prompted some experts to describe NPD
projects as a microcosm of the whole organization (Bowen et al., 1994).
In particular, because NPD projects typically are implemented under
severe speed and financial pressures, they tend to expose the strengths
and weaknesses of a company, including its culture, management systems,
organizational structure, and people. Therefore, NPD projects are a
comprehensive, real-time test of the whole corporation (Bowen et al.,
1994).“
Die bisherigen Ausführungen haben gezeigt, dass in einer solchen Situation Planung
einen Beitrag zur Reduktion der Unsicherheit zu leisten vermag. Es ist allerdings zu
konstatieren, dass die mit Neuproduktentwicklungsprojekten verbundene Unsicherheit
sowie die notwendige Verknüpfung der für das Projekt benötigten Ressourcen nicht
nur nach einer vorausschauenden Projektplanung verlangen, sondern diese auch
gleichzeitig besonders schwierig werden lassen (Tatikonda und Rosenthal, 2000a;
Ehrmann, 1995). Daher wird im Folgenden die Planung von Projekten mit einem
besonderen Schwerpunkt auf Neuproduktentwicklungsprojekte betrachtet.
Im Projektablauf ist die Planung nach der Projektinitiierung als zweite Phase vor der
Projektdurchführung und dem Projektabschluss angesiedelt (Zwikael und Globerson,
2006). Sie dient einer Reihe von Zwecken innerhalb eines Projekts. So hilft sie, ein
gemeinsames Verständnis der zu bewältigenden Aufgabe zu erlangen, einen Überblick
über die zu erledigenden Arbeiten zu erhalten, eine Basis für die Allokation und
Vergabe von Ressourcen zu schaffen und Überwachungs- und Kontrollmaßnahmen
56 Konzeptionelle Grundlagen
zu definieren (Andersen, Grude und Haug, 1999). Die in Tabelle 2.8 aufgeführten
Definitionen unterstreichen diese wichtigen Aufgaben der Projektplanung.
Autor Definition
Zwikael und Globerson (2006, S. 3436) Project planning specifies a set of decisions concerning
”
the ways that things should be done in the future, in order
to execute the design for a desired product or service.“
Zwikael und Bar-Yoseph (2004, S. 123) Planning processes define and refine objectives and select
”
the best of the alternative courses of action to attain the
objectives that the project was undertaken to address.“
Cleland (2004, S. 214) Basically, project planning is a process for achieving
”
success in the future of the project and of the organization.
It is a plan of action for getting the best return from the
resources that are going to be used on the project during
its life cycle. The project plan is an expected arrangement
for dealing with the ever-changing environment facing
the project and the enterprise.“
Spinner (1992, S. 15) In planning, we determine what has to be done in ac-
”
complishing a project, establishing the sequence of work,
and specifying the interrelations between jobs.“
Cleland und King (1988, S. 176) Planning involves the development of project techni-
”
cal performance objectives, goals, schedules, costs, and
strategies.“
Moder (1988, S. 324) Planning is the process of preparing for the commitment
”
of resources in the most economical fashion.“
Pinto und Slevin (1988b, S. 482) [...] planning activities are scheduling, budgeting, and
”
the allocation of other specific tasks and resources.“
keit der Projektplanung beschäftigt haben.8 Die empirischen Befunde belegen in den
meisten Fällen die Bedeutung der Planung für den Projekterfolg (vgl. z. B. Verworn,
2005; Dvir und Lechler, 2004). Auch im Bereich der Neuproduktentwicklung ist
Planung vielfach als Erfolgsfaktor identifiziert worden und trotz nicht immer ein-
heitlicher Befunde wird vielfach argumentiert, dass eine gründliche Eingangsplanung
wesentlich über den Projekterfolg mitentscheidet (vgl. z. B. Verworn, 2005). Diese
Überzeugung manifestiert sich schließlich in der von Brown und Eisenhardt (1995, S.
348) gewählten Formulierung, die in ihrer Aufarbeitung der Innovationsforschung
eine Forschungsrichtung als product development as a rational plan“ bezeichnen:
”
This rational plan perspective emphasizes that successful product
”
development is the result of (a) careful planning of a superior product for
an attractive market and (b) the execution of that plan by a competent
and well-coordinated cross-functional team that operates with (c) the
blessings of senior management. Simply put, a product that is well
planned, implemented, and appropriately supported will be a success.“
8
Aufgrund der großen Heterogenität der Analyseverfahren wird von einer metaanalytischen
Auswertung abgesehen und die Effektstärke wird stattdessen anhand einer Skala von - -“ bis
”
++“ kodiert. Die Vergabe der Gewichte erfolgte bei a) Diskriminanzanalysen, Mittelwert-
”
vergleichen und Häufigkeitsanalysen relativ zu den innerhalb der einzelnen Studie ermittelten
Ergebnisse. Bei b) Korrelationskoeffizienten wurden für signifikante Werte (r ≥ 0, 3) ein ++“,
”
für signifikante Werte (r ≥ 0) ein +“ und für nicht signifikante Werte eine 0“ vergeben. Bei
” ”
c) Regressionskoeffizienten wurde bei (β ≥ 0, 2) ein ++“ vergeben und des Weiteren wie bei
”
b) beschrieben verfahren. Für eine ausführlichere Darstellung zu dieser Vorgehensweise siehe
Lechler (1997).
58
Tabelle 2.9: Ausgewählte Untersuchungen zum Zusammenhang zwischen Projektplanung und Projekterfolg. Quelle: In Anlehnung
an Verworn (2005)
Stockstrom und Her- 475 Projekte +/++ project planning external success, internal
statt (2008) success, learning
Verworn, Herstatt und 497 Projekte ++ intensity of planning efficiency
Nagahira (2008)
Salomo, Weise und 132 Projekte 0 project planning innovation success
Gemünden (2007)
Verworn (2005) 144 Projekte 0/+/++ Planungsintensität Projekterfolg (Effizienz und
Zufriedenheit)
Weise (2005) 134 Projekte + Projektplanung Vorhabenserfolg (Projekt-
planung wirkt sich positiv
auf die Prozessstabilität aus,
die wiederum positiv auf den
Vorhabenserfolg wirkt)
Dvir und Lechler (2004) 448 Projekte + quality of planning Projekterfolg (Effizienz und
Kundenzufriedenheit)
Dvir, Lipovetsky, Shen- 110 Projekte 0 implementation of planning meeting planning goals, end-
har und Tishler (2003) procedures user benefits, contractor
benefits
Thieme et al. (2003) 192 Projekte +/++ planning proficiency new product survival
Shenhar, Tishler, Dvir, 127 Projekte nicht quantifiziert work breakdown structure, project success
Lipovetsky und Lechler planning methods
(2002)
Baker, Murphy und 650 Projekte nicht quantifiziert adequate planning and con- perceived project success
Fisher (1988) trol techniques, accurate
initial cost estimates
Pinto und Slevin 418 Projekte ++ schedules/plans project success (Effizienz-
(1988a, 1988b) und Effektivitätsmaße)
Ashley, Lurie und Ja- 16 Projekte 0 planning effort project success
selskis (1987)
Souder (1987) 235 Projekte + degree of detailed planning technical and commercial
and control applied outcomes
Pinto (1986) 418 Projekte ++ project schedule/plans project success
Maidique und Zirger 118 Projekte ++ planning new product success
(1984)
R. G. Cooper (1979) 195 Projekte 0 proficiency of precommercia- new product success
lization activities
Rubenstein, Chakrabar- 103 Projekte + level of project planning technical and project success
ti, O’Keefe, Souder und
Young (1976)
Utterback, Allen, Hol- 117 Projekte + more structured planning commercial success
lomon und Sirbu, Jr. process
(1976)
Rothwell et al. (1974) 86 Projekte ++ planning commercial success
Konzeptionelle Grundlagen
Planung und Innovation 61
Hieraus wird deutlich, dass die Planung von Innovationsprojekten einen zentra-
len Punkt in der Erfolgsfaktorenforschung zur Neuproduktentwicklung einnimmt.
Untersuchungen haben gezeigt, dass Entwicklungszeiten verkürzt (Griffin, 1997a),
Fehlerraten gesenkt (Montoya-Weiss und Calantone, 1994; R. G. Cooper und Klein-
schmidt, 1986), höhere Gewinne erzielt (Ittner und Larcker, 1997; Song und Parry,
1997b) und höhere Innovationsgrade erreicht (Olson, Walker und Ruekert, 1995) wer-
den können, wenn Unternehmen eine Projekteingangsplanung durchführen (Moorman
und Miner, 1998a). Zudem konnten Dvir, Lipovetsky et al. (2003) zeigen, dass eine
formale Projektplanung eine stark positive Wirkung auf die Einhaltung von Zeit- und
Budgetvorgaben hat und sich positiv auf den Kundennutzen aus dem Endprodukt,
den Markterfolg und die Erschließung neuer Marktpotenziale auswirkt.
Trotzdem besteht in der Literatur ein Dissenz über die Eignung verschiedener
Projektplanungs- und -managementansätze. Während Einigkeit darüber besteht, dass
ein Projekt eine einmalige Aufgabe ist, führt diese Erkenntnis zu unterschiedlichen
Empfehlungen. Zwikael und Bar-Yoseph (2004, S. 139) schreiben Planung daher eine
besondere Bedeutung zu: Planning is of major importance to a project because the
”
project involves doing something that has not been done before.“ Hingegen fragt
Andersen (1996, S. 89) Why is activity planning at the start of the project to be
”
considered harmful?“ und antwortet As implied by the definition of a project, it
”
is doubtful whether project planners can foresee all the activities at the beginning
of the project.“ Als Konsequenz dieser Uneinigkeit kann die Unternehmenspraxis
nur begrenzt von den gewonnenen Erkenntnissen profitieren, wie Pich et al. (2002, S.
1008) beobachten:
Ein mögliches Problem entsteht zudem durch die Art und Weise in der Planung
im Rahmen der Innovationsforschung untersucht wird. Eine Analyse der in Tabelle
2.9 genannten Arbeiten zeigt, dass Planung vielfach lediglich über ein einziges Item
als Teil eines weiter gefassten Konstruktes (vgl. z. B. Zirger, 1990; R. G. Cooper
und Kleinschmidt, 1990a, 1990b, 1987b, 1986) erhoben wird oder ausschließlich auf
formale Aspekte (z. B. die Erstellung von Arbeitspaketen oder einer Budgetplanung)
bzw. eingesetzte Planungsmethoden (Netzplantechniken, Gantt Charts, etc.) abge-
stellt wird (vgl. z. B. Verworn, 2005; Dvir und Lechler, 2004; Lechler, 1997). Obwohl
dieser Ansatz wertvolle Erkenntnisse darüber liefert, in welchen Organisationsformen
und unter welchen äußeren Bedingungen Planungswerkzeuge und -techniken effektiv
eingesetzt werden können, vernachlässigt er jedoch viele Aspekte des Planungspro-
zesses, die entscheiden, wie Planung durchgeführt wird und wie diese Werkzeuge
und Methoden im Planungsprozess implementiert werden können (Segars, Grover
und Teng, 1998). Insofern ist ähnlich zur Kritik an der Forschung zur strategischen
Planung auch hier zu konstatieren, dass es weder ein einheitliches Messinstrument der
Projektplanung gibt (vgl. z. B. Boyd und Reuning-Elliott, 1998), noch die inhaltliche
Breite des Konstrukts der Projektplanung durch die bestehenden Operationalisie-
rungen ausreichend abgebildet wird (vgl. z. B. Boyd, 1991; Pearce, Freeman und
Robinson, 1987). Ramanujam und Venkatraman (1987a, S. 25) bestätigen dies, indem
sie ausführen Good planning extends beyond techniques [...] planning is not merely
”
the use of sophisticated techniques. Planning techniques provide only a basis to
structure the ’unstructuredness’ that characterizes most strategic decisions.“ Auch
De Meyer et al. (2002, S. 65) stellen fest, dass Tools such as Gantt charts - graphical
”
representations of the exact timing of all project activities - are inadequate. As
the team manager observes, ’A Gantt chart is more a reflection of what happened
last week, and what someone hopes will happen next week’.“ Insofern überrascht es
nicht, dass Zwikael und Globerson (2006) für viele der zur Operationalisierung der
Planung genutzten Methoden in ihrer Untersuchung nur einen geringen Einfluss auf
Planung und Innovation 63
Planungsliteratur die Eigenarten der Forschung und Entwicklung und ihre Unterschie-
de gegenüber anderen organisatorischen Funktionen nicht berücksichtigt (Lovelace,
1987).
Auch MacCormack, Verganti und Iansiti (2001) sprechen sich angesichts einer zu-
nehmenden Dynamik des Unternehmensumfelds für eine Abkehr von traditionellen
Planung und Innovation 65
Zeitlich parallel ist eine Reihe von Studien entstanden, die sich im Sinne der
Paradoxonforschung im Management (vgl. z. B. Lewis, 2000) um eine Auflösung des
Konflikts zwischen organischen und mechanistischen Strukturen bemüht: Gewöhnlich
66 Konzeptionelle Grundlagen
werden diese als die Extrempunkte einer Skala aufgefasst, so dass im Rahmen derart
gestalteter Untersuchungen ein Projekt als formal oder mechanistisch bewertet wird
(vgl. z. B. Lewis et al., 2002), wodurch die sich aus den unterschiedlichen Ansprüchen
von Flexibilität und Effizienz ergebenden Anforderungen an den Managementprozess
nicht ausreichend eingefangen werden (Dougherty, 1996). Diese Arbeiten zeigen, dass
im Rahmen der Projektimplementierung ein Wechsel- und Zusammenspiel geplanter
und emergenter (Lewis et al., 2002) bzw. strikter und flexibler (Tatikonda und Rosen-
thal, 2000a) Managementansätze stattfindet. In ähnlicher Weise zeigt Verganti (1999),
dass erfolgreiche Projekte durch eine Kombination von antizipierenden und bewusst
verzögerten Entscheidungen gekennzeichnet sind, wodurch einerseits wesentliche
Eckpunkte des Projektes frühzeitig festgelegt werden und gleichzeitig ein möglichst
hohes Maß an Flexibilität erhalten wird. Dieses Verfahren bezeichnet der Autor
als planned flexibility“. Vera und Crossan (2005) zeigen in ihrer Untersuchung,
”
dass Improvisation allein keine signifikante Auswirkung auf die Innovationsfähigkeit
eines Projektteams hat, sondern entsprechende Voraussetzungen wie Erfahrung, eine
Experimentierkultur, Teamfähigkeit und umfangreiche Kommunikation unter den
Projektmitgliedern gegeben sein müssen, um eine positive Wirkung von Improvisa-
tion zu erzielen. Schließlich untersucht Naveh (2007) die Wirkung von Formalität
und Entscheidungsfreiheit auf den Projekterfolg. Während beide Faktoren einzeln
positiv auf den Projekterfolg wirken, sind besonders erfolgreiche Projekte durch einen
hohen Grad von sowohl Formalität als auch Entscheidungsfreiheit gekennzeichnet.
Schließlich führt Naveh (2007, S. 123) aus:
Zusammenfassend lässt sich konstatieren, dass sowohl formale Planung als auch
Improvisation relevante Faktoren für den Erfolg von Innovationsprojekten darstellen.
Empirische Befunde und Aussagen hinsichtlich der Überlegenheit eines der beiden
Problemlösungsverfahren sind jedoch uneinheitlich und scheinen sowohl von der mit
dem Projekt verbundenen Unsicherheit im Sinne des Innovationsgrades als auch
Planung und Innovation 67
3. Ist ein Planungsprozess, der sowohl formale als auch flexible Elemente mitein-
ander vereint, erfolgswirksamer, als ein Planungsprozess, der primär formal
oder primär flexibel ist?
3.1 Überblick
Das folgende Kapitel dient der Entwicklung des Untersuchungsmodells auf Basis
der bereits geschilderten Überlegungen. Wie in Kapitel 2 aufgezeigt wurde, sollte
sich eine Analyse der Projektplanung nicht nur der Formulierung des Plans, sondern
auch dessen Implementierung widmen. Auf diese wird in den Abschnitten 3.2 und
3.3 eingegangen. Darüber hinaus wurde deutlich, dass die Projektplanung in ihrem
jeweiligen Kontext betrachtet werden muss. Als besonders relevante Einflussfaktoren
wurden der Planungsgegenstand, also die Eigenschaften des zu planenden Projektes,
und das Planungsumfeld, also die Unternehmensumwelt, identifiziert. Abschnitt 3.4
und die zugehörigen Unterabschnitte beschäftigen sich mit den hieraus abgeleiteten
Konstrukten. Um schließlich zu einer Bewertung der Planungsaktivitäten zu gelangen,
bedarf es einer abhängigen Variablen. Wie bereits in Kapitel 2 deutlich wurde, wählt
die große Mehrheit aller Untersuchungen hierfür den Projekterfolg. Auf diesen wird
in Abschnitt 3.5 näher eingegangen.
9
Exemplarisch seien an dieser Stelle Arbeiten zur marktbezogenen Planung (Schenkel, 2006), zur
Planung betrieblicher Informationssysteme (Doherty, Marples und Suhaimi, 1999; Segars et al.,
1998; Sabherwal und King, 1995) und zur strategischen Unternehmensplanung (B. S. Chakravar-
thy, 1987; Dutton und Duncan, 1987; Ramanujam und Venkatraman, 1987a) genannt.
Planung von Innovationsprojekten 71
King, 1995). Gemäß der Ausführungen in Kapitel 2 ist dabei vor allem auch auf
solche Dimensionen zu achten, die formale bzw. flexible Elemente der Planung von
Innovationsprojekten beschreiben. Da diese Betrachtungsweise zudem insbesondere
in der Forschung zur strategischen Unternehmensplanung und zur Planung von
betrieblichen Informationssystemen genutzt wurde, ist kritisch zu prüfen, ob die
dort genutzten Dimensionen sinnvoll auf die Planung von Neuproduktentwicklungs-
projekten übertragen werden können bzw. welche Anpassungen vorzunehmen sind.
Exemplarisch für die in den oben genannten Arbeiten identifizierten Prozessdimen-
sionen sei hier die von Doherty et al. (1999) für den Bereich der betrieblichen
Informationssysteme erarbeitete Übersicht genannt, die in Tabelle 3.1 dargestellt ist.
Variable Definition
Comprehensiveness The extent to which an organisation attempts to be exhaustive in
making and integrating decisions
Formalisation The existence of structures, techniques and written procedures to
support the planning process
Focus The balance between the application of financial control in conside-
ring applications, versus the welcoming of more creative contributions
appraised through non-financial criteria
Flow The locus of authority or devolution of responsibilities for strategic
planning (bottom up, top down or interactive)
Participation The breadth of involvement in the strategic planning process (narrow
v wide)
Frequency The frequency of planning activities or cycles (occasional v continuous)
Alignment The degree to which alignment between corporate and IS strategies is
explicitly sought
Ownership The locus of ownership for the planning process (business/IS
group/mixed)
Implementation Focus during the planning process on the implications for implementa-
tion
Competitive focus The range of benefits sought (primarily efficiency v wider benefits,
including competitive advantage)
Bei der Betrachtung von Tabelle 3.1 wird unmittelbar deutlich, dass sich nicht alle
diese Dimensionen sinnvoll auf die Planung von Innovationsprojekten übertragen
lassen.
Beispielsweise stellt die Dimension Alignment“, in der es um die Übereinstim-
”
mung von Projekt und Unternehmensstrategie geht, einen Problemkreis dar, der im
72 Planung, Umsetzung und Erfolg von Innovationsprojekten
Rahmen der Entwicklung des Projektportfolios und der Auswahl und Priorisierung
von Projekten von besonderer Bedeutung ist. Damit handelt es sich um ein Datum
für die anschließend auf operativer Ebene stattfindende Projektplanung. Auch die
Dimension Competitive focus“ beschreibt ihrem Inhalt nach ein Problembewusstsein,
”
welches im Rahmen der Projektauswahl und -priorisierung von Bedeutung ist. Zudem
wird diese Variable von Doherty et al. (1999) sowohl als Prozessdimension als auch
unter anderem Namen aber mit gleichem Inhalt als Erfolgsmaß genutzt. Insofern ist
der Zurechnung als Prozessdimension kritisch gegenüberzustehen.
Die Dimensionen Flow“ und Ownership“ erscheinen nicht sinnvoll auf die Planung
” ”
konkreter Innovationsprojekte übertragbar. In der Literatur besteht weitreichende
Einigkeit darüber, dass die Planung der Innovationsprojekte als eine dezentrale,
operative Planung (Anderson, Jr. und Joglekar, 2005) Aufgabe des Projektmanagers
ist: So nennt der Project Management Body of Knowledge (PMBOK) 39 verschiedene
Prozesse, welche vom Projektmanager durchlaufen werden sollten. Hiervon sind
21 (54%) Planungsprozesse (Zwikael und Globerson, 2004). Diese Sichtweise wird
zudem dadurch unterstützt, dass Zentralisierung in einer Reihe empirischer Studien
konsistent als signifikant negativer Einfluss auf die Innovationsfähigkeit identifiziert
wurde (McDonough, 2000; Damanpour, 1991).
Die Prozessdimension Implementation“ beschreibt, in welchem Umfang bereits
”
während der Planung die Belange für deren Umsetzung berücksichtigt wurden.
Da sich Doherty mit der strategischen Planung betrieblicher Informationssysteme
beschäftigt, bewegt sie sich im System der hierarchischen Unternehmensplanung auf
einer höheren Ebene als die konkrete Projektplanung, die aufgrund ihrer operativen
Natur bereits deutlich umsetzungsnäher erfolgen sollte. Insofern erscheint es fraglich,
ob eine besondere Fokussierung auf die Umsetzbarkeit der Planung im Gegensatz
zur strategischen Ebene hier als wesentlicher Unterschied zwischen verschiedenen
Planungsprozessen anzunehmen ist. Hinzu kommt, dass, wie schon für die Dimen-
sion Competitive focus“ geschildert wurde, Doherty auch diese Variable sowohl als
”
Prozessdimension als auch als Erfolgsmaß verwendet. Folglich sieht der Verfasser
auch hier inhaltliche Probleme. Abschließend sei angemerkt, dass die Planumsetzung
an anderer Stelle des zu formulierenden Modells Berücksichtigung findet, wie im
vorangegangenen Abschnitt verdeutlicht wurde.
Die Planungsdimension Focus“ hingegen erscheint grundsätzlich für die Betrach-
”
tung der Planungsprozesse in Neuproduktentwicklungsprojekten geeignet. Trotzdem
Planung von Innovationsprojekten 73
hat sich der Verfasser aufgrund folgender Überlegungen gegen die Verwendung dieser
Dimension entschieden:
Die strategische Planung betrieblicher Informationssysteme, für die diese Dimensi-
on ursprünglich betrachtet wurde, ist ein deutlich abstrakterer Prozess als die ihr
nachgelagerte, operative Projektplanung. Betrachtet man die von Segars (1994), auf
den diese Dimension zurückgeht, zur Operationalisierung genutzten Items, zeigt sich,
dass diese nur bedingt zur Planung konkreter Projekte passen: The primary focus
”
of IS planning is controlling cost through extensive budgeting“, In our IS planning
”
process we encourage creativity and idea generation over control“, Strategic IS
”
planning is viewed as a means of controlling the growth of technology“, Control
”
systems are used to monitor variances between planned actions and outcomes“ und
Our IS planning process is tightly integrated with the firm’ normal financial planning
”
or capital budgeting routine“. Projektplanung ist durch die auf strategischer und tak-
tischer Ebene getroffenen Entscheidungen an gewisse Rahmenbedingungen gebunden,
so dass Kreativität und Budget weitgehend durch die Projektvorgaben bestimmt sind,
im Rahmen derer die Ausgangsfragestellung gelöst werden soll. Insofern wäre eine
Abschwächung bzw. Reformulierung dieser Items nötig, ähnlich wie sie beispielsweise
von Lewis et al. (2002) genutzt wird. Hinzu kommt, dass diese Dimension in der
Arbeit von Segars (1994) hinsichtlich Reliabilität und Validität im Vergleich zu
den anderen Planungsdimensionen mit Abstand am schlechtesten abschnitt. Auf
Basis dieser Überlegungen erscheint es dem Verfasser sinnvoller, flexible und formale
Elemente der Planung mittels anderer Prozessdimensionen einzufangen.
3.2.1 Planungsausmaß
Der Umfang und die Vollständigkeit der Planung, im englischen als comprehensiven-
”
ess“ bezeichnet (vgl. z. B. Fredrickson, 1984), beschreibt die Struktur, Stringenz und
Gründlichkeit bei der Beschaffung und Analyse von Informationen im Rahmen von
Planungs- bzw. Entscheidungsprozessen (Menon et al., 1999, S. 22):
Therefore, the greater the task uncertainty, the greater the amount of
”
information that must be processed among decision makers during task
execution in order to achieve a given level of performance.“
Der Ansatz wurde später von Daft und Lengel (1986) erweitert, die neben der
Unsicherheit auch das Konzept der Mehrdeutigkeit (engl.: equivocality) heranzogen,
um die Notwendigkeit der Informationsverarbeitung theoretisch zu begründen. Der
entscheidende Unterschied liegt hierbei darin, dass Unsicherheit auf einen Mangel an
Information zurückgeführt werden kann, der dazu führt, dass auf bestehende Fragen
keine Antworten gegeben werden können. Mehrdeutigkeit hingegen stellt insofern ein
grundlegenderes Problem dar, als dass in diesem Fall nicht einmal klar ist, welche
Fragen überhaupt zu beantworten sind. Insofern kann eine Organisationseinheit, die
sich mit einer mehrdeutigen Situation konfrontiert sieht, diesen Informationsdefekt
nicht dadurch beheben, dass sie zusätzliche Informationen beschafft (Daft und Ma-
cintosh, 1981).
Wie bereits erläutert, besteht die Grundhypothese des situativen Ansatzes der
Informationsverarbeitung darin, dass Unternehmen oder Organisationseinheiten nur
dann erfolgreich agieren können, wenn ihre Informationsverarbeitungsfähigkeiten an
den jeweiligen Informationsverarbeitungserfordernissen ausgerichtet sind (Tushman
und Nadler, 1978; Galbraith, 1973). Empirische Befunde zeichnen jedoch kein ein-
deutiges Bild über die Rolle umweltbedingter Unsicherheit (vgl. z. B. Forbes, 2007;
Atuahene-Gima und Li, 2004). Die Untersuchungen von Fredrickson (1984) und
Fredrickson und Mitchell (1984) kommen zu dem Ergebnis, dass Entscheidungen
mit einem hohen Planungsausmaß in einem stabilen Umfeld erfolgswirksam sind,
während sie in einem instabilen Umfeld erfolgsmindernd wirken, da der mit einem
solchen Entscheidungsprozess verbundene Aufwand es nicht gestattet, sich schnell
genug an veränderte Rahmenbedingungen anzupassen. In einem mit Unsicherheit
behafteten Umfeld verlangsamt ein hohes Planungsausmaß die Geschwindigkeit, mit
der Entscheidungen getroffen werden, behindert den Informationsfluss in Echtzeit und
belastet sowohl die finanziellen als auch personellen Ressourcen der Unternehmen.
Darüber hinaus machen es kognitive Limitationen und beschränkte Rationalität
(engl.: bounded rationality) auf Seiten der Entscheidungsträger für sie beinahe
unmöglich, alle relevanten Probleme, Umwelteinflüsse und Effekte zwischen diesen
Größen zu berücksichtigen, wie es nach einem streng synoptischen Modell unterstellt
wird (Braybrooke und Lindblom, 1963). Dies gilt insbesondere auch für Projekte in
der Neuproduktentwicklung, da es dort gerade im Rahmen der Projekteingangspla-
nung häufig an einem genauen Verständnis der spezifischen Projektaufgaben, der
Aufgabenabfolge, der Interdependenzen zwischen den Aufgaben sowie ihrer zeitlichen
Befristung mangelt (Tatikonda und Rosenthal, 2000a). Im Gegensatz zu den oben
geschilderten Befunden kommen andere Untersuchungen zu dem Ergebnis, dass ein
Planung von Innovationsprojekten 79
b +
Comprehensiveness Decision Quality (Firm) Performance
Environmental and
Task Instability
-
b
Cost of the
Decision Process
+ (time and resources)
Forbes (2007) führt dies auf zwei Fakten zurück: Obwohl viele Untersuchungen
sich theoretisch mit dem Zusammenhang zwischen Planungsausmaß und Entschei-
dungsqualität beschäftigen, wird dieser Zusammenhang in den meisten Fällen nicht
empirisch untersucht. Stattdessen wird vielfach die Wirkung des Planungsausmaßes
auf den Unternehmenserfolg analysiert, was in seinen Augen problematisch erscheint,
da diese Beziehungen aufgrund der höheren Komplexität des Konstrukts Unterneh-
menserfolg im Vergleich zum Konstrukt Entscheidungsqualität nicht gleichgesetzt
werden können (Dean und Sharfman, 1996; Langley, 1989). Die Theorien und empi-
rischen Untersuchungen beziehen sich zudem häufig auf den moderierenden Effekt
der Instabilität der Umwelt (vgl. z. B. Fredrickson, 1984). Dies ist nach Forbes inso-
fern problematisch, als dass Instabilität ein zu allgemeines Konzept darstellt, um
als verlässlicher Moderator der Erfolgswirksamkeit des Planungsausmaßes auf die
Entscheidungsqualität angesehen zu werden. Betrachtet man die Untersuchungen
genauer, wird deutlich, dass Instabilität vielfach als eine Näherung sowohl für Mehr-
deutigkeit als auch für Unsicherheit benutzt wird, bei denen es sich um zwei präzisere
Kontextfaktoren handelt, die zudem tendenziell unterschiedliche moderierende Ein-
80 Planung, Umsetzung und Erfolg von Innovationsprojekten
Tabelle 3.2 bietet einen Überblick auf empirische Befunde der Erfolgswirksamkeit
des Planungsausmaßes und verdeutlicht noch einmal die uneinheitlichen Ergebnisse.
Während die Studien von Hough und White (2003) und Goll und Rasheed (1997)
keine signifikante Beziehung nachweisen können, überwiegen in den verbleibenden
Untersuchungen die Befunde, die zumindest für bestimmte Umweltsituationen eine
Erfolgswirksamkeit des Planungsausmaßes bestätigen.
Atuahene-Gima 373 new technology ventures comprehensiveness Comprehensiveness and new product performance were po-
und Li (2004) sitively related when perceived demand uncertainty was
higher and negatively related when perceived technology
uncertainty was higher
Hough und White 400 decisions in 54 teams rationality Rationality was unrelated to decision quality, but in stable
(2003) (experiment) environments higher-quality decisions were associated with
ensuring that all decision makers were well-informed
Zahra, Neubaum 228 new manufacturing firms comprehensiveness Comprehensiveness was positively related to firm perfor-
und El-Hagrassey mance; in addition, these relationships were stronger when
Planung von Innovationsprojekten
3.2.2 Formalization
Die Planungsdimension Formalization“, im Deutschen als Formalisierung“ bezeich-
” ”
net, beschreibt nach Damanpour (1991, S. 589):
ein hoher Grad an Formalisierung aufgrund der damit verbundenen Regeln und Pro-
zeduren zu einer verringerten Handlungsfreiheit der Teammitglieder führen, wodurch
individuelle Initiative und Kreativität eingeschränkt werden und das Informationsver-
arbeitungspotenzial des Teams gesenkt wird (Organ und Greene, 1981; Duncan, 1974).
Bodewes (2002) führt dieses nicht zuletzt darauf zurück, dass den Studien viel-
fach unterschiedliche Verständnisse des Formalisierungsbegriffs zugrundeliegen. Ein
weiteres Problem ergibt sich aus den unterschiedlichen Phasen des Innovations-
prozesses und den unterschiedlichen Anforderungen, die sie an das Verhalten der
Teammitglieder stellen (Duncan, 1974): Während Formalisierung im Rahmen der
Ideengenerierung und der frühen Phasen des Innovationsprozesses aufgrund ihres
potenziell kreativitätseinschränkenden Charakters hinderlich sein kann, wird ihr im
Rahmen des weiteren Verlaufs und der Umsetzung des Projektes vielfach eine positive
Wirkung zugeschrieben. Insofern erscheint es erforderlich, Formalisierung nicht – wie
84 Planung, Umsetzung und Erfolg von Innovationsprojekten
häufig vorgenommen – auf der Ebene der gesamten Organisation, sondern den Grad
an Formalisierung innerhalb einzelner Abteilungen, Projektteams oder Aufgaben zu
messen (Bodewes, 2002).
Auf Basis der obigen Ausführungen ist festzustellen, dass die Wirkungsbeziehung
zwischen Formalisierung und Projekterfolg nicht eindeutig zu ermitteln ist. Aus rein
theoretischer Sicht sind die beiden für Neuproduktentwicklungsprojekte wichtigen
Aspekte der Effizienz und der Kreativität unterschiedlich vom Grad der Forma-
lisierung betroffen. Da keinerlei Wertung hinsichtlich deren relativer Bedeutung
vorgenommen werden kann, muss für die Formulierung einer Hypothese auf die
empirischen Befunde zurückgegriffen werden. Diese zeigen eine leichte Tendenz zu
einem positiven Zusammenhang von Formalisierung und Projekterfolg, da in zwei
von drei Studien positive Wirkungen ermittelt werden, die allerdings nur in einer
Studie signifikant sind. Unter Berücksichtigung dieser Einschränkung wird daher die
folgende Hypothese formuliert:
3.2.3 Planungskonsistenz
Consistency“ beschreibt das Maß für die Konsistenz und Regelmäßigkeit der Planung.
”
Nach Segars et al. (1998) zeichnet sich High Consistency“ Planung durch einen
”
kontinuierlichen Planungsprozess, stetige Kommunikation unter den Beteiligten sowie
eine regelmäßige Überprüfung und ggf. Modifikation der Planung aus. Die gleiche
Dimension wird später von Doherty et al. (1999) auch mit Frequency“ bezeichnet.
”
In der Psychologie und der Forschung zur Neuproduktentwicklung wird in diesem
Zusammenhang von Reflexivity“ gesprochen (Hoegl und Parboteeah, 2006; Schippers
”
und Den Hartog, 2007; De Dreu, 2007; M. A. West, 1996). Nach M. A. West (1996,
S. 559) versteht man hierunter:
[T]he extent to which group members overtly reflect upon the group’s
”
objectives, strategies, and processes and adapt them to current or antici-
pated endogenous or environmental circumstances.“
Planung von Innovationsprojekten 85
Die regelmäßige und kritische Reflexion der bestehenden Planung gestattet es,
diese an geänderte Umfeldbedingungen anzupassen und bildet somit eine wichti-
ge Basis für hohe Leistungsfähigkeit im Rahmen komplexer Aufgaben (Gurtner,
Tschan, Semmer und Nägele, 2007). Dabei wird Reflexivität typischerweise als ein
Gruppenprozess verstanden (Schippers und Den Hartog, 2007). Reflexive Teams
sind sich der Konsequenz ihres Handelns bewusst und agieren proaktiv. Sie kon-
trollieren sich und ihr Umfeld kontinuierlich und sind somit besser in der Lage,
sich an ein geändertes Umfeld anzupassen, wenn dies erforderlich wird (Hoegl und
Parboteeah, 2006). Nicht reflexive Teams hingegen zeigen weniger Bewusstsein für
die Ziele, Strategien und das Umfeld, in dem das Team agiert, so dass sie sich eher
reaktiv verhalten und defensiv auf sich ändernde Umweltbedingungen reagieren
(Schippers und Den Hartog, 2007). Reflexivität ist insbesondere für Projektteams
von Bedeutung, die an besonders herausfordernden oder komplexen Aufgaben arbei-
ten oder in einem unruhigen Umfeld agieren müssen (Tjosvold, Tang und West, 2004).
Reflexive Teams arbeiten effektiver (Gurtner et al., 2007; Hoegl und Parboteeah,
2006; Tjosvold et al., 2004; Carter und West, 1998): Die mit Reflexivität verbundene
Selbstreflexion und Selbsterkenntnis gestatten es dem Team, bessere Lösungen für
Probleme zu entwickeln, mit denen es konfrontiert ist (Hoegl und Parboteeah, 2006).
Teams in innovativen Projekten sehen sich einer großen Spannweite unterschiedlichster
Aufgaben und gleichzeitig erheblicher Unsicherheit bezüglich möglicher Lösungsstra-
tegien gegenüber (Gales, Porter und Mansour-Cole, 1992; Daft und Lengel, 1986).
Reflexivität fördert wie beschrieben das kontinuierliche Sammeln und Teilen von
Informationen, welches als wesentlicher Erfolgsfaktor identifiziert wurde (Sicotte und
Langley, 2001). Dieses Sammeln und Teilen von Informationen sowohl innerhalb
des Teams als auch nach außen erleichtert die Aufgabenplanung, die Koordination
teaminterner und -externer Aktivitäten und die Suche nach Problemlösungen (Hoegl
und Gemünden, 2001; Sethi und Nicholson, 2001; Ancona und Caldwell, 1990). Die
so verbesserte Kommunikation kann zu einer höheren Teamleistung beitragen, da alle
Beteiligten besser über Probleme und zugehörige Lösungsstrategien informiert sind
(Hoegl und Parboteeah, 2006). Durch den gegenseitigen Austausch von Informationen
sind die Teammitglieder in reflexiven Teams zudem besser über individuelles Wissen
und individuelle Fähigkeiten der Mitglieder informiert und setzen sich intensiver
und wertungsfreier mit diesen auseinander, so dass bestehendes Wissen besser ge-
86 Planung, Umsetzung und Erfolg von Innovationsprojekten
Ebenfalls wird reflexiven Teams unterstellt, effizienter zu arbeiten als nicht reflexive
Teams (Hoegl und Parboteeah, 2006; Tjosvold et al., 2004). Da reflexive Teams sich
der Probleme und Restriktionen mit denen sie konfrontiert sind besser bewusst sind
(Sicotte und Langley, 2001), ist es wahrscheinlich, dass sie den aktuellen Stand des
Projektes besser einschätzen können, das Projekt besser durchführen können und
Zeit- sowie Kostenvorgaben genauer beachten (Hoegl und Parboteeah, 2006). Die
Einhaltung dieser Vorgaben ist ein wesentliches Erfolgsmaß für die Bewertung von
Innovationsprojekten (vgl. z. B. Griffin, 1997a). Das Bewusstsein für die Einhaltung
von Zeitvorgaben beeinflusst die Arbeits- und Verhaltensweisen von Projektteams
(Gersick, 1989, 1988) und daraus eventuell resultierender Zeitdruck kann sich negativ
auf den Projektfortschritt auswirken (Gevers, van Erde und Rutte, 2001). In dem
Maße, in dem Reflexivität zu einem Bewusstsein für Zeitvorgaben und proaktivem
Handeln beiträgt, kann sie zur Reduktion von Zeitdruck und kontinuierlichem Projekt-
fortschritt beitragen, so dass Zeit- und Kostenziele eher erreicht werden. Reflexivität
erleichtert, wie oben beschrieben, die Identifikation richtiger“ Probleme und ihrer
”
Lösungsstrategien. Auf diese Weise trägt sie dazu bei, dass das Projektteam sich
nicht über Gebühr mit weniger wichtigen oder dringenden Problemen beschäftigt
und dadurch in Verzug gerät (Hoegl und Parboteeah, 2006). Die kontinuierliche und
kritische Überprüfung der getroffenen Entscheidungen und ergriffenen Maßnahmen
kann zudem dazu beitragen, dass sog. escalating commitment“ (Herroelen, 2005;
”
Keil, Truex III und Mixon, 1995; Brockner, 1992) zu vermeiden, indem frühzeitig
und im Team über die aktuelle Strategie und das Projektumfeld reflektiert wird und
eventuell erforderliche Anpassungen vorgenommen werden. Schließlich erlaubt es das
bessere Verständnis der individuellen Wissensstände und Fertigkeiten, welches in
Planung von Innovationsprojekten 87
einem reflexiven Team herrscht, die einzelnen Teammitglieder besser gemäß ihrer
Fähigkeiten einzusetzen, so dass diese effizienter agieren können (Hoegl und Parbo-
teeah, 2006). Trotz dieser Vielzahl an Argumenten sind die empirischen Befunde zum
Zusammenhang zwischen Reflexivität und Effizienz uneinheitlich. Die Untersuchung
von Hoegl und Parboteeah (2006) ermittelt einen positiven, jedoch nicht signifikanten
Effekt in Höhe von 0,11.
3.2.4 Partizipation
Participation captures the breadth of involvement“ (Segars et al., 1998, S. 309),
”
also den Umfang gemeinschaftlicher Entscheidungsfindung bzw. das Teilen von
Befugnissen (Wagner III und Gooding, 1987; Mitchell, 1973). Diese Beteiligung
bezieht sich auf die Anzahl der an der Planung beteiligten Personen, die Menge der
beteiligten Unternehmensbereiche sowie den Umfang lateraler Kommunikation im
Unternehmen (Sabherwal und King, 1995). Partizipation im Rahmen von Planungs-
und Entscheidungsprozessen wird eine erfolgsfördernde Wirkung unterstellt, da sie
88 Planung, Umsetzung und Erfolg von Innovationsprojekten
Verständnis von Anreizen durch die Mitarbeiter führt. Diese wären dadurch moti-
viert, sich anreizkonform zu verhalten, um entsprechend belohnt zu werden, wodurch
ihre Produktivität steigen würde (Mitchell, 1973).
Kontingenztheoretische Modelle hingegen unterstellen that it is not possible to
”
develop models of participative effects that will hold across a wide variety of individu-
als and situations. Rather, they suggest that participation will affect satisfaction and
productivity differently for different people and situations“ (K. I. Miller und Monge,
1986, S. 731). Eine positive Wirkung von Partizipation hängt damit von persönlichen
Merkmalen der betroffenen Mitarbeiter und der Entscheidungssituation ab. Wie in
den beiden vorangegangenen Ansätzen beschrieben, wird Partizipation jedoch auch in
diesem Erklärungsansatz besonders in komplexen Entscheidungssituationen und bei
Personen mit einem hohen Bedürfnis nach Unabhängigkeit und Selbstverwirklichung
zu positiven Effekten führen.
Die empirischen Befunde aus der Organisationsforschung und der Psychologie zur
Wirkung von Partizipation sind uneinheitlich, so dass die Frage, ob Partizipation
tatsächlich zu höherer Leistung führt, noch nicht abschließend beantwortet werden
kann (Gebert, 1995; Latham und Locke, 1995). So scheint dieser Wirkungszusam-
menhang von einer Reihe moderierender und mediierender Variablen beeinflusst zu
90 Planung, Umsetzung und Erfolg von Innovationsprojekten
sein (vgl. z. B. Latham und Winters, 1994; Wagner III und Gooding, 1987), was
für die Validität kontingenztheoretischer Wirkungsmodelle spricht. K. I. Miller und
Monge (1986, S. 733) stellen jedoch fest, dass Employees who value participation
”
will be the most positively influenced by it, and these are likely to be higher-level
employees, or individuals working in research or service industries.“ Im Rahmen
dieser Untersuchung kann demnach von einer tendenziell positiven Wirkung der
Partizipation ausgegangen werden, da sowohl die situativen als auch personellen
Umstände günstig erscheinen. Zudem ergibt die Metaanalyse von K. I. Miller und
Monge (1986) über alle 47 untersuchten Studien hinweg einen insgesamt positiven
Einfluss der Partizipation sowohl auf die Zufriedenheit als auch die Produktivität.
Auch die Metaanalyse von Wagner III und Gooding (1987) bestätigt dieses Ergebnis,
zeigt jedoch, dass die Stärke des Zusammenhangs auch wesentlich davon abhängt,
ob die unabhängige und die abhängige Variable von einer oder von verschiedenen
Personen erhoben wurden. Die in Tabelle 3.3 dargestellten Befunde zur Partizipation
in Entwicklungsprojekten unterstützen diese Annahme. Auf Basis dieser Befunde
sowie der angestellten Überlegungen wird daher die folgende Hypothese formuliert:
3.2.5 Coalignment
Unternehmen sehen sich in der heutigen Zeit vielfach unterschiedlichsten und teilweise
konfliktären Bedürfnissen ausgesetzt, denen ihre Planungsprozesse gerecht werden
müssen. So verlangt das Wettbewerbsumfeld von Unternehmen heute nicht nur
Effizienz und hohe Qualität, sondern auch schnelle Entwicklungszeiten (Stalk und
Hout, 1990), Flexibilität (Womack, Jones und Roos, 1990) und die Berücksichtigung
sich ändernder Bedürfnisse und Meinungen (Schmidheiny, 1992). Vielen Planungspro-
zessmodellen gelingt es nicht, diese Komplexität zu erfassen, da sie Planung häufig
in einer entweder-oder-Entscheidung“ als rational oder inkrementell darstellen (vgl.
”
z. B. Fredrickson, 1984). Besonders in der Forschung zum strategischen Manage-
ment wird daher angenommen, dass sich die unterschiedlichen Dimensionen des
Planungsprozesses ergänzen sollten, so dass eine Struktur entsteht, die die unter-
schiedlichen Planungsbedürfnisse der Organisation widerspiegelt (B. S. Chakravarthy,
Planung von Innovationsprojekten 91
1987; Lorange und Vancil, 1976). In diesem Sinne definiert Venkatraman (1990, S.
20) Coalignment als the match between (or among) a set of theoretical dimensions.“
”
Dahinter steht der Gedanke, dass der ganze Planungsprozess größer als die Summe
seiner Teile ist: Ein Planungsprozess, der ein hohes Maß an Coalignment unter den
verschiedenen Dimensionen aufweist, soll effektiver sein als ein Planungsprozess, dem
diese Eigenschaft fehlt (Menon et al., 1999; Segars et al., 1998; Hart und Banbury,
1994).
erfolgreicher sein als solche, die ihre Planungsprozesse lediglich mit sehr ähnlichen
Verfahren durchführen (Hart und Banbury, 1994).
Auch inhaltlich lassen sich diese Überlegungen nachvollziehen. So ist die Ra-
tionalität eines Planungsprozesses wiederholt als wesentlicher Erfolgsfaktor von
Planungsaktivitäten identifiziert worden (Hough und White, 2003; Priem et al.,
1995; B. S. Chakravarthy, 1987). Diese kann durch ein hohes Planungsausmaß
(Eisenhardt, 1989; Fredrickson, 1984) oder eine entsprechende formale Ausgestaltung
des Planungsprozesses (Dutton und Duncan, 1987) erreicht werden. Eine gleichzeitige
Betonung dieser Gestaltungsdimensionen schafft eine Struktur für die Planung, die
die Bedeutung des Treffens richtiger Entscheidungen und der Koordination der Pla-
nungsaktivitäten widerspiegelt (Segars, 1994). Gleichzeitig muss ein Planungsprozess
jedoch anpassungsfähig bzw. lernfähig“ sein (Mintzberg, 1990). Hierunter wird die
”
Eigenschaft verstanden, während des Prozessablaufs das organisationale und externe
Umfeld zu beobachten, Veränderungen wahrzunehmen und den Prozess gegebenen-
falls entsprechend anzupassen (Segars, 1994). Dies kann sowohl über die Beteiligung
des Projektteams und/oder verschiedener betrieblicher Funktionen an der Planung
(Dyson und Foster, 1982) als auch über eine regelmäßige Überprüfung und Hinterfra-
gung der bestehenden Planung geschehen (Judge und Miller, 1991; Eisenhardt, 1989).
Diese Gestaltungsdimensionen spiegeln die Bedeutung der Informationssammlung aus
unterschiedlichsten Quellen sowie die permanente Überprüfung und Anpassung der
Planung an den jeweiligen Planungskontext wider (Segars, 1994). Ein Planungspro-
zess, der alle diese Gestaltungsdimensionen miteinander vereint, kann als gleichzeitig
rational im Sinne einer übergeordneten Struktur und anpassungsfähig durch eine
breite Beteiligung und regelmäßige Kontrolle beschrieben werden und wird daher
auch als rational adaptation“ bezeichnet (Segars et al., 1998).
”
Bereits in den 1970er Jahren wiesen Autoren darauf hin, dass es wünschenswert
sei, verschiedene Planungs- und Entscheidungsverhalten sequentiell (G. T. Allison
und Zelikow, 1999) oder gleichzeitig (Mintzberg, 1973) miteinander zu kombinieren
und auch Sullivan (1985) spricht sich für eine Planung aus, die Rationalität und
Anpassungsfähigkeit auf vielschichtige Weise miteinander verbindet. In der Forschung
zum strategischen Management findet sich zudem eine Reihe von Studien, die die
Effektivität von Planungsprozessen dokumentieren, die formal gestaltet sind, jedoch
adaptive Elemente enthalten, die es den Planern gestatten, die Planungsvorgaben
Planung von Innovationsprojekten 93
3.3 Umsetzung
Vor Beginn der Umsetzung sollten die Projektziele und die Strategien zu deren
Erreichung definiert werden, da diese die Basis für die anschließende Umsetzung
bilden (Dvir, Raz und Shenhar, 2003). Dieser Vorgang wird auch als stage setting“
”
(McDonough, 2000) bezeichnet. Da Entwicklungsaktivitäten jedoch mit Unsicherheit
behaftet sind und nicht vollständig im voraus geplant werden können (Keplinger,
1991; McDonough und Leifer, 1986), kann es im Laufe der Projektdurchführung zu
wiederholten Veränderungen der Ziele und Prozesse kommen, so dass ein gewisses
Maß an Flexibilität erforderlich ist, wie das folgende Zitat von K. G. Cooper und
Sklar Reichelt (2004, S.745) veranschaulicht:
Change is a necessary fact of project life. Projects are not just about
”
meeting contractual requirements; they are about achieving the outcomes
the end users need. In a world in which markets shift, technology advances,
and requirements evolve, projects must be able to accommodate all of
these types of changes. The result can be a more capable product that
better meets the users’ needs.“
2001). In diesem Zusammenhang kann zwischen zwei verschiedenen Arten von Ver-
änderungen unterschieden werden (Dvir und Lechler, 2004): Veränderungen, die
sich auf den Projektplan, aber nicht auf das Projektziel oder die Befriedigung der
Kundenbedürfnisse auswirken und Veränderungen, die eine Änderung der Projektziele
nach sich ziehen.
Planänderungen ergeben sich typischerweise aus dem Projektumfeld und ver-
hindern, dass die ursprüngliche Planung umgesetzt werden kann. Auslöser können
Ressourcenengpässe, Verzögerungen etc. sein. Planänderungen können sich auch aus
einer schlechten Eingangsplanung ergeben, die später korrigiert werden muss, ohne
jedoch notwendigerweise auch die Projektziele zu ändern.
Projektzieländerungen sind für gewöhnlich das Ergebnis einer bewussten Ent-
scheidung der Projektstakeholder. Sie können sich aus veränderten Anforderungen,
der Erkenntnis, dass die bisherigen Projektziele nicht in dem gesteckten Zeit- und
Budgetrahmen zu erreichen sind, oder Veränderungen im Umfeld, die Einfluss auf
das Projektziel haben, ergeben. Wenn einer Projektzieländerung zugestimmt wird,
muss in aller Regel auch die Projektplanung verändert werden.
mäßige Änderungen der Projektziele und -prozesse können auch als Indikator für ein
Prozessmanagement gewertet werden, das primär auf ad hoc Entscheidungen basiert,
bzw. bei dem wiederholt und unkontrolliert versucht wird, das Produkt weiterzu-
entwickeln oder es anzupassen (Gerwin und Moffat, 1997). So berichten G. Bacon,
Beckman, Mowery und Wilson (1994) von voreiligen und schlecht durchgeführten
Anpassungen, die den Entwicklungsprozess verzögerten, die Kosten erhöhten und
schließlich Projekte scheitern ließen und stellen fest, dass teams must also know when
”
not to make changes“ (G. Bacon et al., 1994, S. 34). Eine großzahlige Untersuchung
von Bullinger (1990) ergab, dass sich hinter einem Drittel des Gesamtentwicklungsauf-
wandes der Unternehmen vermeidbare Änderungen verbargen. Wenn beispielsweise
während der Entwicklung neue Technologien verfügbar werden, werden diese oft in
das Produkt integriert, ohne dass wirklich die Notwendigkeit hierfür bestanden hätte
(Gupta und Wilemon, 1990). Um diese ungerechtfertigte, permanente Weiterent-
wicklung zu unterbinden, sollten Unternehmen lediglich notwendige Anpassungen
durchführen und diese vorab entsprechend kritisch überprüfen (R. Cooper et al., 2004;
Bonner et al., 2002; Keplinger, 1991). Die Ergebnisse von Wiskow (1999) legen zudem
nahe, dass ein Großteil der Störungen vermeidbar wäre. Entwickler schätzten lediglich
38% der Störgrößen auf Entwicklungszeiten als nicht oder nur schwer beeinflussbar
ein. Als Konsequenz hieraus ergibt sich eine Verlängerung der Entwicklungsdauer und
die Akzeptanz von großen Abweichungen von dem ursprünglich geplanten Produkt,
ohne dass diese in ähnlich intensiver Weise geprüft werden, wie es zu Projektanfang
wahrscheinlich gewesen ist. So ist schließlich zu befürchten, dass bei einer Vielzahl an
Veränderungen im Ergebnis eine Lösung entwickelt wird, die weniger wirtschaftliche
Vorteile bietet als die ursprünglich geplante.
Andererseits kann die völlige Abwesenheit von Projektzieländerungen ein Anzei-
chen für zu starres Prozessmanagement sein (Verganti, 1999; Thomke und Reinertsen,
1998). Die vollkommene Einhaltung ursprünglich geplanter Ziele und Prozesse kann
ein Signal dafür sein, dass die Organisation nicht ausreichen auf externe und interne
Veränderungen reagiert (Covin und Slevin, 1998; Thomke und Reinertsen, 1998). Da
jedoch die Neuproduktentwicklung, wie eingangs erwähnt, mit erheblicher Unsicher-
heit behaftet ist, erscheint es recht unwahrscheinlich, dass die ursprünglich geplanten
Ziele ohne jegliche Veränderungen erreicht werden können (Thomke, 1997; Keplinger,
1991; McDonough und Leifer, 1986).
Umsetzung 97
Hypothese 9: Je größer die Stabilität der Projektziele, desto größer ist die
Stabilität des Projektprozesses während dessen Umsetzung.
Hypothese 10: Je größer die Stabilität der Projektziele, desto größer ist der
Projekterfolg.
Hypothese 11: Je größer die Stabilität des Projektprozesses, desto größer ist
der Projekterfolg.
98
Tabelle 3.4: Ausgewählte empirische Studien zum Zusammenhang zwischen Plan- bzw. Zieländerungen und Projekterfolg. Quelle:
In Anlehnung an Verworn (2005)
3.4 Einflussfaktoren
Planung wird erheblich von einer Reihe von Umwelt- und Kontextfaktoren beeinflusst
(Tidd und Bodley, 2002; Shenhar, 2001; Nutt, 1982) und die Eigenschaften eines
effektiven Planungssystems variieren mit der Unternehmensgröße und Branchen-
zugehörigkeit (Bryson und Bromiley, 1993; Zwikael und Globerson, 2004). Daher
werden in den folgenden Abschnitten ausgewählte Einflussfaktoren diskutiert, die
in der Literatur als relevant für die Planung von Innovationsprojekten identifiziert
wurden.
3.4.1 Innovationsgrad
Neuproduktentwicklungsprojekte lassen sich für gewöhnlich nicht in eine Reihe vor-
hersehbarer Schritte, die im vorhinein identifiziert und geplant werden könnten,
zerlegen (Schilling und Hill, 1998; Bailetti et al., 1994), da es zu Beginn der Projekt-
durchführung häufig an einem genauen Verständnis der spezifischen Projektaufgaben,
der Aufgabenabfolge, der Interdependenzen zwischen den Aufgaben sowie ihrer zeit-
lichen Befristung mangelt (Tatikonda und Rosenthal, 2000a). Dies gilt insbesondere
für radikale Innovationen, die nicht nur als unsicherer, risikobehafteter und teurer,
sondern auch als schwieriger präzise vorauszuplanen und auszuführen gelten (Ettlie
und Subramaniam, 2004; A. Drejer, 2002). So beeinflusst der Innovationsgrad die rela-
tiven Effekte verschiedener Neuproduktentwicklungsaktivitäten auf den Projekterfolg
(Song und Montoya-Weiss, 1998). Beispielsweise wird das Management besonders
unsicherer und innovativer Projekte als flexibler und weniger formal (Shenhar, 2001)
beschrieben: Projekte, insbesondere im Bereich der Hochtechnologie, gelten als deci-
”
sion intense environments“ (Shenhar, 2001). Projektmanager müssen gerade dort
eine Balance zwischen Planung und Umsetzung (Iansiti, 1998) und formalem und
informellem Verhalten (Brown und Eisenhardt, 1997) finden. Im Extremfall können
somit die für inkrementelle Innovationen als geeignet angesehenen Managementprak-
tiken den Fortschritt radikaler Innovationsprojekte erheblich behindern (Rice et al.,
1998). So vermuten Tidd und Bodley (2002, S. 128) there is unlikely to be ’one
”
best way’ to manage and organize product development“ und de Brentani (2001,
S. 181) kommt zu dem Ergebnis, that radically different types of new product
”
ventures require a different approach to achieving NPD success.“ Somit erscheint
100 Planung, Umsetzung und Erfolg von Innovationsprojekten
3.4.2 Branchenumfeld
Manche Branchen werden durch ihre Instabilität versinnbildlicht: So werden beispiels-
weise die Computer-, Medien- und Telekommunikationsindustrien häufig als sehr
turbulent und schnelllebig beschrieben und typischerweise wird davon ausgegangen,
dass dies in diesen Brachen auch zukünftig der Fall sein wird (vgl. z. B. Henard und
Szymanski, 2001; Eisenhardt und Tabrizi, 1995; Eisenhardt, 1989). Jedoch wird sich
jede Branche irgendwann zumindest vorübergehend mit einem mehr oder minder
turbulenten Umfeld auseinandersetzen müssen (Calantone, Garcia und Dröge, 2003).
Ein turbulentes Branchenumfeld ist dadurch charakterisiert, dass sich in kurzer Zeit
massive Veränderungen ergeben können, die ein hohes Maß an Unsicherheit und
Unvorhersagbarkeit schaffen (Bourgeois und Eisenhardt, 1988; Dess und Beard, 1984).
Hierzu zählen beispielsweise dynamische und volatile Nachfrage- und Wachstumsraten
mit abrupten Trendbrüchen (Glazer und Weiss, 1993), kurzfristige Wettbewerbs-
vorteile, die kontinuierlich geschaffen und wieder verloren werden und niedrige Ein-
und Austrittsbarrieren der Branche, durch die sich die Wettbewerbsstruktur in der
Branche permanent wandelt (B. Chakravarthy, 1997). Solche Umfelder sind mit
Attributen wie unbekannt (Souder und Song, 1998), feindlich (Covin und Slevin,
1989; D. Miller, 1987b), heterogen (D. Miller, 1987b), unsicher (Thompson, 1967),
komplex (Duncan, 1972; Emery und Trist, 1965), dynamisch (D. Miller, 1987b; Dess
und Beard, 1984; Duncan, 1972; Emery und Trist, 1965) und volatil (Bourgeois,
1985) beschrieben worden. So definieren Calantone et al. (2003, S. 91):
[W]e define a turbulent environment as one in which frequent and
”
unpredictable market and/or technological changes within an industry
accentuate risk and uncertainty in the NPD strategic planning process.“
Vor allem Hochtechnologiebranchen werden in der Literatur im Vergleich zu low
”
tech Märkten“ als komplexer, informationsintensiver, turbulenter und aufgrund sich
schnell ändernder und heterogener Technologien auch als unsicherer eingestuft (vgl.
z. B. Henard und Szymanski, 2001). Diese Charakteristika von Hochtechnologiemärk-
ten, wie z. B. der Elektronikindustrie oder den eingangs genannten Industriezweigen,
wirken sich möglicherweise auf die Effektivität eines strukturierten Ansatzes zur
Neuproduktentwicklung aus, so dass eine stärkere Strukturierung des Innovationspro-
zesses in diesen Märkten einen negativen Einfluss auf den Innovationserfolg haben
könnte (Henard und Szymanski, 2001).
102 Planung, Umsetzung und Erfolg von Innovationsprojekten
Trotz einiger empirischer Untersuchungen, die sich mit technologischen oder Markt-
veränderungen und deren Auswirkungen auf Neuproduktentwicklungsprojekte befasst
haben (vgl. z. B. Tatikonda und Montoya-Weiss, 2001; Song und Montoya-Weiss,
2001; Eisenhardt und Tabrizi, 1995) erhielten diese Variablen in der Forschung zur
Neuproduktentwicklung als moderierende Faktoren des Projekterfolgs nur begrenzte
Aufmerksamkeit (Bstieler, 2005). So argumentieren einige Forscher, dass Faktoren
wie das marktliche Wettbewerbsumfeld im Vergleich zu anderen Determinanten nur
einen untergeordneten Einfluss auf den Projekterfolg haben (vgl. z. B. Montoya-Weiss
und Calantone, 1994). Über diesen und andere Umwelteinflüsse wird behauptet, dass
sie keinen starken Einfluss auf den Projekterfolg hätten, so dass sie als unbedeutend
angesehen werden und Ergebnisse nicht berichtet werden (Bstieler, 2005). Griffin
(2002) unterstreicht dies, indem sie ausführt, dass viele Forschungsbemühungen, die
sich dem Einfluss des Branchenumfelds auf die Neuproduktentwicklung gewidmet
haben, kaum signifikante empirische Befunde liefern konnten.
Im Gegensatz hierzu weisen andere Forscher darauf hin, dass zukünftige Untersu-
chungen sich expliziter dem Einfluss der Unternehmensumwelt widmen sollten und
merken an,
• dass der Einfluss des Marktumfeld auf die Unternehmenserfolg generell ver-
nachlässigt wurde (Brown und Eisenhardt, 1995),
• dass sich die meisten bestehenden Studien nur auf die Hauptbeziehungen (main
effects) unter den Variablen konzentrieren und das Projektumfeld, insbesondere
das unternehmensexterne, kaum beachtet haben (MacCormack und Verganti,
2003),
Eine von Bstieler (2005) durchgeführte Analyse kommt zu dem Ergebnis, dass in
bestehenden Studien ein Konsens besteht, dass umweltbezogene Unsicherheit sich
im Wesentlichen in der Unvorhersehbarkeit von, der Unvertrautheit mit und dem
Einflussfaktoren 103
Umfeldern um ein hohes Planungsausmaß bemühen und dass die Planungs- und
Entscheidungsprozesse hierdurch nicht signifikant verlängert werden (Eisenhardt,
1989). Auch die Untersuchungen von Judge und Miller (1991) sowie von Kukalis
(1991) bestätigen einen positiven Einfluss des Planungsausmaßes bei umweltbedingter
Unsicherheit.
In einem solchen Umfeld sollten Planungsprozesse zudem ein höheres Maß an
Formalität und Planungskonsistenz aufweisen (Judge und Miller, 1991; Kukalis, 1991;
B. S. Chakravarthy, 1987; Fredrickson, 1984). Hierdurch werden die Bedürfnisse
nach einer grundlegenden Struktur sowie einer regelmäßigen Überprüfung und ggf.
Modifikation der Planung befriedigt. Zudem hat sich in einem solchen Umfeld ei-
ne breite Partizipation an der Planung als positiv herausgestellt (Kukalis, 1991;
B. S. Chakravarthy, 1987). Auf Basis dieser Befunde ist anzunehmen, dass ein Pla-
nungsprozess im Sinne einer rational adaptation“ unter diesen Umständen besonders
”
erfolgversprechend sein sollte. Daher wird die folgende Hypothese formuliert:
3.4.3 Projektkomplexität
Indem Williams (1999) die Dimensionen von Baccarini (1996) und Turner und
Cochrane (1993) integriert, schlägt er zwei voneinander verschiedene Aspekte der Pro-
jektkomplexität vor: strukturelle Komplexität und unsicherheitsbasierte Komplexität.
Er argumentiert, dass zur vollständigen Erfassung von Projektkomplexität nicht nur
die strukturelle Komplexität, die der dem Projekt zugrunde liegenden Struktur ent-
stammt, sondern auch unsicherheitsbasierte Komplexität, die aus Veränderungen im
Projektumfeld herrührt, berücksichtigt werden müssen. Die Unterscheidung zwischen
struktureller und unsicherheitsbasierter Komplexität ist insofern von Bedeutung, als
dass diese beiden Facetten unterschiedliche Anforderungen an die Fähigkeiten der Or-
ganisation stellen. Für gewöhnlich können Organisationen recht gut mit struktureller
Komplexität umgehen, während sie häufig nicht entsprechend für unsicherheitsbasier-
te Komplexität gerüstet sind, die sich konventionellen Managementmethoden entzieht
(Senge, 1997). Shenhar und Dvir (1996) argumentieren, dass die strukturelle Kom-
plexitätsdimension auf dem Umfang oder dem hierarchischen Rahmen eines Systems
und seiner Subsysteme basiert, während unsicherheitsbasierte Komplexität auf dem
Grad an technologischer Unsicherheit während der Initiierungsphase des Projekts
beruht. Aufgrund dieser Merkmale kann insbesondere die Neuproduktentwicklung
als eine komplexe Aufgabe aufgefasst werden (D. J. Campbell, 1988).
In der allgemeinen Projektmanagementliteratur sind eine Reihe von komplexitäts-
erhöhenden Faktoren und entsprechende Maße vorgeschlagen worden, wie etwa die
Bedeutung des Projekts, der Umfang und Neuheitsgrad der benötigten Technologie,
der Projektumfang, das Projektteam, Beziehungen zu externen Parteien und der
monetäre Projektwert (Wozniak, 1993).
Im Rahmen der Forschung zur Neuproduktentwicklung wurde die Projektkomple-
xität in verschiedenen Forschungsvorhaben untersucht (vgl. z. B. Novak und Eppinger,
2001; Tatikonda und Rosenthal, 2000b; Griffin, 1997a) und als wichtiger Einflussfak-
tor in Neuproduktentwicklungsprojekten identifiziert (Kim und Wilemon, 2003). In
der Forschung zum Projektmanagement hingegen, hat Projektkomplexität abgesehen
von den obigen Ausführungen wenig detaillierte Aufmerksamkeit erfahren (Baccarini,
1996). Wie bereits deutlich geworden ist, lässt sich Projektkomplexität nicht allein
mit der Größe eines Projekts gleichsetzen (Tatikonda und Rosenthal, 2000b), sondern
bezieht sich auch auf die Vielzahl an Verbindungen, die sich zwischen den an einem
Projekt beteiligten Personen, Aufgaben und Technologien ergeben (Baccarini, 1996).
So definieren Tatikonda und Rosenthal (2000b, S. 78):
106 Planung, Umsetzung und Erfolg von Innovationsprojekten
Kim und Wilemon (2003) betonen in Anlehnung an Downs und Mohr (1976),
dass es sich bei Komplexität um ein subjektiv wahrgenommenes Konstrukt handelt,
das von der betroffenen Person in Abhängigkeit von den jeweiligen Umständen und
anderen beteiligten Personen empfunden wird. In ihrer Definition stellen sie zudem
die Bedeutung von Unsicherheit für die wahrgenommene Komplexität heraus (Kim
und Wilemon, 2003, S. 16):
10
task interdependence is [...] [an] important source of work-related uncertainty.“ (Tushman und
”
Nadler, 1978, S. 616)
11
Perrow (1967) erläutert, dass organisatorische Aufgaben sich darin unterscheiden, wie viel
Erfahrung die Organisation mit den dabei zu erreichenden Zielen hat und ob sie weiß, wie diese
erreicht werden können. Hierdurch reduziert sich die aufgabenbezogene Unsicherheit.
12
Der level of goal performance needed“ (Galbraith, 1977) ist eine Determinante für die zur
”
Lösung einer Aufgabe zu beschaffenden Informationen und beeinflusst damit auch den Grad an
aufgabenbezogener Unsicherheit.
Einflussfaktoren 107
Autor Verständnis
Jaafari (2004, S. 289) Project complexity can be understood in terms of relevant interlocking
”
subsystems of hardware, software, of project-specific and temporary hu-
man and social systems, of related technical and technological systems, of
financial and managerial systems, of specialized expertise and information
sets, and so on that are typically created and managed to realize the
project objectives.“
Shenhar und Dvir Project complexity depends on product scope, number and variety of
”
(2004, S. 1268) elements, and the interconnection among them. But it also depends on the
complexity of the organization and the connections among its parties.“
Kim und Wilemon [C]omplexity consists of the difficulties and uncertainties, posed by the
”
(2003, S. 16) number of technologies/components/functions in development efforts and
the nature of the organizational tasks that individuals and organizations
face in carrying out NPD programs.“
Tatikonda und Rosen- We define project complexity as the nature, quantity, and magnitude of
”
thal (2000b, S. 78) organizational subtasks and subtask interactions posed by the project.“
Clift und Vanden- [...] reengineering projects or projects that make only minor modification
”
bosch (1999, S. 188) to existing products are far less complex than projects that call for major
modifications to existing products or projects that lead to new-to-the-
world products. Reengineering projects and minor modifications (what we
term as simple development projects) face fewer design challenges, fewer
difficulties in production of the final design, and less market uncertainty
than do major modifications and new-to-the-world projects (complex
development projects).“
Williams (1999, S. [...] the overall difficultness and messiness of the overall project [...] has
”
271) been called overall project ‘complexity’ as a shorthand in this paper.“
Baccarini (1996, S. It is proposed that project complexity be defined as ’consisting of many
”
202) varied interrelated parts’ and can be operationalized in terms of differen-
tiation and interdependency.
This definition can be applied to any project dimension relevant to the
project management process, such as organization, technology, environ-
ment, information, decision making and systems. So when referring to
project complexity it is important to state clearly the type of complexity
being dealt with.“
Tabelle 3.5 liefert einen Überblick über die von verschiedenen Verfassern gewählten
Definitionen von Komplexität im Kontext von Projekten.
Die Komplexität eines Projekts gehört zu den Projekteigenschaften, die insofern von
hoher Bedeutung sind, als dass basierend auf ihnen ein angemessener Managementan-
108 Planung, Umsetzung und Erfolg von Innovationsprojekten
satz für den erfolgreichen Abschluss des Projektes definiert werden muss (Baccarini,
1996). So verlangt sie ein besonderes Maß an Führung und der Einsatz konventioneller
Projektmanagementsysteme, die für gewöhnliche Projekte entwickelt wurden, hat
sich als nicht geeignet für komplexe Projekte herausgestellt (Morris und Hough,
1993). Beispielsweise zeigen die Untersuchungen von Roberts, Cheney, Sweeney
und Hightower (2005) und Roberts, Cheney und Sweeney (2002) mit studentischen
Projektgruppen, dass sich das Kommunikationsverhalten des Projektteams mit der
Projektkomplexität verändert, wodurch in komplexen Projekten ein Bedarf an aktiver
Kommunikationsförderung durch den Projektmanager entsteht. Wonglimpiyarat
(2005) zeigt mittels verschiedener Fallstudien, wie sich die Komplexität auf die
Entwicklungsdauer auswirkt. Baccarini (1996) ergänzt diese Befunde, indem er in einer
Analyse der Literatur herausarbeitet, dass Komplexität weitreichende Bedeutung für
Projekte hat, indem sie
• Einfluss auf die Auswahl der für das Projekt benötigten Ressourcen, z. B. im
Hinblick auf die notwendigen Qualifikationen der Projektteammitglieder, hat,
• sich auf die Vorgaben für die Projektdauer, -kosten und die angestrebte Pro-
duktqualität auswirkt, wobei komplexe Projekte für gewöhnlich mehr Zeit und
umfangreichere Finanzmittel benötigen.
Die qualitative Untersuchung von Clift und Vandenbosch (1999, S. 195 f.) kommt
zu den folgenden Ergebnissen hinsichtlich des Managements von komplexen Projekten
und dem Ziel einer möglichst kurzen Projektlaufzeit:
Wie bereits bei einigen der vorgenannten Variablen ergibt sich auch hinsichtlich
des Einflusses der Projektkomplexität auf den Projekterfolg ein uneinheitliches empi-
risches Bild. Hierbei ist zwischen Studien zu unterscheiden, die einen direkten Effekt
von Projektkomplexität auf verschiedene Erfolgsmaße untersuchen und solchen, die
sich einem moderierenden Einfluss der Komplexität auf z. B. die Erfolgswirksamkeit
verschiedener Managementtechniken widmen.
110 Planung, Umsetzung und Erfolg von Innovationsprojekten
Die Untersuchung von Kim und Wilemon (2003) nennt eine Reihe möglicher
Auswirkungen von Komplexität auf Neuproduktentwicklungsprojekte: die Verzöge-
rung des Projektes, negative Beeinflussung von Projektzielgrößen, Änderung des
Organisationsverhaltens, die Schaffung von Wettbewerbsvorteilen, erhebliche Lern-
effekte und eine kooperative Kultur. Allerdings entwickeln die Autoren lediglich
ein Diagnoseinstrument zur Erhebung von Komplexität und überprüfen ihre Hy-
pothesen nicht empirisch. Nach Smith und Reinertsen (1992) beeinflusst der Grad
an Komplexität den Arbeitsaufwand, der in einem Projekt erbracht werden muss,
und damit auch die Entwicklungsdauer. M. H. Meyer und Utterback (1995) zeigen,
dass sowohl die Anzahl als auch die Verschiedenheit der in einem Projekt genutz-
ten Kerntechnologien einen signifikanten Einfluss auf die Entwicklungsdauer haben.
Die Autoren behandeln diese Größen als Indikatoren für ihr Konstrukt integra-
”
tion complexity“. Griffin (1997a) schließlich zeigt, dass die Entwicklungsdauer mit
steigender Projektkomplexität zunimmt und diese einen stärkeren Einfluss auf die
Projektdauer hat als der Innovationsgrad. Auf Basis der oben ausgeführten theoreti-
schen Überlegungen formulieren Tatikonda und Rosenthal (2000b) die Hypothese,
dass die Projektkomplexität sich negativ auf den Projekterfolg auswirkt, welchen
die beiden Autoren anhand der Erreichung technischer Leistungsziele, Kostenziele
und der Entwicklungsdauer messen. Eine empirisch signifikante Beziehung in der
vermuteten Richtung können die Autoren allerdings lediglich in der Beziehung zwi-
schen Projektkomplexität und den Zielkosten für das neue Produkt nachweisen. Die
Untersuchung von McComb, Green und Compton (2007) beschäftigt sich mit der
moderierenden Wirkung von Komplexität in der Beziehung zwischen Flexibilität des
Projektteams und der Teameffizienz bzw. dem Teamzusammenhalt. Die Autoren zei-
gen, dass ihre beiden Komplexitätsdimensionen Mehrdeutigkeit“ und Vielfältigkeit
” ”
möglicher Lösungswege“ dabei unterschiedlich wirken. Während sich Flexibilität
bei Mehrdeutigkeit positiv auf den Teamzusammenhalt auswirkt, weil durch die
Mehrdeutigkeit ein offener Meinungsaustausch möglich und förderlich ist, wirkt sich
Flexibilität bei der Auswahl einer möglichen Lösungsstrategie negativ aus, da es
aufgrund bereits gefestigter Meinungen zu Konflikten und damit zu einem sinkenden
Teamzusammenhalt kommt. Hinsichtlich der Teameffizienz gelingt es den Autoren
nicht, einen positiven Moderationseffekt der Komplexität zu zeigen.
Projekterfolg 111
3.5 Projekterfolg
Erfolgsbewertung ist in weiten Bereichen der Betriebswirtschaft seit jeher ein tech-
nisch schwieriges und zuweilen auch emotional beladenes Thema gewesen, da sie fast
unvermeidlich Allokationsentscheidungen über knappe Ressourcen beeinflusst und
häufig implizit oder explizit mit dem Entlohnungssystem gekoppelt ist. Dies trifft
insbesondere auch auf betriebliche Forschungs- und Entwicklungsbemühungen zu,
die aufgrund ihrer Komplexität, dem dynamischen Umfeld, in dem sie stattfinden,
und der langen Zeitspanne zwischen Prozessbeginn und Ergebnis häufig schwierig zu
bewerten sind (Kerssens-van Drongelen, Nixon und Pearson, 2000). Im Rahmen des
betrieblichen Innovationsmanagements kommt dem Innovationserfolg als Bewertungs-
maßstab eine zentrale Bedeutung zu. Gleichzeitig ist dessen Operationalisierung in
der Literatur zur Neuproduktentwicklung und zum Innovationsmanagement intensiv
und teilweise auch konträr diskutiert worden (vgl. z. B. Shenhar et al., 2002; Montoya-
Weiss und Calantone, 1994). Da die Organisationsform des Projekts zur Durchführung
von Neuproduktentwicklungsvorhaben in den Unternehmen weit verbreitet ist, wird
im Rahmen dieser Arbeit der Innovationserfolg auf Projektebene betrachtet und als
Messgröße herangezogen. Aufgrund der wachsenden strategischen Bedeutung von
112 Planung, Umsetzung und Erfolg von Innovationsprojekten
Projekten, gerade auch im Bereich der Forschung und Entwicklung, ist der Projekt-
erfolg zunehmend auch mit der Leistungsfähigkeit des gesamten Unternehmens und
damit auch mit dessen Erfolg verknüpft. Trotzdem ist das konzeptionelle Verständnis
des Projekterfolgs noch nicht ausgereift und es besteht kein einheitliches Verständnis
des Begriffs (Shenhar, Dvir, Levy und Maltz, 2001; Baccarini, 1999). So stellen Liu
und Walker (1998, S. 213) fest:
Der Messbereich beschreibt dabei das Objekt, auf das der Innovationserfolg bezogen
wird. Hierbei ist grundsätzlich zwischen einer Mikro- und einer Makroebene zu
unterscheiden (F. Johne und Snelson, 1988). Die erstgenannte widmet sich der
Ebene des individuellen Innovationsprojektes, während auf der Makroebene mehrere
Projekte, bis hinauf auf die Unternehmensebene, zusammengefasst werden.13
Die Messdimension beschäftigt sich mit den Eigenschaften, anhand derer der
Innovationserfolg gemessen werden soll. Ein im Rahmen des Projektmanagements
weit verbreiteter Ansatz ist es, ein Projekt als erfolgreich zu bewerten, wenn Zeit-
und Budgetziele eingehalten werden (vgl. z. B. Shenhar et al., 2001; M. Freeman und
Beale, 1992). Darüber hinaus wird häufig die Einhaltung von Qualitätsstandards
13
Im Gegensatz zu der betriebswirtschaftlichen Betrachtung des Innovationserfolgs auf Unterneh-
mensebene widmen sich industrieökonomische und volkswirtschaftliche Messungen des Innovati-
onserfolgs primär ganzen Branchen, Nationen oder Wirtschaftsblöcken (vgl. z. B. Hauschildt,
1991; Glismann und Horn, 1988).
Projekterfolg 113
als weiteres Bewertungskriterium für den Projekterfolg genannt, so dass von einem
goldenen Dreieck“ oder eisernen Dreieck“ der Projekterfolgsmessung gesprochen
” ”
wird (Gardiner und Stewart, 2000; Atkinson, 1999; Pleschak und Sabisch, 1996).
Vielfach erscheint eine ausschließliche Konzentration auf diese drei Kriterien jedoch
nicht ausreichend oder angemessen, wie die folgenden Beispiele von Shenhar et al.
(2001, S. 700) verdeutlichen:
[The construction of the Sydney Opera House] took three times longer
”
than anticipated and cost almost five times higher than planned. But
it quickly became Australia’s most famous landmark, and no tourist
wants to leave Australia without seeing it. Similarly, Microsoft’s launch
of its first Windows software suffered substantial delays and required
a continuous flow of resources and additional staff. However, from the
moment of its introduction, it became an enormous source of revenue
for the company, and approximately 90% of all PCs in the world now
use the Windows operating system. And prior to the development of
its hit product, the Macintosh, Apple Computers had experienced the
business disappointment of the Lisa computer. But Apple managers later
acknowledged that, without the technologies developed and lessons learnt
during the Lisa project, the Macintosh success would not have happened.“
Das von Griffin und Page (1993) entwickelte Messkonzept ist seitdem in einer
Reihe empirischer Untersuchungen in verschiedenen Kontexten überprüft worden
(vgl. z. B. Story et al., 2001; Griffin und Page, 1996; Hultink und Robben, 1995).
Der Messzeitpunkt gibt Aufschluss darüber, wann die Erfolgsbeurteilung für ein
Innovationsprojekt vorgenommen wird. Im Rahmen der Forschung zur Neuprodukt-
entwicklung ist es verbreitete Praxis, für die Beurteilung einen Messzeitpunkt nach
der Einführung des Produkts in den Markt zu wählen, was insbesondere für die Be-
wertung des ökonomischen Effekts der Innovation erforderlich ist (Hauschildt, 1991).
Er sieht hierin jedoch ein erhebliches methodisches Problem begründet, da es sich bei
dem Terminus nach der Markteinführung“ um einen unbestimmten Zeitabschnitt
”
handelt. Wenn sich in der Forschung hierzu überhaupt Angaben finden, so werden
pauschale Fristen genannt (z.B. ein Projekt, das im letzten halben Jahr abgeschlossen
wurde). Die Betrachtung eines Produktlebenszyklusmodells verdeutlicht jedoch, dass
eine Messung des Projekterfolgs zu einem quasi beliebigen Zeitpunkt mit erheblichen
Schwierigkeiten verbunden sein kann, so dass hierin ein ernstes methodisches Defizit
der Innovationsforschung zu sehen ist (Hauschildt, 1991). Es ist klar zu ersehen, dass
die relative Bedeutung der verschiedenen Projektdimensionen von dem Beurteilungs-
zeitpunkt abhängt: So wird als kurzfristiges Erfolgsmaß und als Maßstab während
der Projektdurchführung vielfach die Projekteffizienz in den Fordergrund gestellt, da
sie zudem die einzige Größe ist, die zu diesem Zeitpunkt erhoben werden kann. Mit
zunehmendem zeitlichen Abstand gewinnen die anderen Dimensionen an Bedeutung
und ersetzen die Projekteffizienz als wichtigsten Erfolgsmaßstab (Shenhar et al.,
2001). Während Shenhar et al. (2001) dieses empirisch jedoch nicht belegen, weisen
Hultink und Robben (1995) in ihrer Untersuchung statistisch nach, dass kurzfristig
vor allem die time-to-market“ und die Entwicklungskosten von Bedeutung sind,
”
während langfristig Profitabilitätsmaße und Umsatzziele entscheidende Maßgrößen
für den Projekterfolg sind.
Der Referenzpunkt der Messung schließlich beschreibt, womit der Innovationserfolg
verglichen wird, da neben einer reinen Messung auch eine Bewertung vorzunehmen ist
(Hauschildt, 1991). Um der Verschiedenartigkeit unterschiedlicher Projekte in ihrer
Erfolgsbewertung gerecht zu werden, sollten als Beurteilungsmaßstab die zentralen
Ziele herangezogen werden, die ursprünglich für das Projekt definiert wurden (Lechler,
1997; Griffin und Page, 1996; de Wit, 1998). Nur auf diese Weise kann es gelingen,
unterschiedlichen Projekten und Beurteilungsperspektiven in der Projektbewertung
116 Planung, Umsetzung und Erfolg von Innovationsprojekten
gerecht zu werden. Dies ist von Bedeutung, da je nach Art des Projektes unterschied-
liche Bewertungskriterien von höherer bzw. nachgelagerter Bedeutung sind, bzw.
die Stakeholder eines Projektes dieses aufgrund divergierender Ziele unterschiedlich
beurteilen (Bryde und Robinson, 2005; Shenhar et al., 2001; Lim und Mohamed,
1999). Hier besteht allerdings das Risiko, dass eine solche Erfolgsmessung, bei der
auf die ursprünglichen Projektziele referenziert wird, zu Problemen führen kann,
wenn diese Ziele vorab sehr niedrig gewählt worden sind. Trotz eines in diesem Fall
hohen Grades an Zielerreichung ließe sich dann nicht mit Sicherheit bestimmen,
ob das betreffende Projekt als erfolgreicher einzustufen wäre als andere Projekte
des betrachteten Unternehmens oder von Mitbewerbern (Ernst, 2001). Ebenso ist
das Horrorgemälde der Nicht-Innovation“, also der Vergleich mit einem fiktiven
”
ex-post Zustand, in dem das Projekt nicht durchgeführt worden wäre, problematisch:
Mit der daraus resultierenden Argumentation aus Hätten wir die Innovation nicht
”
durchgeführt, dann wäre die Konkurrenz...“ wird jedes Innovationsprojekt definitions-
notwendig erfolgeich (Hauschildt, 1991, S. 470). Zeit- und branchenübergreifende
Erfolgsvergleiche mittels eines absoluten Referenzmaßstabs erscheinen allerdings
aufgrund der damit verbundenen Willkür genauso problematisch (vgl. z. B. Zhang
und Doll, 2001; Song und Parry, 1997a; Hauschildt, 1991). Auch hier werden Inno-
vationen tendenziell als zu erfolgreich bewertet. Vor diesem Hintergrund beurteilt
Hauschildt (2004) den Vergleich von Innovationsprojekten mit einem zuvor definier-
ten Ziel als einzig rationale Vorgehensweise zur Erfolgsbewertung. Tabelle 3.6 bietet
diesbezüglich einen Überblick über Studien, die eine Korrelation subjektiver und
objektiver Erfolgsmaße ermittelt haben.
Projekterfolg 117
Tabelle 3.6: Korrelation zwischen subjektiv geschätztem Erfolg und objektiven Erfolgsma-
ßen auf Unternehmensebene. Quelle: Weise (2005)
118 Planung, Umsetzung und Erfolg von Innovationsprojekten
Planungsausmaß
H1
Formalisierung
H2
H3 Projekterfolg
Planungs-
konsistenz H4
Partizipation
Planungs-
konsistenz H7 Projektziel- H10
stabilität
Partizipation H9
H8 Projektprozess- H11
stabilität
Hypothese 9: Je größer die Stabilität der Projektziele, desto größer ist die Stabilität
des Projektprozesses während dessen Umsetzung.
Hypothese 10: Je größer die Stabilität der Projektziele, desto größer ist der Pro-
jekterfolg.
Hypothese 11: Je größer die Stabilität des Projektprozesses, desto größer ist der
Projekterfolg.
Im Rahmen dieses Kapitels wird die empirische Untersuchung der Planung von
Innovationsprojekten in ihrer Konzeptionierung und Durchführung geschildert. Hier-
zu wird in Abschnitt 4.1 zunächst auf das Untersuchungsdesign eingegangen und die
Operationalisierung der Modellvariablen, das Erhebungsdesign und die realisierte
Stichprobenstruktur beschrieben, bevor die eingesetzten Methoden der Datenaus-
wertung näher betrachtet werden. Im nächsten Schritt erfolgt die Aufbereitung der
Daten, welche in Abschnitt 4.2 beschrieben wird. Die empirische Überprüfung der in
Kapitel 3 hergeleiteten Untersuchungshypothesen erfolgt schließlich in Abschnitt 4.3.
4.1 Untersuchungsdesign
Das in dieser Arbeit verfolgte Forschungsziel, das Zusammenspiel und die Wirkung
verschiedener Projektplanungsprozessdimensionen und der Projektdurchführung auf
den Erfolg von Neuproduktentwicklungsprojekten zu untersuchen, erfordert hohe
Ansprüche an die Leistungsfähigkeit der hierzu einzusetzenden statistischen Verfahren,
da hierbei komplexe Wirkungszusammenhänge zwischen einer Vielzahl an Variablen
geprüft werden.
Da sich die für diese Untersuchung betrachteten Variablen einer direkten Messung
entziehen, werden sie auch als latente Variablen, Konstrukte, Faktoren, unbeobachte-
te Variablen oder True Scores bezeichnet (Bagozzi und Phillips, 1982; Bollen, 2002).
In der Literatur werden vor allem drei Aspekte latenter Variablen diskutiert (Bollen,
2002): Zunächst ist hierbei der bereits genannte Umstand der Unbeobachtbarkeit
latenter Variablen, also der fehlenden Möglichkeit, diese direkt zu messen oder zu be-
obachten, zu nennen (Homburg und Giering, 1998). Ebenfalls wird häufig diskutiert,
ob es sich bei latenten Variablen um reale Größen oder aber vielmehr um imaginäre,
hypothetische bzw. theoretische Gebilde handelt. Dieser letzteren Sichtweise folgen
beispielsweise Bagozzi und Phillips (1982), für die Konstrukte nicht real sind, sondern
nur den Versuch darstellen, reale Phänomene zu erfassen. Schließlich werden latente
Variablen häufig als Instrumente der Datenreduktion beschrieben, die eine Reihe
von Variablen zu einer geringeren Zahl von Faktoren oder gar Faktoren zweiter
Ordnung verdichten (vgl. z. B. Albers und Götz, 2006; Giere, Wirtz und Schilke,
2006). Hier wird also vor allem die deskriptive Funktion latenter Variablen, bzw. die
sachlogische Zusammengehörigkeit einzelner Indikatoren betont (Backhaus, Erichson,
Plinke und Weiber, 2000). Hieraus wird deutlich, dass es eine Vielzahl verschiedener
Arten von Konstrukten gibt, die sich unterschiedlich modellieren lassen. So lassen
sich latente Variablen erster und höherer Ordnung sowie ein- und mehrdimensionale
Konstrukte unterscheiden. Einen Überblick über die verschiedenen Möglichkeiten
bietet Abbildung 4.1.
Konstrukt
=
Faktor
Konstrukt Konstrukt
… …
.. .. .. ..
Abbildung 4.1: Arten von Konstrukten. Quelle: Homburg und Giering (1998)
Theoretische Theoretische
Sprache Variablen
Korrespondenz-
Sprachen
regeln
Beobachtungs- Beobachtbare
sprache Variablen
Auf der theoretischen Sprachebene arbeitet die Forschung dabei mit theoretischen
Begriffen, die wie bereits dargestellt, als hypothetische Konstrukte oder latente
Variablen bezeichnet werden, da sie sich einer unmittelbaren Messung entziehen.
Eine Theorie kann und muss zu einer empirischen Überprüfung nicht nur auf der
theoretischen Sprachebene, sondern auch auf der Ebene der Beobachtungssprache
Untersuchungsdesign 125
formuliert werden. Diese manifestiert sich, wie oben geschildert, in den beobacht-
baren Variablen (Indikatoren). Da die Indikatoren als Signal für das Vorliegen der
latenten Variablen dienen, müssen diese mittels einer Korrespondenzregel in einen
Zusammenhang gebracht werden. Erst wenn dies der Fall ist, kann von einer empi-
risch gehaltvollen, positiven“ Theorie gesprochen werden (Bagozzi, 1998). Dieser
”
Zusammenhang und die Umsetzung der Zweisprachentheorie werden in Abbildung
4.3 mittels eines fiktiven Beispiels dargestellt.
Theoretische
Ebene
η1 η2
H
Korrespondenz-
regeln
γ1 γ2 γ3
Beobachtungs-
ebene
x1 x2 x3
r1 r2
r3
hier keine indikative, sondern eine formative Funktion zukommt handelt es sich bei
formativ gemessenen Konstrukten auch nicht um latente Variablen, so dass Begriffe
wie Kompositvariable“ verwendet werden sollten. Aus diesen Überlegungen folgt
”
unmittelbar, dass im Gegensatz zu reflektiven Messmodellen die Items einer Skala in
einem formativen Messmodell nicht ohne weiteres weggelassen oder ersetzt werden
ohne dass sich das Konstrukt inhaltlich verändert.
Für die empirische Forschung bedeutet dies, dass eine Beurteilung der Modellgüte
anhand der internen Konsistenz der Indikatoren im offensichtlichen Widerspruch
zu den Prämissen formativer Messmodelle steht und somit anstelle der klassischen
Beurteilungskriterien wie dem Cronbach’schen Alpha andere Aspekte in den Vorder-
grund treten (Fassott und Eggert, 2005; Rossiter, 2002). Die Beurteilung formativer
Konstrukte verlangt aufgrund ihres verursachenden Charakters vor allem eine Bewer-
tung in Bezug auf die vollständige inhaltlich-semantische Erfassung des Konstrukts
(Inhaltsvalidität) und in Hinblick darauf, in welchem Umfang sich die theoretisch
vorhergesagten Wirkungsbeziehungen zu kausal vor- und nachgelagerten Konstrukten
empirisch nachweisen lassen (nomologische Validität) (Jarvis et al., 2003; Diaman-
topoulos und Winklhofer, 2001; Bollen und Lennox, 1991). Insofern kann es bei
Fehlspezifikationen zu erheblichen Verzerrungen kommen, so dass einer Identifikation
reflektiver bzw. formativer Messmodelle erhebliche Bedeutung zukommt (MacKenzie
et al., 2005). Da die Entscheidung, ob ein latentes Konstrukt reflektiv oder formativ
gemessen werden sollte, vor allem auf der Grundlage inhaltlicher Überlegungen zu
treffen ist, haben Jarvis et al. (2003) einen Katalog aus sieben Indizien formuliert,
der diese Überlegungen leiten soll (Huber, Herrmann, Meyer, Vogel und Vollhardt,
2007, S. 19):
• Sollten die Indikatoren denselben oder ähnlichen Inhalt haben? Haben die
Indikatoren ein gemeinsames Thema?
• Sollte eine Änderung eines Indikators zur Änderung der anderen Indikatoren
führen?
4.1.1.1 Planungsausmaß
Das Planungsausmaß kann als Ausdruck der Rationalität aufgefasst werden und
beschreibt, inwieweit Entscheidungs- und Planungsprozesse auf der Sammlung von
für die Entscheidung relevanten Informationen sowie deren Auswertung im Rahmen
der Entscheidung bzw. Planung basieren (Dean und Sharfman, 1996). Unter anderem
finden sich Operationalisierungen bei Dean und Sharfman (1996), Segars et al. (1998),
Atuahene-Gima und Murray (2004), Atuahene-Gima und Li (2004), Büschelberger
(2004) und Segars (1994). Das Konstrukt wird in Anlehnung an die Ausführungen
in Abschnitt 3.2.1 und die dort von Janis und Mann (1977) genannten Kriterien
operationalisiert, die inhaltlich als Basis für die genannten Operationalisierungen
angesehen werden können. Die Formulierung orientiert sich dabei an den Arbeiten
von Büschelberger (2004) und Segars (1994).
Planungsausmaß
Dimensionen Indikatoren
intensive Informationssuche Wir haben versucht, alle relevanten Informationen für die
Planung des Innovationsprojekts zu sammeln.
Betrachtung aller möglichen Vor jeder Entscheidung wurden mögliche Alternativen
Alternativen gründlich untersucht.
zielkonforme Auswahl Wir haben versucht, die optimale aus den identifizierten
Alternativen zu ermitteln.
gewissenhafte und objektive In unserer Planungs- und Konzeptionsphase wurde wenig
Bewertung dem Zufall überlassen.
gründliche Prüfung Entscheidungen wurden solange vertagt, bis alle Alternati-
ven ausreichend geprüft waren.
4.1.1.2 Formalisierung
Formalisierung
Dimensionen Indikatoren
4.1.1.3 Partizipation
In Abschnitt 3.2.4 wurde erläutert, dass unter Partizipation der Umfang gemein-
schaftlicher Entscheidungsfindung bzw. das Teilen von Befugnissen verstanden wird.
Diese Beteiligung bezieht sich auf die Anzahl der an der Planung beteiligten Perso-
nen, die Menge der beteiligten Unternehmensbereiche sowie den Umfang lateraler
Kommunikation im Unternehmen. Operationalisierungen des Partizipationsbegriffs
finden sich unter anderem bei Dutton und Duncan (1987), B. S. Chakravarthy
(1987), Segars (1994) und Büschelberger (2004). Im Rahmen dieser Arbeit wird auf
die Operationalisierung von Segars (1994) zurückgegriffen und die Formulierungen
Untersuchungsdesign 131
Partizipation
Dimensionen Indikatoren
4.1.1.4 Planungskonsistenz
Wie in Abschnitt 3.2.3 beschrieben, wird unter der Konsistenz und Regelmäßigkeit
der Planung verstanden, wie kontinuierlich ein Planungsprozess abläuft. Die re-
gelmäßige und kritische Reflexion der bestehenden Planung gestattet es, diese an
geänderte Umfeldbedingungen anzupassen und bildet somit eine wichtige Basis für
hohe Leistungsfähigkeit im Rahmen komplexer Aufgaben (Gurtner et al., 2007).
Neben kontinuierlicher Planung gehören hierzu stetige Kommunikation unter den
Beteiligten sowie eine regelmäßige Überprüfung und ggf. Modifikation der Planung.
Operationalisierungen finden sich bei Segars (1994), Tjosvold et al. (2004), Hoegl
und Parboteeah (2006) und Schippers und Den Hartog (2007). Im Rahmen dieser
Arbeit wird die Operationalisierung von Segars (1994) genutzt, die hierfür auf die
Ebene von Entwicklungsprojekten angepasst wurde.
132 Empirische Untersuchung
Planungskonsistenz
Dimensionen Indikatoren
4.1.1.5 Coalignment
Im Hinblick auf die Operationalisierung nimmt das Coalignment eine besondere Rolle
im Rahmen dieser Arbeit ein. Wie in Abschnitt 3.2.5 beschrieben, wird mit dem
Begriff des Coalignment das Zusammenwirken der unterschiedlichen Dimensionen des
Planungsprozesses beschrieben, durch das eine Struktur entsteht, die die unterschied-
lichen Planungsbedürfnisse der Organisation widerspiegelt. Hierbei kann nicht wie in
den vorangegangenen Fällen auf eine Gruppe von Indikatoren zurückgegriffen werden,
da sich das Coalignment auf die bereits vorgestellten latenten Variablen bezieht.
Dadurch ergeben sich Herausforderungen für die Operationalisierung (Venkatraman,
1990, S. 21):
Methodisch lassen sich verschiedene Ansätze zur Modellierung des Coalignment un-
terscheiden, die in ihrem inhaltlichen Verständnis differieren, so dass die Modellierung
Untersuchungsdesign 133
an dieser Stelle zwar nicht über repräsentative Indikatoren, aber doch über eine
inhaltlich repräsentative Methode vorgenommen wird (vgl. Venkatraman, 1989, 1990).
Insofern liegt eine wesentliche Herausforderung dieser Perspektive in der Wahl ge-
eigneter statistischer Modelle, um diese theoretische Perspektive zu überprüfen.
Untersuchungsdesign 135
4.1.1.6 Projektdurchführung
Wie in Abschnitt 3.3 dargestellt wurde, können Ziel- und Prozessstabilität als
Indikatoren für die Planungs- und Umsetzungsqualität aufgefasst werden. Zudem
bestätigen empirische Untersuchungen immer wieder die negativen Effekte von
Projektziel- und -planänderungen auf den Projekterfolg. Operationalisierungen von
Ziel- und Prozessstabilität finden sich bei Salomo et al. (2007), Weise (2005) und
Dvir und Lechler (2004). Im Rahmen dieser Arbeit werden die Operationalisierungen
von Weise (2005) und Dvir und Lechler (2004) genutzt. Der erstgenannte Autor
betrachtet lediglich die Prozessstabilität, während Dvir und Lechler (2004) beide
Variablen betrachten, die Prozessstabilität allerdings nur über einen Indikator messen,
so dass hierfür auf die Operationalisierung von Weise (2005) zurückgegriffen wird.
15
Eine Darstellung dieses statistischen Verfahrens findet sich in Abschnitt 4.1.3.1.
136 Empirische Untersuchung
Projektdurchführung
Dimensionen Indikatoren
4.1.1.7 Innovationsgrad
Wie in den Abschnitten 2.2 und 3.4.1 herausgearbeitet wurde, handelt es sich beim
Innovationsgrad um ein multidimensionales Konstrukt, bei dessen Messung sowohl
der Technologie-Innovationsgrad, der Organisations-Innovationsgrad, der Markt-In-
novationsgrad als auch der Umfeld-Innovationsgrad berücksichtigt werden sollte.
Eine solch umfassende Operationalisierung findet sich in den Arbeiten von Salomo et
al. (2007), Weise (2005), Krieger (2005), Billing (2003), Salomo (2003) und Garcia
und Calantone (2002). Im Rahmen dieser Arbeit wird auf die Operationalisierung
von Salomo et al. (2007) zurückgegriffen, die sich neben ihrer Aktualität auch durch
ihre statistische Sparsamkeit auszeichnet, da diese Skala bei einer vergleichsweise
geringen Anzahl von Indikatoren sehr gute statistische Gütewerte erzielt.
Untersuchungsdesign 137
Innovationsgrad
Dimensionen Indikatoren
Technischer Neuheitsgrad Bei dieser Innovation wird ein völlig neues technologisches
Prinzip angewendet.
Diese Technologie ermöglicht eine sprunghafte Leistungs-
steigerung.
Existierende Technologien werden durch die Innovation ver-
drängt (z. B. DVD vs. Video).
Neuheitsgrad für das eigene Mit der Umsetzung des Innovationsvorhabens war eine Neu-
Unternehmen orientierung der Unternehmensstrategie verbunden.
Die Umsetzung der Innovation verlangte eine vollkommen
neue Organisationsstruktur.
Zur Umsetzung der Innovation mussten Unternehmenspro-
zesse grundlegend verändert werden.
Das gesamte Innovationsvorhaben hat die bisher in dem
Unternehmen vorhandene Kultur sehr stark verändert.
Neuheitsgrad für den Markt Die Innovation verlangt vom Kunden umfangreiche
Einstellungs- und Verhaltensänderungen.
Die Innovation erfordert einen hohen Lernaufwand für den
Kunden.
Neuheitsgrad für das Unter- Für die Durchsetzung der Innovation am Markt musste eine
nehmensumfeld neue Infrastruktur geschaffen werden (z. B. Errichtung eines
neuen Tankstellennetzwerkes für die Versorgung wasserstoff-
betriebener PKW).
Für die Durchsetzung der Innovation am Markt mussten
regulatorische Rahmenbedingungen erheblich angepasst /
geschaffen werden.
Die Innovation steht im Kreuzfeuer gesellschaftlicher Kritik.
4.1.1.8 Branchenumfeld
Wie in Abschnitt 3.4.2 ausgeführt wurde, wird sich jede Branche irgendwann zumin-
dest vorübergehend mit einem mehr oder minder turbulenten Umfeld auseinander-
setzen müssen (Calantone et al., 2003). Ein solches ist dadurch charakterisiert, dass
138 Empirische Untersuchung
sich in kurzer Zeit massive Veränderungen ergeben können, die ein hohes Maß an
Unsicherheit und Unvorhersagbarkeit schaffen (Bourgeois und Eisenhardt, 1988; Dess
und Beard, 1984). Ein solches Branchenumfeld ist in der Forschung vielfach als dyna-
misch bezeichnet worden (vgl. z. B. D. Miller, 1987b; Dess und Beard, 1984; D. Miller
und Friesen, 1982; Duncan, 1972; Emery und Trist, 1965). Die Ausführungen haben
zudem gezeigt, dass zwischen verschiedenen Eigenschaften des Branchenumfelds, wie
z. B. Unsicherheit, Komplexität, Feindlichkeit und Schnelllebigkeit unterschieden
werden kann. Im Rahmen dieser Arbeit wird insbesondere die Schnelllebigkeit des
Unternehmensumfeldes betrachtet, da die Analyse der Literatur in Kapitel 2 gezeigt
hat, dass diese einen wesentlichen Einfluss auf die Planung haben kann. Zu diesem
Zweck wird die Operationalisierung von D. Miller und Friesen (1982) genutzt, die
in ihrer Arbeit verschiedene Formen von Umwelteinflüssen unterscheiden, so dass
davon ausgegangen werden kann, dass die Verfasser ein besonderes Augenmerk auf
die differenzierte Formulierung der verschiedenen Indikatoren gelegt haben.
stabil dynamisch
Unser Unternehmen muss nur selten mit Unser Unternehmen muss seine Marketingak-
Veränderungen der Marketingaktivitäten auf tivitäten sehr häufig als Reaktion auf den
den Markt / die Konkurrenz reagieren. Markt / die Konkurrenz verändern.
Die Taktrate, mit der Produkte und Services Die Taktrate, mit der Produkte und Services
in unserer Industrie obsolet werden, ist sehr in unserer Industrie obsolet werden, ist sehr
gering. hoch.
Aktivitäten von Konkurrenten sind einfach Aktivitäten von Konkurrenten sind nicht vor-
vorherzusehen. hersehbar.
Geschmack und Nachfrage von Kunden sind Geschmack und Nachfrage von Kunden sind
einfach vorherzusagen. nicht vorhersagbar.
Fertigungs- und Servicetechnologien in un- Fertigungs- und Servicetechnologien in unse-
serer Branche unterliegen keinen großen rer Branche verändern sich stark und häufig.
Veränderungen und sind weit entwickelt.
4.1.1.9 Projektkomplexität
Dimensionen Indikatoren
Neuheit der Projektziele Wie viel Erfahrung hatte das Projektteam zu Projektbeginn
mit...
...der Zielvorgabe für die technischen Leistungsmerkmale
des Produkts (der Anlage, des Systems)?
...der Zielvorgabe für die Stückkosten?
...der Zielvorgabe für die Projektlaufzeit?
Damit stellt das von den Verfassern entwickelte Messkonzept der Komplexität
durch seine Mehrdimensionalität eine Erweiterung gegenüber anderen Ansätzen
140 Empirische Untersuchung
dar, welche lediglich auf die Projektgröße abstellen (vgl. Tatikonda und Rosenthal,
2000b) oder nur begrenzt eine differenzierte Messung gestatten.16 Für die vorliegende
Arbeit wurden die Formulierungen der Indikatoren an den Untersuchungsgegenstand
angepasst.
4.1.1.10 Projekterfolg
Bereits in Abschnitt 3.5 wurde auf die Vielschichtigkeit des Erfolgsbegriffes hingewie-
sen und verdeutlicht, welche Probleme sich daraus für dessen Messung ergeben. So
sind nach Hauschildt (1991) im Rahmen eines Messkonzeptes für den Innovationser-
folg der Messbereich, die Messdimensionen, der Messzeitpunkt, die Referenzgrößen
der Messung und das Messsubjekt zu spezifizieren.
Projekterfolg
Dimensionen Indikatoren
Produkterfolg Wie hoch war die Zielerreichung für die folgenden produkt-
bezogenen Zielgrößen in Ihrem Entwicklungsvorhaben?
Erreichung der technischen Leistungsziele
Erreichung der angestrebten Qualität
Produktionsfreundlichkeit des Produktes
Markterfolg Wie hoch war die Zielerreichung für die folgenden marktbe-
zogenen Zielgrößen in Ihrem Entwicklungsvorhaben?
Erreichung des Zielumsatzes
Erreichung des Ziel-Marktanteils
Erzielung eines nachhaltigen Wettbewerbsvorteils
Projekteffizienz Wie hoch war die Zielerreichung für die folgenden projekt-
bezogenen Zielgrößen in Ihrem Entwicklungsvorhaben?
Budgeteinhaltung
Einhaltung der Time-to-Market
Zeitplaneinhaltung
danach, wer um eine Erfolgsbewertung gebeten wird, muss sich die vorliegende Arbeit
auf das Urteil von Schlüsselinformanten verlassen.17 Auch wenn dieses Vorgehen
eigene Schwierigkeiten birgt, wurde von dem Versuch, objektive Kennzahlen für die
einzelnen Erfolgsdimensionen zu erheben, abgesehen, da auch dieses Vorgehen mit
erheblichen Problemen behaftet sein kann, wie Dess und Robinson (1984) und Dawes
(1999, S. 67 f.) verdeutlichen:
can take the relative performance of their industry into account when
providing a response (ie ’rate the profit performance of your firm rela-
tive to others in your industry’). Third, performance measures such as
profitability may not accurately indicate the underlying financial health
of a company. Profitability may vary due to reasons such as the level
of investment in R&D or marketing activity, that might have longer
term effects. Last, there have been several studies that show a strong
correlation between objective and subjective measures.“
Den Ausgangspunkt einer empirischen Untersuchung bildet die Wahl einer der Fra-
gestellung angemessenen Datenerhebungsmethode. Im Rahmen der vorliegenden
Untersuchung, die den Anspruch erhebt, die entwickelten Hypothesen anhand der
betrieblichen Planungspraxis von Innovationsprojekten zu überprüfen, ist es erfor-
derlich, eine Primärerhebung durchzuführen.
Vor dem Hintergrund der Zielsetzung, die Planung von Innovationsprojekten mit
unterschiedlichen Neuheitsgraden und in unterschiedlichen Umfeldsituationen zu
Untersuchungsdesign 143
untersuchen, wurde entschieden, die Erhebung nicht nur innerhalb einer Branche
durchzuführen, sondern durch eine Streuung über mehrere Branchen ein breiteres
Spektrum hinsichtlich des Branchenumfelds einzufangen, um zu möglichst allgemein-
gültigen Aussagen kommen zu können. Zur Identifikation der Branchen wurden
Expertengespräche mit Vertretern aus Wissenschaft und Praxis geführt. Um eine
Vergleichbarkeit der Planungsprozesse in den Projekten zu gewährleisten, wurde
entschieden, die Untersuchung auf das verarbeitende Gewerbe einzuschränken, da
in der Innovationsforschung neben den Gemeinsamkeiten der Entwicklung neuer
Dienstleistungen und Produkte auch immer wieder auf bedeutende Unterschiede
hingewiesen wird (vgl. z. B. Nijssen, Hillebrand, Vermeulen und Kemp, 2006; I. Drejer,
2004; A. Johne und Storey, 1998). Zudem wurden Branchen wie die Pharmaindus-
trie, Medizintechnik oder die Luftfahrt(zulieferer)industrie von der Untersuchung
ausgeschlossen, bei denen zu befürchten war, dass besonders strenge gesetzliche
Vorschriften und Dokumentationspflichten eine Vergleichbarkeit des Planungsver-
haltens mit anderen Branchen erschweren würde. Als Grundlage für die empirische
Untersuchung wurden schließlich die Branchen Maschinenbau (Nace18 -Schlüssel 29),
Herstellung von Geräten der Elektrizitätserzeugung und Elektrizitätsverteilung19
(Nace-Schlüssel 31), Medizin-, Mess-, Steuer- und Regelungstechnik, Optik20 (Nace-
Schlüssel 332, 333, 334) und Herstellung von Kraftwagen und Kraftwagenteilen
(Nace-Schlüssel 34) ausgewählt. Für die vorliegende Arbeit wurden zudem nur Unter-
nehmen mit mindestens 100 Mitarbeitern ausgewählt, um sicherzustellen, dass dort
etablierte Planungs- und Entwicklungsprozesse existieren, und zu vermeiden, dass
Prozesse kleiner und junger Unternehmen, die viele Eigenheiten aufweisen können
und damit schwer vergleichbar wären, Gegenstand der Analyse werden (vgl. auch
Eisenhardt und Tabrizi, 1995). In räumlicher Hinsicht wurde die Untersuchung auf
die Bundesrepublik Deutschland eingeschränkt.
In Hinblick auf die Identifikation konkreter Ansprechpartner in den identifizier-
ten Unternehmen war es von besonderer Relevanz, dass diese in die Planung von
Innovationsprojekten eingebunden waren. Um insbesondere hinsichtlich der Ge-
staltungsdimension Partizipation“ ein umfassendes empirisches Bild zu erhalten,
”
18
Nomenclature générale des activités économiques
19
Im Folgenden wird diese Branche aus Gründen der besseren Lesbarkeit als Elektrotechnik
bezeichnet.
20
Im Folgenden wird von der Mess-, Steuer- und Regelungstechnik gesprochen.
144 Empirische Untersuchung
wäre eine Befragung ganzer Projektteams und evtl. weiterer, in die Planung ein-
gebundener Personen aus verschiedenen Unternehmensfunktionen vorteilhaft. Eine
derartige Vorgehensweise ließ sich allerdings aus Gründen der Erhebungseffizienz
nicht realisieren, so dass auf die Methode der Befragung von Schlüsselinformanten,
sog. Key-Informants, zurückgegriffen werden musste (vgl. z. B. Berekoven, Eckert
und Ellenrieder, 2006). Diese zeichnen sich dadurch aus, dass sie in Bezug auf die die
zu untersuchende Fragestellung über ein herausragendes Wissen verfügen und daher
als Repräsentanten“ der Zielgruppe fungieren können. Auf Basis der Ausführungen
”
in Abschnitt 3.2 lässt sich die Person des Projektleiters als ein möglicher Schlüs-
selinformant identifizieren. Zudem wurde im Rahmen der Expertengespräche der
Frage nachgegangen, welche weiteren Personen die für die zu untersuchende Fragestel-
lung zu stellenden Anforderungen erfüllen. Als potenziell geeignete Ansprechpartner
wurden so darüber hinaus Projektingenieure bzw. Konstrukteure, Projekt- bzw.
F&E-Controller, Produktmanager, Technische Leiter, Entwicklungsleiter und für
kleinere Unternehmen die Geschäftsleitung identifiziert.
Aufgrund der gegen die Befragung von Schlüsselinformanten vorgebrachten Beden-
ken hinsichtlich systematischer oder zufälliger Fehler insbesondere bei komplexen
Beurteilungsaufgaben wurden die Experten zudem um die Bewertung der Komple-
xität der vorliegenden Befragung gebeten. Dabei herrschte die Meinung vor, dass
ein einzelner Informant in der Lage wäre, die Fragen vollständig und verlässlich zu
beantworten.
Nachdem sowohl die zu untersuchenden Branchen als auch die potenziellen An-
sprechpartner in den Unternehmen identifiziert wurden, ist im nächsten Schritt
der für die Untersuchung notwendige Stichprobenumfang zu ermitteln. Wird von
einer Vollerhebung abgesehen, die vielfach aus Kosten- und Zeitgründen nicht re-
alisierbar ist, muss die Analyse auf Basis einer Teilerhebung durchgeführt werden.
In Abhängigkeit von den gewählten statistischen Analyseverfahren bedarf es dabei
einer mehr oder minder großen Stichprobe. Insbesondere die in Abschnitt 4.1.1.5
bereits erwähnten Strukturgleichungsmodelle verlangen nach großen Stichproben
(vgl. z. B. Hair, Black, Babin, Anderson und Tatham, 2006; Backhaus et al., 2000).
In der Literatur werden diesbezüglich immer wieder Faustformeln genannt, wobei die
Angaben zum Stichprobenumfang variieren: So werden N ≥ 100, N ≥ 200 oder auch
N ≥ Anzahl der zu schätzenden Parameter + 50 als Untergrenzen für den Stich-
Untersuchungsdesign 145
probenumfang genannt (vgl. z. B. Backhaus et al., 2000; Bearden, Sharma und Teel,
1982; Bagozzi, 1981). Diese Regeln stoßen jedoch mit einer zunehmenden Komplexität
des zu schätzenden Modells an ihre Grenzen, da sie, wenn überhaupt, lediglich die
Anzahl der zu schätzenden Parameter als Einflussfaktor auf den erforderlichen Stich-
probenumfang berücksichtigen und andere Treiber vernachlässigen (Bearden et al.,
1982). Sie sind daher kritisch zu betrachten und werden in einigen Veröffentlichungen
bereits als veraltet bezeichnet (vgl. z. B. McQuitty, 2004).
Um auf Basis der Teilstichprobe inferenzstatistische Aussagen über die gesam-
te Population treffen zu können, müssen für den Forscher akzeptable statistische
Fehlerwahrscheinlichkeiten spezifiziert werden (Hair et al., 2006). Hierbei wird ty-
pischerweise zwischen dem Fehler erster Art (α) und dem Fehler zweiter Art (β)
unterschieden (Kleinbaum, Kupper, Muller und Nizam, 1998): Der Fehler erster Art
beschreibt die Wahrscheinlichkeit, die Nullhypothese zurückzuweisen, obwohl sie
eigentlich angenommen werden müsste, oder mit anderen Worten die Wahrschein-
lichkeit, dass ein Test statistische Signifikanz anzeigt, obwohl diese in Wahrheit nicht
vorliegt. Der Fehler zweiter Ordnung hingegen beschreibt die Wahrscheinlichkeit, eine
Nullhypothese nicht zurückzuweisen, obwohl sie eigentlich zurückgewiesen werden
müsste. Ein statistisch hoch interessantes Maß stellt die Wahrscheinlichkeit 1 − β
dar, die auch als statistische Power bezeichnet wird. Sie beschreibt die ability of
”
correctly rejecting the null hypothesis when it should be rejected. Thus, power is the
probability that statistical significance will be indicated if it is present“ (Hair et al.,
2006, S. 10). Diese Zusammenhänge der verschiedenen Fehlerwahrscheinlichkeiten
sind noch einmal in Abbildung 4.4 zusammengefasst:
Realität
β
H0: kein Unterschied 1-α
Fehler zweiter Art
statistische
Entscheidung
α 1-β
Ha: Unterschied
Fehler erster Art statistische Power
Für gewöhnlich wird α als derjenige Wert angegeben, bei dem statistische Zusam-
menhänge als signifikant erachtet werden, jedoch zeigt Abbildung 4.4, dass es die
statistische Power ist, die die Erfolgswahrscheinlichkeit bestimmt, mit der Unter-
schiede gefunden werden, wenn diese tatsächlich existieren. Allerdings lassen sich α
und β nicht zeitgleich auf besonders niedrige Werte setzen, da sie invers miteinander
verbunden sind: Je restriktiver der Fehler erster Art kontrolliert wird, umso höher ist
die Wahrscheinlichkeit für das Auftreten eines Fehlers zweiter Art. Somit verringert
eine stärkere Restriktion des Fehlers erster Art die Power eines statistischen Tests.
Insofern muss abgewogen werden, wie ein Gleichgewicht zwischen der Wahrschein-
lichkeit α und der Power eines statistischen Test realisiert werden kann (Hair et al.,
2006).
Diese Wahrscheinlichkeiten sind von Bedeutung, da sie es gestatten, gemeinsam
mit der Effektgröße, dem Grad zu dem angenommen wird, dass die Nullhypothese
H0 nicht zutrifft, im Rahmen einer sogenannten Poweranalyse einen mindestens
erforderlichen Stichprobenumfang rechnerisch zu ermitteln (MacCallum, Browne und
Sugawara, 1996).21 Im Rahmen einer Poweranalyse für ein Strukturgleichungsmodell
muss neben den genannten Größen zusätzlich die Anzahl der Freiheitsgrade des
Modells berücksichtigt werden (McQuitty, 2004). In der resultierenden Formel steigt
der erforderliche Stichprobenumfang mit einer abnehmenden Fehlerwahrscheinlich-
keit α, einer höheren gewünschten Power, einer geringeren Effektgröße sowie einer
geringeren Zahl an Freiheitsgraden (MacCallum et al., 1996; Cohen, 1992). Somit ist
auch dieses Verfahren nicht frei von Problemen, da bei Einbeziehung einer hohen
Anzahl an Indikatoren und einer sich daraus ergebenden hohen Zahl an Freiheitsgra-
den sehr kleine Mindeststichprobenumfänge entstehen können, welche kaum noch
Aussagekraft besitzen (McQuitty, 2004; MacCallum et al., 1996). Insofern ist der
ermittelte Wert als Untergrenze anzusehen, und es sollte trotzdem eine möglichst
hohe Fallzahl angestrebt werden.
Im Rahmen der vorliegenden Arbeit wurde wurde die Poweranalyse mit dem
SAS Makro csmpower“ von Michael Friendly durchgeführt, welches auf dem von
”
21
Problematisch ist allerdings, dass die Wahrscheinlichkeit, mit der eine Nullhypothese falsch
ist, eine für den Forscher unbekannte Größe darstellt. Diese Wahrscheinlichkeit kann jedoch in
Abhängigkeit von der zugrundegelegten Effektstärke und dem statistischen Testverfahren aus
der Literatur entnommen werden (vgl. z. B. MacCallum et al., 1996; Cohen, 1992, 1988).
Untersuchungsdesign 147
Aufbauend auf diesen Werten liefert die Poweranalyse einen minimalen Stichpro-
benumfang von 101. Da es jedoch im Zuge der Reliabilitäts- und Validitätsprüfung
der Konstrukte zur Elimination einzelner Indikatoren kommen kann und sich hieraus
Änderungen für die Zahl der Freiheitsgrade ergäben, wurde zusätzlich eine Berech-
nung durchgeführt, in der gemäß der three indicator rule“ (vgl. z. B. Hair et al.,
”
2006) angenommen wurde, dass jede latente Variable lediglich mit drei Indikatoren
gemessen wird.24 Hieraus ergibt sich ein Modell mit 311 Freiheitsgraden, so dass sich
ein notwendiger minimaler Stichprobenumfang von 113 bzw. 140 für eine statistische
Power von 0,8 bzw. 0,9 ergibt.
22
Michael Friendly stellt das Makro im Internet über die Homepage der York University unter der
Adresse http://www.math.yorku.ca/SCS/sasmac/csmpower.html zur Verfügung.
23
Root Mean Square Error of Approximation
24
Nach der three indicator rule“ sollten latente Variablen möglichst mit drei oder mehr Indi-
”
katoren gemessen werden, um Identifikationsproblem im Rahmen der Modellspezifikation zu
vermeiden. Bei signifikanten Zusammenhängen zwischen den latenten Variablen ist jedoch auch
eine Operationalisierung mit zwei Indikatoren pro Konstrukt möglich (Hair et al., 2006).
148 Empirische Untersuchung
25
Für eine ausführlichere Darstellung vgl. z. B. Berekoven et al. (2006) und Kuß (2007).
Untersuchungsdesign 149
Eindeutigkeit und Verständlichkeit der Fragen und der Gestaltung diskutiert wurde.
Abschließend wurde mit 15 Schlüsselinformanten aus den Branchen Maschinenbau,
Optik und Herstellung von Kraftwagenteilen ein Pretest durchgeführt, in dessen
Rahmen die Probanden gebeten wurden, den Fragebogen auszufüllen, den hierfür
benötigten Zeitaufwand zu dokumentieren sowie Anmerkungen und Verbesserungs-
vorschläge zu unterbreiten. Auf Basis des Feedbacks wurden lediglich geringfügige
Modifikationen vorgenommen, um einzelne Fragen noch weiter zur präzisieren.
Ein weiteres Problem schriftlicher Befragungen besteht in der im Vergleich zu
persönlichen oder telefonischen Interviews geringen Rücklaufquote (Berekoven et
al., 2006). Diese können in Abhängigkeit von der Untersuchung erheblichen Schwan-
kungsbreiten unterliegen: So spricht Meffert (1992) von einer durchschnittlichen
Rücklaufquote schriftlicher Befragungen von 5-30 Prozent, während Aaker et al.
(2001) eine Spannweite von 10-90 Prozent angeben. Berekoven et al. (2006) wei-
sen zudem darauf hin, dass die Auskunftsbereitschaft seit geraumer Zeit rückläufig
ist, so dass sich zunehmend nur noch geringere Ausschöpfungsquoten realisieren
lassen. Dies ist insofern problematisch, als sich bei einer geringen Rücklaufquote
Repräsentanzprobleme ergeben können. Insofern ist einerseits eine ausreichend große
Grundgesamtheit für die Befragung zu bestimmen und andererseits sind Maßnahmen
zur Erhöhung der Rücklaufquote zu ergreifen.
Auf Basis einer angenommenen Rücklaufquote von ca. 10 Prozent der Fragebögen,26
von denen ca. 10 Prozent als nicht für die Datenauswertung nutzbar angenommen wer-
den, wurde ein minimaler Umfang von 1.700 für die Befragungsgesamtheit festgelegt.27
Als Grundlage für die Auswahl der Befragungsgesamtheit wurde die Hoppenstedt-
Datenbank gewählt. Diese umfasst nach eigenen Angaben Daten zu 250.000 deut-
schen Unternehmen. Die Unternehmensprofile enthalten neben Adressdaten wie
Anschrift und Telefonnummer und der über die NACE-Schlüssel kodierten Bran-
chenzugehörigkeiten auch Angaben zu verschiedenen Entscheidungsträgern in den
26
Aufgrund des unglücklichen Zeitpunktes der Datenerhebung ab Juni und der Gefahr, ferienbe-
dingt nicht alle Ansprechpartner erreichen zu können, wurde mit 10 Prozent ein vorsichtiger Wert
für den angenommenen Rücklauf zugrundegelegt. Aus Termingründen war eine Verschiebung
der Datenerhebung auf einen geeigneteren Zeitpunkt ab September leider ausgeschlossen.
27
Auf Basis dieser Annahmen würde sich ein Nettostichprobenumfang von 153 ergeben, der damit
die erforderlichen 140 Datensätze übersteigen würde.
150 Empirische Untersuchung
Unternehmen.28 Damit bieten diese Firmenprofile nicht nur die erforderlichen Adress-
daten, sondern gestatten auch eine persönliche Ansprache der Schlüsselinformanten.
Unter Nutzung der bereits genannten Branchenschlüssel und einer Mindestanzahl von
100 Mitarbeitern als weiteren Filter wurden insgesamt 3077 Datensätze identifiziert.
Diese wurden zunächst um Doppelnennungen bereinigt, da eine Reihe von Unterneh-
men in mehreren der untersuchten Branchen geführt wurden. Ebenso wurden reine
Holding- und Beteiligungsgesellschaften ausgeschlossen. Anschließend wurden die
Datensätze hinsichtlich der benötigten Informationen auf Vollständigkeit überprüft.
Für 88 Unternehmen waren keine Angaben zu Entscheidungsträgern im Unternehmen
verfügbar. In 12 Fällen konnten diese auch nicht über weitere Recherchen ermittelt
werden, so dass diese Unternehmen von der Untersuchung ausgeschlossen wurden. Die
Schlüsselinformanten wurden anhand einer Reihe synonymer Suchbegriffe aus den Da-
tensätzen herausgefiltert.29 Konnte auf diesem Wege kein geeigneter Ansprechpartner
identifiziert werden, wurde in kleinen Unternehmen ein Mitglied der Geschäftsleitung
als Ansprechpartner ausgewählt.30 Für mittlere und große Unternehmen wurden
mittels Internetrecherchen und des Geschäftskontaktnetzwerkes Xing31 geeignete
Schlüsselinformanten identifiziert. Wenn sich auch hierdurch keine zufriedenstellende
Lösung erzielen ließ, wurde schließlich ein Mitglied der Geschäftsleitung als An-
sprechpartner gewählt. Im Zuge dieser Datenaufbereitung wurde festgestellt, dass
zu einer Reihe von Mehrfachnennungen einiger Ansprechpartner kam. Eine weitere
Betrachtung der Daten zeigte, dass in mehreren Fällen unterschiedliche Unterneh-
men unter der gleichen Anschrift und mit dem gleichen Ansprechpartner aufgeführt
waren. Aufgrund der verschiedenen Unternehmensnamen war diese Doppelung im
ersten Bereinigungsschritt nicht feststellbar. Wenn möglich, wurde in diesen Fällen
ein alternativer Ansprechpartner recherchiert. Zudem stellte sich im Rahmen der
Datenaufbereitung heraus, dass im Zuge des Datenexports aus der Datenbank und
der Portierung in eine Excel Datei einige Fehler bei der Darstellung von Umlauten
auftraten, so dass der Datensatz noch einmal einer Rechtschreibprüfung unterzogen
28
Für die Informationen zur Hoppenstedt-Datenbank vgl. http://www.firmendatenbank.de.
29
Hierfür wurden Begriffe wie Forschung, Entwicklung, Technik, Research, Development, Produkt,
technisch, F&E, R&D, etc. genutzt.
30
Hier wurden nach Möglichkeit die Verantwortlichen für die Bereiche Marketing oder Business
Development gewählt, da unterstellt wurde, dass diese eine gewisse Nähe zur Neuproduktent-
wicklung aufweisen würden.
31
http:/www.xing.de
Untersuchungsdesign 151
wurde. Am Ende dieses Prozesses standen 2784 Datensätze zur Verfügung. Da sich
der ermittelte minimale Stichprobenumfang damit bereits auf ca. zwei Drittel der
zur Verfügung stehenden Grundgesamtheit belief, entschloss sich der Verfasser zu
einer Vollerhebung.32
• personalisierte Adresse und Versand des Fragebogen als Brief (nicht als Druck-
sache)
und mit dem erneuten Hinweis auf den online-Fragebogen sowie die bereits
eingegangenen Fragebögen um die Teilnahme an der Befragung gebeten.
Im Fragebogen wurden die Befragten gebeten, ihre Antworten auf das letzte
Neuproduktentwicklungsprojekt zu beziehen, an dem sie beteiligt waren und das
das Unternehmen abgeschlossen und in den Markt eingeführt hat. Dabei wurde
bewusst auf die Frage nach einem typischen“ Projekt verzichtet, da sich im Rahmen
”
des Pre-Tests zeigte, dass die Unternehmensvertreter die in ihren Unternehmen
durchgeführten Neuproduktentwicklungsprojekte als zu unterschiedlich empfanden,
um von einem typischen Vorgehen zu sprechen.
Zum Abschluss des Befragungszeitraumes (September 2008) waren 151 ausgefüllte
Fragebögen eingegangen. Zudem stellte sich heraus, dass bei 62 Unternehmen die
Adressdaten erloschen waren, es sich bei 17 Unternehmen um Töchter ausländischer
Unternehmen handelte, die in Deutschland keine Forschung und Entwicklung betrei-
ben, 8 Unternehmen lediglich Auftragsentwicklung betrieben und somit keine eigenen
Projekte planten und 5 Unternehmen in der Zwischenzeit Insolvenz angemeldet hat-
ten. Hieraus ergab sich eine Bruttostichprobe von 2692 Unternehmen. Auf dieser Basis
beträgt die Rücklaufquote somit 5,61 Prozent. Um eine Verzerrung der Ergebnisse
zu vermeiden, wurden die Fragebögen auf konsistentes Antwortverhalten hin geprüft
und Fragebögen von der Analyse ausgeschlossen, bei denen fehlende Werte bei der
abhängigen Variablen zu beobachten waren.35 Auf diese Weise wurden 14 Fragebögen
von der folgenden Analyse ausgeschlossen, wodurch sich eine Nettostichprobe von
137 Fragebögen und eine bereinigte Rücklaufquote von 5,1 Prozent ergaben. Auch
wenn mit Ausnahme der besonders konservativen Schätzung der im Rahmen der
Power-Analyse bestimmte erforderliche Stichprobenumfang übertroffen wurde und
sich das erzielte Ergebnis in der Spannweite durchschnittlich zu erwartender Werte
befindet, ist es insgesamt aber als gering zu beurteilen.
35
Während die Entfernung von Datensätzen mit fehlenden Werten aufgrund des damit verbunde-
nen hohen Informationsverlustes grundsätzlich kritisch zu betrachten ist, wird im Falle fehlender
Werte bei den abhängigen Variablen empfohlen, diese Datensätze von der Analyse auszuschlie-
ßen, um eine künstliche Verstärkung der Beziehung zwischen unabhängigen und abhängigen
Variablen zu vermeiden (vgl. z. B. Hair et al., 2006). Auf die Behandlung fehlender Werte bei
den unabhängigen Variablen wird in Abschnitt 4.2.2 eingegangen.
Untersuchungsdesign 153
4.1.2.2 Stichprobenstruktur
Der folgende Abschnitt dient einer genaueren Beschreibung der erzielten Stichprobe
um im Anschluss daran mögliche Repräsentativitätsprobleme zu diskutieren. Abbil-
dung 4.5 zeigt die Verteilung der Branchenzugehörigkeit der Unternehmen in der
Grundgesamtheit sowie in der erzielten Stichprobe:
11,28%
13,87%
59,85% 60,94%
15,23%
13,14%
Steuer- und Regelungstechnik sowie Optik hingegen sind in der Stichprobe unter-
repräsentiert. Gegenüber einem Anteil von 12,5 Prozent in der Grundgesamtheit
repräsentieren sie nur 10,9 Prozent der erzielten Stichprobe.
Insgesamt ist damit zu konstatieren, dass die Stichprobe hinsichtlich der Bran-
chenverteilung der Unternehmen weitgehende Ähnlichkeit mit der Grundgesamtheit
aufweist.
Die Unternehmensgröße wurde in Form einer offenen Frage erhoben und die
Unternehmen für eine einfachere Darstellung an dieser Stelle zu einzelnen Grup-
pen zusammengefasst. Die sich hieraus ergebende Verteilung der Unternehmen ist
in Abbildung 4.6 dargestellt. An dieser Stelle wird von einem Vergleich zwischen
der Grundgesamtheit und der erzielten Stichprobe abgesehen, da ein Überprüfung
der Angaben zeigte, dass die Auskünfte der Schlüsselinformanten und die in der
Hoppenstedt- Datenbank hinterlegten Werte teilweise erheblich voneinander abwi-
chen. Weiterführende Recherchen im Internet ergaben, dass dies zumindest teilweise
darauf zurückzuführen ist, dass die Antworten sich auf unterschiedliche Unterneh-
mensbereiche zu beziehen scheinen.37 Die Überprüfung ergab zudem, dass die in
der Hoppenstedt-Datenbank enthaltenen Angaben zur Mitarbeiterzahl teilweise acht
Jahre alt waren, so dass ein Vergleich an dieser Stelle wenig sinnvoll erscheint.
Hinsichtlich der befragten Personen ist insbesondere zu überprüfen, ob die zu-
vor identifizierten Schlüsselinformanten mit den tatsächlich antwortenden Personen
übereinstimmen. Deutliche Abweichungen zwischen den eigentlichen Zielpersonen
und den tatsächlich Antwortenden können zu Ergebnisverfälschungen führen, da nicht
ohne weiteres angenommen werden kann, dass die Aussagen der Nichtadressaten mit
denen der eigentlichen Schlüsselinformanten übereinstimmen (Berekoven et al., 2006).
Neben der Position des Antwortenden im Unternehmen wurde zudem dessen Berufs-
erfahrung in der Neuproduktentwicklung sowie die Anzahl der Innovationsprojekte,
die die antwortende Person in ihrer aktuellen Position begleitet hat, abgefragt. Ein
Abgleich der Angaben auf den Fragebögen mit den zuvor identifizierten potenziellen
Schlüsselinformanten wies weitreichende Übereinstimmung auf.
37
Manche Mitarbeiterzahlen scheinen sich auf konkrete (Produktions-)Standorte zu beziehen,
während andere sich auf Deutschland und weitere wiederum auf die weltweiten Mitarbeiter eines
Unternehmens beziehen.
Untersuchungsdesign 155
35%
30%
25%
20%
15%
10%
5%
0%
100-250 251-500 501-1000 1001-5000 >5000 keine Angabe
13%
28%
11% Zulieferergeschäft
Produktgeschäft
Systemgeschäft
Anlagengeschäft
48%
Bezüglich des Innovationsgrades zeigt sich, dass die meisten Projekte einen mode-
raten bis mittleren Innovationsgrad aufweisen und nur wenige als radikal bezeichnet
werden können. Zur graphischen Veranschaulichung wurde der Mittelwert der Indi-
katoren gebildet und auf die jeweils nächste ganze Zahl auf- bzw. abgerundet. Die
Ergebnisse sind in Abbildung 4.8 zusammengefasst.
45%
40%
35%
30%
25%
20%
15%
10%
5%
0%
1 2 3 4 5 6 7
Innovationsgrad (gerundet)
Sig.
F Sig. t df (2-tailed)
Tabelle 4.10: Überprüfung auf Nonresponse Bias durch t-Test auf Gleichheit der Mittel-
werte zwischen früh Antwortenden und spät Antwortenden
158 Empirische Untersuchung
Bei Betrachtung der Tabelle wird deutlich, dass die zu prüfende Nullhypothese
Es besteht kein Unterschied in den Mittelwerten zwischen den Gruppen der früh
”
Antwortenden und der spät Antwortenden“ auf einem Signifikanzniveau von 5 Pro-
zent nicht verworfen werden kann. Zudem zeigt der Levene-Test, dass auf einem
Signifikanzniveau von 5 Prozent auch keine signifikanten Unterschiede in den Varian-
zen der betrachteten Variablen zwischen den Gruppen bestehen. Insofern kann im
Rahmen der vorliegenden Arbeit davon ausgegangen werden, dass kein Nonresponse
Bias vorliegt.
Abschließen wurde der Datensatz mittels der Tests nach Komolgoroff-Smirnov und
Shapiro-Wilk auf eine multivariate Normalverteilung überprüft. Für beide Verfahren
musste die Hypothese über die multivariate Normalverteilung der Daten verworfen
werden.
4.1.3.1 Strukturgleichungsmodelle
Die Ausführungen in Kapitel 2 und 3 haben gezeigt, dass es sich bei der Planung von
Innovationsprojekten um ein komplexes Phänomen handelt, für dessen Analyse die
Betrachtung einer Vielzahl von Variablen erforderlich ist. Zudem bedarf es für eine
Untersuchung der Erfolgswirksamkeit der Projektplanung sowohl der Betrachtung
von Beziehungen zwischen unabhängigen Variablen (z. B. zwischen Planung und
Umsetzung) als auch zwischen unabhängigen und der abhängigen Variable (z. B. zwi-
schen Planung und Erfolg sowie zwischen Umsetzung und Erfolg). In Abschnitt 4.1.1
wurde zudem verdeutlicht, dass es sich bei den hierbei zu betrachtenden Variablen
um latente Konstrukte handelt, die sich einer direkten Messung entziehen und daher
mittels beobachtbarer Variablen operationalisiert werden müssen. Folglich müssen
im Rahmen dieser Arbeit solche Analysetechniken genutzt werden, die die beiden
folgenden Eigenschaften bieten: Die Analysemethode muss es erlauben, eine Vielzahl
Untersuchungsdesign 159
Modellspezifikation
und Identifikationsprüfung
Parameterschätzung
ggf. Modellmodifikation
Modellbeurteilung
Ergebnisinterpretation
Aussage über die Beziehungen von Variablen zu verstehen (Hoyle, 1995). Im Rah-
men der Spezifikation wird zunächst ein theoriegeleitetes Modell aus latenten und
beobachtbaren Variablen entwickelt (Schumacker und Lomax, 2004, S. 62):
η = Bη + Γξ + ζ (4.1)
wobei η die latente endogene Variable, ξ die latente exogene Variable beschreibt. B ist
die Matrix der Pfadkoeffizienten βi der endogenen auf die endogenen Variablen. Γ ist
die Matrix mit den Pfadkoeffizienten, die die Zusammenhänge zwischen den exogenen
und den endogenen Variablen darstellen. ζ beschreibt den zusätzlichen Fehlerterm,
der aus zufälligen Störungen und Fehlspezifikationen besteht. Die φix schließlich
beschreiben die Kovarianzen zwischen den latenten Konstrukten Die Messmodelle für
die latenten exogenen und die latenten endogenen Variablen werden mathematisch
wie folgt beschrieben:
x = Λx ξ + δ (4.2)
y = Λy η + ε (4.3)
Hierbei werden die Indikatoren zur Messung der latenten exogenen Variablen mit
x und die der latenten endogenen Variablen mit y bezeichnet. Die Messfehler zu
den Indikatoren sind mit δ bzw. ε bezeichnet. Die Matrizen Λx und Λy sind die
Matrizen der Ladungen der Indikatoren x bzw. y auf die latenten Variablen ξ und η.
Die Elemente dieser Matrizen werden mit λ bezeichnet. Diese Zusammenhänge sind
in Abbildung 4.10 zusammengefasst.
Im Rahmen der Modellspezifikation ist insbesondere auch darauf zu achten, dass
das Modell identifiziert ist (Hoyle, 1995, S. 4)40 :
40
Ein Modell kann entweder genau identifiziert, unteridentifiziert oder überidentifiziert sein. Ein
Modell ist dann identifiziert und damit eindeutig lösbar, wenn es gerade identifiziert oder
überidentifiziert ist. Für eine ausführliche Darstellung siehe Kline (2005).
162 Empirische Untersuchung
δ1 x1 λx11
ζ1
ξ1 γ 11
δ2 x2 λx21 λy11 y1 ε1
φ21 η1
δ3 x3 λx32 γ 12 λy21 y2 ε2
ζ2
ξ2 β21
δ4 x4 λx42 λy32 y3 ε3
γ 22
φ32 η2
δ5 x5 λx53 φ31 λy42 y4 ε4
ξ3 γ 23
δ6 x6 λx63
Messmodell der latenten Messmodell der latenten
exogenen Variablen endogenen Variablen
Pfadmodell
Ist ein Modell nach der ursprünglichen Spezifikation unteridentifiziert und damit
nicht eindeutig lösbar, können durch die Einschränkung oder Fixierung weiterer
Modellparameter mehr Informationen zur Verfügung gestellt werden, um so das
Modell zu identifizieren (Schumacker und Lomax, 2004).
Verfahren zur Verfügung, deren gemeinsame Grundidee darin besteht, die Kovari-
anzmatrix der Indikatorvariablen bestmöglich zu reproduzieren, also die Differenz
zwischen der modellimplizierten Kovarianzmatrix und der aus den Daten beobach-
teten Kovarianzmatrix zu minimieren (Hoyle, 1995). Diese unterscheiden sich im
wesentlichen hinsichtlich der Voraussetzungen, auf denen sie basieren, sowie im Hin-
blick auf die statistischen Eigenschaften der resultierenden Schätzer (Homburg und
Baumgartner, 1995).
Normalverteilungsannahme ja ja nein
41
konsistente Schätzer ja ja ja
42
asymptotisch effiziente Schätzer ja ja nein
43
Skaleninvarianz ja ja nein
44
Skalenfreiheit ja ja nein
41
Konsistenz beschreibt die Eigenschaft der Schätzer, bei einem hinreichend großen Stichproben-
umfang den wahren“ Wert beliebig exakt zu schätzen (Bortz, 2005).
42 ”
Man spricht von einem effizienten Parameter, wenn er erwartungstreu (d. h. unverzerrt) ist
und gleichzeitig den geringsten Schätzfehler aller unverzerrt geschätzten Parameter aufweist
(Schneeweiß, 1990).
43
Man spricht von Skaleninvarianz, wenn der Wert der Zielfunktion bei Veränderung der Maßein-
heiten der Indikatorvariablen unverändert bleibt (Kaplan, 2000).
44
Skalenfreiheit liegt vor, wenn bei Veränderungen der Maßeinheiten der Indikatorvariablen die
Parameterschätzer entsprechend angepasst werden (Kaplan, 2000).
164 Empirische Untersuchung
Wie aus der Tabelle ersichtlich wird, besitzen insbesondere die Methoden ML und
GLS eine Reihe statistisch wünschenswerter Eigenschaften. Insofern wird häufig zu
ihrem Einsatz geraten (Chou und Bentler, 1995, S. 54):
When the data are multivariate normally distributed and when the
”
sample size is large enough, the ML and GLS methods are certainly
preferred because of computational simplicity, accuracy, and correctness
of statistical results, but when data are nonnormal, the situation changes
completely.“ 45
Die Ausführungen von Chou und Bentler (1995) verdeutlichen jedoch gleichzei-
tig die erforderlichen Voraussetzungen für den Einsatz dieser Methoden. Wie die
Ausführungen in Abschnitt 4.1.2.2 gezeigt haben, erfüllt die vorliegende Stichprobe
nicht die Anforderung multivariater Normalverteilung der Daten. Obwohl in der
Literatur eine Vielzahl verschiedener Stichprobenumfänge als Mindestanforderung
für den Einsatz der ML-Methode genannt werden (vgl. z. B. Gaul und Homburg,
1988), ist der Umfang der vorliegenden Stichprobe mit 137 so dimensioniert, dass
Verzerrungen aufgrund einer möglicherweise zu geringen Anzahl an Datensätzen
nicht ausgeschlossen werden können.
Der hieraus resultierenden Problematik für die Wahl des Schätzverfahrens kann auf
vier verschiedene Weisen begegnet werden (Kline, 2005; S. G. West et al., 1995):
Im Rahmen der vorliegenden Arbeit wird vor diesem Hintergrund die Parameter-
schätzung mittels der ULS-Methode vorgenommen. Von Datentransformationen wird
aufgrund der damit verbundenen Probleme Abstand genommen. Die von Satorra
und Bentler (2001) entwickelten Korrekturverfahren für die ML-Schätzung sind
nicht in der genutzten Software AMOS verfügar, so dass nicht auf diesen Ansatz
zurückgegriffen werden kann.50 Von der Verwendung eines Bootstrapping wird neben
der Problematik des Stichprobenumfangs auch aufgrund fehlender Erfahrungswerte
abgesehen (Kline, 2005, S. 197): Because there are at present few other studies of
”
the bootstrap method as a way to deal with nonnormality in SEM, it is difficult to
recommend it now with confidence.“ Die ADF-Methode schließlich scheidet aufgrund
der erheblichen Anforderungen an den Stichprobenumfang als Schätzverfahren aus.
Trotz der im Vergleich zur ML-Methode oder dem GLS-Verfahren weniger wün-
schenswerten statistischen Eigenschaften bietet die ULS-Schätzung jedoch auch einige
Vorteile. Die mittels des Verfahrens vorgenommene Minimierung der Zielfunktion
und die zugehörige Definition eines guten Modell Fits sind besonders intuitiv (Krane
und Slaney, 2005). Simulationsstudien zeigen zudem, dass das ULS-Verfahren der
ML-Methode bei der Aufdeckung schwacher Wirkungszusammenhänge überlegen ist,
insbesondere wenn der Stichprobenumfang gering ist (Ximénez, 2006). Von geringerer
Bedeutung ist heutzutage der im Vergleich zur ML-Methode geringere Bedarf an
Rechenleistung und Computerhardwareanforderungen (Kline, 2005). Simulations-
studien zeigen zudem eine hohe Korrelation von ML-basierten und ULS-basierten
Schätzern, wenn einheitliche Skalen verwendet werden (Ogasawara, 2003).
verschiedene Arten betrachten: Einerseits kann die Anpassung des gesamten Modells
(global) betrachtet werden, andererseits auch die Anpassung einzelner Modellparame-
ter (lokal) (Schumacker und Lomax, 2004). Für gewöhnlich wird zur Bewertung der
Anpassungsgüte der sogenannte χ2 goodness-of-fit Index genutzt. Aufgrund verschie-
dener Probleme mit diesem Test wurden allerdings eine Reihe weiterer Fit-Indizes
entwickelt, die sich oft intuitiver interpretieren lassen. Ihnen ist gemeinsam, dass
sie nicht die modellimplizierte mit der beobachteten Kovarianzmatrix vergleichen,
sondern den Fit durch einen Vergleich des spezifizierten Modells mit einem sogenann-
ten Nullmodell, in dem keine Zusammenhänge zwischen den Variablen spezifiziert
sind, ermitteln. Insofern spiegeln die meisten dieser Indizes die Verbesserung der
Anpassung des spezifizierten Modells im Vergleich zum Nullmodell wider. Da diese
Indizes selbst keine Statistiken sind, gestatten sie keine formal-statistischen Tests der
Modellanpassung, sondern werden als globale Indizes der Modeleignung aufgefasst
(Hoyle, 1995). Im Gegensatz zu anderen statistischen Verfahren, die über einen
einzelnen besonders aussagekräftigen Anpassungstest verfügen, steht zur Beurteilung
von Strukturgleichungsmodellen eine mittlerweile schwer überschaubare Vielzahl
von Indizes zur Verfügung (Schumacker und Lomax, 2004; Hu und Bentler, 1995).51
Einen Überblick über die Einordnung einer Auswahl dieser Anpassungsmaße bietet
Abbildung 4.11.
Da bei Verwendung der ULS-Methode nicht alle von Hu und Bentler empfohle-
nen Anpassungsmaße zur Verfügung stehen, werden über die von Hu und Bentler
(1999) empfohlene 2-Index-Strategie“ 52 hinaus weitere, zusätzliche Anpassungsmaße
”
genutzt.
51
Ein Überblick findet sich bei Hu und Bentler (1995) sowie Hu und Bentler (1999).
52
Hu und Bentler (1999) untersuchen die Eignung einer Reihe von Paaren von Anpassungsmaßen.
Die jeweils gemeinsame Nutzung von zwei Anpassungsmaßen wird von den Autoren als 2-Index-
”
Strategie“ bezeichnet.
Untersuchungsdesign 167
Anpassungsmaße
Beispiele:
• F2-Teststatistik
• RMSEA (root mean Anpassungsmaße, Anpassungsmaße, Anpassungsmaße, Anpassungsmaße,
squared error of die Freiheitsgrade die Freiheitsgrade die Freiheitsgrade die Freiheitsgrade
approximation) nicht berücksichtigen berücksichtigen nicht berücksichtigen berücksichtigen
Beispiel: Beispiele: Beispiel: Beispiel:
• GFI • F2/df • NFI • CFI
• AGFI
Anpassungsmaß Schwellenwert
Gesamtmodell
GFI (Goodness of Fit Index) ≥ 0, 9
AGFI (Adjusted Goodness of Fit Index) ≥ 0, 9
NFI (Normed Fit Index) ≥ 0, 9
RFI (Relative Fit Index) ≥ 0, 9
PNFI (Parsimonious Normed Fit Index) ≥ 0, 7
Messmodell
Indikatorreliabilität ≥ 0, 4
Konstruktreliabilität ≥ 0, 6
durchschnittlich erfasste Varianz ≥ 0, 5
Strukturgleichungsmodell
quadrierte multiple Korrelation für Erfolgsgrößen ≥ 0, 2
Zum Zwecke einer Untergruppenanalyse werden die Daten anhand der Ausprägung
der Moderatorvariablen in verschiedene Gruppen unterteilt, für die jeweils die Wir-
Untersuchungsdesign 169
y = a + bx (4.4)
y = a + b1 x + b2 z (4.5)
y = a + b1 x + b2 z + b3 xz (4.6)
Die Gleichungen 4.4 und 4.5 ermitteln die direkten Effekte von x und z, während
Gleichung 4.6 den Moderationseffekt enthält. Zur Klärung des moderierenden Einflus-
ses werden in der Literatur verschiedene Vorgehensweisen vorgeschlagen: Während
170 Empirische Untersuchung
Bedeian und Mossholder (1994) und Sharma et al. (1981) ausschließlich auf die
Signifikanz der Koeffizienten in den verschiedenen Regressionsmodellen abstellen,
untersuchen Carte und Russell (2003) und C. H. Anderson (1986) die Regressions-
modelle auf signifikante Änderungen der erklärten Varianz R2 .53 Diesem Verfahren
soll auch im Rahmen der vorliegenden Arbeit gefolgt werden, so dass die Regressi-
onsmodelle anhand der folgenden Formel auf signifikante Unterschiede bezüglich der
von ihnen erklärten Varianz überprüft werden (C. H. Anderson, 1986):
RF2 − RR2
/dfF − dfR
FΔR2 = 2
(4.7)
(1 − RF )/(N − k − 1)
wobei FΔR2 den F-Wert für die Differenz der R2 -Werte des umfassenderen Modells
(RF2 ) und des reduzierten Modells (RR
2
), dfF und dfR die Anzahl der Freiheitsgrade
des umfassenderen bzw. des reduzierten Modells, N die Anzahl der Respondenten
und k die Anzahl der unabhängigen Variablen im umfassenderen Modell beschreibt.
Damit ein Moderationseffekt vorliegt, muss FΔR2 bei einem Vergleich der Regres-
sionen 4.6 und 4.5 signifikant sein. Anschließend kann mittels eines Vergleichs der
Regressionen 4.5 und 4.4 ermittelt werden, welchen Anteil der Varianz von y durch
z direkt erklärt wird. Ergibt sich ein nicht signifikanter Wert für FΔR2 , so hat z
lediglich einen signifikanten moderierenden Einfluss und man spricht von einem
echten Moderator. Ist FΔR2 hingegen signifikant, so übt z neben dem signifikanten
moderierenden Einfluss auch einen signifikanten direkten Einfluss auf y aus und wird
als Quasi-Moderator bezeichnet (Sharma et al., 1981).
Vor der Durchführung der moderierten Regressionsanalyse wird empfohlen, die un-
abhängigen Variablen zu zentrieren (Aiken und West, 1991).54 Diese Vorgehensweise
bietet dem Forscher zwei wesentliche Vorteile und wird daher auch im Rahmen dieser
Arbeit befolgt: Die Integration eines Interaktionsterms in eine Regression kann zu
53
Für eine ausführliche Darstellung der Probleme, die sich aus einer ausschließlichen Betrachtung
der Regressionskoeffizienten ergeben kann siehe Carte und Russell (2003).
54
Eine Variable wird zentriert, indem ihr Mittelwert von der jeweiligen Ausprägung subtrahiert
wird. Während aufgrund der nachstehend genannten Vorteile eine Zentrierung der Regressoren
als sinnvoll zu erachten ist, muss die abhängige Variable nicht zentriert werden (Aiken und West,
1991).
Datenaufbereitung 171
4.2 Datenaufbereitung
4.2.1 Überprüfung auf Kodierungsfehler und nicht akzeptable
Fälle
Vor der eigentlichen quantitativen Analyse wurden die Rohdaten auf Kodierungsfehler
überprüft. Da die Antworten aus dem online- Fragebogen direkt in Excel bzw.
SPSS exportiert werden konnten, wurden zunächst nur die postalisch beantworteten
55
Mit steigender Multikollinearität nimmt der Standardfehler der Regressionskoeffizienten zu, so
dass deren Schätzung unzuverlässiger wird (Backhaus et al., 2000).
56
Der Wert b1 wird wie bereits im Text angedeutet nach der Zentrierung als Steigung der
Regressionsgeraden beim Mittelwert von z interpretiert. Dies gilt analog für b2 . Für eine
Herleitung der Auswirkungen der Zentrierung siehe (Irwin und McClelland, 2001).
172 Empirische Untersuchung
Eine wesentliche Rolle kommt den sogenannten Fehlendmechanismen zu, die be-
schreiben ob und wie der Datenausfall mit dem Untersuchungsinhalt zusammenhängt
(Schafer und Graham, 2002; P. D. Allison, 2001). Die im Folgenden zu erläuternden
Strategien zur Behandlung fehlender Werte basieren auf Annahmen bezüglich des in
den Daten vorliegenden Fehlermechanismus, so dass sie nur nach einer entsprechenden
Überprüfung angewandt werden können (Huisman, 1999; Little und Rubin, 1987).
Die strengste Annahme bildet das komplett zufällige Fehlen von Daten, welches
als missing completely at random MCAR bezeichnet wird (P. D. Allison, 2001, S. 3):
Suppose there are missing data on a particular variable Y. The data on Y are said
”
to be missing completely at random (MCAR) if the probability of missing data on Y
is unrelated to the value of Y itself or to the values of any other variables in the
data set.“ Folglich ist den erhobenen Daten in diesem Fall keine Information über
den Fehlermechanismus zu entnehmen.
Eine wesentlich schwächere Annahme ist das missing at random (MAR) genannte
zufällige Fehlen von Daten (Little, 1988): Unter dieser Annahme hängen fehlende
Daten bei einer Variable Y nicht von deren Wert ab, können jedoch durch Werte
anderer Variablen im Datensatz hervorgerufen werden. Würden im Rahmen einer
Untersuchung beispielsweise das Einkommen und der Ehestand erhoben und eine
Analyse der Daten würde zeigen, dass fehlende Angaben zum Einkommen vom Ehe-
stand abhingen, jedoch innerhalb der Gruppen verheirateter und nicht verheirateter
Personen jeweils kein Zusammenhang zwischen fehlenden Einkommensangaben und
der Höhe des Einkommens bestünde, so würden die Daten der missing at random
Annahme genügen. Für Datensätze, bei denen die fehlenden Daten die MAR Annah-
me erfüllen und bei denen die den Fehlendmechanismus beeinflussenden Variablen
nicht mit den zu schätzenden Parametern in Beziehung stehen, werden die fehlenden
Werte als ignorable (ignorierbar) bezeichnet (P. D. Allison, 2001).
Erfüllen die Daten die MAR Annahme nicht, so werden sie als nonignorable oder
missing not at random (MNAR) bezeichnet (Göthlich, 2007). In diesem Fall ist
das Fehlen der Daten wie der Name bereits verrät nicht zufällig und wirkt damit
verzerrend, da eine Antwortwahrscheinlichkeit vom Wert der betrachteten Variable
abhängt (P. D. Allison, 2001). Ein Beispiel hierfür wäre eine sinkende Bereitschaft,
sein Einkommen anzugeben, je höher dieses ist.
174 Empirische Untersuchung
Aufgrund der eingangs beschriebenen Situation hat sich eine Reihe verschiedener
Strategien für den Umgang mit fehlenden Werten entwickelt (vgl. z. B. Göthlich,
2007; De Leeuw, 2001; Huisman, 2000). Diese Strategien sind im Rahmen empirischer
Untersuchungen und Simulationsstudien verglichen worden, jedoch hat sich keine von
ihnen als durchgängig überlegen herauskristallisiert (vgl. z. B. Huisman, 1999; Schulte
Nordholt, 1998; Malhotra, 1987; Schnell, 1986). Die Methodenauswahl muss daher
stets unter Berücksichtigung der mit den Verfahren verbundenen Vor- und Nachteile,
der ihnen zugrundeliegenden Annahmen, der Zielsetzung der Datenanalyse und der
Aufwändigkeit der Verfahren erfolgen (Göthlich, 2007; Schnell, 1986). Abbildung
4.12 bietet einen Überblick über die verschiedenen Klassen von Verfahren.
Konventionelle oder
Complete Case Analysis
Ad hoc Verfahren
Einfache Imputation
(single imputation)
Mehrfache Imputation
(multiple imputation)
Abbildung 4.12: Übersicht über Verfahren zur Behandlung fehlender Daten. In Anlehnung
an Göthlich (2007)
Bei den Verfahren der Fallreduktion bleiben die fehlenden Werte als solche erhalten
und die Datenanalyse wird auf Basis einer unvollständigen Datenmatrix vorgenom-
men. Hierbei wird zwischen den Verfahren der Complete Case Analysis (CC) und
der Available Case Analysis (AC) unterschieden. Im Rahmen der erstgenannten
Methode, auch als listwise deletion“ bezeichnet, werden sämtliche Datensätze, die
”
fehlende Werte aufweisen gelöscht bzw. ignoriert, so dass lediglich vollständige Da-
tensätze (complete cases) in die Auswertung einbezogen werden. Im Rahmen der
zweiten Methode, die auch als pairwise deletion“ bezeichnet wird, wird lediglich die
”
Datenaufbereitung 175
betroffene Variable des Datensatzes von der Analyse ausgeschlossen (Göthlich, 2007).
Während diese Verfahren einfach anwendbar sind und somit häufig zu den Standar-
deinstellungen statistischer Softwarepakete gehören, weisen sie auch Nachteile auf.
Der Ausschlusses von ganzen Datensätzen oder einzelnen Variablen kann zu erhebli-
chen Informationsverlusten, verringerter Effizienz von Schätzungen und geringerer
Aussagekraft von statistischen Tests führen (De Leeuw, 2001). Im Fall der listwise
deletion kann es zudem dazu kommen, dass einzelne Analysen auf unterschiedlichen
Teilstichproben basieren und somit inkonsistent sind (Lessler und Kalsbeek, 1992).
Beide Verfahren setzen die MCAR Annahme voraus.
Basierend auf dem von Little vorgeschlagenen Testverfahren (Little, 1988; Little
und Rubin, 1987) wurden die Daten mit dem Missing Value Analysis Modul von
SPSS zunächst auf ihren Fehlendmechanismus hin überprüft. Das von Little vor-
geschlagene Verfahren ist ein χ2 -Test zur Überprüfung der MCAR Annahme. Bei
einem nichtsignifikanten Testergebnis kann angenommen werden, dass die Daten die
missing completely at random Annahme erfüllen. Die Überprüfung des gesamten
Datensatzes ergab einen χ2 -Wert von 1608,245, der bei 1578 Freiheitsgraden ein
Signifikanzniveau von 0,292 aufweist. Damit kann die Annahme, dass die Daten
der MCAR Annahme genügen nicht zurückgewiesen werden. Folglich sind sämtliche
dargestellten Strategien zur Behandlung fehlender Werte grundsätzlich anwendbar.
Wie bereits erwähnt, weist die Arbeit mit 1,25 Prozent einen sehr geringen Anteil
an fehlenden Werten auf. Jedoch würde ein Einsatz der verbreiteten Complete Case
Analysis und dem damit verbundenen listenweisen Ausschluss von Fällen mit fehlen-
57
Für eine ausführlichere Darstellung von Imputationsverfahren siehe auch Huisman (2000),
Schulte Nordholt (1998) und Schnell (1986).
Datenaufbereitung 177
den Werten zu einer Reduktion des Datensatzes von 137 auf 97 Fälle führen. Dieses
Verfahren würde in der vorliegenden Arbeit somit zu erheblichen Informationsverlus-
ten führen, so dass hiervon Abstand genommen wird. Der Einsatz einer Available
Case Analysis und der damit verbundene paarweise Ausschluss von Daten kann zu
Problemen bei nachgelagerten Analysen, insbesondere bei Strukturgleichungsmo-
dellen, führen (Kline, 2005). Insofern wird auch die Verwendung dieses Verfahrens
ausgeschlossen. Die vorangegangenen Ausführungen haben zudem bereits deutlich ge-
macht, dass sowohl die Sample-Selection Modelle als auch die Gewichtungsverfahren
auf anderen Annahmen basieren bzw. für die vorliegende Arbeit nicht geeignet sind.
Daher wird stattdessen ein modellbasiertes Imputationsverfahren gewählt, welches
als Expectation-Maximization (EM) Algorithmus bezeichnet wird (Dempster, Laird
und Rubin, 1977). Mit Hilfe des EM Algorithmus können Maximum Likelihood
(ML) basierte Schätzungen der fehlenden Datenpunkte vorgenommen werden. Der
Name des Verfahrens leitet sich aus seiner zweistufigen Funktionsweise ab, bei der
zunächst im Rahmen des expectation Schrittes die fehlenden Parameter geschätzt
werden. Für die ersten Iteration werden nach paar- oder listenweisem Ausschluss die
Mittelwerte, Standardabweichungen und Korrelationen auf Basis der verbleibenden
Daten berechnet. Diese werden als Ausgangspunkt für den zweiten Schritt, die maxi-
mization, genutzt. Hier werden neue Werte auf Basis der beobachteten und im ersten
Schritt imputierten Werte berechnet. In der nächsten Iteration wird die Schätzung
im expectation Schritt dann auf Basis der zuvor berechneten Werten durchgeführt
usw. Diese Schleife wird solange durchlaufen, bis der Algorithmus konvergiert, sich
die Parameterwerte also nicht mehr verändern (P. D. Allison, 2001).
Ein großer Vorteil des EM Algorithmus ist, dass er im Gegensatz zu normalen
regressionsbasierten Imputationsverfahren sämtliche zur Verfügung stehenden In-
formationen nutzt. Der Forscher muss also nicht spezifizieren, welche Variablen als
Prädikatoren für die fehlenden Werte genutzt werden sollen. So hat das Verfahren in
verschiedenen Simulationsstudien gerade auch im Hinblick auf Strukturgleichungs-
modelle sehr gute Ergebnisse erzielt (vgl. z. B. Enders und Bandalos, 2001; Schnell,
1986).
ML basierte Imputationsverfahren liegt allerdings die Annahme einer multivariaten
Normalverteilung zugrunde (P. D. Allison, 2001). In Abschnitt 4.1.2.2 wurde gezeigt,
dass diese Voraussetzung im vorliegenden Datensatz nicht erfüllt ist. Jedoch zeigt sich,
dass das Verfahren gegen Verstöße dieser Annahme recht stabil ist und Beale und
178 Empirische Untersuchung
Little (1975) weisen nach, dass die Annahme der multivariaten Normalverteilung für
den EM Algorithmus nicht notwendig ist. Da der Anteil fehlender Werte zudem sehr
klein ist, sind somit trotz nicht multivariat normalverteilter Daten keine wesentlichen
Verzerrungen zu befürchten. Schließlich spricht P. D. Allison (2001, S. 85) für die
Berechnung von Strukturgleichungsmodellen eine ausdrückliche Empfehlung für den
Einsatz ML basierter Verfahren aus: If the goal is to estimate a linear model that
”
falls within the class of models estimated by LISREL and similar packages, then
maximum likelihood is probably the preferred method.“
4.3.1.1 Vorgehensweise
Wie bereits in Abschnitt 4.1.1 erläutert wurde, muss die Überprüfung reflektiver
und formativer Messmodelle auf unterschiedliche Arten und Weisen vorgenommen
werden. Insofern wird im Rahmen der Validierung der Konstrukte analysiert, ob
die Daten mit einem reflektiven Messmodell verträglich sind. Da diese Arbeit, wie
an gleicher Stelle erwähnt, eine reflektive Messung der Konstrukte anstrebt, wird
zunächst einer diesem Messansatz entsprechenden Vorgehensweise gefolgt, welche
anhand der Ergebnisse der Überprüfung auf Verträglichkeit ggf. abgewandelt werden
muss.
Daher wird zunächst eine Überprüfung der Unidimensionalität vorgenommen.
Führt diese in Verbindung mit eventuell erforderlichen Bereinigungen der Indika-
torstrukturen zu einer statistisch und inhaltlich akzeptablen Lösung, wird diese auf
ihre Verträglichkeit mit einem reflektiven Messmodell geprüft. Ist ein solches nicht
abzulehnen, werden im nächsten Schritt die Reliabilität und Validität des Messmo-
Empirische Überprüfung der Untersuchungshypothesen 179
dells beurteilt (vgl. z. B. Ahire und Devaraj, 2001). Ist ein reflektives Messmodell
abzulehnen, wird das formative Modell anhand von Inhalts- und Indikatorspezifika-
tion, Indikatorrelevanz sowie der externen Validität der Konstrukte beurteilt (vgl.
z. B. Krafft, Götz und Liehr-Gobbers, 2005; Diamantopoulos und Winklhofer, 2001).
Diese Vorgehensweise wird im Folgenden näher erläutert:
den. Insofern sollte der Test nicht ohne eine vorab auf inhaltlichen Überlegungen
entwickelte Hypothese durchgeführt werden (Huber et al., 2007).
Das Verfahren setzt implizit die Existenz von mindestens vier Indikatoren pro
Messmodell voraus, für die die Differenzen ihrer Kovarianzprodukte - diese werden
als Tetraden bezeichnet - berechnet werden (Bollen und Ting, 1993).58 Modellbedingt
müssen bei einer reflektiven Messung einzelne dieser Differenzen den Wert Null
annehmen. Diese Tetraden werden als vanishing tetrads“ bezeichnet (Bollen und
”
Ting, 1993, S. 148). Für eine genaue Darstellung der hierfür erforderlichen tedious
”
covariance algebra“ (Hipp et al., 2005, S. 77) wird auf die genannten Arbeiten von
Bollen, Hipp und Ting verwiesen. Im Rahmen dieser Arbeit wird das von John R.
Hipp entwickelte SAS Makro ctanest1“ genutzt.59 Das Ergebnis kann mit einer von
”
Bollen (1990) entwickelten Teststatistik verglichen werden. Wird eine nichtsignifikante
Teststatistik ermittelt, deutet dies darauf hin, dass die beobachteten vanishing tetrads
nicht signifikant von Null abweichen und die Daten folglich mit dem postulierten
reflektiven Messmodell verträglich sind.
Xo = XT + XS + XR (4.8)
Hierbei beschreibt Xo den im Rahmen der Messung ermittelten Wert (observed score)
einer Variablen, XT deren tatsächlichen, wahren“ Wert (true score) und XS bzw.
”
XR den systematischen Fehler (systematic error) bzw. den Zufallsfehler (random
error) der Messung. So definiert Churchill (1979, S. 65):
58
Es lassen sich auch Modelle mit weniger als vier Indikatoren analysieren. Für eine detaillierte
Darstellung der hierfür nötigen Vorgehensweise siehe Bollen und Ting (2000).
59
John R. Hipp stellt das Makro im Internet über die Homepage der University of California at
Irvine unter der Adresse https://webfiles.uci.edu/hippj/johnhipp/ctanest1.htm zur Verfügung.
182 Empirische Untersuchung
Eine Messung ist somit reliabel, wenn sie frei von Zufallsfehlern ist (Peter und
Churchill, 1986). Von einer validen Messung kann jedoch erst gesprochen werden,
wenn diese konzeptionell richtig ist, also der Messgegenstand gemessen wird, der
tatsächlich gemessen werden soll, so dass auch der systematische Fehler XS = 0
sein muss (Homburg und Giering, 1998). Somit wird deutlich, dass Reliabilität eine
notwendige, aber keine hinreichende Bedingung für die Validität darstellt.
Im Folgenden werden die Methoden vorgestellt, mittels derer sich die Reliabilität
und Validität der Messmodelle analysieren lassen.
Verfahren weitestgehend. Allerdings werden hier zwei äquivalente, nicht aber die
selben Messinstrumente zu den verschiedenen Zeitpunkten genutzt. Wiederum wird
deren Korrelation als Maß für die Reliabilität der Messinstrumente interpretiert.
Bei der Überprüfung der internen Konsistenz wird ein Messinstrument lediglich
einmal genutzt. Im Anschluss werden Teilmengen der Indikatoren gebildet und diese
miteinander korreliert. Auch in diesem Fall wird eine hohe Korrelation als Zeichen
hoher Reliabilität angesehen.
Diese Verfahren sind mit verschiedenen Vor- und Nachteilen behaftet: So lassen
sich in der empirischen Sozialforschung oft nur sehr schwer wirklich äquivalente
Messinstrumente definieren und auch wiederholte Messungen sind häufig nicht ohne
weiteres möglich, so dass in der Praxis vor allem die Überprüfung der internen
Konsistenz als Prüfverfahren genutzt wird (O’Leary-Kelly und Vokurka, 1998).
Hierfür stehen eine Reihe verschiedener Verfahren zur Verfügung (vgl. z. B. Ahire
und Devaraj, 2001; D. R. Bacon, Sauer und Young, 1995), von denen das Cronbachsche
Alpha das am häufigsten genutzte ist (Peterson, 1994). Es misst die Reliabilität einer
Menge von Indikatoren, die ein Konstrukt messen als deren interne Konsistenz
(Homburg und Giering, 1998). Alpha berechnet sich wie folgt:
k 2
k i=1 σi
α= 1− (4.9)
k−1 σs2
wobei k die Anzahl der Indikatoren, σi2 die Varianz des Indikators i und σs2 die
Varianz der Messskala beschreibt. Alpha kann Werte von Null bis Eins annehmen,
wobei hohe Werte auf eine hohe Reliabilität hinweisen. Auch wenn keine klare Grenze
für eine hohe Reliabilität existiert (vgl. z. B. Peterson, 1994), werden für gewöhnlich
Werte von α ≥ 0, 7 als akzeptabel angesehen (Ahire und Devaraj, 2001). Dieser
Empfehlung wird auch im Rahmen der vorliegenden Arbeit gefolgt.
Zusätzlich kann die Item-to-Total Korrelation einer Indikatorvariablen berechnet
werden. Diese ist als die Korrelation dieses Indikators mit der Summe aller Indikato-
ren, die demselben Faktor zugeordnet sind, definiert (Homburg und Giering, 1998).
Im Falle eines geringen Wertes für Alpha können so, basierend auf den Werten der
Item-to-Total Korrelation, diejenigen Indikatoren eliminiert werden, die sich negativ
auf die Reliabilität des Konstrukts auswirken.
184 Empirische Untersuchung
Die Konstruktvalidität ist folglich ein Indikator für die Genauigkeit der Messung
(Hair et al., 2006) und kann im Vergleich zu den beiden vorgenannten Validitäts-
begriffen als aussagekräftiger angesehen werden (Weise, 2005). Da ein Konstrukt
per Definition nicht direkt messbar ist und somit keine Korrelation zwischen einem
Konstrukt und dessen Indikatoren berechnet werden kann (Peter, 1981), wird anstelle
einer direkten Messung auf die Konvergenzvalidität, die Diskriminanzvalidität und
die nomologische Validität zurückgegriffen (vgl. z. B. Peter, 1981; D. T. Campbell
und Fiske, 1959; Cronbach und Meehl, 1955).
Empirische Überprüfung der Untersuchungshypothesen 185
Darüber hinaus können Reliabilitätsmaße wie die Faktorreliabilität oder Alpha als
Maße zur Überprüfung der Konvergenzvalidität genutzt werden, da Reliabilität ein
Indikator für die Konvergenzvalidität darstellt (Hair et al., 2006).
60
Im Rahmen dieser Arbeit kann aufgrund der Verwendung des ULS Verfahrens lediglich auf
die Höhe der Faktorladungen abgestellt werden, da das Verfahren keine Möglichkeit eines
Signifikanztests der Faktorladungen bietet.
186 Empirische Untersuchung
Die nomologische Validität schließlich beschreibt the degree that the sum-
”
mated scale makes accurate predictions of other concepts in a theoretically based
model“ (Hair et al., 2006, S. 138). Hierzu wird das Konstrukt in einen übergeordneten
Rahmen bzw. in eine übergeordnete Theorie eingebunden, die auch als nomologi-
sches Netz bezeichnet wird (Cronbach und Meehl, 1955). Hierzu muss der Forscher
theoretisch begründete Wirkungsbeziehungen oder akzeptierte Wirkmechanismen
zwischen den Konstrukten aus vorangegangenen Forschungsvorhaben identifizieren
und überprüfen, ob zwischen den von ihm genutzten Messmodellen entsprechende
Zusammenhänge bestehen (Hair et al., 2006). Somit ist die Überprüfung auf nomo-
logische Validität letztlich eine des Wahrheitsgehalts der Theorie und der daraus
postulierten Hypothesen (Cronbach und Meehl, 1955).
nc
psa = (4.11)
N
n c − no
csv = (4.12)
N
wobei nc die Anzahl der Experten ist, die einen Indikator dem postulierten Konstrukt
zurordnen und N die Anzahl der Experten. Hingegen stellt no die Anzahl der Experten
dar, die den Indikator dem am häufigsten genannten falschen Konstrukt zugeordnet
haben.62
Es wird deutlich, dass diese Überprüfung der Expertenvalidität bereits während
der Spezifikation der Konstrukte erfolgen sollte. Ist dies gegeben, ist im Zuge der
Gütebeurteilung nicht mit kritischen Abweichungen zu rechnen.
Im Anschluss wird die Indikatorrelevanz betrachtet (Krafft et al., 2005). Dabei
werden die Gewichte der einzelnen Indikatoren verglichen um zu bestimmen, welchen
Betrag jeder einzelne Indikator zur Konstruktbildung leistet. Diesem Schritt kommt
eine wesentliche Bedeutung zu (Huber et al., 2007, S. 38): Zur Beurteilung der
”
Güte interessieren bei formativen Konstrukten in erster Linie die multiplen Re-
gressionskoeffizienten zwischen dem Konstrukt und den Indikatoren sowie deren
61
Die Formeln für die Berechnung von psa und csv sind in Tabelle 4.13 auf Seite 189 dargestellt.
62
Angenommen es gäbe drei Konstrukte A, B und C. Ein Indikator x wird vom Forscher als zu
Konstrukt A zugehörig postuliert. Sieben Experten ordnen x tatsächlich dem Konstrukt A zu,
zwei hingegen dem Konstrukt B und vier dem Konstrukt C. In diesem Fall ergäbe sich nc = 7
und no = 4.
188 Empirische Untersuchung
Signifikanz.“ Da die Indikatoren jedoch nicht beliebig austauschbar sind und daher
nicht einfach einem Messmodell zugefügt oder aus ihm entfernt werden können,
darf die Höhe der Regressionskoeffizienten nicht als Eliminationskriterium für einen
Indikator gelten (Rossiter, 2002, S. 315): Item selection to increase the ’reliability’
”
of the formed scale is definitely not appropriate.“ Der Grund hierfür liegt darin, dass
sämtliche Facetten eines latenten Konstrukts durch die Indikatoren abgedeckt werden
sollen, so dass eine Elimination einzelner Items zu einer inhaltlichen Veränderung des
Konstrukts führen könnte. Eine Elimination sollte lediglich erfolgen, wenn zwischen
den Indikatoren hohe Multikollinearität besteht. Da formative Messmodelle auf
Basis multipler Regressionsanalysen berechnet werden, ist eine eventuell vorhandene
Multikollinearität zwischen den formativen Indikatoren problematisch, weil sie zu
zunehmend unzuverlässigen Schätzungen führt und die multiple Regression der
Indikatoren auf das Konstrukt im Extremfall rechnerisch nicht mehr durchführbar ist
(Huber et al., 2007; Krafft et al., 2005). Ein Maß zur Prüfung auf Multikollinearität
stellt der Variance Inflation Factor (VIF) dar. Er nimmt einen Mindestwert von Eins
an und steigt mit zunehmender Multikollinearität. Werte größer 10 deuten auf hohe
Multikollinearität hin (Hair et al., 2006).
Reinartz, Krafft und Hoyer (2004) führen zudem die externe Validität als mögliches
Gütekriterium für die Bewertung formativer Konstrukte an. Basierend auf den Emp-
fehlungen von Diamantopoulos und Winklhofer (2001) führen sie hierfür Berech-
nungen von Multiple Indicators and Multiple Causes (MIMIC) Modellen durch, bei
denen ein Konstrukt gleichzeitig über formative und reflektive Indikatoren gemessen
wird: Da die im Rahmen von Partial Least Squares Modellen genutzten formativen
Messmodelle generell eine fehlerfreie Messung des formativen Konstrukts unterstellen,
diese jedoch nicht immer möglich ist, werden zusätzlich reflektive Indikatoren zur
Bestimmung der Fehlerterme erhoben, die zur externen Validierung des Messmodells
herangezogen werden können (Krafft et al., 2005). Alternativ kann mittels einer
reflektiv gemessenen latenten Phantomvariablen ein Modell mit zwei latenten Varia-
blen berechnet werden. Gelingt es hierbei, den postulierten starken und signifikanten
Zusammenhang zwischen dem latenten formativen Konstrukt und der Phantomvaria-
blen zu bestätigen, ist ein Nachweis für externe Validität erbracht (Rindskopf, 1984).
Tabelle 4.13 fasst diese Vorgehensweise noch einmal zusammen:
Empirische Überprüfung der Untersuchungshypothesen 189
Indikatorrele- Überprüfung der In- Interpretation der Gewichte (nicht der Ladun-
vanz dikatoren auf ihren gen)
Beitrag zur Konstrukt- Indikatorelimination nur bei Multikollinearität
bildung Prüfung auf Multikollinearität durch:
- Korrelationsmatrix (paarweise)
- Variance Inflation Factor
- Konditionsindex
- Varianzzerlegung
PCA/Varimax
Indikator 1 2 3 4 MSA
benden Indikatoren luden alle auf die postulierten Faktoren. Das Ergebnis dieses
Prozesses ist in Tabelle 4.14 zusammengefasst.
Der Bartlett-Test weist signifikante Korrelationen auf und sowohl der KMO-Wert
als auch die MSA Werte sind mit 0,809 bzw. 0,708 - 0,905 hoch. Im nächsten Schritt
wurden die 16 Indikatoren mittels des Makros ctanest1 in SAS auf ihre Verträglichkeit
mit einem reflektiven Messmodell überprüft. Dies führte zu einer nicht signifikanten
Teststatistik (χ2 = 28.96; df = 98; p = 1), so dass ein reflektives Messmodell nicht
abgelehnt werden kann. Anschließend wurde eine konfirmatorische Faktoranalyse
Empirische Überprüfung der Untersuchungshypothesen 191
mit vier frei korrelierenden Faktoren durchgeführt, die sehr gute Anpassungsmaße
lieferte (vgl. Tabelle 4.15). Der Koeffizient α liegt mit Werte von 0,74 - 0,87 über
der geforderten Mindestgrenze, so dass die Reliabilität als gewährleistet angesehen
werden kann. Neben α übersteigt auch die Faktorreliabilität ρW LJ das geforderte
Mindestmaß von 0,6 mit Werten von 0,74 - 0,87 deutlich. Diese wird im Vergleich zur
Indikatorreliabilität als bedeutsamer eingestuft (Homburg und Giering, 1998). Daher
werden trotz teilweise geringer Item-to-Total Korrelationen und der in drei Fällen
nicht erfüllten Anforderungen an die Indikatorreliabilität aufgrund dieser guten
Ergebnisse keine weiteren Modifikationen vorgenommen. Hingegen liegt die durch-
schnittlich erfasste Varianz in zwei Fällen unter dem geforderten Mindestwert von 0,5.
Im Fall der Planungskonsistenz wird dieser Wert jedoch nur sehr knapp verfehlt, so
dass insgesamt von ausreichender Konvergenzvalidität ausgegangen werden kann. Die
Dimensionen werden daher zur Überprüfung der weiteren Hypothesen beibehalten.
Das Fornell-Larcker Kriterium ist mit quadrierten Konstruktinterkorrelationen (φ)
von 0,07 -0,27 und einer DEV von 0,42 - 0,58 für alle Faktoren erfüllt, so dass von
Diskriminanzvalidität ausgegangen werden kann.
standard. Indikatorreliabilität Faktorreliabilität
192
PCA/Varimax
Indikator 1 2 MSA
Korrelation übersteigen in allen Fällen den geforderten Mindestwert von 0,5. Gleiches
gilt für die durchschnittlich erfasste Varianz, so dass insgesamt von gegebener Kon-
vergenzvalidität ausgegangen werden kann. Das Fornell-Larcker Kriterium ist mit
einer quadrierten Konstruktinterkorrelationen (φ) von 0,15 und einer DEV von 0,58
bzw. 0,62 für alle Faktoren erfüllt, so dass von Diskriminanzvalidität ausgegangen
werden kann. Aufgrund dieser guten Ergebnisse werden keine weiteren Modifikationen
vorgenommen.
standard. Indikatorreliabilität Faktorreliabilität
Faktor Indikator Ladung I-t-T K ρi α ρW LJ DEV φ
PCA/Varimax
Indikator 1 2 3 4 MSA
Der Bartlett-Test weist signifikante Korrelationen auf und sowohl der KMO-Wert
als auch die MSA Werte liegen mit 0,705 bzw. 0,564 - 0,876 größtenteils deutlich
über den geforderten Mindestwerten. Daher wurden die 11 Indikatoren anschließend
auf ihre Verträglichkeit mit einem reflektiven Messmodell überprüft. Dies führte
zu einer nicht signifikanten Teststatistik (χ2 = 16.32; df = 38; p = 1), so dass ein
reflektives Messmodell nicht abgelehnt werden kann. Im nächsten Schritt wurde eine
konfirmatorische Faktoranalyse mit vier frei korrelierenden Faktoren durchgeführt,
die sehr gute Anpassungsmaße lieferte (vgl. Tabelle 4.19). α liegt für drei Faktoren
über dem geforderten Mindestwert von 0,7. Lediglich für den Faktor Umfeld-Fit“,
”
der einen Wert von 0,69 erreicht, wird die Grenze knapp verfehlt. Insgesamt kann die
Reliabilität damit jedoch als gewährleistet angesehen werden. Neben α übersteigt
auch die Faktorreliabilität ρW LJ das geforderte Mindestmaß von 0,6 mit Werten
von 0,7 - 0,9 deutlich. Auch die Werte für die Indikatorreliabilität und die Item-
to-Total Korrelationen sind zufriedenstellend, so dass insgesamt keine weiteren
Modifikationen vorgenommen wurden. Leider liegt die durchschnittlich erfasste
Varianz für den Faktor Technologiedimension“ unter dem geforderten Mindestwert
”
von 0,5. Aufgrund der erfüllten Anforderungen hinsichtlich der Reliabilitätskriterien
kann jedoch insgesamt von einer ausreichender Konvergenzvalidität ausgegangen
werden kann, so dass der Faktor beibehalten wird, um diese inhaltlich wichtige
Facette des Innovationsgrades zu berücksichtigen. Das Fornell-Larcker Kriterium ist
mit quadrierten Konstruktinterkorrelationen (φ) von 0,03 -0,21 und einer DEV von
0,4 - 0,82 für alle Faktoren erfüllt, so dass von Diskriminanzvalidität ausgegangen
werden kann.
standard. Indikatorreliabilität Faktorreliabilität
198
PCA/Varimax
Indikator 1 MSA
Eigenwert 2,145
Erklärte Varianz 53,6%
Im nächsten Schritt wurde die Indikatormenge auf ihre Verträglichkeit mit einem
reflektiven Messmodell überprüft. Dies führte zu einer signifikanten Teststatistik
(χ2 = 7.59; df = 2; p = 0.02), so dass ein reflektives Messmodell verworfen werden
muss. Da folglich ein formatives Messmodell beurteilt wird, muss von der bis hierher
genutzten Verfahrensweise abgewichen werden und das Messmodell anhand von
Expertenvalidität, Indikatorrelevanz und externer Validität überprüft werden.
Wie in Abschnitt 4.3.1.1 ausgeführt wurde, sollte die Expertenvalidität bereits wäh-
rend des Pre-Tests überprüft werden. Da der Fragebogen in mehreren Abstimmungs-
runden und unter Berücksichtigung der Hinweise von Experten aus Wissenschaft und
Praxis entwickelt wurde und die Indikatoren des Messmodells zur Umweltdynamik
dabei keinerlei Kritik hervorriefen, ist davon auszugehen, dass die Expertenvalidität
200 Empirische Untersuchung
als erfüllt angesehen werden kann. Die Betrachtung der Gewichte der einzelnen
Indikatoren weist die Items Änderung der Marketingaktivitäten“, Dauer des Pro-
” ”
duktlebenszyklus“ und Nachfrageänderungen“ als besonders einflussreich aus. Im
”
Rahmen der Indikatorrelevanz ist zudem insbesondere eine mögliche Multikollinea-
rität zwischen den Indikatoren zu untersuchen. Diese liegt nach Huber et al. (2007,
S. 98) in perfekter Form vor, wenn die Werte einer unabhängigen Variablen aus
”
den anderen unabhängigen Variablen exakt vorhergesagt werden kann.“ Um dies zu
überprüfen wurden für jeden einzelnen Indikator Regressionsmodelle berechnet, in
denen untersucht wurde, inwieweit der jeweilige Indikator durch die anderen Indikato-
ren vorhergesagt wurde. Dies bildete die Basis zur Berechnung des Variance Inflation
Factors für jeden Indikator. Die Ergebnisse sind in Tabelle 4.21 zusammengefasst:
Tabelle 4.21: Variance Inflation Factors der Indikatoren zur Messung der Umweltdynamik
Die Ergebnisse zeigen, dass die Werte für alle Indikatoren nahe der Untergrenze
von Eins liegen und damit deutlich von dem als problematisch geltenden Bereich
von V IF ≥ 10 entfernt sind. Insofern ist keine wesentliche Multikollinearität fest-
zustellen und folglich sind keine Indikatoren zu eliminieren. Abschließend wurde
die nomologische Validität mittels des von Diamantopoulos und Winklhofer (2001)
vorgeschlagenen Zwei-Konstrukt-Modells überprüft, da keine zusätzliche reflektive In-
dikatormenge für eine MIMIC Operationalisierung verfügbar war. Problematisch bei
der Überprüfung mittels eines Zwei-Konstrukt-Modells ist allerdings, dass zwischen
den Konstrukten eine vorab postulierte enge Verbindung bestehen soll, die mittels
des Modells überprüft wird. Da im Rahmen dieser Arbeit keine Größe erhoben wurde,
auf die eine direkte Wirkung der Umweltdynamik erwartet wird, muss auf den Pro-
jekterfolg abgestellt werden, da die Ausführungen in Abschnitt 3.4.2 gezeigt haben,
Empirische Überprüfung der Untersuchungshypothesen 201
Gütemaße aus, so dass diese von der weiteren Betrachtung ausgeschlossen werden
muss.
PCA/Varimax
Indikator 1 2 3 MSA
PCA/Varimax
Indikator 1 2 3 MSA
Der Bartlett-Test weist signifikante Korrelationen auf und sowohl der KMO-Wert
als auch die MSA Werte liegen mit 0,729 bzw. 0,672 - 0,884 alle deutlich über den
geforderten Mindestwerten. Die 8 Indikatoren wurden daher im nächsten Schritt auf
ihre Verträglichkeit mit einem reflektiven Messmodell überprüft, welches aufgrund
einer nicht signifikanten Teststatistik (χ2 = 14.17; df = 17; p = 0.66) nicht abgelehnt
werden konnte. Anschließend wurde eine konfirmatorische Faktoranalyse mit drei
frei korrelierenden Faktoren durchgeführt, die sehr gute Anpassungsmaße lieferte
(vgl. Tabelle 4.25). Der Koeffizient α verfehlt nur in einem Fall mit 0,69 sehr knapp
Empirische Überprüfung der Untersuchungshypothesen 205
63
Parsimoniemaße können zum Vergleich verschiedener konkurrierender Modelle herangezogen
werden und bewerten deren Anpassung im Verhältnis zu ihrer Komplexität. Sie stellen damit ein
Maß der Sparsamkeit dar (Hair et al., 2006, S. 749 f.): A parsimony fit measure is improved
”
either by a better fit or by a simpler model. In this case, a simpler model is one with fewer
estimated parameters paths.[...] More complex models are expected to fit the data better, so
fit measures must be relative to model complexity before comparisons between models can be
made. The indices are not useful in assessing the fit of a single model, but are quite useful in
comparing the fit of two models, one more complex than the other.“
208 Empirische Untersuchung
Planungs-
Produkterfolg
ausmaß 0,38
0,65
Formalisierung 0,22
0,65
Projekterfolg Markterfolg
0,28
,
Planungs-
konsistenz
0,22 0,63
Partizipation Projekteffizienz
GFI: 0,79 AGFI: 0,74 NFI: 0,65 RFI: 0,61 PNFI: 0,58
Abbildung 4.14 stellt das Coalignment Modell dar, welches 244 Freiheitsgrade
aufweist.65 Auch das Coalignment wirkt sich, wie in der Hypothesen in Kapitel
3 formuliert, positiv auf den Projekterfolg aus. Zudem weisen die Pfade höhere
Pfadkoeffizienten als im Basismodell auf.
Ein Vergleich der Gütemaße zeigt eindeutig, dass das Coalignment Modell wesent-
lich bessere Werte erzielen kann. Während das Basismodell für alle betrachteten
Gütemaße die geforderten Mindestkriterien verfehlt, werden diese im Coalignment
Modell ausnahmslos übertroffen. Zudem zeigt ein Vergleich der Parsimoniemaße, dass
das Coalignment Modell eine wesentlich bessere Anpassung im Verhältnis zur Modell-
komplexität liefert. Insofern ist das Basismodell zugunsten des Coalignment Modells
64
Im Sinne einer übersichtlicheren Darstellung wird lediglich das Strukturmodell abgebildet. Die
angegeben Pfadkoeffizienten entstammen der standardisierten Lösung.
65
Aus Übersichtlichkeitsgründen wird wiederum ausschließlich das Strukturmodell in der standar-
disierten Lösung dargestellt.
Empirische Überprüfung der Untersuchungshypothesen 209
Planungs-
Produkterfolg
ausmaß
0,49 0,65
Formalisierung
0,68 0,37 0,63
Coalignment Projekterfolg Markterfolg
0 78
0,78
Planungs-
konsistenz
0,69 0,64
Partizipation Projekteffizienz
GFI: 0,95 AGFI: 0,93 NFI: 0,91 RFI: 0,90 PNFI: 0,81
Abbildung 4.14: Wirkung des Coalignments der Planungsdimensionen auf den Projekt-
erfolg
4.3.2.2 Gesamtmodell
durch das Modell erklärt. Die hierfür verantwortlichen direkten und indirekten Effekte
der latenten Variablen sind in Tabelle 4.26 zusammengefasst.
Planungs- Projektziel-
Produkterfolg
g
ausmaß stabilität
Prozess-
Partizipation Projekteffizienz
stabilität
GFI: 0,93
0 93 AGFI: 0,92
0 92 NFI: 0,89
0 89 RFI: 0,88
0 88
Abbildung 4.15: Direkte und indirekte Wirkung des Coalignments der Planungsdimen-
sionen auf den Projekterfolg
Eine genauere Betrachtung von Tabelle 4.26 zeigt, dass die Hypothesen 6, 7 und
8 nicht widerlegt werden können. Mit Pfadkoeffizienten von 0,23 weist das Co-
alignment der Planungsprozessdimensionen auch in diesem Modell einen direkten
positiven Wirkungszusammenhang mit dem Projekterfolg auf. Darüber hinaus wirkt
sich die Projektplanung auch indirekt positiv auf den Projekterfolg aus. Auch die
Umsetzungsqualität in Form von Projektzielstabilität und Prozessstabilität wirkt mit
Pfadkoeffizienten von 0,21 und 0,59 direkt positiv auf den Projekterfolg. In gleicher
Weise bestätigt sich mit einem Pfadkoeffizienten von 0,41 ein deutlicher positiver
Zusammenhang von Projektzielstabilität und Prozessstabilität. Hingegen sind die
Ergebnisse für die Wirkungsbeziehungen von Projektplanung und Projektziel- bzw.
Prozessstabilität uneinheitlich. Hypothese 8, die einen positiven Zusammenhang
zwischen Projektplanung und Prozessstabilität postuliert, kann aufgrund eines posi-
tiven Pfadkoeffizienten von 0,27 nicht widerlegt werden. Jedoch muss Hypothese 7
zur positiven Wirkungsbeziehung zwischen Projektplanung und Projektzielstabilität
abgelehnt werden.
Tabelle 4.26: Gesamtmodell: direkt, indirekte und gesamte Effekte der latenten Variablen
sungsgüte des Modells beurteilt werden. Während der Goodness of Fit Index (GFI)
und der Adjusted Goodness of Fit Index (AGFI) mit Werten von 0,93 bzw. 0,92
den geforderten Mindestwert von 0,9 übertreffen, wird dieser vom Normed Fit Index
(NFI) und Relative Fit Index (RFI) mit Werten von 0,89 bzw. 0,88 knapp verfehlt.
Aufgrund der hohen Anzahl zu schätzender Parameter sowie dem vergleichsweise
geringen Stichprobenumfang ist die Modellanpassung insgesamt als gut zu bewer-
ten, so dass die dem Modell zugrundeliegenden theoretischen Überlegungen nicht
zurückgewiesen werden.
Einfluss des Innovationsgrades Tabelle 4.27 fasst die Ergebnisse der hierarchischen
moderierten Regression zum Einfluss des Innovationsgrades zusammen.
Es wird ersichtlich, dass lediglich das Modell 1a einen signifikanten F -Wert erreicht.
In diesem Modell sowie dem Modell 1b weist das Coalignment jeweils einen signifikant
positiven Effekt auf den Projekterfolg auf. Der Innovationsgrad zeigt in den Modellen
1b und 1c einen negativen jedoch nicht signifikanten direkten Zusammenhang mit dem
Projekterfolg und moderiert auch die Wirkungsbeziehung zwischen Coalignment und
Projekterfolg nicht. Sowohl die Regressionkoeffizienten als auch FΔR2 für den Vergleich
von Modell 1c und 1b sind nicht signifikant. Somit ist ein moderierender Einfluss
des Innovationsgrades nicht nachweisbar und Hypothese 12, die keine moderierende
Wirkung des Innovationsgrades auf den Wirkungszusammenhang von Coalignment
und Projekterfolg postuliert, kann nicht widerlegt werden.
Projekterfolg
Modell 1a Modell 1b Modell 1c
Haupteffekte
Coalignment 0,15∗ 0,14∗ 0,12
Moderator
Innovationsgrad −0,07 −0,10
Interaktionsterm
Coalignment x Innovationsgrad −0,09
Projekterfolg
Modell 2a Modell 2b Modell 2c
Haupteffekte
Coalignment 0,15∗ 0,15∗ 0,17∗
Moderator
Projektkomplexität 0,10 0,06
Interaktionsterm
Coalignment x Projektkomplexität −0,13
In einem nächsten Schritt wurde zusätzlich der Geschäftstyp, der den jeweiligen
Projekten zugrundeliegt, als ein weiteres Merkmal der Projektkomplexität herange-
zogen. Entsprechend der Ausführungen in Abschnitt 4.1.3.2 wurde, da es sich beim
Geschäftstyp um eine kategoriale Variable handelt, auf eine Untergruppenanalyse
zurückgegriffen. Hierbei wird der Datensatz anhand der potenziell moderierenden
214 Empirische Untersuchung
Variable in Subgruppen unterteilt und für jede Subgruppe die Korrelation zwischen
Coalignment und Projekterfolg ermittelt. Anschließend werden die Ergebnisse unter
Verwendung von Formel 4.13 auf signifikante Unterschiede überprüft. Die Nullhypo-
these lautet hierbei, dass die beiden Korrelationen identisch sind.
Z 1 − Z2
z= (4.13)
1 1
n1 −3
+ n2 −3
Projekterfolg
Modell 3a Modell 3b Modell 3c
Haupteffekte
Coalignment 0,15∗ 0,15∗ 0,14∗
Moderator
Umfelddynamik 0,29∗∗∗ 0,27∗∗
Interaktionsterm
Coalignment x Umfelddynamik −0,09
2
R 0,02 0,10 0,11
Adjusted R2 0,02 0,09 0,09
ΔR2 0,02 0,08 0,01
F 3,10∗ 7,78∗∗∗ 5,53∗∗∗
∗∗∗
p ≤ 0, 01,∗∗ p ≤ 0, 05,∗ p ≤ 0, 1; es werden standardisierte Beta-
werte angegeben
Mittels einer Clusteranalyse können Objekte (in diesem Fall die Projekte) grup-
piert werden, so dass die Objekte in einem Cluster Ähnlichkeit im Hinblick auf die
ausgewählten Charakteristika aufweisen (Hair et al., 2006). Hierfür muss zunächst
ein Ähnlichkeits- bzw. Distanzmaß67 ausgewählt werden, anhand dessen die Unter-
schiede bzw. Übereinstimmungen zwischen verschiedenen Objekten messbar gemacht
werden. Darüber hinaus ist ein Fusionierungsalgorithmus zu wählen, der die Objekte
basierend auf den Ähnlichkeitswerten in Gruppen zusammenfasst, die weitgehend
übereinstimmende Eigenschaftsstrukturen aufweisen (Backhaus et al., 2000). Das
zentrale Problem der Clusteranalyse besteht in der Bestimmung der Anzahl der
Cluster, die gebildet werden sollen, die wiederum von der Wahl des Distanzmaßes,
des Fusionierungsalgorithmuses und einer vom Forscher zu bestimmenden Regel
für die Festlegung der Clusteranzahl (engl. stopping rule) abhängt (Dubes, 1987;
Milligan und Cooper, 1985; Begovich und Kane, 1982). Da es keine allgemeingültigen
Empfehlungen oder statistische Tests für die Auswahl des Distanzmaßes und des
Fusionierungsalgorithmuses sowie der stopping rule gibt, wird empfohlen, die Anzahl
66
Für eine ausführliche Darstellung der Methodik wird insbesondere auf Hair et al. (2006) verwiesen.
67
In der Regel werden im Rahmen einer Clusteranalyse Distanzmaße verwendet, so dass im
Folgenden zur sprachlichen Vereinfachung nur noch von Distanzmaßen gesprochen wird und der
Begriff des Ähnlichkeitsmaßes vernachlässigt wird (Hair et al., 2006).
218 Empirische Untersuchung
der zu bildenden Cluster sowie deren Struktur anhand mehrerer Distanzmaße, Fusio-
nierungsalgorithmen und stopping rules zu berechnen und die Ergebnisse durch die
Überprüfung der Übereinstimmung der Lösungen zu validieren (Hair et al., 2006).
Die vorliegende Arbeit folgt dieser Empfehlung, so dass nach einer ebenfalls empfoh-
lenen Standardisierung der Variablen zunächst anhand der Distanzmaße euklidische
”
Distanz“ und quadrierte euklidische Distanz“ sowie der Fusionierungsalgorithmen
”
Ward“, Average Linkage between Groups“ und Average Linkage within Groups“,
” ” ”
die als besonders leistungsfähig gelten (Hair et al., 2006), fünf hierarchische Clus-
teranalysen in SPSS durchgeführt wurden, im Rahmen derer sämtliche möglichen
Clusterungslösungen berechnet wurden.68 Da SPSS als Entscheidungskriterium le-
diglich einen absoluten Heterogenitätswert für jede Clusterlösung liefert, wurden als
zusätzliches Entscheidungskriterium die prozentuale Veränderung der Heterogenität
beim Übergang von einer zur nächsten Clusterlösung berechnet.69 Auf Basis dieser
Methoden wurden die folgenden, näher zu untersuchenden möglichen Clusterlösungen
ermittelt, die in Tabelle 4.30 dargestellt sind:
5 5
4 4 4 4 4
3
2 2 2 2 2
Tabelle 4.30: Mögliche Anzahl von Gruppen auf Basis der Clusteranalyse
Anschließend wurden diese 13 Lösungen näher betrachtet und Profile für die
Projekte erstellt. Hinsichtlich der Anzahl der Projekte in den verschiedenen Clustern
lieferten die Verfahren sehr unterschiedliche Werte, wie die folgende Tabelle 4.31
verdeutlicht:
68
Da das Ward-Verfahren mit dem Distanzmaß der quadrierten euklidischen Distanz durchgeführt
werden soll, wurde auf die Kombination aus Ward-Verfahren und euklidischer Distanz verzichtet
(Backhaus et al., 2000).
69
SPSS gestattet es nicht, Maße für die Veränderung der Varianz wie die root mean square
standard deviation (RMSSTD), statistische Maße für die Veränderung der Heterogenität wie
Pseudo F Statistiken oder pseudo T 2 Werte oder ein direktes Heterogenitätsmaß wie das cubic
clustering criterion (CCC) zu berechnen, so dass zur weiteren Validierung nicht auf diese Maße
zurückgegriffen werden konnte.
Empirische Überprüfung der Untersuchungshypothesen 219
Aus Tabelle 4.30 ist ersichtlich, dass alle Verfahren zu möglichen Lösungen von zwei
oder vier Clustern kommen. Diese potenziellen Lösungen scheinen daher besonders
stabil zu sein. Fünf bzw. drei Cluster wurden jedoch nur ein- respektive zweimal
als potenzielle Lösungen ermittelt, so dass diese Lösungen aufgrund mangelnder
Validierung von der weiteren Betrachtung ausgeschlossen wurden. Die erarbeiteten
Profile zeigten zudem, dass die Lösung mit zwei Clustern in allen Fällen zu einer
Gruppe von Projekten führte, die in allen Projektphasen hohe Werte für die Pla-
nungsprozessdimensionen und zu einer weiteren, die in allen Phasen niedrige Werte
aufwies. Aufgrund der eingeschränkten Aussagekraft dieser Lösung entschloss sich
der Verfasser, sich auf die Lösungen mit vier Clustern zu konzentrieren. Aus Tabelle
4.31 kann entnommen werden, dass die Lösungen, die anhand des Verfahrens Average
Linkage zwischen Gruppen ermittelt wurden, in beiden Fällen vier Cluster enthiel-
ten, die durch erhebliche Größenunterschiede gekennzeichnet waren. Da auf Basis
einer solchen Verteilung anzuzweifeln ist, dass hieraus allgemeingültigere Aussagen
abgeleitet werden können, wurden auch diese beiden Lösungen verworfen, so dass
schließlich drei mögliche Lösungen mit jeweils vier Gruppen von Projekten weiter
betrachtet wurden.
Im nächsten Schritt wurden gemäß der Empfehlungen von Hair et al. (2006) die
Mittelwerte der einzelnen Variablen für jeden Cluster dieser drei Lösungen ermittelt,
um diese als Ausgangswerte für eine anschließende nicht hierarchische k-means Clus-
teranalyse (Clusterzentrenanalyse) zur weiteren Validierung der Ergebnisse zu nutzen.
Diese hat den Vorteil, dass ein Objekt während der Analyse auch von einem Cluster
in einen anderen umsortiert werden kann, wenn sich im Ablauf der Analyse die
220 Empirische Untersuchung
Cluster soweit verschieben, dass es besser in einen anderen Cluster passt. Während
einer hierarchischen Clusteranalyse hingegen verbleibt ein Objekt grundsätzlich in
dem Cluster, dem es zunächst zugeordnet wurde. Die Ergebnisse dieser Analyse
wurden erneut zur Erstellung von Clusterprofilen genutzt, die in Abbildung 4.17
dargestellt sind.70
comp_1 comp_1
7 7
part_3 comp_2 part_3 comp_2
6 6
5 5
4 4
part_2 comp_3 part_2 comp_3
3 3
2 2
1 1
part_1 0 f orm_1 part_1 0 f orm_1
const_1 const_1
Auf Basis: Ward + quadr. eukl. Distanz Auf Basis: Average Linkage in Gruppen + quadr. eukl. Distanz
comp_1
7
part_3 comp_2
6
5
4
part_2 comp_3
3
2
1
part_1 0 f orm_1
const_3 f orm_2
const_2 form_3
const_1
Es ist zu erkennen, dass alle drei Lösungen ein sehr ähnliches Bild liefern. In
allen Fällen wird ein Cluster (1) von Projekten ermittelt, der über alle Phasen und
für alle Planungsprozessdimensionen hohe Werte aufweist (schwarze durchgezogene
70
Die Achsenbeschriftungen beschreiben die Planungsprozessdimensionen Planungsausmaß (comp),
Formalisierung (form), Planungskonsistenz (const) und Partizipation (part). Die jeweilige Zahl
beschreibt die Prozessphase gemäß Abbildung 4.16.
Empirische Überprüfung der Untersuchungshypothesen 221
Linie). Eine zweite Gruppe von Projekten (2) ist dadurch gekennzeichnet, dass sie
für alle vier Planungsdimensionen einen jeweils starken Anstieg von der Phase 1
über die Phase 2 bis zur Phase 3 aufweist (graue durchgezogene Linie). Ein weiterer
Cluster (3) umfasst Projekte, die für alle Planungsprozessdimensionen mittlere und
nur vereinzelt hohe Werte aufweisen. Mit Ausnahme der Dimension Formalisierung
und der Partizipation in der Ward-Lösung“ nimmt die Stärke der Ausprägung der
”
Planungsprozessdimensionen über die verschiedenen Phasen ab. Hingegen ist die For-
malisierung in allen Lösungen in der zweiten Projektphase am stärksten ausgeprägt.
Zudem fällt auf, dass für diesen Cluster in allen Lösungen die Formalisierung die
am schwächsten ausgeprägte Gestaltungsdimension ist (schwarze gestrichelte Linie).
Die vierte Gruppe (4) schließlich weist über alle Planungsprozessdimensionen und
Projektphasen geringe Werte auf, wobei auch diese leicht von der ersten über die
zweite bis zur dritten Projektphase ansteigen. In allen Lösungen ist die Gestaltungsdi-
mension Planungsausmaß am stärksten ausgeprägt (schwarze gepunktete Linie). Zur
abschließenden Validierung der Ergebnisse wurde die Zuordnung der Projekte zu den
verschiedenen Gruppen für die unterschiedlichen Clusterungsvorgehen untersucht.
Insgesamt wurden 120 der 137 Projekte (87,6 Prozent) mit allen drei Ansätzen der
gleichen Gruppe zugeordnet. Dies spricht für eine außerordentliche Stabilität dieser
Lösung.
Aus den Profilen lassen sich keinerlei zeitliche Trennungen erkennen. Es gibt folglich
keine Projektphasen, in denen verstärkt flexible oder formale Planungselemente
vorherrschen. Die frühen Phasen eines Innovationsprojektes, das sogenannte Fuzzy
Front End (vgl. z. B. Herstatt und Verworn, 2004; Herstatt et al., 2004), wird also
nicht wesentlich anders geplant als die späteren Projektphasen, die häufig mit weit
weniger Unsicherheit behaftet sind. In diesem Fall müsste das Clusterprofil durch
gegensätzliche Linienverläufe für die einzelnen Gestaltungsdimensionen über die
Projektphasen gekennzeichnet sein. Ebenfalls lässt sich keine strukturelle Trennung
erkennen. In den Projekten wird, wie es bereits die Analyse zum Coalignment
gezeigt hat, sowohl mit formalen als auch flexiblen Planungselementen gearbeitet.
Insofern entsprechen die identifizierten Muster am ehesten dem Ansatz der parallelen
Struktur, in der die gleichen Personen sowohl um Innovation als auch Exploitation
bemüht sind. Dieses Bild wird auch durch die Untersuchung von Lewis et al. (2002)
bestätigt, die über den Projektablauf hinweg die Bedeutung geplanter und emergenter
Projektmanagementpraktiken nachweisen.
222 Empirische Untersuchung
Um zu überprüfen, wie sich diese vier Strategien auf den Projekterfolg auswirken,
wurden die Mittelwert der Indikatoren für den Projekterfolg für jedes Projekt berech-
net und diese mittels einer einfaktoriellen Varianzanalyse (engl. ANOVA: Analysis of
Variance) auf systematische Unterschiede der Projekte in den verschiedenen Clustern
überprüft.71 Für alle drei Lösungen ergeben sich signifikante Unterschiede (p ≤ 0, 05)
zwischen den Mittelwerten des Projekterfolgs der einzelnen Gruppen. So ist der
Projekterfolg im Cluster (1) für alle drei Lösungen am höchsten, gefolgt von Cluster
(2), Cluster (3) und Cluster (4). Auch diese Reihenfolge wird in allen drei Lösungen
bestätigt. Dies spiegelt die in Abschnitt 4.3.2 ermittelten Befunde wider, nach denen
die einzelnen Planungsprozessdimensionen in ihrer Höhe genau wie ein hoher Grad
an Coalignment positiv auf den Projekterfolg wirken.
71
Für eine ausführliche Darstellung der Varianzanalyse siehe Kleinbaum et al. (1998).
5 Schlussbetrachtung
Im Rahmen dieses Abschnitts werden zunächst die zentralen Ergebnisse der theoreti-
schen Aufarbeitung in den Kapiteln 2 und 3 und der empirischen Untersuchung in
Kapitel 4 zusammengefasst und abschließend diskutiert. Aufbauend hierauf werden
im Abschnitt 5.2 Implikationen für die Planung und Umsetzung von Innovationspro-
jekten dargestellt und Handlungsempfehlungen für die Unternehmenspraxis abgeleitet.
Abschließend wird in Abschnitt 5.3 noch einmal auf die Grenzen der vorliegenden
Arbeit eingegangen und es werden die sich daraus ergebenden Ansatzpunkte für
zukünftige Forschungsbemühungen herausgearbeitet.
Zur Beantwortung der Frage befasste sich die Arbeit auf theoretischer Ebene
zunächst mit den Begriffen der Innovation und des Innovationsgrades sowie der
Planung, um die zwei wesentlichen Kernbegriffe der Forschungsfrage zu erfassen. Die
gewonnenen Erkenntnisse wurden schließlich in einem Überblick über die Planung
von Innovationen auf verschiedenen betrieblichen Ebenen zusammengeführt und im
Hinblick auf die Planung von Innovationsprojekten konkretisiert. Diese Aufarbeitung
theoretischer und empirischer Ergebnisse der Innovationsforschung wurde genutzt,
um die anfänglich formulierte übergeordnete Forschungsfrage weiter zu präzisieren
und sie in einzelne Untersuchungsschritte zu strukturieren:
3. Ist ein Planungsprozess, der sowohl formale als auch flexible Elemente mitein-
ander vereint, erfolgswirksamer, als ein Planungsprozess, der primär formal
oder primär flexibel ist?
Die Dimension der Beteiligung bezieht sich auf die Anzahl der an der Planung
beteiligten Personen, die Menge der beteiligten Unternehmensbereiche sowie den Um-
fang lateraler Kommunikation im Unternehmen. Die Bedeutung des letztgenannten
Punktes ist bereits hervorgehoben worden. Zudem trägt ein hohes Maß an Beteili-
gung verschiedener Personen bzw. Unternehmensbereiche zu einer Verbreiterung der
Informationsbasis bei, so dass sie sich positiv auf das Planungsausmaß auswirken
kann. Dieser Effekt ist umso größer, je stärker das Projekt von Unsicherheit und
Komplexität gekennzeichnet ist. Insofern kommt der Partizipation bei radikalen
Innovationen eine noch höhere Bedeutung zu. Unter affektiven Gesichtspunkten ist
weiterhin die motivierende Wirkung von Beteiligung auf die Mitarbeiter zu nennen.
Vor diesem Hintergrund ist eine Beteiligung des Projektteams an der Planung zu
empfehlen. Dies setzt jedoch die Bereitschaft zum Teilen bzw. zur Übernahme von
Verantwortung auf Seiten des Projektleiters und des Projektteams voraus.
Zusammengefasst liefert die Arbeit somit drei wesentliche Empfehlungen für die
Planung von Innovationsprojekten in der unternehmerischen Praxis:
1. Die Entwicklung einer Planungsinfrastruktur auf Basis des Gedankens der ratio-
nal adaptation, d.h. einer Planungskultur, die über den gesamten Projektprozess
hinweg auf eine Verknüpfung effizienzbezogener und flexibler Planungsverhalten
ausgerichtet ist.
2. Die Auswahl von konkreten Methoden und Techniken, wie sie hier exemplarisch
genannt wurden, auf Basis der jeweiligen Projekteigenschaften und unter
Berücksichtigung der Synergien, die sich aus den Planungsprozessdimensionen
ergeben können.
ist, von denen einige ebenfalls auf ihre Relevanz für die Planung von Innovations-
projekten zu überprüfen sind. In gleicher Art und Weise bietet eine umfassendere
Operationalisierung der Umsetzung Ansatzpunkte für weitere Forschungsvorhaben.
Lohnenswert erscheint ebenfalls, die im Rahmen dieser Arbeit aufgeworfene Frage
nach dem Zusammenspiel flexibler und effizienzbezogener Planungsverhalten im
Projektablauf detaillierter zu analysieren. Da sich die hier durchgeführte explorative
Erweiterung der Untersuchung auf Gesamtbewertungen der einzelnen Gestaltungsdi-
mensionen während der verschiedenen Projektphasen stützt, könnte ein auf diesen
Aspekt fokussiertes Forschungsvorhaben mit einer umfassenderen Operationalisierung
der Planung in den einzelnen Projektphasen differenziertere Ergebnisse erzielen.
Die Arbeit beschränkt sich zudem auf die Ebene des Einzelprojekts. Wie in Ab-
schnitt 2.4 dargestellt, muss die Planung von Innovationen daneben jedoch auch
auf der Multiprojekt-, der taktischen und der strategischen Ebene erfolgen. Die
einzelnen Projekte sind somit in einen Kontext zu integrieren. Auf diese Weise
könnte beispielsweise der Einfluss der Unternehmens- oder Innovationsstrategie auf
die Planung einzelner Innovationsprojekte näher untersucht werden. Auch die bisher
wenig betrachtete Ebene der taktischen Innovationsplanung mit ihrem Einfluss auf
die Personalrekrutierung und -entwicklung, die Allokation von Ressourcen auf ver-
schiedene Projekte und die Bereitstellung einer erforderlichen Infrastruktur kann mit
diesbezüglichen Entscheidungen erheblichen Einfluss auf die Planung und Umset-
zung einzelner Projekte haben. Diese Verknüpfungen könnten Gegenstand weiterer,
zukünftiger Untersuchungen werden.
Auch unter methodischen Gesichtspunkten bietet die vorliegende Arbeit Ansatz-
punkte für zukünftige Forschungsprojekte. Ein Forschungsdesign, das sich statt
auf Schlüsselinformanten auf die Erhebung von Daten aus ganzen Projektteams
konzentrieren würde, könnte nicht nur mögliche Verzerrungen, die aus der Befra-
gung einer einzelnen Person je Projekt resultieren könnten, vermeiden, es könnte
zudem die Planungs- und Problemlösungsprozesse innerhalb des Teams und die
Rollen der beteiligten Personen stärker beleuchten. In Hinblick auf die eingesetzten
statistischen Verfahren wäre es wünschenswert, eine Maximum Likelihood basierte
Schätzung der Untersuchungsmodelle vorzunehmen, um zu Aussagen über die Si-
gnifikanz der ermittelten Effekte zu gelangen. Diese war aufgrund der mangelnden
multivariaten Normalverteilung der zugrundeliegenden Daten in dieser Arbeit nicht
zu leisten. Wie geschildert, bieten ausgewählte Statistikprogramme mittlerweile zu-
Limitierungen und Ansatzpunkte für weitere Forschungsbemühungen 231
Zusammenfassend ist festzuhalten, dass die vorliegende Arbeit trotz der geschilder-
ten Limitationen das gesteckte Ziel erreicht. Die durchgeführten Analysen auf Basis
von 137 Innovationsprojekten haben eine Reihe von Antworten darauf gegeben, wie
Neuproduktentwicklungsprojekte im Spannungsfeld von Effizienz und Flexibilität
geplant werden müssen, damit sie möglichst erfolgreich umgesetzt und abgeschlossen
werden können. Die Konzeptualisierung der Projektplanung anhand von Planungs-
prozessdimensionen hat es ermöglicht, Effizienz und Flexibilität nicht im Sinne einer
entweder oder Entscheidung als die Endpunkte eines einzigen Kontinuums zu be-
trachten, sondern sie als eigenständige Aspekte der Planung zu erfassen. Zukünftige
Forschungsvorhaben in diesem Bereich können auf diesen Ergebnisse aufbauen.
Literaturverzeichnis
Aaker, D. A., Kumar, V. und Day, G. S. (2001). Marketing research (7. Aufl.). New
York, NY: Wiley.
Abernathy, W. J. und Clark, K. B. (1985). Innovation: Mapping the winds of creative
destruction. Research Policy, 14 (1), 3-22.
Ahire, S. L. und Devaraj, S. (2001). An Empirical Comparison of Statistical Construct
Validation Approaches. IEEE Transactions on Engineering Management, 48 (3),
319-329.
Aiken, L. S. und West, S. G. (1991). Multiple Regression: Testing and Interpreting
Interactions. Newbury Park, CA: Sage.
Albers, S. und Götz, O. (2006). Messmodelle mit Konstrukten zweiter Ordnung in
der betriebswirtschaftlichen Forschung. Die Betriebswirtschaft, 66 (6), 669-677.
Ali, A. (1994). Pioneering Versus Incremental Innovation: Review and Research
Propositions. Journal of Product Innovation Management, 11 (1), 46-61.
Allison, G. T. und Zelikow, P. D. (1999). Essence of decision : explaining the Cuban
Missile Crisis (2. Aufl.). New York, NY: Longman.
Allison, P. D. (1977). Testing for Interaction in Multiple Regression. American
Journal of Sociology, 83 (1), 144-153.
Allison, P. D. (2001). Missing Data (M. S. Lewis-Beck, Hg.) (Nr. 07-136). Thousand
Oaks, CA: Sage.
Altschuller, G. S. (1998). Erfinden - Wege zur Lösung technischer Probleme (Li-
mitierter Nachdruck der 2. Aufl.; M. G. Möhrle, Hg.). Berlin: VEB Verlag
Technik.
Ancona, D. G. und Caldwell, D. (1990). Beyond boundary spanning: managing
external dependence in product development teams. Journal of High Technology
Management Research, 1 (2), 119-135.
Andersen, E. S. (1996). Warning: Activity planning is hazardous to your project’s
health. International Journal of Project Management, 14 (2), 89.
234 Literaturverzeichnis
Andersen, E. S., Grude, K. V. und Haug, T. (1999). Goal directed project management.
New Delhi: Kogan Page.
Anderson, C. H. (1986). Hierarchical Moderated Regression Analysis: A Useful Tool
for Retail Management Decisions. Journal of Retailing, 62 (2), 186-203.
Anderson, J. C. und Gerbing, D. W. (1982). Some Methods for Respecifying Meas-
urement Models to Obtain Unidimensional Construct Measurement. Journal
of Marketing Research, 19 (4), 453-460.
Anderson, J. C. und Gerbing, D. W. (1991). Predicting the Performance of Meas-
ures in a Confirmatory Factor Analysis With a Pretest Assessment of Their
Substantive Validities. Journai of Applied Psychology, 76 (5), 732-740.
Anderson, J. C., Gerbing, D. W. und Hunter, J. E. (1987). On the Assessment of
Unidimensional Measurement: Internal and External Consistency, and Overall
Consistency Criteria. Journal of Marketing Research, 24 (4), 432-437.
Anderson, P. und Tushman, M. L. (1990). Technological Discontinuities and Dominant
Designs: A Cyclical Model of Technological Change. Administrative Science
Quarterly, 35 (4), 604-633.
Anderson, Jr., E. G. und Joglekar, N. R. (2005). A Hierarchical Product Development
Planning Framework. Production and Operations Management, 14 (3), 334-361.
Archer, N. und Ghasemzadeh, F. (2004). Project Portfolio Selection and Management.
In P. W. G. Morris und J. K. Pinto (Hg.), The Wiley Guide to Managing
Projects (S. 237-255). Hoboken, NJ: John Wiley & Sons, Inc.
Armstrong, J. S. und Overton, T. S. (1977). Estimating Nonresponse Bias in Mail
Surveys. Journal of Marketing Research, 14 (3), 396-402.
Armstrong, S. J. (1982). The Value of Formal Planning for Strategic Decisions:
Review of Empirical Research. Strategic Management Journal , 3 (3), 197-211.
Ashley, D. B., Lurie, C. S. und Jaselskis, E. J. (1987). Determinants of Construction
Project Success. Project Management Journal , 18 (2), 69-79.
Atkinson, R. (1999). Project management: cost, time and quality, two best guesses
and a phenomenon, its time to accept other success criteria. International
Journal of Project Management, 17 (6), 337-342.
Atuahene-Gima, K. (1995). An Exploratory Analysis of the Impact of Market
Orientation on New Product Performance: A Contingency Approach. Journal
of Product Innovation Management, 12 (4), 275-293.
Literaturverzeichnis 235
Bearden, W. O., Sharma, S. und Teel, J. E. (1982). Sample Size Effects on Chi
Square and Other Statistics Used in Evaluating Causal Models. Journal of
Marketing Research, 19 (4), 425-430.
Bedeian, A. G. und Mossholder, K. W. (1994). Simple Question, Not So Simple
Answer: Interpreting Interaction Terms in Moderated Multiple Regression.
Journal of Management, 20 (1), 159-165.
Beer, M. und Eisenstat, R. A. (2000). The Silent Killers of Strategy Implementation
and Learning. Sloan Management Review , 41 (4), 29-40.
Begovich, C. L. und Kane, V. E. (1982). Estimating the Number of Groups and
Group Membership Using Simulation Cluster Analysis. Pattern Recognition,
15 (4), 335-342.
Benkenstein, M. (1987). F&E und Marketing: Eine Untersuchung zur Leis-
tungsfähigkeit von Koordinationskonzeptionen bei Innovationsentscheidungen.
Gabler.
Berekoven, L., Eckert, W. und Ellenrieder, P. (2006). Marktforschung : Methodische
Grundlagen und praktische Anwendung (11. Aufl.). Wiesbaden: Betriebswirt-
schaftlicher Verlag Dr. Th. Gabler.
Bettis, R. A. und Hitt, M. A. (1995). The New Competitive Landscape. Strategic
Management Journal , 16 (Special Issue), 7-19.
Billing, F. (2003). Koordination in radikalen Innovationsvorhaben. Wiesbaden:
Gabler DUV.
Bircher, B. (1989). Planungssystem. In N. Szyperski und U. Winand (Hg.),
Handwörterbuch der Planung (S. 1503-1515). Stuttgart: C. E. Poeschel Verlag.
Blalock, H. M., Jr. (1970). Estimating Measurement Error Using Multiple Indicators
and Several Points in Time. American Sociological Review , 35 (1), 101-110.
Bliemel, F., Eggert, A., Fassott, G. und Henseler, J. (Hg.). (2005). Handbuch
PLS-Pfadmodellierung. Stuttgart: Schäffer-Poeschel.
Bodewes, W. E. J. (2002). Formalization and innovation revisited. European Journal
of Innovation Management, 5 (4), 214-223.
Bollen, K. A. (1990). Outlier Screening and a Distribution-Free Test for Vanishing
Tetrads. Sociological Methods & Research, 19 (1), 80-92.
Bollen, K. A. (2002). Latent Variables in Psychology and the Social Sciences. Annual
Review of Psychology, 53 , 605-634.
238 Literaturverzeichnis
Clarke, K., Ford, D., Saren, M. und Thomas, R. (1995). Technology Strategy in UK
Firms. Technology Analysis & Strategic Management, 7 (2), 169-190.
Clegg, S. R., Cunha, J. V. d. und Cunha, M. P. e. (2002). Management paradoxes:
A relational view. Human Relations, 55 (5), 483-503.
Cleland, D. I. (2004). Strategic Management: The Project Linkages. In P. W. G. Mor-
ris und J. K. Pinto (Hg.), The Wiley Guide to Managing Projects (S. 206-222).
Hoboken, NJ: John Wiley & Sons, Inc.
Cleland, D. I. und King, W. R. (1988). Project Owner Strategic Management
of Projects. In D. I. Cleland und W. R. King (Hg.), Project Management
Handbook (2. Aufl., S. 165-188). New York, NY: Van Nostrand Reinhold.
Clift, T. B. und Vandenbosch, M. B. (1999). Project Complexity and Efforts to
Reduce Product Development Cycle Time. Journal of Business Research,
45 (2), 187-198.
Cobbenhagen, J. (2000). Successful innovation: towards a new theory for the
management of small and medium-sized enterprises. Cheltenham: Elgar.
Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2. Aufl.).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Cohen, J. (1992). A Power Primer. Psychological Bulletin, 12 (1), 155-159.
Cohenca-Zall, D., Laufer, A., Shapira, A. und Howell, G. A. (1994). Process
of planning during construction. Journal of Construction Engineering and
Management, 120 (3), 561-578.
Cooper, K. G. und Sklar Reichelt, K. (2004). Project Changes: Sources, Impacts,
Mitigation, Pricing, Litigation, and Excellence. In P. W. G. Morris und
J. K. Pinto (Hg.), The Wiley Guide to Managing Projects (S. 743-772). Hoboken,
NJ: John Wiley & Sons, Inc.
Cooper, R., Aouad, G., Lee, A. und Wu, S. (2004). Process and Product Modeling.
In P. W. G. Morris und J. K. Pinto (Hg.), The Wiley Guide to Managing
Projects (S. 471-497). Hoboken, NJ: John Wiley & Sons, Inc.
Cooper, R. G. (1979). The dimensions of industrial new product success and failure.
Journal of Marketing, 43 (3), 93-103.
Cooper, R. G. (1994). Third-generation new product processes. Journal of Product
Innovation Management, 11 (1), 3-14.
Cooper, R. G. (1999). The invisible Success Factors in Product Innovation. Journal
of Product Innovation Management, 16 (2), 115-133.
242 Literaturverzeichnis
Dvir, D., Raz, T. und Shenhar, A. J. (2003). An empirical analysis of the relationship
between project planning and project success. International Journal of Project
Management, 21 (2), 89 - 95.
Dyson, R. G. und Foster, M. J. (1982). The Relationship of Participation and
Effectiveness in Strategic Planning. Strategic Management Journal , 3 (1),
77-88.
Edvinsson, L., Dvir, R., Roth, N. und Pasher, E. (2004). Innovations: the new unit
of analysis in the knowledge era. Journal of Intellectual Capital , 5 (1), 40-58.
Ehrmann, H. (1995). Planung. Ludwigshafen (Rhein): Friedrich Kiehl Verlag.
Eisenhardt, K. M. (1989). Making fast strategic decisions in high-velocity environ-
ments. Academy of Management Journal , 32 (3), 543-476.
Eisenhardt, K. M. und Martin, J. A. (2000). Dynamic capabilities: What are they?
Strategic Management Journal , 21 (10/11), 1105-1121.
Eisenhardt, K. M. und Tabrizi, B. N. (1995). Accelerating adaptive processes:
Product innovation in the global computer industry. Administrative Science
Quarterly, 40 (1), 84-110.
Embrey, D. G., Guthrie, M. R., White, O. R. und Dietz, J. (1996). Clinical Decision
Making by Experienced and Inexperienced Pediatric Physical Therapists for
Children With Diplegic Cerebral Palsy. Physical Therapy, 76 (1), 20-33.
Emery, F. und Trist, E. (1965). The Causal Texture of Organizational Environments.
Human Relations, 18 (1), 21-32.
Enders, C. K. und Bandalos, D. L. (2001). The Relative Performance of Full
Information Maximum Likelihood Estimation for Missing Data in Structural
Equation Models. Structural Equation Modeling, 8 (3), 430-457.
Ernst, H. (2001). Erfolgsfaktoren neuer Produkte: Grundlagen für eine valide
empirische Forschung. Wiesbaden: Gabler DUV.
Ettlie, J. E. und Subramaniam, M. (2004). Changing strategies and tactics for
new product development. Journal of Product Innovation Management, 21 (2),
95-109.
Eybl, D. (1984). Instrumente und Orientierungsgrundlagen zur Planung wettbewerbs-
orientierter Unternehmensstrategien. Frankfurt am Main: Peter Lang.
Literaturverzeichnis 247
Herroelen, W. und Leus, R. (2004). Robust and reactive project scheduling: a review
and classification of procedures. International Journal of Production Research,
42 (8), 1599-1620.
Herstatt, C. und Geschka, H. (2002). Need assessment in practice. Theory, methods
and experiences. International Journal of Entrepreneurship and Innovation
Management, 2 (6), 56-70.
Herstatt, C. und Verworn, B. (2004). The Fuzzy Front End of Innovation. In EITIM
(Hg.), Bringing Technology and Innovation into the Boardroom (S. 347-373).
Houndmills and New York: Palgrave MacMillan.
Herstatt, C., Verworn, B. und Nagahira, A. (2004). Reducing project related
uncertainty in the ”fuzzy front endöf innovation - a comparison of german
and japanese product innovation projects. International Journal of Product
Development, 1 (1), 43-65.
Hildebrandt, L. und Temme, D. (2006). Probleme der Validierung mit Strukturglei-
chungsmodellen. Die Betriebswirtschaft, 66 (6), 618-639.
Hipp, J. R., Bauer, D. J. und Bollen, K. A. (2005). Conducting Tetrad Tests of Model
Fit and Contrasts of Tetrad-Nested Models: A New SAS Macro. Structural
Equation Modeling, 12 (1), 76-93.
Hoegl, M. und Gemünden, H. G. (2001). Teamwork Quality and the Success of Inno-
vative Projects: A Theoretical Concept and Empirical Evidence. Organization
Science, 12 (4), 435-449.
Hoegl, M. und Parboteeah, K. P. (2006). Team reflexivity in innovative projects.
R&D Management, 36 (2), 113-125.
Hoffmann, J. (1989). Integration strategischer und operativer Planung. In N. Szy-
perski und U. Winand (Hg.), Handwörterbuch der Planung (S. 763-770). Stutt-
gart: C. E. Poeschel.
Homburg, C. und Baumgartner, H. (1995). Die Kausalanalyse als Instrument der
Marketingforschung. Zeitschrift für Betriebswirtschaft, 65 (10), 1091-1108.
Homburg, C. und Giering, A. (1998). Konzeptualisierung und Operationalisierung
komplexer Konstrukte - Ein Leitfaden für die Marketingforschung. In L. Hil-
debrandt und C. Homburg (Hg.), Die Kausalanalyse (S. 111-146). Stuttgart:
Schäffer Poeschel.
Literaturverzeichnis 253
McDonough, E. F., III und Leifer, R. P. (1986). Effective Control of New Product
Projects: The Interaction of Organization Culture and Project Leadership.
Journal of Product Innovation Management, 3 (3), 149-157.
McGinnis, M. A. und Ackelsberg, M. R. (1983). Effective innovation management:
Missing link in strategic planning? Journal of Business Strategy, 4 (1), 59.
McQuitty, S. (2004). Statistical power and structural equation models in business
research. Journal of Business Research, 57 (2), 175-183.
Meffert, H. (1988). Strategische Unternehmensführung und Marketing. Wiesbaden:
Gabler.
Meffert, H. (1992). Marketingforschung und Käuferverhalten (2. Aufl.). Wiesbaden:
Gabler.
Menon, A., Bharadwaj, S. G., Adidam, P. T. und Edison, S. W. (1999). Antecedents
and Consequences of Marketing Strategy Making: A Model and a Test. Journal
of Marketing, 63 (2), 18-40.
Meyer, J. W. und Rowan, B. (1977). Institutionalized Organizations: Formal
Structure as Myth and Ceremony. American Journal of Sociology, 83 (2),
340-363.
Meyer, M. H. und Utterback, J. M. (1995). Product Development Cycle Time and
Commercial Success. IEEE Transactions on Engineering Management, 42 (4),
297-304.
Meyers, P. W. und Tucker, F. G. (1989). Defining Roles for Logistics During Routine
and Radical Technological Innovation. Journal of the Academy of Marketing
Science, 17 (1), 73-82.
Miles, R. E., Snow, C. C., Meyer, A. D. und Coleman, H. J., Jr. (1978). Organizational
Strategy, Structure, and Process. Academy of Management Review , 3 (3), 546-
562.
Miller, D. (1987a). Strategy Making and Structure: Analysis and Implications for
Performance. Academy of Management Journal , 30 (1), 7-32.
Miller, D. (1987b). The structural and environmental correlates of business strategy.
Strategic Management Journal , 8 (1), 55-76.
Miller, D. und Friesen, P. H. (1982). Innovation in Conservative and Entrepreneurial
Firms: Two Models of Strategic Momentum. Strategic Management Journal ,
3 (1), 1-25.
262 Literaturverzeichnis
Pearce, J. A., II, Robbins, D. K. und Robinson, R. B., Jr. (1987). The impact
of grand strategy and planning formality on financial performance. Strategic
Management Journal , 8 (2), 125-134.
Penrose, E. E. T. (1959). The Theory of the Growth of the Firm. Oxford: Blackwell.
Perrow, C. (1967). A Framework for the Comparative Analysis of Organizations.
American Sociological Review , 32 (2), 194-208.
Peter, J. P. (1979). Reliability: A Review of Psychometric Basics and Recent
Marketing Practices. Journal of Marketing Research, 16 (1), 6-17.
Peter, J. P. (1981). Construct Validity: A Review of Basic Issues and Marketing
Practices. Journal of Marketing Research, 18 (2), 133-145.
Peter, J. P. und Churchill, J., Gilbert A. (1986). Relationships Among Research
Design Choices and Psychometric Properties of Rating Scales: A Meta-Analysis.
Journal of Marketing Research, 23 (1), 1-10.
Peterson, R. A. (1994). A Meta-analysis of Cronbach’s Coefficient Alpha. Journal
of Consumer Research, 21 (2), 381-391.
Pich, M. T., Loch, C. H. und De Meyer, A. (2002). On Uncertainty, Ambiguity, and
Complexity in Project Management. Management Science, 48 (8), 1008-1023.
Pina e Cunha, M. und Vieira da Cunha, J. (2002). To plan and not to plan: Toward a
synthesis between planning and learning. International Journal of Organization
Theory and Behavior , 5 (3/4), 299-315.
Pina e Cunha, M., Vieira da Cunha, J. und Kamoche, K. (1999). Organizational
improvisation: what, when, how and why. International Journal of Management
Reviews, 1 (3), 299-341.
Pinch, T. und Bijker, W. E. (1989). The social construction of facts and artifacts.
In W. E. Bijker, T. Hughes und T. Pinch (Hg.), The social construction of
technological systems: new directions in the sociology and history of technology.
Cambridge, MA: MIT Press.
Pinkenburg, H. F. W. (1980). Projektmanagement als Führungskonzeption in
Prozessen tiefgreifenden organisatorischen Wandels. München: Planungs- und
Organisationswissenschaftliche Schriften.
Pinto, J. K. (1986). Project Implementation: A Determination of its Critical Success
Factors, Moderators, and Their Relative Importance Across the Project Life
Cycle. Unveröffentlichte Dissertation, University of Pittsburgh.
266 Literaturverzeichnis
Pinto, J. K. und Prescott, J. E. (1990). Planning and tactical factors in the project
implementation process. Journal of Management Studies, 27 (3), 305-327.
Pinto, J. K. und Slevin, D. P. (1988a). Critical success factors across the project life
cycle. Project Management Journal , 19 (3), 67-75.
Pinto, J. K. und Slevin, D. P. (1988b). Critical Success Factors in Effective Project
Implementation. In D. I. Cleland und W. R. King (Hg.), Project Management
Handbook (2nd Aufl., S. 479-512). New York: Van Nostrand Reinhold.
Pleschak, F. und Sabisch, H. (1996). Innovationsmanagement. Stuttgart: Schäffer-
Poeschel.
Prescott, J. E. (1986). Environments as Moderators of the Relationship Between
Strategy and Performance. Academy of Management Journal , 29 (2), 329.
Priem, R. L., Rasheed, A. M. A. und Kotulic, A. G. (1995). Rationality in strategic
decision processes, environment dynamism, and performance. Journal of
Management, 21 (5), 913-929.
Quinn, J. B. (1978). Strategic change: ’Logical Incrementalism’. Sloan Management
Review , 20 (1), 7-21.
Raisch, S. (2008). Balanced Structures: Designing Organizations for Profitable
Growth. Long Range Planning, 41 (5), 483-508.
Ramanujam, V. und Venkatraman, N. (1987a). Planning and Performance: A New
Look at an Old Question. Business Horizons, 30 (3), 19-25.
Ramanujam, V. und Venkatraman, N. (1987b). Planning System Characteristics
and Planning Effectiveness. Strategic Management Journal , 8 (5), 453-468.
Ramanujam, V., Venkatraman, N. und Camillus, J. C. (1986). Multi-objective assess-
ment of effectiveness of strategic planning: A discriminant analysis approach.
Academy of Management Journal , 29 (2), 347-372.
Regier, S. (2007). Markterfolg radikaler Innovationen. Wiesbaden: Gabler-DUV.
Rehesaar, H. und Beames, E. (1998). Project plans and time budgets in information
systems projects. In Software Engineering: Education & Practice (S. 120-124).
Dunedin, New Zealand.
Reinartz, W., Krafft, M. und Hoyer, W. D. (2004). The Customer Relationship
Management Process: Its Measurement and Impact on Performance. Journal
of Marketing Research, 41 (3), 293-305.
Rice, M. P., O’Connor, G. C., Peters, L. S. und Morone, J. G. (1998). Managing
discontinuous innovation. Research Technology Management, 41 (3), 52-58.
Literaturverzeichnis 267
Schafer, J. L. und Graham, J. W. (2002). Missing Data: Our View of the State of
the Art. Psychological Methods, 7 (2), 147-177.
Schäffer, U. und Willauer, B. (2002). Kontrolle, Effektivität der Planung und Erfolg
von Geschäftseinheiten - Ergebnisse einer empirischen Erhebung. Zeitschrift
für Planung, 13 (1), 73-97.
Schenkel, B. (2006). Die Qualität der marktbezogenen Planung. Wiesbaden: Gabler
DUV.
Schewe, G. (1992). Imitationsmanagement. Stuttgart: Schäffer-Poeschel.
Schilling, M. A. (2008). Strategic Management of Technological Innovation. New
York: McGraw-Hill.
Schilling, M. A. und Hill, C. W. L. (1998). Managing the new product development
process: Strategic imperatives. Academy of Management Executive, 12 (3),
67-81.
Schippers, M. C. und Den Hartog, D. N. (2007). Reflexivity in Teams: A Measure
and Correlates. Applied Psychology: An International Review , 56 (2), 189-211.
Schlaak, T. M. (1999). Der Innovationsgrad als Schlüsselvariable. Wiesbaden: Gabler
DUV.
Schmidheiny, S. (1992). Changing course: a global business perspective on development
and the environment. Cambridge, MA: MIT-Press.
Schneeweiß, H. (1990). Ökonometrie (4. Aufl.). Heidelberg: Physica-Verlag.
Schnell, R. (1986). Missing-Data-Probleme in der empirischen Sozialforschung.
Bochum.
Schnell, R. (1997). Nonresponse in Bevölkerungsumfragen: Ausmaß, Entwicklung
und Ursachen. Opladen: Leske + Budrich.
Scholderer, J., Balderjahn, I. und Paulssen, M. (2006). Kausalität, Linearität,
Reliabilität: Drei Dinge, die Sie nie über Strukturgleichungsmodelle wissen
wollten. Die Betriebswirtschaft, 66 (6), 640-650.
Schoonhoven, C. B. (1981). Problems with Contingency Theory: Testing Assumptions
Hidden within the Language of Contingency ’Theory’. Administrative Science
Quarterly, 26 (3), 349-377.
Schulte Nordholt, E. (1998). Imputation: Methods, Simulation Experiments and
Practical Examples. International Statistical Review , 66 (2), 157-180.
270 Literaturverzeichnis
Shenhar, A. J. und Dvir, D. (2004). How Projects Differ, and What to do About
it. In P. W. G. Morris und J. K. Pinto (Hg.), The Wiley Guide to Managing
Projects (S. 1265-1286). Hoboken, NJ: John Wiley & Sons, Inc.
Shenhar, A. J., Dvir, D., Levy, O. und Maltz, A. C. (2001). Project Success: A
Multidimensional Strategic Concept. Long Range Plannning, 34 (6), 699-725.
Shenhar, A. J., Tishler, A., Dvir, D., Lipovetsky, S. und Lechler, T. (2002). Refining
the search for project success factors: a multivariate, typological approach.
R&D Management, 32 (2), 111-126.
Shrivastava, P. und Grant, J. H. (1985). Empirically Derived Models of Strategic
Decision-making Processes. Strategic Management Journal , 6 (2), 97-113.
Sicotte, H. und Langley, A. (2001). Integration mechanisms and R&D project
performance. Journal of Engineering and Technology Management, 17 (1),
1-37.
Simons, T., Pelled, L. H. und Smith, K. A. (1999). Making use of difference: Diversity,
debate, and decision comprehensiveness in top management teams. Academy
of Management Journal , 42 (6), 662-673.
Sinha, K., Deepak. (1990). The Contribution of Formal Planning to Decisions.
Strategic Management Journal , 11 (6), 479-492.
Slevin, D. P. und Covin, J. G. (1997). Strategy formation patterns, performance,
and the significance of context. Journal of Management, 23 (2), 189.
Smith, P. G. und Reinertsen, D. G. (1992). Shortening the Product Development
Cycle. Research Technology Management, 35 (3), 44-59.
Sniezek, J. A. (1992). Groups under Uncertainty: An Examination of Confidence
in Group Decision Making. Organizational Behavior and Human Decision
Processes, 52 (1), 124-155.
Song, M. X. und Montoya-Weiss, M. M. (1998). Critical development activities
for really new versus incremental products. Journal of Product Innovation
Management, 15 (2), 124-135.
Song, M. X. und Montoya-Weiss, M. M. (2001). The effects of perceived technological
uncertainty on japanese new product development. Academy of Management
Journal , 44 (1), 61-80.
Song, M. X. und Parry, M. E. (1997a). A cross-national comparative study of
new product development processes: Japan and the united states. Journal of
Marketing, 61 (2), 1-18.
272 Literaturverzeichnis
Story, V., Smith, G. und Saker, J. (2001). Developing Appropriate Measures of New
Product Development: A Contingency-Based Approach. International Journal
of Innovation Management, 5 (1), 21-47.
Sullivan, J., Cornelius H. (1985). Systems Planning in the Information Age. Sloan
Management Review , 26 (2), 3-12.
Tatikonda, M. V. (1999). An Empirical Study of Platform and Derivative Product
Development Projects. Journal of Product Innovation Management, 16 (1),
3-26.
Tatikonda, M. V. und Montoya-Weiss, M. M. (2001). Integrating operations and
marketing perspectives of product innovation: The influence of organizational
process factors and capabilities on development performance. Management
Science, 47 (1), 151-172.
Tatikonda, M. V. und Rosenthal, S. R. (2000a). Successful execution of product
development projects: Balancing firmness and flexibility in the innovation
process. Journal of Operations Management, 18 (4), 401-425.
Tatikonda, M. V. und Rosenthal, S. R. (2000b). Technology novelty, project
complexity, and product development project execution success: A deeper look
at task uncertainty in product innovation. IEEE Transactions on Engineering
Management, 47 (1), 74-87.
Teece, D. J., Pisano, G. und Shuen, A. (1997). Dynamic capabilities and strategic
management. Strategic Management Journal , 18 (7), 509-533.
Thamhain, H. J. (1990). Managing Technologically Innovative Team Efforts Toward
New Product Success. Journal of Product Innovation Management, 7 (1), 5-18.
Thamhain, H. J. und Wilemon, D. L. (1987). Building High Performing Engineering
Project Teams. IEEE Transactions on Engineering Management, 34 (3), 130-
137.
Thieme, J. R., Song, M. X. und Shin, G.-C. (2003). Project Management Character-
istics and New Product Survival. Journal of Product Innovation Management,
20 , 104-119.
Thiry, M. (2004). Program Management: A Strategic Decision Management Process.
In P. W. G. Morris und J. K. Pinto (Hg.), The Wiley Guide to Managing
Projects (S. 257-287). Hoboken, NJ: John Wiley & Sons, Inc.
274 Literaturverzeichnis
Ward, A., Liker, J. K., Cristiano, J. J. und Sobeck II, D. K. (1995). The second
Toyota paradox: How delaying decisions can make better cars faster. Sloan
Management Review , 36 (3), 43-61.
Weber, J. (2004). Einführung in das Controlling. Stuttgart: Schäffer-Poeschel.
Weick, K. E. (1993). The Collapse of Sensemaking in Organizations: The Mann
Gulch Disaster. Administrative Science Quartlery, 38 (4), 628-652.
Weick, K. E. (1998). Improvisation as a Mindset for Organizational Analysis.
Organization Science, 9 (5), 543-555.
Weick, K. E. (2001). Making Sense of the Organization. Malden, MA: Blackwell.
Weise, J. (2005). Planung und Steuerung von Innovationsprojekten. Wiesbaden:
Gabler DUV.
Welge, M. K. und Al-Laham, A. (2001). Strategisches Management - Grundlagen,
Prozesse, Imlementierung (3. Aufl.). Wiesbaden: Gabler.
Wernerfelt, B. (1984). A Resource-based View of the Firm. Strategic Management
Journal , 5 (2), 171-180.
West, M. A. (1996). Handbook of Work Group Psychology. In M. A. West (Hg.),
(S. 555-579). Chichester: John Wiley & Sons.
West, S. G., Finch, J. F. und Curran, P. J. (1995). Structural Equation Models
With Nonnormal Variables: Problems and Remedies. In R. H. Hoyle (Hg.),
Structural Equation Modeling - Concepts, Issues, and Applications (S. 56-75).
Thousand Oaks, CA: Sage.
Whalen, P. J. (2007). Strategic and Technology Planning on a Roadmapping
Foundation. Research Technology Management, 50 (3), 40-51.
Wheelwright, S. C. und Clark, K. B. (1992a). Creating Project Plans to Focus
Product Development. Harvard Business Review , 70 (2), 70-82.
Wheelwright, S. C. und Clark, K. B. (1992b). Revolutionizing Product Development.
New York, NY: Free Press.
Wild, J. (1974). Grundlagen der Unternehmensplanung. Reinbek: Rowohlt.
Williams, T. M. (1999). The need for new paradigms for complex projects. Interna-
tional Journal of Project Management, 17 (5), 269-273.
Wiskow, B. (1999). Die Verkürzung der Produktentwicklungszeit aus anreiztheoreti-
scher Sicht. München et al.: Hampp.
278 Literaturverzeichnis
PCA/Varimax
Indikator 1 2 3 4 5 MSA
PCA/Varimax
Indikator 1 2 MSA
PCA/Varimax
Indikator 1 2 3 4 MSA
PCA/Varimax
Indikator 1 MSA
Eigenwert 2,334
Erklärte Varianz 46,7%
2
KMO: 0,712; Barlett-Test: χ = 122, 873; df = 10; p = 0, 000
PCA/Varimax
Indikator 1 2 3 MSA
PCA/Varimax
Indikator 1 2 3 MSA
Persönliche Daten
Name Christoph Stephan Stockstrom
Geburtsdatum 25.11.1975
Geburtsort Hamburg
Staatsbürgerschaft deutsch
Familienstand verheiratet
Ausbildung
08/1986 - 06/1995 Gymnasium Oberalster in Hamburg
07/1995 - 04/1996 Grundwehrdienst
08/1996 - 06/1998 Ausbildung zum Bankkaufmann bei der Commerzbank AG in Ham-
burg
10/1998 - 07/2003 Studium der Betriebswirtschaftslehre an der Universität Hamburg
09/2004 Visiting special research student bei Prof. Akio Nagahira an der
Tohoku Universität, Sendai, Japan
10/2003 - 09/2008 Doktorand am Institut für Technologie- und Innovationsmanagement
der TU Hamburg-Harburg
Beruflicher Werdegang
06/1998 - 10/1998 Commerzbank AG Personalzentrum Nord, Fachbereich Auszubilden-
denbetreuung
11/1998 - 05/1999 Commerzbank AG Abteilung für Privatkunden / Personalkredite
(Teilzeit)
08/1999 - 09/1999 Praktikum bei der Holsten Brauerei AG, Hamburg
08/2000 - 10/2000 Praktikum bei der Otto GmbH & Co. KG, Hamburg
11/1999 - 09/2003 studentischer Mitarbeiter am Arbeitsbereich Internationales Manage-
ment der Universität Hamburg
06/2001 - 08/2004 freier Mitarbeiter bei Buse Krieger Business Development
04/2002 - 07/2002 Tutor für die Grundstudiumsvorlesung VWL I von Prof. Dr. W.
Pfähler, Arbeitsbereich Wirtschaftspolitik und Industrieökonomik
01/2002 - 09/2004 freier Mitarbeiter beim Brand Science Institute
10/2002 - 04/2003 Tutor für die Grundstudiumsvorlesung BWL II von Dr. Haas, Arbeits-
bereich Industrielles Management
10/2004 - 08/2008 Wissenschaftlicher Mitarbeiter am Institut für Technologie- und Inno-
vationsmanagement der TU Hamburg-Harburg
09/2008 - 01/2009 Selbständiger Berater und Dozent