Zunächst lässt sich herausstellen, dass es sich bei dem im Folgenden ausgeführten Fragebogen um einen standardisierten handelt. Bei einer solchen Befragung seien die Fragenstellungen für jeden Probanden in Formulierung sowie Gliederung identisch (vgl. Scholl 2009. 77). Durch diese Vorgehensweise können „vergleichende Aussagen über eine Vielzahl von Versuchspersonen gemacht werden bei relativ ökonomischem Einsatz von Ressourcen“ (Möhring/Schlütz 2013, 183).

Bezüglich des Aufbaus der Umfrage stellen sowohl Kuckarzt et al. (2009, 36) als auch Scholl (2009, 175) heraus, dass die Fragen für die Probanden in sinnvoll gegliederte Themenblöcke eingeteilt werden sollten. Den acht Themenblöcken dieser Umfrage ist ein einleitender Satz vorangestellt, der den Begriff ‚Agentursoftware‘ für die Probanden zunächst knapp thematisiert. Hierdurch soll diese Begrifflichkeit für die Befragten bestimmt und Unklarheiten vermieden werden (vgl. Prost 2014, 697).

Der erste Block enthält Fragen zu den Kosten sowie zu der Nutzung einer bereits von den Agenturen verwendeten Software und soll Informationen erfragen, die schlussendlich zur Beantwortung der Forschungsfragen eins bis drei dienen. Die Fragen sind, wie von Scholl (2009, 175) empfohlen, als Einstieg einfach gehalten und dienen zusätzlich dazu, Probanden auszusortieren. Folglich handelt es sich bei der ersten Frage um eine „Filterfrage[…]“ (Scholl 2009, 156), durch die sämtliche Agenturen, die keine Software verwenden, aussortiert und nach dem Grund hierfür gefragt werden können. Für diese Probanden ist die Umfrage anschließend beendet. Abgesehen von Frage sieben, welche eine „Einschätzungsfrage“ (ebd, 148) darstellt, handelt sich bei allen Fragen des ersten Blockes um „Faktfragen“ (ebd., 147), die einfach zu beantwortende Fakten zur Softwarenutzung der Probanden erfragen. Frage vier stellt zudem eine „Trichterfrage[…]“ (ebd.) dar, die es denjenigen, die eine kostenfreie Software verwenden, ermöglicht, die Fragen hinsichtlich der Kosten zu überspringen.

Daraufhin werden die Funktionalitäten sowie deren Wichtigkeit für den Befragten in fünf Blöcken (Personal, Admin, Projekte, Finanzen und Support) ermittelt. Dies entspricht tendenziell der Äußerung von Kuckarzt et al. (2009 ,36), dass die Konzentration der Probanden gegen Ende des ersten Drittels und während des zweiten Drittels am höchsten ist und die besonders relevanten Fragen dort gestellt werden sollten. Jede der Frage dieser Blöcke bringt sowohl eine Faktfrageals auch eine „Relevanzfrage“ (Scholl 2009., 149) mit sich. Auf diese Weise können die Probanden in einem Zug beantworten, ob ihre Software über die jeweilige Funktion verfügt und wie wichtig diese für ihre Agentur ist. Durch die Blöcke zwei bis sechs lassen sich bei der Auswertung insbesondere Rückschlüsse, die relevant für die Forschungsfrage vier sind, ziehen.

Erst im siebten Block wird anschließend nach der Zufriedenfreit der bereits verwendeten Software gefragt, da die Probanden zuvor betrachtet haben, welche Funktionalitäten ihre Software anbietet und wie wichtig ihnen diese tatsächlich sind. Somit wird hier, wie Scholl (2009, 175) deutlich macht, darauf geachtet, dass vorherige Fragen Einfluss auf die darauf folgenden haben. Um diese Zufriedenheit zu erfragen wurden „Bewertungsfrage[n]“ (Scholl ebd., 149) sowie eine Einschätzungsfrage“ genutzt. Es lässt sich weiterhin herausstellen, dass sowohl für die Relevanzfragen in den Blöcken zwei bis sechs, als auch für die Fragen 14 und 16 des siebten Blockes, eine gerade Anzahl an Antwortmöglichkeiten vorgeben ist. Bei ungerader Anzahl an Variablen entscheiden sich Probanden oftmals für die mittlere Variable, um der Frage auszuweichen (vgl. Scholl 2009, 168). Eine gerade Anzahl an Variablen hingegen bringe die Befragten dazu, sich für eine Tendenz zu entscheiden (vgl. ebd.).

Die demographischen Daten der jeweiligen Agentur werden im letzten Block erfasst, da insbesondere Fragen zum Umsatz relativ unbeliebt seien und ein Abbruchrisiko mit sich bringen (vgl. Klöckner/Friedrichs 2014, 676). Scholl (2009, 175) hebt diesbezüglich hervor, dass zum Schluss wieder einfach zu beantwortende Fragen gestellt werden sollten und demographische Daten an dieser Stelle dementsprechend günstig sind. Hierfür wurden „Faktfragen“ formuliert, die sich nach Scholls (2009, 147) Äußerungen für die Erfragung dieser Daten eignen. Insgesamt sind die Blöcke sieben und acht vor allem für die Forschungsfragen fünf bis acht von Relevanz.

Bezüglich der Frageform lässt sich anmerken, dass es sich hierbei, abgesehen von Frage 17, um geschlossene Fragen mit „vordefinierte[n] Antwortmöglichkeiten“ (Kuckartz et. al 2009, 33) handelt. Diese standardisierten Fragen sollen es ermöglichen, dass die gesammelten Antworten „vergleichbar, […] wiederholbar und überprüfbar sind“ (Berekoven et. al 2009, 93). Hierbei stelle die Frage die Variable dar und die verschiedenen Antwortvorgaben die Ausprägungen dieser Variablen, wobei diese Vorgaben als Skala aufgeführt werden (vgl. Scholl, 164.). So gehören beispielsweise zu der Frage 14 die Variable der Zufriedenheit mit dem Preis-Leistungs-Verhältnis sowie die Ausprägungen dieser Zufriedenheit, welche auf einer Skala von sehr zufrieden bis unzufrieden ausgedrückt wird.

Hinsichtlich der Antwortmöglichkeiten lässt sich herausstellen, dass es sich bei den Fragen eins und fünf, sowie bei den Fragen nach der Nutzung der einzelnen Funktionalitäten, um „dichtom[e]“ (Scholl 2009, 165) Skalen handelt, da es hier gilt, die Probanden den Variablen ‚Ja‘ und ‚Nein‘ zuzuordnen. Diejenigen Probanden, die sich bezüglich der Funktionalitäten nicht sicher sind, oder aus anderen Gründen keine eindeutige Auskunft geben möchten, haben die Antwortmöglichkeit „keine Angabe“, um trotzdem mit der Umfrage fortfahren zu können. Für die Antwortmöglichkeiten der weiteren Fragen wurden „polytom[e]“ (ebd.) Skalen verwendet. Dadurch sollen den Probanden mehrere Antwortmöglichkeiten geboten werden, um bei der Datenanalyse möglichst umfangreiche Aussagen über die jeweils zu betrachtende Variable treffen zu können.

Weiter zu Gütekriterien