ja
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (787)
- Arbeitspapier (58)
- Teil eines Buches (Kapitel) (6)
- Wissenschaftlicher Artikel (3)
- Buch (1)
- Konferenzveröffentlichung (1)
Gehört zur Bibliographie
- ja (856)
Schlagworte
- Hochschullehre (56)
- Didaktik (55)
- Geschäftsmodell (36)
- Digitalisierung (32)
- Vertrieb (31)
- Personalwesen (27)
- Führung (19)
- Innovationsmanagement (17)
- Social Media (16)
- Online-Marketing (13)
Institut
- Informationstechnologien & Wirtschaftsinformatik (169)
- Innovationsmanagement (150)
- Automatisierungstechnik-Wirtschaft (125)
- Rechnungswesen & Controlling (125)
- Sales Management (64)
- International Marketing (37)
- Unternehmensmanagement (37)
- Digital Marketing Management (29)
- Financial Accounting (24)
- Software Engineering Leadership (21)
Diese Arbeit befasst sich mit dem Einsatz des Internets der Dinge (IoT) im Messtechnikbereich. Das Ziel dieser Arbeit ist die Feststellung der Aspekte, die für den IoT-Einsatz in der Entwicklung von Produkten bzw. Dienstleistungen zu beachten sind. Diese Arbeit wird wichtige Konzepte erläutern, um das Internet der Dinge anzuwenden, sowie die verschiedenen Arten von Technologien erklären, die im IoT verwendet werden und die Auswirkungen des IoT-Einsatzes auf Dienstleistungen und Produktion skizzieren. Es ist auch wichtig, die Risiken eines solchen IoT- Einsatzes und die Maßnahmen dagegen zu erläutern. Zum Schluss werden die wichtigsten Aspekte des IoT- Einsatzes und deren Auswirkung auf die Weiterentwicklung bzw. Neuentwicklung von Produkten und Diensten dargestellt. Die Forschungsfrage dieser Arbeit ist: „Welche Aspekte entscheiden über den Einsatz von IoT im Bereich der Messtechnik?“ Um die Forschungsfrage beantworten zu können, wurden Interviews und Umfragen mit den Entwicklern durchgeführt, die in der Firma Messtechnik GmbH & CO KG arbeiten. So soll herausgefunden werden, wie das Vorwissen der Entwickler über die angewendeten Technologien bei einem IoT- Einsatz sein sollte. Darüber hinaus wurde eine Umfrage unter Kunden des Unternehmens durchgeführt, um die Auswirkungen von IoT-Anwendungen auf ihren Energieverbrauch oder Wasserverbrauch zu ermitteln. Zusätzlich sollte die Flexibilität der Zusammenarbeit mit den Kunden anhand der entwickelten/vorhandenen Produkte/Dienste oder neuer Produkte/Dienste des Unternehmens erfasst werden. Die Antwort wird darin bestehen, diese Umfragen und Interviews zu analysieren und die Ergebnisse in Tabellen und Diagrammen darzustellen. Schließlich wird klar, welche Aspekte beim Einsatz und der Anwendung des IoT auf die Messtechnik-Branche, wie z.B. Qualität, Dienstleistungserweiterung, Risikominderung und Kosten überwiegen.
Agile Entwicklungsmethoden haben schon seit vielen Jahren ihren Einsatz in der Wirtschaft gefunden. Unternehmen haben den Bedarf von solchen agilen Entwicklungsprozessen entdeckt und haben schnelle Maßnahmen getroffen, um weiter am Markt zu existieren und die Kundenwünsche mit Hilfe von agilen Prozessen zu erfüllen. Jedoch gibt es einen wesentlichen Faktor, der alle agilen Entwicklungsprozesse betrifft, dieser Faktor ist die Zeit. Die Zeit spielt eine wesentliche Rolle für alle Auftraggeber und Auftragnehmer. Unter den agilen Entwicklungsprozessen gibt es zwei unterschiedliche Ansätze, timeboxed und non-timeboxed. Da stellt sich die interessante Frage: „Welche Auswahlkriterien sind entscheidend für agile Timeboxed und Nontimeboxed Ansätze?“, mit der sich diese Arbeit beschäftigt. Aufgrund dessen, dass es in der vorhandenen Literatur kaum Antworten auf diese Fragestellung gibt, wurden im Rahmen dieser Masterarbeit mithilfe der qualitativen Inhaltsanalyse „Interview“, einige Experten Interviews durchgeführt, um diese Frage zu beantworten. Die Ergebnisse dieser Arbeit stellen einen Software-Manager einige Auswahlkriterien zur Verfügung, anhand dessen entschieden werden kann, ob man einen Timeboxing oder einen Non-Timeboxing Ansatz bevorzugt.
In zukunftsgerichteten Klein- und Mittelunternehmen in Österreich spielt das Thema Digitalisierung eine große Rolle. Die Digitalisierung wird als Wandel von Technologien, Prozessen und Arbeitsweisen sowie als Vernetzung von Dingen und Menschen gesehen. Dieser Wandel spiegelt sich in der Weiterentwicklung und der fortschreitenden Schnelligkeit wider. In österreichischen Klein- und Mittelunternehmen (KMU) besteht in Bezug auf den Digitalisierungsgrad noch Aufholbedarf, auch in jenen der IT-Dienstleistungsbranche. Im Unternehmensbereich Betrieb und Tätigkeiten, zu dem auch das Taskmanagement gezählt werden kann, ist die Digitalisierung am wenigsten fortgeschritten. Das Taskmanagement beinhaltet die Erfassung, Verwaltung und Steuerung aller Aufgaben eines Unternehmens. Im Digitalisierungszeitalter ist das Ziel, das Taskmanagement mithilfe von elektronischen und Online-Tools zu realisieren. Die Einführung eines solchen Systems stellt ein Unternehmen vor zahlreiche Herausforderungen. Ziel der vorliegenden Forschungsarbeit war es, Handlungsempfehlungen für die Einführung eines Taskmanagementsystems zu erarbeiten. Diese Handlungsempfehlungen sollen KMU der IT-Dienstleistungsbranche bei der Einführung eines solchen Systems unterstützen. Um die Anforderungen, die in der Praxis bestehen, bestmöglich analysieren zu können, wurde die Methodik einer qualitativen Fallstudie in einem ausgewählten KMU der IT-Dienstleistungsbranche angewandt. Der Gegenstand der Fallstudie war die Einführung eines Taskmanagementsystems in den laufenden Betrieb. Aus den gewonnenen Erkenntnissen im Rahmen der Fallstudie konnte abgeleitet werden, dass sich die Handlungsempfehlungen vor allem auf die Bereiche Mitarbeiterinnen und Mitarbeiter, Führungsstile, Prozesse und Schulung beziehen. Die Ergebnisse zeigen, dass nur eine Kombination aus technischer und Managementsicht zu einem erfolgreichen Aufgabenmanagement führen kann und dass eine einseitige Betrachtung nicht sinnvoll ist. Es ist empfehlenswert, die betroffenen Personen möglichst früh in den Projektverlauf miteinzubeziehen, um die unterschiedlichen Führungsstile und Bedürfnisse der verschiedenen Unternehmensbereiche bestmöglich in die Anforderungsdefinition mit aufnehmen zu können. Weiters ist es ratsam, bei der Einführung eines Taskmanagementsystems der Anpassung der Unternehmensprozesse und der regelmäßigen Schulung einen großen Stellenwert beizumessen. Durch dieses Zusammenspiel unter Berücksichtigung der technischen Anforderungen des Digitalisierungsprozesses kann ein funktionierendes Taskmanagement in einem KMU der IT-Dienstleistungsbranche etabliert werden.
Dass durch Social-Media Einkommen generiert werden kann, ist schon lange kein Geheimnis mehr. Vor allem streben viele Nutzer und Nutzerinnen nach passivem Einkommen. In dieser Masterarbeit soll geklärt werden, über welche Wege es möglich ist, passives Einkommen mithilfe der Social-Media zu lukrieren. Dafür werden in einem ersten Schritt die Begriffe Social-Media, Web 2.0 und Content-Creator definiert und erklärt. Danach werden die verschiedenen Social-Media-Plattformen vorgestellt und erläutert. Anschließend werden Marketingkonzepte dargelegt, wobei vor allem auf digitales Marketing eingegangen wird. Des Weiteren wird aufgezeigt, wann Einkommen als aktiv oder als passiv gewertet wird und welche Wege aus der Theorie zu dessen Generierung eingeschlagen werden können. Zusätzlich werden verschiedene Partnerprogramme vorgestellt und es wird dargelegt, wieviel damit verdient werden kann. Im Praxisteil dieser Arbeit wird eine multiple Fallstudie durchgeführt. Um die Untersuchungsobjekte vergleichbar zu machen, wird die Value Proposition Canvas eingesetzt. Es wird aufgezeigt, welche Bereiche in dieser Masterarbeit wie umgesetzt werden. Danach werden die Untersuchungsobjekte ausgewählt und vorgestellt. Zusätzlich werden die Personas kreiert, die als Kunden und Kundinnen den Untersuchungsobjekten gegenübergestellt werden. Anschließend wird die multiple Fallstudie durchgeführt und die Untersuchungsobjekte analysiert. Die Ergebnisse werden zusammengefasst und der Theorie gegenübergestellt. Dabei konnten mehrere Wege zum passiven Einkommen über Social-Media identifiziert werden. Vor allem Affiliate Links, YouTube, Twitch, Patreon, Merch und Content, der digital vervielfältigt werden kann, wurden in der Praxis von den Untersuchungsobjekten eingesetzt, um passives Einkommen zu generieren.
Diese Arbeit befasst sich mit dem Vergleich von unterschiedlichen Machine Learning Verfahren zur Ermittlung ähnlicher Bilder im Kontext einer Suche nach ähnlichen Produkten in E-Commerce Lösungen. Die Motivation liegt dabei in der Evaluierung möglicher Verfahren für den Einsatz in einem Produktivsystem. Das Ziel ist es, das geeignetste Verfahren bezogen auf einen spezifischen Anwendungsfall zu ermitteln. Konkret werden drei Verfahren in einer Basisvariante umgesetzt und mit geeigneten Metriken evaluiert. Ein bestehendes Datenset an realen Produktbildern wird zu Evaluierungszwecken verwendet. Kein Ziel dieser Arbeit ist es, die jeweiligen Verfahren soweit zu optimieren, sodass diese die jeweils bestmöglichen Ergebnisse zurückliefern. Auf Basis eines Experiments werden die zuvor recherchierten Verfahren anhand des Anwendungsfalles einer Suchfunktionalität nach ähnlichen Produkten evaluiert. Es kommen dabei unterschiedliche Evaluierungsmetriken zum Einsatz. Als Hauptevaluierungsmetrik der Verfahren wird die Mean Average Precision@K verwendet. Transfer Learning mit einem vortrainierten VGG16 Modell und darauf angewandtes FineTuning liefert in Bezug auf diese Metrik die besten Ergebnisse. Dahinter landet das Autoencoder Verfahren. Das Siamese Network Verfahren liefert im direkten Vergleich mit den beiden anderen die schlechtesten Ergebnisse. Dennoch eignen sich alle drei Verfahren für den untersuchten Anwendungsfall, sodass im Schnitt mindestens 50 Prozent der Suchergebnisse innerhalb der top fünf Ergebnisse relevant sind. Für einen potenziellen Einsatz in einer Produktivumgebung wäre es trotzdem erforderlich und empfehlenswert, weitere Optimierungen der dahinterliegenden Modelle vorzunehmen. Passend zur Hypothese haben die Experimente bestätigt, dass Transfer Learning trainiert mit den Bildern aus dem gegebenen Datenset bessere Ergebnisse ermöglichen kann. Weitere Forschungstätigkeiten umfassen die Optimierung der Verfahren und des Datensets sowie die Evaluierung weiterer, alternativer Verfahren beziehungsweise Kombinationen davon, die nicht Teil der vorliegenden Arbeit sind.
Das Unternehmen XAL GmbH entwickelt, produziert und vertreibt Leuchtensysteme, die aus einem Aluminiumstrangpressprofil als Leuchtengehäuse bestehen. Bisher wurden ausschließlich gerade Profilsysteme hergestellt. Diese Tatsache schränkt jedoch den kreativen Gestaltungsfreiraum der ArchitektInnen und LichtplanerInnen ein. Das Ziel der Masterarbeit für die XAL GmbH lag darin, eine Lösung für ein gebogenes Leuchtenprofil zur Herstellung individueller Deckenbilder zu erarbeiten. Die Auswahl eines passenden Fertigungsverfahrens für das Biegen eines Strangpressprofils wurde durch Gegenüberstellung mehrerer Verfahren durchgeführt. Eine Simulation des Biegeprozesses mit ANSYS® WorkbenchTM ergab die ideale Profilkontur für den Biegevorgang. Das Ergebnis der Nutzwertanalyse zeigte, dass das Rollbiegeverfahren die optimale Art zur Fertigung des gebogenen Profils darstellt. Die Simulation zeigte auf, dass ein schlankes Profil ohne aufwendige Konturen für den Biegeprozess am besten geeignet ist. Durch die Arbeit konnte ein fundiertes Wissen zur Auslegung von Strangpressprofilen für den Biegevorgang erlangt werden. Aufgrund der Auswahl des Fertigungsverfahrens Rollbiegen stehen dem Unternehmen nun mehr Möglichkeiten bei der Produktrealisierung zur Verfügung. Mit der Entwicklung eines gebogenen Leuchtensystems kann sich das Unternehmen noch stärker am Markt positionieren.
Aufgrund des enormen Wachstums des elektronischen Handels (E-Commerce) im chinesischen Markt steigt die Nachfrage an automatisierten und flexiblen Distributionszentren. Um den dynamischen Marktanforderungen und Herausforderungen des chinesischen Marktes erfolgreich zu entsprechen, bedarf es einer effizienten Konzepterstellung in der Vertriebsphase seitens der Fa. KNAPP AG. Ziel der Arbeit war es, ein Konzeptionierungstool zu erstellen, in dem anhand der Eingabe von wenigen Kundendaten, die Lösung des zu dimensionierenden Distributionszentrums automatisch berechnet wird. Dabei wurden jene Lager- und Kommissionierbereiche im Auslegungstool berücksichtigt, die aufgrund der strategischen Ausrichtung der Fa. KNAPP AG auf das chinesische Marktgebiet umgesetzt werden sollen. Die Durchführung der Arbeit erforderte neben den Berechnungsgrundlagen der Distributionslogistik sowie der Dimensionierung von Lager- und Kommissionierbereichen, die Auswahl einer geeigneten Anwendungsapplikation anhand einer Nutzwertanalyse. Die Umsetzung des Auslegungstools erfolgte im Microsoft Excel in Kombination mit der Skriptsprache VBA (Visual Basic for Applications). Dadurch kann eine ressourcenschonendere und transparentere Ausarbeitung des Konzeptes erzielt werden. Zusätzlich werden mithilfe des Auslegungstools kundenrelevante Anforderungen wie das Vollzeitäquivalent und der erforderliche Platzbedarf berechnet. Zusammenfassend ist hervorzuheben, dass sich mithilfe dieser umgesetzten Methode eine effizientere Konzepterstellung erzielen lässt. Gegenüber der konventionellen Konzeptionierung können 4 reguläre Arbeitstage eines Mitarbeiters eingespart werden.
Stadion-Apps, welche das Fanerlebnis bei Live-Sportevents bereichern sollen, sind vor allem in den High-End-Arenen der Amerikanischen Major-Sportligen ein etabliertes Konzept. In Zeiten der zunehmenden Digitalisierung und Vernetzungen rückt die Idee eines „Connected-Stadion“ auch in Europa immer mehr in den Fokus. In Europa ist Fußball der populärste Sport mit den größten Stadien, weshalb eine potentielle Stadion-App auf die Bedürfnisse von Fußballfans angepasst werden muss. Das Ziel dieser Arbeit ist es, den Aufbau einer Stadion-App für die Bedürfnisse des Fußballs zu evaluieren, sodass eine Akzeptanz bei den Fans erzielt und gleichzeitig auch Ertragspotentiale ausgeschöpft werden können, um einen wirtschaftlichen Betrieb der App zu gewährleisten. Für diesen Zweck wurden 29 potentielle Services durch eine Literatur-Recherche definiert, welche in einer empirischen Studie auf deren Akzeptanz bei den Fans, deren Potential zur Steigerung der Fanmotivation und deren Ertragspotentiale untersucht wurden. Das Ergebnis der Studie ergab, dass die Akzeptanz für eine Stadion-App bei einem Großteil der Fans vorhanden ist, nicht jedoch bei Fans mit regelmäßigen Stadionbesuchen. Während Fans mit weniger als vier Stadionbesuchen im Jahr die größte Akzeptanz und folglich auch das größte Potential zur Steigerung der Fanmotivation zeigen, sind Fans mit vier bis acht Stadionbesuchen im Jahr die größten Potentiale für eine direkte Monetarisierung. Die Arbeit liefert anhand der Ergebnisse Empfehlungen, welche Services wann in einer Stadion-App sinnvoll sind und wie die vorhanden Potentiale am besten ausgeschöpft werden können. Um die Wiederverwendbarkeit einer Stadion-App zu erhöhen, können die Ergebnisse dieser Arbeit herangezogen werden, um einen Standard zu entwickeln, welcher in mehreren Stadien, bei unterschiedlichen Veranstaltungen (andere Sportarten, Konzerte, etc.) oder auch in anderen Locations (Konzerthallen, Messen etc.) verwendet werden kann.
In den letzten Jahren ist ein stetiger Anstieg des Stellenwertes von agiler Softwareentwicklung zu beobachten. Im Speziellen ist Scrum eines der bedeutendsten und populärsten Frameworks für das Management agiler Entwicklungen. Im Zuge der agilen Entwicklung und auch im klassischen Projektmanagement, spielt das Team für die Entwicklung eine der größten Rollen. Dies führt dazu, dass auch die Strukturierung dieser Teams eine wesentliche Aufgabe spielt, da die Ressourcen meist knapp sind und die Arbeit der Teams eine möglichst hohe Effizienz aufweisen soll. In dieser Arbeit werden die gängigen klassischen, als auch die agilen Teamstrukturen vorgestellt und verglichen. Ergänzend dazu, werden einige agile Skalierungs-Frameworks betrachtet. Daraus resultierend, werden zwei Teamstrukturen in dieser Arbeit vorgestellt. Zum einen handelt es sich um Projektteams und zum anderen um Produktteams. Beide dieser Teams sollen eine effiziente Umsetzung im Unternehmen ermöglichen. In dieser Arbeit werden dazu Kriterien aufgezeigt, welche für die Entscheidung der Auswahl der Teamstruktur ausschlaggebend sind. Daraus resultieren wiederum Handlungsempfehlungen, welche sich an SoftwaremanagerInnen richten. Diese Handlungsempfehlungen zeigen, dass es möglich ist, aufgrund diverser Kriterien die Auswahl der Teamstruktur zu treffen. Letzten Endes gilt es jedoch die Vor- und Nachteile, welche sich durch die Teamstrukturen ergeben, zu priorisieren. Die Bildung der Teams soll somit, wie auch die agilen Methoden selbst, ein iterativer Lernprozess sein.
Um den steigenden Bedarf an IT-ExpertInnen, welcher durch die Digitalisierung von Geschäftsprozessen verstärkt auch in Unternehmen zum Tragen kommt, deren Kerngeschäft nicht im Bereich IT oder Softwareentwicklung liegt, entgegenzuwirken, setzt die ANDRITZ Gruppe seit 2018 Mendix als Low-Code bzw. No-Code Plattform ein. Durch den Einsatz solcher Plattformen, mit denen Softwarelösungen von nicht IT-Experten direkt in der Fachabteilung umgesetzt werden können, ergeben sich jedoch neue Herausforderungen betreffend der Zusammenarbeit zwischen IT- und Fachabteilung. Ziel dieser Arbeit ist es daher, Strukturen zur modellgetriebenen Softwareentwicklung in einem international verteilten Team, bestehend aus IT-ExpertInnen und MitarbeiterInnen der Fachabteilungen, zu etablieren, um Softwareprojekte effektiv über Abteilungsgrenzen hinweg umzusetzen. Dazu wurden anhand einer Literaturrecherche entlang des Software-Lebenszyklus Einflussfaktoren identifiziert, welche die effektive Zusammenarbeit in einem dezentralen Team beeinflussen können. Um diesen Faktoren je nach Projektsituation individuell begegnen zu können, wurde ein eigener Servicebereich innerhalb der ANDRITZ IT etabliert welche sämtlichen Tätigkeiten rund um das Thema Rapid Application Development (RAD) steuert. Kern dieses Servicebereichs ist ein Center of Excellence (CoE), welches die zentrale Steuerungs- und Koordinationsaufgabe übernimmt und je nach Projekt entscheidet, welche Umsetzungsmethoden, Werkzeuge und Rollen für eine erfolgreiche Umsetzung benötigt werden. Nach einer Einführung in die für diese Arbeit relevanten Theorietischen Grundlagen wird das ANDRITZ RAD CoE und dessen Aufgaben detailliert beschrieben. Im empirischen Teil dieser Arbeit wird der Einsatz des CoE an einem real durchgeführten Projekt innerhalb der ANDRITZ Gruppe getestet und anschließend mittels ExpertInneninterviews eruiert, ob sich die entwickelte Vorgehensweise für den praktischen Einsatz eignet oder ob Anpassungen durchgeführt werden müssen.
Menschen sind soziale Wesen, wir brauchen soziale Interaktionen, um ein gesundes Leben und einen gesunden Geist zu erhalten. Social Media ist in den letzten Jahren enorm gewachsen und wird vermehrt zur Kommunikation genutzt. Dadurch ergeben sich auf diesen Plattformen auch häufiger Konflikte. In dieser Arbeit wird im Speziellen das Posting-Verhalten der Nutzer*innen von Social Media im Zusammenhang mit den strafrechtlichen Auswirkungen untersucht. Als Basis dieser Forschung wurde zu den drei Themenbereichen der digitalen Kommunikationsplattform, des psychosoziologischen Verhaltens der Menschen in Bezug auf die Kommunikation miteinander und in Bezug auf die neue Technologie sowie der juristischen Auslegung und deren strafrechtliche Konsequenzen in Bezug auf Social-Media eine explorative Literaturrecherche durchgeführt. Zur Datenerhebungen wurde eine bestimmte Zielgruppe von Facebook-User*innen mit langjähriger Social-Media-Erfahrung interviewt. Es wurde ein Leitfadeninterview durchgeführt, welches wiederum mittels einer Inhaltsanalyse ausgewertet wurde. Die Ergebnisse zeigten, dass die Aufklärung und die beispielhafte Erläuterung der gesetzlichen Lage nahezu keine Beeinflussung auf das Posting-Verhalten der Nutzer*innen hatten. Konflikte wurden von den Befragten im Social-Media-Bereich wahrgenommen, jedoch nicht selbst erlebt. Deswegen wird eine gesetzliche Regelung und auch deren Anpassung befürwortet. Außerdem konnte daraus schlussgefolgert werden, dass bei bedachter und nicht aggressiver Nutzung von Social-Media Konflikte vermieden werden können.
Diese wissenschaftliche Arbeit wurde als Abschlussarbeit des Studiengangs IT & Wirtschaftsinformatik an der FH Campus02 in Graz erstellt. Sie handelt von den Möglichkeiten der Auswertung und Darstellung von Daten aus IT-Systemen, welche entlang eines zentralen Verkaufsprozesses entstehen. Als praktisches Beispiel wird der Angebotsprozess des Geschäftsbereiches Instrumentation & Test Systems der AVL List GmbH in Graz herangezogen. Die Nutzung von vorhandenen Daten für das eigene Vorankommen und die eigene Positionierung am Markt hat mittlerweile in vielen Betrieben Einzug gehalten und ist – sowohl als Entscheidungsgrundlage für das Management, als auch für die eigene Auswertung in mittleren Führungsebenen – nicht mehr wegzudenken. Der theoretische Teil dieser Arbeit erklärt, was Daten sind, wie sie zustande kommen und wie sie mittels Datenauswertung auch für Entscheidungen genutzt werden können. Der praktische Teil der Arbeit befasst sich mit einem Prozessabschnitt der AVL List GmbH aus Graz, die entlang ihrer CRM-, CPQ- und ERP-Systeme Datenauswertungen schon betreibt beziehungsweise Projekte initiiert, die die Nutzung bestehender strukturierter Daten sowie die Strukturierung von unstrukturierten Daten vorantreiben. Es wird erklärt, wie die AVL bestehende Daten nutzt beziehungsweise welche Projekte konkret im Entstehen sind, um neue Datenquellen zu erschließen.
Blockchain
(2020)
Die Papierindustrie ist eine hoch effiziente Branche und ein wichtiger Bestandteil der österreichischen Wirtschaft. Durch regulatorische Maßnahmen und die öffentliche Diskussion von Umweltfragen, wird der Papierindustrie eine noch bedeutendere Rolle zugeschrieben. Durch die Verarbeitung des Rohstoffes Holz ist die Papierindustrie eng mit der Forstindustrie verknüpft. Dadurch sieht sich auch dieser Industriezweig mit Umweltfragen konfrontiert, die vor allem über das Thema „nachhaltige Forstwirtschaft“ diskutiert wird. Durch das Aufkommen des Blockchain Hypes wurde in den letzten Jahren auch oft ein potentieller Use Case für die Papier- und Forstindustrie überlegt, der genau in die Kerbe des Themas „Nachhaltigkeit“ schlägt. So sollte die Herkunft von Holz entlang der Supply Chain zur Produktion eines Papierprodukts, in einer Blockchain, gespeichert werden. Doch macht diese Anwendung auch wirklich Sinn? Im Rahmen dieser Arbeit werden die grundlegenden Eigenschaften einer Blockchain erläutert und der aktuelle technische Stand der Forschung in der Blockchain Technologie recherchiert. Anschließend wird der Prozess zur Erzeugung von Baum zu Papier entlang der Supply Chain der beteiligten Stakeholder beschrieben. Daraus wird ein grober Anwendungsfall spezifiziert, der auf die Tauglichkeit zur Verwendung in einem Blockchain Netzwerk geprüft wird. Zur genaueren Spezifikation des Anwendungsfalls wurden Experteninterviews durchgeführt und daraus Vorteile, Nachteile und Hindernisse des Blockchain Anwendungsfalls diskutiert. Die Erkenntnisse der Arbeit zeigen auf, dass ein Blockchain Netzwerk in Kombination mit dem Anwendungsfall zwar geeignet ist, es in der digitalisierten Umsetzung zur Zurückverfolgung von Holz und der Schaffung einer Blockchain fähigen Anwendung allerdings noch Probleme gibt. Die Weiterentwicklung und Digitalisierung der Zurückverfolgung bedarf noch Investition in der Schaffung weiterer, verbesserter Lösungen.
Das Ziel dieser Masterarbeit ist es, das Grundkonzept eines Smart Homes anhand eines konkreten Beispiels zu erstellen und das ganze System auf einem Raspberry Pi zu implementieren. Ein Smart Home kann basierend auf mehreren Kommunikationsprotokollen erstellt werden. Die Masterarbeit hat gezeigt, dass ZigBee, welches im Jahr 2002 entwickelt wurde, eines der geeignetsten Kommunikationsprotokolle für Smart Homes ist. Ein ZigBee-Netzwerk erfordert die Verwendung eines zentralen Koordinators zur Steuerung des gesamten Netzwerks. Eine der Einschränkungen eines ZigBee-Netzwerks besteht darin, dass jedes Gerät nur mit dem von dem Hersteller unterstützten Koordinator arbeiten kann. Mit dem CC2531 USB-Stick und der Software Zigbee2MQTT, die von Texas Instruments entwickelt wurde, kann ein eigener Koordinator erstellt werden, mit welchem jedes Gerät, welches von der Software unterstützt wird, verbunden werden kann. Die Verwaltung eines Smart Homes ist über Hausautomationsplattformen möglich. Das Projekt der Masterarbeit konzentriert sich auf die zwei Plattformen, Domoticz und Home Assistant, die von der Zigbee2MQTT-Software unterstützt werden. Im Rahmen dieser Arbeit werden der Installationsprozess beider Plattformen und der Betrieb des Systems am Beispiel von vier ausgewählten ZigBee-Geräten demonstriert.
Cryptocurrency brokers offer price quotations to investors for a set period. The investor can decide whether to accept the offer while the quote remains open. The broker bears a risk of the price changing while the quote is open. To mitigate this risk, brokers add an individual risk premium to the price. This thesis investigates how to improve the risk premium’s precision by using an artificial neural network (ANN) instead of the classical general autoregressive conditional heteroscedasticity (GARCH) model. The thesis opens by describing financial risks, conventional traditional approaches, and the theory of machine learning, in particular neural networks. Subsequently, short-term volatility in the market is explored in terms of volatility prediction with the classical GARCH and ANN approach with a focus on an investor’s purchase process. With the predicted volatility, the risk premium is calculated with the expected short-fall method. This thesis explores BTC-USD, ETH-USD, and ETH-BTC. The risk premium is calculated for a 10-minute quotation period with data from the cryptocurrency exchange Kraken from October 2019 to April 2020. The analysis shows that the ANN approach delivers a more precise volatility prediction and risk premium calculation due to a lower mean square error deviation compared to the GARCH model. However, the ANN has a low explanation of power in the test period. Different volatility cluster phenomena in the short-term data compared to the classical daily basis are also identified.
Machine Learning ist seit vielen Jahren ein aufstrebender Begriff in der IT-Branche. Unabhängig von der jeweiligen Branche werden in nahezu allen Unternehmen, die Produkte oder Services an Kunden vertreiben, Daten über die Kunden im Rahmen des Verkaufsprozesses in diversen Formen gespeichert. Produktempfehlungen oder personalisierte Inhalte sind dabei ein Weg, die Kunden noch direkter und effektiver anzusprechen. Oft verwenden Unternehmen dazu Analysen aus Marketingabteilungen und legen statische Regeln für diese Inhalte fest. Diese Aufgabe kann jedoch auch Machine Learning übernehmen. Dabei sind vor allem bislang unbekannte Zusammenhänge innerhalb der verfügbaren Daten von Interesse. Welche neuen Informationen können mittels automatisierter Analysen gewonnen werden? In dieser Arbeit wurde eine Clusteranalyse von 250.000 anonymisierten Onlinekunden des weltweit zweitgrößten Möbelhändlers, der auch im E-Commerce vertreten ist, mithilfe von Machine Learning Algorithmen vorgenommen. Dazu wurde ein Experteninterview durchgeführt, um die für das Unternehmen interessanten Aspekte der Kunden in die Analyse aufnehmen zu können. Es wurden statische Regeln für eine Einteilung der Kunden erstellt, die im Anschluss mit den Ergebnissen aus der automatisierten Clusteranalyse gegenübergestellt wurden. Nach dem Vergleich mehrerer Ansätze wurde festgestellt, dass der K-means Algorithmus die gestellten Anforderungen für eine anschließende Analyse der Clusterinhalte am besten erfüllen konnte. Die abschließende Analyse der erstellten Cluster hat gezeigt, dass eine Verwendung von automatisch erstellten Segmenten zur Anwendung von Personalisierung machbar ist. Die Gemeinsamkeiten von Kunden innerhalb einzelner Cluster konnten anhand der Daten belegt werden. Darüber hinaus konnten neue, interessante Zusammenhänge aus den Clustern gelesen werden. So hat sich zum Beispiel herausgestellt, dass es nicht die vom Experten genannten Zielgruppen waren, die häufig bestellt oder viel Geld ausgegeben haben.
Mit der immer größer werdenden Abhängigkeit von der Nutzung des Webs – sei es mittels Smartphones, Tablets oder Laptops – steigt folglich auch die Bedeutsamkeit von Web-Applikationen immer mehr an. Aufgrund dieser steigenden Popularität vervielfachte sich parallel zu dieser Entwicklung auch die Anzahl an Frameworks für diverse Programmiersprachen, welche im Zusammenhang mit Web-Applikationen genutzt werden. Um das passende Framework zu finden, gibt es kritische und objektive Kriterien wie Sicherheit, Wartbarkeit, Performance oder „Time to Market“, die ebenso zu beachten sind wie die Zukunftssicherheit und die Modernität der gewählten Frameworks. Durch die Vielzahl an unterschiedlichen Frameworks wird es immer komplexer, schwieriger sowie zeitintensiver, die richtige Wahl zu treffen. Um diese Wahl zu vereinfachen, werden in dieser Arbeit Technologien aus den einzelnen Layern miteinander kombiniert, evaluiert und auf deren Zusammenspiel hin untersucht und bewertet. Weiters wird es zu einer Verbindung zwischen Theorie und Praxis kommen, indem in diesem Arbeitsschritt die im Theorieteil gewonnen Evaluierungskriterien herangezogen und mit der Praxis in Verbindung gesetzt werden.
Diese Masterarbeit widmet sich dem Thema, wie Lerntheorien die Auswahl eines geeigneten technology-enhanced learning Tools beeinflussen. Hierfür wurden im ersten Schritt Eigenschaften von Lehrveranstaltungen analysiert. Dabei fiel die Entscheidung darauf, Eigenschaften anhand der Lerntheorien Behaviorismus, Kognitivismus, Konstruktivismus und Konnektivismus abgeleitet und zu definieren. Durch diese Basis konnten Eigenschaften für Lehrveranstaltungen definiert werden, wodurch sich Lehrveranstaltungen untereinander unterscheiden lassen. Im zweiten Schritt wurden unterschiedliche technology-enhanced learning Methoden und dazu gehörige Anwendungen näher betrachtet. Hier konnte durch Blended Learning bereits eine Hilfestellung gefunden werden, welche technology-enhanced learning Toolgruppen am geeignetsten Erscheinen. Diese Auflistung wurde um den Konnektivismus erweitert, um alle definierten Lerntheorien abdecken zu können. Die daraus gewonnenen Erkenntnisse wurden im dritten Schritt zu einem Entscheidungsmodell kombiniert. Mit Hilfe dieses Modells soll Lehrenden eine Empfehlung gegeben werden, welches technology-enhanced learning Tool ihre Anforderungen unterstützen kann. Im Anschluss wurde dieses Modell durch eine qualitative als auch durch eine quantitative Evaluierung überprüft. Dabei wurden Lehrende der Fachhochschule Campus02 zu dem Modell befragt. Diese Befragungen haben daraufhin ergeben, dass ein Modell, welches nur auf den zuvor definierten Lerntheorien beruht, nicht ausreichend Eigenschaften miteinbezieht. Dadurch können nicht alle Lehrenden das Modell voll nutzen, um damit bestmögliche Ergebnisse zu erhalten. Es könnte aber als Grundlage dienen, um weitere Eigenschaften einzubinden und somit ein komplexeres Modell mit mehr Eigenschaften zu entwickeln.
Die Anforderungen an die moderne Softwareentwicklung sind hoch. Softwareunternehmungen stehen angesichts einer fast schon unübersichtlich großen Anzahl an Methoden und Entwicklungswerkzeugen vor der Herausforderung, die für ihre Anforderungen und Abläufe idealen Prozesse und Werkzeuge zu wählen. Diese Wahl ist essentiell, um die richtige Nische am Markt effizient und langfristig zu bedienen sowie auf Änderungen noch schneller reagieren zu können. Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung von Metriken, um Softwaretestverfahren miteinander vergleichbar zu machen. Ausgehend von der Literatur werden verschiedene Testverfahren beschrieben, analysiert und auf das Vorhandensein von Klassifizierungs- und Kategorisierungsmerkmalen für das Erstellen der Metriken überprüft. Durch die Kombination von Literaturrecherche und ExpertInneninterviews werden diese Ergebnisse Schritt für Schritt verfeinert. Im Anschluss wird eine Bewertungsmatrix erstellt und mit konkreten Werten auf Basis des ExpertInnenwissens angereichert. Diese Masterarbeit legt den Grundstein für weitere Untersuchungen in EntwicklerInnenteams, um dort das Delta zwischen dem Ist-Stand und dem Soll-Stand bei der Verwendung der aktuellen Softwaretests zu ermitteln. Die sich daraus ergebenden Optimierungspotenziale können untersucht und in den jeweiligen Teams umgesetzt werden. Das Feedback der Teams bei der Umsetzung der Optimierungen ist ein weiterer möglicher Untersuchungsgegenstand. Somit ist klar ersichtlich, dass der Vergleich von Testverfahren einen akademischen, aber auch stark praxisorientierten Anwendungsfall darstellt.
This master’s thesis is about post-quantum cryptography. Therefore, it shows how quantum computers differ from traditional computers, what kind of quantum computers do exist, and what strengths they have. But the focus lies on the threat to information security. For this purpose, the paper shows how traditional cryptographic algorithms work and how vulnerable they are against quantum computers. The paper also shows the possible alternatives. This field is called post-quantum cryptography, and these algorithms are resistant against traditional computers and also against quantum computers. In this paper, expert interviews illustrated an outline of the threat and where it is mandatory to react. At least the results are applied to an IT system in the health sector, and it is analyzed how vulnerable it would be against quantum computers.
Das erfolgreiche Einführen eines Business Intelligence Systems (BI) ist eine komplexe Aufgabe, die viele technische wie auch nicht technische Themen in sich vereint. BI ist nicht nur das Darstellen von Zahlen und Fakten. Grundsätzlich haben BI Systeme die Aufgabe die Nutzer in ihren Entscheidungen zu unterstützen. Das System soll im Prozess der effektiven Entscheidungsfindung zu aufkommenden Fragen, Antworten liefern und auch ggfs. Vorhersagen treffen können. Diese Entscheidungsunterstützung kann auf operationaler bis hin zur strategischen Ebene erfolgen und ist in der heutigen Zeit für Unternehmen unerlässlich. Diese Masterarbeit beschäftigt sich mit den Vor- und Nachteilen die der Einsatz von BI & Analytics Tool mit sich bringen. Im Theorieteil dieser Arbeit werden die Begriffe BI & Analytics definiert. Im Anschluss daran werden Literaturerkenntnisse diskutiert, die die Basis für den empirischen Teil dieses Werk bilden. Die Forschungsfrage wird mit Hilfe eines qualitativen Ansatzes beantwortet. Die Experteninnen- und Experteninterviews wurden mit zwölf Personen aus unterschiedlichen Branchen und aus unterschiedlichen Klein- und Mittelbetrieben geführt. Diese Expertinnen und Experten berichten über Ihre Erfahrungen mit BI & Analytics. Die Datenanalyse erfolgte nach der qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass die Einführung und Nutzung eines BI Systems zu einem erhöhten Datenbewusstsein und einhergehend zu einer erhöhten Datenqualität geführt haben. Das Konsumieren von Inhalten „auf Knopfdruck“ ist ein weiterer positiver Aspekt, der in wiederholtem Maße aufgezählt wurde. Die Expertinnen und Experten sprachen aber auch von der anfänglichen Skepsis der BI Nutzer, die es zu adressieren galt und die manch ein BI Projekt auch beinahe hätte scheitern lassen können.
Diese Arbeit beschäftigt sich mit der Anwendung von Data Mining-Algorithmen zur Informationsgewinnung im Softwaresupport. Data Mining-Algorithmen sind Tools der sogenannten „Knowledge Discovery“, der interaktiven und iterativen Entdeckung von nützlichem Wissen. Sie werden eingesetzt, um Daten zu analysieren und über statistische Modelle wertvolle Informationen einer Domäne zu finden. Die Domäne in dieser Arbeit ist der Softwaresupport, jene Abteilung in Softwareentwicklungs-Unternehmen, die Kundinnen und Kunden bei der Lösung von Problemen unterstützt. Meist sind diese Supportabteilungen als Callcenter organisiert und arbeiten zusätzlich mit Ticketsystemen (einem E-Mail-basierten Kommunikationssystem). Zweck dieser Arbeit ist es zu prüfen, inwiefern Data Mining-Algorithmen im Softwaresupport angewendet werden und ob tatsächlich wertvolle Informationen identifiziert werden können. Erwartet wird, Informationen über das Supportverhalten von KundInnen sowie den Einfluss von externen Faktoren wie Wetter, Feiertage und Urlaubszeiten zu entdecken. Die Literaturrecherche dieser Arbeit, beinhaltet unter anderem die Themen Personaleinsatzplanung im Softwaresupport und Data Science (Zusammenfassender Begriff für Data Mining, Data Engineering oder Data-Driven Decision Making, etc.). Im „experimental Setup“ finden Interviews zum Thema Status quo- und Kennzahlen im Softwaresupport mit führenden österreichischen Softwarehäusern sowie eine Fallstudie zur Anwendung eines Data Mining-Vorgehensmodells statt. Letztlich wird in einem Feldexperiment geprüft, ob es mit Data Mining-Algorithmen tatsächlich möglich ist, Informationen für den Softwaresupport zu entdecken. Als Ergebnis dieser Arbeit zählen einerseits die Identifikation von Möglichkeiten, um im Support Kosten zu sparen und Effizienz zu gewinnen und andererseits das Finden von wertvollen Informationen über Abläufe und Zusammenhänge im Support. Die gewonnenen Informationen können in weiterer Folge in den Supportprozess einfließen, um effektivere und effizientere Prozesse zu schaffen. Ein weiteres Resultat des Informationsgewinns ist auch die Qualitätssteigerung von Managemententscheidungen sein.
Da immer mehr Geräte und Benutzer Zugang zum Internet bekommen, muss die Sicherheit von Web Applikationen immer mehr im Blick behalten werden. Besonders bei Authentifizierungsmechanismen steigen die Anforderungen enorm. Passwörter gelten schon länger als unsicher, um ein Benutzerkonto vor unbefugtem Zugriff zu schützen. Die in dieser Arbeit behandelte Spezifikation soll dabei Abhilfe schaffen. Bei dieser Spezifikation handelt es sich um die WebAuthn Spezifikation, welche von der FIDO Alliance entwickelt wurde. WebAuthn wird im Zuge dieser Arbeit auf Schwachstellen von derzeit gängigen Authentifizierungsmechanismen untersucht. Diese bedient sich bewährten kryptografischen Methoden, um Sicherheit für die Authentifizierung zu gewährleiten. Zur Verifizierung eines Authentifizierungsvorganges wird asymmetrische Kryptografie eingesetzt. WebAuthn benötigt Authentifikatoren, um diesen Vorgang durchführen zu können. Diese können FIDO2-zertifizierte Smartphones, Security Token oder biometrische Authentifikatoren sein. Bei der Registrierung einer Benutzerin oder eines Benutzers wird von Authentifikator und Server ein Schlüsselpaar, bestehend aus privatem und öffentlichem Schlüssel, generiert und die öffentlichen Schlüssel zwischen ihnen ausgetauscht. Nun ist es dem Client möglich, sich am Zielsystem mithilfe des registrierten Authentifikators anzumelden. Um Benutzerinnen und Benutzern sowie Entwicklerinnen und Entwicklern zu zeigen, welche Vor- und Nachteile WebAuthn gegenüber herkömmlicher Authentifizierung bietet, wurden bekannte Angriffe recherchiert und auf die WebAuthn Spezifikation ausgeführt. Attacken, welche darauf ausgeführt werden, beinhalten Angriffe, um an Zugangsdaten von Benutzerinnen oder Benutzern zu kommen, Angriffe, welche auf die Übernahme einer Sitzung des Clients abzielen, Angriffe welche nicht technischer Natur sind und Angriffe auf die Authentifikatoren.
Die moderne IT-Welt befindet sich in einem Wandel. Während diverse Branchen in den letzten Jahren ihre Softwaresysteme von On-Premise Lösungen zu Cloud-basierten Systemen umgestellt haben, ist dieser Trend an vielen Herstellerinnen und Herstellern von SCADA Systemen vorbeigegangen. „Supervisory Control and Data Aquisation“ Systeme werden für Überwachung und Steuerung der Automatisierungsprozesse in verschiedensten Bereichen eingesetzt. Aufgrund der speziellen Anforderungen betreffend Software nahe der Prozessumgebungen, können Standardlösungen hier nicht in jedem Fall eingesetzt werden. Der Erfolg von Unternehmen hängt oft, besonders bei Produktionsprozessen, mit dem reibungslosen Ablauf dieser Systeme zusammen. Es liegt daher im Sinn der Sache, die Systeme bestmöglich von externen Einflüssen (z.B. Ausfall der Internetkonnektivität) zu schützen. Die Systeme arbeiten in Steuerungsebenen der Automatisierung und befinden sich meist in dedizierter Infrastruktur. Oft sind diese von der restlichen IT- Landschaft abgeschottet und werden selten bis gar nicht mit Updates oder Wartungen versehen. Gegenteiliges zeigt sich bei modernen Softwaresystemen der Gegenwart: Ständig werden Verbesserungen am Verhalten, neue Funktionen und Qualitätssteigerungen der Software in kurzen Releasezyklen entwickelt. Obwohl dieses Paradigma viele Vorteile für moderne Entwicklungsprozesse bringt, ist es nicht ohne Weiteres auf automatisierungsnahe Software anwendbar. In die IT-Welt ist mit der Frage konfrontiert, ob SCADA Systeme weiterhin auf traditionelle Art und Weise betrieben werden sollen oder in Zukunft die Vorteile von Cloud-Computing auch für SCADA Software benutzt werden kann. In dieser Masterarbeit wird empirisch erforscht, welche Anforderungen an SCADA Systeme gestellt werden. Diese Anforderungen werden in einer Fallstudie mittels Überarbeitung eines bestehendes SCADA Systems umgesetzt. Es soll verdeutlicht werden, dass SCADA Systeme durch Nutzung von Cloud-Services profitieren können.
Agile Softwareprojekte unterliegen den Fixpunkten Kosten und Termin sowie der Variablen des Umfanges der Software. In dieser Arbeit wird beleuchtet wie der zeitliche Aufwand des Umfanges geschätzt werden kann. Die Forschungsfrage dient der Ergründung von Einflussfaktoren und der Erstellung eines standardisierten Prozessmodells. In diesem Zusammenhang wird einerseits erläutert, welche Methoden der agilen Softwareentwicklung existieren und welche Charakteristiken sie haben. Die Methoden der Aufwandsschätzung unterliegen drei verschiedenen Paradigmen. Die Paradigmen sind die Aufwandsschätzungen basierend auf Experten, basierend auf Daten und das hybride Paradigma. Das hybride Paradigma vereint die Vorteile von Aufwandsschätzungen basierend auf Expertenwissen und historischer Daten. Zur Erstellung eines standardisierten Prozessmodelles werden anhand einer Literaturrecherche Einflussfaktoren auf die Aufwandsschätzung ermittelt und anschließend in das Prozessmodell überführt. Es werden unter anderem humane Faktoren, Einsatz neuer Technologien, die Einheit der Aufwandsschätzung und der Testumfang in der Arbeit diskutiert. Diese Einflussfaktoren werden in das Prozessmodell als Eingangsgrößen übernommen, wobei zunächst immer geprüft wird, ob eine ähnliche Softwareanforderung bereits implementiert wurde und damit die Möglichkeit zur Wiederverwendung bestehender Softwaremodule besteht. Das Prozessmodell wird im Unternehmen Pankl Racing Systems AG experimentell eingesetzt und durch Experteninterviews evaluiert. Die Erkenntnisse des Experteninterviews werden in Form eines Fragebogens, der bei der Anwendung des Prozessmodells unterstützt, angewendet. Eine weitere Erkenntnis des Experteninterviews stellt dar, dass die Aufwandsschätzung durch den Einsatz eines standardisierten Prozessmodells verbessert ist. Der erstellte Fragebogen besitzt einen modularen Aufbau, wodurch er von anderen Unternehmen als dem Beispielunternehmen verwendet und adaptiert werden kann.
In der vorliegenden Arbeit wird ein Kosten-Nutzen-Tool entwickelt, welches als Entscheidungshilfe für höhere Anschaffungen in Krankenhäusern fungiert. Bereits vor dem eigentlichen Moment der Entscheidung für oder gegen eine potentielle Investition soll das Tool zum Einsatz kommen, um derartige Einschätzungen erleichtern zu können. Mit Hilfe eines Anforderungs- und Zielkataloges können etwaige Anschaffungen gewichtet und an die jeweilige Entscheidungsstelle mittels Ampelfarbe weitergeleitet werden, wobei ein Farbsystem Orientierung bietet, Neuerungen als „finanzierbar“ (grün) oder „kaum bis bis gar nicht finanzierbar“ (rot) einzustufen. In einem ersten Schritt und damit im Theorieteil werden das Prinzip der Kosten-NutzenAnalyse (KNA) erklärt, die grundsätzlichen Ziele und Vorteile einer solchen Analyse erläutert und die Wirksamkeit von KNAs in Unternehmen veranschaulicht. Im nächsten Kapitel folgen eine Darstellung der allgemeinen IST-Situation in österreichischen Krankenhäusern und ein Einblick in sämtliche Analysen von Risiko-, Wirtschaftlichkeits- und Finanz- bis hin zur Durchführbarkeitsanalyse und sonstigen Bewertungskriterien. Diese ISTSituation zeigt den Nutzen von KNAs in Krankenhäusern auf und rechtfertigt deren Einsatz. Anschließend wird das kooperierende Partnerunternehmen der Arbeit, nämlich die KABEG, vorgestellt und die KNA auf diesen Krankenhausverbund detailliert abgebildet. Durch Experten- und Expertinneninterviews und deren Ergebnisse wird diese IST-Situation im Partnerunternehmen erneut und auf einer anderen Ebene, nämlich jener der Innensicht, nachvollziehbar gemacht. Definierte Anforderungen und Ziele des Partnerunternehmens ergeben dann Beurteilungskriterien, die wiederum in den Bau eines Prototyps fließen, der als Vorlage für eine Web-Applikation dient. Das Kosten-Nutzen-Tool wird fertiggestellt und dem Partnerunternehmen vorgestellt beziehungsweise dessen Vorteile kommuniziert. Anhand einer erneuten Befragung der Anwender und Anwenderinnen wird das entwickelte Tool anschließend im betrieblichen Ablauf getestet und evaluiert. Somit werden die Auswirkungen der Einführung einerseits durch die Bewertung der Anschaffungsanfragen und andererseits mit dem Feedback der Anwender und Anwenderinnen dokumentiert und belegt, was dem langfristigen Nutzen der Implementierung dienen soll. Andrerseits und gleichzeitig beantworten die Ergebnisse dieser ersten Implementierungsstufe die wissenschaftliche Forschungsfrage der vorliegenden Masterarbeit, nämlich: Wie lassen sich qualitative Argumente in einem Tool bewerten, sodass sie in einer Kosten-/Nutzenrechnung zur Entscheidungsfindung als maßgebliche Parameter verwendet werden können.Die vorliegende Arbeit stellt somit nicht nur im konkreten Bedarfs- und Anwendungsfall Lösungen vor, sondern trägt auch in einem größeren Forschungskontext als beispielhaftes und im besten Fall zukunftsweisendes Modell zur kostenoptimierten Modernisierung unter Verwendung digitaler Strategien bei.
Kundenorientiertes Handeln stellt Unternehmen vor immer neue Herausforderungen. Wie erfolgreich Unternehmen sind und wie deren Kunden zufriedengestellt werden können, ist von vielen Faktoren abhängig. Unter anderem ist der Umgang mit der Ressource Information von Bedeutung, so wie die Einbeziehung der Kunden in den gesamten Service-Prozess. Mittels Vorgehensweisen und Methoden, können die Bedürfnisse von Kunden erhoben und berücksichtigt werden. Diese Erkenntnisse ermöglichen es, ein auf Kundenbedürfnisse abgestimmtes Service zu etablieren. Die frühe Kundenintegration hat Einfluss auf die Kundenzufriedenheit, die für die meisten serviceorientierten Unternehmen von hoher Bedeutung ist. Einleitend widmet sich diese Arbeit wissenschaftlichen Grundlagen, die im Kontext dieses Themengebietes relevant sind. Dazu zählen grundlegende Themen im Bereich Service-Engineering, sowie ausgewählte wissenschaftliche Theorien, die für die Etablierung von neuen Services und für das Verständnis von Kundenzufriedenheit relevant sind. In weiterer Folge beschäftigt sich diese Arbeit mit der Erhebung von kundenrelevanten Aspekten für die Entwicklung eines Service-Konzeptes, im Umfeld von gewerblichen Kühl- und Gefriergeräten. Aufbauend auf diesem zu erarbeitenden Service-Konzept wird ein Prototyp und ein Vorgehen entwickelt, die als Grundlage für die weitere Implementierung für das Partnerunternehmen dienen sollen. Grundvoraussetzung für die Konzeption eines neuen Services beziehungsweise eines Prototypen ist die Analyse der Branchenumfeldes und eine Trendanalyse. Diese gesammelten Informationen dienen als Input für den empirischen Teil dieser Arbeit. Die Empirie hat in weiterer Folge jenen Zweck, die kundenrelevanten Funktionen des erweiterten Services zu evaluieren und in den geplanten Prototypen einfließen zu lassen. Aufbauend auf den neu gewonnenen Erkenntnissen und auf Basis des zu entwickelnden Prototypen, kann eine Handlungsempfehlung an das Partnerunternehmen weitergeben werden. Abschließend wird ein Ausblick auf die neu gewonnenen Erkenntnisse und die dadurch entstehenden Möglichkeiten geboten.
Thema der vorliegenden Masterarbeit ist die Betrachtung von Aspekten der Informationssicherheit beim Einsatz von Geräten aus dem Kontext des Internet of Things (IoT) in Unternehmensnetzwerken. Medienberichte und Analysen der letzten Jahre deuten auf frappierende Sicherheitslücken in IoT-Geräten und damit einer, durch die unabhängig davon zunehmende Bedrohungslage im Internet verschärften, Gefährdung der Sicherheit hin. Eine Frage, die sich dabei stellt, ist, ob vorhandene Sicherheitskonzepte für den Einsatz von IoT-Geräten ausreichend sind. Um dies zu beantworten war es notwendig, eine für die Arbeit gültige Definition des sehr abstrakten Begriffs "IoT" zu entwickeln und mögliche Anwendungsbereiche in Unternehmensnetzwerken aufzuzeigen. Darauf folgt eine Beschreibung der grundlegenden Aspekte der Informationssicherheit (Vertraulichkeit, Integrität und Verfügbarkeit) und eine Analyse von Bedrohungen und Angriffen auf Netzwerke. Ausgehend von diesen Erkenntnissen wurde ein Sicherheitskonzept zusammengestellt, welches heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit in Unternehmensnetzwerken beinhaltet. Um ein Konzept unter Berücksichtigung des Einsatzes von IoT-Geräten entwickeln und mit derzeitigen Maßnahmen zu vergleichen, wurden IoT-spezifische Rahmenbedingungen und Angriffe beschrieben. Dabei zeigen sich vor allem Einschränkungen hinsichtlich technischer Ressourcen, Anforderungen an die Skalierbarkeit von Lösungen sowie eigene Angriffsszenarien. Unter Zuhilfenahme von Standards zur Sicherstellung von Informationssicherheit wurde davon ausgehend ein Katalog von erkannten IoT-bezogenen Risiken zusammengestellt. Darauf basiert das vorgeschlagene, verbesserte Modell, welches organisatorische, applikationsbezogene und technische Maßnahmen zur Behandlung dieser Risiken beinhaltet. Dabei zeigt sich, dass nur Teile davon überhaupt durch Weiterentwicklung bestehender Sicherheitsmaßnahmen realisiert werden können, einige Ansätze jedoch neuartig sind und eine Veränderung der Sicherheitsarchitektur in einem Unternehmen notwendig wird. In der Praxis werden dabei insbesondere Mechanismen zur Authentifizierung, Autorisierung und der Sicherstellung des Datenschutzes zur Herausforderung, da dazu derzeit keine universell realisierbaren Konzepte vorliegen. Entsprechend dieser Erkenntnisse ist davon auszugehen, dass heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit nicht ausreichend für einen IoT-Anwendungsfall sind.
Eine Vielzahl an Softwareunternehmen hat sich in den letzten Jahren dem Thema Testautomatisierung gewidmet. Software-Tests auf Basis des User Interfaces bauen auf unterschiedliche Objekterkennungs-Technologien auf, beispielsweise die Identifikation über ID’s der HTML-Elemente oder der grafischen Bilderkennung. Besonders beim Testen moderner Webanwendungen ist Automatisierung naheliegend, denkt man an die Darstellung von Responsive Designs auf unterschiedlichen Bildschirmgrößen und Browsern. Um festzustellen, wie sich die unterschiedlichen Technologien der UI-Objekterkennung auf die Stabilität automatisierter Tests auswirken, wurde anhand praktischer Beispiele die Identifikation unterschiedlicher Elemente näher betrachtet. Aufbauend auf eine Literatur- und OnlineRecherche wurden UI-Objekterkennungs-Technologien vorgestellt und diskutiert sowie Faktoren zur Beurteilung der Stabilität aufgeschlüsselt. Unterschiedliche Vorgehensweisen zur Aufzeichnung der UI-Objekte wurden beschrieben und gegenübergestellt. Die Evaluierung verschiedener Technologien der UI-Objekterkennung verdeutlichte die Unterschiede in der Art der Aufzeichnung unterschiedlicher Elemente. Während die Identifikation der UI-Objekte über XPath durch eine Gewichtung der Pfad-Komponenten gesteuert werden kann, ist besonders der Einsatz von Image Recognition initial mit viel manuellem Aufwand bei der Aufzeichnung der Elemente verbunden. Jedoch sind Technologien wie OCR oder Image Recognition vermehrt für Spezialfälle einzusetzen, wenn etwa durch technische Einschränkungen nicht über ID oder XPath auf UI-Objekte zugegriffen werden kann. Zwar erwähnen immer mehr Hersteller von Testautomatisierungs-Tools Begriff Aritificial Intelligence im Kontext der UI-Objekterkennung, jedoch ist auch heute noch die Durchführung manueller Schritte für die Wartung der automatisierten Tests notwendig. Daher kann die Verantwortung über die Erstellung einfach zu wartender Tests zum aktuellen Zeitpunkt noch nicht an die jeweiligen Tools abgegeben werden, sondern verlangt noch immer Fachwissen und die strukturierte Vorgehensweise erfahrener Anwender. Dennoch bietet die Aussicht auf hybride Lösungen, die sich künstlicher Intelligenz bedienen, eine vielversprechende Zukunft im Bereich der Software-Testautomatisierung.
Durch die stetig wachsende Verbreitung von agilen Methoden, besonders beim Einsatz von Scrum, kommt es immer wieder zu Herausforderungen seitens des Projektmanagements. Alleine die Schwierigkeit, Besprechungen zu koordinieren, stellt das Projektmanagement oft vor Probleme. Noch problematischer sieht es bei der Durchführung von Projekten mit dezentralen Scrum-Teams aus. Speziell bei der Abwicklung agiler Projekte geschieht es immer wieder, dass die grundlegenden Prinzipien der Agilität nicht eingehalten werden. Diese sind jedoch für eine erfolgreiche Projektdurchführung entscheidend. Auf Basis dieser Problemstellung wird das Ziel dieser Arbeit definiert: die Erarbeitung von Handlungsempfehlungen, um dezentralen Scrum-Teams Möglichkeiten zur Einhaltung der Prinzipien des Agilen Manifests aufzuzeigen. Aufgrund der Notwendigkeit unterschiedlicher Betrachtungsweisen wird in dieser Arbeit sowohl auf Literatur als auch auf praxisbezogene Informationen zurückgegriffen. Im ersten Schritt wird dazu eine Literaturrecherche durchgeführt. Hierbei werden Informationen zu Scrum, dem Agilen Manifest und dezentralen Teams gesammelt. Der zweite Schritt besteht aus der Durchführung von Interviews mit ExpertInnen, die über Erfragungen mit Scrum und dezentralen Teams verfügen. Ziel ist die Identifikation der Problemfelder, denen sich dezentrale Scrum-Teams bei der Einhaltung der Prinzipien des Agilen Manifests stellen müssen. Die Erkenntnisse der Experteninterviews werden mit den aus der Literatur gewonnenen Informationen abgeglichen und diskutiert. Im Anschluss wird eine Onlineumfrage erstellt, die dazu dient, die erkannten Problemfelder hinsichtlich gefundener Lösungsmöglichkeiten genauer zu untersuchen. Abschließend werden Handlungsempfehlungen aus den Ergebnissen der Experteninterviews und der Onlineumfrage abgeleitet. Diese umfassen die Bereiche Kommunikation, Team, Teammitglieder, KundInnen, Unternehmen und Scrum. Die resultierenden Handlungsempfehlungen können für die praktische Zusammenarbeit und Projektdurchführung mit dezentralen Scrum-Teams genutzt werden und richten sich sowohl an Entscheider, die für die Zusammenstellung von Scrum-Teams verantwortlich sind, wie auch an die jeweiligen Teammitglieder.
Robotic Process Automation
(2019)
Robotic Process Automation ermöglicht die softwaregestützte Automatisierung von Prozessen, welche über die grafische Benutzeroberfläche durchgeführt werden. Dies geschieht indem sie menschliche Interaktionen mit dem Computer imitiert. Das heißt diese Software ermöglicht die applikationsübergreifende Automatisierung von Mausklicks und Tastatureingaben. Im Zuge dieser Arbeit wird untersucht, wie sich der Einsatz dieser Technologie auf die Durchlaufzeit und Qualität von Prozessen auswirkt. Erweist sich Robotic Process Automation als ein Tool, welches monotone und repetitive Aufgaben übernehmen kann, bleibt den MitarbeiterInnen mehr Zeit für wertschöpfende Tätigkeiten, die deren Qualifikation eher gerecht werden. Zur Beantwortung der Forschungsfrage wurde ein Quasi-Experiment durchgeführt. In diesem wurde der gewählte Prozess einerseits von einem mit dem Prozess vertrauten Probanden und andererseits mittels Workflow-Automatisierung in je zwei zeitlich unabhängig voneinander durchgeführten Versuchen jeweils zehn Mal durchlaufen. Bei diesem Prozess handelt es sich um einen Geschäftsprozess der Magna Steyr Fahrzeugtechnik AG & Co. KG. Konkret geht es dabei um den Import unterschiedlicher Instandhaltungsdokumente in das SAP ERP-System. Das Ergebnis dieser wissenschaftlichen Arbeit ist daher vor allem für Prozesse zum Datentransfer über Applikationsmasken relevant. Das Ergebnis dieses Quasi-Experiments zeigte, dass mit einer Prozessautomatisierung mittels Robotic Process Automation eine Reduzierung der Durchlaufzeit um durchschnittlich 52 Prozent bei mindestens gleich hoher Prozess- und Ergebnisqualität erreicht wird. Diese Arbeit befasst sich nicht mit den Kosten zur Automatisierung von Prozessen und eventueller Einsparungen in dessen Betrieb. In zukünftigen wissenschaftlichen Arbeiten könnte mittels Ermittlung der Total Cost of Ownership untersucht werden ab wann sich der Einsatz von Robotic Process Automation im Unternehmen bezahlt macht und zu Einsparungen führt.
Die Themen Nachhaltigkeit und Diversität nehmen nach und nach immer eine stärkere Rolle im Denken und auch Handeln der Menschen ein. In einer freien kapitalistischen Marktwirtschaft, in welcher einer der großen treibenden Kräfte die Konkurrenz ist, gilt es daher auf die neue Situation im Bereich der Nachfrage einzugehen und das entsprechende Angebot zu schaffen. Aber auch die sozialen Aspekte zur Festigung gesellschaftlicher Akzeptanz dürfen dabei nicht zu kurz geraten, denn es ist schon lange nicht mehr genug nur dem eigenen Kerngeschäft nachzugehen und weder nach links noch nach rechts zu blicken. Man agiert schließlich auf demselben Planeten und in derselben Umwelt wie alle anderen Bewohnerinnen und Bewohner dieser Welt auch. Die hohe Relevanz von Nachhaltigkeit haben auch bereits einige Regierungen erkannt. So beispielsweise das europäische Parlament, welches mittels der Richtlinie für nicht finanzielle Informationen (NFI-RL) bereits ein Zeichen im Sinne der Nachhaltigkeit gesetzt hat. Dieser folgend wurde auch österreichisches Recht in Form des Nachhaltigkeit- und Diversitätsverbesserungsgesetzes (NaDiVeG) daraus. In diesem Sinne zeigt die vorliegende Arbeit auf, wie wichtig die Themen Nachhaltigkeit und Diversität für die Wirtschaft, insbesondere für die österreichische, sind und dass diese für eine langfristige Existenz und einen langfristigen Erfolg nicht mehr wegzudenken sind. Um dies zu prüfen, wurde auf der einen Seite eine quantitative Umfrage mit 149 Teilnehmerinnen und Teilnehmern durchgeführt, im Zuge welcher das Bewusstsein für Nachhaltigkeit sowie das eigene Verhalten in diesem Kontext abgefragt wurden. Auf der anderen Seite wurden drei Experteninterviews mit Vertretern in der Steiermark agierender Unternehmen geführt. Es zeigt sich deutlich welchen großen Einfluss die Themen Nachhaltigkeit und Diversität auf den langfristigen wirtschaftlichen Erfolg von Unternehmen haben.
Marketing hat sich in den letzten Jahren zunehmend neue, vernetzte Medienkanäle zunutze gemacht, um sowohl effizienter als vor allem auch effektiv beim Ansprechen der Zielgruppen zu sein. Content Marketing und Influencer Marketing bieten diese Möglichkeit. Es bildete sich das Phänomen des Influencers, dessen Geschäftsmodell untersucht werden soll. Die Forschungsfrage „Was sind Best Practices und Methoden, um mit Content Marketing auf YouTube längerfristig erfolgreich zu sein?“ soll beantwortet werden. Die Arbeit hat sich das Ziel gesetzt, Influencer Marketing und der damit assoziierten Marketingdisziplinen wie dem Content Marketing und dem viralen Marketing zu erforschen, um daraus Erfolgskriterien und Best Practices extrahieren zu können. Diese sollen als Unterstützung dienen, möchte man Videoinhalte für YouTube erstellen und veröffentlichen. Hierbei handelt es sich um eine theoretische, wissenschaftliche Masterarbeit basierend auf einer Literaturrecherche und einer Fallstudie. Dem Konsumenten der Inhalte muss Mehrwert geboten werden. Dies kann in Form von Unterhaltung, Nützlichkeit, kostenloser Bereitstellung oder der einfachen Übertragbarkeit von Inhalten geschehen. Der Nutzen kann sich auch aus Kombinationen dieser Faktoren zusammensetzen. Auch die hohe Qualität der Inhalte sowie Kreativität gilt es beim Erstellen von Content für YouTube zu beachten. Dabei erhöht sich die Chance auf den viralen Effekt und die damit verbundene große Reichweite der Inhalte. Auch bei Online Communitys und sozialen Netzwerken erhöht sich dadurch die Chance auf Multiplikationen, was wiederum zu einer höheren Gewichtung des eigenen Contents durch den YouTube Algorithmus führt. Diese Erfolgsfaktoren wurden mithilfe der Fallstudie bewiesen. Auch das Geschäftsmodell für Influencer wurde anhand des Business Model Canvas erarbeitet und zusammengefasst.
Aufgrund der Bedrohungen des Klimawandels wurde in den letzten Jahren weltweit nach Lösungen für umweltfreundlichere Energie gesucht. Mit der Entwicklung erneuerbarer Energiequellen scheint ein guter Ansatz gefunden worden zu sein, um Elektrizität zu erzeugen. Die damit einhergehenden Herausforderungen sind die dezentrale Positionierung und die Volatilität der zukünftig hohen Anzahl von Wind- und Solarerzeugungsanlagen. Eine Folge dessen ist eine hohe Beanspruchung der Verteilnetze und damit auch die Notwendigkeit effizienterer Energienutzung. Im Jahr 2009 wurde daher auf europäischer Ebene beschlossen intelligente Stromnetze, sogenannte „Smart Grids“ und intelligente Stromzähler, sogenannte „Smart Meter“ einzusetzen, um die Energieversorgung durch die Nutzung von Internet- und Kommunikationstechnologien zu unterstützen. In Österreich wurde in Folge dessen im Jahr 2010 das Elektrizitätswirtschafts- und -Organisationsgesetz entworfen, welches gemeinsam mit weiteren Beschlüssen der Gesetzgebung den österreichischen Weg für effizientere und transparentere Energieversorgung vorgibt. Heute, im Jahr 2019, stehen die österreichischen Netzbetreiber mitten in der Umbauphase in der das Netz für die Verwendung der Smart Meter vorbereitet und die bisher eingesetzten mechanischen Zähler durch die neuen intelligenten Messgeräte ersetzt werden. Durch den fortgeschrittenen Status des Smart Meter-Rollout konnten Netzbetreiber und Energielieferanten bereits Erfahrungen sammeln, die Aufschluss über die tatsächlichen Auswirkungen auf den Energiemarkt geben können. Die vorliegende Arbeit zeigt die wirtschaftlichen Auswirkungen von Smart Metering auf und analysiert diese. Das Ziel ist es herauszufinden welche Kosten durch die Einführung von Smart Metering für Energieversorgungsunternehmen, und damit in weiterer Folge für Konsumenten, entstehen und mit welchen marktrelevanten Änderungen aus heutiger Sicht aufgrund des Betriebes von Smart Metering zu rechnen ist.
Besonders im Bereich der Informationstechnologie herrscht eine immerwährende Weiterentwicklung. Neue Technologien oder Vorgehensweisen bringen jedoch neben Verbesserungen jedoch meist auch neue Sicherheitsrisiken mit sich. Um ein einheitliches Sicherheitsniveau bei der Verarbeitung von personenbezogenen Daten im europäischen Raum zu schaffen, wurde die Datenschutz-Grundverordnung (DSGVO) erlassen. Am 25. Mai 2018 ist die DSGVO in Kraft getreten und ein Großteil der Unternehmen musste technische und organisatorische Maßnahmen zur DSGVO Konformität ergreifen. In dieser Masterarbeit wurde die Sammlung von Methoden und Vorgehensweisen zur bestmöglichen Umsetzung der durch die DSGVO vorgeschriebenen Anforderungen behandelt. Daher lautet die Forschungsfrage: „Wie können Klein- und Mittelunternehmen vorgehen um ihre IT-Infrastruktur an die notwendigen Voraussetzungen der Datenschutz-Grundverordnung anzupassen?“. Um die Forschungsfrage zu beantworten, wurde zunächst in der DSGVO bezüglich relevanten Aspekten und wichtigen Vorschriften recherchiert. In einer Zusammenfassung aller wichtigen Bereiche wird ein grundlegendes Wissen zur DSGVO vermittelt. Um Informationen aus der tatsächlichen Praxissituation zu erhalten, wurden fragebogengestützte Experteninterviews mit zehn Datenschutzexperten aus verschiedenen Unternehmen und Tätigkeitsbereichen durchgeführt. Anhand der Ergebnisse aus der Literaturrecherche und den Antworten aus den Experteninterviews wurde eine Best Practice Checklist zur Maßnahmenkontrolle erstellt. Mittels der in dieser Masterarbeit angeführten Informationen sowie der Unterstützung durch die erstellte Best Practice Checkliste werden Unternehmen bzw. Datenschutzverantwortliche bei der Umsetzung der DSGVO-Maßnahmen unterstützt.
Das Ziel dieser Arbeit ist die Schaffung eines neuen Vorgehensmodelles, um agil entwickelte Projekte einfach und effizient übergeben zu können. Daher beschäftigt sich die Arbeit mit der Beantwortung der Frage „Welche Aspekte sind als zentrale Einflussfaktoren zu berücksichtigen, wenn die Weiterentwicklung eines agil umgesetzten Projektes in einem anderen Team stattfinden soll, welches noch über keine bestehende Entwicklungsumgebung und nur begrenztes Know-how verfügt?“. Um diese Frage beantworten zu können, wird zuerst ein grober Überblick über mögliche Modelle zur Entwicklung von Software gegeben. Der Fokus hierbei liegt auf den agilen Methoden. Ausgehend von dem agilen Manifest und den ausgewählten Praktiken wird ein allgemeiner Prozess anhand des Software-Lebenszyklus beschrieben. Aufbauend auf die Beschreibung der einzelnen Phasen des Software-Lebenszyklus wird der Ansatz der kontinuierlichen Integration von Software vorgestellt und beschrieben. Mit Hilfe der theoretischen Grundlagen werden anschließend die Einflussfaktoren entlang des Software-Lebenszyklus identifiziert, kategorisiert und beschrieben. Die einzelnen Einflussfaktoren münden in eine Liste mit Risikobewertung und möglichen Werkzeugen und bilden damit das neue Vorgehensmodell. Das neue Modell wird, nach einer kurzen allgemeinen Beschreibung des Unternehmens inklusive genereller Arbeitsweise, einem Praxistest unterzogen. Dies geschieht, indem ein bereits bestehendes, agil entwickeltes Projekt mit Hilfe des neuen Modells in ein neu geschaffenes Team übernommen wird. Im Zuge der praktischen Anwendung wird grob gezeigt wie das Modell eingesetzt werden kann und die Ergebnisse werden dokumentiert. Abschließend wird eine Übersicht der Ergebnisse in Form einer Tabelle gegeben, welche die einzeln getroffenen Entscheidungen zeigt, bewertet wie erfolgreich die einzelnen Einflussfaktoren im Zuge der Übernahme abgedeckt werden können und angibt, welche Folgeschritte geplant sind.
Unternehmen stehen vor der Herausforderung eine Vielzahl an Informationen den Mitarbeitern und Mitarbeiterinnen zur Verfügung zu stellen. Zu diesem Zweck haben sich bereits unterschiedliche Softwarelösungen etabliert. Nachteilig sind in diesem Verfahren zwei Aspekte. Einerseits sind die Informationen so aufzubereiten, dass diese auch einfach abgerufen werden können. Andererseits haben die Anwender und Anwenderinnen die Bedienung einer Software zuerst zu erlernen. Chatbots ermöglichen es, Informationen durch die Verwendung der natürlichen Sprache aufzufinden. Zum Kennenlernen dieser Technologie, erfolgt die Entwicklung eines ChatbotPrototyps. Dieser setzt AIML-Dokumente und den Multinomialen Naive Bayes Algorithmus ein. Die AIML-Dokumente dienen zur Simulation von allgemeinen Gesprächsthemen. Der Multinomiale Naive Bayes wird hier genutzt, um spezifische Anfragen entsprechend zu klassifizieren. Aufbauend auf diesen Prototyp erfolgt eine quantitative Befragung von Teilnehmenden unterschiedlicher Organisationen. Erhoben wird, inwiefern sich Chatbots auf die Servicequalität auswirken. Diese Messung erfolgt mit der Veränderung der Zufriedenheit der Teilnehmer und Teilnehmerinnen. Der Fragebogen beinhaltet die Ermittlung der Technologieakzeptanz, die aktuelle Situation im Unternehmen, die Veränderung durch Chatbots und persönliche Lebensumstände. An dieser Umfrage haben insgesamt 27 Personen teilgenommen. Ausgehend von den Ergebnissen kann gesagt werden, dass die Servicequalität, welche durch die Veränderung der Zufriedenheit erhoben wird, sich im Mittel um 0,924 auf der Fünf-teiligen Likert-Skala verbessert hat. Wird der Median herangezogen, so verändert sich dieser Wert von drei auf fünf. Aufbauend auf diesen Erkenntnissen lassen sich in einzelnen Organisationen Chatbots implementieren. Dies ermöglicht eine konkrete Umsetzung und die Messung des Einflusses auf die Servicequalität mit zusätzlichen Messverfahren, wie der Kano-Analyse oder dem Service Blueprint.
In den vergangenen Jahren haben sich die Rahmenbedingungen im Hochschulsektor bedingt durch bildungspolitische Entscheidungen wie auch den technologischen Fortschritt bedeutend verändert, weshalb sich die Hochschulen einem zunehmenden Wettbewerbsdruck ausgesetzt sehen. Als Reaktion auf diese Entwicklung steigt das Interesse der Bildungseinrichtungen an jenen Aspekten und Entscheidungskriterien, welche aus Sicht der Nachfragenden den Wert des Leistungsangebotes bestimmen. In diesem Kontext ist es das Ziel der vorliegenden Arbeit zu untersuchen, wie sich ausgewählte Einflussfaktoren auf den wahrgenommenen Wert und die Zahlungsbereitschaft von Studierenden für Bildungsleistungen auswirken. Zu diesem Zweck werden die in diversen empirischen Studien beschriebenen Ansätze zur Konzeptualisierung der Wertwahrnehmung im Hochschulbereich näher analysiert, um daraus ein auf den wesentlichen wertbestimmenden Aspekten basierendes multidimensionales Modell abzuleiten. Des Weiteren werden bestimmte soziodemographische Merkmale als zusätzliche Einflussfaktoren in die empirische Untersuchung aufgenommen. Zur Messung der Zahlungsbereitschaft wird unter Berücksichtigung der zur Verfügung stehenden Methoden die direkte Preisbefragung in Form des Preisbarometers ausgewählt. In der weiteren Folge werden auf Grundlage der erarbeiteten theoretischen Erkenntnisse mehrere Hypothesen formuliert, die anhand der Ergebnisse aus einer quantitativen Erhebung geprüft werden. Die statistische Auswertung der erhobenen Daten zeigt, dass innerhalb der verschiedenen Dimensionen des wahrgenommenen Wertes die karriere- und imagebezogenen Aspekte sowie die emotionale Komponente von besonderer Bedeutung sind, während die Zahlungsbereitschaft der Studierenden neben den bereits genannten Kriterien auch durch den funktionalen Wert beeinflusst wird. Im Kontext der soziodemographischen Merkmale können in Bezug auf das Alter, das Geschlecht und den Studienfortschritt relevante Korrelationen mit den verschiedenen Wertdimensionen identifiziert werden. Zusammenfassend betrachtet liefern die Ergebnisse der vorliegenden Arbeit Hinweise auf jene Faktoren, welche für die Gestaltung und das Preismanagement von Bildungsleistungen im Hochschulbereich entscheidend sein können.
Die vorliegende Masterarbeit soll Unternehmen ansprechen, die planen, eine Single Sign On Lösung in ihrem Unternehmen zu etablieren. Damit das Authentifizierungsverfahren im Unternehmen von den Mitarbeitern auch genutzt wird, muss eine starke Akzeptanz zwischen den Nutzern und einer Single Sign On Lösungen gegeben sein. Aus diesem Grund werden im Theorieteil Faktoren der Benutzerakzeptanz aus dem Technology Acceptance Model 3 herausgearbeitet, welche im Speziellen für die Akzeptanz von Single Sign On Lösungen zutreffend sind. Die empirische Forschung besteht dabei aus zwei Teilen, in denen einerseits eine Umfrage erstellt und andererseits die Zusammenhänge zwischen den herausgearbeiteten Faktoren und der Benutzerakzeptanz auf Signifikanz geprüft werden. Die Auswertung der Umfrage im Rahmen dieser Masterarbeit zeigt dabei einen starken Zusammenhang zwischen der IT-Affinität und der Einstellung des Nutzers gegenüber einer Single Sign On Lösung auf die Benutzerakzeptanz. Eine ebenfalls im Rahmen dieser Arbeit erstellte Fallstudie zeigt, dass Single Sign On Technologien im Privatbereich noch keinen großen Anklang finden und dass auch die Vertrauenswürdigkeit des Identity Provider keinen Einfluss auf die Benutzerakzeptanz von Single Sign On Lösungen hat. Abschließend werden Maßnahmenvorschläge erstellt, um die Akzeptanz von Single Sign On sowohl in Unternehmen als auch im Privatbereich zu steigern.
IOT & IPV6
(2018)
Das Internet ist seit seiner Entwicklung stetig gewachsen. Durch das Aufkommen neuer Technologien stieg die Zahl der über dieses weltweit verbreitete Netzwerk kommunizierenden Endgeräte immer weiter an. Besonders das wachsende Interesse von Unternehmen ihre Systeme miteinander zu vernetzen führt dazu, dass die zu Verfügung stehende Menge freier IP-Adressen immer geringer wird. Durch den Einzug von IoT-Geräten in privaten Bereichen, welcher den Verzehr von IP-Adressen beschleunigt ist es nur noch eine Frage der Zeit bis das bestehende IPv4 flächendeckend seinem von seinem Nachfolgeprotokoll IPv6 ersetzt wird. Durch diesen Wandel steigt zwar die Anzahl der theoretisch, zu Verfügung stehenden IPAdressen auf circa 340 Sextillionen an, jedoch entstehen durch die von IPv6 genutzten Mechanismen und eingesetzten Protokolle auch neue Angriffsvektoren welche im Besonderen IoT-Geräte zu potentiellen Angriffszielen von Hackern werden lassen können. Auf Grund ihrer eingeschränkten Ressourcen und oft unzureichenden Versorgung mit sicherheitsrelevanten Softwareupdates durch die Hersteller oder die Endnutzer können IoT-Geräte sehr schnell zu einer ernstzunehmenden Gefahr für IPv6-Netzwerke werden. Dabei zeigt sich, dass der primäre Fokus im Besonderen auf die Absicherung der Grenzen des Netzwerkes gerichtet sein muss. In dieser Arbeit wird auf Basis von Analysen des IPv6-Protokolles und den Merkmalen und Spezifikationen gängiger IoT-Gerät ein einfaches Framework entwickelt welches sich an die besonderen Sicherheitsanforderungen von IoT-Geräten in IPv6-Netzwerken gerichtet ist. Das IPv6/Iot-Security Framework soll als Basis dienen um einen sicheren Einsatz von IoT-Geräten in sensiblen Netzwerken zu gewährleisten ohne dabei andere Elemente der Infrastruktur nachteilig zu beeinflussen.
Unterstützung von Entscheidungsprozessen im Einkaufsbereich mit modernen Data Mining Algorithmen
(2018)
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Data Mining Verfahren bei der Auswahl von Lieferanten im Supplier Relationship Management in der Automobilindustrie. Es wird geprüft, wie sich die Entscheidungsqualität bei der Auswahl von Lieferanten verändert, wenn bei der Entscheidungsfindung eine Vorhersage der Lieferantenperformance aus einem Data Mining Modell vorhanden ist. Aus den Erkenntnissen einer Literaturrecherche wird das Vorgehensmodell Analytic Hierarchy Process für die Bewertung von Lieferanten ausgewählt und ein an die Praxis angelehntes Bewertungsmodell erstellt, dass in weiterer Folge als ideale Lösung betrachtet wird. Diese Erkenntnisse fließen in das Design eines Data Mining Modells welches durch ein neuronales Netzwerk mit Backpropagation gelöst wird. Die Umsetzung des neuronalen Netzwerks als Prototyp wird mit dem Cross Industry Standard Process for Data Mining Vorgehensmodell durchgeführt. Das Data Mining Modell wird mit idealisierten Testdaten validiert. Die Testdaten basieren auf dem idealen Bewertungsmodell. Auf Basis des Data Mining Modells ein Experiment mit A/B-Test durchgeführt indem die Teilnehmer eine simulierte Lieferantenentscheidung durchführen müssen. Eine der beiden Gruppen wird zusätzlich zu den Rohdaten der Entscheidung die Ergebnisse des Prototyps zur Verfügung gestellt. Die Daten aus dem Experiment werden mittels quantitativen und qualitativen Fragebogen erhoben. Die erhobenen Daten im Experiment werden mit den idealisierten Daten aus dem Bewertungsmodell auf Basis des Analytic Hierarchy Process verglichen und Rückschlüsse auf die Qualität der Entscheidung getroffen. Aus dem Ergebnis der Datenauswertungen des Experiments wird die Forschungsfrage beantwortet. Der Einsatz von Data Mining Modellen mit dem Ziel der Vorhersage von Lieferantenbewertungen führt zu einer Verbesserung der Entscheidungsqualität bei der Auswahl von Lieferanten.
This thesis identifies the advantages business analytics provide responsible persons (chief executive officers, controllers, chief finance officers, project managers, IT managers) in Austrian medium-sized construction industry companies with an existing information system. The thesis begins with a literature review to define business analytics, the building trade, and medium-sized companies. 17 hypothesised advantages are then explored using quantitative and qualitative methods. The quantitative method is an online survey; expert interviews with three responsible persons form the qualitative method. The outcome is run through a correlation analysis in order to evaluate the advantages. The results show there are 16 advantages including better forecasting, understanding of patterns, increase of quality, and optimised capacity in production. Only the assumed advantage of a smaller number of stoppages in production couldn´t be confirmed. These 16 advantages show the value of business analytics for medium-sized companies in the construction industry.
In einem immer komplexer werdenden Umfeld nimmt Projektmanagement (PM) in vielen Unternehmen einen immer höheren Stellenwert ein. Es ist oft der „Enabler“ für die Umsetzung komplexer Aufgaben. Die Bewältigung solcher Aufgaben ist in der Linienorganisation häufig nicht oder nur schwer umzusetzen. Wird dafür jedoch ein Projekt aufgesetzt und eine temporäre Projektorganisation gebildet, ist das Know-how der Experten gebündelt, die Personen können flexibler agieren und die Ziele sind klar definiert. Die Initiierung, Planung, Steuerung, Kontrolle sowie der Abschluss von Projekten zählen zu den Hauptaufgaben des Projektleiters. Im Betrachtungsfokus des Projektleiters liegen die Zeit, die Ziele und das Budget. Methoden von unterschiedlichen Projektmanagement-Standards unterstützen den Projektleiter und das Projektteam bei der Projektumsetzung. Jedoch lässt sich die Komplexität mit den herkömmlichen Methoden der unterschiedlichen Projektmanagementansätze nicht vollständig bewältigen. Vor allem bei technisch komplexen Projekten kommt es häufig zu Problemen bei der Umsetzung. Um dem entgegen zu wirken ist der Projektleiter als Moderator zur Lösungsfindung gefragt. Doch oft mangelt es im gesamten Projektteam am Methodenwissen, um komplexe Sachverhalte strukturiert zu bearbeiten. Hierbei können Methoden des Systems Engineering (SE) Abhilfe schaffen. Diese Disziplin basiert auf der Systemtheorie und bietet unter anderem Handlungsempfehlungen zum generellen Vorgehen, zur Problemlösung sowie zur Variantenbildung. Die gemeinsame Nutzung eines Projektmanagement-Standards und von Systems Engineering liegt im Fokus dieser Arbeit. Im ersten Kapitel wird die Problemstellung und die Einführung in das Thema betrachtet. Im zweiten Kapitel wird Systems Engineering erläutert. Ein ausgewählter SE-Ansatz wird in diesem Kapitel detailliert beschrieben und für die gemeinsame Nutzung mit dem Projektmanagement-Standard von IPMA herangezogen. Die darauffolgenden Kapitel widmen sich dem Projektmanagement, der gemeinsamen Nutzung der beiden Ansätze, den qualitativen Befragungen zum Informationsgewinn für diese Arbeit und den Ergebnissen. Im letzten Kapitel wird die Forschungsfrage „Wie können Komponenten des IPMA-Projektmanagement-Standards und des Systems Engineering bestmöglich kombiniert werden, um den Projekterfolg zu steigern?“ beantwortet.
In dieser Arbeit werden mögliche Anwendungen des vertraulichen Cloud Computing im Zusammenhang mit der Datenverarbeitung evaluiert. Dazu wird eine experimentelle Umgebung, in der vertrauliche homomorphe Verschlüsselung für verschiedene Szenarien angewendet und deren praktische Anwendbarkeit bewertet wird, geschaffen. Cloud Computing hat wirtschaftlich ein großes Potenzial. Insbesondere im Kontext der Anwendung von Cloud Computing im Zusammenhang mit der Verarbeitung sensibler Daten besteht jedoch keine Garantie für den Erhalt des Datenschutzes. Die Wahrung der Vertraulichkeit von persistierten Daten wird zumeist durch bewährte Verschlüsselungsmethoden gewährleistet. Vor der Durchführung von Berechnungen müssen diese jedoch in Klartext entschlüsselt werden. Die homomorphe Verschlüsselung bietet eine eingeschränkte Möglichkeit diese Berechnungen auch mit verschlüsselten Daten durchzuführen. Da sich dieses Forschungsgebiet in den letzten zehn Jahren stark entwickelt hat, gibt es noch relativ wenig Anhaltspunkte dafür, inwiefern die Verwendung homomorpher Verschlüsselung in realen Anwendungen praktikabel sein kann. In dieser Arbeit werden in einem ersten Schritt Szenarien erstellt, welche eine Verbindung zwischen den Potenzialen der Technologie und den kommerziellen sowie politischen Erwartungen herstellen. Im nächsten Schritt wird durch eine Evaluierung verschiedener homomorpher Verschlüsselungsbibliotheken beurteilt, welche kryptographische Basis für alle erforderlichen mathematischen Operationen der entworfenen Szenarien geeignet ist. Anschließend werden die entworfenen Szenarien implementiert und hinsichtlich ihrer Ergebnisqualität, ihrer Speicherauslastung und ihrer Laufzeit ausgewertet. Abhängig von der technischen Ausrichtung des Szenarios wird ein hohes oder niedriges Implementierungspotenzial für reale Anwendungen bestimmt. Die Ergebnisse sollten jedoch insbesondere im Hinblick auf den zugrunde liegenden Kontext interpretiert werden. In Zukunft gilt es weitere praxisnahe Szenarien zu entwerfen, zu implementieren und ausführlich zu testen, um die Grenzen und das Potenzial dieser Technologie besser einschätzen zu können.
Online Marketing ist ein großer Trend und hat in den letzten Jahren laufend an Beliebtheit gewonnen. Daher war es das Ziel der vorliegenden Masterarbeit, den Einfluss von Online Marketing Methoden auf die Bindung und Zufriedenheit von Kundinnen und Kunden von Unternehmen im Hotellerie- und Gastronomiebereich zu erheben. Hierfür wurde zunächst auf den Zusammenhang von Kundinnen- und Kundenbindung und –zufriedenheit eingegangen und erörtert wie diese gemessen werden kann. Anschließend wurde mithilfe einer quantitativen Umfrage unter Besucherinnen und Besuchern eines speziellen Unternehmens die Bindung an eben jenes erhoben und mithilfe des Kano-Modells ihre Zufriedenheit mit den getätigten Online Marketing Maßnahmen ermittelt. Außerdem wurde erforscht wie wichtig Online Marketing Tätigkeiten für Kundinnen und Kunden im Allgemeinen sind. Durch einen qualitativen Fragebogen, welcher von drei Besucherinnen und Besuchern des genannten Unternehmens ausgefüllt wurde, konnte zusätzlich noch qualitatives Feedback zum Unternehmen und vorhandenen Online-Auftritt eingeholt werden. Aus Basis der gesammelten Erkenntnisse wurde ein Online Marketing Konzept für Unternehmen im Hotellerie- und Gastronomiebereich erarbeitet. Letztlich wurde mithilfe des Service Engineering Workflows der FH CAMPUS02 erhoben welche Maßnahmen zu einer noch weiteren Verbesserung der Zufriedenheit und Bindung führen könnten. Als einfache und günstige Maßnahme wurde die Möglichkeit zur Online-Reservierung vorgeschlagen. Zusammenfassend gibt diese Arbeit einen Überblick darüber, warum Online Marketing Maßnahmen auch für kleine Unternehmen im Gastronomie- und Hotelleriebereich sehr wichtig sind und welchen großen Einfluss sie auf die Bindung und Zufriedenheit von Kundinnen und Kunden haben.
Unternehmen stehen vor der Herausforderung, die Geschwindigkeit der Leistungserbringung an die Geschwindigkeit der sich verändernden Rahmenbedingungen und Anforderungen anzupassen. Unternehmen stehen vor der Herausforderung, sich mit ihren etablierten Prozessen gegen die Flexibilität von Startups durchzusetzen. Schnell fortschreitende Entwicklungen erfordern kürzere Innovationszyklen in der IT. Zeitgleich sollen IT Services weiterhin stabil und wirtschaftlich betrieben werden. IT-Organisationen, die Prozesse angelehnt an das weitverbreitete IT Service Management Best Practices Framework ITIL etabliert haben, sind gefordert, die Geschwindigkeit der Leistungserbringung zu erhöhen, ohne die Stabilität des Systems negativ zu beeinträchtigen. In dieser Arbeit wird zunächst ein Arbeitsablauf zur Leistungserbringung und dessen Durchlaufzeit beobachtet. Die Beobachtung findet in einem Großunternehmen statt, welches Prozesse etabliert hat, die sich an ITIL orientieren. Im Anschluss daran wird das IT Service Management Framework ITIL beschrieben und die darin enthaltenen Prozesse den beobachteten Arbeitsschritten gegenübergestellt. Unter Zuhilfenahme einer Literaturrecherche werden Ansätze identifiziert, die eine Beschleunigung der Leistungserbringung versprechen. Als weiterer Schritt werden Anwendungsfälle aus den Beobachtungen ausgewählt und Lösungsansätze entwickelt, die die Vorteile aus ITIL und DevOps vereinen, um eine schnelle Leistungserbringung bei hoher Systemstabilität zu ermöglichen. Auf Basis der identifizierten Lösungsansätze wird ein adaptierter Arbeitsablauf beschrieben und Rückschlüsse auf die potentielle Zeiteinsparung bei gleichbleibenden Ressourceneinsatz gezogen. Durch den Einsatz einer Deployment Pipeline pro Service wird ein standardisierter Weg zur Überführung von Änderungen in die Produktivumgebung erzeugt. Die hohe Anzahl an automatisierten Tests innerhalb der Deployment Pipeline sorgt für eine hohe Systemstabilität. Aufgrund des dadurch verringerten Risikos können IT Change Management Prozesse als Typ „Standard-Change“ anstatt „Normal-Change“ durchgeführt werden. Hierdurch werden kürzere Deploymentzyklen zugelassen und durch den Einsatz von agilen Softwareentwicklungsframeworks, die häufige Deployments vorsehen, eine frühere Nutzung der Software ermöglicht wird.
Innerhalb der Möbelbranche stehen vor allem Klein- und Mittelunternehmen vor der großen Herausforderung ihre Kunden und Kundinnen mittels geeigneten, kostengünstigen Online-Marketing- und Kommunikationstools zu erreichen und langfristig an sich zu binden. Großunternehmen hingegen verfügen über intuitive, auf Algorithmen basierende, kostenintensive Tools, welche genaue Kundenwünsche erfassen. Diese Arbeit widmet sich der Zielgruppe der Klein- und Mittelunternehmen und stellt ein Konzept mit geeigneten, kostengünstigen Tools vor, welches dazu dient, Kunden und Kundinnen zu erreichen. Die Auswahl der Tools basierte auf der Basis der Einfachheit, der Definition der Zielgruppe und der Messung der Reichweite. Durch verschiedene Strategien des Online-Marketing und der Grundlage der modernen Kommunikation wurde mittels des Service Engineering Prozesses ein Verfahren entwickelt, welches ein kostengünstiges Vorgehen im Bereich von Online-Marketing und Online-Kommunikation ermöglicht. Die Erkenntnisse aus den einzelnen quantitativen Erhebungen flossen in die verschiedenen Phasen des Vorgehensmodelles ein und wurden mit Methoden angereichert. Innerhalb der Pilotierung wurden vier wichtige Tools als Mockups dargestellt, zum einen Bewerbungen auf Social Media Plattformen, Low-Budget Videos, E-Mail Newsletter und zum anderen die Website, welche als Visitenkarte des Unternehmens anzusehen ist. Die Evaluierung des Konzeptes basiert auf der qualitativen Erhebung von Experten- und Expertinneninterviews aus dem Bereich der Möbelbranche. Auf Grund der Aussagen der Experten und Expertinnen trifft das entwickelte Konzept den modernen Zeitgeist und eignet sich für Klein- und Mittelunternehmen in Österreich. Auf Basis dieses Konzeptes und dem aktiven Einwirken eines Unternehmens wird die Möglichkeit geschaffen, die Marke und das Unternehmen selbst zu festigen und weiter auszubauen.
Die vorliegende Masterarbeit ist im Bereich der Informationssicherheit und dem Informationssicherheitsmanagement angesiedelt. Ziel der Arbeit war es, einen allgemeinen Ansatz für die Entwicklung von Informationssicherheitsrichtlinien zu entwickeln. Aufgrund der Größe des Themenfeldes behandelt diese Arbeit vor allem das Richtliniendesign im Kontext der ISO 27001. Der erste Teil der Arbeit deckt den theoretischen Hintergrund von Informationssicherheitsmanagement, Kryptographie und den gesetzlichen Vorgaben dazu ab. Das Ergebnis dieses Teils war ein grundsätzliches Verständnis davon, wie Informationssicherheitsmanagement funktioniert und welchen Beitrag Kryptographie dazu leisten kann. Außerdem wurde festgestellt, dass es für die öffentliche Verwaltung keine besonderen Gesetze im Bereich der Informationssicherheit gibt. Der zweite Teil der Arbeit widmet sich dem Design von Informationssicherheitsrichtlinien. Aufgrund dessen, dass es noch keinen allgemeinen Ansatz für die Entwicklung solcher Richtlinien gab, wurde ein eigenes Vorgehensmodell dafür entwickelt. Basis für die Entwicklung des Modells waren die Erkenntnisse aus der Literaturrecherche hinsichtlich der Erfolgsfaktoren von Informationssicherheit. Im nächsten Schritt wurden fünf Fachleute aus dem Bereich der Informationssicherheit zu dem entwickelten Modell befragt. Das Ergebnis dieser Befragung war eine verbesserte Version des aufgestellten Modells. Mit Hilfe dieses Modells wurde dann in einem weiteren Schritt eine Richtlinie für die Anwendung von kryptographischen Verfahren entwickelt. Außerdem ist deutlich geworden, dass die verschiedenen Richtlinien für Informationssicherheit so unterschiedlich sind, wie die Unternehmen, in denen sie Anwendung finden und dass die Unternehmenskultur einen großen Einfluss auf den Erfolg dieser Richtlinien hat. Zusätzlich wurde festgestellt, dass es verschiedene Arten von Anforderungen innerhalb der ISO 27002 gibt. Einige können direkt umgesetzt und mit Richtlinien erfüllt werden, und andere wirken sich auf viele Unternehmensbereiche aus. Aufgrund dessen war eine Beantwortung der Forschungsfrage schwierig. Das entwickelte Modell versucht den verschiedenen Ansprüchen verschiedener Organisationen gerecht zu werden, aber die letztendlich entwickelte Richtlinie ist nicht auf andere Organisationen übertragbar.
Die Verbreitung von Geräten, die mit dem Internet kommunizieren und Teile des Alltags vieler Menschen sind, nimmt immer mehr zu. Das Internet of Things (IoT) kombiniert bestehende Technologien mit dem Internet, wodurch neue Einsatzgebiete erschlossen werden. IPKameras, Verkehrssteuerungssysteme und kritische Infrastrukturen wandern zunehmend in das Internet und werden dadurch für Personen erreichbar, die keinen Zugriff auf diese Systeme haben sollten. Dies führt dazu, dass neue Angriffsvektoren, die von Hackern und Kriminellen genutzt werden, entstehen und sowohl die IT-Sicherheit der IoT-Objekte selbst, als auch jene von bestehenden IT-Infrastruktur gefährdet werden. Viele IoT-Produkte, die für die Endkundin und den Endkunden konzipiert wurden, verfügen nicht über die notwendigen Sicherheitsmechanismen, die einen ordnungsgemäßen und sicheren ITBetrieb gewährleisten sollen. Die Produktentwicklung der Hersteller setzt den Fokus auf Bedienungskomfort und einfacher Konfiguration, vergisst jedoch die Gefahren, welche von ungesicherten IoT-Objekten ausgehen. Diese Gefahren reichen von Funktionsstörungen, dem Versenden von Spam-E-Mails, bis zur Nutzung von IoT-Objekten für großangelegte Hacker-Angriffe auf kritische Infrastrukturen. In dieser Arbeit wird ein IoT-Security Framework entwickelt, das auf Basis von Analysen bestehender IoT-Sicherheitsproblematiken, Sicherheitsanforderungen definiert und diese in einem Integrationsprozess zusammenfasst. Die Sicherheitsanforderungen wurden aus bereits publizierten Angriffsszenarien abgeleitet und werden sich direkt an das IoT-Objekt richten, der sicheren Kommunikation zwischen den einzelnen Objekten, sowie an die Cloudplattformen, die im Umfeld von IoT häufig zum Einsatz kommen. Das IoT-Security Framework soll es Endkonsumentinnen und Endkonsumenten ermöglichen, die IT-Sicherheit von IoT-Produkten zu bewerten und deren Risiko für sich selbst, als auch für bestehende IT-Infrastrukturen zu beurteilen.
Die Einführung eines Qualitätsmanagementsystems ist eine wichtige strategische Entscheidung für eine Organisation, diese Entscheidung kann helfen, die Gesamtleistung des Unternehmens zu steigern und eine gute Basis für nachhaltige Entwicklungsarbeiten bereitzustellen (ISO9001, 2015). Die ISO 9001 ist ein weltweit anerkannter Standard für die Zertifizierung von Qualitätsmanagementsystemen. Am 15.09.2015 ist die neue ISO 9001:2015 erschienen, sie Iöst die ISO 9001:2008 ab. Die derzeit nach ISO 9001:2008 ausgestellten Zertifikate sind noch bis 14.09.2018 gültig. Ab dann müssen sich die Organisationen nach der neuen ISO Norm zertifizieren lassen. Das Konzept der neuen ISO 9001:2015 beruht auf der High-Level-Structure für Managementnormen und orientiert sich am PDCA – Zyklus. In dieser Arbeit behandelt der Autor die Thematik der ISO 9001:2015 Zertifizierung der Steiermärkischen Krankenanstaltengesellschaft, Abteilung KMS. Zum aktuellen Zeitpunkt ist die Abteilung KMS nach der ISO 9001:2008 zertifiziert. Der Autor arbeitete die fehlenden Nachweise zur erfolgreichen Zertifizierung nach ISO 9001:2015 aus und führte anschließend eine Befragung zur Sinnhaftigkeit der Nachweise durch. In einer anonymen Befragung wurden Mitarbeiter der Abteilung KMS, mit Qualitätsmanagementaufgaben und Qualitätsmanagementerfahrung, befragt wie sinnvoll sie die neuen Anforderungen der ISO 9001:2015 und die ausgearbeiteten Nachweise empfinden. Die Befragten wussten nicht, dass es sich bei der Befragung um die ISO 9001 Nachweise handelt. Nicht sinnvolle, wenig sinnvolle, optionale und notwendige Nachweise wurden somit für die Abteilung erkannt und die Sinnhaftigkeit der Revision in Frage gestellt. Die Befragung hat gezeigt, dass die neuen Anforderungen der ISO 9001 eine Qualitätssteigerung bringen können und die Revision somit ihren Sinn erfüllt hat. Fehlende Nachweise, der Abteilung KMS, für die Zertifizierung nach der neuen Norm wurden bearbeitet und Einführungsvorschläge gegeben. Am Beispiel der Einführung eines Projektportfoliomanagements wurden die Verbesserungen deutlich gemacht. Am Ende vergleicht der Autor die ISO 9001:2015 mit der EN 15224, welche eine Gesundheitsspezifische Norm darstellt.
Die Softwareentwicklung von Produkten und Lösungen orientiert sich zunehmend an agilen Vorgehensweisen, welche erhebliche Vorteile in der Kundenorientierung und Schnelligkeit in der Auslieferung der Lösungen mit sich bringt. In diesem Zusammenhang besteht auch die Herausforderung der Schätzung von User Stories, die aus Sicht des Benutzers, formuliert werden. Obwohl sich etwaige Methoden und Techniken zur Schätzung von User Stories etabliert haben (z.B. Point-Metriken), liegt dabei ein wesentlicher Nachteil in der subjektiven und relativen Bewertung des Aufwandes bzw. der Komplexität durch das Team durch welche eine Verzerrung der Schätzung entstehen kann. Ebenso beanspruchen Schätzpraktiken in agilen Vorgehensweisen, durch deren interaktiven Charakter, einen erheblichen Zeitaufwand. Das Ziel dieser Arbeit bestand darin, zu prüfen, ob die Anwendung bzw. der Einsatz von Machine Learning den Schätzprozess in agilen Vorgehensweisen unterstützen kann. Der erste Teil der Arbeit bereitet dazu einen Einblick in die Welt der agilen Vorgehensweisen mit deren gängigsten Schätzverfahren. Nach einer kurzen Einführung in die Grundlagen des Data Minings bzw. Machine Learnings, wurden mögliche Lösungsansätzen zur Verbesserung der Schätzungen durch Machine Learning Verfahren untersucht. Die Untersuchung beinhaltet die Auswahl und Erläuterung eines Data Mining Vorgehensmodells. Dabei wurde der Cross-Industry Standard Process for Data Mining (CRISP-DM) als Referenzprozess für die Abhandlung der gesamten Arbeit gewählt. Auf Basis dieses Prozessmodells wurden einige relevante Techniken zur Textklassifizierung von User Stories abgehandelt. Demgemäß reichte die Untersuchung von der Phase Business Understanding bis hin zur Evaluation Phase eines Machine Learning Models. Basierend auf drei ausgewählten Machine Learning Verfahren (Naïve Bayes, Random Forest und Multilayer Perceptron) wurde eine Fallstudie durchgeführt. Diese Fallstudie umfasste die Datenvorverarbeitung, sowie die Modellierung und Implementierung eines Machine Learning Models auf Basis eines Real-life Datensets in der Programmiersprache R (Data Discovery und statistische Evaluation) und Python (Modellierung und Implementierung). Der letzte Teil der Fallstudie bestand in der Evaluation des trainierten Modells. Ziel der Fallstudie war es, zu prüfen, ob das Modell in der Lage ist, Story Points auf Basis von User Stories genauer zu schätzen, als durch ein zufälliges Raten bzw. Verteilen von Story Points. Dazu wurde eine ausgewählte Metrik (z.B. Accuracy) für jedes der drei Klassifizierungs-Verfahren, einem Dummy-Klassifizierer gegenübergestellt, welcher zufällig gewählte Story Points aus dem Datenset vorhersagte. Dies wurde auf Basis einer mehrstufigen Kreuzvalidierung (Cross Validation) durchgeführt um eine möglichst hohe Konfidenz der Vorhersagen zu erzielen. Anschließend wurde ein nicht-parametrischer statistischer Test (Wilcoxon Test) auf die erzeugten Vorhersagen (Metrik) angewendet, um festzustellen, ob sich die Mittelwerte tatsächlich voneinander unterscheiden. Die Ergebnisse der vorliegenden Studie zeigen, dass die Schätzung von Story Points durch die Anwendung von Machine Learning, das zufällige Raten erheblich übertreffen kann (unter den Voraussetzungen und Rahmenbedingungen der Fallstudie). Somit lässt sich sagen, dass Techniken des Machine Learnings für den vorliegenden Datensatz verwendet werden können, um den Schätzprozess zu beschleunigen, indem eine initiale Schätzung aller User Stories (z.B. aus einem Backlog) aus einem Machine Learning Modell bereitgestellt wird. Darüber hinaus bieten die Ergebnisse aus dem Modell, bis zu einem gewissen Grad einen unvoreingenommenen Blick auf StoryPoint-Schätzungen, als Grundlage für Diskussionen innerhalb des Teams. Hierbei ist jedoch anzumerken, dass die Validität der Ergebnisse, auf den speziellen Voraussetzungen und Rahmenbedingungen der Fallstudie beschränkt sind. Daher sollten die Ergebnisse dieser Arbeit auf einer breiteren (Anzahl der Datensätze), teamübergreifenden und projektübergreifenden Datenbasis verifiziert werden. Dennoch stellt die vorliegende Arbeit einen ersten Schritt zur Nutzung des maschinellen Lernens für die Story-Point-Schätzung dar.
Der technologische Fortschritt eröffnet Unternehmen unzählige Möglichkeiten innovative Produkte und Dienstleistungen zu schaffen. Das Bestreben zahlreicher Unternehmen ist es, neue, skalierbare Lösungen zu entwickeln und damit Unternehmenswachstum zu erreichen. Jedoch ist eine derartige Entwicklung mit einigen Herausforderungen verbunden. Diese Arbeit beschäftigt sich mit den Möglichkeiten der Skalierung IT-basierter Dienstleistungen durch die Anwendung von Serviceentwicklungsmodellen und -methoden am Beispiel der Verwertungs- und Entsorgungsindustrie. Zunächst werden dazu IT-basierte Dienstleistungen sowie die Skalierbarkeit im betriebswirtschaftlichen Kontext betrachtet, was eine Diskussion von Geschäftsmodellen und Wachstumsstrategien einschließt. Anschließend werden verschiedene Vorgehensmodelle und Methoden der Dienstleistungsentwicklung diskutiert. Zusätzlich zu den theoretischen Erkenntnissen wird eine empirische Untersuchung durchgeführt. Ziel ist es, Herausforderungen und Potenziale bei der Entwicklung IT-basierter Dienstleistungen aufzudecken. Weiterführend wird ein Best-Practice-Beispiel einer erfolgreichen Skalierung IT-basierter Dienstleistungen vorgestellt. Das Ergebnis dieser Arbeit ist ein Vorgehens-Rahmenmodell zur Entwicklung IT-basierter Dienstleistungen, welches als Skalierungs-Leitfaden gesehen werden kann. Dieses Modell beinhaltet Methoden und Handlungsempfehlungen, um die ermittelten Herausforderungen zu bewältigen und mögliche Potenziale zu nutzen. Als größte Herausforderung stellte sich das Finden der Features und Services mit dem größten Kundennutzen heraus. Das Modell sieht als wesentliche Elemente des Entwicklungsprozesses IT-basierter Dienstleistungen die durchgängige Integration relevanter Stakeholder sowie den Minimum Viable Product Ansatz vor. Weitere wesentliche Faktoren stellen Partnerschaften und Kooperationen sowie eine EarlyMover-Strategie dar.
Web analytics has been used to track visitor behavior on web sites since the early 1990s with the goal to understand the visitors and to constantly improve the web site. Although it is also possible to track users of single page applications, a special form of web application that behaves like a desktop application, there are some limitations. The aim of this work is to identify gaps in web analytics solutions regarding single page applications. Subsequently the impact of resolving such a gap on the intended long-term usage of a given web analytics system, the socalled Continuance Intention, is evaluated. Initially, an integration of an open-source web analytics framework with a commercial single page application is performed. Based on the gained experience and by conducting a literature research, a list of 13 gaps including potential solutions is identified. A group of experts is ranking them according to their impact on the usefulness of the web analytics solution. The resulting top item is the custom metrics feature, which allows to track application-specific metrics by configuring them generically in the web analytics system. It is subsequently developed and evaluated by means of an online survey using an adapted version of the Expectation-Confirmation Model. A linear regression model is based on the two resulting latent factors Perceived Usefulness and Continuance Intention. The statistical analysis of the model shows that a specific improvement of a web analytics solution with the goal to enhance the usefulness of this information system increases the intention to keep using this software in the long-term.
Microblogging ist im Bereich der Online-Erotik immer noch nicht vorherrschend. Das Ziel dieser Arbeit ist herauszufinden, wie der Einsatz von Microblogging im Bereich Erotik gegenüber kostenlosen Pornoseiten hinsichtlich der Benutzerakzeptanz zu beurteilen ist. Es soll ein Usability-Test durchgeführt werden, um eventuelle Probleme des Artefakts ausfindig zu machen. Diese Probleme sollen behoben werden bevor das Feldexperiment stattfindet. Potentielle Einflussfaktoren sollen im Rahmen einer Umfrage evaluiert werden. Die Umfrage soll das Phänomen Microblogging auf Facebook untersuchen. Im Rahmen eines Feldexperiments wird eine Microblogging-Plattform zum Thema Erotik mit einer herkömmlichen Pornoseite verglichen. Das Ergebnis ist, dass Microblogging genauso für den Konsum von erotischen Inhalten geeignet ist. Nur die Absprungrate der Besucher einer Microblogging-Plattform zum Thema Erotik ist im Vergleich zu einer klassischen Pornoseite höher. Zu den wichtigsten Faktoren, die die Nutzung von Microblogging über Erotik positiv beeinflussen, zählen das heimliche Beobachten von anderen Menschen im Internet, der Konsum von Pornografie und der Konsum von Online-Live-Sexshows. Es muss allerdings noch erforscht werden, ob es eine Zielgruppe gibt, die Microblogging über Erotik gegenüber dem herkömmlichen Konsum von pornografischen Inhalten, bevorzugt.
Die vorliegende Arbeit beschäftigt sich mit Cross-Plattform-Applikationen im Business Bereich. Es wird der Frage nachgegangen, ob die Effizienz durch die plattformunabhängige Softwareentwicklung gesteigert werden kann. Ziel dieser Arbeit ist es zu klären, in wie weit Experten und Expertinnen bereits Erfahrung mit Technologien sammeln konnten, die sich auf plattformunabhängige Softwareentwicklung spezialisiert haben. Damit herausgefunden werden kann ob die Effizienz gesteigert werden kann, beziehungsweise ob ExpertInnen in diesem Bereich herangezogen werden kann, wird zu Beginn dieser Arbeit eine Einführung in die mobilen Applikationen gemacht und gängige Begriffe näher beschrieben. Dabei wird eingegrenzt, was genau unter einem mobilen Gerät verstanden wird, damit in weiterer Folge die Zielgruppe festgelegt werden kann. Anschließend werden dem Leser beziehungsweise der Leserin, die beliebtesten Betriebssystem die auf dem Markt existieren vorgestellt und näher beschrieben. Zum Abschluss dieses Kapitel werden die einzelnen Plattformen gegenübergestellt, damit herausgefunden werden kann, welche Vor- beziehungsweise Nachteile existieren. Nachdem die einzelnen Plattformen vorgestellt wurden, wird auf die plattformunabhängige Softwareentwicklung näher eingegangen. Dabei werden zuerst Begriffe, die im Zusammenhang mit mobiler Entwicklung fallen definiert. Im Anschluss erfolgt eine Vorstellung verschiedener Technologien, die derzeit existieren. Im empirischen Teil wird der Prototyp der im Zuge dieser Arbeit entwickelt wurde, näher beschrieben. Dafür werden zu Beginn die Anforderungen, die die App erfüllen muss vorgestellt. In weiterer Folge wird dem Lesendem die gewählte Technologie vorgestellt und beschrieben, warum sich der Autor dieser Arbeit für dieses Framework entschieden hat. Zu Letzt wird im empirischen Teil berichtet werden, welche Technik bei den Experteninterviews zum Einsatz gekommen ist und wie der Aufbau aussieht. Abschließend wird vom Autor dieser Arbeit ein Erfahrungsbericht, über die Erfahrungen die beim Entwickeln des Prototyps gesammelt werden konnten, geschrieben. Im fünften und letzten Kapitel wird über die Beantwortung der Forschungsfrage berichtet und ein kurzer Ausblick gegeben welche Schritte als nächstes durchgeführt werden können, damit die Ergebnisse gefestigt werden können.
Durch den steigenden Einsatz von mobilen Geräten und mobilen Anwendungen im beruflichen Umfeld gewinnt die Verwaltung der Geräte für die Sicherstellung der Verfügbarkeit und der Datensicherheit eine immer größere Rolle. Die dafür eingesetzten Enterprise Mobility Management (EMM) Systeme wurden in den letzten Jahren hauptsächlich in großen Unternehmen verwendet und werden durch Trends wie Bring Your Own Device (BYOD) und Corporate Owned Private Enabled (COPE) sowie rechtliche Anforderungen, wie der Datenschutz Grundverordnung (DSGVO), auch bei kleinen und mittleren Unternehmen (KMU) immer stärker nachgefragt. In dieser Arbeit wird der Einsatz von EMM Systemen in KMU näher untersucht. Dazu wird eine Literaturrecherche durchgeführt und darauf aufbauend eine Marktanalyse des EMM Marktes in KMU in Österreich durchgeführt. In der Marktanalyse wird eine Übersicht über vorhandene Anbieter und deren Produkte gegeben und anschließend das Potential des EMM Marktes anhand vorhandener Studien erörtert. In der dabei durchgeführten quantitativen Umfrage werden relevante Einflussfaktoren auf die Annahme von EMM in KMU identifiziert. Ausgehend von diesen Erkenntnissen werden Hypothesen über die Annahme aufgestellt und für dessen Evaluierung wird ein Prototyp für die Verbesserung der Adoption der Technologie in KMU entwickelt. In dem entwickelten Prototyp wurden zwei aus den Hypothesen abgeleitete Funktionen umgesetzt. Die erste Funktion verbessert den Bestellprozess für neue Mobilgeräte der Mitarbeiterinnen und Mitarbeiter. Die zweite Funktion bietet den Mitarbeitern eine detaillierte, transparente Kostendarstellung. Die Evaluierung des Prototyps erfolgt mittels Interview von Expertinnen und Experten aus dem Bereich von mobilen Geräten und mobilen Anwendungen. Die zusätzlichen Funktionen stellen eine Möglichkeit dar, um die Mitarbeiterzufriedenheit zu erhöhen und damit die Annahme von EMM Systemen in KMU zu verbessern.
Codequalität sowie deren Sicherung und Überprüfung sind wichtige Aspekte heutiger Softwareentwicklungsprozesse und werden von zahlreichen Experten aus Literatur und Praxis als essentieller Faktor für ein langfristiges Bestehen von Softwareprojekten angesehen. Um diese Theorie in der Praxis deduktiv zu prüfen, war es Ziel dieser Arbeit, tatsächliche Auswirkungen ausgewählter Maßnahmen zur Steigerung von Codequalität auf den Wartungs- und Folgeaufwand von Software zu untersuchen. Hierfür wurden zuerst wesentliche Aspekte von Software- und Codequalität explorativ, argumentativ-deduktiv analysiert. Als Ergebnis dieser Analyse wurden grundlegende Merkmale und Kriterien von Softwarequalität sowie Prinzipien, Standards, Methoden und Muster für eine strukturierte Verbesserung von Codequalität vorgestellt. Weiters wurden Metriken zur Messung und Bewertung von Sourcecode sowie Werkzeuge, welche Metriken und andere Aspekte von Codequalität messen, skizziert. Anschließend wurden im Zuge eines Experiments vier funktional idente Programmversionen unterschiedlicher Codequalität Entwicklern zur Bearbeitung vorgelegt und Ergebnisse sowie die benötigte Zeit erhoben und ausgewertet. Hierbei wurde allen Teilnehmern dieselbe Aufgabenstellung gegeben, welche das Beheben von Bugs und das Implementieren einer Erweiterung vorsah. Zudem wurden die Ergebnisse in Expertengesprächen auf Gültigkeit und Plausibilität geprüft. Das Ergebnis konnte – entgegen angenommener Erwartungen – keine eindeutigen Auswirkungen belegen, aber diese auch nicht ausschließen, da die erhaltenen Ergebnisse unter Berücksichtigung üblicher Streuung für alle Programmversionen auf einem ähnlichen Zeitniveau waren. Lediglich in der Qualität der Resultate gab es einige Unterschiede. Anschließende Expertengespräche und die Diskussion der Ergebnisse kamen zu dem Schluss, dass die beobachteten Resultate für die Größe der Untersuchung durchaus plausibel erscheinen, jedoch für beobachtbare Auswirkungen eine deutlich größere Untersuchung notwendig wäre.
Die vorliegende Arbeit beschäftigt sich mit der Lernfähigkeit von Data Mining Modellen im Bereich des Smart Homes. Es wird der Frage nachgegangen, welche Auswirkungen ein kontinuierliches Training von Data Mining Modellen zur intelligenten Automatisierung der Beleuchtungssteuerung in einem Smart Home, auf die Fehlerrate des Data Mining Modells hat. Ziel ist es zu klären, ob durch kontinuierliches Training, auch zeitnah, die Fehlerrate von Data Mining Modellen zur Beleuchtungssteuerung im Smart Home verbessert werden kann. Zu Beginn werden die Begriffe Data Mining und Machine Learning mit Hilfe einer Literaturrecherche, im Bereich des Smart Homes, definiert und ein Überblick über die Funktionsweise von Data Mining geschaffen, sowie das allgemeine Vorgehen zur Implementierung einer Data Mining Anwendung anhand des standardisierten CRISP-DM Prozesses erörtert. Anschließend wurden für die vorliegende Arbeit geeignete Data Mining Verfahren mit Hilfe von Literatur erörtert. Aus diesen Data Mining Verfahren und den erhobenen Anforderungen an den Anwendungsfall der vorliegenden Arbeit, wurde das Data Mining Verfahren der Entscheidungsbäume für die Umsetzung des Prototyps ausgewählt. Im zweiten Teil der Arbeit wurde mit Hilfe des CRISP-DM Prozesses, ein Prototyp zur intelligenten Automatisierung der Beleuchtungssteuerung entwickelt und in ein bestehendes Smart Home integriert. Dieser Prototyp wurde im Zuge einer einfachen Fallstudie evaluiert. Dabei wurde die Fallstudie in zwei Iterationen evaluiert. In der ersten Iteration wurden einmalig trainierte Data Mining Modelle evaluiert und in der zweiten Iteration wurden kontinuierlich trainierte Data Mining Modelle evaluiert. Basierend auf der Auswertung der Daten und dem Vergleich der Vorhersageleistung, konnte die Erkenntnis gewonnen werden, dass ein kontinuierliches Training zeitnah zu einer Verbesserung der Vorhersageleistung beitragen kann.
Die Cloud ist ein Thema, das Unternehmen durch die Digitalisierung mehr betrifft denn je. Während sie im Privatleben bereits Einzug in den Alltag gefunden hat, benötigen die Unternehmen noch etwas Zeit. Speziell in Bezug auf ERP-Systeme, die die sensibelsten Daten des Unternehmens beinhalten, verwehren sie sich diesem Trend. Dies liegt vor allem an der Sicherheit der Cloud. In dieser Arbeit wird darum untersucht, welche konkreten Sicherheitsbedenken die Unternehmen haben, wenn es darum geht, ihr ERP-System in der Cloud zu betreiben, und wie diese vermindert werden können. Zur Datenerhebung wurden Personen aus der IT interviewt, worauf anschließend eine Liste von Bedenken aus ihren Aussagen erstellt wurde. Die Priorisierung ergab, dass eine performante Internetverbindung und das Vertrauen in den Cloud-Anbieter die größten Bedenken im Bereich der IT-Sicherheit auslösen. Durch die technologischen Möglichkeiten in der Cloud können diese Bedenken jedoch vermindert werden, indem beispielsweise ein entsprechendes Verfügbarkeitsmodell gewählt oder eine private Verbindung zum Cloud-Anbieter aufgebaut wird. Dennoch ist es nicht möglich, alle Bedenken auszuräumen, da ab einem gewissen Punkt kein Einblick in und kein Einfluss mehr auf die Funktionalität der Cloud vorgenommen werden kann. Dies zeigt, dass vor allem Vertrauen die Basis für den sicheren Betrieb des ERP-Systems in der Cloud ist. Mit der vorliegenden Arbeit soll den Unternehmen gezeigt werden, dass sich ihre Bedenken leicht vermindern lassen.
Die Revolution in der Industrie hält nunmehr seit über 200 Jahren an. Mit Beginn des 21. Jahrhunderts wurde durch die Entwicklung von Cyber-physischen Systemen die vierte und bislang jüngste Revolutionsstufe eingeleitet. Eine datentechnische Vernetzung der Anlagen untereinander und eine zunehmende Maschinenkommunikation erhöhen die Gesamtkomplexität des Systems und erschweren dadurch die Service- und Instandhaltungsarbeiten. Die Instandhaltung, welche mittlerweile maßgeblich zum Unternehmenserfolg und zur Wettbewerbsfähigkeit beiträgt, hat an Komplexität zugenommen und fordert nicht zuletzt auch durch die Digitalisierung in der Industrie ein Umdenken hinsichtlich der Ausbildung und Qualifikation von Service- und InstandhaltungsmitarbeiterInnen. Digitale Assistenzsysteme bilden eine Schnittstelle für eine Mensch-Maschine-Interaktion und sollen die MitarbeiterInnen bei komplexen Tätigkeiten unterstützen. Diese Masterarbeit zeigt, inwiefern der Einsatz eines Live-Video-Assistenzsystems Service- und InstandhaltungsmitarbeiterInnen unterstützen und den Problemlösungsprozess positiv beeinflussen kann. Im Zuge der Theorieaufarbeitung im ersten Teil dieser Arbeit werden Hypothesen formuliert, welche im zweiten Teil der Arbeit durch einen „mixed-method“-Ansatz geprüft werden, wozu Daten aus österreichischen, international agierenden, Unternehmen erhoben werden. Die Ergebnisse der Untersuchung zeigen, dass Live-Video-Assistenzsysteme wie z.B. EVOCALL nicht zielführende Kommunikationskanäle ersetzen können und dass durch einen „work-shadowing“-Ansatz die Vor-Ort-Präsenz von ExpertInnen verringert sowie die Reparaturzeiten reduziert werden können. Die Erhebung hat gezeigt, dass solide Ausbildungsmaßnahmen für die Service- und InstandhaltungsmitarbeiterInnen eine Herausforderung für Unternehmen darstellen, welcher sie sich trotz Einsatz eines Live-Video-Assistenzsystems weiterhin stellen werden müssen.
Diese Masterarbeit befasst sich mit den Themen „Business Intelligence“ und „Data Warehousing“ im Umfeld der Sozialwirtschaft in Österreich am Beispiel des Unternehmens Jugend am Werk Steiermark GmbH (JAW). Das Ziel der Arbeit ist die Erläuterung der Vorgangsweise zur Erstellung eines Data Warehouse in einer heterogenen Systemlandschaft, wie sie bei JAW existiert. Im Zuge der Arbeit werden die Fachbegriffe rund um diese Themen erläutert und die Besonderheiten eines Data Warehouse im Vergleich zu operativen Datenbankapplikationen aufgezeigt. Um die Daten von einer solchen operativen Applikation in ein Data Warehouse zu übertragen, wird ein so genannter Extract-Transform-Load-Prozess durchgeführt, mit dessen Merkmalen sich diese Arbeit ebenfalls beschäftigt. Darauf aufbauend werden die dafür technisch eingesetzten Werkzeuge analysiert sowie deren Begrifflichkeiten geklärt. Auch die gesetzlichen Rahmenbedingungen des Datenschutzes, die direkten Einfluss auf ein Data Warehouse haben, werden im Verlauf der Arbeit dargelegt. Die Regelungen des Datenschutzes widersprechen jedoch den grundlegenden Charakteristika eines Data Warehouse. Diese Konfliktsituation sowie ein möglicher Lösungsansatz werden ebenfalls diskutiert. Mithilfe des Wissens aus dieser Vorbereitung werden die Dienstleistungen des Unternehmens erfasst und deren Datenhaltung analysiert. Durch die Einteilung in strukturierte Datenbankapplikationen und unstrukturierte Dateien wird sichtbar, dass ein Data Warehouse nur mit sehr großem Aufwand tatsächlich sämtliche Unternehmensdaten beinhalten kann. Anschließend wird ein gemeinsames Datenmodell für diese Daten geschaffen, welches die Daten aus der heterogenen Applikationslandschaft beherbergen wird. Abschließend wird ein Prototyp erstellt, der den Weg der Implementierung sowie die Möglichkeiten eines Data Warehouse und der dazugehörigen Werkzeuge beschreibt.
Zu erkennen, wo in einem Unternehmen Potentiale oder Schwachstellen zu finden sind, ist heute in kleinen und mittleren Dienstleistungsbetrieben genauso wichtig, wie die Marktanalyse oder eine perfekte Qualität der Dienstleistung. Um diese Informationen zu gewinnen, ist eine Applikation notwendig, welche die Fragen der Leistungsfähigkeit des Unternehmens beantwortet. Das Ziel dieser Arbeit war es, den Beweis zu erbringen, ob prozessorientierte Unternehmen wirtschaftlicher arbeiten als nicht prozessorientierte und ob ein Tool hilft, die Unternehmensleistung zu verbessern oder zu erhöhen. Um diese Arbeit überhaut schreiben zu können waren einige Schritte notwendig. Durch eine intensive Literaturreschere war es möglich das notwendige Spezialwissen aufzubauen. Auch wurden dabei neue Modell gefunden, welche in dieser Arbeit miteingebunden wurden. Der nächste Schritt war die genaue Beobachtung der Prozesse und Abläufe in einem Dienstleistungsbereich eines Unternehmens. Diese wurden genauestens dokumentiert und bei Unklarheiten wurden die am Prozess beteiligten Personen befragt. So entstand eine genaue Prozessdokumentation, welche für die Kennzahlendefinition und zum Entwickeln einer Software zur Unternehmenssteuerung Verwendung fand. Diese Steuerung wurde, nach Fertigstellung, im Unternehmen sofort umgesetzt. Dieses Unternehmen wurde auf prozessorientierte Arbeitsweise umgestellt und begleitet. Nach einer längeren Laufzeit wurde die Umstellung auf prozessorientierte Arbeitsweise evaluiert. Diese Evaluierung machte den nächsten Schritt der Arbeit möglich, eine „Process Scorecard“ zu entwickeln. Diese Scorecard ist ein kaum bekanntes Modell, um Prozesse zu überwachen, und um eine ganzheitliche Betrachtung auf das Unternehmen zu erhalten. Ein Prototyp dieser Monitoring Methode wurde entwickelt und die Gewichte zur Unternehmenssteuerung erarbeitet. Der letzte Schritt war die Befragung von Spezialisten, ob diese Scorecard eine Möglichkeit ist, um eine verbesserte Betrachtung auf die Prozesse zu erhalten. Das Ziel dieser Arbeit war es, festzustellen, ob ein Unternehmen, welches prozessorientiert funktioniert, wirtschaftlicher und effizienter arbeitet als vor der Umstellung. Die Ergebnisse zeigen eindeutig, dass bei optimaler Umsetzung und Einhaltung der Kultur des prozessorientierten Arbeitens, durchaus bessere Ergebnisse erzielt werden können als davor. Des Weiteren zeigten sich Führungskräfte von der „Process Scorecard“ überzeugt, dass diese die gesamte unternehmerische Betrachtung verbessert. In den Handlungsempfehlungen, die als Resultat dieser Arbeit zu sehen sind, wird weiter auf die Vorteile von Prozessen, im Unternehmen und was diese für wirtschaftliche Vorteile haben, eingegangen.
Durch die Aufteilung eines Systems in eine Vielzahl kleine, autonom agierende Services versprechen Microservices viele Vorteile wie beispielsweise die Komplexität von Software-Systemen zu reduzieren sowie deren Flexibilität und Wartbarkeit zu erhöhen. Dabei sollen Services von selbstständigen, voneinander unabhängigen Teams entwickelt, bereitgestellt und betrieben werden, um schnell auf geänderte Anforderungen reagieren und einzelne Systemteile ohne Beeinträchtigung des Gesamtsystems ändern zu können. Dies ermöglicht in weiterer Folge die gesonderte Skalierung einzelner Teile eines Systems, um so die Verfügbarkeit gezielt erhöhen und Betriebskosten reduzieren zu können. Diese Arbeit führt eine kritische Betrachtung dieses Architekturansatzes durch und ermittelt, welche Voraussetzungen notwendig sind, um damit monolithische, webbasierte Systeme zu modernisieren oder zu erweitern. Aufbauend auf einer theoretischen Ausarbeitung, welche in die Grundlagen von Microservices-Architekturen einführt, Methoden zur Erweiterung und Modernisierung monolithischer Legacy-Systeme beschreibt sowie Wege zeigt, wie ein bestehendes System aufgeteilt werden kann, wird ein Fragebogen ausgearbeitet, um die Erwartungshaltung von Personen im Umfeld der Softwareentwicklung zu erheben. Die Untersuchung zeigte, dass Unternehmen ein großes Interesse und eine hohe Erwartungshaltung an diesen technologischen Ansatz haben, sich aber auch der damit einhergehenden Nachteile, wie unter anderem die Erhöhung der technischen Komplexität des Gesamtsystems oder den steigenden Anforderungen an Betrieb und Infrastruktur, bewusst sind. Weiters wurde festgestellt, dass sich dieses Architekturparadigma nicht für jedes Unternehmen eignet und in der Regel organisatorische Änderungen für deren Einführung notwendig sind. Abschließend wird eine Handlungsempfehlung präsentiert, die, unter Berücksichtigung der zuvor ermittelten Ergebnisse, Möglichkeiten aufzeigt, diesen Architekturansatz auf bestehende Systeme anzuwenden sowie notwendige Voraussetzungen veranschaulicht, welche eine Organisation für die Einführung von Microservices zu erfüllen hat.
Der Einsatz ARM-Prozessor-basierter Systeme ist in den letzten Jahren durch den Aufstieg der Smartphones, sowie dem aktuellen Trend zum Internet of Things rasant angestiegen. Viele Unternehmen arbeiten daran, etablierte Systeme durch stromsparendere Varianten mit ARMSoCs zu ersetzen. Das Ziel dieser Arbeit ist es, die aktuelle Einsetzbarkeit dieser Systeme anhand des Beispiels des Raspberry Pi 3 Model B in Verbindung mit der Microservices Architektur zu evaluieren. Zu diesem Zweck wird im ersten Teilbereich dieser Arbeit auf die Besonderheiten der eingesetzten Hardware und auf die technologischen Barrieren eingegangen, die den Einsatz in Unternehmen erschweren und wie diese überwunden werden können. Aufbauend auf der zuvor erarbeiteten Umgebung wird im darauf folgenden Abschnitt auf die Besonderheiten der Microservices Architektur eingegangen. Hierbei werden Wege aufgezeigt, wie der Einsatz dieser Architektur auch auf dem Raspberry Pi in einer sicheren und redundanten Weise geschehen kann. Der dritte Abschnitt beschäftigt sich mit der Erarbeitung eines Gesamtkonzepts und dessen prototypischer Umsetzung in Form des Hardwareaufbaus, der gewählten Softwareumgebung, sowie einer beispielhaften Dienstekomposition für den Einsatz in Unternehmen. Als Ergebnis dieser Arbeit wird ein Konzept vorgestellt, mit welchem es möglich ist, beispielhafte Prozesse in Unternehmen zu realisieren. Zur Demonstration der praktischen Umsetzbarkeit wird abschließend ein Prototyp gezeigt, welcher als Proof of Concept dient. Aufgrund des erfolgreichen Aufbaus dieses Konzepts wurde die Hypothese H1 bestätigt, beziehungsweise die Hypothese H0 widerlegt. Aufbauend auf den Erkenntnissen dieser Arbeit kann in einer folgenden Arbeit der Prototyp zu einer vollwertigen Lösung, die den praktischen Einsatz ermöglicht, ausgebaut werden. Weiters können ähnliche Bereiche analysiert und gefunden werden in welchen eine Verwendung von ARM-Prozessoren mit der heutigen Technik bereits praxistauglich möglich ist.
Kundenorientiertes Marketing, hat sich in den letzten zehn Jahren sehr stark verändert und weiterentwickelt. Durch das Aufkommen des Smartphones wurden für Einzelhändler und Einzelhändlerinnen neue Möglichkeiten im Marketingbereich erschlossen. Durch das gezielte Ansprechen das immer präsenten Smartphones des Kunden oder der Kundin, entstand ein Bereich im Marketing der sich Mobile Marketing nennt. Die neueste technologische Errungenschaft im Bereich des Mobile Marketing nennt sich Beacon. Diese junge Technologie beinhaltet Hardware-Geräte, welche kleine Datenpakete mithilfe von Bluetooth Low Energy senden und empfangen. Die Beacons haben das Potenzial den Einzelhändlern und Einzelhändlerinnen zu unterstützen, um ihre Wettbewerbsfähigkeit zu wahren. Ziel dieser Arbeit ist es herauszufinden wie sich die Beacon Technologie auf Kunden und Kundinnen auswirkt. Deshalb wird im Rahmen dieser Arbeit die Beacon Technologie in zwei Beacon Applikationen umgesetzt. Diese Applikationen spiegeln das Potenzial wieder, welches diese Technologie mit sich bringt. Neben der Entwicklung ist die Aufbereitung eines Szenarios ein abschließender Kernpunkt der Arbeit. Dieses fiktive Szenario zeigt, wie der Einsatz der Beacon Technologie im Retail Bereich aussehen kann. Die Probanden und Probandinnen haben durch die Teststellung die Möglichkeit, die Beacon Technologie zu erleben und sich ihre Meinung darüber zu bilden. Anschließend werden die Probanden und Probandinnen, basierend auf dem zuvor erlebten Szenario, interviewt. Es wird gezeigt, wie sich die Beacon Technologie auf die Kunden und Kundinnen im Einzelhandel auswirkt. Im letzten Teil der Arbeit werden die gewonnen Informationen mithilfe der qualitativen Inhaltsanalyse ausgewertet. Es wird unter anderem festgestellt, welches Potenzial im Beacon unterstützen Marketing liegt.
Sichere App Entwicklung
(2017)
Sicherheit in mobilen Applikationen ist ein wichtiger Punkt in der mobilen Softwareentwicklung. Diese Arbeit hat sich das Ziel gesetzt, bekannte Sicherheitsrisiken aufzuzeigen und welche Angriffsvektoren sich im speziellen für die mobilen Apps und die dazugehörigen Applikationsserver ergeben, darzustellen. Der Fokus liegt auf das Erarbeiten sicherer Frameworks und Designregeln, die zur Wahrung der IT-Sicherheit eingehalten werden sollen. Der erste Teil bietet einen Einblick in die sichere Applikationsentwicklung. Es wird gezeigt, dass sich Sicherheitsprobleme über die Jahre verändert haben und das neue Angriffsvektoren hinzugekommen sind. Zusätzlich werden aktuelle Sicherheitsrisiken und die Sicherheitsmodelle der verwendeten Plattformen behandelt. Es wird gezeigt, wie Applikationen gegen Angriffe geschützt werden können. Der zweite Teil widmet sich unterschiedlichen Übertragungsmöglichkeiten, Angriffsmöglichkeiten und Verteidigungsmöglichkeiten. Es geht hervor, wie eine mobile Applikation attackiert werden kann und wie Abwehrversuche aussehen können. Diese Themen werden mithilfe von Beispielen verständlich dargestellt. Im praktischen Kapitel wird anhand von Tests erörtert, wie wichtig grundlegende Sicherungen von mobilen Anwendungen sind. Sie weisen auch darauf hin, dass nicht jede Verteidigung einen vollständigen Schutz bietet, aber Angriffe verlangsamen können. In Verbindung mit der theoretischen Ausarbeitung und den Erkenntnissen der Tests entstanden Frameworks und dazugehörige Designregeln. Diese bieten Anfängerinnen und Anfänger eine Grundlage für die sichere Applikationsentwicklung und sie dienen als Checkliste für erfahrene Entwicklerinnen und Entwickler.
Die Nutzung und das Angebot mobiler Apps steigt in den letzten Jahren merklich. AppEntwickler / App-Entwicklerinnen müssen durch den starken Konkurrenzkampf auf effiziente App-Marketing-Strategien setzen. Da die organische App-Store-Suche der gängigste Weg für Nutzer / Nutzerinnen ist, Apps zu finden, gewinnt App-Store-Optimierung zunehmend an Bedeutung. App-Store-Optimierung kann die Sichtbarkeit einer App innerhalb eines App-Stores signifikant erhöhen. Einschlägige Software wird dazu eingesetzt, um diesen Prozess aufgrund wachsender Komplexität, effizienter zu gestalten. In dieser Arbeit wird App-Store-Optimierung als Bestandteil im App Marketing betrachtet und wesentliche Prozessschritte und Faktoren ermittelt. Darüber hinaus wird ein existierendes App-Store-Optimierungs-Tool untersucht, um herauszufinden, wie und ob es App-Entwicklern / App-Entwicklerinnen effektiv im App-Marketing unterstützen kann. Folgend werden inhaltliche Verbesserungsvorschläge basierend auf einer qualitativen Befragung gefunden und mithilfe bekannter Service-Engineering-Werkzeuge innerhalb eines Frameworks untersucht. Die befragten Personen wurden aus dem Kundenstamm des betrachteten Tools ausgewählt und sind drei Fachmänner in App-Entwicklung und Marketing. Diese Arbeit zeigt auf, dass App-Store-Optimierung ein wesentlicher Punkt einer App-Marketing-Strategie ist. App-Store-Optimierungs-Tools kristallisieren sich zudem als notwendig heraus, um diesen Prozess möglichst effektiv zu gestalten. Trotz Automatisierung kann einschlägige Software menschliches Eingreifen oder Beratung jedoch nicht völlig ersetzen. Das untersuchte Tool erfüllt bereits die notwenigen Basis-Funktionalitäten, um App-Entwickler / App-Entwicklerinnen effektiv zu unterstützen, jedoch sollten die Erweiterungsvorschläge beachtet werden, um den Nutzen zu optimieren. Diese Arbeit dient als Anstoß zur Weiterentwicklung der untersuchten App-Store-Optimierungssoftware unter Berücksichtigung strategischer Aspekte und Marktsituation. Die Ergebnisse können dazu verwendet werden, um ein solches Tool auf thematische Schwerpunkte und Kundennutzen auszurichten.
Öffentliches WLAN bringt einen erheblichen Mehrwert für moderne Städte weltweit. Obligatorisch für die Umsetzung eines solchen Projekts ist ein umfassendes Modell zur Konzeptionierung einer urbanen WLAN-Infrastruktur. Auf Basis der Analyse des öffentlichen WLANs der steirischen Landeshauptstadt Graz wurde ein Modell entwickelt, dass als Leitfaden für Provider weltweit dienen kann. Ein bereits aktives Providernetzwerk ist als Grundvorrausetzung für die Inbetriebnahme des WLAN-Systems anzusehen, denn die Beschreibung zur Implementierung eines solchen Netzwerks ist nicht Gegenstand dieser Forschung. Die notwendigen Informationen zur Generierung des Modells basieren auf den Erkenntnissen durchgeführter Experteninterviews und aktueller technischer Literatur aus dem theoretischen Teil dieser Arbeit. Die befragten Sachkundigen lassen sich in drei Gruppen unterteilen. Gruppe eins besteht aus spezialisierten Facharbeitern in den Gebieten NetzDesign, Netzplanung und -wartung, sowie dem Betrieb von skalierenden und sicheren Rechenzentren. Experten der Gruppe zwei verfügen über fundiertes Wissen aus den Bereichen Wirtschaft und Tourismus in großen Städten. Gegenstand des Interviews der Gruppe drei sind die Themen Vertriebsmöglichkeiten und Projektmanagement. Aus technischer Perspektive ist abzuleiten, dass die Nutzeranzahl des WLAN-Systems auch ohne marketingtechnische Interventionen steigt, wenn das Modell zur Konzeptionierung einer urbanen WLAN-Infrastruktur angewendet wird. Aufgrund höherer Kapazitäten können mehr WLAN-Teilnehmer den Service verwenden. Für weitere akademische Arbeiten ist die Gesetzeslage zum Betrieb von öffentlichem WLAN ein offenes Forschungsthema. Im Detail muss analysiert werden inwiefern das steirische Baurecht, in Bezug auf die Installation von WLAN-Equipment, zu erweitern ist.
Die heutige Welt ist geprägt von wirtschaftlichen Zielen, die meist mit monetären Gewinnvorstellungen verbunden sind. Um diese zu erreichen, ist es wichtig die Kosten- und Budgetplanungen so exakt wie möglich durchzuführen. Dies gilt auch für das Gebiet des Service Level Management. Bei der Erstellung einer Leistungsbeschreibung zwischen Kunden und Lieferanten, einem sogenannten Service Level Agreement, muss oftmals ein Fixpreis vom Dienstleister für eine gewisse Laufzeit festgelegt werden. Da vorab meist wenige Informationen über den zu erwarteten Aufwand zur Verfügung stehen, ist ein gewisses Maß an Ungewissheit vorhanden. Aus diesem Grund ist es notwendig, durchdachte Kostenschätzungen durchzuführen. Diese können mittels verschiedenster Methoden aus unterschiedlichen Gebieten, wie Projektmanagement oder Softwareentwicklung, kommen. Jede dieser Schätzmethoden hat zum Ziel eine möglichst genaue Aussage zu liefern, welche Kosten oder Aufwände durch ein Arbeitspaket oder ein Projekt entstehen können. In dieser Arbeit werden unterschiedliche Schätzmethoden begutachtet. Dabei wird ein bestehendes Schätzmodell eines Unternehmens unter die Lupe genommen und mit der Planning Poker Methode, der Zielkostenrechnung und der Drei-Punkt Schätzung gegenübergestellt. Zusätzlich wird dieses Modell im Zusammenhang mit Service Level Agreements für Operations and Support Service Abteilungen in der IT auf Genauigkeit und Zuverlässigkeit geprüft. Dabei werden nicht nur Testversuche von verschiedenen Schätzmethoden durchgeführt, sondern auch Einflüsse und berücksichtigungswürdige Aspekte des Schätzens aufgezeigt und präsentiert.
Ganz nach dem Motto “If you can’t measure it, you can’t manage it.” von Kaplan und Norton (1996) war es Ziel dieser Masterarbeit, Kennzahlen für erfolgsrelevante Unternehmensprozesse im Bereich von Servicebetrieb und Kundensupport eines IT-Service Anbieters, zu identifizieren. Dazu sind zu Beginn theoretische Grundlagen zur Effektivität und Effizienz, zum Prozessmanagement sowie zum Thema IT-Infrastructure Library aufgearbeitet worden. Im Anschluss ist Theorie zu Metriksystemen beleuchtet und in diesem Zuge die Goal/Question/Metric-Methode untersucht worden. Anschließend ist das Unternehmen Infonova GmbH, im Besonderen die Geschäftseinheit Operations and Support, vorgestellt worden. Auf Basis der bisherigen theoretischen Erkenntnisse sind mithilfe einer SWOT-Analyse Erfolgsfaktoren auf die Infonova-spezifischen Erfolgspotenziale „Service-Pakete“ und „Flexibilität“ ermittelt worden. Durch Gewichtung der OPS-Prozesse mittels einer Prozess-Erfolgsfaktoren-Matrix und eines Prozessportfolios konnten die wichtigsten Geschäftsprozesse eruiert werden. Die drei wichtigsten Prozesse sind das Incident Management, das Change Management und das Problem Management. Mit Hinblick auf die erfolgsrelevantesten Geschäftsprozesse sind Metriken anhand der Goal/Question/Metric-Methode und den zuvor identifizierten Erfolgspotenzialen und Erfolgsfaktoren erarbeitet worden. Da es herauszufinden galt, ob Kennzahlen, welche systematisch im Kontext eines Top-DownAnsatzes abgeleitet werden, bei der Ausschöpfung von Erfolgspotenzialen im Serviceumfeld von Software unverzichtbar sind, sind die Metriken fünf Experten der Infonova GmbH vorgelegt und bei einem Interview sowie mittels eines Fragebogens bewertet worden. Im Zuge der Auswertung der Expertenbefragung konnte festgestellt werden, dass der Top-Down-Ansatz eine wichtige Basis zur Identifikation von Metriken darstellt. Abschließend sind zehn erfolgsversprechende Kennzahlen, die sich aus der Goal/Question/Metric-Methode und der Expertenbefragung ergeben haben, hervorgehoben worden. Diese Kennzahlen sollten in der Infonova GmbH implementiert werden, um Erfolg aus ihnen schöpfen zu können.
Microservices
(2016)
Der Fokus dieser Arbeit liegt auf dem Identifizieren und Verifizieren des Einflusses von Microservices auf die Codequalität von Softwareanwendungen. Im ersten Teil der Arbeit sind Definitionen und Architekturen der untersuchten Softwareapplikationen dargelegt. Dies beinhaltet die Definition von monolithischer Software und deren Architektur und die Definition von Microservices mit seinen Vorteilen (zum Beispiel die Skalierung durch automatisiertes Deployment) und Nachteilen (zum Beispiel höhere Komplexität durch die erhöhte Anzahl von Softwareteilen). Darauf folgt eine Analyse von den ähnlichen Softwarearchitekturkonzepten der serviceorientierten Architektur und den Self-contained Services. Der Theorieteil zu Microservices endet mit der Darstellung von Methoden zur Trennung von monolithischer Software in Microservices und wie diese Dienste wieder zu einer Gesamtanwendung zusammengeführt werden können. Zur Vervollständigung ist der aktuelle Forschungsstand auf dem Gebiet der Microservices angeführt und es wird ein Einblick in eine Auswahl an Softwaremetriken zur Erhebung von Softwarequalität gegeben. Im praktischen Teil der Arbeit wurden die theoretischen Erkenntnisse an einer Softwareapplikation angewandt. Von einem Monolithen wurden Microservices abgespalten und die resultierende Anwendung als auch der Monolith einer Softwarearchitekturanalyse unterzogen. Danach wurden Softwaremetriken für die Ausgangsapplikation und die Microservices berechnet, um festzustellen, ob sich die Codequalität verändert hat. Zum Abschluss wurde eine Analyse der Änderungsgeschwindigkeit in beiden Applikationen durchgeführt, gefolgt von Interviews mit Softwareentwicklern zu dem Qualitätsmerkmal Lesbarkeit von Quellcode. Die Ergebnisse zeigen eine Verringerung der Komplexität des entstandenen Quellcodes und eine Erhöhung der Lesbarkeit gegenüber der Ausgangsanwendung.
Die vorliegende Diplomarbeit befasst sich mit einer Konzeptualisierung der Markenauthentizität hinsichtlich bestehender Online-Marketingmaßnahmen zur Unterstützung markenstrategischer Entscheidungen. Es wird der Frage nachgegangen, welche Marketingmaßnahmen sich speziell im Internet dafür eignen, die Authentizität eines Unternehmens zu fördern. Ziel ist es, zu klären, welche Art des Online-Marketings sich besonders dafür eignet. Durch eine theoretische Ausarbeitung der Begriffe „Authentizität“ und „Marke“ wird deren Zusammenhang unter dem Begriff „Markenauthentizität“ dargestellt. In Folge wird eine weitere theoretische Untersuchung zur Konstruktion der Markenauthentizität anhand der „Identitätsbasierten Markenführung“ erarbeitet. Die erlangten Erkenntnisse erlauben den Bezug zur Sozialforschung und deren Modelle zur Prüfung eines Authentizitätsgrades. Innerhalb des empirischen Teils werden für die Untersuchung sechs Unternehmen und jeweils eine ausgewählte Online-Marketingmaßnahme vorgestellt. Auf Basis der von Burmann & Schallehn entwickelten Determinanten werden Aussagen entworfen, die innerhalb eines Onlinefragebogens eine Bewertung durch ProbandInnen hinsichtlich der Marke und der jeweiligen Online-Marketingmaßnahme ermöglichen. Durch die Gegenüberstellung der Ergebnisse kann im Einzelfall aufgezeigt werden, welche Marketingaktion authentisch gewirkt hat. Die Auswertung des Markenimages und der Marketingmaßnahme ergibt eine prozentuale Abweichung, die schlussendlich den Grad der Authentizität widerspiegelt. Die Gruppierung der Ergebnisse nach dem Marketing-Typ erlaubt eine Schlussfolgerung, welches strategische Vorgehen für ein Unternehmen förderlich im Hinblick auf die Authentizität ist. Das Resultat bestätigte aktuelle Marketingentwicklungen aus dem Bereich Content und Video Marketing und zeigt die Probleme der gewählten Online-Marketingmaßnahme auf.
The purpose of this thesis was to create a working prototype of a dynamic TFTP service for DOCSIS-compliant cable modem configuration files that can serve as a drop-in replacement for existing TFTP services while considerably improving the service‟s security and reducing the administrative effort required to create such configuration files. The goal was also to ensure that service does not impact legitimate clients and requires only minimal changes to the provisioning service flows and DHCP services. The paper first explains the components involved and examines an existing reference network and its inherent protocol-related weaknesses. The third chapter then focuses on creating a service blueprint for the dynamic TFTP service using the requirements derived from the examination, with the goal of remedying the detected weaknesses, as well as any weakness dictated by the reference network and those mandated by the ISO 27000. This chapter also defines the KPI and the scientific hypothesis. The next chapter deals with the design of the prototype (e.g. which language to use, how the prototype‟s code should work internally). Chapters five and six explain the code development, the test environment and the gathering of performance data to show how well the prototype performs when compared with the legacy solution. After gathering all the data, it was necessary to compare this to the previously defined requirements and KPI, as well as to the security clauses of the ISO 27000, which is done in chapter seven. The final chapter sums up the results from the previous chapters and presents an outlook for possible new functionality and how the service will most likely enter production service. The conclusion of this thesis is that it is indeed possible to create a dynamic TFTP service that fulfills all the requirements and reaches the necessary KPI values.
Das Ziel dieser Arbeit liegt darin, unterschiedliche Ansätze der Mensch-Maschinen-Interaktion hinsichtlich ihres Beitrags zur MitarbeiterInnenzufriedenheit zu untersuchen. Die ausgewählten Formen der Interaktion sind Berührung und Sprache. Im Mittelpunkt der Evaluation stehen Datenbrillen und deren Einsatz in einer intelligenten Fabrikumgebung. Diese Arbeit untersucht zunächst das Gebiet der Industrie 4.0 – insbesondere wie dieses Konzept entstand und was dieser Begriff bedeutet. Bestimmte Komponenten dieser Industrie werden nachfolgend beschrieben, gefolgt von einem Überblick über eine mögliche Zukunft der Industrie 4.0 und einigen wertvollen Tipps, wie kleine und mittelständische Unternehmen spezifische Features der Industrie 4.0 implementieren können. Da die Implikationen für die Belegschaft ein zentraler Bestandteil dieser Arbeit sind, werden sie am Ende dieses Teils ausführlich erläutert. Der dritte Abschnitt konzentriert sich auf die Zufriedenheit der MitarbeiterInnen. Motivation, Engagement und Determinanten der Zufriedenheit werden zuerst beschrieben. Danach folgt eine Diskussion über relevante Aspekte des demografischen Wandels sowie über Methoden zur Messung von Zufriedenheit. Der finale Abschnitt beschreibt die durchgeführte Studie. Alle verschiedenen Aspekte (d. h. Hardware, Software, Prozesse und Verfahren) werden in diesem Abschnitt detailliert beschrieben. Zusätzlich werden die gesammelten Daten qualitativ und quantitativ analysiert. Schließlich werden die Hypothesen bewertet. Die Ergebnisse zeigen, dass menschliche Faktoren (z. B. Persönlichkeit, Erfahrung mit Datenbrillen, Erwartungen bezüglich potenzieller Vorteile der Nutzung digitaler Assistenzsysteme) keine wesentlichen Auswirkungen auf die Zufriedenheit haben. Vielmehr sind das Ausmaß der wahrgenommenen Vorteile auf die tatsächliche Nutzung der Technologie und die Benutzerfreundlichkeit die primären Faktoren, die Auswirkungen auf die Zufriedenheit der MitarbeiterInnen haben.
Diese wissenschaftliche Arbeit untersucht die Effizienzsteigerung in der Personalbeschaffung mittels dem Einsatz von IKT-Services. Zu Beginn wurde eine Literaturrecherche zu den Themen Personalbeschaffung, Candidate Experience und Entwicklung von IKT-Services durchgeführt, auf deren Grundlage die Customer Journey Maps aus Sicht des Bewerbers und aus Sicht des Recruiters erstellt wurden. Diese erstellten Customer Journey Maps wurden durch die Erkenntnisse aus dem durchgeführten Experteninterviews mit dem Unternehmen PIDAS erweitert. Das Ziel dieser wissenschaftlichen Arbeit ist die Gestaltung einer effizienten Candidate Journey und die Analyse kritischer Erfolgsfaktoren aus der Sicht der Bewerber und aus der Sicht der Recruiter. Aus diesem Grund wurden die erstellten CJMs mittels Personas durchlaufen, um somit die Erfolgsfaktoren zu ermitteln. Aus diesen Erfolgsfaktoren wurden anschließend Ideen für IKT-Services generiert, welche folgend mittels einer Nutzwertanalyse bewertet wurden. Für die vier Ideen mit der höchsten Gesamtbewertung wurde im Anschluss ein Service Konzept entworfen. Das Ergebnis dieser wissenschaftlichen Arbeit zeigt, dass IKT-Services zur Effizienzsteigerung in der Personalbeschaffung beitragen, sowie auch die IKT-Services, welche im Zuge dieser Masterarbeit konzipiert wurden.
In den vergangenen Jahren wurden individuelle Services für Kundinnen und Kunden immer wichtiger (Bruhn, 2015). Auch auf Mitglieder service- und qualitätsorientierter Fitnessstudios trifft dies zu. Um die Bedürfnisse ihrer Mitglieder weiterhin umfassend befriedigen zu können, müssen derartige Premium-Studios ihr Serviceangebot erweitern. Durch die Verbreitung von Smartphones und Apps haben sich hierfür neue Chancen und Möglichkeiten ergeben. Erfolgreiche Fitness-Apps wie Freeletics oder Runtastic zeigen, dass einige Personen zur Erreichung ihrer sportlichen Ziele durchaus auf Apps zurückgreifen. Obwohl sich die Zielgruppen von Premium-Studios und Fitness-Apps unterscheiden, können Premium-Studios ausgewählte Funktionalitäten aus diesen Apps deren eigenen Mitgliedern anbieten. In dieser Arbeit wird der Prototyp einer Service-App für Premium-Studios erstellt. Dabei ist es notwendig herauszufinden, welche Funktionalität das Leistungsbündel dieser Unternehmen sinnvoll ergänzt. Zunächst wird der angebotene Leistungsumfang von unabhängigen FitnessApps sowie Fitness-Apps und Websites von anderen Fitnessstudios untersucht. Ebenso ist es unerlässlich Usability und Akzeptanzkriterien zu berücksichtigen. Anschließend werden die Mitglieder eines Premium-Studios befragt. Die Erkenntnisse der zuvor genannten Untersuchungen fließen dabei in die Befragung mit ein. Das Ergebnis zeigt, dass die Mitglieder einen Mehrwert für sich erkennen, wenn ein Fitnessstudio diverse Mobile Services anbietet. Zusätzlich wird ein Marketing Konzept entworfen. Das Konzept zielt auf die Kommunikation der Vorteile an bestehende Mitglieder ab. Dabei soll deren Bewusstsein für den angebotenen Mehrwert erhöht werden.
Der wirtschaftliche Erfolg von Unternehmen hängt heutzutage von unzähligen Faktoren ab. Ein essentieller Faktor sind dabei Softwareapplikationen, die als Unterstützung zur Abwicklung von Geschäftsprozessen eingesetzt werden. Jedoch handelt es sich meist um überteuerte und zugleich vertraglich gebundene Systeme. Die wohl am häufigsten eingesetzten Systeme sind ERP-Systeme, womit sämtliche Geschäftsprozesse abgebildet werden. Die Verfügbarkeit am Markt von proprietären ERP-Systemen ist groß. Frei zu verwendende Open Source Lösungen existieren, werden aber trotzdem kommerziellen ERP-Applikationen nachgestellt. Aufgrund dessen setzt sich diese Arbeit als Ziel ein Einführungsmodell für Open Source - zu entwickeln. Diese Roadmap soll die Transparenz eines ERP-Einführungsprozesses verwerfen und genügend Know-How zur Verfügung zu stellen, um eine frei zugängliche ERP-Applikation erfolgreich in einem Unternehmen zu implementieren. Des Weiteren werden kritische Themen wie Sicherheit und Stabilität in Bezug auf Open Source Lösungen behandelt. Zusätzlich soll diese Schrift Aufschluss darüber geben, welche Open Source ERP-Systeme für den Einsatz in kleinen und mittleren Unternehmen am besten geeignet sind. Die vorliegende Arbeit zeigt, dass sich das entwickelte generische Einführungsmodell für Open Source ERP-Systeme sehr gut für eine erfolgreiche Implementierung eignet. Anwendung findet es dabei speziell bei der Einführung in kleinen und mittleren Unternehmen. Durch die Abarbeitung der aus der Roadmap generierten Checkliste ist es möglich, die Integrierung Schritt für Schritt vorzunehmen. Dadurch wird die Wahrscheinlichkeit von Fehlimplementierungen erheblich verringert. Zusätzlich stellt die detaillierte Gegenüberstellung von drei annehmbaren Open Source ERP-Systemen eine gute Basis für die Auswahl einer frei zugänglichen Software dar. Die Betrachtung einer spezifischen Softwarelösung ist ein weiterer Vorteil, da sie einen ausführlichen Einblick in ein kostenfreies ERP-System gewährt. Im Zuge der Arbeit ist zu erkennen, dass Open Source ERP-Systeme einer kommerziellen Lösung kaum etwas nachstehen. Die Standardfunktionalitäten sind gegeben, und die Anpassungen an die Organisation können ebenfalls sehr einfach vorgenommen werden. Anhand des generischen Einführungsmodells ist es demnach möglich, ein Open Source ERP-System zu implementieren und in weiterer Folge operativ im Unternehmen einzusetzen.
Mobility as a Service
(2016)
Diese Arbeit befasst sich mit dem Thema der Elektromobilität und welche Einflussfaktoren auf die Navigationsführung einwirken. Durch die steigenden Rohölpreise steigen auch die Preise für Diesel und Benzin, welche für den Antrieb eines konventionellen Kraftfahrzeuges benötigt werden. Deshalb sind neue Technologien gefordert, um einerseits den Endkunden zufriedenstellen zu können, aber auch den technisch-technologischen Anforderungen und verschärften Umweltstandards gerecht zu werden. Um dieser Anforderungsentwicklung gerecht zu werden und etwas entgegensetzen zu können, sind neue Denkweisen und neue Technologien notwendig, die auf den Verbrennungsprozess in einem Kraftfahrzeugmotor verzichten können. Die Elektromobilität bietet hier einen hinreichenden Ansatz, um in diese Richtung weiter entwickeln zu können. Um diesen Weg einschlagen zu können, muss hierfür auch die erforderliche Infrastruktur aufgebaut werden, wodurch Lademöglichkeiten für Elektrofahrzeuge geschaffen werden, welche vom Prinzip mit herkömmlichen Tankstellen gleichzusetzen sind. Die neuen Technologien und der damit einhergehende Energieverbrauch im Fahrzeug, führt auch zu neuen Anforderungen an Navigationssysteme. Diese müssen Faktoren wie Batteriekapazität, Energieverbrauch und die damit einhergehende Restreichweite in Kombination mit Örtlichkeiten der Ladestationen berücksichtigen, berechnen und anzeigen. Zusätzlich wirken Attribute wie Geländesteigung und Heizung des Fahrzeugs im Winter auf den Energieverbrauch des Elektrofahrzeuges ein. Um die speziellen Anforderungen und Bedürfnisse für Navigationssysteme in Elektrofahrzeugen zu erheben, wurde eine Onlineumfrage gestartet. Durch eine Onlineumfrage kann auf einfachem und schnellen Weg eine große Gruppe von Personen adressiert und befragt werden. Auf Basis der Ergebnisse der Onlineumfrage, wurde eine Fahrradroute erstellt, die auf die speziellen Situationen von Geländeveränderungen abgestimmt worden ist. Simulierte Unterbrechungen von 40 Minuten stellten jeweils eine Ladesituation dar. Die Unterbrechung fand hierbei an verschiedenen Stellen mit unterschiedlichen Ausprägungen statt. Dadurch wurde ermittelt, welche Bedürfnisse die Personen an den unterschiedlichen Stationen haben und wie sich der Gemütszustand durch die unterschiedlichen Gegebenheiten Vorort gestaltet und beeinflussen lässt. Neue Technologien, wie es die Elektromobilität darstellt, stellen die Gesellschaft vor neue Herausforderungen. Die Infrastruktur muss aufgebaut werden, die Energieversorgung muss sichergestellt werden und die Akzeptanz beim Benutzer gefördert werden.
Highspeed Fotografie
(2016)
Aufgrund des technischen Fortschritts der letzten Jahrzehnte hat sich das Bild des Fotografen stark gewandelt. Durch die immer besser werdenden Produktionsverfahren und dem damit verbundenen Fallen der Produktionskosten, sind hochwertige Spiegelreflexkameras bereits für wenige hundert Euro erhältlich. Dies ist einer der Gründe warum die Fotocommunity in den letzten Jahren einen wahren Boom erlebt hat. Fotoenthusiasten rund um die Welt teilen im Internet ihre Erfahrungen und Anleitungen, um in die verschiedenen Bereiche der Fotografie einzutauchen. Einer dieser Bereiche ist die Highspeed-Fotografie, welche zu den am schwersten zugänglichen Gebieten in der Fotografie zählt, da viele der möglichen Ausprägungen, wie etwa Tropfenfotografie und Ballistik Shooting, nur mit spezieller Hardware umsetzbar sind. Während einfache Settings, wie beispielsweise das Fotografieren eines fallenden Topfens, noch manuell durch Probieren machbar sind, gibt es komplexere Szenarien, wie Tropfen-auf-Tropfen Bilder, die ohne spezielle Hardware nicht realisierbar sind. Oftmals wird im Hobbyfotografie-Bereich ein Mikrocontroller wie der Arduino UNO eingesetzt. Diese Mikrocontroller haben allerdings den Nachteil, dass sie für Anwender ohne entsprechende Kenntnisse nur schwer programmierbar sind und dem Benutzer kein grafisches Interface anbieten, um alle benötigten Einstellungen vornehmen zu können. Um diese Einschränkungen des Mikrocontrollers zu umgehen, wird in dieser Arbeit ein Raspberry Pi genutzt, welcher ein Embedded System darstellt und damit zwar eine grafische Oberfläche und Netzwerkfähigkeit bietet, jedoch nicht echtzeitfähig ist. Im Zuge dieser Arbeit wird nun mithilfe einer Literaturrecherche und Experimenten ein Raspberry Pi soweit optimiert, dass er in der Lage ist Echtzeitanwendungen im Bereich der Highspeed-Fotografie durchzuführen. Durch einen Vergleich der Ergebnisse zwischen einer Microcontroller – basierten und einer Raspberry Pi Lösung wird analysiert, ob der Raspberry Pi nach den durchgeführten Verbesserungen in der Lage ist, eine ausreichende Echtzeitfähigkeit für die Highspeed-Fotografie zur Verfügung zu stellen und somit Highspeed Fotografie zu ermöglichen.
Startups stehen in den letzten Jahren – nicht zuletzt durch deren starke mediale Präsenz – im Rampenlicht der politischen Diskussion. Es steht außer Zweifel, dass diese jungen Unternehmen die Unternehmenslandschaft des 21.Jahrhunderts maßgeblich mitgestalten werden. Die Finanzierungsbedürfnisse von Startups werden jedoch durch existierende Finanzinstitute (z.B. Banken) auf Grund der regulierten Vergaberichtlinien von Unternehmenskrediten vermehrt durch alternative Finanzierungsinstrumente aus dem privaten Sektor gedeckt. Diese Instrumente sind als solche zwar nicht neu, jedoch stehen Startup-Gründer vor der Herausforderung, einerseits vergleichsweise anspruchsvolle Finanzierungsinstrumente und deren Auswirkungen auf das Unternehmen zu verstehen und andererseits an das nötige Kapital heranzukommen. Diese Arbeit unternimmt den Versuch, relevante theoretische Grundlagen zu diesem Themengebiet zu beleuchten, um im Anschluss die Frühphasenfinanzierung und relevante Erfolgsfaktoren zu identifizieren und deren Relevanz zu quantifizieren. Somit steht dem Praktiker und dem Unternehmensgründer ein Leitfaden zur Verfügung, der in Ergänzung zu bestehender Literatur herangezogen werden kann. Dabei werden Erkenntnisse, welche einerseits auf qualitativen Untersuchungen durch die Einbeziehung von österreichischen Expertem im Bereich Venture Capital und andererseits auf quantitativen Erhebungen unter Startup-Gründern beruhen, gewonnen. Die gewonnenen Erfolgsfaktoren gliedern sich dabei in die Bereich Geschäftsführung, Gründungsmitglieder, Geschäftsmodell, Unternehmensauftritt und Investmentprozess. Dabei hat sich gezeigt, dass Variablen, welche aus dem Humankapitaltheorieansatz gewonnen wurden, von hoher Relevanz sind. Diese stehen in Zusammenhang mit den Attributen der Gründungsmitglieder und den Geschäftsführern und beziehen sich vordergründig auf deren emotionale Bindung zum Unternehmen und deren Erfahrung in der Unternehmensgründung, der jeweiligen Branche und Berufserfahrung generell. Erstmalig wurde im Rahmen dieser Arbeit auch die Corporate Governance untersucht, wobei speziell die Gesellschafterstruktur und die Anzahl der Gesellschafter und deren Einfluss auf den Erfolg zur Erlangung einer Frühphasenfinanzierung unter österreichischen Startups und Investoren erhoben wurde. Dabei wurde festgestellt, dass die Anzahl der Gesellschafter eines Startups indirekt proportional zum Abschluss einer Frühphasenfinanzierung steht. Diese These wurde durch österreichische Experten in diesem Fachgebiet untermauert.
Das Platzieren und Verkaufen von eigengenutzten Immobilien verzögert sich häufig durch unterschiedliche Preisvorstellungen. Abhilfe kann ein Vergleich der zu veräußernden Immobilie mit bereits verkauften Vergleichsobjekten schaffen. Mit Hilfe einer Dienstleistungs-App besteht die Möglichkeit, den Maklerinnen und Maklern passende Vergleichspreise aus existierenden Kaufpreisdatenbanken liefern zu können. Mit dieser Arbeit wird ermittelt, inwieweit eine Dienstleistungs-App für einen Preisvergleich zu einer Effizienzsteigerung im Prozess des Platzierens und Verkaufens von eigengenutzten Immobilien führt. Der Fokus liegt auf dem österreichischen Markt, weil der Zugang zu digitalen Kaufpreissammlungen in anderen Ländern zum Teil schwierig oder gar unmöglich ist. In Österreich existieren bereits Anbieter digitaler Kaufpreissammlungen, die für eine derartige App die grundlegende Voraussetzung darstellen. Im Rahmen dieser Arbeit wird ein Prototyp einer mobilen App konzipiert, über den eine Dienstleistung konsumiert werden kann. Die Vorgehensweise orientiert sich an einem Service Engineering Prozess, um die Dienstleistung von der ersten Idee bis zur Markteinführung basierend auf einer etablierten Vorgehensweise entwickeln zu können. Zu Beginn werden Anforderungen an Dienstleistungs-Apps aus der Literatur und durch die Ableitung aus praktischen Beispielen ermittelt. Zudem erfolgt eine Einarbeitung in die Immobilienbewertungsverfahren in Österreich. Das gesammelte theoretische Wissen fließt in die Konzeption einer zweiteiligen Expertenbefragung von Immobilienmaklerinnen und -makler ein. Im ersten Teil dieser Befragung werden die Anforderungen an eine mobile App für den Immobilienpreisvergleich ermittelt. Die Ergebnisse fließen anschließend in die Umsetzung eines Prototyps ein, der im zweiten Teil der Befragung von den Expertinnen und Experten hinsichtlich der erreichten Effizienzsteigerung bewertet wird. Im Rahmen dieser Arbeit konnten zahlreiche relevante Anforderungen an eine mobile App für den Immobilienpreisvergleich identifiziert werden. Die Ergebnisse der Arbeit zeigen auch, dass die Expertinnen und Experten großes Potenzial in einer mobilen App sehen, die die Effizienz im Prozess des Preisvergleichs von eigengenutzten Immobilien in Österreich steigert.
Die Einführung von Dokumenten-Management-Systemen (DMS) wird häufig durch großen Widerstand und fehlende Akzeptanz der Anwenderinnen und Anwender begleitet. Diese Arbeit hat sich zum Ziel gesetzt, zu untersuchen, welche Maßnahmen - bezogen auf das Projektmarketing - die Einführung eines DMS unterstützen können, sodass die Einführung akzeptiert, aber auch die zukünftige aktive Verwendung durch die Mitarbeiterinnen und Mitarbeiter mitgetragen wird. Im ersten theoretischen Teil werden die Grundlagen des Dokumenten-Managements und von DMS sowie des Projektmarketings dargestellt. Aus der angeführten Literatur geht hervor, dass Projektmarketing-Maßnahmen die Akzeptanz eines einzuführenden DMS durch die Mitarbeiterinnen und Mitarbeiter unterstützen und dass Kommunikation sowie Information wesentlich für den Projekterfolg sind. Im zweiten praktischen Teil dieser Arbeit wird eine empirische Befragung durchgeführt, die es zum Ziel hat herauszufinden, welche konkreten Maßnahmen des Projektmarketings die Akzeptanz für ein DMS-Einführungsprojekt und die damit verbundene spätere Nutzung eines DMS durch Mitarbeiterinnen und Mitarbeiter unterstützen und verbessern können. Die Auswertung der Befragung ergab, dass die Einbeziehung der Mitarbeiterinnen und Mitarbeiter schon in der Analysephase und die laufende Information zum Projektfortschritt für die Befragten für die spätere Akzeptanz eines DMS wichtig sind. Die Befragung ergab ebenfalls, dass schon der Einsatz von Projektmarketing-Maßnahmen selbst zu einer besseren Akzeptanz für ein einzuführendes DMS führen kann und dass Kommunikation und Information die Basis ist, um bei den Mitarbeiterinnen und Mitarbeitern Vertrauen für ein einzuführendes DMS zu schaffen. Die Forschungsfrage kann damit beantwortet werden, dass durch den Einsatz von konkreten Maßnahmen des Projektmarketings wie Informationsveranstaltungen, Schulungen, Projektbriefkästen und Workshops die Akzeptanz für ein DMS-Einführungsprojekt und die damit verbundene spätere Nutzung eines DMS durch Mitarbeiterinnen und Mitarbeiter unterstützt und verbessert wird.
Service Engineering, ein Begriff, der mit dem Strukturwandel an Bedeutung gewonnen hat. Durch den zunehmenden Einsatz des Internets und der damit verbundenen Ansammlung und Nutzung an Daten durch die Gesellschaft hat sich eine eigene Service Richtung entwickelt, Smart Data Services. Diese Smart Data Services weisen bestimmte Faktoren in Bezug auf Wissen, Daten, Voraussetzungen und Reaktionsfähigkeit auf, welche eine differenzierte Betrachtungsweise benötigen. Das übergeordnete Ziel dieser Arbeit ist es, Personen und Organisationen ein strukturiertes Vorgehen zur Entwicklung und Innovation von Smart Data Services in die Hand zu gegeben. Die vorliegende Arbeit zeigt diese Faktoren auf, um die Besonderheiten von Smart Data Services zu betrachteten und dadurch die Nützlichkeit der entwickelten Services zu verbessern. Dabei wird ein explorativ weiterentwickeltes Service Engineering Modell mit Personen evaluiert. Dieser Teil der Arbeit setzt sich aus Fallstudie, Experiment, Interview und Fragebogen zusammen. Damit wird die Benutzerfreundlichkeit und Nützlichkeit des entwickelten Service und des verwendeten SE-Modells, sowie dessen Zusammenhang mit drei Gruppen zu je vier Personen evaluiert. Die Forschungsergebnisse dieser Arbeit zeigen, dass die Betrachtung bestimmter Faktoren des Smart Data Service Einfluss auf den Service Engineering Prozess nehmen. Durch das Interview konnte festgestellt werden, dass die Nützlichkeit und die Benutzerfreundlichkeit als positiv wahrgenommen wurden und daher zu einer höheren Nutzungsintention des Service Engineering Modells führen. Weiteres wurde der Zusammenhang zwischen dem verwendeten Service Engineering Modell und dem entwickelten Service betrachtet. Damit konnte die Forschungsfrage dieser Arbeit beantwortet werden. Mit der in dieser Arbeit durchgeführten Forschung zum Thema Service Engineering wurde die Basis für das Hinzufügen weiterer Methoden und Werkzeuge gegeben. Weiteres wurden Betrachtungsmöglichkeiten im Modell aufgezeigt, um für künftige Forschung Anknüpfungspunkte zu schaffen.
Die Verbreitung agiler Vorgehensmodelle wie Scrum nimmt stetig zu. Um ein Projekt professionell zu managen ist dennoch der Einsatz von traditionellen und etablierten Projektmanagementmethoden notwendig. Es scheint jedoch, dass Unternehmen bei der konkreten Verknüpfung agiler und traditioneller Methoden Probleme haben. Das Ziel dieser Arbeit war, an ProjektleiterInnen gerichtete Handlungsempfehlungen für ein Szenario bereitzustellen, in dem ein Gesamtprojekt traditionell geführt wird, ein Teilprojekt jedoch mit Hilfe von Scrum effizienter und flexibler abgewickelt werden soll. Es wurde als notwendig erachtet, zur Behandlung des Themas Informationen aus der Literatur und der Praxis zu kombinieren. Der erste Schritt der Arbeit war eine Literaturrecherche zur Einholung von Informationen über traditionelles Projektmanagement und Scrum. Der nächste Schritt war das Durchführen von Interviews mit Personen aus der Wirtschaft, welche mehrjährige Erfahrung mit traditionellem Projektmanagement und/oder Scrum besitzen. Der Zweck der Interviews war die Erhebung, wie Gesamtprojekte in der Praxis abgewickelt werden, und die Identifikation primärer Herausforderungen bei einer möglichen Integration von Scrum. Die identifizierten Probleme wurden jeweils mit vergleichbaren Informationen aus der Literatur verknüpft um daraus Handlungsempfehlungen abzuleiten. Der abschließende Schritt waren Evaluierungsinterviews zur Prüfung der Praxistauglichkeit der Handlungsempfehlungen. Die erarbeiteten Handlungsempfehlungen behandeln die Themen Leistungs-, Termin- und Ressourcenplanung sowie Koordination und Controlling. Die Ergebnisse zeigen, dass eine Integration von Scrum in ein Gesamtprojekt praxistauglich ist. Die Handlungsempfehlungen als Resultat dieser Arbeit können im wirtschaftlichen Kontext eingesetzt werden um die Vorteile von Scrum im Rahmen eines traditionell geführten Gesamtprojekts zu nutzen.
Informationstechnologien sind heutzutage auch in kleinen und mittleren Unternehmen ein wesentlicher Faktor für den Unternehmenserfolg. Demzufolge ist eine strategische Planung auch in diesem Bereich von Nöten, um wettbewerbsfähig zu bleiben. (Mangiapane & Büchler, 2014) Zu diesem Zweck nimmt es sich die vorliegende Arbeit als Ziel ein Vorgehensmodell zu erstellen, das es auch den kleinen und mittleren Unternehmen ermöglicht eine IT-Strategie zu entwickeln. Um ein gemeinsames Verständnis für die relevanten Begrifflichkeiten zu haben wird zunächst die theoretische Basis in den Bereichen der Informationstechnologien und des IT-BusinessAlignment aufgearbeitet. Im Anschluss daran werden die bestehenden Modelle zur ITStrategieentwicklung von Johanning (2014), Mangiapane und Büchler (2014) und Tiemeyer (2011) kurz beschrieben. Da diese Modelle teilweise unterschiedliche Schritte aufweisen wurden die unterschiedlichen Ansätze anschließend in die Schritte des allgemein gültigen Strategie Entwicklungsprozesses nach Kaplan und Norton (2009) eingegliedert. Durch diese Einordnung ergab sich eine gewisse Vergleichbarkeit. Dieser Vergleich erfolgte in Form einer Nutzwertanalyse. Die Kriterien für diese Analyse wurden anhand der Literaturforschung im Bereich der kleinen und mittleren Unternehmen ermittelt. Die Gewichtung der Kriterien erfolgte anhand des Paarvergleiches. Dieser Paarvergleich wurde von 44 Unternehmen unabhängig voneinander durchgeführt. Dadurch ergab sich in Summe ein aussagekräftiges Ergebnis für KMU. Durch diese Analyse wurden die für kleine und mittlere Unternehmen relevanten Schritte pro Modell herausgefiltert und somit ein neues Vorgehensmodell ermittelt. Dieses Modell wurde anschließend in einem Musterunternehmen angewandt. Im Anschluss daran wurden Tiefeninterviews mit den Beteiligten des Prozesses aus dem Musterunternehmen durchgeführt und mittels der qualitativen Inhaltsanalyse nach Mayring (2010) ausgewertet. Die Ergebnisse zeigen, dass sich das Modell für das betrachtete Unternehmen sehr gut eignet. Es ist jedoch unklar, ob das Modell in kleineren Unternehmen ähnliche Ergebnisse erzielen kann, da es teilweise hohes theoretisches Wissen erfordert. Dies muss mit weiteren Musterumsetzungen ermittelt werden.
In dieser Arbeit wird ein Vorgehensmodell zur Systematisierung der Entscheidungsfindung im Stage-Gate® Prozess nach Cooper entwickelt. Damit können Fragestellungen in den Gates sicher beantwortet werden, indem mit Hilfe von Leitfäden die Themen der Rollenbesetzung, Rollenverantwortlichkeiten, Terminfindung, Zieldefinition, die Definition der Kriterien und die Auswahl der Entscheidungsverfahren erleichtert wird. Dazu werden die verteilten Informationen rund um den Stage-Gate® Prozess zusammengefasst und ergänzt und die Entscheidungstheorie, Rollen aus Unternehmen mit Innovationsprozessen, Entscheidungsmethoden und Verfahren besprochen. Zu den wichtigsten Erkenntnissen zählt, dass der Stage-Gate® Prozess als kontinuierlicher Entscheidungsprozess gesehen werden kann. Hierbei ist Fokus auf die Problemaufklärung zu legen und die Entscheidungsziele pro Gate müssen klar definiert sein. Hieraus ergeben sich für jedes Gate die Ziele und die daraus abgeleiteten Arbeitsaufträge für die Stages zwischen den Gates. Die Aufklärungsarbeit zwischen den Gates ist bereits als Teil der Entscheidungsfindung zu sehen. Auch ist der Ablauf des Stage-Gate® Prozesses detailliert aufgeschlüsselt, dieser enthält die Handlungsvorschläge für die beteiligten Personen, klärt ihre Rolle und Verantwortlichkeiten und hilft beim terminlichen und operativen Ablauf des Prozesses. Diese Arbeit kann als Arbeitsleitfaden für Prozessverantwortliche und Entscheider im Rahmen der Projektdurchführung in Unternehmen mit Innovationsprozessen dienen. Der Aufbau der Arbeit umfasst die theoretische Behandlung des Stage-Gate® Prozesses und die Zusammenfassung der verteilten Informationen. Theoretischer Input für die Erweiterung und Systematisierung wird anhand der Theorie aus Entscheidungsfindung, Rollen in Unternehmen mit Innovationsprozesses und Entscheidungsmethoden und Verfahren bezogen. Der Praxisbezug wird über die Evaluierung des Vorgehensmodell zur systematisierten Entscheidungsfindung durch Experteninterviews hergestellt. Am Ende dieser Arbeit findet sich eine Zusammenfassung der Erweiterungen und ein schematischer Ablauf der Schritte zur Einführung und Durchführung des Vorgehensmodells.
Die Arbeit beschäftigt sich mit einem freihandgeführten 3D-Laser-Scanner und dessen potentiellen Anwendungsfeldern, sowie möglichen Geschäftsmodellvarianten für den Laserscanner. Der handgeführte 3D-Laserscanner wurde vom Unternehmen Weitzer Parkett in Kooperation mit Joanneum Research entwickelt. Im Theorieteil der Arbeit werden die technischen Möglichkeiten des Scanners analysiert und mit anderen Messsystemen am Markt verglichen. Parallel beschäftigt sich die Arbeit mit der dem Unternehmen Weitzer Parkett und dessen Bedürfnissen und Möglichkeiten. Des Weiteren werden potenzielle Anwendungsfelder für den Scanner identifiziert. Daraus wird ein Vorgehensmodell abgeleitet, welches zum Erstellen der von drei generischen Geschäftsmodellvarianten genutzt wird. Diese Geschäftsmodellvarianten basieren auf bestehenden Geschäftsmodellvarianten sowie auf den Ergebnissen der Theorie. Im anschließenden Praxisteil werden die Ergebnisse aus der Theorie, sowie die erhaltenen generischen Geschäftsmodellvarianten mit Hilfe von Experteninterviews verifiziert oder gegebenenfalls abgeändert. Nach dem Vergleich der zahlreichen Optionen und Potenziale des 3D-Laser-Scannerers wird eine für das Unternehmen Weitzer Parkett geeignete Geschäftsmodellvarianter ausgefühlt und für das Unternehmen ausformuliert. Am Ende der Arbeit befindet sich, neben dem Resümee, eine Handlungsempfehlung für das Unternehmen.
Die Blockchain-Technologie hat in den vergangenen Jahren viele datenbankbasierte Anwendungen mittels Steigerung von Transparenz, Vertrauen und Sicherheit innoviert. Von diesen Faktoren kann auch die Lebensmittelindustrie profitieren. Die vorliegende Masterarbeit hat daher das Ziel, mögliche Potenziale der Nutzung der Blockchain-Technologie für die Rückverfolgung von Lebensmitteln zu untersuchen. Dafür wurden aus der Literatur zum einen die Bedürfnisse der Lebensmittelindustrie und zum anderen die inhärenten Merkmale und Möglichkeiten der Blockchain-Technologie erarbeitet und in Kontext gesetzt. Zudem wurden drei lebensmittelspezifische Anwendungsfälle in verschiedenen Entwicklungsstadien ermittelt und analysiert. Aus den gewonnenen theoretischen Erkenntnissen konnten vier Einsatzpotenziale festgestellt werden. Daraus wurden Einsatzmodelle ausgearbeitet, welche in weiterer Folge von 10 Experten auf ihre zeitnahe Realisierbarkeit und Relevanz für die Lebensmittelbranche bewertet und weiterentwickelt werden konnten. Das Ergebnis der praktischen Arbeit im Rahmen dieser Masterarbeit ist die Erstellung eines Modells zur Rückverfolgbarkeit von Bio-Gütesiegeln auf Basis der Blockchain-Technologie, welches sowohl zeitnahe umsetzbar ist als auch ein hohes Potenzial für den aktuellen Markt hat.
The machining industry is one of the oldest and most traditional industry from the last two centuries. Its development at the early beginning supported the well-known “industrial revolution” period, and over the years, new technical developments has brought the machining technology to a very high level of precision, accuracy and competitiveness in terms of cost and quality. Nowadays the world is facing a new revolution related to the internet of things, big data, and the virtual world; which is mainly supported by the high maturity and capacity that the internet communication offers, and that is supposed to be the revolution that will democratized the technology. According to these statements, the goal from this master thesis is to disrupt the traditional machining business model, with a new business model concept based on the platform business model, offering a complete solution for the targeted group of users. With help from the self-developed proceeding model for the business model generation, all the aspects related to the current existing types of machining business models have been analyzed and documented, being identified 7 different types of models. In addition to this, a deep research in the platform ecosystem has given as a result, plenty of insights and characteristics that must be taken in account for a successful implementation of a platform system into the machining industry. Following the proceeding model step by step, the user’s identification has been done obtaining their biggest problems and objectives they want to achieve related with the machining industry. Mixing up all these ingredients together in a structured way has given as result a list of pain relievers and gain creators that fulfills the users’ needs. And to culminate the work, the rest of the 9 blocks from Osterwalders business model generator have been defined, keeping always the vision of the “machining platform” in mind. The final outcome from this master thesis is then a business model based on the platform concept applied to the machining industry.
Das Gesundheitswesen befindet sich im Wandel der Zeit – im Wandel der Digitalisierung. Immer mehr Gesundheitsbetriebe und vor allem Krankenanstalten versuchen von analogen auf digitale Arbeitsabläufe umzusteigen. Um das Ziel der Arbeit zu erfüllen und eine Digitalisierungsstrategie für das Hansa Privatklinikum zu entwickeln, ist es notwendig, bestehende Digitalisierungspotenziale am Markt zu analysieren. Diese Analyse soll vor allem im ausgearbeiteten Vorgehensmodell dabei helfen, Ideen des Personals mit den bestehenden Potenzialen zu vergleichen und eine Liste an Digitalisierungspotenzial zu erschaffen. Die grundlegende Intention ist es, die optimale Digitalisierungsstrategie zu finden, die den Klinikumsbetrieb in Zukunft weitervorantreiben und effizienter gestalten soll. Der Weg zur Digitalisierungsstrategie durchläuft während dieser Arbeit mehrere Phasen. Zu Beginn wird das Gesundheitswesen selbst genauer betrachtet, bevor sich mit den Begriffen Strategie und Digitalisierung, sowie bestehenden Strategiemodellen auseinandergesetzt wird. Durch Vergleiche von bestehenden Modellen und Methoden zur Erarbeitung dieser Strategie, kann schlussendlich ein idealtypisches Vorgehensmodell – bestehend aus vier Phasen – zur Entwicklung einer Digitalisierungsstrategie aufgezeigt werden. Dieses Modell wird anschließend anhand eines Fallbeispiels getestet und adaptiert.
Das Kooperationsunternehmen DCC Energy Austria GmbH ist in Österreich Marktführer im Heizölhandel. Dieser Markt ist jedoch hart umkämpft und die gesamte Branche hat mit stetig sinkenden Absätzen zu kämpfen. Die Gründe dafür sind neue Technologien, gesetzliche Verbote und das Fehlen von Förderungen. Die Heizölbranche ist vor allem im Privatkundensegment lukrativ und das Kooperationsunternehmen will dort keine Marktanteile verlieren. Es ist absehbar, dass es zu Veränderungen im Heizölgeschäft kommen wird, wodurch das Problem entsteht, dass Anpassungen im Geschäftsmodell vorgenommen werden müssen, um weiterhin wettbewerbsfähig zu bleiben. Um dieses Problem zu lösen, wurde ein idealtypisches Vorgehensmodell entwickelt. Dieses Vorgehensmodell bildet den Prozess einer szenariobasierten Geschäftsmodellentwicklung ab. Es wurde in weiterer Folge am Kooperationsunternehmen angewendet, um mögliche Szenarien und die dazugehörigen Geschäftsmodelle zu entwickeln. Es sollten Trends und mögliche Veränderungen berücksichtigt werden. Im theoretischen Teil wurden die Themen Geschäftsmodelle, Geschäftsmodellentwicklung und Szenarioentwicklung behandelt. Des Weiteren wurde ein Einblick in den Heizölmarkt gegeben. Das Ergebnis dieses Teils war das idealtypische Vorgehensmodell. Dieses Modell unterteilt sich in drei Hauptphasen mit mehreren Unterschritten. Die Hauptphasen sind die Situations- und Umfeldanalyse, Szenarioentwicklung und Geschäftsmodellentwicklung. Im Anschluss wurde dieses Vorgehensmodell am Kooperationsunternehmen angewendet. Im Zuge der Umsetzung wurden drei Workshops und mehrere Experteninterviews durchgeführt. Das erste Teilergebnis besteht aus drei Szenarien. Das erste Szenario spiegelt die Trends und die wahrscheinlichste Entwicklung wider. Zusätzlich wurden zwei Extremszenarien entwickelt. Das erste Extremszenario behandelt einen technologischen Durchbruch einer neuen Heizungstechnologie und das zweite Extremszenario behandelt das Verbot von Ölheizungen in Österreich. Darauf aufbauend wurden die neuen Geschäftsmodelle entwickelt. Zunächst wurden Ideen gesammelt, um in diesem Szenario zu bestehen, die dann in weiterer Folge zu Prototypen zusammengesetzt wurden. Die besten Prototypen wurden dann im Detail ausgearbeitet. Es hat sich gezeigt, dass viele Veränderungen notwendig sind, um in den möglichen Szenarien zu bestehen. Digitalisierung, neue Produkte und Veränderungen im Umgang mit dem Kunden sind nur einige Punkte, die dafür von Bedeutung sein werden. Das Kooperationsunternehmen sieht die Ergebnisse als Vorbereitung für die Zukunft. Man hat vor allem einen Mehrwert dadurch geschaffen, dass sich frühzeitig mit der Zukunft auseinandergesetzt wurde und erste Überlegungen getroffen wurden, wie man in diesen Szenarien bestehen könnte.
Innovation Leadership
(2019)
Innovationen sind überlebenswichtig für Unternehmen besonders im Zeitalter der Digitalisierung. Gerade der österreichische Automotive Engineering Bereich muss innovative Lösungen entwickeln, um konkurrenzfähig zu bleiben. Das Ziel der Arbeit ist es, den Führungskräften des Automotive Engineering Bereichs eine Handlungsempfehlung zu geben, damit diese ihre Mitarbeiter innovationsfördernd führen können. Zu Beginn der Arbeit wird eine ausführliche Literaturrecherche durchgeführt. Mit den erarbeiteten Erkenntnissen werden Führungsverhalten analysiert und ein Führungskonzept für direkte Führungskräfte erstellt. Der empirische Teil beinhaltet Experteninterviews, in denen die zugeordneten Führungsstile hinterfragt werden. Das davon abgeleitet Führungskonzept wird mit den Ergebnissen verglichen und an notwendigen Stellen adaptiert. In weiterer Folge wird eine Handlungsempfehlung für die Unternehmen des Automotive Engineering Bereichs und deren Führungskräfte abgeleitet. Das Ergebnis der wissenschaftlichen Arbeit zeigt, dass bestimmte Rahmenbedingungen im Unternehmensumfeld definiert sein müssen, um möglichst innovationsfördernd arbeiten und führen zu können. In diesem Fall werden die Voraussetzungen in drei Bereiche untergliedert, „Vision / Strategie / Werte“, „Bildung und Kompetenzen“ und „Intrapreneurship“. Zusätzlich wird noch im Entwicklungsprozess eine Art der Führung vorgeschlagen. Dabei wird die Führung einerseits personenabhängig definiert. Andererseits wird aber auch je nach Projektreifegrad ein anderes Führungsverhalten notwendig. Zusammenfassend lässt sich sagen, dass die Erkenntnisse, das Führungskonzept und die abgeleitete Handlungsempfehlung Führungskräften dabei unterstützen soll Innovationsförderung zu betreiben. Besonders direkte Führungskräfte kennen die Verhaltensmuster ihrer Mitarbeiter und können diese daher auch dementsprechend steuern. Innovationen sind heute wie in der Zukunft ein notweniges Mittel für die Erhaltung einer Marktposition eines Unternehmens.
Der Begriff Geschäftsmodell gewinnt durch die steigende Dynamik im Wettbewerb stetig an Bedeutung. Eine wachsende Zahl an Unternehmen beschäftigen sich mit ihrem Geschäftsmodell, da ein nachhaltiger Wettbewerbsvorteil mit bestehenden Produkt- und Prozessinnovationen nicht mehr realisierbar ist. Vor allem KMU, die den größten Anteil an Unternehmen in der österreichischen Wirtschaftslandschaft darstellen, benötigen unter anderem aufgrund ihrer begrenzten Ressourcen Hilfestellungen, wie bestehende Geschäftsmodelle weiterentwickelt werden können, um auch nachhaltig am Markt agieren zu können. Daraus ergibt sich die Grundidee der vorliegenden Arbeit. Das Ziel besteht in der Entwicklung eines Vorgehensmodells zur Geschäftsmodell-Entwicklung, welches beispielsweise für KMU in der IT-Handelsbranche im B2B-Markt angewendet werden kann. Auf Basis begrifflicher Definitionen und der Darstellung unterschiedlicher Methoden zur Beschreibung, Analyse und Entwicklung von Geschäftsmodellen wird ein Vorgehensmodell entwickelt, welches im Anschluss am Beispiel eines KMU in der IT-Handelsbranche im B2B-Markt praktisch angewendet wird. Im Schritt der Entwicklung fließt das Konzept der Geschäftsmodell-Muster als Inspirationsquelle mit ein. Im praktischen Teil der Arbeit werden Experten aus der Wirtschaft zum gegenständlichen Vorgehensmodell befragt. Die Weiterentwicklung des Modells wird maßgeblich durch die Qualität und Ausrichtung der Expertenaussagen bestimmt. Zusätzlich fließen Erkenntnisse der praktischen Anwendung am Beispiel des KMU in der IT-Handelsbrache im B2BMarkt mit ein. Das Ergebnis der Arbeit ist ein Vorgehensmodell zur Geschäftsmodell-Entwicklung für bestehende Unternehmen.
Pferdeeinstellbetriebe 2.0
(2018)
Pferdeeinstellbetriebe sind, als service-orientierte Einrichtungen, zuständig für die Beherbergung, Versorgung und Betreuung von Pferden. Durch geänderte Kundenansprüche der Einsteller/innen ist es notwendig, jedes Pferd individuell zu betreuen und kurzfristige Betreuungsänderungen sind mittlerweile an der Tagesordnung. Dies führt zu einem enormen Koordinations- und Arbeitsaufwand. Diese Herausforderungen führen dazu, dass Pferdebetriebe Lösungen finden müssen, die sie in der Ausführung ihrer Tätigkeiten unterstützen. Hierfür eignen sich Digitalisierungsmaßnahmen, die Arbeitsabläufe schneller, flexibler und fehlerfreier gestalten und in Folge dessen zu einer Steigerung der Kundenzufriedenheit führen. Allerdings sind Pferdeeinstellbetriebe, aufgrund ihrer hauptsächlich manuellen Tätigkeiten, eher kritisch gegenüber dem Thema Digitalisierung eingestellt. Außerdem stehen viele Betriebe vor dem Problem, für sie geeignete digitale Lösungen zu finden. Zur Unterstützung von Pferdeeinstellbetrieben, die den Weg der Digitalisierung einschlagen möchten, soll ein in dieser Masterarbeit entwickeltes Vorgehensmodell dienen. Das aus fünf Phasen bestehende Modell durchläuft einen Prozess beginnend mit den Vorbereitungen und der Sensibilisierung der beteiligten Personen. Des Weiteren wird eine Ist-Analyse der Abläufe durchgeführt und Kundenbedürfnisse sowie -wünsche erhoben. Die gewonnenen Informationen dienen als Basis zur Identifikation von Digitalisierungspotenzialen, die anschließend hinsichtlich ihrer Umsetzbarkeit bewertet werden. Als Endergebnis erhalten Pferdeeinstellbetriebe eine Handlungsempfehlung, wie sie in Hinblick auf die Auswahl einer geeigneten digitalen Lösung vorgehen können. Um die Praxistauglichkeit zu testen wird das Vorgehensmodell anhand des Pferdeeinstellbetriebes HOLZER HOF überprüft. Zusätzlich geben Experteninterviews Aufschluss darüber, wie bereits (teil-)digitalisierte Pferdeställe im Zuge ihrer Digitalisierung vorgegangen sind. Diese Masterarbeit zeigt, dass Pferdeeinstellbetriebe sich mit dem Thema Digitalisierung auseinandersetzen müssen, um die Kundenbedürfnisse besser abzudecken und wettbewerbsfähig zu bleiben. Außerdem ergeben sich durch digitale Lösungen einige Vorteile, wie Zeitersparnis, Fehlerreduktion und Vereinfachung der Arbeitsabläufe, die einen positiven Nutzen für den/die Stallbesitzer/in, das Stallpersonal und für die Einsteller/innen bringen.
Zielsetzung der vorliegenden Masterarbeit war es, die wichtigsten theoretischen Konzepte von Unternehmenskultur zu analysieren sowie unter Beachtung von KMU und IT-Branche spezifischen Merkmalen zu evaluieren. Dabei wurde der Fokus der Kulturbetrachtung auf die innovationsorientierte Unternehmenskultur gelegt. Alle theoretischen Erkenntnisse wurden in ein definiertes idealtypisches Anforderungsprofil einer innovationsorientierten Unternehmenskultur integriert und stellten auf diese Weise den Ausgangspunkt für die weiterführende empirische Betrachtung dar. Anhand einer durchgeführten Mitarbeiterbefragung im Praxisunternehmen wurde dieses Anforderungsprofil evaluiert und gleichzeitig aus den Umfrageergebnissen, die vorhandene Ist-Kultur abgeleitet. Auf Basis dieser Erkenntnisse wurden insgesamt zehn interdisziplinäre Experteninterviews geführt, um die theoretischen Empfehlungen auszuwerten und letztendlich das dadurch erhaltene Praxisfeedback in die resultierenden Handlungsempfehlungen mit einfließen zu lassen. Es zeigte sich, dass der Prozess der Kulturausrichtung nicht durch spezifische Auslöser in Gang gesetzt werden kann, vielmehr ist ein authentisches Management-Commitment sowie Kommunikation und Informationsverteilung wichtig, um einen kulturellen Wandel anzustoßen. Dieser lebende Prozess bedarf immanenter Aufmerksamkeit und einem ständigen Diskurs zwischen Unternehmensführung und Belegschaft, sodass eine innovationsorientierte Unternehmenskultur erfolgreich aufgebaut und nachhaltig gefördert werden kann. Die Resultate aus der qualitativen Inhaltsanalyse, welche versucht hat, sämtliches Expertenwissen auf prägnante Empfehlungen zu reduzieren, wurden schlussendlich in konkrete Handlungsempfehlungen übergeleitet und bilden das Ergebnis dieser Masterarbeit. Die Masterarbeit soll einerseits Unternehmer dabei unterstützen, kulturelle Aspekte in einer Organisation zu verstehen und Anknüpfungspunkte für Veränderungsprojekte zu identifizieren. Andererseits kann diese Arbeit, im Besonderen KMU anleiten, konkrete Etablierungsmaßnahmen zu vollziehen, welche die Innovationsausrichtung im Unternehmen und in der vorhandenen Unternehmenskultur verankern.
Der Aufbruch in neue Markfelder ist gerade in einer Zeit, in der Start-ups eine Hochblüte erfahren, für etablierte Unternehmen ein wichtiges Thema. Als erstes Unternehmen in ein Marktfeld einzudringen und damit die Vorteile des Neuen voll auszuschöpfen, wird mit zunehmender Globalisierung immer wichtiger aber auch schwieriger. Der Produktentwicklungszyklus wird immer kürzer, da auch die Mitbewerber in immer kürzeren Zyklen zumindest vergleichbare Produkte auf den Markt bringt. Was bedeutet das für bereits bestehende Produkte? Was bedeutet das für etablierte Unternehmen? Dazu stellen sich folgende Fragen: Wie kann man sich Altes und Erprobtes zunutze machen, um daraus neue Entwicklungen und Produkte für weitere Marktfelder zu erstellen? Welche Methoden gibt es, um aus den Erfahrungen und aus Bestehendem Neues zu generieren? Wie können Methoden kombiniert werden, um in Form eines strukturierten Vorgehens neue Möglichkeiten für den Einsatz von Produkten aufzuzeigen? Die Beantwortung dieser Fragen ist nicht nur für den Softwareproduktmarkt interessant und wichtig, sondern in einer Zeit immer kürzerer Lebenszyklen für alle Unternehmen von großer Bedeutung, weil diese aus ethischen aber auch aus wirtschaftlichen Gründen auf bestehende Kompetenzen, Möglichkeiten und Lösungen Rücksicht nehmen müssen. Die Frage „Wie kann man sich Altes und Erprobtes zunutze mache, um daraus neue Entwicklungen und Produkte für weitere Marktfelder zu erstellen?“ wird durch eine Beschreibung einer Vorgangsweise und von Prozessschritten beantwortet, um für eine entwickelte Software neue Anwendungsfelder zu finden. Der erste Teil der Arbeit widmet sich der wissenschaftlichen Aufarbeitung des Themas Innovation durch Technologietransfer (Technology Competence Leverage). Neben der wissenschaftlichen Beleuchtung des Themas „Technologietransfer in neue Anwendungsfelder“ werden im zweiten Teil der Arbeit die Vorgehensweise und die Prozessschritte am Beispiel einer bestehenden Inventarisierungslösung für Kulturbetriebe praktisch angewendet. Als Ergebnis werden konkrete Möglichkeitsräume benannt, die für Softwareprodukte erfolgreich zu neuen Anwendungsfeldern führen können. Konkrete Handlungsmaßnahmen für das Erobern eines neuen Anwendungsfeldes runden die Arbeit ab. „Recycling“ von Software in neuen Anwendungsfeldern wird auch neue Wertschöpfungsmöglichkeiten, Rückflüsse und damit Möglichkeiten für Aufbau, Investition und Innovation bringen.
Zunehmend gesättigte Märkte und ein stetig steigender Wettbewerbsdruck machen es für Unternehmen in der Coaching-Branche immer wichtiger, Erfolgspotentiale zu besitzen. Obwohl gegenwärtig noch viele Einzelunternehmer auf das Erarbeiten durchdachter Strategien verzichten, gewinnt dies zunehmend an Bedeutung, um einen langfristigen Unternehmenserfolg sicher zu stellen. Im Rahmen dieser Abhandlung wird ein Vorgehensmodell entwickelt, welches Einzelunternehmen in der Coaching-Branche bei der Erarbeitung einer strategisch durchgängigen Positionierung unterstützt und anleitet. Zu diesem Zweck werden einerseits Positionierungsmodelle miteinander verglichen und andererseits Analysetools einander gegenübergestellt und jeweils hinsichtlich ihrer Eignung für die Coaching-Branche bewertet. Auf Basis dieser Ergebnisse wird ein Vorgehensmodell entwickelt, welches in weiterer Folge durch Experteninterviews und durch die Anwendung an zwei realen Einzelunternehmen evaluiert wird. Es zeigt sich, dass Adaptionen am ursprünglich entwickelten Vorgehensmodell erforderlich sind, um den speziellen Anforderungen der Coaching-Branche bestmöglich gerecht zu werden. Final ergibt sich ein adaptiertes, fünfphasiges Vorgehensmodell, welches Vision und Mission des betrachteten Unternehmens, sowie das Fünf-Säulen Modell als Kernelemente beinhaltet. Mit dem vorliegenden Vorgehensmodell ist die Erarbeitung einer durchgängig strategischen Positionierung auch für ungeübte und unerfahrene Anwender gut bewältigbar.
Automobilwerkstätten werden derzeit benötigt, um den Individualverkehr in Österreich aufrechtzuerhalten. Wartungsarbeiten, Reparaturen und andere Veränderungen sind mit einem jährlichen Umsatz von rund vier Milliarden Euro hierzulande zu einem Wirtschaftsfaktor geworden. Sich anbahnende Veränderungen, wie der Umstieg auf alternative Antriebsarten oder autonom fahrende Fahrzeuge, stellen Automobilwerkstätten vor das Ungewisse. Diese Veränderungen zwingen Betriebe zu Transformation des eigenen Geschäftsmodells, um das Geschäft zu beleben und nachhaltig Einkünfte zu sichern. Im Auftrag der Reiterer GmbH, einem mittelständischen Autohaus, welches Peugeot- und BMW-Vertragspartner ist, wird ein Vorgehensmodell erstellt, das als Anhaltspunkt für den Veränderungsprozess herangezogen werden kann. Die Analyse von 17 verschiedenen Geschäftsmodellansätzen zeigt, dass es viele Vorgehensweisen und Meinungen zu wichtigen Faktoren bei einer Veränderung gibt. Erkenntnisse über wirklich wichtige Einflussfaktoren für diese Branche werden aus aktuellen Branchenreports, Studien und Berichten von facheinschlägigen Experten herangezogen. Eine PESTEL Analyse hilft bei der Sammlung von Themen und Ableitung von fünf möglichen Anforderungen. Der Kundennutzen, die Beziehung zum Kunden, eine Ressourcen- und Technologieorientierung sowie die Fähigkeiten der Mitarbeiter stellten sich als Schlüsselanforderungen heraus. Aufgrund der ermittelten Anforderungen und der detaillierten Analyse der Geschäftsmodellansätze, konnten einige wenige Ansätze als geeignet befundet werden. Die beste Bewertung einer durchgeführten Nutzwertanalyse wurde durch den Ansatz von Osterwalder und Pigneur erzielt, die zusammen das Business Model Canvas entwickelten. Im weiteren Verlauf der Arbeit wurde dieser Geschäftsmodellansatz anhand eines Workshops im Unternehmen getestet, mit dem Versuch neue Geschäftsmodelle zu erstellen. In Kombination mit Experteninterviews zum Thema Geschäftsmodellveränderung konnten hilfreiche Erfolgsfaktoren herausgearbeitet werden. Diese beziehen sich unter anderem auf die Veränderungsbereitschaft der Mitarbeiter oder auf die Verfolgung der Unternehmensstrategie und wurden anschließend in einem erweiterten Vorgehensmodell von Osterwalder und Pigneur implementiert.
Büro der Zukunft
(2018)
LOGICDATA repräsentiert ein Entwicklungsunternehmen von Software-, Elektronik- und Mechatronik Komponenten für den Home- und Office Möbelmarkt, mit Hauptsitz in Deutschlandsberg, Österreich. Da der Markt für Büroanwendungen in den letzten Jahren kontinuierliches Wachstum verzeichnet, ist es notwendig künftige Entwicklungen und Trends schon heute zu erkennen und das Unternehmen dahingehend auszurichten. Eine nachhaltige Sicherung der Wettbewerbsfähigkeit soll dadurch sichergestellt werden. Das erklärte Ziel dieser Arbeit ist es, systematisch schwache Signale und Trends am Markt zu ermitteln, zu bewerten und daraus Zukunftsszenarien zu erstellen. Diese sollen als Wegweiser und strategische Entscheidungsgrundlage des Unternehmens dienen. Um genanntem Vorhaben Einhalt zu gewähren, werden auf theoretischer Basis Grundlagen und Methoden der Zukunftsforschung erläutert, wie auch eine Marktanalyse auf Basis eines 5-Säulen-Modell nach WOIS durchgeführt. Das Modell soll zudem in den Generierungsprozess implementiert werden und als Ausgangspunkt der Analyse fungieren. Gegenwärtig vorhandene Entwicklungen im Segment runden das Angebot ab. Das Ergebnis des Theorieteils stellt ein sequentielles Vorgehensmuster zur Detektion von schwachen Signalen am Markt, wie auch zur Ableitung von Zukunftsbildern dar. Im praktischen Abschnitt erfolgt eine Ausführung der Modellschritte am Beispiel des „Office 2025“. Die so entwickelten Handlungsempfehlungen und Zukunftsbilder stellen das Ergebnis der Arbeit dar und sollen als strategische Entscheidungsgrundlage dienen. Das Unternehmen LOGICDATA kann so bestmöglich auf die Zukunft vorbereitet werden.
U-Boot-Superyacht-Hybriden sind neue Produkte in der Yachtindustrie und bieten dank ihrer Tauchfähigkeit zusätzliche Vorteile neben herkömmlichen Superyacht-Funktionen und Annehmlichkeiten. Das Ziel der vorliegenden Arbeit ist die Entwicklung von Geschäftsmodellen für U-Boot-Superyacht-Hybriden sowohl für die Yachtindustrie als auch für andere Zielgruppen. Nach Recherchen zur Branche, zu Kunden, Produkten und Geschäftsmodellen werden nach einem Vergleich von diversen Optionen eine für die Branche passende Geschäftsmodelldarstellungsform ausgewählt und modifiziert. Es werden vier theoretische Geschäftsmodelle generiert, welche auf bestehenden Mustern von Geschäftsmodellen basieren. Diese Modelle werden von zwölf Experten und vier potenziellen Kunden mittels ExpertenInterviews überprüft. Ihre Antworten bestätigen, wonach U-Boot-Superyacht-Hybriden ein hohes Maß an Privatsphäre, Sicherheit und Exklusivität bieten und das Fahren bei Schlechtwetter ermöglichen. Darüber hinaus zeigt die Analyse, dass sowohl private Nutzung als auch kommerzielle Anwendungen von Interesse sind. Als Ergebnis wird aus den vier theoretischen Geschäftsmodell-Mustern und deren Inhalte eines für die Weiterentwicklung ausgewählt und in Versionen für Privatkunden, Geschäftskunden und Kunden mit Schwerpunkt auf Sicherheit unterteilt. Zusammenfassend erlangt die Arbeit zu der Erkenntnis, wonach private U-Boot-Superyachten ausschließlich für einen Kunden weltweit entwickelt werden sollten, gewerbliche Nutzungen für Kreuzfahrtunternehmen oder Investoren interessant sind und speziell ausgestattete U-Boote als private Bunker, als mobile Tresore für Wertgegenstände oder zur Datensicherung für Unternehmen genutzt werden können.