ja
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (787)
- Arbeitspapier (58)
- Teil eines Buches (Kapitel) (6)
- Wissenschaftlicher Artikel (3)
- Buch (1)
- Konferenzveröffentlichung (1)
Gehört zur Bibliographie
- ja (856)
Schlagworte
- Hochschullehre (56)
- Didaktik (55)
- Geschäftsmodell (36)
- Digitalisierung (32)
- Vertrieb (31)
- Personalwesen (27)
- Führung (19)
- Innovationsmanagement (17)
- Social Media (16)
- Online-Marketing (13)
Institut
- Informationstechnologien & Wirtschaftsinformatik (169)
- Innovationsmanagement (150)
- Automatisierungstechnik-Wirtschaft (125)
- Rechnungswesen & Controlling (125)
- Sales Management (64)
- International Marketing (37)
- Unternehmensmanagement (37)
- Digital Marketing Management (29)
- Financial Accounting (24)
- Software Engineering Leadership (21)
Die Softwareentwicklung von Produkten und Lösungen orientiert sich zunehmend an agilen Vorgehensweisen, welche erhebliche Vorteile in der Kundenorientierung und Schnelligkeit in der Auslieferung der Lösungen mit sich bringt. In diesem Zusammenhang besteht auch die Herausforderung der Schätzung von User Stories, die aus Sicht des Benutzers, formuliert werden. Obwohl sich etwaige Methoden und Techniken zur Schätzung von User Stories etabliert haben (z.B. Point-Metriken), liegt dabei ein wesentlicher Nachteil in der subjektiven und relativen Bewertung des Aufwandes bzw. der Komplexität durch das Team durch welche eine Verzerrung der Schätzung entstehen kann. Ebenso beanspruchen Schätzpraktiken in agilen Vorgehensweisen, durch deren interaktiven Charakter, einen erheblichen Zeitaufwand. Das Ziel dieser Arbeit bestand darin, zu prüfen, ob die Anwendung bzw. der Einsatz von Machine Learning den Schätzprozess in agilen Vorgehensweisen unterstützen kann. Der erste Teil der Arbeit bereitet dazu einen Einblick in die Welt der agilen Vorgehensweisen mit deren gängigsten Schätzverfahren. Nach einer kurzen Einführung in die Grundlagen des Data Minings bzw. Machine Learnings, wurden mögliche Lösungsansätzen zur Verbesserung der Schätzungen durch Machine Learning Verfahren untersucht. Die Untersuchung beinhaltet die Auswahl und Erläuterung eines Data Mining Vorgehensmodells. Dabei wurde der Cross-Industry Standard Process for Data Mining (CRISP-DM) als Referenzprozess für die Abhandlung der gesamten Arbeit gewählt. Auf Basis dieses Prozessmodells wurden einige relevante Techniken zur Textklassifizierung von User Stories abgehandelt. Demgemäß reichte die Untersuchung von der Phase Business Understanding bis hin zur Evaluation Phase eines Machine Learning Models. Basierend auf drei ausgewählten Machine Learning Verfahren (Naïve Bayes, Random Forest und Multilayer Perceptron) wurde eine Fallstudie durchgeführt. Diese Fallstudie umfasste die Datenvorverarbeitung, sowie die Modellierung und Implementierung eines Machine Learning Models auf Basis eines Real-life Datensets in der Programmiersprache R (Data Discovery und statistische Evaluation) und Python (Modellierung und Implementierung). Der letzte Teil der Fallstudie bestand in der Evaluation des trainierten Modells. Ziel der Fallstudie war es, zu prüfen, ob das Modell in der Lage ist, Story Points auf Basis von User Stories genauer zu schätzen, als durch ein zufälliges Raten bzw. Verteilen von Story Points. Dazu wurde eine ausgewählte Metrik (z.B. Accuracy) für jedes der drei Klassifizierungs-Verfahren, einem Dummy-Klassifizierer gegenübergestellt, welcher zufällig gewählte Story Points aus dem Datenset vorhersagte. Dies wurde auf Basis einer mehrstufigen Kreuzvalidierung (Cross Validation) durchgeführt um eine möglichst hohe Konfidenz der Vorhersagen zu erzielen. Anschließend wurde ein nicht-parametrischer statistischer Test (Wilcoxon Test) auf die erzeugten Vorhersagen (Metrik) angewendet, um festzustellen, ob sich die Mittelwerte tatsächlich voneinander unterscheiden. Die Ergebnisse der vorliegenden Studie zeigen, dass die Schätzung von Story Points durch die Anwendung von Machine Learning, das zufällige Raten erheblich übertreffen kann (unter den Voraussetzungen und Rahmenbedingungen der Fallstudie). Somit lässt sich sagen, dass Techniken des Machine Learnings für den vorliegenden Datensatz verwendet werden können, um den Schätzprozess zu beschleunigen, indem eine initiale Schätzung aller User Stories (z.B. aus einem Backlog) aus einem Machine Learning Modell bereitgestellt wird. Darüber hinaus bieten die Ergebnisse aus dem Modell, bis zu einem gewissen Grad einen unvoreingenommenen Blick auf StoryPoint-Schätzungen, als Grundlage für Diskussionen innerhalb des Teams. Hierbei ist jedoch anzumerken, dass die Validität der Ergebnisse, auf den speziellen Voraussetzungen und Rahmenbedingungen der Fallstudie beschränkt sind. Daher sollten die Ergebnisse dieser Arbeit auf einer breiteren (Anzahl der Datensätze), teamübergreifenden und projektübergreifenden Datenbasis verifiziert werden. Dennoch stellt die vorliegende Arbeit einen ersten Schritt zur Nutzung des maschinellen Lernens für die Story-Point-Schätzung dar.
Der technologische Fortschritt eröffnet Unternehmen unzählige Möglichkeiten innovative Produkte und Dienstleistungen zu schaffen. Das Bestreben zahlreicher Unternehmen ist es, neue, skalierbare Lösungen zu entwickeln und damit Unternehmenswachstum zu erreichen. Jedoch ist eine derartige Entwicklung mit einigen Herausforderungen verbunden. Diese Arbeit beschäftigt sich mit den Möglichkeiten der Skalierung IT-basierter Dienstleistungen durch die Anwendung von Serviceentwicklungsmodellen und -methoden am Beispiel der Verwertungs- und Entsorgungsindustrie. Zunächst werden dazu IT-basierte Dienstleistungen sowie die Skalierbarkeit im betriebswirtschaftlichen Kontext betrachtet, was eine Diskussion von Geschäftsmodellen und Wachstumsstrategien einschließt. Anschließend werden verschiedene Vorgehensmodelle und Methoden der Dienstleistungsentwicklung diskutiert. Zusätzlich zu den theoretischen Erkenntnissen wird eine empirische Untersuchung durchgeführt. Ziel ist es, Herausforderungen und Potenziale bei der Entwicklung IT-basierter Dienstleistungen aufzudecken. Weiterführend wird ein Best-Practice-Beispiel einer erfolgreichen Skalierung IT-basierter Dienstleistungen vorgestellt. Das Ergebnis dieser Arbeit ist ein Vorgehens-Rahmenmodell zur Entwicklung IT-basierter Dienstleistungen, welches als Skalierungs-Leitfaden gesehen werden kann. Dieses Modell beinhaltet Methoden und Handlungsempfehlungen, um die ermittelten Herausforderungen zu bewältigen und mögliche Potenziale zu nutzen. Als größte Herausforderung stellte sich das Finden der Features und Services mit dem größten Kundennutzen heraus. Das Modell sieht als wesentliche Elemente des Entwicklungsprozesses IT-basierter Dienstleistungen die durchgängige Integration relevanter Stakeholder sowie den Minimum Viable Product Ansatz vor. Weitere wesentliche Faktoren stellen Partnerschaften und Kooperationen sowie eine EarlyMover-Strategie dar.
Web analytics has been used to track visitor behavior on web sites since the early 1990s with the goal to understand the visitors and to constantly improve the web site. Although it is also possible to track users of single page applications, a special form of web application that behaves like a desktop application, there are some limitations. The aim of this work is to identify gaps in web analytics solutions regarding single page applications. Subsequently the impact of resolving such a gap on the intended long-term usage of a given web analytics system, the socalled Continuance Intention, is evaluated. Initially, an integration of an open-source web analytics framework with a commercial single page application is performed. Based on the gained experience and by conducting a literature research, a list of 13 gaps including potential solutions is identified. A group of experts is ranking them according to their impact on the usefulness of the web analytics solution. The resulting top item is the custom metrics feature, which allows to track application-specific metrics by configuring them generically in the web analytics system. It is subsequently developed and evaluated by means of an online survey using an adapted version of the Expectation-Confirmation Model. A linear regression model is based on the two resulting latent factors Perceived Usefulness and Continuance Intention. The statistical analysis of the model shows that a specific improvement of a web analytics solution with the goal to enhance the usefulness of this information system increases the intention to keep using this software in the long-term.
Microblogging ist im Bereich der Online-Erotik immer noch nicht vorherrschend. Das Ziel dieser Arbeit ist herauszufinden, wie der Einsatz von Microblogging im Bereich Erotik gegenüber kostenlosen Pornoseiten hinsichtlich der Benutzerakzeptanz zu beurteilen ist. Es soll ein Usability-Test durchgeführt werden, um eventuelle Probleme des Artefakts ausfindig zu machen. Diese Probleme sollen behoben werden bevor das Feldexperiment stattfindet. Potentielle Einflussfaktoren sollen im Rahmen einer Umfrage evaluiert werden. Die Umfrage soll das Phänomen Microblogging auf Facebook untersuchen. Im Rahmen eines Feldexperiments wird eine Microblogging-Plattform zum Thema Erotik mit einer herkömmlichen Pornoseite verglichen. Das Ergebnis ist, dass Microblogging genauso für den Konsum von erotischen Inhalten geeignet ist. Nur die Absprungrate der Besucher einer Microblogging-Plattform zum Thema Erotik ist im Vergleich zu einer klassischen Pornoseite höher. Zu den wichtigsten Faktoren, die die Nutzung von Microblogging über Erotik positiv beeinflussen, zählen das heimliche Beobachten von anderen Menschen im Internet, der Konsum von Pornografie und der Konsum von Online-Live-Sexshows. Es muss allerdings noch erforscht werden, ob es eine Zielgruppe gibt, die Microblogging über Erotik gegenüber dem herkömmlichen Konsum von pornografischen Inhalten, bevorzugt.
Die vorliegende Arbeit beschäftigt sich mit Cross-Plattform-Applikationen im Business Bereich. Es wird der Frage nachgegangen, ob die Effizienz durch die plattformunabhängige Softwareentwicklung gesteigert werden kann. Ziel dieser Arbeit ist es zu klären, in wie weit Experten und Expertinnen bereits Erfahrung mit Technologien sammeln konnten, die sich auf plattformunabhängige Softwareentwicklung spezialisiert haben. Damit herausgefunden werden kann ob die Effizienz gesteigert werden kann, beziehungsweise ob ExpertInnen in diesem Bereich herangezogen werden kann, wird zu Beginn dieser Arbeit eine Einführung in die mobilen Applikationen gemacht und gängige Begriffe näher beschrieben. Dabei wird eingegrenzt, was genau unter einem mobilen Gerät verstanden wird, damit in weiterer Folge die Zielgruppe festgelegt werden kann. Anschließend werden dem Leser beziehungsweise der Leserin, die beliebtesten Betriebssystem die auf dem Markt existieren vorgestellt und näher beschrieben. Zum Abschluss dieses Kapitel werden die einzelnen Plattformen gegenübergestellt, damit herausgefunden werden kann, welche Vor- beziehungsweise Nachteile existieren. Nachdem die einzelnen Plattformen vorgestellt wurden, wird auf die plattformunabhängige Softwareentwicklung näher eingegangen. Dabei werden zuerst Begriffe, die im Zusammenhang mit mobiler Entwicklung fallen definiert. Im Anschluss erfolgt eine Vorstellung verschiedener Technologien, die derzeit existieren. Im empirischen Teil wird der Prototyp der im Zuge dieser Arbeit entwickelt wurde, näher beschrieben. Dafür werden zu Beginn die Anforderungen, die die App erfüllen muss vorgestellt. In weiterer Folge wird dem Lesendem die gewählte Technologie vorgestellt und beschrieben, warum sich der Autor dieser Arbeit für dieses Framework entschieden hat. Zu Letzt wird im empirischen Teil berichtet werden, welche Technik bei den Experteninterviews zum Einsatz gekommen ist und wie der Aufbau aussieht. Abschließend wird vom Autor dieser Arbeit ein Erfahrungsbericht, über die Erfahrungen die beim Entwickeln des Prototyps gesammelt werden konnten, geschrieben. Im fünften und letzten Kapitel wird über die Beantwortung der Forschungsfrage berichtet und ein kurzer Ausblick gegeben welche Schritte als nächstes durchgeführt werden können, damit die Ergebnisse gefestigt werden können.
Durch den steigenden Einsatz von mobilen Geräten und mobilen Anwendungen im beruflichen Umfeld gewinnt die Verwaltung der Geräte für die Sicherstellung der Verfügbarkeit und der Datensicherheit eine immer größere Rolle. Die dafür eingesetzten Enterprise Mobility Management (EMM) Systeme wurden in den letzten Jahren hauptsächlich in großen Unternehmen verwendet und werden durch Trends wie Bring Your Own Device (BYOD) und Corporate Owned Private Enabled (COPE) sowie rechtliche Anforderungen, wie der Datenschutz Grundverordnung (DSGVO), auch bei kleinen und mittleren Unternehmen (KMU) immer stärker nachgefragt. In dieser Arbeit wird der Einsatz von EMM Systemen in KMU näher untersucht. Dazu wird eine Literaturrecherche durchgeführt und darauf aufbauend eine Marktanalyse des EMM Marktes in KMU in Österreich durchgeführt. In der Marktanalyse wird eine Übersicht über vorhandene Anbieter und deren Produkte gegeben und anschließend das Potential des EMM Marktes anhand vorhandener Studien erörtert. In der dabei durchgeführten quantitativen Umfrage werden relevante Einflussfaktoren auf die Annahme von EMM in KMU identifiziert. Ausgehend von diesen Erkenntnissen werden Hypothesen über die Annahme aufgestellt und für dessen Evaluierung wird ein Prototyp für die Verbesserung der Adoption der Technologie in KMU entwickelt. In dem entwickelten Prototyp wurden zwei aus den Hypothesen abgeleitete Funktionen umgesetzt. Die erste Funktion verbessert den Bestellprozess für neue Mobilgeräte der Mitarbeiterinnen und Mitarbeiter. Die zweite Funktion bietet den Mitarbeitern eine detaillierte, transparente Kostendarstellung. Die Evaluierung des Prototyps erfolgt mittels Interview von Expertinnen und Experten aus dem Bereich von mobilen Geräten und mobilen Anwendungen. Die zusätzlichen Funktionen stellen eine Möglichkeit dar, um die Mitarbeiterzufriedenheit zu erhöhen und damit die Annahme von EMM Systemen in KMU zu verbessern.
Codequalität sowie deren Sicherung und Überprüfung sind wichtige Aspekte heutiger Softwareentwicklungsprozesse und werden von zahlreichen Experten aus Literatur und Praxis als essentieller Faktor für ein langfristiges Bestehen von Softwareprojekten angesehen. Um diese Theorie in der Praxis deduktiv zu prüfen, war es Ziel dieser Arbeit, tatsächliche Auswirkungen ausgewählter Maßnahmen zur Steigerung von Codequalität auf den Wartungs- und Folgeaufwand von Software zu untersuchen. Hierfür wurden zuerst wesentliche Aspekte von Software- und Codequalität explorativ, argumentativ-deduktiv analysiert. Als Ergebnis dieser Analyse wurden grundlegende Merkmale und Kriterien von Softwarequalität sowie Prinzipien, Standards, Methoden und Muster für eine strukturierte Verbesserung von Codequalität vorgestellt. Weiters wurden Metriken zur Messung und Bewertung von Sourcecode sowie Werkzeuge, welche Metriken und andere Aspekte von Codequalität messen, skizziert. Anschließend wurden im Zuge eines Experiments vier funktional idente Programmversionen unterschiedlicher Codequalität Entwicklern zur Bearbeitung vorgelegt und Ergebnisse sowie die benötigte Zeit erhoben und ausgewertet. Hierbei wurde allen Teilnehmern dieselbe Aufgabenstellung gegeben, welche das Beheben von Bugs und das Implementieren einer Erweiterung vorsah. Zudem wurden die Ergebnisse in Expertengesprächen auf Gültigkeit und Plausibilität geprüft. Das Ergebnis konnte – entgegen angenommener Erwartungen – keine eindeutigen Auswirkungen belegen, aber diese auch nicht ausschließen, da die erhaltenen Ergebnisse unter Berücksichtigung üblicher Streuung für alle Programmversionen auf einem ähnlichen Zeitniveau waren. Lediglich in der Qualität der Resultate gab es einige Unterschiede. Anschließende Expertengespräche und die Diskussion der Ergebnisse kamen zu dem Schluss, dass die beobachteten Resultate für die Größe der Untersuchung durchaus plausibel erscheinen, jedoch für beobachtbare Auswirkungen eine deutlich größere Untersuchung notwendig wäre.
Die vorliegende Arbeit beschäftigt sich mit der Lernfähigkeit von Data Mining Modellen im Bereich des Smart Homes. Es wird der Frage nachgegangen, welche Auswirkungen ein kontinuierliches Training von Data Mining Modellen zur intelligenten Automatisierung der Beleuchtungssteuerung in einem Smart Home, auf die Fehlerrate des Data Mining Modells hat. Ziel ist es zu klären, ob durch kontinuierliches Training, auch zeitnah, die Fehlerrate von Data Mining Modellen zur Beleuchtungssteuerung im Smart Home verbessert werden kann. Zu Beginn werden die Begriffe Data Mining und Machine Learning mit Hilfe einer Literaturrecherche, im Bereich des Smart Homes, definiert und ein Überblick über die Funktionsweise von Data Mining geschaffen, sowie das allgemeine Vorgehen zur Implementierung einer Data Mining Anwendung anhand des standardisierten CRISP-DM Prozesses erörtert. Anschließend wurden für die vorliegende Arbeit geeignete Data Mining Verfahren mit Hilfe von Literatur erörtert. Aus diesen Data Mining Verfahren und den erhobenen Anforderungen an den Anwendungsfall der vorliegenden Arbeit, wurde das Data Mining Verfahren der Entscheidungsbäume für die Umsetzung des Prototyps ausgewählt. Im zweiten Teil der Arbeit wurde mit Hilfe des CRISP-DM Prozesses, ein Prototyp zur intelligenten Automatisierung der Beleuchtungssteuerung entwickelt und in ein bestehendes Smart Home integriert. Dieser Prototyp wurde im Zuge einer einfachen Fallstudie evaluiert. Dabei wurde die Fallstudie in zwei Iterationen evaluiert. In der ersten Iteration wurden einmalig trainierte Data Mining Modelle evaluiert und in der zweiten Iteration wurden kontinuierlich trainierte Data Mining Modelle evaluiert. Basierend auf der Auswertung der Daten und dem Vergleich der Vorhersageleistung, konnte die Erkenntnis gewonnen werden, dass ein kontinuierliches Training zeitnah zu einer Verbesserung der Vorhersageleistung beitragen kann.
Die Cloud ist ein Thema, das Unternehmen durch die Digitalisierung mehr betrifft denn je. Während sie im Privatleben bereits Einzug in den Alltag gefunden hat, benötigen die Unternehmen noch etwas Zeit. Speziell in Bezug auf ERP-Systeme, die die sensibelsten Daten des Unternehmens beinhalten, verwehren sie sich diesem Trend. Dies liegt vor allem an der Sicherheit der Cloud. In dieser Arbeit wird darum untersucht, welche konkreten Sicherheitsbedenken die Unternehmen haben, wenn es darum geht, ihr ERP-System in der Cloud zu betreiben, und wie diese vermindert werden können. Zur Datenerhebung wurden Personen aus der IT interviewt, worauf anschließend eine Liste von Bedenken aus ihren Aussagen erstellt wurde. Die Priorisierung ergab, dass eine performante Internetverbindung und das Vertrauen in den Cloud-Anbieter die größten Bedenken im Bereich der IT-Sicherheit auslösen. Durch die technologischen Möglichkeiten in der Cloud können diese Bedenken jedoch vermindert werden, indem beispielsweise ein entsprechendes Verfügbarkeitsmodell gewählt oder eine private Verbindung zum Cloud-Anbieter aufgebaut wird. Dennoch ist es nicht möglich, alle Bedenken auszuräumen, da ab einem gewissen Punkt kein Einblick in und kein Einfluss mehr auf die Funktionalität der Cloud vorgenommen werden kann. Dies zeigt, dass vor allem Vertrauen die Basis für den sicheren Betrieb des ERP-Systems in der Cloud ist. Mit der vorliegenden Arbeit soll den Unternehmen gezeigt werden, dass sich ihre Bedenken leicht vermindern lassen.
Die Revolution in der Industrie hält nunmehr seit über 200 Jahren an. Mit Beginn des 21. Jahrhunderts wurde durch die Entwicklung von Cyber-physischen Systemen die vierte und bislang jüngste Revolutionsstufe eingeleitet. Eine datentechnische Vernetzung der Anlagen untereinander und eine zunehmende Maschinenkommunikation erhöhen die Gesamtkomplexität des Systems und erschweren dadurch die Service- und Instandhaltungsarbeiten. Die Instandhaltung, welche mittlerweile maßgeblich zum Unternehmenserfolg und zur Wettbewerbsfähigkeit beiträgt, hat an Komplexität zugenommen und fordert nicht zuletzt auch durch die Digitalisierung in der Industrie ein Umdenken hinsichtlich der Ausbildung und Qualifikation von Service- und InstandhaltungsmitarbeiterInnen. Digitale Assistenzsysteme bilden eine Schnittstelle für eine Mensch-Maschine-Interaktion und sollen die MitarbeiterInnen bei komplexen Tätigkeiten unterstützen. Diese Masterarbeit zeigt, inwiefern der Einsatz eines Live-Video-Assistenzsystems Service- und InstandhaltungsmitarbeiterInnen unterstützen und den Problemlösungsprozess positiv beeinflussen kann. Im Zuge der Theorieaufarbeitung im ersten Teil dieser Arbeit werden Hypothesen formuliert, welche im zweiten Teil der Arbeit durch einen „mixed-method“-Ansatz geprüft werden, wozu Daten aus österreichischen, international agierenden, Unternehmen erhoben werden. Die Ergebnisse der Untersuchung zeigen, dass Live-Video-Assistenzsysteme wie z.B. EVOCALL nicht zielführende Kommunikationskanäle ersetzen können und dass durch einen „work-shadowing“-Ansatz die Vor-Ort-Präsenz von ExpertInnen verringert sowie die Reparaturzeiten reduziert werden können. Die Erhebung hat gezeigt, dass solide Ausbildungsmaßnahmen für die Service- und InstandhaltungsmitarbeiterInnen eine Herausforderung für Unternehmen darstellen, welcher sie sich trotz Einsatz eines Live-Video-Assistenzsystems weiterhin stellen werden müssen.
Diese Masterarbeit befasst sich mit den Themen „Business Intelligence“ und „Data Warehousing“ im Umfeld der Sozialwirtschaft in Österreich am Beispiel des Unternehmens Jugend am Werk Steiermark GmbH (JAW). Das Ziel der Arbeit ist die Erläuterung der Vorgangsweise zur Erstellung eines Data Warehouse in einer heterogenen Systemlandschaft, wie sie bei JAW existiert. Im Zuge der Arbeit werden die Fachbegriffe rund um diese Themen erläutert und die Besonderheiten eines Data Warehouse im Vergleich zu operativen Datenbankapplikationen aufgezeigt. Um die Daten von einer solchen operativen Applikation in ein Data Warehouse zu übertragen, wird ein so genannter Extract-Transform-Load-Prozess durchgeführt, mit dessen Merkmalen sich diese Arbeit ebenfalls beschäftigt. Darauf aufbauend werden die dafür technisch eingesetzten Werkzeuge analysiert sowie deren Begrifflichkeiten geklärt. Auch die gesetzlichen Rahmenbedingungen des Datenschutzes, die direkten Einfluss auf ein Data Warehouse haben, werden im Verlauf der Arbeit dargelegt. Die Regelungen des Datenschutzes widersprechen jedoch den grundlegenden Charakteristika eines Data Warehouse. Diese Konfliktsituation sowie ein möglicher Lösungsansatz werden ebenfalls diskutiert. Mithilfe des Wissens aus dieser Vorbereitung werden die Dienstleistungen des Unternehmens erfasst und deren Datenhaltung analysiert. Durch die Einteilung in strukturierte Datenbankapplikationen und unstrukturierte Dateien wird sichtbar, dass ein Data Warehouse nur mit sehr großem Aufwand tatsächlich sämtliche Unternehmensdaten beinhalten kann. Anschließend wird ein gemeinsames Datenmodell für diese Daten geschaffen, welches die Daten aus der heterogenen Applikationslandschaft beherbergen wird. Abschließend wird ein Prototyp erstellt, der den Weg der Implementierung sowie die Möglichkeiten eines Data Warehouse und der dazugehörigen Werkzeuge beschreibt.
Zu erkennen, wo in einem Unternehmen Potentiale oder Schwachstellen zu finden sind, ist heute in kleinen und mittleren Dienstleistungsbetrieben genauso wichtig, wie die Marktanalyse oder eine perfekte Qualität der Dienstleistung. Um diese Informationen zu gewinnen, ist eine Applikation notwendig, welche die Fragen der Leistungsfähigkeit des Unternehmens beantwortet. Das Ziel dieser Arbeit war es, den Beweis zu erbringen, ob prozessorientierte Unternehmen wirtschaftlicher arbeiten als nicht prozessorientierte und ob ein Tool hilft, die Unternehmensleistung zu verbessern oder zu erhöhen. Um diese Arbeit überhaut schreiben zu können waren einige Schritte notwendig. Durch eine intensive Literaturreschere war es möglich das notwendige Spezialwissen aufzubauen. Auch wurden dabei neue Modell gefunden, welche in dieser Arbeit miteingebunden wurden. Der nächste Schritt war die genaue Beobachtung der Prozesse und Abläufe in einem Dienstleistungsbereich eines Unternehmens. Diese wurden genauestens dokumentiert und bei Unklarheiten wurden die am Prozess beteiligten Personen befragt. So entstand eine genaue Prozessdokumentation, welche für die Kennzahlendefinition und zum Entwickeln einer Software zur Unternehmenssteuerung Verwendung fand. Diese Steuerung wurde, nach Fertigstellung, im Unternehmen sofort umgesetzt. Dieses Unternehmen wurde auf prozessorientierte Arbeitsweise umgestellt und begleitet. Nach einer längeren Laufzeit wurde die Umstellung auf prozessorientierte Arbeitsweise evaluiert. Diese Evaluierung machte den nächsten Schritt der Arbeit möglich, eine „Process Scorecard“ zu entwickeln. Diese Scorecard ist ein kaum bekanntes Modell, um Prozesse zu überwachen, und um eine ganzheitliche Betrachtung auf das Unternehmen zu erhalten. Ein Prototyp dieser Monitoring Methode wurde entwickelt und die Gewichte zur Unternehmenssteuerung erarbeitet. Der letzte Schritt war die Befragung von Spezialisten, ob diese Scorecard eine Möglichkeit ist, um eine verbesserte Betrachtung auf die Prozesse zu erhalten. Das Ziel dieser Arbeit war es, festzustellen, ob ein Unternehmen, welches prozessorientiert funktioniert, wirtschaftlicher und effizienter arbeitet als vor der Umstellung. Die Ergebnisse zeigen eindeutig, dass bei optimaler Umsetzung und Einhaltung der Kultur des prozessorientierten Arbeitens, durchaus bessere Ergebnisse erzielt werden können als davor. Des Weiteren zeigten sich Führungskräfte von der „Process Scorecard“ überzeugt, dass diese die gesamte unternehmerische Betrachtung verbessert. In den Handlungsempfehlungen, die als Resultat dieser Arbeit zu sehen sind, wird weiter auf die Vorteile von Prozessen, im Unternehmen und was diese für wirtschaftliche Vorteile haben, eingegangen.
Durch die Aufteilung eines Systems in eine Vielzahl kleine, autonom agierende Services versprechen Microservices viele Vorteile wie beispielsweise die Komplexität von Software-Systemen zu reduzieren sowie deren Flexibilität und Wartbarkeit zu erhöhen. Dabei sollen Services von selbstständigen, voneinander unabhängigen Teams entwickelt, bereitgestellt und betrieben werden, um schnell auf geänderte Anforderungen reagieren und einzelne Systemteile ohne Beeinträchtigung des Gesamtsystems ändern zu können. Dies ermöglicht in weiterer Folge die gesonderte Skalierung einzelner Teile eines Systems, um so die Verfügbarkeit gezielt erhöhen und Betriebskosten reduzieren zu können. Diese Arbeit führt eine kritische Betrachtung dieses Architekturansatzes durch und ermittelt, welche Voraussetzungen notwendig sind, um damit monolithische, webbasierte Systeme zu modernisieren oder zu erweitern. Aufbauend auf einer theoretischen Ausarbeitung, welche in die Grundlagen von Microservices-Architekturen einführt, Methoden zur Erweiterung und Modernisierung monolithischer Legacy-Systeme beschreibt sowie Wege zeigt, wie ein bestehendes System aufgeteilt werden kann, wird ein Fragebogen ausgearbeitet, um die Erwartungshaltung von Personen im Umfeld der Softwareentwicklung zu erheben. Die Untersuchung zeigte, dass Unternehmen ein großes Interesse und eine hohe Erwartungshaltung an diesen technologischen Ansatz haben, sich aber auch der damit einhergehenden Nachteile, wie unter anderem die Erhöhung der technischen Komplexität des Gesamtsystems oder den steigenden Anforderungen an Betrieb und Infrastruktur, bewusst sind. Weiters wurde festgestellt, dass sich dieses Architekturparadigma nicht für jedes Unternehmen eignet und in der Regel organisatorische Änderungen für deren Einführung notwendig sind. Abschließend wird eine Handlungsempfehlung präsentiert, die, unter Berücksichtigung der zuvor ermittelten Ergebnisse, Möglichkeiten aufzeigt, diesen Architekturansatz auf bestehende Systeme anzuwenden sowie notwendige Voraussetzungen veranschaulicht, welche eine Organisation für die Einführung von Microservices zu erfüllen hat.
Der Einsatz ARM-Prozessor-basierter Systeme ist in den letzten Jahren durch den Aufstieg der Smartphones, sowie dem aktuellen Trend zum Internet of Things rasant angestiegen. Viele Unternehmen arbeiten daran, etablierte Systeme durch stromsparendere Varianten mit ARMSoCs zu ersetzen. Das Ziel dieser Arbeit ist es, die aktuelle Einsetzbarkeit dieser Systeme anhand des Beispiels des Raspberry Pi 3 Model B in Verbindung mit der Microservices Architektur zu evaluieren. Zu diesem Zweck wird im ersten Teilbereich dieser Arbeit auf die Besonderheiten der eingesetzten Hardware und auf die technologischen Barrieren eingegangen, die den Einsatz in Unternehmen erschweren und wie diese überwunden werden können. Aufbauend auf der zuvor erarbeiteten Umgebung wird im darauf folgenden Abschnitt auf die Besonderheiten der Microservices Architektur eingegangen. Hierbei werden Wege aufgezeigt, wie der Einsatz dieser Architektur auch auf dem Raspberry Pi in einer sicheren und redundanten Weise geschehen kann. Der dritte Abschnitt beschäftigt sich mit der Erarbeitung eines Gesamtkonzepts und dessen prototypischer Umsetzung in Form des Hardwareaufbaus, der gewählten Softwareumgebung, sowie einer beispielhaften Dienstekomposition für den Einsatz in Unternehmen. Als Ergebnis dieser Arbeit wird ein Konzept vorgestellt, mit welchem es möglich ist, beispielhafte Prozesse in Unternehmen zu realisieren. Zur Demonstration der praktischen Umsetzbarkeit wird abschließend ein Prototyp gezeigt, welcher als Proof of Concept dient. Aufgrund des erfolgreichen Aufbaus dieses Konzepts wurde die Hypothese H1 bestätigt, beziehungsweise die Hypothese H0 widerlegt. Aufbauend auf den Erkenntnissen dieser Arbeit kann in einer folgenden Arbeit der Prototyp zu einer vollwertigen Lösung, die den praktischen Einsatz ermöglicht, ausgebaut werden. Weiters können ähnliche Bereiche analysiert und gefunden werden in welchen eine Verwendung von ARM-Prozessoren mit der heutigen Technik bereits praxistauglich möglich ist.
Kundenorientiertes Marketing, hat sich in den letzten zehn Jahren sehr stark verändert und weiterentwickelt. Durch das Aufkommen des Smartphones wurden für Einzelhändler und Einzelhändlerinnen neue Möglichkeiten im Marketingbereich erschlossen. Durch das gezielte Ansprechen das immer präsenten Smartphones des Kunden oder der Kundin, entstand ein Bereich im Marketing der sich Mobile Marketing nennt. Die neueste technologische Errungenschaft im Bereich des Mobile Marketing nennt sich Beacon. Diese junge Technologie beinhaltet Hardware-Geräte, welche kleine Datenpakete mithilfe von Bluetooth Low Energy senden und empfangen. Die Beacons haben das Potenzial den Einzelhändlern und Einzelhändlerinnen zu unterstützen, um ihre Wettbewerbsfähigkeit zu wahren. Ziel dieser Arbeit ist es herauszufinden wie sich die Beacon Technologie auf Kunden und Kundinnen auswirkt. Deshalb wird im Rahmen dieser Arbeit die Beacon Technologie in zwei Beacon Applikationen umgesetzt. Diese Applikationen spiegeln das Potenzial wieder, welches diese Technologie mit sich bringt. Neben der Entwicklung ist die Aufbereitung eines Szenarios ein abschließender Kernpunkt der Arbeit. Dieses fiktive Szenario zeigt, wie der Einsatz der Beacon Technologie im Retail Bereich aussehen kann. Die Probanden und Probandinnen haben durch die Teststellung die Möglichkeit, die Beacon Technologie zu erleben und sich ihre Meinung darüber zu bilden. Anschließend werden die Probanden und Probandinnen, basierend auf dem zuvor erlebten Szenario, interviewt. Es wird gezeigt, wie sich die Beacon Technologie auf die Kunden und Kundinnen im Einzelhandel auswirkt. Im letzten Teil der Arbeit werden die gewonnen Informationen mithilfe der qualitativen Inhaltsanalyse ausgewertet. Es wird unter anderem festgestellt, welches Potenzial im Beacon unterstützen Marketing liegt.
Sichere App Entwicklung
(2017)
Sicherheit in mobilen Applikationen ist ein wichtiger Punkt in der mobilen Softwareentwicklung. Diese Arbeit hat sich das Ziel gesetzt, bekannte Sicherheitsrisiken aufzuzeigen und welche Angriffsvektoren sich im speziellen für die mobilen Apps und die dazugehörigen Applikationsserver ergeben, darzustellen. Der Fokus liegt auf das Erarbeiten sicherer Frameworks und Designregeln, die zur Wahrung der IT-Sicherheit eingehalten werden sollen. Der erste Teil bietet einen Einblick in die sichere Applikationsentwicklung. Es wird gezeigt, dass sich Sicherheitsprobleme über die Jahre verändert haben und das neue Angriffsvektoren hinzugekommen sind. Zusätzlich werden aktuelle Sicherheitsrisiken und die Sicherheitsmodelle der verwendeten Plattformen behandelt. Es wird gezeigt, wie Applikationen gegen Angriffe geschützt werden können. Der zweite Teil widmet sich unterschiedlichen Übertragungsmöglichkeiten, Angriffsmöglichkeiten und Verteidigungsmöglichkeiten. Es geht hervor, wie eine mobile Applikation attackiert werden kann und wie Abwehrversuche aussehen können. Diese Themen werden mithilfe von Beispielen verständlich dargestellt. Im praktischen Kapitel wird anhand von Tests erörtert, wie wichtig grundlegende Sicherungen von mobilen Anwendungen sind. Sie weisen auch darauf hin, dass nicht jede Verteidigung einen vollständigen Schutz bietet, aber Angriffe verlangsamen können. In Verbindung mit der theoretischen Ausarbeitung und den Erkenntnissen der Tests entstanden Frameworks und dazugehörige Designregeln. Diese bieten Anfängerinnen und Anfänger eine Grundlage für die sichere Applikationsentwicklung und sie dienen als Checkliste für erfahrene Entwicklerinnen und Entwickler.
Die Nutzung und das Angebot mobiler Apps steigt in den letzten Jahren merklich. AppEntwickler / App-Entwicklerinnen müssen durch den starken Konkurrenzkampf auf effiziente App-Marketing-Strategien setzen. Da die organische App-Store-Suche der gängigste Weg für Nutzer / Nutzerinnen ist, Apps zu finden, gewinnt App-Store-Optimierung zunehmend an Bedeutung. App-Store-Optimierung kann die Sichtbarkeit einer App innerhalb eines App-Stores signifikant erhöhen. Einschlägige Software wird dazu eingesetzt, um diesen Prozess aufgrund wachsender Komplexität, effizienter zu gestalten. In dieser Arbeit wird App-Store-Optimierung als Bestandteil im App Marketing betrachtet und wesentliche Prozessschritte und Faktoren ermittelt. Darüber hinaus wird ein existierendes App-Store-Optimierungs-Tool untersucht, um herauszufinden, wie und ob es App-Entwicklern / App-Entwicklerinnen effektiv im App-Marketing unterstützen kann. Folgend werden inhaltliche Verbesserungsvorschläge basierend auf einer qualitativen Befragung gefunden und mithilfe bekannter Service-Engineering-Werkzeuge innerhalb eines Frameworks untersucht. Die befragten Personen wurden aus dem Kundenstamm des betrachteten Tools ausgewählt und sind drei Fachmänner in App-Entwicklung und Marketing. Diese Arbeit zeigt auf, dass App-Store-Optimierung ein wesentlicher Punkt einer App-Marketing-Strategie ist. App-Store-Optimierungs-Tools kristallisieren sich zudem als notwendig heraus, um diesen Prozess möglichst effektiv zu gestalten. Trotz Automatisierung kann einschlägige Software menschliches Eingreifen oder Beratung jedoch nicht völlig ersetzen. Das untersuchte Tool erfüllt bereits die notwenigen Basis-Funktionalitäten, um App-Entwickler / App-Entwicklerinnen effektiv zu unterstützen, jedoch sollten die Erweiterungsvorschläge beachtet werden, um den Nutzen zu optimieren. Diese Arbeit dient als Anstoß zur Weiterentwicklung der untersuchten App-Store-Optimierungssoftware unter Berücksichtigung strategischer Aspekte und Marktsituation. Die Ergebnisse können dazu verwendet werden, um ein solches Tool auf thematische Schwerpunkte und Kundennutzen auszurichten.
Öffentliches WLAN bringt einen erheblichen Mehrwert für moderne Städte weltweit. Obligatorisch für die Umsetzung eines solchen Projekts ist ein umfassendes Modell zur Konzeptionierung einer urbanen WLAN-Infrastruktur. Auf Basis der Analyse des öffentlichen WLANs der steirischen Landeshauptstadt Graz wurde ein Modell entwickelt, dass als Leitfaden für Provider weltweit dienen kann. Ein bereits aktives Providernetzwerk ist als Grundvorrausetzung für die Inbetriebnahme des WLAN-Systems anzusehen, denn die Beschreibung zur Implementierung eines solchen Netzwerks ist nicht Gegenstand dieser Forschung. Die notwendigen Informationen zur Generierung des Modells basieren auf den Erkenntnissen durchgeführter Experteninterviews und aktueller technischer Literatur aus dem theoretischen Teil dieser Arbeit. Die befragten Sachkundigen lassen sich in drei Gruppen unterteilen. Gruppe eins besteht aus spezialisierten Facharbeitern in den Gebieten NetzDesign, Netzplanung und -wartung, sowie dem Betrieb von skalierenden und sicheren Rechenzentren. Experten der Gruppe zwei verfügen über fundiertes Wissen aus den Bereichen Wirtschaft und Tourismus in großen Städten. Gegenstand des Interviews der Gruppe drei sind die Themen Vertriebsmöglichkeiten und Projektmanagement. Aus technischer Perspektive ist abzuleiten, dass die Nutzeranzahl des WLAN-Systems auch ohne marketingtechnische Interventionen steigt, wenn das Modell zur Konzeptionierung einer urbanen WLAN-Infrastruktur angewendet wird. Aufgrund höherer Kapazitäten können mehr WLAN-Teilnehmer den Service verwenden. Für weitere akademische Arbeiten ist die Gesetzeslage zum Betrieb von öffentlichem WLAN ein offenes Forschungsthema. Im Detail muss analysiert werden inwiefern das steirische Baurecht, in Bezug auf die Installation von WLAN-Equipment, zu erweitern ist.
Die heutige Welt ist geprägt von wirtschaftlichen Zielen, die meist mit monetären Gewinnvorstellungen verbunden sind. Um diese zu erreichen, ist es wichtig die Kosten- und Budgetplanungen so exakt wie möglich durchzuführen. Dies gilt auch für das Gebiet des Service Level Management. Bei der Erstellung einer Leistungsbeschreibung zwischen Kunden und Lieferanten, einem sogenannten Service Level Agreement, muss oftmals ein Fixpreis vom Dienstleister für eine gewisse Laufzeit festgelegt werden. Da vorab meist wenige Informationen über den zu erwarteten Aufwand zur Verfügung stehen, ist ein gewisses Maß an Ungewissheit vorhanden. Aus diesem Grund ist es notwendig, durchdachte Kostenschätzungen durchzuführen. Diese können mittels verschiedenster Methoden aus unterschiedlichen Gebieten, wie Projektmanagement oder Softwareentwicklung, kommen. Jede dieser Schätzmethoden hat zum Ziel eine möglichst genaue Aussage zu liefern, welche Kosten oder Aufwände durch ein Arbeitspaket oder ein Projekt entstehen können. In dieser Arbeit werden unterschiedliche Schätzmethoden begutachtet. Dabei wird ein bestehendes Schätzmodell eines Unternehmens unter die Lupe genommen und mit der Planning Poker Methode, der Zielkostenrechnung und der Drei-Punkt Schätzung gegenübergestellt. Zusätzlich wird dieses Modell im Zusammenhang mit Service Level Agreements für Operations and Support Service Abteilungen in der IT auf Genauigkeit und Zuverlässigkeit geprüft. Dabei werden nicht nur Testversuche von verschiedenen Schätzmethoden durchgeführt, sondern auch Einflüsse und berücksichtigungswürdige Aspekte des Schätzens aufgezeigt und präsentiert.
Ganz nach dem Motto “If you can’t measure it, you can’t manage it.” von Kaplan und Norton (1996) war es Ziel dieser Masterarbeit, Kennzahlen für erfolgsrelevante Unternehmensprozesse im Bereich von Servicebetrieb und Kundensupport eines IT-Service Anbieters, zu identifizieren. Dazu sind zu Beginn theoretische Grundlagen zur Effektivität und Effizienz, zum Prozessmanagement sowie zum Thema IT-Infrastructure Library aufgearbeitet worden. Im Anschluss ist Theorie zu Metriksystemen beleuchtet und in diesem Zuge die Goal/Question/Metric-Methode untersucht worden. Anschließend ist das Unternehmen Infonova GmbH, im Besonderen die Geschäftseinheit Operations and Support, vorgestellt worden. Auf Basis der bisherigen theoretischen Erkenntnisse sind mithilfe einer SWOT-Analyse Erfolgsfaktoren auf die Infonova-spezifischen Erfolgspotenziale „Service-Pakete“ und „Flexibilität“ ermittelt worden. Durch Gewichtung der OPS-Prozesse mittels einer Prozess-Erfolgsfaktoren-Matrix und eines Prozessportfolios konnten die wichtigsten Geschäftsprozesse eruiert werden. Die drei wichtigsten Prozesse sind das Incident Management, das Change Management und das Problem Management. Mit Hinblick auf die erfolgsrelevantesten Geschäftsprozesse sind Metriken anhand der Goal/Question/Metric-Methode und den zuvor identifizierten Erfolgspotenzialen und Erfolgsfaktoren erarbeitet worden. Da es herauszufinden galt, ob Kennzahlen, welche systematisch im Kontext eines Top-DownAnsatzes abgeleitet werden, bei der Ausschöpfung von Erfolgspotenzialen im Serviceumfeld von Software unverzichtbar sind, sind die Metriken fünf Experten der Infonova GmbH vorgelegt und bei einem Interview sowie mittels eines Fragebogens bewertet worden. Im Zuge der Auswertung der Expertenbefragung konnte festgestellt werden, dass der Top-Down-Ansatz eine wichtige Basis zur Identifikation von Metriken darstellt. Abschließend sind zehn erfolgsversprechende Kennzahlen, die sich aus der Goal/Question/Metric-Methode und der Expertenbefragung ergeben haben, hervorgehoben worden. Diese Kennzahlen sollten in der Infonova GmbH implementiert werden, um Erfolg aus ihnen schöpfen zu können.