ja
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (787)
- Arbeitspapier (58)
- Teil eines Buches (Kapitel) (6)
- Wissenschaftlicher Artikel (3)
- Buch (1)
- Konferenzveröffentlichung (1)
Gehört zur Bibliographie
- ja (856)
Schlagworte
- Hochschullehre (56)
- Didaktik (55)
- Geschäftsmodell (36)
- Digitalisierung (32)
- Vertrieb (31)
- Personalwesen (27)
- Führung (19)
- Innovationsmanagement (17)
- Social Media (16)
- Online-Marketing (13)
Institut
- Informationstechnologien & Wirtschaftsinformatik (169)
- Innovationsmanagement (150)
- Automatisierungstechnik-Wirtschaft (125)
- Rechnungswesen & Controlling (125)
- Sales Management (64)
- International Marketing (37)
- Unternehmensmanagement (37)
- Digital Marketing Management (29)
- Financial Accounting (24)
- Software Engineering Leadership (21)
Unterstützung von Entscheidungsprozessen im Einkaufsbereich mit modernen Data Mining Algorithmen
(2018)
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Data Mining Verfahren bei der Auswahl von Lieferanten im Supplier Relationship Management in der Automobilindustrie. Es wird geprüft, wie sich die Entscheidungsqualität bei der Auswahl von Lieferanten verändert, wenn bei der Entscheidungsfindung eine Vorhersage der Lieferantenperformance aus einem Data Mining Modell vorhanden ist. Aus den Erkenntnissen einer Literaturrecherche wird das Vorgehensmodell Analytic Hierarchy Process für die Bewertung von Lieferanten ausgewählt und ein an die Praxis angelehntes Bewertungsmodell erstellt, dass in weiterer Folge als ideale Lösung betrachtet wird. Diese Erkenntnisse fließen in das Design eines Data Mining Modells welches durch ein neuronales Netzwerk mit Backpropagation gelöst wird. Die Umsetzung des neuronalen Netzwerks als Prototyp wird mit dem Cross Industry Standard Process for Data Mining Vorgehensmodell durchgeführt. Das Data Mining Modell wird mit idealisierten Testdaten validiert. Die Testdaten basieren auf dem idealen Bewertungsmodell. Auf Basis des Data Mining Modells ein Experiment mit A/B-Test durchgeführt indem die Teilnehmer eine simulierte Lieferantenentscheidung durchführen müssen. Eine der beiden Gruppen wird zusätzlich zu den Rohdaten der Entscheidung die Ergebnisse des Prototyps zur Verfügung gestellt. Die Daten aus dem Experiment werden mittels quantitativen und qualitativen Fragebogen erhoben. Die erhobenen Daten im Experiment werden mit den idealisierten Daten aus dem Bewertungsmodell auf Basis des Analytic Hierarchy Process verglichen und Rückschlüsse auf die Qualität der Entscheidung getroffen. Aus dem Ergebnis der Datenauswertungen des Experiments wird die Forschungsfrage beantwortet. Der Einsatz von Data Mining Modellen mit dem Ziel der Vorhersage von Lieferantenbewertungen führt zu einer Verbesserung der Entscheidungsqualität bei der Auswahl von Lieferanten.
This thesis identifies the advantages business analytics provide responsible persons (chief executive officers, controllers, chief finance officers, project managers, IT managers) in Austrian medium-sized construction industry companies with an existing information system. The thesis begins with a literature review to define business analytics, the building trade, and medium-sized companies. 17 hypothesised advantages are then explored using quantitative and qualitative methods. The quantitative method is an online survey; expert interviews with three responsible persons form the qualitative method. The outcome is run through a correlation analysis in order to evaluate the advantages. The results show there are 16 advantages including better forecasting, understanding of patterns, increase of quality, and optimised capacity in production. Only the assumed advantage of a smaller number of stoppages in production couldn´t be confirmed. These 16 advantages show the value of business analytics for medium-sized companies in the construction industry.
In einem immer komplexer werdenden Umfeld nimmt Projektmanagement (PM) in vielen Unternehmen einen immer höheren Stellenwert ein. Es ist oft der „Enabler“ für die Umsetzung komplexer Aufgaben. Die Bewältigung solcher Aufgaben ist in der Linienorganisation häufig nicht oder nur schwer umzusetzen. Wird dafür jedoch ein Projekt aufgesetzt und eine temporäre Projektorganisation gebildet, ist das Know-how der Experten gebündelt, die Personen können flexibler agieren und die Ziele sind klar definiert. Die Initiierung, Planung, Steuerung, Kontrolle sowie der Abschluss von Projekten zählen zu den Hauptaufgaben des Projektleiters. Im Betrachtungsfokus des Projektleiters liegen die Zeit, die Ziele und das Budget. Methoden von unterschiedlichen Projektmanagement-Standards unterstützen den Projektleiter und das Projektteam bei der Projektumsetzung. Jedoch lässt sich die Komplexität mit den herkömmlichen Methoden der unterschiedlichen Projektmanagementansätze nicht vollständig bewältigen. Vor allem bei technisch komplexen Projekten kommt es häufig zu Problemen bei der Umsetzung. Um dem entgegen zu wirken ist der Projektleiter als Moderator zur Lösungsfindung gefragt. Doch oft mangelt es im gesamten Projektteam am Methodenwissen, um komplexe Sachverhalte strukturiert zu bearbeiten. Hierbei können Methoden des Systems Engineering (SE) Abhilfe schaffen. Diese Disziplin basiert auf der Systemtheorie und bietet unter anderem Handlungsempfehlungen zum generellen Vorgehen, zur Problemlösung sowie zur Variantenbildung. Die gemeinsame Nutzung eines Projektmanagement-Standards und von Systems Engineering liegt im Fokus dieser Arbeit. Im ersten Kapitel wird die Problemstellung und die Einführung in das Thema betrachtet. Im zweiten Kapitel wird Systems Engineering erläutert. Ein ausgewählter SE-Ansatz wird in diesem Kapitel detailliert beschrieben und für die gemeinsame Nutzung mit dem Projektmanagement-Standard von IPMA herangezogen. Die darauffolgenden Kapitel widmen sich dem Projektmanagement, der gemeinsamen Nutzung der beiden Ansätze, den qualitativen Befragungen zum Informationsgewinn für diese Arbeit und den Ergebnissen. Im letzten Kapitel wird die Forschungsfrage „Wie können Komponenten des IPMA-Projektmanagement-Standards und des Systems Engineering bestmöglich kombiniert werden, um den Projekterfolg zu steigern?“ beantwortet.
In dieser Arbeit werden mögliche Anwendungen des vertraulichen Cloud Computing im Zusammenhang mit der Datenverarbeitung evaluiert. Dazu wird eine experimentelle Umgebung, in der vertrauliche homomorphe Verschlüsselung für verschiedene Szenarien angewendet und deren praktische Anwendbarkeit bewertet wird, geschaffen. Cloud Computing hat wirtschaftlich ein großes Potenzial. Insbesondere im Kontext der Anwendung von Cloud Computing im Zusammenhang mit der Verarbeitung sensibler Daten besteht jedoch keine Garantie für den Erhalt des Datenschutzes. Die Wahrung der Vertraulichkeit von persistierten Daten wird zumeist durch bewährte Verschlüsselungsmethoden gewährleistet. Vor der Durchführung von Berechnungen müssen diese jedoch in Klartext entschlüsselt werden. Die homomorphe Verschlüsselung bietet eine eingeschränkte Möglichkeit diese Berechnungen auch mit verschlüsselten Daten durchzuführen. Da sich dieses Forschungsgebiet in den letzten zehn Jahren stark entwickelt hat, gibt es noch relativ wenig Anhaltspunkte dafür, inwiefern die Verwendung homomorpher Verschlüsselung in realen Anwendungen praktikabel sein kann. In dieser Arbeit werden in einem ersten Schritt Szenarien erstellt, welche eine Verbindung zwischen den Potenzialen der Technologie und den kommerziellen sowie politischen Erwartungen herstellen. Im nächsten Schritt wird durch eine Evaluierung verschiedener homomorpher Verschlüsselungsbibliotheken beurteilt, welche kryptographische Basis für alle erforderlichen mathematischen Operationen der entworfenen Szenarien geeignet ist. Anschließend werden die entworfenen Szenarien implementiert und hinsichtlich ihrer Ergebnisqualität, ihrer Speicherauslastung und ihrer Laufzeit ausgewertet. Abhängig von der technischen Ausrichtung des Szenarios wird ein hohes oder niedriges Implementierungspotenzial für reale Anwendungen bestimmt. Die Ergebnisse sollten jedoch insbesondere im Hinblick auf den zugrunde liegenden Kontext interpretiert werden. In Zukunft gilt es weitere praxisnahe Szenarien zu entwerfen, zu implementieren und ausführlich zu testen, um die Grenzen und das Potenzial dieser Technologie besser einschätzen zu können.
Online Marketing ist ein großer Trend und hat in den letzten Jahren laufend an Beliebtheit gewonnen. Daher war es das Ziel der vorliegenden Masterarbeit, den Einfluss von Online Marketing Methoden auf die Bindung und Zufriedenheit von Kundinnen und Kunden von Unternehmen im Hotellerie- und Gastronomiebereich zu erheben. Hierfür wurde zunächst auf den Zusammenhang von Kundinnen- und Kundenbindung und –zufriedenheit eingegangen und erörtert wie diese gemessen werden kann. Anschließend wurde mithilfe einer quantitativen Umfrage unter Besucherinnen und Besuchern eines speziellen Unternehmens die Bindung an eben jenes erhoben und mithilfe des Kano-Modells ihre Zufriedenheit mit den getätigten Online Marketing Maßnahmen ermittelt. Außerdem wurde erforscht wie wichtig Online Marketing Tätigkeiten für Kundinnen und Kunden im Allgemeinen sind. Durch einen qualitativen Fragebogen, welcher von drei Besucherinnen und Besuchern des genannten Unternehmens ausgefüllt wurde, konnte zusätzlich noch qualitatives Feedback zum Unternehmen und vorhandenen Online-Auftritt eingeholt werden. Aus Basis der gesammelten Erkenntnisse wurde ein Online Marketing Konzept für Unternehmen im Hotellerie- und Gastronomiebereich erarbeitet. Letztlich wurde mithilfe des Service Engineering Workflows der FH CAMPUS02 erhoben welche Maßnahmen zu einer noch weiteren Verbesserung der Zufriedenheit und Bindung führen könnten. Als einfache und günstige Maßnahme wurde die Möglichkeit zur Online-Reservierung vorgeschlagen. Zusammenfassend gibt diese Arbeit einen Überblick darüber, warum Online Marketing Maßnahmen auch für kleine Unternehmen im Gastronomie- und Hotelleriebereich sehr wichtig sind und welchen großen Einfluss sie auf die Bindung und Zufriedenheit von Kundinnen und Kunden haben.
Unternehmen stehen vor der Herausforderung, die Geschwindigkeit der Leistungserbringung an die Geschwindigkeit der sich verändernden Rahmenbedingungen und Anforderungen anzupassen. Unternehmen stehen vor der Herausforderung, sich mit ihren etablierten Prozessen gegen die Flexibilität von Startups durchzusetzen. Schnell fortschreitende Entwicklungen erfordern kürzere Innovationszyklen in der IT. Zeitgleich sollen IT Services weiterhin stabil und wirtschaftlich betrieben werden. IT-Organisationen, die Prozesse angelehnt an das weitverbreitete IT Service Management Best Practices Framework ITIL etabliert haben, sind gefordert, die Geschwindigkeit der Leistungserbringung zu erhöhen, ohne die Stabilität des Systems negativ zu beeinträchtigen. In dieser Arbeit wird zunächst ein Arbeitsablauf zur Leistungserbringung und dessen Durchlaufzeit beobachtet. Die Beobachtung findet in einem Großunternehmen statt, welches Prozesse etabliert hat, die sich an ITIL orientieren. Im Anschluss daran wird das IT Service Management Framework ITIL beschrieben und die darin enthaltenen Prozesse den beobachteten Arbeitsschritten gegenübergestellt. Unter Zuhilfenahme einer Literaturrecherche werden Ansätze identifiziert, die eine Beschleunigung der Leistungserbringung versprechen. Als weiterer Schritt werden Anwendungsfälle aus den Beobachtungen ausgewählt und Lösungsansätze entwickelt, die die Vorteile aus ITIL und DevOps vereinen, um eine schnelle Leistungserbringung bei hoher Systemstabilität zu ermöglichen. Auf Basis der identifizierten Lösungsansätze wird ein adaptierter Arbeitsablauf beschrieben und Rückschlüsse auf die potentielle Zeiteinsparung bei gleichbleibenden Ressourceneinsatz gezogen. Durch den Einsatz einer Deployment Pipeline pro Service wird ein standardisierter Weg zur Überführung von Änderungen in die Produktivumgebung erzeugt. Die hohe Anzahl an automatisierten Tests innerhalb der Deployment Pipeline sorgt für eine hohe Systemstabilität. Aufgrund des dadurch verringerten Risikos können IT Change Management Prozesse als Typ „Standard-Change“ anstatt „Normal-Change“ durchgeführt werden. Hierdurch werden kürzere Deploymentzyklen zugelassen und durch den Einsatz von agilen Softwareentwicklungsframeworks, die häufige Deployments vorsehen, eine frühere Nutzung der Software ermöglicht wird.
Innerhalb der Möbelbranche stehen vor allem Klein- und Mittelunternehmen vor der großen Herausforderung ihre Kunden und Kundinnen mittels geeigneten, kostengünstigen Online-Marketing- und Kommunikationstools zu erreichen und langfristig an sich zu binden. Großunternehmen hingegen verfügen über intuitive, auf Algorithmen basierende, kostenintensive Tools, welche genaue Kundenwünsche erfassen. Diese Arbeit widmet sich der Zielgruppe der Klein- und Mittelunternehmen und stellt ein Konzept mit geeigneten, kostengünstigen Tools vor, welches dazu dient, Kunden und Kundinnen zu erreichen. Die Auswahl der Tools basierte auf der Basis der Einfachheit, der Definition der Zielgruppe und der Messung der Reichweite. Durch verschiedene Strategien des Online-Marketing und der Grundlage der modernen Kommunikation wurde mittels des Service Engineering Prozesses ein Verfahren entwickelt, welches ein kostengünstiges Vorgehen im Bereich von Online-Marketing und Online-Kommunikation ermöglicht. Die Erkenntnisse aus den einzelnen quantitativen Erhebungen flossen in die verschiedenen Phasen des Vorgehensmodelles ein und wurden mit Methoden angereichert. Innerhalb der Pilotierung wurden vier wichtige Tools als Mockups dargestellt, zum einen Bewerbungen auf Social Media Plattformen, Low-Budget Videos, E-Mail Newsletter und zum anderen die Website, welche als Visitenkarte des Unternehmens anzusehen ist. Die Evaluierung des Konzeptes basiert auf der qualitativen Erhebung von Experten- und Expertinneninterviews aus dem Bereich der Möbelbranche. Auf Grund der Aussagen der Experten und Expertinnen trifft das entwickelte Konzept den modernen Zeitgeist und eignet sich für Klein- und Mittelunternehmen in Österreich. Auf Basis dieses Konzeptes und dem aktiven Einwirken eines Unternehmens wird die Möglichkeit geschaffen, die Marke und das Unternehmen selbst zu festigen und weiter auszubauen.
Die vorliegende Masterarbeit ist im Bereich der Informationssicherheit und dem Informationssicherheitsmanagement angesiedelt. Ziel der Arbeit war es, einen allgemeinen Ansatz für die Entwicklung von Informationssicherheitsrichtlinien zu entwickeln. Aufgrund der Größe des Themenfeldes behandelt diese Arbeit vor allem das Richtliniendesign im Kontext der ISO 27001. Der erste Teil der Arbeit deckt den theoretischen Hintergrund von Informationssicherheitsmanagement, Kryptographie und den gesetzlichen Vorgaben dazu ab. Das Ergebnis dieses Teils war ein grundsätzliches Verständnis davon, wie Informationssicherheitsmanagement funktioniert und welchen Beitrag Kryptographie dazu leisten kann. Außerdem wurde festgestellt, dass es für die öffentliche Verwaltung keine besonderen Gesetze im Bereich der Informationssicherheit gibt. Der zweite Teil der Arbeit widmet sich dem Design von Informationssicherheitsrichtlinien. Aufgrund dessen, dass es noch keinen allgemeinen Ansatz für die Entwicklung solcher Richtlinien gab, wurde ein eigenes Vorgehensmodell dafür entwickelt. Basis für die Entwicklung des Modells waren die Erkenntnisse aus der Literaturrecherche hinsichtlich der Erfolgsfaktoren von Informationssicherheit. Im nächsten Schritt wurden fünf Fachleute aus dem Bereich der Informationssicherheit zu dem entwickelten Modell befragt. Das Ergebnis dieser Befragung war eine verbesserte Version des aufgestellten Modells. Mit Hilfe dieses Modells wurde dann in einem weiteren Schritt eine Richtlinie für die Anwendung von kryptographischen Verfahren entwickelt. Außerdem ist deutlich geworden, dass die verschiedenen Richtlinien für Informationssicherheit so unterschiedlich sind, wie die Unternehmen, in denen sie Anwendung finden und dass die Unternehmenskultur einen großen Einfluss auf den Erfolg dieser Richtlinien hat. Zusätzlich wurde festgestellt, dass es verschiedene Arten von Anforderungen innerhalb der ISO 27002 gibt. Einige können direkt umgesetzt und mit Richtlinien erfüllt werden, und andere wirken sich auf viele Unternehmensbereiche aus. Aufgrund dessen war eine Beantwortung der Forschungsfrage schwierig. Das entwickelte Modell versucht den verschiedenen Ansprüchen verschiedener Organisationen gerecht zu werden, aber die letztendlich entwickelte Richtlinie ist nicht auf andere Organisationen übertragbar.
Die Verbreitung von Geräten, die mit dem Internet kommunizieren und Teile des Alltags vieler Menschen sind, nimmt immer mehr zu. Das Internet of Things (IoT) kombiniert bestehende Technologien mit dem Internet, wodurch neue Einsatzgebiete erschlossen werden. IPKameras, Verkehrssteuerungssysteme und kritische Infrastrukturen wandern zunehmend in das Internet und werden dadurch für Personen erreichbar, die keinen Zugriff auf diese Systeme haben sollten. Dies führt dazu, dass neue Angriffsvektoren, die von Hackern und Kriminellen genutzt werden, entstehen und sowohl die IT-Sicherheit der IoT-Objekte selbst, als auch jene von bestehenden IT-Infrastruktur gefährdet werden. Viele IoT-Produkte, die für die Endkundin und den Endkunden konzipiert wurden, verfügen nicht über die notwendigen Sicherheitsmechanismen, die einen ordnungsgemäßen und sicheren ITBetrieb gewährleisten sollen. Die Produktentwicklung der Hersteller setzt den Fokus auf Bedienungskomfort und einfacher Konfiguration, vergisst jedoch die Gefahren, welche von ungesicherten IoT-Objekten ausgehen. Diese Gefahren reichen von Funktionsstörungen, dem Versenden von Spam-E-Mails, bis zur Nutzung von IoT-Objekten für großangelegte Hacker-Angriffe auf kritische Infrastrukturen. In dieser Arbeit wird ein IoT-Security Framework entwickelt, das auf Basis von Analysen bestehender IoT-Sicherheitsproblematiken, Sicherheitsanforderungen definiert und diese in einem Integrationsprozess zusammenfasst. Die Sicherheitsanforderungen wurden aus bereits publizierten Angriffsszenarien abgeleitet und werden sich direkt an das IoT-Objekt richten, der sicheren Kommunikation zwischen den einzelnen Objekten, sowie an die Cloudplattformen, die im Umfeld von IoT häufig zum Einsatz kommen. Das IoT-Security Framework soll es Endkonsumentinnen und Endkonsumenten ermöglichen, die IT-Sicherheit von IoT-Produkten zu bewerten und deren Risiko für sich selbst, als auch für bestehende IT-Infrastrukturen zu beurteilen.
Die Einführung eines Qualitätsmanagementsystems ist eine wichtige strategische Entscheidung für eine Organisation, diese Entscheidung kann helfen, die Gesamtleistung des Unternehmens zu steigern und eine gute Basis für nachhaltige Entwicklungsarbeiten bereitzustellen (ISO9001, 2015). Die ISO 9001 ist ein weltweit anerkannter Standard für die Zertifizierung von Qualitätsmanagementsystemen. Am 15.09.2015 ist die neue ISO 9001:2015 erschienen, sie Iöst die ISO 9001:2008 ab. Die derzeit nach ISO 9001:2008 ausgestellten Zertifikate sind noch bis 14.09.2018 gültig. Ab dann müssen sich die Organisationen nach der neuen ISO Norm zertifizieren lassen. Das Konzept der neuen ISO 9001:2015 beruht auf der High-Level-Structure für Managementnormen und orientiert sich am PDCA – Zyklus. In dieser Arbeit behandelt der Autor die Thematik der ISO 9001:2015 Zertifizierung der Steiermärkischen Krankenanstaltengesellschaft, Abteilung KMS. Zum aktuellen Zeitpunkt ist die Abteilung KMS nach der ISO 9001:2008 zertifiziert. Der Autor arbeitete die fehlenden Nachweise zur erfolgreichen Zertifizierung nach ISO 9001:2015 aus und führte anschließend eine Befragung zur Sinnhaftigkeit der Nachweise durch. In einer anonymen Befragung wurden Mitarbeiter der Abteilung KMS, mit Qualitätsmanagementaufgaben und Qualitätsmanagementerfahrung, befragt wie sinnvoll sie die neuen Anforderungen der ISO 9001:2015 und die ausgearbeiteten Nachweise empfinden. Die Befragten wussten nicht, dass es sich bei der Befragung um die ISO 9001 Nachweise handelt. Nicht sinnvolle, wenig sinnvolle, optionale und notwendige Nachweise wurden somit für die Abteilung erkannt und die Sinnhaftigkeit der Revision in Frage gestellt. Die Befragung hat gezeigt, dass die neuen Anforderungen der ISO 9001 eine Qualitätssteigerung bringen können und die Revision somit ihren Sinn erfüllt hat. Fehlende Nachweise, der Abteilung KMS, für die Zertifizierung nach der neuen Norm wurden bearbeitet und Einführungsvorschläge gegeben. Am Beispiel der Einführung eines Projektportfoliomanagements wurden die Verbesserungen deutlich gemacht. Am Ende vergleicht der Autor die ISO 9001:2015 mit der EN 15224, welche eine Gesundheitsspezifische Norm darstellt.
Die Softwareentwicklung von Produkten und Lösungen orientiert sich zunehmend an agilen Vorgehensweisen, welche erhebliche Vorteile in der Kundenorientierung und Schnelligkeit in der Auslieferung der Lösungen mit sich bringt. In diesem Zusammenhang besteht auch die Herausforderung der Schätzung von User Stories, die aus Sicht des Benutzers, formuliert werden. Obwohl sich etwaige Methoden und Techniken zur Schätzung von User Stories etabliert haben (z.B. Point-Metriken), liegt dabei ein wesentlicher Nachteil in der subjektiven und relativen Bewertung des Aufwandes bzw. der Komplexität durch das Team durch welche eine Verzerrung der Schätzung entstehen kann. Ebenso beanspruchen Schätzpraktiken in agilen Vorgehensweisen, durch deren interaktiven Charakter, einen erheblichen Zeitaufwand. Das Ziel dieser Arbeit bestand darin, zu prüfen, ob die Anwendung bzw. der Einsatz von Machine Learning den Schätzprozess in agilen Vorgehensweisen unterstützen kann. Der erste Teil der Arbeit bereitet dazu einen Einblick in die Welt der agilen Vorgehensweisen mit deren gängigsten Schätzverfahren. Nach einer kurzen Einführung in die Grundlagen des Data Minings bzw. Machine Learnings, wurden mögliche Lösungsansätzen zur Verbesserung der Schätzungen durch Machine Learning Verfahren untersucht. Die Untersuchung beinhaltet die Auswahl und Erläuterung eines Data Mining Vorgehensmodells. Dabei wurde der Cross-Industry Standard Process for Data Mining (CRISP-DM) als Referenzprozess für die Abhandlung der gesamten Arbeit gewählt. Auf Basis dieses Prozessmodells wurden einige relevante Techniken zur Textklassifizierung von User Stories abgehandelt. Demgemäß reichte die Untersuchung von der Phase Business Understanding bis hin zur Evaluation Phase eines Machine Learning Models. Basierend auf drei ausgewählten Machine Learning Verfahren (Naïve Bayes, Random Forest und Multilayer Perceptron) wurde eine Fallstudie durchgeführt. Diese Fallstudie umfasste die Datenvorverarbeitung, sowie die Modellierung und Implementierung eines Machine Learning Models auf Basis eines Real-life Datensets in der Programmiersprache R (Data Discovery und statistische Evaluation) und Python (Modellierung und Implementierung). Der letzte Teil der Fallstudie bestand in der Evaluation des trainierten Modells. Ziel der Fallstudie war es, zu prüfen, ob das Modell in der Lage ist, Story Points auf Basis von User Stories genauer zu schätzen, als durch ein zufälliges Raten bzw. Verteilen von Story Points. Dazu wurde eine ausgewählte Metrik (z.B. Accuracy) für jedes der drei Klassifizierungs-Verfahren, einem Dummy-Klassifizierer gegenübergestellt, welcher zufällig gewählte Story Points aus dem Datenset vorhersagte. Dies wurde auf Basis einer mehrstufigen Kreuzvalidierung (Cross Validation) durchgeführt um eine möglichst hohe Konfidenz der Vorhersagen zu erzielen. Anschließend wurde ein nicht-parametrischer statistischer Test (Wilcoxon Test) auf die erzeugten Vorhersagen (Metrik) angewendet, um festzustellen, ob sich die Mittelwerte tatsächlich voneinander unterscheiden. Die Ergebnisse der vorliegenden Studie zeigen, dass die Schätzung von Story Points durch die Anwendung von Machine Learning, das zufällige Raten erheblich übertreffen kann (unter den Voraussetzungen und Rahmenbedingungen der Fallstudie). Somit lässt sich sagen, dass Techniken des Machine Learnings für den vorliegenden Datensatz verwendet werden können, um den Schätzprozess zu beschleunigen, indem eine initiale Schätzung aller User Stories (z.B. aus einem Backlog) aus einem Machine Learning Modell bereitgestellt wird. Darüber hinaus bieten die Ergebnisse aus dem Modell, bis zu einem gewissen Grad einen unvoreingenommenen Blick auf StoryPoint-Schätzungen, als Grundlage für Diskussionen innerhalb des Teams. Hierbei ist jedoch anzumerken, dass die Validität der Ergebnisse, auf den speziellen Voraussetzungen und Rahmenbedingungen der Fallstudie beschränkt sind. Daher sollten die Ergebnisse dieser Arbeit auf einer breiteren (Anzahl der Datensätze), teamübergreifenden und projektübergreifenden Datenbasis verifiziert werden. Dennoch stellt die vorliegende Arbeit einen ersten Schritt zur Nutzung des maschinellen Lernens für die Story-Point-Schätzung dar.
Der technologische Fortschritt eröffnet Unternehmen unzählige Möglichkeiten innovative Produkte und Dienstleistungen zu schaffen. Das Bestreben zahlreicher Unternehmen ist es, neue, skalierbare Lösungen zu entwickeln und damit Unternehmenswachstum zu erreichen. Jedoch ist eine derartige Entwicklung mit einigen Herausforderungen verbunden. Diese Arbeit beschäftigt sich mit den Möglichkeiten der Skalierung IT-basierter Dienstleistungen durch die Anwendung von Serviceentwicklungsmodellen und -methoden am Beispiel der Verwertungs- und Entsorgungsindustrie. Zunächst werden dazu IT-basierte Dienstleistungen sowie die Skalierbarkeit im betriebswirtschaftlichen Kontext betrachtet, was eine Diskussion von Geschäftsmodellen und Wachstumsstrategien einschließt. Anschließend werden verschiedene Vorgehensmodelle und Methoden der Dienstleistungsentwicklung diskutiert. Zusätzlich zu den theoretischen Erkenntnissen wird eine empirische Untersuchung durchgeführt. Ziel ist es, Herausforderungen und Potenziale bei der Entwicklung IT-basierter Dienstleistungen aufzudecken. Weiterführend wird ein Best-Practice-Beispiel einer erfolgreichen Skalierung IT-basierter Dienstleistungen vorgestellt. Das Ergebnis dieser Arbeit ist ein Vorgehens-Rahmenmodell zur Entwicklung IT-basierter Dienstleistungen, welches als Skalierungs-Leitfaden gesehen werden kann. Dieses Modell beinhaltet Methoden und Handlungsempfehlungen, um die ermittelten Herausforderungen zu bewältigen und mögliche Potenziale zu nutzen. Als größte Herausforderung stellte sich das Finden der Features und Services mit dem größten Kundennutzen heraus. Das Modell sieht als wesentliche Elemente des Entwicklungsprozesses IT-basierter Dienstleistungen die durchgängige Integration relevanter Stakeholder sowie den Minimum Viable Product Ansatz vor. Weitere wesentliche Faktoren stellen Partnerschaften und Kooperationen sowie eine EarlyMover-Strategie dar.
Web analytics has been used to track visitor behavior on web sites since the early 1990s with the goal to understand the visitors and to constantly improve the web site. Although it is also possible to track users of single page applications, a special form of web application that behaves like a desktop application, there are some limitations. The aim of this work is to identify gaps in web analytics solutions regarding single page applications. Subsequently the impact of resolving such a gap on the intended long-term usage of a given web analytics system, the socalled Continuance Intention, is evaluated. Initially, an integration of an open-source web analytics framework with a commercial single page application is performed. Based on the gained experience and by conducting a literature research, a list of 13 gaps including potential solutions is identified. A group of experts is ranking them according to their impact on the usefulness of the web analytics solution. The resulting top item is the custom metrics feature, which allows to track application-specific metrics by configuring them generically in the web analytics system. It is subsequently developed and evaluated by means of an online survey using an adapted version of the Expectation-Confirmation Model. A linear regression model is based on the two resulting latent factors Perceived Usefulness and Continuance Intention. The statistical analysis of the model shows that a specific improvement of a web analytics solution with the goal to enhance the usefulness of this information system increases the intention to keep using this software in the long-term.
Microblogging ist im Bereich der Online-Erotik immer noch nicht vorherrschend. Das Ziel dieser Arbeit ist herauszufinden, wie der Einsatz von Microblogging im Bereich Erotik gegenüber kostenlosen Pornoseiten hinsichtlich der Benutzerakzeptanz zu beurteilen ist. Es soll ein Usability-Test durchgeführt werden, um eventuelle Probleme des Artefakts ausfindig zu machen. Diese Probleme sollen behoben werden bevor das Feldexperiment stattfindet. Potentielle Einflussfaktoren sollen im Rahmen einer Umfrage evaluiert werden. Die Umfrage soll das Phänomen Microblogging auf Facebook untersuchen. Im Rahmen eines Feldexperiments wird eine Microblogging-Plattform zum Thema Erotik mit einer herkömmlichen Pornoseite verglichen. Das Ergebnis ist, dass Microblogging genauso für den Konsum von erotischen Inhalten geeignet ist. Nur die Absprungrate der Besucher einer Microblogging-Plattform zum Thema Erotik ist im Vergleich zu einer klassischen Pornoseite höher. Zu den wichtigsten Faktoren, die die Nutzung von Microblogging über Erotik positiv beeinflussen, zählen das heimliche Beobachten von anderen Menschen im Internet, der Konsum von Pornografie und der Konsum von Online-Live-Sexshows. Es muss allerdings noch erforscht werden, ob es eine Zielgruppe gibt, die Microblogging über Erotik gegenüber dem herkömmlichen Konsum von pornografischen Inhalten, bevorzugt.
Die vorliegende Arbeit beschäftigt sich mit Cross-Plattform-Applikationen im Business Bereich. Es wird der Frage nachgegangen, ob die Effizienz durch die plattformunabhängige Softwareentwicklung gesteigert werden kann. Ziel dieser Arbeit ist es zu klären, in wie weit Experten und Expertinnen bereits Erfahrung mit Technologien sammeln konnten, die sich auf plattformunabhängige Softwareentwicklung spezialisiert haben. Damit herausgefunden werden kann ob die Effizienz gesteigert werden kann, beziehungsweise ob ExpertInnen in diesem Bereich herangezogen werden kann, wird zu Beginn dieser Arbeit eine Einführung in die mobilen Applikationen gemacht und gängige Begriffe näher beschrieben. Dabei wird eingegrenzt, was genau unter einem mobilen Gerät verstanden wird, damit in weiterer Folge die Zielgruppe festgelegt werden kann. Anschließend werden dem Leser beziehungsweise der Leserin, die beliebtesten Betriebssystem die auf dem Markt existieren vorgestellt und näher beschrieben. Zum Abschluss dieses Kapitel werden die einzelnen Plattformen gegenübergestellt, damit herausgefunden werden kann, welche Vor- beziehungsweise Nachteile existieren. Nachdem die einzelnen Plattformen vorgestellt wurden, wird auf die plattformunabhängige Softwareentwicklung näher eingegangen. Dabei werden zuerst Begriffe, die im Zusammenhang mit mobiler Entwicklung fallen definiert. Im Anschluss erfolgt eine Vorstellung verschiedener Technologien, die derzeit existieren. Im empirischen Teil wird der Prototyp der im Zuge dieser Arbeit entwickelt wurde, näher beschrieben. Dafür werden zu Beginn die Anforderungen, die die App erfüllen muss vorgestellt. In weiterer Folge wird dem Lesendem die gewählte Technologie vorgestellt und beschrieben, warum sich der Autor dieser Arbeit für dieses Framework entschieden hat. Zu Letzt wird im empirischen Teil berichtet werden, welche Technik bei den Experteninterviews zum Einsatz gekommen ist und wie der Aufbau aussieht. Abschließend wird vom Autor dieser Arbeit ein Erfahrungsbericht, über die Erfahrungen die beim Entwickeln des Prototyps gesammelt werden konnten, geschrieben. Im fünften und letzten Kapitel wird über die Beantwortung der Forschungsfrage berichtet und ein kurzer Ausblick gegeben welche Schritte als nächstes durchgeführt werden können, damit die Ergebnisse gefestigt werden können.
Durch den steigenden Einsatz von mobilen Geräten und mobilen Anwendungen im beruflichen Umfeld gewinnt die Verwaltung der Geräte für die Sicherstellung der Verfügbarkeit und der Datensicherheit eine immer größere Rolle. Die dafür eingesetzten Enterprise Mobility Management (EMM) Systeme wurden in den letzten Jahren hauptsächlich in großen Unternehmen verwendet und werden durch Trends wie Bring Your Own Device (BYOD) und Corporate Owned Private Enabled (COPE) sowie rechtliche Anforderungen, wie der Datenschutz Grundverordnung (DSGVO), auch bei kleinen und mittleren Unternehmen (KMU) immer stärker nachgefragt. In dieser Arbeit wird der Einsatz von EMM Systemen in KMU näher untersucht. Dazu wird eine Literaturrecherche durchgeführt und darauf aufbauend eine Marktanalyse des EMM Marktes in KMU in Österreich durchgeführt. In der Marktanalyse wird eine Übersicht über vorhandene Anbieter und deren Produkte gegeben und anschließend das Potential des EMM Marktes anhand vorhandener Studien erörtert. In der dabei durchgeführten quantitativen Umfrage werden relevante Einflussfaktoren auf die Annahme von EMM in KMU identifiziert. Ausgehend von diesen Erkenntnissen werden Hypothesen über die Annahme aufgestellt und für dessen Evaluierung wird ein Prototyp für die Verbesserung der Adoption der Technologie in KMU entwickelt. In dem entwickelten Prototyp wurden zwei aus den Hypothesen abgeleitete Funktionen umgesetzt. Die erste Funktion verbessert den Bestellprozess für neue Mobilgeräte der Mitarbeiterinnen und Mitarbeiter. Die zweite Funktion bietet den Mitarbeitern eine detaillierte, transparente Kostendarstellung. Die Evaluierung des Prototyps erfolgt mittels Interview von Expertinnen und Experten aus dem Bereich von mobilen Geräten und mobilen Anwendungen. Die zusätzlichen Funktionen stellen eine Möglichkeit dar, um die Mitarbeiterzufriedenheit zu erhöhen und damit die Annahme von EMM Systemen in KMU zu verbessern.
Codequalität sowie deren Sicherung und Überprüfung sind wichtige Aspekte heutiger Softwareentwicklungsprozesse und werden von zahlreichen Experten aus Literatur und Praxis als essentieller Faktor für ein langfristiges Bestehen von Softwareprojekten angesehen. Um diese Theorie in der Praxis deduktiv zu prüfen, war es Ziel dieser Arbeit, tatsächliche Auswirkungen ausgewählter Maßnahmen zur Steigerung von Codequalität auf den Wartungs- und Folgeaufwand von Software zu untersuchen. Hierfür wurden zuerst wesentliche Aspekte von Software- und Codequalität explorativ, argumentativ-deduktiv analysiert. Als Ergebnis dieser Analyse wurden grundlegende Merkmale und Kriterien von Softwarequalität sowie Prinzipien, Standards, Methoden und Muster für eine strukturierte Verbesserung von Codequalität vorgestellt. Weiters wurden Metriken zur Messung und Bewertung von Sourcecode sowie Werkzeuge, welche Metriken und andere Aspekte von Codequalität messen, skizziert. Anschließend wurden im Zuge eines Experiments vier funktional idente Programmversionen unterschiedlicher Codequalität Entwicklern zur Bearbeitung vorgelegt und Ergebnisse sowie die benötigte Zeit erhoben und ausgewertet. Hierbei wurde allen Teilnehmern dieselbe Aufgabenstellung gegeben, welche das Beheben von Bugs und das Implementieren einer Erweiterung vorsah. Zudem wurden die Ergebnisse in Expertengesprächen auf Gültigkeit und Plausibilität geprüft. Das Ergebnis konnte – entgegen angenommener Erwartungen – keine eindeutigen Auswirkungen belegen, aber diese auch nicht ausschließen, da die erhaltenen Ergebnisse unter Berücksichtigung üblicher Streuung für alle Programmversionen auf einem ähnlichen Zeitniveau waren. Lediglich in der Qualität der Resultate gab es einige Unterschiede. Anschließende Expertengespräche und die Diskussion der Ergebnisse kamen zu dem Schluss, dass die beobachteten Resultate für die Größe der Untersuchung durchaus plausibel erscheinen, jedoch für beobachtbare Auswirkungen eine deutlich größere Untersuchung notwendig wäre.
Die vorliegende Arbeit beschäftigt sich mit der Lernfähigkeit von Data Mining Modellen im Bereich des Smart Homes. Es wird der Frage nachgegangen, welche Auswirkungen ein kontinuierliches Training von Data Mining Modellen zur intelligenten Automatisierung der Beleuchtungssteuerung in einem Smart Home, auf die Fehlerrate des Data Mining Modells hat. Ziel ist es zu klären, ob durch kontinuierliches Training, auch zeitnah, die Fehlerrate von Data Mining Modellen zur Beleuchtungssteuerung im Smart Home verbessert werden kann. Zu Beginn werden die Begriffe Data Mining und Machine Learning mit Hilfe einer Literaturrecherche, im Bereich des Smart Homes, definiert und ein Überblick über die Funktionsweise von Data Mining geschaffen, sowie das allgemeine Vorgehen zur Implementierung einer Data Mining Anwendung anhand des standardisierten CRISP-DM Prozesses erörtert. Anschließend wurden für die vorliegende Arbeit geeignete Data Mining Verfahren mit Hilfe von Literatur erörtert. Aus diesen Data Mining Verfahren und den erhobenen Anforderungen an den Anwendungsfall der vorliegenden Arbeit, wurde das Data Mining Verfahren der Entscheidungsbäume für die Umsetzung des Prototyps ausgewählt. Im zweiten Teil der Arbeit wurde mit Hilfe des CRISP-DM Prozesses, ein Prototyp zur intelligenten Automatisierung der Beleuchtungssteuerung entwickelt und in ein bestehendes Smart Home integriert. Dieser Prototyp wurde im Zuge einer einfachen Fallstudie evaluiert. Dabei wurde die Fallstudie in zwei Iterationen evaluiert. In der ersten Iteration wurden einmalig trainierte Data Mining Modelle evaluiert und in der zweiten Iteration wurden kontinuierlich trainierte Data Mining Modelle evaluiert. Basierend auf der Auswertung der Daten und dem Vergleich der Vorhersageleistung, konnte die Erkenntnis gewonnen werden, dass ein kontinuierliches Training zeitnah zu einer Verbesserung der Vorhersageleistung beitragen kann.
Die Cloud ist ein Thema, das Unternehmen durch die Digitalisierung mehr betrifft denn je. Während sie im Privatleben bereits Einzug in den Alltag gefunden hat, benötigen die Unternehmen noch etwas Zeit. Speziell in Bezug auf ERP-Systeme, die die sensibelsten Daten des Unternehmens beinhalten, verwehren sie sich diesem Trend. Dies liegt vor allem an der Sicherheit der Cloud. In dieser Arbeit wird darum untersucht, welche konkreten Sicherheitsbedenken die Unternehmen haben, wenn es darum geht, ihr ERP-System in der Cloud zu betreiben, und wie diese vermindert werden können. Zur Datenerhebung wurden Personen aus der IT interviewt, worauf anschließend eine Liste von Bedenken aus ihren Aussagen erstellt wurde. Die Priorisierung ergab, dass eine performante Internetverbindung und das Vertrauen in den Cloud-Anbieter die größten Bedenken im Bereich der IT-Sicherheit auslösen. Durch die technologischen Möglichkeiten in der Cloud können diese Bedenken jedoch vermindert werden, indem beispielsweise ein entsprechendes Verfügbarkeitsmodell gewählt oder eine private Verbindung zum Cloud-Anbieter aufgebaut wird. Dennoch ist es nicht möglich, alle Bedenken auszuräumen, da ab einem gewissen Punkt kein Einblick in und kein Einfluss mehr auf die Funktionalität der Cloud vorgenommen werden kann. Dies zeigt, dass vor allem Vertrauen die Basis für den sicheren Betrieb des ERP-Systems in der Cloud ist. Mit der vorliegenden Arbeit soll den Unternehmen gezeigt werden, dass sich ihre Bedenken leicht vermindern lassen.
Die Revolution in der Industrie hält nunmehr seit über 200 Jahren an. Mit Beginn des 21. Jahrhunderts wurde durch die Entwicklung von Cyber-physischen Systemen die vierte und bislang jüngste Revolutionsstufe eingeleitet. Eine datentechnische Vernetzung der Anlagen untereinander und eine zunehmende Maschinenkommunikation erhöhen die Gesamtkomplexität des Systems und erschweren dadurch die Service- und Instandhaltungsarbeiten. Die Instandhaltung, welche mittlerweile maßgeblich zum Unternehmenserfolg und zur Wettbewerbsfähigkeit beiträgt, hat an Komplexität zugenommen und fordert nicht zuletzt auch durch die Digitalisierung in der Industrie ein Umdenken hinsichtlich der Ausbildung und Qualifikation von Service- und InstandhaltungsmitarbeiterInnen. Digitale Assistenzsysteme bilden eine Schnittstelle für eine Mensch-Maschine-Interaktion und sollen die MitarbeiterInnen bei komplexen Tätigkeiten unterstützen. Diese Masterarbeit zeigt, inwiefern der Einsatz eines Live-Video-Assistenzsystems Service- und InstandhaltungsmitarbeiterInnen unterstützen und den Problemlösungsprozess positiv beeinflussen kann. Im Zuge der Theorieaufarbeitung im ersten Teil dieser Arbeit werden Hypothesen formuliert, welche im zweiten Teil der Arbeit durch einen „mixed-method“-Ansatz geprüft werden, wozu Daten aus österreichischen, international agierenden, Unternehmen erhoben werden. Die Ergebnisse der Untersuchung zeigen, dass Live-Video-Assistenzsysteme wie z.B. EVOCALL nicht zielführende Kommunikationskanäle ersetzen können und dass durch einen „work-shadowing“-Ansatz die Vor-Ort-Präsenz von ExpertInnen verringert sowie die Reparaturzeiten reduziert werden können. Die Erhebung hat gezeigt, dass solide Ausbildungsmaßnahmen für die Service- und InstandhaltungsmitarbeiterInnen eine Herausforderung für Unternehmen darstellen, welcher sie sich trotz Einsatz eines Live-Video-Assistenzsystems weiterhin stellen werden müssen.