85.20 Betriebliche Information und Kommunikation
Filtern
Dokumenttyp
- Masterarbeit (64)
Volltext vorhanden
- ja (64)
Gehört zur Bibliographie
- ja (64)
Schlagworte
- Digitalisierung (11)
- Projektmanagement (8)
- Business Intelligence (4)
- Electronic Commerce (4)
- Geschäftsmodell (3)
- Agile Softwareentwicklung (2)
- Data Mining (2)
- Datenanalyse (2)
- Dokumentenverwaltungssystem (2)
- Enterprise-Resource-Planning (2)
Diese wissenschaftliche Arbeit wurde als Abschlussarbeit des Studiengangs IT & Wirtschaftsinformatik an der FH Campus02 in Graz erstellt. Sie handelt von den Möglichkeiten der Auswertung und Darstellung von Daten aus IT-Systemen, welche entlang eines zentralen Verkaufsprozesses entstehen. Als praktisches Beispiel wird der Angebotsprozess des Geschäftsbereiches Instrumentation & Test Systems der AVL List GmbH in Graz herangezogen. Die Nutzung von vorhandenen Daten für das eigene Vorankommen und die eigene Positionierung am Markt hat mittlerweile in vielen Betrieben Einzug gehalten und ist – sowohl als Entscheidungsgrundlage für das Management, als auch für die eigene Auswertung in mittleren Führungsebenen – nicht mehr wegzudenken. Der theoretische Teil dieser Arbeit erklärt, was Daten sind, wie sie zustande kommen und wie sie mittels Datenauswertung auch für Entscheidungen genutzt werden können. Der praktische Teil der Arbeit befasst sich mit einem Prozessabschnitt der AVL List GmbH aus Graz, die entlang ihrer CRM-, CPQ- und ERP-Systeme Datenauswertungen schon betreibt beziehungsweise Projekte initiiert, die die Nutzung bestehender strukturierter Daten sowie die Strukturierung von unstrukturierten Daten vorantreiben. Es wird erklärt, wie die AVL bestehende Daten nutzt beziehungsweise welche Projekte konkret im Entstehen sind, um neue Datenquellen zu erschließen.
Cryptocurrency brokers offer price quotations to investors for a set period. The investor can decide whether to accept the offer while the quote remains open. The broker bears a risk of the price changing while the quote is open. To mitigate this risk, brokers add an individual risk premium to the price. This thesis investigates how to improve the risk premium’s precision by using an artificial neural network (ANN) instead of the classical general autoregressive conditional heteroscedasticity (GARCH) model. The thesis opens by describing financial risks, conventional traditional approaches, and the theory of machine learning, in particular neural networks. Subsequently, short-term volatility in the market is explored in terms of volatility prediction with the classical GARCH and ANN approach with a focus on an investor’s purchase process. With the predicted volatility, the risk premium is calculated with the expected short-fall method. This thesis explores BTC-USD, ETH-USD, and ETH-BTC. The risk premium is calculated for a 10-minute quotation period with data from the cryptocurrency exchange Kraken from October 2019 to April 2020. The analysis shows that the ANN approach delivers a more precise volatility prediction and risk premium calculation due to a lower mean square error deviation compared to the GARCH model. However, the ANN has a low explanation of power in the test period. Different volatility cluster phenomena in the short-term data compared to the classical daily basis are also identified.
Machine Learning ist seit vielen Jahren ein aufstrebender Begriff in der IT-Branche. Unabhängig von der jeweiligen Branche werden in nahezu allen Unternehmen, die Produkte oder Services an Kunden vertreiben, Daten über die Kunden im Rahmen des Verkaufsprozesses in diversen Formen gespeichert. Produktempfehlungen oder personalisierte Inhalte sind dabei ein Weg, die Kunden noch direkter und effektiver anzusprechen. Oft verwenden Unternehmen dazu Analysen aus Marketingabteilungen und legen statische Regeln für diese Inhalte fest. Diese Aufgabe kann jedoch auch Machine Learning übernehmen. Dabei sind vor allem bislang unbekannte Zusammenhänge innerhalb der verfügbaren Daten von Interesse. Welche neuen Informationen können mittels automatisierter Analysen gewonnen werden? In dieser Arbeit wurde eine Clusteranalyse von 250.000 anonymisierten Onlinekunden des weltweit zweitgrößten Möbelhändlers, der auch im E-Commerce vertreten ist, mithilfe von Machine Learning Algorithmen vorgenommen. Dazu wurde ein Experteninterview durchgeführt, um die für das Unternehmen interessanten Aspekte der Kunden in die Analyse aufnehmen zu können. Es wurden statische Regeln für eine Einteilung der Kunden erstellt, die im Anschluss mit den Ergebnissen aus der automatisierten Clusteranalyse gegenübergestellt wurden. Nach dem Vergleich mehrerer Ansätze wurde festgestellt, dass der K-means Algorithmus die gestellten Anforderungen für eine anschließende Analyse der Clusterinhalte am besten erfüllen konnte. Die abschließende Analyse der erstellten Cluster hat gezeigt, dass eine Verwendung von automatisch erstellten Segmenten zur Anwendung von Personalisierung machbar ist. Die Gemeinsamkeiten von Kunden innerhalb einzelner Cluster konnten anhand der Daten belegt werden. Darüber hinaus konnten neue, interessante Zusammenhänge aus den Clustern gelesen werden. So hat sich zum Beispiel herausgestellt, dass es nicht die vom Experten genannten Zielgruppen waren, die häufig bestellt oder viel Geld ausgegeben haben.
Das erfolgreiche Einführen eines Business Intelligence Systems (BI) ist eine komplexe Aufgabe, die viele technische wie auch nicht technische Themen in sich vereint. BI ist nicht nur das Darstellen von Zahlen und Fakten. Grundsätzlich haben BI Systeme die Aufgabe die Nutzer in ihren Entscheidungen zu unterstützen. Das System soll im Prozess der effektiven Entscheidungsfindung zu aufkommenden Fragen, Antworten liefern und auch ggfs. Vorhersagen treffen können. Diese Entscheidungsunterstützung kann auf operationaler bis hin zur strategischen Ebene erfolgen und ist in der heutigen Zeit für Unternehmen unerlässlich. Diese Masterarbeit beschäftigt sich mit den Vor- und Nachteilen die der Einsatz von BI & Analytics Tool mit sich bringen. Im Theorieteil dieser Arbeit werden die Begriffe BI & Analytics definiert. Im Anschluss daran werden Literaturerkenntnisse diskutiert, die die Basis für den empirischen Teil dieses Werk bilden. Die Forschungsfrage wird mit Hilfe eines qualitativen Ansatzes beantwortet. Die Experteninnen- und Experteninterviews wurden mit zwölf Personen aus unterschiedlichen Branchen und aus unterschiedlichen Klein- und Mittelbetrieben geführt. Diese Expertinnen und Experten berichten über Ihre Erfahrungen mit BI & Analytics. Die Datenanalyse erfolgte nach der qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass die Einführung und Nutzung eines BI Systems zu einem erhöhten Datenbewusstsein und einhergehend zu einer erhöhten Datenqualität geführt haben. Das Konsumieren von Inhalten „auf Knopfdruck“ ist ein weiterer positiver Aspekt, der in wiederholtem Maße aufgezählt wurde. Die Expertinnen und Experten sprachen aber auch von der anfänglichen Skepsis der BI Nutzer, die es zu adressieren galt und die manch ein BI Projekt auch beinahe hätte scheitern lassen können.
Diese Arbeit beschäftigt sich mit der Anwendung von Data Mining-Algorithmen zur Informationsgewinnung im Softwaresupport. Data Mining-Algorithmen sind Tools der sogenannten „Knowledge Discovery“, der interaktiven und iterativen Entdeckung von nützlichem Wissen. Sie werden eingesetzt, um Daten zu analysieren und über statistische Modelle wertvolle Informationen einer Domäne zu finden. Die Domäne in dieser Arbeit ist der Softwaresupport, jene Abteilung in Softwareentwicklungs-Unternehmen, die Kundinnen und Kunden bei der Lösung von Problemen unterstützt. Meist sind diese Supportabteilungen als Callcenter organisiert und arbeiten zusätzlich mit Ticketsystemen (einem E-Mail-basierten Kommunikationssystem). Zweck dieser Arbeit ist es zu prüfen, inwiefern Data Mining-Algorithmen im Softwaresupport angewendet werden und ob tatsächlich wertvolle Informationen identifiziert werden können. Erwartet wird, Informationen über das Supportverhalten von KundInnen sowie den Einfluss von externen Faktoren wie Wetter, Feiertage und Urlaubszeiten zu entdecken. Die Literaturrecherche dieser Arbeit, beinhaltet unter anderem die Themen Personaleinsatzplanung im Softwaresupport und Data Science (Zusammenfassender Begriff für Data Mining, Data Engineering oder Data-Driven Decision Making, etc.). Im „experimental Setup“ finden Interviews zum Thema Status quo- und Kennzahlen im Softwaresupport mit führenden österreichischen Softwarehäusern sowie eine Fallstudie zur Anwendung eines Data Mining-Vorgehensmodells statt. Letztlich wird in einem Feldexperiment geprüft, ob es mit Data Mining-Algorithmen tatsächlich möglich ist, Informationen für den Softwaresupport zu entdecken. Als Ergebnis dieser Arbeit zählen einerseits die Identifikation von Möglichkeiten, um im Support Kosten zu sparen und Effizienz zu gewinnen und andererseits das Finden von wertvollen Informationen über Abläufe und Zusammenhänge im Support. Die gewonnenen Informationen können in weiterer Folge in den Supportprozess einfließen, um effektivere und effizientere Prozesse zu schaffen. Ein weiteres Resultat des Informationsgewinns ist auch die Qualitätssteigerung von Managemententscheidungen sein.
Agile Softwareprojekte unterliegen den Fixpunkten Kosten und Termin sowie der Variablen des Umfanges der Software. In dieser Arbeit wird beleuchtet wie der zeitliche Aufwand des Umfanges geschätzt werden kann. Die Forschungsfrage dient der Ergründung von Einflussfaktoren und der Erstellung eines standardisierten Prozessmodells. In diesem Zusammenhang wird einerseits erläutert, welche Methoden der agilen Softwareentwicklung existieren und welche Charakteristiken sie haben. Die Methoden der Aufwandsschätzung unterliegen drei verschiedenen Paradigmen. Die Paradigmen sind die Aufwandsschätzungen basierend auf Experten, basierend auf Daten und das hybride Paradigma. Das hybride Paradigma vereint die Vorteile von Aufwandsschätzungen basierend auf Expertenwissen und historischer Daten. Zur Erstellung eines standardisierten Prozessmodelles werden anhand einer Literaturrecherche Einflussfaktoren auf die Aufwandsschätzung ermittelt und anschließend in das Prozessmodell überführt. Es werden unter anderem humane Faktoren, Einsatz neuer Technologien, die Einheit der Aufwandsschätzung und der Testumfang in der Arbeit diskutiert. Diese Einflussfaktoren werden in das Prozessmodell als Eingangsgrößen übernommen, wobei zunächst immer geprüft wird, ob eine ähnliche Softwareanforderung bereits implementiert wurde und damit die Möglichkeit zur Wiederverwendung bestehender Softwaremodule besteht. Das Prozessmodell wird im Unternehmen Pankl Racing Systems AG experimentell eingesetzt und durch Experteninterviews evaluiert. Die Erkenntnisse des Experteninterviews werden in Form eines Fragebogens, der bei der Anwendung des Prozessmodells unterstützt, angewendet. Eine weitere Erkenntnis des Experteninterviews stellt dar, dass die Aufwandsschätzung durch den Einsatz eines standardisierten Prozessmodells verbessert ist. Der erstellte Fragebogen besitzt einen modularen Aufbau, wodurch er von anderen Unternehmen als dem Beispielunternehmen verwendet und adaptiert werden kann.
In der vorliegenden Arbeit wird ein Kosten-Nutzen-Tool entwickelt, welches als Entscheidungshilfe für höhere Anschaffungen in Krankenhäusern fungiert. Bereits vor dem eigentlichen Moment der Entscheidung für oder gegen eine potentielle Investition soll das Tool zum Einsatz kommen, um derartige Einschätzungen erleichtern zu können. Mit Hilfe eines Anforderungs- und Zielkataloges können etwaige Anschaffungen gewichtet und an die jeweilige Entscheidungsstelle mittels Ampelfarbe weitergeleitet werden, wobei ein Farbsystem Orientierung bietet, Neuerungen als „finanzierbar“ (grün) oder „kaum bis bis gar nicht finanzierbar“ (rot) einzustufen. In einem ersten Schritt und damit im Theorieteil werden das Prinzip der Kosten-NutzenAnalyse (KNA) erklärt, die grundsätzlichen Ziele und Vorteile einer solchen Analyse erläutert und die Wirksamkeit von KNAs in Unternehmen veranschaulicht. Im nächsten Kapitel folgen eine Darstellung der allgemeinen IST-Situation in österreichischen Krankenhäusern und ein Einblick in sämtliche Analysen von Risiko-, Wirtschaftlichkeits- und Finanz- bis hin zur Durchführbarkeitsanalyse und sonstigen Bewertungskriterien. Diese ISTSituation zeigt den Nutzen von KNAs in Krankenhäusern auf und rechtfertigt deren Einsatz. Anschließend wird das kooperierende Partnerunternehmen der Arbeit, nämlich die KABEG, vorgestellt und die KNA auf diesen Krankenhausverbund detailliert abgebildet. Durch Experten- und Expertinneninterviews und deren Ergebnisse wird diese IST-Situation im Partnerunternehmen erneut und auf einer anderen Ebene, nämlich jener der Innensicht, nachvollziehbar gemacht. Definierte Anforderungen und Ziele des Partnerunternehmens ergeben dann Beurteilungskriterien, die wiederum in den Bau eines Prototyps fließen, der als Vorlage für eine Web-Applikation dient. Das Kosten-Nutzen-Tool wird fertiggestellt und dem Partnerunternehmen vorgestellt beziehungsweise dessen Vorteile kommuniziert. Anhand einer erneuten Befragung der Anwender und Anwenderinnen wird das entwickelte Tool anschließend im betrieblichen Ablauf getestet und evaluiert. Somit werden die Auswirkungen der Einführung einerseits durch die Bewertung der Anschaffungsanfragen und andererseits mit dem Feedback der Anwender und Anwenderinnen dokumentiert und belegt, was dem langfristigen Nutzen der Implementierung dienen soll. Andrerseits und gleichzeitig beantworten die Ergebnisse dieser ersten Implementierungsstufe die wissenschaftliche Forschungsfrage der vorliegenden Masterarbeit, nämlich: Wie lassen sich qualitative Argumente in einem Tool bewerten, sodass sie in einer Kosten-/Nutzenrechnung zur Entscheidungsfindung als maßgebliche Parameter verwendet werden können.Die vorliegende Arbeit stellt somit nicht nur im konkreten Bedarfs- und Anwendungsfall Lösungen vor, sondern trägt auch in einem größeren Forschungskontext als beispielhaftes und im besten Fall zukunftsweisendes Modell zur kostenoptimierten Modernisierung unter Verwendung digitaler Strategien bei.
Durch die stetig wachsende Verbreitung von agilen Methoden, besonders beim Einsatz von Scrum, kommt es immer wieder zu Herausforderungen seitens des Projektmanagements. Alleine die Schwierigkeit, Besprechungen zu koordinieren, stellt das Projektmanagement oft vor Probleme. Noch problematischer sieht es bei der Durchführung von Projekten mit dezentralen Scrum-Teams aus. Speziell bei der Abwicklung agiler Projekte geschieht es immer wieder, dass die grundlegenden Prinzipien der Agilität nicht eingehalten werden. Diese sind jedoch für eine erfolgreiche Projektdurchführung entscheidend. Auf Basis dieser Problemstellung wird das Ziel dieser Arbeit definiert: die Erarbeitung von Handlungsempfehlungen, um dezentralen Scrum-Teams Möglichkeiten zur Einhaltung der Prinzipien des Agilen Manifests aufzuzeigen. Aufgrund der Notwendigkeit unterschiedlicher Betrachtungsweisen wird in dieser Arbeit sowohl auf Literatur als auch auf praxisbezogene Informationen zurückgegriffen. Im ersten Schritt wird dazu eine Literaturrecherche durchgeführt. Hierbei werden Informationen zu Scrum, dem Agilen Manifest und dezentralen Teams gesammelt. Der zweite Schritt besteht aus der Durchführung von Interviews mit ExpertInnen, die über Erfragungen mit Scrum und dezentralen Teams verfügen. Ziel ist die Identifikation der Problemfelder, denen sich dezentrale Scrum-Teams bei der Einhaltung der Prinzipien des Agilen Manifests stellen müssen. Die Erkenntnisse der Experteninterviews werden mit den aus der Literatur gewonnenen Informationen abgeglichen und diskutiert. Im Anschluss wird eine Onlineumfrage erstellt, die dazu dient, die erkannten Problemfelder hinsichtlich gefundener Lösungsmöglichkeiten genauer zu untersuchen. Abschließend werden Handlungsempfehlungen aus den Ergebnissen der Experteninterviews und der Onlineumfrage abgeleitet. Diese umfassen die Bereiche Kommunikation, Team, Teammitglieder, KundInnen, Unternehmen und Scrum. Die resultierenden Handlungsempfehlungen können für die praktische Zusammenarbeit und Projektdurchführung mit dezentralen Scrum-Teams genutzt werden und richten sich sowohl an Entscheider, die für die Zusammenstellung von Scrum-Teams verantwortlich sind, wie auch an die jeweiligen Teammitglieder.
Unternehmen stehen vor der Herausforderung eine Vielzahl an Informationen den Mitarbeitern und Mitarbeiterinnen zur Verfügung zu stellen. Zu diesem Zweck haben sich bereits unterschiedliche Softwarelösungen etabliert. Nachteilig sind in diesem Verfahren zwei Aspekte. Einerseits sind die Informationen so aufzubereiten, dass diese auch einfach abgerufen werden können. Andererseits haben die Anwender und Anwenderinnen die Bedienung einer Software zuerst zu erlernen. Chatbots ermöglichen es, Informationen durch die Verwendung der natürlichen Sprache aufzufinden. Zum Kennenlernen dieser Technologie, erfolgt die Entwicklung eines ChatbotPrototyps. Dieser setzt AIML-Dokumente und den Multinomialen Naive Bayes Algorithmus ein. Die AIML-Dokumente dienen zur Simulation von allgemeinen Gesprächsthemen. Der Multinomiale Naive Bayes wird hier genutzt, um spezifische Anfragen entsprechend zu klassifizieren. Aufbauend auf diesen Prototyp erfolgt eine quantitative Befragung von Teilnehmenden unterschiedlicher Organisationen. Erhoben wird, inwiefern sich Chatbots auf die Servicequalität auswirken. Diese Messung erfolgt mit der Veränderung der Zufriedenheit der Teilnehmer und Teilnehmerinnen. Der Fragebogen beinhaltet die Ermittlung der Technologieakzeptanz, die aktuelle Situation im Unternehmen, die Veränderung durch Chatbots und persönliche Lebensumstände. An dieser Umfrage haben insgesamt 27 Personen teilgenommen. Ausgehend von den Ergebnissen kann gesagt werden, dass die Servicequalität, welche durch die Veränderung der Zufriedenheit erhoben wird, sich im Mittel um 0,924 auf der Fünf-teiligen Likert-Skala verbessert hat. Wird der Median herangezogen, so verändert sich dieser Wert von drei auf fünf. Aufbauend auf diesen Erkenntnissen lassen sich in einzelnen Organisationen Chatbots implementieren. Dies ermöglicht eine konkrete Umsetzung und die Messung des Einflusses auf die Servicequalität mit zusätzlichen Messverfahren, wie der Kano-Analyse oder dem Service Blueprint.
Unterstützung von Entscheidungsprozessen im Einkaufsbereich mit modernen Data Mining Algorithmen
(2018)
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Data Mining Verfahren bei der Auswahl von Lieferanten im Supplier Relationship Management in der Automobilindustrie. Es wird geprüft, wie sich die Entscheidungsqualität bei der Auswahl von Lieferanten verändert, wenn bei der Entscheidungsfindung eine Vorhersage der Lieferantenperformance aus einem Data Mining Modell vorhanden ist. Aus den Erkenntnissen einer Literaturrecherche wird das Vorgehensmodell Analytic Hierarchy Process für die Bewertung von Lieferanten ausgewählt und ein an die Praxis angelehntes Bewertungsmodell erstellt, dass in weiterer Folge als ideale Lösung betrachtet wird. Diese Erkenntnisse fließen in das Design eines Data Mining Modells welches durch ein neuronales Netzwerk mit Backpropagation gelöst wird. Die Umsetzung des neuronalen Netzwerks als Prototyp wird mit dem Cross Industry Standard Process for Data Mining Vorgehensmodell durchgeführt. Das Data Mining Modell wird mit idealisierten Testdaten validiert. Die Testdaten basieren auf dem idealen Bewertungsmodell. Auf Basis des Data Mining Modells ein Experiment mit A/B-Test durchgeführt indem die Teilnehmer eine simulierte Lieferantenentscheidung durchführen müssen. Eine der beiden Gruppen wird zusätzlich zu den Rohdaten der Entscheidung die Ergebnisse des Prototyps zur Verfügung gestellt. Die Daten aus dem Experiment werden mittels quantitativen und qualitativen Fragebogen erhoben. Die erhobenen Daten im Experiment werden mit den idealisierten Daten aus dem Bewertungsmodell auf Basis des Analytic Hierarchy Process verglichen und Rückschlüsse auf die Qualität der Entscheidung getroffen. Aus dem Ergebnis der Datenauswertungen des Experiments wird die Forschungsfrage beantwortet. Der Einsatz von Data Mining Modellen mit dem Ziel der Vorhersage von Lieferantenbewertungen führt zu einer Verbesserung der Entscheidungsqualität bei der Auswahl von Lieferanten.