Informationstechnologien & Wirtschaftsinformatik
Filtern
Dokumenttyp
- Masterarbeit (162)
Volltext vorhanden
- ja (162)
Gehört zur Bibliographie
- ja (162)
Schlagworte
- Digitalisierung (10)
- Software Engineering (9)
- Projektmanagement (8)
- Informationssicherheit (6)
- Kundenmanagement (6)
- Online-Marketing (5)
- Business Intelligence (4)
- Computersicherheit (4)
- Internet der Dinge (4)
- Personalwesen (4)
Institut
Diese Arbeit befasst sich mit dem Vergleich von unterschiedlichen Machine Learning Verfahren zur Ermittlung ähnlicher Bilder im Kontext einer Suche nach ähnlichen Produkten in E-Commerce Lösungen. Die Motivation liegt dabei in der Evaluierung möglicher Verfahren für den Einsatz in einem Produktivsystem. Das Ziel ist es, das geeignetste Verfahren bezogen auf einen spezifischen Anwendungsfall zu ermitteln. Konkret werden drei Verfahren in einer Basisvariante umgesetzt und mit geeigneten Metriken evaluiert. Ein bestehendes Datenset an realen Produktbildern wird zu Evaluierungszwecken verwendet. Kein Ziel dieser Arbeit ist es, die jeweiligen Verfahren soweit zu optimieren, sodass diese die jeweils bestmöglichen Ergebnisse zurückliefern. Auf Basis eines Experiments werden die zuvor recherchierten Verfahren anhand des Anwendungsfalles einer Suchfunktionalität nach ähnlichen Produkten evaluiert. Es kommen dabei unterschiedliche Evaluierungsmetriken zum Einsatz. Als Hauptevaluierungsmetrik der Verfahren wird die Mean Average Precision@K verwendet. Transfer Learning mit einem vortrainierten VGG16 Modell und darauf angewandtes FineTuning liefert in Bezug auf diese Metrik die besten Ergebnisse. Dahinter landet das Autoencoder Verfahren. Das Siamese Network Verfahren liefert im direkten Vergleich mit den beiden anderen die schlechtesten Ergebnisse. Dennoch eignen sich alle drei Verfahren für den untersuchten Anwendungsfall, sodass im Schnitt mindestens 50 Prozent der Suchergebnisse innerhalb der top fünf Ergebnisse relevant sind. Für einen potenziellen Einsatz in einer Produktivumgebung wäre es trotzdem erforderlich und empfehlenswert, weitere Optimierungen der dahinterliegenden Modelle vorzunehmen. Passend zur Hypothese haben die Experimente bestätigt, dass Transfer Learning trainiert mit den Bildern aus dem gegebenen Datenset bessere Ergebnisse ermöglichen kann. Weitere Forschungstätigkeiten umfassen die Optimierung der Verfahren und des Datensets sowie die Evaluierung weiterer, alternativer Verfahren beziehungsweise Kombinationen davon, die nicht Teil der vorliegenden Arbeit sind.
Stadion-Apps, welche das Fanerlebnis bei Live-Sportevents bereichern sollen, sind vor allem in den High-End-Arenen der Amerikanischen Major-Sportligen ein etabliertes Konzept. In Zeiten der zunehmenden Digitalisierung und Vernetzungen rückt die Idee eines „Connected-Stadion“ auch in Europa immer mehr in den Fokus. In Europa ist Fußball der populärste Sport mit den größten Stadien, weshalb eine potentielle Stadion-App auf die Bedürfnisse von Fußballfans angepasst werden muss. Das Ziel dieser Arbeit ist es, den Aufbau einer Stadion-App für die Bedürfnisse des Fußballs zu evaluieren, sodass eine Akzeptanz bei den Fans erzielt und gleichzeitig auch Ertragspotentiale ausgeschöpft werden können, um einen wirtschaftlichen Betrieb der App zu gewährleisten. Für diesen Zweck wurden 29 potentielle Services durch eine Literatur-Recherche definiert, welche in einer empirischen Studie auf deren Akzeptanz bei den Fans, deren Potential zur Steigerung der Fanmotivation und deren Ertragspotentiale untersucht wurden. Das Ergebnis der Studie ergab, dass die Akzeptanz für eine Stadion-App bei einem Großteil der Fans vorhanden ist, nicht jedoch bei Fans mit regelmäßigen Stadionbesuchen. Während Fans mit weniger als vier Stadionbesuchen im Jahr die größte Akzeptanz und folglich auch das größte Potential zur Steigerung der Fanmotivation zeigen, sind Fans mit vier bis acht Stadionbesuchen im Jahr die größten Potentiale für eine direkte Monetarisierung. Die Arbeit liefert anhand der Ergebnisse Empfehlungen, welche Services wann in einer Stadion-App sinnvoll sind und wie die vorhanden Potentiale am besten ausgeschöpft werden können. Um die Wiederverwendbarkeit einer Stadion-App zu erhöhen, können die Ergebnisse dieser Arbeit herangezogen werden, um einen Standard zu entwickeln, welcher in mehreren Stadien, bei unterschiedlichen Veranstaltungen (andere Sportarten, Konzerte, etc.) oder auch in anderen Locations (Konzerthallen, Messen etc.) verwendet werden kann.
In den letzten Jahren ist ein stetiger Anstieg des Stellenwertes von agiler Softwareentwicklung zu beobachten. Im Speziellen ist Scrum eines der bedeutendsten und populärsten Frameworks für das Management agiler Entwicklungen. Im Zuge der agilen Entwicklung und auch im klassischen Projektmanagement, spielt das Team für die Entwicklung eine der größten Rollen. Dies führt dazu, dass auch die Strukturierung dieser Teams eine wesentliche Aufgabe spielt, da die Ressourcen meist knapp sind und die Arbeit der Teams eine möglichst hohe Effizienz aufweisen soll. In dieser Arbeit werden die gängigen klassischen, als auch die agilen Teamstrukturen vorgestellt und verglichen. Ergänzend dazu, werden einige agile Skalierungs-Frameworks betrachtet. Daraus resultierend, werden zwei Teamstrukturen in dieser Arbeit vorgestellt. Zum einen handelt es sich um Projektteams und zum anderen um Produktteams. Beide dieser Teams sollen eine effiziente Umsetzung im Unternehmen ermöglichen. In dieser Arbeit werden dazu Kriterien aufgezeigt, welche für die Entscheidung der Auswahl der Teamstruktur ausschlaggebend sind. Daraus resultieren wiederum Handlungsempfehlungen, welche sich an SoftwaremanagerInnen richten. Diese Handlungsempfehlungen zeigen, dass es möglich ist, aufgrund diverser Kriterien die Auswahl der Teamstruktur zu treffen. Letzten Endes gilt es jedoch die Vor- und Nachteile, welche sich durch die Teamstrukturen ergeben, zu priorisieren. Die Bildung der Teams soll somit, wie auch die agilen Methoden selbst, ein iterativer Lernprozess sein.
Um den steigenden Bedarf an IT-ExpertInnen, welcher durch die Digitalisierung von Geschäftsprozessen verstärkt auch in Unternehmen zum Tragen kommt, deren Kerngeschäft nicht im Bereich IT oder Softwareentwicklung liegt, entgegenzuwirken, setzt die ANDRITZ Gruppe seit 2018 Mendix als Low-Code bzw. No-Code Plattform ein. Durch den Einsatz solcher Plattformen, mit denen Softwarelösungen von nicht IT-Experten direkt in der Fachabteilung umgesetzt werden können, ergeben sich jedoch neue Herausforderungen betreffend der Zusammenarbeit zwischen IT- und Fachabteilung. Ziel dieser Arbeit ist es daher, Strukturen zur modellgetriebenen Softwareentwicklung in einem international verteilten Team, bestehend aus IT-ExpertInnen und MitarbeiterInnen der Fachabteilungen, zu etablieren, um Softwareprojekte effektiv über Abteilungsgrenzen hinweg umzusetzen. Dazu wurden anhand einer Literaturrecherche entlang des Software-Lebenszyklus Einflussfaktoren identifiziert, welche die effektive Zusammenarbeit in einem dezentralen Team beeinflussen können. Um diesen Faktoren je nach Projektsituation individuell begegnen zu können, wurde ein eigener Servicebereich innerhalb der ANDRITZ IT etabliert welche sämtlichen Tätigkeiten rund um das Thema Rapid Application Development (RAD) steuert. Kern dieses Servicebereichs ist ein Center of Excellence (CoE), welches die zentrale Steuerungs- und Koordinationsaufgabe übernimmt und je nach Projekt entscheidet, welche Umsetzungsmethoden, Werkzeuge und Rollen für eine erfolgreiche Umsetzung benötigt werden. Nach einer Einführung in die für diese Arbeit relevanten Theorietischen Grundlagen wird das ANDRITZ RAD CoE und dessen Aufgaben detailliert beschrieben. Im empirischen Teil dieser Arbeit wird der Einsatz des CoE an einem real durchgeführten Projekt innerhalb der ANDRITZ Gruppe getestet und anschließend mittels ExpertInneninterviews eruiert, ob sich die entwickelte Vorgehensweise für den praktischen Einsatz eignet oder ob Anpassungen durchgeführt werden müssen.
Menschen sind soziale Wesen, wir brauchen soziale Interaktionen, um ein gesundes Leben und einen gesunden Geist zu erhalten. Social Media ist in den letzten Jahren enorm gewachsen und wird vermehrt zur Kommunikation genutzt. Dadurch ergeben sich auf diesen Plattformen auch häufiger Konflikte. In dieser Arbeit wird im Speziellen das Posting-Verhalten der Nutzer*innen von Social Media im Zusammenhang mit den strafrechtlichen Auswirkungen untersucht. Als Basis dieser Forschung wurde zu den drei Themenbereichen der digitalen Kommunikationsplattform, des psychosoziologischen Verhaltens der Menschen in Bezug auf die Kommunikation miteinander und in Bezug auf die neue Technologie sowie der juristischen Auslegung und deren strafrechtliche Konsequenzen in Bezug auf Social-Media eine explorative Literaturrecherche durchgeführt. Zur Datenerhebungen wurde eine bestimmte Zielgruppe von Facebook-User*innen mit langjähriger Social-Media-Erfahrung interviewt. Es wurde ein Leitfadeninterview durchgeführt, welches wiederum mittels einer Inhaltsanalyse ausgewertet wurde. Die Ergebnisse zeigten, dass die Aufklärung und die beispielhafte Erläuterung der gesetzlichen Lage nahezu keine Beeinflussung auf das Posting-Verhalten der Nutzer*innen hatten. Konflikte wurden von den Befragten im Social-Media-Bereich wahrgenommen, jedoch nicht selbst erlebt. Deswegen wird eine gesetzliche Regelung und auch deren Anpassung befürwortet. Außerdem konnte daraus schlussgefolgert werden, dass bei bedachter und nicht aggressiver Nutzung von Social-Media Konflikte vermieden werden können.
Diese wissenschaftliche Arbeit wurde als Abschlussarbeit des Studiengangs IT & Wirtschaftsinformatik an der FH Campus02 in Graz erstellt. Sie handelt von den Möglichkeiten der Auswertung und Darstellung von Daten aus IT-Systemen, welche entlang eines zentralen Verkaufsprozesses entstehen. Als praktisches Beispiel wird der Angebotsprozess des Geschäftsbereiches Instrumentation & Test Systems der AVL List GmbH in Graz herangezogen. Die Nutzung von vorhandenen Daten für das eigene Vorankommen und die eigene Positionierung am Markt hat mittlerweile in vielen Betrieben Einzug gehalten und ist – sowohl als Entscheidungsgrundlage für das Management, als auch für die eigene Auswertung in mittleren Führungsebenen – nicht mehr wegzudenken. Der theoretische Teil dieser Arbeit erklärt, was Daten sind, wie sie zustande kommen und wie sie mittels Datenauswertung auch für Entscheidungen genutzt werden können. Der praktische Teil der Arbeit befasst sich mit einem Prozessabschnitt der AVL List GmbH aus Graz, die entlang ihrer CRM-, CPQ- und ERP-Systeme Datenauswertungen schon betreibt beziehungsweise Projekte initiiert, die die Nutzung bestehender strukturierter Daten sowie die Strukturierung von unstrukturierten Daten vorantreiben. Es wird erklärt, wie die AVL bestehende Daten nutzt beziehungsweise welche Projekte konkret im Entstehen sind, um neue Datenquellen zu erschließen.
Blockchain
(2020)
Die Papierindustrie ist eine hoch effiziente Branche und ein wichtiger Bestandteil der österreichischen Wirtschaft. Durch regulatorische Maßnahmen und die öffentliche Diskussion von Umweltfragen, wird der Papierindustrie eine noch bedeutendere Rolle zugeschrieben. Durch die Verarbeitung des Rohstoffes Holz ist die Papierindustrie eng mit der Forstindustrie verknüpft. Dadurch sieht sich auch dieser Industriezweig mit Umweltfragen konfrontiert, die vor allem über das Thema „nachhaltige Forstwirtschaft“ diskutiert wird. Durch das Aufkommen des Blockchain Hypes wurde in den letzten Jahren auch oft ein potentieller Use Case für die Papier- und Forstindustrie überlegt, der genau in die Kerbe des Themas „Nachhaltigkeit“ schlägt. So sollte die Herkunft von Holz entlang der Supply Chain zur Produktion eines Papierprodukts, in einer Blockchain, gespeichert werden. Doch macht diese Anwendung auch wirklich Sinn? Im Rahmen dieser Arbeit werden die grundlegenden Eigenschaften einer Blockchain erläutert und der aktuelle technische Stand der Forschung in der Blockchain Technologie recherchiert. Anschließend wird der Prozess zur Erzeugung von Baum zu Papier entlang der Supply Chain der beteiligten Stakeholder beschrieben. Daraus wird ein grober Anwendungsfall spezifiziert, der auf die Tauglichkeit zur Verwendung in einem Blockchain Netzwerk geprüft wird. Zur genaueren Spezifikation des Anwendungsfalls wurden Experteninterviews durchgeführt und daraus Vorteile, Nachteile und Hindernisse des Blockchain Anwendungsfalls diskutiert. Die Erkenntnisse der Arbeit zeigen auf, dass ein Blockchain Netzwerk in Kombination mit dem Anwendungsfall zwar geeignet ist, es in der digitalisierten Umsetzung zur Zurückverfolgung von Holz und der Schaffung einer Blockchain fähigen Anwendung allerdings noch Probleme gibt. Die Weiterentwicklung und Digitalisierung der Zurückverfolgung bedarf noch Investition in der Schaffung weiterer, verbesserter Lösungen.
Das Ziel dieser Masterarbeit ist es, das Grundkonzept eines Smart Homes anhand eines konkreten Beispiels zu erstellen und das ganze System auf einem Raspberry Pi zu implementieren. Ein Smart Home kann basierend auf mehreren Kommunikationsprotokollen erstellt werden. Die Masterarbeit hat gezeigt, dass ZigBee, welches im Jahr 2002 entwickelt wurde, eines der geeignetsten Kommunikationsprotokolle für Smart Homes ist. Ein ZigBee-Netzwerk erfordert die Verwendung eines zentralen Koordinators zur Steuerung des gesamten Netzwerks. Eine der Einschränkungen eines ZigBee-Netzwerks besteht darin, dass jedes Gerät nur mit dem von dem Hersteller unterstützten Koordinator arbeiten kann. Mit dem CC2531 USB-Stick und der Software Zigbee2MQTT, die von Texas Instruments entwickelt wurde, kann ein eigener Koordinator erstellt werden, mit welchem jedes Gerät, welches von der Software unterstützt wird, verbunden werden kann. Die Verwaltung eines Smart Homes ist über Hausautomationsplattformen möglich. Das Projekt der Masterarbeit konzentriert sich auf die zwei Plattformen, Domoticz und Home Assistant, die von der Zigbee2MQTT-Software unterstützt werden. Im Rahmen dieser Arbeit werden der Installationsprozess beider Plattformen und der Betrieb des Systems am Beispiel von vier ausgewählten ZigBee-Geräten demonstriert.
Cryptocurrency brokers offer price quotations to investors for a set period. The investor can decide whether to accept the offer while the quote remains open. The broker bears a risk of the price changing while the quote is open. To mitigate this risk, brokers add an individual risk premium to the price. This thesis investigates how to improve the risk premium’s precision by using an artificial neural network (ANN) instead of the classical general autoregressive conditional heteroscedasticity (GARCH) model. The thesis opens by describing financial risks, conventional traditional approaches, and the theory of machine learning, in particular neural networks. Subsequently, short-term volatility in the market is explored in terms of volatility prediction with the classical GARCH and ANN approach with a focus on an investor’s purchase process. With the predicted volatility, the risk premium is calculated with the expected short-fall method. This thesis explores BTC-USD, ETH-USD, and ETH-BTC. The risk premium is calculated for a 10-minute quotation period with data from the cryptocurrency exchange Kraken from October 2019 to April 2020. The analysis shows that the ANN approach delivers a more precise volatility prediction and risk premium calculation due to a lower mean square error deviation compared to the GARCH model. However, the ANN has a low explanation of power in the test period. Different volatility cluster phenomena in the short-term data compared to the classical daily basis are also identified.
Machine Learning ist seit vielen Jahren ein aufstrebender Begriff in der IT-Branche. Unabhängig von der jeweiligen Branche werden in nahezu allen Unternehmen, die Produkte oder Services an Kunden vertreiben, Daten über die Kunden im Rahmen des Verkaufsprozesses in diversen Formen gespeichert. Produktempfehlungen oder personalisierte Inhalte sind dabei ein Weg, die Kunden noch direkter und effektiver anzusprechen. Oft verwenden Unternehmen dazu Analysen aus Marketingabteilungen und legen statische Regeln für diese Inhalte fest. Diese Aufgabe kann jedoch auch Machine Learning übernehmen. Dabei sind vor allem bislang unbekannte Zusammenhänge innerhalb der verfügbaren Daten von Interesse. Welche neuen Informationen können mittels automatisierter Analysen gewonnen werden? In dieser Arbeit wurde eine Clusteranalyse von 250.000 anonymisierten Onlinekunden des weltweit zweitgrößten Möbelhändlers, der auch im E-Commerce vertreten ist, mithilfe von Machine Learning Algorithmen vorgenommen. Dazu wurde ein Experteninterview durchgeführt, um die für das Unternehmen interessanten Aspekte der Kunden in die Analyse aufnehmen zu können. Es wurden statische Regeln für eine Einteilung der Kunden erstellt, die im Anschluss mit den Ergebnissen aus der automatisierten Clusteranalyse gegenübergestellt wurden. Nach dem Vergleich mehrerer Ansätze wurde festgestellt, dass der K-means Algorithmus die gestellten Anforderungen für eine anschließende Analyse der Clusterinhalte am besten erfüllen konnte. Die abschließende Analyse der erstellten Cluster hat gezeigt, dass eine Verwendung von automatisch erstellten Segmenten zur Anwendung von Personalisierung machbar ist. Die Gemeinsamkeiten von Kunden innerhalb einzelner Cluster konnten anhand der Daten belegt werden. Darüber hinaus konnten neue, interessante Zusammenhänge aus den Clustern gelesen werden. So hat sich zum Beispiel herausgestellt, dass es nicht die vom Experten genannten Zielgruppen waren, die häufig bestellt oder viel Geld ausgegeben haben.
Mit der immer größer werdenden Abhängigkeit von der Nutzung des Webs – sei es mittels Smartphones, Tablets oder Laptops – steigt folglich auch die Bedeutsamkeit von Web-Applikationen immer mehr an. Aufgrund dieser steigenden Popularität vervielfachte sich parallel zu dieser Entwicklung auch die Anzahl an Frameworks für diverse Programmiersprachen, welche im Zusammenhang mit Web-Applikationen genutzt werden. Um das passende Framework zu finden, gibt es kritische und objektive Kriterien wie Sicherheit, Wartbarkeit, Performance oder „Time to Market“, die ebenso zu beachten sind wie die Zukunftssicherheit und die Modernität der gewählten Frameworks. Durch die Vielzahl an unterschiedlichen Frameworks wird es immer komplexer, schwieriger sowie zeitintensiver, die richtige Wahl zu treffen. Um diese Wahl zu vereinfachen, werden in dieser Arbeit Technologien aus den einzelnen Layern miteinander kombiniert, evaluiert und auf deren Zusammenspiel hin untersucht und bewertet. Weiters wird es zu einer Verbindung zwischen Theorie und Praxis kommen, indem in diesem Arbeitsschritt die im Theorieteil gewonnen Evaluierungskriterien herangezogen und mit der Praxis in Verbindung gesetzt werden.
Diese Masterarbeit widmet sich dem Thema, wie Lerntheorien die Auswahl eines geeigneten technology-enhanced learning Tools beeinflussen. Hierfür wurden im ersten Schritt Eigenschaften von Lehrveranstaltungen analysiert. Dabei fiel die Entscheidung darauf, Eigenschaften anhand der Lerntheorien Behaviorismus, Kognitivismus, Konstruktivismus und Konnektivismus abgeleitet und zu definieren. Durch diese Basis konnten Eigenschaften für Lehrveranstaltungen definiert werden, wodurch sich Lehrveranstaltungen untereinander unterscheiden lassen. Im zweiten Schritt wurden unterschiedliche technology-enhanced learning Methoden und dazu gehörige Anwendungen näher betrachtet. Hier konnte durch Blended Learning bereits eine Hilfestellung gefunden werden, welche technology-enhanced learning Toolgruppen am geeignetsten Erscheinen. Diese Auflistung wurde um den Konnektivismus erweitert, um alle definierten Lerntheorien abdecken zu können. Die daraus gewonnenen Erkenntnisse wurden im dritten Schritt zu einem Entscheidungsmodell kombiniert. Mit Hilfe dieses Modells soll Lehrenden eine Empfehlung gegeben werden, welches technology-enhanced learning Tool ihre Anforderungen unterstützen kann. Im Anschluss wurde dieses Modell durch eine qualitative als auch durch eine quantitative Evaluierung überprüft. Dabei wurden Lehrende der Fachhochschule Campus02 zu dem Modell befragt. Diese Befragungen haben daraufhin ergeben, dass ein Modell, welches nur auf den zuvor definierten Lerntheorien beruht, nicht ausreichend Eigenschaften miteinbezieht. Dadurch können nicht alle Lehrenden das Modell voll nutzen, um damit bestmögliche Ergebnisse zu erhalten. Es könnte aber als Grundlage dienen, um weitere Eigenschaften einzubinden und somit ein komplexeres Modell mit mehr Eigenschaften zu entwickeln.
Die Anforderungen an die moderne Softwareentwicklung sind hoch. Softwareunternehmungen stehen angesichts einer fast schon unübersichtlich großen Anzahl an Methoden und Entwicklungswerkzeugen vor der Herausforderung, die für ihre Anforderungen und Abläufe idealen Prozesse und Werkzeuge zu wählen. Diese Wahl ist essentiell, um die richtige Nische am Markt effizient und langfristig zu bedienen sowie auf Änderungen noch schneller reagieren zu können. Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung von Metriken, um Softwaretestverfahren miteinander vergleichbar zu machen. Ausgehend von der Literatur werden verschiedene Testverfahren beschrieben, analysiert und auf das Vorhandensein von Klassifizierungs- und Kategorisierungsmerkmalen für das Erstellen der Metriken überprüft. Durch die Kombination von Literaturrecherche und ExpertInneninterviews werden diese Ergebnisse Schritt für Schritt verfeinert. Im Anschluss wird eine Bewertungsmatrix erstellt und mit konkreten Werten auf Basis des ExpertInnenwissens angereichert. Diese Masterarbeit legt den Grundstein für weitere Untersuchungen in EntwicklerInnenteams, um dort das Delta zwischen dem Ist-Stand und dem Soll-Stand bei der Verwendung der aktuellen Softwaretests zu ermitteln. Die sich daraus ergebenden Optimierungspotenziale können untersucht und in den jeweiligen Teams umgesetzt werden. Das Feedback der Teams bei der Umsetzung der Optimierungen ist ein weiterer möglicher Untersuchungsgegenstand. Somit ist klar ersichtlich, dass der Vergleich von Testverfahren einen akademischen, aber auch stark praxisorientierten Anwendungsfall darstellt.
This master’s thesis is about post-quantum cryptography. Therefore, it shows how quantum computers differ from traditional computers, what kind of quantum computers do exist, and what strengths they have. But the focus lies on the threat to information security. For this purpose, the paper shows how traditional cryptographic algorithms work and how vulnerable they are against quantum computers. The paper also shows the possible alternatives. This field is called post-quantum cryptography, and these algorithms are resistant against traditional computers and also against quantum computers. In this paper, expert interviews illustrated an outline of the threat and where it is mandatory to react. At least the results are applied to an IT system in the health sector, and it is analyzed how vulnerable it would be against quantum computers.
Das erfolgreiche Einführen eines Business Intelligence Systems (BI) ist eine komplexe Aufgabe, die viele technische wie auch nicht technische Themen in sich vereint. BI ist nicht nur das Darstellen von Zahlen und Fakten. Grundsätzlich haben BI Systeme die Aufgabe die Nutzer in ihren Entscheidungen zu unterstützen. Das System soll im Prozess der effektiven Entscheidungsfindung zu aufkommenden Fragen, Antworten liefern und auch ggfs. Vorhersagen treffen können. Diese Entscheidungsunterstützung kann auf operationaler bis hin zur strategischen Ebene erfolgen und ist in der heutigen Zeit für Unternehmen unerlässlich. Diese Masterarbeit beschäftigt sich mit den Vor- und Nachteilen die der Einsatz von BI & Analytics Tool mit sich bringen. Im Theorieteil dieser Arbeit werden die Begriffe BI & Analytics definiert. Im Anschluss daran werden Literaturerkenntnisse diskutiert, die die Basis für den empirischen Teil dieses Werk bilden. Die Forschungsfrage wird mit Hilfe eines qualitativen Ansatzes beantwortet. Die Experteninnen- und Experteninterviews wurden mit zwölf Personen aus unterschiedlichen Branchen und aus unterschiedlichen Klein- und Mittelbetrieben geführt. Diese Expertinnen und Experten berichten über Ihre Erfahrungen mit BI & Analytics. Die Datenanalyse erfolgte nach der qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass die Einführung und Nutzung eines BI Systems zu einem erhöhten Datenbewusstsein und einhergehend zu einer erhöhten Datenqualität geführt haben. Das Konsumieren von Inhalten „auf Knopfdruck“ ist ein weiterer positiver Aspekt, der in wiederholtem Maße aufgezählt wurde. Die Expertinnen und Experten sprachen aber auch von der anfänglichen Skepsis der BI Nutzer, die es zu adressieren galt und die manch ein BI Projekt auch beinahe hätte scheitern lassen können.
Diese Arbeit beschäftigt sich mit der Anwendung von Data Mining-Algorithmen zur Informationsgewinnung im Softwaresupport. Data Mining-Algorithmen sind Tools der sogenannten „Knowledge Discovery“, der interaktiven und iterativen Entdeckung von nützlichem Wissen. Sie werden eingesetzt, um Daten zu analysieren und über statistische Modelle wertvolle Informationen einer Domäne zu finden. Die Domäne in dieser Arbeit ist der Softwaresupport, jene Abteilung in Softwareentwicklungs-Unternehmen, die Kundinnen und Kunden bei der Lösung von Problemen unterstützt. Meist sind diese Supportabteilungen als Callcenter organisiert und arbeiten zusätzlich mit Ticketsystemen (einem E-Mail-basierten Kommunikationssystem). Zweck dieser Arbeit ist es zu prüfen, inwiefern Data Mining-Algorithmen im Softwaresupport angewendet werden und ob tatsächlich wertvolle Informationen identifiziert werden können. Erwartet wird, Informationen über das Supportverhalten von KundInnen sowie den Einfluss von externen Faktoren wie Wetter, Feiertage und Urlaubszeiten zu entdecken. Die Literaturrecherche dieser Arbeit, beinhaltet unter anderem die Themen Personaleinsatzplanung im Softwaresupport und Data Science (Zusammenfassender Begriff für Data Mining, Data Engineering oder Data-Driven Decision Making, etc.). Im „experimental Setup“ finden Interviews zum Thema Status quo- und Kennzahlen im Softwaresupport mit führenden österreichischen Softwarehäusern sowie eine Fallstudie zur Anwendung eines Data Mining-Vorgehensmodells statt. Letztlich wird in einem Feldexperiment geprüft, ob es mit Data Mining-Algorithmen tatsächlich möglich ist, Informationen für den Softwaresupport zu entdecken. Als Ergebnis dieser Arbeit zählen einerseits die Identifikation von Möglichkeiten, um im Support Kosten zu sparen und Effizienz zu gewinnen und andererseits das Finden von wertvollen Informationen über Abläufe und Zusammenhänge im Support. Die gewonnenen Informationen können in weiterer Folge in den Supportprozess einfließen, um effektivere und effizientere Prozesse zu schaffen. Ein weiteres Resultat des Informationsgewinns ist auch die Qualitätssteigerung von Managemententscheidungen sein.
Da immer mehr Geräte und Benutzer Zugang zum Internet bekommen, muss die Sicherheit von Web Applikationen immer mehr im Blick behalten werden. Besonders bei Authentifizierungsmechanismen steigen die Anforderungen enorm. Passwörter gelten schon länger als unsicher, um ein Benutzerkonto vor unbefugtem Zugriff zu schützen. Die in dieser Arbeit behandelte Spezifikation soll dabei Abhilfe schaffen. Bei dieser Spezifikation handelt es sich um die WebAuthn Spezifikation, welche von der FIDO Alliance entwickelt wurde. WebAuthn wird im Zuge dieser Arbeit auf Schwachstellen von derzeit gängigen Authentifizierungsmechanismen untersucht. Diese bedient sich bewährten kryptografischen Methoden, um Sicherheit für die Authentifizierung zu gewährleiten. Zur Verifizierung eines Authentifizierungsvorganges wird asymmetrische Kryptografie eingesetzt. WebAuthn benötigt Authentifikatoren, um diesen Vorgang durchführen zu können. Diese können FIDO2-zertifizierte Smartphones, Security Token oder biometrische Authentifikatoren sein. Bei der Registrierung einer Benutzerin oder eines Benutzers wird von Authentifikator und Server ein Schlüsselpaar, bestehend aus privatem und öffentlichem Schlüssel, generiert und die öffentlichen Schlüssel zwischen ihnen ausgetauscht. Nun ist es dem Client möglich, sich am Zielsystem mithilfe des registrierten Authentifikators anzumelden. Um Benutzerinnen und Benutzern sowie Entwicklerinnen und Entwicklern zu zeigen, welche Vor- und Nachteile WebAuthn gegenüber herkömmlicher Authentifizierung bietet, wurden bekannte Angriffe recherchiert und auf die WebAuthn Spezifikation ausgeführt. Attacken, welche darauf ausgeführt werden, beinhalten Angriffe, um an Zugangsdaten von Benutzerinnen oder Benutzern zu kommen, Angriffe, welche auf die Übernahme einer Sitzung des Clients abzielen, Angriffe welche nicht technischer Natur sind und Angriffe auf die Authentifikatoren.
Die moderne IT-Welt befindet sich in einem Wandel. Während diverse Branchen in den letzten Jahren ihre Softwaresysteme von On-Premise Lösungen zu Cloud-basierten Systemen umgestellt haben, ist dieser Trend an vielen Herstellerinnen und Herstellern von SCADA Systemen vorbeigegangen. „Supervisory Control and Data Aquisation“ Systeme werden für Überwachung und Steuerung der Automatisierungsprozesse in verschiedensten Bereichen eingesetzt. Aufgrund der speziellen Anforderungen betreffend Software nahe der Prozessumgebungen, können Standardlösungen hier nicht in jedem Fall eingesetzt werden. Der Erfolg von Unternehmen hängt oft, besonders bei Produktionsprozessen, mit dem reibungslosen Ablauf dieser Systeme zusammen. Es liegt daher im Sinn der Sache, die Systeme bestmöglich von externen Einflüssen (z.B. Ausfall der Internetkonnektivität) zu schützen. Die Systeme arbeiten in Steuerungsebenen der Automatisierung und befinden sich meist in dedizierter Infrastruktur. Oft sind diese von der restlichen IT- Landschaft abgeschottet und werden selten bis gar nicht mit Updates oder Wartungen versehen. Gegenteiliges zeigt sich bei modernen Softwaresystemen der Gegenwart: Ständig werden Verbesserungen am Verhalten, neue Funktionen und Qualitätssteigerungen der Software in kurzen Releasezyklen entwickelt. Obwohl dieses Paradigma viele Vorteile für moderne Entwicklungsprozesse bringt, ist es nicht ohne Weiteres auf automatisierungsnahe Software anwendbar. In die IT-Welt ist mit der Frage konfrontiert, ob SCADA Systeme weiterhin auf traditionelle Art und Weise betrieben werden sollen oder in Zukunft die Vorteile von Cloud-Computing auch für SCADA Software benutzt werden kann. In dieser Masterarbeit wird empirisch erforscht, welche Anforderungen an SCADA Systeme gestellt werden. Diese Anforderungen werden in einer Fallstudie mittels Überarbeitung eines bestehendes SCADA Systems umgesetzt. Es soll verdeutlicht werden, dass SCADA Systeme durch Nutzung von Cloud-Services profitieren können.
Agile Softwareprojekte unterliegen den Fixpunkten Kosten und Termin sowie der Variablen des Umfanges der Software. In dieser Arbeit wird beleuchtet wie der zeitliche Aufwand des Umfanges geschätzt werden kann. Die Forschungsfrage dient der Ergründung von Einflussfaktoren und der Erstellung eines standardisierten Prozessmodells. In diesem Zusammenhang wird einerseits erläutert, welche Methoden der agilen Softwareentwicklung existieren und welche Charakteristiken sie haben. Die Methoden der Aufwandsschätzung unterliegen drei verschiedenen Paradigmen. Die Paradigmen sind die Aufwandsschätzungen basierend auf Experten, basierend auf Daten und das hybride Paradigma. Das hybride Paradigma vereint die Vorteile von Aufwandsschätzungen basierend auf Expertenwissen und historischer Daten. Zur Erstellung eines standardisierten Prozessmodelles werden anhand einer Literaturrecherche Einflussfaktoren auf die Aufwandsschätzung ermittelt und anschließend in das Prozessmodell überführt. Es werden unter anderem humane Faktoren, Einsatz neuer Technologien, die Einheit der Aufwandsschätzung und der Testumfang in der Arbeit diskutiert. Diese Einflussfaktoren werden in das Prozessmodell als Eingangsgrößen übernommen, wobei zunächst immer geprüft wird, ob eine ähnliche Softwareanforderung bereits implementiert wurde und damit die Möglichkeit zur Wiederverwendung bestehender Softwaremodule besteht. Das Prozessmodell wird im Unternehmen Pankl Racing Systems AG experimentell eingesetzt und durch Experteninterviews evaluiert. Die Erkenntnisse des Experteninterviews werden in Form eines Fragebogens, der bei der Anwendung des Prozessmodells unterstützt, angewendet. Eine weitere Erkenntnis des Experteninterviews stellt dar, dass die Aufwandsschätzung durch den Einsatz eines standardisierten Prozessmodells verbessert ist. Der erstellte Fragebogen besitzt einen modularen Aufbau, wodurch er von anderen Unternehmen als dem Beispielunternehmen verwendet und adaptiert werden kann.
In der vorliegenden Arbeit wird ein Kosten-Nutzen-Tool entwickelt, welches als Entscheidungshilfe für höhere Anschaffungen in Krankenhäusern fungiert. Bereits vor dem eigentlichen Moment der Entscheidung für oder gegen eine potentielle Investition soll das Tool zum Einsatz kommen, um derartige Einschätzungen erleichtern zu können. Mit Hilfe eines Anforderungs- und Zielkataloges können etwaige Anschaffungen gewichtet und an die jeweilige Entscheidungsstelle mittels Ampelfarbe weitergeleitet werden, wobei ein Farbsystem Orientierung bietet, Neuerungen als „finanzierbar“ (grün) oder „kaum bis bis gar nicht finanzierbar“ (rot) einzustufen. In einem ersten Schritt und damit im Theorieteil werden das Prinzip der Kosten-NutzenAnalyse (KNA) erklärt, die grundsätzlichen Ziele und Vorteile einer solchen Analyse erläutert und die Wirksamkeit von KNAs in Unternehmen veranschaulicht. Im nächsten Kapitel folgen eine Darstellung der allgemeinen IST-Situation in österreichischen Krankenhäusern und ein Einblick in sämtliche Analysen von Risiko-, Wirtschaftlichkeits- und Finanz- bis hin zur Durchführbarkeitsanalyse und sonstigen Bewertungskriterien. Diese ISTSituation zeigt den Nutzen von KNAs in Krankenhäusern auf und rechtfertigt deren Einsatz. Anschließend wird das kooperierende Partnerunternehmen der Arbeit, nämlich die KABEG, vorgestellt und die KNA auf diesen Krankenhausverbund detailliert abgebildet. Durch Experten- und Expertinneninterviews und deren Ergebnisse wird diese IST-Situation im Partnerunternehmen erneut und auf einer anderen Ebene, nämlich jener der Innensicht, nachvollziehbar gemacht. Definierte Anforderungen und Ziele des Partnerunternehmens ergeben dann Beurteilungskriterien, die wiederum in den Bau eines Prototyps fließen, der als Vorlage für eine Web-Applikation dient. Das Kosten-Nutzen-Tool wird fertiggestellt und dem Partnerunternehmen vorgestellt beziehungsweise dessen Vorteile kommuniziert. Anhand einer erneuten Befragung der Anwender und Anwenderinnen wird das entwickelte Tool anschließend im betrieblichen Ablauf getestet und evaluiert. Somit werden die Auswirkungen der Einführung einerseits durch die Bewertung der Anschaffungsanfragen und andererseits mit dem Feedback der Anwender und Anwenderinnen dokumentiert und belegt, was dem langfristigen Nutzen der Implementierung dienen soll. Andrerseits und gleichzeitig beantworten die Ergebnisse dieser ersten Implementierungsstufe die wissenschaftliche Forschungsfrage der vorliegenden Masterarbeit, nämlich: Wie lassen sich qualitative Argumente in einem Tool bewerten, sodass sie in einer Kosten-/Nutzenrechnung zur Entscheidungsfindung als maßgebliche Parameter verwendet werden können.Die vorliegende Arbeit stellt somit nicht nur im konkreten Bedarfs- und Anwendungsfall Lösungen vor, sondern trägt auch in einem größeren Forschungskontext als beispielhaftes und im besten Fall zukunftsweisendes Modell zur kostenoptimierten Modernisierung unter Verwendung digitaler Strategien bei.