Informationstechnologien & Wirtschaftsinformatik
Refine
Year of publication
Document Type
- Master's Thesis (234)
Has Fulltext
- yes (234)
Is part of the Bibliography
- yes (234)
Keywords
- Digitalisierung (19)
- Künstliche Intelligenz (18)
- Software Engineering (10)
- Computersicherheit (9)
- Projektmanagement (9)
- Cloud Computing (7)
- Informationssicherheit (7)
- Kundenmanagement (6)
- Business Intelligence (5)
- Online-Marketing (5)
Institute
Die vorliegende Masterarbeit untersucht den Einsatz von Large Language Models(LLMs) zur Unterstützung und Verbesserung der IT-Sicherheit bei der Überprüfung von Netzwerkkonfigurationen. Traditionell werden Netzwerkkonfigurationen vonIT-Administratoren manuell überprüft, was zeitaufwendig und fehleranfällig sein kann. Diese Arbeit verfolgt das Ziel, durch den Einsatz eines speziell entwickelten KI-gestützten Tools diesen Prozess effizienter und sicherer zu gestalten. Anhand einer systematischen Literaturrecherche wurden bestehende Forschungsarbeitenanalysiert, um die aktuelle Forschungslücke zu identifizieren. Es zeigte sich,dass bisher kaum Forschungsarbeiten zur Anwendung von LLMs bei der Analyse und Optimierung von Netzwerkkonfigurationen vorliegen. Auf Basis dieser Erkenntnisse wurde ein Tool entwickelt, das mittels Prompt-Engineering-Techniken und auf Grundlage des NSA Network Infrastructure Security Guides Sicherheitsprüfungen an Netzwerkkonfigurationen vornimmt. Die Evaluation erfolgte durch Experteninterviews sowie einen Labortest mit IT-Sicherheitsexpert*innen. Dabei wurden die Ergebnisse des Tools mit einer manuellen Fehleranalyse verglichen. Die Ergebnisse der Evaluation bestätigten, dass das entwickelte Tool zuverlässig kritische Konfigurationsfehler identifizieren konnte und dabei teilweise Fehler entdeckte, die von menschlichen Expert*innen übersehen wurden. Dennoch zeigte sich, dass bei komplexen architektonischen Entscheidungen menschliche Expertise weiterhin unabdingbar ist. Die Arbeit liefert damit einen wichtigen Beitrag zur Diskussion über die sinnvolle Integration von KI-basierten Werkzeugen in die Netzwerksicherheitsprüfung. Abschließend werden praktische Implikationen sowie zukünftige Forschungsfelder aufgezeigt.
COVID-19 hat die Art und Weise, wie Organisationen arbeiten und wie Individuen interagieren, grundlegend verändert. Insbesondere die interne Zusammenarbeit innerhalb von Unternehmen wurde durch abrupte und tiefgreifende Veränderungen in Arbeitsprozessen und Kommunikationsmethoden neu definiert. Innerhalb kürzester Zeit waren Unternehmen gezwungen, traditionelle Arbeitsmodelle durch flexible, digitale Alternativen zu ersetzen. Diese rasante Transformation, geprägt durch die Einführung von Remote Work und hybriden Arbeitsmodellen, wirft zentrale Fragen zur langfristigen Gestaltung von Arbeitsprozessen auf. Die Pandemie beschleunigte nicht nur die Einführung digitaler Technologien, sondern führte auch zu erheblichen Veränderungen in der Organisationskultur und den zwischenmenschlichen Arbeitsbeziehungen. Vertrauen, Kommunikation und soziale Bindungen innerhalb von Teams mussten unter neuen Bedingungen aufgebaut und gepflegt werden. Gleichzeitig stiegen die Anforderungen an die technologischen Kompetenzen der Beschäftigten, da digitale Werkzeuge und Plattformen eine entscheidende Rolle für die Aufrechterhaltung der Produktivität spielten. Dabei waren nicht alle Unternehmen gleichermaßen auf diese Herausforderungen vorbereitet. Die Anpassungsfähigkeit variierte sowohl zwischen Branchen als auch zwischen kleinen und großen Unternehmen. Diese Abschlussarbeit untersucht, wie sich kollaborative Prozesse innerhalb von Unternehmen durch die COVID-19-Pandemie verändert haben. Mithilfe einer Meta-Analyse bestehender empirischer Studien und Umfragen werden Trends und Muster identifiziert, welche die Transformation der Arbeitswelt kennzeichnen. Der Fokus liegt dabei auf den Heraus-forderungen und Chancen, die sich aus dem plötzlichen Übergang zu Remote- und Hybridarbeit ergeben haben. Die hier durchgeführte Studie liefert dadurch wertvolle Erkenntnisse für Unternehmen, um in einer zunehmend digitalen und dynamischen Arbeitswelt erfolgreich agieren zu können und schafft eine wissenschaftliche Grundlage für zukünftige Forschungen zu diesem Thema. Zudem bietet sie Orientierung für mögliche weiterführende Untersuchungen.
Diese Masterarbeit beschäftigt sich mit der Messung des Innovationscharakters von IT-Projekten. Als Grundlage dienen theoretische Innovationsmodelle (z.B.: TRL-Modell, Oslo Manual, Fraunhofer Innovationsmodell, Innovation Scorecard Modell etc.). Einzelne Bewertungsmodelle fokussieren sich nur auf bestimmte Schwerpunkte oder sind zu breit gefasst, darum eignet sich ein gesamtheitlicher Ansatz. Nach erfolgter theoretischer Auseinandersetzung sind folgende vier Einflussfaktor als geeignet zur Messung des Innovationsgrades ermittelt worden: „Technologie, Markt, Organisation und Umfeld“. Zur Validierung der Ergebnisse wurde eine semistrukturierte Umfrage von facheinschlägigen Expertinnen und Experten durchgeführt. Die Interviews verfolgten das Ziel, die praktische Relevanz der theoretisch abgeleiteten Kategorien zu überprüfen und deren jeweilige Bedeutung für den Innovationsgrad in der Praxis von IT-Projekten zu gewichten. Insgesamt nahmen sechs Personen aus unterschiedlichen Bereichen mit Erfahrung in IT-Projekten teil. Die Ergebnisse der Likert-Skalen-Fragen und offenen Antworten wurden sowohl quantitativ als auch qualitativ ausgewertet. Die statistische Auswertung zeigte, dass alle vier Hauptkategorien als relevant für die Bestimmung des Innovationsgrades gelten. Besonders hoch wurde der Bereich „Technologie“ bewertet. Dem folgten „Organisation“, „Markt“ und „Umfeld“. Dabei stachen besonders technologische Merkmale wie Einsatz neuartiger Technologien, IT-Sicherheit sowie die Einführung neuer Systemarchitekturen hervor. Im Bereich Organisation wurden die Veränderungsbereitschaft, die Innovationskultur und agile Methoden als besonders relevant betrachtet. Ebenso sind umfeldbezogene Aspekte wie regulatorische Rahmenbedingungen und der Wissenstransfer zwischen Wissenschaft und Praxis bedeutend für den Innovationsgrad. Die Erkenntnisse dieser Arbeit zeigen, dass ein ganzheitlicher Blickwinkel zur Bewertung des Innovationsgrades bei IT-Projekten notwendig ist. Die Kategorien stehen miteinander in Beziehung und sind untrennbar für ein Bewertungsmodell zu interpretieren. Die Masterarbeit leistet einen Beitrag zur Entwicklung eines Innovationsmodells für IT-Projekte.
Die vorliegende Masterarbeit untersucht, wie wertschöpfende Geschäftsprozesse über mehrere Enterprise Application Systems hinweg medienbruchfrei integriert werden können. Vor dem Hintergrund zunehmend heterogener IT-Landschaften sowie wachsender Anforderungen an Effizienz, Datenqualität und Prozesskontinuität analysiert die Arbeit die technischen, organisatorischen und strategischen Herausforderungen sowie bewährte Vorgehensweisen der Schnittstellenintegration. Die Untersuchung folgt einem qualitativen Forschungsansatz. Neben einer systematischen Literaturrecherche wurden leitfadengestützte Experteninterviews mit sechs IT- und Fachverantwortlichen aus Unternehmen verschiedener Branchen durchgeführt. Die Auswertung zeigt, dass die Herausforderungen weit über technische Fragestellungen hinausgehen. Insbesondere ein unzureichendes Verständnis geschäftlicher Prozesse, unklare Zuständigkeiten, fehlende Governance-Strukturen sowie regulatorische und sicherheitsrelevante Anforderungen stellen zentrale Hemmnisse dar. Technologische Ansätze wie Middleware, API-Management-Plattformen und Low-Code-/No-Code-Lösungen können Integrationsvorhaben unterstützen, stoßen bei komplexeren Anwendungsfällen jedoch vielfach an ihre Grenzen. In solchen Kontexten dominieren weiterhin klassische Pro-Code-Lösungen. Als zukünftige Entwicklungen zeichnen sich unter anderem der vermehrte Einsatz Künstlicher Intelligenz in der Schnittstellenentwicklung, die Automatisierung von Validierungs- und Testverfahren sowie eine stärkere Verlagerung von Integrationsarchitekturen in Cloud-Umgebungen ab. Darüber hinaus ist ein Trend zur Entkopplung von Systemen und zur verstärkten Nutzung offener technischer Standards zu beobachten, um technologische Abhängigkeiten zu reduzieren. Die Arbeit leistet einen Beitrag zur Schließung bestehender Forschungslücken, indem sie praxisnahe Einblicke in die Umsetzung von Schnittstellenintegrationen liefert und daraus konkrete Handlungsempfehlungen für Unternehmen ableitet.
In dieser Masterarbeit wird untersucht, ob dezentrale IT-Infrastrukturen resilient sind und welche Potenziale sowie Herausforderungen mit ihrer Dezentralisierung einhergehen. Anhand einer systematischen Literaturrecherche nach vom Brocke et al. (2009) wurden 42 relevante Quellen ausgewertet, um die wesentlichen Potenziale und Herausforderungen der IT-Dezentralisierung herauszuarbeiten. Die Recherche zeigt dezentrale Architekturen als klar resilienzfördernden Ansatz. Aussagen zu Kosten und Komplexität zeigen jedoch ein uneinheitliches Bild. Zahlreiche Quellen adressieren zwar allgemeine Kostenaspekte, doch die konkrete Kostenentwicklung infolge der Dezentralisierung bleibt häufig unklar, insbesondere aufgrund fehlender Vergleiche mit zentralisierten Infrastrukturen. Dennoch legen die Ergebnisse nahe, dass Kosten kein grundsätzliches Ausschlusskriterium darstellen und Dezentralisierung unter geeigneten Rahmenbedingungen aufgrund besserer Skalierbarkeit oder effizienter Ressourcennutzung sogar Kostenvorteile bieten kann. Auch im Hinblick auf die Komplexität zeigt sich ein ambivalentes Bild: Zwar wird sie in vielen Quellen thematisiert, jedoch nur selten ausdrücklich als Nachteil aufgezeigt. Zudem wurde Dezentralisierung nicht als einheitliches Konstrukt identifiziert, sondern als Sammelbegriff für unterschiedliche Ausprägungen und Umsetzungen mit jeweils spezifischen Vor- und Nachteilen. Häufig genannte Vorteile sind verbesserte Skalierbarkeit, Robustheit, Fehlertoleranz, Effizienz- und Performancesteigerung sowie erhöhte Sicherheit. Gleichzeitig wurden technische und organisatorische Herausforderungen festgestellt, darunter Koordination, Skalierung, Ressourcenbeschränkungen, höhere Latenzen, erhöhter Netzwerkverkehr und Sicherheitsbedenken. Die ambivalente Bewertung legt nahe, dass die tatsächlichen Vorteile der Dezentralisierung maßgeblich von der konkreten Umsetzung abhängen und bietet einen Ansatzpunkt für eine vertiefte Auseinandersetzung in zukünftigen Forschungsarbeiten.
Natural Language Processing (NLP) plays a significant role in enabling machines to understand, interpret, and produce human language across an array of tasks and domains. For low-resource languages, the development of feasible NLP solutions remains a challenge in the absence of large annotated datasets and linguistic infrastructure.The research presented in the thesis contributes to addressing this gap through the evaluation of Albanian language sentiment analysis on social media data. The main objective is the evaluation of the ability of cross-lingual pre-trained transformer models, mBERT, XLM-R, and mT5, to be adapted by fine-tuning for sentiment classification (classification of an input text into positive, negative, or neutral sentiment). Two fine-tuning approaches are evaluated: full (vanilla) and Low-Rank Adaptation (LoRA). The models are fine-tuned and tested on a manually annotated dataset for Albanian that contains expressions typical of social media interactions (i.e., code-switched linguistics, emoticon usage, repeated letter words, etc.) It was shown that the highest generalization potential of the language was achieved by XLM-R, which consistently performed higher across metrics such as F1-score and overall accuracy. mBERT followed closely in performance, while mT5, likely due to its generative architecture, yielded comparatively lower results than its encoder-based counterparts. On the other hand, LoRA demonstrated faster training ability with a notable drop in classification performance against the vanilla counterpart, emphasizing the significant trade-off for the usage of the strategy. With the results presented in this study, the thesis provides a basis for different fine-tuning strategies for three key pre-trained transformer-based models, which can inform future research on low-resource language modelling (specifically in the Albanian language) and domain-specific adaptation.
Eine Unternehmensarchitektur bietet einen umfassenden Überblick über ein Unternehmen inklusive dessen Infrastruktur, Anwendungen und Geschäftsprozessen. Aufgrund von Silo-Denken und unzureichender Kommunikation können jedoch Diskrepanzen zwischen den in der Unternehmensarchitektur dokumentierten Geschäftsprozessen und den tatsächlich etablierten Prozessen auftreten. Diese Arbeit zielt darauf ab, jene Diskrepanzen zu beseitigen, indem eine technische Lösung vorgeschlagen wird, um die Unternehmensarchitekturen mit den Geschäftsprozessen in Einklang zu bringen. ArchiMate, eine ikonografische Modellierungssprache für Unternehmensarchitekturen, und BPMN, der de facto Standard für die Modellierung von Geschäftsprozessen, wurden verwendet. Durch die Anwendung der Design Science Research Methode, insbesondere des sechsstufigen Ansatzes, wurde initial Literatur gesichtet und folglich ein Artefakt erstellt, demonstriert und bewertet. Das resultierende Artefakt besteht aus einem Mapping zwischen ArchiMate und instanziierbaren BPMN-Konzepten sowie einem Java-basierten Programm, das die automatische Instanziierung von BPMN-Prozessen aus ArchiMate-Modellen ermöglicht. Um das Artefakt zu evaluieren, wurden 20 standardisierte Workflow Patterns und zwei beispielhafte ITIL-Praktiken, darunter das „Monitoring und Event Management“ sowie das „Change Management“, in ArchiMate modelliert, automatisch transformiert und als BPMN-Prozessinstanzen ausgeführt. Von den 20 Workflow Patterns sind nur 17 in BPMN selbst möglich, jedoch konnten 14 von diesen erfolgreich modelliert und instanziiert werden. Dies zeigt, dass trotz der begrenzten Anzahl von ArchiMate und folglich auch BPMN-Konzepten, anspruchsvolle Geschäftsprozesse in der Unternehmensarchitektur selbst abgebildet werden können. Die erfolgreiche Instanziierung und Ausführung der ITIL-Praktiken bestätigten zudem die praktische Anwendbarkeit des Artefakts in realen Szenarien. Zusammenfassend zeigt diese Arbeit, dass ArchiMate-Modelle erfolgreich in BPMN-Prozesse transformiert werden können, sodass instanziierbare und semantisch sinnvolle Prozessmodelle entstehen. Das entwickelte Artefakt ermöglicht die automatisierte Umsetzung und Ausführung von Geschäftsprozessen direkt aus Unternehmensarchitekturmodellen. Dieser Ansatz fördert die Konsistenz zwischen den dokumentierten Unternehmensarchitekturen und realen Abläufen.
Die vorliegende Arbeit untersucht die Umsetzung der EU-NIS-2-Richtlinie im Abwassersektor als Teil der kritischen Infrastruktur. Der Fokus liegt auf der Bewertung des aktuellen Umsetzungsstands, der Identifikation von Herausforderungen und der Erfassung von Good Practices. Die Thematik ist hochrelevant und aktuell, da die NIS-2-Richtlinie spätestens bis Oktober 2024 in nationales Recht überführt werden muss und erstmals auch mittelgroße Unternehmen in die Pflicht nimmt. Die Studie reagiert auf die Forschungslücke hinsichtlich sektorspezifischer Umsetzungserfahrungen und liefert einen praktischen Beitrag zur Stärkung der Cybersicherheit in der öffentlichen Daseinsvorsorge. Die Arbeit folgt einem Mixed-Methods-Ansatz im Paradigma der verhaltensorientierten Wirtschaftsinformatik. Datenerhebungsmethode ist eine standardisierte Online-Befragung unter Akteuren der Abwasserwirtschaft im deutschsprachigen Raum. Der Fragebogen kombiniert geschlossene (quantitative) mit offenen (qualitativen) Items, die sieben Themenkategorien der NIS-2-Richtlinie abbilden. Die Auswertung erfolgte quantitativ-deskriptiv sowie qualitativ mittels strukturierter Inhaltsanalyse nach Mayring. Ein Pretest sicherte die Validität der Instrumente; die Datenerhebung erfolgte in Kooperation mit der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall e.V. Die Ergebnisse zeigen ein heterogenes, aber überwiegend hohes Umsetzungsniveau bei organisatorischen, technischen und physischen Maßnahmen. Die Mehrheit der Unternehmen hat ein Risikomanagement etabliert, regelmäßige Schulungen eingeführt und strukturelle Verantwortlichkeiten verankert. Die häufigsten Herausforderungen betreffen personelle Ressourcen, fehlende branchenspezifische Leitfäden und komplexe technische Anforderungen. Good Practices umfassen unter anderem adaptive Risikoanalysen, szenariobasierte Verfahren und die Integration von ISO/IEC-Standards. Die Ergebnisse werden mit bestehenden wissenschaftlichen Arbeiten, etwa von ENISA oder BSI, verglichen und kontextualisiert. Die Analyse verdeutlicht, dass Cybersicherheit zunehmend als strategische Aufgabe in der Abwasserwirtschaft erkannt wird, allerdings je nach Größe und Struktur der Unternehmen unterschiedlich ausgeprägt ist. Die Arbeit zeigt, dass etablierte Sicherheitsstandards wie ISO 27001, B3S Wasser/Abwasser und das ÖWAV-Handbuch praktikable Rahmenbedingungen bieten, jedoch an spezifische Sektorbedürfnisse angepasst werden müssen. Die Resultate unterstreichen die Notwendigkeit gemeinsamer Leitfäden, sektoraler Koordination und staatlicher Unterstützung. Ein Ausblick benennt weiterführende Forschungsschwerpunkte wie die Wirksamkeit konkreter Maßnahmen, die Rolle externer Dienstleister und die Entwicklung belastbarer Metriken zur Cybersicherheitsreife.
Agilität als Erfolgsfaktor
(2025)
In der heutigen Zeit gewinnt die Softwareentwicklung zunehmend an Bedeutung, und es wird intensiv diskutiert, wie agiles Arbeiten Teams beeinflusst und welche Auswirkungen dies auf die Qualität der Endprodukte hat (Eckkrammer et al., 2010). Dabei rückt nicht nur die reine Softwarequalität in den Fokus, sondern auch die Zufriedenheit jener, die täglich in den agilen Prozessen eingebunden sind – die Teammitglieder. Diese Arbeit widmet sich der spannenden Fragestellung: Inwieweit besteht ein Zusammenhang zwischen dem agilen Reifegrad von agilen Softwareentwicklungsteams, der gelieferten Softwarequalität und der Zufriedenheit der Teammitglieder, und welche Faktoren beeinflussen diese Zusammenhänge? Agilität als Konzept in der Softwareentwicklung hat sich von einem Trend zu einem Eckpfeiler der Branche entwickelt. Teams weltweit streben danach, ihre Prozesse immer weiter in Richtung Agilität zu entwickeln, um schnell auf sich ändernde Anforderungen und dynamische Marktbedingungen zu reagieren. Die vorliegende Arbeit untersucht den Zusammenhang zwischen dem agilen Reifegrad dieser Teams und zwei zentralen Aspekten: der Qualität der von ihnen entwickelten Software und ihrer eigenen Zufriedenheit. Das Ziel dieser Arbeit ist es, die genannten Zusammenhänge aufzuzeigen und gleichzeitig die Faktoren zu identifizieren, die diese beeinflussen. Es soll erforscht werden, wie unterschiedliche Grade der Agilität sich auf die Arbeitsweise von Teams auswirken und welche Auswirkungen dies wiederum auf die Softwarequalität und die Zufriedenheit der Entwickler*innen hat. Durch die Einbeziehung und kritische Diskussion bestehender Forschungsergebnisse, Theorien und praktischer Ansätze wird ein fundiertes Verständnis des Themas angestrebt. Der Forschungsstand zum Thema Agilität ist vielfältig und reicht von spezifischen agilen Reifegradmodellen bis hin zu Untersuchungen über den Einfluss von Agilität auf die Teamzufriedenheit und Softwarequalität. Diese Arbeit schöpft aus einer breiten Palette an Quellen, um ein ganzheitliches Bild zu zeichnen. Der Aufbau der Arbeit folgt einer durchgängigen Struktur. Zunächst werden grundlegende Konzepte und Prinzipien der Agilität erarbeitet, bevor auf die praktische Messung des agilen Reifegrades und dessen Modelle und Dimensionen eingegangen wird. Anschließend wird der Einfluss von Agilität auf die Qualität der Software sowie die Zufriedenheit innerhalb der Teams untersucht und kritisch hinterfragt. Abschließend werden die gewonnenen Erkenntnisse zusammengeführt und im Kontext der Forschungsfragestellung diskutiert.
Diese Masterarbeit beschäftigt sich mit der thermischen Absicherung eines Fahrzeuges durch die Vorhersage der Temperaturen an verschiedenen Sensoren mittels Time-Series Forecasting Modellen. Ziel war es, die Zuverlässigkeit und Sicherheit des Fahrzeugs durch präzise Temperaturvorhersagen zu verbessern, um kritische Überhitzungen zu vermeiden. Für die Analyse wurden mehrere Time Series Forecasting Modelle evaluiert, darunter Vector Autoregression (VAR),Extreme Gradient Boosting(XGBoost), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN),Temporal Convolutional Networks (TCN)und Transformer Modelle. Die Modelle wurden anhand historischer Datensätze von Sensortemperaturen trainiert, die aus realen Fahrbedingungen gesammelt wurden. Jedes Modell wurde auf seine Vorhersagegenauigkeit und Leistungsfähigkeit untersucht, um das effektivste Werkzeug zur Vorhersage zukünftiger Temperaturwerte zu identifizieren. Die Evaluation der Modelle basierte auf mehreren Leistungsindikatoren wie dem Mean Absolute Percentage Error (MAPE), und dem Root Mean Squared Error (RMSE). Das GRU-Modell stellte sich als das überlegene heraus, da es die komplexen nichtlinearen Muster und die Zeitabhängigkeiten der Temperaturdaten am effektivsten modellierte. Dank seiner tiefen Lernarchitektur und der Fähigkeit, Langzeitabhängigkeiten in den Daten zu erkennen, konnte das GRU-Modell präzisere Vorhersagen als die anderen untersuchten Modelle liefern. Diese Ergebnisse unterstreichen das Potenzial von GRU-Netzwerken für die präzise Vorhersage von Sensor-Temperaturen in thermischen Managementanwendungen von Fahrzeugen und bieten Ansätze für weitere Forschungen in diesem Bereich.
Diese Masterarbeit setzt sich mit den gesetzlichen Rahmenbedingungen sowie den ethischen Fragestellungen im Zusammenhang mit dem Einsatz Künstlicher Intelligenz (KI) im Krankenhauswesen, insbesondere im Kontext österreichischer Gesundheitseinrichtungen, auseinander. Hintergrund ist die zunehmende Integration von KI-Systemen in medizinische Prozesse, wie etwa in der Radiologie, der Pflege oder in Entscheidungsunterstützungssystemen. Besonderes Augenmerk wird auf den EU AI Act gelegt, der sich als zentrales Regulierungsinstrument etabliert. Zahlreiche dieser Anwendungen gelten als hochriskant, was erweiterte Anforderungen in Hinblick auf Sicherheit, Transparenz und Kontrolle zur Folge hat. Ziel der Arbeit ist es, auf Grundlage einer Analyse des EU AI Act konkrete Handlungsempfehlungen für österreichische Krankenhäuser zu formulieren, um deren rechtskonformen und ethisch verantwortungsvollen Umgang mit KI zu fördern. Hierfür wurde ein gestaltungsorientierter Forschungsansatz (Design Science Research) gewählt. Das entwickelte Artefakt, in Form eines Leitfadens zur Verwendung und Entwicklung von KI, wurde durch qualitative Experteninterviews überprüft. Der theoretische Teil der Arbeit beleuchtet sowohl technologische Grundlagen als auch organisationale Aspekte des Krankenhausbetriebs. Ergänzt um Perspektiven aus der Praxis zeigt sich, dass die erfolgreiche Umsetzung regulatorischer Anforderungen maßgeblich vom bestehenden Daten- und Prozessverständnis innerhalb der Organisation sowie von einem funktionierenden interdisziplinären Austausch abhängt. Die abschließend formulierten Handlungsempfehlungen sollen Entscheidungsträger:innen im Gesundheitswesen dabei unterstützen, die Potenziale von KI zu nutzen und gleichzeitig konform nach dem EU AI ACT zu handeln.
Die Zustellung von Briefen war lange Zeit ein staatliches Monopol, wurde jedoch in letzter Zeit schrittweise liberalisiert. Das Volumen postalischer Briefe in Österreich nimmt ab, während die Digitalisierung öffentlicher Dienstleistungen, insbesondere während der COVID-19-Pandemie, an Dynamik gewonnen hat. Obwohl das Zustellgesetz (ZustG/12.11.2023) bereits seit 1998 in Kraft ist, haben jüngste Änderungen und die Einführung des staatlich kontrollierten Authentifizierungssystems „ID Austria“ zur Online-Postfach-Anwendung „Mein Postkorb“ geführt, die derzeit vom österreichischen Finanzministerium betrieben wird. Dieser Dienst bietet eine sichere, authentifizierte und nachvollziehbare digitale Zustellung behördlicher Schreiben an Bürgerinnen und Bürger. Im Mai 2025 gibt es insgesamt rund 1,9 Millionen Nutzer*innen, davon 1,2 Millionen Privatpersonen. Im Jahr 2024 wurden 13,6 Millionen Schreiben versendet (Trauner, 2025).Diese Arbeit untersucht hemmende und fördernde Faktoren, die die Akzeptanz eines Online-Portals zur Briefzustellung beeinflussen. Der Untersuchungsgegenstand ist die österreichische Anwendung „Mein Postkorb“; private Dienste für die digitale Zustellung, etwa im Bank- oder Versicherungsbereich, wurden nicht berücksichtigt. Die Studie kombiniert das weit verbreitete UTAUT-Akzeptanzmodell (Venkatesh et al., 2003) mit der Inhibitor-Theorie (Cenfetelli, 2004). Diese beiden gegensätzlichen Perspektiven wurden um weitere potenzielle Einflussfaktoren ergänzt und in einem gemeinsamen theoretischen Modell zusammengeführt. Dieses Modell diente als Grundlage für einen Interviewleitfaden, der in Expert*inneninterviews zum Einsatz kam. Die Transkripte der insgesamt fünf befragten Expertinnen und Experten wurden mittels quantitativer Inhaltsanalyse nach Mayring (2010) ausgewertet, woraus ein Kategoriensystem entstand. Die zentralen Ergebnisse waren das Auftreten neuer Einflussfaktoren, insbesondere der Eintrittsbarrieren, die die Nutzung eines unbekannten Systems hemmen können. Auf der anderen Seite konnten die Kategorien „Sicherheit“ und „E-Government-Strategie“ als fördernde Faktoren identifiziert werden. Die Zusammenfassung der Ergebnisse führte zu Empfehlungen zur Förderung der Nutzung der elektronischen Zustellung in Österreich. Auf Grundlage dieser Arbeit könnten weiterführende Studien durchgeführt werden, um die neuen Faktoren detaillierter zu untersuchen. Darüber hinaus wäre ein Experiment denkbar, um genauere Einblicke in das Nutzer*innenverhalten bei Registrierung, Anmeldung und Erhalt von Schreiben in der Anwendung „Mein Postkorb“ zu gewinnen.
Die Einführung von Open Source Cloudsoftware bietet österreichischen klein- und mittelständischen Unternehmen (KMUs) eine bedeutende Chance, strategische Ziele wie Kosteneffizienz, Flexibilität und Innovationsfähigkeit zu erreichen. Trotz dieser potenziellen Vorteile ist die Verbreitung bislang gering, was den Anlass dieser Arbeit darstellt. Es sollen Faktoren identifiziert werden, welche die Integration solcher Technologien beeinflussen. Als theoretisches Fundament dient das Technology Acceptance Model (TAM), um ein besseres Verständnis für die Beweggründe und Prioritäten von KMUs bei der Einführung von Open Source Cloudsoftware zu schaffen. Mittels leitfadengestützter Experteninterviews mit IT-Entscheidungsträgern werden zentrale Faktoren für die Akzeptanz offengelegt. Die Ergebnisse zeigen, dass insbesondere Sicherheit, Verfügbarkeit und Kontrolle entscheidende Einflussgrößen auf die Akzeptanz darstellen. Darüber hinaus spielen auch Eigenschaften von Open Source selbst wie Community, Support, technische Merkmale und der Softwaremarkt eine bedeutende Rolle. Diese Arbeit verfolgt das Ziel, sowohl KMUs als auch Anbietern von Open Source Software praxisrelevante Erkenntnisse bereitzustellen. Anbieter sollen ermutigt werden, gezielte Strategien zu entwickeln, um den spezifischen Anforderungen und Bedenken von KMUs besser gerecht zu werden. Gleichzeitig können KMUs ein besseres Verständnis für Open Source Cloudlösungen entwickeln und fundierte Überlegungen für künftige Implementierungen anstellen. Zukünftige Forschung könnte sich auf eine geografische Ausweitung der Untersuchung oder die quantitative Validierung der Ergebnisse konzentrieren. Durch die Ausrichtung ihrer Einführungsstrategien an klar definierten Zielen können KMUs Open Source Cloudsoftware erfolgreich integrieren und ihre digitale Transformation gezielt vorantreiben.
Obwohl sich viele Frauen für technische Studiengänge und Berufe begeistern und diese auch wählen, bleibt der Frauenanteil seit Jahren nahezu konstant. Strukturelle Ungleichheiten, mangelnde Netzwerke und stereotypisches Denken tragen dazu bei, dass Frauen die Branche frühzeitig verlassen. Gleichzeitig gewinnt Leadership mehr an Bedeutung, da Führungskräfte den Erfolg als auch die Arbeitszufriedenheit beeinflussen. Diese Arbeit untersucht, welchen Einfluss das Führungsverhalten auf die Karrierewege von Frauen in der österreichischen IT-Branche hat und inwiefern Führungskräfte als unterstützend oder hindernd wahrgenommen werden. Die theoretische Grundlage umfasst die Geschlechterverteilung in der IT-Branche, Erwartungen an Arbeitgeber sowie Herausforderungen und Barrieren für Frauen. Zudem werden unterschiedliche Führungstheorien und deren Auswirkungen auf Mitarbeiter*innen betrachtet. Zur Beantwortung der Forschungsfrage wurde eine qualitative Studie durchgeführt. Mittels semi-strukturierter Interviews mit 15 Frauen aus der österreichischen IT-Branche wurden individuelle Wahrnehmungen und Erfahrungen erfasst. Die Ergebnisse zeigen, dass Führungskräfte eine zentrale Rolle für den beruflichen Werdegang sowie die langfristige Mitarbeiterbindung spielen. Positives Führungsverhalten äußert sich in Form von Unterstützung, konstruktivem Feedback und aktiver Förderung. Negative Führungserfahrungen führten hingegen zu Demotivation oder einem Wechsel des Arbeitgebers. Zudem zeigt die Studie, dass sich die Anforderungen an Führung je nach Karrierephase unterscheiden. In frühen Karrierejahren sind Kommunikation und Unterstützung besonders relevant, gewinnen im späteren Verlauf Empathie und gezielte Förderung an Bedeutung. Auf Basis dieser Erkenntnisse wurden Maßnahmen für Unternehmen abgeleitet, darunter Schulungen zur Sensibilisierung für destruktives Führungsverhalten, Mentoring- und Coachingprogramme sowie die Einführung strukturierter Auswahlprozesse für Führungskräfte. Zukünftige Forschung könnte eine gezieltere Differenzierung nach spezifischen Berufsfeldern anwenden, um gezieltere Ergebnisse zu erhalten. Zudem könnte ein Anforderungsprofil für Unternehmen zur Auswahl von Führungskräften entwickelt werden, um gezielt Führungskompetenzen zu fördern und Fehlbesetzungen zu vermeiden.
Green Cloud Computing
(2023)
Der IT-Dienstleistungssektor hat einen signifikanten Anstieg der Nutzung von Cloud Computing erlebt und seinen Marktanteil von 14,5% im Jahr 2017 auf 42,5% im Jahr 2022 ausgebaut. Trotz der unbestreitbaren Vorteile hat dieses Wachstum Umweltbedenken aufgeworfen. Der steigende Bedarf an Rechenleistung und die Verbreitung von internetverbundenen Geräten tragen zum ökologischen Fußabdruck des Cloud-Computings bei. Studien variieren und schreiben dem Cloud Computing 0,3% bis 2% der globalen CO2-Emissionen zu, mit zusätzlichen Umweltauswirkungen wie Abfallproduktion, Wasserverbrauch und Landnutzung. Diese Masterarbeit adressiert den dringenden Bedarf an nachhaltigen Praktiken bei österreichischen Cloud Service Providern. Das Ziel ist es, handlungsorientierte Empfehlungen für die Umsetzung von grünem Cloud Computing auf Grundlage einer gründlichen Überprüfung der wissenschaftlichen Literatur zu formulieren. Unter Verwendung der systematischen Literaturübersichtsmethodik von Brocke et al. und der PRISMA-Methode analysierte diese Studie 106 Arbeiten mit einer Mindestanzahl von 5 Zitaten innerhalb eines bestimmten Zeitrahmens. Die Literatur betont überwiegend Initiativen zur Energieeffizienz, insbesondere während der Nutzungsphase von Rechenzentren, vernachlässigt jedoch die umfassendere Perspektive des gesamten Lebenszyklus. Diese Studie bestätigt die Hypothese, dass erhebliches Potenzial für die Anpassung umweltfreundlicher Maßnahmen bei Cloud Service Providern besteht. Um diese Lücke zu schließen, wird ein Umsetzungsplan für grünes Cloud Computing vorgeschlagen, der wissenschaftlichen Techniken zur Energieeffizienz auf Software- und Hardwareebene, zur Virtual Machine Consolidation und bioinspirierte Algorithmen umfasst. Aufbauend auf Erkenntnissen des deutschen Umweltbundesamts-Projekts KPI4CDE und GCC sowie der systematischen Literaturübersicht identifiziert diese Forschung ungenutztes Potenzial für weitere wissenschaftliche Untersuchungen des vollständigen Lebenszyklus von Cloud Service Providern. Diese Studie legt den Grundstein für zukünftige Forschungsinitiativen, die darauf abzielen, die Umweltauswirkungen des Cloud-Computings umfassend zu verstehen und zu mindern.
Die Technologie Künstliche Intelligenz (KI) gilt als die bedeutendste Technologie der letzten Jahre und umfasst alle Bereiche der Arbeitswelt. Das Know-How und Einsatz dieser Technologie kann enorme Wettbewerbsvorteile für das eigene Unternehmen sichern und die Bedeutung dieser Technologie hat in den letzten Jahren rapide zugenommen (Pfeiffer, 2020). Datenschutz und Compliance sind essenzielle Aspekte, da Unternehmen, die personenbezogene Daten verarbeiten oder über deren Verarbeitung entscheiden, gesetzlich verpflichtet sind, umfassende Datenschutzbestimmungen einzuhalten. Diese Verpflichtungen betreffen alle Unternehmen unabhängig von ihrer Größe und sind durch die Datenschutz-Grundverordnung (DSGVO) der EU geregelt. Verstöße gegen diese Regelungen können zu erheblichen rechtlichen und finanziellen Konsequenzen führen (Datenschutz, o. J.). Durch öffentliche LLMs stellen Anbieter unkomplizierte und preiswerte Lösungen zur Verfügung, weisen aber ein höheres Risiko für Datenlecks und Datenschutzverletzungen auf. Im Gegensatz dazu ermöglichen selbstgehostete LLMs eine verbesserte Datenkontrolle und-sicherung, erfordern aber zusätzliche Investitionen und technisches Know-how. Daher ist es sehr wichtig, das Thema auszuforschen, um im Unternehmen über die potenziellen Risiken und Konsequenzen von Datenschutzverletzungen aufzuklären (Reinking & Becker, 2023).Verstöße gegen Datenschutzrichtlinien können erhebliche rechtliche und finanzielle Folgen nach sich ziehen, einschließlich hoher Geldstrafen und eines erheblichen Imageschadens. Unternehmen riskieren den Verlust des Vertrauens ihrer Kunden und Geschäftspartner, was zu langfristigen geschäftlichen Nachteilen führen kann. Insbesondere die unbewusste oder fahrlässige Verletzung von Datenschutzvorschriften durch Mitarbeitende kann schwerwiegende Auswirkungen haben und muss daher durch um-fassende Schulungen und klare Richtlinien verhindert werden (FAQ zum Thema KI und Datenschutz, o. J.). Ziel dieser Arbeit ist es, die Datenschutz- und Compliance-Herausforderungen bei der Nutzung von selbstgehosteten und öffentlich gehosteten großen Sprachmodellen (LLMs) im Unternehmenskontext zu erforschen. Im Zuge dessen soll untersucht werden, ob und welche Nutzungsrisiken durch die Verwendung von Chatbots entstehen.
Optimierung von IT-Projekten durch integriertes Change Management und Business Process Management
(2024)
Die vorliegende Masterarbeit untersucht, wie Change Management und Business Process Management integrativ genutzt werden können, um IT-Implementierungsprojekte im Rahmen der digitalen Transformation erfolgreicher zu gestalten. Digitale Transformation ist ein komplexer, fortlaufender Prozess, der technologische, organisatorische und kulturelle Veränderungen erfordert. Trotz erheblicher Investitionen scheitern viele Digitalisierungsinitiativen daran, dass die menschliche Dimension und die Optimierung der Geschäftsprozesse nicht aus-reichend berücksichtigt werden. Das zentrale Ziel der Arbeit ist die Entwicklung eines praxistauglichen Frameworks, das die Stärken von Change Management und Business Process Management kombiniert, um die Herausforderungen von IT-Implementierungsprojekten systematisch zu bewältigen. Der Fokus liegt dabei auf IT-Projekten, während strategische Unternehmensfragen und rein technische Lösungen ausgeklammert wurden. Zur Validierung des Frameworks wurden qualitative Experteninterviews mit sieben Fachpersonen aus unterschiedlichen Branchen durchgeführt, die umfangreiche Erfahrung in digitaler Transformation, IT-Projektmanagement und Prozessoptimierung aufweisen. Die Interviews wurden transkribiert, kodiert und analysiert. Dabei wurden zentrale Themen wie Stakeholder-Management, iterative Prozessmodellierung und agile Projektmethoden identifiziert und in das Framework integriert. Die Ergebnisse zeigen, dass die Kombination von Change Management und Business Process Management unerlässlich ist, um sowohl technische als auch menschliche Anforderungen zu adressieren. Das entwickelte Framework gliedert sich in die Phasen Pre-Implementierung, Implementierung und Post-Implementierung und bietet Unternehmen eine klare Struktur zur Gestaltung erfolgreicher Projekte. Limitationen der Arbeit liegen in der qualitativen Methodik und dem branchenfokussierten Ansatz. Zukünftige Forschung könnte das Framework quantitativ validieren und auf breitere Kontexte anwenden. Das Framework legt den Grundstein für eine verbesserte Projektumsetzung und zeigt Wege auf, die Anforderungen der digitalen Transformation nachhaltig zu bewältigen.
Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz in der Softwareentwicklung
(2023)
Ziel dieser Masterarbeit war es, die Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz (KI) auf die Softwareentwicklungsbranche zu beurteilen. Die Beurteilung wurde von der steirischen Softwareentwicklungsbranche durchgeführt. Um Hypothesen aufstellen zu können, wurden aktuelle Literaturquellen analysiert. Der Theorieteil umfasst die Beschreibung einiger KI-Tools, die für die Softwareentwicklung eingesetzt werden können. Die Einsatzmöglichkeiten von KI für Softwareentwicklungstätigkeiten werden anhand aktueller Studien diskutiert. Einige ethische Aspekte sowie Einflüsse auf die Arbeitsweise und Risiken, die der Einsatz von KI mit sich bringt, werden beschrieben. Mit einem Online-Fragebogen wurde die Beurteilung und Meinung der steirischen Softwareentwicklungsbrancheerhoben. Der Fragebogen umfasst Überlegungen, wie beispielsweise die Anpassung der Ausbildungsprogramme, die mögliche Ablöse der Softwareentwicklerinnen und Softwareentwickler durch KI-Tools, das Potenzial einer Effizienzsteigerung sowie die Risiken durch die Verwendung von KI-generiertem Code. Basierend auf den Ergebnissen der Umfrage und den Literaturquellen wird die Beurteilung aktueller sowie zukünftiger Auswirkungen und Benefits abgeleitet, um die Forschungsfrage zu beantworten. Im Großen und Ganzen wird die Codegenerierung von KI-Tools als gut beurteilt. Es kann eine Effizienzsteigerung erzielt werden und wenig erfahrene Personen können durch den Einsatz von KI profitieren. Die Möglichkeit eines geringeren Personalbedarfs wird gelassen beurteilt und als nicht realistisch angesehen. Nur wenige haben in den Ausbildungsprogrammen etwas über KI gelernt, die meisten können KI-Tools trotzdem gut in den Arbeitsalltag integrieren. Bedenken hinsichtlich Lizenzverletzungen liegen kaum vor. Zusammenfassend lässt sich sagen, dass die Beurteilungen, der in dieser Masterarbeit behandelten Auswirkungen und Benefits, durch die steirische Softwareentwicklungsbranche zum Großteil mit dem aktuellen Stand der Literatur übereinstimmt.
Diese Arbeit prüft die Abwärtskompatibilität der Frontend-Frameworks Angular, React und Vue.js, um herauszufinden, welches sich am besten für Legacy-Projekte eignet. Abwärtskompatibilität spielt in der Softwareentwicklung eine wichtige Rolle. Sie sorgt dafür, dass
bestehende Systeme nach Updates oder Migrationen weiter funktionieren. Die Untersuchung nutzt eine Nutzwertanalyse mit Kriterien wie API-Stabilität, Deprecation-Politik, Versionierungsstrategie, Migrationsleitfäden, Community-Support, Leistung, Browser-Kompatibilität, Testing und interne Abwärtskompatibilität. Für die Analyse wurden Entwicklerumfragen, akademische Studien und technische Dokumentationen herangezogen. Besonders die API-Stabilität wurde anhand realer Projekte geprüft. Ergebnisse zeigen: React erreicht mit 75,15 % die beste Gesamtbewertung, gefolgt von Vue.js mit 60,14 % und Angular mit 57,30 %. React sticht durch stabile APIs, eine große Community und flexible Testing-Möglichkeiten heraus – ideal für Legacy-Projekte. Vue.js punktet mit hoher Performance und leichter Migration, hat aber Schwächen bei der API-Stabilität. Angular überzeugt durch klare Deprecation-Politik und starke Versionierungsstrategie, kämpft jedoch mit häufigen Updates und eingeschränkter interner Abwärtskompatibilität. Die Arbeit beleuchtet auch methodische Probleme, etwa die fehlende direkte Gewichtung von Kriterien und die schnelle Weiterentwicklung der Frameworks. In Zukunft könnte der Bewertungsprozess wiederholt werden, um neue Entwicklungen einzubeziehen und eine langfristige Entscheidungsgrundlage für Frontend-Technologien in Legacy-Projekten zu schaffen. Eine ständige Anpassung an technologische Veränderungen bleibt für nachhaltige Softwareentwicklung entscheidend.
Understanding user behaviors and preferences is crucial in today’s digital landscape, driving the need for automated persona generation. This thesis explores the potential of topic modeling and sentiment analysis to enhance data-driven persona creation. Analyzing a corpus of 676,000 tweets from 6,760 Twitter users (now x.com1), the study applies BERTopic for topic modeling and VADER for sentiment analysis to identify distinct themes and emotional tendencies in usergenerated content. A key finding is the significant impact of pre-processing, which improves topic coherence andinterpretability, contradicting claims that BERTopic performs equally well on raw data. The results indicate that bots predominantly generate neutral, task-oriented content, while humanusers – particularly female users – express more varied and emotionally rich sentiment.Integrating topic modeling and sentiment analysis enables multidimensional persona creationby combining thematic interests with emotional characteristics, emphasizing the value of author profiling in data-driven persona generation.This thesis highlights the potential of text mining techniques in persona creation while acknowledging challenges such as sentiment misclassification and the differentiation between bots and humans. Moreover, the findings highlight the need for structured datasets to enhance large language model-based persona descriptions, ensuring greater accuracy and coherence.Future research should explore alternative machine learning models, refine clustering methods, and assess cross-platform applicability. The combination of topic modeling and sentiment analysis offers promising opportunities for automating persona generation, enhancing e.g.,targeted marketing, and improving social media analysis.
Diese Arbeit behandelt die Digitalisierung von Vertragsprozessen durch die qualifizierte elektronische Signatur (QES), um Entscheidungsträgern und Entscheidungsträgerinnen eine empirische Entscheidungsgrundlage zu bieten. Dazu ist die Definition des Werts unter Zuhilfenahme einer Monte Carlo Simulation vorhergesagt. Zunächst sind Grundbegriffe zu Prozessmanagement und -modellierung, Simulationsmodellen, Dokumentendigitalisierung sowie der digitalen Signatur dargelegt. Abschließend ist der Wert der Signatur als einseitiges Optimierungspotenzial produktiver Zeitersparnis in Euro definiert. Der zweite Abschnitt definiert den stereotypischen Prozess sowie die rechtlichen, technischen und wirtschaftlichen Rahmenbedingungen für Digitalisierungswerkzeuge inklusive der kritischen Reflektion alternativer Ansätze. Die QES hat keine signifikante Alternative innerhalb dieser Arbeit. Im quantitativen Experiment dienen typische österreichische Unternehmen sowie deren signaturrelevante Dokumente mit Daten aus Expertenschätzungen, verfügbarere Literatur sowie nicht veröffentlichten Daten eines Signaturanbieters als Basis für eine Simulation der Prozessdurchlaufzeiten. Die darauf basierende Vorhersage des Werts mittels der Monte Carlo Simulation, die digitale und analoge Zeitersparnis gegenübergestellt, weist eine hohe Vorhersagekraft, speziell für ein typisches Unternehmen auf, wodurch die Forschungsfrage mit einem zuverlässigen Wert beantwortet ist. Es sind Empfehlungen für weitere Untersuchungen mit anderen Modellen sowie Nebenerkenntnisse dargelegt. Die Ergebnisse der Arbeit dienen als Entscheidungsgrundlage für Entscheidungsträger und sollen die Digitalisierung weiter vorantreiben.
Die vorliegende Masterarbeit mit dem Titel Evaluierung der Einsatzmöglichkeiten von E-Learning-Systemen im B2B Vertrieb“ untersucht die Identifizierung und Gewichtung von Kriterien zur Bewertung von E-Learning-Systemen im Business-to-Business (B2B)-Vertriebsumfeld. Angesichts der wachsenden Bedeutung digitalen Lernens im Corporate Learning trägt diese Studie dazu bei, eine bestehende Forschungslücke in der Bewertung von E-Learning-Systemen für das Vertriebsumfeld und Performance-Steigerungen in der Branche zu adressieren. Die Untersuchung basiert auf einem qualitativen Forschungsansatz, welcher eine KI-gestützte Literaturrecherche sowie Befragungen von Personen mit Fachexpertise nach dem Kano-Modell umfasst. Branchenspezifische Bewertungskriterien wurden aus der Fachliteratur abgeleitet und anhand der Einschätzungen erfahrener B2B-Vertriebsexpertinnen und -experten gewichtet. Der Funktionsumfang von zehn E-Learning-Systemen wurde mit einer dreistufigen Skala bewertet, um Objektivität und Vergleichbarkeit sicherzustellen. Die Ergebnisse zeigen, dass Absorb LMS den umfangreichsten ungewichteten Funktionsumfang bietet. Nach der fachspezifischen Gewichtung deutet die Analyse darauf hin, dass führende E-Learning-Systeme Funktionen priorisieren, die von Experten und Expertinnen aus dem B2B-Vertrieb geschätzt werden. Diese Arbeit identifi-ziert19 fundierte, branchenspezifisch gewichtete Kriterien zur Bewertung von E-Learning-Systemen imB2B-Vertrieb. Die Ergebnisse legen nahe, dass aktuelle Plattformen grundsätzlich für den Einsatz in diesem Bereich geeignet sind. Gleichzeitig wird weitere empirische Forschung empfohlen, um die praktische Anwendbarkeit der Kriterien zu validieren und bestehende Auswahlprozesse weiter zu optimieren.
Mit der zunehmenden Verbreitung generativer KI-Tools wie ChatGPT und GitHub Copilotin der modernen Softwareentwicklung steigt das Potenzial für eine grundlegende Veränderung verschiedener Entwicklungsprozesse. Diese Arbeit untersucht die Faktoren, die die Akzeptanz und Nutzung generativer KI-Tools durch Entwickler*innen in agilen Softwareentwicklungsteams beeinflussen. Auf Grundlage der Unified Theory of Acceptance and Use of Technology (UTAUT) und einschlägiger Forschungsergebnisse wurde eine quantitative Online-Umfrage mit 352Entwickler*innen durchgeführt. Die Ergebnisse zeigen, dass die Leistungserwartung der stärkste Treiber der Verhaltensabsicht ist – insbesondere die erwartete Steigerung von Effizienz und Produktivität. Auch die Aufwandserwartung und der soziale Einfluss haben einen positiven, jedoch geringeren Effekt auf die Nutzungsabsicht. Bei der Aufwandserwartung fallt insbesondere der wahrgenommene Aufwand für die Überprüfung und Korrektur generierten Codes ins Gewicht, während beim sozialen Einfluss externe Branchentrends eine stärkere Wirkung haben als interne Vorgaben. Neben der Verhaltensabsicht beeinflussen auch begünstigende Bedingungen das tatsächliche Nutzungsverhalten – insbesondere eine unterstützende technische Infrastruktur und organisatorische Maßnahmen wie Schulungen. Überraschenderweise zeigt sich ein negativer Zusammenhang zwischen der Anwendung agiler Praktiken und der Nutzung generativer KI-Tools, während entwicklungsnahe Tätigkeiten wie Code-Refactoring einen positiven Zusammenhang mit dem Nutzungsverhalten aufweisen. Die Erkenntnisse liefern praxisrelevante Implikationen: Unternehmen sollten nicht nur den Mehrwert generativer KI-Tools kommunizieren, sondern auch gezielte Unterstützung und Schulungen zur effektiven Nutzung bereitstellen. Zudem besteht weiterer Forschungsbedarf zur optimalen Integration generativer KI-Tools in agile Entwicklungsprozesse.
Die zunehmende Verbreitung von Large Language Models (LLMs) in Unternehmenskontexten eröffnet neue Möglichkeiten zur Automatisierung von Wissensabruf, Inhaltserstellung und Entscheidungsunterstützung. Gleichzeitig stellt ihre Implementierung hohe technische Anforderungen an die bestehende IT-Infrastruktur und Datenarchitektur von Unternehmen. Diese Arbeit entwickelt ein strukturiertes Framework, das Unternehmen bei der technischen Vorbereitung auf die Integration von LLMs unterstützt. Im Fokus der Untersuchung stehen die zentralen technischen Anforderungen, die Unternehmen erfüllen müssen, um LLMs gezielt in spezifische Aufgaben innerhalb ihrer Geschäftsprozesse zu integrieren. Ein besonderer Schwerpunkt liegt auf der Analyse unternehmensinterner Datenformate und -strukturen sowie den notwendigen Vorverarbeitungsschritten zur Sicherstellung der Kompatibilität mit LLMs. Darüber hinaus werden Best Practices für die Archivierung und Bereitstellung von Daten identifiziert. Ergänzend erfolgt eine vergleichende Analyse von On-Premises- und Cloud-basierten Hosting-Lösungen sowie von selbst-gehosteten und extern-gehosteten LLMs, wobei Skalierbarkeit und Sicherheit als zentrale Bewertungskriterien herangezogen werden. Ein weiterer Fokus der Arbeit liegt auf Retrieval-Augmented Generation (RAG) als Methode zur Optimierung der LLM-Leistung durch die Nutzung unternehmensspezifischer Wissensbestände. Die Arbeit folgt der Design Science Research Methodologie und kombiniert eine umfassende Literaturanalyse mit leitfadengestützten Experteninterviews, die primär zur Evaluation und Feinjustierung des entwickelten Frameworks dienen. Die Evaluation überprüft dessen Anwendbarkeit in verschiedenen Branchen und dessen Potenzial, IT-Abteilungen und Entscheidungsträger bei der strategischen Einführung von LLMs zu unterstützen. Die Ergebnisse dieser Arbeit sollen praktische Empfehlungen für die technische Implementierung von LLMs in Unternehmen bieten. Sie berücksichtigen sowohl infrastrukturelle als auch datenspezifische Anforderungen und sollen eine Entscheidungsgrundlage für die Einführung und Nutzung von LLMs liefern.
Diese Masterarbeit untersucht den Einsatz von Künstlicher Intelligenz im Recruiting-Prozess von Großunternehmen in der österreichischen IT-Branche. Vor dem Hintergrund des zunehmenden Fachkräftemangels in der IT-Branche beleuchtet die Arbeit den Nutzen und die Herausforderungen beim Einsatz von KI-gestützten Recruiting-Tools. Die Untersuchung basiert auf einem zweistufigen Forschungsansatz. Zunächst wurde eine umfassende Literaturrecherche durchgeführt, um die aktuelle Fachkräftesituation, die Entwicklung moderner Recruiting-Strategien sowie die theoretischen Grundlagen von KI im Personalwesen darzustellen. Dabei wurden zentrale Technologien wie Matching-Tools, Chatbots, Workforce Analytics und automatisierte Assessments ebenso betrachtet wie rechtliche und ethische Aspekte, insbesondere in Bezug auf Datenschutz, Transparenz und Diskriminierungsrisiken. Ergänzend wurden qualitative Experteninterviews mit Fachleuten aus den Bereichen IT und Human Resources durchgeführt. Die Auswertung der Interviews erfolgte anhand der qualitativen Inhaltsanalyse nach Mayring und lieferte praxisnahe Einblicke in Chancen, Risiken und Erfolgsfaktoren bei der Implementierung von KI-gestützten Recruiting-Tools. Die Ergebnisse zeigen, dass KI das Recruiting deutlich effizienter gestalten kann - insbesondere in den Bereichen Kandidatenscreening, Kommunikation und datenbasierte Entscheidungsfindung. Gleichzeitig bestehen weiterhin Bedenken hinsichtlich algorithmischer Verzerrung, mangelnder Nachvollziehbarkeit und rechtlicher Unsicherheiten. Der verantwortungsvolle Einsatz von KI erfordert daher klare ethische Leitlinien und ein stabiles rechtliches Fundament. Diese Arbeit liefert sowohl theoretische Grundlagen als auch praxisorientierte Handlungsempfehlungen für Unternehmen, die KI im Recruiting einsetzen möchten, um im Wettbewerb um IT-Fachkräfte zukunftsfähig zu bleiben.
Das Ziel dieser Arbeit ist die Analyse des Einflusses der Trainingsdatenmenge auf die Leistungsfähigkeit neuronaler Netzwerkarchitekturen in der Zeitreihenvorhersage. Untersucht werden Recurrent Neural Network (RNN), Convolutional Neural Network (CNN) und Trans-former-Modelle, einschließlich Long Short-Term Memory (LSTM),Gated Recurrent Unit (GRU) und Temporal Convolutional Network (TCN). Ziel ist die systematische Bewertung ihrer Stärken und Schwächen in der Zeitreihenvorhersage. Dazu wurde die Design Science Research Methodology (DSRM) genutzt. Eine systematische Literaturrecherche identifizierte relevante Architekturen und Bewertungsmetriken. Anschließend wurde ein Benchmarking-Framework entwickelt, um Hyperparameter-Tuning, Training und Evaluation über verschiedene Datensätze zu standardisieren. Eine empirische Analyse unter-suchte den Einfluss variierender Datenmengen auf die Modellleistung. Die Ergebnisse zeigen, dass mehr Trainingsdaten die Vorhersagegenauigkeit verbessern, jedoch mit abnehmendem Nutzen ab einem bestimmten Schwellenwert. Der Einfluss der Datenmenge ist stark architekturabhängig: Rekurrente Modelle wie LSTMs und GRUs profitieren zunächst stark von größeren Datensätzen, erreichen jedoch einen Sättigungspunkt, an dem zusätzliche Daten keinen signifikanten Vorteil mehr bringen oder sogar Overfitting verursachen. Im Gegensatz dazu zeigen TCN- und Transformer-Modelle eine stabilere Leistung über verschiedene Trainingssplits hinweg, was auf eine höhere Robustheit in der Modellierung langfristiger Abhängigkeiten und der Anpassung an unterschiedliche Datenmengen hinweist. Auf Basis dieser Erkenntnisse leistet diese Arbeit einen methodischen Beitrag zur standardisierten Bewertung der Datenmengenabhängigkeit in der Zeitreihenvorhersage. Zukünftige Forschung sollte sich auf die Optimierung der Dateneffizienz durch adaptive Aggregation, fortgeschrittene Vorverarbeitung und Feature Engineering konzentrieren, um die Effizienz und Robustheit neuronaler Netzwerke weiter zu verbessern.
Drag-n-Share
(2024)
The proliferation of file-sharing technologies has revolutionized how users transfer data across devices. However, current solutions often face limitations in terms of accessibility, cross-platform compatibility, security, and efficiency. This thesis introduces “Drag-n-Share”, a novel file-sharing service designed to address these limitations and provide a streamlined, secure, and user-friendly experience for cross-device data transfer.Drag-n-Share utilizes a web-based architecture requiring no installation or account authentica-tion, making it highly accessible across devices with a stable internet connection and browser support. Leveraging a microservice architecture with a Rust-based backend, the system integrates a Redis in-memory database for session handling and real-time file chunk transmission via websockets. Security measures such as Advanced Encryption Standard with Gal-ois/Counter Mode (AES-GCM) and Elliptic Curve Diffie-Hellman (ECDH) encryption ensure data protection during transmission.This thesis evaluates Drag-n-Share against existing file-sharing solutions using quantitative and qualitative methods, focusing on usability, performance, and security. The results demonstrate that Drag-n-Share excels in minimizing user actions, eliminating platform de-pendencies, and achieving high levels of security, while maintaining decent file transfer speeds for large datasets.By addressing the gaps in current file-sharing technologies, Drag-n-Share sets a new bench-mark for cross-platform file sharing, contributing a robust and scalable solution to the field.
Die vorliegende Masterarbeit geht der Fragestellung nach, wie ein Change-Prozess gestaltet werden kann, um die Cyber-Resilienz von Gesundheitsunternehmen zu verbessern. Aufgrund der zunehmenden Digitalisierung im Gesundheitswesen und der steigenden Anzahl von Cyberangriffen ist dieses Thema von hoher Aktualität und Relevanz. Methodisch wurde zunächst ein Prozess auf Basis einer umfangreichen Literaturrecherche entwickelt. Dieser Prozess wurde anschließend mittels Experteninterviews auf Stärken und Schwächen geprüft, wodurch ein qualitativer Einblick in die Erfahrungen und Wahrnehmungen von Fachleuten aus dem Gesundheitswesen gewonnen werden konnte. Die darauffolgende Inhaltsanalyse nach Mayring ermöglichte eine genaue Untersuchung der Interviews. Im Anschluss wurde ein angepasstes Prozessmodell auf Grundlage der Literaturrecherche und der Expertenmeinungen erstellt. Die Ergebnisse der Masterarbeit führten zur Entwicklung eines optimierten Change-Prozesses, der insgesamt mehrere zentrale Anpassungen umfasst. Dazu zählen unter anderem die Flexibilisierung von Prozessschritten durch optionale Gestaltung abhängig von Risikobewertung und Dringlichkeit, die Anpassung von Implementierungsmethoden und Sprint-Längen an die spezifischen Ressourcen und Kapazitäten im Gesundheitswesen sowie ein effizientes Backlog-Management mit regelmäßiger Aktualisierung und klarer Verantwortlichkeit. Ein weiterer Aspekt, der ursprünglich in Erwägung gezogen wurde, war die umfassende Entwicklung einer Kommunikationsstrategie vor jeder Implementierung. Da jedoch festgestellt wurde, dass in dringenden Fällen nicht immer Zeit für eine ausführliche Kommunikationsplanung bleibt, wurde dieser Punkt im angepassten Prozess als optional gekennzeichnet. Es wurde dennoch empfohlen, die Kommunikationsstrategie im Gesundheitswesen weiterhin zu berücksichtigen, insbesondere für geplante Änderungen. Insgesamt zeigt die Masterarbeit, dass eine gezielte Anpassung von Change-Management-Prozessen an die spezifischen Bedingungen und Herausforderungen des Gesundheitswesens einen wesentlichen Beitrag zur Steigerung der Cyber-Resilienz leisten kann. Vor dem Hintergrund einer zunehmend digitalen und vernetzten Arbeitswelt ist diese Erkenntnis von hoher Relevanz für die langfristige Sicherheit und Stabilität von Gesundheitsunternehmen.
Voraussetzungen einer Immobilienwert-Analyse App für die erfolgreiche Vermarktung über Social-Media
(2024)
Diese Masterarbeit widmet sich der Analyse der technischen Voraussetzungen für eine erfolgreiche Vermarktung von Immobilien über Social Media mithilfe einer Immobilienwert-Analyse-App. Ziel ist es, die Einflussfaktoren zu identifizieren, die den Erfolg solcher Apps beeinflussen und Empfehlungen für ihre optimale Nutzung abzuleiten und anschließend herauszufinden, wie und auf welchen Plattformen eine solche App bestmöglich vermarktet werden kann. Die Forschung stützt sich auf eine Literaturrecherche zu aktuellen Entwicklungen im Bereich der Immobilienvermarktung und diversen Aspekten von Social Media. Zudem werden Experten zu ihrem Nutzungsverhalten und -präferenzen in Bezug auf Immobilienwertanalyse-Apps sowie zu digitalen Plattformen befragt, um ein umfassendes Verständnis für die Erwartungen potenzieller Nutzer*innen zu entwickeln. Die methodische Herangehensweise umfasst Zielgruppeninterviews mit Experten aus dem Immobilienbereich, um ihre Perspektiven auf die Chancen sowie Herausforderungen einer Immobilienwert-Analyse-App und ihre Vermarktung über Social Media zu erfassen. Abschließend werden die Befragungen analysiert, um statistische Muster im Nutzerverhalten und der Performance solcher Apps zu identifizieren, um eine Vermarktungsstrategie zu entwickeln. Die Ergebnisse sollen nicht nur dazu beitragen, die Voraussetzungen für den Erfolg einer Immobilienwert-Analyse-App herauszufinden, sondern auch konkrete Handlungsempfehlungen für Entwickler*innen und Anbieter*innen solcher Apps bieten. Die Erkenntnisse dieser Masterarbeit tragen somit dazu bei, innovative Lösungen zu entwickeln, die den Anforderungen des modernen Immobilienmarkts gerecht werden und eine effektive Verbindung zwischen sozialen Medien sowie digitalen Technologien schaffen.
Die vorliegende Arbeit untersucht eingehend die Thematik des Wandels und des Change Managements in Unternehmen, insbesondere im Kontext von Logistikautomatisierungsunternehmen. Die Motivation für diese Forschung basiert auf der Notwendigkeit, die Herausforderungen und Erfolgsfaktoren bei Veränderungsprozessen in dieser speziellen Branche zu verstehen und zu identifizieren. Die Arbeit beginnt mit einer umfassenden Darstellung des Wandels, definiert den Terminus und beleuchtet verschiedene Mo-delle wie das Wachstumsmodell von Greiner, das Unternehmensentwicklungsmodell von Bleicher und das Change-Modell von Hurst. Der Schwerpunkt der Arbeit liegt auf dem Change Management, wobei die Handlungsfelder und Verhaltensmuster eingehend betrachtet werden. Detailliert werden Modelle wie das 8-Stufen Modell nach Kotter, das ADKAR Modell und agile Change-Management-Ansätze untersucht. Erfolgsfaktoren im Change-Management werden herausgearbeitet und zusammengefasst. Ein weiteres zentrales Element der Untersuchung ist die Rolle der Führung als Einflussfaktor im Veränderungsprozess. Die Arbeit analysiert verschiedene Aspekte wie Aufgabenteilung, Zielsetzung, Informationsversorgung, Mitarbeitermotivation, Autorität, Führungsverhalten, Veränderungsbereitschaft, Change-Fähigkeiten und -Kompetenz. Die methodische Herangehensweise beinhaltet die Anwendung analytischer Statistik, die Auswahl der Forschungsmethode sowie die Anpassung und Durchführung von Befragungen. Die Ergebnisse der Untersuchung zeigen das die wichtigsten Erfolgsfaktoren im Change Management die Kommunikation, die Führung und das Identifizieren und Verankern von Erfolgen sind.
Die Informationstechnologie (IT) ist eine sich schnell verändernde Branche und bietet vielfältige Möglichkeiten, neue Geschäftsfelder zu etablieren oder bestehende Geschäftsmodelle und Prozesse zu modernisieren. Dieser Vorgang, weithin unter der Bezeichnung Digitalisierung bekannt, bringt auch eine Vielzahl an Herausforderungen für die IT-Infrastruktur. Diese muss immer schneller reagieren und sich zeitgleich neuen Sicherheitsanforderungen stellen. Um diesen Anforderungen gerecht zu werden, müssen Prozesse beschleunigt und automatisiert werden. Bereits heute werden viele Server virtuell zur Verfügung gestellt, wodurch diese binnen weniger Augenblicke für neue Services bereitstehen. Dieser Trend der Virtualisierung lässt sich nach und nach auch im übrigen Datacenter erkennen. Das sogenannte Software-defined Datacenter soll Unternehmen dabei helfen, das gesamte Datacenter, beginnend bei Servern, Storage, Security-Komponenten bis hin zum Netzwerk, zu virtualisieren. Dadurch sollen Prozesse automatisiert und Fehlerquellen reduziert werden. Eine besondere Herausforderung stellt dabei das Netzwerk dar. Bis heute wird der Großteil der Netzwerkkomponenten von Administratoren manuell und einzeln administriert, wodurch sich potenzielle Fehler innerhalb der Konfiguration ergeben. Um diese Fehler zu reduzieren und um die Konfigurationszeiten zu verkürzen, werden nach und nach neue Technologien im Software-defined-Networking-Bereich etabliert. Dabei stellt sich die Frage, wie ein Konzept zur Automatisierung eines modernen Netzwerkes gestaltet sein kann. In der vorliegenden Forschungsarbeit wurde versucht, dies Anhand eines Prototypings zu erarbeiten. Besonderes Augenmerk wurde hier auf IT-Dienstleister im öffentlichen Bereich gelegt. Einleitend wurde auf die Notwendigkeit einer infrastrukturellen Veränderung eingegangen, wodurch sich klar erkennen ließ, dass mit zunehmender Digitalisierung Technologien wie SDN an Bedeutung gewinnen. Abschließend konnte erkannt wer-den, dass SDN eine zukunftsträchtige Technologie ist, jedoch nicht als Standardprodukt zu verstehen ist. SDN muss individuell für jedes Unternehmen durchdacht werden, damit die Vorteile der Automatisierung genutzt werden können.
Im Zuge der fortschreitenden Digitalisierung und der stetigen Veröffentlichung neuer Softwareprodukte steigen die Anforderungen der Anwender*innen an die Softwarequalität kontinuierlich. Insbesondere die Zuverlässigkeit der Software spielt eine zentrale Rolle für die Zufriedenheit der Nutzer*innen. Die vorliegende Masterarbeit untersucht, wie die Einführung von Software Fault Injection in einem österreichischen Automatisierungstechnikunternehmen zur Steigerung der Softwarezuverlässigkeit beitragen kann. Vor dem Hintergrund wachsender Anforderungen an die Zuverlässigkeit und Fehlertoleranz von Software leistet diese Arbeit einen Beitrag zur Erhöhung der Robustheit und Qualität von Softwareprodukten. Im ersten Schritt wurde methodisch nach dem Design Research Ansatzes mittels Literaturrecherche ein Leitfaden zur Einführung von Software Fault Injection konkret in Form von Mutation Testing erstellt, wobei sich dieser in die drei Bereiche „Schrittweiser Leitfaden zur Anwendung“, „Best-Practices“ und „Schulung und Dokumentation“ untergliedert. Der erstellte Leitfaden wurde im nächsten Schritt anhand eines österreichischen Automatisierungstechnik Unternehmens in einer Fallstudie nach Yin angewandt. Das untersuchte Softwareprodukt ist eine in C# entwickelte Windows-Desktop-Applikation und stellt eine ungewöhnliche Domäne für Fault Injection dar. Daher wurde der Leitfaden insbesondere auf die Anwendbarkeit in einem Praxisumfeld mit diesem Technologie Stack überprüft, um Rückschlüsse über die Effektivität und Effizienz der Anwendung des Leitfadens in dieser spezifischen Fault Injection Domäne zu ziehen. Die Ergebnisse der Arbeit zeigen, dass Mutation Testing in einem Softwareentwicklungsprozess wertvolle Erkenntnisse über die Qualität der Softwaretests auf Unittest Ebene liefert und gezielt Optimierungspotentiale für bestehende Tests sowie mangelhafte Testabdeckung aufdeckt. Die durchgeführte Fallstudie ergab, dass der Einsatz von Mutation Testing zu einer signifikanten Steigerung der Softwaretestqualität beitragen kann. Hierbei liegt der Fokus auf die Verbesserung von Unittests, wodurch potenzielle Problemstellungen frühzeitig identifiziert und behoben werden können. Die Einführung in die CI/CD-Pipeline zeigte, dass die effektive und effiziente Nutzung von Mutation Tests im Zuge der kontinuierlichen Softwareentwicklung auf. Weiters wurden Optimierungspotenziale des Leitfadens identifiziert, welche für zukünftige Forschungen als Grundlage dienen können, um die Verbreitung von Software Fault Injection in diversen Anwendungsdomänen voranzutreiben. Abschließend verdeutlicht die Masterarbeit, dass die Einführung von Mutation Testing in den bestehenden Entwicklungsprozess eines Unternehmens zur Steigerung der Softwarezuverlässigkeit beitragen kann. Technische und organisatorische Herausforderungen werden durch die gewonnenen Erkenntnisse aus Literatur und Praxis adressiert, um eine effektive Einführung von Software Fault Injection zu ermöglichen. Angesichts der zunehmenden Anforderungen an Softwarequalität und Zuverlässigkeit stellt diese Arbeit einen wertvollen Beitrag zur Verbesserung der Softwarequalität in Unternehmen dar.
Diese Masterarbeit untersucht methodische Ansätze zur Einführung von Machine-Learning-Modellen in Klein- und Mittelbetrieben, mit dem Ziel, deren Geschäftsprozesse effizient zu optimieren und gleichzeitig die Anforderungen der Datenschutz-Grundverordnung (DSGVO) zu erfüllen. Angesichts der fortschreitenden Digitalisierung und der wachsenden Bedeutung datenbasierter Technologien stehen Klein- und Mittelbetriebe vor der Herausforderung, das Potential von Machine-Learning-Modellen zu nutzen, ohne dabei rechtliche, organisatorische und technische Hürden außer Acht zu lassen. Die Arbeit gliedert sich in einen theoretischen und einen empirischen Teil. Der theoretische Teil umfasst eine umfangreiche Literaturrecherche, die den aktuellen Stand der Forschung sowie die Anwendungsmöglichkeiten von Machine-Learning in unterschiedlichen Unternehmensbereichen analysiert. Dabei werden relevante Einsatzgebiete wie Marketing, Kundenkommunikation und Prozessautomatisierung identifiziert. Der empirische Teil basiert auf einem Design-Science-Research-Ansatz, der durch leitfadenbasierte Expert:inneninterviews ergänzt wird. Ziel ist es, praxisnahe Erkenntnisse zu den Herausforderungen, Vorteilen und Erfolgsfaktoren bei der Implementierung von Machine-Learning in Klein- und Mittelbetrieben zu gewinnen. Das zentrale Ergebnis der Arbeit ist die Entwicklung eines Leitfadens, der Klein- und Mittelbe-triebe dabei unterstützt, Machine-Learning ressourcenschonend und datenschutzkonform einzusetzen. Der Leitfaden beinhaltet Handlungsempfehlungen zur Datenaufbereitung, zur Auswahl geeigneter Machine-Learning-Modelle und zur Berücksichtigung regulatorischer Anforderungen. Die durchgeführten Interviews zeigen, dass Machine-Learning insbesondere in Bereichen wie der Automatisierung von Geschäftsprozessen und der datenbasierten Entscheidungsfindung zu signifikanten Effizienzsteigerungen beitragen kann. Gleichzeitig wird auf Herausforderungen wie die Sicherstellung der Datenqualität und die Einhaltung der DSG-VO eingegangen.
Eine erfolgreiche Einführung und Nutzung von Cloud-ERP Lösungen bedarf einer organisierten Zusammenarbeit aller Beteiligten im Projekt. Hierbei müssen Entscheidungen getroffen, Prozesse definiert und Zuständigkeiten festgelegt werden. Während des Projektverlaufs werden Wissensinhalte unterschiedlichster Themenbereiche generiert und geteilt. Diese Wissensinhalte gilt es frühzeitig im Projekt transparent zu dokumentieren, um eine stabile Verwendung der ERP-Lösung mit dem Ende der Implementierungsphase und der Übergabe in die Nutzungsphase zu gewährleisten. Im Unternehmen B4B Solutions GmbH kommen für das Wissens- und Projektmanagement die Anwendungen Jira und Confluence von Atlassian zum Einsatz. In der vorliegenden Masterarbeit wird der Nutzen dieser Anwendungen in Bezug auf das Wissensmanagement in ERP-Projekten untersucht. Der Autor hat für diese Untersuchung Interviews mit vier Personen durchgeführt, die bei B4B Solutions in unterschiedlichen Projektrollen mit Jira und Confluence arbeiten. Somit wurden die Fragen aus dem erarbeiteten Interviewleitfaden aus unterschiedlichen Blickwinkeln beantwortet. Die Interviews wurden transkribiert, paraphrasiert und einer qualitativen Inhaltsanalyse unterzogen. Die Ergebnisse der Inhaltsanalyse bilden die Basis für die Beantwortung der Forschungsfrage „Welchen Nutzen schaffen die Webanwendungen Jira und Confluence bei der Einführung und Nutzung von Cloud-ERP-Systemen in mittelständischen Unternehmen?“ und der Validierung der im Vorhinein definierten Hypothesen. Die Hypothesen wurden einer Rücküberprüfung unterzogen. Ein Abschlussfazit und Schlussfolgerungen runden die Masterarbeit ab und spiegeln die persönliche Einschätzung des Autors im Hinblick auf jene Fallstricke im Wissensmanagement wider, mit denen Organisationen in ERP-Projekten rechnen müssen.
Diese Masterarbeit untersucht die zentralen Herausforderungen, denen traditionelle, ITIL-orientierte IT-Betriebsteams in Großunternehmen bei der Umstellung auf cloudnative Methoden gegenüberstehen. Basierend auf einer qualitativen Analyse durch Experteninterviews werden die wesentlichen Hürden wie kultureller Wandel, technologische Anforderungen und organisatorische Anpassungen identifiziert. Die Arbeit bietet einen systematischen Überblick über typische Problemfelder und leitet daraus Handlungsempfehlungen ab, die als Grundlage für weiterführende Untersuchungen und Lösungsansätze dienen können.
This thesis introduces a digital artefact designed to address organizational challenges faced by bands and musicians. Bands often encounter difficulties in managing schedules, resolving conflicts, and organizing shared resources. The artefact provides a centralized platform for task management, scheduling, and collaboration, with a focus on usability and security. Guided by usability principles from experts like Nielsen and Krug, the artefact emphasizes an intuitive user experience. Key features include personalized task management, collaborative tools for bands, and robust privacy controls. User appointments are anonymized in shared views to maintain privacy while enabling collaboration.Security is a cornerstone of the system, implemented through authentication and permission-based access control. The artefact also supports conflict resolution, alerting users to scheduling overlaps and facilitating resolution to reduce disruptions. Additional functionalities include tools for managing equipment, setlists, and band-specific resources.Evaluated heuristically using three personas representing diverse roles within bands, the arte-fact was found to meet all defined requirements. It successfully delivers a secure, efficient, and user-friendly solution to the identified challenges.The artefact’s multilingual support and modular design ensure scalability and adaptability for future enhancements, such as real-time collaboration and advanced analytics. This thesis demonstrates how tailored digital tools can effectively address challenges in the creative industries, empowering musicians to collaborate more efficiently and focus on their craft. The work establishes a foundation for future innovations in technology that support creative professionals.
Diese Arbeit untersucht die Anwendung von Künstlicher Intelligenz zur Verbesserung des Dispatchings im Bereich der Ressourceneinsatzplanung für Netzbetreiber in der Energiebranche, ein Gebiet, das zunehmend von den Herausforderungen der Energiewende und den Zielen der Klimaneutralität geprägt wird. Die zentrale Forschungsfrage lautet: Welche KI-Methoden eignen sich für die Verbesserung des Dispatchings in der Ressourceneinsatzplanung bei Netzbetreibern in der Energiebranche? Ziel ist es, bestehende KI-Methoden zu bewerten und ihre Anwendbarkeit in diesem spezifischen Kontext zu beurteilen, ohne neue Algorithmen zu entwickeln. Um diese Frage zu beantworten, folgt die Arbeit einem dreistufigen methodischen Ansatz. Zunächst wird eine einleitende Literaturrecherche durchgeführt, um relevante Methoden zu identifizieren und zentrale Bewertungskriterien abzuleiten. Anschließend werden Experteninterviews durchgeführt, um praktische Einblicke zu gewinnen und die theoretischen Erkenntnisse zu validieren. Abschließend werden die Ergebnisse in einer Nutzwertanalysezusammengefasst, die eine gewichtete Bewertung der Methoden im gegebenen Kontext der Arbeit liefert. Die Analyse zeigt, dass Methoden wie Deep Q-Networks, Improved Deep Q-Networks und Particle Swarm Optimization ein erhebliches Potenzial aufweisen, insbesondere in dynamischen und komplexen Planungsumfeldern wie dem Dispatching. Die Ergebnisse unterstreichen das Potenzial von KI, die betriebliche Effizienz zu steigern, repetitive Aufgaben zu Automatisieren, menschliche Fehler zu reduzieren und implizites Expert*innenwissen allen verfügbar zu machen. Diese Studie leistet somit einen wertvollen Beitrag zur Forschung, indem sie die Eignung ausgewählter KI-Methoden für das Dispatching im Energiesektor systematisch bewertet. Siebietet zukünftigen Entscheidungsträgern eine fundierte Grundlage für die Auswahl geeigneter Technologien und hebt wichtige Aspekte hervor, die bei der Implementierung KI-gestützter Systeme zu berücksichtigen sind.
Ziel dieser Masterarbeit ist die Entwicklung eines fortschrittlichen Modells zur kontextbasierten Erkennung und Filterung von Hassrede in der deutschen Sprache. Die Arbeit geht auf die Einschränkungen bestehender Modelle ein, die vorwiegend für englischsprachige Daten konzipiert sind, und passt moderne Techniken der natürlichen Sprachverarbeitung (NLP) an die sprachlichen und kulturellen Besonderheiten des Deutschen an. Im Fokus steht die Bewältigung der Herausforderungen, die mit der Kontextidentifikation in Textkommunikationen, insbesondere in sozialen Medien und anderen Echtzeitkommunikationsumgebungen, verbunden sind. Ziel ist es, die Defizite traditioneller, schlüsselwortbasierter Ansätze zu überwinden. Die Methodik umfasste eine umfangreiche Datenvorverarbeitung, die Einbindung von Konversationshistorien zur Erfassung des Kontexts sowie das Fine-Tuning eines vortrainierten Large Language Models (LLM). Eine systematische Evaluierung anhand von Metriken wie Accuracy, Precision, Recall und F1-Score zeigte signifikante Verbesserungen gegenüber Basismodellen. Die Ergebnisse unterstreichen die Bedeutung des Kontexts, um die Klassifikationsgenauigkeit zu erhöhen und falsch-positive sowie falsch-negative Ergebnisse zu minimieren. Diese Forschung liefert einen robusten und anpassungsfähigen Rahmen für die Hassredeerkennung in der deutschen Sprache und trägt sowohl zu wissenschaftlichen Fortschritten als auch zu praktischen Anwendungen bei. Potenzielle Einsatzbereiche umfassen die Inhaltsmoderation auf sozialen Medienplattformen, die Echtzeitfilterung in Kommunikationswerkzeugen und andere Domänen, die eine effiziente und skalierbare Textanalyse erfordern. Die Ergebnisse verdeutlichen die Notwendigkeit, kontextsensitive Modelle weiter zu erforschen, um die Herausforderungen moderner digitaler Kommunikation zu bewältigen.
Ob in Form von Internetsuchmaschinen, Chatbots oder autonomen Fahren, der Vormarsch von künstlicher Intelligenz (KI) ist in Österreich unausweichlich. Während die einen den Fortschritt kaum abwarten können, fordern andere bereits einen Entwicklungsstopp. Kaum eine andere Technologie hat in den letzten Jahren für so viel Polarisierung gesorgt. Diese Masterarbeit behandelt das Thema KI in Kombination mit dem Vorgehensmodell Scrum. Viele österreichische Unternehmen, darunter auch kleine und mittlere Unternehmen (KMU), setzen Scrum ein, um komplexe Softwareprodukte zu entwickeln. Ziel dieser Arbeit ist es herauszufinden, welchen Einfluss künstliche Intelligenz auf den Scrum Prozess von IT-Projekten in österreichischen KMU hat. Um Erkenntnisse zu gewinnen, ist in der Forschungsarbeit ein Mixed-Methods Ansatz zum Einsatz gekommen. Hierbei besteht der Eckpfeiler aus der qualitativen Forschung in Form von Expertinnen- und Experteninterviews. Diese Erkenntnisse haben in Kombination mit der Theorie die Grundlage für die Entwicklung weiterer Hypothesen gebildet, welche die fünf Dimensionen Effizienz, Dauer, Qualität, Zufriedenheit und Erfolg umfassen. Besagte Hypothesen wurden dann mit Hilfe der quantitativen Forschung durch eine Umfrage auf der Grundlage eines Fragebogens getestet. Die Ergebnisse dieser Arbeit zeigen, dass der Einsatz von KI im Scrum Prozess einen positiven Einfluss auf alle fünf Dimensionen darstellt. Aus diesem Grund sollen österreichische KMU die Einführung von KI in ihren Scrum Prozess in Betracht ziehen. Es ist schwer zu sagen, wie sich die Dinge in den nächsten Jahren entwickeln werden, aber basierend auf den Resultaten der Arbeit lohnt sich ein Blick in Richtung KI für österreichische KMU.
Der Einfluss von Remote Working auf die Arbeitszufriedenheit hängt weitgehend von der Person, dem Arbeitsumfeld, Beziehungen zu Kolleg*innen und einer Reihe anderer Aspekte (Identifikatoren) ab. Einige der positiven Einflüsse des Remote Workings auf die Arbeitszufriedenheit sind: ▪ Flexibilität: Remote Working ermöglicht es der oder dem Einzelnen, mehr Kontrolle über ihren oder seinen Arbeitsplan zu haben, was zu mehr Flexibilität und einer besseren Vereinbarkeit von Beruf und Privatleben führen kann. ▪ Geringere Pendelzeiten: Durch den Wegfall des täglichen Pendelns sparen Telearbeiter*innen Zeit und Geld, und haben einen geringeren ökologischen Fußabdruck. ▪ Verbesserte physische Umgebung: Viele Fernmitarbeiter*innen berichten, dass sie sich in ihrer eigenen Umgebung wohler fühlen und produktiver arbeiten können. Einige der negativen Auswirkungen des Remote Workings auf die Arbeitszufriedenheit sind: ▪ Isolation: Remote Working kann zu Gefühlen der Isolation und Einsamkeit führen, was sich negativ auf die Arbeitszufriedenheit auswirken kann. ▪ Mangelnde Zusammenarbeit: Remote Working kann die Zusammenarbeit mit Kolleg*innen erschweren und zu einem Mangel an sozialer Interaktion führen. ▪ Work-Life-Balance: Für Telearbeiter*innen kann es schwierig sein, Arbeit und Privatleben zu trennen, was zu Überlastung und Burnout führen kann. Insgesamt ist der Einfluss des Remote Workings auf die Arbeitszufriedenheit komplex und vielschichtig. Zudem hängt er von einer Vielzahl von Aspekten ab, zu denen individuelle Präferenzen, die Arbeitskultur und die Unterstützung durch die oder den Arbeitgeber*in zählen. Ziel dieser Arbeit ist es, diese Einflüsse aus der Sicht von Arbeitnehmer*innen und Führungskräften zu untersuchen und eine Liste relevanter Aspekte (Identifikatoren) zu erstellen, die für die Zusammenarbeit zwischen beiden Gruppen hinsichtlich Arbeitszufriedenheit im Remote Working relevant sind.
Für eine qualitativ hochwertige Fertigung in einem industriellen Umfeld müssen die Produkte eine Vielzahl von Prüf- und Qualitätsstandards erfüllen. Diese Inspektionsprozesse, zum Beispiel das Messen der Dichte von Flüssigkeiten, werden von hochpräzisen Messsystemen erledigt. Am Ende jeder Messung entstehen Ergebniswerte, die oftmals zu Analysezwecken benötigt werden. Besitzt das jeweilige Messsystem keine Schnittstelle nach außen oder lediglich eine veraltete Schnittstelle wie RS232, die aber vom übergeordneten System nicht mehr unterstützt wird, kann sich der händische Datenübertragungsprozess als mühselig erweisen. Diese Masterarbeit befasst sich mit der Konzeptionierung und Implementierung eines Gateway-Prototypen-Adapters, um Smart Services mit Telemetrie- beziehungsweise Messdaten unter Verwendung des Einplatinencomputers Raspberry Pi zu versorgen. Ein weiteres Ziel dieser Arbeit ist es, die Portabilität und Skalierbarkeit des Gateway-Adapters mithilfe einer Microservice-orientierten Architektur und der Verwendung von Containertechnologien möglichst hoch zu halten. Zu diesem Zweck wurde speziell für den Gateway-Adapter-Prototyp eine standardisierte Schnittstelle entwickelt. Diese Arbeit vermittelt außerdem ein vertieftes Verständnis hinsichtlich Interaktionsmöglichkeiten mit verschiedenen Protokollen, Protokollformaten und Programmierparadigmen für verteilte Systeme sowie bezüglich Grundlagen der Hard- und Software des Einplatinencomputers Raspberry Pi und des Prototypings im Zuge der Softwareentwicklung. Das Ergebnis dieser Masterarbeit zeigt, dass es möglich ist, Smart Services auch mit Daten aus alten Messsystemen zu speisen. So bietet der Einsatz des Gateway-Adapters nicht nur die Option, Altsysteme weiterhin zu verwenden, sondern ermöglicht durch sein Architekturkonzept Modularität und zukünftige Erweiterung.
Durch Trends wie die Digitalisierung, immer verfügbare Online-Shops und Bestellsysteme, die Nutzung von neuen Technologien und größer werdende Datenmengen, gab es in den letzten Jahren eine massive Veränderung der Logistik. Dem hinzukommend verursachte eine weltweite Pandemie einen immensen Druck auf die Logistikbranche . Szenarien wie Ausfälle der Lieferketten, verursacht durch Maschinen oder Softwaresysteme, müssen vermieden werden. Deswegen versucht die Logistikwirtschaft neue Technologien wie Predictive Maintenance und Data Mining in deren Warehouse Management Systeme einfließen zu lassen, um eine nahezu unterbrechungsfreie Logistiklieferkette gewährleisten zu können. Aus diesem Grund werden in der vorliegenden Arbeit die Einflussfaktoren und Potentiale des Data Minings auf Predictive Maintenance in einem Warehouse Management System evaluiert. Um diese Einflussfaktoren des Data Minings zu finden, wurden im ersten Schritt Data Mining Verfahren und deren Einsatzzwecke in der Logistik mit Hilfe einer Literaturrecherche elaboriert. Des Weiteren wurden die Einsatzgebiete von Predictive Maintenance in einem Warehouse Management System seitens Hardware aber auch Software näher betrachtet. Die im Theorieteil der Arbeit erkannten Einflussfaktoren und Potentiale des Data Minings auf Predictive Maintenance in einem Warehouse Management System wurden mittels Interviews mit Experten und Expertinnen aus der Logistikbranche durchgeführt, ausgewertet und evaluiert. Der zentrale Einflussfaktor ,welcher von allen Experten und Expertinnen genannt wurde, ist das aktive Benutzen und Verwerten des Wissens sowie die gewonnenen Erkenntnisse durch das Data Mining. Schließlich konnten, durch die Auswertung der Interviews konnten, folgende Einflussfaktoren und Potentiale erarbeitet werden: ▪Mittels IOT Geräten, welche an Maschinen und Fördertechnik angebracht werden, können frühzeitig Störungen mittels Data Mining Techniken erkannt und aufgezeigt werden. ▪Der Einsatz der Regression auf den Durchsatz eines Systems mittels historischer Daten, um eine Veränderung der Durchlaufzeiten zu erkennen und somit frühzeitig eine Störung oder ein Problem vorauszusagen.
Die Pandemie hat die Einführung digitaler Technologien um mehrere Jahre beschleunigt, jedoch auch Unternehmen in verschiedenen Wirtschaftszweigen vor unterschiedliche Herausforderungen wie jene der Kommunikation in Unternehmen gestellt. (Almeida, Santos, & Monteiro, 2020), (LaBerge, O’Toole, Schneider, & Kate, 2020) Das Ziel dieser Arbeit war es, eine Analyse und Auswertung der internen Kommunikation in Unternehmen aufzustellen, um dadurch folgende Forschungsfrage beantworten zu können: „Inwiefern haben pandemiebedingte Änderungen im Kontext der Digitalisierung des Arbeitsplatzes die interne Kommunikation, den Prozess, ihre Werkzeuge sowie ihre Effektivität beeinflusst?“ Dafür wurden aufbauend auf einer ausführlichen Literaturrecherche notwendige Hypothesen abgeleitet, die zielführend für die Zusammenstellung der experimentellen Studie, die im Rahmen der vorliegenden Arbeit durchgeführt wurde, sind. Durch eine Online-Umfrage wurden Arbeitnehmer*innen aus unterschiedlichen Berufsfeldern und in unterschiedlichen Positionen zu deren Kommunikationsverhalten sowohl Pre- als auch Post-Covid im Unternehmen befragt. Weiters wurden anhand der Mediensynchronitätstheorie unterschiedliche Kommunikationsszenarien abgeleitet, welche zur Einschätzung des aktuellen Effektivitätsstands im Unternehmen dienen. Letztlich wurden Abhängigkeiten zwischen der Häufigkeit der Nutzung von Kommunikationsmedien und der wahrgenommenen Effektivität analysiert und signifikante Maßnahmen zur Verbesserung der internen Kommunikation abgeleitet. Die Einstellung der Teilnehmer*innen wurde anhand von Likert-Skalen abgefragt. Sowohl die Literaturrecherche als auch die Ergebnisse der Studie zeigen, dass pandemiebedingte Veränderungen im beruflichen Kontext einen Einfluss auf die Kommunikation haben. Darüber hinaus konnte festgestellt werden, dass ein erhöhter Grad der Digitalisierung im Arbeitsumfeld zu einer erhöhten Effizienz, jedoch nicht zu einer erhöhten Effektivität der Kommunikation geführt hat. Anhand der Untersuchungen konnte weiterhin eine Abhängigkeit zwischen der Nutzungshäufigkeit zu der wahrgenommenen Hilfestellung und zur bevorzugten Nutzung der Kommunikationsmedien identifiziert werden. Anhand der Untersuchung der aktuellen Nutzungseffektivität der Kommunikationsmedien am Arbeitsplatz konnte zusammengefasst festgestellt werden, dass nicht jede Kommunikationssituation gleichermaßen effektiv von den Teilnehmer*innen bearbeitet wird. Abschließend wurden mögliche Maßnahmen ausgewertet, die aus Teilnehmer*innen Sicht zur Verbesserung der Kommunikation beitragen würden.
In der modernen Fertigung stellt die Einführung der Predictive Maintenance als Instandhaltungsstrategie einen bedeutenden Fortschritt dar. Diese Methode ermöglicht es Produktionsunternehmen, ihre Wartungsprozesse zu optimieren, indem potenzielle Ausfälle und Wartungsanforderungen vor ihrem Auftreten antizipiert werden. Die Cloud spielt dabei eine entscheidende Rolle als Ressource für die Implementierung, bedingt durch ihre in den letzten Jahren deutlich gestiegene Effizienz. Die Integration von cloudbasierter Predictive Maintenance in Produktionsumgebungen birgt jedoch auch Herausforderungen und Risiken. Diese Masterarbeit zielt darauf ab, diese Probleme zu identifizieren und zu bewältigen, indem Empfehlungen für Produktionsunternehmen zur erfolgreichen Integration von Predictive Maintenance im Kontext der Cloud gegeben werden. Die folgende Forschungsfrage wird behandelt: „Was sind die Handlungsempfehlungen für Produktionsunternehmen, die beabsichtigen, cloudbasierte Predictive Maintenance zu integrieren, um potentielle Herausforderungen und Risiken effektiv adressieren zu können?“ Die Arbeit folgt einem qualitativen und induktiven Forschungsansatz und umfasst eine empirische Untersuchung, die eine Reihe von Expert*inneninterviews in einer Feldstudie beinhaltet. Dieser Ansatz bietet tiefe Einblicke in die praktischen Aspekte der Implementierung von cloudbasierter Predictive Maintenance. Die Ergebnisse zeigen, dass die sorgfältige Auswahl von Cloud-Anbietern, unterstützt durch umfassende Cloud-Assesments und Kriterienkataloge, Bedenken hinsichtlich der Cloud-Technologie minimiert und Partnerschaften gewährleistet, die starke Sicherheitsmaßnahmen und einen guten Ruf haben. Finanziell ist eine frühzeitige und angemessene Budgetplanung unter Berücksichtigung flexibler Finanzierungsmodelle wie Abonnementdiensten entscheidend, um erhebliche Anfangsinvestitionen zu vermeiden und klare Kostenstrukturen zu etablieren. Organisatorisch ist die Integration der Predictive Maintenance in die Unternehmensprozesse entscheidend für den Erfolg, wobei die Schulung des Personals eine wesentliche Rolle spielt, um technisches Verständnis und das Bewusstsein für ihre strategische Bedeutung aufzubauen. Technisch ist eine moderne IT-/OT-Infrastruktur unerlässlich für eine nahtlose Integration und effiziente Datenübertragung. Besonders wichtig sind hierbei ein effektives Datenmanagement und die Nutzung von Edge Devices zur Vorverarbeitung und Einbindung älterer Systeme. Die Ergebnisse betonen die Notwendigkeit eines umfassenden Ansatzes, der technische, organisatorische und finanzielle Faktoren berücksichtigt, um eine nachhaltige und erfolgreiche Implementierung von Predictive Maintenance in der Cloud gewährleisten zu können.
Diese Masterarbeit untersucht die Meinungsbilder von IT-Führungskräften hinsichtlich Green-IT. Green-IT ist ein wichtiger Aspekt der modernen Technologie, der darauf abzielt, die Umweltauswirkungen von IT-Systemen zu minimieren und gleichzeitig die Effizienz zu maximieren. Angesichts der zunehmenden Bedeutung von nachhaltigen Praktiken in der Geschäftswelt ist es wichtig, die Einstellungen und Meinungen der Führungskräfte zu verstehen, da sie eine Schlüsselrolle bei der Förderung von Green-IT-Initiativen spielen. Die Studie verwendet die Q-Methode, ein Mixed-Method-Ansatz, die es ermöglicht, subjektive Meinungen systematisch und qualitativ zu erfassen und diese quantitative zu analysieren. Es wurden Interviews mit zehn IT-Leitern bzw. Stellvertretern durchgeführt, die über fundiertes Wissen in Bezug auf Green-IT verfügen. Es wurden zwei bestehende Meinungsbilder erhoben, den „Proaktiven Green-IT-Verfechter“ und den „Pragmatischen Green-IT-Stratege“. Beide Typen sehen die Einführung von Green-IT als eine wirksame Maßnahme im Kampf gegen den Klimawandel. Typ 1 ist ein überzeugter Befürworter, jedoch zeigt er eine Unwissenheit bezüglich der genauen Voraussetzungen und Kosten, die mit der Umsetzung von Green-IT verbunden sind. Auf der anderen Seite hat sich Typ 2 intensiver mit dem Thema auseinandergesetzt. Dieser erkennt den erheblichen Aufwand, der hinter Green-IT steckt. Er glaubt auch, dass das Thema im Allgemeinen aufgrund von Unwissenheit gemieden wird. Somit zeigt Typ 2 eine pragmatische Denkweise im Hinblick auf Green-IT, gepaart mit einem stärkeren Durchsetzungsvermögen. Die Ergebnisse dieser Studie könnten als Grundlage für zukünftige Forschungen dienen, einschließlich Langzeitstudien, tiefere Untersuchungen oder Studien mit anderen Zielgruppen. Diese zukünftigen Studien könnten dazu beitragen, ein umfassenderes Verständnis der Rolle von IT-Führungskräften bei der Förderung von Green-IT zu entwickeln.
Im Rahmen der vorliegenden Masterarbeit wurden die Herausforderungen bei der Implementierung der Web Content Accessibility Guidelines (WCAG) bei Verwendung von Content Management Systemen (CMS) analysiert, sowie Lösungen für jedes identifizierte Problem vorgestellt. Mithilfe der durchgeführten systematischen Literaturrecherche (SLR) nach vom Brocke et al. (2009) wurden eine Vielzahl an relevanten Quellen zum Thema umfassend analysiert. Basierend auf den Ergebnissen der SLR wurden drei Hauptprobleme identifiziert. Diese beinhalten die allgemeine technische Herausforderung das CMS an einen Standard anzupassen, die Benutzerfreundlichkeit für Content-Ersteller*innen und die zeitliche Herausforderung der Implementierung. Für jedes dieser Probleme werden im Rahmen dieser Arbeit spezifische Lösungen vorgestellt. Darüber hinaus bietet die durchgeführte SLR einen Überblick über die Vor- und Nachteile, bei einer Umsetzung der WCAG-Standards sowie eine Einschätzung der Einstellung gegenüber der Umsetzung von WCAG-Richtlinien mithilfe von CMS. Insgesamt zeigt die Arbeit, nicht nur, dass bei der Implementierung von WCAG-Standards in CMS technische sowie organisatorische Herausforderungen auftreten, sondern präsentiert auch umfassende Lösungskonzepte und gute Orientierungsmöglichkeiten, um eine zugänglichere digitale Welt zu erreichen.
MDE 4.0
(2024)
Die fortschreitende Digitalisierung in der industriellen Produktion hat die Bedeutung von Informationstechnologien und Maschinendatenerfassung erhöht, insbesondere im Bereich Cloud- und Edge-Computing. In dieser Arbeit werden die Chancen, Herausforderungen und Risiken untersucht, die mit der Integration dieser Technologien zur Erfassung von Maschinendaten verbunden sind. Die Studie konzentriert sich auf Unternehmen des produzierenden Bereichs und bietet umfassende Einblicke in technische und organisatorische Aspekte. Methodisch stützt sich die Studie auf einen induktiven, verhaltenswissenschaftlichen Forschungsansatz, der sich auf halbstrukturierte Experteninterviews stützt. Diese Interviews wurden mit der von Udo Kuckartz vorgeschlagenen Methode der Inhaltsanalyse qualitativ ausgewertet. Es wird die nachfolgende primäre Forschungsfrage untersucht: „Welche Handlungsempfehlungen ergeben sich für produzierende Unternehmen zur Bewältigung von Herausforderungen und Risiken sowie zur Nutzung von Chancen in der Maschinendatenerfassung durch den Einsatz von Cloud- und Edge-Computing?“ Ziel ist es, die aktuelle Situation in den Unternehmen zu erfassen und daraus praktische Empfehlungen und Hypothesen abzuleiten. Die Ergebnisse der Studie zeigen eine komplexe Landschaft bei der Nutzung von Cloud- und Edge-Computing für die Maschinendatenerfassung. Die Nutzungsmuster variieren von einem Unternehmen zum anderen, wobei die meisten Unternehmen bei der Cloud-Nutzung zurückhaltend sind. Als eine Form der lokalen Datenverarbeitung bleibt Edge-Computing das vorherrschende Paradigma. Die Untersuchung unterstreicht die Notwendigkeit eines schrittweisen, visionären Ansatzes für die Integration von Cloud- und Edge-Computing, der kleine, überschaubare Projekte umfasst, die von einer klaren strategischen Ausrichtung geleitet werden, um iterativ Erfahrungen zu sammeln und sich kontinuierlich zu verbessern. Es wird betont, wie wichtig es ist, Daten sorgfältig auszuwählen und zu verwalten, die Technologieauswahl auf spezifische Anwendungsfälle zuzuschneiden, Protokolle zu standardisieren, um die Interoperabilität zu verbessern, und die Modularisierung einzubeziehen, um die Flexibilität und Wartbarkeit des Systems sicherzustellen. Organisatorische Anpassungen wie Umstrukturierungen, kontinuierliche Schulungen, die Festlegung klarer Zuständigkeiten, eine wirksame Kommunikation und die Einbindung aller Beteiligten sind von entscheidender Bedeutung, um einen kulturellen Wandel zu ermöglichen, der die Chancen der digitalen Transformation voll ausschöpft und die langfristige Wettbewerbsfähigkeit in einem sich wandelnden technologischen Umfeld gewährleistet.
Diese Masterarbeit untersucht den Einsatz von Business Intelligence (BI) im Energiesektor, wobei der Fokus auf dem aktuellen Stand, den potenziellen Vorteilen und den Herausforderungen in diesem spezifischen Bereich liegt. Ein wichtiger Aspekt der Arbeit ist die detaillierte Betrachtung einer Fallstudie zur Implementierung einer zentralen Cloud-BI-Plattform in einem Energieversorgungsunternehmen. Diese Fallstudie bietet konkrete Einblicke in die Herausforderungen und Chancen, die mit der Einführung einer solchen Plattform verbunden sind. Basierend auf den Erkenntnissen aus dem theoretischen Teil und der Fallstudie wird eine Umfrage durchgeführt, um einerseits den Nutzen und die Herausforderungen von BI in der Energiewirtschaft zu identifizieren und andererseits die Wahrnehmung hinsichtlich der implementierten BI-Plattform aufzuzeigen. Diese Umfrage zielt darauf ab, eine ganzheitliche Perspektive auf den Einsatz von BI im Energiesektor zu gewinnen und Möglichkeiten zur Optimierung der BI-Strategien in Unternehmen dieses Bereichs aufzuzeigen.
Diese Arbeit beschäftigt sich damit wie Deep Neural Networks (DNN) genutzt werden können, um Videospielbewertungen auf Basis eines von Benutzer*innen geschriebenen Textes, einen Score zuzuweisen. Da es sich hierbei um von Endbenutzer*innen verfasste Bewertungen handelt, müssen für diese Arbeit einerseits Maßnahmen auf Basis von schlechter Rechtschreibung und Grammatik getroffen werden, andererseits auch derzeitige Trends wie das Review Bombing berücksichtigt werden. Um dies zu bewerkstelligen, wurde CRISP-DM als Vorgehensmodell gewählt, um die Texte mit den jeweiligen Scores zu analysieren. Ein Webcrawler wurde verwendet um Nutzerwertungen mit Text und Score von der Seite metacritic.com zu extrahieren. Diese Daten wurden dann basierend auf mehreren Faktoren gefiltert und in Trainings-, Validierungs- und Testdatensatz aufgeteilt. Alles in allem wurden insgesamt 420.000 Bewertungen für das Trainieren, Validieren und Testen der Modelle verwendet. Zwei unterschiedliche Arten von neuronalen Netzen wurden trainiert: Long-Short-Term-Memory (LSTM) und Transformer. Beide Netzwerke wurden mit leicht unterschiedlichen Testdatensätzen auf verschiedenste Parameter verglichen. Die Ergebnisse zeigen, dass Transformer LSTMs in verschiedensten Metriken entweder leicht oder sogar mit großer Signifikanz übertreffen. Weiters sind Transformer sehr viel einfacher Hardware-optimal zu trainieren, da sie für Parallelisierung konzipiert sind, was sich in den Trainingszeiten widerspiegelt.
Aufgrund der Tatsache, dass Unternehmen durch die derzeitige globale COVID-19 Pandemie verstärkt auf die Nutzung von Homeoffice angewiesen sind, gewinnen Themen wie digitaler Arbeitsplatz, Digitalisierung sowie die Automatisierung von Prozessen aktuell vermehrt an Bedeutung. Vor allem Digitalisierung gilt derzeit als globaler Megatrend in der aktuellen Geschäftswelt und wird von vielen Unternehmen als zentraler Aspekt ihrer aktuellen Strategie für die kommenden Jahre gesehen.Ziel dieser Arbeit ist es daher, näher zu beleuchten, wie die Prozessdigitalisierungden digitalen Arbeitsplatz der Zukunft beeinflusst. Hierbei ist der Bedarf nach einereinheitlichen Lösung aufgrund der Vielzahl an Prozessen und im Hinblick auf eine Reihe von Faktoren wie Sicherheit oder Compliance mittlerweile immens. Als derartige Lösung von einem der führenden Anbieter in diesem Bereich wird die aktuelle Produktpalette der Microsoft Power Platform näher erläutert. Der Fokus der Arbeit liegt darauf, zu evaluieren, in welche Richtung sich diese Plattform weiterentwickeln wird. Dabei soll auf die neuesten Entwicklungen Bezug genommen werden, insbesondere auf den verstärkten Einsatz von künstlicher Intelligenz.Mit Hilfe von Experteninterviews soll darüber hinaus herausgefunden werden, auf welche Aspekte im Rahmen der Prozessdigitalisierung besonders geachtet werden sollte. Diese Interviews sollen in Form von Leitfadeninterviews durchgeführt werden. Für den praktischen Teil wurde ein Use Case mit Hilfe der Microsoft Power Platform unter Einbeziehung modernster Technologien umgesetzt.Das Ergebnis dieser Arbeit zeigt, dass sich die im Rahmen dieser Arbeit erläuterten Bereiche enorm weiterentwickelt haben. So ist es heute für sogenannte Citizen Devoloper möglich, Prozesse in kürzester Zeit digital abzuwickeln und zu automatisieren, ohne dass dafür tiefgreifende technische Kenntnisse notwendig sind.
Die vorliegende Arbeit "Digitale Schule in Österreich - Eine Umfrage zu Digitalisierung und Digitaler Transformation im Unterricht" ist eine umfassende Analyse des aktuellen Standes, der Meinungen und der Verbreitung von Digitalisierung und Digitaler Transformation in österreichischen Schulen. Befragt werden Schüler*inne und Lehrer*innen der Sekundarstufen I und II. Untersucht wird insbesondere die Nutzung und Verbreitung neuer digitaler Lernmodelle, Plattformen und Programme. Basierend auf den Ergebnissen der Literaturrecherche werden Hypothesen gebildet und mit einem standardisierten Fragebogen abgefragt. Ziel des Fragebogens ist es, Informationen zu sammeln, um den aktuellen Stand der Digitalisierung und der Digitalen Transformation in österreichischen Schulen umfassend zu verstehen. Die Meinungen von Lehrer*innen und Schüler*innen werden im Detail analysiert. Die Ergebnisse dieser Befragung werden genutzt, um Herausforderungen, Chancen und Entwicklungspotenziale im Kontext der Digitalisierung an österreichischen Schulen zu identifizieren. Anhand quantitativer Daten wird ein umfassendes Bild der aktuellen Situation gezeichnet. Die Ergebnisse dieser Masterarbeit formulieren Optimierungspotenziale für Bildungseinrichtungen, Entscheidungsträger*innen und politische Akteur*innen und tragen damit zur Gestaltung der Zukunft der digitalen Bildungslandschaft bei. Die Ergebnisse der Masterarbeit zeigen, eine überwiegend positive Grundstimmung der Lehrer*innen und Schüler*innen gegenüber der Digitalisierung und Digitaler Transformation im Unterricht. Verbesserungspotenziale sind jedoch in einigen Bereichen erkennbar.
This master’s thesis explores product ownership within the context of software development projects, primarily focusing on identifying key personality traits essential for effective product ownership. The research question is: "What are the key personality traits associated with effective product ownership depending on the type of software development project?". Critical insights were discovered through comprehensive literature research regarding the fundamental traits that distinguish an effective product owner. This research analyzes existing personality traits and their relevance to product ownership. In addition to the widely recognized Big Five personality traits, the research identified the significance of emotional intelligence, openness to experience, conscientiousness, agreeableness, and self-efficacy, providing a holistic perspective of the multifaceted product owner role. A distinctive facet of this thesis lies in its ability to contextualize the personality traits of various software development project types. Five specific project types - custom software development, product development, legacy system modernization, maintenance, and integration projects - were identified, and the thesis explains how these projects demand distinct combinations of personality traits for success. Furthermore, this research provides the practical tool (artifact), the "Product Owner: Key Personality Traits Guideline", and it is designed to empower hiring managers, team leads, and department heads with a structured framework for evaluating the personality traits of product owner candidates and matching them with the unique requirements of their projects. This thesis contributes to the literature and practical application in the software development industry. By offering an improved understanding of the product-owner role and its various demands, this thesis provides a strategic approach to hiring and project placement, ultimately enhancing the likelihood of project success. While it achieves significant milestones, it also identifies potential for future research, including a quantitative exploration to solidify qualitative findings further. This thesis contributes towards more effective product ownership and tries to influence practices within software development.
Der Geist bestimmt die Materie (Dispenza, 2017). Diese Masterarbeit verfolgt das Ziel, eine Verbindung zwischen Technik und Wirtschaftswissenschaft sowie psychologischen und physiologischen Ansätzen herzustellen, mit einem besonderen Fokus auf die Bewusstseins- und Persönlichkeitsforschung. Kernstück der Arbeit ist die Entwicklung und Evaluierung der ATEMversum-App, einer digitalen Plattform, die darauf abzielt, emotionale Intelligenz und persönliche Entwicklung zu fördern. Unter Anwendung des Design Science Research Ansatzes wird fortlaufend relevantes Wissen generiert, das auf anerkannten wissenschaftlichen Prinzipien basiert. Die Arbeit verknüpft tiefgründige Analysen verschiedener Wissenschaftsgebiete, um ein umfassendes und holistisches Verständnis universeller, menschlicher und technologischer Dynamiken zu erlangen. Als Essenz wird Schritt für Schritt erarbeitet, wie bewusste als auch unbewusste Emotionen, Gefühle, Gedanken, Worte, Handlungen und Gewohnheiten unser Leben beeinflussen und dadurch unsere Gegenwart und Zukunft gestalten. Der theoretische Hintergrund dient als Fundament für die praktische Umsetzung in der Web-Applikation, die komplexe Konzepte in einer benutzerfreundlichen Form präsentiert. Durch die Betrachtung angesehener Forschungen in Bezug auf Human-Computer Interaction, Usability und e-Learning können benutzerzentrierte Design-Prinzipien abgeleitet werden, die für eine erfolgreiche und iterative Entwicklung bedeutend sind. Die Evaluation der App im Rahmen eines Feldexperiments zeigt, dass eine breite Zielgruppe innerhalb kurzer Zeit eine erweiterte emotionale Wahrnehmung und Bewusstseins- und Persönlichkeitsentwicklung erreichen kann. Eine Weiterentwicklung der Applikation wird als erstrebenswert erkannt. Ein zentraler Aspekt der Arbeit ist die kritische und ganzheitliche Auseinandersetzung mit der Rolle von Daten und Informationen in der digitalen Welt und deren Auswirkungen auf die Gesellschaft und Individuen. Es wird betont, wie wichtig ein verantwortungsvoller Umgang mit diesen Ressourcen innerhalb von Informationssystemen ist. Insgesamt untermauert die Arbeit die Rolle der Wirtschaftsinformatik als eine Disziplin, die technologische Fortschritte mit menschlichen Bedürfnissen und gesellschaftlichen Zielen verknüpft. Die ATEMversum-App, verfügbar unter https://atemversum.app/#/, bleibt als Plattform für kontinuierliche Anmeldungen und Weiterentwicklungen bestehen.
Diese Arbeit untersucht die Integration der Blockchain-Technologie in das Supply Chain Management (SCM). Sie gibt zunächst einen Überblick über die grundlegenden Konzepte der Blockchain, darunter digitale Signaturen, Hash-Funktionen und die allgemeine Funktionsweise von Blockchain-Systemen. Darüber hinaus werden wichtige Aspekte des SCM vorgestellt, wie Beschaffung, Produktion, Bestandsverwaltung, Logistik und Vertrieb. Die Forschung untersucht die potenziellen Vorteile von Blockchain im SCM und hebt Verbesserungen bei Transparenz, Rückverfolgbarkeit, Betrugsreduzierung, Effizienz durch Automatisierung und Smart Contracts, Kostensenkung, Transaktionsgeschwindigkeit und Anpassungsfähigkeit hervor. Die Arbeit befasst sich jedoch auch mit erheblichen Herausforderungen, da-runter Akzeptanz bei den Stakeholdern, Entwicklungs- und Betriebskosten, technische Komplexität, Systemintegration, Interoperabilität, Sicherheit, Datenschutz und regulatorische Fragen. Es wird eine empirische Studie auf der Grundlage von Experteninterviews durchgeführt, um die theoretischen Erkenntnisse mit Branchenperspektiven zu vergleichen. Das Gesamtziel besteht darin, ein umfassendes Verständnis der Vorteile und Herausforderungen der Blockchain-Integration in SCM zu vermitteln und dabei sowohl Erkenntnisse aus der Literatur als auch aus empirischen Beweisen zu nutzen.
Die rasanten technologischen Entwicklungen und die zunehmende Digitalisierung haben die Abhängigkeit von digitaler Infrastruktur drastisch intensiviert. Zusätzlich steigen die Anforderungen und gesetzlichen Verpflichtungen der Unternehmerinnen und Unternehmer, wie beispielsweise mit der Einführung der Richtlinie über Maßnahmen für ein hohes gemeinsames Cybersicherheitsniveau in der gesamten Union (NIS2) im Jahr 2024 in der Europäischen Union. Infolgedessen wird es für Unternehmen umso entscheidender, eine Möglichkeit zur Bewertung ihrer Informationssicherheit zur Verfügung zu haben, sei es zur Erfüllung gesetzlicher Anforderungen oder zur Vorbereitung auf Zertifizierungen. Die Internationale Organisation für Normung (ISO) reagierte auf die sich verändernden Anforderungen der IT-Strategie, indem sie die Norm ISO/IEC 27017 geschaffen hat, die speziell auf die Implementierung von sicherheitsrelevanten Maßnahmen im Zusammenhang mit Cloud-Computing ausgerichtet ist. Das Magellan Maturity-Model, welches bereits auf der ISO/IEC-Norm 27001 basiert, wird in dieser Masterarbeit adaptiert. Damit soll ein spezielles Modell für Cloud und Managed Services geschaffen werden. Auf Grundlage dieses Modells wird ein neues Bewertungskonzept sowohl für Managed Services als auch für Cloud-Services entwickelt, das sich anhand von ISO/IEC-Normen, Gesetzen und Richtlinien orientiert. Das Hauptziel besteht darin, den Reifegrad der genannten Services im Bereich der Informationssicherheit zu beurteilen. Die Evaluierung des Bewertungskonzepts erfolgt einerseits mittels einer Fallstudie, in der das erstellte Sicherheitskonzept anhand von Vertragsvereinbarungen geprüft wird und andererseits in der Praxis. In dieser Phase wird die Meinung von Experten eingeholt und die Ergebnisse der Fallstudie sowie das Bewertungskonzept validiert. Die Forschungsfrage kann erfolgreich mit einem Sicherheitskonzept beantwortet werden, was eine solide Grundlage für weitere Untersuchungen darstellt. Die Berücksichtigung der vier Dimensionen (Integrität, Vertraulichkeit, Verfügbarkeit und Compliance) in der Reifegradbewertung kann in zukünftigen Untersuchungen eine Verbesserung darstellen.
Die Einführung eines einheitlichen Veranstaltungsmanagement-Systems wird in Diözesen häufig außer Acht gelassen. So verfügen oftmals nur einzelne Einrichtungen über ein System, das unterschiedlich in ihrer Art und Ausprägung ist. Dahingehend ist es zielführend, dass ein einheitliches System eingeführt wird, in welches mehrere Einrichtungen eingebunden werden. Anhand dieser Problemstellung werden Methoden, wie eine umfassende Fallstudie sowie Experteninterviews, entwickelt und verwendet. Dazu wurden Interviews mit Mitarbeiter*innen durchgeführt, die von der implementierten Software betroffen sind. Das Forschungsinteresse liegt dabei auf der Analyse der Kommunikation und Zusammenarbeit unter Mitarbeiter*innen im Zusammenhang mit dem eingeführten Veranstaltungsmanagement-System. Ein zentraler Teil dieser Arbeit, die Fallstudie, ermöglicht eine detaillierte Untersuchung und Planung des Einsatzes eines Veranstaltungsmanagement-Systems in mehreren Bildungseinrichtungen. Ergänzt wird dieser zentrale Teil durch Expert*inneninterviews. Diese liefern wertvolle Einblicke aus der Perspektive der Mitarbeiter*innen. Die Forschungsfrage zielt darauf ab, inwieweit das System die Kommunikation und Zusammenarbeit unter Mitarbeiter*innen beeinflusst. Dazu wird die Fallstudie mit Expert*inneninterviews kombiniert. Daraus resultiert ein umfassendes Verständnis für die Auswirkungen des Systems auf die einzelnen Mitarbeiter*innen. Dazu wurden sechs Mitarbeiter*innen befragt, die von der Einführung betroffen waren. Mit Hilfe dieser strukturierten Untersuchung, die von einem Leitfaden gestützt wurde, konnten Informationen für die Bearbeitung der Forschungsfrage erhoben werden. Die Erkenntnisse liefern Informationen darüber, dass die Einführung des Systems nur einen geringen Einfluss auf die Kommunikation und Zusammenarbeit zwischen Mitarbeiter*innen hat. Die Gründe dafür sind die Organisationskultur und -struktur sowie der fehlende Wunsch, die Abteilungen gemeinsam zu sehen. Außerdem sind die Mitarbeiter*innen der Meinung, dass sie bereits in der Vergangenheit gut zusammengearbeitet haben und dass sich dies durch das System nicht geändert hat. Darüber hinaus besteht, aufgrund der Unterschiedlichkeit, kein Wunsch nach einem abteilungsübergreifenden Austausch.
In der heutigen Zeit sind Serviceroboter ein unverzichtbares Element in zahlreichen industriellen und gesellschaftlichen Bereichen. Ihre steigende Bedeutung ist größtenteils auf erhebliche Fortschritte in der Software-Entwicklung, wie KI-Technologien, einen Quantensprung in der Mikro-Chip-Industrie und neuartiger leistungsstarker Hardware zurückzuführen. Diese Entwicklungen eröffnen Möglichkeiten für erhöhte Autonomie und Effizienz, stellen jedoch auch eine Reihe von technischen Herausforderungen dar. Ein Schlüsselaspekt ist die Variabilität, die es ermöglicht, Roboter für eine breite Palette von Anwendungen, von Fertigungsprozessen bis hin zu Logistik und Gesundheitswesen, zu optimieren. So wertvoll diese Flexibilität auch ist, erschwert sie jedoch die Integration der Software, die der Hardware, deren Wartung, sowie die kontinuierliche Verbesserung und wirft teilweise wirtschaftliche und ethische Fragen auf. Die Masterarbeit nimmt diese vorwiegend technischen Herausforderungen ins Visier und bietet eine tiefgehende Analyse über das Feld der professionellen Servicerobotik. Sie stellt die Notwendigkeit einer durchdachten Planung, Implementierung und Integration in den Vordergrund, mit dem Ziel, die Serviceroboter in ihren jeweiligen Einsatzfeldern, anhand der eruierten Herausforderungen, so reibungslos als möglich zu integrieren. Neben dem Hauptaugenmerk auf die technischen Aspekte betrachtet die Arbeit auch einige soziale und ethische Fragen, die durch die zunehmende Integration von Servicerobotern in menschliche Umgebungen entstehen. Hierzu zählen insbesondere Software, Hardware, das menschliche Wohlbefinden und die Verantwortung im Umgang mit Daten. Diese Herausforderungen und möglichen Lösungen werden anhand einer systematischen Literaturrecherche nach vom Brocke et al. ermittelt. Die Forschung hat eine Vielzahl von Herausforderungen und Lösungen aufgezeigt, wobei der Schwerpunkt hauptsächlich auf technischen Problemen lag. Es gelang, einige Hypothesen zu bestätigen und andere zu widerlegen, was zur Beantwortung der Forschungsfragen beitrug. Zudem wurde ein deutlicher Trend hin zu einem vermehrten Interesse im Bereich der Servicerobotik erkennbar. Insgesamt bietet die Arbeit einen umfassenden Überblick über die komplexen Anforderungen, die die Implementierung und Integration von Servicerobotern mit sich bringt. Die Studie der Masterarbeit dient als wertvolle Ressource für diejenigen, die in der Planung, Entwicklung und Implementierung von Servicerobotern tätig sind und gibt einen fundierten Einblick in die aktuellen und zukünftigen Herausforderungen dieses dynamischen und schnell wachsenden Feldes.
Die vorliegende Arbeit untersucht die Integration von erweiterten Realitäts- (Extended Reality, XR) Technologien im Anlagenbau und bietet eine detaillierte Erkundung von XR sowie deren Anwendung in diesem spezifischen Bereich. Die Einleitung skizziert den Hintergrund der Forschung, die Bedeutung des Themas und das Ziel, den Einfluss von XR auf den Anlagenbau zu untersuchen. Anschließend wird die XR-Landschaft untersucht, einschließlich Virtual Reality (VR), Augmented Reality (AR) und Mixed Reality (MR), wobei ihre Anwendungen und Hardwarekomponenten erläutert werden. Um Herausforderungen im Zusammenhang mit XR zu bewältigen, werden in der Arbeit Probleme wie Cybersickness und Augenbelastung erörtert, wobei Einblicke aus der bestehenden Literatur geboten werden. Im Kontext des Anlagenbaus wird die Rolle von XR in verschiedenen Aspekten untersucht, von Prozessdiagrammen bis zu digitalen Zwillingen. Der Abschnitt zur Methodik erläutert Experteninterviews, wobei Auswahlkriterien und der Rahmen für Datensammlung und -analyse erklärt werden. Die Arbeit schließt mit einer Diskussion der Interviewergebnisse ab, in der Expertenperspektiven zur Akzeptanz, Wirksamkeit und Umsetzungsherausforderungen von XR analysiert werden. Die Diskussion integriert die Ergebnisse in den theoretischen Rahmen, erforscht Implikationen für den Anlagenbau und würdigt Stärken und Grenzen der Studie. Zusammenfassend liefert diese Forschung ein nuanciertes Verständnis von XR-Technologien und ihrer spezifischen Relevanz im Anlagenbau, bietet wertvolle Erkenntnisse für zukünftige Forschung und industrielle Anwendungen.
Angesichts der fortschreitenden Digitalisierung und der stetige Anstieg von Informationstechnologien, gewinnt der Einsatz von Künstlicher Intelligenz im Human Resource Bereich zunehmend an Bedeutung. Unternehmen suchen ständig nach Möglichkeiten, ihre HR-Prozesse zu optimieren und den Herausforderungen des Arbeitsmarktes gerecht zu werden. Durch die Integration von KI-Anwendungen sollen zahlreiche HR-Aufgaben effizienter und genauer gestaltet werden, was Zeit und Ressourceneinspart. Das Ziel dieser Masterarbeit ist es, einen umfassenden Überblick über den derzeitigen Stand der Technologie im Bereich Künstlicher Intelligenz im Human Resources Bereich zu geben. Dabei soll aufgezeigt werden, welche KI-unterstutzten Technologien zurzeit am Markt verfügbar sind und welche weitreichenden Auswirkungen diese auf verschiedenste Teilbereiche eines Unternehmens haben können, von der Personalbeschaffung über die Mitarbeiterentwicklung bis hin zur Leistungsbeurteilung und Automatisierung administrativer Aufgaben. Um dieses Ziel zu erreichen, wurde eine systematische Literaturrecherche durchgeführt, um fundierte Übersichten und detaillierte Informationen zu diesem Thema zu sammeln. Die Literaturrecherche umfasste drei verschiedene Literaturdatenbanken, um eine möglichst breite und repräsentative Basis zu schaffen. Durch diese Literaturrecherche wurden relevante Informationen und Daten gesammelt, die es ermöglichten, fundierte Hypothesen zu formulieren. Diese Hypothesen wurden im Rahmen dieser Literaturanalyse eingehend untersucht, um verlässliche Rückschlüsse auf den Einsatz und die Wirksamkeit von KI in Personalabteilungen zu ziehen.
Diese Masterarbeit erforscht die Integration künstlicher Intelligenz (KI) in die DevOps- und ITOps-Prozesse. Durch eine systematische Literaturübersicht wurden insgesamt 75 relevante Arbeiten in verschiedenen Bereichen eingehend untersucht, darunter Chancen, Herausforderungen und die verschiedenen Arten von künstlicher Intelligenz, die genutzt werden. Der Hauptfokus dieser Forschung liegt darin, eine Abbildung zu erstellen, die potenzielle KI-Integrationen innerhalb des DevOps-Prozesses aufzeigt. Zahlreiche Studien zu KI und Software- oder Betriebssystemen lösen unbeabsichtigt verschiedene Probleme in verschiedenen Phasen von DevOps. Diese Studie fasst eine bedeutende Anzahl wissenschaftlicher Arbeiten zusammen, die diese Phasen unterstützen, und fasst ihre Methoden zusammen. Dieser Ansatz bietet einen Überblick über die Unterstützung von KI für DevOps und die damit verbundenen Herausforderungen. Darüber hinaus listet diese Arbeit die häufig erwähnten Vorteile der KI-Integration sowie die verschiedenen KPIs und Metriken auf, die zur Messung des Erfolgs der KI-Methode oder der Integration selbst verwendet werden. Diese Arbeit hebt die Bedeutung hervor, zu verstehen, wie KI in DevOps und ITOps passt. Nach der Betrachtung verschiedener Studien ist klar, dass KI die Arbeitsweise dieser Prozesse erheblich verbessern kann, indem sie sie schneller und genauer macht. Die Forschung schlägt einen ganzheitlichen Ansatz vor, der nicht nur die positiven und herausfordernden Aspekte zeigt, sondern auch Möglichkeiten aufzeigt, KI in DevOps und ITOps einzusetzen und zu messen, wie gut sie funktioniert. Alle diese Ergebnisse zielen darauf ab, einen Leitfaden zu erstellen, der Fachleuten und Unternehmen dabei hilft, KI in diesem Prozessen klug und effektiv zu nutzen.
Ein User-Interface ist das zentrale Element eines jeden Systems und entscheidet über dessen Effektivität und wahrgenommene Qualität. Umso wichtiger ist daher die frühe Einbindung der Nutzer*innen bei der Entwicklung von Bedienoberflächen (Mohammed & Karagozlu, 2021; Sridevi, 2014). Die im ISO-Standard ISO 9241-210:2019 beschriebenen Prinzipien und Aktivitäten des sogenannten User-Centered-Design (UCD) Ansatzes bieten hierfür den Grundstein (ISO, 2023). Ziel dieser Arbeit ist es nun, das Potential von künstlicher Intelligenz im User-Centered-Design und im Speziellen für die Prototypenerstellung zu ermitteln. Dabei liegt der Fokus auf den sogenannten interaktiven Prototypen, welche eine Interaktion mit den Benutzern*Benutzerinnen ermöglichen (Arnowitz, 2010). Dazu wurde zu Beginn eine Literaturrecherche zu den Themen künstliche Intelligenz und User-Interface-Design vorgenommen, um eine Wissensgrundlage zu schaffen. Darauf aufbauend wurden dann die einzelnen Schritte des User-Centered-Design Prozesses und die dazugehörigen Einsatzmöglichkeiten von künstlicher Intelligenz untersucht. Im darauffolgenden praktischen Teil der Arbeit wurde eine Technologieakzeptanzstudie nach dem Modell der Unified Theory of Acceptance and Use of Technology (UTAUT) nach Venkatesh et al. (2003) in Form einer Onlineumfrage durchgeführt. Die Erkenntnisse aus der Onlineumfrage zeigen, dass sowohl die Leistungserwartung, die Aufwandserwartung, die sozialen Einflüsse als auch die erleichternden Bedingungen der Teilnehmer*innen miteinander korrelieren, aber einzig und allein die sozialen Einflüsse einen signifikant positiven Einfluss auf die Verhaltensabsicht und infolgedessen auch auf das Nutzungsverhalten von Personen haben. Im Zuge der Umfrage gab die Mehrheit der Teilnehmer*innen an, dass sie positive Erwartungen an die Leistung und den Aufwand der Nutzung von künstlicher Intelligenz zur Erstellung von interaktiven Prototypen hat. Die sozialen Einflüsse und erleichternden Umstände wurden genauso wie die Verhaltensabsicht eher neutral, aber mit positiven Tendenzen bewertet. Eine weiterführende Forschung im Bereich der Wirtschaftsinformatik könnte daher in Form einer qualitative Forschung durchgeführt werden, beispielsweise durch User-Tests unter überwachten Bedingungen. Dabei könnte das Verhalten der Benutzer*innen während der Interaktion mit der künstlichen Intelligenz beobachtet werden, um tiefere Einblicke zu gewinnen und die Ergebnisse vergleichbar zu machen.
Die Verbreitung von ChatGPT (Generative Pre-trained Transformer) und dessen Integration in verschiedene Bereiche unseres täglichen Lebens, hat umfangreiche Diskussionen über dessen Auswirkungen ausgelöst. Die Masterarbeit stellt eine umfassende Analyse dessozialen Diskurses im Kontext der generativen Künstlichen Intelligenz (KI), insbesondere von ChatGPT dar. Mit einer detaillierten empirischen Erhebung werden die vielfältigen Meinungen, Bedenken und Einschätzungen von Individuen zu diesem Thema eingehend untersucht. Das Ziel der Arbeit besteht darin, ein umfassendes Verständnis für die verschiedenen Perspektiven und potenziellen Auswirkungen von generativer KI auf die Gesellschaft zu erlangen. Besondere Aufmerksamkeit wird auf das Thema der Akzeptanz, sowie den potenziellen Auswirkungen von generativer KI auf sozialen, wirtschaftlichen und ethischen Kontexten gerichtet. Die Q-Methode wird genutzt, um die subjektiven Sichtweisen der Teilnehmenden zu ermitteln. Dadurch konnten drei Meinungs-Typen definiert werden: „die Bildungsinnovatorin“, „der/die Bewahrer*in der Gesellschaftswerte“ und „der technologische Realist“. Die Ergebnisse der Studie liefern wichtige Einblicke in die Vielfalt der Standpunkte und zeigen auf, wie die Öffentlichkeit auf die rasante Entwicklung von KI reagiert. Diese Erkenntnisse sind von großer Relevanz für Entscheidungsträger*innen in Politik, Wirtschaft und Technologie, da sie dazu beitragen, die Chancen und Herausforderungen von generativer KI besser zu verstehen, um fundierte Entscheidungen zu treffen. Die Masterarbeit reflektiert nicht nur die aktuelle Debatte über KI, sondern regt auch dazu an, die gesellschaftlichen Auswirkungen dieser Technologien kritisch zu hinterfragen, weiter zu erforschen und in anhaltenden Diskussionen zu vertiefen, um eine nachhaltige und ethisch verantwortungsvolle Integration von KI in die Gesellschaft zu fördern.
In diesem Beitrag wird die Rolle von Künstlicher Intelligenz (kurz KI) bei der Erlangung von IT-Sicherheitszertifizierungen untersucht. In einer zunehmend digitalisierten Welt sind Unternehmen verschiedenster Branchen auf die Implementierung effektiver Sicherheitsmaßnahmen angewiesen, um ihre Daten und Systeme vor Bedrohungen (wie zum Beispiel Hacker) zu schützen. Diese Arbeit beleuchtet, wie KI-Technologien in verschiedenen Phasen des Zertifizierungsprozesses eingesetzt werden können. Dazu gehören die Identifizierung von Sicherheitsrisiken durch die Analyse der Beschreibung von Unternehmen, die Entwicklung und Umsetzung von Sicherheitsrichtlinien sowie die Definition neuer Prozesse und Verfahren, um die Sicherheit von Unternehmen zu gewährleisten. Diese Arbeit gibt einen Überblick über die Potenziale und Herausforderungen, die mit dem Einsatz von KI im Rahmen der IT-Sicherheitszertifizierung verbunden sind, und zeigt auf, wie Organisationen ihre Sicherheitspraktiken durch intelligente Technologien optimieren können. Zu diesem Thema wurden Experten interviewt, die mit künstlicher Intelligenz bereits Erfahrung sammeln konnten und mit den Antworten der KI gegenübergestellt. Durch die Integration von KI in den Zertifizierungsprozess können Unternehmen nicht nur die Effizienz ihrer Sicherheitsbemühungen in Form von Analyse von Sicherheitslücken steigern, sondern auch dazu beitragen, die Einhaltung von Sicherheitsstandards und -richtlinien zu gewährleisten. Die KI hat aber zum jetzigen Zeitpunkt noch einige Mängel, die es gilt in Zukunft anzupassen respektive mit Trainingsdaten zu IT-Security Standards zu versehen, um so eine Künstliche Intelligenz zu schaffen, die wie ein Experte auf diesem Gebiet handeln kann. Ein Nebenprodukt dieser Arbeit ist eine - anhand der Experteninterviews - erstellte Prozesskarte zur Zertifizierung und Rezertifizierung von Sicherheitszertifikaten und -standards.
Die vorliegende Masterarbeit widmet sich der Implementierung künstlicher Intelligenz (KI) im Bearbeitungsprozess von Serviceanfragen im Kundensupport. Dabei wird der Design Science Research Ansatz als Forschungsmethode verwendet, um eine effektive Gestaltung und Umsetzung der KI-Integration zu gewährleisten. Zu Beginn der Arbeit wird der Design Science Research Ansatz eingehend erläutert. Dieser methodische Rahmen ermöglicht die Entwicklung und Evaluation von artefaktbasierten Lösungen, in diesem Fall die Implementierung von KI im Kundensupport. Es werden Designziele definiert und eine iterative Vorgehensweise skizziert, die die praxisnahe Anwendung von Forschungsergebnissen gewährleistet. Im Anschluss bezieht sich der Fokus auf das Incident Management im Kundensupport. Es erfolgt eine detaillierte Analyse des bestehenden Prozesses, um Herausforderungen zu identifizieren, die durch KI gelöst werden können. Der Schwerpunkt liegt auf der Automatisierung von Routinetätigkeiten, der schnellen Klassifizierung von Anfragen und der Verbesserung der Wissensbasis. Abgeschlossen werden die Grundlagen mit dem Thema künstliche Intelligenz. Verschiedene KI-Technologien wie Supervised Learning und der KNN-Algorithmus werden erläutert, um eine fundierte Basis für die spätere Implementierung zu schaffen. Das vierte Kapitel widmet sich einer empirischen Studie zur Evaluation der implementierten KI im Kundensupport. Hierbei wird die ausgewählte KI-Technologie in der Praxis getestet, und die Ergebnisse werden auf ihre Wirksamkeit und Effizienz hin analysiert. Die Erkenntnisse aus der empirischen Studie fließen in die abschließende Reflexion und Handlungsempfehlungen für zukünftige Implementierungen im Kundensupport ein. Eine Schlussfolgerung bzw. der Ausblick schließen diese Arbeit ab.
Die Erstellung von Softwareangeboten birgt zahlreiche Herausforderungen. Darunter fallen insbesondere die möglichst akkurate und vollständige Spezifikation der zu entwickelnden Softwarelösung und die gleichzeitige Sicherstellung einer effektiven und verständlichen Kommunikation mit Auftraggeber*innen. Die Kosten für die Erstellung eines Angebots werden in der Regel erst von der erfolgreichen Projektakquise gedeckt. Ansonsten müssen die angefallenen Kosten für die Angebotserstellung von anderen Projekten aufgefangen werden. Dies setzt Auftragnehmer*innen einem erheblichen wirtschaftlichen Druck aus, der eine effiziente Arbeitsweise notwendig macht. Mit der kombinierten Anwendung von User Stories und künstlicher Intelligenz soll die Angebotserstellung optimiert werden. Im Rahmen dieser Arbeit wird der Stand der Technik für natürliche Sprachverarbeitung näher beleuchtet und wie diese zusammen mit User Stories funktionieren kann. Das Unternehmen ireo GmbH liefert mit seiner in Bälde marktreifen SaaS-Webapplikation Storywise einen Lösungsansatz, um die aufgedeckten theoretischen Potenziale von natürlicher Sprachverarbeitung zusammen mit leichtgewichtigen und verständlichen User Stories in die Praxis überzuführen. Die Applikation Storywise wird daher im Rahmen dieser Arbeit von Expert*innen und potenziellen Anwender*innen aus dem Bereich Projektmanagement, Requirements Engineering und Softwareentwicklung getestet und evaluiert, wobei leitfadengestützte Expert*inneninterviews und eine qualitative Inhaltsanalyse nach Kuckartz und Rädiker zur Anwendung kommen. Das Ziel dieser Arbeit war die Einordnung der Praktikabilität der Applikation und insbesondere der KI-generierten Inhalte für die Aufgaben und Anforderungen des Angebotsprozesses aus Sicht der Expert*innen. Weiters sollten sowohl potenzielle Anwendungsfelder für Storywise als auch Vor- und Nachteile gegenüber bestehenden Werkzeugen und mögliche Verbesserungsmöglichkeiten identifiziert werden. Die Ergebnisse zeigen, dass besonders das Grundgerüst einer Spezifikation durch den Einsatz von KI deutlich schneller erstellt werden kann. Das Generieren und Strukturieren von Anforderungen wurde als größter Benefit wahrgenommen, auch die Art der Integration der KI in eine Applikation sowie die Kompatibilität zu Systemen nachgelagerter Prozesse wie Jira sind wichtig für den Erhalt der gewonnenen Effizienzvorteile. Insgesamt ist ein überzeugender Fit des Tools auf den Angebotsprozess gegeben – wenngleich im ersten Schritt primär für kleine bis mittelgroße Projekte. Als größte Herausforderung für die Akzeptanz ist der Datenschutz zu nennen, d.h. um auch wirklich von Unternehmen angenommen zu werden, müssen das verwendete Large Language Model, der Speicherort und die Verarbeitung sowohl DSGVO- als auch Unternehmensrichtlinien erfüllen und vertrauenswürdig sein.
Durch den demographischen Wandel werden Arbeitskräfte immer begehrter und es kommt zum sogenannten War for Talents. Unternehmen stehen vor der Herausforderung, aus einem kleiner werdenden Pool an potenziellen Arbeitskräften ihre Stellen zu besetzen und diese Personen bestenfalls langjährig im Unternehmen zu halten. Speziell in der IT-Branche herrscht ein Mangel an Arbeitskräften. Aus diesem Grund befasst sich diese Arbeit mit den Bedürfnissen der aktuell jüngsten Generation in der Arbeitswelt – der Generation Z. Geboren zwischen 1995 und 2010 wird jener ein Wertesystem zugeschrieben, das sich von dem der vorherigen Generation unterscheidet. Unternehmen und insbesondere Führungskräfte müssen sich diesen neuen Bedürfnissen stellen und auf diese eingehen. Das Hauptziel dieser Arbeit ist es, Handlungsempfehlungen für Führungskräfte der Generation Z zu erstellen und geht auf folgende Frage ein „Welche Handlungen sind für Führungskräfte geeignet, um die Begeisterung und Zufriedenheit von Personen der Generation Z in einem österreichischen IT-Unternehmen zu steigern?“ Dazu wurde mithilfe einer Literaturrecherche zuerst eine Basis gebildet. Im ersten Teil der Arbeit wurde das Thema Führung behandelt. Darauf wurde ein Überblick über die Generationen geschaffen sowie das Thema der Mitarbeiterbindung untersucht. Anhand dieser theoretischen Basis wurde im empirischen Teil ein Fragebogen entwickelt. Die erhobenen Daten wurden schließlich analysiert, um daraus Erkenntnisse zu gewinnen. Anhand Letzterer konnten Handlungsempfehlungen für Führungskräfte abgeleitet werden. Zusammengefasst lässt sich festhalten, dass Führungskräfte teilweise den Stellenwert gewisser Aspekte in Bezug auf Arbeitszufriedenheit und Begeisterung für die Arbeit anders einschätzen als die Generation Z.
In der heutigen Zeit wird Wissen als wichtiger Wettbewerbsvorteil für Unternehmen betrachtet. Die Aufnahme von Wissensmanagement als zentraler Bestandteil in die ISO9001 in der Revision 2015 unterstreicht ebenfalls seine Bedeutung. Wissen ist zu bestimmen, aufrechtzuerhalten und im erforderlichen Umfang zur Verfügung zu stellen. Dennoch ist es keineswegs selbstverständlich, dass alle Mitarbeitenden aktiv am Wissensmanagement-Prozess teilnehmen. Um als Unternehmen wettbewerbsfähig zu bleiben ist es daher von entscheidender Bedeutung, alle Mitarbeitenden zum Thema Wissen und Wissensmanagement bestmöglich zu informieren beziehungsweise zu motivieren. Heutzutage ist Wissensmanagement für ein Unternehmen kein „nice to have“ mehr, sondern eine Notwendigkeit, um wettbewerbsfähig zu bleiben. Im theoretischen Teil dieser Arbeit werden die Grundlagen des Wissensmanagements sowie eine Bewertungsmethode für Informationssysteme erläutert. Darauf aufbauend wird eine Matrix entwickelt, um relevante wissenschaftliche Quellen zu erfassen und mögliche Lücken oder Überschneidungen zu identifizieren, welche für den Bereich Gamification relevant sind. Im empirischen Teil wird eine umfangreiche Datenerhebung durchgeführt, bei der Mitarbeitende verschiedener Unternehmen zu den Themen Wissensmanagement, Gamification und Einsatz von Gamification-Elementen auf Wissensmanagement-Plattformen befragt werden. Die Auswertung und Interpretation der erhobenen Daten liefert Erkenntnisse über die Wahrnehmung von Wissensmanagement, Motivation und Nutzung von Wissensmanagement-Plattformen. Das Ziel besteht darin zu untersuchen, inwieweit der Einsatz von Gamification-Elementen auf Wissensmanagement-Plattformen die Motivation zur Nutzung, Suchte und Weitergabe von Informationen beeinflussen kann. Die Ergebnisse der Arbeit bieten wertvolle Informationen für Unternehmen, die ihr Wissensmanagement verbessern wollen. Darüber hinaus werden weitere Forschungsmöglichkeiten aufgezeigt, um die Themen Gamification und Wissensmanagement umfassender zu erforschen und Erkenntnisse auf diesem Bereich zu erweitern.
Das Vertrauen von Konsumentinnen und Konsumenten in Produktkennzeichnungen von Lebensmitteln nimmt aufgrund der steigenden Anzahl von Betrugsfällen und irreführenden Kennzeichnungen kontinuierlich ab. Gleichzeitig sind Konsumentinnen und Konsumenten mit der Anzahl an Kennzeichnungen überfordert. Das Interesse in Blockchain-Technologien ist in den letzten Jahren gestiegen. Auch abseits des Finanzsektors finden sich immer mehr mögliche Einsatzszenarien dieser Technologie. Diese Forschungsarbeit beschäftigt sich mit dem Einsatz der Blockchain-Technologie im Lebensmittelsektor. Geprüft wird das Interesse an einem System, das es Konsumentinnen und Konsumenten erlaubt, die Herkunft der Rohzutaten sowie Details zu einzelnen Produktionsschritten von Lebensmitteln auf einer öffentlichen Blockchain selbst zu prüfen. Nach einer Literaturanalyse wird in dieser Arbeit ein Technologie-Akzeptanzmodell auf Basis der ‚Unified Theory of Acceptance and Use of Technology‘ vorgeschlagen. Dieses Akzeptanzmodell wird mittels einer Umfrage mit österreichischen Konsumentinnen und Konsumenten validiert, bevor ein finales Akzeptanzmodell präsentiert wird. Im Rahmen dieser Arbeit konnte bestätigt werden, dass Konsumentinnen und Konsumenten wenig Vertrauen in aktuelle Produktkennzeichnungen haben. Es besteht ein starkes Interesse an einer unabhängigen Lösung zur Prüfung von Lebensmitteln. Über Blockchain-Technologien haben Konsumentinnen und Konsumenten jedoch wenig Wissen. Dies hat zur Folge, dass das vorgestellte System nicht zwangsweise auf dieser Technologie basieren muss, um akzeptiert zu werden. Zukünftige Forschungsarbeiten sollten sich damit beschäftigen, wie die Vorteile dieser Technologie geeignet kommuniziert werden können, um die Nutzungsabsicht weiter zu steigern und dadurch das Vertrauen in die Lebensmittelindustrie zurückzugewinnen.
In den letzten zehn Jahren ist der Bargeldanteil an den Transaktionen in Österreich um 30 Prozentpunkte gesunken. Obwohl Bargeld bis heute das wichtigste Zahlungsmittel ist, gehen Experten davon aus, dass der Bargeldanteil weiter sinken wird. Dieser Trend ist in anderen Ländern bereits zu beobachten. In einer Gesellschaft, in der Bargeld zunehmend an Bedeutung verliert, sind Person-to-Person (P2P) Zahlungssysteme Dienstleistungen mit großem Wachstumspotenzial. In Österreich erreichen P2P-Zahlungssysteme bisher nur eine geringe Akzeptanz. Ziel dieser Studie ist es, Faktoren zu ermitteln, welche die Technologieakzeptanz von P2P-Zahlungssystemen bei der österreichischen Bevölkerung beeinflussen. Um dieses Ziel zu erreichen, bildeten verschiedene Technologieakzeptanzmodelle wie TAM und UTAUT einen theoretischen Rahmen. Diese Modelle wurden um mehrere Faktoren erweitert, von denen angenommen wird, dass sie die Akzeptanz von P2P-Zahlungssystemen beeinflussen. Um die Wirkung der Faktoren zu bestätigen, wurden mit Hilfe eines quantitativen Forschungsansatzes Daten gesammelt (n=157), die anschließend mit der Spearman-Korrelationsanalyse analysiert wurden. Die Ergebnisse zeigen, dass die wahrgenommene Nützlichkeit und das Vertrauen zwei Schlüsselfaktoren sind, die die Intention, P2P-Zahlungssysteme zu nutzen, positiv beeinflussen. Das wahrgenommene Risiko beeinflusst die Nutzungsabsicht indirekt, da es stark negativ mit dem Vertrauen korreliert. Der soziale Einfluss und die persönliche Innovationskraft sind weitere Faktoren, die ebenfalls eine wichtige Rolle spielen. Darüber hinaus ist der positive Effekt der wahrgenommenen Benutzerfreundlichkeit nicht so stark, wie in der Literatur beschrieben. Die Hersteller von P2P-Zahlungssystemen sollten sich daher im Rahmen ihrer Kommunikationsstrategie auf die Verbesserung der wahrgenommenen Nützlichkeit konzentrieren und Mechanismen zur Stärkung des Vertrauens und zur Verringerung der Risikowahrnehmung schaffen.
Testen von Softwareapplikationen gehört zu einem wesentlichen Bestandteil des Qualitätssicherungsprozesses und muss im agilen Ansatz der Softwareentwicklung laufend durchgeführt werden. Mithilfe des Konzepts von Test Driven Development kann die Testfall- und Anforderungsspezifikation verschmolzen werden, da der Testfall vor der Entwicklungsphase definiert wird und die Entwicklung erst mit positiver Absolvierung des Testfalls abgeschlossen ist. Dadurch können Zeit und Kosten minimiert werden. Ziel dieser Arbeit ist die Entwicklung einer Anwendung, mit deren Hilfe End-to-End Tests für Webanwendungen vor der Implementierung erstellt und automatisiert ausgeführt werden können. Das entwickelte Softwarekonzept soll den Ansatz von Test Driven Development ermöglichen und die Testfallerstellung in textueller Form ohne technischen
Hintergrundwissen ermöglichen. Weiters soll das Testkonzept prototypisch realisiert und die erzielten Erfahrungen aus einem Referenzprojekt dokumentiert werden.Im ersten Schritt erhält der Leser Einblick über die Konzepte von Test Driven Development und Behavior Test Driven. Weiters werden die Möglichkeiten der Testautomatisierung für Webanwendungen erläutert und die gängigen verfügbaren Frameworks analysiert und bewertet. Anschließend wird ein Konzept für die Testfallerstellung und Testausführung entworfen, welches in einem Prototypen realisiert wird. Die resultierenden Erfahrungen aus dem Einsatz des Prototypen in einem Referenzprojekt sollen dazu
dienen, um auf den Nutzen des Testkonzepts zu schließen. Das Ergebnis der Arbeit zeigt, dass das entwickelte Konzept eine Testfallerstellung auch ohne technischen Hintergrundwissen ermöglicht und so von Personen mit Prozesswissen erfolgen kann. Der Ansatz von Test Driven Development kann mit dem Prototypen gezeigt werden. Im eingesetzten Projekt kann anhand der positiv ausgeführten Testfälle mit fortlaufender Zeit ein positiver Trend und Beitrag zur Qualitätssteigerung identifiziert werden. Die vorliegende Arbeit lässt schlussfolgern, dass der Prototyp für die Erstellung von automatisierten Testfällen nach dem Ansatz Test Driven Development eingesetzt werden kann. Wenngleich im eingesetzten Referenzprojekt nur wenige Testfälle erstellt wurden, kann von einem positiven Trend im Zuge des Einsatz gesprochen werden.
In der heutigen Arbeitswelt bietet die Informationstechnologie viele Vorteile, aber auch erhebliche Risiken für Unternehmen. Mit der zunehmenden Veränderung der Arbeitsweise in unserer Gesellschaft hat sich Telearbeit zu einem wichtigen Bestandteil des Arbeitslebens entwickelt. Die COVID-19-Pandemie hat die Bedeutung von Telearbeit weiter unterstrichen, da es für viele Unternehmen die einzige Möglichkeit war, ihre Existenz zu sichern. Es wird erwartet, dass Telearbeit auch nach der Pandemie ein wichtiger Bestandteil des Arbeitslebens bleiben wird. Allerdings ist die Tatsache, dass immer mehr Mitarbeiterinnen und Mitarbeiter von verschiedenen Orten aus arbeiten, auch eine Einladung für Cyberkriminelle. Diese versuchen auf verschiedene Weise und über verschiedene Kanäle, auf die Geräte von Telearbeitern zuzugreifen und Unternehmen zu schädigen. Daher ist das Ziel dieser Masterarbeit, Unternehmen dabei zu unterstützen, sich gegen solche Cyberangriffe zu schützen. Zur Erreichung dieses Ziels wird eine systematische Literaturrecherche durchgeführt, um Informationen zum Thema Cybersecurity in der Telearbeit aus verschiedenen Literaturdatenbanken zu sammeln. Diese Informationen werden sortiert und interpretiert, um eine Handlungsempfehlung bezüglich Sicherheitsmaßnahmen bei der Telearbeit zu erstellen. Diese Empfehlungen werden anhand eines Kano-Modells dargestellt, das die Maßnahmen nach ihrem Grad der momentanen Umsetzung und nach ihrem Grad der Notwendigkeit in verschiedenen Kategorien einordnet. Sie zielen darauf ab, Unternehmen dabei zu helfen, ihre Sicherheitsmaßnahmen zu verbessern und sich besser gegen Cyberangriffe zu schützen. Es ist wichtig, dass Unternehmen sich bewusst sind, dass sie ein Ziel für Cyberkriminelle sind und dass sie aktiv Maßnahmen ergreifen müssen, um ihre Daten und Kunden zu schützen.
Durch die immer stärkere Vernetzung der Devices, die sinkenden Preise der intelligenten Sensorik und die Möglichkeit, große Datenmengen in Echtzeit zu analysieren, werden neue Technologien wie Predictive Maintenance Services immer häufiger eingesetzt. Durch Predictive Maintenance sollen die Wartungstätigkeiten zum richtigen Zeitpunkt und in richtiger Qualität durchgeführt werden, wodurch die Wartungskosten reduziert werden sollen. Eine weitere wichtiger Veränderung ist die Tertiarisierung, welche den Wandel von der Industrie- zur Dienstleistungsgesellschaft beschreibt. In der Entwicklung von Dienstleistungen spielt die Kundenintegration und deren Know-How eine wichtige Rolle. Die Kunden und Kundinnen sollen durch verschiedene Methoden in den Entwicklungsprozess von Predictive Maintenance Dienstleistung in der Logistikbranche integriert werden.
Um das Ziel die Einflussfaktoren einer Predictive Maintenance Dienstleistung in der Logistikbranche, welche durch die eingesetzten Methoden veränderbar sind, zu identifizieren, wurden im ersten Schritt Hypothesen auf Basis der Theorie erarbeitet. Anschließend wurden die Hypothesen durch zehn Interviews der Key-Kunden der SSI Schäfer IT Solutions verifiziert.
Die wichtigste Erkenntnis der Arbeit ist es, dass alle Methoden der Kundenintegration gut geplant und durchgeführt werden müssen, da ansonsten ein negativer Effekt entstehen kann. Je nach Methode müssen andere wichtige Kriterien, wie die Auswahl der Kunden und Kundinnen oder die Zieldefinition im Vorfeld gut überlegt und durchgeführt sein. Durch gute Kundenintegration kann die Qualität der Dienstleistung bei der Entwicklung aber auch kontinuierlich verbessert und die Offenheit der Kunden und Kundinnen gesteigert werden.
Mit der durchgeführten Arbeit und den resultierenden Ergebnissen kann in weiterer Folge die Kundenintegration bei der Entwicklung eines Predictive Maintenance Service für die Logistikbranche effizienter durchgeführt werden.
Evaluierung der Auswirkung eines agilen Organisationsmodells auf IT-Unternehmen am Beispiel Scrum
(2023)
Diese Masterarbeit beschäftigt sich mit agiler Arbeitsmethodik im Kontext der Softwareentwicklung. Unternehmen im Bereich der IT-Branche sind mit einer Vielzahl von organisationalen Herausforderungen konfrontiert, welche sich durch die hohe Komplexität der Projekte ergeben. Diese Herausforderungen werden anhand von Faktoren wie der standortverteilten Softwareentwicklung verstärkt und resultieren letztendlich in großen Raten von Misserfolgen. Sie beziehen sich direkt auf das Projektmanagement und den hierfür verwendeten Prozess. Das agile Vorgehensmodell Scrum erfreut sich durch seine transparente und einfache Charakteristik immer größerer Beliebtheit und soll die auftretenden organisationalen Probleme im Prozess der Softwareentwicklung verringern. Das Ziel der vorliegenden Arbeit ist es, die Einflüsse des Scrum-Vorgehensmodells auf organisationale Herausforderungen von IT-Betrieben auszuwerten. Um dies zu erreichen, wird ein Anforderungskatalog an ein Vorgehensmodell basierend auf organisationalen Problemen der IT-Branche erstellt, welcher die Grundlage für einen Fragebogen zur Evaluierung der Scrum-Vorgehensmethodik in der Softwareentwicklung darstellt. Durch die erhobenen 76 Antworten lassen sich Aussagen zu dem allgemeinen Ausmaß dieser Herausforderungen, Zusammenhänge zwischen verschiedenen Problembereichen und Veränderungen der Situation beim Wechsel von einer anderen Vorgehensmethodik auf Scrum treffen. Es lässt sich festhalten, dass die Verwendung von Scrum im Allgemeinen eine effektive Herangehensweise zur Bewältigung dieser Herausforderungen ist. Der erstellte Anforderungskatalog kann von Unternehmen verwendet werden, um, unabhängig vom jeweils verwendeten Vorgehensmodell, das Ausmaß ihrer Herausforderungen zu ermitteln. Ebenso kann weiterführende Forschung durch eine wissenschaftliche Evaluierung anderer Vorgehensmodelle, eine Erweiterung der Problembereiche sowie einer Erkundung von Methoden zur Minimierung dieser Herausforderungen, betrieben werden.
Blockchains wurden besonders in den letzten Jahren sehr populär und der Zugang um diese zu Nutzen wurde auch sehr einfach. Aufgrund dieser Entwicklungen wurden viele neue Anwendungsgebiete geschaffen. Die meisten Menschen assoziieren Blockchains mit Kryptowährungen, allerdings gibt es noch weitere Bereiche, die diese Technologie nutzen. Beispiele hierfür sind der Gesundheits- oder der Energiesektor. Immer mehr Unternehmen überprüfen, wie sie diese Technologie ebenfalls nutzen können, um davon zu profitieren und Prozesse zu verbessern. Ein Anwendungsfall, der in dieser Arbeit behandelt wird, ist das Dokumentieren von Dokumenten, Verträgen und Vereinbarungen zwischen Mitarbeiterinnen oder Mitarbeitern und dem Unternehmen. Das Ziel dieser Masterarbeit ist es, zu evaluieren, wie Unternehmen Blockchain-Technologien nutzen können und wie genau Verträge dokumentiert werden können. Es wurde dazu ein Prototyp entwickelt mit dem Verträge in der Blockchain dokumentiert werden können, indem ein Smart Contract verwendet wird. Die Ergebnisse zeigen, dass diese Technologie das Potenzial hat, für diesen Anwendungsfall genutzt werden zu können. Der größte Vorteil dabei ist die Transparenz. Das bedeutet, dass jede Person, die Zugang zur Blockchain hat, nachprüfen kann, wer an diesem Vertrag beteiligt war und wann er abgeschlossen wurde. Allerdings wurden auch einige Probleme festgestellt. Zum Beispiel wird, um Daten in die Blockchain zu schreiben noch mehr Zeit benötigt im Vergleich zu konventioneller Software. Weiters sind bei der Nutzung des entwickelten Prototypen auch öfter Fehler passiert als bei der herkömmlichen Software. Zusammenfassend lässt sich sagen, dass die Verwendung von Blockchain-Technologien zur Dokumentation von Verträgen verwendet werden könnte und es dem Unternehmen einen Mehrwert bieten kann, allerdings ist die Technologie aufgrund der Probleme noch nicht ausgereift genug.
Im Bereich der Softwareentwicklung ist es verbreitet, dass Teams verteilt zusammenarbeiten. Mit der verteilten Arbeit entstehen neue Herausforderungen, die es zu bewältigen gilt, welche sich auch auf die Personalbindung auswirken. Aus diesem Grund ist es bedeutend, die Faktoren zu berücksichtigen, die in verteilten Softwareentwicklungsteams in einem besonderen Zusammenhang zur Personalbindung stehen. Die Masterarbeit mit dem Thema „Personalbindung in verteilten Softwareentwicklungsteams“ betrachtet verschiedene Herausforderungen und Bedürfnisse in der Softwareentwicklung und untersucht spezifische Faktoren, welche bei verteilten Softwareentwicklungsteams in Zusammenhang mit der Personalbindung stehen. Dabei werden die untersuchten Faktoren sowohl in konventionellen als auch in verteilten Softwareentwicklungsteams betrachtet, um die Unterschiede zu beleuchten. Für die erforderliche Datenerhebung wurde eine Befragung von Softwareentwickler*innen durchgeführt, um die vorhandene Personalbindung zu quantifizieren, die zuvor aus der Literatur ermittelten Faktoren zu überprüfen und deren Zusammenhang zu ermitteln. Die Ergebnisse dieser Arbeit zeigen, dass in verteilten Softwareentwicklungsteams ein besonderer Zusammenhang mit der Personalbindung und das Kommunikationsverhalten und regelmäßiges Feedback der Führungskraft, qualitative Mitarbeiter*innengespräche, zureichenden Karriere- und Aufstiegsmöglichkeiten, sowie Weiterbildungsmöglichkeiten bestehen. Aber auch regelmäßige Teambuilding-Aktivitäten und die Klarheit über Aufgaben und Verantwortungen zeigten einen Zusammenhang. Ein weiteres Ergebnis war, dass eine Vermeidung typischer Faktoren die bei Softwareentwickler*innen zur Unzufriedenheit führen, einen positiven Zusammenhang zur Personalbindung vorweist. Zusammenfassend werden durch diese Arbeit wichtige Zusammenhänge zur Personalbindung in verteilten Softwareentwicklungsteams aufgezeigt, welche durch die neuen Herausforderungen in der verteilten Softwareentwicklung zu beachten sind. Durch die Erkenntnisse dieser Arbeit lassen sich in weiterer Folge Maßnahmen für Unternehmen ableiten, um die Personalbindung zu steigern.
Das MitarbeiterInnen-Management und im Besonderen die Personalbeschaffung ist für jedes Unternehmen von entscheidender Bedeutung und Wichtigkeit. Die vorliegende Masterarbeit befasst sich mit genau diesem Thema, wobei der Fokus auf Remote-Arbeit und den ab dem Jahr 1995 geborenen, potenziellen MitarbeiterInnen der Generation Z liegt. Diese Personengruppe stellt einen der interessantesten KandidatInnen-Pools für die zukünftigen Belegschaften der Unternehmen dar. Mit dieser Arbeit wird der Einfluss des Wertesystems der Generation Z auf den Onboarding-Erfolgt untersucht. Besonders wird der Zusammenhang zwischen den einzelnen Aspekten des Wertesystems und den Faktoren des erfolgreichen Onboardings von Remote-ArbeiterInnen betrachtet. Um die formulierte Forschungsfrage zu beantworten, werden die relevanten Faktoren und Aspekte identifiziert und eine quantitative Umfrage mit anschließender Datenanalyse durchgeführt. Die Zielgruppe entspricht ausnahmslos Personen der Generation Z. Zudem wird Interesse an Remote-Arbeit vorausgesetzt. Beginnend mit einleitenden Fragen, befasst sich die Umfrage mit den Wertvorstellungen und Erwartungen der Befragten an einen neuen Arbeitsplatz, sowie mit den Erwartungen an die Integration in ein neues Arbeitsumfeld im Rahmen der Onboarding-Phase. Mittels Korrelationsanalyse werden die personenbezogenen Erwartungen, Aspekte und Faktoren des MitarbeiterInnen-Onboardings untersucht. Die Resultate zeigen, dass positive Zusammenhänge von Onboarding-Faktoren wie Proaktivität oder bidirektionalem Informationsfluss mit einzelnen Generation Z-Aspekten bestehen. Des Weiteren bestätigt sich die Wichtigkeit der Erfüllung der einzelnen Erwartungen für neue MitarbeiterInnen. Die Auswirkung des Wertesystems auf den Onboarding-Erfolg schlägt sich in Form von vielfältiger und hoher Erwartungshaltung nieder. Zur Ergründung der Kausalitäten und Umsetzung von Maßnahmen bedarf es weiterer Untersuchungen.
Gestaltung einer Open Data Energieplattform zur Förderung von Kollaboration und Partizipation
(2023)
Um die Auswirkungen des globalen Klimawandels durch verursachte CO2-Emissionen zu verringern, ist es notwendig, den Energiesektor ökologisch nachhaltiger zu gestalten. Dies kann durch die Reduktion des Gesamtenergieverbrauchs, sowie den Ersatz konventioneller Energiequellen durch erneuerbare erreicht werden. Es ist bekannt, dass die Realisierung von Energieeinsparungen nicht nur durch Investitionen in die Verbesserung der Energieeffizienz möglich ist, sondern auch das Engagement, Bewusstsein und Handeln der Bevölkerung erfordert. Um dies zu erreichen, soll die Beteiligung der Bürgerinnen und Bürger im Energiebereich gefördert werden. Ziel ist es, demokratische Zusammenarbeit, transparentere Entscheidungsfindung, Lernbereitschaft und die Akzeptanz von Energieprojekten zu steigern. Durch den Einsatz einer Open Data Plattform sollen Energiedaten von privaten Haushalten, sowie regionale und überregionale Informationen im Energiesektor zugänglich gemacht und die Bevölkerung damit eingebunden werden. Unter Verwendung des Design-Science-Research-Ansatzes nach Peffers et al. (2007) wurden Anforderungen und Kriterien für eine Open Data Plattform im Energiesektor untersucht. Dies erfolgte durch eine umfassende Literaturrecherche, aus der wichtige Designelemente abgeleitet und Mockups der Plattform entwickelt wurden. Zur Demonstration der Plattform wurden fünf umfassende Anwendungsfälle von sieben Personen durchgeführt. Im Anschluss wurden die Nützlichkeit und Benutzerfreundlichkeit der Plattform anhand eines Fragebogens bewertet. Die Evaluierung hat ergeben, dass die Nutzerinnen und Nutzer den Informations- und Wissensaustausch sowie die Zusammenarbeit auf der Plattform als nützlich und wertvoll empfinden. Insbesondere werden Individualisierungs- und Automatisierungsmöglichkeiten, Vergleichsfunktionen, Visualisierungen, sowie der regionale Informationsaustausch als förderlich betrachtet. Die Einbindung von sozialen Medien und der Einsatz von Gamification Elementen, um die Motivation der Nutzerinnen und Nutzer zu steigern konnte jedoch nicht allgemeingültig bestätigt werden. In weiteren Untersuchungen sollten daher vor allem motivationsfördernde Designelemente betrachtet und untersucht werden.
Die vorliegende Masterarbeit behandelt die Einsatzmöglichkeit von BI-Systemen und deren Unterstützung der Vertriebssteuerung von Versicherungsunternehmen. Es wurde zu Beginn eine umfangreiche Literaturrecherche durchgeführt, um einerseits die technischen Grundlagen und den Aufbau eines BI-Systems und andererseits den Begriff der Vertriebssteuerung genauer zu erklären. Anschließend wurde die theoretische Grundlage mit der Vertriebssteuerung eines Versicherungsunternehmens in Verbindung gebracht.
Im praktischen Teil wurde anhand des Beispiels der Merkur Versicherung AG eine Umsetzung eines neuen BI-Systems erarbeitet. Eingangs wurde die Ist-Situation des Unternehmens erhoben, um die Ausgangsbasis für eine Weiterentwicklung des BI-Systems zu erarbeiten. Anschließend wurden mittels qualitativen mit Fragebogen geführten Interviews die Anforderungen von unterschiedlichen Personengruppen und Hierarchien aufgenommen. Zum Schluss wurde die Entwicklung eines Prototypens auf Basis der Anforderungen erstellt und auf Akzeptanz getestet.
Das Ergebnis der Arbeit zeigt, dass eine einfache Umsetzung eines einzigen BI-Tools für die unterschiedlichen Anforderungen der verschiedenen Adressatinnen und Adressaten, welche mit dem Vertrieb eines Versicherungsunternehmens in Berührung kommen, nicht möglich ist. Aufgrund der verschiedenen Nutzergruppen und Anforderungen sollte ein reines Management-Tool und ein operatives BI-Tool als Self-Service BI zur Verfügung gestellt werden. Die Anforderungen an ein Dashboard waren größtenteils nicht gegeben. Sie wären eher als zusätzliches Feature angesehen worden, waren jedoch nicht gefordert.
In weiterer Folge könnte ein integriertes BI-System, welches alle Anforderungen beinhaltet, eingeführt werden. Dies müsste dann eventuell in Eigenentwicklung durchgeführt werden, damit es alle Anforderungen eines Versicherungsunternehmens abdeckt.
Die Anomalie Erkennung spielt in verschiedenen Bereichen eine große Rolle. Beispielsweise versuchen Kreditkartenanbieter, betrügerische Transaktionen zu identifizieren. Registriert das System einen Einkauf im Wert von Tausenden von Euro, obwohl gewöhnlich nur Bahntickets mit dieser Karte gelöst werden, ist es sehr wahrscheinlich, dass die Karte oder die persönliche ID-Nummer gestohlen wurde. In einem anderen Szenario, wenn die Produktionslinie eines Pharmaunternehmens feststellt, dass das Endgewicht von Medikamentenkapseln 20 % höher als üblich ist, kann ein Fehler im Herstellungsprozess vorliegen. Diese Anomalie Erkennung basiert meist auf strukturierten Zahlenwerten und kann somit leicht erkannt werden. Das Ziel dieser Arbeit ist es, Anomalien aus unstrukturierten beziehungsweise schwach strukturierten Text-Daten zu erkennen und anhand ihrer Semantik Möglichkeiten zur Interpretation und Bewertung aufzuzeigen. Im Zuge dieser Arbeit soll herausgefunden werden, welche Datenverarbeitungsmethoden und Analysemethoden verwendet werden können, um eine bestmögliche Interpretation der Text-Daten zu erreichen. Resultierend auf diesen Erkenntnissen wird ein Vorgehensmodell erstellt. Dieses Vorgehensmodell dient als Basis für einen Prototyp, um eine automatische Auswertung erzeugen zu können. Der Prototyp soll durch eine gezielte Auswahl von Schlüsselwörtern Anomalien in verschiedenen Themenbereichen erkennen, um so vielseitig wie möglich Verwendung zu finden. Weiters sollen geografische Brennpunkte dieser Themenbereiche identifiziert werden und durch Analysen festgestellt werden, ob diese Brennpunkte einen positiven oder negativen Effekt mit sich bringen.
Release Management spielt in der Softwareentwicklung eine große Rolle. Der Prozess von einer Anfrage zu einer Änderung bis zur Ausrollung der Änderung auf das Live-System behandelt alle Themen, die in dem Bereich des Release Managements fallen. Dass dieser Prozess einen großen Einfluss auf die Qualität der Software und den Erfolg des Unternehmens hat, liegt demzufolge auf der Hand. Aufgrund der Konkurrenzsituation am Markt streben IT-Unternehmen nach dem bestmöglichen Prozess. An diesem Punkt kommen Tools wie Jira aus der Atlassian Suite oder Azure DevOps aus dem Microsoft-Portfolio ins Spiel. Diese Tools unterstützen Unternehmen in den Bereichen Issue-Tracking, Taskplanung, sowie weitere Themen, die im Release Management gebraucht werden. Nichtsdestotrotz treten bei vielen IT-Unternehmen nach wie vor Probleme auf, die für die Qualität des Release Managements negative Auswirkungen haben und verbessert werden müssen. In dieser Arbeit wird mithilfe einer Literaturrecherche über die Probleme in Verbindung mit Toolanalysen sowie einer qualitativen Forschung mit Experten aus dem Bereich des Release Management und in der Softwareentwicklung erforscht, ob die gefundenen Probleme im Kontext des Tools auftreten oder, ob diese durch weitere Handlungsempfehlungen gelöst werden können. Aufgrund der Tatsache, dass die Softwareentwicklung in den letzten Jahren eine Entwicklung eingeschlagen hat, in der der Softwareentwicklungsprozess sich in den meisten Unternehmen mehr in Richtung eines agilen Ansatzes geändert hat, wird in folgender Arbeit die Auswirkung dieses Trends auf das Release Management analysiert. Zu guter Letzt werden einer Gruppe an Unternehmen Handlungsempfehlungen erstellt, die bei Eintritt bestimmter Probleme verwendet werden können, um auch in Verbindung mit dem Tool für eine höhere Qualität im Release Management zu sorgen.
Diese Masterarbeit behandelt die Informationssicherheit im Kontext des Social Engineerings von Unternehmen. Das Ziel ist es, Initiativen zu definieren, die Unternehmen kritischer Infrastruktur einsetzen müssen, um die Informationssicherheit in diesem Kontext zu gewährleisten. Im Bereich der Theorie wurde eine Literaturrecherche über das Thema ‚Social Engineering‘ durchgeführt. Es ließ sich herausfinden, welche Möglichkeiten es gibt, Unternehmen zu attackieren. Des Weiteren bedeutet Social Engineering nicht, dass immer eine illegale Aktivität dahinter steckt, sondern dass hier lediglich mithilfe von Psychologie ein Mehrwert für die Angreiferin oder den Angreifer generiert wird. Für den empirischen Teil der Arbeit wurde eine Umfrage an Personen gesendet, die in ihrer Arbeit mit Informationssystemen zu tun haben. Diese Befragung hat ergeben, dass Personen wissen, wie bedeutsam Informationssicherheit ist, und es wurde kein signifikanter Unterschied zwischen IT-affinen und nicht IT-affinen Personen festgestellt. IT-affine Personen wissen lediglich besser über die Auswirkungen Bescheid. Des Weiteren wurden Interviews mit Expertinnen und Experten aus dem Bereich der Informationssicherheit durchgeführt. Deren Zweck war es, herauszufinden, welche Maßnahmen es gibt, die Informationssicherheit im Kontext von Social Engineering zu gewährleisten bzw. zu erhöhen. Es hat sich herausgestellt, dass Security-Awareness-Schulungen sehr sinnvoll sind. Unternehmen kritischer Infrastruktur sollten sich auf Vor-Ort-Schulungen fokussieren, da diese ein höheres Informationssicherheitsempfinden beim Personal auslösen. In Relation zu den Kosten, die ein Social-Engineering-Angriff verursachen kann, zahlt sich für ein Unternehmen kritischer Infrastruktur eine Security-Awareness-Schulung mit großer Wahrscheinlichkeit aus. Es wird auch empfohlen, technische und physische Maßnahmen einzusetzen, um einen Social-Engineering-Angriff zu erschweren. Jedoch ist zu erwähnen, dass technische Maßnahmen nicht ausschließlich darauf ausgelegt sind, Social-Engineering-Angriffe zu verhindern. Das ist lediglich ein Teil davon. technische Maßnahmen schützen die Allgemeinheit vor Social-Engineering-Angriffen, jedoch nicht einzelne Personen. Für Unternehmen kritischer Infrastruktur sollten wiederkehrende Security-Awareness-Schulungen und technische Maßnahmen eingesetzt werden, um die Informationssicherheit im Kontext des Social Engineerings zu gewährleisten. Diese Vorkehrungen haben nämlich keinen erheblich negativen Einfluss auf die Arbeitstätigkeiten der Mitarbeiterinnen und Mitarbeiter im Allgemeinen. Auf der anderen Seite stellen sie jedoch sicher, dass die Angestellten ein entsprechendes Bewusstsein für diese Gefahr entwickeln und es stetig erweitern.
Cloud Technologien wurden zur Bereitstellung von Infrastruktur für REST APIs in den letzten Jahren immer wichtiger. Das Container-as-a-Service (CaaS) Modell bei welchen Anwendungen virtualisiert in der Cloud laufen stellt hierbei einen der meistgenutzten Services dar. Dabei kommt es jedoch immer noch zu einem Overhead bei Verwaltung und Bereitstellung der Container, wodurch Entwicklungsressourcen verloren gehen. Eine noch leichtgewichtigere Alternative ist das neuere Function-as-a-Service (FaaS) Modell, welches den Verwaltungsaufwand reduzieren soll. Ziel der Masterarbeit ist es herauszufinden, ob FaaS sich besser als CaaS für die Entwicklung von REST APIs eignet. Um die Modelle vergleichbar zu machen, werden die Kriterien Kosten sowie Performance herangezogen und es wird folgende Forschungsfrage gestellt: ‚Wie wirkt sich FaaS gegenüber CaaS auf Performance und Kostenentwicklung einer REST API aus?‘. Um die Forschungsfrage zu beantworten, wurde jeweils eine CaaS und eine FaaS API implementiert. Als Metrik für Performance wurde dabei die Response Time (RT) gewählt. Diese gibt die Zeit an, welche zwischen Senden des API Requests und dem Empfang der Response verstreicht. Die RT wurde automatisiert mittels Artillery Skripts gemessen, um gleichzeitige Nutzung durch 1.000 virtuelle Benutzer*innen zu simulieren und verschiedene Anwendungsfälle abzubilden. Anhand der RT Daten wurden anschließend Kosten für verschiedene Benutzerzahlen berechnet. Die Ergebnisse der Performancemessungen zeigen, dass die RT von FaaS durchwegs höher ist als jene von CaaS. Für zeitkritische Applikationen kann FaaS daher nicht empfohlen werden. Bei den Kosten zeigt sich ein gemischtes Bild. Gerade bei wenigen API-Aufrufen entstehen bei FaaS kaum Kosten im Vergleich zu CaaS. Je höher die Anzahl der API Aufrufe, umso mehr verkehrt sich dieser Umstand jedoch ins Gegenteil, bei zwölf Millionen täglichen Aufrufen ist die FaaS Lösung schon beinahe dreimal so teuer wie CaaS. FaaS bietet sich also vor allem für kleinere Applikationen an, um einen Kompromiss zwischen Performance und Kosten zu finden.
In vielen Systemlandschaften stellt ein ERP-System das Rückgrat aller Geschäftsprozesse dar. Das Streben nach durchgängigen Prozessintegrationen macht diese Komponente zu einem beliebten Kandidaten für die Anbindung weiterer Unternehmensanwendungen. Durch moderne, Cloud-basierte Bereitstellungsmodelle werden neue Innovationen und Funktionalitäten immer häufiger im Rahmen automatischer Software-Upgrades bereitgestellt. Um unter diesen Einwirkungen weiterhin einen reibungslosen Produktivbetrieb der geschäftskritischen Kernprozesse sicherstellen zu können, ist die Durchführung regelmäßiger Softwaretests folglich unabdingbar. Eine manuelle Ausführung dieser Tests bindet wiederkehrend Personalressourcen. Testautomatisierung birgt hierbei eine wertvolle Chance, Tests wiederholbar zu machen und effizienter zu gestalten. Die Herausforderungen in der Testautomatisierung in Kombination mit Webapplikationen sind jedoch nicht zu unterschätzen. Der dynamische Aufbau von Benutzeroberflächen erschwert die Erstellung stabiler Automatisierungen auf UI-Ebene. Eingeschränkte Zugriffsmöglichkeiten auf die Codebasis von Anwendungen repräsentieren eine weitere Hürde. Schnittstellenbasierte Ansätze verkörpern dadurch eine attraktive Alternative. In der vorliegenden Arbeit werden Einsparpotenziale durch den Einsatz von GUI- und API-basierter Testautomatisierung für SAP Business ByDesign untersucht. Bei der kaufmännischen Bewertung von Testautomatisierungsprojekten müssen initiale Implementierungskosten ebenso mit in die Betrachtung einfließen, wie auch Wartungsaufwände, Infrastrukturkosten und ggf. anfallende Lizenzkosten. Im Rahmen der Masterarbeit wurden sowohl interne als auch externe Experteninterviews durchgeführt, um einerseits Vergleichs- und Erfahrungswerte aus manuellen Testvorgängen zu erheben, andererseits jedoch auch wichtige Aspekte und Erkenntnisse für mögliche Testautomatisierungen in Zusammenspiel mit SAP Business ByDesign zu gewinnen. Dazu wurden die Interviews transkribiert, paraphrasiert und mittels qualitativer Inhaltsanalyse ausgewertet. Eine abschließende Evaluierung und Gegenüberstellung der aus den Interviews hervorgehenden Ansätze zur UI- und API-basierten Testautomatisierung zeigen konkrete Anknüpfungspunkte für potenzielle Projektautomatisierungsprojekte.
Das virtuelle Büro
(2022)
Die Einführung von einheitlichen und dokumentierten Telearbeitsmodellen wird von Unternehmen häufig außer Acht gelassen. Zahlreiche Unternehmen aus der IT-Branche verfügen über keine standardisierte Vorgehensweise für die Etablierung von Telearbeitsarbeitsplätzen. Durch die Corona-Pandemie mussten viele Arbeitsplätze rasch in die eigenen vier Wände der Belegschaft transformiert werden. Aufgrund der schnellen Transformation wird vermutet, dass auf wesentliche Aspekte für ein erfolgreiches, langfristiges und nachhaltiges Bestehen der Modelle vergessen wurde. Demzufolge richtet sich die behandelte Forschungsfrage auf die Vorgaben und Modelle, welche für einen rein virtuellen Arbeitsplatz im Kontext der modernen Software-Entwicklung benötigt werden. Hierzu wurden Hypothesen zur Bedeutung der Existenz des physischen Büros, zu Dokumentations- & Kommunikationsstrukturen, zur Arbeitsplatzausstattung und zu den internen Strukturen eines Unternehmens aufgestellt. Für die Prüfung der Hypothesen wurde eine Umfrage mit Teilnehmer*innen aus der IT-Branche durchgeführt. Mit Hilfe der Befragung konnten die aktuell gelebten Strukturen sowie einige Adaptierungswünsche der Befragten erhoben werden. Weiters konnten anhand der erhobenen Merkmale einige wichtige Faktoren zur Verbesserung der aktuell gelebten Telearbeitsrichtlinien identifiziert werden. Auf Basis der Ergebnisse und des erarbeiteten theoretischen Wissens wurden Handlungsempfehlungen ausgesprochen. Das Ergebnis dieser Arbeit zeigt, dass die Telearbeit in dieser Branche nicht mehr wegzudenken ist. Diese Form der Arbeitszeiteinteilung wird vermehrt von den Arbeitnehmern und Arbeitnehmerinnen gefordert, weshalb auch Strukturen für funktionierende Modelle geschaffen werden müssen. Im Anschluss an die geprüften Hypothesen werden zwei neue Telearbeitsmodelle anhand der Ergebnisse vorgestellt.
Mobile Computing
(2021)
Die folgende Masterarbeit behandelt das Thema der Sicherheit im Umgang mit mobilen Geräten und welche Gefahren für diese bestehen und welche Maßnahmen getroffen werden können, um Schäden im Unternehmensumfeld zu vermeiden. Dabei wird ein großer Fokus auf mögliche Angriffsvektoren gelegt, diese evaluiert und betrachtet, wie ein Schaden auf den Angriffsvektor bestmöglich vermieden werden kann. Des Weiteren werden Penetration Tests von Geräten näher erleuchtet, da diese für das IT-Personal eine wichtige Möglichkeit darstellt, um die Sicherheit der Geräte und des Netzwerkes zu testen. Das Hauptaugenmerk der ersteren Kapitel bezieht sich auf die Verwendung von Notebooks für den mobilen Arbeitsgebrauch. Im letzten Kapitel des theoretischen Teiles werden Mobiltelefone nochmals genauer erörtert, da diese heutzutage zum Standardequipment von vielen Angestellten gehört. Schlussendlich werden für den praktischen Teil dieser Arbeit mehrere Experten zum Thema der mobilen Sicherheit im Unternehmen befragt, um zu erörtern welchen Stand diese derzeit und welche Maßnahmen diese anwenden, um deren Unternehmen abzusichern. Die Ergebnisse zeigen, dass von allen befragten Experten valide Standards eingesetzt werden, um die Sicherheit der Mobilgeräte zu garantieren. Dabei versuchen diese sowohl die Sicherheit der Geräte, aber auch der Daten zu garantieren.
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
Seit Beginn des 20. Jahrhunderts stellen das Radio und der Fernseher einen fixen und sehr großen Bestandteil in der Unterhaltungs- und Informationslandschaft dar. Mit dem Fortschreiten der Jahre gewöhnten sich die Menschen auch immer mehr an sie und wurden so eine Selbstverständlichkeit, die für jedermann erschwinglich ist. Während das Internet durch seine flächendeckende Verbreitung den bestehenden Medien immer mehr Konkurrenz im Bereich der Informationsgewinnung, nicht zuletzt auch durch seine Zeitunabhängigkeit, macht, tun sich in den letzten Jahren immer mehr Konkurrenten im Unterhaltungssegment hervor. Um nur einige zu nennen: Amazon, Netflix, Spotify und YouTube. Was diese gemeinsam haben, sie richten sich nach der Zeit der Kunden und Kundinnen und geben ihnen völlig freie Wahl darüber, was wann angesehen werden möchte und das bei einer ständig größer werdenden Auswahl an Inhalten von Drittherstellern und Eigenproduktionen. Eine im Rahmen der Arbeit durchgeführte Umfrage mit 131 Teilnehmern und Teilnehmerinnen ergab, dass Video/Content on Demand mit über 171 Minuten Nutzungszeit pro Tag die am meisten genutzte Unterhaltungsform darstellt. Die beliebtesten Kategorien in diesem Bereich sind Filme & Serien sowie Dokumentationen und Musik, also genau die Instrumente, mit denen auch Radio und Fernsehen arbeitet. Platz 1 für Video/Content on Demand ändert sich auch nicht, wenn man die Rohdaten nach Alter oder Geschlecht aufbereitet. Dies hat sich nicht nur im Laufe der letzten Jahre aufgebaut, sondern wurde auch durch die von der Coronavirus SARS-COV 2-Pandemie verursachten Folgeerscheinungen beeinflusst, wodurch zum Beispiel die Nutzungszeit auf der Plattform Twitch.tv um 83 % gegenüber dem Jahr 2019 gestiegen ist. Durch das immer schneller werdende Leben und die Anforderungen an das Leben selbst haben sich auch die Anforderungen der Kunden und Kundinnen entsprechend verändert. Daraus entstehen neue Geschäftsfelder, Möglichkeiten und Ideen, welche die Unterhaltungs- und Informationslandschaft in eine immer flexiblere und interaktivere Richtung ändern. Aus diesem Grund wurde ein Konzept entwickelt, welches Unterhaltungsplattformen anhand dieser Anforderungen gestaltet.
Selbst für die Hotel Industrie bringt die Digitalisierung viele neue Probleme mit sich, denen sich Hotels stellen müssen. Eines dieser Probleme ist Online-Marketing. Deshalb steht dieser Themenkreis in dieser Masterarbeit im Mittelpunkt der Betrachtung. Welche Schritte im Bezug auf Onlinemarketing sind notwendig, damit ein privater Seminarhotel Betreiber langfristig neue Business Kunden akquirieren kann? Diese Forschungsfrage wird im Rahmen dieser Arbeit zentral behandelt. Alle Grundlagen des Marketings und weitere Grundlagen, um diese Frage beantworten zu können, wird im ersten Teil sorgfältig definiert. Dazu gehören die Definition von Businesshotels, die Digitale Transformation, Marketing, die Alleinstellungsmerkmale oder auch Unique Selling Propositions genannt, die 4Ps des Marketings, die 7Ps des erweiterten Marketings, die Kundenzufriedenheit, die Kommunikationswege, die Kundenbindung, die Personas, die Customer Journey und der Service Blueprint. Im zweiten Teil wird alles, was aus Sicht des Online Marketings für das in dieser Arbeit beschriebene Konzept notwendig ist, abgebildet. Zu diesem Zweck erfolgte eine Gliederung in Social Media, Webseiten, Buchungsportale, Usability / User Experience, Suchmaschinenwerbung, Newsletter Marketing und Signatur Marketing. Im dritten Teil wird das Konzept erstellt und jeder Teil des Konzepts wird detailliert beschrieben. Der vierte Teil befasst sich mit dem Design der Umfrage. Dabei wird einerseits definiert, wer für diese Arbeit als Mitglied der Zielgruppe dient, andererseits werden aber auch der Inhalt, der Bewertungsprozess und die Ergebnisse der Umfrage als auch mögliche Änderungen des Konzepts erörtert. Um dieses Konzept zu validieren, wurde eine Umfrage unter 137 Personen durchgeführt. Die Ergebnisse zeigen, dass ein Konzept für Hotels, wie es in dieser Arbeit erstellt wurde, notwendig ist und dass es kontinuierlich überwacht und verbessert werden muss. Alle Daten aus der Umfrage sind nicht in dieser Arbeit enthalten, sondern separat auf der CD beigefügt.
In dieser Masterarbeit wird die relevante Theorie und ein Konzept zum Thema IT unterstützte Kommunikation in einem privaten Seminarhotel beschrieben. Hierzu werden zu Beginn im ersten Kapitel die Grundlagen des Prozessmanagements erörtert. Dies beinhaltet die Definition der Begriffe Prozess und Prozessmanagement. Des Weiteren wird ein Reifegradmodell in diesem Kontext und die Bedeutung von Effektivität und Effizienz näher erörtert. Abschließend werden in diesem Kapitel noch Fehler im Prozessmanagement und der kontinuierliche Verbesserungsprozess erklärt. Im zweiten Kapitel wird das Thema Dienstleistungsmanagement behandelt. Hierfür wird zuerst der Begriff des Dienstleistungsmanagements näher erörtert. Im Anschluss werden die besonderen Eigenschaften von Dienstleistungen und das Dimensionen Modell betrachtet. Darauffolgend werden in Bezug auf das Dienstleistungsmanagement sogenannte Leistungsbündel und die Wahrnehmung von Dienstleistungen beschrieben. Zum Abschluss des Kapitels werden die Themen Value Proposition Canvas, Personas, Service Blueprint, Customer Journey Map, Usability und User Experience in Bezug auf das Erstellen und Verbessern von Dienstleistungen erklärt. Das dritte Kapitel beschäftigt sich nachfolgend mit den Grundlagen des Marketings und der Digitalisierung. Hierzu wird der Marketing-Mix, die Unique Selling Proposition und das KANO Modell beschrieben. Anschließend folgt die Überleitung zur digitalen Transformation und der IT unterstützten Kommunikation im Hotelbereich. Im vierten Kapitel wird ein Konzept vorgestellt, welches die wichtigsten Voraussetzungen an die IT unterstützte Kommunikation in einem privaten Seminarhotel abdeckt. Nachfolgend wird im fünften Kapitel eine Umfrage durchgeführt, um Rückmeldungen und wertvolle Informationen zum Konzept zu erhalten. Abschließend wird im letzten Kapitel dieser Masterarbeit auf Basis der erhaltenen Informationen das Konzept optimiert. Das Ergebnis der Umfrage zeigt, dass das im Rahmen dieser Arbeit erstelle Konzept eine gute Basis für die Zukunft darstellt.
Das Smart Home hat sich als Anwendungsgebiet innerhalb des IoT große Beliebtheit verschafft. Mithilfe von verschiedenartigen, miteinander vernetzten Geräten werden Komfort und Sicherheit im Wohnbereich gesteigert. Aufgrund der einfachen Bedienung und der Interoperabilität zwischen unterschiedlichen Plattformen ist diese Art von Geräten besonders in Privathaushalten verbreitet. Durch ständige Konnektivität zum Internet bestehen jedoch Risiken hinsichtlich der Informationssicherheit sowie des Schutzes von Daten der BenutzerInnen. Die untersuchte Architektur im Rahmen dieser Arbeit behandelt ein generisches, Cloud-basiertes System. Dieses wird mithilfe des Risikoanalysemodells OCTAVE Allegro und dem Fokus auf kritische Informationsassets systematisch auf Sicherheitsrisiken überprüft. Für eine bessere Übersicht wird das Gesamtsystem in drei Subsysteme aufgeteilt. Ziel der Risikoanalyse ist es, die unterschiedlichen Sicherheitsrisiken, welche mit der Nutzung von Cloud-basierten Smart Home Systemen verbunden sind, aufzuzeigen. Für die Reduzierung von Risiken werden Gegenmaßnahmen sowie ein Katalog über Handlungsempfehlungen für NutzerInnen erarbeitet. Die Ergebnisse zeigen, dass NutzerInnen innerhalb ihres Einflussbereiches gezielt Maßnahmen zur Reduzierung der Risiken setzen können. Besonders beim Betrieb von kritischen Geräten sind eine stabile Energieversorgung und Internetverbindung essenziell. Der restliche Anteil der Sicherheitsrisiken geht bei einem Cloud-basierten System auf die Systemanbieter sowie Service Provider über. Durch die Entwicklung von Systemen innerhalb aktueller Security-Frameworks können Systemanbieter bereits in der Konzeptphase spätere Risiken vermeiden und Security und Privacy by Design Prinzipien einhalten. Für eine nachhaltige Durchsetzung von Smart Home Systemen ist dies ein essenzieller Faktor. Mithilfe neuer Technologien wie Blockchain könnten traditionelle Sicherheitsprobleme im IoT obsolet werden, konkrete Anwendungsfälle dafür befinden sich noch im Forschungsstadium.
Die Digitalisierung schreitet über alle Branchen hinweg kontinuierlich voran. Auch die Tätigkeit der Hypothekarkreditvermittlung ist von diesem Trend nicht ausgenommen. Dennoch wird ein Großteil der Informationen, die für eine Kreditvermittlung notwendig sind, noch handschriftlich erfasst und die erforderlichen Dokumente werden per E-Mail ausgetauscht. Im Zuge dieser Arbeit soll herausgefunden werden, wie der gesamte Prozess der Hypothekarkreditvermittlung sowohl auf Seiten der Kund/innen als auch auf Seiten der Kreditvermittler/innen mit Hilfe eines webbasierten Portals bestmöglich unterstützt werden kann. Das Ziel ist dabei nicht, das persönliche Beratungsgespräch zu ersetzen, sondern die Abwicklung digital zu unterstützen. Ausgehend von der Analyse des Prozesses werden die Anforderungen an die Anwendung festgelegt. Anschließend wird ein Prototyp konzeptioniert und implementiert, der diese Anforderungen bestmöglich erfüllen soll. Der Fokus liegt dabei auf eine möglichst einfache Bedienung und größtmögliche Zeitersparnis für alle Beteiligten. Der Prototyp ermöglicht, sämtliche Daten, die im Zuge einer Hypothekarkreditvermittlung erforderlich sind, direkt im Webportal einzugeben. Alle Dokumente können über die Anwendung hochgeladen oder mittels Kameraaufnahme hinzugefügt werden. Kreditvermittler/innen haben im Portal die Möglichkeit, Anfragen an Banken für Finanzierungsangebote zu stellen. Dadurch entfällt das zeitaufwändige, manuelle Zusammenstellen der Unterlagen. Die von den Banken übermittelten Angebote können den Kund/innen in einem übersichtlichen Vergleich zur Verfügung gestellt werden. Das erhöht die Transparenz und erleichtert die Entscheidung für die bestmögliche Finanzierung. Der Prototyp erfüllt alle gestellten Anforderungen und könnte zukünftig zu einer vollwertigen Plattform ausgebaut werden.
Wissen wird zu einem immer wichtiger werdenden Wettbewerbsfaktor, welcher durch die steigende Globalisierung und Entstehung neuer Absatzmärkte begründet wird. Durch die COVID-19-Pandemie ist es jedoch zu einer nie dagewesenen Umstellung der Arbeitsweise gekommen. Der Anteil der an zu Hause arbeitenden Personen ist gestiegen und es haben sich Kommunikationswege durch die verteilte Arbeitsweise auf digitale Kanäle wie E-Mails oder Chatnachrichten verlagert. Dadurch ist das Sammeln, Speichern und Verteilen von Wissen erschwert worden. Das Ziel dieser Arbeit ist es aufzuzeigen, wie ein Werkzeug für Wissensmanagement in dieser geänderten Arbeitsumgebung Unterstützung bieten kann und dazu beiträgt, die mit Teleworking, verteilten Teams und unabhängiger Arbeitsweise verbundenen Herausforderungen zu bewältigen. Deshalb wurden im ersten Schritt die theoretischen Grundlagen zu Wissensmanagement bzw. der dazugehörigen Werkzeugen sowie die Barrieren zu deren Nutzung erarbeitet. Danach wurde der Arbeitsalltag am Beispiel der Softwareentwicklung analysiert, welche Änderungen aufgrund des gesteigerten Teleworkings entstanden sind und wie Wissensmanagement in dieser Branche eingesetzt werden kann. Anschließend wurde eine vertiefte Analyse von modernen Ansätzen für Wissensmanagementsysteme durchgeführt. Basierend auf den Ergebnissen der theoretischen Untersuchung wurde dann ein Prototyp entwickelt, mit welchem es möglich ist, Wissensartikel und Self-Service-Prozesse für Mitarbeiterinnen und Mitarbeiter bereitzustellen. Die Kernfunktionalitäten für die Umsetzung der modernen Ansätze umfassen die folgenden Bereiche: - proaktive Wissensbereitstellung - kontextbasierte Wissenserfassung - Ausführung von Self-Service-Prozessen Letztlich wurde der Prototyp an unterschiedlichen Unternehmen getestet und Feedback hinsichtlich der modernen Ansätze gesammelt und evaluiert. Das finale Kapitel dieser Arbeit zeigt, dass sowohl die proaktive Wissensbereitstellung als auch die Ausführung von Self-Service-Prozessen von den Unternehmen erwünscht wird.
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Lagerleitstände sind mit einer Vielzahl an technischen und organisatorischen Herausforderungen konfrontiert. Sich ändernde Umstände im Lagerlogistikumfeld sowie geänderte Konsumentenanforderungen erfordern zudem, dass sich Informationssysteme daran anpassen. Die vorliegende Arbeit befasst sich hier insbesondere damit, wie künstliche Intelligenz den Lagerleitstand in seinen Aufgaben unterstützen kann. Um diese Frage zu beantworten, wird die aktuell vorhandene Literatur in drei Aspekten beleuchtet. Zum einen werden die Aufgaben, die Lagerleitstand zukommen analysiert. Anschließend wird erfasst, mit welchen Informationssystemen dieser in Kontakt ist. Zuletzt wird beschrieben, wie intelligente Systeme implementiert werden können. Um die aus der Literatur aufgestellten Hypothesen zu überprüfen, erfolgte ein zweistufiger Prozess zur Überprüfung dieser. Hierbei wurde eine Befragung von Lagerlogistiksoftware Experten durchgeführt und diese wurde qualitativ ausgewertet. Die Ergebnisse dieser Befragung wurden in einer Kundenumfrage weiter validiert. Diese Kundenumfrage wurde quantitativ ausgewertet. Die Ergebnisse der Arbeit zeigen, dass in unterschiedlichen Teilbereichen zusätzliche intelligente Funktionalitäten benötigt werden. Künstliche Intelligenz ist hierbei lediglich die Möglichkeit, diese Anforderungen umzusetzen und wird nicht gesondert von Kunden nachgefragt. Vor allem in Warehouse-Management-Systemen sind bisher wenig konkrete Anwendungsfälle implementiert worden. Neben intelligenter Lagerung von Waren, die berücksichtigt, welche Produkte häufig gemeinsam ausgeliefert werden, identifizierten die Befragten vor allem auch die Notwendigkeit von Prozessoptimierung. Diese umfasst Ressourcenoptimierung sowie das Erkennen von optimalen Zeitpunkten für bestimmte Lageroperationen. Zudem ist eine vorrauschauende Fehlererkennung in unterschiedlichen Lagerteilbereichen für Lagerleitstände ein besonders relevanter Anwendungsfall. Dieser eignet sich aufgrund der Datenbeschaffenheit und der Komplexität des Problems für eine Implementierung mithilfe von künstlicher Intelligenz.
Teambuilding
(2021)
Die Covid-19-Krise hat viele Unternehmen dazu verleitet, Home-Office-Regelungen in der ein oder anderen Form beizubehalten. Auch wenn dies gewisse Vorteile mit sich bringt, sollten die Nachteile nicht außer Acht gelassen werden. Ziel dieser Studie war die Untersuchung, wie die negativen Faktoren der Heimarbeit durch Teambuilding-Maßnahmen im Rahmen von Softwareentwicklungsunternehmen abgemildert werden können. Ausgehend von bestehender Literatur wurde eine Gruppe von Expertinnen und Experten, zusammengesetzt aus 3 coachenden Personen, 3 Führungskräften, einem Scrum-Master und einer Fachkraft, gebeten, ihre Erkenntnisse und Erfahrungen zu diesem Thema zu teilen. Anschließend wurde eine qualitative Inhaltsanalyse nach Mayring durchgeführt, um die Erkenntnisse zur Erstellung eines Best-Practice-Leitfadens für die Durchführung von Home-Office in Unternehmen zu verwenden. Die Ergebnisse zeigen, dass eine offene und regelmäßige Kommunikation über fachliche und private Themen notwendig ist, um einen stetigen Informationsfluss zu gewährleisten. Darüber hinaus muss ein respektvolles und integratives Umfeld geschaffen werden, um Ausgrenzung zu verhindern, insbesondere bei einer Mischung von Mitarbeitenden, von denen einige zu Hause und andere im Büro sind. Es besteht ein allgemeiner Konsens darüber, dass die notwendigen Schritte in erster Linie von den Führungskräften unternommen werden müssen. Die Ergebnisse deuten darauf hin, dass die Förderung respektvoller und integrativer Praktiken der Zusammenarbeit im Allgemeinen wirksamer zu sein scheint als die Durchführung einzelner Teambuilding-Aktivitäten. Zusammenfassend kann das Ergebnis dieser Arbeit als Leitfaden für Unternehmen dienen, die mit dem Trend zur vermehrten Heimarbeit Schritt halten wollen. Darüber hinaus sollten weitere Untersuchungen angestellt werden, welche modernen Tools und Programme die Arbeit von zu Hause aus am besten unterstützen.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
„Verteilte Zusammenarbeit so gestalten, dass sie an das Gefühl der Zusammenarbeit an einem Ort herankommt“, sagte Dr. Vincent Tietz, Senior Consultant bei der Saxonia Systems AG, im Jahr 2016. In der heutigen Zeit, in der hohe Internetgeschwindigkeiten und hohe Bandbreiten als gang und gäbe betrachtet werden, entstehen neue Möglichkeiten der Arbeitsformen. In Zeiten der Coronakrise wurde dieser Trend noch mehr verstärkt und viele Unternehmen weltweit setzten auf den Denkansatz „Homeoffice“. Doch welche Herausforderungen birgt diese neue Form des Arbeitens und bietet sie nur Vorteile? Wie können wir speziell in der IT-Branche verteilte Softwareentwicklungsteams optimal steuern oder eine derartige Konstellation generell einführen? Sind Projektabwicklungen hinsichtlich solcher Umstände erfolgreich realisierbar und welche Vorrausetzungen sind hierfür unverzichtbar? Das Ziel dieser Masterarbeit war das Ermitteln und Modellieren von Prozessen, die einen wesentlichen Beitrag zur Steuerung sowie Einführung einer verteilten Softwareentwicklung leisten. Das Prozessmodell umfasst dabei nicht nur die Projektabwicklung selbst, sondern auch die vorgelagerten und nachgelagerten Arbeitsabläufe. Als praktische Grundlage dient hierbei die Guid.New GmbH, ein österreichischer Individualsoftwaredienstleister mit Sitz in Graz, welcher schon vor der Pandemie auf die „Remote“-Methode setzte. Samt der wissenschaftlichen Literaturrecherche und der praktischen Validierung des entstandenen Prozessmodells durch ExpertInnen, dient das Resultat als Vorlage für Unternehmen in der Individualsoftwarebranche. Als ExpertInnen wurden die Geschäftsführung, Gesellschafter sowie MitarbeiterInnen der Guid.New GmbH herangezogen – infolgedessen enthält das Ergebnis Praxisbezogenheit, Wiederverwendbarkeit und schafft neuen Mehrwert.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Business Intelligence und Analytics (BI&A) Systeme umfassen eine Vielzahl an Techniken, um Daten für eine faktengestützte Entscheidungsfindung in Unternehmen aufzubereiten und Informationen grafisch darzustellen. Das Ziel dieser Arbeit ist es herauszufinden, inwiefern BI&A Systeme von Klein- und Kleinstunternehmen sowie Ein-Personen-Unternehmen in Österreich eingesetzt werden und welche Faktoren einen Einsatz beeinflussen. Die Literaturrecherche umfasst Eigenschaften von BI&A, analysiert Chancen und Herausforderungen für kleine Unternehmen und stellt das empirische Forschungsmodell vor. Das Forschungsmodell kategorisiert Unternehmen in eine von drei Einführungsstufen und analysiert die Zusammenhänge von sieben Faktoren mit den Einführungsstufen. Insgesamt nahmen 94 Unternehmen an der Onlineumfrage teil. Die Datenanalyse umfasst eine Analyse des Einführungsstandes und der Einflussfaktoren sowie die Auswertung der Hypothesen mittels der Rangkorrelation nach Spearman. Sechs Hypothesen konnten verifiziert und eine musste verworfen werden. Der Einführungsstand von BI&A Systemen in kleinen österreichischen Unternehmen kann als niedrig angesehen werden. Die höchsten signifikanten Zusammenhänge mit dem Stand der Einführung bestehen mit den Faktoren wahrgenommener Wettbewerbsvorteil (rs=0,58**), interne Readiness (rs=0,55**) und der Unterstützung für BI&A durch das Management (rs=0,51**). Eine hohe Bewertung der Datenqualität in den Unternehmen und eine positive Tendenz, zahlenbasierte Entscheidungen zu treffen, können als Chancen für zukünftige BI&A Projekte gesehen werden. Die größten Herausforderungen für eine Einführung von BI&A in kleinen Unternehmen sind fehlende Ressourcen und ein fehlendes Verständnis für BI&A. Unternehmen, welche BI&A bereits verwenden, bewerten den relativen Vorteil und die Kostenersparnis durch BI&A auch für kleine Unternehmen positiv. Weiterführende Forschungen können das Forschungsmodell auf weitere Zielgruppen und Branchen anwenden und somit den Stand der Einführung und dessen Einflussfaktoren vergleichen.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
