Informationstechnologien & Wirtschaftsinformatik
Refine
Year of publication
Document Type
- Master's Thesis (234)
Has Fulltext
- yes (234)
Is part of the Bibliography
- yes (234)
Keywords
- Digitalisierung (19)
- Künstliche Intelligenz (18)
- Software Engineering (10)
- Computersicherheit (9)
- Projektmanagement (9)
- Cloud Computing (7)
- Informationssicherheit (7)
- Kundenmanagement (6)
- Business Intelligence (5)
- Online-Marketing (5)
Institute
Die vorliegende Masterarbeit untersucht den Einsatz von Large Language Models(LLMs) zur Unterstützung und Verbesserung der IT-Sicherheit bei der Überprüfung von Netzwerkkonfigurationen. Traditionell werden Netzwerkkonfigurationen vonIT-Administratoren manuell überprüft, was zeitaufwendig und fehleranfällig sein kann. Diese Arbeit verfolgt das Ziel, durch den Einsatz eines speziell entwickelten KI-gestützten Tools diesen Prozess effizienter und sicherer zu gestalten. Anhand einer systematischen Literaturrecherche wurden bestehende Forschungsarbeitenanalysiert, um die aktuelle Forschungslücke zu identifizieren. Es zeigte sich,dass bisher kaum Forschungsarbeiten zur Anwendung von LLMs bei der Analyse und Optimierung von Netzwerkkonfigurationen vorliegen. Auf Basis dieser Erkenntnisse wurde ein Tool entwickelt, das mittels Prompt-Engineering-Techniken und auf Grundlage des NSA Network Infrastructure Security Guides Sicherheitsprüfungen an Netzwerkkonfigurationen vornimmt. Die Evaluation erfolgte durch Experteninterviews sowie einen Labortest mit IT-Sicherheitsexpert*innen. Dabei wurden die Ergebnisse des Tools mit einer manuellen Fehleranalyse verglichen. Die Ergebnisse der Evaluation bestätigten, dass das entwickelte Tool zuverlässig kritische Konfigurationsfehler identifizieren konnte und dabei teilweise Fehler entdeckte, die von menschlichen Expert*innen übersehen wurden. Dennoch zeigte sich, dass bei komplexen architektonischen Entscheidungen menschliche Expertise weiterhin unabdingbar ist. Die Arbeit liefert damit einen wichtigen Beitrag zur Diskussion über die sinnvolle Integration von KI-basierten Werkzeugen in die Netzwerksicherheitsprüfung. Abschließend werden praktische Implikationen sowie zukünftige Forschungsfelder aufgezeigt.
COVID-19 hat die Art und Weise, wie Organisationen arbeiten und wie Individuen interagieren, grundlegend verändert. Insbesondere die interne Zusammenarbeit innerhalb von Unternehmen wurde durch abrupte und tiefgreifende Veränderungen in Arbeitsprozessen und Kommunikationsmethoden neu definiert. Innerhalb kürzester Zeit waren Unternehmen gezwungen, traditionelle Arbeitsmodelle durch flexible, digitale Alternativen zu ersetzen. Diese rasante Transformation, geprägt durch die Einführung von Remote Work und hybriden Arbeitsmodellen, wirft zentrale Fragen zur langfristigen Gestaltung von Arbeitsprozessen auf. Die Pandemie beschleunigte nicht nur die Einführung digitaler Technologien, sondern führte auch zu erheblichen Veränderungen in der Organisationskultur und den zwischenmenschlichen Arbeitsbeziehungen. Vertrauen, Kommunikation und soziale Bindungen innerhalb von Teams mussten unter neuen Bedingungen aufgebaut und gepflegt werden. Gleichzeitig stiegen die Anforderungen an die technologischen Kompetenzen der Beschäftigten, da digitale Werkzeuge und Plattformen eine entscheidende Rolle für die Aufrechterhaltung der Produktivität spielten. Dabei waren nicht alle Unternehmen gleichermaßen auf diese Herausforderungen vorbereitet. Die Anpassungsfähigkeit variierte sowohl zwischen Branchen als auch zwischen kleinen und großen Unternehmen. Diese Abschlussarbeit untersucht, wie sich kollaborative Prozesse innerhalb von Unternehmen durch die COVID-19-Pandemie verändert haben. Mithilfe einer Meta-Analyse bestehender empirischer Studien und Umfragen werden Trends und Muster identifiziert, welche die Transformation der Arbeitswelt kennzeichnen. Der Fokus liegt dabei auf den Heraus-forderungen und Chancen, die sich aus dem plötzlichen Übergang zu Remote- und Hybridarbeit ergeben haben. Die hier durchgeführte Studie liefert dadurch wertvolle Erkenntnisse für Unternehmen, um in einer zunehmend digitalen und dynamischen Arbeitswelt erfolgreich agieren zu können und schafft eine wissenschaftliche Grundlage für zukünftige Forschungen zu diesem Thema. Zudem bietet sie Orientierung für mögliche weiterführende Untersuchungen.
Diese Masterarbeit beschäftigt sich mit der Messung des Innovationscharakters von IT-Projekten. Als Grundlage dienen theoretische Innovationsmodelle (z.B.: TRL-Modell, Oslo Manual, Fraunhofer Innovationsmodell, Innovation Scorecard Modell etc.). Einzelne Bewertungsmodelle fokussieren sich nur auf bestimmte Schwerpunkte oder sind zu breit gefasst, darum eignet sich ein gesamtheitlicher Ansatz. Nach erfolgter theoretischer Auseinandersetzung sind folgende vier Einflussfaktor als geeignet zur Messung des Innovationsgrades ermittelt worden: „Technologie, Markt, Organisation und Umfeld“. Zur Validierung der Ergebnisse wurde eine semistrukturierte Umfrage von facheinschlägigen Expertinnen und Experten durchgeführt. Die Interviews verfolgten das Ziel, die praktische Relevanz der theoretisch abgeleiteten Kategorien zu überprüfen und deren jeweilige Bedeutung für den Innovationsgrad in der Praxis von IT-Projekten zu gewichten. Insgesamt nahmen sechs Personen aus unterschiedlichen Bereichen mit Erfahrung in IT-Projekten teil. Die Ergebnisse der Likert-Skalen-Fragen und offenen Antworten wurden sowohl quantitativ als auch qualitativ ausgewertet. Die statistische Auswertung zeigte, dass alle vier Hauptkategorien als relevant für die Bestimmung des Innovationsgrades gelten. Besonders hoch wurde der Bereich „Technologie“ bewertet. Dem folgten „Organisation“, „Markt“ und „Umfeld“. Dabei stachen besonders technologische Merkmale wie Einsatz neuartiger Technologien, IT-Sicherheit sowie die Einführung neuer Systemarchitekturen hervor. Im Bereich Organisation wurden die Veränderungsbereitschaft, die Innovationskultur und agile Methoden als besonders relevant betrachtet. Ebenso sind umfeldbezogene Aspekte wie regulatorische Rahmenbedingungen und der Wissenstransfer zwischen Wissenschaft und Praxis bedeutend für den Innovationsgrad. Die Erkenntnisse dieser Arbeit zeigen, dass ein ganzheitlicher Blickwinkel zur Bewertung des Innovationsgrades bei IT-Projekten notwendig ist. Die Kategorien stehen miteinander in Beziehung und sind untrennbar für ein Bewertungsmodell zu interpretieren. Die Masterarbeit leistet einen Beitrag zur Entwicklung eines Innovationsmodells für IT-Projekte.
Die vorliegende Masterarbeit untersucht, wie wertschöpfende Geschäftsprozesse über mehrere Enterprise Application Systems hinweg medienbruchfrei integriert werden können. Vor dem Hintergrund zunehmend heterogener IT-Landschaften sowie wachsender Anforderungen an Effizienz, Datenqualität und Prozesskontinuität analysiert die Arbeit die technischen, organisatorischen und strategischen Herausforderungen sowie bewährte Vorgehensweisen der Schnittstellenintegration. Die Untersuchung folgt einem qualitativen Forschungsansatz. Neben einer systematischen Literaturrecherche wurden leitfadengestützte Experteninterviews mit sechs IT- und Fachverantwortlichen aus Unternehmen verschiedener Branchen durchgeführt. Die Auswertung zeigt, dass die Herausforderungen weit über technische Fragestellungen hinausgehen. Insbesondere ein unzureichendes Verständnis geschäftlicher Prozesse, unklare Zuständigkeiten, fehlende Governance-Strukturen sowie regulatorische und sicherheitsrelevante Anforderungen stellen zentrale Hemmnisse dar. Technologische Ansätze wie Middleware, API-Management-Plattformen und Low-Code-/No-Code-Lösungen können Integrationsvorhaben unterstützen, stoßen bei komplexeren Anwendungsfällen jedoch vielfach an ihre Grenzen. In solchen Kontexten dominieren weiterhin klassische Pro-Code-Lösungen. Als zukünftige Entwicklungen zeichnen sich unter anderem der vermehrte Einsatz Künstlicher Intelligenz in der Schnittstellenentwicklung, die Automatisierung von Validierungs- und Testverfahren sowie eine stärkere Verlagerung von Integrationsarchitekturen in Cloud-Umgebungen ab. Darüber hinaus ist ein Trend zur Entkopplung von Systemen und zur verstärkten Nutzung offener technischer Standards zu beobachten, um technologische Abhängigkeiten zu reduzieren. Die Arbeit leistet einen Beitrag zur Schließung bestehender Forschungslücken, indem sie praxisnahe Einblicke in die Umsetzung von Schnittstellenintegrationen liefert und daraus konkrete Handlungsempfehlungen für Unternehmen ableitet.
In dieser Masterarbeit wird untersucht, ob dezentrale IT-Infrastrukturen resilient sind und welche Potenziale sowie Herausforderungen mit ihrer Dezentralisierung einhergehen. Anhand einer systematischen Literaturrecherche nach vom Brocke et al. (2009) wurden 42 relevante Quellen ausgewertet, um die wesentlichen Potenziale und Herausforderungen der IT-Dezentralisierung herauszuarbeiten. Die Recherche zeigt dezentrale Architekturen als klar resilienzfördernden Ansatz. Aussagen zu Kosten und Komplexität zeigen jedoch ein uneinheitliches Bild. Zahlreiche Quellen adressieren zwar allgemeine Kostenaspekte, doch die konkrete Kostenentwicklung infolge der Dezentralisierung bleibt häufig unklar, insbesondere aufgrund fehlender Vergleiche mit zentralisierten Infrastrukturen. Dennoch legen die Ergebnisse nahe, dass Kosten kein grundsätzliches Ausschlusskriterium darstellen und Dezentralisierung unter geeigneten Rahmenbedingungen aufgrund besserer Skalierbarkeit oder effizienter Ressourcennutzung sogar Kostenvorteile bieten kann. Auch im Hinblick auf die Komplexität zeigt sich ein ambivalentes Bild: Zwar wird sie in vielen Quellen thematisiert, jedoch nur selten ausdrücklich als Nachteil aufgezeigt. Zudem wurde Dezentralisierung nicht als einheitliches Konstrukt identifiziert, sondern als Sammelbegriff für unterschiedliche Ausprägungen und Umsetzungen mit jeweils spezifischen Vor- und Nachteilen. Häufig genannte Vorteile sind verbesserte Skalierbarkeit, Robustheit, Fehlertoleranz, Effizienz- und Performancesteigerung sowie erhöhte Sicherheit. Gleichzeitig wurden technische und organisatorische Herausforderungen festgestellt, darunter Koordination, Skalierung, Ressourcenbeschränkungen, höhere Latenzen, erhöhter Netzwerkverkehr und Sicherheitsbedenken. Die ambivalente Bewertung legt nahe, dass die tatsächlichen Vorteile der Dezentralisierung maßgeblich von der konkreten Umsetzung abhängen und bietet einen Ansatzpunkt für eine vertiefte Auseinandersetzung in zukünftigen Forschungsarbeiten.
Natural Language Processing (NLP) plays a significant role in enabling machines to understand, interpret, and produce human language across an array of tasks and domains. For low-resource languages, the development of feasible NLP solutions remains a challenge in the absence of large annotated datasets and linguistic infrastructure.The research presented in the thesis contributes to addressing this gap through the evaluation of Albanian language sentiment analysis on social media data. The main objective is the evaluation of the ability of cross-lingual pre-trained transformer models, mBERT, XLM-R, and mT5, to be adapted by fine-tuning for sentiment classification (classification of an input text into positive, negative, or neutral sentiment). Two fine-tuning approaches are evaluated: full (vanilla) and Low-Rank Adaptation (LoRA). The models are fine-tuned and tested on a manually annotated dataset for Albanian that contains expressions typical of social media interactions (i.e., code-switched linguistics, emoticon usage, repeated letter words, etc.) It was shown that the highest generalization potential of the language was achieved by XLM-R, which consistently performed higher across metrics such as F1-score and overall accuracy. mBERT followed closely in performance, while mT5, likely due to its generative architecture, yielded comparatively lower results than its encoder-based counterparts. On the other hand, LoRA demonstrated faster training ability with a notable drop in classification performance against the vanilla counterpart, emphasizing the significant trade-off for the usage of the strategy. With the results presented in this study, the thesis provides a basis for different fine-tuning strategies for three key pre-trained transformer-based models, which can inform future research on low-resource language modelling (specifically in the Albanian language) and domain-specific adaptation.
Eine Unternehmensarchitektur bietet einen umfassenden Überblick über ein Unternehmen inklusive dessen Infrastruktur, Anwendungen und Geschäftsprozessen. Aufgrund von Silo-Denken und unzureichender Kommunikation können jedoch Diskrepanzen zwischen den in der Unternehmensarchitektur dokumentierten Geschäftsprozessen und den tatsächlich etablierten Prozessen auftreten. Diese Arbeit zielt darauf ab, jene Diskrepanzen zu beseitigen, indem eine technische Lösung vorgeschlagen wird, um die Unternehmensarchitekturen mit den Geschäftsprozessen in Einklang zu bringen. ArchiMate, eine ikonografische Modellierungssprache für Unternehmensarchitekturen, und BPMN, der de facto Standard für die Modellierung von Geschäftsprozessen, wurden verwendet. Durch die Anwendung der Design Science Research Methode, insbesondere des sechsstufigen Ansatzes, wurde initial Literatur gesichtet und folglich ein Artefakt erstellt, demonstriert und bewertet. Das resultierende Artefakt besteht aus einem Mapping zwischen ArchiMate und instanziierbaren BPMN-Konzepten sowie einem Java-basierten Programm, das die automatische Instanziierung von BPMN-Prozessen aus ArchiMate-Modellen ermöglicht. Um das Artefakt zu evaluieren, wurden 20 standardisierte Workflow Patterns und zwei beispielhafte ITIL-Praktiken, darunter das „Monitoring und Event Management“ sowie das „Change Management“, in ArchiMate modelliert, automatisch transformiert und als BPMN-Prozessinstanzen ausgeführt. Von den 20 Workflow Patterns sind nur 17 in BPMN selbst möglich, jedoch konnten 14 von diesen erfolgreich modelliert und instanziiert werden. Dies zeigt, dass trotz der begrenzten Anzahl von ArchiMate und folglich auch BPMN-Konzepten, anspruchsvolle Geschäftsprozesse in der Unternehmensarchitektur selbst abgebildet werden können. Die erfolgreiche Instanziierung und Ausführung der ITIL-Praktiken bestätigten zudem die praktische Anwendbarkeit des Artefakts in realen Szenarien. Zusammenfassend zeigt diese Arbeit, dass ArchiMate-Modelle erfolgreich in BPMN-Prozesse transformiert werden können, sodass instanziierbare und semantisch sinnvolle Prozessmodelle entstehen. Das entwickelte Artefakt ermöglicht die automatisierte Umsetzung und Ausführung von Geschäftsprozessen direkt aus Unternehmensarchitekturmodellen. Dieser Ansatz fördert die Konsistenz zwischen den dokumentierten Unternehmensarchitekturen und realen Abläufen.
Die vorliegende Arbeit untersucht die Umsetzung der EU-NIS-2-Richtlinie im Abwassersektor als Teil der kritischen Infrastruktur. Der Fokus liegt auf der Bewertung des aktuellen Umsetzungsstands, der Identifikation von Herausforderungen und der Erfassung von Good Practices. Die Thematik ist hochrelevant und aktuell, da die NIS-2-Richtlinie spätestens bis Oktober 2024 in nationales Recht überführt werden muss und erstmals auch mittelgroße Unternehmen in die Pflicht nimmt. Die Studie reagiert auf die Forschungslücke hinsichtlich sektorspezifischer Umsetzungserfahrungen und liefert einen praktischen Beitrag zur Stärkung der Cybersicherheit in der öffentlichen Daseinsvorsorge. Die Arbeit folgt einem Mixed-Methods-Ansatz im Paradigma der verhaltensorientierten Wirtschaftsinformatik. Datenerhebungsmethode ist eine standardisierte Online-Befragung unter Akteuren der Abwasserwirtschaft im deutschsprachigen Raum. Der Fragebogen kombiniert geschlossene (quantitative) mit offenen (qualitativen) Items, die sieben Themenkategorien der NIS-2-Richtlinie abbilden. Die Auswertung erfolgte quantitativ-deskriptiv sowie qualitativ mittels strukturierter Inhaltsanalyse nach Mayring. Ein Pretest sicherte die Validität der Instrumente; die Datenerhebung erfolgte in Kooperation mit der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall e.V. Die Ergebnisse zeigen ein heterogenes, aber überwiegend hohes Umsetzungsniveau bei organisatorischen, technischen und physischen Maßnahmen. Die Mehrheit der Unternehmen hat ein Risikomanagement etabliert, regelmäßige Schulungen eingeführt und strukturelle Verantwortlichkeiten verankert. Die häufigsten Herausforderungen betreffen personelle Ressourcen, fehlende branchenspezifische Leitfäden und komplexe technische Anforderungen. Good Practices umfassen unter anderem adaptive Risikoanalysen, szenariobasierte Verfahren und die Integration von ISO/IEC-Standards. Die Ergebnisse werden mit bestehenden wissenschaftlichen Arbeiten, etwa von ENISA oder BSI, verglichen und kontextualisiert. Die Analyse verdeutlicht, dass Cybersicherheit zunehmend als strategische Aufgabe in der Abwasserwirtschaft erkannt wird, allerdings je nach Größe und Struktur der Unternehmen unterschiedlich ausgeprägt ist. Die Arbeit zeigt, dass etablierte Sicherheitsstandards wie ISO 27001, B3S Wasser/Abwasser und das ÖWAV-Handbuch praktikable Rahmenbedingungen bieten, jedoch an spezifische Sektorbedürfnisse angepasst werden müssen. Die Resultate unterstreichen die Notwendigkeit gemeinsamer Leitfäden, sektoraler Koordination und staatlicher Unterstützung. Ein Ausblick benennt weiterführende Forschungsschwerpunkte wie die Wirksamkeit konkreter Maßnahmen, die Rolle externer Dienstleister und die Entwicklung belastbarer Metriken zur Cybersicherheitsreife.
Agilität als Erfolgsfaktor
(2025)
In der heutigen Zeit gewinnt die Softwareentwicklung zunehmend an Bedeutung, und es wird intensiv diskutiert, wie agiles Arbeiten Teams beeinflusst und welche Auswirkungen dies auf die Qualität der Endprodukte hat (Eckkrammer et al., 2010). Dabei rückt nicht nur die reine Softwarequalität in den Fokus, sondern auch die Zufriedenheit jener, die täglich in den agilen Prozessen eingebunden sind – die Teammitglieder. Diese Arbeit widmet sich der spannenden Fragestellung: Inwieweit besteht ein Zusammenhang zwischen dem agilen Reifegrad von agilen Softwareentwicklungsteams, der gelieferten Softwarequalität und der Zufriedenheit der Teammitglieder, und welche Faktoren beeinflussen diese Zusammenhänge? Agilität als Konzept in der Softwareentwicklung hat sich von einem Trend zu einem Eckpfeiler der Branche entwickelt. Teams weltweit streben danach, ihre Prozesse immer weiter in Richtung Agilität zu entwickeln, um schnell auf sich ändernde Anforderungen und dynamische Marktbedingungen zu reagieren. Die vorliegende Arbeit untersucht den Zusammenhang zwischen dem agilen Reifegrad dieser Teams und zwei zentralen Aspekten: der Qualität der von ihnen entwickelten Software und ihrer eigenen Zufriedenheit. Das Ziel dieser Arbeit ist es, die genannten Zusammenhänge aufzuzeigen und gleichzeitig die Faktoren zu identifizieren, die diese beeinflussen. Es soll erforscht werden, wie unterschiedliche Grade der Agilität sich auf die Arbeitsweise von Teams auswirken und welche Auswirkungen dies wiederum auf die Softwarequalität und die Zufriedenheit der Entwickler*innen hat. Durch die Einbeziehung und kritische Diskussion bestehender Forschungsergebnisse, Theorien und praktischer Ansätze wird ein fundiertes Verständnis des Themas angestrebt. Der Forschungsstand zum Thema Agilität ist vielfältig und reicht von spezifischen agilen Reifegradmodellen bis hin zu Untersuchungen über den Einfluss von Agilität auf die Teamzufriedenheit und Softwarequalität. Diese Arbeit schöpft aus einer breiten Palette an Quellen, um ein ganzheitliches Bild zu zeichnen. Der Aufbau der Arbeit folgt einer durchgängigen Struktur. Zunächst werden grundlegende Konzepte und Prinzipien der Agilität erarbeitet, bevor auf die praktische Messung des agilen Reifegrades und dessen Modelle und Dimensionen eingegangen wird. Anschließend wird der Einfluss von Agilität auf die Qualität der Software sowie die Zufriedenheit innerhalb der Teams untersucht und kritisch hinterfragt. Abschließend werden die gewonnenen Erkenntnisse zusammengeführt und im Kontext der Forschungsfragestellung diskutiert.
Diese Masterarbeit beschäftigt sich mit der thermischen Absicherung eines Fahrzeuges durch die Vorhersage der Temperaturen an verschiedenen Sensoren mittels Time-Series Forecasting Modellen. Ziel war es, die Zuverlässigkeit und Sicherheit des Fahrzeugs durch präzise Temperaturvorhersagen zu verbessern, um kritische Überhitzungen zu vermeiden. Für die Analyse wurden mehrere Time Series Forecasting Modelle evaluiert, darunter Vector Autoregression (VAR),Extreme Gradient Boosting(XGBoost), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN),Temporal Convolutional Networks (TCN)und Transformer Modelle. Die Modelle wurden anhand historischer Datensätze von Sensortemperaturen trainiert, die aus realen Fahrbedingungen gesammelt wurden. Jedes Modell wurde auf seine Vorhersagegenauigkeit und Leistungsfähigkeit untersucht, um das effektivste Werkzeug zur Vorhersage zukünftiger Temperaturwerte zu identifizieren. Die Evaluation der Modelle basierte auf mehreren Leistungsindikatoren wie dem Mean Absolute Percentage Error (MAPE), und dem Root Mean Squared Error (RMSE). Das GRU-Modell stellte sich als das überlegene heraus, da es die komplexen nichtlinearen Muster und die Zeitabhängigkeiten der Temperaturdaten am effektivsten modellierte. Dank seiner tiefen Lernarchitektur und der Fähigkeit, Langzeitabhängigkeiten in den Daten zu erkennen, konnte das GRU-Modell präzisere Vorhersagen als die anderen untersuchten Modelle liefern. Diese Ergebnisse unterstreichen das Potenzial von GRU-Netzwerken für die präzise Vorhersage von Sensor-Temperaturen in thermischen Managementanwendungen von Fahrzeugen und bieten Ansätze für weitere Forschungen in diesem Bereich.
Diese Masterarbeit setzt sich mit den gesetzlichen Rahmenbedingungen sowie den ethischen Fragestellungen im Zusammenhang mit dem Einsatz Künstlicher Intelligenz (KI) im Krankenhauswesen, insbesondere im Kontext österreichischer Gesundheitseinrichtungen, auseinander. Hintergrund ist die zunehmende Integration von KI-Systemen in medizinische Prozesse, wie etwa in der Radiologie, der Pflege oder in Entscheidungsunterstützungssystemen. Besonderes Augenmerk wird auf den EU AI Act gelegt, der sich als zentrales Regulierungsinstrument etabliert. Zahlreiche dieser Anwendungen gelten als hochriskant, was erweiterte Anforderungen in Hinblick auf Sicherheit, Transparenz und Kontrolle zur Folge hat. Ziel der Arbeit ist es, auf Grundlage einer Analyse des EU AI Act konkrete Handlungsempfehlungen für österreichische Krankenhäuser zu formulieren, um deren rechtskonformen und ethisch verantwortungsvollen Umgang mit KI zu fördern. Hierfür wurde ein gestaltungsorientierter Forschungsansatz (Design Science Research) gewählt. Das entwickelte Artefakt, in Form eines Leitfadens zur Verwendung und Entwicklung von KI, wurde durch qualitative Experteninterviews überprüft. Der theoretische Teil der Arbeit beleuchtet sowohl technologische Grundlagen als auch organisationale Aspekte des Krankenhausbetriebs. Ergänzt um Perspektiven aus der Praxis zeigt sich, dass die erfolgreiche Umsetzung regulatorischer Anforderungen maßgeblich vom bestehenden Daten- und Prozessverständnis innerhalb der Organisation sowie von einem funktionierenden interdisziplinären Austausch abhängt. Die abschließend formulierten Handlungsempfehlungen sollen Entscheidungsträger:innen im Gesundheitswesen dabei unterstützen, die Potenziale von KI zu nutzen und gleichzeitig konform nach dem EU AI ACT zu handeln.
Die Zustellung von Briefen war lange Zeit ein staatliches Monopol, wurde jedoch in letzter Zeit schrittweise liberalisiert. Das Volumen postalischer Briefe in Österreich nimmt ab, während die Digitalisierung öffentlicher Dienstleistungen, insbesondere während der COVID-19-Pandemie, an Dynamik gewonnen hat. Obwohl das Zustellgesetz (ZustG/12.11.2023) bereits seit 1998 in Kraft ist, haben jüngste Änderungen und die Einführung des staatlich kontrollierten Authentifizierungssystems „ID Austria“ zur Online-Postfach-Anwendung „Mein Postkorb“ geführt, die derzeit vom österreichischen Finanzministerium betrieben wird. Dieser Dienst bietet eine sichere, authentifizierte und nachvollziehbare digitale Zustellung behördlicher Schreiben an Bürgerinnen und Bürger. Im Mai 2025 gibt es insgesamt rund 1,9 Millionen Nutzer*innen, davon 1,2 Millionen Privatpersonen. Im Jahr 2024 wurden 13,6 Millionen Schreiben versendet (Trauner, 2025).Diese Arbeit untersucht hemmende und fördernde Faktoren, die die Akzeptanz eines Online-Portals zur Briefzustellung beeinflussen. Der Untersuchungsgegenstand ist die österreichische Anwendung „Mein Postkorb“; private Dienste für die digitale Zustellung, etwa im Bank- oder Versicherungsbereich, wurden nicht berücksichtigt. Die Studie kombiniert das weit verbreitete UTAUT-Akzeptanzmodell (Venkatesh et al., 2003) mit der Inhibitor-Theorie (Cenfetelli, 2004). Diese beiden gegensätzlichen Perspektiven wurden um weitere potenzielle Einflussfaktoren ergänzt und in einem gemeinsamen theoretischen Modell zusammengeführt. Dieses Modell diente als Grundlage für einen Interviewleitfaden, der in Expert*inneninterviews zum Einsatz kam. Die Transkripte der insgesamt fünf befragten Expertinnen und Experten wurden mittels quantitativer Inhaltsanalyse nach Mayring (2010) ausgewertet, woraus ein Kategoriensystem entstand. Die zentralen Ergebnisse waren das Auftreten neuer Einflussfaktoren, insbesondere der Eintrittsbarrieren, die die Nutzung eines unbekannten Systems hemmen können. Auf der anderen Seite konnten die Kategorien „Sicherheit“ und „E-Government-Strategie“ als fördernde Faktoren identifiziert werden. Die Zusammenfassung der Ergebnisse führte zu Empfehlungen zur Förderung der Nutzung der elektronischen Zustellung in Österreich. Auf Grundlage dieser Arbeit könnten weiterführende Studien durchgeführt werden, um die neuen Faktoren detaillierter zu untersuchen. Darüber hinaus wäre ein Experiment denkbar, um genauere Einblicke in das Nutzer*innenverhalten bei Registrierung, Anmeldung und Erhalt von Schreiben in der Anwendung „Mein Postkorb“ zu gewinnen.
Die Einführung von Open Source Cloudsoftware bietet österreichischen klein- und mittelständischen Unternehmen (KMUs) eine bedeutende Chance, strategische Ziele wie Kosteneffizienz, Flexibilität und Innovationsfähigkeit zu erreichen. Trotz dieser potenziellen Vorteile ist die Verbreitung bislang gering, was den Anlass dieser Arbeit darstellt. Es sollen Faktoren identifiziert werden, welche die Integration solcher Technologien beeinflussen. Als theoretisches Fundament dient das Technology Acceptance Model (TAM), um ein besseres Verständnis für die Beweggründe und Prioritäten von KMUs bei der Einführung von Open Source Cloudsoftware zu schaffen. Mittels leitfadengestützter Experteninterviews mit IT-Entscheidungsträgern werden zentrale Faktoren für die Akzeptanz offengelegt. Die Ergebnisse zeigen, dass insbesondere Sicherheit, Verfügbarkeit und Kontrolle entscheidende Einflussgrößen auf die Akzeptanz darstellen. Darüber hinaus spielen auch Eigenschaften von Open Source selbst wie Community, Support, technische Merkmale und der Softwaremarkt eine bedeutende Rolle. Diese Arbeit verfolgt das Ziel, sowohl KMUs als auch Anbietern von Open Source Software praxisrelevante Erkenntnisse bereitzustellen. Anbieter sollen ermutigt werden, gezielte Strategien zu entwickeln, um den spezifischen Anforderungen und Bedenken von KMUs besser gerecht zu werden. Gleichzeitig können KMUs ein besseres Verständnis für Open Source Cloudlösungen entwickeln und fundierte Überlegungen für künftige Implementierungen anstellen. Zukünftige Forschung könnte sich auf eine geografische Ausweitung der Untersuchung oder die quantitative Validierung der Ergebnisse konzentrieren. Durch die Ausrichtung ihrer Einführungsstrategien an klar definierten Zielen können KMUs Open Source Cloudsoftware erfolgreich integrieren und ihre digitale Transformation gezielt vorantreiben.
Obwohl sich viele Frauen für technische Studiengänge und Berufe begeistern und diese auch wählen, bleibt der Frauenanteil seit Jahren nahezu konstant. Strukturelle Ungleichheiten, mangelnde Netzwerke und stereotypisches Denken tragen dazu bei, dass Frauen die Branche frühzeitig verlassen. Gleichzeitig gewinnt Leadership mehr an Bedeutung, da Führungskräfte den Erfolg als auch die Arbeitszufriedenheit beeinflussen. Diese Arbeit untersucht, welchen Einfluss das Führungsverhalten auf die Karrierewege von Frauen in der österreichischen IT-Branche hat und inwiefern Führungskräfte als unterstützend oder hindernd wahrgenommen werden. Die theoretische Grundlage umfasst die Geschlechterverteilung in der IT-Branche, Erwartungen an Arbeitgeber sowie Herausforderungen und Barrieren für Frauen. Zudem werden unterschiedliche Führungstheorien und deren Auswirkungen auf Mitarbeiter*innen betrachtet. Zur Beantwortung der Forschungsfrage wurde eine qualitative Studie durchgeführt. Mittels semi-strukturierter Interviews mit 15 Frauen aus der österreichischen IT-Branche wurden individuelle Wahrnehmungen und Erfahrungen erfasst. Die Ergebnisse zeigen, dass Führungskräfte eine zentrale Rolle für den beruflichen Werdegang sowie die langfristige Mitarbeiterbindung spielen. Positives Führungsverhalten äußert sich in Form von Unterstützung, konstruktivem Feedback und aktiver Förderung. Negative Führungserfahrungen führten hingegen zu Demotivation oder einem Wechsel des Arbeitgebers. Zudem zeigt die Studie, dass sich die Anforderungen an Führung je nach Karrierephase unterscheiden. In frühen Karrierejahren sind Kommunikation und Unterstützung besonders relevant, gewinnen im späteren Verlauf Empathie und gezielte Förderung an Bedeutung. Auf Basis dieser Erkenntnisse wurden Maßnahmen für Unternehmen abgeleitet, darunter Schulungen zur Sensibilisierung für destruktives Führungsverhalten, Mentoring- und Coachingprogramme sowie die Einführung strukturierter Auswahlprozesse für Führungskräfte. Zukünftige Forschung könnte eine gezieltere Differenzierung nach spezifischen Berufsfeldern anwenden, um gezieltere Ergebnisse zu erhalten. Zudem könnte ein Anforderungsprofil für Unternehmen zur Auswahl von Führungskräften entwickelt werden, um gezielt Führungskompetenzen zu fördern und Fehlbesetzungen zu vermeiden.
Green Cloud Computing
(2023)
Der IT-Dienstleistungssektor hat einen signifikanten Anstieg der Nutzung von Cloud Computing erlebt und seinen Marktanteil von 14,5% im Jahr 2017 auf 42,5% im Jahr 2022 ausgebaut. Trotz der unbestreitbaren Vorteile hat dieses Wachstum Umweltbedenken aufgeworfen. Der steigende Bedarf an Rechenleistung und die Verbreitung von internetverbundenen Geräten tragen zum ökologischen Fußabdruck des Cloud-Computings bei. Studien variieren und schreiben dem Cloud Computing 0,3% bis 2% der globalen CO2-Emissionen zu, mit zusätzlichen Umweltauswirkungen wie Abfallproduktion, Wasserverbrauch und Landnutzung. Diese Masterarbeit adressiert den dringenden Bedarf an nachhaltigen Praktiken bei österreichischen Cloud Service Providern. Das Ziel ist es, handlungsorientierte Empfehlungen für die Umsetzung von grünem Cloud Computing auf Grundlage einer gründlichen Überprüfung der wissenschaftlichen Literatur zu formulieren. Unter Verwendung der systematischen Literaturübersichtsmethodik von Brocke et al. und der PRISMA-Methode analysierte diese Studie 106 Arbeiten mit einer Mindestanzahl von 5 Zitaten innerhalb eines bestimmten Zeitrahmens. Die Literatur betont überwiegend Initiativen zur Energieeffizienz, insbesondere während der Nutzungsphase von Rechenzentren, vernachlässigt jedoch die umfassendere Perspektive des gesamten Lebenszyklus. Diese Studie bestätigt die Hypothese, dass erhebliches Potenzial für die Anpassung umweltfreundlicher Maßnahmen bei Cloud Service Providern besteht. Um diese Lücke zu schließen, wird ein Umsetzungsplan für grünes Cloud Computing vorgeschlagen, der wissenschaftlichen Techniken zur Energieeffizienz auf Software- und Hardwareebene, zur Virtual Machine Consolidation und bioinspirierte Algorithmen umfasst. Aufbauend auf Erkenntnissen des deutschen Umweltbundesamts-Projekts KPI4CDE und GCC sowie der systematischen Literaturübersicht identifiziert diese Forschung ungenutztes Potenzial für weitere wissenschaftliche Untersuchungen des vollständigen Lebenszyklus von Cloud Service Providern. Diese Studie legt den Grundstein für zukünftige Forschungsinitiativen, die darauf abzielen, die Umweltauswirkungen des Cloud-Computings umfassend zu verstehen und zu mindern.
Die Technologie Künstliche Intelligenz (KI) gilt als die bedeutendste Technologie der letzten Jahre und umfasst alle Bereiche der Arbeitswelt. Das Know-How und Einsatz dieser Technologie kann enorme Wettbewerbsvorteile für das eigene Unternehmen sichern und die Bedeutung dieser Technologie hat in den letzten Jahren rapide zugenommen (Pfeiffer, 2020). Datenschutz und Compliance sind essenzielle Aspekte, da Unternehmen, die personenbezogene Daten verarbeiten oder über deren Verarbeitung entscheiden, gesetzlich verpflichtet sind, umfassende Datenschutzbestimmungen einzuhalten. Diese Verpflichtungen betreffen alle Unternehmen unabhängig von ihrer Größe und sind durch die Datenschutz-Grundverordnung (DSGVO) der EU geregelt. Verstöße gegen diese Regelungen können zu erheblichen rechtlichen und finanziellen Konsequenzen führen (Datenschutz, o. J.). Durch öffentliche LLMs stellen Anbieter unkomplizierte und preiswerte Lösungen zur Verfügung, weisen aber ein höheres Risiko für Datenlecks und Datenschutzverletzungen auf. Im Gegensatz dazu ermöglichen selbstgehostete LLMs eine verbesserte Datenkontrolle und-sicherung, erfordern aber zusätzliche Investitionen und technisches Know-how. Daher ist es sehr wichtig, das Thema auszuforschen, um im Unternehmen über die potenziellen Risiken und Konsequenzen von Datenschutzverletzungen aufzuklären (Reinking & Becker, 2023).Verstöße gegen Datenschutzrichtlinien können erhebliche rechtliche und finanzielle Folgen nach sich ziehen, einschließlich hoher Geldstrafen und eines erheblichen Imageschadens. Unternehmen riskieren den Verlust des Vertrauens ihrer Kunden und Geschäftspartner, was zu langfristigen geschäftlichen Nachteilen führen kann. Insbesondere die unbewusste oder fahrlässige Verletzung von Datenschutzvorschriften durch Mitarbeitende kann schwerwiegende Auswirkungen haben und muss daher durch um-fassende Schulungen und klare Richtlinien verhindert werden (FAQ zum Thema KI und Datenschutz, o. J.). Ziel dieser Arbeit ist es, die Datenschutz- und Compliance-Herausforderungen bei der Nutzung von selbstgehosteten und öffentlich gehosteten großen Sprachmodellen (LLMs) im Unternehmenskontext zu erforschen. Im Zuge dessen soll untersucht werden, ob und welche Nutzungsrisiken durch die Verwendung von Chatbots entstehen.
Optimierung von IT-Projekten durch integriertes Change Management und Business Process Management
(2024)
Die vorliegende Masterarbeit untersucht, wie Change Management und Business Process Management integrativ genutzt werden können, um IT-Implementierungsprojekte im Rahmen der digitalen Transformation erfolgreicher zu gestalten. Digitale Transformation ist ein komplexer, fortlaufender Prozess, der technologische, organisatorische und kulturelle Veränderungen erfordert. Trotz erheblicher Investitionen scheitern viele Digitalisierungsinitiativen daran, dass die menschliche Dimension und die Optimierung der Geschäftsprozesse nicht aus-reichend berücksichtigt werden. Das zentrale Ziel der Arbeit ist die Entwicklung eines praxistauglichen Frameworks, das die Stärken von Change Management und Business Process Management kombiniert, um die Herausforderungen von IT-Implementierungsprojekten systematisch zu bewältigen. Der Fokus liegt dabei auf IT-Projekten, während strategische Unternehmensfragen und rein technische Lösungen ausgeklammert wurden. Zur Validierung des Frameworks wurden qualitative Experteninterviews mit sieben Fachpersonen aus unterschiedlichen Branchen durchgeführt, die umfangreiche Erfahrung in digitaler Transformation, IT-Projektmanagement und Prozessoptimierung aufweisen. Die Interviews wurden transkribiert, kodiert und analysiert. Dabei wurden zentrale Themen wie Stakeholder-Management, iterative Prozessmodellierung und agile Projektmethoden identifiziert und in das Framework integriert. Die Ergebnisse zeigen, dass die Kombination von Change Management und Business Process Management unerlässlich ist, um sowohl technische als auch menschliche Anforderungen zu adressieren. Das entwickelte Framework gliedert sich in die Phasen Pre-Implementierung, Implementierung und Post-Implementierung und bietet Unternehmen eine klare Struktur zur Gestaltung erfolgreicher Projekte. Limitationen der Arbeit liegen in der qualitativen Methodik und dem branchenfokussierten Ansatz. Zukünftige Forschung könnte das Framework quantitativ validieren und auf breitere Kontexte anwenden. Das Framework legt den Grundstein für eine verbesserte Projektumsetzung und zeigt Wege auf, die Anforderungen der digitalen Transformation nachhaltig zu bewältigen.
Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz in der Softwareentwicklung
(2023)
Ziel dieser Masterarbeit war es, die Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz (KI) auf die Softwareentwicklungsbranche zu beurteilen. Die Beurteilung wurde von der steirischen Softwareentwicklungsbranche durchgeführt. Um Hypothesen aufstellen zu können, wurden aktuelle Literaturquellen analysiert. Der Theorieteil umfasst die Beschreibung einiger KI-Tools, die für die Softwareentwicklung eingesetzt werden können. Die Einsatzmöglichkeiten von KI für Softwareentwicklungstätigkeiten werden anhand aktueller Studien diskutiert. Einige ethische Aspekte sowie Einflüsse auf die Arbeitsweise und Risiken, die der Einsatz von KI mit sich bringt, werden beschrieben. Mit einem Online-Fragebogen wurde die Beurteilung und Meinung der steirischen Softwareentwicklungsbrancheerhoben. Der Fragebogen umfasst Überlegungen, wie beispielsweise die Anpassung der Ausbildungsprogramme, die mögliche Ablöse der Softwareentwicklerinnen und Softwareentwickler durch KI-Tools, das Potenzial einer Effizienzsteigerung sowie die Risiken durch die Verwendung von KI-generiertem Code. Basierend auf den Ergebnissen der Umfrage und den Literaturquellen wird die Beurteilung aktueller sowie zukünftiger Auswirkungen und Benefits abgeleitet, um die Forschungsfrage zu beantworten. Im Großen und Ganzen wird die Codegenerierung von KI-Tools als gut beurteilt. Es kann eine Effizienzsteigerung erzielt werden und wenig erfahrene Personen können durch den Einsatz von KI profitieren. Die Möglichkeit eines geringeren Personalbedarfs wird gelassen beurteilt und als nicht realistisch angesehen. Nur wenige haben in den Ausbildungsprogrammen etwas über KI gelernt, die meisten können KI-Tools trotzdem gut in den Arbeitsalltag integrieren. Bedenken hinsichtlich Lizenzverletzungen liegen kaum vor. Zusammenfassend lässt sich sagen, dass die Beurteilungen, der in dieser Masterarbeit behandelten Auswirkungen und Benefits, durch die steirische Softwareentwicklungsbranche zum Großteil mit dem aktuellen Stand der Literatur übereinstimmt.
Diese Arbeit prüft die Abwärtskompatibilität der Frontend-Frameworks Angular, React und Vue.js, um herauszufinden, welches sich am besten für Legacy-Projekte eignet. Abwärtskompatibilität spielt in der Softwareentwicklung eine wichtige Rolle. Sie sorgt dafür, dass
bestehende Systeme nach Updates oder Migrationen weiter funktionieren. Die Untersuchung nutzt eine Nutzwertanalyse mit Kriterien wie API-Stabilität, Deprecation-Politik, Versionierungsstrategie, Migrationsleitfäden, Community-Support, Leistung, Browser-Kompatibilität, Testing und interne Abwärtskompatibilität. Für die Analyse wurden Entwicklerumfragen, akademische Studien und technische Dokumentationen herangezogen. Besonders die API-Stabilität wurde anhand realer Projekte geprüft. Ergebnisse zeigen: React erreicht mit 75,15 % die beste Gesamtbewertung, gefolgt von Vue.js mit 60,14 % und Angular mit 57,30 %. React sticht durch stabile APIs, eine große Community und flexible Testing-Möglichkeiten heraus – ideal für Legacy-Projekte. Vue.js punktet mit hoher Performance und leichter Migration, hat aber Schwächen bei der API-Stabilität. Angular überzeugt durch klare Deprecation-Politik und starke Versionierungsstrategie, kämpft jedoch mit häufigen Updates und eingeschränkter interner Abwärtskompatibilität. Die Arbeit beleuchtet auch methodische Probleme, etwa die fehlende direkte Gewichtung von Kriterien und die schnelle Weiterentwicklung der Frameworks. In Zukunft könnte der Bewertungsprozess wiederholt werden, um neue Entwicklungen einzubeziehen und eine langfristige Entscheidungsgrundlage für Frontend-Technologien in Legacy-Projekten zu schaffen. Eine ständige Anpassung an technologische Veränderungen bleibt für nachhaltige Softwareentwicklung entscheidend.
Understanding user behaviors and preferences is crucial in today’s digital landscape, driving the need for automated persona generation. This thesis explores the potential of topic modeling and sentiment analysis to enhance data-driven persona creation. Analyzing a corpus of 676,000 tweets from 6,760 Twitter users (now x.com1), the study applies BERTopic for topic modeling and VADER for sentiment analysis to identify distinct themes and emotional tendencies in usergenerated content. A key finding is the significant impact of pre-processing, which improves topic coherence andinterpretability, contradicting claims that BERTopic performs equally well on raw data. The results indicate that bots predominantly generate neutral, task-oriented content, while humanusers – particularly female users – express more varied and emotionally rich sentiment.Integrating topic modeling and sentiment analysis enables multidimensional persona creationby combining thematic interests with emotional characteristics, emphasizing the value of author profiling in data-driven persona generation.This thesis highlights the potential of text mining techniques in persona creation while acknowledging challenges such as sentiment misclassification and the differentiation between bots and humans. Moreover, the findings highlight the need for structured datasets to enhance large language model-based persona descriptions, ensuring greater accuracy and coherence.Future research should explore alternative machine learning models, refine clustering methods, and assess cross-platform applicability. The combination of topic modeling and sentiment analysis offers promising opportunities for automating persona generation, enhancing e.g.,targeted marketing, and improving social media analysis.
Diese Arbeit behandelt die Digitalisierung von Vertragsprozessen durch die qualifizierte elektronische Signatur (QES), um Entscheidungsträgern und Entscheidungsträgerinnen eine empirische Entscheidungsgrundlage zu bieten. Dazu ist die Definition des Werts unter Zuhilfenahme einer Monte Carlo Simulation vorhergesagt. Zunächst sind Grundbegriffe zu Prozessmanagement und -modellierung, Simulationsmodellen, Dokumentendigitalisierung sowie der digitalen Signatur dargelegt. Abschließend ist der Wert der Signatur als einseitiges Optimierungspotenzial produktiver Zeitersparnis in Euro definiert. Der zweite Abschnitt definiert den stereotypischen Prozess sowie die rechtlichen, technischen und wirtschaftlichen Rahmenbedingungen für Digitalisierungswerkzeuge inklusive der kritischen Reflektion alternativer Ansätze. Die QES hat keine signifikante Alternative innerhalb dieser Arbeit. Im quantitativen Experiment dienen typische österreichische Unternehmen sowie deren signaturrelevante Dokumente mit Daten aus Expertenschätzungen, verfügbarere Literatur sowie nicht veröffentlichten Daten eines Signaturanbieters als Basis für eine Simulation der Prozessdurchlaufzeiten. Die darauf basierende Vorhersage des Werts mittels der Monte Carlo Simulation, die digitale und analoge Zeitersparnis gegenübergestellt, weist eine hohe Vorhersagekraft, speziell für ein typisches Unternehmen auf, wodurch die Forschungsfrage mit einem zuverlässigen Wert beantwortet ist. Es sind Empfehlungen für weitere Untersuchungen mit anderen Modellen sowie Nebenerkenntnisse dargelegt. Die Ergebnisse der Arbeit dienen als Entscheidungsgrundlage für Entscheidungsträger und sollen die Digitalisierung weiter vorantreiben.
Die vorliegende Masterarbeit mit dem Titel Evaluierung der Einsatzmöglichkeiten von E-Learning-Systemen im B2B Vertrieb“ untersucht die Identifizierung und Gewichtung von Kriterien zur Bewertung von E-Learning-Systemen im Business-to-Business (B2B)-Vertriebsumfeld. Angesichts der wachsenden Bedeutung digitalen Lernens im Corporate Learning trägt diese Studie dazu bei, eine bestehende Forschungslücke in der Bewertung von E-Learning-Systemen für das Vertriebsumfeld und Performance-Steigerungen in der Branche zu adressieren. Die Untersuchung basiert auf einem qualitativen Forschungsansatz, welcher eine KI-gestützte Literaturrecherche sowie Befragungen von Personen mit Fachexpertise nach dem Kano-Modell umfasst. Branchenspezifische Bewertungskriterien wurden aus der Fachliteratur abgeleitet und anhand der Einschätzungen erfahrener B2B-Vertriebsexpertinnen und -experten gewichtet. Der Funktionsumfang von zehn E-Learning-Systemen wurde mit einer dreistufigen Skala bewertet, um Objektivität und Vergleichbarkeit sicherzustellen. Die Ergebnisse zeigen, dass Absorb LMS den umfangreichsten ungewichteten Funktionsumfang bietet. Nach der fachspezifischen Gewichtung deutet die Analyse darauf hin, dass führende E-Learning-Systeme Funktionen priorisieren, die von Experten und Expertinnen aus dem B2B-Vertrieb geschätzt werden. Diese Arbeit identifi-ziert19 fundierte, branchenspezifisch gewichtete Kriterien zur Bewertung von E-Learning-Systemen imB2B-Vertrieb. Die Ergebnisse legen nahe, dass aktuelle Plattformen grundsätzlich für den Einsatz in diesem Bereich geeignet sind. Gleichzeitig wird weitere empirische Forschung empfohlen, um die praktische Anwendbarkeit der Kriterien zu validieren und bestehende Auswahlprozesse weiter zu optimieren.
Mit der zunehmenden Verbreitung generativer KI-Tools wie ChatGPT und GitHub Copilotin der modernen Softwareentwicklung steigt das Potenzial für eine grundlegende Veränderung verschiedener Entwicklungsprozesse. Diese Arbeit untersucht die Faktoren, die die Akzeptanz und Nutzung generativer KI-Tools durch Entwickler*innen in agilen Softwareentwicklungsteams beeinflussen. Auf Grundlage der Unified Theory of Acceptance and Use of Technology (UTAUT) und einschlägiger Forschungsergebnisse wurde eine quantitative Online-Umfrage mit 352Entwickler*innen durchgeführt. Die Ergebnisse zeigen, dass die Leistungserwartung der stärkste Treiber der Verhaltensabsicht ist – insbesondere die erwartete Steigerung von Effizienz und Produktivität. Auch die Aufwandserwartung und der soziale Einfluss haben einen positiven, jedoch geringeren Effekt auf die Nutzungsabsicht. Bei der Aufwandserwartung fallt insbesondere der wahrgenommene Aufwand für die Überprüfung und Korrektur generierten Codes ins Gewicht, während beim sozialen Einfluss externe Branchentrends eine stärkere Wirkung haben als interne Vorgaben. Neben der Verhaltensabsicht beeinflussen auch begünstigende Bedingungen das tatsächliche Nutzungsverhalten – insbesondere eine unterstützende technische Infrastruktur und organisatorische Maßnahmen wie Schulungen. Überraschenderweise zeigt sich ein negativer Zusammenhang zwischen der Anwendung agiler Praktiken und der Nutzung generativer KI-Tools, während entwicklungsnahe Tätigkeiten wie Code-Refactoring einen positiven Zusammenhang mit dem Nutzungsverhalten aufweisen. Die Erkenntnisse liefern praxisrelevante Implikationen: Unternehmen sollten nicht nur den Mehrwert generativer KI-Tools kommunizieren, sondern auch gezielte Unterstützung und Schulungen zur effektiven Nutzung bereitstellen. Zudem besteht weiterer Forschungsbedarf zur optimalen Integration generativer KI-Tools in agile Entwicklungsprozesse.
Die zunehmende Verbreitung von Large Language Models (LLMs) in Unternehmenskontexten eröffnet neue Möglichkeiten zur Automatisierung von Wissensabruf, Inhaltserstellung und Entscheidungsunterstützung. Gleichzeitig stellt ihre Implementierung hohe technische Anforderungen an die bestehende IT-Infrastruktur und Datenarchitektur von Unternehmen. Diese Arbeit entwickelt ein strukturiertes Framework, das Unternehmen bei der technischen Vorbereitung auf die Integration von LLMs unterstützt. Im Fokus der Untersuchung stehen die zentralen technischen Anforderungen, die Unternehmen erfüllen müssen, um LLMs gezielt in spezifische Aufgaben innerhalb ihrer Geschäftsprozesse zu integrieren. Ein besonderer Schwerpunkt liegt auf der Analyse unternehmensinterner Datenformate und -strukturen sowie den notwendigen Vorverarbeitungsschritten zur Sicherstellung der Kompatibilität mit LLMs. Darüber hinaus werden Best Practices für die Archivierung und Bereitstellung von Daten identifiziert. Ergänzend erfolgt eine vergleichende Analyse von On-Premises- und Cloud-basierten Hosting-Lösungen sowie von selbst-gehosteten und extern-gehosteten LLMs, wobei Skalierbarkeit und Sicherheit als zentrale Bewertungskriterien herangezogen werden. Ein weiterer Fokus der Arbeit liegt auf Retrieval-Augmented Generation (RAG) als Methode zur Optimierung der LLM-Leistung durch die Nutzung unternehmensspezifischer Wissensbestände. Die Arbeit folgt der Design Science Research Methodologie und kombiniert eine umfassende Literaturanalyse mit leitfadengestützten Experteninterviews, die primär zur Evaluation und Feinjustierung des entwickelten Frameworks dienen. Die Evaluation überprüft dessen Anwendbarkeit in verschiedenen Branchen und dessen Potenzial, IT-Abteilungen und Entscheidungsträger bei der strategischen Einführung von LLMs zu unterstützen. Die Ergebnisse dieser Arbeit sollen praktische Empfehlungen für die technische Implementierung von LLMs in Unternehmen bieten. Sie berücksichtigen sowohl infrastrukturelle als auch datenspezifische Anforderungen und sollen eine Entscheidungsgrundlage für die Einführung und Nutzung von LLMs liefern.
Diese Masterarbeit untersucht den Einsatz von Künstlicher Intelligenz im Recruiting-Prozess von Großunternehmen in der österreichischen IT-Branche. Vor dem Hintergrund des zunehmenden Fachkräftemangels in der IT-Branche beleuchtet die Arbeit den Nutzen und die Herausforderungen beim Einsatz von KI-gestützten Recruiting-Tools. Die Untersuchung basiert auf einem zweistufigen Forschungsansatz. Zunächst wurde eine umfassende Literaturrecherche durchgeführt, um die aktuelle Fachkräftesituation, die Entwicklung moderner Recruiting-Strategien sowie die theoretischen Grundlagen von KI im Personalwesen darzustellen. Dabei wurden zentrale Technologien wie Matching-Tools, Chatbots, Workforce Analytics und automatisierte Assessments ebenso betrachtet wie rechtliche und ethische Aspekte, insbesondere in Bezug auf Datenschutz, Transparenz und Diskriminierungsrisiken. Ergänzend wurden qualitative Experteninterviews mit Fachleuten aus den Bereichen IT und Human Resources durchgeführt. Die Auswertung der Interviews erfolgte anhand der qualitativen Inhaltsanalyse nach Mayring und lieferte praxisnahe Einblicke in Chancen, Risiken und Erfolgsfaktoren bei der Implementierung von KI-gestützten Recruiting-Tools. Die Ergebnisse zeigen, dass KI das Recruiting deutlich effizienter gestalten kann - insbesondere in den Bereichen Kandidatenscreening, Kommunikation und datenbasierte Entscheidungsfindung. Gleichzeitig bestehen weiterhin Bedenken hinsichtlich algorithmischer Verzerrung, mangelnder Nachvollziehbarkeit und rechtlicher Unsicherheiten. Der verantwortungsvolle Einsatz von KI erfordert daher klare ethische Leitlinien und ein stabiles rechtliches Fundament. Diese Arbeit liefert sowohl theoretische Grundlagen als auch praxisorientierte Handlungsempfehlungen für Unternehmen, die KI im Recruiting einsetzen möchten, um im Wettbewerb um IT-Fachkräfte zukunftsfähig zu bleiben.
Das Ziel dieser Arbeit ist die Analyse des Einflusses der Trainingsdatenmenge auf die Leistungsfähigkeit neuronaler Netzwerkarchitekturen in der Zeitreihenvorhersage. Untersucht werden Recurrent Neural Network (RNN), Convolutional Neural Network (CNN) und Trans-former-Modelle, einschließlich Long Short-Term Memory (LSTM),Gated Recurrent Unit (GRU) und Temporal Convolutional Network (TCN). Ziel ist die systematische Bewertung ihrer Stärken und Schwächen in der Zeitreihenvorhersage. Dazu wurde die Design Science Research Methodology (DSRM) genutzt. Eine systematische Literaturrecherche identifizierte relevante Architekturen und Bewertungsmetriken. Anschließend wurde ein Benchmarking-Framework entwickelt, um Hyperparameter-Tuning, Training und Evaluation über verschiedene Datensätze zu standardisieren. Eine empirische Analyse unter-suchte den Einfluss variierender Datenmengen auf die Modellleistung. Die Ergebnisse zeigen, dass mehr Trainingsdaten die Vorhersagegenauigkeit verbessern, jedoch mit abnehmendem Nutzen ab einem bestimmten Schwellenwert. Der Einfluss der Datenmenge ist stark architekturabhängig: Rekurrente Modelle wie LSTMs und GRUs profitieren zunächst stark von größeren Datensätzen, erreichen jedoch einen Sättigungspunkt, an dem zusätzliche Daten keinen signifikanten Vorteil mehr bringen oder sogar Overfitting verursachen. Im Gegensatz dazu zeigen TCN- und Transformer-Modelle eine stabilere Leistung über verschiedene Trainingssplits hinweg, was auf eine höhere Robustheit in der Modellierung langfristiger Abhängigkeiten und der Anpassung an unterschiedliche Datenmengen hinweist. Auf Basis dieser Erkenntnisse leistet diese Arbeit einen methodischen Beitrag zur standardisierten Bewertung der Datenmengenabhängigkeit in der Zeitreihenvorhersage. Zukünftige Forschung sollte sich auf die Optimierung der Dateneffizienz durch adaptive Aggregation, fortgeschrittene Vorverarbeitung und Feature Engineering konzentrieren, um die Effizienz und Robustheit neuronaler Netzwerke weiter zu verbessern.
Drag-n-Share
(2024)
The proliferation of file-sharing technologies has revolutionized how users transfer data across devices. However, current solutions often face limitations in terms of accessibility, cross-platform compatibility, security, and efficiency. This thesis introduces “Drag-n-Share”, a novel file-sharing service designed to address these limitations and provide a streamlined, secure, and user-friendly experience for cross-device data transfer.Drag-n-Share utilizes a web-based architecture requiring no installation or account authentica-tion, making it highly accessible across devices with a stable internet connection and browser support. Leveraging a microservice architecture with a Rust-based backend, the system integrates a Redis in-memory database for session handling and real-time file chunk transmission via websockets. Security measures such as Advanced Encryption Standard with Gal-ois/Counter Mode (AES-GCM) and Elliptic Curve Diffie-Hellman (ECDH) encryption ensure data protection during transmission.This thesis evaluates Drag-n-Share against existing file-sharing solutions using quantitative and qualitative methods, focusing on usability, performance, and security. The results demonstrate that Drag-n-Share excels in minimizing user actions, eliminating platform de-pendencies, and achieving high levels of security, while maintaining decent file transfer speeds for large datasets.By addressing the gaps in current file-sharing technologies, Drag-n-Share sets a new bench-mark for cross-platform file sharing, contributing a robust and scalable solution to the field.
Die vorliegende Masterarbeit geht der Fragestellung nach, wie ein Change-Prozess gestaltet werden kann, um die Cyber-Resilienz von Gesundheitsunternehmen zu verbessern. Aufgrund der zunehmenden Digitalisierung im Gesundheitswesen und der steigenden Anzahl von Cyberangriffen ist dieses Thema von hoher Aktualität und Relevanz. Methodisch wurde zunächst ein Prozess auf Basis einer umfangreichen Literaturrecherche entwickelt. Dieser Prozess wurde anschließend mittels Experteninterviews auf Stärken und Schwächen geprüft, wodurch ein qualitativer Einblick in die Erfahrungen und Wahrnehmungen von Fachleuten aus dem Gesundheitswesen gewonnen werden konnte. Die darauffolgende Inhaltsanalyse nach Mayring ermöglichte eine genaue Untersuchung der Interviews. Im Anschluss wurde ein angepasstes Prozessmodell auf Grundlage der Literaturrecherche und der Expertenmeinungen erstellt. Die Ergebnisse der Masterarbeit führten zur Entwicklung eines optimierten Change-Prozesses, der insgesamt mehrere zentrale Anpassungen umfasst. Dazu zählen unter anderem die Flexibilisierung von Prozessschritten durch optionale Gestaltung abhängig von Risikobewertung und Dringlichkeit, die Anpassung von Implementierungsmethoden und Sprint-Längen an die spezifischen Ressourcen und Kapazitäten im Gesundheitswesen sowie ein effizientes Backlog-Management mit regelmäßiger Aktualisierung und klarer Verantwortlichkeit. Ein weiterer Aspekt, der ursprünglich in Erwägung gezogen wurde, war die umfassende Entwicklung einer Kommunikationsstrategie vor jeder Implementierung. Da jedoch festgestellt wurde, dass in dringenden Fällen nicht immer Zeit für eine ausführliche Kommunikationsplanung bleibt, wurde dieser Punkt im angepassten Prozess als optional gekennzeichnet. Es wurde dennoch empfohlen, die Kommunikationsstrategie im Gesundheitswesen weiterhin zu berücksichtigen, insbesondere für geplante Änderungen. Insgesamt zeigt die Masterarbeit, dass eine gezielte Anpassung von Change-Management-Prozessen an die spezifischen Bedingungen und Herausforderungen des Gesundheitswesens einen wesentlichen Beitrag zur Steigerung der Cyber-Resilienz leisten kann. Vor dem Hintergrund einer zunehmend digitalen und vernetzten Arbeitswelt ist diese Erkenntnis von hoher Relevanz für die langfristige Sicherheit und Stabilität von Gesundheitsunternehmen.
Voraussetzungen einer Immobilienwert-Analyse App für die erfolgreiche Vermarktung über Social-Media
(2024)
Diese Masterarbeit widmet sich der Analyse der technischen Voraussetzungen für eine erfolgreiche Vermarktung von Immobilien über Social Media mithilfe einer Immobilienwert-Analyse-App. Ziel ist es, die Einflussfaktoren zu identifizieren, die den Erfolg solcher Apps beeinflussen und Empfehlungen für ihre optimale Nutzung abzuleiten und anschließend herauszufinden, wie und auf welchen Plattformen eine solche App bestmöglich vermarktet werden kann. Die Forschung stützt sich auf eine Literaturrecherche zu aktuellen Entwicklungen im Bereich der Immobilienvermarktung und diversen Aspekten von Social Media. Zudem werden Experten zu ihrem Nutzungsverhalten und -präferenzen in Bezug auf Immobilienwertanalyse-Apps sowie zu digitalen Plattformen befragt, um ein umfassendes Verständnis für die Erwartungen potenzieller Nutzer*innen zu entwickeln. Die methodische Herangehensweise umfasst Zielgruppeninterviews mit Experten aus dem Immobilienbereich, um ihre Perspektiven auf die Chancen sowie Herausforderungen einer Immobilienwert-Analyse-App und ihre Vermarktung über Social Media zu erfassen. Abschließend werden die Befragungen analysiert, um statistische Muster im Nutzerverhalten und der Performance solcher Apps zu identifizieren, um eine Vermarktungsstrategie zu entwickeln. Die Ergebnisse sollen nicht nur dazu beitragen, die Voraussetzungen für den Erfolg einer Immobilienwert-Analyse-App herauszufinden, sondern auch konkrete Handlungsempfehlungen für Entwickler*innen und Anbieter*innen solcher Apps bieten. Die Erkenntnisse dieser Masterarbeit tragen somit dazu bei, innovative Lösungen zu entwickeln, die den Anforderungen des modernen Immobilienmarkts gerecht werden und eine effektive Verbindung zwischen sozialen Medien sowie digitalen Technologien schaffen.
Die vorliegende Arbeit untersucht eingehend die Thematik des Wandels und des Change Managements in Unternehmen, insbesondere im Kontext von Logistikautomatisierungsunternehmen. Die Motivation für diese Forschung basiert auf der Notwendigkeit, die Herausforderungen und Erfolgsfaktoren bei Veränderungsprozessen in dieser speziellen Branche zu verstehen und zu identifizieren. Die Arbeit beginnt mit einer umfassenden Darstellung des Wandels, definiert den Terminus und beleuchtet verschiedene Mo-delle wie das Wachstumsmodell von Greiner, das Unternehmensentwicklungsmodell von Bleicher und das Change-Modell von Hurst. Der Schwerpunkt der Arbeit liegt auf dem Change Management, wobei die Handlungsfelder und Verhaltensmuster eingehend betrachtet werden. Detailliert werden Modelle wie das 8-Stufen Modell nach Kotter, das ADKAR Modell und agile Change-Management-Ansätze untersucht. Erfolgsfaktoren im Change-Management werden herausgearbeitet und zusammengefasst. Ein weiteres zentrales Element der Untersuchung ist die Rolle der Führung als Einflussfaktor im Veränderungsprozess. Die Arbeit analysiert verschiedene Aspekte wie Aufgabenteilung, Zielsetzung, Informationsversorgung, Mitarbeitermotivation, Autorität, Führungsverhalten, Veränderungsbereitschaft, Change-Fähigkeiten und -Kompetenz. Die methodische Herangehensweise beinhaltet die Anwendung analytischer Statistik, die Auswahl der Forschungsmethode sowie die Anpassung und Durchführung von Befragungen. Die Ergebnisse der Untersuchung zeigen das die wichtigsten Erfolgsfaktoren im Change Management die Kommunikation, die Führung und das Identifizieren und Verankern von Erfolgen sind.
Die Informationstechnologie (IT) ist eine sich schnell verändernde Branche und bietet vielfältige Möglichkeiten, neue Geschäftsfelder zu etablieren oder bestehende Geschäftsmodelle und Prozesse zu modernisieren. Dieser Vorgang, weithin unter der Bezeichnung Digitalisierung bekannt, bringt auch eine Vielzahl an Herausforderungen für die IT-Infrastruktur. Diese muss immer schneller reagieren und sich zeitgleich neuen Sicherheitsanforderungen stellen. Um diesen Anforderungen gerecht zu werden, müssen Prozesse beschleunigt und automatisiert werden. Bereits heute werden viele Server virtuell zur Verfügung gestellt, wodurch diese binnen weniger Augenblicke für neue Services bereitstehen. Dieser Trend der Virtualisierung lässt sich nach und nach auch im übrigen Datacenter erkennen. Das sogenannte Software-defined Datacenter soll Unternehmen dabei helfen, das gesamte Datacenter, beginnend bei Servern, Storage, Security-Komponenten bis hin zum Netzwerk, zu virtualisieren. Dadurch sollen Prozesse automatisiert und Fehlerquellen reduziert werden. Eine besondere Herausforderung stellt dabei das Netzwerk dar. Bis heute wird der Großteil der Netzwerkkomponenten von Administratoren manuell und einzeln administriert, wodurch sich potenzielle Fehler innerhalb der Konfiguration ergeben. Um diese Fehler zu reduzieren und um die Konfigurationszeiten zu verkürzen, werden nach und nach neue Technologien im Software-defined-Networking-Bereich etabliert. Dabei stellt sich die Frage, wie ein Konzept zur Automatisierung eines modernen Netzwerkes gestaltet sein kann. In der vorliegenden Forschungsarbeit wurde versucht, dies Anhand eines Prototypings zu erarbeiten. Besonderes Augenmerk wurde hier auf IT-Dienstleister im öffentlichen Bereich gelegt. Einleitend wurde auf die Notwendigkeit einer infrastrukturellen Veränderung eingegangen, wodurch sich klar erkennen ließ, dass mit zunehmender Digitalisierung Technologien wie SDN an Bedeutung gewinnen. Abschließend konnte erkannt wer-den, dass SDN eine zukunftsträchtige Technologie ist, jedoch nicht als Standardprodukt zu verstehen ist. SDN muss individuell für jedes Unternehmen durchdacht werden, damit die Vorteile der Automatisierung genutzt werden können.
Im Zuge der fortschreitenden Digitalisierung und der stetigen Veröffentlichung neuer Softwareprodukte steigen die Anforderungen der Anwender*innen an die Softwarequalität kontinuierlich. Insbesondere die Zuverlässigkeit der Software spielt eine zentrale Rolle für die Zufriedenheit der Nutzer*innen. Die vorliegende Masterarbeit untersucht, wie die Einführung von Software Fault Injection in einem österreichischen Automatisierungstechnikunternehmen zur Steigerung der Softwarezuverlässigkeit beitragen kann. Vor dem Hintergrund wachsender Anforderungen an die Zuverlässigkeit und Fehlertoleranz von Software leistet diese Arbeit einen Beitrag zur Erhöhung der Robustheit und Qualität von Softwareprodukten. Im ersten Schritt wurde methodisch nach dem Design Research Ansatzes mittels Literaturrecherche ein Leitfaden zur Einführung von Software Fault Injection konkret in Form von Mutation Testing erstellt, wobei sich dieser in die drei Bereiche „Schrittweiser Leitfaden zur Anwendung“, „Best-Practices“ und „Schulung und Dokumentation“ untergliedert. Der erstellte Leitfaden wurde im nächsten Schritt anhand eines österreichischen Automatisierungstechnik Unternehmens in einer Fallstudie nach Yin angewandt. Das untersuchte Softwareprodukt ist eine in C# entwickelte Windows-Desktop-Applikation und stellt eine ungewöhnliche Domäne für Fault Injection dar. Daher wurde der Leitfaden insbesondere auf die Anwendbarkeit in einem Praxisumfeld mit diesem Technologie Stack überprüft, um Rückschlüsse über die Effektivität und Effizienz der Anwendung des Leitfadens in dieser spezifischen Fault Injection Domäne zu ziehen. Die Ergebnisse der Arbeit zeigen, dass Mutation Testing in einem Softwareentwicklungsprozess wertvolle Erkenntnisse über die Qualität der Softwaretests auf Unittest Ebene liefert und gezielt Optimierungspotentiale für bestehende Tests sowie mangelhafte Testabdeckung aufdeckt. Die durchgeführte Fallstudie ergab, dass der Einsatz von Mutation Testing zu einer signifikanten Steigerung der Softwaretestqualität beitragen kann. Hierbei liegt der Fokus auf die Verbesserung von Unittests, wodurch potenzielle Problemstellungen frühzeitig identifiziert und behoben werden können. Die Einführung in die CI/CD-Pipeline zeigte, dass die effektive und effiziente Nutzung von Mutation Tests im Zuge der kontinuierlichen Softwareentwicklung auf. Weiters wurden Optimierungspotenziale des Leitfadens identifiziert, welche für zukünftige Forschungen als Grundlage dienen können, um die Verbreitung von Software Fault Injection in diversen Anwendungsdomänen voranzutreiben. Abschließend verdeutlicht die Masterarbeit, dass die Einführung von Mutation Testing in den bestehenden Entwicklungsprozess eines Unternehmens zur Steigerung der Softwarezuverlässigkeit beitragen kann. Technische und organisatorische Herausforderungen werden durch die gewonnenen Erkenntnisse aus Literatur und Praxis adressiert, um eine effektive Einführung von Software Fault Injection zu ermöglichen. Angesichts der zunehmenden Anforderungen an Softwarequalität und Zuverlässigkeit stellt diese Arbeit einen wertvollen Beitrag zur Verbesserung der Softwarequalität in Unternehmen dar.
Diese Masterarbeit untersucht methodische Ansätze zur Einführung von Machine-Learning-Modellen in Klein- und Mittelbetrieben, mit dem Ziel, deren Geschäftsprozesse effizient zu optimieren und gleichzeitig die Anforderungen der Datenschutz-Grundverordnung (DSGVO) zu erfüllen. Angesichts der fortschreitenden Digitalisierung und der wachsenden Bedeutung datenbasierter Technologien stehen Klein- und Mittelbetriebe vor der Herausforderung, das Potential von Machine-Learning-Modellen zu nutzen, ohne dabei rechtliche, organisatorische und technische Hürden außer Acht zu lassen. Die Arbeit gliedert sich in einen theoretischen und einen empirischen Teil. Der theoretische Teil umfasst eine umfangreiche Literaturrecherche, die den aktuellen Stand der Forschung sowie die Anwendungsmöglichkeiten von Machine-Learning in unterschiedlichen Unternehmensbereichen analysiert. Dabei werden relevante Einsatzgebiete wie Marketing, Kundenkommunikation und Prozessautomatisierung identifiziert. Der empirische Teil basiert auf einem Design-Science-Research-Ansatz, der durch leitfadenbasierte Expert:inneninterviews ergänzt wird. Ziel ist es, praxisnahe Erkenntnisse zu den Herausforderungen, Vorteilen und Erfolgsfaktoren bei der Implementierung von Machine-Learning in Klein- und Mittelbetrieben zu gewinnen. Das zentrale Ergebnis der Arbeit ist die Entwicklung eines Leitfadens, der Klein- und Mittelbe-triebe dabei unterstützt, Machine-Learning ressourcenschonend und datenschutzkonform einzusetzen. Der Leitfaden beinhaltet Handlungsempfehlungen zur Datenaufbereitung, zur Auswahl geeigneter Machine-Learning-Modelle und zur Berücksichtigung regulatorischer Anforderungen. Die durchgeführten Interviews zeigen, dass Machine-Learning insbesondere in Bereichen wie der Automatisierung von Geschäftsprozessen und der datenbasierten Entscheidungsfindung zu signifikanten Effizienzsteigerungen beitragen kann. Gleichzeitig wird auf Herausforderungen wie die Sicherstellung der Datenqualität und die Einhaltung der DSG-VO eingegangen.
Eine erfolgreiche Einführung und Nutzung von Cloud-ERP Lösungen bedarf einer organisierten Zusammenarbeit aller Beteiligten im Projekt. Hierbei müssen Entscheidungen getroffen, Prozesse definiert und Zuständigkeiten festgelegt werden. Während des Projektverlaufs werden Wissensinhalte unterschiedlichster Themenbereiche generiert und geteilt. Diese Wissensinhalte gilt es frühzeitig im Projekt transparent zu dokumentieren, um eine stabile Verwendung der ERP-Lösung mit dem Ende der Implementierungsphase und der Übergabe in die Nutzungsphase zu gewährleisten. Im Unternehmen B4B Solutions GmbH kommen für das Wissens- und Projektmanagement die Anwendungen Jira und Confluence von Atlassian zum Einsatz. In der vorliegenden Masterarbeit wird der Nutzen dieser Anwendungen in Bezug auf das Wissensmanagement in ERP-Projekten untersucht. Der Autor hat für diese Untersuchung Interviews mit vier Personen durchgeführt, die bei B4B Solutions in unterschiedlichen Projektrollen mit Jira und Confluence arbeiten. Somit wurden die Fragen aus dem erarbeiteten Interviewleitfaden aus unterschiedlichen Blickwinkeln beantwortet. Die Interviews wurden transkribiert, paraphrasiert und einer qualitativen Inhaltsanalyse unterzogen. Die Ergebnisse der Inhaltsanalyse bilden die Basis für die Beantwortung der Forschungsfrage „Welchen Nutzen schaffen die Webanwendungen Jira und Confluence bei der Einführung und Nutzung von Cloud-ERP-Systemen in mittelständischen Unternehmen?“ und der Validierung der im Vorhinein definierten Hypothesen. Die Hypothesen wurden einer Rücküberprüfung unterzogen. Ein Abschlussfazit und Schlussfolgerungen runden die Masterarbeit ab und spiegeln die persönliche Einschätzung des Autors im Hinblick auf jene Fallstricke im Wissensmanagement wider, mit denen Organisationen in ERP-Projekten rechnen müssen.
Diese Masterarbeit untersucht die zentralen Herausforderungen, denen traditionelle, ITIL-orientierte IT-Betriebsteams in Großunternehmen bei der Umstellung auf cloudnative Methoden gegenüberstehen. Basierend auf einer qualitativen Analyse durch Experteninterviews werden die wesentlichen Hürden wie kultureller Wandel, technologische Anforderungen und organisatorische Anpassungen identifiziert. Die Arbeit bietet einen systematischen Überblick über typische Problemfelder und leitet daraus Handlungsempfehlungen ab, die als Grundlage für weiterführende Untersuchungen und Lösungsansätze dienen können.
This thesis introduces a digital artefact designed to address organizational challenges faced by bands and musicians. Bands often encounter difficulties in managing schedules, resolving conflicts, and organizing shared resources. The artefact provides a centralized platform for task management, scheduling, and collaboration, with a focus on usability and security. Guided by usability principles from experts like Nielsen and Krug, the artefact emphasizes an intuitive user experience. Key features include personalized task management, collaborative tools for bands, and robust privacy controls. User appointments are anonymized in shared views to maintain privacy while enabling collaboration.Security is a cornerstone of the system, implemented through authentication and permission-based access control. The artefact also supports conflict resolution, alerting users to scheduling overlaps and facilitating resolution to reduce disruptions. Additional functionalities include tools for managing equipment, setlists, and band-specific resources.Evaluated heuristically using three personas representing diverse roles within bands, the arte-fact was found to meet all defined requirements. It successfully delivers a secure, efficient, and user-friendly solution to the identified challenges.The artefact’s multilingual support and modular design ensure scalability and adaptability for future enhancements, such as real-time collaboration and advanced analytics. This thesis demonstrates how tailored digital tools can effectively address challenges in the creative industries, empowering musicians to collaborate more efficiently and focus on their craft. The work establishes a foundation for future innovations in technology that support creative professionals.
Diese Arbeit untersucht die Anwendung von Künstlicher Intelligenz zur Verbesserung des Dispatchings im Bereich der Ressourceneinsatzplanung für Netzbetreiber in der Energiebranche, ein Gebiet, das zunehmend von den Herausforderungen der Energiewende und den Zielen der Klimaneutralität geprägt wird. Die zentrale Forschungsfrage lautet: Welche KI-Methoden eignen sich für die Verbesserung des Dispatchings in der Ressourceneinsatzplanung bei Netzbetreibern in der Energiebranche? Ziel ist es, bestehende KI-Methoden zu bewerten und ihre Anwendbarkeit in diesem spezifischen Kontext zu beurteilen, ohne neue Algorithmen zu entwickeln. Um diese Frage zu beantworten, folgt die Arbeit einem dreistufigen methodischen Ansatz. Zunächst wird eine einleitende Literaturrecherche durchgeführt, um relevante Methoden zu identifizieren und zentrale Bewertungskriterien abzuleiten. Anschließend werden Experteninterviews durchgeführt, um praktische Einblicke zu gewinnen und die theoretischen Erkenntnisse zu validieren. Abschließend werden die Ergebnisse in einer Nutzwertanalysezusammengefasst, die eine gewichtete Bewertung der Methoden im gegebenen Kontext der Arbeit liefert. Die Analyse zeigt, dass Methoden wie Deep Q-Networks, Improved Deep Q-Networks und Particle Swarm Optimization ein erhebliches Potenzial aufweisen, insbesondere in dynamischen und komplexen Planungsumfeldern wie dem Dispatching. Die Ergebnisse unterstreichen das Potenzial von KI, die betriebliche Effizienz zu steigern, repetitive Aufgaben zu Automatisieren, menschliche Fehler zu reduzieren und implizites Expert*innenwissen allen verfügbar zu machen. Diese Studie leistet somit einen wertvollen Beitrag zur Forschung, indem sie die Eignung ausgewählter KI-Methoden für das Dispatching im Energiesektor systematisch bewertet. Siebietet zukünftigen Entscheidungsträgern eine fundierte Grundlage für die Auswahl geeigneter Technologien und hebt wichtige Aspekte hervor, die bei der Implementierung KI-gestützter Systeme zu berücksichtigen sind.
Ziel dieser Masterarbeit ist die Entwicklung eines fortschrittlichen Modells zur kontextbasierten Erkennung und Filterung von Hassrede in der deutschen Sprache. Die Arbeit geht auf die Einschränkungen bestehender Modelle ein, die vorwiegend für englischsprachige Daten konzipiert sind, und passt moderne Techniken der natürlichen Sprachverarbeitung (NLP) an die sprachlichen und kulturellen Besonderheiten des Deutschen an. Im Fokus steht die Bewältigung der Herausforderungen, die mit der Kontextidentifikation in Textkommunikationen, insbesondere in sozialen Medien und anderen Echtzeitkommunikationsumgebungen, verbunden sind. Ziel ist es, die Defizite traditioneller, schlüsselwortbasierter Ansätze zu überwinden. Die Methodik umfasste eine umfangreiche Datenvorverarbeitung, die Einbindung von Konversationshistorien zur Erfassung des Kontexts sowie das Fine-Tuning eines vortrainierten Large Language Models (LLM). Eine systematische Evaluierung anhand von Metriken wie Accuracy, Precision, Recall und F1-Score zeigte signifikante Verbesserungen gegenüber Basismodellen. Die Ergebnisse unterstreichen die Bedeutung des Kontexts, um die Klassifikationsgenauigkeit zu erhöhen und falsch-positive sowie falsch-negative Ergebnisse zu minimieren. Diese Forschung liefert einen robusten und anpassungsfähigen Rahmen für die Hassredeerkennung in der deutschen Sprache und trägt sowohl zu wissenschaftlichen Fortschritten als auch zu praktischen Anwendungen bei. Potenzielle Einsatzbereiche umfassen die Inhaltsmoderation auf sozialen Medienplattformen, die Echtzeitfilterung in Kommunikationswerkzeugen und andere Domänen, die eine effiziente und skalierbare Textanalyse erfordern. Die Ergebnisse verdeutlichen die Notwendigkeit, kontextsensitive Modelle weiter zu erforschen, um die Herausforderungen moderner digitaler Kommunikation zu bewältigen.
Ob in Form von Internetsuchmaschinen, Chatbots oder autonomen Fahren, der Vormarsch von künstlicher Intelligenz (KI) ist in Österreich unausweichlich. Während die einen den Fortschritt kaum abwarten können, fordern andere bereits einen Entwicklungsstopp. Kaum eine andere Technologie hat in den letzten Jahren für so viel Polarisierung gesorgt. Diese Masterarbeit behandelt das Thema KI in Kombination mit dem Vorgehensmodell Scrum. Viele österreichische Unternehmen, darunter auch kleine und mittlere Unternehmen (KMU), setzen Scrum ein, um komplexe Softwareprodukte zu entwickeln. Ziel dieser Arbeit ist es herauszufinden, welchen Einfluss künstliche Intelligenz auf den Scrum Prozess von IT-Projekten in österreichischen KMU hat. Um Erkenntnisse zu gewinnen, ist in der Forschungsarbeit ein Mixed-Methods Ansatz zum Einsatz gekommen. Hierbei besteht der Eckpfeiler aus der qualitativen Forschung in Form von Expertinnen- und Experteninterviews. Diese Erkenntnisse haben in Kombination mit der Theorie die Grundlage für die Entwicklung weiterer Hypothesen gebildet, welche die fünf Dimensionen Effizienz, Dauer, Qualität, Zufriedenheit und Erfolg umfassen. Besagte Hypothesen wurden dann mit Hilfe der quantitativen Forschung durch eine Umfrage auf der Grundlage eines Fragebogens getestet. Die Ergebnisse dieser Arbeit zeigen, dass der Einsatz von KI im Scrum Prozess einen positiven Einfluss auf alle fünf Dimensionen darstellt. Aus diesem Grund sollen österreichische KMU die Einführung von KI in ihren Scrum Prozess in Betracht ziehen. Es ist schwer zu sagen, wie sich die Dinge in den nächsten Jahren entwickeln werden, aber basierend auf den Resultaten der Arbeit lohnt sich ein Blick in Richtung KI für österreichische KMU.
Der Einfluss von Remote Working auf die Arbeitszufriedenheit hängt weitgehend von der Person, dem Arbeitsumfeld, Beziehungen zu Kolleg*innen und einer Reihe anderer Aspekte (Identifikatoren) ab. Einige der positiven Einflüsse des Remote Workings auf die Arbeitszufriedenheit sind: ▪ Flexibilität: Remote Working ermöglicht es der oder dem Einzelnen, mehr Kontrolle über ihren oder seinen Arbeitsplan zu haben, was zu mehr Flexibilität und einer besseren Vereinbarkeit von Beruf und Privatleben führen kann. ▪ Geringere Pendelzeiten: Durch den Wegfall des täglichen Pendelns sparen Telearbeiter*innen Zeit und Geld, und haben einen geringeren ökologischen Fußabdruck. ▪ Verbesserte physische Umgebung: Viele Fernmitarbeiter*innen berichten, dass sie sich in ihrer eigenen Umgebung wohler fühlen und produktiver arbeiten können. Einige der negativen Auswirkungen des Remote Workings auf die Arbeitszufriedenheit sind: ▪ Isolation: Remote Working kann zu Gefühlen der Isolation und Einsamkeit führen, was sich negativ auf die Arbeitszufriedenheit auswirken kann. ▪ Mangelnde Zusammenarbeit: Remote Working kann die Zusammenarbeit mit Kolleg*innen erschweren und zu einem Mangel an sozialer Interaktion führen. ▪ Work-Life-Balance: Für Telearbeiter*innen kann es schwierig sein, Arbeit und Privatleben zu trennen, was zu Überlastung und Burnout führen kann. Insgesamt ist der Einfluss des Remote Workings auf die Arbeitszufriedenheit komplex und vielschichtig. Zudem hängt er von einer Vielzahl von Aspekten ab, zu denen individuelle Präferenzen, die Arbeitskultur und die Unterstützung durch die oder den Arbeitgeber*in zählen. Ziel dieser Arbeit ist es, diese Einflüsse aus der Sicht von Arbeitnehmer*innen und Führungskräften zu untersuchen und eine Liste relevanter Aspekte (Identifikatoren) zu erstellen, die für die Zusammenarbeit zwischen beiden Gruppen hinsichtlich Arbeitszufriedenheit im Remote Working relevant sind.
Für eine qualitativ hochwertige Fertigung in einem industriellen Umfeld müssen die Produkte eine Vielzahl von Prüf- und Qualitätsstandards erfüllen. Diese Inspektionsprozesse, zum Beispiel das Messen der Dichte von Flüssigkeiten, werden von hochpräzisen Messsystemen erledigt. Am Ende jeder Messung entstehen Ergebniswerte, die oftmals zu Analysezwecken benötigt werden. Besitzt das jeweilige Messsystem keine Schnittstelle nach außen oder lediglich eine veraltete Schnittstelle wie RS232, die aber vom übergeordneten System nicht mehr unterstützt wird, kann sich der händische Datenübertragungsprozess als mühselig erweisen. Diese Masterarbeit befasst sich mit der Konzeptionierung und Implementierung eines Gateway-Prototypen-Adapters, um Smart Services mit Telemetrie- beziehungsweise Messdaten unter Verwendung des Einplatinencomputers Raspberry Pi zu versorgen. Ein weiteres Ziel dieser Arbeit ist es, die Portabilität und Skalierbarkeit des Gateway-Adapters mithilfe einer Microservice-orientierten Architektur und der Verwendung von Containertechnologien möglichst hoch zu halten. Zu diesem Zweck wurde speziell für den Gateway-Adapter-Prototyp eine standardisierte Schnittstelle entwickelt. Diese Arbeit vermittelt außerdem ein vertieftes Verständnis hinsichtlich Interaktionsmöglichkeiten mit verschiedenen Protokollen, Protokollformaten und Programmierparadigmen für verteilte Systeme sowie bezüglich Grundlagen der Hard- und Software des Einplatinencomputers Raspberry Pi und des Prototypings im Zuge der Softwareentwicklung. Das Ergebnis dieser Masterarbeit zeigt, dass es möglich ist, Smart Services auch mit Daten aus alten Messsystemen zu speisen. So bietet der Einsatz des Gateway-Adapters nicht nur die Option, Altsysteme weiterhin zu verwenden, sondern ermöglicht durch sein Architekturkonzept Modularität und zukünftige Erweiterung.
Durch Trends wie die Digitalisierung, immer verfügbare Online-Shops und Bestellsysteme, die Nutzung von neuen Technologien und größer werdende Datenmengen, gab es in den letzten Jahren eine massive Veränderung der Logistik. Dem hinzukommend verursachte eine weltweite Pandemie einen immensen Druck auf die Logistikbranche . Szenarien wie Ausfälle der Lieferketten, verursacht durch Maschinen oder Softwaresysteme, müssen vermieden werden. Deswegen versucht die Logistikwirtschaft neue Technologien wie Predictive Maintenance und Data Mining in deren Warehouse Management Systeme einfließen zu lassen, um eine nahezu unterbrechungsfreie Logistiklieferkette gewährleisten zu können. Aus diesem Grund werden in der vorliegenden Arbeit die Einflussfaktoren und Potentiale des Data Minings auf Predictive Maintenance in einem Warehouse Management System evaluiert. Um diese Einflussfaktoren des Data Minings zu finden, wurden im ersten Schritt Data Mining Verfahren und deren Einsatzzwecke in der Logistik mit Hilfe einer Literaturrecherche elaboriert. Des Weiteren wurden die Einsatzgebiete von Predictive Maintenance in einem Warehouse Management System seitens Hardware aber auch Software näher betrachtet. Die im Theorieteil der Arbeit erkannten Einflussfaktoren und Potentiale des Data Minings auf Predictive Maintenance in einem Warehouse Management System wurden mittels Interviews mit Experten und Expertinnen aus der Logistikbranche durchgeführt, ausgewertet und evaluiert. Der zentrale Einflussfaktor ,welcher von allen Experten und Expertinnen genannt wurde, ist das aktive Benutzen und Verwerten des Wissens sowie die gewonnenen Erkenntnisse durch das Data Mining. Schließlich konnten, durch die Auswertung der Interviews konnten, folgende Einflussfaktoren und Potentiale erarbeitet werden: ▪Mittels IOT Geräten, welche an Maschinen und Fördertechnik angebracht werden, können frühzeitig Störungen mittels Data Mining Techniken erkannt und aufgezeigt werden. ▪Der Einsatz der Regression auf den Durchsatz eines Systems mittels historischer Daten, um eine Veränderung der Durchlaufzeiten zu erkennen und somit frühzeitig eine Störung oder ein Problem vorauszusagen.
Die Pandemie hat die Einführung digitaler Technologien um mehrere Jahre beschleunigt, jedoch auch Unternehmen in verschiedenen Wirtschaftszweigen vor unterschiedliche Herausforderungen wie jene der Kommunikation in Unternehmen gestellt. (Almeida, Santos, & Monteiro, 2020), (LaBerge, O’Toole, Schneider, & Kate, 2020) Das Ziel dieser Arbeit war es, eine Analyse und Auswertung der internen Kommunikation in Unternehmen aufzustellen, um dadurch folgende Forschungsfrage beantworten zu können: „Inwiefern haben pandemiebedingte Änderungen im Kontext der Digitalisierung des Arbeitsplatzes die interne Kommunikation, den Prozess, ihre Werkzeuge sowie ihre Effektivität beeinflusst?“ Dafür wurden aufbauend auf einer ausführlichen Literaturrecherche notwendige Hypothesen abgeleitet, die zielführend für die Zusammenstellung der experimentellen Studie, die im Rahmen der vorliegenden Arbeit durchgeführt wurde, sind. Durch eine Online-Umfrage wurden Arbeitnehmer*innen aus unterschiedlichen Berufsfeldern und in unterschiedlichen Positionen zu deren Kommunikationsverhalten sowohl Pre- als auch Post-Covid im Unternehmen befragt. Weiters wurden anhand der Mediensynchronitätstheorie unterschiedliche Kommunikationsszenarien abgeleitet, welche zur Einschätzung des aktuellen Effektivitätsstands im Unternehmen dienen. Letztlich wurden Abhängigkeiten zwischen der Häufigkeit der Nutzung von Kommunikationsmedien und der wahrgenommenen Effektivität analysiert und signifikante Maßnahmen zur Verbesserung der internen Kommunikation abgeleitet. Die Einstellung der Teilnehmer*innen wurde anhand von Likert-Skalen abgefragt. Sowohl die Literaturrecherche als auch die Ergebnisse der Studie zeigen, dass pandemiebedingte Veränderungen im beruflichen Kontext einen Einfluss auf die Kommunikation haben. Darüber hinaus konnte festgestellt werden, dass ein erhöhter Grad der Digitalisierung im Arbeitsumfeld zu einer erhöhten Effizienz, jedoch nicht zu einer erhöhten Effektivität der Kommunikation geführt hat. Anhand der Untersuchungen konnte weiterhin eine Abhängigkeit zwischen der Nutzungshäufigkeit zu der wahrgenommenen Hilfestellung und zur bevorzugten Nutzung der Kommunikationsmedien identifiziert werden. Anhand der Untersuchung der aktuellen Nutzungseffektivität der Kommunikationsmedien am Arbeitsplatz konnte zusammengefasst festgestellt werden, dass nicht jede Kommunikationssituation gleichermaßen effektiv von den Teilnehmer*innen bearbeitet wird. Abschließend wurden mögliche Maßnahmen ausgewertet, die aus Teilnehmer*innen Sicht zur Verbesserung der Kommunikation beitragen würden.
In der modernen Fertigung stellt die Einführung der Predictive Maintenance als Instandhaltungsstrategie einen bedeutenden Fortschritt dar. Diese Methode ermöglicht es Produktionsunternehmen, ihre Wartungsprozesse zu optimieren, indem potenzielle Ausfälle und Wartungsanforderungen vor ihrem Auftreten antizipiert werden. Die Cloud spielt dabei eine entscheidende Rolle als Ressource für die Implementierung, bedingt durch ihre in den letzten Jahren deutlich gestiegene Effizienz. Die Integration von cloudbasierter Predictive Maintenance in Produktionsumgebungen birgt jedoch auch Herausforderungen und Risiken. Diese Masterarbeit zielt darauf ab, diese Probleme zu identifizieren und zu bewältigen, indem Empfehlungen für Produktionsunternehmen zur erfolgreichen Integration von Predictive Maintenance im Kontext der Cloud gegeben werden. Die folgende Forschungsfrage wird behandelt: „Was sind die Handlungsempfehlungen für Produktionsunternehmen, die beabsichtigen, cloudbasierte Predictive Maintenance zu integrieren, um potentielle Herausforderungen und Risiken effektiv adressieren zu können?“ Die Arbeit folgt einem qualitativen und induktiven Forschungsansatz und umfasst eine empirische Untersuchung, die eine Reihe von Expert*inneninterviews in einer Feldstudie beinhaltet. Dieser Ansatz bietet tiefe Einblicke in die praktischen Aspekte der Implementierung von cloudbasierter Predictive Maintenance. Die Ergebnisse zeigen, dass die sorgfältige Auswahl von Cloud-Anbietern, unterstützt durch umfassende Cloud-Assesments und Kriterienkataloge, Bedenken hinsichtlich der Cloud-Technologie minimiert und Partnerschaften gewährleistet, die starke Sicherheitsmaßnahmen und einen guten Ruf haben. Finanziell ist eine frühzeitige und angemessene Budgetplanung unter Berücksichtigung flexibler Finanzierungsmodelle wie Abonnementdiensten entscheidend, um erhebliche Anfangsinvestitionen zu vermeiden und klare Kostenstrukturen zu etablieren. Organisatorisch ist die Integration der Predictive Maintenance in die Unternehmensprozesse entscheidend für den Erfolg, wobei die Schulung des Personals eine wesentliche Rolle spielt, um technisches Verständnis und das Bewusstsein für ihre strategische Bedeutung aufzubauen. Technisch ist eine moderne IT-/OT-Infrastruktur unerlässlich für eine nahtlose Integration und effiziente Datenübertragung. Besonders wichtig sind hierbei ein effektives Datenmanagement und die Nutzung von Edge Devices zur Vorverarbeitung und Einbindung älterer Systeme. Die Ergebnisse betonen die Notwendigkeit eines umfassenden Ansatzes, der technische, organisatorische und finanzielle Faktoren berücksichtigt, um eine nachhaltige und erfolgreiche Implementierung von Predictive Maintenance in der Cloud gewährleisten zu können.
Diese Masterarbeit untersucht die Meinungsbilder von IT-Führungskräften hinsichtlich Green-IT. Green-IT ist ein wichtiger Aspekt der modernen Technologie, der darauf abzielt, die Umweltauswirkungen von IT-Systemen zu minimieren und gleichzeitig die Effizienz zu maximieren. Angesichts der zunehmenden Bedeutung von nachhaltigen Praktiken in der Geschäftswelt ist es wichtig, die Einstellungen und Meinungen der Führungskräfte zu verstehen, da sie eine Schlüsselrolle bei der Förderung von Green-IT-Initiativen spielen. Die Studie verwendet die Q-Methode, ein Mixed-Method-Ansatz, die es ermöglicht, subjektive Meinungen systematisch und qualitativ zu erfassen und diese quantitative zu analysieren. Es wurden Interviews mit zehn IT-Leitern bzw. Stellvertretern durchgeführt, die über fundiertes Wissen in Bezug auf Green-IT verfügen. Es wurden zwei bestehende Meinungsbilder erhoben, den „Proaktiven Green-IT-Verfechter“ und den „Pragmatischen Green-IT-Stratege“. Beide Typen sehen die Einführung von Green-IT als eine wirksame Maßnahme im Kampf gegen den Klimawandel. Typ 1 ist ein überzeugter Befürworter, jedoch zeigt er eine Unwissenheit bezüglich der genauen Voraussetzungen und Kosten, die mit der Umsetzung von Green-IT verbunden sind. Auf der anderen Seite hat sich Typ 2 intensiver mit dem Thema auseinandergesetzt. Dieser erkennt den erheblichen Aufwand, der hinter Green-IT steckt. Er glaubt auch, dass das Thema im Allgemeinen aufgrund von Unwissenheit gemieden wird. Somit zeigt Typ 2 eine pragmatische Denkweise im Hinblick auf Green-IT, gepaart mit einem stärkeren Durchsetzungsvermögen. Die Ergebnisse dieser Studie könnten als Grundlage für zukünftige Forschungen dienen, einschließlich Langzeitstudien, tiefere Untersuchungen oder Studien mit anderen Zielgruppen. Diese zukünftigen Studien könnten dazu beitragen, ein umfassenderes Verständnis der Rolle von IT-Führungskräften bei der Förderung von Green-IT zu entwickeln.
Im Rahmen der vorliegenden Masterarbeit wurden die Herausforderungen bei der Implementierung der Web Content Accessibility Guidelines (WCAG) bei Verwendung von Content Management Systemen (CMS) analysiert, sowie Lösungen für jedes identifizierte Problem vorgestellt. Mithilfe der durchgeführten systematischen Literaturrecherche (SLR) nach vom Brocke et al. (2009) wurden eine Vielzahl an relevanten Quellen zum Thema umfassend analysiert. Basierend auf den Ergebnissen der SLR wurden drei Hauptprobleme identifiziert. Diese beinhalten die allgemeine technische Herausforderung das CMS an einen Standard anzupassen, die Benutzerfreundlichkeit für Content-Ersteller*innen und die zeitliche Herausforderung der Implementierung. Für jedes dieser Probleme werden im Rahmen dieser Arbeit spezifische Lösungen vorgestellt. Darüber hinaus bietet die durchgeführte SLR einen Überblick über die Vor- und Nachteile, bei einer Umsetzung der WCAG-Standards sowie eine Einschätzung der Einstellung gegenüber der Umsetzung von WCAG-Richtlinien mithilfe von CMS. Insgesamt zeigt die Arbeit, nicht nur, dass bei der Implementierung von WCAG-Standards in CMS technische sowie organisatorische Herausforderungen auftreten, sondern präsentiert auch umfassende Lösungskonzepte und gute Orientierungsmöglichkeiten, um eine zugänglichere digitale Welt zu erreichen.
MDE 4.0
(2024)
Die fortschreitende Digitalisierung in der industriellen Produktion hat die Bedeutung von Informationstechnologien und Maschinendatenerfassung erhöht, insbesondere im Bereich Cloud- und Edge-Computing. In dieser Arbeit werden die Chancen, Herausforderungen und Risiken untersucht, die mit der Integration dieser Technologien zur Erfassung von Maschinendaten verbunden sind. Die Studie konzentriert sich auf Unternehmen des produzierenden Bereichs und bietet umfassende Einblicke in technische und organisatorische Aspekte. Methodisch stützt sich die Studie auf einen induktiven, verhaltenswissenschaftlichen Forschungsansatz, der sich auf halbstrukturierte Experteninterviews stützt. Diese Interviews wurden mit der von Udo Kuckartz vorgeschlagenen Methode der Inhaltsanalyse qualitativ ausgewertet. Es wird die nachfolgende primäre Forschungsfrage untersucht: „Welche Handlungsempfehlungen ergeben sich für produzierende Unternehmen zur Bewältigung von Herausforderungen und Risiken sowie zur Nutzung von Chancen in der Maschinendatenerfassung durch den Einsatz von Cloud- und Edge-Computing?“ Ziel ist es, die aktuelle Situation in den Unternehmen zu erfassen und daraus praktische Empfehlungen und Hypothesen abzuleiten. Die Ergebnisse der Studie zeigen eine komplexe Landschaft bei der Nutzung von Cloud- und Edge-Computing für die Maschinendatenerfassung. Die Nutzungsmuster variieren von einem Unternehmen zum anderen, wobei die meisten Unternehmen bei der Cloud-Nutzung zurückhaltend sind. Als eine Form der lokalen Datenverarbeitung bleibt Edge-Computing das vorherrschende Paradigma. Die Untersuchung unterstreicht die Notwendigkeit eines schrittweisen, visionären Ansatzes für die Integration von Cloud- und Edge-Computing, der kleine, überschaubare Projekte umfasst, die von einer klaren strategischen Ausrichtung geleitet werden, um iterativ Erfahrungen zu sammeln und sich kontinuierlich zu verbessern. Es wird betont, wie wichtig es ist, Daten sorgfältig auszuwählen und zu verwalten, die Technologieauswahl auf spezifische Anwendungsfälle zuzuschneiden, Protokolle zu standardisieren, um die Interoperabilität zu verbessern, und die Modularisierung einzubeziehen, um die Flexibilität und Wartbarkeit des Systems sicherzustellen. Organisatorische Anpassungen wie Umstrukturierungen, kontinuierliche Schulungen, die Festlegung klarer Zuständigkeiten, eine wirksame Kommunikation und die Einbindung aller Beteiligten sind von entscheidender Bedeutung, um einen kulturellen Wandel zu ermöglichen, der die Chancen der digitalen Transformation voll ausschöpft und die langfristige Wettbewerbsfähigkeit in einem sich wandelnden technologischen Umfeld gewährleistet.
Diese Masterarbeit untersucht den Einsatz von Business Intelligence (BI) im Energiesektor, wobei der Fokus auf dem aktuellen Stand, den potenziellen Vorteilen und den Herausforderungen in diesem spezifischen Bereich liegt. Ein wichtiger Aspekt der Arbeit ist die detaillierte Betrachtung einer Fallstudie zur Implementierung einer zentralen Cloud-BI-Plattform in einem Energieversorgungsunternehmen. Diese Fallstudie bietet konkrete Einblicke in die Herausforderungen und Chancen, die mit der Einführung einer solchen Plattform verbunden sind. Basierend auf den Erkenntnissen aus dem theoretischen Teil und der Fallstudie wird eine Umfrage durchgeführt, um einerseits den Nutzen und die Herausforderungen von BI in der Energiewirtschaft zu identifizieren und andererseits die Wahrnehmung hinsichtlich der implementierten BI-Plattform aufzuzeigen. Diese Umfrage zielt darauf ab, eine ganzheitliche Perspektive auf den Einsatz von BI im Energiesektor zu gewinnen und Möglichkeiten zur Optimierung der BI-Strategien in Unternehmen dieses Bereichs aufzuzeigen.
Diese Arbeit beschäftigt sich damit wie Deep Neural Networks (DNN) genutzt werden können, um Videospielbewertungen auf Basis eines von Benutzer*innen geschriebenen Textes, einen Score zuzuweisen. Da es sich hierbei um von Endbenutzer*innen verfasste Bewertungen handelt, müssen für diese Arbeit einerseits Maßnahmen auf Basis von schlechter Rechtschreibung und Grammatik getroffen werden, andererseits auch derzeitige Trends wie das Review Bombing berücksichtigt werden. Um dies zu bewerkstelligen, wurde CRISP-DM als Vorgehensmodell gewählt, um die Texte mit den jeweiligen Scores zu analysieren. Ein Webcrawler wurde verwendet um Nutzerwertungen mit Text und Score von der Seite metacritic.com zu extrahieren. Diese Daten wurden dann basierend auf mehreren Faktoren gefiltert und in Trainings-, Validierungs- und Testdatensatz aufgeteilt. Alles in allem wurden insgesamt 420.000 Bewertungen für das Trainieren, Validieren und Testen der Modelle verwendet. Zwei unterschiedliche Arten von neuronalen Netzen wurden trainiert: Long-Short-Term-Memory (LSTM) und Transformer. Beide Netzwerke wurden mit leicht unterschiedlichen Testdatensätzen auf verschiedenste Parameter verglichen. Die Ergebnisse zeigen, dass Transformer LSTMs in verschiedensten Metriken entweder leicht oder sogar mit großer Signifikanz übertreffen. Weiters sind Transformer sehr viel einfacher Hardware-optimal zu trainieren, da sie für Parallelisierung konzipiert sind, was sich in den Trainingszeiten widerspiegelt.
Aufgrund der Tatsache, dass Unternehmen durch die derzeitige globale COVID-19 Pandemie verstärkt auf die Nutzung von Homeoffice angewiesen sind, gewinnen Themen wie digitaler Arbeitsplatz, Digitalisierung sowie die Automatisierung von Prozessen aktuell vermehrt an Bedeutung. Vor allem Digitalisierung gilt derzeit als globaler Megatrend in der aktuellen Geschäftswelt und wird von vielen Unternehmen als zentraler Aspekt ihrer aktuellen Strategie für die kommenden Jahre gesehen.Ziel dieser Arbeit ist es daher, näher zu beleuchten, wie die Prozessdigitalisierungden digitalen Arbeitsplatz der Zukunft beeinflusst. Hierbei ist der Bedarf nach einereinheitlichen Lösung aufgrund der Vielzahl an Prozessen und im Hinblick auf eine Reihe von Faktoren wie Sicherheit oder Compliance mittlerweile immens. Als derartige Lösung von einem der führenden Anbieter in diesem Bereich wird die aktuelle Produktpalette der Microsoft Power Platform näher erläutert. Der Fokus der Arbeit liegt darauf, zu evaluieren, in welche Richtung sich diese Plattform weiterentwickeln wird. Dabei soll auf die neuesten Entwicklungen Bezug genommen werden, insbesondere auf den verstärkten Einsatz von künstlicher Intelligenz.Mit Hilfe von Experteninterviews soll darüber hinaus herausgefunden werden, auf welche Aspekte im Rahmen der Prozessdigitalisierung besonders geachtet werden sollte. Diese Interviews sollen in Form von Leitfadeninterviews durchgeführt werden. Für den praktischen Teil wurde ein Use Case mit Hilfe der Microsoft Power Platform unter Einbeziehung modernster Technologien umgesetzt.Das Ergebnis dieser Arbeit zeigt, dass sich die im Rahmen dieser Arbeit erläuterten Bereiche enorm weiterentwickelt haben. So ist es heute für sogenannte Citizen Devoloper möglich, Prozesse in kürzester Zeit digital abzuwickeln und zu automatisieren, ohne dass dafür tiefgreifende technische Kenntnisse notwendig sind.
