Informationstechnologien & Wirtschaftsinformatik
Refine
Year of publication
Document Type
- Master's Thesis (234)
Has Fulltext
- yes (234)
Is part of the Bibliography
- yes (234)
Keywords
- Digitalisierung (19)
- Künstliche Intelligenz (18)
- Software Engineering (10)
- Computersicherheit (9)
- Projektmanagement (9)
- Cloud Computing (7)
- Informationssicherheit (7)
- Kundenmanagement (6)
- Business Intelligence (5)
- Online-Marketing (5)
Institute
Die vorliegende Masterarbeit untersucht den Einsatz von Large Language Models(LLMs) zur Unterstützung und Verbesserung der IT-Sicherheit bei der Überprüfung von Netzwerkkonfigurationen. Traditionell werden Netzwerkkonfigurationen vonIT-Administratoren manuell überprüft, was zeitaufwendig und fehleranfällig sein kann. Diese Arbeit verfolgt das Ziel, durch den Einsatz eines speziell entwickelten KI-gestützten Tools diesen Prozess effizienter und sicherer zu gestalten. Anhand einer systematischen Literaturrecherche wurden bestehende Forschungsarbeitenanalysiert, um die aktuelle Forschungslücke zu identifizieren. Es zeigte sich,dass bisher kaum Forschungsarbeiten zur Anwendung von LLMs bei der Analyse und Optimierung von Netzwerkkonfigurationen vorliegen. Auf Basis dieser Erkenntnisse wurde ein Tool entwickelt, das mittels Prompt-Engineering-Techniken und auf Grundlage des NSA Network Infrastructure Security Guides Sicherheitsprüfungen an Netzwerkkonfigurationen vornimmt. Die Evaluation erfolgte durch Experteninterviews sowie einen Labortest mit IT-Sicherheitsexpert*innen. Dabei wurden die Ergebnisse des Tools mit einer manuellen Fehleranalyse verglichen. Die Ergebnisse der Evaluation bestätigten, dass das entwickelte Tool zuverlässig kritische Konfigurationsfehler identifizieren konnte und dabei teilweise Fehler entdeckte, die von menschlichen Expert*innen übersehen wurden. Dennoch zeigte sich, dass bei komplexen architektonischen Entscheidungen menschliche Expertise weiterhin unabdingbar ist. Die Arbeit liefert damit einen wichtigen Beitrag zur Diskussion über die sinnvolle Integration von KI-basierten Werkzeugen in die Netzwerksicherheitsprüfung. Abschließend werden praktische Implikationen sowie zukünftige Forschungsfelder aufgezeigt.
COVID-19 hat die Art und Weise, wie Organisationen arbeiten und wie Individuen interagieren, grundlegend verändert. Insbesondere die interne Zusammenarbeit innerhalb von Unternehmen wurde durch abrupte und tiefgreifende Veränderungen in Arbeitsprozessen und Kommunikationsmethoden neu definiert. Innerhalb kürzester Zeit waren Unternehmen gezwungen, traditionelle Arbeitsmodelle durch flexible, digitale Alternativen zu ersetzen. Diese rasante Transformation, geprägt durch die Einführung von Remote Work und hybriden Arbeitsmodellen, wirft zentrale Fragen zur langfristigen Gestaltung von Arbeitsprozessen auf. Die Pandemie beschleunigte nicht nur die Einführung digitaler Technologien, sondern führte auch zu erheblichen Veränderungen in der Organisationskultur und den zwischenmenschlichen Arbeitsbeziehungen. Vertrauen, Kommunikation und soziale Bindungen innerhalb von Teams mussten unter neuen Bedingungen aufgebaut und gepflegt werden. Gleichzeitig stiegen die Anforderungen an die technologischen Kompetenzen der Beschäftigten, da digitale Werkzeuge und Plattformen eine entscheidende Rolle für die Aufrechterhaltung der Produktivität spielten. Dabei waren nicht alle Unternehmen gleichermaßen auf diese Herausforderungen vorbereitet. Die Anpassungsfähigkeit variierte sowohl zwischen Branchen als auch zwischen kleinen und großen Unternehmen. Diese Abschlussarbeit untersucht, wie sich kollaborative Prozesse innerhalb von Unternehmen durch die COVID-19-Pandemie verändert haben. Mithilfe einer Meta-Analyse bestehender empirischer Studien und Umfragen werden Trends und Muster identifiziert, welche die Transformation der Arbeitswelt kennzeichnen. Der Fokus liegt dabei auf den Heraus-forderungen und Chancen, die sich aus dem plötzlichen Übergang zu Remote- und Hybridarbeit ergeben haben. Die hier durchgeführte Studie liefert dadurch wertvolle Erkenntnisse für Unternehmen, um in einer zunehmend digitalen und dynamischen Arbeitswelt erfolgreich agieren zu können und schafft eine wissenschaftliche Grundlage für zukünftige Forschungen zu diesem Thema. Zudem bietet sie Orientierung für mögliche weiterführende Untersuchungen.
Diese Masterarbeit beschäftigt sich mit der Messung des Innovationscharakters von IT-Projekten. Als Grundlage dienen theoretische Innovationsmodelle (z.B.: TRL-Modell, Oslo Manual, Fraunhofer Innovationsmodell, Innovation Scorecard Modell etc.). Einzelne Bewertungsmodelle fokussieren sich nur auf bestimmte Schwerpunkte oder sind zu breit gefasst, darum eignet sich ein gesamtheitlicher Ansatz. Nach erfolgter theoretischer Auseinandersetzung sind folgende vier Einflussfaktor als geeignet zur Messung des Innovationsgrades ermittelt worden: „Technologie, Markt, Organisation und Umfeld“. Zur Validierung der Ergebnisse wurde eine semistrukturierte Umfrage von facheinschlägigen Expertinnen und Experten durchgeführt. Die Interviews verfolgten das Ziel, die praktische Relevanz der theoretisch abgeleiteten Kategorien zu überprüfen und deren jeweilige Bedeutung für den Innovationsgrad in der Praxis von IT-Projekten zu gewichten. Insgesamt nahmen sechs Personen aus unterschiedlichen Bereichen mit Erfahrung in IT-Projekten teil. Die Ergebnisse der Likert-Skalen-Fragen und offenen Antworten wurden sowohl quantitativ als auch qualitativ ausgewertet. Die statistische Auswertung zeigte, dass alle vier Hauptkategorien als relevant für die Bestimmung des Innovationsgrades gelten. Besonders hoch wurde der Bereich „Technologie“ bewertet. Dem folgten „Organisation“, „Markt“ und „Umfeld“. Dabei stachen besonders technologische Merkmale wie Einsatz neuartiger Technologien, IT-Sicherheit sowie die Einführung neuer Systemarchitekturen hervor. Im Bereich Organisation wurden die Veränderungsbereitschaft, die Innovationskultur und agile Methoden als besonders relevant betrachtet. Ebenso sind umfeldbezogene Aspekte wie regulatorische Rahmenbedingungen und der Wissenstransfer zwischen Wissenschaft und Praxis bedeutend für den Innovationsgrad. Die Erkenntnisse dieser Arbeit zeigen, dass ein ganzheitlicher Blickwinkel zur Bewertung des Innovationsgrades bei IT-Projekten notwendig ist. Die Kategorien stehen miteinander in Beziehung und sind untrennbar für ein Bewertungsmodell zu interpretieren. Die Masterarbeit leistet einen Beitrag zur Entwicklung eines Innovationsmodells für IT-Projekte.
Die vorliegende Masterarbeit untersucht, wie wertschöpfende Geschäftsprozesse über mehrere Enterprise Application Systems hinweg medienbruchfrei integriert werden können. Vor dem Hintergrund zunehmend heterogener IT-Landschaften sowie wachsender Anforderungen an Effizienz, Datenqualität und Prozesskontinuität analysiert die Arbeit die technischen, organisatorischen und strategischen Herausforderungen sowie bewährte Vorgehensweisen der Schnittstellenintegration. Die Untersuchung folgt einem qualitativen Forschungsansatz. Neben einer systematischen Literaturrecherche wurden leitfadengestützte Experteninterviews mit sechs IT- und Fachverantwortlichen aus Unternehmen verschiedener Branchen durchgeführt. Die Auswertung zeigt, dass die Herausforderungen weit über technische Fragestellungen hinausgehen. Insbesondere ein unzureichendes Verständnis geschäftlicher Prozesse, unklare Zuständigkeiten, fehlende Governance-Strukturen sowie regulatorische und sicherheitsrelevante Anforderungen stellen zentrale Hemmnisse dar. Technologische Ansätze wie Middleware, API-Management-Plattformen und Low-Code-/No-Code-Lösungen können Integrationsvorhaben unterstützen, stoßen bei komplexeren Anwendungsfällen jedoch vielfach an ihre Grenzen. In solchen Kontexten dominieren weiterhin klassische Pro-Code-Lösungen. Als zukünftige Entwicklungen zeichnen sich unter anderem der vermehrte Einsatz Künstlicher Intelligenz in der Schnittstellenentwicklung, die Automatisierung von Validierungs- und Testverfahren sowie eine stärkere Verlagerung von Integrationsarchitekturen in Cloud-Umgebungen ab. Darüber hinaus ist ein Trend zur Entkopplung von Systemen und zur verstärkten Nutzung offener technischer Standards zu beobachten, um technologische Abhängigkeiten zu reduzieren. Die Arbeit leistet einen Beitrag zur Schließung bestehender Forschungslücken, indem sie praxisnahe Einblicke in die Umsetzung von Schnittstellenintegrationen liefert und daraus konkrete Handlungsempfehlungen für Unternehmen ableitet.
In dieser Masterarbeit wird untersucht, ob dezentrale IT-Infrastrukturen resilient sind und welche Potenziale sowie Herausforderungen mit ihrer Dezentralisierung einhergehen. Anhand einer systematischen Literaturrecherche nach vom Brocke et al. (2009) wurden 42 relevante Quellen ausgewertet, um die wesentlichen Potenziale und Herausforderungen der IT-Dezentralisierung herauszuarbeiten. Die Recherche zeigt dezentrale Architekturen als klar resilienzfördernden Ansatz. Aussagen zu Kosten und Komplexität zeigen jedoch ein uneinheitliches Bild. Zahlreiche Quellen adressieren zwar allgemeine Kostenaspekte, doch die konkrete Kostenentwicklung infolge der Dezentralisierung bleibt häufig unklar, insbesondere aufgrund fehlender Vergleiche mit zentralisierten Infrastrukturen. Dennoch legen die Ergebnisse nahe, dass Kosten kein grundsätzliches Ausschlusskriterium darstellen und Dezentralisierung unter geeigneten Rahmenbedingungen aufgrund besserer Skalierbarkeit oder effizienter Ressourcennutzung sogar Kostenvorteile bieten kann. Auch im Hinblick auf die Komplexität zeigt sich ein ambivalentes Bild: Zwar wird sie in vielen Quellen thematisiert, jedoch nur selten ausdrücklich als Nachteil aufgezeigt. Zudem wurde Dezentralisierung nicht als einheitliches Konstrukt identifiziert, sondern als Sammelbegriff für unterschiedliche Ausprägungen und Umsetzungen mit jeweils spezifischen Vor- und Nachteilen. Häufig genannte Vorteile sind verbesserte Skalierbarkeit, Robustheit, Fehlertoleranz, Effizienz- und Performancesteigerung sowie erhöhte Sicherheit. Gleichzeitig wurden technische und organisatorische Herausforderungen festgestellt, darunter Koordination, Skalierung, Ressourcenbeschränkungen, höhere Latenzen, erhöhter Netzwerkverkehr und Sicherheitsbedenken. Die ambivalente Bewertung legt nahe, dass die tatsächlichen Vorteile der Dezentralisierung maßgeblich von der konkreten Umsetzung abhängen und bietet einen Ansatzpunkt für eine vertiefte Auseinandersetzung in zukünftigen Forschungsarbeiten.
Natural Language Processing (NLP) plays a significant role in enabling machines to understand, interpret, and produce human language across an array of tasks and domains. For low-resource languages, the development of feasible NLP solutions remains a challenge in the absence of large annotated datasets and linguistic infrastructure.The research presented in the thesis contributes to addressing this gap through the evaluation of Albanian language sentiment analysis on social media data. The main objective is the evaluation of the ability of cross-lingual pre-trained transformer models, mBERT, XLM-R, and mT5, to be adapted by fine-tuning for sentiment classification (classification of an input text into positive, negative, or neutral sentiment). Two fine-tuning approaches are evaluated: full (vanilla) and Low-Rank Adaptation (LoRA). The models are fine-tuned and tested on a manually annotated dataset for Albanian that contains expressions typical of social media interactions (i.e., code-switched linguistics, emoticon usage, repeated letter words, etc.) It was shown that the highest generalization potential of the language was achieved by XLM-R, which consistently performed higher across metrics such as F1-score and overall accuracy. mBERT followed closely in performance, while mT5, likely due to its generative architecture, yielded comparatively lower results than its encoder-based counterparts. On the other hand, LoRA demonstrated faster training ability with a notable drop in classification performance against the vanilla counterpart, emphasizing the significant trade-off for the usage of the strategy. With the results presented in this study, the thesis provides a basis for different fine-tuning strategies for three key pre-trained transformer-based models, which can inform future research on low-resource language modelling (specifically in the Albanian language) and domain-specific adaptation.
Eine Unternehmensarchitektur bietet einen umfassenden Überblick über ein Unternehmen inklusive dessen Infrastruktur, Anwendungen und Geschäftsprozessen. Aufgrund von Silo-Denken und unzureichender Kommunikation können jedoch Diskrepanzen zwischen den in der Unternehmensarchitektur dokumentierten Geschäftsprozessen und den tatsächlich etablierten Prozessen auftreten. Diese Arbeit zielt darauf ab, jene Diskrepanzen zu beseitigen, indem eine technische Lösung vorgeschlagen wird, um die Unternehmensarchitekturen mit den Geschäftsprozessen in Einklang zu bringen. ArchiMate, eine ikonografische Modellierungssprache für Unternehmensarchitekturen, und BPMN, der de facto Standard für die Modellierung von Geschäftsprozessen, wurden verwendet. Durch die Anwendung der Design Science Research Methode, insbesondere des sechsstufigen Ansatzes, wurde initial Literatur gesichtet und folglich ein Artefakt erstellt, demonstriert und bewertet. Das resultierende Artefakt besteht aus einem Mapping zwischen ArchiMate und instanziierbaren BPMN-Konzepten sowie einem Java-basierten Programm, das die automatische Instanziierung von BPMN-Prozessen aus ArchiMate-Modellen ermöglicht. Um das Artefakt zu evaluieren, wurden 20 standardisierte Workflow Patterns und zwei beispielhafte ITIL-Praktiken, darunter das „Monitoring und Event Management“ sowie das „Change Management“, in ArchiMate modelliert, automatisch transformiert und als BPMN-Prozessinstanzen ausgeführt. Von den 20 Workflow Patterns sind nur 17 in BPMN selbst möglich, jedoch konnten 14 von diesen erfolgreich modelliert und instanziiert werden. Dies zeigt, dass trotz der begrenzten Anzahl von ArchiMate und folglich auch BPMN-Konzepten, anspruchsvolle Geschäftsprozesse in der Unternehmensarchitektur selbst abgebildet werden können. Die erfolgreiche Instanziierung und Ausführung der ITIL-Praktiken bestätigten zudem die praktische Anwendbarkeit des Artefakts in realen Szenarien. Zusammenfassend zeigt diese Arbeit, dass ArchiMate-Modelle erfolgreich in BPMN-Prozesse transformiert werden können, sodass instanziierbare und semantisch sinnvolle Prozessmodelle entstehen. Das entwickelte Artefakt ermöglicht die automatisierte Umsetzung und Ausführung von Geschäftsprozessen direkt aus Unternehmensarchitekturmodellen. Dieser Ansatz fördert die Konsistenz zwischen den dokumentierten Unternehmensarchitekturen und realen Abläufen.
Die vorliegende Arbeit untersucht die Umsetzung der EU-NIS-2-Richtlinie im Abwassersektor als Teil der kritischen Infrastruktur. Der Fokus liegt auf der Bewertung des aktuellen Umsetzungsstands, der Identifikation von Herausforderungen und der Erfassung von Good Practices. Die Thematik ist hochrelevant und aktuell, da die NIS-2-Richtlinie spätestens bis Oktober 2024 in nationales Recht überführt werden muss und erstmals auch mittelgroße Unternehmen in die Pflicht nimmt. Die Studie reagiert auf die Forschungslücke hinsichtlich sektorspezifischer Umsetzungserfahrungen und liefert einen praktischen Beitrag zur Stärkung der Cybersicherheit in der öffentlichen Daseinsvorsorge. Die Arbeit folgt einem Mixed-Methods-Ansatz im Paradigma der verhaltensorientierten Wirtschaftsinformatik. Datenerhebungsmethode ist eine standardisierte Online-Befragung unter Akteuren der Abwasserwirtschaft im deutschsprachigen Raum. Der Fragebogen kombiniert geschlossene (quantitative) mit offenen (qualitativen) Items, die sieben Themenkategorien der NIS-2-Richtlinie abbilden. Die Auswertung erfolgte quantitativ-deskriptiv sowie qualitativ mittels strukturierter Inhaltsanalyse nach Mayring. Ein Pretest sicherte die Validität der Instrumente; die Datenerhebung erfolgte in Kooperation mit der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall e.V. Die Ergebnisse zeigen ein heterogenes, aber überwiegend hohes Umsetzungsniveau bei organisatorischen, technischen und physischen Maßnahmen. Die Mehrheit der Unternehmen hat ein Risikomanagement etabliert, regelmäßige Schulungen eingeführt und strukturelle Verantwortlichkeiten verankert. Die häufigsten Herausforderungen betreffen personelle Ressourcen, fehlende branchenspezifische Leitfäden und komplexe technische Anforderungen. Good Practices umfassen unter anderem adaptive Risikoanalysen, szenariobasierte Verfahren und die Integration von ISO/IEC-Standards. Die Ergebnisse werden mit bestehenden wissenschaftlichen Arbeiten, etwa von ENISA oder BSI, verglichen und kontextualisiert. Die Analyse verdeutlicht, dass Cybersicherheit zunehmend als strategische Aufgabe in der Abwasserwirtschaft erkannt wird, allerdings je nach Größe und Struktur der Unternehmen unterschiedlich ausgeprägt ist. Die Arbeit zeigt, dass etablierte Sicherheitsstandards wie ISO 27001, B3S Wasser/Abwasser und das ÖWAV-Handbuch praktikable Rahmenbedingungen bieten, jedoch an spezifische Sektorbedürfnisse angepasst werden müssen. Die Resultate unterstreichen die Notwendigkeit gemeinsamer Leitfäden, sektoraler Koordination und staatlicher Unterstützung. Ein Ausblick benennt weiterführende Forschungsschwerpunkte wie die Wirksamkeit konkreter Maßnahmen, die Rolle externer Dienstleister und die Entwicklung belastbarer Metriken zur Cybersicherheitsreife.
Agilität als Erfolgsfaktor
(2025)
In der heutigen Zeit gewinnt die Softwareentwicklung zunehmend an Bedeutung, und es wird intensiv diskutiert, wie agiles Arbeiten Teams beeinflusst und welche Auswirkungen dies auf die Qualität der Endprodukte hat (Eckkrammer et al., 2010). Dabei rückt nicht nur die reine Softwarequalität in den Fokus, sondern auch die Zufriedenheit jener, die täglich in den agilen Prozessen eingebunden sind – die Teammitglieder. Diese Arbeit widmet sich der spannenden Fragestellung: Inwieweit besteht ein Zusammenhang zwischen dem agilen Reifegrad von agilen Softwareentwicklungsteams, der gelieferten Softwarequalität und der Zufriedenheit der Teammitglieder, und welche Faktoren beeinflussen diese Zusammenhänge? Agilität als Konzept in der Softwareentwicklung hat sich von einem Trend zu einem Eckpfeiler der Branche entwickelt. Teams weltweit streben danach, ihre Prozesse immer weiter in Richtung Agilität zu entwickeln, um schnell auf sich ändernde Anforderungen und dynamische Marktbedingungen zu reagieren. Die vorliegende Arbeit untersucht den Zusammenhang zwischen dem agilen Reifegrad dieser Teams und zwei zentralen Aspekten: der Qualität der von ihnen entwickelten Software und ihrer eigenen Zufriedenheit. Das Ziel dieser Arbeit ist es, die genannten Zusammenhänge aufzuzeigen und gleichzeitig die Faktoren zu identifizieren, die diese beeinflussen. Es soll erforscht werden, wie unterschiedliche Grade der Agilität sich auf die Arbeitsweise von Teams auswirken und welche Auswirkungen dies wiederum auf die Softwarequalität und die Zufriedenheit der Entwickler*innen hat. Durch die Einbeziehung und kritische Diskussion bestehender Forschungsergebnisse, Theorien und praktischer Ansätze wird ein fundiertes Verständnis des Themas angestrebt. Der Forschungsstand zum Thema Agilität ist vielfältig und reicht von spezifischen agilen Reifegradmodellen bis hin zu Untersuchungen über den Einfluss von Agilität auf die Teamzufriedenheit und Softwarequalität. Diese Arbeit schöpft aus einer breiten Palette an Quellen, um ein ganzheitliches Bild zu zeichnen. Der Aufbau der Arbeit folgt einer durchgängigen Struktur. Zunächst werden grundlegende Konzepte und Prinzipien der Agilität erarbeitet, bevor auf die praktische Messung des agilen Reifegrades und dessen Modelle und Dimensionen eingegangen wird. Anschließend wird der Einfluss von Agilität auf die Qualität der Software sowie die Zufriedenheit innerhalb der Teams untersucht und kritisch hinterfragt. Abschließend werden die gewonnenen Erkenntnisse zusammengeführt und im Kontext der Forschungsfragestellung diskutiert.
Diese Masterarbeit beschäftigt sich mit der thermischen Absicherung eines Fahrzeuges durch die Vorhersage der Temperaturen an verschiedenen Sensoren mittels Time-Series Forecasting Modellen. Ziel war es, die Zuverlässigkeit und Sicherheit des Fahrzeugs durch präzise Temperaturvorhersagen zu verbessern, um kritische Überhitzungen zu vermeiden. Für die Analyse wurden mehrere Time Series Forecasting Modelle evaluiert, darunter Vector Autoregression (VAR),Extreme Gradient Boosting(XGBoost), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN),Temporal Convolutional Networks (TCN)und Transformer Modelle. Die Modelle wurden anhand historischer Datensätze von Sensortemperaturen trainiert, die aus realen Fahrbedingungen gesammelt wurden. Jedes Modell wurde auf seine Vorhersagegenauigkeit und Leistungsfähigkeit untersucht, um das effektivste Werkzeug zur Vorhersage zukünftiger Temperaturwerte zu identifizieren. Die Evaluation der Modelle basierte auf mehreren Leistungsindikatoren wie dem Mean Absolute Percentage Error (MAPE), und dem Root Mean Squared Error (RMSE). Das GRU-Modell stellte sich als das überlegene heraus, da es die komplexen nichtlinearen Muster und die Zeitabhängigkeiten der Temperaturdaten am effektivsten modellierte. Dank seiner tiefen Lernarchitektur und der Fähigkeit, Langzeitabhängigkeiten in den Daten zu erkennen, konnte das GRU-Modell präzisere Vorhersagen als die anderen untersuchten Modelle liefern. Diese Ergebnisse unterstreichen das Potenzial von GRU-Netzwerken für die präzise Vorhersage von Sensor-Temperaturen in thermischen Managementanwendungen von Fahrzeugen und bieten Ansätze für weitere Forschungen in diesem Bereich.
Diese Masterarbeit setzt sich mit den gesetzlichen Rahmenbedingungen sowie den ethischen Fragestellungen im Zusammenhang mit dem Einsatz Künstlicher Intelligenz (KI) im Krankenhauswesen, insbesondere im Kontext österreichischer Gesundheitseinrichtungen, auseinander. Hintergrund ist die zunehmende Integration von KI-Systemen in medizinische Prozesse, wie etwa in der Radiologie, der Pflege oder in Entscheidungsunterstützungssystemen. Besonderes Augenmerk wird auf den EU AI Act gelegt, der sich als zentrales Regulierungsinstrument etabliert. Zahlreiche dieser Anwendungen gelten als hochriskant, was erweiterte Anforderungen in Hinblick auf Sicherheit, Transparenz und Kontrolle zur Folge hat. Ziel der Arbeit ist es, auf Grundlage einer Analyse des EU AI Act konkrete Handlungsempfehlungen für österreichische Krankenhäuser zu formulieren, um deren rechtskonformen und ethisch verantwortungsvollen Umgang mit KI zu fördern. Hierfür wurde ein gestaltungsorientierter Forschungsansatz (Design Science Research) gewählt. Das entwickelte Artefakt, in Form eines Leitfadens zur Verwendung und Entwicklung von KI, wurde durch qualitative Experteninterviews überprüft. Der theoretische Teil der Arbeit beleuchtet sowohl technologische Grundlagen als auch organisationale Aspekte des Krankenhausbetriebs. Ergänzt um Perspektiven aus der Praxis zeigt sich, dass die erfolgreiche Umsetzung regulatorischer Anforderungen maßgeblich vom bestehenden Daten- und Prozessverständnis innerhalb der Organisation sowie von einem funktionierenden interdisziplinären Austausch abhängt. Die abschließend formulierten Handlungsempfehlungen sollen Entscheidungsträger:innen im Gesundheitswesen dabei unterstützen, die Potenziale von KI zu nutzen und gleichzeitig konform nach dem EU AI ACT zu handeln.
Die Zustellung von Briefen war lange Zeit ein staatliches Monopol, wurde jedoch in letzter Zeit schrittweise liberalisiert. Das Volumen postalischer Briefe in Österreich nimmt ab, während die Digitalisierung öffentlicher Dienstleistungen, insbesondere während der COVID-19-Pandemie, an Dynamik gewonnen hat. Obwohl das Zustellgesetz (ZustG/12.11.2023) bereits seit 1998 in Kraft ist, haben jüngste Änderungen und die Einführung des staatlich kontrollierten Authentifizierungssystems „ID Austria“ zur Online-Postfach-Anwendung „Mein Postkorb“ geführt, die derzeit vom österreichischen Finanzministerium betrieben wird. Dieser Dienst bietet eine sichere, authentifizierte und nachvollziehbare digitale Zustellung behördlicher Schreiben an Bürgerinnen und Bürger. Im Mai 2025 gibt es insgesamt rund 1,9 Millionen Nutzer*innen, davon 1,2 Millionen Privatpersonen. Im Jahr 2024 wurden 13,6 Millionen Schreiben versendet (Trauner, 2025).Diese Arbeit untersucht hemmende und fördernde Faktoren, die die Akzeptanz eines Online-Portals zur Briefzustellung beeinflussen. Der Untersuchungsgegenstand ist die österreichische Anwendung „Mein Postkorb“; private Dienste für die digitale Zustellung, etwa im Bank- oder Versicherungsbereich, wurden nicht berücksichtigt. Die Studie kombiniert das weit verbreitete UTAUT-Akzeptanzmodell (Venkatesh et al., 2003) mit der Inhibitor-Theorie (Cenfetelli, 2004). Diese beiden gegensätzlichen Perspektiven wurden um weitere potenzielle Einflussfaktoren ergänzt und in einem gemeinsamen theoretischen Modell zusammengeführt. Dieses Modell diente als Grundlage für einen Interviewleitfaden, der in Expert*inneninterviews zum Einsatz kam. Die Transkripte der insgesamt fünf befragten Expertinnen und Experten wurden mittels quantitativer Inhaltsanalyse nach Mayring (2010) ausgewertet, woraus ein Kategoriensystem entstand. Die zentralen Ergebnisse waren das Auftreten neuer Einflussfaktoren, insbesondere der Eintrittsbarrieren, die die Nutzung eines unbekannten Systems hemmen können. Auf der anderen Seite konnten die Kategorien „Sicherheit“ und „E-Government-Strategie“ als fördernde Faktoren identifiziert werden. Die Zusammenfassung der Ergebnisse führte zu Empfehlungen zur Förderung der Nutzung der elektronischen Zustellung in Österreich. Auf Grundlage dieser Arbeit könnten weiterführende Studien durchgeführt werden, um die neuen Faktoren detaillierter zu untersuchen. Darüber hinaus wäre ein Experiment denkbar, um genauere Einblicke in das Nutzer*innenverhalten bei Registrierung, Anmeldung und Erhalt von Schreiben in der Anwendung „Mein Postkorb“ zu gewinnen.
Die Einführung von Open Source Cloudsoftware bietet österreichischen klein- und mittelständischen Unternehmen (KMUs) eine bedeutende Chance, strategische Ziele wie Kosteneffizienz, Flexibilität und Innovationsfähigkeit zu erreichen. Trotz dieser potenziellen Vorteile ist die Verbreitung bislang gering, was den Anlass dieser Arbeit darstellt. Es sollen Faktoren identifiziert werden, welche die Integration solcher Technologien beeinflussen. Als theoretisches Fundament dient das Technology Acceptance Model (TAM), um ein besseres Verständnis für die Beweggründe und Prioritäten von KMUs bei der Einführung von Open Source Cloudsoftware zu schaffen. Mittels leitfadengestützter Experteninterviews mit IT-Entscheidungsträgern werden zentrale Faktoren für die Akzeptanz offengelegt. Die Ergebnisse zeigen, dass insbesondere Sicherheit, Verfügbarkeit und Kontrolle entscheidende Einflussgrößen auf die Akzeptanz darstellen. Darüber hinaus spielen auch Eigenschaften von Open Source selbst wie Community, Support, technische Merkmale und der Softwaremarkt eine bedeutende Rolle. Diese Arbeit verfolgt das Ziel, sowohl KMUs als auch Anbietern von Open Source Software praxisrelevante Erkenntnisse bereitzustellen. Anbieter sollen ermutigt werden, gezielte Strategien zu entwickeln, um den spezifischen Anforderungen und Bedenken von KMUs besser gerecht zu werden. Gleichzeitig können KMUs ein besseres Verständnis für Open Source Cloudlösungen entwickeln und fundierte Überlegungen für künftige Implementierungen anstellen. Zukünftige Forschung könnte sich auf eine geografische Ausweitung der Untersuchung oder die quantitative Validierung der Ergebnisse konzentrieren. Durch die Ausrichtung ihrer Einführungsstrategien an klar definierten Zielen können KMUs Open Source Cloudsoftware erfolgreich integrieren und ihre digitale Transformation gezielt vorantreiben.
Obwohl sich viele Frauen für technische Studiengänge und Berufe begeistern und diese auch wählen, bleibt der Frauenanteil seit Jahren nahezu konstant. Strukturelle Ungleichheiten, mangelnde Netzwerke und stereotypisches Denken tragen dazu bei, dass Frauen die Branche frühzeitig verlassen. Gleichzeitig gewinnt Leadership mehr an Bedeutung, da Führungskräfte den Erfolg als auch die Arbeitszufriedenheit beeinflussen. Diese Arbeit untersucht, welchen Einfluss das Führungsverhalten auf die Karrierewege von Frauen in der österreichischen IT-Branche hat und inwiefern Führungskräfte als unterstützend oder hindernd wahrgenommen werden. Die theoretische Grundlage umfasst die Geschlechterverteilung in der IT-Branche, Erwartungen an Arbeitgeber sowie Herausforderungen und Barrieren für Frauen. Zudem werden unterschiedliche Führungstheorien und deren Auswirkungen auf Mitarbeiter*innen betrachtet. Zur Beantwortung der Forschungsfrage wurde eine qualitative Studie durchgeführt. Mittels semi-strukturierter Interviews mit 15 Frauen aus der österreichischen IT-Branche wurden individuelle Wahrnehmungen und Erfahrungen erfasst. Die Ergebnisse zeigen, dass Führungskräfte eine zentrale Rolle für den beruflichen Werdegang sowie die langfristige Mitarbeiterbindung spielen. Positives Führungsverhalten äußert sich in Form von Unterstützung, konstruktivem Feedback und aktiver Förderung. Negative Führungserfahrungen führten hingegen zu Demotivation oder einem Wechsel des Arbeitgebers. Zudem zeigt die Studie, dass sich die Anforderungen an Führung je nach Karrierephase unterscheiden. In frühen Karrierejahren sind Kommunikation und Unterstützung besonders relevant, gewinnen im späteren Verlauf Empathie und gezielte Förderung an Bedeutung. Auf Basis dieser Erkenntnisse wurden Maßnahmen für Unternehmen abgeleitet, darunter Schulungen zur Sensibilisierung für destruktives Führungsverhalten, Mentoring- und Coachingprogramme sowie die Einführung strukturierter Auswahlprozesse für Führungskräfte. Zukünftige Forschung könnte eine gezieltere Differenzierung nach spezifischen Berufsfeldern anwenden, um gezieltere Ergebnisse zu erhalten. Zudem könnte ein Anforderungsprofil für Unternehmen zur Auswahl von Führungskräften entwickelt werden, um gezielt Führungskompetenzen zu fördern und Fehlbesetzungen zu vermeiden.
Green Cloud Computing
(2023)
Der IT-Dienstleistungssektor hat einen signifikanten Anstieg der Nutzung von Cloud Computing erlebt und seinen Marktanteil von 14,5% im Jahr 2017 auf 42,5% im Jahr 2022 ausgebaut. Trotz der unbestreitbaren Vorteile hat dieses Wachstum Umweltbedenken aufgeworfen. Der steigende Bedarf an Rechenleistung und die Verbreitung von internetverbundenen Geräten tragen zum ökologischen Fußabdruck des Cloud-Computings bei. Studien variieren und schreiben dem Cloud Computing 0,3% bis 2% der globalen CO2-Emissionen zu, mit zusätzlichen Umweltauswirkungen wie Abfallproduktion, Wasserverbrauch und Landnutzung. Diese Masterarbeit adressiert den dringenden Bedarf an nachhaltigen Praktiken bei österreichischen Cloud Service Providern. Das Ziel ist es, handlungsorientierte Empfehlungen für die Umsetzung von grünem Cloud Computing auf Grundlage einer gründlichen Überprüfung der wissenschaftlichen Literatur zu formulieren. Unter Verwendung der systematischen Literaturübersichtsmethodik von Brocke et al. und der PRISMA-Methode analysierte diese Studie 106 Arbeiten mit einer Mindestanzahl von 5 Zitaten innerhalb eines bestimmten Zeitrahmens. Die Literatur betont überwiegend Initiativen zur Energieeffizienz, insbesondere während der Nutzungsphase von Rechenzentren, vernachlässigt jedoch die umfassendere Perspektive des gesamten Lebenszyklus. Diese Studie bestätigt die Hypothese, dass erhebliches Potenzial für die Anpassung umweltfreundlicher Maßnahmen bei Cloud Service Providern besteht. Um diese Lücke zu schließen, wird ein Umsetzungsplan für grünes Cloud Computing vorgeschlagen, der wissenschaftlichen Techniken zur Energieeffizienz auf Software- und Hardwareebene, zur Virtual Machine Consolidation und bioinspirierte Algorithmen umfasst. Aufbauend auf Erkenntnissen des deutschen Umweltbundesamts-Projekts KPI4CDE und GCC sowie der systematischen Literaturübersicht identifiziert diese Forschung ungenutztes Potenzial für weitere wissenschaftliche Untersuchungen des vollständigen Lebenszyklus von Cloud Service Providern. Diese Studie legt den Grundstein für zukünftige Forschungsinitiativen, die darauf abzielen, die Umweltauswirkungen des Cloud-Computings umfassend zu verstehen und zu mindern.
Die Technologie Künstliche Intelligenz (KI) gilt als die bedeutendste Technologie der letzten Jahre und umfasst alle Bereiche der Arbeitswelt. Das Know-How und Einsatz dieser Technologie kann enorme Wettbewerbsvorteile für das eigene Unternehmen sichern und die Bedeutung dieser Technologie hat in den letzten Jahren rapide zugenommen (Pfeiffer, 2020). Datenschutz und Compliance sind essenzielle Aspekte, da Unternehmen, die personenbezogene Daten verarbeiten oder über deren Verarbeitung entscheiden, gesetzlich verpflichtet sind, umfassende Datenschutzbestimmungen einzuhalten. Diese Verpflichtungen betreffen alle Unternehmen unabhängig von ihrer Größe und sind durch die Datenschutz-Grundverordnung (DSGVO) der EU geregelt. Verstöße gegen diese Regelungen können zu erheblichen rechtlichen und finanziellen Konsequenzen führen (Datenschutz, o. J.). Durch öffentliche LLMs stellen Anbieter unkomplizierte und preiswerte Lösungen zur Verfügung, weisen aber ein höheres Risiko für Datenlecks und Datenschutzverletzungen auf. Im Gegensatz dazu ermöglichen selbstgehostete LLMs eine verbesserte Datenkontrolle und-sicherung, erfordern aber zusätzliche Investitionen und technisches Know-how. Daher ist es sehr wichtig, das Thema auszuforschen, um im Unternehmen über die potenziellen Risiken und Konsequenzen von Datenschutzverletzungen aufzuklären (Reinking & Becker, 2023).Verstöße gegen Datenschutzrichtlinien können erhebliche rechtliche und finanzielle Folgen nach sich ziehen, einschließlich hoher Geldstrafen und eines erheblichen Imageschadens. Unternehmen riskieren den Verlust des Vertrauens ihrer Kunden und Geschäftspartner, was zu langfristigen geschäftlichen Nachteilen führen kann. Insbesondere die unbewusste oder fahrlässige Verletzung von Datenschutzvorschriften durch Mitarbeitende kann schwerwiegende Auswirkungen haben und muss daher durch um-fassende Schulungen und klare Richtlinien verhindert werden (FAQ zum Thema KI und Datenschutz, o. J.). Ziel dieser Arbeit ist es, die Datenschutz- und Compliance-Herausforderungen bei der Nutzung von selbstgehosteten und öffentlich gehosteten großen Sprachmodellen (LLMs) im Unternehmenskontext zu erforschen. Im Zuge dessen soll untersucht werden, ob und welche Nutzungsrisiken durch die Verwendung von Chatbots entstehen.
Optimierung von IT-Projekten durch integriertes Change Management und Business Process Management
(2024)
Die vorliegende Masterarbeit untersucht, wie Change Management und Business Process Management integrativ genutzt werden können, um IT-Implementierungsprojekte im Rahmen der digitalen Transformation erfolgreicher zu gestalten. Digitale Transformation ist ein komplexer, fortlaufender Prozess, der technologische, organisatorische und kulturelle Veränderungen erfordert. Trotz erheblicher Investitionen scheitern viele Digitalisierungsinitiativen daran, dass die menschliche Dimension und die Optimierung der Geschäftsprozesse nicht aus-reichend berücksichtigt werden. Das zentrale Ziel der Arbeit ist die Entwicklung eines praxistauglichen Frameworks, das die Stärken von Change Management und Business Process Management kombiniert, um die Herausforderungen von IT-Implementierungsprojekten systematisch zu bewältigen. Der Fokus liegt dabei auf IT-Projekten, während strategische Unternehmensfragen und rein technische Lösungen ausgeklammert wurden. Zur Validierung des Frameworks wurden qualitative Experteninterviews mit sieben Fachpersonen aus unterschiedlichen Branchen durchgeführt, die umfangreiche Erfahrung in digitaler Transformation, IT-Projektmanagement und Prozessoptimierung aufweisen. Die Interviews wurden transkribiert, kodiert und analysiert. Dabei wurden zentrale Themen wie Stakeholder-Management, iterative Prozessmodellierung und agile Projektmethoden identifiziert und in das Framework integriert. Die Ergebnisse zeigen, dass die Kombination von Change Management und Business Process Management unerlässlich ist, um sowohl technische als auch menschliche Anforderungen zu adressieren. Das entwickelte Framework gliedert sich in die Phasen Pre-Implementierung, Implementierung und Post-Implementierung und bietet Unternehmen eine klare Struktur zur Gestaltung erfolgreicher Projekte. Limitationen der Arbeit liegen in der qualitativen Methodik und dem branchenfokussierten Ansatz. Zukünftige Forschung könnte das Framework quantitativ validieren und auf breitere Kontexte anwenden. Das Framework legt den Grundstein für eine verbesserte Projektumsetzung und zeigt Wege auf, die Anforderungen der digitalen Transformation nachhaltig zu bewältigen.
Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz in der Softwareentwicklung
(2023)
Ziel dieser Masterarbeit war es, die Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz (KI) auf die Softwareentwicklungsbranche zu beurteilen. Die Beurteilung wurde von der steirischen Softwareentwicklungsbranche durchgeführt. Um Hypothesen aufstellen zu können, wurden aktuelle Literaturquellen analysiert. Der Theorieteil umfasst die Beschreibung einiger KI-Tools, die für die Softwareentwicklung eingesetzt werden können. Die Einsatzmöglichkeiten von KI für Softwareentwicklungstätigkeiten werden anhand aktueller Studien diskutiert. Einige ethische Aspekte sowie Einflüsse auf die Arbeitsweise und Risiken, die der Einsatz von KI mit sich bringt, werden beschrieben. Mit einem Online-Fragebogen wurde die Beurteilung und Meinung der steirischen Softwareentwicklungsbrancheerhoben. Der Fragebogen umfasst Überlegungen, wie beispielsweise die Anpassung der Ausbildungsprogramme, die mögliche Ablöse der Softwareentwicklerinnen und Softwareentwickler durch KI-Tools, das Potenzial einer Effizienzsteigerung sowie die Risiken durch die Verwendung von KI-generiertem Code. Basierend auf den Ergebnissen der Umfrage und den Literaturquellen wird die Beurteilung aktueller sowie zukünftiger Auswirkungen und Benefits abgeleitet, um die Forschungsfrage zu beantworten. Im Großen und Ganzen wird die Codegenerierung von KI-Tools als gut beurteilt. Es kann eine Effizienzsteigerung erzielt werden und wenig erfahrene Personen können durch den Einsatz von KI profitieren. Die Möglichkeit eines geringeren Personalbedarfs wird gelassen beurteilt und als nicht realistisch angesehen. Nur wenige haben in den Ausbildungsprogrammen etwas über KI gelernt, die meisten können KI-Tools trotzdem gut in den Arbeitsalltag integrieren. Bedenken hinsichtlich Lizenzverletzungen liegen kaum vor. Zusammenfassend lässt sich sagen, dass die Beurteilungen, der in dieser Masterarbeit behandelten Auswirkungen und Benefits, durch die steirische Softwareentwicklungsbranche zum Großteil mit dem aktuellen Stand der Literatur übereinstimmt.
Diese Arbeit prüft die Abwärtskompatibilität der Frontend-Frameworks Angular, React und Vue.js, um herauszufinden, welches sich am besten für Legacy-Projekte eignet. Abwärtskompatibilität spielt in der Softwareentwicklung eine wichtige Rolle. Sie sorgt dafür, dass
bestehende Systeme nach Updates oder Migrationen weiter funktionieren. Die Untersuchung nutzt eine Nutzwertanalyse mit Kriterien wie API-Stabilität, Deprecation-Politik, Versionierungsstrategie, Migrationsleitfäden, Community-Support, Leistung, Browser-Kompatibilität, Testing und interne Abwärtskompatibilität. Für die Analyse wurden Entwicklerumfragen, akademische Studien und technische Dokumentationen herangezogen. Besonders die API-Stabilität wurde anhand realer Projekte geprüft. Ergebnisse zeigen: React erreicht mit 75,15 % die beste Gesamtbewertung, gefolgt von Vue.js mit 60,14 % und Angular mit 57,30 %. React sticht durch stabile APIs, eine große Community und flexible Testing-Möglichkeiten heraus – ideal für Legacy-Projekte. Vue.js punktet mit hoher Performance und leichter Migration, hat aber Schwächen bei der API-Stabilität. Angular überzeugt durch klare Deprecation-Politik und starke Versionierungsstrategie, kämpft jedoch mit häufigen Updates und eingeschränkter interner Abwärtskompatibilität. Die Arbeit beleuchtet auch methodische Probleme, etwa die fehlende direkte Gewichtung von Kriterien und die schnelle Weiterentwicklung der Frameworks. In Zukunft könnte der Bewertungsprozess wiederholt werden, um neue Entwicklungen einzubeziehen und eine langfristige Entscheidungsgrundlage für Frontend-Technologien in Legacy-Projekten zu schaffen. Eine ständige Anpassung an technologische Veränderungen bleibt für nachhaltige Softwareentwicklung entscheidend.
Understanding user behaviors and preferences is crucial in today’s digital landscape, driving the need for automated persona generation. This thesis explores the potential of topic modeling and sentiment analysis to enhance data-driven persona creation. Analyzing a corpus of 676,000 tweets from 6,760 Twitter users (now x.com1), the study applies BERTopic for topic modeling and VADER for sentiment analysis to identify distinct themes and emotional tendencies in usergenerated content. A key finding is the significant impact of pre-processing, which improves topic coherence andinterpretability, contradicting claims that BERTopic performs equally well on raw data. The results indicate that bots predominantly generate neutral, task-oriented content, while humanusers – particularly female users – express more varied and emotionally rich sentiment.Integrating topic modeling and sentiment analysis enables multidimensional persona creationby combining thematic interests with emotional characteristics, emphasizing the value of author profiling in data-driven persona generation.This thesis highlights the potential of text mining techniques in persona creation while acknowledging challenges such as sentiment misclassification and the differentiation between bots and humans. Moreover, the findings highlight the need for structured datasets to enhance large language model-based persona descriptions, ensuring greater accuracy and coherence.Future research should explore alternative machine learning models, refine clustering methods, and assess cross-platform applicability. The combination of topic modeling and sentiment analysis offers promising opportunities for automating persona generation, enhancing e.g.,targeted marketing, and improving social media analysis.
