Informationstechnologien & Wirtschaftsinformatik
Refine
Year of publication
Document Type
- Master's Thesis (234)
Has Fulltext
- yes (234)
Is part of the Bibliography
- yes (234)
Keywords
- Digitalisierung (19)
- Künstliche Intelligenz (18)
- Software Engineering (10)
- Computersicherheit (9)
- Projektmanagement (9)
- Cloud Computing (7)
- Informationssicherheit (7)
- Kundenmanagement (6)
- Business Intelligence (5)
- Online-Marketing (5)
- Softwareentwicklung (5)
- Blockchain (4)
- Change Management (4)
- Data Mining (4)
- Internet der Dinge (4)
- Maschinelles Lernen (4)
- Personalwesen (4)
- Scrum <Vorgehensmodell> (4)
- Social Media (4)
- Telearbeit (4)
- Webanwendung (4)
- Wissensmanagement (4)
- Agile Softwareentwicklung (3)
- Electronic Commerce (3)
- Enterprise-Resource-Planning (3)
- Führung (3)
- Logistik (3)
- Marketing (3)
- Mikroservice (3)
- Softwaretest (3)
- Benutzeroberfläche (2)
- Betriebliche Kennzahl (2)
- Datenanalyse (2)
- Datenschutz (2)
- Dokumentenverwaltungssystem (2)
- Energiewirtschaft (2)
- Gamification (2)
- Generation Z (2)
- Großes Sprachmodell (2)
- Informatik (2)
- Informationssystem (2)
- Kommunikationssystem (2)
- Neuronales Netz (2)
- Portal <Internet> (2)
- Prozessmanagement (2)
- Prädikative Instandhaltung (2)
- Robotic Process Automation (2)
- Servicemanagement (2)
- Supply Chain Management (2)
- Vertrieb (2)
- Virtuelle Realität (2)
- Agilität <Management> (1)
- App <Programm> (1)
- Arbeitsgestaltung (1)
- Assistenzsystem (1)
- Authentifikation (1)
- Autonome Systeme (1)
- Bargeldloser Zahlungsverkehr (1)
- Bestandsmanagement (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- ChatGPT (1)
- Chatbot (1)
- Cloud (1)
- Computerunterstützte Kommunikation (1)
- Content Management (1)
- Darknet (1)
- Data-Warehouse-Konzept (1)
- Datenauswertung (1)
- Datensicherheit (1)
- Datenverarbeitung (1)
- Datenübertragung (1)
- Dienstleistung (1)
- Dienstleistungsangebot (1)
- Digitale Fotografie (1)
- E-Learning (1)
- EU-Richtlinie (1)
- Edge-Computing (1)
- Elektromobilität (1)
- Emotionale Intelligenz (1)
- Entwurfssprache (1)
- Filesharing-System (1)
- Framework <Informatik> (1)
- Front-End (1)
- Führungskraft (1)
- Geschäftsfeldplanung (1)
- Geschäftsmodell (1)
- Gesundheitswesen (1)
- Graphische Benutzeroberfläche (1)
- Green-IT (1)
- Hassrede (1)
- Hochschullehre (1)
- Hochverfügbarkeit (1)
- Human Resource Management (1)
- IT-Sicherheit (1)
- Immobilienwirtschaft (1)
- Informationsmanagement (1)
- Informationstechnik (1)
- Infotainment (1)
- Innerbetriebliche Kommunikation (1)
- Innovationshöhe (1)
- Instandhaltungsplanung (1)
- Integriertes Lernen (1)
- Interpersonale Kommunikation (1)
- Intranet (1)
- IoT-Geräte (1)
- Karriere (1)
- Klein- und Mittelbetrieb (1)
- Kosten-Nutzen-Analyse (1)
- Kraftfahrzeugtechnik (1)
- Kreditwesen (1)
- Kundendienst (1)
- Management (1)
- Marktforschung (1)
- Messtechnik (1)
- Mixed Reality (1)
- Mobiles Endgerät (1)
- Mustererkennung (1)
- Nachhaltigkeit (1)
- New Work (1)
- Objekterkennung (1)
- Online-Shop (1)
- Performance Management (1)
- Persona (1)
- Personalbeschaffung (1)
- Personalplanung (1)
- Persönlichkeitstyp (1)
- Preisbildung (1)
- Produktentwicklung (1)
- Projektsteuerung (1)
- Prozessautomation (1)
- Prozessdatenverarbeitung (1)
- Prozesssimulation (1)
- Qualitätsmanagement (1)
- Qualitätssteigerung (1)
- REST <Informatik> (1)
- Risikoanalyse (1)
- SCADA <Programm> (1)
- Service Engineering (1)
- Serviceroboter (1)
- SharePoint 2013 (1)
- Sicherheitsplanung (1)
- Single-page-Webanwendung (1)
- Social Engineering <Sicherheit> (1)
- Softwarekonfigurationsverwaltung (1)
- Softwareproduktion (1)
- Softwareschutz (1)
- Sprachverarbeitung (1)
- Strategisches Management (1)
- Technische Unterlage (1)
- Telekommunikationsnetz (1)
- Telemetrie (1)
- Unternehmensgründung (1)
- Veranstaltung (1)
- Verbraucherverhalten (1)
- Verwaltung (1)
- Videokonferenz (1)
- Videospiel (1)
- Vielfalt (1)
- Virtualisierung (1)
- Virtuelle Kommunikation (1)
- Vorgehensmodell (1)
- Warenkennzeichnung (1)
- Web Services (1)
- Wertschöpfung (1)
- Wirtschaft (1)
- Zugriffskontrolle (1)
- Ökologischer Fußabdruck (1)
- Überwachtes Lernen (1)
Institute
Die vorliegende Masterarbeit untersucht den Einsatz von Large Language Models(LLMs) zur Unterstützung und Verbesserung der IT-Sicherheit bei der Überprüfung von Netzwerkkonfigurationen. Traditionell werden Netzwerkkonfigurationen vonIT-Administratoren manuell überprüft, was zeitaufwendig und fehleranfällig sein kann. Diese Arbeit verfolgt das Ziel, durch den Einsatz eines speziell entwickelten KI-gestützten Tools diesen Prozess effizienter und sicherer zu gestalten. Anhand einer systematischen Literaturrecherche wurden bestehende Forschungsarbeitenanalysiert, um die aktuelle Forschungslücke zu identifizieren. Es zeigte sich,dass bisher kaum Forschungsarbeiten zur Anwendung von LLMs bei der Analyse und Optimierung von Netzwerkkonfigurationen vorliegen. Auf Basis dieser Erkenntnisse wurde ein Tool entwickelt, das mittels Prompt-Engineering-Techniken und auf Grundlage des NSA Network Infrastructure Security Guides Sicherheitsprüfungen an Netzwerkkonfigurationen vornimmt. Die Evaluation erfolgte durch Experteninterviews sowie einen Labortest mit IT-Sicherheitsexpert*innen. Dabei wurden die Ergebnisse des Tools mit einer manuellen Fehleranalyse verglichen. Die Ergebnisse der Evaluation bestätigten, dass das entwickelte Tool zuverlässig kritische Konfigurationsfehler identifizieren konnte und dabei teilweise Fehler entdeckte, die von menschlichen Expert*innen übersehen wurden. Dennoch zeigte sich, dass bei komplexen architektonischen Entscheidungen menschliche Expertise weiterhin unabdingbar ist. Die Arbeit liefert damit einen wichtigen Beitrag zur Diskussion über die sinnvolle Integration von KI-basierten Werkzeugen in die Netzwerksicherheitsprüfung. Abschließend werden praktische Implikationen sowie zukünftige Forschungsfelder aufgezeigt.
COVID-19 hat die Art und Weise, wie Organisationen arbeiten und wie Individuen interagieren, grundlegend verändert. Insbesondere die interne Zusammenarbeit innerhalb von Unternehmen wurde durch abrupte und tiefgreifende Veränderungen in Arbeitsprozessen und Kommunikationsmethoden neu definiert. Innerhalb kürzester Zeit waren Unternehmen gezwungen, traditionelle Arbeitsmodelle durch flexible, digitale Alternativen zu ersetzen. Diese rasante Transformation, geprägt durch die Einführung von Remote Work und hybriden Arbeitsmodellen, wirft zentrale Fragen zur langfristigen Gestaltung von Arbeitsprozessen auf. Die Pandemie beschleunigte nicht nur die Einführung digitaler Technologien, sondern führte auch zu erheblichen Veränderungen in der Organisationskultur und den zwischenmenschlichen Arbeitsbeziehungen. Vertrauen, Kommunikation und soziale Bindungen innerhalb von Teams mussten unter neuen Bedingungen aufgebaut und gepflegt werden. Gleichzeitig stiegen die Anforderungen an die technologischen Kompetenzen der Beschäftigten, da digitale Werkzeuge und Plattformen eine entscheidende Rolle für die Aufrechterhaltung der Produktivität spielten. Dabei waren nicht alle Unternehmen gleichermaßen auf diese Herausforderungen vorbereitet. Die Anpassungsfähigkeit variierte sowohl zwischen Branchen als auch zwischen kleinen und großen Unternehmen. Diese Abschlussarbeit untersucht, wie sich kollaborative Prozesse innerhalb von Unternehmen durch die COVID-19-Pandemie verändert haben. Mithilfe einer Meta-Analyse bestehender empirischer Studien und Umfragen werden Trends und Muster identifiziert, welche die Transformation der Arbeitswelt kennzeichnen. Der Fokus liegt dabei auf den Heraus-forderungen und Chancen, die sich aus dem plötzlichen Übergang zu Remote- und Hybridarbeit ergeben haben. Die hier durchgeführte Studie liefert dadurch wertvolle Erkenntnisse für Unternehmen, um in einer zunehmend digitalen und dynamischen Arbeitswelt erfolgreich agieren zu können und schafft eine wissenschaftliche Grundlage für zukünftige Forschungen zu diesem Thema. Zudem bietet sie Orientierung für mögliche weiterführende Untersuchungen.
Diese Masterarbeit beschäftigt sich mit der Messung des Innovationscharakters von IT-Projekten. Als Grundlage dienen theoretische Innovationsmodelle (z.B.: TRL-Modell, Oslo Manual, Fraunhofer Innovationsmodell, Innovation Scorecard Modell etc.). Einzelne Bewertungsmodelle fokussieren sich nur auf bestimmte Schwerpunkte oder sind zu breit gefasst, darum eignet sich ein gesamtheitlicher Ansatz. Nach erfolgter theoretischer Auseinandersetzung sind folgende vier Einflussfaktor als geeignet zur Messung des Innovationsgrades ermittelt worden: „Technologie, Markt, Organisation und Umfeld“. Zur Validierung der Ergebnisse wurde eine semistrukturierte Umfrage von facheinschlägigen Expertinnen und Experten durchgeführt. Die Interviews verfolgten das Ziel, die praktische Relevanz der theoretisch abgeleiteten Kategorien zu überprüfen und deren jeweilige Bedeutung für den Innovationsgrad in der Praxis von IT-Projekten zu gewichten. Insgesamt nahmen sechs Personen aus unterschiedlichen Bereichen mit Erfahrung in IT-Projekten teil. Die Ergebnisse der Likert-Skalen-Fragen und offenen Antworten wurden sowohl quantitativ als auch qualitativ ausgewertet. Die statistische Auswertung zeigte, dass alle vier Hauptkategorien als relevant für die Bestimmung des Innovationsgrades gelten. Besonders hoch wurde der Bereich „Technologie“ bewertet. Dem folgten „Organisation“, „Markt“ und „Umfeld“. Dabei stachen besonders technologische Merkmale wie Einsatz neuartiger Technologien, IT-Sicherheit sowie die Einführung neuer Systemarchitekturen hervor. Im Bereich Organisation wurden die Veränderungsbereitschaft, die Innovationskultur und agile Methoden als besonders relevant betrachtet. Ebenso sind umfeldbezogene Aspekte wie regulatorische Rahmenbedingungen und der Wissenstransfer zwischen Wissenschaft und Praxis bedeutend für den Innovationsgrad. Die Erkenntnisse dieser Arbeit zeigen, dass ein ganzheitlicher Blickwinkel zur Bewertung des Innovationsgrades bei IT-Projekten notwendig ist. Die Kategorien stehen miteinander in Beziehung und sind untrennbar für ein Bewertungsmodell zu interpretieren. Die Masterarbeit leistet einen Beitrag zur Entwicklung eines Innovationsmodells für IT-Projekte.
Die vorliegende Masterarbeit untersucht, wie wertschöpfende Geschäftsprozesse über mehrere Enterprise Application Systems hinweg medienbruchfrei integriert werden können. Vor dem Hintergrund zunehmend heterogener IT-Landschaften sowie wachsender Anforderungen an Effizienz, Datenqualität und Prozesskontinuität analysiert die Arbeit die technischen, organisatorischen und strategischen Herausforderungen sowie bewährte Vorgehensweisen der Schnittstellenintegration. Die Untersuchung folgt einem qualitativen Forschungsansatz. Neben einer systematischen Literaturrecherche wurden leitfadengestützte Experteninterviews mit sechs IT- und Fachverantwortlichen aus Unternehmen verschiedener Branchen durchgeführt. Die Auswertung zeigt, dass die Herausforderungen weit über technische Fragestellungen hinausgehen. Insbesondere ein unzureichendes Verständnis geschäftlicher Prozesse, unklare Zuständigkeiten, fehlende Governance-Strukturen sowie regulatorische und sicherheitsrelevante Anforderungen stellen zentrale Hemmnisse dar. Technologische Ansätze wie Middleware, API-Management-Plattformen und Low-Code-/No-Code-Lösungen können Integrationsvorhaben unterstützen, stoßen bei komplexeren Anwendungsfällen jedoch vielfach an ihre Grenzen. In solchen Kontexten dominieren weiterhin klassische Pro-Code-Lösungen. Als zukünftige Entwicklungen zeichnen sich unter anderem der vermehrte Einsatz Künstlicher Intelligenz in der Schnittstellenentwicklung, die Automatisierung von Validierungs- und Testverfahren sowie eine stärkere Verlagerung von Integrationsarchitekturen in Cloud-Umgebungen ab. Darüber hinaus ist ein Trend zur Entkopplung von Systemen und zur verstärkten Nutzung offener technischer Standards zu beobachten, um technologische Abhängigkeiten zu reduzieren. Die Arbeit leistet einen Beitrag zur Schließung bestehender Forschungslücken, indem sie praxisnahe Einblicke in die Umsetzung von Schnittstellenintegrationen liefert und daraus konkrete Handlungsempfehlungen für Unternehmen ableitet.
In dieser Masterarbeit wird untersucht, ob dezentrale IT-Infrastrukturen resilient sind und welche Potenziale sowie Herausforderungen mit ihrer Dezentralisierung einhergehen. Anhand einer systematischen Literaturrecherche nach vom Brocke et al. (2009) wurden 42 relevante Quellen ausgewertet, um die wesentlichen Potenziale und Herausforderungen der IT-Dezentralisierung herauszuarbeiten. Die Recherche zeigt dezentrale Architekturen als klar resilienzfördernden Ansatz. Aussagen zu Kosten und Komplexität zeigen jedoch ein uneinheitliches Bild. Zahlreiche Quellen adressieren zwar allgemeine Kostenaspekte, doch die konkrete Kostenentwicklung infolge der Dezentralisierung bleibt häufig unklar, insbesondere aufgrund fehlender Vergleiche mit zentralisierten Infrastrukturen. Dennoch legen die Ergebnisse nahe, dass Kosten kein grundsätzliches Ausschlusskriterium darstellen und Dezentralisierung unter geeigneten Rahmenbedingungen aufgrund besserer Skalierbarkeit oder effizienter Ressourcennutzung sogar Kostenvorteile bieten kann. Auch im Hinblick auf die Komplexität zeigt sich ein ambivalentes Bild: Zwar wird sie in vielen Quellen thematisiert, jedoch nur selten ausdrücklich als Nachteil aufgezeigt. Zudem wurde Dezentralisierung nicht als einheitliches Konstrukt identifiziert, sondern als Sammelbegriff für unterschiedliche Ausprägungen und Umsetzungen mit jeweils spezifischen Vor- und Nachteilen. Häufig genannte Vorteile sind verbesserte Skalierbarkeit, Robustheit, Fehlertoleranz, Effizienz- und Performancesteigerung sowie erhöhte Sicherheit. Gleichzeitig wurden technische und organisatorische Herausforderungen festgestellt, darunter Koordination, Skalierung, Ressourcenbeschränkungen, höhere Latenzen, erhöhter Netzwerkverkehr und Sicherheitsbedenken. Die ambivalente Bewertung legt nahe, dass die tatsächlichen Vorteile der Dezentralisierung maßgeblich von der konkreten Umsetzung abhängen und bietet einen Ansatzpunkt für eine vertiefte Auseinandersetzung in zukünftigen Forschungsarbeiten.
Natural Language Processing (NLP) plays a significant role in enabling machines to understand, interpret, and produce human language across an array of tasks and domains. For low-resource languages, the development of feasible NLP solutions remains a challenge in the absence of large annotated datasets and linguistic infrastructure.The research presented in the thesis contributes to addressing this gap through the evaluation of Albanian language sentiment analysis on social media data. The main objective is the evaluation of the ability of cross-lingual pre-trained transformer models, mBERT, XLM-R, and mT5, to be adapted by fine-tuning for sentiment classification (classification of an input text into positive, negative, or neutral sentiment). Two fine-tuning approaches are evaluated: full (vanilla) and Low-Rank Adaptation (LoRA). The models are fine-tuned and tested on a manually annotated dataset for Albanian that contains expressions typical of social media interactions (i.e., code-switched linguistics, emoticon usage, repeated letter words, etc.) It was shown that the highest generalization potential of the language was achieved by XLM-R, which consistently performed higher across metrics such as F1-score and overall accuracy. mBERT followed closely in performance, while mT5, likely due to its generative architecture, yielded comparatively lower results than its encoder-based counterparts. On the other hand, LoRA demonstrated faster training ability with a notable drop in classification performance against the vanilla counterpart, emphasizing the significant trade-off for the usage of the strategy. With the results presented in this study, the thesis provides a basis for different fine-tuning strategies for three key pre-trained transformer-based models, which can inform future research on low-resource language modelling (specifically in the Albanian language) and domain-specific adaptation.
Eine Unternehmensarchitektur bietet einen umfassenden Überblick über ein Unternehmen inklusive dessen Infrastruktur, Anwendungen und Geschäftsprozessen. Aufgrund von Silo-Denken und unzureichender Kommunikation können jedoch Diskrepanzen zwischen den in der Unternehmensarchitektur dokumentierten Geschäftsprozessen und den tatsächlich etablierten Prozessen auftreten. Diese Arbeit zielt darauf ab, jene Diskrepanzen zu beseitigen, indem eine technische Lösung vorgeschlagen wird, um die Unternehmensarchitekturen mit den Geschäftsprozessen in Einklang zu bringen. ArchiMate, eine ikonografische Modellierungssprache für Unternehmensarchitekturen, und BPMN, der de facto Standard für die Modellierung von Geschäftsprozessen, wurden verwendet. Durch die Anwendung der Design Science Research Methode, insbesondere des sechsstufigen Ansatzes, wurde initial Literatur gesichtet und folglich ein Artefakt erstellt, demonstriert und bewertet. Das resultierende Artefakt besteht aus einem Mapping zwischen ArchiMate und instanziierbaren BPMN-Konzepten sowie einem Java-basierten Programm, das die automatische Instanziierung von BPMN-Prozessen aus ArchiMate-Modellen ermöglicht. Um das Artefakt zu evaluieren, wurden 20 standardisierte Workflow Patterns und zwei beispielhafte ITIL-Praktiken, darunter das „Monitoring und Event Management“ sowie das „Change Management“, in ArchiMate modelliert, automatisch transformiert und als BPMN-Prozessinstanzen ausgeführt. Von den 20 Workflow Patterns sind nur 17 in BPMN selbst möglich, jedoch konnten 14 von diesen erfolgreich modelliert und instanziiert werden. Dies zeigt, dass trotz der begrenzten Anzahl von ArchiMate und folglich auch BPMN-Konzepten, anspruchsvolle Geschäftsprozesse in der Unternehmensarchitektur selbst abgebildet werden können. Die erfolgreiche Instanziierung und Ausführung der ITIL-Praktiken bestätigten zudem die praktische Anwendbarkeit des Artefakts in realen Szenarien. Zusammenfassend zeigt diese Arbeit, dass ArchiMate-Modelle erfolgreich in BPMN-Prozesse transformiert werden können, sodass instanziierbare und semantisch sinnvolle Prozessmodelle entstehen. Das entwickelte Artefakt ermöglicht die automatisierte Umsetzung und Ausführung von Geschäftsprozessen direkt aus Unternehmensarchitekturmodellen. Dieser Ansatz fördert die Konsistenz zwischen den dokumentierten Unternehmensarchitekturen und realen Abläufen.
Die vorliegende Arbeit untersucht die Umsetzung der EU-NIS-2-Richtlinie im Abwassersektor als Teil der kritischen Infrastruktur. Der Fokus liegt auf der Bewertung des aktuellen Umsetzungsstands, der Identifikation von Herausforderungen und der Erfassung von Good Practices. Die Thematik ist hochrelevant und aktuell, da die NIS-2-Richtlinie spätestens bis Oktober 2024 in nationales Recht überführt werden muss und erstmals auch mittelgroße Unternehmen in die Pflicht nimmt. Die Studie reagiert auf die Forschungslücke hinsichtlich sektorspezifischer Umsetzungserfahrungen und liefert einen praktischen Beitrag zur Stärkung der Cybersicherheit in der öffentlichen Daseinsvorsorge. Die Arbeit folgt einem Mixed-Methods-Ansatz im Paradigma der verhaltensorientierten Wirtschaftsinformatik. Datenerhebungsmethode ist eine standardisierte Online-Befragung unter Akteuren der Abwasserwirtschaft im deutschsprachigen Raum. Der Fragebogen kombiniert geschlossene (quantitative) mit offenen (qualitativen) Items, die sieben Themenkategorien der NIS-2-Richtlinie abbilden. Die Auswertung erfolgte quantitativ-deskriptiv sowie qualitativ mittels strukturierter Inhaltsanalyse nach Mayring. Ein Pretest sicherte die Validität der Instrumente; die Datenerhebung erfolgte in Kooperation mit der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall e.V. Die Ergebnisse zeigen ein heterogenes, aber überwiegend hohes Umsetzungsniveau bei organisatorischen, technischen und physischen Maßnahmen. Die Mehrheit der Unternehmen hat ein Risikomanagement etabliert, regelmäßige Schulungen eingeführt und strukturelle Verantwortlichkeiten verankert. Die häufigsten Herausforderungen betreffen personelle Ressourcen, fehlende branchenspezifische Leitfäden und komplexe technische Anforderungen. Good Practices umfassen unter anderem adaptive Risikoanalysen, szenariobasierte Verfahren und die Integration von ISO/IEC-Standards. Die Ergebnisse werden mit bestehenden wissenschaftlichen Arbeiten, etwa von ENISA oder BSI, verglichen und kontextualisiert. Die Analyse verdeutlicht, dass Cybersicherheit zunehmend als strategische Aufgabe in der Abwasserwirtschaft erkannt wird, allerdings je nach Größe und Struktur der Unternehmen unterschiedlich ausgeprägt ist. Die Arbeit zeigt, dass etablierte Sicherheitsstandards wie ISO 27001, B3S Wasser/Abwasser und das ÖWAV-Handbuch praktikable Rahmenbedingungen bieten, jedoch an spezifische Sektorbedürfnisse angepasst werden müssen. Die Resultate unterstreichen die Notwendigkeit gemeinsamer Leitfäden, sektoraler Koordination und staatlicher Unterstützung. Ein Ausblick benennt weiterführende Forschungsschwerpunkte wie die Wirksamkeit konkreter Maßnahmen, die Rolle externer Dienstleister und die Entwicklung belastbarer Metriken zur Cybersicherheitsreife.
Agilität als Erfolgsfaktor
(2025)
In der heutigen Zeit gewinnt die Softwareentwicklung zunehmend an Bedeutung, und es wird intensiv diskutiert, wie agiles Arbeiten Teams beeinflusst und welche Auswirkungen dies auf die Qualität der Endprodukte hat (Eckkrammer et al., 2010). Dabei rückt nicht nur die reine Softwarequalität in den Fokus, sondern auch die Zufriedenheit jener, die täglich in den agilen Prozessen eingebunden sind – die Teammitglieder. Diese Arbeit widmet sich der spannenden Fragestellung: Inwieweit besteht ein Zusammenhang zwischen dem agilen Reifegrad von agilen Softwareentwicklungsteams, der gelieferten Softwarequalität und der Zufriedenheit der Teammitglieder, und welche Faktoren beeinflussen diese Zusammenhänge? Agilität als Konzept in der Softwareentwicklung hat sich von einem Trend zu einem Eckpfeiler der Branche entwickelt. Teams weltweit streben danach, ihre Prozesse immer weiter in Richtung Agilität zu entwickeln, um schnell auf sich ändernde Anforderungen und dynamische Marktbedingungen zu reagieren. Die vorliegende Arbeit untersucht den Zusammenhang zwischen dem agilen Reifegrad dieser Teams und zwei zentralen Aspekten: der Qualität der von ihnen entwickelten Software und ihrer eigenen Zufriedenheit. Das Ziel dieser Arbeit ist es, die genannten Zusammenhänge aufzuzeigen und gleichzeitig die Faktoren zu identifizieren, die diese beeinflussen. Es soll erforscht werden, wie unterschiedliche Grade der Agilität sich auf die Arbeitsweise von Teams auswirken und welche Auswirkungen dies wiederum auf die Softwarequalität und die Zufriedenheit der Entwickler*innen hat. Durch die Einbeziehung und kritische Diskussion bestehender Forschungsergebnisse, Theorien und praktischer Ansätze wird ein fundiertes Verständnis des Themas angestrebt. Der Forschungsstand zum Thema Agilität ist vielfältig und reicht von spezifischen agilen Reifegradmodellen bis hin zu Untersuchungen über den Einfluss von Agilität auf die Teamzufriedenheit und Softwarequalität. Diese Arbeit schöpft aus einer breiten Palette an Quellen, um ein ganzheitliches Bild zu zeichnen. Der Aufbau der Arbeit folgt einer durchgängigen Struktur. Zunächst werden grundlegende Konzepte und Prinzipien der Agilität erarbeitet, bevor auf die praktische Messung des agilen Reifegrades und dessen Modelle und Dimensionen eingegangen wird. Anschließend wird der Einfluss von Agilität auf die Qualität der Software sowie die Zufriedenheit innerhalb der Teams untersucht und kritisch hinterfragt. Abschließend werden die gewonnenen Erkenntnisse zusammengeführt und im Kontext der Forschungsfragestellung diskutiert.
Diese Masterarbeit beschäftigt sich mit der thermischen Absicherung eines Fahrzeuges durch die Vorhersage der Temperaturen an verschiedenen Sensoren mittels Time-Series Forecasting Modellen. Ziel war es, die Zuverlässigkeit und Sicherheit des Fahrzeugs durch präzise Temperaturvorhersagen zu verbessern, um kritische Überhitzungen zu vermeiden. Für die Analyse wurden mehrere Time Series Forecasting Modelle evaluiert, darunter Vector Autoregression (VAR),Extreme Gradient Boosting(XGBoost), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN),Temporal Convolutional Networks (TCN)und Transformer Modelle. Die Modelle wurden anhand historischer Datensätze von Sensortemperaturen trainiert, die aus realen Fahrbedingungen gesammelt wurden. Jedes Modell wurde auf seine Vorhersagegenauigkeit und Leistungsfähigkeit untersucht, um das effektivste Werkzeug zur Vorhersage zukünftiger Temperaturwerte zu identifizieren. Die Evaluation der Modelle basierte auf mehreren Leistungsindikatoren wie dem Mean Absolute Percentage Error (MAPE), und dem Root Mean Squared Error (RMSE). Das GRU-Modell stellte sich als das überlegene heraus, da es die komplexen nichtlinearen Muster und die Zeitabhängigkeiten der Temperaturdaten am effektivsten modellierte. Dank seiner tiefen Lernarchitektur und der Fähigkeit, Langzeitabhängigkeiten in den Daten zu erkennen, konnte das GRU-Modell präzisere Vorhersagen als die anderen untersuchten Modelle liefern. Diese Ergebnisse unterstreichen das Potenzial von GRU-Netzwerken für die präzise Vorhersage von Sensor-Temperaturen in thermischen Managementanwendungen von Fahrzeugen und bieten Ansätze für weitere Forschungen in diesem Bereich.
