Informationstechnologien & Wirtschaftsinformatik
Refine
Year of publication
Document Type
- Master's Thesis (203)
Has Fulltext
- yes (203)
Is part of the Bibliography
- yes (203)
Keywords
- Digitalisierung (13)
- Künstliche Intelligenz (11)
- Software Engineering (10)
- Projektmanagement (9)
- Informationssicherheit (7)
- Cloud Computing (6)
- Computersicherheit (6)
- Kundenmanagement (6)
- Business Intelligence (5)
- Online-Marketing (5)
Institute
Im Zuge der fortschreitenden Digitalisierung und der stetigen Veröffentlichung neuer Softwareprodukte steigen die Anforderungen der Anwender*innen an die Softwarequalität kontinuierlich. Insbesondere die Zuverlässigkeit der Software spielt eine zentrale Rolle für die Zufriedenheit der Nutzer*innen. Die vorliegende Masterarbeit untersucht, wie die Einführung von Software Fault Injection in einem österreichischen Automatisierungstechnikunternehmen zur Steigerung der Softwarezuverlässigkeit beitragen kann. Vor dem Hintergrund wachsender Anforderungen an die Zuverlässigkeit und Fehlertoleranz von Software leistet diese Arbeit einen Beitrag zur Erhöhung der Robustheit und Qualität von Softwareprodukten. Im ersten Schritt wurde methodisch nach dem Design Research Ansatzes mittels Literaturrecherche ein Leitfaden zur Einführung von Software Fault Injection konkret in Form von Mutation Testing erstellt, wobei sich dieser in die drei Bereiche „Schrittweiser Leitfaden zur Anwendung“, „Best-Practices“ und „Schulung und Dokumentation“ untergliedert. Der erstellte Leitfaden wurde im nächsten Schritt anhand eines österreichischen Automatisierungstechnik Unternehmens in einer Fallstudie nach Yin angewandt. Das untersuchte Softwareprodukt ist eine in C# entwickelte Windows-Desktop-Applikation und stellt eine ungewöhnliche Domäne für Fault Injection dar. Daher wurde der Leitfaden insbesondere auf die Anwendbarkeit in einem Praxisumfeld mit diesem Technologie Stack überprüft, um Rückschlüsse über die Effektivität und Effizienz der Anwendung des Leitfadens in dieser spezifischen Fault Injection Domäne zu ziehen. Die Ergebnisse der Arbeit zeigen, dass Mutation Testing in einem Softwareentwicklungsprozess wertvolle Erkenntnisse über die Qualität der Softwaretests auf Unittest Ebene liefert und gezielt Optimierungspotentiale für bestehende Tests sowie mangelhafte Testabdeckung aufdeckt. Die durchgeführte Fallstudie ergab, dass der Einsatz von Mutation Testing zu einer signifikanten Steigerung der Softwaretestqualität beitragen kann. Hierbei liegt der Fokus auf die Verbesserung von Unittests, wodurch potenzielle Problemstellungen frühzeitig identifiziert und behoben werden können. Die Einführung in die CI/CD-Pipeline zeigte, dass die effektive und effiziente Nutzung von Mutation Tests im Zuge der kontinuierlichen Softwareentwicklung auf. Weiters wurden Optimierungspotenziale des Leitfadens identifiziert, welche für zukünftige Forschungen als Grundlage dienen können, um die Verbreitung von Software Fault Injection in diversen Anwendungsdomänen voranzutreiben. Abschließend verdeutlicht die Masterarbeit, dass die Einführung von Mutation Testing in den bestehenden Entwicklungsprozess eines Unternehmens zur Steigerung der Softwarezuverlässigkeit beitragen kann. Technische und organisatorische Herausforderungen werden durch die gewonnenen Erkenntnisse aus Literatur und Praxis adressiert, um eine effektive Einführung von Software Fault Injection zu ermöglichen. Angesichts der zunehmenden Anforderungen an Softwarequalität und Zuverlässigkeit stellt diese Arbeit einen wertvollen Beitrag zur Verbesserung der Softwarequalität in Unternehmen dar.
Diese Masterarbeit untersucht methodische Ansätze zur Einführung von Machine-Learning-Modellen in Klein- und Mittelbetrieben, mit dem Ziel, deren Geschäftsprozesse effizient zu optimieren und gleichzeitig die Anforderungen der Datenschutz-Grundverordnung (DSGVO) zu erfüllen. Angesichts der fortschreitenden Digitalisierung und der wachsenden Bedeutung datenbasierter Technologien stehen Klein- und Mittelbetriebe vor der Herausforderung, das Potential von Machine-Learning-Modellen zu nutzen, ohne dabei rechtliche, organisatorische und technische Hürden außer Acht zu lassen. Die Arbeit gliedert sich in einen theoretischen und einen empirischen Teil. Der theoretische Teil umfasst eine umfangreiche Literaturrecherche, die den aktuellen Stand der Forschung sowie die Anwendungsmöglichkeiten von Machine-Learning in unterschiedlichen Unternehmensbereichen analysiert. Dabei werden relevante Einsatzgebiete wie Marketing, Kundenkommunikation und Prozessautomatisierung identifiziert. Der empirische Teil basiert auf einem Design-Science-Research-Ansatz, der durch leitfadenbasierte Expert:inneninterviews ergänzt wird. Ziel ist es, praxisnahe Erkenntnisse zu den Herausforderungen, Vorteilen und Erfolgsfaktoren bei der Implementierung von Machine-Learning in Klein- und Mittelbetrieben zu gewinnen. Das zentrale Ergebnis der Arbeit ist die Entwicklung eines Leitfadens, der Klein- und Mittelbe-triebe dabei unterstützt, Machine-Learning ressourcenschonend und datenschutzkonform einzusetzen. Der Leitfaden beinhaltet Handlungsempfehlungen zur Datenaufbereitung, zur Auswahl geeigneter Machine-Learning-Modelle und zur Berücksichtigung regulatorischer Anforderungen. Die durchgeführten Interviews zeigen, dass Machine-Learning insbesondere in Bereichen wie der Automatisierung von Geschäftsprozessen und der datenbasierten Entscheidungsfindung zu signifikanten Effizienzsteigerungen beitragen kann. Gleichzeitig wird auf Herausforderungen wie die Sicherstellung der Datenqualität und die Einhaltung der DSG-VO eingegangen.
Eine erfolgreiche Einführung und Nutzung von Cloud-ERP Lösungen bedarf einer organisierten Zusammenarbeit aller Beteiligten im Projekt. Hierbei müssen Entscheidungen getroffen, Prozesse definiert und Zuständigkeiten festgelegt werden. Während des Projektverlaufs werden Wissensinhalte unterschiedlichster Themenbereiche generiert und geteilt. Diese Wissensinhalte gilt es frühzeitig im Projekt transparent zu dokumentieren, um eine stabile Verwendung der ERP-Lösung mit dem Ende der Implementierungsphase und der Übergabe in die Nutzungsphase zu gewährleisten. Im Unternehmen B4B Solutions GmbH kommen für das Wissens- und Projektmanagement die Anwendungen Jira und Confluence von Atlassian zum Einsatz. In der vorliegenden Masterarbeit wird der Nutzen dieser Anwendungen in Bezug auf das Wissensmanagement in ERP-Projekten untersucht. Der Autor hat für diese Untersuchung Interviews mit vier Personen durchgeführt, die bei B4B Solutions in unterschiedlichen Projektrollen mit Jira und Confluence arbeiten. Somit wurden die Fragen aus dem erarbeiteten Interviewleitfaden aus unterschiedlichen Blickwinkeln beantwortet. Die Interviews wurden transkribiert, paraphrasiert und einer qualitativen Inhaltsanalyse unterzogen. Die Ergebnisse der Inhaltsanalyse bilden die Basis für die Beantwortung der Forschungsfrage „Welchen Nutzen schaffen die Webanwendungen Jira und Confluence bei der Einführung und Nutzung von Cloud-ERP-Systemen in mittelständischen Unternehmen?“ und der Validierung der im Vorhinein definierten Hypothesen. Die Hypothesen wurden einer Rücküberprüfung unterzogen. Ein Abschlussfazit und Schlussfolgerungen runden die Masterarbeit ab und spiegeln die persönliche Einschätzung des Autors im Hinblick auf jene Fallstricke im Wissensmanagement wider, mit denen Organisationen in ERP-Projekten rechnen müssen.
Diese Masterarbeit untersucht die zentralen Herausforderungen, denen traditionelle, ITIL-orientierte IT-Betriebsteams in Großunternehmen bei der Umstellung auf cloudnative Methoden gegenüberstehen. Basierend auf einer qualitativen Analyse durch Experteninterviews werden die wesentlichen Hürden wie kultureller Wandel, technologische Anforderungen und organisatorische Anpassungen identifiziert. Die Arbeit bietet einen systematischen Überblick über typische Problemfelder und leitet daraus Handlungsempfehlungen ab, die als Grundlage für weiterführende Untersuchungen und Lösungsansätze dienen können.
This thesis introduces a digital artefact designed to address organizational challenges faced by bands and musicians. Bands often encounter difficulties in managing schedules, resolving conflicts, and organizing shared resources. The artefact provides a centralized platform for task management, scheduling, and collaboration, with a focus on usability and security. Guided by usability principles from experts like Nielsen and Krug, the artefact emphasizes an intuitive user experience. Key features include personalized task management, collaborative tools for bands, and robust privacy controls. User appointments are anonymized in shared views to maintain privacy while enabling collaboration.Security is a cornerstone of the system, implemented through authentication and permission-based access control. The artefact also supports conflict resolution, alerting users to scheduling overlaps and facilitating resolution to reduce disruptions. Additional functionalities include tools for managing equipment, setlists, and band-specific resources.Evaluated heuristically using three personas representing diverse roles within bands, the arte-fact was found to meet all defined requirements. It successfully delivers a secure, efficient, and user-friendly solution to the identified challenges.The artefact’s multilingual support and modular design ensure scalability and adaptability for future enhancements, such as real-time collaboration and advanced analytics. This thesis demonstrates how tailored digital tools can effectively address challenges in the creative industries, empowering musicians to collaborate more efficiently and focus on their craft. The work establishes a foundation for future innovations in technology that support creative professionals.
Diese Arbeit untersucht die Anwendung von Künstlicher Intelligenz zur Verbesserung des Dispatchings im Bereich der Ressourceneinsatzplanung für Netzbetreiber in der Energiebranche, ein Gebiet, das zunehmend von den Herausforderungen der Energiewende und den Zielen der Klimaneutralität geprägt wird. Die zentrale Forschungsfrage lautet: Welche KI-Methoden eignen sich für die Verbesserung des Dispatchings in der Ressourceneinsatzplanung bei Netzbetreibern in der Energiebranche? Ziel ist es, bestehende KI-Methoden zu bewerten und ihre Anwendbarkeit in diesem spezifischen Kontext zu beurteilen, ohne neue Algorithmen zu entwickeln. Um diese Frage zu beantworten, folgt die Arbeit einem dreistufigen methodischen Ansatz. Zunächst wird eine einleitende Literaturrecherche durchgeführt, um relevante Methoden zu identifizieren und zentrale Bewertungskriterien abzuleiten. Anschließend werden Experteninterviews durchgeführt, um praktische Einblicke zu gewinnen und die theoretischen Erkenntnisse zu validieren. Abschließend werden die Ergebnisse in einer Nutzwertanalysezusammengefasst, die eine gewichtete Bewertung der Methoden im gegebenen Kontext der Arbeit liefert. Die Analyse zeigt, dass Methoden wie Deep Q-Networks, Improved Deep Q-Networks und Particle Swarm Optimization ein erhebliches Potenzial aufweisen, insbesondere in dynamischen und komplexen Planungsumfeldern wie dem Dispatching. Die Ergebnisse unterstreichen das Potenzial von KI, die betriebliche Effizienz zu steigern, repetitive Aufgaben zu Automatisieren, menschliche Fehler zu reduzieren und implizites Expert*innenwissen allen verfügbar zu machen. Diese Studie leistet somit einen wertvollen Beitrag zur Forschung, indem sie die Eignung ausgewählter KI-Methoden für das Dispatching im Energiesektor systematisch bewertet. Siebietet zukünftigen Entscheidungsträgern eine fundierte Grundlage für die Auswahl geeigneter Technologien und hebt wichtige Aspekte hervor, die bei der Implementierung KI-gestützter Systeme zu berücksichtigen sind.
Ziel dieser Masterarbeit ist die Entwicklung eines fortschrittlichen Modells zur kontextbasierten Erkennung und Filterung von Hassrede in der deutschen Sprache. Die Arbeit geht auf die Einschränkungen bestehender Modelle ein, die vorwiegend für englischsprachige Daten konzipiert sind, und passt moderne Techniken der natürlichen Sprachverarbeitung (NLP) an die sprachlichen und kulturellen Besonderheiten des Deutschen an. Im Fokus steht die Bewältigung der Herausforderungen, die mit der Kontextidentifikation in Textkommunikationen, insbesondere in sozialen Medien und anderen Echtzeitkommunikationsumgebungen, verbunden sind. Ziel ist es, die Defizite traditioneller, schlüsselwortbasierter Ansätze zu überwinden. Die Methodik umfasste eine umfangreiche Datenvorverarbeitung, die Einbindung von Konversationshistorien zur Erfassung des Kontexts sowie das Fine-Tuning eines vortrainierten Large Language Models (LLM). Eine systematische Evaluierung anhand von Metriken wie Accuracy, Precision, Recall und F1-Score zeigte signifikante Verbesserungen gegenüber Basismodellen. Die Ergebnisse unterstreichen die Bedeutung des Kontexts, um die Klassifikationsgenauigkeit zu erhöhen und falsch-positive sowie falsch-negative Ergebnisse zu minimieren. Diese Forschung liefert einen robusten und anpassungsfähigen Rahmen für die Hassredeerkennung in der deutschen Sprache und trägt sowohl zu wissenschaftlichen Fortschritten als auch zu praktischen Anwendungen bei. Potenzielle Einsatzbereiche umfassen die Inhaltsmoderation auf sozialen Medienplattformen, die Echtzeitfilterung in Kommunikationswerkzeugen und andere Domänen, die eine effiziente und skalierbare Textanalyse erfordern. Die Ergebnisse verdeutlichen die Notwendigkeit, kontextsensitive Modelle weiter zu erforschen, um die Herausforderungen moderner digitaler Kommunikation zu bewältigen.
Ob in Form von Internetsuchmaschinen, Chatbots oder autonomen Fahren, der Vormarsch von künstlicher Intelligenz (KI) ist in Österreich unausweichlich. Während die einen den Fortschritt kaum abwarten können, fordern andere bereits einen Entwicklungsstopp. Kaum eine andere Technologie hat in den letzten Jahren für so viel Polarisierung gesorgt. Diese Masterarbeit behandelt das Thema KI in Kombination mit dem Vorgehensmodell Scrum. Viele österreichische Unternehmen, darunter auch kleine und mittlere Unternehmen (KMU), setzen Scrum ein, um komplexe Softwareprodukte zu entwickeln. Ziel dieser Arbeit ist es herauszufinden, welchen Einfluss künstliche Intelligenz auf den Scrum Prozess von IT-Projekten in österreichischen KMU hat. Um Erkenntnisse zu gewinnen, ist in der Forschungsarbeit ein Mixed-Methods Ansatz zum Einsatz gekommen. Hierbei besteht der Eckpfeiler aus der qualitativen Forschung in Form von Expertinnen- und Experteninterviews. Diese Erkenntnisse haben in Kombination mit der Theorie die Grundlage für die Entwicklung weiterer Hypothesen gebildet, welche die fünf Dimensionen Effizienz, Dauer, Qualität, Zufriedenheit und Erfolg umfassen. Besagte Hypothesen wurden dann mit Hilfe der quantitativen Forschung durch eine Umfrage auf der Grundlage eines Fragebogens getestet. Die Ergebnisse dieser Arbeit zeigen, dass der Einsatz von KI im Scrum Prozess einen positiven Einfluss auf alle fünf Dimensionen darstellt. Aus diesem Grund sollen österreichische KMU die Einführung von KI in ihren Scrum Prozess in Betracht ziehen. Es ist schwer zu sagen, wie sich die Dinge in den nächsten Jahren entwickeln werden, aber basierend auf den Resultaten der Arbeit lohnt sich ein Blick in Richtung KI für österreichische KMU.
Der Einfluss von Remote Working auf die Arbeitszufriedenheit hängt weitgehend von der Person, dem Arbeitsumfeld, Beziehungen zu Kolleg*innen und einer Reihe anderer Aspekte (Identifikatoren) ab. Einige der positiven Einflüsse des Remote Workings auf die Arbeitszufriedenheit sind: ▪ Flexibilität: Remote Working ermöglicht es der oder dem Einzelnen, mehr Kontrolle über ihren oder seinen Arbeitsplan zu haben, was zu mehr Flexibilität und einer besseren Vereinbarkeit von Beruf und Privatleben führen kann. ▪ Geringere Pendelzeiten: Durch den Wegfall des täglichen Pendelns sparen Telearbeiter*innen Zeit und Geld, und haben einen geringeren ökologischen Fußabdruck. ▪ Verbesserte physische Umgebung: Viele Fernmitarbeiter*innen berichten, dass sie sich in ihrer eigenen Umgebung wohler fühlen und produktiver arbeiten können. Einige der negativen Auswirkungen des Remote Workings auf die Arbeitszufriedenheit sind: ▪ Isolation: Remote Working kann zu Gefühlen der Isolation und Einsamkeit führen, was sich negativ auf die Arbeitszufriedenheit auswirken kann. ▪ Mangelnde Zusammenarbeit: Remote Working kann die Zusammenarbeit mit Kolleg*innen erschweren und zu einem Mangel an sozialer Interaktion führen. ▪ Work-Life-Balance: Für Telearbeiter*innen kann es schwierig sein, Arbeit und Privatleben zu trennen, was zu Überlastung und Burnout führen kann. Insgesamt ist der Einfluss des Remote Workings auf die Arbeitszufriedenheit komplex und vielschichtig. Zudem hängt er von einer Vielzahl von Aspekten ab, zu denen individuelle Präferenzen, die Arbeitskultur und die Unterstützung durch die oder den Arbeitgeber*in zählen. Ziel dieser Arbeit ist es, diese Einflüsse aus der Sicht von Arbeitnehmer*innen und Führungskräften zu untersuchen und eine Liste relevanter Aspekte (Identifikatoren) zu erstellen, die für die Zusammenarbeit zwischen beiden Gruppen hinsichtlich Arbeitszufriedenheit im Remote Working relevant sind.
Für eine qualitativ hochwertige Fertigung in einem industriellen Umfeld müssen die Produkte eine Vielzahl von Prüf- und Qualitätsstandards erfüllen. Diese Inspektionsprozesse, zum Beispiel das Messen der Dichte von Flüssigkeiten, werden von hochpräzisen Messsystemen erledigt. Am Ende jeder Messung entstehen Ergebniswerte, die oftmals zu Analysezwecken benötigt werden. Besitzt das jeweilige Messsystem keine Schnittstelle nach außen oder lediglich eine veraltete Schnittstelle wie RS232, die aber vom übergeordneten System nicht mehr unterstützt wird, kann sich der händische Datenübertragungsprozess als mühselig erweisen. Diese Masterarbeit befasst sich mit der Konzeptionierung und Implementierung eines Gateway-Prototypen-Adapters, um Smart Services mit Telemetrie- beziehungsweise Messdaten unter Verwendung des Einplatinencomputers Raspberry Pi zu versorgen. Ein weiteres Ziel dieser Arbeit ist es, die Portabilität und Skalierbarkeit des Gateway-Adapters mithilfe einer Microservice-orientierten Architektur und der Verwendung von Containertechnologien möglichst hoch zu halten. Zu diesem Zweck wurde speziell für den Gateway-Adapter-Prototyp eine standardisierte Schnittstelle entwickelt. Diese Arbeit vermittelt außerdem ein vertieftes Verständnis hinsichtlich Interaktionsmöglichkeiten mit verschiedenen Protokollen, Protokollformaten und Programmierparadigmen für verteilte Systeme sowie bezüglich Grundlagen der Hard- und Software des Einplatinencomputers Raspberry Pi und des Prototypings im Zuge der Softwareentwicklung. Das Ergebnis dieser Masterarbeit zeigt, dass es möglich ist, Smart Services auch mit Daten aus alten Messsystemen zu speisen. So bietet der Einsatz des Gateway-Adapters nicht nur die Option, Altsysteme weiterhin zu verwenden, sondern ermöglicht durch sein Architekturkonzept Modularität und zukünftige Erweiterung.