005 Computerprogrammierung, Programme, Daten
Refine
Year of publication
Document Type
- Master's Thesis (60)
Has Fulltext
- yes (60)
Is part of the Bibliography
- yes (60)
Keywords
- Künstliche Intelligenz (8)
- Software Engineering (7)
- Softwareentwicklung (5)
- Computersicherheit (4)
- Informationssicherheit (3)
- Softwaretest (3)
- Serviceroboter (2)
- Agile Softwareentwicklung (1)
- App <Programm> (1)
- Authentifikation (1)
Agilität als Erfolgsfaktor
(2025)
In der heutigen Zeit gewinnt die Softwareentwicklung zunehmend an Bedeutung, und es wird intensiv diskutiert, wie agiles Arbeiten Teams beeinflusst und welche Auswirkungen dies auf die Qualität der Endprodukte hat (Eckkrammer et al., 2010). Dabei rückt nicht nur die reine Softwarequalität in den Fokus, sondern auch die Zufriedenheit jener, die täglich in den agilen Prozessen eingebunden sind – die Teammitglieder. Diese Arbeit widmet sich der spannenden Fragestellung: Inwieweit besteht ein Zusammenhang zwischen dem agilen Reifegrad von agilen Softwareentwicklungsteams, der gelieferten Softwarequalität und der Zufriedenheit der Teammitglieder, und welche Faktoren beeinflussen diese Zusammenhänge? Agilität als Konzept in der Softwareentwicklung hat sich von einem Trend zu einem Eckpfeiler der Branche entwickelt. Teams weltweit streben danach, ihre Prozesse immer weiter in Richtung Agilität zu entwickeln, um schnell auf sich ändernde Anforderungen und dynamische Marktbedingungen zu reagieren. Die vorliegende Arbeit untersucht den Zusammenhang zwischen dem agilen Reifegrad dieser Teams und zwei zentralen Aspekten: der Qualität der von ihnen entwickelten Software und ihrer eigenen Zufriedenheit. Das Ziel dieser Arbeit ist es, die genannten Zusammenhänge aufzuzeigen und gleichzeitig die Faktoren zu identifizieren, die diese beeinflussen. Es soll erforscht werden, wie unterschiedliche Grade der Agilität sich auf die Arbeitsweise von Teams auswirken und welche Auswirkungen dies wiederum auf die Softwarequalität und die Zufriedenheit der Entwickler*innen hat. Durch die Einbeziehung und kritische Diskussion bestehender Forschungsergebnisse, Theorien und praktischer Ansätze wird ein fundiertes Verständnis des Themas angestrebt. Der Forschungsstand zum Thema Agilität ist vielfältig und reicht von spezifischen agilen Reifegradmodellen bis hin zu Untersuchungen über den Einfluss von Agilität auf die Teamzufriedenheit und Softwarequalität. Diese Arbeit schöpft aus einer breiten Palette an Quellen, um ein ganzheitliches Bild zu zeichnen. Der Aufbau der Arbeit folgt einer durchgängigen Struktur. Zunächst werden grundlegende Konzepte und Prinzipien der Agilität erarbeitet, bevor auf die praktische Messung des agilen Reifegrades und dessen Modelle und Dimensionen eingegangen wird. Anschließend wird der Einfluss von Agilität auf die Qualität der Software sowie die Zufriedenheit innerhalb der Teams untersucht und kritisch hinterfragt. Abschließend werden die gewonnenen Erkenntnisse zusammengeführt und im Kontext der Forschungsfragestellung diskutiert.
Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz in der Softwareentwicklung
(2023)
Ziel dieser Masterarbeit war es, die Auswirkungen und Benefits durch den Einsatz von künstlicher Intelligenz (KI) auf die Softwareentwicklungsbranche zu beurteilen. Die Beurteilung wurde von der steirischen Softwareentwicklungsbranche durchgeführt. Um Hypothesen aufstellen zu können, wurden aktuelle Literaturquellen analysiert. Der Theorieteil umfasst die Beschreibung einiger KI-Tools, die für die Softwareentwicklung eingesetzt werden können. Die Einsatzmöglichkeiten von KI für Softwareentwicklungstätigkeiten werden anhand aktueller Studien diskutiert. Einige ethische Aspekte sowie Einflüsse auf die Arbeitsweise und Risiken, die der Einsatz von KI mit sich bringt, werden beschrieben. Mit einem Online-Fragebogen wurde die Beurteilung und Meinung der steirischen Softwareentwicklungsbrancheerhoben. Der Fragebogen umfasst Überlegungen, wie beispielsweise die Anpassung der Ausbildungsprogramme, die mögliche Ablöse der Softwareentwicklerinnen und Softwareentwickler durch KI-Tools, das Potenzial einer Effizienzsteigerung sowie die Risiken durch die Verwendung von KI-generiertem Code. Basierend auf den Ergebnissen der Umfrage und den Literaturquellen wird die Beurteilung aktueller sowie zukünftiger Auswirkungen und Benefits abgeleitet, um die Forschungsfrage zu beantworten. Im Großen und Ganzen wird die Codegenerierung von KI-Tools als gut beurteilt. Es kann eine Effizienzsteigerung erzielt werden und wenig erfahrene Personen können durch den Einsatz von KI profitieren. Die Möglichkeit eines geringeren Personalbedarfs wird gelassen beurteilt und als nicht realistisch angesehen. Nur wenige haben in den Ausbildungsprogrammen etwas über KI gelernt, die meisten können KI-Tools trotzdem gut in den Arbeitsalltag integrieren. Bedenken hinsichtlich Lizenzverletzungen liegen kaum vor. Zusammenfassend lässt sich sagen, dass die Beurteilungen, der in dieser Masterarbeit behandelten Auswirkungen und Benefits, durch die steirische Softwareentwicklungsbranche zum Großteil mit dem aktuellen Stand der Literatur übereinstimmt.
During the last decades the functionality of software has risen steadily, which has led to an increased complexity. In the classic field of information technology this problem can be solved with a well-documented software architecture. In an industrial environment this is not feasible, because these systems do not support programmable logic controllers (PLCs). SSI Schäfer Automation is facing a generation change of their used PLC systems resulting in a redesign of the current software. The aim of this master thesis is to create a software architecture system that can also be used for PLCs. Using this system, a software architecture is designed which matches the demands of a state-of-the-art conveyor system. An object-oriented architecture is developed that can also be applied to the PLC systems which do not support object-oriented languages. The architectural process is outlined in a few examples and demonstrates the development from the requirements to the necessary definitions and subsequently to the model-based software architecture documentation. The designed architecture is as flexible as possible and can be used for multiple different products. With the architectural system it is possible to design these systems and document all the necessary decisions. Currently the architecture is applied to the first product and others will follow.
Diese Arbeit prüft die Abwärtskompatibilität der Frontend-Frameworks Angular, React und Vue.js, um herauszufinden, welches sich am besten für Legacy-Projekte eignet. Abwärtskompatibilität spielt in der Softwareentwicklung eine wichtige Rolle. Sie sorgt dafür, dass
bestehende Systeme nach Updates oder Migrationen weiter funktionieren. Die Untersuchung nutzt eine Nutzwertanalyse mit Kriterien wie API-Stabilität, Deprecation-Politik, Versionierungsstrategie, Migrationsleitfäden, Community-Support, Leistung, Browser-Kompatibilität, Testing und interne Abwärtskompatibilität. Für die Analyse wurden Entwicklerumfragen, akademische Studien und technische Dokumentationen herangezogen. Besonders die API-Stabilität wurde anhand realer Projekte geprüft. Ergebnisse zeigen: React erreicht mit 75,15 % die beste Gesamtbewertung, gefolgt von Vue.js mit 60,14 % und Angular mit 57,30 %. React sticht durch stabile APIs, eine große Community und flexible Testing-Möglichkeiten heraus – ideal für Legacy-Projekte. Vue.js punktet mit hoher Performance und leichter Migration, hat aber Schwächen bei der API-Stabilität. Angular überzeugt durch klare Deprecation-Politik und starke Versionierungsstrategie, kämpft jedoch mit häufigen Updates und eingeschränkter interner Abwärtskompatibilität. Die Arbeit beleuchtet auch methodische Probleme, etwa die fehlende direkte Gewichtung von Kriterien und die schnelle Weiterentwicklung der Frameworks. In Zukunft könnte der Bewertungsprozess wiederholt werden, um neue Entwicklungen einzubeziehen und eine langfristige Entscheidungsgrundlage für Frontend-Technologien in Legacy-Projekten zu schaffen. Eine ständige Anpassung an technologische Veränderungen bleibt für nachhaltige Softwareentwicklung entscheidend.
In der vorliegenden Arbeit wird die Entwicklung eines Konzeptes für ein Servicerobotersystem behandelt, das im Bereich der Rehabilitationstechnik angesiedelt ist. Es soll körperbehinderten Menschen die Nutzung von Automobilen komfortabler ermöglichen, indem es die Aufgabe übernimmt, den Rollstuhl automatisch zu verladen. Der Serviceroboter ist so konzipiert, dass er den Rollstuhl vom Kofferraum eines Fahrzeuges bis vor den Einstiegbereich eines Kraftfahrzeugs transportieren kann. Bei der Auslegung des Konzeptes wird darauf Rücksicht genommen, dass das System für möglichst viele Fahrzeugvarianten eingesetzt werden kann. Des Weiteren ist das Rollstuhlverladesystem so ausgelegt, dass der Einbau in modernen Fahrzeugen mit möglichst geringem Arbeitsaufwand und ohne gravierenden Eingriff in die Fahrzeugstruktur möglich ist. Die Basis des Konzepts stellt die konstruktive Gestaltung des Systems dar. Vor der Umsetzung der Konstruktion wurden die Rahmenbedingungen hinsichtlich der Anforderungen an das Fahrzeug, den Rollstuhl und die Bedienung des Systems definiert. Im nachfolgenden Schritt werden die Belastungen dargestellt, die am Servicerobotersystem auftreten, und auf Basis der erstellten Lastfälle wird die Auslegung der Antriebstechnik durchgeführt. Der Fokus bei der Auswahl der Komponenten der Antriebstechnik ist dabei auf eine möglichst platzsparende Gestaltung der Antriebe gerichtet, damit der Platzbedarf des Systems möglichst gering ist und das System auch für Kleinwagen einsetzbar ist. Diese Arbeit wird für das Ingenieurbüro Manfred Wonisch umgesetzt und dient als Machbarkeitsstudie für eine mögliche Produktentwicklung.
Die AVL List GmbH bietet ihren Kunden, neben anderen Produkten im Produktportfolio, eine Abgasmess-Automatisierungssoftware an, welche eine Durchführung von gesetzeskonformen Emissionstests an Fahrzeugen und Verbrennungsmotoren ermöglicht. Bevor diese Software auf einem realen Prüfstand in Betrieb genommen werden kann, ist ein Engineering der Software notwendig, welche das Aufsetzen einer Simulationsumgebung, die eine Prüfstands-Konfiguration simuliert, verlangt. Nachdem das Aufsetzen der kompletten Simulationsumgebung zeitaufwändig ist, wird eine Lösung benötigt, um erkennen zu können, dass mit einer einzelnen Simulationsumgebung das Engineering von mehreren Projekten durchgeführt werden kann.
Das Ziel der Masterarbeit ist es ein System zu entwickeln, welches in der Lage ist, die Ähnlichkeit zwischen Projekten zu berechnen. Infolgedessen wurden verschiedene Methoden ausgearbeitet, die es erlauben eine Ähnlichkeit von unterschiedlichen Merkmalen zwischen Projekten zu ermitteln. Diese Methoden wurden bei der Entwicklung der Software zur Berechnung der Ähnlichkeit angewendet.
Das Resultat ist eine Software, welche die Ähnlichkeit von Projekten bestimmen kann und eine Webanwendung zur Eingabe von Projekt-Informationen sowie zur grafischen Darstellung von Resultaten der Ähnlichkeitsberechnung. Mit dem entwickelten System kann die Zeit des Engineerings, durch die automatisierte Berechnung von Abgasmess-Automatisierungssoftware Projekten, reduziert werden. Dies ermöglicht es die Effizienz des Engineerings zu verbessern und resultierend die Wertschöpfung des Unternehmens zu steigern. Der nächste Schritt ist die Finalisierung und Implementierung des entwickelten Systems, um von den Vorteilen profitieren zu können.
In der heutigen Zeit sind Serviceroboter ein unverzichtbares Element in zahlreichen industriellen und gesellschaftlichen Bereichen. Ihre steigende Bedeutung ist größtenteils auf erhebliche Fortschritte in der Software-Entwicklung, wie KI-Technologien, einen Quantensprung in der Mikro-Chip-Industrie und neuartiger leistungsstarker Hardware zurückzuführen. Diese Entwicklungen eröffnen Möglichkeiten für erhöhte Autonomie und Effizienz, stellen jedoch auch eine Reihe von technischen Herausforderungen dar. Ein Schlüsselaspekt ist die Variabilität, die es ermöglicht, Roboter für eine breite Palette von Anwendungen, von Fertigungsprozessen bis hin zu Logistik und Gesundheitswesen, zu optimieren. So wertvoll diese Flexibilität auch ist, erschwert sie jedoch die Integration der Software, die der Hardware, deren Wartung, sowie die kontinuierliche Verbesserung und wirft teilweise wirtschaftliche und ethische Fragen auf. Die Masterarbeit nimmt diese vorwiegend technischen Herausforderungen ins Visier und bietet eine tiefgehende Analyse über das Feld der professionellen Servicerobotik. Sie stellt die Notwendigkeit einer durchdachten Planung, Implementierung und Integration in den Vordergrund, mit dem Ziel, die Serviceroboter in ihren jeweiligen Einsatzfeldern, anhand der eruierten Herausforderungen, so reibungslos als möglich zu integrieren. Neben dem Hauptaugenmerk auf die technischen Aspekte betrachtet die Arbeit auch einige soziale und ethische Fragen, die durch die zunehmende Integration von Servicerobotern in menschliche Umgebungen entstehen. Hierzu zählen insbesondere Software, Hardware, das menschliche Wohlbefinden und die Verantwortung im Umgang mit Daten. Diese Herausforderungen und möglichen Lösungen werden anhand einer systematischen Literaturrecherche nach vom Brocke et al. ermittelt. Die Forschung hat eine Vielzahl von Herausforderungen und Lösungen aufgezeigt, wobei der Schwerpunkt hauptsächlich auf technischen Problemen lag. Es gelang, einige Hypothesen zu bestätigen und andere zu widerlegen, was zur Beantwortung der Forschungsfragen beitrug. Zudem wurde ein deutlicher Trend hin zu einem vermehrten Interesse im Bereich der Servicerobotik erkennbar. Insgesamt bietet die Arbeit einen umfassenden Überblick über die komplexen Anforderungen, die die Implementierung und Integration von Servicerobotern mit sich bringt. Die Studie der Masterarbeit dient als wertvolle Ressource für diejenigen, die in der Planung, Entwicklung und Implementierung von Servicerobotern tätig sind und gibt einen fundierten Einblick in die aktuellen und zukünftigen Herausforderungen dieses dynamischen und schnell wachsenden Feldes.
Für Klein- und mittelständische Unternehmen wird der Mangel an Arbeitskräften immer deutlicher spürbar, wodurch die Ressource Mensch zunehmend kostbarer wird. Der Schritt in eine teilautomatisierte Fertigung stellt hierbei eine Chance dar, um repetitive Tätigkeiten von Automatisierungssystemen erledigen zu lassen. Diese Masterarbeit befasst sich mit der Realisierung einer Beschickungslösung einer Fräsmaschine mithilfe eines Roboters. Eine konventionelle Fräsmaschine, welche sich im MER-Labor der FH CAMPUS 02 befindet, soll hierbei zunächst CNC-fähig gemacht werden. Ein Roboter soll durch die Platzierung auf einem verfahrbaren Untertisch als mobiler Helfer fungieren und die Be- und Entladung von Werkstücken automatisiert durchführen. Zur Vereinfachung des Rüstprozesses des Roboters an der Fräsmaschine soll ein Kamerasystem eingesetzt werden, welches eine Positionserkennung im Raum ermöglicht. Der Roboter soll an der CNC-Fräsmaschine positioniert werden, ohne dass er für diese Position eingerichtet werden muss. Für die praktische Umsetzung wurde im theoretischen Teil zunächst geklärt, was als Stand der Technik im Feld der automatisierten Be- und Entladung von Werkzeugmaschinen mithilfe von Robotern angesehen wird. Die Forschungsfrage, wie eine Positionserkennung des Endeffektors des Roboters im Raum mit einer Kamera realisiert werden kann, wurde ebenfalls im Theorieteil beantwortet. In diesem Abschnitt wurden des Weiteren auch die verschiedenen Arten des Signalaustausches zwischen Roboter und Maschine erörtert mit den erforderlichen Signalen für ein derartige Automatisierungslösung. Die für die Aufrüstung einer Fräsmaschine auf CNC-Technik erforderlichen Umbauten wurden ebenfalls mit einbezogen. Beruhend auf der theoretischen Aufarbeitung der einzelnen Teildisziplinen des Gesamtsystems, wurden im praktischen Teil Lösungen erarbeitet und Entscheidungen getroffen für die Umsetzung. Diese Umsetzung beinhaltet das CNC-Upgrade der Fräsmaschine und die Schaffung eines mobilen Roboters, welcher ohne exakte Positionierung Werkstücke automatisiert be- und entlädt. Die erarbeitete Gesamtlösung dient beispielhaft als Leitfaden für Klein- und Mittelbetriebe, welche einen Schritt in eine teilautomatisierte Fertigung gehen wollen und ohne hohe Investitionskosten bestehende Werkzeugmaschinen automatisieren wollen.
Angesichts der fortschreitenden Digitalisierung und der stetige Anstieg von Informationstechnologien, gewinnt der Einsatz von Künstlicher Intelligenz im Human Resource Bereich zunehmend an Bedeutung. Unternehmen suchen ständig nach Möglichkeiten, ihre HR-Prozesse zu optimieren und den Herausforderungen des Arbeitsmarktes gerecht zu werden. Durch die Integration von KI-Anwendungen sollen zahlreiche HR-Aufgaben effizienter und genauer gestaltet werden, was Zeit und Ressourceneinspart. Das Ziel dieser Masterarbeit ist es, einen umfassenden Überblick über den derzeitigen Stand der Technologie im Bereich Künstlicher Intelligenz im Human Resources Bereich zu geben. Dabei soll aufgezeigt werden, welche KI-unterstutzten Technologien zurzeit am Markt verfügbar sind und welche weitreichenden Auswirkungen diese auf verschiedenste Teilbereiche eines Unternehmens haben können, von der Personalbeschaffung über die Mitarbeiterentwicklung bis hin zur Leistungsbeurteilung und Automatisierung administrativer Aufgaben. Um dieses Ziel zu erreichen, wurde eine systematische Literaturrecherche durchgeführt, um fundierte Übersichten und detaillierte Informationen zu diesem Thema zu sammeln. Die Literaturrecherche umfasste drei verschiedene Literaturdatenbanken, um eine möglichst breite und repräsentative Basis zu schaffen. Durch diese Literaturrecherche wurden relevante Informationen und Daten gesammelt, die es ermöglichten, fundierte Hypothesen zu formulieren. Diese Hypothesen wurden im Rahmen dieser Literaturanalyse eingehend untersucht, um verlässliche Rückschlüsse auf den Einsatz und die Wirksamkeit von KI in Personalabteilungen zu ziehen.
Ein User-Interface ist das zentrale Element eines jeden Systems und entscheidet über dessen Effektivität und wahrgenommene Qualität. Umso wichtiger ist daher die frühe Einbindung der Nutzer*innen bei der Entwicklung von Bedienoberflächen (Mohammed & Karagozlu, 2021; Sridevi, 2014). Die im ISO-Standard ISO 9241-210:2019 beschriebenen Prinzipien und Aktivitäten des sogenannten User-Centered-Design (UCD) Ansatzes bieten hierfür den Grundstein (ISO, 2023). Ziel dieser Arbeit ist es nun, das Potential von künstlicher Intelligenz im User-Centered-Design und im Speziellen für die Prototypenerstellung zu ermitteln. Dabei liegt der Fokus auf den sogenannten interaktiven Prototypen, welche eine Interaktion mit den Benutzern*Benutzerinnen ermöglichen (Arnowitz, 2010). Dazu wurde zu Beginn eine Literaturrecherche zu den Themen künstliche Intelligenz und User-Interface-Design vorgenommen, um eine Wissensgrundlage zu schaffen. Darauf aufbauend wurden dann die einzelnen Schritte des User-Centered-Design Prozesses und die dazugehörigen Einsatzmöglichkeiten von künstlicher Intelligenz untersucht. Im darauffolgenden praktischen Teil der Arbeit wurde eine Technologieakzeptanzstudie nach dem Modell der Unified Theory of Acceptance and Use of Technology (UTAUT) nach Venkatesh et al. (2003) in Form einer Onlineumfrage durchgeführt. Die Erkenntnisse aus der Onlineumfrage zeigen, dass sowohl die Leistungserwartung, die Aufwandserwartung, die sozialen Einflüsse als auch die erleichternden Bedingungen der Teilnehmer*innen miteinander korrelieren, aber einzig und allein die sozialen Einflüsse einen signifikant positiven Einfluss auf die Verhaltensabsicht und infolgedessen auch auf das Nutzungsverhalten von Personen haben. Im Zuge der Umfrage gab die Mehrheit der Teilnehmer*innen an, dass sie positive Erwartungen an die Leistung und den Aufwand der Nutzung von künstlicher Intelligenz zur Erstellung von interaktiven Prototypen hat. Die sozialen Einflüsse und erleichternden Umstände wurden genauso wie die Verhaltensabsicht eher neutral, aber mit positiven Tendenzen bewertet. Eine weiterführende Forschung im Bereich der Wirtschaftsinformatik könnte daher in Form einer qualitative Forschung durchgeführt werden, beispielsweise durch User-Tests unter überwachten Bedingungen. Dabei könnte das Verhalten der Benutzer*innen während der Interaktion mit der künstlichen Intelligenz beobachtet werden, um tiefere Einblicke zu gewinnen und die Ergebnisse vergleichbar zu machen.
Die Verbreitung von ChatGPT (Generative Pre-trained Transformer) und dessen Integration in verschiedene Bereiche unseres täglichen Lebens, hat umfangreiche Diskussionen über dessen Auswirkungen ausgelöst. Die Masterarbeit stellt eine umfassende Analyse dessozialen Diskurses im Kontext der generativen Künstlichen Intelligenz (KI), insbesondere von ChatGPT dar. Mit einer detaillierten empirischen Erhebung werden die vielfältigen Meinungen, Bedenken und Einschätzungen von Individuen zu diesem Thema eingehend untersucht. Das Ziel der Arbeit besteht darin, ein umfassendes Verständnis für die verschiedenen Perspektiven und potenziellen Auswirkungen von generativer KI auf die Gesellschaft zu erlangen. Besondere Aufmerksamkeit wird auf das Thema der Akzeptanz, sowie den potenziellen Auswirkungen von generativer KI auf sozialen, wirtschaftlichen und ethischen Kontexten gerichtet. Die Q-Methode wird genutzt, um die subjektiven Sichtweisen der Teilnehmenden zu ermitteln. Dadurch konnten drei Meinungs-Typen definiert werden: „die Bildungsinnovatorin“, „der/die Bewahrer*in der Gesellschaftswerte“ und „der technologische Realist“. Die Ergebnisse der Studie liefern wichtige Einblicke in die Vielfalt der Standpunkte und zeigen auf, wie die Öffentlichkeit auf die rasante Entwicklung von KI reagiert. Diese Erkenntnisse sind von großer Relevanz für Entscheidungsträger*innen in Politik, Wirtschaft und Technologie, da sie dazu beitragen, die Chancen und Herausforderungen von generativer KI besser zu verstehen, um fundierte Entscheidungen zu treffen. Die Masterarbeit reflektiert nicht nur die aktuelle Debatte über KI, sondern regt auch dazu an, die gesellschaftlichen Auswirkungen dieser Technologien kritisch zu hinterfragen, weiter zu erforschen und in anhaltenden Diskussionen zu vertiefen, um eine nachhaltige und ethisch verantwortungsvolle Integration von KI in die Gesellschaft zu fördern.
In diesem Beitrag wird die Rolle von Künstlicher Intelligenz (kurz KI) bei der Erlangung von IT-Sicherheitszertifizierungen untersucht. In einer zunehmend digitalisierten Welt sind Unternehmen verschiedenster Branchen auf die Implementierung effektiver Sicherheitsmaßnahmen angewiesen, um ihre Daten und Systeme vor Bedrohungen (wie zum Beispiel Hacker) zu schützen. Diese Arbeit beleuchtet, wie KI-Technologien in verschiedenen Phasen des Zertifizierungsprozesses eingesetzt werden können. Dazu gehören die Identifizierung von Sicherheitsrisiken durch die Analyse der Beschreibung von Unternehmen, die Entwicklung und Umsetzung von Sicherheitsrichtlinien sowie die Definition neuer Prozesse und Verfahren, um die Sicherheit von Unternehmen zu gewährleisten. Diese Arbeit gibt einen Überblick über die Potenziale und Herausforderungen, die mit dem Einsatz von KI im Rahmen der IT-Sicherheitszertifizierung verbunden sind, und zeigt auf, wie Organisationen ihre Sicherheitspraktiken durch intelligente Technologien optimieren können. Zu diesem Thema wurden Experten interviewt, die mit künstlicher Intelligenz bereits Erfahrung sammeln konnten und mit den Antworten der KI gegenübergestellt. Durch die Integration von KI in den Zertifizierungsprozess können Unternehmen nicht nur die Effizienz ihrer Sicherheitsbemühungen in Form von Analyse von Sicherheitslücken steigern, sondern auch dazu beitragen, die Einhaltung von Sicherheitsstandards und -richtlinien zu gewährleisten. Die KI hat aber zum jetzigen Zeitpunkt noch einige Mängel, die es gilt in Zukunft anzupassen respektive mit Trainingsdaten zu IT-Security Standards zu versehen, um so eine Künstliche Intelligenz zu schaffen, die wie ein Experte auf diesem Gebiet handeln kann. Ein Nebenprodukt dieser Arbeit ist eine - anhand der Experteninterviews - erstellte Prozesskarte zur Zertifizierung und Rezertifizierung von Sicherheitszertifikaten und -standards.
Die vorliegende Masterarbeit widmet sich der Implementierung künstlicher Intelligenz (KI) im Bearbeitungsprozess von Serviceanfragen im Kundensupport. Dabei wird der Design Science Research Ansatz als Forschungsmethode verwendet, um eine effektive Gestaltung und Umsetzung der KI-Integration zu gewährleisten. Zu Beginn der Arbeit wird der Design Science Research Ansatz eingehend erläutert. Dieser methodische Rahmen ermöglicht die Entwicklung und Evaluation von artefaktbasierten Lösungen, in diesem Fall die Implementierung von KI im Kundensupport. Es werden Designziele definiert und eine iterative Vorgehensweise skizziert, die die praxisnahe Anwendung von Forschungsergebnissen gewährleistet. Im Anschluss bezieht sich der Fokus auf das Incident Management im Kundensupport. Es erfolgt eine detaillierte Analyse des bestehenden Prozesses, um Herausforderungen zu identifizieren, die durch KI gelöst werden können. Der Schwerpunkt liegt auf der Automatisierung von Routinetätigkeiten, der schnellen Klassifizierung von Anfragen und der Verbesserung der Wissensbasis. Abgeschlossen werden die Grundlagen mit dem Thema künstliche Intelligenz. Verschiedene KI-Technologien wie Supervised Learning und der KNN-Algorithmus werden erläutert, um eine fundierte Basis für die spätere Implementierung zu schaffen. Das vierte Kapitel widmet sich einer empirischen Studie zur Evaluation der implementierten KI im Kundensupport. Hierbei wird die ausgewählte KI-Technologie in der Praxis getestet, und die Ergebnisse werden auf ihre Wirksamkeit und Effizienz hin analysiert. Die Erkenntnisse aus der empirischen Studie fließen in die abschließende Reflexion und Handlungsempfehlungen für zukünftige Implementierungen im Kundensupport ein. Eine Schlussfolgerung bzw. der Ausblick schließen diese Arbeit ab.
Die Erstellung von Softwareangeboten birgt zahlreiche Herausforderungen. Darunter fallen insbesondere die möglichst akkurate und vollständige Spezifikation der zu entwickelnden Softwarelösung und die gleichzeitige Sicherstellung einer effektiven und verständlichen Kommunikation mit Auftraggeber*innen. Die Kosten für die Erstellung eines Angebots werden in der Regel erst von der erfolgreichen Projektakquise gedeckt. Ansonsten müssen die angefallenen Kosten für die Angebotserstellung von anderen Projekten aufgefangen werden. Dies setzt Auftragnehmer*innen einem erheblichen wirtschaftlichen Druck aus, der eine effiziente Arbeitsweise notwendig macht. Mit der kombinierten Anwendung von User Stories und künstlicher Intelligenz soll die Angebotserstellung optimiert werden. Im Rahmen dieser Arbeit wird der Stand der Technik für natürliche Sprachverarbeitung näher beleuchtet und wie diese zusammen mit User Stories funktionieren kann. Das Unternehmen ireo GmbH liefert mit seiner in Bälde marktreifen SaaS-Webapplikation Storywise einen Lösungsansatz, um die aufgedeckten theoretischen Potenziale von natürlicher Sprachverarbeitung zusammen mit leichtgewichtigen und verständlichen User Stories in die Praxis überzuführen. Die Applikation Storywise wird daher im Rahmen dieser Arbeit von Expert*innen und potenziellen Anwender*innen aus dem Bereich Projektmanagement, Requirements Engineering und Softwareentwicklung getestet und evaluiert, wobei leitfadengestützte Expert*inneninterviews und eine qualitative Inhaltsanalyse nach Kuckartz und Rädiker zur Anwendung kommen. Das Ziel dieser Arbeit war die Einordnung der Praktikabilität der Applikation und insbesondere der KI-generierten Inhalte für die Aufgaben und Anforderungen des Angebotsprozesses aus Sicht der Expert*innen. Weiters sollten sowohl potenzielle Anwendungsfelder für Storywise als auch Vor- und Nachteile gegenüber bestehenden Werkzeugen und mögliche Verbesserungsmöglichkeiten identifiziert werden. Die Ergebnisse zeigen, dass besonders das Grundgerüst einer Spezifikation durch den Einsatz von KI deutlich schneller erstellt werden kann. Das Generieren und Strukturieren von Anforderungen wurde als größter Benefit wahrgenommen, auch die Art der Integration der KI in eine Applikation sowie die Kompatibilität zu Systemen nachgelagerter Prozesse wie Jira sind wichtig für den Erhalt der gewonnenen Effizienzvorteile. Insgesamt ist ein überzeugender Fit des Tools auf den Angebotsprozess gegeben – wenngleich im ersten Schritt primär für kleine bis mittelgroße Projekte. Als größte Herausforderung für die Akzeptanz ist der Datenschutz zu nennen, d.h. um auch wirklich von Unternehmen angenommen zu werden, müssen das verwendete Large Language Model, der Speicherort und die Verarbeitung sowohl DSGVO- als auch Unternehmensrichtlinien erfüllen und vertrauenswürdig sein.
Testen von Softwareapplikationen gehört zu einem wesentlichen Bestandteil des Qualitätssicherungsprozesses und muss im agilen Ansatz der Softwareentwicklung laufend durchgeführt werden. Mithilfe des Konzepts von Test Driven Development kann die Testfall- und Anforderungsspezifikation verschmolzen werden, da der Testfall vor der Entwicklungsphase definiert wird und die Entwicklung erst mit positiver Absolvierung des Testfalls abgeschlossen ist. Dadurch können Zeit und Kosten minimiert werden. Ziel dieser Arbeit ist die Entwicklung einer Anwendung, mit deren Hilfe End-to-End Tests für Webanwendungen vor der Implementierung erstellt und automatisiert ausgeführt werden können. Das entwickelte Softwarekonzept soll den Ansatz von Test Driven Development ermöglichen und die Testfallerstellung in textueller Form ohne technischen
Hintergrundwissen ermöglichen. Weiters soll das Testkonzept prototypisch realisiert und die erzielten Erfahrungen aus einem Referenzprojekt dokumentiert werden.Im ersten Schritt erhält der Leser Einblick über die Konzepte von Test Driven Development und Behavior Test Driven. Weiters werden die Möglichkeiten der Testautomatisierung für Webanwendungen erläutert und die gängigen verfügbaren Frameworks analysiert und bewertet. Anschließend wird ein Konzept für die Testfallerstellung und Testausführung entworfen, welches in einem Prototypen realisiert wird. Die resultierenden Erfahrungen aus dem Einsatz des Prototypen in einem Referenzprojekt sollen dazu
dienen, um auf den Nutzen des Testkonzepts zu schließen. Das Ergebnis der Arbeit zeigt, dass das entwickelte Konzept eine Testfallerstellung auch ohne technischen Hintergrundwissen ermöglicht und so von Personen mit Prozesswissen erfolgen kann. Der Ansatz von Test Driven Development kann mit dem Prototypen gezeigt werden. Im eingesetzten Projekt kann anhand der positiv ausgeführten Testfälle mit fortlaufender Zeit ein positiver Trend und Beitrag zur Qualitätssteigerung identifiziert werden. Die vorliegende Arbeit lässt schlussfolgern, dass der Prototyp für die Erstellung von automatisierten Testfällen nach dem Ansatz Test Driven Development eingesetzt werden kann. Wenngleich im eingesetzten Referenzprojekt nur wenige Testfälle erstellt wurden, kann von einem positiven Trend im Zuge des Einsatz gesprochen werden.
In der heutigen Arbeitswelt bietet die Informationstechnologie viele Vorteile, aber auch erhebliche Risiken für Unternehmen. Mit der zunehmenden Veränderung der Arbeitsweise in unserer Gesellschaft hat sich Telearbeit zu einem wichtigen Bestandteil des Arbeitslebens entwickelt. Die COVID-19-Pandemie hat die Bedeutung von Telearbeit weiter unterstrichen, da es für viele Unternehmen die einzige Möglichkeit war, ihre Existenz zu sichern. Es wird erwartet, dass Telearbeit auch nach der Pandemie ein wichtiger Bestandteil des Arbeitslebens bleiben wird. Allerdings ist die Tatsache, dass immer mehr Mitarbeiterinnen und Mitarbeiter von verschiedenen Orten aus arbeiten, auch eine Einladung für Cyberkriminelle. Diese versuchen auf verschiedene Weise und über verschiedene Kanäle, auf die Geräte von Telearbeitern zuzugreifen und Unternehmen zu schädigen. Daher ist das Ziel dieser Masterarbeit, Unternehmen dabei zu unterstützen, sich gegen solche Cyberangriffe zu schützen. Zur Erreichung dieses Ziels wird eine systematische Literaturrecherche durchgeführt, um Informationen zum Thema Cybersecurity in der Telearbeit aus verschiedenen Literaturdatenbanken zu sammeln. Diese Informationen werden sortiert und interpretiert, um eine Handlungsempfehlung bezüglich Sicherheitsmaßnahmen bei der Telearbeit zu erstellen. Diese Empfehlungen werden anhand eines Kano-Modells dargestellt, das die Maßnahmen nach ihrem Grad der momentanen Umsetzung und nach ihrem Grad der Notwendigkeit in verschiedenen Kategorien einordnet. Sie zielen darauf ab, Unternehmen dabei zu helfen, ihre Sicherheitsmaßnahmen zu verbessern und sich besser gegen Cyberangriffe zu schützen. Es ist wichtig, dass Unternehmen sich bewusst sind, dass sie ein Ziel für Cyberkriminelle sind und dass sie aktiv Maßnahmen ergreifen müssen, um ihre Daten und Kunden zu schützen.
Blockchains wurden besonders in den letzten Jahren sehr populär und der Zugang um diese zu Nutzen wurde auch sehr einfach. Aufgrund dieser Entwicklungen wurden viele neue Anwendungsgebiete geschaffen. Die meisten Menschen assoziieren Blockchains mit Kryptowährungen, allerdings gibt es noch weitere Bereiche, die diese Technologie nutzen. Beispiele hierfür sind der Gesundheits- oder der Energiesektor. Immer mehr Unternehmen überprüfen, wie sie diese Technologie ebenfalls nutzen können, um davon zu profitieren und Prozesse zu verbessern. Ein Anwendungsfall, der in dieser Arbeit behandelt wird, ist das Dokumentieren von Dokumenten, Verträgen und Vereinbarungen zwischen Mitarbeiterinnen oder Mitarbeitern und dem Unternehmen. Das Ziel dieser Masterarbeit ist es, zu evaluieren, wie Unternehmen Blockchain-Technologien nutzen können und wie genau Verträge dokumentiert werden können. Es wurde dazu ein Prototyp entwickelt mit dem Verträge in der Blockchain dokumentiert werden können, indem ein Smart Contract verwendet wird. Die Ergebnisse zeigen, dass diese Technologie das Potenzial hat, für diesen Anwendungsfall genutzt werden zu können. Der größte Vorteil dabei ist die Transparenz. Das bedeutet, dass jede Person, die Zugang zur Blockchain hat, nachprüfen kann, wer an diesem Vertrag beteiligt war und wann er abgeschlossen wurde. Allerdings wurden auch einige Probleme festgestellt. Zum Beispiel wird, um Daten in die Blockchain zu schreiben noch mehr Zeit benötigt im Vergleich zu konventioneller Software. Weiters sind bei der Nutzung des entwickelten Prototypen auch öfter Fehler passiert als bei der herkömmlichen Software. Zusammenfassend lässt sich sagen, dass die Verwendung von Blockchain-Technologien zur Dokumentation von Verträgen verwendet werden könnte und es dem Unternehmen einen Mehrwert bieten kann, allerdings ist die Technologie aufgrund der Probleme noch nicht ausgereift genug.
Modellbasierte Ansätze gewinnen innerhalb des Produktentwicklungsprozesses zunehmend an Bedeutung, um Ressourcen zu schonen und Produkte termingerecht auf den Markt zu bringen. Zentral sind in diesem Zusammenhang die Umsetzung von modernem Anforderungsmanagement und die Nutzung bereits entwickelter Module für neue Produkte. Dies kann mit Hilfe von Variationsmanagement und modellbasierten Systems-Engineering-Methoden erreicht werden. Anton Paar entwickelt komplexe Messsysteme für ein breites Anwendungsfeld, etwa die Messung von rheologischen Verhalten oder der Partikelgröße. Ziel der Arbeit ist es, zu untersuchen, inwiefern Variantenmanagement und modellbasierter Systementwurf in den Produktentwicklungsprozess von Messsystemen integriert werden können, um Time-to-Market-Ziele zu erreichen und Entwicklungsressourcen zu sparen. Im ersten Schritt wurden verschiedene Methoden evaluiert, um das beste Verfahren zur Erstellung des Modells eines hochkomplexen prozessintegrierten Partikelanalysesystems zu finden. Basierend auf dem Ergebnis dieser Analyse ergeben sich die verschiedenen Varianten, um identische Komponenten zu finden, die für mehrere Anwendungen wiederverwendet werden können. Dadurch können Ressourcen gespart werden und nachhaltige Entwicklung wird ermöglicht. Darüber hinaus konnten die verschiedenen Varianten des Systems in eine modellbasierte Systems-Engineering-Umgebung integriert werden, um die Vorteile im Vergleich zu veralteten Ansätzen aufzuzeigen. Das Ergebnis belegt, dass State-of-the-Art-Ansätze im Produktentstehungsprozess einen positiven Einfluss auf die Entwicklungsqualität haben. Darüber hinaus zeigt es, dass modellbasierte Methoden auch die Entwicklungszeit positiv beeinflussen können. Durch weitere Untersuchungen können diese Ergebnisse der Masterarbeit verifiziert werden.
Künstliche Intelligenz (KI) ist heutzutage ein wichtiger Teil von vielen Software-Applikationen geworden. Sie ist in Handy Apps integriert und je komplexer KI wird, umso größer ist in diesem Zusammenhang der Einfluss, den sie auf die individuelle Privatsphäre hat. Potentielle Risiken, die durch KI entstehen können, haben die Europäische Union dazu gebracht, einen Vorschlag für eine KI-Verordnung zu erarbeiten. Um die darin geforderten Risikominderungsmaßnahmen zu adressieren, hat das Fraunhofer Institut einen Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz veröffentlicht.
Das Hauptziel dieser Masterarbeit ist es, diesen textbasierten Leitfaden in ein Software-Tool zu überführen, welches Entwicklern von KI-Applikationen hilft, den Prozess gemäß Leitfaden zu dokumentieren. Dies hilft, den Leitfaden zu vereinfachen, um einen niederschwelligen Zugang zu dem Leitfaden für viele Menschen zu ermöglichen. Weitere Ziele dieser Arbeit sind sowohl das Aufdecken von möglichen Optimierungen der Richtlinie als auch Verbesserungen des bestehenden Software-Frameworks.
Das Software-Tool wurde unter Zuhilfenahme dieses Frameworks innerhalb der Low-Code Plattform Mendix entwickelt.
Das Ergebnis ist ein Software-Tool, welches die Anforderungen an vertrauenswürdige KI vereinfacht, je nach dem Anwendungsbereich der gerade beurteilten KI-Applikation. Nach der Nutzung des Software-Tools kann ein Bericht erzeugt werden, um die erfüllten Anforderungen der Vertrauenswürdigkeit zu dokumentieren.
Um in der modernen Fertigung Prototypen schnell, kostengünstig und ohne Umwege in Musterteile umzusetzen, wird sehr oft auf die Fertigungsmethode „Rapid Prototyping“ zurückgegriffen. Eine Form dieses Verfahrens ist die Schmelzschichtung (Fused Filament Fabrication, FFF), bei der das Werkstück schichtweise durch den Auftrag eines thermoplastischen Kunststoffes aufgebaut wird. Eine einfache Möglichkeit, Bauteile nach dem FFF-Verfahren herzustellen, bietet der Dreiachs-3D-Druck, für welchen sich bei anspruchsvolleren Bauteilen jedoch wesentliche Einschränkungen, wie etwa aufwendige Stützstrukturen oder optische Fehler, ergeben.
Ziel dieser Masterarbeit ist es zu überprüfen, ob sich die Einschränkungen eines Dreiachssystems durch den Einsatz eines Industrieroboters mit sechs zur Verfügung stehenden Achsen verbessern oder ganz beseitigen lassen. Dieser soll die Methode des „bewegten Werkstückes“ nutzen, wodurch sich das Bauteil an der kinematischen Kette des Roboters befindet und dieser zu einer stillstehenden Druckeinrichtung verfährt. Um das Ziel zu erreichen, wird ein Industrierobotersystem innerhalb einer rechnerunterstützten Fertigung (Computer-Aided Manufacturing, CAM) aufgebaut, mit welchem für definierte Bauteile Fertigungsoperationen, Simulationen sowie Validierungen durchgeführt werden. Am Ende wird durch einen Postprozessor ein ausführbarer Maschinencode erstellt, mit welchem Druckversuche am realen Robotersystem durchgeführt werden.
Das Resultat der Arbeit zeigt, dass sich durch dieses Mehrachssystem viele Vorteile in Bezug auf den konventionellen 3D-Druck sowie neue Anwendungsfelder ergeben, wodurch eine Weiterentwicklung für die Zukunft in jedem Fall Sinn macht.
Die Anomalie Erkennung spielt in verschiedenen Bereichen eine große Rolle. Beispielsweise versuchen Kreditkartenanbieter, betrügerische Transaktionen zu identifizieren. Registriert das System einen Einkauf im Wert von Tausenden von Euro, obwohl gewöhnlich nur Bahntickets mit dieser Karte gelöst werden, ist es sehr wahrscheinlich, dass die Karte oder die persönliche ID-Nummer gestohlen wurde. In einem anderen Szenario, wenn die Produktionslinie eines Pharmaunternehmens feststellt, dass das Endgewicht von Medikamentenkapseln 20 % höher als üblich ist, kann ein Fehler im Herstellungsprozess vorliegen. Diese Anomalie Erkennung basiert meist auf strukturierten Zahlenwerten und kann somit leicht erkannt werden. Das Ziel dieser Arbeit ist es, Anomalien aus unstrukturierten beziehungsweise schwach strukturierten Text-Daten zu erkennen und anhand ihrer Semantik Möglichkeiten zur Interpretation und Bewertung aufzuzeigen. Im Zuge dieser Arbeit soll herausgefunden werden, welche Datenverarbeitungsmethoden und Analysemethoden verwendet werden können, um eine bestmögliche Interpretation der Text-Daten zu erreichen. Resultierend auf diesen Erkenntnissen wird ein Vorgehensmodell erstellt. Dieses Vorgehensmodell dient als Basis für einen Prototyp, um eine automatische Auswertung erzeugen zu können. Der Prototyp soll durch eine gezielte Auswahl von Schlüsselwörtern Anomalien in verschiedenen Themenbereichen erkennen, um so vielseitig wie möglich Verwendung zu finden. Weiters sollen geografische Brennpunkte dieser Themenbereiche identifiziert werden und durch Analysen festgestellt werden, ob diese Brennpunkte einen positiven oder negativen Effekt mit sich bringen.
Release Management spielt in der Softwareentwicklung eine große Rolle. Der Prozess von einer Anfrage zu einer Änderung bis zur Ausrollung der Änderung auf das Live-System behandelt alle Themen, die in dem Bereich des Release Managements fallen. Dass dieser Prozess einen großen Einfluss auf die Qualität der Software und den Erfolg des Unternehmens hat, liegt demzufolge auf der Hand. Aufgrund der Konkurrenzsituation am Markt streben IT-Unternehmen nach dem bestmöglichen Prozess. An diesem Punkt kommen Tools wie Jira aus der Atlassian Suite oder Azure DevOps aus dem Microsoft-Portfolio ins Spiel. Diese Tools unterstützen Unternehmen in den Bereichen Issue-Tracking, Taskplanung, sowie weitere Themen, die im Release Management gebraucht werden. Nichtsdestotrotz treten bei vielen IT-Unternehmen nach wie vor Probleme auf, die für die Qualität des Release Managements negative Auswirkungen haben und verbessert werden müssen. In dieser Arbeit wird mithilfe einer Literaturrecherche über die Probleme in Verbindung mit Toolanalysen sowie einer qualitativen Forschung mit Experten aus dem Bereich des Release Management und in der Softwareentwicklung erforscht, ob die gefundenen Probleme im Kontext des Tools auftreten oder, ob diese durch weitere Handlungsempfehlungen gelöst werden können. Aufgrund der Tatsache, dass die Softwareentwicklung in den letzten Jahren eine Entwicklung eingeschlagen hat, in der der Softwareentwicklungsprozess sich in den meisten Unternehmen mehr in Richtung eines agilen Ansatzes geändert hat, wird in folgender Arbeit die Auswirkung dieses Trends auf das Release Management analysiert. Zu guter Letzt werden einer Gruppe an Unternehmen Handlungsempfehlungen erstellt, die bei Eintritt bestimmter Probleme verwendet werden können, um auch in Verbindung mit dem Tool für eine höhere Qualität im Release Management zu sorgen.
Diese Masterarbeit behandelt die Informationssicherheit im Kontext des Social Engineerings von Unternehmen. Das Ziel ist es, Initiativen zu definieren, die Unternehmen kritischer Infrastruktur einsetzen müssen, um die Informationssicherheit in diesem Kontext zu gewährleisten. Im Bereich der Theorie wurde eine Literaturrecherche über das Thema ‚Social Engineering‘ durchgeführt. Es ließ sich herausfinden, welche Möglichkeiten es gibt, Unternehmen zu attackieren. Des Weiteren bedeutet Social Engineering nicht, dass immer eine illegale Aktivität dahinter steckt, sondern dass hier lediglich mithilfe von Psychologie ein Mehrwert für die Angreiferin oder den Angreifer generiert wird. Für den empirischen Teil der Arbeit wurde eine Umfrage an Personen gesendet, die in ihrer Arbeit mit Informationssystemen zu tun haben. Diese Befragung hat ergeben, dass Personen wissen, wie bedeutsam Informationssicherheit ist, und es wurde kein signifikanter Unterschied zwischen IT-affinen und nicht IT-affinen Personen festgestellt. IT-affine Personen wissen lediglich besser über die Auswirkungen Bescheid. Des Weiteren wurden Interviews mit Expertinnen und Experten aus dem Bereich der Informationssicherheit durchgeführt. Deren Zweck war es, herauszufinden, welche Maßnahmen es gibt, die Informationssicherheit im Kontext von Social Engineering zu gewährleisten bzw. zu erhöhen. Es hat sich herausgestellt, dass Security-Awareness-Schulungen sehr sinnvoll sind. Unternehmen kritischer Infrastruktur sollten sich auf Vor-Ort-Schulungen fokussieren, da diese ein höheres Informationssicherheitsempfinden beim Personal auslösen. In Relation zu den Kosten, die ein Social-Engineering-Angriff verursachen kann, zahlt sich für ein Unternehmen kritischer Infrastruktur eine Security-Awareness-Schulung mit großer Wahrscheinlichkeit aus. Es wird auch empfohlen, technische und physische Maßnahmen einzusetzen, um einen Social-Engineering-Angriff zu erschweren. Jedoch ist zu erwähnen, dass technische Maßnahmen nicht ausschließlich darauf ausgelegt sind, Social-Engineering-Angriffe zu verhindern. Das ist lediglich ein Teil davon. technische Maßnahmen schützen die Allgemeinheit vor Social-Engineering-Angriffen, jedoch nicht einzelne Personen. Für Unternehmen kritischer Infrastruktur sollten wiederkehrende Security-Awareness-Schulungen und technische Maßnahmen eingesetzt werden, um die Informationssicherheit im Kontext des Social Engineerings zu gewährleisten. Diese Vorkehrungen haben nämlich keinen erheblich negativen Einfluss auf die Arbeitstätigkeiten der Mitarbeiterinnen und Mitarbeiter im Allgemeinen. Auf der anderen Seite stellen sie jedoch sicher, dass die Angestellten ein entsprechendes Bewusstsein für diese Gefahr entwickeln und es stetig erweitern.
In vielen Systemlandschaften stellt ein ERP-System das Rückgrat aller Geschäftsprozesse dar. Das Streben nach durchgängigen Prozessintegrationen macht diese Komponente zu einem beliebten Kandidaten für die Anbindung weiterer Unternehmensanwendungen. Durch moderne, Cloud-basierte Bereitstellungsmodelle werden neue Innovationen und Funktionalitäten immer häufiger im Rahmen automatischer Software-Upgrades bereitgestellt. Um unter diesen Einwirkungen weiterhin einen reibungslosen Produktivbetrieb der geschäftskritischen Kernprozesse sicherstellen zu können, ist die Durchführung regelmäßiger Softwaretests folglich unabdingbar. Eine manuelle Ausführung dieser Tests bindet wiederkehrend Personalressourcen. Testautomatisierung birgt hierbei eine wertvolle Chance, Tests wiederholbar zu machen und effizienter zu gestalten. Die Herausforderungen in der Testautomatisierung in Kombination mit Webapplikationen sind jedoch nicht zu unterschätzen. Der dynamische Aufbau von Benutzeroberflächen erschwert die Erstellung stabiler Automatisierungen auf UI-Ebene. Eingeschränkte Zugriffsmöglichkeiten auf die Codebasis von Anwendungen repräsentieren eine weitere Hürde. Schnittstellenbasierte Ansätze verkörpern dadurch eine attraktive Alternative. In der vorliegenden Arbeit werden Einsparpotenziale durch den Einsatz von GUI- und API-basierter Testautomatisierung für SAP Business ByDesign untersucht. Bei der kaufmännischen Bewertung von Testautomatisierungsprojekten müssen initiale Implementierungskosten ebenso mit in die Betrachtung einfließen, wie auch Wartungsaufwände, Infrastrukturkosten und ggf. anfallende Lizenzkosten. Im Rahmen der Masterarbeit wurden sowohl interne als auch externe Experteninterviews durchgeführt, um einerseits Vergleichs- und Erfahrungswerte aus manuellen Testvorgängen zu erheben, andererseits jedoch auch wichtige Aspekte und Erkenntnisse für mögliche Testautomatisierungen in Zusammenspiel mit SAP Business ByDesign zu gewinnen. Dazu wurden die Interviews transkribiert, paraphrasiert und mittels qualitativer Inhaltsanalyse ausgewertet. Eine abschließende Evaluierung und Gegenüberstellung der aus den Interviews hervorgehenden Ansätze zur UI- und API-basierten Testautomatisierung zeigen konkrete Anknüpfungspunkte für potenzielle Projektautomatisierungsprojekte.
Was muss ein Unternehmen heutzutage leisten um auf Dauer mit dem Wettbewerb mithalten und den Veränderungen von Industrie und Gesellschaft standzuhalten? Was bedeuten die einzelnen Buzz-Wörter wie „Industrie 4.0“, „Internet of Things“ und „Cyber-Physikalisches Produktionssystem“ konkret für die eigene Situation? Die folgende Arbeit versucht, diesen Fragen nachzugehen. Konkret wird hierfür das Beispiel der Messtechnik Branche untersucht und versucht, für die Software des Mitutoyo Konzerns eine Softwarearchitektur zu entwickeln, welche für die neuen Entwicklungen gewappnet ist. Hierfür wird zunächst eine grundlegende Untersuchung der aktuellen Trends in der Industrie durchgeführt und daraus Anforderungen abgeleitet. Dann werden die einzelnen Aspekte auf die Architektur übertragen und eine grundlegende Basisstruktur definiert. Anhand des konkreten Beispiels einer Software zur Status Überwachung und Auslastungsplanung für Messmaschinen wird dann untersucht, inwiefern die Basis Architektur den ermittelten Anforderungen gerecht wird.
Die Digitalisierung schreitet über alle Branchen hinweg kontinuierlich voran. Auch die Tätigkeit der Hypothekarkreditvermittlung ist von diesem Trend nicht ausgenommen. Dennoch wird ein Großteil der Informationen, die für eine Kreditvermittlung notwendig sind, noch handschriftlich erfasst und die erforderlichen Dokumente werden per E-Mail ausgetauscht. Im Zuge dieser Arbeit soll herausgefunden werden, wie der gesamte Prozess der Hypothekarkreditvermittlung sowohl auf Seiten der Kund/innen als auch auf Seiten der Kreditvermittler/innen mit Hilfe eines webbasierten Portals bestmöglich unterstützt werden kann. Das Ziel ist dabei nicht, das persönliche Beratungsgespräch zu ersetzen, sondern die Abwicklung digital zu unterstützen. Ausgehend von der Analyse des Prozesses werden die Anforderungen an die Anwendung festgelegt. Anschließend wird ein Prototyp konzeptioniert und implementiert, der diese Anforderungen bestmöglich erfüllen soll. Der Fokus liegt dabei auf eine möglichst einfache Bedienung und größtmögliche Zeitersparnis für alle Beteiligten. Der Prototyp ermöglicht, sämtliche Daten, die im Zuge einer Hypothekarkreditvermittlung erforderlich sind, direkt im Webportal einzugeben. Alle Dokumente können über die Anwendung hochgeladen oder mittels Kameraaufnahme hinzugefügt werden. Kreditvermittler/innen haben im Portal die Möglichkeit, Anfragen an Banken für Finanzierungsangebote zu stellen. Dadurch entfällt das zeitaufwändige, manuelle Zusammenstellen der Unterlagen. Die von den Banken übermittelten Angebote können den Kund/innen in einem übersichtlichen Vergleich zur Verfügung gestellt werden. Das erhöht die Transparenz und erleichtert die Entscheidung für die bestmögliche Finanzierung. Der Prototyp erfüllt alle gestellten Anforderungen und könnte zukünftig zu einer vollwertigen Plattform ausgebaut werden.
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Moderne Frameworks für die Entwicklung von Anwendungen auf mobilen Plattformen entwickeln sich ständig weiter, um den sich ständig ändernden Anforderungen der Welt der Softwareentwicklung gerecht zu werden. Seit 2018 entwickelt Google das Flutter-Framework, das für die Entwicklung mobiler Anwendungen auf den Plattformen Android und iOS eingesetzt wird. Da es sich bei Flutter um das neueste Framework handelt, das eine native Anwendungsleistung verspricht, ist es wichtig, ein besseres Verständnis für die Performance der Technologie zu erhalten und zu erfahren, wie sie sich mit anderen verfügbaren Plattformen messen kann. Aus diesem Grund analysiert diese Arbeit Flutter und vergleicht das Framework mit nativen und anderen plattformübergreifenden Technologien. Prototypen mit den gleichen Funktionalitäten wurden mit Flutter und anderen Plattformen (z. B. Android, iOS, React Native) erstellt und dann getestet, um ihre Leistungsniveaus zu vergleichen. Die Ergebnisse zeigen, dass Flutter in einigen Aspekten (z. B. CPU-Nutzung) eine native Performance erreichen kann, in anderen Aspekten (z. B. Speichernutzung) jedoch schlechter abschneidet als andere Frameworks. Insgesamt zeigt die Forschung, dass Flutter ein sehr vielversprechendes Framework für die plattformübergreifende Entwicklung ist. Zukünftige Arbeiten können auf diese Arbeit aufbauen, um mit verschiedenen Anwendungsfällen zu experimentieren und einen tieferen Einblick in die Leistungsfähigkeit des Frameworks zu erhalten.
Analyse und Bewertung von State-Management Varianten in modernen Cross-Plattform Technologien
(2020)
Plattformübergreifende Technologien entwickeln sich ständig weiter und bieten einen kostengünstigen und zeiteffizienten Ansatz zur Entwicklung von Anwendungen auf mehreren Plattformen. Die Frage nach dem richtigen State-Management Ansatz muss dabei zu Beginn eines jeden Projekts beantwortet werden, was eine Herausforderung sein kann mit einer Vielzahl an mögliche Lösungen. Das Ziel dieser Arbeit war daher die Untersuchung von State-Management Ansätzen am Beispiel von Flutter und deren Bewertung auf der Grundlage von festgelegten Kriterien. In dieser Arbeit werden zunächst plattformübergreifende Technologien untersucht, mit Schwerpunkt auf Flutter. Danach werden gängige Ansätze von State-Management und die Theorie hinter Code Qualität Metriken analysiert. Basierend auf den gesammelten Informationen und den daraus resultierenden wirtschaftlichen und technologischen Entscheidungsgründen wurden Bewertungskriterien erstellt. Vier State-Management Ansätze wurden umgesetzt und entsprechend der Kriterien bewertet. Der Vergleich zeigt, dass BLoC die beste Lösung für Großanwendungen mit erfahrenen Entwicklern zu sein scheint. Für kleinere Projekte oder unerfahrene Entwickler bietet sich der Einsatz von Provider an.
Das Ziel dieser Masterarbeit ist die Analyse der IT-Sicherheit von kritischen Infrastrukturen. Es soll gezeigt werden, ob eine Absicherung kritischer Infrastrukturen mit Hilfe von Methoden aus der IT-Sicherheit möglich ist und welche Auswirkung eine Vernetzung der einzelnen Systeme hat. Nicht behandelt werden Absicherungen für Cloud und mobile Geräte. In den vergangenen Jahren hat die Vernetzung der kritischen Infrastrukturen stark zugenommen und die Angriffe auf diese sind deutlich gestiegen. Aufgrund dessen werden in dieser Masterarbeit zunächst vergangene Angriffe beschrieben und analysiert. Großen Wert wird hierbei auf die NIS-Richtlinie gelegt, die als EU-Richtlinie wichtige Punkte für ganz Europa vorgibt. Aus den gewonnenen Erkenntnissen werden anschließend technische IT-Maßnahmen abgeleitet wie kritische Infrastrukturen in Zukunft besser geschützt werden können. Folgend werden die einzelnen Maßnahmen auch technisch in einer extra dafür aufgesetzten Testumgebung umgesetzt und im Detail beschrieben. Unter anderem wird gezeigt, wie wichtig es ist eine Verschlüsselung einzusetzen und dass es nicht ausreichend ist, die Zugänge nur mit einem starken Passwort abzusichern, sondern auch ein zweiter Faktor eingesetzt werden sollte. Durch Umsetzung der Sicherheitsmaßnahmen, zusätzlich zu den normalen IT-Schutzvorkehrungen, kann die IT-Sicherheit erhöht werden. Ein kompletter Schutz vor Angriffen ist jedoch nicht möglich, da durch die Vernetzung der Systeme immer ein Angriffsvektor entsteht, der ausgenutzt werden kann. In Zukunft könnten kritische Infrastrukturen besser abgesichert werden, wenn die aufgezeigten Sicherheitsmaßnahmen umgesetzt werden.
Customer – Releationship Management Systeme haben in den letzten Jahren eine immer größere Bedeutung für Unternehmen bekommen. Das System wird ins Unternehmen sowie deren Prozesse integriert. Dies kann unter der richtigen Verwundung den Umsatz der Unternehmen steigern und Prozesse optimiert werden. Aktuelle CRM System wie Salesforce bieten die Möglichkeit der Integration einer Artificial Intelligence welche auf Basis der vorhandenen Daten Vorhersagen über Kosten eines Angebots und wie hoch die Wahrscheinlichkeit ist, dass es zu einem Auftrag kommen wird. Diese Informationen sollen dem Sales Mitarbeiter bzw. der Sales Mitarbeiterin bei der Angebotslegung sowie Kalkulation unterstützen. Für den Einsatz von Artificial Intelligence ist das Sammeln von Informationen ein wichtiger Punkt weshalb auch das Thema Big Data aufgearbeitet wird. Im Rahmen dieser Arbeit sollen die Auswirkungen des Einsatzes überprüft werden, im Speziellen wird die Artificial Intelligence mit dem Namen „Einstein“ des Salesforce CRM Systems untersucht. Um dies zu überprüfen wird ein Versuch durchgeführt, welcher zwei CRM Systeme miteinander vergleicht, zu diesem Zweck werden in unterschiedlichen Gruppen Aufgabenstellungen gestellt und die durchgeführt werden sollen. Die Teilnehmer / Teilnehmerinnen werden im Rahmen eines Interviews erfragt inwiefern sich die Systeme unterschieden haben, ob und welche Effekte auf das Vorgehen bei der Durchführung hatte. Auf Basis der Ergebnisse werden Schlussfolgerungen erstellt, ob es Auswirkungen gab und welche diese waren in Bezug auf die Angebotserstellung und dem allgemeinen Vorgehen. Aus der Arbeit wird hervorgehen, dass eine gute Informationsqualität eine Voraussetzung für den Einsatz von Artificial Intelligence ist, welche sich wiederum auf die Vorhersagen bzw. Unterstützung auswirkt. Das erarbeitete Wissen, welches aus dieser Arbeit hervorgeht, bietet eine Grundlage für die Verwendung und Integration einer Artificial Intelligence.
Digitale Plattformen ermöglichen Softwareentwicklungsunternehmen und digitalen Geschäftsmodellen ein schnelles Wachstum. Dies erfordert skalierbare und flexible Softwarelösungen wie White-Label Plattformen die als Software-as-a-Service bereitgestellt werden. Das Ziel dieser Arbeit ist, Software Architekturen für digitale Plattform zu analysieren und wie Plattformen durch die Verwendung von Clouddiensten bereitgestellt werden können. Die Analyse untersucht drei gängige Software Architekturen und vergleicht die Architekturen für unterschiedliche Ausprägungen von digitalen Plattformen. Die Auswertung zeigte, dass eine Serverless-Architektur die beste Möglichkeit für die Bereitstellung einer Plattform ist, die unregelmäßig verwendet wird oder für Plattformen bei denen die Kunden stark reguliert sind und eigene Instanzen benötigen. Eine Microservice Architektur bietet sich für Systeme mit einer hohen Auslastung an oder für Plattformen, die eine große Anzahl an Benutzer benötigen. Zusammenfassend kann gesagt werden, dass Clouddienste Unternehmen eine einfache Möglichkeit bieten um flexible digitale Geschäftsmodelle zu entwickeln, die gegebenenfalls uneingeschränkt skaliert werden können und in kürzester Zeit auf die Bedürfnisse des Marktes angepasst werden können.
Die Softwarequalität ist ein wesentlicher Wettbewerbsfaktor in der Softwarebranche. Viele Softwareprojekte legen daher den Schwerpunkt ihrer Softwarequalität auf Abnahmetests und ignorieren andere wichtige Faktoren des gesamten Software-Lebenszyklus. Aus diesem Grund konzentriert sich diese Arbeit darauf, ob ausgewählte Einflussfaktoren aus dem gesamten Software-Lebenszyklus in Verbindung mit Testergebnissen von Abnahmetests eine detailliertere Bewertung der Qualität eines Software Release ermöglichen können. Hierzu wurden Einflussfaktoren untersucht und in ein Modell integriert. Darauf aufbauend wurde eine Bewertungsmatrix für die Implementierung entwickelt. In einem Experiment, in dem das Modell auf ein Beispielprojekt angewendet wurde, wurden 6 von 16 Features aus dem Software Release ausgenommen. Hätte sich dieses Experiment nur auf die Ergebnisse des Akzeptanztests gestützt, wären nur 4 von 16 Features aus dem Software Release ausgenommen worden. Diese Ergebnisse bestätigen, dass die ausgewählten Einflussfaktoren eine detailliertere Bewertung der Qualität des Software Release ermöglichen. Trotz dieser Schlussfolgerung würden die Erkenntnisse dieser Arbeit von weiteren Studien profitieren, bei denen mehr Zeit zur Verfügung steht und verschiedene Werkzeuge zur Überprüfung der Forschungsfrage verwendet werden.
Industrielle Steuerungssysteme und somit die Operational Technology (OT) werden immer verletzlichere Angriffsziele. Da Industrieanlagen, ebenso Tunnelanlagen, größtenteils mit der Office-IT vernetzt sind und häufig auch eine Verbindung zum Internet aufweisen, besteht ein Fernzugriff, der ausgenutzt werden kann. Zusätzlich besteht die Möglichkeit, dass ein Eindringen über die physischen Schnittstellen stattfindet. Daher müssen für einen gesamtheitlichen Schutz entsprechende OT-Security-Prozesse angewendet werden. Das Ziel dieser Arbeit ist die Verbesserung der zurzeit von der Dürr Austria GmbH verwendeten OT-Security-Prozesse in Tunnelsteuerungssystemen. Dazu werden die Informationssicherheit, mögliche Attacken und Angreifer*innen, sowie anwendbare Normen und Standards evaluiert. Der Fokus liegt dabei auf der IEC 62443, der Norm für die IT-Sicherheit für Netze und Systeme. Die zurzeit angewendeten OT-Security-Prozesse werden definiert und darauf aufbauend Optimierungen aus den anwendbaren Teilen der IEC 62443 analysiert. Weitere Security-Maßnahmen werden mithilfe von ergänzenden Standards erforscht. Als Resultat werden die gefundenen Verbesserungsmaßnahmen zusammengeführt, um eine Integration in die Prozesse zu ermöglichen. Auf dieser gesamtheitlichen Basis wird das Defense-in-Depth-Modell definiert. Die Ergebnisse dieser Arbeit werden in den bestehenden Informationssicherheitsprozess des Unternehmens betreffend der Tunnelsteuerungssysteme integriert.
Kubernetes wird von mehr als 77% aller IT-basierten Unternehmen der Branche produktiv genutzt und der Platzhirsch auf dem Markt der Container-Orchestrierung. Die meisten Unternehmen berichten von großen Kosteneinsparungen und einer Steigerung der Entwicklungsgeschwindigkeit durch den Einsatz von Kubernetes. Das Ausmaß der Verbesserung hängt jedoch davon ab, wie gut das Kubernetes-System zum Unternehmen und seinen Anforderungen passt. Kubernetes besteht aus vielen Komponenten und kann auf vielfältige Weise genutzt werden. Für viele der Komponenten von Kubernetes gibt es diverse Produkte am Markt, daher wird eine Methode benötigt um die besten Produkte auszuwählen. Um den Entwurf der richtigen Kubernetes-Lösung für eine bestimmte Idee oder ein Konzept zu unterstützen, wurde ein Modell vorgeschlagen, das aus einem Designprozess und einem Anforderungskatalog besteht. Der Anforderungskatalog ist stark in den Prozess integriert. Dabei handelt es sich um einen Fragebogen der dabei hilft die notwendigen Anforderungen für den zukünftigen Cluster zu erfassen. Der Prozess ist in sieben Schritte unterteilt, beginnend mit der Notwendigkeit eine geeignete Plattform für eine innovative Idee zu finden. Die anderen Schritte konzentrieren sich auf die Ermittlung der Anforderungen, die Gestaltung des Clusters, die Suche nach geeigneten Produkten und die Integration des Kubernetes-Systems in das Unternehmen. Der Anforderungskatalog ist in drei Gruppen unterteilt, die insgesamt 65 Punkte umfassen. Das vorgeschlagene Modell ermöglicht es Unternehmen, ihre Kubernetes-Umgebung strukturiert, verständlich und transparent zu entwerfen. Zur Bewertung des ersten Entwurfs des Modells wurden zwei Expertenworkshops und sechs Interviews durchgeführt. Mittels qualitativer Inhaltsanalyse wurden die daraus resultierenden Protokolle analysiert und die Ergebnisse in das Modell aufgenommen.
LOGICDATA entwickelt APIs (Application Programming Interfaces) für die marktführenden Smartdevice Plattformen zur Steuerung von mechatronischen Systemen in der Möbelindustrie. Die Funktionalität dieser APIs muss durch Tests mit verschiedenen Eingabeparametern überprüft werden. Änderungen in der Implementierung der APIs während der Entwicklungs- und Testphase führen zu Wartungsaufwand des Testsystems, welcher manuell durchgeführt werden muss. Das führt zu längeren Testdurchlaufzeiten und zu Verzögerungen in der Freigabe-Phase des Projekts. Ziel dieser Masterarbeit ist es, anfallende Wartungstätigkeiten bei API-Änderungen während der Testphase zu automatisieren, um die Entwicklungszeit des Testsystems zu reduzieren. Zu diesem Zweck soll eine Codegenerierungsmethode ausgewählt werden, mit der Code in verschiedenen Programmiersprachen und Plattformen generiert werden kann. Dafür werden verschiedene Codegenerierungsmethoden hinsichtlich ihrer Eignung für diese Aufgabenstellung miteinander verglichen und eine Wahl getroffen. Aufbauend auf diese Entscheidung wird eine Softwarearchitektur eines Testsystems mit automatischer Codegenerierung entworfen. Nach Festlegung dieser werden der Codegenerator und die Softwarekomponenten des Testsystems entwickelt und die Vorteile hinsichtlich Entwicklungs-, Wartungsaufwand und Testdurchlaufzeit aufgezeigt. Tests mit den ersten implementierten APIs haben gezeigt, dass der Einsatz der automatischen Codegenerierung zu einer höheren Codeflexibilität und niedrigerem Entwicklungsaufwand führt. Das Testsystem kann für die Verifikation zukünftiger API-Releases eingesetzt werden.
Das Ziel dieser Arbeit ist die Schaffung eines neuen Vorgehensmodelles, um agil entwickelte Projekte einfach und effizient übergeben zu können. Daher beschäftigt sich die Arbeit mit der Beantwortung der Frage „Welche Aspekte sind als zentrale Einflussfaktoren zu berücksichtigen, wenn die Weiterentwicklung eines agil umgesetzten Projektes in einem anderen Team stattfinden soll, welches noch über keine bestehende Entwicklungsumgebung und nur begrenztes Know-how verfügt?“. Um diese Frage beantworten zu können, wird zuerst ein grober Überblick über mögliche Modelle zur Entwicklung von Software gegeben. Der Fokus hierbei liegt auf den agilen Methoden. Ausgehend von dem agilen Manifest und den ausgewählten Praktiken wird ein allgemeiner Prozess anhand des Software-Lebenszyklus beschrieben. Aufbauend auf die Beschreibung der einzelnen Phasen des Software-Lebenszyklus wird der Ansatz der kontinuierlichen Integration von Software vorgestellt und beschrieben. Mit Hilfe der theoretischen Grundlagen werden anschließend die Einflussfaktoren entlang des Software-Lebenszyklus identifiziert, kategorisiert und beschrieben. Die einzelnen Einflussfaktoren münden in eine Liste mit Risikobewertung und möglichen Werkzeugen und bilden damit das neue Vorgehensmodell. Das neue Modell wird, nach einer kurzen allgemeinen Beschreibung des Unternehmens inklusive genereller Arbeitsweise, einem Praxistest unterzogen. Dies geschieht, indem ein bereits bestehendes, agil entwickeltes Projekt mit Hilfe des neuen Modells in ein neu geschaffenes Team übernommen wird. Im Zuge der praktischen Anwendung wird grob gezeigt wie das Modell eingesetzt werden kann und die Ergebnisse werden dokumentiert. Abschließend wird eine Übersicht der Ergebnisse in Form einer Tabelle gegeben, welche die einzeln getroffenen Entscheidungen zeigt, bewertet wie erfolgreich die einzelnen Einflussfaktoren im Zuge der Übernahme abgedeckt werden können und angibt, welche Folgeschritte geplant sind.
Die vorliegende Masterarbeit soll Unternehmen ansprechen, die planen, eine Single Sign On Lösung in ihrem Unternehmen zu etablieren. Damit das Authentifizierungsverfahren im Unternehmen von den Mitarbeitern auch genutzt wird, muss eine starke Akzeptanz zwischen den Nutzern und einer Single Sign On Lösungen gegeben sein. Aus diesem Grund werden im Theorieteil Faktoren der Benutzerakzeptanz aus dem Technology Acceptance Model 3 herausgearbeitet, welche im Speziellen für die Akzeptanz von Single Sign On Lösungen zutreffend sind. Die empirische Forschung besteht dabei aus zwei Teilen, in denen einerseits eine Umfrage erstellt und andererseits die Zusammenhänge zwischen den herausgearbeiteten Faktoren und der Benutzerakzeptanz auf Signifikanz geprüft werden. Die Auswertung der Umfrage im Rahmen dieser Masterarbeit zeigt dabei einen starken Zusammenhang zwischen der IT-Affinität und der Einstellung des Nutzers gegenüber einer Single Sign On Lösung auf die Benutzerakzeptanz. Eine ebenfalls im Rahmen dieser Arbeit erstellte Fallstudie zeigt, dass Single Sign On Technologien im Privatbereich noch keinen großen Anklang finden und dass auch die Vertrauenswürdigkeit des Identity Provider keinen Einfluss auf die Benutzerakzeptanz von Single Sign On Lösungen hat. Abschließend werden Maßnahmenvorschläge erstellt, um die Akzeptanz von Single Sign On sowohl in Unternehmen als auch im Privatbereich zu steigern.
Die vorliegende Masterarbeit ist im Bereich der Informationssicherheit und dem Informationssicherheitsmanagement angesiedelt. Ziel der Arbeit war es, einen allgemeinen Ansatz für die Entwicklung von Informationssicherheitsrichtlinien zu entwickeln. Aufgrund der Größe des Themenfeldes behandelt diese Arbeit vor allem das Richtliniendesign im Kontext der ISO 27001. Der erste Teil der Arbeit deckt den theoretischen Hintergrund von Informationssicherheitsmanagement, Kryptographie und den gesetzlichen Vorgaben dazu ab. Das Ergebnis dieses Teils war ein grundsätzliches Verständnis davon, wie Informationssicherheitsmanagement funktioniert und welchen Beitrag Kryptographie dazu leisten kann. Außerdem wurde festgestellt, dass es für die öffentliche Verwaltung keine besonderen Gesetze im Bereich der Informationssicherheit gibt. Der zweite Teil der Arbeit widmet sich dem Design von Informationssicherheitsrichtlinien. Aufgrund dessen, dass es noch keinen allgemeinen Ansatz für die Entwicklung solcher Richtlinien gab, wurde ein eigenes Vorgehensmodell dafür entwickelt. Basis für die Entwicklung des Modells waren die Erkenntnisse aus der Literaturrecherche hinsichtlich der Erfolgsfaktoren von Informationssicherheit. Im nächsten Schritt wurden fünf Fachleute aus dem Bereich der Informationssicherheit zu dem entwickelten Modell befragt. Das Ergebnis dieser Befragung war eine verbesserte Version des aufgestellten Modells. Mit Hilfe dieses Modells wurde dann in einem weiteren Schritt eine Richtlinie für die Anwendung von kryptographischen Verfahren entwickelt. Außerdem ist deutlich geworden, dass die verschiedenen Richtlinien für Informationssicherheit so unterschiedlich sind, wie die Unternehmen, in denen sie Anwendung finden und dass die Unternehmenskultur einen großen Einfluss auf den Erfolg dieser Richtlinien hat. Zusätzlich wurde festgestellt, dass es verschiedene Arten von Anforderungen innerhalb der ISO 27002 gibt. Einige können direkt umgesetzt und mit Richtlinien erfüllt werden, und andere wirken sich auf viele Unternehmensbereiche aus. Aufgrund dessen war eine Beantwortung der Forschungsfrage schwierig. Das entwickelte Modell versucht den verschiedenen Ansprüchen verschiedener Organisationen gerecht zu werden, aber die letztendlich entwickelte Richtlinie ist nicht auf andere Organisationen übertragbar.
Die Verbreitung von Geräten, die mit dem Internet kommunizieren und Teile des Alltags vieler Menschen sind, nimmt immer mehr zu. Das Internet of Things (IoT) kombiniert bestehende Technologien mit dem Internet, wodurch neue Einsatzgebiete erschlossen werden. IPKameras, Verkehrssteuerungssysteme und kritische Infrastrukturen wandern zunehmend in das Internet und werden dadurch für Personen erreichbar, die keinen Zugriff auf diese Systeme haben sollten. Dies führt dazu, dass neue Angriffsvektoren, die von Hackern und Kriminellen genutzt werden, entstehen und sowohl die IT-Sicherheit der IoT-Objekte selbst, als auch jene von bestehenden IT-Infrastruktur gefährdet werden. Viele IoT-Produkte, die für die Endkundin und den Endkunden konzipiert wurden, verfügen nicht über die notwendigen Sicherheitsmechanismen, die einen ordnungsgemäßen und sicheren ITBetrieb gewährleisten sollen. Die Produktentwicklung der Hersteller setzt den Fokus auf Bedienungskomfort und einfacher Konfiguration, vergisst jedoch die Gefahren, welche von ungesicherten IoT-Objekten ausgehen. Diese Gefahren reichen von Funktionsstörungen, dem Versenden von Spam-E-Mails, bis zur Nutzung von IoT-Objekten für großangelegte Hacker-Angriffe auf kritische Infrastrukturen. In dieser Arbeit wird ein IoT-Security Framework entwickelt, das auf Basis von Analysen bestehender IoT-Sicherheitsproblematiken, Sicherheitsanforderungen definiert und diese in einem Integrationsprozess zusammenfasst. Die Sicherheitsanforderungen wurden aus bereits publizierten Angriffsszenarien abgeleitet und werden sich direkt an das IoT-Objekt richten, der sicheren Kommunikation zwischen den einzelnen Objekten, sowie an die Cloudplattformen, die im Umfeld von IoT häufig zum Einsatz kommen. Das IoT-Security Framework soll es Endkonsumentinnen und Endkonsumenten ermöglichen, die IT-Sicherheit von IoT-Produkten zu bewerten und deren Risiko für sich selbst, als auch für bestehende IT-Infrastrukturen zu beurteilen.
Die Softwareentwicklung von Produkten und Lösungen orientiert sich zunehmend an agilen Vorgehensweisen, welche erhebliche Vorteile in der Kundenorientierung und Schnelligkeit in der Auslieferung der Lösungen mit sich bringt. In diesem Zusammenhang besteht auch die Herausforderung der Schätzung von User Stories, die aus Sicht des Benutzers, formuliert werden. Obwohl sich etwaige Methoden und Techniken zur Schätzung von User Stories etabliert haben (z.B. Point-Metriken), liegt dabei ein wesentlicher Nachteil in der subjektiven und relativen Bewertung des Aufwandes bzw. der Komplexität durch das Team durch welche eine Verzerrung der Schätzung entstehen kann. Ebenso beanspruchen Schätzpraktiken in agilen Vorgehensweisen, durch deren interaktiven Charakter, einen erheblichen Zeitaufwand. Das Ziel dieser Arbeit bestand darin, zu prüfen, ob die Anwendung bzw. der Einsatz von Machine Learning den Schätzprozess in agilen Vorgehensweisen unterstützen kann. Der erste Teil der Arbeit bereitet dazu einen Einblick in die Welt der agilen Vorgehensweisen mit deren gängigsten Schätzverfahren. Nach einer kurzen Einführung in die Grundlagen des Data Minings bzw. Machine Learnings, wurden mögliche Lösungsansätzen zur Verbesserung der Schätzungen durch Machine Learning Verfahren untersucht. Die Untersuchung beinhaltet die Auswahl und Erläuterung eines Data Mining Vorgehensmodells. Dabei wurde der Cross-Industry Standard Process for Data Mining (CRISP-DM) als Referenzprozess für die Abhandlung der gesamten Arbeit gewählt. Auf Basis dieses Prozessmodells wurden einige relevante Techniken zur Textklassifizierung von User Stories abgehandelt. Demgemäß reichte die Untersuchung von der Phase Business Understanding bis hin zur Evaluation Phase eines Machine Learning Models. Basierend auf drei ausgewählten Machine Learning Verfahren (Naïve Bayes, Random Forest und Multilayer Perceptron) wurde eine Fallstudie durchgeführt. Diese Fallstudie umfasste die Datenvorverarbeitung, sowie die Modellierung und Implementierung eines Machine Learning Models auf Basis eines Real-life Datensets in der Programmiersprache R (Data Discovery und statistische Evaluation) und Python (Modellierung und Implementierung). Der letzte Teil der Fallstudie bestand in der Evaluation des trainierten Modells. Ziel der Fallstudie war es, zu prüfen, ob das Modell in der Lage ist, Story Points auf Basis von User Stories genauer zu schätzen, als durch ein zufälliges Raten bzw. Verteilen von Story Points. Dazu wurde eine ausgewählte Metrik (z.B. Accuracy) für jedes der drei Klassifizierungs-Verfahren, einem Dummy-Klassifizierer gegenübergestellt, welcher zufällig gewählte Story Points aus dem Datenset vorhersagte. Dies wurde auf Basis einer mehrstufigen Kreuzvalidierung (Cross Validation) durchgeführt um eine möglichst hohe Konfidenz der Vorhersagen zu erzielen. Anschließend wurde ein nicht-parametrischer statistischer Test (Wilcoxon Test) auf die erzeugten Vorhersagen (Metrik) angewendet, um festzustellen, ob sich die Mittelwerte tatsächlich voneinander unterscheiden. Die Ergebnisse der vorliegenden Studie zeigen, dass die Schätzung von Story Points durch die Anwendung von Machine Learning, das zufällige Raten erheblich übertreffen kann (unter den Voraussetzungen und Rahmenbedingungen der Fallstudie). Somit lässt sich sagen, dass Techniken des Machine Learnings für den vorliegenden Datensatz verwendet werden können, um den Schätzprozess zu beschleunigen, indem eine initiale Schätzung aller User Stories (z.B. aus einem Backlog) aus einem Machine Learning Modell bereitgestellt wird. Darüber hinaus bieten die Ergebnisse aus dem Modell, bis zu einem gewissen Grad einen unvoreingenommenen Blick auf StoryPoint-Schätzungen, als Grundlage für Diskussionen innerhalb des Teams. Hierbei ist jedoch anzumerken, dass die Validität der Ergebnisse, auf den speziellen Voraussetzungen und Rahmenbedingungen der Fallstudie beschränkt sind. Daher sollten die Ergebnisse dieser Arbeit auf einer breiteren (Anzahl der Datensätze), teamübergreifenden und projektübergreifenden Datenbasis verifiziert werden. Dennoch stellt die vorliegende Arbeit einen ersten Schritt zur Nutzung des maschinellen Lernens für die Story-Point-Schätzung dar.
Die vorliegende Arbeit beschäftigt sich mit Cross-Plattform-Applikationen im Business Bereich. Es wird der Frage nachgegangen, ob die Effizienz durch die plattformunabhängige Softwareentwicklung gesteigert werden kann. Ziel dieser Arbeit ist es zu klären, in wie weit Experten und Expertinnen bereits Erfahrung mit Technologien sammeln konnten, die sich auf plattformunabhängige Softwareentwicklung spezialisiert haben. Damit herausgefunden werden kann ob die Effizienz gesteigert werden kann, beziehungsweise ob ExpertInnen in diesem Bereich herangezogen werden kann, wird zu Beginn dieser Arbeit eine Einführung in die mobilen Applikationen gemacht und gängige Begriffe näher beschrieben. Dabei wird eingegrenzt, was genau unter einem mobilen Gerät verstanden wird, damit in weiterer Folge die Zielgruppe festgelegt werden kann. Anschließend werden dem Leser beziehungsweise der Leserin, die beliebtesten Betriebssystem die auf dem Markt existieren vorgestellt und näher beschrieben. Zum Abschluss dieses Kapitel werden die einzelnen Plattformen gegenübergestellt, damit herausgefunden werden kann, welche Vor- beziehungsweise Nachteile existieren. Nachdem die einzelnen Plattformen vorgestellt wurden, wird auf die plattformunabhängige Softwareentwicklung näher eingegangen. Dabei werden zuerst Begriffe, die im Zusammenhang mit mobiler Entwicklung fallen definiert. Im Anschluss erfolgt eine Vorstellung verschiedener Technologien, die derzeit existieren. Im empirischen Teil wird der Prototyp der im Zuge dieser Arbeit entwickelt wurde, näher beschrieben. Dafür werden zu Beginn die Anforderungen, die die App erfüllen muss vorgestellt. In weiterer Folge wird dem Lesendem die gewählte Technologie vorgestellt und beschrieben, warum sich der Autor dieser Arbeit für dieses Framework entschieden hat. Zu Letzt wird im empirischen Teil berichtet werden, welche Technik bei den Experteninterviews zum Einsatz gekommen ist und wie der Aufbau aussieht. Abschließend wird vom Autor dieser Arbeit ein Erfahrungsbericht, über die Erfahrungen die beim Entwickeln des Prototyps gesammelt werden konnten, geschrieben. Im fünften und letzten Kapitel wird über die Beantwortung der Forschungsfrage berichtet und ein kurzer Ausblick gegeben welche Schritte als nächstes durchgeführt werden können, damit die Ergebnisse gefestigt werden können.
Microservices
(2016)
Der Fokus dieser Arbeit liegt auf dem Identifizieren und Verifizieren des Einflusses von Microservices auf die Codequalität von Softwareanwendungen. Im ersten Teil der Arbeit sind Definitionen und Architekturen der untersuchten Softwareapplikationen dargelegt. Dies beinhaltet die Definition von monolithischer Software und deren Architektur und die Definition von Microservices mit seinen Vorteilen (zum Beispiel die Skalierung durch automatisiertes Deployment) und Nachteilen (zum Beispiel höhere Komplexität durch die erhöhte Anzahl von Softwareteilen). Darauf folgt eine Analyse von den ähnlichen Softwarearchitekturkonzepten der serviceorientierten Architektur und den Self-contained Services. Der Theorieteil zu Microservices endet mit der Darstellung von Methoden zur Trennung von monolithischer Software in Microservices und wie diese Dienste wieder zu einer Gesamtanwendung zusammengeführt werden können. Zur Vervollständigung ist der aktuelle Forschungsstand auf dem Gebiet der Microservices angeführt und es wird ein Einblick in eine Auswahl an Softwaremetriken zur Erhebung von Softwarequalität gegeben. Im praktischen Teil der Arbeit wurden die theoretischen Erkenntnisse an einer Softwareapplikation angewandt. Von einem Monolithen wurden Microservices abgespalten und die resultierende Anwendung als auch der Monolith einer Softwarearchitekturanalyse unterzogen. Danach wurden Softwaremetriken für die Ausgangsapplikation und die Microservices berechnet, um festzustellen, ob sich die Codequalität verändert hat. Zum Abschluss wurde eine Analyse der Änderungsgeschwindigkeit in beiden Applikationen durchgeführt, gefolgt von Interviews mit Softwareentwicklern zu dem Qualitätsmerkmal Lesbarkeit von Quellcode. Die Ergebnisse zeigen eine Verringerung der Komplexität des entstandenen Quellcodes und eine Erhöhung der Lesbarkeit gegenüber der Ausgangsanwendung.
Das Platzieren und Verkaufen von eigengenutzten Immobilien verzögert sich häufig durch unterschiedliche Preisvorstellungen. Abhilfe kann ein Vergleich der zu veräußernden Immobilie mit bereits verkauften Vergleichsobjekten schaffen. Mit Hilfe einer Dienstleistungs-App besteht die Möglichkeit, den Maklerinnen und Maklern passende Vergleichspreise aus existierenden Kaufpreisdatenbanken liefern zu können. Mit dieser Arbeit wird ermittelt, inwieweit eine Dienstleistungs-App für einen Preisvergleich zu einer Effizienzsteigerung im Prozess des Platzierens und Verkaufens von eigengenutzten Immobilien führt. Der Fokus liegt auf dem österreichischen Markt, weil der Zugang zu digitalen Kaufpreissammlungen in anderen Ländern zum Teil schwierig oder gar unmöglich ist. In Österreich existieren bereits Anbieter digitaler Kaufpreissammlungen, die für eine derartige App die grundlegende Voraussetzung darstellen. Im Rahmen dieser Arbeit wird ein Prototyp einer mobilen App konzipiert, über den eine Dienstleistung konsumiert werden kann. Die Vorgehensweise orientiert sich an einem Service Engineering Prozess, um die Dienstleistung von der ersten Idee bis zur Markteinführung basierend auf einer etablierten Vorgehensweise entwickeln zu können. Zu Beginn werden Anforderungen an Dienstleistungs-Apps aus der Literatur und durch die Ableitung aus praktischen Beispielen ermittelt. Zudem erfolgt eine Einarbeitung in die Immobilienbewertungsverfahren in Österreich. Das gesammelte theoretische Wissen fließt in die Konzeption einer zweiteiligen Expertenbefragung von Immobilienmaklerinnen und -makler ein. Im ersten Teil dieser Befragung werden die Anforderungen an eine mobile App für den Immobilienpreisvergleich ermittelt. Die Ergebnisse fließen anschließend in die Umsetzung eines Prototyps ein, der im zweiten Teil der Befragung von den Expertinnen und Experten hinsichtlich der erreichten Effizienzsteigerung bewertet wird. Im Rahmen dieser Arbeit konnten zahlreiche relevante Anforderungen an eine mobile App für den Immobilienpreisvergleich identifiziert werden. Die Ergebnisse der Arbeit zeigen auch, dass die Expertinnen und Experten großes Potenzial in einer mobilen App sehen, die die Effizienz im Prozess des Preisvergleichs von eigengenutzten Immobilien in Österreich steigert.
Als Schatten-IT werden IT-Systeme bezeichnet, die nicht in das IT-Management eines Unternehmens eingebunden sind. Schatten-IT-Systeme können durch Ausfall oder durch Sicherheitslücken bestandsgefährdende Risiken für Unternehmen darstellen. Schatten-IT kann aber auch ein Innovationsmotor sein. Wenn Schatten-IT-Systeme erkannt werden, kann es erforderlich und nützlich sein, diese in das IT-Management des Unternehmens aufzunehmen. Die vorliegende Arbeit untersucht die Eignung und Übertragbarkeit der aus der agilen Software-Entwicklung stammenden Werte und Prinzipien bei der Einbindung von Schatten-Individualsoftware in das IT-Management von Unternehmen. Am Beispiel von Schatten-Individualsoftware wird untersucht, wie die bisherige Rolle des IT-Managements durch Schatten-IT in Frage gestellt wird und wie die einzelnen Disziplinen des IT-Managements durch Schatten-IT betroffen sind. Es werden die Eigenschaften von Schatten-Individualsoftware erarbeitet und es wird untersucht, welche agilen Werte und Prinzipien sich auf das IT-Management übertragen lassen, um Schatten-Individualsoftware in das IT-Management von Unternehmen einzubinden. Aus den identifizierten agilen Werten und Prinzipien wird ein Handlungsansatz entwickelt, um Schatten-Individualsoftware in das IT-Management von Unternehmen zu integrieren. Dieser Ansatz wird durch Experten-Interviews initial evaluiert.
Die vorliegende Masterarbeit beschäftigt sich mit Lasttests auf Systemebene. Die betrachtete Art von Softwaresystemen ist davon gekennzeichnet, dass diese innerhalb einer vernetzten Umgebung betrieben werden. Das bedeutet, dass diese mit verschiedenen anderen Systemen kommunizieren müssen und von Ereignissen eben dieser abhängig sind. Vorbereitend wird die betrachtete Problemstellung genauer klassifiziert. Dies soll helfen, dass der Leser die Ergebnisse der Arbeit auf eigene Problemstellungen übertragen kann. Weiterhin wird dadurch für die vorliegende Arbeit ein klarer Fokus geschaffen. Nachdem Methoden ermittelt werden, welche in modernen IT-Projekten bei der Testdurchführung eingesetzt werden, beschäftigt sich die vorliegende Arbeit mit den Voraussetzungen für die Testfallbeschreibung und -umgebung. Diese bilden das Ergebnis der vorliegenden Arbeit in Form einer Auflistung zu beachtender Punkte bei Lasttests auf Systemebene bei der betrachteten Art von Softwaresystemen. Hierbei werden jeweils sechs Voraussetzungen anhand aktueller Literatur ermittelt. Um die Anwendbarkeit für laufende und künftige Softwareprojekte gewährleisten zu können, werden die identifizierten Voraussetzungen im Rahmen eines IT-Migrationsprojekts angewendet. Bei dem hier zu testenden Softwaresystem handelt es sich um ein System auf Lagerveraltungs- und Materialflusssteuerungsebene innerhalb eines Intralogistiksystems. Es ist gekennzeichnet durch eine hohe Zahl an verbundenen Systemen zur Prozesssteuerung und einer hohen Materialflussleistung. Abschließend wird ein Fazit aus dem Praxisprojekt gezogen. Die Ergebnisse der vorliegenden Masterarbeit sind für Führungskräfte und insbesondere Testverantwortliche in der Softwareentwicklung gedacht. Beispielsweise Projektleiter, die vor der Herausforderung des Tests eines Softwaresystems in einer vergleichbaren vernetzten Umgebung stehen.
Die vorliegende Masterthesis liefert eine Einführung in die Themen Agile Business Intelligence, Data-Warehouse Architektur und das Testen von Software. Darauf aufbauend werden grundlegende Konzepte für das Testen von Data-Warehouse Systemen analysiert, und Ansätze für die Automatisierung solcher Systeme herausgearbeitet. Inhaltlich wird über die Thematiken Agilität und iterative Entwicklungsmethoden an die Notwendigkeit eines Konzeptes für die Testautomatisierung im Data-Warehouse Umfeld herangeführt.
Die Gastronomie ist eine Branche, die als Dienstleistung ihre Kunden vor Ort bewirtet. Durch den laufenden direkten Kontakt zwischen Kunde und Angestellten besteht jederzeit die Moglichkeit, positives Feedback oder Beschwerden direkt abzugeben. Die TeLLers-Anwendung bietet über eine mobile Web-Anwendung einen zusatzlichen Kanal für Feedbacks. Diese liegen teilweise als natürlichsprachige Texte vor, die der Gastronom nur umständlich auswerten kann, um Handlungsfelder zu erkennen. Diese Arbeit analysiert die vorliegenden Datensatze und ordnet sie manuell einem Thema und einer Bewertung zu. Anschließend erfolgt die Umsetzung einer automatischen Analyse unter Verwendung einer lexikonbasierten Stimmungserkennung. Es zeigt sich, dass trotz des relativ einfachen technischen Ansatzes eine hohe Deckungsrate mit der manuellen Analyse gegeben ist. Ein wichtiger Grund dafür ist die direkte und einfache Sprache der vorliegenden Feedbacks. Durch gezielte Fragestellungen kann der Gastronom die Qualität der Antworten weiter optimieren, so dass die Feedbacks konkrete Vorschläge für Verbesserungen enthalten. Eine Datenanalyse ermittelt jene Themen, zu denen die meisten Feedbacks eintreffen. Abschließend erfolgen auf Basis einer Literaturrecherche Empfehlungen zu den am häufigsten eingemeldeten Problemfeldern. Ein Teil der Beschwerden weist auf geringe Missstände hin, die vor Ort schnell lösbar sind. Komplexere Themen liegen vor allem im Service sowie bei Leistung und Qualität von Essen und Getränken vor. Hier tendieren die Lösungsansätze zu Verbesserungen bei der Personalentwicklung sowie der Optimierung von Prozessen im Betrieb. Eine strukturierte Kosten- und Umsatzrechnung ist eine wichtige Basis dazu.
Vergleich des Redux Paradigma mit Zustandsmanagement in bisherigen Javascript MV*-Architekturen
(2017)
JavaScript ist Sprache des Webs geworden und die Entwicklung von komplexen JavaScript Web Applikationen nimmt stetig zu. Bei der Entwicklung von modernen JavaScript Web Applikationen ist das Zustandsmanagement ein zentraler und erfolgskritischer Themenkomplex. Das Hauptziel der Arbeit ist es, die möglichen Vorteile eines Redux basierten Zustandsmanagement für JavaScript Web Applikationen gegenüber herkömmlichen JavaScript MV*-Architekturen zu erarbeiten. Bisherige JavaScript-MV* Architekturen boten bislang Kompromiss behaftete und speziell in sehr umfangreichen Web Applikationen keine Lösungen, um das Zustandsmanagement möglichst vorsehbar zu machen. Viele Komponenten, Zustandsinteraktionen und Veränderungen aus verschiedensten Quellen machten es besonders schwer, den aktuellen Applikationszustand transparent darzustellen. Das Redux Paradigma formuliert und verbreitetet eine explizite Sprache und definierte Regeln, um den Zustand in komplexen Web Applikationen vorhersehbar verwalten zu können. Besonders in Bezug auf die Nachvollziehbarkeit und die Wartbarkeit des Programmcodes haben die Untersuchungen der Masterarbeit ergeben, dass die Implementierung des Redux Paradigmas große Vorteile gegenüber klassischen Zustandsmanagement Konzepten bieten kann. Es existieren eine Vielzahl von Entwicklerwerkzeugen, um die tägliche Arbeit zu unterstützen und zu vereinfachen. Beim Codeumfang konnten nach den Erkenntnissen der vorliegenden Masterarbeit keine Vorteile des Redux Paradigmas gegenüber einer klassischen Implementierung eines Daten Service für das Zustandsmanagement erkannt werden. Bezüglich der Render Performance ist eine Abhängigkeit zwischen Datenmenge und durchschnittlicher Renderzeit erkennbar. Bei geringer Daten Menge ist die Render Perfomance gegenüber der Daten Service Implementierung schneller, bei mittlerer Datenmenge sind beide Implementierung beinahe gleich schnell und bei einer hohen Datenmenge weist die Daten Service Implementierung eine bessere Render Performance gegenüber der Redux Implementierung auf. Die zunehmende Verbreitung und Popularität innerhalb der Entwicklergemeinde zeigt, dass das Redux Paradigma den Puls der Zeit trifft und eine angemessene Lösung für ein weit verbreitetes Problem bieten kann. Die Ergebnisse der vorliegenden Masterarbeit sollen mehr Klarheit in die Bewertung von Zustandsmanagement Lösungen in JavaScript Web Applikationen bringen und Entscheidern helfen, eine fundierte Auswahl bezüglich eines Konzepts zur Verwaltung des Zustands für ihre individuelle Herrausforderung treffen zu können.
Ist neu immer besser?
(2017)
Durch die Verbreitung des Internets und damit der verteilten Anwendungen wurden serviceorientierte Architekturen zu einem festen Begriff der Softwareindustrie. In jüngerer Zukunft stieg das Interesse an Microservice Architekturen an und diese werden unter anderem auch mit „service orientation done right“ beschrieben. Diese Arbeit beschäftigt sich mit der Frage „Ist neu immer besser?“ und damit mit der Frage, ob Microservice Architekturen grundsätzlich besser sind als klassische serviceorientierte Architekturen. Zunächst werden die beiden Architekturen definiert und mit ihren Merkmalen beschrieben. Anschließend findet mit dem Architecture Tradeoff Analysis Model eine Definition einer Architekturbewertungsmethode statt. Außerdem werden Qualitätsattribute der ISO/IEC 25010 beschrieben die zur Bewertung der Softwarequalität verwendet werden kann. In dem nächsten Schritt werden die Fähigkeiten der beiden, in dieser Arbeit untersuchten, Architekturen beschrieben, die Qualitätskriterien der ISO/IEC 25010 zu erfüllen. Nachfolgend findet eine beispielhafte Auswertung von den Anforderungen von Webanwendungstypen an diese Qualitätskriterien statt mit anschließender Gegenüberstellung zu den Eigenschaften der Architekturen. Das Ergebnis dieser Arbeit ist, dass Microservice Architekturen grundsätzlich nicht immer besser sind als klassische serviceorientierte Architekturen und somit die Forschungsfrage mit „Nein“ beantwortet werden kann. Vielmehr sorgen die Merkmale der beiden Architekturen dafür, dass diese sich für unterschiedliche Anforderungen besonders eignen. Serviceorientierte Architekturen haben ihre Stärken beispielsweise in der Konnektivität zu anderen Systemen und den ausgereiften Technologien was vor allem die Sicherheit angeht. Microservices hingegen eignen sich sehr gut für Software mit sehr starken Skalierungs- und Performanceanforderungen.
