004 Datenverarbeitung; Informatik
Filtern
Dokumenttyp
- Masterarbeit (43)
Volltext vorhanden
- ja (43)
Gehört zur Bibliographie
- ja (43)
Schlagworte
- Software Engineering (5)
- Informationssicherheit (4)
- Internet der Dinge (3)
- Mikroservice (3)
- Computersicherheit (2)
- Digitalisierung (2)
- Sicherheitsplanung (2)
- Autonome Systeme (1)
- Benutzeroberfläche (1)
- Cloud (1)
Cloud Technologien wurden zur Bereitstellung von Infrastruktur für REST APIs in den letzten Jahren immer wichtiger. Das Container-as-a-Service (CaaS) Modell bei welchen Anwendungen virtualisiert in der Cloud laufen stellt hierbei einen der meistgenutzten Services dar. Dabei kommt es jedoch immer noch zu einem Overhead bei Verwaltung und Bereitstellung der Container, wodurch Entwicklungsressourcen verloren gehen. Eine noch leichtgewichtigere Alternative ist das neuere Function-as-a-Service (FaaS) Modell, welches den Verwaltungsaufwand reduzieren soll. Ziel der Masterarbeit ist es herauszufinden, ob FaaS sich besser als CaaS für die Entwicklung von REST APIs eignet. Um die Modelle vergleichbar zu machen, werden die Kriterien Kosten sowie Performance herangezogen und es wird folgende Forschungsfrage gestellt: ‚Wie wirkt sich FaaS gegenüber CaaS auf Performance und Kostenentwicklung einer REST API aus?‘. Um die Forschungsfrage zu beantworten, wurde jeweils eine CaaS und eine FaaS API implementiert. Als Metrik für Performance wurde dabei die Response Time (RT) gewählt. Diese gibt die Zeit an, welche zwischen Senden des API Requests und dem Empfang der Response verstreicht. Die RT wurde automatisiert mittels Artillery Skripts gemessen, um gleichzeitige Nutzung durch 1.000 virtuelle Benutzer*innen zu simulieren und verschiedene Anwendungsfälle abzubilden. Anhand der RT Daten wurden anschließend Kosten für verschiedene Benutzerzahlen berechnet. Die Ergebnisse der Performancemessungen zeigen, dass die RT von FaaS durchwegs höher ist als jene von CaaS. Für zeitkritische Applikationen kann FaaS daher nicht empfohlen werden. Bei den Kosten zeigt sich ein gemischtes Bild. Gerade bei wenigen API-Aufrufen entstehen bei FaaS kaum Kosten im Vergleich zu CaaS. Je höher die Anzahl der API Aufrufe, umso mehr verkehrt sich dieser Umstand jedoch ins Gegenteil, bei zwölf Millionen täglichen Aufrufen ist die FaaS Lösung schon beinahe dreimal so teuer wie CaaS. FaaS bietet sich also vor allem für kleinere Applikationen an, um einen Kompromiss zwischen Performance und Kosten zu finden.
Entwicklung einer Migrationsstrategie für Legacy Webanwendungen auf eine moderne Cloud-Plattform
(2018)
Cloud-Computing ist das Schlagwort der letzten Jahre in der Informationstechnologie schlechthin. Anbieter von Cloud-Lösungen versprechen Einsparungen bei Infrastrukturkosten, eine schnellere Serviceverfügbarkeit, eine bessere Performanz und kürzere Entwicklungszyklen. Viele Unternehmen reizt deshalb der Umstieg auf eine Cloud-Infrastruktur. Doch mit einem einfachen Umzug der Anwendungen ist es selten getan. Diese Arbeit zeigt auf, wie Softwareanwendungen aufgebaut sein müssen, damit sie aus einer Cloud-Infrastruktur einen optimalen Nutzen ziehen können. Zudem sind auch organisatorische Änderungen nötig, um moderne Cloud-Anwendungen zu entwickeln. Auch diese Änderungen werden besprochen. Häufig stehen Unternehmen vor dem zusätzlichen Problem, dass Anwendungen seit mehreren Jahren in Betrieb, aber technisch veraltet sind. Diese Legacy-Anwendungen sind geprägt durch fehlendes Entwicklungs-Know-how und eine lange Einsatzphase ohne Modernisierung und Restrukturierung. Die Plattformen, die sie nutzen, sind oft veraltet und der technologische Sprung auf eine Cloud-Umgebung deshalb sehr groß. Diese Arbeit erklärt, was Legacy-Software ist, wie sie entsteht, und wie mit ihr verfahren werden kann. Zudem wird das Thema Softwaremigrationen erklärt. Verschiedene Migrationsarten werden vorgestellt, und der exemplarische Ablauf einer Softwaremigration aufgezeigt. Das Ergebnis der Arbeit ist ein Konzept für Migrationsstrategien von Legacy-Anwendungen. Es wird für ein großes deutsches Versicherungsunternehmen entwickelt, das die Einführung einer Cloud-Infrastruktur plant. Der Umgang mit Altanwendungen, die bereits nicht mehr in die geplante Laufzeitumgebung passen, die jedoch weiterhin benötigt werden, ist derzeit ungeklärt. Er soll mit Hilfe dieser Arbeit festgelegt werden.
Datenerfassung für Big Data
(2021)
Big Data und Industrie 4.0 sind Schlagwörter, die in der Automatisierung omnipräsent geworden sind. Mit dem immer größer werdenden Angebot von Cloudanwendungen und einer schleichenden Abkehr der Grundeinstellung, dass sämtliche Daten im Unternehmen gespeichert werden müssen, tut sich eine Vielzahl von Möglichkeiten in der Automatisierungstechnik auf. Diese neuen Technologien, für künstliche Intelligenz oder Predictive-Maintenance, benötigen Daten, um ihre Aufgaben auszuführen, haben aber meist keine Werkzeuge für die Datenerfassung. Durch die langen Laufzeiten für Anlagen (> 20 Jahre) in der Automatisierungstechnik kann es bei Nachrüstungen zu Problemen kommen. In der Feldebene, der untersten Schicht in der Automatisierungstechnik, findet sich eine große Anzahl von Protokollen, die nicht in jeder neuen Technologie verfügbar sind. Genau an diesem Problem knüpft diese Arbeit an und es wird ein System entwickelt, welches von verschiedenen Protokollen Daten erfassen und diese an unterschiedliche Online-Datenbanken transferieren kann. In dieser Arbeit sollen wichtige Aspekte für ein solches System erörtert werden. Eingangs gibt der theoretische Teil einen Themenaufriss zur Industriellen Kommunikation. Genaueres Augenmerk wird auf eine sichere Datenübertragung gelegt, denn bei der Übertragung an Online-Datenbanken muss die Kommunikation verschlüsselt erfolgen. Es wird aber auch generelles Cloudcomputing behandelt, wobei der Fokus auf Online-Datenbanken und den Datenbankmodellen liegt. Das zu realisierende System soll so aufgebaut werden, dass zukünftig andere Protokolle für die Datenerfassung oder neue Online-Datenbank-Anbindungen hinzugefügt werden können. Im praktischen Teil wird das System, unter Berücksichtigung der erarbeiteten Resultate, umgesetzt und auf die Tauglichkeit in der Industrie untersucht.
Diese Masterarbeit untersucht, welche Aspekte zum Betreiben einer Microservice Architektur notwendig sind. Die Realisierung kann mit Hilfe von Open Source Infrastrukturkomponenten erfolgen. Es werden Frameworks in Java und .NET zur Anbindung an diese untersucht und anhand eines Kriterienkatalogs verglichen.
Mobile Computing
(2021)
Die folgende Masterarbeit behandelt das Thema der Sicherheit im Umgang mit mobilen Geräten und welche Gefahren für diese bestehen und welche Maßnahmen getroffen werden können, um Schäden im Unternehmensumfeld zu vermeiden. Dabei wird ein großer Fokus auf mögliche Angriffsvektoren gelegt, diese evaluiert und betrachtet, wie ein Schaden auf den Angriffsvektor bestmöglich vermieden werden kann. Des Weiteren werden Penetration Tests von Geräten näher erleuchtet, da diese für das IT-Personal eine wichtige Möglichkeit darstellt, um die Sicherheit der Geräte und des Netzwerkes zu testen. Das Hauptaugenmerk der ersteren Kapitel bezieht sich auf die Verwendung von Notebooks für den mobilen Arbeitsgebrauch. Im letzten Kapitel des theoretischen Teiles werden Mobiltelefone nochmals genauer erörtert, da diese heutzutage zum Standardequipment von vielen Angestellten gehört. Schlussendlich werden für den praktischen Teil dieser Arbeit mehrere Experten zum Thema der mobilen Sicherheit im Unternehmen befragt, um zu erörtern welchen Stand diese derzeit und welche Maßnahmen diese anwenden, um deren Unternehmen abzusichern. Die Ergebnisse zeigen, dass von allen befragten Experten valide Standards eingesetzt werden, um die Sicherheit der Mobilgeräte zu garantieren. Dabei versuchen diese sowohl die Sicherheit der Geräte, aber auch der Daten zu garantieren.
Das Smart Home hat sich als Anwendungsgebiet innerhalb des IoT große Beliebtheit verschafft. Mithilfe von verschiedenartigen, miteinander vernetzten Geräten werden Komfort und Sicherheit im Wohnbereich gesteigert. Aufgrund der einfachen Bedienung und der Interoperabilität zwischen unterschiedlichen Plattformen ist diese Art von Geräten besonders in Privathaushalten verbreitet. Durch ständige Konnektivität zum Internet bestehen jedoch Risiken hinsichtlich der Informationssicherheit sowie des Schutzes von Daten der BenutzerInnen. Die untersuchte Architektur im Rahmen dieser Arbeit behandelt ein generisches, Cloud-basiertes System. Dieses wird mithilfe des Risikoanalysemodells OCTAVE Allegro und dem Fokus auf kritische Informationsassets systematisch auf Sicherheitsrisiken überprüft. Für eine bessere Übersicht wird das Gesamtsystem in drei Subsysteme aufgeteilt. Ziel der Risikoanalyse ist es, die unterschiedlichen Sicherheitsrisiken, welche mit der Nutzung von Cloud-basierten Smart Home Systemen verbunden sind, aufzuzeigen. Für die Reduzierung von Risiken werden Gegenmaßnahmen sowie ein Katalog über Handlungsempfehlungen für NutzerInnen erarbeitet. Die Ergebnisse zeigen, dass NutzerInnen innerhalb ihres Einflussbereiches gezielt Maßnahmen zur Reduzierung der Risiken setzen können. Besonders beim Betrieb von kritischen Geräten sind eine stabile Energieversorgung und Internetverbindung essenziell. Der restliche Anteil der Sicherheitsrisiken geht bei einem Cloud-basierten System auf die Systemanbieter sowie Service Provider über. Durch die Entwicklung von Systemen innerhalb aktueller Security-Frameworks können Systemanbieter bereits in der Konzeptphase spätere Risiken vermeiden und Security und Privacy by Design Prinzipien einhalten. Für eine nachhaltige Durchsetzung von Smart Home Systemen ist dies ein essenzieller Faktor. Mithilfe neuer Technologien wie Blockchain könnten traditionelle Sicherheitsprobleme im IoT obsolet werden, konkrete Anwendungsfälle dafür befinden sich noch im Forschungsstadium.
Das Darknet, von vielen auch als das „böse Internet“ bezeichnet, bringt aufgrund seiner mysteriösen Natur viele Fragen mit sich. Es handelt sich um einen Teil des Deep Webs mit der besonderen Eigenschaft, dass Links im Darknet von keiner Search Engine indiziert werden können. Dieses Netzwerk besitzt jedoch weitere interessante Eigenschaften. Der Grad an Anonymität, welcher Darknet-Nutzern ermöglicht wird, ist im Laufe der Zeit charakteristisch für das Darknet geworden und damit auch zu seinem größten Vorteil geworden. Die Chancen, welche mit dem hohen Anonymisierungsgrad verknüpft sind, bringen ein breites Spektrum an Handlungsmöglichkeiten mit sich. Der Handel besitzt eine dominante Rolle im Darknet. Nicht nur diverse Drogen, sondern auch Fälschungen von persönlichen Dokumenten, schädliche Malware oder Hacking-Anleitungen sowie Schusswaffen können im Darknet problemlos erworben werden. Auch Rohdaten in unterschiedlichster Ausprägung spielen eine wichtige Rolle in diesem Netzwerk. So werden zahlreiche Whistleblowing-Seiten zum Vertrieb von Informationen verwendet oder auch weitere Kanäle, wie zum Beispiel Foren. Darknet-Nutzer können solche Daten konsumieren ohne Angst vor Zensur zu haben, da diese im Darknet keine Anwendung findet. So wie das Darknet ursprünglich für die sichere Kommunikation des amerikanischen Militärs entwickelt wurde, wird es heutzutage - nicht mehr auf das Militär eingeschränkt - zum gleichen Zweck eingesetzt. Hierbei wird eine Vielfalt an attraktiven Kommunikationskanälen angeboten, welche die uneingeschränkte Konversation erst möglich machen. Solche Grenzenlosigkeit kann jedoch sehr schnell zu starken Änderungen in der Verhaltensweise beider Gesprächspartner führen. Versteckt hinter dem Gefühl unbeschränkter Anonymität können im Darknet die persönlichen Grenzen aufgebrochen werden und das Verhalten der Anwender dieses Netzwerks ändert sich. Nichtsdestotrotz bringen die Kontaktaufnahme und das Kennenlernen anderer Nutzer zahlreiche interessante Erfahrungen mit sich, der Aufenthalt im Darknet stellt ein attraktives, überwältigendes Erlebnis dar.
Zu Beginn eines Softwareprojekts stellt sich fast immer die Frage, welche Technologien dafür eingesetzt werden. Die Entscheidung über die Auswahl der Frameworks wird dabei oft nach Präferenz oder vorhandener Erfahrung der Entwickler*innen getroffen. Gerade bei wichtigen oder großen Projekten sollte die Auswahl der Frameworks rational anhand der gegebenen Projektanforderungen getroffen werden. Ziel dieser Masterarbeit ist es, zu bestimmen, ob die Auswahl der Frameworks durch ein systematisches Entscheidungsmodell unterstützt werden kann. Aus diesem Ziel wurde folgende Forschungsfrage gestellt: Kann mithilfe eines systematischen Entscheidungsmodells die Auswahl eines geeigneten Single-Page-Application-Frameworks im Bereich Web-Frontendentwicklung getroffen werden? Die Forschungsfrage wird dabei primär durch Literaturrecherche zur Entscheidungstheorie untersucht. Ferner wird anhand der Recherche ein Entscheidungsmodell entwickelt. Um die Forschungsfrage zu beantworten, wurden Single-Page-Application- (SPA)Frameworks recherchiert, gefiltert und anhand eines Kriterienkataloges bewertet, um sukzessive ein Entscheidungsmodell zu erarbeiten. Das entstandene Modell bietet die Möglichkeit, SPA-Frameworks anhand ihrer Eignung für individuelle an das Modell übergebene Projektanforderungen zu sortieren und ungeeignete Frameworks auszuscheiden. Die Bewertung der Frameworks erfolgte dabei mittels einer Bestandsaufnahme messbarer Fakten sowie durch den Vergleich der Frameworks anhand eines erstellten Prototyps bei nicht messbaren Kriterien. Für die Validierung des erstellten Modells wurde unter Personen aus der Softwareentwicklungsbranche eine Umfrage durchgeführt, bei der die Teilnehmer*innen die Frameworks bewerten konnten. Anschließend wurde mit der Bewertung der Umfrageergebnisse ein neues Modell erstellt und dieses anhand fiktiver Projektanforderungen mit dem ursprünglich erstellten Modell verglichen. Dabei wurde dasselbe Ergebnis erzielt und somit das Modell validiert. Die vorliegenden Ergebnisse zeigen, dass ein Entscheidungsmodell die Auswahl eines Frameworks ermöglicht oder als Entscheidungsgrundlage dienen kann. Voraussetzung dafür ist die objektive Bewertung der Frameworks sowie der individuellen Projektanforderungen.
Die Wirtschaftsinformatik betrachtet Informationssysteme als komplexe soziotechnische Systeme, in denen Mensch und Informationstechnik zur Erledigung einer Aufgabe zusammenwirken. Jedoch verursacht der Einsatz von Informationstechnik unerwartete Sekundäreffekte im menschlich-sozialen Bereich des Systems, die die wissenschaftliche Literatur bisher kaum behandelt. Aus diesem Grund versucht diese Masterarbeit in diesem Bereich einen Beitrag zu leisten, indem die langfristigen Auswirkungen des Einsatzes von Informationssystemen auf das Fundament des sozialen Subsystems, die Unternehmenskultur, untersucht werden. Zu diesem Zweck wurde eine explorative Einzelfallstudie in einer Organisation des öffentlichen Dienstes, in der in den letzten fünfzehn Jahren die Informationsinfrastruktur laufend erweitert wurde, durchgeführt. Eine solche Organisation wurde gewählt, da der Literatur entsprechend von einer ausgeprägten Unternehmenskultur im öffentlichen Dienst auszugehen ist. Ziel der Studie war es, jene Kulturdimensionen, auf die sich der Einsatz von Informationssystemen auswirkt, zu identifizieren und konkrete Auswirkungen sowie einige relevante moderierende Effekte in diesen Dimensionen zu bestimmen. So wurde als Vorbereitung zur empirischen Untersuchung ein weitreichender theoretischer Bezugsrahmen auf Basis der Systemtheorie, des soziotechnischen Designansatzes sowie wissenschaftlicher Literatur aus der Kultur- und Informationssystemforschung entwickelt. Diesem Bezugsrahmen entsprechend wurden 15 qualitative Experteninterviews mit Führungskräften, einem Personalvertreter und einem IT-Administrator abgehalten, in denen Daten zu 16 verschiedenen Kulturdimensionen erhoben wurde. Diese Daten wurden anschließend mit einer qualitativen Inhaltsanalyse, die durch den Einsatz einer Analysesoftware unterstützt wurde, ausgewertet. Die Ergebnisse zeigen, dass sich der Einsatz von Informationssystemen vor allem in den Kulturdimensionen Kommunikation, Qualifikationsanforderungen an die Mitarbeiter, Einbindung der Mitarbeiter, Umgang mit Zeit und Kontrolle auswirkt. Beispielsweise hat die Veränderung im Kommunikationsverhalten zu einem Verlust von impliziter sozialer Hintergrundinformation bei den Führungskräften geführt, was wiederum deren Führungsarbeit erheblich beeinträchtigt. Zudem hat sich in der Organisation eine ungewöhnlich offene Informationskultur entwickelt, die das Informationsaufkommen deutlich erhöht und die Bediensteten zum gleichzeitigen Erledigen mehrerer Aufgaben drängt. Insgesamt konnten in dieser explorativen Studie, die durch intensive Literaturarbeit unterstützt wurde, 56 Hypothesen erarbeitet werden. Diese bilden eine solide Basis für weitere Forschungsschritte mit dem Ziel, unbeabsichtigte soziokulturelle Auswirkungen in der praktischen Entwicklung von Informationssystemen zu verhindern.
The importance of stainless and special steel products has increased substantially in recent decades, as their use has shifted from niche special applications to widespread popular function. Clearly, the vacuum oxygen decarburization (VOD) process plays a major role in stainless steel production. In order to achieve extremely low carbon ratios in the presence of high chromium content, oxygen is blown under reduced pressure conditions. Despite the well-known determination of the required amount of oxygen, the operation practice itself seems to vary in the field. This gives rise to the question of the existence of a consistent optimized control strategy. The present master’s thesis addresses the existing optimization problem by using a multiple-validated VOD process simulation model. As a first step, the optimization problem is defined by the examination of the existing model. Thus, the process model flow is step by step transformed into mathematical terms. Subsequently, a variable study is carried out evaluating the influences of the oxygen blowing rate, stirring gas rate and the system pressure on the result of the model. Based on the findings, an optimization algorithm is then implemented to generate enhanced control strategies with respect to the given optimization criterion: minimize chromium oxidation. Finally, the results are demonstrated by simulations and tests of generated control strategies with the existing model. These tests clearly show an improvement regarding the optimization criterion. Moreover, the results demonstrate numerically and visually, that the newly developed algorithm generates enhanced control strategies.