004 Datenverarbeitung; Informatik
Refine
Year of publication
Document Type
- Master's Thesis (51)
Has Fulltext
- yes (51)
Is part of the Bibliography
- yes (51)
Keywords
- Informationssicherheit (5)
- Software Engineering (5)
- Cloud Computing (3)
- Digitalisierung (3)
- Internet der Dinge (3)
- Mikroservice (3)
- Computersicherheit (2)
- Sicherheitsplanung (2)
- Automation (1)
- Autonome Systeme (1)
Green Cloud Computing
(2023)
Der IT-Dienstleistungssektor hat einen signifikanten Anstieg der Nutzung von Cloud Computing erlebt und seinen Marktanteil von 14,5% im Jahr 2017 auf 42,5% im Jahr 2022 ausgebaut. Trotz der unbestreitbaren Vorteile hat dieses Wachstum Umweltbedenken aufgeworfen. Der steigende Bedarf an Rechenleistung und die Verbreitung von internetverbundenen Geräten tragen zum ökologischen Fußabdruck des Cloud-Computings bei. Studien variieren und schreiben dem Cloud Computing 0,3% bis 2% der globalen CO2-Emissionen zu, mit zusätzlichen Umweltauswirkungen wie Abfallproduktion, Wasserverbrauch und Landnutzung. Diese Masterarbeit adressiert den dringenden Bedarf an nachhaltigen Praktiken bei österreichischen Cloud Service Providern. Das Ziel ist es, handlungsorientierte Empfehlungen für die Umsetzung von grünem Cloud Computing auf Grundlage einer gründlichen Überprüfung der wissenschaftlichen Literatur zu formulieren. Unter Verwendung der systematischen Literaturübersichtsmethodik von Brocke et al. und der PRISMA-Methode analysierte diese Studie 106 Arbeiten mit einer Mindestanzahl von 5 Zitaten innerhalb eines bestimmten Zeitrahmens. Die Literatur betont überwiegend Initiativen zur Energieeffizienz, insbesondere während der Nutzungsphase von Rechenzentren, vernachlässigt jedoch die umfassendere Perspektive des gesamten Lebenszyklus. Diese Studie bestätigt die Hypothese, dass erhebliches Potenzial für die Anpassung umweltfreundlicher Maßnahmen bei Cloud Service Providern besteht. Um diese Lücke zu schließen, wird ein Umsetzungsplan für grünes Cloud Computing vorgeschlagen, der wissenschaftlichen Techniken zur Energieeffizienz auf Software- und Hardwareebene, zur Virtual Machine Consolidation und bioinspirierte Algorithmen umfasst. Aufbauend auf Erkenntnissen des deutschen Umweltbundesamts-Projekts KPI4CDE und GCC sowie der systematischen Literaturübersicht identifiziert diese Forschung ungenutztes Potenzial für weitere wissenschaftliche Untersuchungen des vollständigen Lebenszyklus von Cloud Service Providern. Diese Studie legt den Grundstein für zukünftige Forschungsinitiativen, die darauf abzielen, die Umweltauswirkungen des Cloud-Computings umfassend zu verstehen und zu mindern.
Die Unabhängigkeit von menschlichen Interaktionen, kombiniert mit der erhöhten Sicherheit und Effizienz, sind Hauptgründe für die rasante Entwicklung der Autopiloten-Technologie. Insbesondere der verstärkte Einsatz von Drohnen hat dazu beigetragen, dass Open-Source-Autopiloten wie ArduPilot und PX4 Autopilot sich ständig weiterentwickeln konnten. Aufgrund des wachsenden Funktionsumfangs wurde der Einsatz dieser Autopiloten auch schnell auf andere unbemannte Fahrzeuge erweitert. Allerdings besitzen diese Softwareplattformen individuelle Stärken und Schwächen, welche erst bei einem fundierten Vergleich deutlich werden. Das Ziel dieser Masterarbeit ist es, die Open-Source-Autopiloten ArduPilot und PX4 Autopilot anhand einer experimentellen Untersuchung zu analysieren. Im Rahmen dieser Evaluierung wurde ein spezielles Testfahrzeug eingesetzt, welches eine vordefinierte Strecke automatisiert abfährt. Die Streckenvorgabe wird dabei über geografische Koordinaten festgelegt. Dieses Testfahrzeug besteht aus einem modifizierten Modellfahrzeug mit integriertem Flight-Controller sowie geeigneten Aktoren und Sensoren. Um die Vergleichbarkeit der Testergebnisse zu gewährleisten, war es zusätzlich notwendig, ein passendes Testsetup zu schaffen. Die Untersuchung konzentriert sich hauptsächlich auf die Unterschiede in der Routennachverfolgung, wobei die Genauigkeit und Effizienz jedes Autopilot-Systems analysiert werden. Darüber hinaus werden die notwendigen Schritte zur Kalibrierung und Konfiguration der Autopiloten untersucht. Basierend auf diesen Erkenntnissen werden die Autopiloten sowie die verwendeten Bodenstationssoftwaren, Mission Planner und QGroundControl, verglichen. Letztendlich bieten die gesammelten Ergebnisse eine fundierte Entscheidungsgrundlage für die Auswahl eines geeigneten Autopiloten für Bodenfahrzeuge. Darüber hinaus fördern sie auch den praktischen Einsatz von Open-Source-Autopiloten.
Modellierung eines digitalen Zwillings für die Erprobung eines additiv gefertigten Wärmetauschers
(2024)
Die Anforderungen an moderne Simulationstechniken hinsichtlich ihrer Komplexität, Datentransparenz und intelligenten Vernetzung sowie einer umfassenden Virtualisierung eines zugrundeliegenden Objektes oder Systems haben innerhalb der letzten Jahre über alle Technologiesektoren hinweg deutlich zugenommen. Der Digitale Zwilling ist ein Konzept, welches diesen gestiegenen Anforderungen gerecht wird und zudem positive wirtschaftliche Aspekte, wie der Einsparung von Material und der damit einhergehenden Kostenreduktion, mit sich bringt. Im Zuge dieser Masterarbeit soll eine möglichst präzise Modellierung und anschließende Anwendungserprobung eines Digitalen Zwillings von einem additiven Wärmetauscher realisiert werden. Dies wird durch eine anfängliche Erläuterung der theoretischen Grundlagen eines Digitalen Zwillings, der Wärmeübertragung und der relevanten Modellierungsansätzen erreicht. Die praktische Umsetzung umfasst die Erstellung des Regelungscodes für die speicherprogrammierbare Steuerung sowie die Modellierung des virtuellen Abbilds des Prüfstands. Das realisierte Modell erfüllt die grundlegenden Anforderungen eines Digitalen Zwillings und kann für Test- und Schulungszwecke sinnvoll eingesetzt werden, zeigt jedoch auch die Grenzen der Machbarkeit auf und bietet Optimierungspotenziale hinsichtlich der Stabilität, Präzision sowie der allgemeinen Funktionstiefe der virtuellen Abbildung. Die Ergebnisse verdeutlichen, dass die Komplexität der Modellparameter bei intensiverer Auseinandersetzung mit dem Konzept des Digitalen Zwillings stark zunimmt und für umfassendere Modellansätze ein erheblicher Mehraufwand erforderlich ist.
Im heutigen Umfeld der produzierenden Industrie sind kontinuierliche Effizienzsteigerung, Qualitätsverbesserung und Wettbewerbsfähigkeit zentrale Anliegen. Die Automatisierung von Produktionsprozessen und eine umfassende Datenerfassung gewinnen zunehmend an Bedeutung. Die erfassten Daten dienen als Grundlage für die Steuerung, Analyse und Optimierung der Produktionsprozesse. Das Ziel dieser Masterarbeit ist die Einführung eines automatisierten Datenerfassungssystems über die gesamte Produktionsstätte. Dieses wird benötigt, um Produktionsdaten aufzuzeichnen und Key Performance Indicators (KPIs) automatisiert zu berechnen. Hierfür müssen verschiedene Hersteller von speicherprogrammierbaren Steuerungen (SPS) und andere Systeme wie eine Structured Query Language (SQL)-Datenbank angebunden werden. Nach einem vertieften Verständnis von Supervisory Control and Data Acquisition (SCADA)-Systemen und deren Aufbau wird eine Analyse der vorhandenen Hardwarekomponenten und Topologien durchgeführt. Darauf aufbauend werden Implementierungskonzepte erarbeitet, deren Hauptaugenmerk auf einer nahtlosen Integration und Erweiterbarkeit liegt. Diese Konzepte werden für den konkreten Anwendungsfall evaluiert und bewertet. Das Ergebnis dieser Masterarbeit ist die praktische Umsetzung des gewählten Konzepts mit der Implementierung des Datenerfassungssystems an einer Produktionslinie. Die nahtlose Integration des Datenerfassungssystems ermöglicht es, die Effizienz zu steigern, menschliche Fehler zu minimieren und Echtzeitdaten für fundierte Entscheidungen bereitzustellen. Diese Arbeit soll einen Überblick darüber geben, wie ein Datenerfassungssystem in die bestehende Infrastruktur einer Produktionsanlage integriert werden kann.
Die Informationstechnologie (IT) ist eine sich schnell verändernde Branche und bietet vielfältige Möglichkeiten, neue Geschäftsfelder zu etablieren oder bestehende Geschäftsmodelle und Prozesse zu modernisieren. Dieser Vorgang, weithin unter der Bezeichnung Digitalisierung bekannt, bringt auch eine Vielzahl an Herausforderungen für die IT-Infrastruktur. Diese muss immer schneller reagieren und sich zeitgleich neuen Sicherheitsanforderungen stellen. Um diesen Anforderungen gerecht zu werden, müssen Prozesse beschleunigt und automatisiert werden. Bereits heute werden viele Server virtuell zur Verfügung gestellt, wodurch diese binnen weniger Augenblicke für neue Services bereitstehen. Dieser Trend der Virtualisierung lässt sich nach und nach auch im übrigen Datacenter erkennen. Das sogenannte Software-defined Datacenter soll Unternehmen dabei helfen, das gesamte Datacenter, beginnend bei Servern, Storage, Security-Komponenten bis hin zum Netzwerk, zu virtualisieren. Dadurch sollen Prozesse automatisiert und Fehlerquellen reduziert werden. Eine besondere Herausforderung stellt dabei das Netzwerk dar. Bis heute wird der Großteil der Netzwerkkomponenten von Administratoren manuell und einzeln administriert, wodurch sich potenzielle Fehler innerhalb der Konfiguration ergeben. Um diese Fehler zu reduzieren und um die Konfigurationszeiten zu verkürzen, werden nach und nach neue Technologien im Software-defined-Networking-Bereich etabliert. Dabei stellt sich die Frage, wie ein Konzept zur Automatisierung eines modernen Netzwerkes gestaltet sein kann. In der vorliegenden Forschungsarbeit wurde versucht, dies Anhand eines Prototypings zu erarbeiten. Besonderes Augenmerk wurde hier auf IT-Dienstleister im öffentlichen Bereich gelegt. Einleitend wurde auf die Notwendigkeit einer infrastrukturellen Veränderung eingegangen, wodurch sich klar erkennen ließ, dass mit zunehmender Digitalisierung Technologien wie SDN an Bedeutung gewinnen. Abschließend konnte erkannt wer-den, dass SDN eine zukunftsträchtige Technologie ist, jedoch nicht als Standardprodukt zu verstehen ist. SDN muss individuell für jedes Unternehmen durchdacht werden, damit die Vorteile der Automatisierung genutzt werden können.
Kollaborative Roboter repräsentieren einen weiteren innovativen Schritt in der Automatisierung von Produktionsanlagen. Universal Robots ist Weltmarkführer in der kollaborativen Robotik und betont die einfache Anwendung seiner Produkte. Zahlreiche Produktionsunternehmen versuchen dahingehend, umfassende Roboterapplikationen eigenständig zu implementieren. Aufgrund fehlender Erfahrung, resultieren derartige Projekte jedoch oftmals in zeit- und kostenintensiven Entwicklungsphasen. Diese Arbeit hat das Ziel ein neuartiges URCap zu entwickeln, welches den erforderlichen Programmcode automatisch generiert und somit die Programmierung von komplexen Roboteranwendungen ebenso für unerfahrene Anwender*innen zugänglich macht. Unter Aufarbeitung der Grundzüge der Roboterprogrammierung entwirft diese Arbeit zuerst eine Programmrohstruktur für Maschinenbeschickungsanwendungen. Anschließend zeigt diese Arbeit in welchem Umfang diese Programmstruktur automatisch vom entwickelten URCap generiert werden kann. Die Ergebnisse präsentieren ein funktionierendes URCap, welches wertvolle Programmierzeit bei Maschinenbeschickungsanwendungen einspart. Darüber hinaus stellt es weitere Funktionalitäten für eine Steigerung der Prozessstabilität zur Verfügung.
Integrierte Navigationssysteme (INS) auf Schiffen leisten einen großen Beitrag zu sicheren Navigation, um kritische Situationen zu umgehen oder zu entschärfen. Damit können INS als sicherheitsrelevante Systeme bezeichnet werden. Neben durchgängiger Redundanz, Diagnose von Komponenten zur Laufzeit und durchgeführter FMEA für die Typzulassung des INS, weisen diese keine weiteren Mechanismen auf, um das System im Fehlerfall vor Ausfall oder Fehlfunktion zu schützen, wodurch das System in einen kritischen Zustand übergehen kann. Weitere Maßnahmen sind notwendig, weil die Integrationsgrade der Navigationssysteme und Interaktionen mit vielen unterschiedlichen Systemen stetig zunehmen. Damit ein INS in Zukunft weiterhin dem Stand der Technik entspricht, müssen aktuelle Anforderungen aus Standards, wie dem IEC 61162-460 hinsichtlich Safety & Security erfüllen, damit das Risiko erhöhter Integrationsgraden auf ein vertretbares Maß gesenkt werden kann. Um das System vor Übergängen in kritische Zustände zu bewahren und einen Sicherheitslevel zu erreichen, der zukünftig den Anforderungen an Bord genügt, wird im Rahmen dieser Arbeit neben den gültigen Standards und Normen für INS die Funktionale Sicherheit betrachtet. Dazu wird ¨ die Grundnorm IEC 61508 und die abgeleiteten Normen für entsprechende Industriebereiche ¨ betrachtet. Für den Seeverkehr gilt hervorgehoben die UN-Konvention SOLAS von 1974. Die Festlegungen aus dieser Konvention spiegeln sich in Normen und Standards, wie auch in Gesetzen der Staaten wider. Der Fokus der Standardisierungsgremien liegt nach wie vor auf dem Menschen und der Unterstützung durch das INS. Dabei sollen Fehler des Menschen vermieden, Ausfälle erkannt und Warnungen erzeugt werden. Mit dem Standard IEC 61162-460 beginnt die Standardisierung der Sicherheit (Safety & Security) und Funktionalen Sicherheit des INS. Durch eine Rekapitulation von Serviceeinsätzen wurde erkannt, dass in vielen Fällen ein Ausfall oder eine Fehlfunktion dadurch entstand, dass eine fehlerhafte Konfiguration vorlag. Die hohe Konfigurierbarkeit des INS ist ein Vorteil, birgt jedoch die Gefahr der Fehlkonfiguration. Die Auswertungen der Fehlerzustände und Ausfälle ergab, dass eine Diagnose der Konfiguration durchgeführt werden muss. Diese Diagnose soll bereits zur Konfigurationszeit durchgeführt werden (Onlinediagnose). Dabei wird die erstellte Konfiguration gegen Bedingungen geprüft, die Restriktionen der verwendeten Hardware (z.B. Überlast) oder die Systemintegrität (z.B. geforderte Redundanz, Einbaupositionen) abbilden. Die Diagnoseabdeckung des Systems wird neben der Laufzeit auf die Konfigurationszeit (Installation und Inbetriebnahme) erweitert. Für höchst konfigurierbare Systeme, wie das INS von Raytheon Anschutz, können bis zu 29% der Fehleranteile im Lebenszyklus eines Systems vermieden werden. Die vorliegende Arbeit bietet einen Ansatz zur Erweiterung der Diagnosefähigkeiten des Systems auf die Konfigurationszeit. Bestimmte Bedingungen, abhängig von verwendeter Hardware, Größe des Gesamtsystems können bereits bei Anfertigung der Systemkonfiguration überprüft werden. Plausibilitäts- und Integritätsprüfungen, wie Einbaupositionen, notwendige Redundanzen, korrekte Sensorverbindungen können zusätzlich überprüft werden. Das System erlangt Kenntnis über sich selbst und seine Konfiguration. Diese Kenntnis verknüpft mit den Bedingungen, erlaubt es dem Bedienern nützliche Hinweise und Warnmeldungen zu geben, wo die Systemkonfiguration mögliche Risiken für gefährliche Ausfälle des Systems birgt. Die ausgelieferten Systeme werden robuster und die Anzahl und Dauer der Serviceeinsätze wird gesenkt und Kosten eingespart. Die Ausfallrate der Systeme sinkt, wodurch sicherheitsgerichtete Funktionen, wie Collision Avoidance mit einer höheren Zuverlässigkeit verwendet werden können. Eine rechnerische Überprüfung der verwendeten Komponenten und Systemarchitektur zeigt eine mögliche SIL-Einstufung des Systems.
Die rasanten technologischen Entwicklungen und die zunehmende Digitalisierung haben die Abhängigkeit von digitaler Infrastruktur drastisch intensiviert. Zusätzlich steigen die Anforderungen und gesetzlichen Verpflichtungen der Unternehmerinnen und Unternehmer, wie beispielsweise mit der Einführung der Richtlinie über Maßnahmen für ein hohes gemeinsames Cybersicherheitsniveau in der gesamten Union (NIS2) im Jahr 2024 in der Europäischen Union. Infolgedessen wird es für Unternehmen umso entscheidender, eine Möglichkeit zur Bewertung ihrer Informationssicherheit zur Verfügung zu haben, sei es zur Erfüllung gesetzlicher Anforderungen oder zur Vorbereitung auf Zertifizierungen. Die Internationale Organisation für Normung (ISO) reagierte auf die sich verändernden Anforderungen der IT-Strategie, indem sie die Norm ISO/IEC 27017 geschaffen hat, die speziell auf die Implementierung von sicherheitsrelevanten Maßnahmen im Zusammenhang mit Cloud-Computing ausgerichtet ist. Das Magellan Maturity-Model, welches bereits auf der ISO/IEC-Norm 27001 basiert, wird in dieser Masterarbeit adaptiert. Damit soll ein spezielles Modell für Cloud und Managed Services geschaffen werden. Auf Grundlage dieses Modells wird ein neues Bewertungskonzept sowohl für Managed Services als auch für Cloud-Services entwickelt, das sich anhand von ISO/IEC-Normen, Gesetzen und Richtlinien orientiert. Das Hauptziel besteht darin, den Reifegrad der genannten Services im Bereich der Informationssicherheit zu beurteilen. Die Evaluierung des Bewertungskonzepts erfolgt einerseits mittels einer Fallstudie, in der das erstellte Sicherheitskonzept anhand von Vertragsvereinbarungen geprüft wird und andererseits in der Praxis. In dieser Phase wird die Meinung von Experten eingeholt und die Ergebnisse der Fallstudie sowie das Bewertungskonzept validiert. Die Forschungsfrage kann erfolgreich mit einem Sicherheitskonzept beantwortet werden, was eine solide Grundlage für weitere Untersuchungen darstellt. Die Berücksichtigung der vier Dimensionen (Integrität, Vertraulichkeit, Verfügbarkeit und Compliance) in der Reifegradbewertung kann in zukünftigen Untersuchungen eine Verbesserung darstellen.
Cloud Technologien wurden zur Bereitstellung von Infrastruktur für REST APIs in den letzten Jahren immer wichtiger. Das Container-as-a-Service (CaaS) Modell bei welchen Anwendungen virtualisiert in der Cloud laufen stellt hierbei einen der meistgenutzten Services dar. Dabei kommt es jedoch immer noch zu einem Overhead bei Verwaltung und Bereitstellung der Container, wodurch Entwicklungsressourcen verloren gehen. Eine noch leichtgewichtigere Alternative ist das neuere Function-as-a-Service (FaaS) Modell, welches den Verwaltungsaufwand reduzieren soll. Ziel der Masterarbeit ist es herauszufinden, ob FaaS sich besser als CaaS für die Entwicklung von REST APIs eignet. Um die Modelle vergleichbar zu machen, werden die Kriterien Kosten sowie Performance herangezogen und es wird folgende Forschungsfrage gestellt: ‚Wie wirkt sich FaaS gegenüber CaaS auf Performance und Kostenentwicklung einer REST API aus?‘. Um die Forschungsfrage zu beantworten, wurde jeweils eine CaaS und eine FaaS API implementiert. Als Metrik für Performance wurde dabei die Response Time (RT) gewählt. Diese gibt die Zeit an, welche zwischen Senden des API Requests und dem Empfang der Response verstreicht. Die RT wurde automatisiert mittels Artillery Skripts gemessen, um gleichzeitige Nutzung durch 1.000 virtuelle Benutzer*innen zu simulieren und verschiedene Anwendungsfälle abzubilden. Anhand der RT Daten wurden anschließend Kosten für verschiedene Benutzerzahlen berechnet. Die Ergebnisse der Performancemessungen zeigen, dass die RT von FaaS durchwegs höher ist als jene von CaaS. Für zeitkritische Applikationen kann FaaS daher nicht empfohlen werden. Bei den Kosten zeigt sich ein gemischtes Bild. Gerade bei wenigen API-Aufrufen entstehen bei FaaS kaum Kosten im Vergleich zu CaaS. Je höher die Anzahl der API Aufrufe, umso mehr verkehrt sich dieser Umstand jedoch ins Gegenteil, bei zwölf Millionen täglichen Aufrufen ist die FaaS Lösung schon beinahe dreimal so teuer wie CaaS. FaaS bietet sich also vor allem für kleinere Applikationen an, um einen Kompromiss zwischen Performance und Kosten zu finden.
Entwicklung einer Migrationsstrategie für Legacy Webanwendungen auf eine moderne Cloud-Plattform
(2018)
Cloud-Computing ist das Schlagwort der letzten Jahre in der Informationstechnologie schlechthin. Anbieter von Cloud-Lösungen versprechen Einsparungen bei Infrastrukturkosten, eine schnellere Serviceverfügbarkeit, eine bessere Performanz und kürzere Entwicklungszyklen. Viele Unternehmen reizt deshalb der Umstieg auf eine Cloud-Infrastruktur. Doch mit einem einfachen Umzug der Anwendungen ist es selten getan. Diese Arbeit zeigt auf, wie Softwareanwendungen aufgebaut sein müssen, damit sie aus einer Cloud-Infrastruktur einen optimalen Nutzen ziehen können. Zudem sind auch organisatorische Änderungen nötig, um moderne Cloud-Anwendungen zu entwickeln. Auch diese Änderungen werden besprochen. Häufig stehen Unternehmen vor dem zusätzlichen Problem, dass Anwendungen seit mehreren Jahren in Betrieb, aber technisch veraltet sind. Diese Legacy-Anwendungen sind geprägt durch fehlendes Entwicklungs-Know-how und eine lange Einsatzphase ohne Modernisierung und Restrukturierung. Die Plattformen, die sie nutzen, sind oft veraltet und der technologische Sprung auf eine Cloud-Umgebung deshalb sehr groß. Diese Arbeit erklärt, was Legacy-Software ist, wie sie entsteht, und wie mit ihr verfahren werden kann. Zudem wird das Thema Softwaremigrationen erklärt. Verschiedene Migrationsarten werden vorgestellt, und der exemplarische Ablauf einer Softwaremigration aufgezeigt. Das Ergebnis der Arbeit ist ein Konzept für Migrationsstrategien von Legacy-Anwendungen. Es wird für ein großes deutsches Versicherungsunternehmen entwickelt, das die Einführung einer Cloud-Infrastruktur plant. Der Umgang mit Altanwendungen, die bereits nicht mehr in die geplante Laufzeitumgebung passen, die jedoch weiterhin benötigt werden, ist derzeit ungeklärt. Er soll mit Hilfe dieser Arbeit festgelegt werden.
Datenerfassung für Big Data
(2021)
Big Data und Industrie 4.0 sind Schlagwörter, die in der Automatisierung omnipräsent geworden sind. Mit dem immer größer werdenden Angebot von Cloudanwendungen und einer schleichenden Abkehr der Grundeinstellung, dass sämtliche Daten im Unternehmen gespeichert werden müssen, tut sich eine Vielzahl von Möglichkeiten in der Automatisierungstechnik auf. Diese neuen Technologien, für künstliche Intelligenz oder Predictive-Maintenance, benötigen Daten, um ihre Aufgaben auszuführen, haben aber meist keine Werkzeuge für die Datenerfassung. Durch die langen Laufzeiten für Anlagen (> 20 Jahre) in der Automatisierungstechnik kann es bei Nachrüstungen zu Problemen kommen. In der Feldebene, der untersten Schicht in der Automatisierungstechnik, findet sich eine große Anzahl von Protokollen, die nicht in jeder neuen Technologie verfügbar sind. Genau an diesem Problem knüpft diese Arbeit an und es wird ein System entwickelt, welches von verschiedenen Protokollen Daten erfassen und diese an unterschiedliche Online-Datenbanken transferieren kann. In dieser Arbeit sollen wichtige Aspekte für ein solches System erörtert werden. Eingangs gibt der theoretische Teil einen Themenaufriss zur Industriellen Kommunikation. Genaueres Augenmerk wird auf eine sichere Datenübertragung gelegt, denn bei der Übertragung an Online-Datenbanken muss die Kommunikation verschlüsselt erfolgen. Es wird aber auch generelles Cloudcomputing behandelt, wobei der Fokus auf Online-Datenbanken und den Datenbankmodellen liegt. Das zu realisierende System soll so aufgebaut werden, dass zukünftig andere Protokolle für die Datenerfassung oder neue Online-Datenbank-Anbindungen hinzugefügt werden können. Im praktischen Teil wird das System, unter Berücksichtigung der erarbeiteten Resultate, umgesetzt und auf die Tauglichkeit in der Industrie untersucht.
Diese Masterarbeit untersucht, welche Aspekte zum Betreiben einer Microservice Architektur notwendig sind. Die Realisierung kann mit Hilfe von Open Source Infrastrukturkomponenten erfolgen. Es werden Frameworks in Java und .NET zur Anbindung an diese untersucht und anhand eines Kriterienkatalogs verglichen.
Mobile Computing
(2021)
Die folgende Masterarbeit behandelt das Thema der Sicherheit im Umgang mit mobilen Geräten und welche Gefahren für diese bestehen und welche Maßnahmen getroffen werden können, um Schäden im Unternehmensumfeld zu vermeiden. Dabei wird ein großer Fokus auf mögliche Angriffsvektoren gelegt, diese evaluiert und betrachtet, wie ein Schaden auf den Angriffsvektor bestmöglich vermieden werden kann. Des Weiteren werden Penetration Tests von Geräten näher erleuchtet, da diese für das IT-Personal eine wichtige Möglichkeit darstellt, um die Sicherheit der Geräte und des Netzwerkes zu testen. Das Hauptaugenmerk der ersteren Kapitel bezieht sich auf die Verwendung von Notebooks für den mobilen Arbeitsgebrauch. Im letzten Kapitel des theoretischen Teiles werden Mobiltelefone nochmals genauer erörtert, da diese heutzutage zum Standardequipment von vielen Angestellten gehört. Schlussendlich werden für den praktischen Teil dieser Arbeit mehrere Experten zum Thema der mobilen Sicherheit im Unternehmen befragt, um zu erörtern welchen Stand diese derzeit und welche Maßnahmen diese anwenden, um deren Unternehmen abzusichern. Die Ergebnisse zeigen, dass von allen befragten Experten valide Standards eingesetzt werden, um die Sicherheit der Mobilgeräte zu garantieren. Dabei versuchen diese sowohl die Sicherheit der Geräte, aber auch der Daten zu garantieren.
Das Smart Home hat sich als Anwendungsgebiet innerhalb des IoT große Beliebtheit verschafft. Mithilfe von verschiedenartigen, miteinander vernetzten Geräten werden Komfort und Sicherheit im Wohnbereich gesteigert. Aufgrund der einfachen Bedienung und der Interoperabilität zwischen unterschiedlichen Plattformen ist diese Art von Geräten besonders in Privathaushalten verbreitet. Durch ständige Konnektivität zum Internet bestehen jedoch Risiken hinsichtlich der Informationssicherheit sowie des Schutzes von Daten der BenutzerInnen. Die untersuchte Architektur im Rahmen dieser Arbeit behandelt ein generisches, Cloud-basiertes System. Dieses wird mithilfe des Risikoanalysemodells OCTAVE Allegro und dem Fokus auf kritische Informationsassets systematisch auf Sicherheitsrisiken überprüft. Für eine bessere Übersicht wird das Gesamtsystem in drei Subsysteme aufgeteilt. Ziel der Risikoanalyse ist es, die unterschiedlichen Sicherheitsrisiken, welche mit der Nutzung von Cloud-basierten Smart Home Systemen verbunden sind, aufzuzeigen. Für die Reduzierung von Risiken werden Gegenmaßnahmen sowie ein Katalog über Handlungsempfehlungen für NutzerInnen erarbeitet. Die Ergebnisse zeigen, dass NutzerInnen innerhalb ihres Einflussbereiches gezielt Maßnahmen zur Reduzierung der Risiken setzen können. Besonders beim Betrieb von kritischen Geräten sind eine stabile Energieversorgung und Internetverbindung essenziell. Der restliche Anteil der Sicherheitsrisiken geht bei einem Cloud-basierten System auf die Systemanbieter sowie Service Provider über. Durch die Entwicklung von Systemen innerhalb aktueller Security-Frameworks können Systemanbieter bereits in der Konzeptphase spätere Risiken vermeiden und Security und Privacy by Design Prinzipien einhalten. Für eine nachhaltige Durchsetzung von Smart Home Systemen ist dies ein essenzieller Faktor. Mithilfe neuer Technologien wie Blockchain könnten traditionelle Sicherheitsprobleme im IoT obsolet werden, konkrete Anwendungsfälle dafür befinden sich noch im Forschungsstadium.
Das Darknet, von vielen auch als das „böse Internet“ bezeichnet, bringt aufgrund seiner mysteriösen Natur viele Fragen mit sich. Es handelt sich um einen Teil des Deep Webs mit der besonderen Eigenschaft, dass Links im Darknet von keiner Search Engine indiziert werden können. Dieses Netzwerk besitzt jedoch weitere interessante Eigenschaften. Der Grad an Anonymität, welcher Darknet-Nutzern ermöglicht wird, ist im Laufe der Zeit charakteristisch für das Darknet geworden und damit auch zu seinem größten Vorteil geworden. Die Chancen, welche mit dem hohen Anonymisierungsgrad verknüpft sind, bringen ein breites Spektrum an Handlungsmöglichkeiten mit sich. Der Handel besitzt eine dominante Rolle im Darknet. Nicht nur diverse Drogen, sondern auch Fälschungen von persönlichen Dokumenten, schädliche Malware oder Hacking-Anleitungen sowie Schusswaffen können im Darknet problemlos erworben werden. Auch Rohdaten in unterschiedlichster Ausprägung spielen eine wichtige Rolle in diesem Netzwerk. So werden zahlreiche Whistleblowing-Seiten zum Vertrieb von Informationen verwendet oder auch weitere Kanäle, wie zum Beispiel Foren. Darknet-Nutzer können solche Daten konsumieren ohne Angst vor Zensur zu haben, da diese im Darknet keine Anwendung findet. So wie das Darknet ursprünglich für die sichere Kommunikation des amerikanischen Militärs entwickelt wurde, wird es heutzutage - nicht mehr auf das Militär eingeschränkt - zum gleichen Zweck eingesetzt. Hierbei wird eine Vielfalt an attraktiven Kommunikationskanälen angeboten, welche die uneingeschränkte Konversation erst möglich machen. Solche Grenzenlosigkeit kann jedoch sehr schnell zu starken Änderungen in der Verhaltensweise beider Gesprächspartner führen. Versteckt hinter dem Gefühl unbeschränkter Anonymität können im Darknet die persönlichen Grenzen aufgebrochen werden und das Verhalten der Anwender dieses Netzwerks ändert sich. Nichtsdestotrotz bringen die Kontaktaufnahme und das Kennenlernen anderer Nutzer zahlreiche interessante Erfahrungen mit sich, der Aufenthalt im Darknet stellt ein attraktives, überwältigendes Erlebnis dar.
Zu Beginn eines Softwareprojekts stellt sich fast immer die Frage, welche Technologien dafür eingesetzt werden. Die Entscheidung über die Auswahl der Frameworks wird dabei oft nach Präferenz oder vorhandener Erfahrung der Entwickler*innen getroffen. Gerade bei wichtigen oder großen Projekten sollte die Auswahl der Frameworks rational anhand der gegebenen Projektanforderungen getroffen werden. Ziel dieser Masterarbeit ist es, zu bestimmen, ob die Auswahl der Frameworks durch ein systematisches Entscheidungsmodell unterstützt werden kann. Aus diesem Ziel wurde folgende Forschungsfrage gestellt: Kann mithilfe eines systematischen Entscheidungsmodells die Auswahl eines geeigneten Single-Page-Application-Frameworks im Bereich Web-Frontendentwicklung getroffen werden? Die Forschungsfrage wird dabei primär durch Literaturrecherche zur Entscheidungstheorie untersucht. Ferner wird anhand der Recherche ein Entscheidungsmodell entwickelt. Um die Forschungsfrage zu beantworten, wurden Single-Page-Application- (SPA)Frameworks recherchiert, gefiltert und anhand eines Kriterienkataloges bewertet, um sukzessive ein Entscheidungsmodell zu erarbeiten. Das entstandene Modell bietet die Möglichkeit, SPA-Frameworks anhand ihrer Eignung für individuelle an das Modell übergebene Projektanforderungen zu sortieren und ungeeignete Frameworks auszuscheiden. Die Bewertung der Frameworks erfolgte dabei mittels einer Bestandsaufnahme messbarer Fakten sowie durch den Vergleich der Frameworks anhand eines erstellten Prototyps bei nicht messbaren Kriterien. Für die Validierung des erstellten Modells wurde unter Personen aus der Softwareentwicklungsbranche eine Umfrage durchgeführt, bei der die Teilnehmer*innen die Frameworks bewerten konnten. Anschließend wurde mit der Bewertung der Umfrageergebnisse ein neues Modell erstellt und dieses anhand fiktiver Projektanforderungen mit dem ursprünglich erstellten Modell verglichen. Dabei wurde dasselbe Ergebnis erzielt und somit das Modell validiert. Die vorliegenden Ergebnisse zeigen, dass ein Entscheidungsmodell die Auswahl eines Frameworks ermöglicht oder als Entscheidungsgrundlage dienen kann. Voraussetzung dafür ist die objektive Bewertung der Frameworks sowie der individuellen Projektanforderungen.
Die Wirtschaftsinformatik betrachtet Informationssysteme als komplexe soziotechnische Systeme, in denen Mensch und Informationstechnik zur Erledigung einer Aufgabe zusammenwirken. Jedoch verursacht der Einsatz von Informationstechnik unerwartete Sekundäreffekte im menschlich-sozialen Bereich des Systems, die die wissenschaftliche Literatur bisher kaum behandelt. Aus diesem Grund versucht diese Masterarbeit in diesem Bereich einen Beitrag zu leisten, indem die langfristigen Auswirkungen des Einsatzes von Informationssystemen auf das Fundament des sozialen Subsystems, die Unternehmenskultur, untersucht werden. Zu diesem Zweck wurde eine explorative Einzelfallstudie in einer Organisation des öffentlichen Dienstes, in der in den letzten fünfzehn Jahren die Informationsinfrastruktur laufend erweitert wurde, durchgeführt. Eine solche Organisation wurde gewählt, da der Literatur entsprechend von einer ausgeprägten Unternehmenskultur im öffentlichen Dienst auszugehen ist. Ziel der Studie war es, jene Kulturdimensionen, auf die sich der Einsatz von Informationssystemen auswirkt, zu identifizieren und konkrete Auswirkungen sowie einige relevante moderierende Effekte in diesen Dimensionen zu bestimmen. So wurde als Vorbereitung zur empirischen Untersuchung ein weitreichender theoretischer Bezugsrahmen auf Basis der Systemtheorie, des soziotechnischen Designansatzes sowie wissenschaftlicher Literatur aus der Kultur- und Informationssystemforschung entwickelt. Diesem Bezugsrahmen entsprechend wurden 15 qualitative Experteninterviews mit Führungskräften, einem Personalvertreter und einem IT-Administrator abgehalten, in denen Daten zu 16 verschiedenen Kulturdimensionen erhoben wurde. Diese Daten wurden anschließend mit einer qualitativen Inhaltsanalyse, die durch den Einsatz einer Analysesoftware unterstützt wurde, ausgewertet. Die Ergebnisse zeigen, dass sich der Einsatz von Informationssystemen vor allem in den Kulturdimensionen Kommunikation, Qualifikationsanforderungen an die Mitarbeiter, Einbindung der Mitarbeiter, Umgang mit Zeit und Kontrolle auswirkt. Beispielsweise hat die Veränderung im Kommunikationsverhalten zu einem Verlust von impliziter sozialer Hintergrundinformation bei den Führungskräften geführt, was wiederum deren Führungsarbeit erheblich beeinträchtigt. Zudem hat sich in der Organisation eine ungewöhnlich offene Informationskultur entwickelt, die das Informationsaufkommen deutlich erhöht und die Bediensteten zum gleichzeitigen Erledigen mehrerer Aufgaben drängt. Insgesamt konnten in dieser explorativen Studie, die durch intensive Literaturarbeit unterstützt wurde, 56 Hypothesen erarbeitet werden. Diese bilden eine solide Basis für weitere Forschungsschritte mit dem Ziel, unbeabsichtigte soziokulturelle Auswirkungen in der praktischen Entwicklung von Informationssystemen zu verhindern.
The importance of stainless and special steel products has increased substantially in recent decades, as their use has shifted from niche special applications to widespread popular function. Clearly, the vacuum oxygen decarburization (VOD) process plays a major role in stainless steel production. In order to achieve extremely low carbon ratios in the presence of high chromium content, oxygen is blown under reduced pressure conditions. Despite the well-known determination of the required amount of oxygen, the operation practice itself seems to vary in the field. This gives rise to the question of the existence of a consistent optimized control strategy. The present master’s thesis addresses the existing optimization problem by using a multiple-validated VOD process simulation model. As a first step, the optimization problem is defined by the examination of the existing model. Thus, the process model flow is step by step transformed into mathematical terms. Subsequently, a variable study is carried out evaluating the influences of the oxygen blowing rate, stirring gas rate and the system pressure on the result of the model. Based on the findings, an optimization algorithm is then implemented to generate enhanced control strategies with respect to the given optimization criterion: minimize chromium oxidation. Finally, the results are demonstrated by simulations and tests of generated control strategies with the existing model. These tests clearly show an improvement regarding the optimization criterion. Moreover, the results demonstrate numerically and visually, that the newly developed algorithm generates enhanced control strategies.
Many areas of human activity demand high availability (HA) for the services provided by information technology (IT), including supply chain and especially logistics services as its backbone. Logistics automation has already been tightly linked with IT for some time now. Eventually, it is expected to reach a tipping point of digitalization under the Logistics 4.0 concept. Such anticipated convergence provided a basis for the thesis research. It was possible to apply time-proven approaches originally used in IT to produce a tailored and cost-effective HA solution for an ITenabled logistics system in order to minimize costly downtime. A multi-layer architectural pattern was adopted to focus the research on the opportunities to improve HA provided by innovative open-source software. “State-of-the-art” approaches, best practices, and challenges to attaining availability are covered in the course of the thesis. The case study was based on the efforts of a Styrian solution provider for intralogistics systems to improve and standardize HA solution for their software products and services. Mandatory HA requirements to ensure business continuity were used to outline a reference architecture for a generic HA solution by means of HA cluster for a logistics system. A prototype testbed, based on the relevant stack of technologies, validated and evaluated the proposed reference HA architecture. The findings of this thesis demonstrate the feasibility of the idea to build a cost-optimized clusterbased HA solution using commercial off-the-shelf hardware and free open-source software which can deliver an improved level of availability for a modern logistics system.
In den letzten zwei Jahrzehnten hat die Digitalisierung nahezu jeden Bereich des täglichen Lebens erreicht und den gesamten Ansatz der Technologieintegration verändert. Prozesse in der Pharmaindustrie profitieren von den Vorteilen von eHealth (engl. electronic health), indem sie durch die Nutzung digitaler Synergien effizienter und kostengünstiger eingesetzt werden können. Trotz fortschreitender Digitalisierung gibt es weiterhin papierbasierte Verfahren, die durch die Migration in einen elektronischen Prozess produktiver werden können. Das Ziel dieser Masterarbeit ist es aufzuzeigen, wie ein auf Papierformularen basierender Prozess unter Einhaltung aller gesundheitsbezogenen Anforderungen und Vorschriften durch die Digitalisierung verbessert werden kann. BioLife Plasmazentrum ist ein Pharmaunternehmen, das Plasmapherese zur Gewinnung von menschlichem Blutplasma für die High-Tech-Arzneimittelherstellung anbietet. Zunächst wurden alle geltenden regulatorischen Anforderungen des Unternehmens und der Arzneimittelbranche bezüglich Formularen evaluiert. Neben den wesentlichen Anforderungen wurden die technischen Spezifikationen, sowie mögliche Vorteile einer Softwarelösung anstelle der Papierform analysiert. Im praktischen Teil dieser Arbeit wurde ein Prototyp der grafischen Benutzeroberfläche für ein Touchscreen-Gerät programmiert. In der Entwicklungsphase wurde durch den Einfluss von Funktion, Design und intuitiver Handhabung die Priorisierung auf die User Experience sichergestellt. Aufgrund der überzeugenden Ergebnisse mit dem digitalisierten Formular wird der Einsatz von Touchscreen-Geräten mit einem Graphical User Interface empfohlen. Das in der Abschlussarbeit gesammelte Know-how kann für weitere Digitalisierungsprojekte genutzt werden.
Erstellung einer bedarfsorientierten Datenbanklösung zur Asset-Verwaltung im Life Cycle Management
(2021)
Jeder Betreiber einer kritischen Infrastruktur muss gemäß der europäischen Richtlinie zur Netz- und Informationssicherheit (NIS) sicherstellen, dass alle Anlagen stets auf dem neuesten Stand der Technik sind. Die Dürr Austria GmbH erfüllt und befolgt die NIS-Richtlinie für ihren Auftraggeber, der für die kritische Infrastruktur von Tunneln in Österreich verantwortlich ist. Die Verwaltung aller in einem Tunnel verbauten Assets ist umfangreich und eine lückenlose Dokumentation sämtlicher sicherheitsrelevanten Maßnahmen ist essenziell. Ziel dieser Masterarbeit war es, eine geeignete und individuelle Datenbanklösung zur Verwaltung dieser Assets zu entwickeln. Basierend auf umfangreichen Recherchen zu Asset-Management, Datenmanagement und möglichen Datenbanklösungen, wurde die optimale Lösung für das Unternehmen ermittelt und ein User Interface Mock-up des Prototyps, unter Berücksichtigung der Vorgaben für die Visualisierung, erstellt. Dieser Prototyp veranschaulicht die grafische Benutzeroberfläche der zukünftigen Datenbank und demonstriert ihre Funktionalitäten. Die Ergebnisse zeigen, dass der Ansatz praktisch anwendbar und umsetzbar ist und die Implementierung der Datenbank im Unternehmen möglich ist. Basierend auf allen Ergebnissen dieser Masterarbeit wird die Datenbank in naher Zukunft programmiert und im Unternehmen eingeführt.
Das Unternehmen IGT Austria GmbH entwickelt vorwiegend Softwarelösungen für Glücksspielautomaten in regulierten Märkten weltweit. In einigen dieser Märkte spielt konventionelle Münzverarbeitung eine zentrale Rolle. Somit ist es im Rahmen von Softwareentwicklungsprozessen unumgänglich Tests in Verbindung mit dem automatisierten Münzverarbeitungssystem durchzuführen. Schwierigkeiten ergeben sich in diesem Kontext vor allem in Anbetracht der länderspezifischen Währungen, weil es an Testmünzen oder passenden Bezahlsystemkomponenten fehlt. Die vorliegende Masterarbeit befasst sich daher mit der Systementwicklung eines Emulators, der die grundsätzliche Funktionsweise realer Komponenten des Münzverarbeitungssystems nachbildet. In dieser Intention wird zunächst das Gesamtsystem der automatisierten Münzverarbeitung sowie die Funktionsweise und Interaktion der Einzelkomponenten analysiert. Unter Berücksichtigung der Grundsätze und Methodiken des Requirements-Engineering werden anschließend konkrete Anforderungen an den zu entwickelnden Emulator ermittelt und dokumentiert. Die Anforderungsspezifikation dient als Ausgangspunkt für konzeptuelle Überlegungen in Bezug auf die Umsetzung. Resultierend aus diesen Überlegungen wird eine geeignete Zielplattform definiert sowie eine Softwarearchitektur entworfen, die durch Erweiterbarkeit und Wartungsfreundlichkeit überzeugt. Nach anschließender Implementierung der Architektur auf Basis plattformübergreifender Entwicklungsansätze, wird der finale Prototyp des Emulators unterschiedlichen Funktionstests unterzogen und evaluiert. Die Tests haben gezeigt, dass der Prototyp funktioniert und die grundlegenden Funktionen erfüllt, allerdings noch weitere Evaluierungen in Richtung Plattform-Abhängigkeit der Software durchzuführen sind.
In zukunftsgerichteten Klein- und Mittelunternehmen in Österreich spielt das Thema Digitalisierung eine große Rolle. Die Digitalisierung wird als Wandel von Technologien, Prozessen und Arbeitsweisen sowie als Vernetzung von Dingen und Menschen gesehen. Dieser Wandel spiegelt sich in der Weiterentwicklung und der fortschreitenden Schnelligkeit wider. In österreichischen Klein- und Mittelunternehmen (KMU) besteht in Bezug auf den Digitalisierungsgrad noch Aufholbedarf, auch in jenen der IT-Dienstleistungsbranche. Im Unternehmensbereich Betrieb und Tätigkeiten, zu dem auch das Taskmanagement gezählt werden kann, ist die Digitalisierung am wenigsten fortgeschritten. Das Taskmanagement beinhaltet die Erfassung, Verwaltung und Steuerung aller Aufgaben eines Unternehmens. Im Digitalisierungszeitalter ist das Ziel, das Taskmanagement mithilfe von elektronischen und Online-Tools zu realisieren. Die Einführung eines solchen Systems stellt ein Unternehmen vor zahlreiche Herausforderungen. Ziel der vorliegenden Forschungsarbeit war es, Handlungsempfehlungen für die Einführung eines Taskmanagementsystems zu erarbeiten. Diese Handlungsempfehlungen sollen KMU der IT-Dienstleistungsbranche bei der Einführung eines solchen Systems unterstützen. Um die Anforderungen, die in der Praxis bestehen, bestmöglich analysieren zu können, wurde die Methodik einer qualitativen Fallstudie in einem ausgewählten KMU der IT-Dienstleistungsbranche angewandt. Der Gegenstand der Fallstudie war die Einführung eines Taskmanagementsystems in den laufenden Betrieb. Aus den gewonnenen Erkenntnissen im Rahmen der Fallstudie konnte abgeleitet werden, dass sich die Handlungsempfehlungen vor allem auf die Bereiche Mitarbeiterinnen und Mitarbeiter, Führungsstile, Prozesse und Schulung beziehen. Die Ergebnisse zeigen, dass nur eine Kombination aus technischer und Managementsicht zu einem erfolgreichen Aufgabenmanagement führen kann und dass eine einseitige Betrachtung nicht sinnvoll ist. Es ist empfehlenswert, die betroffenen Personen möglichst früh in den Projektverlauf miteinzubeziehen, um die unterschiedlichen Führungsstile und Bedürfnisse der verschiedenen Unternehmensbereiche bestmöglich in die Anforderungsdefinition mit aufnehmen zu können. Weiters ist es ratsam, bei der Einführung eines Taskmanagementsystems der Anpassung der Unternehmensprozesse und der regelmäßigen Schulung einen großen Stellenwert beizumessen. Durch dieses Zusammenspiel unter Berücksichtigung der technischen Anforderungen des Digitalisierungsprozesses kann ein funktionierendes Taskmanagement in einem KMU der IT-Dienstleistungsbranche etabliert werden.
Um den steigenden Bedarf an IT-ExpertInnen, welcher durch die Digitalisierung von Geschäftsprozessen verstärkt auch in Unternehmen zum Tragen kommt, deren Kerngeschäft nicht im Bereich IT oder Softwareentwicklung liegt, entgegenzuwirken, setzt die ANDRITZ Gruppe seit 2018 Mendix als Low-Code bzw. No-Code Plattform ein. Durch den Einsatz solcher Plattformen, mit denen Softwarelösungen von nicht IT-Experten direkt in der Fachabteilung umgesetzt werden können, ergeben sich jedoch neue Herausforderungen betreffend der Zusammenarbeit zwischen IT- und Fachabteilung. Ziel dieser Arbeit ist es daher, Strukturen zur modellgetriebenen Softwareentwicklung in einem international verteilten Team, bestehend aus IT-ExpertInnen und MitarbeiterInnen der Fachabteilungen, zu etablieren, um Softwareprojekte effektiv über Abteilungsgrenzen hinweg umzusetzen. Dazu wurden anhand einer Literaturrecherche entlang des Software-Lebenszyklus Einflussfaktoren identifiziert, welche die effektive Zusammenarbeit in einem dezentralen Team beeinflussen können. Um diesen Faktoren je nach Projektsituation individuell begegnen zu können, wurde ein eigener Servicebereich innerhalb der ANDRITZ IT etabliert welche sämtlichen Tätigkeiten rund um das Thema Rapid Application Development (RAD) steuert. Kern dieses Servicebereichs ist ein Center of Excellence (CoE), welches die zentrale Steuerungs- und Koordinationsaufgabe übernimmt und je nach Projekt entscheidet, welche Umsetzungsmethoden, Werkzeuge und Rollen für eine erfolgreiche Umsetzung benötigt werden. Nach einer Einführung in die für diese Arbeit relevanten Theorietischen Grundlagen wird das ANDRITZ RAD CoE und dessen Aufgaben detailliert beschrieben. Im empirischen Teil dieser Arbeit wird der Einsatz des CoE an einem real durchgeführten Projekt innerhalb der ANDRITZ Gruppe getestet und anschließend mittels ExpertInneninterviews eruiert, ob sich die entwickelte Vorgehensweise für den praktischen Einsatz eignet oder ob Anpassungen durchgeführt werden müssen.
Das Ziel dieser Masterarbeit ist es, das Grundkonzept eines Smart Homes anhand eines konkreten Beispiels zu erstellen und das ganze System auf einem Raspberry Pi zu implementieren. Ein Smart Home kann basierend auf mehreren Kommunikationsprotokollen erstellt werden. Die Masterarbeit hat gezeigt, dass ZigBee, welches im Jahr 2002 entwickelt wurde, eines der geeignetsten Kommunikationsprotokolle für Smart Homes ist. Ein ZigBee-Netzwerk erfordert die Verwendung eines zentralen Koordinators zur Steuerung des gesamten Netzwerks. Eine der Einschränkungen eines ZigBee-Netzwerks besteht darin, dass jedes Gerät nur mit dem von dem Hersteller unterstützten Koordinator arbeiten kann. Mit dem CC2531 USB-Stick und der Software Zigbee2MQTT, die von Texas Instruments entwickelt wurde, kann ein eigener Koordinator erstellt werden, mit welchem jedes Gerät, welches von der Software unterstützt wird, verbunden werden kann. Die Verwaltung eines Smart Homes ist über Hausautomationsplattformen möglich. Das Projekt der Masterarbeit konzentriert sich auf die zwei Plattformen, Domoticz und Home Assistant, die von der Zigbee2MQTT-Software unterstützt werden. Im Rahmen dieser Arbeit werden der Installationsprozess beider Plattformen und der Betrieb des Systems am Beispiel von vier ausgewählten ZigBee-Geräten demonstriert.
Mit der immer größer werdenden Abhängigkeit von der Nutzung des Webs – sei es mittels Smartphones, Tablets oder Laptops – steigt folglich auch die Bedeutsamkeit von Web-Applikationen immer mehr an. Aufgrund dieser steigenden Popularität vervielfachte sich parallel zu dieser Entwicklung auch die Anzahl an Frameworks für diverse Programmiersprachen, welche im Zusammenhang mit Web-Applikationen genutzt werden. Um das passende Framework zu finden, gibt es kritische und objektive Kriterien wie Sicherheit, Wartbarkeit, Performance oder „Time to Market“, die ebenso zu beachten sind wie die Zukunftssicherheit und die Modernität der gewählten Frameworks. Durch die Vielzahl an unterschiedlichen Frameworks wird es immer komplexer, schwieriger sowie zeitintensiver, die richtige Wahl zu treffen. Um diese Wahl zu vereinfachen, werden in dieser Arbeit Technologien aus den einzelnen Layern miteinander kombiniert, evaluiert und auf deren Zusammenspiel hin untersucht und bewertet. Weiters wird es zu einer Verbindung zwischen Theorie und Praxis kommen, indem in diesem Arbeitsschritt die im Theorieteil gewonnen Evaluierungskriterien herangezogen und mit der Praxis in Verbindung gesetzt werden.
Die Anforderungen an die moderne Softwareentwicklung sind hoch. Softwareunternehmungen stehen angesichts einer fast schon unübersichtlich großen Anzahl an Methoden und Entwicklungswerkzeugen vor der Herausforderung, die für ihre Anforderungen und Abläufe idealen Prozesse und Werkzeuge zu wählen. Diese Wahl ist essentiell, um die richtige Nische am Markt effizient und langfristig zu bedienen sowie auf Änderungen noch schneller reagieren zu können. Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung von Metriken, um Softwaretestverfahren miteinander vergleichbar zu machen. Ausgehend von der Literatur werden verschiedene Testverfahren beschrieben, analysiert und auf das Vorhandensein von Klassifizierungs- und Kategorisierungsmerkmalen für das Erstellen der Metriken überprüft. Durch die Kombination von Literaturrecherche und ExpertInneninterviews werden diese Ergebnisse Schritt für Schritt verfeinert. Im Anschluss wird eine Bewertungsmatrix erstellt und mit konkreten Werten auf Basis des ExpertInnenwissens angereichert. Diese Masterarbeit legt den Grundstein für weitere Untersuchungen in EntwicklerInnenteams, um dort das Delta zwischen dem Ist-Stand und dem Soll-Stand bei der Verwendung der aktuellen Softwaretests zu ermitteln. Die sich daraus ergebenden Optimierungspotenziale können untersucht und in den jeweiligen Teams umgesetzt werden. Das Feedback der Teams bei der Umsetzung der Optimierungen ist ein weiterer möglicher Untersuchungsgegenstand. Somit ist klar ersichtlich, dass der Vergleich von Testverfahren einen akademischen, aber auch stark praxisorientierten Anwendungsfall darstellt.
This master’s thesis is about post-quantum cryptography. Therefore, it shows how quantum computers differ from traditional computers, what kind of quantum computers do exist, and what strengths they have. But the focus lies on the threat to information security. For this purpose, the paper shows how traditional cryptographic algorithms work and how vulnerable they are against quantum computers. The paper also shows the possible alternatives. This field is called post-quantum cryptography, and these algorithms are resistant against traditional computers and also against quantum computers. In this paper, expert interviews illustrated an outline of the threat and where it is mandatory to react. At least the results are applied to an IT system in the health sector, and it is analyzed how vulnerable it would be against quantum computers.
Da immer mehr Geräte und Benutzer Zugang zum Internet bekommen, muss die Sicherheit von Web Applikationen immer mehr im Blick behalten werden. Besonders bei Authentifizierungsmechanismen steigen die Anforderungen enorm. Passwörter gelten schon länger als unsicher, um ein Benutzerkonto vor unbefugtem Zugriff zu schützen. Die in dieser Arbeit behandelte Spezifikation soll dabei Abhilfe schaffen. Bei dieser Spezifikation handelt es sich um die WebAuthn Spezifikation, welche von der FIDO Alliance entwickelt wurde. WebAuthn wird im Zuge dieser Arbeit auf Schwachstellen von derzeit gängigen Authentifizierungsmechanismen untersucht. Diese bedient sich bewährten kryptografischen Methoden, um Sicherheit für die Authentifizierung zu gewährleiten. Zur Verifizierung eines Authentifizierungsvorganges wird asymmetrische Kryptografie eingesetzt. WebAuthn benötigt Authentifikatoren, um diesen Vorgang durchführen zu können. Diese können FIDO2-zertifizierte Smartphones, Security Token oder biometrische Authentifikatoren sein. Bei der Registrierung einer Benutzerin oder eines Benutzers wird von Authentifikator und Server ein Schlüsselpaar, bestehend aus privatem und öffentlichem Schlüssel, generiert und die öffentlichen Schlüssel zwischen ihnen ausgetauscht. Nun ist es dem Client möglich, sich am Zielsystem mithilfe des registrierten Authentifikators anzumelden. Um Benutzerinnen und Benutzern sowie Entwicklerinnen und Entwicklern zu zeigen, welche Vor- und Nachteile WebAuthn gegenüber herkömmlicher Authentifizierung bietet, wurden bekannte Angriffe recherchiert und auf die WebAuthn Spezifikation ausgeführt. Attacken, welche darauf ausgeführt werden, beinhalten Angriffe, um an Zugangsdaten von Benutzerinnen oder Benutzern zu kommen, Angriffe, welche auf die Übernahme einer Sitzung des Clients abzielen, Angriffe welche nicht technischer Natur sind und Angriffe auf die Authentifikatoren.
Die moderne IT-Welt befindet sich in einem Wandel. Während diverse Branchen in den letzten Jahren ihre Softwaresysteme von On-Premise Lösungen zu Cloud-basierten Systemen umgestellt haben, ist dieser Trend an vielen Herstellerinnen und Herstellern von SCADA Systemen vorbeigegangen. „Supervisory Control and Data Aquisation“ Systeme werden für Überwachung und Steuerung der Automatisierungsprozesse in verschiedensten Bereichen eingesetzt. Aufgrund der speziellen Anforderungen betreffend Software nahe der Prozessumgebungen, können Standardlösungen hier nicht in jedem Fall eingesetzt werden. Der Erfolg von Unternehmen hängt oft, besonders bei Produktionsprozessen, mit dem reibungslosen Ablauf dieser Systeme zusammen. Es liegt daher im Sinn der Sache, die Systeme bestmöglich von externen Einflüssen (z.B. Ausfall der Internetkonnektivität) zu schützen. Die Systeme arbeiten in Steuerungsebenen der Automatisierung und befinden sich meist in dedizierter Infrastruktur. Oft sind diese von der restlichen IT- Landschaft abgeschottet und werden selten bis gar nicht mit Updates oder Wartungen versehen. Gegenteiliges zeigt sich bei modernen Softwaresystemen der Gegenwart: Ständig werden Verbesserungen am Verhalten, neue Funktionen und Qualitätssteigerungen der Software in kurzen Releasezyklen entwickelt. Obwohl dieses Paradigma viele Vorteile für moderne Entwicklungsprozesse bringt, ist es nicht ohne Weiteres auf automatisierungsnahe Software anwendbar. In die IT-Welt ist mit der Frage konfrontiert, ob SCADA Systeme weiterhin auf traditionelle Art und Weise betrieben werden sollen oder in Zukunft die Vorteile von Cloud-Computing auch für SCADA Software benutzt werden kann. In dieser Masterarbeit wird empirisch erforscht, welche Anforderungen an SCADA Systeme gestellt werden. Diese Anforderungen werden in einer Fallstudie mittels Überarbeitung eines bestehendes SCADA Systems umgesetzt. Es soll verdeutlicht werden, dass SCADA Systeme durch Nutzung von Cloud-Services profitieren können.
Thema der vorliegenden Masterarbeit ist die Betrachtung von Aspekten der Informationssicherheit beim Einsatz von Geräten aus dem Kontext des Internet of Things (IoT) in Unternehmensnetzwerken. Medienberichte und Analysen der letzten Jahre deuten auf frappierende Sicherheitslücken in IoT-Geräten und damit einer, durch die unabhängig davon zunehmende Bedrohungslage im Internet verschärften, Gefährdung der Sicherheit hin. Eine Frage, die sich dabei stellt, ist, ob vorhandene Sicherheitskonzepte für den Einsatz von IoT-Geräten ausreichend sind. Um dies zu beantworten war es notwendig, eine für die Arbeit gültige Definition des sehr abstrakten Begriffs "IoT" zu entwickeln und mögliche Anwendungsbereiche in Unternehmensnetzwerken aufzuzeigen. Darauf folgt eine Beschreibung der grundlegenden Aspekte der Informationssicherheit (Vertraulichkeit, Integrität und Verfügbarkeit) und eine Analyse von Bedrohungen und Angriffen auf Netzwerke. Ausgehend von diesen Erkenntnissen wurde ein Sicherheitskonzept zusammengestellt, welches heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit in Unternehmensnetzwerken beinhaltet. Um ein Konzept unter Berücksichtigung des Einsatzes von IoT-Geräten entwickeln und mit derzeitigen Maßnahmen zu vergleichen, wurden IoT-spezifische Rahmenbedingungen und Angriffe beschrieben. Dabei zeigen sich vor allem Einschränkungen hinsichtlich technischer Ressourcen, Anforderungen an die Skalierbarkeit von Lösungen sowie eigene Angriffsszenarien. Unter Zuhilfenahme von Standards zur Sicherstellung von Informationssicherheit wurde davon ausgehend ein Katalog von erkannten IoT-bezogenen Risiken zusammengestellt. Darauf basiert das vorgeschlagene, verbesserte Modell, welches organisatorische, applikationsbezogene und technische Maßnahmen zur Behandlung dieser Risiken beinhaltet. Dabei zeigt sich, dass nur Teile davon überhaupt durch Weiterentwicklung bestehender Sicherheitsmaßnahmen realisiert werden können, einige Ansätze jedoch neuartig sind und eine Veränderung der Sicherheitsarchitektur in einem Unternehmen notwendig wird. In der Praxis werden dabei insbesondere Mechanismen zur Authentifizierung, Autorisierung und der Sicherstellung des Datenschutzes zur Herausforderung, da dazu derzeit keine universell realisierbaren Konzepte vorliegen. Entsprechend dieser Erkenntnisse ist davon auszugehen, dass heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit nicht ausreichend für einen IoT-Anwendungsfall sind.
Eine Vielzahl an Softwareunternehmen hat sich in den letzten Jahren dem Thema Testautomatisierung gewidmet. Software-Tests auf Basis des User Interfaces bauen auf unterschiedliche Objekterkennungs-Technologien auf, beispielsweise die Identifikation über ID’s der HTML-Elemente oder der grafischen Bilderkennung. Besonders beim Testen moderner Webanwendungen ist Automatisierung naheliegend, denkt man an die Darstellung von Responsive Designs auf unterschiedlichen Bildschirmgrößen und Browsern. Um festzustellen, wie sich die unterschiedlichen Technologien der UI-Objekterkennung auf die Stabilität automatisierter Tests auswirken, wurde anhand praktischer Beispiele die Identifikation unterschiedlicher Elemente näher betrachtet. Aufbauend auf eine Literatur- und OnlineRecherche wurden UI-Objekterkennungs-Technologien vorgestellt und diskutiert sowie Faktoren zur Beurteilung der Stabilität aufgeschlüsselt. Unterschiedliche Vorgehensweisen zur Aufzeichnung der UI-Objekte wurden beschrieben und gegenübergestellt. Die Evaluierung verschiedener Technologien der UI-Objekterkennung verdeutlichte die Unterschiede in der Art der Aufzeichnung unterschiedlicher Elemente. Während die Identifikation der UI-Objekte über XPath durch eine Gewichtung der Pfad-Komponenten gesteuert werden kann, ist besonders der Einsatz von Image Recognition initial mit viel manuellem Aufwand bei der Aufzeichnung der Elemente verbunden. Jedoch sind Technologien wie OCR oder Image Recognition vermehrt für Spezialfälle einzusetzen, wenn etwa durch technische Einschränkungen nicht über ID oder XPath auf UI-Objekte zugegriffen werden kann. Zwar erwähnen immer mehr Hersteller von Testautomatisierungs-Tools Begriff Aritificial Intelligence im Kontext der UI-Objekterkennung, jedoch ist auch heute noch die Durchführung manueller Schritte für die Wartung der automatisierten Tests notwendig. Daher kann die Verantwortung über die Erstellung einfach zu wartender Tests zum aktuellen Zeitpunkt noch nicht an die jeweiligen Tools abgegeben werden, sondern verlangt noch immer Fachwissen und die strukturierte Vorgehensweise erfahrener Anwender. Dennoch bietet die Aussicht auf hybride Lösungen, die sich künstlicher Intelligenz bedienen, eine vielversprechende Zukunft im Bereich der Software-Testautomatisierung.
IOT & IPV6
(2018)
Das Internet ist seit seiner Entwicklung stetig gewachsen. Durch das Aufkommen neuer Technologien stieg die Zahl der über dieses weltweit verbreitete Netzwerk kommunizierenden Endgeräte immer weiter an. Besonders das wachsende Interesse von Unternehmen ihre Systeme miteinander zu vernetzen führt dazu, dass die zu Verfügung stehende Menge freier IP-Adressen immer geringer wird. Durch den Einzug von IoT-Geräten in privaten Bereichen, welcher den Verzehr von IP-Adressen beschleunigt ist es nur noch eine Frage der Zeit bis das bestehende IPv4 flächendeckend seinem von seinem Nachfolgeprotokoll IPv6 ersetzt wird. Durch diesen Wandel steigt zwar die Anzahl der theoretisch, zu Verfügung stehenden IPAdressen auf circa 340 Sextillionen an, jedoch entstehen durch die von IPv6 genutzten Mechanismen und eingesetzten Protokolle auch neue Angriffsvektoren welche im Besonderen IoT-Geräte zu potentiellen Angriffszielen von Hackern werden lassen können. Auf Grund ihrer eingeschränkten Ressourcen und oft unzureichenden Versorgung mit sicherheitsrelevanten Softwareupdates durch die Hersteller oder die Endnutzer können IoT-Geräte sehr schnell zu einer ernstzunehmenden Gefahr für IPv6-Netzwerke werden. Dabei zeigt sich, dass der primäre Fokus im Besonderen auf die Absicherung der Grenzen des Netzwerkes gerichtet sein muss. In dieser Arbeit wird auf Basis von Analysen des IPv6-Protokolles und den Merkmalen und Spezifikationen gängiger IoT-Gerät ein einfaches Framework entwickelt welches sich an die besonderen Sicherheitsanforderungen von IoT-Geräten in IPv6-Netzwerken gerichtet ist. Das IPv6/Iot-Security Framework soll als Basis dienen um einen sicheren Einsatz von IoT-Geräten in sensiblen Netzwerken zu gewährleisten ohne dabei andere Elemente der Infrastruktur nachteilig zu beeinflussen.
In dieser Arbeit werden mögliche Anwendungen des vertraulichen Cloud Computing im Zusammenhang mit der Datenverarbeitung evaluiert. Dazu wird eine experimentelle Umgebung, in der vertrauliche homomorphe Verschlüsselung für verschiedene Szenarien angewendet und deren praktische Anwendbarkeit bewertet wird, geschaffen. Cloud Computing hat wirtschaftlich ein großes Potenzial. Insbesondere im Kontext der Anwendung von Cloud Computing im Zusammenhang mit der Verarbeitung sensibler Daten besteht jedoch keine Garantie für den Erhalt des Datenschutzes. Die Wahrung der Vertraulichkeit von persistierten Daten wird zumeist durch bewährte Verschlüsselungsmethoden gewährleistet. Vor der Durchführung von Berechnungen müssen diese jedoch in Klartext entschlüsselt werden. Die homomorphe Verschlüsselung bietet eine eingeschränkte Möglichkeit diese Berechnungen auch mit verschlüsselten Daten durchzuführen. Da sich dieses Forschungsgebiet in den letzten zehn Jahren stark entwickelt hat, gibt es noch relativ wenig Anhaltspunkte dafür, inwiefern die Verwendung homomorpher Verschlüsselung in realen Anwendungen praktikabel sein kann. In dieser Arbeit werden in einem ersten Schritt Szenarien erstellt, welche eine Verbindung zwischen den Potenzialen der Technologie und den kommerziellen sowie politischen Erwartungen herstellen. Im nächsten Schritt wird durch eine Evaluierung verschiedener homomorpher Verschlüsselungsbibliotheken beurteilt, welche kryptographische Basis für alle erforderlichen mathematischen Operationen der entworfenen Szenarien geeignet ist. Anschließend werden die entworfenen Szenarien implementiert und hinsichtlich ihrer Ergebnisqualität, ihrer Speicherauslastung und ihrer Laufzeit ausgewertet. Abhängig von der technischen Ausrichtung des Szenarios wird ein hohes oder niedriges Implementierungspotenzial für reale Anwendungen bestimmt. Die Ergebnisse sollten jedoch insbesondere im Hinblick auf den zugrunde liegenden Kontext interpretiert werden. In Zukunft gilt es weitere praxisnahe Szenarien zu entwerfen, zu implementieren und ausführlich zu testen, um die Grenzen und das Potenzial dieser Technologie besser einschätzen zu können.
Codequalität sowie deren Sicherung und Überprüfung sind wichtige Aspekte heutiger Softwareentwicklungsprozesse und werden von zahlreichen Experten aus Literatur und Praxis als essentieller Faktor für ein langfristiges Bestehen von Softwareprojekten angesehen. Um diese Theorie in der Praxis deduktiv zu prüfen, war es Ziel dieser Arbeit, tatsächliche Auswirkungen ausgewählter Maßnahmen zur Steigerung von Codequalität auf den Wartungs- und Folgeaufwand von Software zu untersuchen. Hierfür wurden zuerst wesentliche Aspekte von Software- und Codequalität explorativ, argumentativ-deduktiv analysiert. Als Ergebnis dieser Analyse wurden grundlegende Merkmale und Kriterien von Softwarequalität sowie Prinzipien, Standards, Methoden und Muster für eine strukturierte Verbesserung von Codequalität vorgestellt. Weiters wurden Metriken zur Messung und Bewertung von Sourcecode sowie Werkzeuge, welche Metriken und andere Aspekte von Codequalität messen, skizziert. Anschließend wurden im Zuge eines Experiments vier funktional idente Programmversionen unterschiedlicher Codequalität Entwicklern zur Bearbeitung vorgelegt und Ergebnisse sowie die benötigte Zeit erhoben und ausgewertet. Hierbei wurde allen Teilnehmern dieselbe Aufgabenstellung gegeben, welche das Beheben von Bugs und das Implementieren einer Erweiterung vorsah. Zudem wurden die Ergebnisse in Expertengesprächen auf Gültigkeit und Plausibilität geprüft. Das Ergebnis konnte – entgegen angenommener Erwartungen – keine eindeutigen Auswirkungen belegen, aber diese auch nicht ausschließen, da die erhaltenen Ergebnisse unter Berücksichtigung üblicher Streuung für alle Programmversionen auf einem ähnlichen Zeitniveau waren. Lediglich in der Qualität der Resultate gab es einige Unterschiede. Anschließende Expertengespräche und die Diskussion der Ergebnisse kamen zu dem Schluss, dass die beobachteten Resultate für die Größe der Untersuchung durchaus plausibel erscheinen, jedoch für beobachtbare Auswirkungen eine deutlich größere Untersuchung notwendig wäre.
Die Cloud ist ein Thema, das Unternehmen durch die Digitalisierung mehr betrifft denn je. Während sie im Privatleben bereits Einzug in den Alltag gefunden hat, benötigen die Unternehmen noch etwas Zeit. Speziell in Bezug auf ERP-Systeme, die die sensibelsten Daten des Unternehmens beinhalten, verwehren sie sich diesem Trend. Dies liegt vor allem an der Sicherheit der Cloud. In dieser Arbeit wird darum untersucht, welche konkreten Sicherheitsbedenken die Unternehmen haben, wenn es darum geht, ihr ERP-System in der Cloud zu betreiben, und wie diese vermindert werden können. Zur Datenerhebung wurden Personen aus der IT interviewt, worauf anschließend eine Liste von Bedenken aus ihren Aussagen erstellt wurde. Die Priorisierung ergab, dass eine performante Internetverbindung und das Vertrauen in den Cloud-Anbieter die größten Bedenken im Bereich der IT-Sicherheit auslösen. Durch die technologischen Möglichkeiten in der Cloud können diese Bedenken jedoch vermindert werden, indem beispielsweise ein entsprechendes Verfügbarkeitsmodell gewählt oder eine private Verbindung zum Cloud-Anbieter aufgebaut wird. Dennoch ist es nicht möglich, alle Bedenken auszuräumen, da ab einem gewissen Punkt kein Einblick in und kein Einfluss mehr auf die Funktionalität der Cloud vorgenommen werden kann. Dies zeigt, dass vor allem Vertrauen die Basis für den sicheren Betrieb des ERP-Systems in der Cloud ist. Mit der vorliegenden Arbeit soll den Unternehmen gezeigt werden, dass sich ihre Bedenken leicht vermindern lassen.
Diese Masterarbeit befasst sich mit den Themen „Business Intelligence“ und „Data Warehousing“ im Umfeld der Sozialwirtschaft in Österreich am Beispiel des Unternehmens Jugend am Werk Steiermark GmbH (JAW). Das Ziel der Arbeit ist die Erläuterung der Vorgangsweise zur Erstellung eines Data Warehouse in einer heterogenen Systemlandschaft, wie sie bei JAW existiert. Im Zuge der Arbeit werden die Fachbegriffe rund um diese Themen erläutert und die Besonderheiten eines Data Warehouse im Vergleich zu operativen Datenbankapplikationen aufgezeigt. Um die Daten von einer solchen operativen Applikation in ein Data Warehouse zu übertragen, wird ein so genannter Extract-Transform-Load-Prozess durchgeführt, mit dessen Merkmalen sich diese Arbeit ebenfalls beschäftigt. Darauf aufbauend werden die dafür technisch eingesetzten Werkzeuge analysiert sowie deren Begrifflichkeiten geklärt. Auch die gesetzlichen Rahmenbedingungen des Datenschutzes, die direkten Einfluss auf ein Data Warehouse haben, werden im Verlauf der Arbeit dargelegt. Die Regelungen des Datenschutzes widersprechen jedoch den grundlegenden Charakteristika eines Data Warehouse. Diese Konfliktsituation sowie ein möglicher Lösungsansatz werden ebenfalls diskutiert. Mithilfe des Wissens aus dieser Vorbereitung werden die Dienstleistungen des Unternehmens erfasst und deren Datenhaltung analysiert. Durch die Einteilung in strukturierte Datenbankapplikationen und unstrukturierte Dateien wird sichtbar, dass ein Data Warehouse nur mit sehr großem Aufwand tatsächlich sämtliche Unternehmensdaten beinhalten kann. Anschließend wird ein gemeinsames Datenmodell für diese Daten geschaffen, welches die Daten aus der heterogenen Applikationslandschaft beherbergen wird. Abschließend wird ein Prototyp erstellt, der den Weg der Implementierung sowie die Möglichkeiten eines Data Warehouse und der dazugehörigen Werkzeuge beschreibt.
Durch die Aufteilung eines Systems in eine Vielzahl kleine, autonom agierende Services versprechen Microservices viele Vorteile wie beispielsweise die Komplexität von Software-Systemen zu reduzieren sowie deren Flexibilität und Wartbarkeit zu erhöhen. Dabei sollen Services von selbstständigen, voneinander unabhängigen Teams entwickelt, bereitgestellt und betrieben werden, um schnell auf geänderte Anforderungen reagieren und einzelne Systemteile ohne Beeinträchtigung des Gesamtsystems ändern zu können. Dies ermöglicht in weiterer Folge die gesonderte Skalierung einzelner Teile eines Systems, um so die Verfügbarkeit gezielt erhöhen und Betriebskosten reduzieren zu können. Diese Arbeit führt eine kritische Betrachtung dieses Architekturansatzes durch und ermittelt, welche Voraussetzungen notwendig sind, um damit monolithische, webbasierte Systeme zu modernisieren oder zu erweitern. Aufbauend auf einer theoretischen Ausarbeitung, welche in die Grundlagen von Microservices-Architekturen einführt, Methoden zur Erweiterung und Modernisierung monolithischer Legacy-Systeme beschreibt sowie Wege zeigt, wie ein bestehendes System aufgeteilt werden kann, wird ein Fragebogen ausgearbeitet, um die Erwartungshaltung von Personen im Umfeld der Softwareentwicklung zu erheben. Die Untersuchung zeigte, dass Unternehmen ein großes Interesse und eine hohe Erwartungshaltung an diesen technologischen Ansatz haben, sich aber auch der damit einhergehenden Nachteile, wie unter anderem die Erhöhung der technischen Komplexität des Gesamtsystems oder den steigenden Anforderungen an Betrieb und Infrastruktur, bewusst sind. Weiters wurde festgestellt, dass sich dieses Architekturparadigma nicht für jedes Unternehmen eignet und in der Regel organisatorische Änderungen für deren Einführung notwendig sind. Abschließend wird eine Handlungsempfehlung präsentiert, die, unter Berücksichtigung der zuvor ermittelten Ergebnisse, Möglichkeiten aufzeigt, diesen Architekturansatz auf bestehende Systeme anzuwenden sowie notwendige Voraussetzungen veranschaulicht, welche eine Organisation für die Einführung von Microservices zu erfüllen hat.
Der Einsatz ARM-Prozessor-basierter Systeme ist in den letzten Jahren durch den Aufstieg der Smartphones, sowie dem aktuellen Trend zum Internet of Things rasant angestiegen. Viele Unternehmen arbeiten daran, etablierte Systeme durch stromsparendere Varianten mit ARMSoCs zu ersetzen. Das Ziel dieser Arbeit ist es, die aktuelle Einsetzbarkeit dieser Systeme anhand des Beispiels des Raspberry Pi 3 Model B in Verbindung mit der Microservices Architektur zu evaluieren. Zu diesem Zweck wird im ersten Teilbereich dieser Arbeit auf die Besonderheiten der eingesetzten Hardware und auf die technologischen Barrieren eingegangen, die den Einsatz in Unternehmen erschweren und wie diese überwunden werden können. Aufbauend auf der zuvor erarbeiteten Umgebung wird im darauf folgenden Abschnitt auf die Besonderheiten der Microservices Architektur eingegangen. Hierbei werden Wege aufgezeigt, wie der Einsatz dieser Architektur auch auf dem Raspberry Pi in einer sicheren und redundanten Weise geschehen kann. Der dritte Abschnitt beschäftigt sich mit der Erarbeitung eines Gesamtkonzepts und dessen prototypischer Umsetzung in Form des Hardwareaufbaus, der gewählten Softwareumgebung, sowie einer beispielhaften Dienstekomposition für den Einsatz in Unternehmen. Als Ergebnis dieser Arbeit wird ein Konzept vorgestellt, mit welchem es möglich ist, beispielhafte Prozesse in Unternehmen zu realisieren. Zur Demonstration der praktischen Umsetzbarkeit wird abschließend ein Prototyp gezeigt, welcher als Proof of Concept dient. Aufgrund des erfolgreichen Aufbaus dieses Konzepts wurde die Hypothese H1 bestätigt, beziehungsweise die Hypothese H0 widerlegt. Aufbauend auf den Erkenntnissen dieser Arbeit kann in einer folgenden Arbeit der Prototyp zu einer vollwertigen Lösung, die den praktischen Einsatz ermöglicht, ausgebaut werden. Weiters können ähnliche Bereiche analysiert und gefunden werden in welchen eine Verwendung von ARM-Prozessoren mit der heutigen Technik bereits praxistauglich möglich ist.
Sichere App Entwicklung
(2017)
Sicherheit in mobilen Applikationen ist ein wichtiger Punkt in der mobilen Softwareentwicklung. Diese Arbeit hat sich das Ziel gesetzt, bekannte Sicherheitsrisiken aufzuzeigen und welche Angriffsvektoren sich im speziellen für die mobilen Apps und die dazugehörigen Applikationsserver ergeben, darzustellen. Der Fokus liegt auf das Erarbeiten sicherer Frameworks und Designregeln, die zur Wahrung der IT-Sicherheit eingehalten werden sollen. Der erste Teil bietet einen Einblick in die sichere Applikationsentwicklung. Es wird gezeigt, dass sich Sicherheitsprobleme über die Jahre verändert haben und das neue Angriffsvektoren hinzugekommen sind. Zusätzlich werden aktuelle Sicherheitsrisiken und die Sicherheitsmodelle der verwendeten Plattformen behandelt. Es wird gezeigt, wie Applikationen gegen Angriffe geschützt werden können. Der zweite Teil widmet sich unterschiedlichen Übertragungsmöglichkeiten, Angriffsmöglichkeiten und Verteidigungsmöglichkeiten. Es geht hervor, wie eine mobile Applikation attackiert werden kann und wie Abwehrversuche aussehen können. Diese Themen werden mithilfe von Beispielen verständlich dargestellt. Im praktischen Kapitel wird anhand von Tests erörtert, wie wichtig grundlegende Sicherungen von mobilen Anwendungen sind. Sie weisen auch darauf hin, dass nicht jede Verteidigung einen vollständigen Schutz bietet, aber Angriffe verlangsamen können. In Verbindung mit der theoretischen Ausarbeitung und den Erkenntnissen der Tests entstanden Frameworks und dazugehörige Designregeln. Diese bieten Anfängerinnen und Anfänger eine Grundlage für die sichere Applikationsentwicklung und sie dienen als Checkliste für erfahrene Entwicklerinnen und Entwickler.
Öffentliches WLAN bringt einen erheblichen Mehrwert für moderne Städte weltweit. Obligatorisch für die Umsetzung eines solchen Projekts ist ein umfassendes Modell zur Konzeptionierung einer urbanen WLAN-Infrastruktur. Auf Basis der Analyse des öffentlichen WLANs der steirischen Landeshauptstadt Graz wurde ein Modell entwickelt, dass als Leitfaden für Provider weltweit dienen kann. Ein bereits aktives Providernetzwerk ist als Grundvorrausetzung für die Inbetriebnahme des WLAN-Systems anzusehen, denn die Beschreibung zur Implementierung eines solchen Netzwerks ist nicht Gegenstand dieser Forschung. Die notwendigen Informationen zur Generierung des Modells basieren auf den Erkenntnissen durchgeführter Experteninterviews und aktueller technischer Literatur aus dem theoretischen Teil dieser Arbeit. Die befragten Sachkundigen lassen sich in drei Gruppen unterteilen. Gruppe eins besteht aus spezialisierten Facharbeitern in den Gebieten NetzDesign, Netzplanung und -wartung, sowie dem Betrieb von skalierenden und sicheren Rechenzentren. Experten der Gruppe zwei verfügen über fundiertes Wissen aus den Bereichen Wirtschaft und Tourismus in großen Städten. Gegenstand des Interviews der Gruppe drei sind die Themen Vertriebsmöglichkeiten und Projektmanagement. Aus technischer Perspektive ist abzuleiten, dass die Nutzeranzahl des WLAN-Systems auch ohne marketingtechnische Interventionen steigt, wenn das Modell zur Konzeptionierung einer urbanen WLAN-Infrastruktur angewendet wird. Aufgrund höherer Kapazitäten können mehr WLAN-Teilnehmer den Service verwenden. Für weitere akademische Arbeiten ist die Gesetzeslage zum Betrieb von öffentlichem WLAN ein offenes Forschungsthema. Im Detail muss analysiert werden inwiefern das steirische Baurecht, in Bezug auf die Installation von WLAN-Equipment, zu erweitern ist.
The purpose of this thesis was to create a working prototype of a dynamic TFTP service for DOCSIS-compliant cable modem configuration files that can serve as a drop-in replacement for existing TFTP services while considerably improving the service‟s security and reducing the administrative effort required to create such configuration files. The goal was also to ensure that service does not impact legitimate clients and requires only minimal changes to the provisioning service flows and DHCP services. The paper first explains the components involved and examines an existing reference network and its inherent protocol-related weaknesses. The third chapter then focuses on creating a service blueprint for the dynamic TFTP service using the requirements derived from the examination, with the goal of remedying the detected weaknesses, as well as any weakness dictated by the reference network and those mandated by the ISO 27000. This chapter also defines the KPI and the scientific hypothesis. The next chapter deals with the design of the prototype (e.g. which language to use, how the prototype‟s code should work internally). Chapters five and six explain the code development, the test environment and the gathering of performance data to show how well the prototype performs when compared with the legacy solution. After gathering all the data, it was necessary to compare this to the previously defined requirements and KPI, as well as to the security clauses of the ISO 27000, which is done in chapter seven. The final chapter sums up the results from the previous chapters and presents an outlook for possible new functionality and how the service will most likely enter production service. The conclusion of this thesis is that it is indeed possible to create a dynamic TFTP service that fulfills all the requirements and reaches the necessary KPI values.
Hauptziel der vorliegenden Masterarbeit ist es, eine Kombination von Service-Engineering und Software-Engineering zu finden, die geeignet ist, um Softwarelösungen mit Mehrwert für Kunden und Softwareunternehmen zu generieren.
Die meisten Softwareunternehmen haben bereits eine hohe Expertise bei der Entwicklung von Softwarelösungen entwickelt und hierfür klare Methoden und Prozesse definiert.
Die Anzahl neuer Leistungen, die sich als Flop erweisen und aufgrund zu geringen Umsatzes vom Markt genommen werden, ist extrem hoch. Viele Autoren sind sich einig, dass das fehlende Glied, um Innovationen erfolgreich zu kreieren, der Einsatz einer Entwicklungsstrategie ist.
Bedauerlicherweise gibt es noch eine große Zahl von IT-Unternehmen, die in der Praxis eine Ad-hoc-Entwicklung von Services vornehmen, oft unvollständig und unstrukturiert. Aber um Innovation richtig zu fördern, benötigen Unternehmen ein Vorgehensmodell, um neue Chancen zu identifizieren und bestehende Geschäftsfelder weiter zu entwickeln und auszubauen.
Aus den Erkenntnissen des Software- und Service-Engineering, insbesondere des Engineering IT-basierter Dienstleistungen, kommt diese Masterarbeit zu dem Schluss, dass die Entwicklung von Softwarelösungen nicht ohne strategischen Kontext passieren soll. Was benötigt wird, ist ein Vorgehensmodell, das die integrierte Entwicklung von Software und Dienstleitungen explizit behandelt.
Das vorgeschlagene strategiebasierte Vorgehensmodell zur Softwareentwicklung ist eine Kombination aus Software- und Dienstleistungsentwicklungsmodellen. Es behandelt die integrierte Entwicklung von Software und Dienstleistungen.
Die Ergebnisse dieser Arbeit bestätigen, dass das strategiebasierte Vorgehensmodell in der Praxis mit eigenen Mitteln anwendbar ist und wichtige Informationen liefert, um strategische Entscheidungen für bestehende oder neue Software-Lösungen zu treffen.
Die Digitalisierung ist heute weit verbreitet und in der westlichen metallverarbeitenden Industrie mittlerweile wettbewerbsrelevant. Unternehmen haben dies erkannt und reagieren mit entsprechenden Digitalisierungsprojekten darauf. Die jeweilige Ausprägung ist allerdings stark von der Organisation und der daraus resultierenden Reife des Unternehmens abhängig. Der Reifegrad von Prozessen und Organisationsformen im Hinblick auf die Digitalisierung in der metallverarbeitenden Industrie wird analysiert, um den erforderlichen Mindestreifegrad für die Entwicklung und den Betrieb digitaler Lösungen aufzuzeigen. Das Reifegradmodell und die Umfrage wurden recherchiert und erstellt, um theoretisches Wissen und ein allgemeines Verständnis eines Reifegradprozesses zu erlangen. Mit Hilfe des erstellten Reifegradmodells, der entwickelten Skala und der Analyse der Ergebnisse wurde ein mittelmäßiger Reifegrad festgestellt.
Um die Reife eines Unternehmens festzustellen, diese mit anderen zu vergleichen, Veränderungen wahrzunehmen und diese zu verbessern, wurde ein Reifegradmodell mit Hilfe von Literatur und Experteninterviews entwickelt. Dieses befasst sich mit den Organisationsformen und Strukturen, den Prozessen, Ressourcen, der Unternehmenskultur sowie mit dem Umfeld im Kontext der Digitalisierung in der metallverarbeitenden Industrie. Um die Qualität des Reifegradmodells überprüfen zu können, wurde eine Umfrage erstellt und die Reife der Prozesse und Organisationsformen in der metallverarbeitenden Industrie erhoben, sowie der minimale Reifegrad für die Entwicklung und den Betrieb von digitalen Lösungen bestimmt.
Zur Schaffung des theoretischen Basiswissens wurden die relevanten Themengebiete anhand vorhandener Literatur erarbeitet. Experten aus der Branche lieferten weitere Informationen, welche zur Entwicklung des Reifegradmodells notwendig waren. Das entwickelte Modell hat fünf Stufen, welche von 1 (nicht vorhanden) bis 5 (optimal) reichen. Als Ergebnis wurde ein Fragebogen entwickelt, mit dem die Reife eines Unternehmens festgestellt werden kann. Basierend auf den Ergebnissen der Interviews und der Umfrage wurden Maßnahmen abgeleitet, um die Reife der Prozesse und Organisationsformen in der metallverarbeitenden Industrie zu verbessern.
Im Zuge der Interpretation und Auswertung der Umfrage wurde in der metallverarbeitenden Industrie ein durchschnittlicher Reifegrad von 3,1 festgestellt, der als „mittelmäßig“ eingestuft werden kann. Das bedeutet, dass Ambitionen für die Digitalisierung vorhanden sind, diese stattfindet und bereits Teil der Organisation ist. Die allgemeine Ausrichtung der Organisation ist allerdings stark verbesserungswürdig. Sämtliche Vor- und Nachteile der Digitalisierung wurden noch nicht erkannt und es werden längst nicht alle Facetten und Möglichkeiten ausgeschöpft.
Die IT ist aus modernen Unternehmen nicht mehr wegzudenken. Sämtliche elektronische Kommunikation ist ohne die entsprechende Infrastruktur unmöglich und für Unternehmen essenziell. Doch diese Unternehmensnetzwerke werden immer öfter durch Cyber-Attacken gefährdet.
Aus diesem Grund wird von Unternehmen eine Vielzahl an Sicherheitsmaßnahmen eingesetzt, um die IT-Infrastruktur zu schützen. Um das System vor Gefahren von außen und innen optimal abzusichern, schränken diese Maßnahmen die Möglichkeiten der Endanwender ein, da der User eine der größten Sicherheitslücken darstellt.
Das Ziel dieser Arbeit ist die Ausarbeitung der aktuell angewandten Sicherheitsmaßnahmen in Unternehmensnetzwerken, deren Möglichkeiten das System zu schützen und auf deren Einfluss auf die Endanwender einzugehen. Dazu wird folgende Forschungsfrage gestellt: „Welche technischen Maßnahmen mit vertretbaren Einschränkungen für den operativen Betrieb schützen Firmennetzwerke effektiv vor Angriffen?“
Um die Forschungsfrage und Hypothesen dieser Masterarbeit beantworten zu können, wurde zunächst eine Literaturrecherche durchgeführt, um einen Überblick über die derzeitigen Sicherheitsstandards zu gewinnen. Im Anschluss wurden qualitative Experteninterviews geführt, um die quantitativen Ergebnisse zu analysieren, priorisieren und zukünftige Möglichkeiten aufzuzeigen.
Sowohl Literaturrecherche als auch Experteninterviews zeigen auf, dass die behandelten Sicherheitsmaßnahmen für die User in einer homogenen IT-Infrastruktur, in der auf Usability-Anforderungen im Sicherheitskonzept geachtet und sicherheitstechnisch ein Kompromiss eingegangen wurde, mit vertretbaren Einschränkungen verbunden sind.
Die Untersuchung von zukünftigen Sicherheitskonzepten wie Zero Trust oder der Einsatz von künstlicher Intelligenz in diesem Kontext bieten ein breites Spektrum für weitere Forschung.
Aufgrund der fortschreitenden Digitalisierung werden mehr und mehr physische Produkte in der digitalen Welt abgebildet. Vor allem in Hinsicht auf digitale, identitätsbezogene Bescheinigungen ist es notwendig, dass diese nicht betrügerisch genutzt werden können, denn die jährliche Anzahl an Identitätsdiebstählen ist enorm. Hierfür braucht es eine Möglichkeit, diese digitalen Bescheinigungen so abzubilden, dass sie einerseits als fälschungssicher angesehen werden können und andererseits ein Identitätsdiebstahl unmissverständlich auffallen würde.
Ziel dieser Arbeit war es, die gestellte Forschungsfrage „Welche Herausforderungen birgt die Umsetzung einer Blockchain-Anwendung zum Nachweis von identitätsbezogenen Bescheinigungen?“ zu beantworten. Um diese Forschungsfrage beantworten zu können, wurde neben der Erarbeitung von theoretischen Grundlagen ein Prototyp geschaffen, welcher als Grundlage für die Ermittlung der möglichen Herausforderung dient. Dabei wurde einerseits ein Smart-Contract entwickelt, welcher die notwendigen Funktionalitäten auf Blockchain-Basis zur Verfügung stellt und andererseits wurde eine Webanwendung kreiert, welche die Schnittstelle zwischen Smart-Contract und Anwender/Anwenderin darstellt.
Anhand der erhaltenen Ergebnisse des Prototyps konnten schließlich Herausforderungen identifiziert und mögliche Lösungsvarianten ermittelt werden. Als Hürden gelten dabei hauptsächlich Limitierungen im Sinne der Möglichkeiten und Struktur eines Smart-Contracts, welche der Definition einer Selbstbestimmtheit entsprechen und der Identifikation von seriösen Ausstellern der Nachweise. Sowohl die Aktualisierung des Gültigkeitsstatus anhand des Gültigkeitsdatums eines Nachweises als auch die Sicherstellung des Datenschutzes in Hinsicht auf sensible Daten stellen weitere Herausforderungen dar, welche es zu lösen gilt.
Die empfohlenen Lösungsvarianten dienen als Anhaltspunkt für weitere Forschungsarbeiten. Hierfür wurden abschließend offene Fragestellungen definiert, welche für dieses Vorhaben herangezogen werden können.
Ein gut funktionierendes ERP System kann dem Unternehmen einen großen Wettbewerbsvorteil bringen. Die Auswahl an unterschiedlichen Systemanbietern ist groß und diese Systeme meist nicht günstig in der kosten- und zeittechnischen Anschaffung. Daher ist es notwendig, die Anforderungen an die Software klar zu definieren und mit dem Funktionsumfang der Systeme zu vergleichen.
Das Ziel dieser Masterarbeit ist es, die Anforderungen an ein ERP System zuerst allgemein für klein- und mittelständische Unternehmen festzulegen und daraus das passendste System herauszufiltern. Anhand des Beispiels der Firma ntb Thalhammer Bürotechnik Ges.m.b.H wird gezeigt, wie eine Evaluierung und Spezifikation der Anforderungen aussehen kann. Dazu werden folgende Forschungsfragen gestellt: „Welche Anforderungen hat das Unternehmen an ein neues ERP System?“ und „Welches ERP System entspricht den analysierten Anforderungen des gewählten Unternehmens am besten?“
Für die Beantwortung der Forschungsfragen wurde die Systems Engineering Methode herangezogen. Mit dieser Methode werden die Anforderungen im groben analysiert und in weiterer Folge detaillierter dargestellt. In der Hauptstudie wird die, in drei Stufen priorisierte und durch einen Punkteschlüssel bewertete, Anforderungsübersicht mit dem Funktionsumfang der ausgewählten ERP Systemen verglichen und so eine Auswahl für die Detailstudie getroffen. In der Detailstudie werden die genauen Anforderungen mit den Funktionen der vorher gewählten Software verglichen. Die Auswahl fiel auf die MKS Goliath.NET Software. Diese Software kann, sowohl allgemein für KMUs und auch detailliert am Beispiel der Firma ntb die meisten der Anforderungen abdecken.
Weiterführend kann die Integration der Software im Unternehmen erarbeitet werden.
Das Thema IT-Sicherheit ist eines der sich am schnellsten wandelnden Gebiete in der Informationstechnologie.Mit Werten von bis zu einer Million neuen Schadprogrammen pro Tag konfrontiert, sieht man auch, wo dieser Wandel seinen Ursprung hat.
In einem so volatilen Umfeld gibt es folglich viele Lösungen, die Sicherheit gegen monetären Einsatz versprechen. Die Kosten einiger High-End Lösungen sind aber leicht in der Lage, das IT-Budget einer Firma zu sprengen. In diesem Bereich setzt die vorliegende Masterarbeit an.
Diese Arbeit beschäftigt sich mit der Frage, ob es möglich ist, ein aktuelles Microsoft Betriebssystem nur mit Hilfe von Bordmitteln und dem LAPS Toolkit so weit abzusichern, dass es aktuellen Bedrohungen standhalten kann. Unabhängig vom Ausgang soll ein Nebenprodukt eine möglichst sichere Konfigurationsempfehlung für das Microsoft Windows Betriebssystem bzw. dessen Schutzkomponenten sein.
Hierzu befasst sich die Arbeit zuerst mit der theoretischen Situation, wie Angriffsvektoren, der Kategorisierung von Gefahren und der Taxonomie von unerwünschten und schädlichen Programmen. Nach der theoretischen Betrachtung folgt ein Blick auf die aktuelle Situation und die Betrachtung von exemplarischen Angriffen, zum einen von Malware zum anderen auf Basis der Befragung von Red-Team Sicherheitsexperten.
Im Anschluss werden die Verteidigungstechniken vorgestellt, deren optimale Einstellungen vorgestellt und argumentiert sowie der Einfluss auf Angriffe besprochen.
Aus der Kombination der Informationen über die aktuelle Sicherheitssituation sowie den gewonnenen Daten aus der Betrachtung der Wirksamkeit der Schutzmaßnahmen, erfolgt anschließend die Bewertung des Schutzgrades, der rein mit Bordmitteln erreicht werden kann.
Web Application Security
(2022)
In der heutigen Zeit spielt die Absicherung von modernen IT-Systemen eine wichtige Rolle und stellt gleichzeitig eine Herausforderung für viele Unternehmen dar. Bei den Versuchen, strikte Richtlinien umzusetzen und die eigenen Daten zu schützen, stoßen einige davon an ihre Grenzen. Die konstant wachsende Anzahl an modernen Bedrohungen forciert dabei hohe Investitionen und regelmäßige Überprüfung, Anpassung und Verbesserung der unternehmensinternen Prozesse. Aufgrund der Diversität der Bedrohungen stellen unterschiedliche Systeme dabei unterschiedliche Funktionalitäten bereit und es gibt keine zentrale Stelle für Abwehrmechanismen. Dabei stellt sich die Frage, ob eine zentrale Abhandlung diverser Bedrohungen auf Seiten einer Applikation sinnvoll ist, oder ob davon abgesehen werden sollte.
Um dies zu beantworten werden sicherheitsrelevante Aspekte im Bereich von Web Application Security untersucht und ein Einblick in die Relevanz zur Absicherung von WebApplikationen gegeben. Darüber hinaus werden einige der gängigsten Bedrohungen von modernen Systemen analysiert und beschrieben. Neben Konzepten, die dabei unterstützen, die Sicherheit von Software-Systemen zu erhöhen, werden ebenfalls die Möglichkeiten zur Auslagerung sicherheitsrelevanter Aspekte untersucht.
Der Fokus der Arbeit bezieht sich auf Web Application Firewalls und es wird konkret auf deren Verwendung, Architektur und deren Grenzen eingegangen. In diesem Kontext werden sowohl Lösungen kommerzieller Anbieter, als auch bekannte Open-Source Lösungen vorgestellt und verglichen. Die Open-Source Lösung ModSecurity wurde dabei für eine Anwendung in der Praxis ausgewählt. Es wurde ein Konzept aufgestellt, um die Integrität von HTTP-Cookies zu validieren und dieses wurde mithilfe eines eigens erstellten Regelwerks innerhalb von ModSecurity umgesetzt. Die Umsetzung dieses Konzepts hat gezeigt, dass eine solche moderne Anforderung auch erfüllt werden kann, ohne dabei die betroffene Applikation an sich verändern zu müssen.
Anhand der zuvor durchgeführten Recherche und der praktischen Anwendung wird einerseits die Flexibilität und der Nutzen einer WAF verdeutlicht, und andererseits dargelegt, dass eine eigens adaptierte Implementierung keinen Mehrwert gegenüber der Verwendung bestehender Lösungen bietet.
Das Ziel dieser Masterarbeit ist es, ein Konzept für ein Online-Service zur Ermittlung von Baukosten zu entwickeln. Der Fokus liegt dabei im Bereich von Einfamilienhäusern in Österreich. Ergänzend wird ein Geschäftsmodell zum wirtschaftlichen Betrieb des Service entwickelt. Zu diesem Zweck wird das im Zuge dieser Arbeit entwickelte Servicekonzept in Interviews mit Expertinnen und Experten aus relevanten Fachbereichen evaluiert. Darin werden sowohl Optimierungspotentiale als auch mögliche Ansatzpunkte für weitere Innovationen aufgedeckt. Die Erkenntnisse daraus werden anschließend in ein optimiertes Servicekonzept eingearbeitet. Dieses stellt das Ergebnis dieser Masterarbeit dar. Es zeigt sich, dass das Vorhaben der Implementierung eines solchen Service von allen Expertinnen und Experten positiv beurteilt wird. Insbesondere, da in Österreich zum gegenwärtigen Zeitpunkt kein unmittelbar vergleichbares Service verfügbar ist. Nach Meinung der Expertinnen und Experten bietet ein solches Service nicht nur Vorteile für die Endkundinnen und Endkunden, sondern wirkt sich dieses auch auf die weiteren Anspruchsgruppen positiv aus. Eine weitere Erkenntnis dieser Arbeit beschreibt die Bedeutung der für die Servicebereitstellung erforderlichen Ressourcen. Speziell bei den Daten bereits abgerechneter Projekte, auf denen die Ermittlung der Baukosten basiert, handelt es sich um eine kritische Ressource. Das Resultat dieser Arbeit stellt die Grundpfeiler für eine praktische Umsetzung des Servicekonzepts dar. Davor ist eine testweise Implementierung – etwa in Form eines Prototyps – erforderlich. In einzelnen Bereichen – insbesondere im Service-Pricing – sind zudem weitere Untersuchungen durchzuführen.