<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0">
  <channel>
    <title>https://opus.campus02.at</title>
    <description>OPUS documents</description>
    <link>https://opus.campus02.at/index/index/</link>
    <pubDate>Fri, 28 Nov 2025 14:21:42 +0100</pubDate>
    <lastBuildDate>Fri, 28 Nov 2025 14:21:42 +0100</lastBuildDate>
    <item>
      <title>Dezentralisierung und Resilienz von IT-Infrastrukturen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1240</link>
      <description>In dieser Masterarbeit wird untersucht, ob dezentrale IT-Infrastrukturen resilient sind und welche Potenziale sowie Herausforderungen mit ihrer Dezentralisierung einhergehen. Anhand einer systematischen Literaturrecherche nach vom Brocke et al. (2009) wurden 42 relevante Quellen ausgewertet, um die wesentlichen Potenziale und Herausforderungen der IT-Dezentralisierung herauszuarbeiten. Die Recherche zeigt dezentrale Architekturen als klar resilienzfördernden Ansatz. Aussagen zu Kosten und Komplexität zeigen jedoch ein uneinheitliches Bild. Zahlreiche Quellen adressieren zwar allgemeine Kostenaspekte, doch die konkrete Kostenentwicklung infolge der Dezentralisierung bleibt häufig unklar, insbesondere aufgrund fehlender Vergleiche mit zentralisierten Infrastrukturen. Dennoch legen die Ergebnisse nahe, dass Kosten kein grundsätzliches Ausschlusskriterium darstellen und Dezentralisierung unter geeigneten Rahmenbedingungen aufgrund besserer Skalierbarkeit oder effizienter Ressourcennutzung sogar Kostenvorteile bieten kann. Auch im Hinblick auf die Komplexität zeigt sich ein ambivalentes Bild: Zwar wird sie in vielen Quellen thematisiert, jedoch nur selten ausdrücklich als Nachteil aufgezeigt. Zudem wurde Dezentralisierung nicht als einheitliches Konstrukt identifiziert, sondern als Sammelbegriff für unterschiedliche Ausprägungen und Umsetzungen mit jeweils spezifischen Vor- und Nachteilen. Häufig genannte Vorteile sind verbesserte Skalierbarkeit, Robustheit, Fehlertoleranz, Effizienz- und Performancesteigerung sowie erhöhte Sicherheit. Gleichzeitig wurden technische und organisatorische Herausforderungen festgestellt, darunter Koordination, Skalierung, Ressourcenbeschränkungen, höhere Latenzen, erhöhter Netzwerkverkehr und Sicherheitsbedenken. Die ambivalente Bewertung legt nahe, dass die tatsächlichen Vorteile der Dezentralisierung maßgeblich von der konkreten Umsetzung abhängen und bietet einen Ansatzpunkt für eine vertiefte Auseinandersetzung in zukünftigen Forschungsarbeiten.</description>
      <author>Alexander Oberbucher</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1240</guid>
      <pubDate>Fri, 28 Nov 2025 14:21:42 +0100</pubDate>
    </item>
    <item>
      <title>Entwicklung einer nachhaltigen Engineering-Strategie für Neu- und Altanlagen mittels Sequence Logic Modelling</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1206</link>
      <description>In der industriellen Produktion stehen Unternehmen vor der Aufgabe, sowohl neue als auch bestehende Anlagen nachhaltig und effizient zu gestalten. Klassische Engineering-Ansätze sind oft hardwaregetrieben und berücksichtigen Nachhaltigkeit erst spät, was zu hohen Kosten und langen Entwicklungszeiten führt. Diese Arbeit entwickelt eine nachhaltige Engineering-Strategie basierend auf Sequence Logic Modelling (Selmo). Im Fokus steht der P-T-F-Ansatz (Prozess, Technologie, Funktion), der bereits im Pre-Engineering alle Anforderungen klar definiert und blinde Flecken vermeidet. Diese Methodik wurde in zwei Szenarien angewendet. Beim Retrofit einer bestehenden Fischertechnik-Fertigungslinie und bei der Betrachtung einer Neuanlage. Im Retrofit konnten durch gezielte Nachrüstung die Prozessqualität und Verfügbarkeit deutlich verbessert werden. Bei der Neuanlage zeigte sich, dass frühe Prozessdefinitionen Zeit und Kosten sparen. Zwei reale Fallstudien bestätigen den Erfolg. Das Retrofit-Projekt der VELOX Werk GmbH führte zu einer 25 % höheren Produktionsleistung und seit fünf Jahren zu keinem einzigen Eingriff in die Software. Die Neuanlage eines führenden Getränkeherstellers wurde bereits in der Engineering-Phase durch die Anwendung der Strategie optimiert. Ergänzend werden ESG- und CSRD-Richtlinien betrachtet. Die durchgängige Prozessmodellierung erhöht die Energieeffizienz und schafft eine transparente Datengrundlage. Künftig könnte Künstliche Intelligenz dabei helfen, Prozessmodelle automatisch zu erstellen und weiterzuentwickeln. Die Ergebnisse zeigen, dass durch eine konsequente Prozessmodellierung und den gezielten Einsatz moderner Steuerungstechnik nachhaltige, effiziente und wirtschaftlich vorteilhafte Produktionsprozesse geschaffen werden können. Die entwickelte Engineering-Strategie ermöglicht es Unternehmen, Kosten zu reduzieren, den Maschinenbetrieb zu optimieren und gleichzeitig regulatorische Anforderungen an Nachhaltigkeit und Effizienz zu erfüllen.</description>
      <author>Sebastian Herz</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1206</guid>
      <pubDate>Fri, 28 Nov 2025 13:43:37 +0100</pubDate>
    </item>
    <item>
      <title>Akzeptanzfaktoren digitaler Briefzustellung über Online-Portale in Österreich</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1238</link>
      <description>Die Zustellung von Briefen war lange Zeit ein staatliches Monopol, wurde jedoch in letzter Zeit schrittweise liberalisiert. Das Volumen postalischer Briefe in Österreich nimmt ab, während die Digitalisierung öffentlicher Dienstleistungen, insbesondere während der COVID-19-Pandemie, an Dynamik gewonnen hat. Obwohl das Zustellgesetz (ZustG/12.11.2023) bereits seit 1998 in Kraft ist, haben jüngste Änderungen und die Einführung des staatlich kontrollierten Authentifizierungssystems „ID Austria“ zur Online-Postfach-Anwendung „Mein Postkorb“ geführt, die derzeit vom österreichischen Finanzministerium betrieben wird. Dieser Dienst bietet eine sichere, authentifizierte und nachvollziehbare digitale Zustellung behördlicher Schreiben an Bürgerinnen und Bürger. Im Mai 2025 gibt es insgesamt rund 1,9 Millionen Nutzer*innen, davon 1,2 Millionen Privatpersonen. Im Jahr 2024 wurden 13,6 Millionen Schreiben versendet (Trauner, 2025).Diese Arbeit untersucht hemmende und fördernde Faktoren, die die Akzeptanz eines Online-Portals zur Briefzustellung beeinflussen. Der Untersuchungsgegenstand ist die österreichische Anwendung „Mein Postkorb“; private Dienste für die digitale Zustellung, etwa im Bank- oder Versicherungsbereich, wurden nicht berücksichtigt. Die Studie kombiniert das weit verbreitete UTAUT-Akzeptanzmodell (Venkatesh et al., 2003) mit der Inhibitor-Theorie (Cenfetelli, 2004). Diese beiden gegensätzlichen Perspektiven wurden um weitere potenzielle Einflussfaktoren ergänzt und in einem gemeinsamen theoretischen Modell zusammengeführt. Dieses Modell diente als Grundlage für einen Interviewleitfaden, der in Expert*inneninterviews zum Einsatz kam. Die Transkripte der insgesamt fünf befragten Expertinnen und Experten wurden mittels quantitativer Inhaltsanalyse nach Mayring (2010) ausgewertet, woraus ein Kategoriensystem entstand. Die zentralen Ergebnisse waren das Auftreten neuer Einflussfaktoren, insbesondere der Eintrittsbarrieren, die die Nutzung eines unbekannten Systems hemmen können. Auf der anderen Seite konnten die Kategorien „Sicherheit“ und „E-Government-Strategie“ als fördernde Faktoren identifiziert werden. Die Zusammenfassung der Ergebnisse führte zu Empfehlungen zur Förderung der Nutzung der elektronischen Zustellung in Österreich. Auf Grundlage dieser Arbeit könnten weiterführende Studien durchgeführt werden, um die neuen Faktoren detaillierter zu untersuchen. Darüber hinaus wäre ein Experiment denkbar, um genauere Einblicke in das Nutzer*innenverhalten bei Registrierung, Anmeldung und Erhalt von Schreiben in der Anwendung „Mein Postkorb“ zu gewinnen.</description>
      <author>Markus Angelus Gjecaj</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1238</guid>
      <pubDate>Wed, 05 Nov 2025 10:18:18 +0100</pubDate>
    </item>
    <item>
      <title>Green Cloud Computing</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1169</link>
      <description>Der IT-Dienstleistungssektor hat einen signifikanten Anstieg der Nutzung von Cloud Computing erlebt und seinen Marktanteil von 14,5% im Jahr 2017 auf 42,5% im Jahr 2022 ausgebaut. Trotz der unbestreitbaren Vorteile hat dieses Wachstum Umweltbedenken aufgeworfen. Der steigende Bedarf an Rechenleistung und die Verbreitung von internetverbundenen Geräten tragen zum ökologischen Fußabdruck des Cloud-Computings bei. Studien variieren und schreiben dem Cloud Computing 0,3% bis 2% der globalen CO2-Emissionen zu, mit zusätzlichen Umweltauswirkungen wie Abfallproduktion, Wasserverbrauch und Landnutzung. Diese Masterarbeit adressiert den dringenden Bedarf an nachhaltigen Praktiken bei österreichischen Cloud Service Providern. Das Ziel ist es, handlungsorientierte Empfehlungen für die Umsetzung von grünem Cloud Computing auf Grundlage einer gründlichen Überprüfung der wissenschaftlichen Literatur zu formulieren. Unter Verwendung der systematischen Literaturübersichtsmethodik von Brocke et al. und der PRISMA-Methode analysierte diese Studie 106 Arbeiten mit einer Mindestanzahl von 5 Zitaten innerhalb eines bestimmten Zeitrahmens. Die Literatur betont überwiegend Initiativen zur Energieeffizienz, insbesondere während der Nutzungsphase von Rechenzentren, vernachlässigt jedoch die umfassendere Perspektive des gesamten Lebenszyklus. Diese Studie bestätigt die Hypothese, dass erhebliches Potenzial für die Anpassung umweltfreundlicher Maßnahmen bei Cloud Service Providern besteht. Um diese Lücke zu schließen, wird ein Umsetzungsplan für grünes Cloud Computing vorgeschlagen, der wissenschaftlichen Techniken zur Energieeffizienz auf Software- und Hardwareebene, zur Virtual Machine Consolidation und bioinspirierte Algorithmen umfasst. Aufbauend auf Erkenntnissen des deutschen Umweltbundesamts-Projekts KPI4CDE und GCC sowie der systematischen Literaturübersicht identifiziert diese Forschung ungenutztes Potenzial für weitere wissenschaftliche Untersuchungen des vollständigen Lebenszyklus von Cloud Service Providern. Diese Studie legt den Grundstein für zukünftige Forschungsinitiativen, die darauf abzielen, die Umweltauswirkungen des Cloud-Computings umfassend zu verstehen und zu mindern.</description>
      <author>Harald Beier</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1169</guid>
      <pubDate>Tue, 15 Jul 2025 12:02:13 +0200</pubDate>
    </item>
    <item>
      <title>Vergleich von Open-Source-Autopiloten für das automatisierte Abfahren von Strecken</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1028</link>
      <description>Die Unabhängigkeit von menschlichen Interaktionen, kombiniert mit der erhöhten Sicherheit und Effizienz, sind Hauptgründe für die rasante Entwicklung der Autopiloten-Technologie. Insbesondere der verstärkte Einsatz von Drohnen hat dazu beigetragen, dass Open-Source-Autopiloten wie ArduPilot und PX4 Autopilot sich ständig weiterentwickeln konnten. Aufgrund des wachsenden Funktionsumfangs wurde der Einsatz dieser Autopiloten auch schnell auf andere unbemannte Fahrzeuge erweitert. Allerdings besitzen diese Softwareplattformen individuelle Stärken und Schwächen, welche erst bei einem fundierten Vergleich deutlich werden. Das Ziel dieser Masterarbeit ist es, die Open-Source-Autopiloten ArduPilot und PX4 Autopilot anhand einer experimentellen Untersuchung zu analysieren. Im Rahmen dieser Evaluierung wurde ein spezielles Testfahrzeug eingesetzt, welches eine vordefinierte Strecke automatisiert abfährt. Die Streckenvorgabe wird dabei über geografische Koordinaten festgelegt. Dieses Testfahrzeug besteht aus einem modifizierten Modellfahrzeug mit integriertem Flight-Controller sowie geeigneten Aktoren und Sensoren. Um die Vergleichbarkeit der Testergebnisse zu gewährleisten, war es zusätzlich notwendig, ein passendes Testsetup zu schaffen. Die Untersuchung konzentriert sich hauptsächlich auf die Unterschiede in der Routennachverfolgung, wobei die Genauigkeit und Effizienz jedes Autopilot-Systems analysiert werden. Darüber hinaus werden die notwendigen Schritte zur Kalibrierung und Konfiguration der Autopiloten untersucht. Basierend auf diesen Erkenntnissen werden die Autopiloten sowie die verwendeten Bodenstationssoftwaren, Mission Planner und QGroundControl, verglichen. Letztendlich bieten die gesammelten Ergebnisse eine fundierte Entscheidungsgrundlage für die Auswahl eines geeigneten Autopiloten für Bodenfahrzeuge. Darüber hinaus fördern sie auch den praktischen Einsatz von Open-Source-Autopiloten.</description>
      <author>Dominik Wurmitzer</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1028</guid>
      <pubDate>Mon, 30 Jun 2025 11:14:57 +0200</pubDate>
    </item>
    <item>
      <title>Modellierung eines digitalen Zwillings für die Erprobung eines additiv gefertigten Wärmetauschers</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1027</link>
      <description>Die Anforderungen an moderne Simulationstechniken hinsichtlich ihrer Komplexität, Datentransparenz und intelligenten Vernetzung sowie einer umfassenden Virtualisierung eines zugrundeliegenden Objektes oder Systems haben innerhalb der letzten Jahre über alle Technologiesektoren hinweg deutlich zugenommen. Der Digitale Zwilling ist ein Konzept, welches diesen gestiegenen Anforderungen gerecht wird und zudem positive wirtschaftliche Aspekte, wie der Einsparung von Material und der damit einhergehenden Kostenreduktion, mit sich bringt. Im Zuge dieser Masterarbeit soll eine möglichst präzise Modellierung und anschließende Anwendungserprobung eines Digitalen Zwillings von einem additiven Wärmetauscher realisiert werden. Dies wird durch eine anfängliche Erläuterung der theoretischen Grundlagen eines Digitalen Zwillings, der Wärmeübertragung und der relevanten Modellierungsansätzen erreicht. Die praktische Umsetzung umfasst die Erstellung des Regelungscodes für die speicherprogrammierbare Steuerung sowie die Modellierung des virtuellen Abbilds des Prüfstands. Das realisierte Modell erfüllt die grundlegenden Anforderungen eines Digitalen Zwillings und kann für Test- und Schulungszwecke sinnvoll eingesetzt werden, zeigt jedoch auch die Grenzen der Machbarkeit auf und bietet Optimierungspotenziale hinsichtlich der Stabilität, Präzision sowie der allgemeinen Funktionstiefe der virtuellen Abbildung. Die Ergebnisse verdeutlichen, dass die Komplexität der Modellparameter bei intensiverer Auseinandersetzung mit dem Konzept des Digitalen Zwillings stark zunimmt und für umfassendere Modellansätze ein erheblicher Mehraufwand erforderlich ist.</description>
      <author>Julian Schmidt</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1027</guid>
      <pubDate>Mon, 30 Jun 2025 11:08:32 +0200</pubDate>
    </item>
    <item>
      <title>Einführung eines automatisierten Systems zur Datenerfassung in einem Produktionsumfeld</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1020</link>
      <description>Im heutigen Umfeld der produzierenden Industrie sind kontinuierliche Effizienzsteigerung, Qualitätsverbesserung und Wettbewerbsfähigkeit zentrale Anliegen. Die Automatisierung von Produktionsprozessen und eine umfassende Datenerfassung gewinnen zunehmend an Bedeutung. Die erfassten Daten dienen als Grundlage für die Steuerung, Analyse und Optimierung der Produktionsprozesse. Das Ziel dieser Masterarbeit ist die Einführung eines automatisierten Datenerfassungssystems über die gesamte Produktionsstätte. Dieses wird benötigt, um Produktionsdaten aufzuzeichnen und Key Performance Indicators (KPIs) automatisiert zu berechnen. Hierfür müssen verschiedene Hersteller von speicherprogrammierbaren Steuerungen (SPS) und andere Systeme wie eine Structured Query Language (SQL)-Datenbank angebunden werden. Nach einem vertieften Verständnis von Supervisory Control and Data Acquisition (SCADA)-Systemen und deren Aufbau wird eine Analyse der vorhandenen Hardwarekomponenten und Topologien durchgeführt. Darauf aufbauend werden Implementierungskonzepte erarbeitet, deren Hauptaugenmerk auf einer nahtlosen Integration und Erweiterbarkeit liegt. Diese Konzepte werden für den konkreten Anwendungsfall evaluiert und bewertet. Das Ergebnis dieser Masterarbeit ist die praktische Umsetzung des gewählten Konzepts mit der Implementierung des Datenerfassungssystems an einer Produktionslinie. Die nahtlose Integration des Datenerfassungssystems ermöglicht es, die Effizienz zu steigern, menschliche Fehler zu minimieren und Echtzeitdaten für fundierte Entscheidungen bereitzustellen. Diese Arbeit soll einen Überblick darüber geben, wie ein Datenerfassungssystem in die bestehende Infrastruktur einer Produktionsanlage integriert werden kann.</description>
      <author>Andreas Steif</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1020</guid>
      <pubDate>Fri, 27 Jun 2025 12:56:24 +0200</pubDate>
    </item>
    <item>
      <title>Konzepterstellung für ein modernes Datacenter, welches den Anforderungen der Digitalisierung entspricht</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1146</link>
      <description>Die Informationstechnologie (IT) ist eine sich schnell verändernde Branche und bietet vielfältige Möglichkeiten, neue Geschäftsfelder zu etablieren oder bestehende Geschäftsmodelle und Prozesse zu modernisieren. Dieser Vorgang, weithin unter der Bezeichnung Digitalisierung bekannt, bringt auch eine Vielzahl an Herausforderungen für die IT-Infrastruktur. Diese muss immer schneller reagieren und sich zeitgleich neuen Sicherheitsanforderungen stellen. Um diesen Anforderungen gerecht zu werden, müssen Prozesse beschleunigt und automatisiert werden. Bereits heute werden viele Server virtuell zur Verfügung gestellt, wodurch diese binnen weniger Augenblicke für neue Services bereitstehen. Dieser Trend der Virtualisierung lässt sich nach und nach auch im übrigen Datacenter erkennen. Das sogenannte Software-defined Datacenter soll Unternehmen dabei helfen, das gesamte Datacenter, beginnend bei Servern, Storage, Security-Komponenten bis hin zum Netzwerk, zu virtualisieren. Dadurch sollen Prozesse automatisiert und Fehlerquellen reduziert werden. Eine besondere Herausforderung stellt dabei das Netzwerk dar. Bis heute wird der Großteil der Netzwerkkomponenten von Administratoren manuell und einzeln administriert, wodurch sich potenzielle Fehler innerhalb der Konfiguration ergeben. Um diese Fehler zu reduzieren und um die Konfigurationszeiten zu verkürzen, werden nach und nach neue Technologien im Software-defined-Networking-Bereich etabliert. Dabei stellt sich die Frage, wie ein Konzept zur Automatisierung eines modernen Netzwerkes gestaltet sein kann. In der vorliegenden Forschungsarbeit wurde versucht, dies Anhand eines Prototypings zu erarbeiten. Besonderes Augenmerk wurde hier auf IT-Dienstleister im öffentlichen Bereich gelegt. Einleitend wurde auf die Notwendigkeit einer infrastrukturellen Veränderung eingegangen, wodurch sich klar erkennen ließ, dass mit zunehmender Digitalisierung Technologien wie SDN an Bedeutung gewinnen. Abschließend konnte erkannt wer-den, dass SDN eine zukunftsträchtige Technologie ist, jedoch nicht als Standardprodukt zu verstehen ist. SDN muss individuell für jedes Unternehmen durchdacht werden, damit die Vorteile der Automatisierung genutzt werden können.</description>
      <author>David Erlacher</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1146</guid>
      <pubDate>Tue, 24 Jun 2025 15:04:48 +0200</pubDate>
    </item>
    <item>
      <title>Entwicklung eines URCaps für Maschinenbeschickungsanwendungen</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1021</link>
      <description>Kollaborative Roboter repräsentieren einen weiteren innovativen Schritt in der Automatisierung von Produktionsanlagen. Universal Robots ist Weltmarkführer in der kollaborativen Robotik und betont die einfache Anwendung seiner Produkte. Zahlreiche Produktionsunternehmen versuchen dahingehend, umfassende Roboterapplikationen eigenständig zu implementieren. Aufgrund fehlender Erfahrung, resultieren derartige Projekte jedoch oftmals in zeit- und kostenintensiven Entwicklungsphasen. Diese Arbeit hat das Ziel ein neuartiges URCap zu entwickeln, welches den erforderlichen Programmcode automatisch generiert und somit die Programmierung von komplexen Roboteranwendungen ebenso für unerfahrene Anwender*innen zugänglich macht. Unter Aufarbeitung der Grundzüge der Roboterprogrammierung entwirft diese Arbeit zuerst eine Programmrohstruktur für Maschinenbeschickungsanwendungen. Anschließend zeigt diese Arbeit in welchem Umfang diese Programmstruktur automatisch vom entwickelten URCap generiert werden kann. Die Ergebnisse präsentieren ein funktionierendes URCap, welches wertvolle Programmierzeit bei Maschinenbeschickungsanwendungen einspart. Darüber hinaus stellt es weitere Funktionalitäten für eine Steigerung der Prozessstabilität zur Verfügung.</description>
      <author>Philipp Unger</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1021</guid>
      <pubDate>Wed, 18 Jun 2025 14:46:44 +0200</pubDate>
    </item>
    <item>
      <title>Evaluierung und Konzeption von technischen und organisatorischen Maßnahmen zur Erhöhung des Schutzes und der Sicherheit verteilter Navigationssysteme</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/562</link>
      <description>Integrierte Navigationssysteme (INS) auf Schiffen leisten einen großen Beitrag zu sicheren Navigation, um kritische Situationen zu umgehen oder zu entschärfen. Damit können INS als sicherheitsrelevante Systeme bezeichnet werden. Neben durchgängiger Redundanz, Diagnose von Komponenten zur Laufzeit und durchgeführter FMEA für die Typzulassung des INS, weisen diese keine weiteren Mechanismen auf, um das System im Fehlerfall vor Ausfall oder Fehlfunktion zu schützen, wodurch das System in einen kritischen Zustand übergehen kann. Weitere Maßnahmen sind notwendig, weil die Integrationsgrade der Navigationssysteme und Interaktionen mit vielen unterschiedlichen Systemen stetig zunehmen. Damit ein INS in Zukunft weiterhin dem Stand der Technik entspricht, müssen aktuelle Anforderungen aus Standards, wie dem IEC 61162-460 hinsichtlich Safety &amp; Security erfüllen, damit das Risiko erhöhter Integrationsgraden auf ein vertretbares Maß gesenkt werden kann. Um das System vor Übergängen in kritische Zustände zu bewahren und einen Sicherheitslevel zu erreichen, der zukünftig den Anforderungen an Bord genügt, wird im Rahmen dieser Arbeit neben den gültigen Standards und Normen für INS die Funktionale Sicherheit betrachtet. Dazu wird ¨ die Grundnorm IEC 61508 und die abgeleiteten Normen für entsprechende Industriebereiche ¨ betrachtet. Für den Seeverkehr gilt hervorgehoben die UN-Konvention SOLAS von 1974. Die Festlegungen aus dieser Konvention spiegeln sich in Normen und Standards, wie auch in Gesetzen der Staaten wider. Der Fokus der Standardisierungsgremien liegt nach wie vor auf dem Menschen und der Unterstützung durch das INS. Dabei sollen Fehler des Menschen vermieden, Ausfälle erkannt und Warnungen erzeugt werden. Mit dem Standard IEC 61162-460 beginnt die Standardisierung der Sicherheit (Safety &amp; Security) und Funktionalen Sicherheit des INS. Durch eine Rekapitulation von Serviceeinsätzen wurde erkannt, dass in vielen Fällen ein Ausfall oder eine Fehlfunktion dadurch entstand, dass eine fehlerhafte Konfiguration vorlag. Die hohe Konfigurierbarkeit des INS ist ein Vorteil, birgt jedoch die Gefahr der Fehlkonfiguration. Die Auswertungen der Fehlerzustände und Ausfälle ergab, dass eine Diagnose der Konfiguration durchgeführt werden muss. Diese Diagnose soll bereits zur Konfigurationszeit durchgeführt werden (Onlinediagnose). Dabei wird die erstellte Konfiguration gegen Bedingungen geprüft, die Restriktionen der verwendeten Hardware (z.B. Überlast) oder die Systemintegrität (z.B. geforderte Redundanz, Einbaupositionen) abbilden. Die Diagnoseabdeckung des Systems wird neben der Laufzeit auf die Konfigurationszeit (Installation und Inbetriebnahme) erweitert. Für höchst konfigurierbare Systeme, wie das INS von Raytheon Anschutz, können bis zu 29% der Fehleranteile im Lebenszyklus eines Systems vermieden werden. Die vorliegende Arbeit bietet einen Ansatz zur Erweiterung der Diagnosefähigkeiten des Systems auf die Konfigurationszeit. Bestimmte Bedingungen, abhängig von verwendeter Hardware, Größe des Gesamtsystems können bereits bei Anfertigung der Systemkonfiguration überprüft werden. Plausibilitäts- und Integritätsprüfungen, wie Einbaupositionen, notwendige Redundanzen, korrekte Sensorverbindungen können zusätzlich überprüft werden. Das System erlangt Kenntnis über sich selbst und seine Konfiguration. Diese Kenntnis verknüpft mit den Bedingungen, erlaubt es dem Bedienern nützliche Hinweise und Warnmeldungen zu geben, wo die Systemkonfiguration mögliche Risiken für gefährliche Ausfälle des Systems birgt. Die ausgelieferten Systeme werden robuster und die Anzahl und Dauer der Serviceeinsätze wird gesenkt und Kosten eingespart. Die Ausfallrate der Systeme sinkt, wodurch sicherheitsgerichtete Funktionen, wie Collision Avoidance mit einer höheren Zuverlässigkeit verwendet werden können. Eine rechnerische Überprüfung der verwendeten Komponenten und Systemarchitektur zeigt eine mögliche SIL-Einstufung des Systems.</description>
      <author>Marek Michael Mylka</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/562</guid>
      <pubDate>Mon, 10 Feb 2025 14:00:40 +0100</pubDate>
    </item>
    <item>
      <title>Bewertung der Zuverlässigkeit von On-Premises, Cloud und Managed Services auf Basis eines Reifegradmodells</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/1000</link>
      <description>Die rasanten technologischen Entwicklungen und die zunehmende Digitalisierung haben die Abhängigkeit von digitaler Infrastruktur drastisch intensiviert. Zusätzlich steigen die Anforderungen und gesetzlichen Verpflichtungen der Unternehmerinnen und Unternehmer, wie beispielsweise mit der Einführung der Richtlinie über Maßnahmen für ein hohes gemeinsames Cybersicherheitsniveau in der gesamten Union (NIS2) im Jahr 2024 in der Europäischen Union. Infolgedessen wird es für Unternehmen umso entscheidender, eine Möglichkeit zur Bewertung ihrer Informationssicherheit zur Verfügung zu haben, sei es zur Erfüllung gesetzlicher Anforderungen oder zur Vorbereitung auf Zertifizierungen. Die Internationale Organisation für Normung (ISO) reagierte auf die sich verändernden Anforderungen der IT-Strategie, indem sie die Norm ISO/IEC 27017 geschaffen hat, die speziell auf die Implementierung von sicherheitsrelevanten Maßnahmen im Zusammenhang mit Cloud-Computing ausgerichtet ist. Das Magellan Maturity-Model, welches bereits auf der ISO/IEC-Norm 27001 basiert, wird in dieser Masterarbeit adaptiert. Damit soll ein spezielles Modell für Cloud und Managed Services geschaffen werden. Auf Grundlage dieses Modells wird ein neues Bewertungskonzept sowohl für Managed Services als auch für Cloud-Services entwickelt, das sich anhand von ISO/IEC-Normen, Gesetzen und Richtlinien orientiert. Das Hauptziel besteht darin, den Reifegrad der genannten Services im Bereich der Informationssicherheit zu beurteilen. Die Evaluierung des Bewertungskonzepts erfolgt einerseits mittels einer Fallstudie, in der das erstellte Sicherheitskonzept anhand von Vertragsvereinbarungen geprüft wird und andererseits in der Praxis. In dieser Phase wird die Meinung von Experten eingeholt und die Ergebnisse der Fallstudie sowie das Bewertungskonzept validiert. Die Forschungsfrage kann erfolgreich mit einem Sicherheitskonzept beantwortet werden, was eine solide Grundlage für weitere Untersuchungen darstellt. Die Berücksichtigung der vier Dimensionen (Integrität, Vertraulichkeit, Verfügbarkeit und Compliance) in der Reifegradbewertung kann in zukünftigen Untersuchungen eine Verbesserung darstellen.</description>
      <author>Anna Damm</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/1000</guid>
      <pubDate>Fri, 07 Feb 2025 11:45:05 +0100</pubDate>
    </item>
    <item>
      <title>FaaS vs. CaaS für die Entwicklung von Rest APIS</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/710</link>
      <description>Cloud Technologien wurden zur Bereitstellung von Infrastruktur für REST APIs in den letzten Jahren immer wichtiger. Das Container-as-a-Service (CaaS) Modell bei welchen Anwendungen virtualisiert in der Cloud laufen stellt hierbei einen der meistgenutzten Services dar. Dabei kommt es jedoch immer noch zu einem Overhead bei Verwaltung und Bereitstellung der Container, wodurch Entwicklungsressourcen verloren gehen. Eine noch leichtgewichtigere Alternative ist das neuere Function-as-a-Service (FaaS) Modell, welches den Verwaltungsaufwand reduzieren soll. Ziel der Masterarbeit ist es herauszufinden, ob FaaS sich besser als CaaS für die Entwicklung von REST APIs eignet. Um die Modelle vergleichbar zu machen, werden die Kriterien Kosten sowie Performance herangezogen und es wird folgende Forschungsfrage gestellt: ‚Wie wirkt sich FaaS gegenüber CaaS auf Performance und Kostenentwicklung einer REST API aus?‘. Um die Forschungsfrage zu beantworten, wurde jeweils eine CaaS und eine FaaS API implementiert. Als Metrik für Performance wurde dabei die Response Time (RT) gewählt. Diese gibt die Zeit an, welche zwischen Senden des API Requests und dem Empfang der Response verstreicht. Die RT wurde automatisiert mittels Artillery Skripts gemessen, um gleichzeitige Nutzung durch 1.000 virtuelle Benutzer*innen zu simulieren und verschiedene Anwendungsfälle abzubilden. Anhand der RT Daten wurden anschließend Kosten für verschiedene Benutzerzahlen berechnet. Die Ergebnisse der Performancemessungen zeigen, dass die RT von FaaS durchwegs höher ist als jene von CaaS. Für zeitkritische Applikationen kann FaaS daher nicht empfohlen werden. Bei den Kosten zeigt sich ein gemischtes Bild. Gerade bei wenigen API-Aufrufen entstehen bei FaaS kaum Kosten im Vergleich zu CaaS. Je höher die Anzahl der API Aufrufe, umso mehr verkehrt sich dieser Umstand jedoch ins Gegenteil, bei zwölf Millionen täglichen Aufrufen ist die FaaS Lösung schon beinahe dreimal so teuer wie CaaS. FaaS bietet sich also vor allem für kleinere Applikationen an, um einen Kompromiss zwischen Performance und Kosten zu finden.</description>
      <author>Lukas David</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/710</guid>
      <pubDate>Sat, 04 Nov 2023 10:16:10 +0100</pubDate>
    </item>
    <item>
      <title>Entwicklung einer Migrationsstrategie für Legacy Webanwendungen auf eine moderne Cloud-Plattform</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/649</link>
      <description>Cloud-Computing ist das Schlagwort der letzten Jahre in der Informationstechnologie schlechthin. Anbieter von Cloud-Lösungen versprechen Einsparungen bei Infrastrukturkosten, eine schnellere Serviceverfügbarkeit, eine bessere Performanz und kürzere Entwicklungszyklen. Viele Unternehmen reizt deshalb der Umstieg auf eine Cloud-Infrastruktur. Doch mit einem einfachen Umzug der Anwendungen ist es selten getan. Diese Arbeit zeigt auf, wie Softwareanwendungen aufgebaut sein müssen, damit sie aus einer Cloud-Infrastruktur einen optimalen Nutzen ziehen können. Zudem sind auch organisatorische Änderungen nötig, um moderne Cloud-Anwendungen zu entwickeln. Auch diese Änderungen werden besprochen. Häufig stehen Unternehmen vor dem zusätzlichen Problem, dass Anwendungen seit mehreren Jahren in Betrieb, aber technisch veraltet sind. Diese Legacy-Anwendungen sind geprägt durch fehlendes Entwicklungs-Know-how und eine lange Einsatzphase ohne Modernisierung und Restrukturierung. Die Plattformen, die sie nutzen, sind oft veraltet und der technologische Sprung auf eine Cloud-Umgebung deshalb sehr groß. Diese Arbeit erklärt, was Legacy-Software ist, wie sie entsteht, und wie mit ihr verfahren werden kann. Zudem wird das Thema Softwaremigrationen erklärt. Verschiedene Migrationsarten werden vorgestellt, und der exemplarische Ablauf einer Softwaremigration aufgezeigt. Das Ergebnis der Arbeit ist ein Konzept für Migrationsstrategien von Legacy-Anwendungen. Es wird für ein großes deutsches Versicherungsunternehmen entwickelt, das die Einführung einer Cloud-Infrastruktur plant. Der Umgang mit Altanwendungen, die bereits nicht mehr in die geplante Laufzeitumgebung passen, die jedoch weiterhin benötigt werden, ist derzeit ungeklärt. Er soll mit Hilfe dieser Arbeit festgelegt werden.</description>
      <author>Yves Boley</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/649</guid>
      <pubDate>Sat, 04 Nov 2023 09:53:10 +0100</pubDate>
    </item>
    <item>
      <title>Datenerfassung für Big Data</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/524</link>
      <description>Big Data und Industrie 4.0 sind Schlagwörter, die in der Automatisierung omnipräsent geworden sind. Mit dem immer größer werdenden Angebot von Cloudanwendungen und einer schleichenden Abkehr der Grundeinstellung, dass sämtliche Daten im Unternehmen gespeichert werden müssen, tut sich eine Vielzahl von Möglichkeiten in der Automatisierungstechnik auf. Diese neuen Technologien, für künstliche Intelligenz oder Predictive-Maintenance, benötigen Daten, um ihre Aufgaben auszuführen, haben aber meist keine Werkzeuge für die Datenerfassung. Durch die langen Laufzeiten für Anlagen (&gt; 20 Jahre) in der Automatisierungstechnik kann es bei Nachrüstungen zu Problemen kommen. In der Feldebene, der untersten Schicht in der Automatisierungstechnik, findet sich eine große Anzahl von Protokollen, die nicht in jeder neuen Technologie verfügbar sind. Genau an diesem Problem knüpft diese Arbeit an und es wird ein System entwickelt, welches von verschiedenen Protokollen Daten erfassen und diese an unterschiedliche Online-Datenbanken transferieren kann. In dieser Arbeit sollen wichtige Aspekte für ein solches System erörtert werden. Eingangs gibt der theoretische Teil einen Themenaufriss zur Industriellen Kommunikation. Genaueres Augenmerk wird auf eine sichere Datenübertragung gelegt, denn bei der Übertragung an Online-Datenbanken muss die Kommunikation verschlüsselt erfolgen. Es wird aber auch generelles Cloudcomputing behandelt, wobei der Fokus auf Online-Datenbanken und den Datenbankmodellen liegt. Das zu realisierende System soll so aufgebaut werden, dass zukünftig andere Protokolle für die Datenerfassung oder neue Online-Datenbank-Anbindungen hinzugefügt werden können. Im praktischen Teil wird das System, unter Berücksichtigung der erarbeiteten Resultate, umgesetzt und auf die Tauglichkeit in der Industrie untersucht.</description>
      <author>Bernhard Roßmann</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/524</guid>
      <pubDate>Sat, 04 Nov 2023 09:12:35 +0100</pubDate>
    </item>
    <item>
      <title>Vergleich von Open Source Frameworks in Java und .Net zur Anbindung an Open Source Infrastrukturkomponenten einer Microservice Architektur</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/426</link>
      <description>Diese Masterarbeit untersucht, welche Aspekte zum Betreiben einer Microservice Architektur notwendig sind. Die Realisierung kann mit Hilfe von Open Source Infrastrukturkomponenten erfolgen. Es werden Frameworks in Java und .NET zur Anbindung an diese untersucht und anhand eines Kriterienkatalogs verglichen.</description>
      <author>Simon Bauer</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/426</guid>
      <pubDate>Sat, 04 Nov 2023 08:34:22 +0100</pubDate>
    </item>
    <item>
      <title>Mobile Computing</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/672</link>
      <description>Die folgende Masterarbeit behandelt das Thema der Sicherheit im Umgang mit mobilen Geräten und welche Gefahren für diese bestehen und welche Maßnahmen getroffen werden können, um Schäden im Unternehmensumfeld zu vermeiden. Dabei wird ein großer Fokus auf mögliche Angriffsvektoren gelegt, diese evaluiert und betrachtet, wie ein Schaden auf den Angriffsvektor bestmöglich vermieden werden kann. Des Weiteren werden Penetration Tests von Geräten näher erleuchtet, da diese für das IT-Personal eine wichtige Möglichkeit darstellt, um die Sicherheit der Geräte und des Netzwerkes zu testen. Das Hauptaugenmerk der ersteren Kapitel bezieht sich auf die Verwendung von Notebooks für den mobilen Arbeitsgebrauch. Im letzten Kapitel des theoretischen Teiles werden Mobiltelefone nochmals genauer erörtert, da diese heutzutage zum Standardequipment von vielen Angestellten gehört. Schlussendlich werden für den praktischen Teil dieser Arbeit mehrere Experten zum Thema der mobilen Sicherheit im Unternehmen befragt, um zu erörtern welchen Stand diese derzeit und welche Maßnahmen diese anwenden, um deren Unternehmen abzusichern. Die Ergebnisse zeigen, dass von allen befragten Experten valide Standards eingesetzt werden, um die Sicherheit der Mobilgeräte zu garantieren. Dabei versuchen diese sowohl die Sicherheit der Geräte, aber auch der Daten zu garantieren.</description>
      <author>Farid Abdelgaffar</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/672</guid>
      <pubDate>Thu, 02 Nov 2023 11:02:35 +0100</pubDate>
    </item>
    <item>
      <title>Sicherheitsrisiken beim Betrieb kritischer Geräte und Anwendungen im Smart Home Umfeld</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/666</link>
      <description>Das Smart Home hat sich als Anwendungsgebiet innerhalb des IoT große Beliebtheit verschafft. Mithilfe von verschiedenartigen, miteinander vernetzten Geräten werden Komfort und Sicherheit im Wohnbereich gesteigert. Aufgrund der einfachen Bedienung und der Interoperabilität zwischen unterschiedlichen Plattformen ist diese Art von Geräten besonders in Privathaushalten verbreitet. Durch ständige Konnektivität zum Internet bestehen jedoch Risiken hinsichtlich der Informationssicherheit sowie des Schutzes von Daten der BenutzerInnen. Die untersuchte Architektur im Rahmen dieser Arbeit behandelt ein generisches, Cloud-basiertes System. Dieses wird mithilfe des Risikoanalysemodells OCTAVE Allegro und dem Fokus auf kritische Informationsassets systematisch auf Sicherheitsrisiken überprüft. Für eine bessere Übersicht wird das Gesamtsystem in drei Subsysteme aufgeteilt. Ziel der Risikoanalyse ist es, die unterschiedlichen Sicherheitsrisiken, welche mit der Nutzung von Cloud-basierten Smart Home Systemen verbunden sind, aufzuzeigen. Für die Reduzierung von Risiken werden Gegenmaßnahmen sowie ein Katalog über Handlungsempfehlungen für NutzerInnen erarbeitet. Die Ergebnisse zeigen, dass NutzerInnen innerhalb ihres Einflussbereiches gezielt Maßnahmen zur Reduzierung der Risiken setzen können. Besonders beim Betrieb von kritischen Geräten sind eine stabile Energieversorgung und Internetverbindung essenziell. Der restliche Anteil der Sicherheitsrisiken geht bei einem Cloud-basierten System auf die Systemanbieter sowie Service Provider über. Durch die Entwicklung von Systemen innerhalb aktueller Security-Frameworks können Systemanbieter bereits in der Konzeptphase spätere Risiken vermeiden und Security und Privacy by Design Prinzipien einhalten. Für eine nachhaltige Durchsetzung von Smart Home Systemen ist dies ein essenzieller Faktor. Mithilfe neuer Technologien wie Blockchain könnten traditionelle Sicherheitsprobleme im IoT obsolet werden, konkrete Anwendungsfälle dafür befinden sich noch im Forschungsstadium.</description>
      <author>Tobias Pichler</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/666</guid>
      <pubDate>Thu, 02 Nov 2023 10:31:19 +0100</pubDate>
    </item>
    <item>
      <title>Nutzer- und Nutzerinnenverhalten im Darknet</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/655</link>
      <description>Das Darknet, von vielen auch als das „böse Internet“ bezeichnet, bringt aufgrund seiner mysteriösen Natur viele Fragen mit sich. Es handelt sich um einen Teil des Deep Webs mit der besonderen Eigenschaft, dass Links im Darknet von keiner Search Engine indiziert werden können. Dieses Netzwerk besitzt jedoch weitere interessante Eigenschaften. Der Grad an Anonymität, welcher Darknet-Nutzern ermöglicht wird, ist im Laufe der Zeit charakteristisch für das Darknet geworden und damit auch zu seinem größten Vorteil geworden. Die Chancen, welche mit dem hohen Anonymisierungsgrad verknüpft sind, bringen ein breites Spektrum an Handlungsmöglichkeiten mit sich. Der Handel besitzt eine dominante Rolle im Darknet. Nicht nur diverse Drogen, sondern auch Fälschungen von persönlichen Dokumenten, schädliche Malware oder Hacking-Anleitungen sowie Schusswaffen können im Darknet problemlos erworben werden. Auch Rohdaten in unterschiedlichster Ausprägung spielen eine wichtige Rolle in diesem Netzwerk. So werden zahlreiche Whistleblowing-Seiten zum Vertrieb von Informationen verwendet oder auch weitere Kanäle, wie zum Beispiel Foren. Darknet-Nutzer können solche Daten konsumieren ohne Angst vor Zensur zu haben, da diese im Darknet keine Anwendung findet. So wie das Darknet ursprünglich für die sichere Kommunikation des amerikanischen Militärs entwickelt wurde, wird es heutzutage - nicht mehr auf das Militär eingeschränkt - zum gleichen Zweck eingesetzt. Hierbei wird eine Vielfalt an attraktiven Kommunikationskanälen angeboten, welche die uneingeschränkte Konversation erst möglich machen. Solche Grenzenlosigkeit kann jedoch sehr schnell zu starken Änderungen in der Verhaltensweise beider Gesprächspartner führen. Versteckt hinter dem Gefühl unbeschränkter Anonymität können im Darknet die persönlichen Grenzen aufgebrochen werden und das Verhalten der Anwender dieses Netzwerks ändert sich. Nichtsdestotrotz bringen die Kontaktaufnahme und das Kennenlernen anderer Nutzer zahlreiche interessante Erfahrungen mit sich, der Aufenthalt im Darknet stellt ein attraktives, überwältigendes Erlebnis dar.</description>
      <author>Eliska Krnavkova</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/655</guid>
      <pubDate>Fri, 27 Oct 2023 15:59:38 +0200</pubDate>
    </item>
    <item>
      <title>Entwicklung eines Entscheidungsmodells für die Auswahl eines Software Frameworks</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/665</link>
      <description>Zu Beginn eines Softwareprojekts stellt sich fast immer die Frage, welche Technologien dafür eingesetzt werden. Die Entscheidung über die Auswahl der Frameworks wird dabei oft nach Präferenz oder vorhandener Erfahrung der Entwickler*innen getroffen. Gerade bei wichtigen oder großen Projekten sollte die Auswahl der Frameworks rational anhand der gegebenen Projektanforderungen getroffen werden. Ziel dieser Masterarbeit ist es, zu bestimmen, ob die Auswahl der Frameworks durch ein systematisches Entscheidungsmodell unterstützt werden kann. Aus diesem Ziel wurde folgende Forschungsfrage gestellt: Kann mithilfe eines systematischen Entscheidungsmodells die Auswahl eines geeigneten Single-Page-Application-Frameworks im Bereich Web-Frontendentwicklung getroffen werden? Die Forschungsfrage wird dabei primär durch Literaturrecherche zur Entscheidungstheorie untersucht. Ferner wird anhand der Recherche ein Entscheidungsmodell entwickelt. Um die Forschungsfrage zu beantworten, wurden Single-Page-Application- (SPA)Frameworks recherchiert, gefiltert und anhand eines Kriterienkataloges bewertet, um sukzessive ein Entscheidungsmodell zu erarbeiten. Das entstandene Modell bietet die Möglichkeit, SPA-Frameworks anhand ihrer Eignung für individuelle an das Modell übergebene Projektanforderungen zu sortieren und ungeeignete Frameworks auszuscheiden. Die Bewertung der Frameworks erfolgte dabei mittels einer Bestandsaufnahme messbarer Fakten sowie durch den Vergleich der Frameworks anhand eines erstellten Prototyps bei nicht messbaren Kriterien. Für die Validierung des erstellten Modells wurde unter Personen aus der Softwareentwicklungsbranche eine Umfrage durchgeführt, bei der die Teilnehmer*innen die Frameworks bewerten konnten. Anschließend wurde mit der Bewertung der Umfrageergebnisse ein neues Modell erstellt und dieses anhand fiktiver Projektanforderungen mit dem ursprünglich erstellten Modell verglichen. Dabei wurde dasselbe Ergebnis erzielt und somit das Modell validiert. Die vorliegenden Ergebnisse zeigen, dass ein Entscheidungsmodell die Auswahl eines Frameworks ermöglicht oder als Entscheidungsgrundlage dienen kann. Voraussetzung dafür ist die objektive Bewertung der Frameworks sowie der individuellen Projektanforderungen.</description>
      <author>Manuel Reinhart</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/665</guid>
      <pubDate>Fri, 27 Oct 2023 14:05:29 +0200</pubDate>
    </item>
    <item>
      <title>Auswirkungen des Einsatzes von Informationssystemen auf die Unternehmenskultur in Organisationen des Öffentlichen Dienstes in Österreich</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/698</link>
      <description>Die Wirtschaftsinformatik betrachtet Informationssysteme als komplexe soziotechnische Systeme, in denen Mensch und Informationstechnik zur Erledigung einer Aufgabe zusammenwirken. Jedoch verursacht der Einsatz von Informationstechnik unerwartete Sekundäreffekte im menschlich-sozialen Bereich des Systems, die die wissenschaftliche Literatur bisher kaum behandelt. Aus diesem Grund versucht diese Masterarbeit in diesem Bereich einen Beitrag zu leisten, indem die langfristigen Auswirkungen des Einsatzes von Informationssystemen auf das Fundament des sozialen Subsystems, die Unternehmenskultur, untersucht werden. Zu diesem Zweck wurde eine explorative Einzelfallstudie in einer Organisation des öffentlichen Dienstes, in der in den letzten fünfzehn Jahren die Informationsinfrastruktur laufend erweitert wurde, durchgeführt. Eine solche Organisation wurde gewählt, da der Literatur entsprechend von einer ausgeprägten Unternehmenskultur im öffentlichen Dienst auszugehen ist. Ziel der Studie war es, jene Kulturdimensionen, auf die sich der Einsatz von Informationssystemen auswirkt, zu identifizieren und konkrete Auswirkungen sowie einige relevante moderierende Effekte in diesen Dimensionen zu bestimmen. So wurde als Vorbereitung zur empirischen Untersuchung ein weitreichender theoretischer Bezugsrahmen auf Basis der Systemtheorie, des soziotechnischen Designansatzes sowie wissenschaftlicher Literatur aus der Kultur- und Informationssystemforschung entwickelt. Diesem Bezugsrahmen entsprechend wurden 15 qualitative Experteninterviews mit Führungskräften, einem Personalvertreter und einem IT-Administrator abgehalten, in denen Daten zu 16 verschiedenen Kulturdimensionen erhoben wurde. Diese Daten wurden anschließend mit einer qualitativen Inhaltsanalyse, die durch den Einsatz einer Analysesoftware unterstützt wurde, ausgewertet. Die Ergebnisse zeigen, dass sich der Einsatz von Informationssystemen vor allem in den Kulturdimensionen Kommunikation, Qualifikationsanforderungen an die Mitarbeiter, Einbindung der Mitarbeiter, Umgang mit Zeit und Kontrolle auswirkt. Beispielsweise hat die Veränderung im Kommunikationsverhalten zu einem Verlust von impliziter sozialer Hintergrundinformation bei den Führungskräften geführt, was wiederum deren Führungsarbeit erheblich beeinträchtigt. Zudem hat sich in der Organisation eine ungewöhnlich offene Informationskultur entwickelt, die das Informationsaufkommen deutlich erhöht und die Bediensteten zum gleichzeitigen Erledigen mehrerer Aufgaben drängt. Insgesamt konnten in dieser explorativen Studie, die durch intensive Literaturarbeit unterstützt wurde, 56 Hypothesen erarbeitet werden. Diese bilden eine solide Basis für weitere Forschungsschritte mit dem Ziel, unbeabsichtigte soziokulturelle Auswirkungen in der praktischen Entwicklung von Informationssystemen zu verhindern.</description>
      <author>Gernot Schukan</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/698</guid>
      <pubDate>Fri, 27 Oct 2023 13:00:09 +0200</pubDate>
    </item>
    <item>
      <title>Model-based evaluation of different control strategies</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/559</link>
      <description>The importance of stainless and special steel products has increased substantially in recent decades, as their use has shifted from niche special applications to widespread popular function. Clearly, the vacuum oxygen decarburization (VOD) process plays a major role in stainless steel production. In order to achieve extremely low carbon ratios in the presence of high chromium content, oxygen is blown under reduced pressure conditions. Despite the well-known determination of the required amount of oxygen, the operation practice itself seems to vary in the field. This gives rise to the question of the existence of a consistent optimized control strategy. The present master’s thesis addresses the existing optimization problem by using a multiple-validated VOD process simulation model. As a first step, the optimization problem is defined by the examination of the existing model. Thus, the process model flow is step by step transformed into mathematical terms. Subsequently, a variable study is carried out evaluating the influences of the oxygen blowing rate, stirring gas rate and the system pressure on the result of the model. Based on the findings, an optimization algorithm is then implemented to generate enhanced control strategies with respect to the given optimization criterion: minimize chromium oxidation. Finally, the results are demonstrated by simulations and tests of generated control strategies with the existing model. These tests clearly show an improvement regarding the optimization criterion. Moreover, the results demonstrate numerically and visually, that the newly developed algorithm generates enhanced control strategies.</description>
      <author>Michael Mayer</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/559</guid>
      <pubDate>Fri, 27 Oct 2023 10:47:05 +0200</pubDate>
    </item>
    <item>
      <title>Design, implementation and evaluation of a high availability solution for a logistic system</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/563</link>
      <description>Many areas of human activity demand high availability (HA) for the services provided by information technology (IT), including supply chain and especially logistics services as its backbone. Logistics automation has already been tightly linked with IT for some time now. Eventually, it is expected to reach a tipping point of digitalization under the Logistics 4.0 concept. Such anticipated convergence provided a basis for the thesis research. It was possible to apply time-proven approaches originally used in IT to produce a tailored and cost-effective HA solution for an ITenabled logistics system in order to minimize costly downtime. A multi-layer architectural pattern was adopted to focus the research on the opportunities to improve HA provided by innovative open-source software. “State-of-the-art” approaches, best practices, and challenges to attaining availability are covered in the course of the thesis. The case study was based on the efforts of a Styrian solution provider for intralogistics systems to improve and standardize HA solution for their software products and services. Mandatory HA requirements to ensure business continuity were used to outline a reference architecture for a generic HA solution by means of HA cluster for a logistics system. A prototype testbed, based on the relevant stack of technologies, validated and evaluated the proposed reference HA architecture. The findings of this thesis demonstrate the feasibility of the idea to build a cost-optimized clusterbased HA solution using commercial off-the-shelf hardware and free open-source software which can deliver an improved level of availability for a modern logistics system.</description>
      <author>Oleksandr Samoylyk</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/563</guid>
      <pubDate>Fri, 27 Oct 2023 10:21:47 +0200</pubDate>
    </item>
    <item>
      <title>Digitalisierung der Formulare für die Plasmaspende</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/644</link>
      <description>In den letzten zwei Jahrzehnten hat die Digitalisierung nahezu jeden Bereich des täglichen Lebens erreicht und den gesamten Ansatz der Technologieintegration verändert. Prozesse in der Pharmaindustrie profitieren von den Vorteilen von eHealth (engl. electronic health), indem sie durch die Nutzung digitaler Synergien effizienter und kostengünstiger eingesetzt werden können. Trotz fortschreitender Digitalisierung gibt es weiterhin papierbasierte Verfahren, die durch die Migration in einen elektronischen Prozess produktiver werden können. Das Ziel dieser Masterarbeit ist es aufzuzeigen, wie ein auf Papierformularen basierender Prozess unter Einhaltung aller gesundheitsbezogenen Anforderungen und Vorschriften durch die Digitalisierung verbessert werden kann. BioLife Plasmazentrum ist ein Pharmaunternehmen, das Plasmapherese zur Gewinnung von menschlichem Blutplasma für die High-Tech-Arzneimittelherstellung anbietet. Zunächst wurden alle geltenden regulatorischen Anforderungen des Unternehmens und der Arzneimittelbranche bezüglich Formularen evaluiert. Neben den wesentlichen Anforderungen wurden die technischen Spezifikationen, sowie mögliche Vorteile einer Softwarelösung anstelle der Papierform analysiert. Im praktischen Teil dieser Arbeit wurde ein Prototyp der grafischen Benutzeroberfläche für ein Touchscreen-Gerät programmiert. In der Entwicklungsphase wurde durch den Einfluss von Funktion, Design und intuitiver Handhabung die Priorisierung auf die User Experience sichergestellt. Aufgrund der überzeugenden Ergebnisse mit dem digitalisierten Formular wird der Einsatz von Touchscreen-Geräten mit einem Graphical User Interface empfohlen. Das in der Abschlussarbeit gesammelte Know-how kann für weitere Digitalisierungsprojekte genutzt werden.</description>
      <author>Marlene Baumgartner-Tösch</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/644</guid>
      <pubDate>Wed, 25 Oct 2023 16:03:45 +0200</pubDate>
    </item>
    <item>
      <title>Erstellung einer bedarfsorientierten Datenbanklösung zur Asset-Verwaltung im Life Cycle Management</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/639</link>
      <description>Jeder Betreiber einer kritischen Infrastruktur muss gemäß der europäischen Richtlinie zur Netz- und Informationssicherheit (NIS) sicherstellen, dass alle Anlagen stets auf dem neuesten Stand der Technik sind. Die Dürr Austria GmbH erfüllt und befolgt die NIS-Richtlinie für ihren Auftraggeber, der für die kritische Infrastruktur von Tunneln in Österreich verantwortlich ist. Die Verwaltung aller in einem Tunnel verbauten Assets ist umfangreich und eine lückenlose Dokumentation sämtlicher sicherheitsrelevanten Maßnahmen ist essenziell. Ziel dieser Masterarbeit war es, eine geeignete und individuelle Datenbanklösung zur Verwaltung dieser Assets zu entwickeln. Basierend auf umfangreichen Recherchen zu Asset-Management, Datenmanagement und möglichen Datenbanklösungen, wurde die optimale Lösung für das Unternehmen ermittelt und ein User Interface Mock-up des Prototyps, unter Berücksichtigung der Vorgaben für die Visualisierung, erstellt. Dieser Prototyp veranschaulicht die grafische Benutzeroberfläche der zukünftigen Datenbank und demonstriert ihre Funktionalitäten. Die Ergebnisse zeigen, dass der Ansatz praktisch anwendbar und umsetzbar ist und die Implementierung der Datenbank im Unternehmen möglich ist. Basierend auf allen Ergebnissen dieser Masterarbeit wird die Datenbank in naher Zukunft programmiert und im Unternehmen eingeführt.</description>
      <author>Kerstin Ramian</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/639</guid>
      <pubDate>Wed, 25 Oct 2023 14:26:57 +0200</pubDate>
    </item>
    <item>
      <title>Entwicklung eines Emulators für das automatisierte Münzverarbeitungssystem in Spielautomaten</title>
      <link>https://opus.campus02.at/frontdoor/index/index/docId/625</link>
      <description>Das Unternehmen IGT Austria GmbH entwickelt vorwiegend Softwarelösungen für Glücksspielautomaten in regulierten Märkten weltweit. In einigen dieser Märkte spielt konventionelle Münzverarbeitung eine zentrale Rolle. Somit ist es im Rahmen von Softwareentwicklungsprozessen unumgänglich Tests in Verbindung mit dem automatisierten Münzverarbeitungssystem durchzuführen. Schwierigkeiten ergeben sich in diesem Kontext vor allem in Anbetracht der länderspezifischen Währungen, weil es an Testmünzen oder passenden Bezahlsystemkomponenten fehlt. Die vorliegende Masterarbeit befasst sich daher mit der Systementwicklung eines Emulators, der die grundsätzliche Funktionsweise realer Komponenten des Münzverarbeitungssystems nachbildet. In dieser Intention wird zunächst das Gesamtsystem der automatisierten Münzverarbeitung sowie die Funktionsweise und Interaktion der Einzelkomponenten analysiert. Unter Berücksichtigung der Grundsätze und Methodiken des Requirements-Engineering werden anschließend konkrete Anforderungen an den zu entwickelnden Emulator ermittelt und dokumentiert. Die Anforderungsspezifikation dient als Ausgangspunkt für konzeptuelle Überlegungen in Bezug auf die Umsetzung. Resultierend aus diesen Überlegungen wird eine geeignete Zielplattform definiert sowie eine Softwarearchitektur entworfen, die durch Erweiterbarkeit und Wartungsfreundlichkeit überzeugt. Nach anschließender Implementierung der Architektur auf Basis plattformübergreifender Entwicklungsansätze, wird der finale Prototyp des Emulators unterschiedlichen Funktionstests unterzogen und evaluiert. Die Tests haben gezeigt, dass der Prototyp funktioniert und die grundlegenden Funktionen erfüllt, allerdings noch weitere Evaluierungen in Richtung Plattform-Abhängigkeit der Software durchzuführen sind.</description>
      <author>Bernd Schuster</author>
      <category>masterthesis</category>
      <guid>https://opus.campus02.at/frontdoor/index/index/docId/625</guid>
      <pubDate>Wed, 25 Oct 2023 11:18:37 +0200</pubDate>
    </item>
  </channel>
</rss>
