004 Datenverarbeitung; Informatik
Refine
Year of publication
Document Type
- Master's Thesis (54)
Has Fulltext
- yes (54)
Is part of the Bibliography
- yes (54)
Keywords
- Software Engineering (6)
- Informationssicherheit (5)
- Computersicherheit (4)
- Digitalisierung (4)
- Cloud Computing (3)
- Internet der Dinge (3)
- Mikroservice (3)
- Sicherheitsplanung (2)
- Automation (1)
- Autonome Systeme (1)
In dieser Masterarbeit wird untersucht, ob dezentrale IT-Infrastrukturen resilient sind und welche Potenziale sowie Herausforderungen mit ihrer Dezentralisierung einhergehen. Anhand einer systematischen Literaturrecherche nach vom Brocke et al. (2009) wurden 42 relevante Quellen ausgewertet, um die wesentlichen Potenziale und Herausforderungen der IT-Dezentralisierung herauszuarbeiten. Die Recherche zeigt dezentrale Architekturen als klar resilienzfördernden Ansatz. Aussagen zu Kosten und Komplexität zeigen jedoch ein uneinheitliches Bild. Zahlreiche Quellen adressieren zwar allgemeine Kostenaspekte, doch die konkrete Kostenentwicklung infolge der Dezentralisierung bleibt häufig unklar, insbesondere aufgrund fehlender Vergleiche mit zentralisierten Infrastrukturen. Dennoch legen die Ergebnisse nahe, dass Kosten kein grundsätzliches Ausschlusskriterium darstellen und Dezentralisierung unter geeigneten Rahmenbedingungen aufgrund besserer Skalierbarkeit oder effizienter Ressourcennutzung sogar Kostenvorteile bieten kann. Auch im Hinblick auf die Komplexität zeigt sich ein ambivalentes Bild: Zwar wird sie in vielen Quellen thematisiert, jedoch nur selten ausdrücklich als Nachteil aufgezeigt. Zudem wurde Dezentralisierung nicht als einheitliches Konstrukt identifiziert, sondern als Sammelbegriff für unterschiedliche Ausprägungen und Umsetzungen mit jeweils spezifischen Vor- und Nachteilen. Häufig genannte Vorteile sind verbesserte Skalierbarkeit, Robustheit, Fehlertoleranz, Effizienz- und Performancesteigerung sowie erhöhte Sicherheit. Gleichzeitig wurden technische und organisatorische Herausforderungen festgestellt, darunter Koordination, Skalierung, Ressourcenbeschränkungen, höhere Latenzen, erhöhter Netzwerkverkehr und Sicherheitsbedenken. Die ambivalente Bewertung legt nahe, dass die tatsächlichen Vorteile der Dezentralisierung maßgeblich von der konkreten Umsetzung abhängen und bietet einen Ansatzpunkt für eine vertiefte Auseinandersetzung in zukünftigen Forschungsarbeiten.
In der industriellen Produktion stehen Unternehmen vor der Aufgabe, sowohl neue als auch bestehende Anlagen nachhaltig und effizient zu gestalten. Klassische Engineering-Ansätze sind oft hardwaregetrieben und berücksichtigen Nachhaltigkeit erst spät, was zu hohen Kosten und langen Entwicklungszeiten führt. Diese Arbeit entwickelt eine nachhaltige Engineering-Strategie basierend auf Sequence Logic Modelling (Selmo). Im Fokus steht der P-T-F-Ansatz (Prozess, Technologie, Funktion), der bereits im Pre-Engineering alle Anforderungen klar definiert und blinde Flecken vermeidet. Diese Methodik wurde in zwei Szenarien angewendet. Beim Retrofit einer bestehenden Fischertechnik-Fertigungslinie und bei der Betrachtung einer Neuanlage. Im Retrofit konnten durch gezielte Nachrüstung die Prozessqualität und Verfügbarkeit deutlich verbessert werden. Bei der Neuanlage zeigte sich, dass frühe Prozessdefinitionen Zeit und Kosten sparen. Zwei reale Fallstudien bestätigen den Erfolg. Das Retrofit-Projekt der VELOX Werk GmbH führte zu einer 25 % höheren Produktionsleistung und seit fünf Jahren zu keinem einzigen Eingriff in die Software. Die Neuanlage eines führenden Getränkeherstellers wurde bereits in der Engineering-Phase durch die Anwendung der Strategie optimiert. Ergänzend werden ESG- und CSRD-Richtlinien betrachtet. Die durchgängige Prozessmodellierung erhöht die Energieeffizienz und schafft eine transparente Datengrundlage. Künftig könnte Künstliche Intelligenz dabei helfen, Prozessmodelle automatisch zu erstellen und weiterzuentwickeln. Die Ergebnisse zeigen, dass durch eine konsequente Prozessmodellierung und den gezielten Einsatz moderner Steuerungstechnik nachhaltige, effiziente und wirtschaftlich vorteilhafte Produktionsprozesse geschaffen werden können. Die entwickelte Engineering-Strategie ermöglicht es Unternehmen, Kosten zu reduzieren, den Maschinenbetrieb zu optimieren und gleichzeitig regulatorische Anforderungen an Nachhaltigkeit und Effizienz zu erfüllen.
Die Zustellung von Briefen war lange Zeit ein staatliches Monopol, wurde jedoch in letzter Zeit schrittweise liberalisiert. Das Volumen postalischer Briefe in Österreich nimmt ab, während die Digitalisierung öffentlicher Dienstleistungen, insbesondere während der COVID-19-Pandemie, an Dynamik gewonnen hat. Obwohl das Zustellgesetz (ZustG/12.11.2023) bereits seit 1998 in Kraft ist, haben jüngste Änderungen und die Einführung des staatlich kontrollierten Authentifizierungssystems „ID Austria“ zur Online-Postfach-Anwendung „Mein Postkorb“ geführt, die derzeit vom österreichischen Finanzministerium betrieben wird. Dieser Dienst bietet eine sichere, authentifizierte und nachvollziehbare digitale Zustellung behördlicher Schreiben an Bürgerinnen und Bürger. Im Mai 2025 gibt es insgesamt rund 1,9 Millionen Nutzer*innen, davon 1,2 Millionen Privatpersonen. Im Jahr 2024 wurden 13,6 Millionen Schreiben versendet (Trauner, 2025).Diese Arbeit untersucht hemmende und fördernde Faktoren, die die Akzeptanz eines Online-Portals zur Briefzustellung beeinflussen. Der Untersuchungsgegenstand ist die österreichische Anwendung „Mein Postkorb“; private Dienste für die digitale Zustellung, etwa im Bank- oder Versicherungsbereich, wurden nicht berücksichtigt. Die Studie kombiniert das weit verbreitete UTAUT-Akzeptanzmodell (Venkatesh et al., 2003) mit der Inhibitor-Theorie (Cenfetelli, 2004). Diese beiden gegensätzlichen Perspektiven wurden um weitere potenzielle Einflussfaktoren ergänzt und in einem gemeinsamen theoretischen Modell zusammengeführt. Dieses Modell diente als Grundlage für einen Interviewleitfaden, der in Expert*inneninterviews zum Einsatz kam. Die Transkripte der insgesamt fünf befragten Expertinnen und Experten wurden mittels quantitativer Inhaltsanalyse nach Mayring (2010) ausgewertet, woraus ein Kategoriensystem entstand. Die zentralen Ergebnisse waren das Auftreten neuer Einflussfaktoren, insbesondere der Eintrittsbarrieren, die die Nutzung eines unbekannten Systems hemmen können. Auf der anderen Seite konnten die Kategorien „Sicherheit“ und „E-Government-Strategie“ als fördernde Faktoren identifiziert werden. Die Zusammenfassung der Ergebnisse führte zu Empfehlungen zur Förderung der Nutzung der elektronischen Zustellung in Österreich. Auf Grundlage dieser Arbeit könnten weiterführende Studien durchgeführt werden, um die neuen Faktoren detaillierter zu untersuchen. Darüber hinaus wäre ein Experiment denkbar, um genauere Einblicke in das Nutzer*innenverhalten bei Registrierung, Anmeldung und Erhalt von Schreiben in der Anwendung „Mein Postkorb“ zu gewinnen.
Green Cloud Computing
(2023)
Der IT-Dienstleistungssektor hat einen signifikanten Anstieg der Nutzung von Cloud Computing erlebt und seinen Marktanteil von 14,5% im Jahr 2017 auf 42,5% im Jahr 2022 ausgebaut. Trotz der unbestreitbaren Vorteile hat dieses Wachstum Umweltbedenken aufgeworfen. Der steigende Bedarf an Rechenleistung und die Verbreitung von internetverbundenen Geräten tragen zum ökologischen Fußabdruck des Cloud-Computings bei. Studien variieren und schreiben dem Cloud Computing 0,3% bis 2% der globalen CO2-Emissionen zu, mit zusätzlichen Umweltauswirkungen wie Abfallproduktion, Wasserverbrauch und Landnutzung. Diese Masterarbeit adressiert den dringenden Bedarf an nachhaltigen Praktiken bei österreichischen Cloud Service Providern. Das Ziel ist es, handlungsorientierte Empfehlungen für die Umsetzung von grünem Cloud Computing auf Grundlage einer gründlichen Überprüfung der wissenschaftlichen Literatur zu formulieren. Unter Verwendung der systematischen Literaturübersichtsmethodik von Brocke et al. und der PRISMA-Methode analysierte diese Studie 106 Arbeiten mit einer Mindestanzahl von 5 Zitaten innerhalb eines bestimmten Zeitrahmens. Die Literatur betont überwiegend Initiativen zur Energieeffizienz, insbesondere während der Nutzungsphase von Rechenzentren, vernachlässigt jedoch die umfassendere Perspektive des gesamten Lebenszyklus. Diese Studie bestätigt die Hypothese, dass erhebliches Potenzial für die Anpassung umweltfreundlicher Maßnahmen bei Cloud Service Providern besteht. Um diese Lücke zu schließen, wird ein Umsetzungsplan für grünes Cloud Computing vorgeschlagen, der wissenschaftlichen Techniken zur Energieeffizienz auf Software- und Hardwareebene, zur Virtual Machine Consolidation und bioinspirierte Algorithmen umfasst. Aufbauend auf Erkenntnissen des deutschen Umweltbundesamts-Projekts KPI4CDE und GCC sowie der systematischen Literaturübersicht identifiziert diese Forschung ungenutztes Potenzial für weitere wissenschaftliche Untersuchungen des vollständigen Lebenszyklus von Cloud Service Providern. Diese Studie legt den Grundstein für zukünftige Forschungsinitiativen, die darauf abzielen, die Umweltauswirkungen des Cloud-Computings umfassend zu verstehen und zu mindern.
Die Unabhängigkeit von menschlichen Interaktionen, kombiniert mit der erhöhten Sicherheit und Effizienz, sind Hauptgründe für die rasante Entwicklung der Autopiloten-Technologie. Insbesondere der verstärkte Einsatz von Drohnen hat dazu beigetragen, dass Open-Source-Autopiloten wie ArduPilot und PX4 Autopilot sich ständig weiterentwickeln konnten. Aufgrund des wachsenden Funktionsumfangs wurde der Einsatz dieser Autopiloten auch schnell auf andere unbemannte Fahrzeuge erweitert. Allerdings besitzen diese Softwareplattformen individuelle Stärken und Schwächen, welche erst bei einem fundierten Vergleich deutlich werden. Das Ziel dieser Masterarbeit ist es, die Open-Source-Autopiloten ArduPilot und PX4 Autopilot anhand einer experimentellen Untersuchung zu analysieren. Im Rahmen dieser Evaluierung wurde ein spezielles Testfahrzeug eingesetzt, welches eine vordefinierte Strecke automatisiert abfährt. Die Streckenvorgabe wird dabei über geografische Koordinaten festgelegt. Dieses Testfahrzeug besteht aus einem modifizierten Modellfahrzeug mit integriertem Flight-Controller sowie geeigneten Aktoren und Sensoren. Um die Vergleichbarkeit der Testergebnisse zu gewährleisten, war es zusätzlich notwendig, ein passendes Testsetup zu schaffen. Die Untersuchung konzentriert sich hauptsächlich auf die Unterschiede in der Routennachverfolgung, wobei die Genauigkeit und Effizienz jedes Autopilot-Systems analysiert werden. Darüber hinaus werden die notwendigen Schritte zur Kalibrierung und Konfiguration der Autopiloten untersucht. Basierend auf diesen Erkenntnissen werden die Autopiloten sowie die verwendeten Bodenstationssoftwaren, Mission Planner und QGroundControl, verglichen. Letztendlich bieten die gesammelten Ergebnisse eine fundierte Entscheidungsgrundlage für die Auswahl eines geeigneten Autopiloten für Bodenfahrzeuge. Darüber hinaus fördern sie auch den praktischen Einsatz von Open-Source-Autopiloten.
Modellierung eines digitalen Zwillings für die Erprobung eines additiv gefertigten Wärmetauschers
(2024)
Die Anforderungen an moderne Simulationstechniken hinsichtlich ihrer Komplexität, Datentransparenz und intelligenten Vernetzung sowie einer umfassenden Virtualisierung eines zugrundeliegenden Objektes oder Systems haben innerhalb der letzten Jahre über alle Technologiesektoren hinweg deutlich zugenommen. Der Digitale Zwilling ist ein Konzept, welches diesen gestiegenen Anforderungen gerecht wird und zudem positive wirtschaftliche Aspekte, wie der Einsparung von Material und der damit einhergehenden Kostenreduktion, mit sich bringt. Im Zuge dieser Masterarbeit soll eine möglichst präzise Modellierung und anschließende Anwendungserprobung eines Digitalen Zwillings von einem additiven Wärmetauscher realisiert werden. Dies wird durch eine anfängliche Erläuterung der theoretischen Grundlagen eines Digitalen Zwillings, der Wärmeübertragung und der relevanten Modellierungsansätzen erreicht. Die praktische Umsetzung umfasst die Erstellung des Regelungscodes für die speicherprogrammierbare Steuerung sowie die Modellierung des virtuellen Abbilds des Prüfstands. Das realisierte Modell erfüllt die grundlegenden Anforderungen eines Digitalen Zwillings und kann für Test- und Schulungszwecke sinnvoll eingesetzt werden, zeigt jedoch auch die Grenzen der Machbarkeit auf und bietet Optimierungspotenziale hinsichtlich der Stabilität, Präzision sowie der allgemeinen Funktionstiefe der virtuellen Abbildung. Die Ergebnisse verdeutlichen, dass die Komplexität der Modellparameter bei intensiverer Auseinandersetzung mit dem Konzept des Digitalen Zwillings stark zunimmt und für umfassendere Modellansätze ein erheblicher Mehraufwand erforderlich ist.
Im heutigen Umfeld der produzierenden Industrie sind kontinuierliche Effizienzsteigerung, Qualitätsverbesserung und Wettbewerbsfähigkeit zentrale Anliegen. Die Automatisierung von Produktionsprozessen und eine umfassende Datenerfassung gewinnen zunehmend an Bedeutung. Die erfassten Daten dienen als Grundlage für die Steuerung, Analyse und Optimierung der Produktionsprozesse. Das Ziel dieser Masterarbeit ist die Einführung eines automatisierten Datenerfassungssystems über die gesamte Produktionsstätte. Dieses wird benötigt, um Produktionsdaten aufzuzeichnen und Key Performance Indicators (KPIs) automatisiert zu berechnen. Hierfür müssen verschiedene Hersteller von speicherprogrammierbaren Steuerungen (SPS) und andere Systeme wie eine Structured Query Language (SQL)-Datenbank angebunden werden. Nach einem vertieften Verständnis von Supervisory Control and Data Acquisition (SCADA)-Systemen und deren Aufbau wird eine Analyse der vorhandenen Hardwarekomponenten und Topologien durchgeführt. Darauf aufbauend werden Implementierungskonzepte erarbeitet, deren Hauptaugenmerk auf einer nahtlosen Integration und Erweiterbarkeit liegt. Diese Konzepte werden für den konkreten Anwendungsfall evaluiert und bewertet. Das Ergebnis dieser Masterarbeit ist die praktische Umsetzung des gewählten Konzepts mit der Implementierung des Datenerfassungssystems an einer Produktionslinie. Die nahtlose Integration des Datenerfassungssystems ermöglicht es, die Effizienz zu steigern, menschliche Fehler zu minimieren und Echtzeitdaten für fundierte Entscheidungen bereitzustellen. Diese Arbeit soll einen Überblick darüber geben, wie ein Datenerfassungssystem in die bestehende Infrastruktur einer Produktionsanlage integriert werden kann.
Die Informationstechnologie (IT) ist eine sich schnell verändernde Branche und bietet vielfältige Möglichkeiten, neue Geschäftsfelder zu etablieren oder bestehende Geschäftsmodelle und Prozesse zu modernisieren. Dieser Vorgang, weithin unter der Bezeichnung Digitalisierung bekannt, bringt auch eine Vielzahl an Herausforderungen für die IT-Infrastruktur. Diese muss immer schneller reagieren und sich zeitgleich neuen Sicherheitsanforderungen stellen. Um diesen Anforderungen gerecht zu werden, müssen Prozesse beschleunigt und automatisiert werden. Bereits heute werden viele Server virtuell zur Verfügung gestellt, wodurch diese binnen weniger Augenblicke für neue Services bereitstehen. Dieser Trend der Virtualisierung lässt sich nach und nach auch im übrigen Datacenter erkennen. Das sogenannte Software-defined Datacenter soll Unternehmen dabei helfen, das gesamte Datacenter, beginnend bei Servern, Storage, Security-Komponenten bis hin zum Netzwerk, zu virtualisieren. Dadurch sollen Prozesse automatisiert und Fehlerquellen reduziert werden. Eine besondere Herausforderung stellt dabei das Netzwerk dar. Bis heute wird der Großteil der Netzwerkkomponenten von Administratoren manuell und einzeln administriert, wodurch sich potenzielle Fehler innerhalb der Konfiguration ergeben. Um diese Fehler zu reduzieren und um die Konfigurationszeiten zu verkürzen, werden nach und nach neue Technologien im Software-defined-Networking-Bereich etabliert. Dabei stellt sich die Frage, wie ein Konzept zur Automatisierung eines modernen Netzwerkes gestaltet sein kann. In der vorliegenden Forschungsarbeit wurde versucht, dies Anhand eines Prototypings zu erarbeiten. Besonderes Augenmerk wurde hier auf IT-Dienstleister im öffentlichen Bereich gelegt. Einleitend wurde auf die Notwendigkeit einer infrastrukturellen Veränderung eingegangen, wodurch sich klar erkennen ließ, dass mit zunehmender Digitalisierung Technologien wie SDN an Bedeutung gewinnen. Abschließend konnte erkannt wer-den, dass SDN eine zukunftsträchtige Technologie ist, jedoch nicht als Standardprodukt zu verstehen ist. SDN muss individuell für jedes Unternehmen durchdacht werden, damit die Vorteile der Automatisierung genutzt werden können.
Kollaborative Roboter repräsentieren einen weiteren innovativen Schritt in der Automatisierung von Produktionsanlagen. Universal Robots ist Weltmarkführer in der kollaborativen Robotik und betont die einfache Anwendung seiner Produkte. Zahlreiche Produktionsunternehmen versuchen dahingehend, umfassende Roboterapplikationen eigenständig zu implementieren. Aufgrund fehlender Erfahrung, resultieren derartige Projekte jedoch oftmals in zeit- und kostenintensiven Entwicklungsphasen. Diese Arbeit hat das Ziel ein neuartiges URCap zu entwickeln, welches den erforderlichen Programmcode automatisch generiert und somit die Programmierung von komplexen Roboteranwendungen ebenso für unerfahrene Anwender*innen zugänglich macht. Unter Aufarbeitung der Grundzüge der Roboterprogrammierung entwirft diese Arbeit zuerst eine Programmrohstruktur für Maschinenbeschickungsanwendungen. Anschließend zeigt diese Arbeit in welchem Umfang diese Programmstruktur automatisch vom entwickelten URCap generiert werden kann. Die Ergebnisse präsentieren ein funktionierendes URCap, welches wertvolle Programmierzeit bei Maschinenbeschickungsanwendungen einspart. Darüber hinaus stellt es weitere Funktionalitäten für eine Steigerung der Prozessstabilität zur Verfügung.
Integrierte Navigationssysteme (INS) auf Schiffen leisten einen großen Beitrag zu sicheren Navigation, um kritische Situationen zu umgehen oder zu entschärfen. Damit können INS als sicherheitsrelevante Systeme bezeichnet werden. Neben durchgängiger Redundanz, Diagnose von Komponenten zur Laufzeit und durchgeführter FMEA für die Typzulassung des INS, weisen diese keine weiteren Mechanismen auf, um das System im Fehlerfall vor Ausfall oder Fehlfunktion zu schützen, wodurch das System in einen kritischen Zustand übergehen kann. Weitere Maßnahmen sind notwendig, weil die Integrationsgrade der Navigationssysteme und Interaktionen mit vielen unterschiedlichen Systemen stetig zunehmen. Damit ein INS in Zukunft weiterhin dem Stand der Technik entspricht, müssen aktuelle Anforderungen aus Standards, wie dem IEC 61162-460 hinsichtlich Safety & Security erfüllen, damit das Risiko erhöhter Integrationsgraden auf ein vertretbares Maß gesenkt werden kann. Um das System vor Übergängen in kritische Zustände zu bewahren und einen Sicherheitslevel zu erreichen, der zukünftig den Anforderungen an Bord genügt, wird im Rahmen dieser Arbeit neben den gültigen Standards und Normen für INS die Funktionale Sicherheit betrachtet. Dazu wird ¨ die Grundnorm IEC 61508 und die abgeleiteten Normen für entsprechende Industriebereiche ¨ betrachtet. Für den Seeverkehr gilt hervorgehoben die UN-Konvention SOLAS von 1974. Die Festlegungen aus dieser Konvention spiegeln sich in Normen und Standards, wie auch in Gesetzen der Staaten wider. Der Fokus der Standardisierungsgremien liegt nach wie vor auf dem Menschen und der Unterstützung durch das INS. Dabei sollen Fehler des Menschen vermieden, Ausfälle erkannt und Warnungen erzeugt werden. Mit dem Standard IEC 61162-460 beginnt die Standardisierung der Sicherheit (Safety & Security) und Funktionalen Sicherheit des INS. Durch eine Rekapitulation von Serviceeinsätzen wurde erkannt, dass in vielen Fällen ein Ausfall oder eine Fehlfunktion dadurch entstand, dass eine fehlerhafte Konfiguration vorlag. Die hohe Konfigurierbarkeit des INS ist ein Vorteil, birgt jedoch die Gefahr der Fehlkonfiguration. Die Auswertungen der Fehlerzustände und Ausfälle ergab, dass eine Diagnose der Konfiguration durchgeführt werden muss. Diese Diagnose soll bereits zur Konfigurationszeit durchgeführt werden (Onlinediagnose). Dabei wird die erstellte Konfiguration gegen Bedingungen geprüft, die Restriktionen der verwendeten Hardware (z.B. Überlast) oder die Systemintegrität (z.B. geforderte Redundanz, Einbaupositionen) abbilden. Die Diagnoseabdeckung des Systems wird neben der Laufzeit auf die Konfigurationszeit (Installation und Inbetriebnahme) erweitert. Für höchst konfigurierbare Systeme, wie das INS von Raytheon Anschutz, können bis zu 29% der Fehleranteile im Lebenszyklus eines Systems vermieden werden. Die vorliegende Arbeit bietet einen Ansatz zur Erweiterung der Diagnosefähigkeiten des Systems auf die Konfigurationszeit. Bestimmte Bedingungen, abhängig von verwendeter Hardware, Größe des Gesamtsystems können bereits bei Anfertigung der Systemkonfiguration überprüft werden. Plausibilitäts- und Integritätsprüfungen, wie Einbaupositionen, notwendige Redundanzen, korrekte Sensorverbindungen können zusätzlich überprüft werden. Das System erlangt Kenntnis über sich selbst und seine Konfiguration. Diese Kenntnis verknüpft mit den Bedingungen, erlaubt es dem Bedienern nützliche Hinweise und Warnmeldungen zu geben, wo die Systemkonfiguration mögliche Risiken für gefährliche Ausfälle des Systems birgt. Die ausgelieferten Systeme werden robuster und die Anzahl und Dauer der Serviceeinsätze wird gesenkt und Kosten eingespart. Die Ausfallrate der Systeme sinkt, wodurch sicherheitsgerichtete Funktionen, wie Collision Avoidance mit einer höheren Zuverlässigkeit verwendet werden können. Eine rechnerische Überprüfung der verwendeten Komponenten und Systemarchitektur zeigt eine mögliche SIL-Einstufung des Systems.
