005 Computerprogrammierung, Programme, Daten
Filtern
Dokumenttyp
- Masterarbeit (44)
Volltext vorhanden
- ja (44)
Gehört zur Bibliographie
- ja (44)
Schlagworte
- Software Engineering (6)
- Informationssicherheit (3)
- Computersicherheit (2)
- Softwareentwicklung (2)
- App <Programm> (1)
- Authentifikation (1)
- Blockchain (1)
- Cloud Computing (1)
- Codegenerierung (1)
- Datenverarbeitung (1)
Blockchains wurden besonders in den letzten Jahren sehr populär und der Zugang um diese zu Nutzen wurde auch sehr einfach. Aufgrund dieser Entwicklungen wurden viele neue Anwendungsgebiete geschaffen. Die meisten Menschen assoziieren Blockchains mit Kryptowährungen, allerdings gibt es noch weitere Bereiche, die diese Technologie nutzen. Beispiele hierfür sind der Gesundheits- oder der Energiesektor. Immer mehr Unternehmen überprüfen, wie sie diese Technologie ebenfalls nutzen können, um davon zu profitieren und Prozesse zu verbessern. Ein Anwendungsfall, der in dieser Arbeit behandelt wird, ist das Dokumentieren von Dokumenten, Verträgen und Vereinbarungen zwischen Mitarbeiterinnen oder Mitarbeitern und dem Unternehmen. Das Ziel dieser Masterarbeit ist es, zu evaluieren, wie Unternehmen Blockchain-Technologien nutzen können und wie genau Verträge dokumentiert werden können. Es wurde dazu ein Prototyp entwickelt mit dem Verträge in der Blockchain dokumentiert werden können, indem ein Smart Contract verwendet wird. Die Ergebnisse zeigen, dass diese Technologie das Potenzial hat, für diesen Anwendungsfall genutzt werden zu können. Der größte Vorteil dabei ist die Transparenz. Das bedeutet, dass jede Person, die Zugang zur Blockchain hat, nachprüfen kann, wer an diesem Vertrag beteiligt war und wann er abgeschlossen wurde. Allerdings wurden auch einige Probleme festgestellt. Zum Beispiel wird, um Daten in die Blockchain zu schreiben noch mehr Zeit benötigt im Vergleich zu konventioneller Software. Weiters sind bei der Nutzung des entwickelten Prototypen auch öfter Fehler passiert als bei der herkömmlichen Software. Zusammenfassend lässt sich sagen, dass die Verwendung von Blockchain-Technologien zur Dokumentation von Verträgen verwendet werden könnte und es dem Unternehmen einen Mehrwert bieten kann, allerdings ist die Technologie aufgrund der Probleme noch nicht ausgereift genug.
Modellbasierte Ansätze gewinnen innerhalb des Produktentwicklungsprozesses zunehmend an Bedeutung, um Ressourcen zu schonen und Produkte termingerecht auf den Markt zu bringen. Zentral sind in diesem Zusammenhang die Umsetzung von modernem Anforderungsmanagement und die Nutzung bereits entwickelter Module für neue Produkte. Dies kann mit Hilfe von Variationsmanagement und modellbasierten Systems-Engineering-Methoden erreicht werden. Anton Paar entwickelt komplexe Messsysteme für ein breites Anwendungsfeld, etwa die Messung von rheologischen Verhalten oder der Partikelgröße. Ziel der Arbeit ist es, zu untersuchen, inwiefern Variantenmanagement und modellbasierter Systementwurf in den Produktentwicklungsprozess von Messsystemen integriert werden können, um Time-to-Market-Ziele zu erreichen und Entwicklungsressourcen zu sparen. Im ersten Schritt wurden verschiedene Methoden evaluiert, um das beste Verfahren zur Erstellung des Modells eines hochkomplexen prozessintegrierten Partikelanalysesystems zu finden. Basierend auf dem Ergebnis dieser Analyse ergeben sich die verschiedenen Varianten, um identische Komponenten zu finden, die für mehrere Anwendungen wiederverwendet werden können. Dadurch können Ressourcen gespart werden und nachhaltige Entwicklung wird ermöglicht. Darüber hinaus konnten die verschiedenen Varianten des Systems in eine modellbasierte Systems-Engineering-Umgebung integriert werden, um die Vorteile im Vergleich zu veralteten Ansätzen aufzuzeigen. Das Ergebnis belegt, dass State-of-the-Art-Ansätze im Produktentstehungsprozess einen positiven Einfluss auf die Entwicklungsqualität haben. Darüber hinaus zeigt es, dass modellbasierte Methoden auch die Entwicklungszeit positiv beeinflussen können. Durch weitere Untersuchungen können diese Ergebnisse der Masterarbeit verifiziert werden.
Künstliche Intelligenz (KI) ist heutzutage ein wichtiger Teil von vielen Software-Applikationen geworden. Sie ist in Handy Apps integriert und je komplexer KI wird, umso größer ist in diesem Zusammenhang der Einfluss, den sie auf die individuelle Privatsphäre hat. Potentielle Risiken, die durch KI entstehen können, haben die Europäische Union dazu gebracht, einen Vorschlag für eine KI-Verordnung zu erarbeiten. Um die darin geforderten Risikominderungsmaßnahmen zu adressieren, hat das Fraunhofer Institut einen Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz veröffentlicht.
Das Hauptziel dieser Masterarbeit ist es, diesen textbasierten Leitfaden in ein Software-Tool zu überführen, welches Entwicklern von KI-Applikationen hilft, den Prozess gemäß Leitfaden zu dokumentieren. Dies hilft, den Leitfaden zu vereinfachen, um einen niederschwelligen Zugang zu dem Leitfaden für viele Menschen zu ermöglichen. Weitere Ziele dieser Arbeit sind sowohl das Aufdecken von möglichen Optimierungen der Richtlinie als auch Verbesserungen des bestehenden Software-Frameworks.
Das Software-Tool wurde unter Zuhilfenahme dieses Frameworks innerhalb der Low-Code Plattform Mendix entwickelt.
Das Ergebnis ist ein Software-Tool, welches die Anforderungen an vertrauenswürdige KI vereinfacht, je nach dem Anwendungsbereich der gerade beurteilten KI-Applikation. Nach der Nutzung des Software-Tools kann ein Bericht erzeugt werden, um die erfüllten Anforderungen der Vertrauenswürdigkeit zu dokumentieren.
Um in der modernen Fertigung Prototypen schnell, kostengünstig und ohne Umwege in Musterteile umzusetzen, wird sehr oft auf die Fertigungsmethode „Rapid Prototyping“ zurückgegriffen. Eine Form dieses Verfahrens ist die Schmelzschichtung (Fused Filament Fabrication, FFF), bei der das Werkstück schichtweise durch den Auftrag eines thermoplastischen Kunststoffes aufgebaut wird. Eine einfache Möglichkeit, Bauteile nach dem FFF-Verfahren herzustellen, bietet der Dreiachs-3D-Druck, für welchen sich bei anspruchsvolleren Bauteilen jedoch wesentliche Einschränkungen, wie etwa aufwendige Stützstrukturen oder optische Fehler, ergeben.
Ziel dieser Masterarbeit ist es zu überprüfen, ob sich die Einschränkungen eines Dreiachssystems durch den Einsatz eines Industrieroboters mit sechs zur Verfügung stehenden Achsen verbessern oder ganz beseitigen lassen. Dieser soll die Methode des „bewegten Werkstückes“ nutzen, wodurch sich das Bauteil an der kinematischen Kette des Roboters befindet und dieser zu einer stillstehenden Druckeinrichtung verfährt. Um das Ziel zu erreichen, wird ein Industrierobotersystem innerhalb einer rechnerunterstützten Fertigung (Computer-Aided Manufacturing, CAM) aufgebaut, mit welchem für definierte Bauteile Fertigungsoperationen, Simulationen sowie Validierungen durchgeführt werden. Am Ende wird durch einen Postprozessor ein ausführbarer Maschinencode erstellt, mit welchem Druckversuche am realen Robotersystem durchgeführt werden.
Das Resultat der Arbeit zeigt, dass sich durch dieses Mehrachssystem viele Vorteile in Bezug auf den konventionellen 3D-Druck sowie neue Anwendungsfelder ergeben, wodurch eine Weiterentwicklung für die Zukunft in jedem Fall Sinn macht.
Die Anomalie Erkennung spielt in verschiedenen Bereichen eine große Rolle. Beispielsweise versuchen Kreditkartenanbieter, betrügerische Transaktionen zu identifizieren. Registriert das System einen Einkauf im Wert von Tausenden von Euro, obwohl gewöhnlich nur Bahntickets mit dieser Karte gelöst werden, ist es sehr wahrscheinlich, dass die Karte oder die persönliche ID-Nummer gestohlen wurde. In einem anderen Szenario, wenn die Produktionslinie eines Pharmaunternehmens feststellt, dass das Endgewicht von Medikamentenkapseln 20 % höher als üblich ist, kann ein Fehler im Herstellungsprozess vorliegen. Diese Anomalie Erkennung basiert meist auf strukturierten Zahlenwerten und kann somit leicht erkannt werden. Das Ziel dieser Arbeit ist es, Anomalien aus unstrukturierten beziehungsweise schwach strukturierten Text-Daten zu erkennen und anhand ihrer Semantik Möglichkeiten zur Interpretation und Bewertung aufzuzeigen. Im Zuge dieser Arbeit soll herausgefunden werden, welche Datenverarbeitungsmethoden und Analysemethoden verwendet werden können, um eine bestmögliche Interpretation der Text-Daten zu erreichen. Resultierend auf diesen Erkenntnissen wird ein Vorgehensmodell erstellt. Dieses Vorgehensmodell dient als Basis für einen Prototyp, um eine automatische Auswertung erzeugen zu können. Der Prototyp soll durch eine gezielte Auswahl von Schlüsselwörtern Anomalien in verschiedenen Themenbereichen erkennen, um so vielseitig wie möglich Verwendung zu finden. Weiters sollen geografische Brennpunkte dieser Themenbereiche identifiziert werden und durch Analysen festgestellt werden, ob diese Brennpunkte einen positiven oder negativen Effekt mit sich bringen.
Release Management spielt in der Softwareentwicklung eine große Rolle. Der Prozess von einer Anfrage zu einer Änderung bis zur Ausrollung der Änderung auf das Live-System behandelt alle Themen, die in dem Bereich des Release Managements fallen. Dass dieser Prozess einen großen Einfluss auf die Qualität der Software und den Erfolg des Unternehmens hat, liegt demzufolge auf der Hand. Aufgrund der Konkurrenzsituation am Markt streben IT-Unternehmen nach dem bestmöglichen Prozess. An diesem Punkt kommen Tools wie Jira aus der Atlassian Suite oder Azure DevOps aus dem Microsoft-Portfolio ins Spiel. Diese Tools unterstützen Unternehmen in den Bereichen Issue-Tracking, Taskplanung, sowie weitere Themen, die im Release Management gebraucht werden. Nichtsdestotrotz treten bei vielen IT-Unternehmen nach wie vor Probleme auf, die für die Qualität des Release Managements negative Auswirkungen haben und verbessert werden müssen. In dieser Arbeit wird mithilfe einer Literaturrecherche über die Probleme in Verbindung mit Toolanalysen sowie einer qualitativen Forschung mit Experten aus dem Bereich des Release Management und in der Softwareentwicklung erforscht, ob die gefundenen Probleme im Kontext des Tools auftreten oder, ob diese durch weitere Handlungsempfehlungen gelöst werden können. Aufgrund der Tatsache, dass die Softwareentwicklung in den letzten Jahren eine Entwicklung eingeschlagen hat, in der der Softwareentwicklungsprozess sich in den meisten Unternehmen mehr in Richtung eines agilen Ansatzes geändert hat, wird in folgender Arbeit die Auswirkung dieses Trends auf das Release Management analysiert. Zu guter Letzt werden einer Gruppe an Unternehmen Handlungsempfehlungen erstellt, die bei Eintritt bestimmter Probleme verwendet werden können, um auch in Verbindung mit dem Tool für eine höhere Qualität im Release Management zu sorgen.
Diese Masterarbeit behandelt die Informationssicherheit im Kontext des Social Engineerings von Unternehmen. Das Ziel ist es, Initiativen zu definieren, die Unternehmen kritischer Infrastruktur einsetzen müssen, um die Informationssicherheit in diesem Kontext zu gewährleisten. Im Bereich der Theorie wurde eine Literaturrecherche über das Thema ‚Social Engineering‘ durchgeführt. Es ließ sich herausfinden, welche Möglichkeiten es gibt, Unternehmen zu attackieren. Des Weiteren bedeutet Social Engineering nicht, dass immer eine illegale Aktivität dahinter steckt, sondern dass hier lediglich mithilfe von Psychologie ein Mehrwert für die Angreiferin oder den Angreifer generiert wird. Für den empirischen Teil der Arbeit wurde eine Umfrage an Personen gesendet, die in ihrer Arbeit mit Informationssystemen zu tun haben. Diese Befragung hat ergeben, dass Personen wissen, wie bedeutsam Informationssicherheit ist, und es wurde kein signifikanter Unterschied zwischen IT-affinen und nicht IT-affinen Personen festgestellt. IT-affine Personen wissen lediglich besser über die Auswirkungen Bescheid. Des Weiteren wurden Interviews mit Expertinnen und Experten aus dem Bereich der Informationssicherheit durchgeführt. Deren Zweck war es, herauszufinden, welche Maßnahmen es gibt, die Informationssicherheit im Kontext von Social Engineering zu gewährleisten bzw. zu erhöhen. Es hat sich herausgestellt, dass Security-Awareness-Schulungen sehr sinnvoll sind. Unternehmen kritischer Infrastruktur sollten sich auf Vor-Ort-Schulungen fokussieren, da diese ein höheres Informationssicherheitsempfinden beim Personal auslösen. In Relation zu den Kosten, die ein Social-Engineering-Angriff verursachen kann, zahlt sich für ein Unternehmen kritischer Infrastruktur eine Security-Awareness-Schulung mit großer Wahrscheinlichkeit aus. Es wird auch empfohlen, technische und physische Maßnahmen einzusetzen, um einen Social-Engineering-Angriff zu erschweren. Jedoch ist zu erwähnen, dass technische Maßnahmen nicht ausschließlich darauf ausgelegt sind, Social-Engineering-Angriffe zu verhindern. Das ist lediglich ein Teil davon. technische Maßnahmen schützen die Allgemeinheit vor Social-Engineering-Angriffen, jedoch nicht einzelne Personen. Für Unternehmen kritischer Infrastruktur sollten wiederkehrende Security-Awareness-Schulungen und technische Maßnahmen eingesetzt werden, um die Informationssicherheit im Kontext des Social Engineerings zu gewährleisten. Diese Vorkehrungen haben nämlich keinen erheblich negativen Einfluss auf die Arbeitstätigkeiten der Mitarbeiterinnen und Mitarbeiter im Allgemeinen. Auf der anderen Seite stellen sie jedoch sicher, dass die Angestellten ein entsprechendes Bewusstsein für diese Gefahr entwickeln und es stetig erweitern.
In vielen Systemlandschaften stellt ein ERP-System das Rückgrat aller Geschäftsprozesse dar. Das Streben nach durchgängigen Prozessintegrationen macht diese Komponente zu einem beliebten Kandidaten für die Anbindung weiterer Unternehmensanwendungen. Durch moderne, Cloud-basierte Bereitstellungsmodelle werden neue Innovationen und Funktionalitäten immer häufiger im Rahmen automatischer Software-Upgrades bereitgestellt. Um unter diesen Einwirkungen weiterhin einen reibungslosen Produktivbetrieb der geschäftskritischen Kernprozesse sicherstellen zu können, ist die Durchführung regelmäßiger Softwaretests folglich unabdingbar. Eine manuelle Ausführung dieser Tests bindet wiederkehrend Personalressourcen. Testautomatisierung birgt hierbei eine wertvolle Chance, Tests wiederholbar zu machen und effizienter zu gestalten. Die Herausforderungen in der Testautomatisierung in Kombination mit Webapplikationen sind jedoch nicht zu unterschätzen. Der dynamische Aufbau von Benutzeroberflächen erschwert die Erstellung stabiler Automatisierungen auf UI-Ebene. Eingeschränkte Zugriffsmöglichkeiten auf die Codebasis von Anwendungen repräsentieren eine weitere Hürde. Schnittstellenbasierte Ansätze verkörpern dadurch eine attraktive Alternative. In der vorliegenden Arbeit werden Einsparpotenziale durch den Einsatz von GUI- und API-basierter Testautomatisierung für SAP Business ByDesign untersucht. Bei der kaufmännischen Bewertung von Testautomatisierungsprojekten müssen initiale Implementierungskosten ebenso mit in die Betrachtung einfließen, wie auch Wartungsaufwände, Infrastrukturkosten und ggf. anfallende Lizenzkosten. Im Rahmen der Masterarbeit wurden sowohl interne als auch externe Experteninterviews durchgeführt, um einerseits Vergleichs- und Erfahrungswerte aus manuellen Testvorgängen zu erheben, andererseits jedoch auch wichtige Aspekte und Erkenntnisse für mögliche Testautomatisierungen in Zusammenspiel mit SAP Business ByDesign zu gewinnen. Dazu wurden die Interviews transkribiert, paraphrasiert und mittels qualitativer Inhaltsanalyse ausgewertet. Eine abschließende Evaluierung und Gegenüberstellung der aus den Interviews hervorgehenden Ansätze zur UI- und API-basierten Testautomatisierung zeigen konkrete Anknüpfungspunkte für potenzielle Projektautomatisierungsprojekte.
Was muss ein Unternehmen heutzutage leisten um auf Dauer mit dem Wettbewerb mithalten und den Veränderungen von Industrie und Gesellschaft standzuhalten? Was bedeuten die einzelnen Buzz-Wörter wie „Industrie 4.0“, „Internet of Things“ und „Cyber-Physikalisches Produktionssystem“ konkret für die eigene Situation? Die folgende Arbeit versucht, diesen Fragen nachzugehen. Konkret wird hierfür das Beispiel der Messtechnik Branche untersucht und versucht, für die Software des Mitutoyo Konzerns eine Softwarearchitektur zu entwickeln, welche für die neuen Entwicklungen gewappnet ist. Hierfür wird zunächst eine grundlegende Untersuchung der aktuellen Trends in der Industrie durchgeführt und daraus Anforderungen abgeleitet. Dann werden die einzelnen Aspekte auf die Architektur übertragen und eine grundlegende Basisstruktur definiert. Anhand des konkreten Beispiels einer Software zur Status Überwachung und Auslastungsplanung für Messmaschinen wird dann untersucht, inwiefern die Basis Architektur den ermittelten Anforderungen gerecht wird.
Die Digitalisierung schreitet über alle Branchen hinweg kontinuierlich voran. Auch die Tätigkeit der Hypothekarkreditvermittlung ist von diesem Trend nicht ausgenommen. Dennoch wird ein Großteil der Informationen, die für eine Kreditvermittlung notwendig sind, noch handschriftlich erfasst und die erforderlichen Dokumente werden per E-Mail ausgetauscht. Im Zuge dieser Arbeit soll herausgefunden werden, wie der gesamte Prozess der Hypothekarkreditvermittlung sowohl auf Seiten der Kund/innen als auch auf Seiten der Kreditvermittler/innen mit Hilfe eines webbasierten Portals bestmöglich unterstützt werden kann. Das Ziel ist dabei nicht, das persönliche Beratungsgespräch zu ersetzen, sondern die Abwicklung digital zu unterstützen. Ausgehend von der Analyse des Prozesses werden die Anforderungen an die Anwendung festgelegt. Anschließend wird ein Prototyp konzeptioniert und implementiert, der diese Anforderungen bestmöglich erfüllen soll. Der Fokus liegt dabei auf eine möglichst einfache Bedienung und größtmögliche Zeitersparnis für alle Beteiligten. Der Prototyp ermöglicht, sämtliche Daten, die im Zuge einer Hypothekarkreditvermittlung erforderlich sind, direkt im Webportal einzugeben. Alle Dokumente können über die Anwendung hochgeladen oder mittels Kameraaufnahme hinzugefügt werden. Kreditvermittler/innen haben im Portal die Möglichkeit, Anfragen an Banken für Finanzierungsangebote zu stellen. Dadurch entfällt das zeitaufwändige, manuelle Zusammenstellen der Unterlagen. Die von den Banken übermittelten Angebote können den Kund/innen in einem übersichtlichen Vergleich zur Verfügung gestellt werden. Das erhöht die Transparenz und erleichtert die Entscheidung für die bestmögliche Finanzierung. Der Prototyp erfüllt alle gestellten Anforderungen und könnte zukünftig zu einer vollwertigen Plattform ausgebaut werden.
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Moderne Frameworks für die Entwicklung von Anwendungen auf mobilen Plattformen entwickeln sich ständig weiter, um den sich ständig ändernden Anforderungen der Welt der Softwareentwicklung gerecht zu werden. Seit 2018 entwickelt Google das Flutter-Framework, das für die Entwicklung mobiler Anwendungen auf den Plattformen Android und iOS eingesetzt wird. Da es sich bei Flutter um das neueste Framework handelt, das eine native Anwendungsleistung verspricht, ist es wichtig, ein besseres Verständnis für die Performance der Technologie zu erhalten und zu erfahren, wie sie sich mit anderen verfügbaren Plattformen messen kann. Aus diesem Grund analysiert diese Arbeit Flutter und vergleicht das Framework mit nativen und anderen plattformübergreifenden Technologien. Prototypen mit den gleichen Funktionalitäten wurden mit Flutter und anderen Plattformen (z. B. Android, iOS, React Native) erstellt und dann getestet, um ihre Leistungsniveaus zu vergleichen. Die Ergebnisse zeigen, dass Flutter in einigen Aspekten (z. B. CPU-Nutzung) eine native Performance erreichen kann, in anderen Aspekten (z. B. Speichernutzung) jedoch schlechter abschneidet als andere Frameworks. Insgesamt zeigt die Forschung, dass Flutter ein sehr vielversprechendes Framework für die plattformübergreifende Entwicklung ist. Zukünftige Arbeiten können auf diese Arbeit aufbauen, um mit verschiedenen Anwendungsfällen zu experimentieren und einen tieferen Einblick in die Leistungsfähigkeit des Frameworks zu erhalten.
Analyse und Bewertung von State-Management Varianten in modernen Cross-Plattform Technologien
(2020)
Plattformübergreifende Technologien entwickeln sich ständig weiter und bieten einen kostengünstigen und zeiteffizienten Ansatz zur Entwicklung von Anwendungen auf mehreren Plattformen. Die Frage nach dem richtigen State-Management Ansatz muss dabei zu Beginn eines jeden Projekts beantwortet werden, was eine Herausforderung sein kann mit einer Vielzahl an mögliche Lösungen. Das Ziel dieser Arbeit war daher die Untersuchung von State-Management Ansätzen am Beispiel von Flutter und deren Bewertung auf der Grundlage von festgelegten Kriterien. In dieser Arbeit werden zunächst plattformübergreifende Technologien untersucht, mit Schwerpunkt auf Flutter. Danach werden gängige Ansätze von State-Management und die Theorie hinter Code Qualität Metriken analysiert. Basierend auf den gesammelten Informationen und den daraus resultierenden wirtschaftlichen und technologischen Entscheidungsgründen wurden Bewertungskriterien erstellt. Vier State-Management Ansätze wurden umgesetzt und entsprechend der Kriterien bewertet. Der Vergleich zeigt, dass BLoC die beste Lösung für Großanwendungen mit erfahrenen Entwicklern zu sein scheint. Für kleinere Projekte oder unerfahrene Entwickler bietet sich der Einsatz von Provider an.
Das Ziel dieser Masterarbeit ist die Analyse der IT-Sicherheit von kritischen Infrastrukturen. Es soll gezeigt werden, ob eine Absicherung kritischer Infrastrukturen mit Hilfe von Methoden aus der IT-Sicherheit möglich ist und welche Auswirkung eine Vernetzung der einzelnen Systeme hat. Nicht behandelt werden Absicherungen für Cloud und mobile Geräte. In den vergangenen Jahren hat die Vernetzung der kritischen Infrastrukturen stark zugenommen und die Angriffe auf diese sind deutlich gestiegen. Aufgrund dessen werden in dieser Masterarbeit zunächst vergangene Angriffe beschrieben und analysiert. Großen Wert wird hierbei auf die NIS-Richtlinie gelegt, die als EU-Richtlinie wichtige Punkte für ganz Europa vorgibt. Aus den gewonnenen Erkenntnissen werden anschließend technische IT-Maßnahmen abgeleitet wie kritische Infrastrukturen in Zukunft besser geschützt werden können. Folgend werden die einzelnen Maßnahmen auch technisch in einer extra dafür aufgesetzten Testumgebung umgesetzt und im Detail beschrieben. Unter anderem wird gezeigt, wie wichtig es ist eine Verschlüsselung einzusetzen und dass es nicht ausreichend ist, die Zugänge nur mit einem starken Passwort abzusichern, sondern auch ein zweiter Faktor eingesetzt werden sollte. Durch Umsetzung der Sicherheitsmaßnahmen, zusätzlich zu den normalen IT-Schutzvorkehrungen, kann die IT-Sicherheit erhöht werden. Ein kompletter Schutz vor Angriffen ist jedoch nicht möglich, da durch die Vernetzung der Systeme immer ein Angriffsvektor entsteht, der ausgenutzt werden kann. In Zukunft könnten kritische Infrastrukturen besser abgesichert werden, wenn die aufgezeigten Sicherheitsmaßnahmen umgesetzt werden.
Customer – Releationship Management Systeme haben in den letzten Jahren eine immer größere Bedeutung für Unternehmen bekommen. Das System wird ins Unternehmen sowie deren Prozesse integriert. Dies kann unter der richtigen Verwundung den Umsatz der Unternehmen steigern und Prozesse optimiert werden. Aktuelle CRM System wie Salesforce bieten die Möglichkeit der Integration einer Artificial Intelligence welche auf Basis der vorhandenen Daten Vorhersagen über Kosten eines Angebots und wie hoch die Wahrscheinlichkeit ist, dass es zu einem Auftrag kommen wird. Diese Informationen sollen dem Sales Mitarbeiter bzw. der Sales Mitarbeiterin bei der Angebotslegung sowie Kalkulation unterstützen. Für den Einsatz von Artificial Intelligence ist das Sammeln von Informationen ein wichtiger Punkt weshalb auch das Thema Big Data aufgearbeitet wird. Im Rahmen dieser Arbeit sollen die Auswirkungen des Einsatzes überprüft werden, im Speziellen wird die Artificial Intelligence mit dem Namen „Einstein“ des Salesforce CRM Systems untersucht. Um dies zu überprüfen wird ein Versuch durchgeführt, welcher zwei CRM Systeme miteinander vergleicht, zu diesem Zweck werden in unterschiedlichen Gruppen Aufgabenstellungen gestellt und die durchgeführt werden sollen. Die Teilnehmer / Teilnehmerinnen werden im Rahmen eines Interviews erfragt inwiefern sich die Systeme unterschieden haben, ob und welche Effekte auf das Vorgehen bei der Durchführung hatte. Auf Basis der Ergebnisse werden Schlussfolgerungen erstellt, ob es Auswirkungen gab und welche diese waren in Bezug auf die Angebotserstellung und dem allgemeinen Vorgehen. Aus der Arbeit wird hervorgehen, dass eine gute Informationsqualität eine Voraussetzung für den Einsatz von Artificial Intelligence ist, welche sich wiederum auf die Vorhersagen bzw. Unterstützung auswirkt. Das erarbeitete Wissen, welches aus dieser Arbeit hervorgeht, bietet eine Grundlage für die Verwendung und Integration einer Artificial Intelligence.
Digitale Plattformen ermöglichen Softwareentwicklungsunternehmen und digitalen Geschäftsmodellen ein schnelles Wachstum. Dies erfordert skalierbare und flexible Softwarelösungen wie White-Label Plattformen die als Software-as-a-Service bereitgestellt werden. Das Ziel dieser Arbeit ist, Software Architekturen für digitale Plattform zu analysieren und wie Plattformen durch die Verwendung von Clouddiensten bereitgestellt werden können. Die Analyse untersucht drei gängige Software Architekturen und vergleicht die Architekturen für unterschiedliche Ausprägungen von digitalen Plattformen. Die Auswertung zeigte, dass eine Serverless-Architektur die beste Möglichkeit für die Bereitstellung einer Plattform ist, die unregelmäßig verwendet wird oder für Plattformen bei denen die Kunden stark reguliert sind und eigene Instanzen benötigen. Eine Microservice Architektur bietet sich für Systeme mit einer hohen Auslastung an oder für Plattformen, die eine große Anzahl an Benutzer benötigen. Zusammenfassend kann gesagt werden, dass Clouddienste Unternehmen eine einfache Möglichkeit bieten um flexible digitale Geschäftsmodelle zu entwickeln, die gegebenenfalls uneingeschränkt skaliert werden können und in kürzester Zeit auf die Bedürfnisse des Marktes angepasst werden können.
Die Softwarequalität ist ein wesentlicher Wettbewerbsfaktor in der Softwarebranche. Viele Softwareprojekte legen daher den Schwerpunkt ihrer Softwarequalität auf Abnahmetests und ignorieren andere wichtige Faktoren des gesamten Software-Lebenszyklus. Aus diesem Grund konzentriert sich diese Arbeit darauf, ob ausgewählte Einflussfaktoren aus dem gesamten Software-Lebenszyklus in Verbindung mit Testergebnissen von Abnahmetests eine detailliertere Bewertung der Qualität eines Software Release ermöglichen können. Hierzu wurden Einflussfaktoren untersucht und in ein Modell integriert. Darauf aufbauend wurde eine Bewertungsmatrix für die Implementierung entwickelt. In einem Experiment, in dem das Modell auf ein Beispielprojekt angewendet wurde, wurden 6 von 16 Features aus dem Software Release ausgenommen. Hätte sich dieses Experiment nur auf die Ergebnisse des Akzeptanztests gestützt, wären nur 4 von 16 Features aus dem Software Release ausgenommen worden. Diese Ergebnisse bestätigen, dass die ausgewählten Einflussfaktoren eine detailliertere Bewertung der Qualität des Software Release ermöglichen. Trotz dieser Schlussfolgerung würden die Erkenntnisse dieser Arbeit von weiteren Studien profitieren, bei denen mehr Zeit zur Verfügung steht und verschiedene Werkzeuge zur Überprüfung der Forschungsfrage verwendet werden.
Industrielle Steuerungssysteme und somit die Operational Technology (OT) werden immer verletzlichere Angriffsziele. Da Industrieanlagen, ebenso Tunnelanlagen, größtenteils mit der Office-IT vernetzt sind und häufig auch eine Verbindung zum Internet aufweisen, besteht ein Fernzugriff, der ausgenutzt werden kann. Zusätzlich besteht die Möglichkeit, dass ein Eindringen über die physischen Schnittstellen stattfindet. Daher müssen für einen gesamtheitlichen Schutz entsprechende OT-Security-Prozesse angewendet werden. Das Ziel dieser Arbeit ist die Verbesserung der zurzeit von der Dürr Austria GmbH verwendeten OT-Security-Prozesse in Tunnelsteuerungssystemen. Dazu werden die Informationssicherheit, mögliche Attacken und Angreifer*innen, sowie anwendbare Normen und Standards evaluiert. Der Fokus liegt dabei auf der IEC 62443, der Norm für die IT-Sicherheit für Netze und Systeme. Die zurzeit angewendeten OT-Security-Prozesse werden definiert und darauf aufbauend Optimierungen aus den anwendbaren Teilen der IEC 62443 analysiert. Weitere Security-Maßnahmen werden mithilfe von ergänzenden Standards erforscht. Als Resultat werden die gefundenen Verbesserungsmaßnahmen zusammengeführt, um eine Integration in die Prozesse zu ermöglichen. Auf dieser gesamtheitlichen Basis wird das Defense-in-Depth-Modell definiert. Die Ergebnisse dieser Arbeit werden in den bestehenden Informationssicherheitsprozess des Unternehmens betreffend der Tunnelsteuerungssysteme integriert.
Kubernetes wird von mehr als 77% aller IT-basierten Unternehmen der Branche produktiv genutzt und der Platzhirsch auf dem Markt der Container-Orchestrierung. Die meisten Unternehmen berichten von großen Kosteneinsparungen und einer Steigerung der Entwicklungsgeschwindigkeit durch den Einsatz von Kubernetes. Das Ausmaß der Verbesserung hängt jedoch davon ab, wie gut das Kubernetes-System zum Unternehmen und seinen Anforderungen passt. Kubernetes besteht aus vielen Komponenten und kann auf vielfältige Weise genutzt werden. Für viele der Komponenten von Kubernetes gibt es diverse Produkte am Markt, daher wird eine Methode benötigt um die besten Produkte auszuwählen. Um den Entwurf der richtigen Kubernetes-Lösung für eine bestimmte Idee oder ein Konzept zu unterstützen, wurde ein Modell vorgeschlagen, das aus einem Designprozess und einem Anforderungskatalog besteht. Der Anforderungskatalog ist stark in den Prozess integriert. Dabei handelt es sich um einen Fragebogen der dabei hilft die notwendigen Anforderungen für den zukünftigen Cluster zu erfassen. Der Prozess ist in sieben Schritte unterteilt, beginnend mit der Notwendigkeit eine geeignete Plattform für eine innovative Idee zu finden. Die anderen Schritte konzentrieren sich auf die Ermittlung der Anforderungen, die Gestaltung des Clusters, die Suche nach geeigneten Produkten und die Integration des Kubernetes-Systems in das Unternehmen. Der Anforderungskatalog ist in drei Gruppen unterteilt, die insgesamt 65 Punkte umfassen. Das vorgeschlagene Modell ermöglicht es Unternehmen, ihre Kubernetes-Umgebung strukturiert, verständlich und transparent zu entwerfen. Zur Bewertung des ersten Entwurfs des Modells wurden zwei Expertenworkshops und sechs Interviews durchgeführt. Mittels qualitativer Inhaltsanalyse wurden die daraus resultierenden Protokolle analysiert und die Ergebnisse in das Modell aufgenommen.
LOGICDATA entwickelt APIs (Application Programming Interfaces) für die marktführenden Smartdevice Plattformen zur Steuerung von mechatronischen Systemen in der Möbelindustrie. Die Funktionalität dieser APIs muss durch Tests mit verschiedenen Eingabeparametern überprüft werden. Änderungen in der Implementierung der APIs während der Entwicklungs- und Testphase führen zu Wartungsaufwand des Testsystems, welcher manuell durchgeführt werden muss. Das führt zu längeren Testdurchlaufzeiten und zu Verzögerungen in der Freigabe-Phase des Projekts. Ziel dieser Masterarbeit ist es, anfallende Wartungstätigkeiten bei API-Änderungen während der Testphase zu automatisieren, um die Entwicklungszeit des Testsystems zu reduzieren. Zu diesem Zweck soll eine Codegenerierungsmethode ausgewählt werden, mit der Code in verschiedenen Programmiersprachen und Plattformen generiert werden kann. Dafür werden verschiedene Codegenerierungsmethoden hinsichtlich ihrer Eignung für diese Aufgabenstellung miteinander verglichen und eine Wahl getroffen. Aufbauend auf diese Entscheidung wird eine Softwarearchitektur eines Testsystems mit automatischer Codegenerierung entworfen. Nach Festlegung dieser werden der Codegenerator und die Softwarekomponenten des Testsystems entwickelt und die Vorteile hinsichtlich Entwicklungs-, Wartungsaufwand und Testdurchlaufzeit aufgezeigt. Tests mit den ersten implementierten APIs haben gezeigt, dass der Einsatz der automatischen Codegenerierung zu einer höheren Codeflexibilität und niedrigerem Entwicklungsaufwand führt. Das Testsystem kann für die Verifikation zukünftiger API-Releases eingesetzt werden.