005 Computerprogrammierung, Programme, Daten
Filtern
Dokumenttyp
- Masterarbeit (44)
Volltext vorhanden
- ja (44)
Gehört zur Bibliographie
- ja (44)
Schlagworte
- Software Engineering (6)
- Informationssicherheit (3)
- Computersicherheit (2)
- Softwareentwicklung (2)
- App <Programm> (1)
- Authentifikation (1)
- Blockchain (1)
- Cloud Computing (1)
- Codegenerierung (1)
- Datenverarbeitung (1)
Blockchains wurden besonders in den letzten Jahren sehr populär und der Zugang um diese zu Nutzen wurde auch sehr einfach. Aufgrund dieser Entwicklungen wurden viele neue Anwendungsgebiete geschaffen. Die meisten Menschen assoziieren Blockchains mit Kryptowährungen, allerdings gibt es noch weitere Bereiche, die diese Technologie nutzen. Beispiele hierfür sind der Gesundheits- oder der Energiesektor. Immer mehr Unternehmen überprüfen, wie sie diese Technologie ebenfalls nutzen können, um davon zu profitieren und Prozesse zu verbessern. Ein Anwendungsfall, der in dieser Arbeit behandelt wird, ist das Dokumentieren von Dokumenten, Verträgen und Vereinbarungen zwischen Mitarbeiterinnen oder Mitarbeitern und dem Unternehmen. Das Ziel dieser Masterarbeit ist es, zu evaluieren, wie Unternehmen Blockchain-Technologien nutzen können und wie genau Verträge dokumentiert werden können. Es wurde dazu ein Prototyp entwickelt mit dem Verträge in der Blockchain dokumentiert werden können, indem ein Smart Contract verwendet wird. Die Ergebnisse zeigen, dass diese Technologie das Potenzial hat, für diesen Anwendungsfall genutzt werden zu können. Der größte Vorteil dabei ist die Transparenz. Das bedeutet, dass jede Person, die Zugang zur Blockchain hat, nachprüfen kann, wer an diesem Vertrag beteiligt war und wann er abgeschlossen wurde. Allerdings wurden auch einige Probleme festgestellt. Zum Beispiel wird, um Daten in die Blockchain zu schreiben noch mehr Zeit benötigt im Vergleich zu konventioneller Software. Weiters sind bei der Nutzung des entwickelten Prototypen auch öfter Fehler passiert als bei der herkömmlichen Software. Zusammenfassend lässt sich sagen, dass die Verwendung von Blockchain-Technologien zur Dokumentation von Verträgen verwendet werden könnte und es dem Unternehmen einen Mehrwert bieten kann, allerdings ist die Technologie aufgrund der Probleme noch nicht ausgereift genug.
Modellbasierte Ansätze gewinnen innerhalb des Produktentwicklungsprozesses zunehmend an Bedeutung, um Ressourcen zu schonen und Produkte termingerecht auf den Markt zu bringen. Zentral sind in diesem Zusammenhang die Umsetzung von modernem Anforderungsmanagement und die Nutzung bereits entwickelter Module für neue Produkte. Dies kann mit Hilfe von Variationsmanagement und modellbasierten Systems-Engineering-Methoden erreicht werden. Anton Paar entwickelt komplexe Messsysteme für ein breites Anwendungsfeld, etwa die Messung von rheologischen Verhalten oder der Partikelgröße. Ziel der Arbeit ist es, zu untersuchen, inwiefern Variantenmanagement und modellbasierter Systementwurf in den Produktentwicklungsprozess von Messsystemen integriert werden können, um Time-to-Market-Ziele zu erreichen und Entwicklungsressourcen zu sparen. Im ersten Schritt wurden verschiedene Methoden evaluiert, um das beste Verfahren zur Erstellung des Modells eines hochkomplexen prozessintegrierten Partikelanalysesystems zu finden. Basierend auf dem Ergebnis dieser Analyse ergeben sich die verschiedenen Varianten, um identische Komponenten zu finden, die für mehrere Anwendungen wiederverwendet werden können. Dadurch können Ressourcen gespart werden und nachhaltige Entwicklung wird ermöglicht. Darüber hinaus konnten die verschiedenen Varianten des Systems in eine modellbasierte Systems-Engineering-Umgebung integriert werden, um die Vorteile im Vergleich zu veralteten Ansätzen aufzuzeigen. Das Ergebnis belegt, dass State-of-the-Art-Ansätze im Produktentstehungsprozess einen positiven Einfluss auf die Entwicklungsqualität haben. Darüber hinaus zeigt es, dass modellbasierte Methoden auch die Entwicklungszeit positiv beeinflussen können. Durch weitere Untersuchungen können diese Ergebnisse der Masterarbeit verifiziert werden.
Künstliche Intelligenz (KI) ist heutzutage ein wichtiger Teil von vielen Software-Applikationen geworden. Sie ist in Handy Apps integriert und je komplexer KI wird, umso größer ist in diesem Zusammenhang der Einfluss, den sie auf die individuelle Privatsphäre hat. Potentielle Risiken, die durch KI entstehen können, haben die Europäische Union dazu gebracht, einen Vorschlag für eine KI-Verordnung zu erarbeiten. Um die darin geforderten Risikominderungsmaßnahmen zu adressieren, hat das Fraunhofer Institut einen Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz veröffentlicht.
Das Hauptziel dieser Masterarbeit ist es, diesen textbasierten Leitfaden in ein Software-Tool zu überführen, welches Entwicklern von KI-Applikationen hilft, den Prozess gemäß Leitfaden zu dokumentieren. Dies hilft, den Leitfaden zu vereinfachen, um einen niederschwelligen Zugang zu dem Leitfaden für viele Menschen zu ermöglichen. Weitere Ziele dieser Arbeit sind sowohl das Aufdecken von möglichen Optimierungen der Richtlinie als auch Verbesserungen des bestehenden Software-Frameworks.
Das Software-Tool wurde unter Zuhilfenahme dieses Frameworks innerhalb der Low-Code Plattform Mendix entwickelt.
Das Ergebnis ist ein Software-Tool, welches die Anforderungen an vertrauenswürdige KI vereinfacht, je nach dem Anwendungsbereich der gerade beurteilten KI-Applikation. Nach der Nutzung des Software-Tools kann ein Bericht erzeugt werden, um die erfüllten Anforderungen der Vertrauenswürdigkeit zu dokumentieren.
Um in der modernen Fertigung Prototypen schnell, kostengünstig und ohne Umwege in Musterteile umzusetzen, wird sehr oft auf die Fertigungsmethode „Rapid Prototyping“ zurückgegriffen. Eine Form dieses Verfahrens ist die Schmelzschichtung (Fused Filament Fabrication, FFF), bei der das Werkstück schichtweise durch den Auftrag eines thermoplastischen Kunststoffes aufgebaut wird. Eine einfache Möglichkeit, Bauteile nach dem FFF-Verfahren herzustellen, bietet der Dreiachs-3D-Druck, für welchen sich bei anspruchsvolleren Bauteilen jedoch wesentliche Einschränkungen, wie etwa aufwendige Stützstrukturen oder optische Fehler, ergeben.
Ziel dieser Masterarbeit ist es zu überprüfen, ob sich die Einschränkungen eines Dreiachssystems durch den Einsatz eines Industrieroboters mit sechs zur Verfügung stehenden Achsen verbessern oder ganz beseitigen lassen. Dieser soll die Methode des „bewegten Werkstückes“ nutzen, wodurch sich das Bauteil an der kinematischen Kette des Roboters befindet und dieser zu einer stillstehenden Druckeinrichtung verfährt. Um das Ziel zu erreichen, wird ein Industrierobotersystem innerhalb einer rechnerunterstützten Fertigung (Computer-Aided Manufacturing, CAM) aufgebaut, mit welchem für definierte Bauteile Fertigungsoperationen, Simulationen sowie Validierungen durchgeführt werden. Am Ende wird durch einen Postprozessor ein ausführbarer Maschinencode erstellt, mit welchem Druckversuche am realen Robotersystem durchgeführt werden.
Das Resultat der Arbeit zeigt, dass sich durch dieses Mehrachssystem viele Vorteile in Bezug auf den konventionellen 3D-Druck sowie neue Anwendungsfelder ergeben, wodurch eine Weiterentwicklung für die Zukunft in jedem Fall Sinn macht.
Die Anomalie Erkennung spielt in verschiedenen Bereichen eine große Rolle. Beispielsweise versuchen Kreditkartenanbieter, betrügerische Transaktionen zu identifizieren. Registriert das System einen Einkauf im Wert von Tausenden von Euro, obwohl gewöhnlich nur Bahntickets mit dieser Karte gelöst werden, ist es sehr wahrscheinlich, dass die Karte oder die persönliche ID-Nummer gestohlen wurde. In einem anderen Szenario, wenn die Produktionslinie eines Pharmaunternehmens feststellt, dass das Endgewicht von Medikamentenkapseln 20 % höher als üblich ist, kann ein Fehler im Herstellungsprozess vorliegen. Diese Anomalie Erkennung basiert meist auf strukturierten Zahlenwerten und kann somit leicht erkannt werden. Das Ziel dieser Arbeit ist es, Anomalien aus unstrukturierten beziehungsweise schwach strukturierten Text-Daten zu erkennen und anhand ihrer Semantik Möglichkeiten zur Interpretation und Bewertung aufzuzeigen. Im Zuge dieser Arbeit soll herausgefunden werden, welche Datenverarbeitungsmethoden und Analysemethoden verwendet werden können, um eine bestmögliche Interpretation der Text-Daten zu erreichen. Resultierend auf diesen Erkenntnissen wird ein Vorgehensmodell erstellt. Dieses Vorgehensmodell dient als Basis für einen Prototyp, um eine automatische Auswertung erzeugen zu können. Der Prototyp soll durch eine gezielte Auswahl von Schlüsselwörtern Anomalien in verschiedenen Themenbereichen erkennen, um so vielseitig wie möglich Verwendung zu finden. Weiters sollen geografische Brennpunkte dieser Themenbereiche identifiziert werden und durch Analysen festgestellt werden, ob diese Brennpunkte einen positiven oder negativen Effekt mit sich bringen.
Release Management spielt in der Softwareentwicklung eine große Rolle. Der Prozess von einer Anfrage zu einer Änderung bis zur Ausrollung der Änderung auf das Live-System behandelt alle Themen, die in dem Bereich des Release Managements fallen. Dass dieser Prozess einen großen Einfluss auf die Qualität der Software und den Erfolg des Unternehmens hat, liegt demzufolge auf der Hand. Aufgrund der Konkurrenzsituation am Markt streben IT-Unternehmen nach dem bestmöglichen Prozess. An diesem Punkt kommen Tools wie Jira aus der Atlassian Suite oder Azure DevOps aus dem Microsoft-Portfolio ins Spiel. Diese Tools unterstützen Unternehmen in den Bereichen Issue-Tracking, Taskplanung, sowie weitere Themen, die im Release Management gebraucht werden. Nichtsdestotrotz treten bei vielen IT-Unternehmen nach wie vor Probleme auf, die für die Qualität des Release Managements negative Auswirkungen haben und verbessert werden müssen. In dieser Arbeit wird mithilfe einer Literaturrecherche über die Probleme in Verbindung mit Toolanalysen sowie einer qualitativen Forschung mit Experten aus dem Bereich des Release Management und in der Softwareentwicklung erforscht, ob die gefundenen Probleme im Kontext des Tools auftreten oder, ob diese durch weitere Handlungsempfehlungen gelöst werden können. Aufgrund der Tatsache, dass die Softwareentwicklung in den letzten Jahren eine Entwicklung eingeschlagen hat, in der der Softwareentwicklungsprozess sich in den meisten Unternehmen mehr in Richtung eines agilen Ansatzes geändert hat, wird in folgender Arbeit die Auswirkung dieses Trends auf das Release Management analysiert. Zu guter Letzt werden einer Gruppe an Unternehmen Handlungsempfehlungen erstellt, die bei Eintritt bestimmter Probleme verwendet werden können, um auch in Verbindung mit dem Tool für eine höhere Qualität im Release Management zu sorgen.
Diese Masterarbeit behandelt die Informationssicherheit im Kontext des Social Engineerings von Unternehmen. Das Ziel ist es, Initiativen zu definieren, die Unternehmen kritischer Infrastruktur einsetzen müssen, um die Informationssicherheit in diesem Kontext zu gewährleisten. Im Bereich der Theorie wurde eine Literaturrecherche über das Thema ‚Social Engineering‘ durchgeführt. Es ließ sich herausfinden, welche Möglichkeiten es gibt, Unternehmen zu attackieren. Des Weiteren bedeutet Social Engineering nicht, dass immer eine illegale Aktivität dahinter steckt, sondern dass hier lediglich mithilfe von Psychologie ein Mehrwert für die Angreiferin oder den Angreifer generiert wird. Für den empirischen Teil der Arbeit wurde eine Umfrage an Personen gesendet, die in ihrer Arbeit mit Informationssystemen zu tun haben. Diese Befragung hat ergeben, dass Personen wissen, wie bedeutsam Informationssicherheit ist, und es wurde kein signifikanter Unterschied zwischen IT-affinen und nicht IT-affinen Personen festgestellt. IT-affine Personen wissen lediglich besser über die Auswirkungen Bescheid. Des Weiteren wurden Interviews mit Expertinnen und Experten aus dem Bereich der Informationssicherheit durchgeführt. Deren Zweck war es, herauszufinden, welche Maßnahmen es gibt, die Informationssicherheit im Kontext von Social Engineering zu gewährleisten bzw. zu erhöhen. Es hat sich herausgestellt, dass Security-Awareness-Schulungen sehr sinnvoll sind. Unternehmen kritischer Infrastruktur sollten sich auf Vor-Ort-Schulungen fokussieren, da diese ein höheres Informationssicherheitsempfinden beim Personal auslösen. In Relation zu den Kosten, die ein Social-Engineering-Angriff verursachen kann, zahlt sich für ein Unternehmen kritischer Infrastruktur eine Security-Awareness-Schulung mit großer Wahrscheinlichkeit aus. Es wird auch empfohlen, technische und physische Maßnahmen einzusetzen, um einen Social-Engineering-Angriff zu erschweren. Jedoch ist zu erwähnen, dass technische Maßnahmen nicht ausschließlich darauf ausgelegt sind, Social-Engineering-Angriffe zu verhindern. Das ist lediglich ein Teil davon. technische Maßnahmen schützen die Allgemeinheit vor Social-Engineering-Angriffen, jedoch nicht einzelne Personen. Für Unternehmen kritischer Infrastruktur sollten wiederkehrende Security-Awareness-Schulungen und technische Maßnahmen eingesetzt werden, um die Informationssicherheit im Kontext des Social Engineerings zu gewährleisten. Diese Vorkehrungen haben nämlich keinen erheblich negativen Einfluss auf die Arbeitstätigkeiten der Mitarbeiterinnen und Mitarbeiter im Allgemeinen. Auf der anderen Seite stellen sie jedoch sicher, dass die Angestellten ein entsprechendes Bewusstsein für diese Gefahr entwickeln und es stetig erweitern.
In vielen Systemlandschaften stellt ein ERP-System das Rückgrat aller Geschäftsprozesse dar. Das Streben nach durchgängigen Prozessintegrationen macht diese Komponente zu einem beliebten Kandidaten für die Anbindung weiterer Unternehmensanwendungen. Durch moderne, Cloud-basierte Bereitstellungsmodelle werden neue Innovationen und Funktionalitäten immer häufiger im Rahmen automatischer Software-Upgrades bereitgestellt. Um unter diesen Einwirkungen weiterhin einen reibungslosen Produktivbetrieb der geschäftskritischen Kernprozesse sicherstellen zu können, ist die Durchführung regelmäßiger Softwaretests folglich unabdingbar. Eine manuelle Ausführung dieser Tests bindet wiederkehrend Personalressourcen. Testautomatisierung birgt hierbei eine wertvolle Chance, Tests wiederholbar zu machen und effizienter zu gestalten. Die Herausforderungen in der Testautomatisierung in Kombination mit Webapplikationen sind jedoch nicht zu unterschätzen. Der dynamische Aufbau von Benutzeroberflächen erschwert die Erstellung stabiler Automatisierungen auf UI-Ebene. Eingeschränkte Zugriffsmöglichkeiten auf die Codebasis von Anwendungen repräsentieren eine weitere Hürde. Schnittstellenbasierte Ansätze verkörpern dadurch eine attraktive Alternative. In der vorliegenden Arbeit werden Einsparpotenziale durch den Einsatz von GUI- und API-basierter Testautomatisierung für SAP Business ByDesign untersucht. Bei der kaufmännischen Bewertung von Testautomatisierungsprojekten müssen initiale Implementierungskosten ebenso mit in die Betrachtung einfließen, wie auch Wartungsaufwände, Infrastrukturkosten und ggf. anfallende Lizenzkosten. Im Rahmen der Masterarbeit wurden sowohl interne als auch externe Experteninterviews durchgeführt, um einerseits Vergleichs- und Erfahrungswerte aus manuellen Testvorgängen zu erheben, andererseits jedoch auch wichtige Aspekte und Erkenntnisse für mögliche Testautomatisierungen in Zusammenspiel mit SAP Business ByDesign zu gewinnen. Dazu wurden die Interviews transkribiert, paraphrasiert und mittels qualitativer Inhaltsanalyse ausgewertet. Eine abschließende Evaluierung und Gegenüberstellung der aus den Interviews hervorgehenden Ansätze zur UI- und API-basierten Testautomatisierung zeigen konkrete Anknüpfungspunkte für potenzielle Projektautomatisierungsprojekte.
Was muss ein Unternehmen heutzutage leisten um auf Dauer mit dem Wettbewerb mithalten und den Veränderungen von Industrie und Gesellschaft standzuhalten? Was bedeuten die einzelnen Buzz-Wörter wie „Industrie 4.0“, „Internet of Things“ und „Cyber-Physikalisches Produktionssystem“ konkret für die eigene Situation? Die folgende Arbeit versucht, diesen Fragen nachzugehen. Konkret wird hierfür das Beispiel der Messtechnik Branche untersucht und versucht, für die Software des Mitutoyo Konzerns eine Softwarearchitektur zu entwickeln, welche für die neuen Entwicklungen gewappnet ist. Hierfür wird zunächst eine grundlegende Untersuchung der aktuellen Trends in der Industrie durchgeführt und daraus Anforderungen abgeleitet. Dann werden die einzelnen Aspekte auf die Architektur übertragen und eine grundlegende Basisstruktur definiert. Anhand des konkreten Beispiels einer Software zur Status Überwachung und Auslastungsplanung für Messmaschinen wird dann untersucht, inwiefern die Basis Architektur den ermittelten Anforderungen gerecht wird.
Die Digitalisierung schreitet über alle Branchen hinweg kontinuierlich voran. Auch die Tätigkeit der Hypothekarkreditvermittlung ist von diesem Trend nicht ausgenommen. Dennoch wird ein Großteil der Informationen, die für eine Kreditvermittlung notwendig sind, noch handschriftlich erfasst und die erforderlichen Dokumente werden per E-Mail ausgetauscht. Im Zuge dieser Arbeit soll herausgefunden werden, wie der gesamte Prozess der Hypothekarkreditvermittlung sowohl auf Seiten der Kund/innen als auch auf Seiten der Kreditvermittler/innen mit Hilfe eines webbasierten Portals bestmöglich unterstützt werden kann. Das Ziel ist dabei nicht, das persönliche Beratungsgespräch zu ersetzen, sondern die Abwicklung digital zu unterstützen. Ausgehend von der Analyse des Prozesses werden die Anforderungen an die Anwendung festgelegt. Anschließend wird ein Prototyp konzeptioniert und implementiert, der diese Anforderungen bestmöglich erfüllen soll. Der Fokus liegt dabei auf eine möglichst einfache Bedienung und größtmögliche Zeitersparnis für alle Beteiligten. Der Prototyp ermöglicht, sämtliche Daten, die im Zuge einer Hypothekarkreditvermittlung erforderlich sind, direkt im Webportal einzugeben. Alle Dokumente können über die Anwendung hochgeladen oder mittels Kameraaufnahme hinzugefügt werden. Kreditvermittler/innen haben im Portal die Möglichkeit, Anfragen an Banken für Finanzierungsangebote zu stellen. Dadurch entfällt das zeitaufwändige, manuelle Zusammenstellen der Unterlagen. Die von den Banken übermittelten Angebote können den Kund/innen in einem übersichtlichen Vergleich zur Verfügung gestellt werden. Das erhöht die Transparenz und erleichtert die Entscheidung für die bestmögliche Finanzierung. Der Prototyp erfüllt alle gestellten Anforderungen und könnte zukünftig zu einer vollwertigen Plattform ausgebaut werden.
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Moderne Frameworks für die Entwicklung von Anwendungen auf mobilen Plattformen entwickeln sich ständig weiter, um den sich ständig ändernden Anforderungen der Welt der Softwareentwicklung gerecht zu werden. Seit 2018 entwickelt Google das Flutter-Framework, das für die Entwicklung mobiler Anwendungen auf den Plattformen Android und iOS eingesetzt wird. Da es sich bei Flutter um das neueste Framework handelt, das eine native Anwendungsleistung verspricht, ist es wichtig, ein besseres Verständnis für die Performance der Technologie zu erhalten und zu erfahren, wie sie sich mit anderen verfügbaren Plattformen messen kann. Aus diesem Grund analysiert diese Arbeit Flutter und vergleicht das Framework mit nativen und anderen plattformübergreifenden Technologien. Prototypen mit den gleichen Funktionalitäten wurden mit Flutter und anderen Plattformen (z. B. Android, iOS, React Native) erstellt und dann getestet, um ihre Leistungsniveaus zu vergleichen. Die Ergebnisse zeigen, dass Flutter in einigen Aspekten (z. B. CPU-Nutzung) eine native Performance erreichen kann, in anderen Aspekten (z. B. Speichernutzung) jedoch schlechter abschneidet als andere Frameworks. Insgesamt zeigt die Forschung, dass Flutter ein sehr vielversprechendes Framework für die plattformübergreifende Entwicklung ist. Zukünftige Arbeiten können auf diese Arbeit aufbauen, um mit verschiedenen Anwendungsfällen zu experimentieren und einen tieferen Einblick in die Leistungsfähigkeit des Frameworks zu erhalten.
Analyse und Bewertung von State-Management Varianten in modernen Cross-Plattform Technologien
(2020)
Plattformübergreifende Technologien entwickeln sich ständig weiter und bieten einen kostengünstigen und zeiteffizienten Ansatz zur Entwicklung von Anwendungen auf mehreren Plattformen. Die Frage nach dem richtigen State-Management Ansatz muss dabei zu Beginn eines jeden Projekts beantwortet werden, was eine Herausforderung sein kann mit einer Vielzahl an mögliche Lösungen. Das Ziel dieser Arbeit war daher die Untersuchung von State-Management Ansätzen am Beispiel von Flutter und deren Bewertung auf der Grundlage von festgelegten Kriterien. In dieser Arbeit werden zunächst plattformübergreifende Technologien untersucht, mit Schwerpunkt auf Flutter. Danach werden gängige Ansätze von State-Management und die Theorie hinter Code Qualität Metriken analysiert. Basierend auf den gesammelten Informationen und den daraus resultierenden wirtschaftlichen und technologischen Entscheidungsgründen wurden Bewertungskriterien erstellt. Vier State-Management Ansätze wurden umgesetzt und entsprechend der Kriterien bewertet. Der Vergleich zeigt, dass BLoC die beste Lösung für Großanwendungen mit erfahrenen Entwicklern zu sein scheint. Für kleinere Projekte oder unerfahrene Entwickler bietet sich der Einsatz von Provider an.
Das Ziel dieser Masterarbeit ist die Analyse der IT-Sicherheit von kritischen Infrastrukturen. Es soll gezeigt werden, ob eine Absicherung kritischer Infrastrukturen mit Hilfe von Methoden aus der IT-Sicherheit möglich ist und welche Auswirkung eine Vernetzung der einzelnen Systeme hat. Nicht behandelt werden Absicherungen für Cloud und mobile Geräte. In den vergangenen Jahren hat die Vernetzung der kritischen Infrastrukturen stark zugenommen und die Angriffe auf diese sind deutlich gestiegen. Aufgrund dessen werden in dieser Masterarbeit zunächst vergangene Angriffe beschrieben und analysiert. Großen Wert wird hierbei auf die NIS-Richtlinie gelegt, die als EU-Richtlinie wichtige Punkte für ganz Europa vorgibt. Aus den gewonnenen Erkenntnissen werden anschließend technische IT-Maßnahmen abgeleitet wie kritische Infrastrukturen in Zukunft besser geschützt werden können. Folgend werden die einzelnen Maßnahmen auch technisch in einer extra dafür aufgesetzten Testumgebung umgesetzt und im Detail beschrieben. Unter anderem wird gezeigt, wie wichtig es ist eine Verschlüsselung einzusetzen und dass es nicht ausreichend ist, die Zugänge nur mit einem starken Passwort abzusichern, sondern auch ein zweiter Faktor eingesetzt werden sollte. Durch Umsetzung der Sicherheitsmaßnahmen, zusätzlich zu den normalen IT-Schutzvorkehrungen, kann die IT-Sicherheit erhöht werden. Ein kompletter Schutz vor Angriffen ist jedoch nicht möglich, da durch die Vernetzung der Systeme immer ein Angriffsvektor entsteht, der ausgenutzt werden kann. In Zukunft könnten kritische Infrastrukturen besser abgesichert werden, wenn die aufgezeigten Sicherheitsmaßnahmen umgesetzt werden.
Customer – Releationship Management Systeme haben in den letzten Jahren eine immer größere Bedeutung für Unternehmen bekommen. Das System wird ins Unternehmen sowie deren Prozesse integriert. Dies kann unter der richtigen Verwundung den Umsatz der Unternehmen steigern und Prozesse optimiert werden. Aktuelle CRM System wie Salesforce bieten die Möglichkeit der Integration einer Artificial Intelligence welche auf Basis der vorhandenen Daten Vorhersagen über Kosten eines Angebots und wie hoch die Wahrscheinlichkeit ist, dass es zu einem Auftrag kommen wird. Diese Informationen sollen dem Sales Mitarbeiter bzw. der Sales Mitarbeiterin bei der Angebotslegung sowie Kalkulation unterstützen. Für den Einsatz von Artificial Intelligence ist das Sammeln von Informationen ein wichtiger Punkt weshalb auch das Thema Big Data aufgearbeitet wird. Im Rahmen dieser Arbeit sollen die Auswirkungen des Einsatzes überprüft werden, im Speziellen wird die Artificial Intelligence mit dem Namen „Einstein“ des Salesforce CRM Systems untersucht. Um dies zu überprüfen wird ein Versuch durchgeführt, welcher zwei CRM Systeme miteinander vergleicht, zu diesem Zweck werden in unterschiedlichen Gruppen Aufgabenstellungen gestellt und die durchgeführt werden sollen. Die Teilnehmer / Teilnehmerinnen werden im Rahmen eines Interviews erfragt inwiefern sich die Systeme unterschieden haben, ob und welche Effekte auf das Vorgehen bei der Durchführung hatte. Auf Basis der Ergebnisse werden Schlussfolgerungen erstellt, ob es Auswirkungen gab und welche diese waren in Bezug auf die Angebotserstellung und dem allgemeinen Vorgehen. Aus der Arbeit wird hervorgehen, dass eine gute Informationsqualität eine Voraussetzung für den Einsatz von Artificial Intelligence ist, welche sich wiederum auf die Vorhersagen bzw. Unterstützung auswirkt. Das erarbeitete Wissen, welches aus dieser Arbeit hervorgeht, bietet eine Grundlage für die Verwendung und Integration einer Artificial Intelligence.
Digitale Plattformen ermöglichen Softwareentwicklungsunternehmen und digitalen Geschäftsmodellen ein schnelles Wachstum. Dies erfordert skalierbare und flexible Softwarelösungen wie White-Label Plattformen die als Software-as-a-Service bereitgestellt werden. Das Ziel dieser Arbeit ist, Software Architekturen für digitale Plattform zu analysieren und wie Plattformen durch die Verwendung von Clouddiensten bereitgestellt werden können. Die Analyse untersucht drei gängige Software Architekturen und vergleicht die Architekturen für unterschiedliche Ausprägungen von digitalen Plattformen. Die Auswertung zeigte, dass eine Serverless-Architektur die beste Möglichkeit für die Bereitstellung einer Plattform ist, die unregelmäßig verwendet wird oder für Plattformen bei denen die Kunden stark reguliert sind und eigene Instanzen benötigen. Eine Microservice Architektur bietet sich für Systeme mit einer hohen Auslastung an oder für Plattformen, die eine große Anzahl an Benutzer benötigen. Zusammenfassend kann gesagt werden, dass Clouddienste Unternehmen eine einfache Möglichkeit bieten um flexible digitale Geschäftsmodelle zu entwickeln, die gegebenenfalls uneingeschränkt skaliert werden können und in kürzester Zeit auf die Bedürfnisse des Marktes angepasst werden können.
Die Softwarequalität ist ein wesentlicher Wettbewerbsfaktor in der Softwarebranche. Viele Softwareprojekte legen daher den Schwerpunkt ihrer Softwarequalität auf Abnahmetests und ignorieren andere wichtige Faktoren des gesamten Software-Lebenszyklus. Aus diesem Grund konzentriert sich diese Arbeit darauf, ob ausgewählte Einflussfaktoren aus dem gesamten Software-Lebenszyklus in Verbindung mit Testergebnissen von Abnahmetests eine detailliertere Bewertung der Qualität eines Software Release ermöglichen können. Hierzu wurden Einflussfaktoren untersucht und in ein Modell integriert. Darauf aufbauend wurde eine Bewertungsmatrix für die Implementierung entwickelt. In einem Experiment, in dem das Modell auf ein Beispielprojekt angewendet wurde, wurden 6 von 16 Features aus dem Software Release ausgenommen. Hätte sich dieses Experiment nur auf die Ergebnisse des Akzeptanztests gestützt, wären nur 4 von 16 Features aus dem Software Release ausgenommen worden. Diese Ergebnisse bestätigen, dass die ausgewählten Einflussfaktoren eine detailliertere Bewertung der Qualität des Software Release ermöglichen. Trotz dieser Schlussfolgerung würden die Erkenntnisse dieser Arbeit von weiteren Studien profitieren, bei denen mehr Zeit zur Verfügung steht und verschiedene Werkzeuge zur Überprüfung der Forschungsfrage verwendet werden.
Industrielle Steuerungssysteme und somit die Operational Technology (OT) werden immer verletzlichere Angriffsziele. Da Industrieanlagen, ebenso Tunnelanlagen, größtenteils mit der Office-IT vernetzt sind und häufig auch eine Verbindung zum Internet aufweisen, besteht ein Fernzugriff, der ausgenutzt werden kann. Zusätzlich besteht die Möglichkeit, dass ein Eindringen über die physischen Schnittstellen stattfindet. Daher müssen für einen gesamtheitlichen Schutz entsprechende OT-Security-Prozesse angewendet werden. Das Ziel dieser Arbeit ist die Verbesserung der zurzeit von der Dürr Austria GmbH verwendeten OT-Security-Prozesse in Tunnelsteuerungssystemen. Dazu werden die Informationssicherheit, mögliche Attacken und Angreifer*innen, sowie anwendbare Normen und Standards evaluiert. Der Fokus liegt dabei auf der IEC 62443, der Norm für die IT-Sicherheit für Netze und Systeme. Die zurzeit angewendeten OT-Security-Prozesse werden definiert und darauf aufbauend Optimierungen aus den anwendbaren Teilen der IEC 62443 analysiert. Weitere Security-Maßnahmen werden mithilfe von ergänzenden Standards erforscht. Als Resultat werden die gefundenen Verbesserungsmaßnahmen zusammengeführt, um eine Integration in die Prozesse zu ermöglichen. Auf dieser gesamtheitlichen Basis wird das Defense-in-Depth-Modell definiert. Die Ergebnisse dieser Arbeit werden in den bestehenden Informationssicherheitsprozess des Unternehmens betreffend der Tunnelsteuerungssysteme integriert.
Kubernetes wird von mehr als 77% aller IT-basierten Unternehmen der Branche produktiv genutzt und der Platzhirsch auf dem Markt der Container-Orchestrierung. Die meisten Unternehmen berichten von großen Kosteneinsparungen und einer Steigerung der Entwicklungsgeschwindigkeit durch den Einsatz von Kubernetes. Das Ausmaß der Verbesserung hängt jedoch davon ab, wie gut das Kubernetes-System zum Unternehmen und seinen Anforderungen passt. Kubernetes besteht aus vielen Komponenten und kann auf vielfältige Weise genutzt werden. Für viele der Komponenten von Kubernetes gibt es diverse Produkte am Markt, daher wird eine Methode benötigt um die besten Produkte auszuwählen. Um den Entwurf der richtigen Kubernetes-Lösung für eine bestimmte Idee oder ein Konzept zu unterstützen, wurde ein Modell vorgeschlagen, das aus einem Designprozess und einem Anforderungskatalog besteht. Der Anforderungskatalog ist stark in den Prozess integriert. Dabei handelt es sich um einen Fragebogen der dabei hilft die notwendigen Anforderungen für den zukünftigen Cluster zu erfassen. Der Prozess ist in sieben Schritte unterteilt, beginnend mit der Notwendigkeit eine geeignete Plattform für eine innovative Idee zu finden. Die anderen Schritte konzentrieren sich auf die Ermittlung der Anforderungen, die Gestaltung des Clusters, die Suche nach geeigneten Produkten und die Integration des Kubernetes-Systems in das Unternehmen. Der Anforderungskatalog ist in drei Gruppen unterteilt, die insgesamt 65 Punkte umfassen. Das vorgeschlagene Modell ermöglicht es Unternehmen, ihre Kubernetes-Umgebung strukturiert, verständlich und transparent zu entwerfen. Zur Bewertung des ersten Entwurfs des Modells wurden zwei Expertenworkshops und sechs Interviews durchgeführt. Mittels qualitativer Inhaltsanalyse wurden die daraus resultierenden Protokolle analysiert und die Ergebnisse in das Modell aufgenommen.
LOGICDATA entwickelt APIs (Application Programming Interfaces) für die marktführenden Smartdevice Plattformen zur Steuerung von mechatronischen Systemen in der Möbelindustrie. Die Funktionalität dieser APIs muss durch Tests mit verschiedenen Eingabeparametern überprüft werden. Änderungen in der Implementierung der APIs während der Entwicklungs- und Testphase führen zu Wartungsaufwand des Testsystems, welcher manuell durchgeführt werden muss. Das führt zu längeren Testdurchlaufzeiten und zu Verzögerungen in der Freigabe-Phase des Projekts. Ziel dieser Masterarbeit ist es, anfallende Wartungstätigkeiten bei API-Änderungen während der Testphase zu automatisieren, um die Entwicklungszeit des Testsystems zu reduzieren. Zu diesem Zweck soll eine Codegenerierungsmethode ausgewählt werden, mit der Code in verschiedenen Programmiersprachen und Plattformen generiert werden kann. Dafür werden verschiedene Codegenerierungsmethoden hinsichtlich ihrer Eignung für diese Aufgabenstellung miteinander verglichen und eine Wahl getroffen. Aufbauend auf diese Entscheidung wird eine Softwarearchitektur eines Testsystems mit automatischer Codegenerierung entworfen. Nach Festlegung dieser werden der Codegenerator und die Softwarekomponenten des Testsystems entwickelt und die Vorteile hinsichtlich Entwicklungs-, Wartungsaufwand und Testdurchlaufzeit aufgezeigt. Tests mit den ersten implementierten APIs haben gezeigt, dass der Einsatz der automatischen Codegenerierung zu einer höheren Codeflexibilität und niedrigerem Entwicklungsaufwand führt. Das Testsystem kann für die Verifikation zukünftiger API-Releases eingesetzt werden.
Das Ziel dieser Arbeit ist die Schaffung eines neuen Vorgehensmodelles, um agil entwickelte Projekte einfach und effizient übergeben zu können. Daher beschäftigt sich die Arbeit mit der Beantwortung der Frage „Welche Aspekte sind als zentrale Einflussfaktoren zu berücksichtigen, wenn die Weiterentwicklung eines agil umgesetzten Projektes in einem anderen Team stattfinden soll, welches noch über keine bestehende Entwicklungsumgebung und nur begrenztes Know-how verfügt?“. Um diese Frage beantworten zu können, wird zuerst ein grober Überblick über mögliche Modelle zur Entwicklung von Software gegeben. Der Fokus hierbei liegt auf den agilen Methoden. Ausgehend von dem agilen Manifest und den ausgewählten Praktiken wird ein allgemeiner Prozess anhand des Software-Lebenszyklus beschrieben. Aufbauend auf die Beschreibung der einzelnen Phasen des Software-Lebenszyklus wird der Ansatz der kontinuierlichen Integration von Software vorgestellt und beschrieben. Mit Hilfe der theoretischen Grundlagen werden anschließend die Einflussfaktoren entlang des Software-Lebenszyklus identifiziert, kategorisiert und beschrieben. Die einzelnen Einflussfaktoren münden in eine Liste mit Risikobewertung und möglichen Werkzeugen und bilden damit das neue Vorgehensmodell. Das neue Modell wird, nach einer kurzen allgemeinen Beschreibung des Unternehmens inklusive genereller Arbeitsweise, einem Praxistest unterzogen. Dies geschieht, indem ein bereits bestehendes, agil entwickeltes Projekt mit Hilfe des neuen Modells in ein neu geschaffenes Team übernommen wird. Im Zuge der praktischen Anwendung wird grob gezeigt wie das Modell eingesetzt werden kann und die Ergebnisse werden dokumentiert. Abschließend wird eine Übersicht der Ergebnisse in Form einer Tabelle gegeben, welche die einzeln getroffenen Entscheidungen zeigt, bewertet wie erfolgreich die einzelnen Einflussfaktoren im Zuge der Übernahme abgedeckt werden können und angibt, welche Folgeschritte geplant sind.
Die vorliegende Masterarbeit soll Unternehmen ansprechen, die planen, eine Single Sign On Lösung in ihrem Unternehmen zu etablieren. Damit das Authentifizierungsverfahren im Unternehmen von den Mitarbeitern auch genutzt wird, muss eine starke Akzeptanz zwischen den Nutzern und einer Single Sign On Lösungen gegeben sein. Aus diesem Grund werden im Theorieteil Faktoren der Benutzerakzeptanz aus dem Technology Acceptance Model 3 herausgearbeitet, welche im Speziellen für die Akzeptanz von Single Sign On Lösungen zutreffend sind. Die empirische Forschung besteht dabei aus zwei Teilen, in denen einerseits eine Umfrage erstellt und andererseits die Zusammenhänge zwischen den herausgearbeiteten Faktoren und der Benutzerakzeptanz auf Signifikanz geprüft werden. Die Auswertung der Umfrage im Rahmen dieser Masterarbeit zeigt dabei einen starken Zusammenhang zwischen der IT-Affinität und der Einstellung des Nutzers gegenüber einer Single Sign On Lösung auf die Benutzerakzeptanz. Eine ebenfalls im Rahmen dieser Arbeit erstellte Fallstudie zeigt, dass Single Sign On Technologien im Privatbereich noch keinen großen Anklang finden und dass auch die Vertrauenswürdigkeit des Identity Provider keinen Einfluss auf die Benutzerakzeptanz von Single Sign On Lösungen hat. Abschließend werden Maßnahmenvorschläge erstellt, um die Akzeptanz von Single Sign On sowohl in Unternehmen als auch im Privatbereich zu steigern.
Die vorliegende Masterarbeit ist im Bereich der Informationssicherheit und dem Informationssicherheitsmanagement angesiedelt. Ziel der Arbeit war es, einen allgemeinen Ansatz für die Entwicklung von Informationssicherheitsrichtlinien zu entwickeln. Aufgrund der Größe des Themenfeldes behandelt diese Arbeit vor allem das Richtliniendesign im Kontext der ISO 27001. Der erste Teil der Arbeit deckt den theoretischen Hintergrund von Informationssicherheitsmanagement, Kryptographie und den gesetzlichen Vorgaben dazu ab. Das Ergebnis dieses Teils war ein grundsätzliches Verständnis davon, wie Informationssicherheitsmanagement funktioniert und welchen Beitrag Kryptographie dazu leisten kann. Außerdem wurde festgestellt, dass es für die öffentliche Verwaltung keine besonderen Gesetze im Bereich der Informationssicherheit gibt. Der zweite Teil der Arbeit widmet sich dem Design von Informationssicherheitsrichtlinien. Aufgrund dessen, dass es noch keinen allgemeinen Ansatz für die Entwicklung solcher Richtlinien gab, wurde ein eigenes Vorgehensmodell dafür entwickelt. Basis für die Entwicklung des Modells waren die Erkenntnisse aus der Literaturrecherche hinsichtlich der Erfolgsfaktoren von Informationssicherheit. Im nächsten Schritt wurden fünf Fachleute aus dem Bereich der Informationssicherheit zu dem entwickelten Modell befragt. Das Ergebnis dieser Befragung war eine verbesserte Version des aufgestellten Modells. Mit Hilfe dieses Modells wurde dann in einem weiteren Schritt eine Richtlinie für die Anwendung von kryptographischen Verfahren entwickelt. Außerdem ist deutlich geworden, dass die verschiedenen Richtlinien für Informationssicherheit so unterschiedlich sind, wie die Unternehmen, in denen sie Anwendung finden und dass die Unternehmenskultur einen großen Einfluss auf den Erfolg dieser Richtlinien hat. Zusätzlich wurde festgestellt, dass es verschiedene Arten von Anforderungen innerhalb der ISO 27002 gibt. Einige können direkt umgesetzt und mit Richtlinien erfüllt werden, und andere wirken sich auf viele Unternehmensbereiche aus. Aufgrund dessen war eine Beantwortung der Forschungsfrage schwierig. Das entwickelte Modell versucht den verschiedenen Ansprüchen verschiedener Organisationen gerecht zu werden, aber die letztendlich entwickelte Richtlinie ist nicht auf andere Organisationen übertragbar.
Die Verbreitung von Geräten, die mit dem Internet kommunizieren und Teile des Alltags vieler Menschen sind, nimmt immer mehr zu. Das Internet of Things (IoT) kombiniert bestehende Technologien mit dem Internet, wodurch neue Einsatzgebiete erschlossen werden. IPKameras, Verkehrssteuerungssysteme und kritische Infrastrukturen wandern zunehmend in das Internet und werden dadurch für Personen erreichbar, die keinen Zugriff auf diese Systeme haben sollten. Dies führt dazu, dass neue Angriffsvektoren, die von Hackern und Kriminellen genutzt werden, entstehen und sowohl die IT-Sicherheit der IoT-Objekte selbst, als auch jene von bestehenden IT-Infrastruktur gefährdet werden. Viele IoT-Produkte, die für die Endkundin und den Endkunden konzipiert wurden, verfügen nicht über die notwendigen Sicherheitsmechanismen, die einen ordnungsgemäßen und sicheren ITBetrieb gewährleisten sollen. Die Produktentwicklung der Hersteller setzt den Fokus auf Bedienungskomfort und einfacher Konfiguration, vergisst jedoch die Gefahren, welche von ungesicherten IoT-Objekten ausgehen. Diese Gefahren reichen von Funktionsstörungen, dem Versenden von Spam-E-Mails, bis zur Nutzung von IoT-Objekten für großangelegte Hacker-Angriffe auf kritische Infrastrukturen. In dieser Arbeit wird ein IoT-Security Framework entwickelt, das auf Basis von Analysen bestehender IoT-Sicherheitsproblematiken, Sicherheitsanforderungen definiert und diese in einem Integrationsprozess zusammenfasst. Die Sicherheitsanforderungen wurden aus bereits publizierten Angriffsszenarien abgeleitet und werden sich direkt an das IoT-Objekt richten, der sicheren Kommunikation zwischen den einzelnen Objekten, sowie an die Cloudplattformen, die im Umfeld von IoT häufig zum Einsatz kommen. Das IoT-Security Framework soll es Endkonsumentinnen und Endkonsumenten ermöglichen, die IT-Sicherheit von IoT-Produkten zu bewerten und deren Risiko für sich selbst, als auch für bestehende IT-Infrastrukturen zu beurteilen.
Die Softwareentwicklung von Produkten und Lösungen orientiert sich zunehmend an agilen Vorgehensweisen, welche erhebliche Vorteile in der Kundenorientierung und Schnelligkeit in der Auslieferung der Lösungen mit sich bringt. In diesem Zusammenhang besteht auch die Herausforderung der Schätzung von User Stories, die aus Sicht des Benutzers, formuliert werden. Obwohl sich etwaige Methoden und Techniken zur Schätzung von User Stories etabliert haben (z.B. Point-Metriken), liegt dabei ein wesentlicher Nachteil in der subjektiven und relativen Bewertung des Aufwandes bzw. der Komplexität durch das Team durch welche eine Verzerrung der Schätzung entstehen kann. Ebenso beanspruchen Schätzpraktiken in agilen Vorgehensweisen, durch deren interaktiven Charakter, einen erheblichen Zeitaufwand. Das Ziel dieser Arbeit bestand darin, zu prüfen, ob die Anwendung bzw. der Einsatz von Machine Learning den Schätzprozess in agilen Vorgehensweisen unterstützen kann. Der erste Teil der Arbeit bereitet dazu einen Einblick in die Welt der agilen Vorgehensweisen mit deren gängigsten Schätzverfahren. Nach einer kurzen Einführung in die Grundlagen des Data Minings bzw. Machine Learnings, wurden mögliche Lösungsansätzen zur Verbesserung der Schätzungen durch Machine Learning Verfahren untersucht. Die Untersuchung beinhaltet die Auswahl und Erläuterung eines Data Mining Vorgehensmodells. Dabei wurde der Cross-Industry Standard Process for Data Mining (CRISP-DM) als Referenzprozess für die Abhandlung der gesamten Arbeit gewählt. Auf Basis dieses Prozessmodells wurden einige relevante Techniken zur Textklassifizierung von User Stories abgehandelt. Demgemäß reichte die Untersuchung von der Phase Business Understanding bis hin zur Evaluation Phase eines Machine Learning Models. Basierend auf drei ausgewählten Machine Learning Verfahren (Naïve Bayes, Random Forest und Multilayer Perceptron) wurde eine Fallstudie durchgeführt. Diese Fallstudie umfasste die Datenvorverarbeitung, sowie die Modellierung und Implementierung eines Machine Learning Models auf Basis eines Real-life Datensets in der Programmiersprache R (Data Discovery und statistische Evaluation) und Python (Modellierung und Implementierung). Der letzte Teil der Fallstudie bestand in der Evaluation des trainierten Modells. Ziel der Fallstudie war es, zu prüfen, ob das Modell in der Lage ist, Story Points auf Basis von User Stories genauer zu schätzen, als durch ein zufälliges Raten bzw. Verteilen von Story Points. Dazu wurde eine ausgewählte Metrik (z.B. Accuracy) für jedes der drei Klassifizierungs-Verfahren, einem Dummy-Klassifizierer gegenübergestellt, welcher zufällig gewählte Story Points aus dem Datenset vorhersagte. Dies wurde auf Basis einer mehrstufigen Kreuzvalidierung (Cross Validation) durchgeführt um eine möglichst hohe Konfidenz der Vorhersagen zu erzielen. Anschließend wurde ein nicht-parametrischer statistischer Test (Wilcoxon Test) auf die erzeugten Vorhersagen (Metrik) angewendet, um festzustellen, ob sich die Mittelwerte tatsächlich voneinander unterscheiden. Die Ergebnisse der vorliegenden Studie zeigen, dass die Schätzung von Story Points durch die Anwendung von Machine Learning, das zufällige Raten erheblich übertreffen kann (unter den Voraussetzungen und Rahmenbedingungen der Fallstudie). Somit lässt sich sagen, dass Techniken des Machine Learnings für den vorliegenden Datensatz verwendet werden können, um den Schätzprozess zu beschleunigen, indem eine initiale Schätzung aller User Stories (z.B. aus einem Backlog) aus einem Machine Learning Modell bereitgestellt wird. Darüber hinaus bieten die Ergebnisse aus dem Modell, bis zu einem gewissen Grad einen unvoreingenommenen Blick auf StoryPoint-Schätzungen, als Grundlage für Diskussionen innerhalb des Teams. Hierbei ist jedoch anzumerken, dass die Validität der Ergebnisse, auf den speziellen Voraussetzungen und Rahmenbedingungen der Fallstudie beschränkt sind. Daher sollten die Ergebnisse dieser Arbeit auf einer breiteren (Anzahl der Datensätze), teamübergreifenden und projektübergreifenden Datenbasis verifiziert werden. Dennoch stellt die vorliegende Arbeit einen ersten Schritt zur Nutzung des maschinellen Lernens für die Story-Point-Schätzung dar.
Die vorliegende Arbeit beschäftigt sich mit Cross-Plattform-Applikationen im Business Bereich. Es wird der Frage nachgegangen, ob die Effizienz durch die plattformunabhängige Softwareentwicklung gesteigert werden kann. Ziel dieser Arbeit ist es zu klären, in wie weit Experten und Expertinnen bereits Erfahrung mit Technologien sammeln konnten, die sich auf plattformunabhängige Softwareentwicklung spezialisiert haben. Damit herausgefunden werden kann ob die Effizienz gesteigert werden kann, beziehungsweise ob ExpertInnen in diesem Bereich herangezogen werden kann, wird zu Beginn dieser Arbeit eine Einführung in die mobilen Applikationen gemacht und gängige Begriffe näher beschrieben. Dabei wird eingegrenzt, was genau unter einem mobilen Gerät verstanden wird, damit in weiterer Folge die Zielgruppe festgelegt werden kann. Anschließend werden dem Leser beziehungsweise der Leserin, die beliebtesten Betriebssystem die auf dem Markt existieren vorgestellt und näher beschrieben. Zum Abschluss dieses Kapitel werden die einzelnen Plattformen gegenübergestellt, damit herausgefunden werden kann, welche Vor- beziehungsweise Nachteile existieren. Nachdem die einzelnen Plattformen vorgestellt wurden, wird auf die plattformunabhängige Softwareentwicklung näher eingegangen. Dabei werden zuerst Begriffe, die im Zusammenhang mit mobiler Entwicklung fallen definiert. Im Anschluss erfolgt eine Vorstellung verschiedener Technologien, die derzeit existieren. Im empirischen Teil wird der Prototyp der im Zuge dieser Arbeit entwickelt wurde, näher beschrieben. Dafür werden zu Beginn die Anforderungen, die die App erfüllen muss vorgestellt. In weiterer Folge wird dem Lesendem die gewählte Technologie vorgestellt und beschrieben, warum sich der Autor dieser Arbeit für dieses Framework entschieden hat. Zu Letzt wird im empirischen Teil berichtet werden, welche Technik bei den Experteninterviews zum Einsatz gekommen ist und wie der Aufbau aussieht. Abschließend wird vom Autor dieser Arbeit ein Erfahrungsbericht, über die Erfahrungen die beim Entwickeln des Prototyps gesammelt werden konnten, geschrieben. Im fünften und letzten Kapitel wird über die Beantwortung der Forschungsfrage berichtet und ein kurzer Ausblick gegeben welche Schritte als nächstes durchgeführt werden können, damit die Ergebnisse gefestigt werden können.
Microservices
(2016)
Der Fokus dieser Arbeit liegt auf dem Identifizieren und Verifizieren des Einflusses von Microservices auf die Codequalität von Softwareanwendungen. Im ersten Teil der Arbeit sind Definitionen und Architekturen der untersuchten Softwareapplikationen dargelegt. Dies beinhaltet die Definition von monolithischer Software und deren Architektur und die Definition von Microservices mit seinen Vorteilen (zum Beispiel die Skalierung durch automatisiertes Deployment) und Nachteilen (zum Beispiel höhere Komplexität durch die erhöhte Anzahl von Softwareteilen). Darauf folgt eine Analyse von den ähnlichen Softwarearchitekturkonzepten der serviceorientierten Architektur und den Self-contained Services. Der Theorieteil zu Microservices endet mit der Darstellung von Methoden zur Trennung von monolithischer Software in Microservices und wie diese Dienste wieder zu einer Gesamtanwendung zusammengeführt werden können. Zur Vervollständigung ist der aktuelle Forschungsstand auf dem Gebiet der Microservices angeführt und es wird ein Einblick in eine Auswahl an Softwaremetriken zur Erhebung von Softwarequalität gegeben. Im praktischen Teil der Arbeit wurden die theoretischen Erkenntnisse an einer Softwareapplikation angewandt. Von einem Monolithen wurden Microservices abgespalten und die resultierende Anwendung als auch der Monolith einer Softwarearchitekturanalyse unterzogen. Danach wurden Softwaremetriken für die Ausgangsapplikation und die Microservices berechnet, um festzustellen, ob sich die Codequalität verändert hat. Zum Abschluss wurde eine Analyse der Änderungsgeschwindigkeit in beiden Applikationen durchgeführt, gefolgt von Interviews mit Softwareentwicklern zu dem Qualitätsmerkmal Lesbarkeit von Quellcode. Die Ergebnisse zeigen eine Verringerung der Komplexität des entstandenen Quellcodes und eine Erhöhung der Lesbarkeit gegenüber der Ausgangsanwendung.
Das Platzieren und Verkaufen von eigengenutzten Immobilien verzögert sich häufig durch unterschiedliche Preisvorstellungen. Abhilfe kann ein Vergleich der zu veräußernden Immobilie mit bereits verkauften Vergleichsobjekten schaffen. Mit Hilfe einer Dienstleistungs-App besteht die Möglichkeit, den Maklerinnen und Maklern passende Vergleichspreise aus existierenden Kaufpreisdatenbanken liefern zu können. Mit dieser Arbeit wird ermittelt, inwieweit eine Dienstleistungs-App für einen Preisvergleich zu einer Effizienzsteigerung im Prozess des Platzierens und Verkaufens von eigengenutzten Immobilien führt. Der Fokus liegt auf dem österreichischen Markt, weil der Zugang zu digitalen Kaufpreissammlungen in anderen Ländern zum Teil schwierig oder gar unmöglich ist. In Österreich existieren bereits Anbieter digitaler Kaufpreissammlungen, die für eine derartige App die grundlegende Voraussetzung darstellen. Im Rahmen dieser Arbeit wird ein Prototyp einer mobilen App konzipiert, über den eine Dienstleistung konsumiert werden kann. Die Vorgehensweise orientiert sich an einem Service Engineering Prozess, um die Dienstleistung von der ersten Idee bis zur Markteinführung basierend auf einer etablierten Vorgehensweise entwickeln zu können. Zu Beginn werden Anforderungen an Dienstleistungs-Apps aus der Literatur und durch die Ableitung aus praktischen Beispielen ermittelt. Zudem erfolgt eine Einarbeitung in die Immobilienbewertungsverfahren in Österreich. Das gesammelte theoretische Wissen fließt in die Konzeption einer zweiteiligen Expertenbefragung von Immobilienmaklerinnen und -makler ein. Im ersten Teil dieser Befragung werden die Anforderungen an eine mobile App für den Immobilienpreisvergleich ermittelt. Die Ergebnisse fließen anschließend in die Umsetzung eines Prototyps ein, der im zweiten Teil der Befragung von den Expertinnen und Experten hinsichtlich der erreichten Effizienzsteigerung bewertet wird. Im Rahmen dieser Arbeit konnten zahlreiche relevante Anforderungen an eine mobile App für den Immobilienpreisvergleich identifiziert werden. Die Ergebnisse der Arbeit zeigen auch, dass die Expertinnen und Experten großes Potenzial in einer mobilen App sehen, die die Effizienz im Prozess des Preisvergleichs von eigengenutzten Immobilien in Österreich steigert.
Als Schatten-IT werden IT-Systeme bezeichnet, die nicht in das IT-Management eines Unternehmens eingebunden sind. Schatten-IT-Systeme können durch Ausfall oder durch Sicherheitslücken bestandsgefährdende Risiken für Unternehmen darstellen. Schatten-IT kann aber auch ein Innovationsmotor sein. Wenn Schatten-IT-Systeme erkannt werden, kann es erforderlich und nützlich sein, diese in das IT-Management des Unternehmens aufzunehmen. Die vorliegende Arbeit untersucht die Eignung und Übertragbarkeit der aus der agilen Software-Entwicklung stammenden Werte und Prinzipien bei der Einbindung von Schatten-Individualsoftware in das IT-Management von Unternehmen. Am Beispiel von Schatten-Individualsoftware wird untersucht, wie die bisherige Rolle des IT-Managements durch Schatten-IT in Frage gestellt wird und wie die einzelnen Disziplinen des IT-Managements durch Schatten-IT betroffen sind. Es werden die Eigenschaften von Schatten-Individualsoftware erarbeitet und es wird untersucht, welche agilen Werte und Prinzipien sich auf das IT-Management übertragen lassen, um Schatten-Individualsoftware in das IT-Management von Unternehmen einzubinden. Aus den identifizierten agilen Werten und Prinzipien wird ein Handlungsansatz entwickelt, um Schatten-Individualsoftware in das IT-Management von Unternehmen zu integrieren. Dieser Ansatz wird durch Experten-Interviews initial evaluiert.
Die vorliegende Masterarbeit beschäftigt sich mit Lasttests auf Systemebene. Die betrachtete Art von Softwaresystemen ist davon gekennzeichnet, dass diese innerhalb einer vernetzten Umgebung betrieben werden. Das bedeutet, dass diese mit verschiedenen anderen Systemen kommunizieren müssen und von Ereignissen eben dieser abhängig sind. Vorbereitend wird die betrachtete Problemstellung genauer klassifiziert. Dies soll helfen, dass der Leser die Ergebnisse der Arbeit auf eigene Problemstellungen übertragen kann. Weiterhin wird dadurch für die vorliegende Arbeit ein klarer Fokus geschaffen. Nachdem Methoden ermittelt werden, welche in modernen IT-Projekten bei der Testdurchführung eingesetzt werden, beschäftigt sich die vorliegende Arbeit mit den Voraussetzungen für die Testfallbeschreibung und -umgebung. Diese bilden das Ergebnis der vorliegenden Arbeit in Form einer Auflistung zu beachtender Punkte bei Lasttests auf Systemebene bei der betrachteten Art von Softwaresystemen. Hierbei werden jeweils sechs Voraussetzungen anhand aktueller Literatur ermittelt. Um die Anwendbarkeit für laufende und künftige Softwareprojekte gewährleisten zu können, werden die identifizierten Voraussetzungen im Rahmen eines IT-Migrationsprojekts angewendet. Bei dem hier zu testenden Softwaresystem handelt es sich um ein System auf Lagerveraltungs- und Materialflusssteuerungsebene innerhalb eines Intralogistiksystems. Es ist gekennzeichnet durch eine hohe Zahl an verbundenen Systemen zur Prozesssteuerung und einer hohen Materialflussleistung. Abschließend wird ein Fazit aus dem Praxisprojekt gezogen. Die Ergebnisse der vorliegenden Masterarbeit sind für Führungskräfte und insbesondere Testverantwortliche in der Softwareentwicklung gedacht. Beispielsweise Projektleiter, die vor der Herausforderung des Tests eines Softwaresystems in einer vergleichbaren vernetzten Umgebung stehen.
Die vorliegende Masterthesis liefert eine Einführung in die Themen Agile Business Intelligence, Data-Warehouse Architektur und das Testen von Software. Darauf aufbauend werden grundlegende Konzepte für das Testen von Data-Warehouse Systemen analysiert, und Ansätze für die Automatisierung solcher Systeme herausgearbeitet. Inhaltlich wird über die Thematiken Agilität und iterative Entwicklungsmethoden an die Notwendigkeit eines Konzeptes für die Testautomatisierung im Data-Warehouse Umfeld herangeführt.
Die Gastronomie ist eine Branche, die als Dienstleistung ihre Kunden vor Ort bewirtet. Durch den laufenden direkten Kontakt zwischen Kunde und Angestellten besteht jederzeit die Moglichkeit, positives Feedback oder Beschwerden direkt abzugeben. Die TeLLers-Anwendung bietet über eine mobile Web-Anwendung einen zusatzlichen Kanal für Feedbacks. Diese liegen teilweise als natürlichsprachige Texte vor, die der Gastronom nur umständlich auswerten kann, um Handlungsfelder zu erkennen. Diese Arbeit analysiert die vorliegenden Datensatze und ordnet sie manuell einem Thema und einer Bewertung zu. Anschließend erfolgt die Umsetzung einer automatischen Analyse unter Verwendung einer lexikonbasierten Stimmungserkennung. Es zeigt sich, dass trotz des relativ einfachen technischen Ansatzes eine hohe Deckungsrate mit der manuellen Analyse gegeben ist. Ein wichtiger Grund dafür ist die direkte und einfache Sprache der vorliegenden Feedbacks. Durch gezielte Fragestellungen kann der Gastronom die Qualität der Antworten weiter optimieren, so dass die Feedbacks konkrete Vorschläge für Verbesserungen enthalten. Eine Datenanalyse ermittelt jene Themen, zu denen die meisten Feedbacks eintreffen. Abschließend erfolgen auf Basis einer Literaturrecherche Empfehlungen zu den am häufigsten eingemeldeten Problemfeldern. Ein Teil der Beschwerden weist auf geringe Missstände hin, die vor Ort schnell lösbar sind. Komplexere Themen liegen vor allem im Service sowie bei Leistung und Qualität von Essen und Getränken vor. Hier tendieren die Lösungsansätze zu Verbesserungen bei der Personalentwicklung sowie der Optimierung von Prozessen im Betrieb. Eine strukturierte Kosten- und Umsatzrechnung ist eine wichtige Basis dazu.
Vergleich des Redux Paradigma mit Zustandsmanagement in bisherigen Javascript MV*-Architekturen
(2017)
JavaScript ist Sprache des Webs geworden und die Entwicklung von komplexen JavaScript Web Applikationen nimmt stetig zu. Bei der Entwicklung von modernen JavaScript Web Applikationen ist das Zustandsmanagement ein zentraler und erfolgskritischer Themenkomplex. Das Hauptziel der Arbeit ist es, die möglichen Vorteile eines Redux basierten Zustandsmanagement für JavaScript Web Applikationen gegenüber herkömmlichen JavaScript MV*-Architekturen zu erarbeiten. Bisherige JavaScript-MV* Architekturen boten bislang Kompromiss behaftete und speziell in sehr umfangreichen Web Applikationen keine Lösungen, um das Zustandsmanagement möglichst vorsehbar zu machen. Viele Komponenten, Zustandsinteraktionen und Veränderungen aus verschiedensten Quellen machten es besonders schwer, den aktuellen Applikationszustand transparent darzustellen. Das Redux Paradigma formuliert und verbreitetet eine explizite Sprache und definierte Regeln, um den Zustand in komplexen Web Applikationen vorhersehbar verwalten zu können. Besonders in Bezug auf die Nachvollziehbarkeit und die Wartbarkeit des Programmcodes haben die Untersuchungen der Masterarbeit ergeben, dass die Implementierung des Redux Paradigmas große Vorteile gegenüber klassischen Zustandsmanagement Konzepten bieten kann. Es existieren eine Vielzahl von Entwicklerwerkzeugen, um die tägliche Arbeit zu unterstützen und zu vereinfachen. Beim Codeumfang konnten nach den Erkenntnissen der vorliegenden Masterarbeit keine Vorteile des Redux Paradigmas gegenüber einer klassischen Implementierung eines Daten Service für das Zustandsmanagement erkannt werden. Bezüglich der Render Performance ist eine Abhängigkeit zwischen Datenmenge und durchschnittlicher Renderzeit erkennbar. Bei geringer Daten Menge ist die Render Perfomance gegenüber der Daten Service Implementierung schneller, bei mittlerer Datenmenge sind beide Implementierung beinahe gleich schnell und bei einer hohen Datenmenge weist die Daten Service Implementierung eine bessere Render Performance gegenüber der Redux Implementierung auf. Die zunehmende Verbreitung und Popularität innerhalb der Entwicklergemeinde zeigt, dass das Redux Paradigma den Puls der Zeit trifft und eine angemessene Lösung für ein weit verbreitetes Problem bieten kann. Die Ergebnisse der vorliegenden Masterarbeit sollen mehr Klarheit in die Bewertung von Zustandsmanagement Lösungen in JavaScript Web Applikationen bringen und Entscheidern helfen, eine fundierte Auswahl bezüglich eines Konzepts zur Verwaltung des Zustands für ihre individuelle Herrausforderung treffen zu können.
Ist neu immer besser?
(2017)
Durch die Verbreitung des Internets und damit der verteilten Anwendungen wurden serviceorientierte Architekturen zu einem festen Begriff der Softwareindustrie. In jüngerer Zukunft stieg das Interesse an Microservice Architekturen an und diese werden unter anderem auch mit „service orientation done right“ beschrieben. Diese Arbeit beschäftigt sich mit der Frage „Ist neu immer besser?“ und damit mit der Frage, ob Microservice Architekturen grundsätzlich besser sind als klassische serviceorientierte Architekturen. Zunächst werden die beiden Architekturen definiert und mit ihren Merkmalen beschrieben. Anschließend findet mit dem Architecture Tradeoff Analysis Model eine Definition einer Architekturbewertungsmethode statt. Außerdem werden Qualitätsattribute der ISO/IEC 25010 beschrieben die zur Bewertung der Softwarequalität verwendet werden kann. In dem nächsten Schritt werden die Fähigkeiten der beiden, in dieser Arbeit untersuchten, Architekturen beschrieben, die Qualitätskriterien der ISO/IEC 25010 zu erfüllen. Nachfolgend findet eine beispielhafte Auswertung von den Anforderungen von Webanwendungstypen an diese Qualitätskriterien statt mit anschließender Gegenüberstellung zu den Eigenschaften der Architekturen. Das Ergebnis dieser Arbeit ist, dass Microservice Architekturen grundsätzlich nicht immer besser sind als klassische serviceorientierte Architekturen und somit die Forschungsfrage mit „Nein“ beantwortet werden kann. Vielmehr sorgen die Merkmale der beiden Architekturen dafür, dass diese sich für unterschiedliche Anforderungen besonders eignen. Serviceorientierte Architekturen haben ihre Stärken beispielsweise in der Konnektivität zu anderen Systemen und den ausgereiften Technologien was vor allem die Sicherheit angeht. Microservices hingegen eignen sich sehr gut für Software mit sehr starken Skalierungs- und Performanceanforderungen.
Immer mehr Unternehmen setzen ihre Systeme mit Microservices um, da sie ihre Anwendungen schnell, agil und unabhängig in Produktion bringen möchten. So komplex dieser Architekturansatz ist, so vielfältig sind die Informationen, die für diesen Ansatz benötigt werden. Die vorliegende Arbeit beschäftigt sich daher damit, welche Aspekte für eine Microservice-Architektur von Relevanz sind und als Modell sichtbar gemacht werden sollten. Hierbei führt die Arbeit zunächst die allgemeinen Grundlagen der Softwarearchitektur und Modellierung ein. Anschließend werden auf Basis einer Literaturrecherche die relevanten Informationen einer Microservice-Architektur hervorgehoben. Die Kernelemente dabei sind die Makro- und Mikroarchitektur, die fachliche Aufteilung mit Domain-driven Design sowie die infrastrukturellen Herausforderungen. Aufgrund der sich ständig dynamisch ändernden Servicelandschaft, ist es in einer Microservice-Architektur außerdem erforderlich, sich mithilfe von automatisierter Datensammlung einen Überblick zu verschaffen. Anhand einer empirischen Studie konnte herausgefunden werden, dass die Unternehmen bereits diese relevanten Daten überwiegend über das Monitoring, Service Discovery oder Logging sammeln. Auch konnte herausgefunden werden, dass es Tendenzen bei den Aufgaben gibt, welche in der Praxis zur Makroarchitektur zugeordnet wurden. Im weiteren Verlauf der Arbeit wurde untersucht, inwieweit sich eine Microservice-Architektur mit klassischer Architekturbeschreibung wie arc42 beschreiben lässt. Aufgrund der allgemeinen Ausrichtung des Templates wurde prototypisch ein Modell entwickelt, welches die für eine Microservice-Architektur relevanten Entscheidungsfragen bereitstellt und somit bei den konkreten Entscheidungen unterstützt. Schließlich wurde das Modell mithilfe von qualitativen Interviews evaluiert. Hierbei wurde als Ergänzung ein Experte herangezogen, um mögliche Verbesserungen aus einer weiteren Perspektive miteinbringen zu können. Die Ergebnisse zeigten, dass das Modell zwar eine gute Basis darstellt, um einen Überblick zu den wichtigsten Entscheidungsfragen zu erhalten, aber dennoch weitere zielgruppenspezifische Informationen und detailliertere Ausführungen grundlegender Konzepte benötigt werden.
Bereits Ende der Sechzigerjahre begann die Entwicklung der strukturierten Programmierung, welche sich lange Zeit als Programmierstandard darstellte. Mit Beginn der Windows-Ära etablierte sich Ende der Achtzigerjahre zusätzlich die objektorientierte Programmierung. Dieser Schritt führt nun zu einem Paradigmenwechsel im Bereich der Programmierung von Speicher-Programmierbaren-Steuerungen. Einige Systeme wie zum Beispiel CoDeSys unterstützen bereits verschiedene Bereiche der objektorientierten Programmierung. Siemens-Steuerungen hingegen bieten derzeit ohne Zusatzsoft- und Hardware noch keinen direkten Zugang zur objektorientierten Programmierung an. Ziel dieser Arbeit ist es die derzeitigen Möglichkeiten aufzuzeigen, um mit Siemens Steuerungssystemen, vorzugsweise Siemens 1500er Steuerungen, objektorientierte Programmierung abzubilden. Die Grundlage dafür wird durch die Definition der Norm IEC 61131-3:2003 bezüglich der Wiederverwendbarkeit von Funktionsbausteinen sowie auch der Erweiterung der Objektorientierung der IEC 61131-3:2013 geschaffen. Zur Untersuchung werden die Varianten objektorientierte Programmierung mit Funktionsbausteinen sowie die objektorientierte Programmierung mit SCL und Siemens SIMOTION Systemen herangezogen. Anhand einer Evaluierung werden die verschiedenen Methoden gegenübergestellt. Resultierend erscheint die herkömmliche Variante objektorientierte Programmierung mit Funktionsbausteinen als am Besten zur Realisierung eines Steuerungskonzeptes eines Shuttle-Liftes geeignet. Aufbauend auf der gewählten Methode werden Steuerungs- wie auch Visualisierungs-Programmierrichtlinien definiert, somit kann eine bestmögliche Umsetzung des Konzeptes erfolgen. Abschließend werden diese Richtlinien in einer Beispielprogrammierung angewandt um daraus Schlüsse für weitere Entwicklungsschritte ziehen zu können.
Das Unternehmen Schunk Hoffmann Carbon Technology ist Weltmarktführer in der Produktion von elektrisch leitenden Kohlebürsten für Gleichstrommotoren. Die Finalfertigung des Produkts findet auf selbstgebauten Maschinen statt, sogenannten Rundtaktanlagen. Für ein neues Projekt kopiert die Programmierabteilung des Maschinenbaus ein vorhandenes Programm einer Rundtaktanlage und ändert es entsprechend den Bedürfnissen der herzustellenden Anlage ab. Dieses Vorgehen birgt die Gefahr Fehler zu übersehen und sie erst bei der Inbetriebnahme der Maschine zu entdecken. Darüber hinaus ist die Prozedur monoton und beansprucht Zeit, welche der Entwickler anderweitig für das Projekt nutzen könnte. Das Ziel dieser Masterarbeit war es einen Codegenerator zu entwickeln, der automatisiert ein benutzerdefiniertes Grundprogramm für eine Rundtaktanlage erstellt. Ein Generator hat den Vorteil, dass keine Fehler aufgrund des Kopierens alter Anwendungen auftreten und er die zeitaufwendige manuelle Nacharbeit eliminiert. Um eine parametrierbare und wiederverwendbare Vorlage für den Codegenerator zu erhalten, fand eine Analyse der bisherigen Rundtaktanlagen statt. Nachdem die Programmierabteilung die Anwendungen der Anlagen in einer Entwicklungsumgebung der Firma Beckhoff erstellt, wurden Methoden zur automatisierten Erzeugung von Programmcodes für diese Applikation evaluiert. Das Resultat der Masterarbeit ist der Codegenerator Code Monkey. Ein Mitarbeiter der Maschinenbauabteilung erstellt einmalig eine Vorlage für eine Rundtaktanlage. Der Generator bereitet anschließend das Template für den Bediener auf und dieser kann es entsprechend seinen Anforderungen konfigurieren. Aufgrund der frei wählbaren Benutzereingaben ist es dem Generator möglich aus einer Vorlage das Grundprogramm für eine Vielzahl an unterschiedlichen Rundtaktanlage zu erzeugen. Mit der Applikation Code Monkey ist der Maschinenbau der Firma Schunk Hoffmann Carbon Technology zukünftig im Stande Programme für Rundtaktanlagen in nur wenigen Schritten generieren zu lassen und gleichzeitig die Entwicklungszeiten für neue Anlagen zu reduzieren.
Kunden der Maschinen- und Anlagenbauindustrie erwarten sich immer kürzere Lieferzeiten in Kombination mit qualitativ hochwertigen Produkten, wie auch eine vollständige und korrekte Dokumentation. ANDRITZ geht bei nahezu jeder verkauften Maschine- oder Anlage auf die Bedürfnisse und Wünsche der Kunden ein. Aus diesem Grund entsteht eine sehr flexible Produktpalette. Um den Wunsch nach kürzeren Lieferzeiten in Kombination mit der flexiblen Produktpalette erfüllen zu können, muss der Planungsprozess adaptiert werden. Das Ziel dieser Masterarbeit ist die Entwicklung einer Software zur Automatisierung des Planungsprozesses von modularisierten Anlagen und die daraus resultierende Verkürzung der Lieferzeit. Der erste Teil der praktischen Arbeit befasst sich mit der systematischen Entwicklung und Testung dieser Software. Um garantieren zu können, dass die neue Software Metris Engineering Configurator den Wünschen der Interessensvertreter entspricht, werden unter anderem modellbasierte Vorgehensweisen angewandt. Im zweiten Teil wird eine Filterpressenanlage vollständig standardisiert, modularisiert und für den Einsatz des Metris Engineering Configurators vorbereitet. Im letzten Teil werden die Vorteile der neuen Software an der automatisierten Erstellung der prozess- und automatisierungstechnischen Dokumentation einer Filterpressenanlage aufgezeigt. Durch den Einsatz des Metris Engineering Configurators kann die Durchlaufzeit und somit auch die Lieferzeit einer Anlage signifikant verringert werden kann. Folglich können auch die Kosten für die Planung reduziert werden. Aufgrund des automatisierten Planungsprozesses kann zudem eine qualitativ hochwertige Anlagendokumentation garantiert werden. Die Software wurde im Unternehmen eingeführt und kann von allen Mitarbeitern verwendet werden. Die Tests haben gezeigt, dass der Metris Engineering Configurator in Zukunft für unterschiedliche Anlagen und Ausrüstungen zum Einsatz kommen kann. Zwei Updates für die Erweiterung der Software werden in dieser Masterarbeit bereits behandelt.
Bei der vorliegenden Masterarbeit handelt es sich um ein Konzept für einen Warehouse-Management-System-Emulator, der für die Inbetriebnahme von Logistikanlagen entwickelt wird. Die Arbeit umfasst weiters die Umsetzung eines automatisierten Leistungsnachweises, der Testszenarien für die Fördertechnik und für Regalbediengeräte erstellen, vorbereiten und ausführen soll. Neben diesen Aufgaben zählen auch der Funktionsnachweis von Logistikanlagen und die allgemeine Unterstützung der Inbetriebnehmer bei ihrer Arbeit zu den Anforderungen an den Emulator. Für die Konzeptionierung wird das System in fünf Teile geteilt: die Datenbank, die Anwendung, die Benutzeroberfläche, den automatisierten Leistungstest und die Replay-Funktion. Hauptaugenmerk wird dabei auf die generische Entwicklung gelegt, wodurch sich der Emulator im Hochlauf selbständig konfiguriert und einfach erweitert werden kann.
Moderne Zeiterfassungssysteme sind in Zeiten von höher werdenden Leistungsansprüchen in der Arbeitswelt für Unternehmen ein unumgängliches Muss zur Bereitstellung von transparenten und personenzugeordneten Informationen über die MitarbeiterInnen geworden. Mehrfach-Ausführungen durch verschiedene Systeme im Unternehmen und nicht personell relevant angezeigte Inhalte führen für jede firmenangehörige Person zu überhöhtem Zeitaufwand bei der Informationssuche bezüglich Projektstatus, Terminverzüge, diversen Restzeiten für Tätigkeiten oder Ähnliches. Ein bereits bei Arbeitsbeginn automatisiertes Bereitstellen von personenbezogenen Inhalten und wissenswerten Neuerungen erhöht die Eigenverantwortung und ermöglicht ein damit verbundenes eigenständiges Controlling durch die MitarbeiterInnen selbst. Die Erstellung eines Prototyps für die Umsetzung eines modernen Erfassungssystems mit zusätzlicher personalisierter Informationsgestaltung und die mögliche Anbindung an bestehende Systeme, stehen unter Berücksichtigung sämtlicher Aspekte hinsichtlich Datenschutz, Arbeitsrecht und Bereitstellung personenbezogenen Daten in Zusammenhang mit der Betriebsgröße im Fokus dieser Arbeit. Neben der berührungslosen Identifikation anhand einer Gesichtserkennung wird die Verknüpfung von personenbezogenen Projektinformationen mit Arbeitszeitaufzeichnungen automatisiert, um eine Vereinfachung und Reduzierung der zuvor manuell getätigten Aufwände zu ermöglichen. Durch einen Testbetrieb des Prototyps ergeben sich wertvolle Daten zur Ermittlung des möglichen zeitlichen Einsparungspotenziales von im Unternehmen tätigen Personen und ermöglicht somit die wirtschaftliche Betrachtung des realisierten Systems.
Die Sicherstellung dauerhafter Verfügbarkeit von produktionsnahen Servern ist für betroffene Firmen eine zunehmende Herausforderung. Bei einem Ausfall, sei er auch nicht von langer Dauer, kommt es bereits zu erheblichen zeitlichen Verzögerungen. Schwerwiegender sind allerdings die monetären Verluste, die durch unzureichende Überwachung der Server entstehen können. Aus diesem Grund liegt ein großes Augenmerk dieser Arbeit auf der Evaluierung und Einführung einer geeigneten Remote-Monitoring-Software für Produktionsdaten-Server, welche sich bei Lohnfertigern der Firma LOGICDATA befinden. Dabei wurden verschiedene Lösungen in einer Testumgebung untersucht und miteinander verglichen. Die zuvor definierten Kriterien wurden von zwei Software-Lösungen weitestgehend erfüllt, welche in der Arbeit detaillierter beschrieben werden. Da die betroffenen Server örtlich verteilt sind, muss auch eine sichere Übertragung der Überwachungsdaten gewährleistet sein. Infolgedessen wurde zusätzlich die bestehende VPN-Verbindung zu den Lohnfertiger-Servern untersucht und mit anderen Lösungen bzw. Protokollen verglichen. Eine mögliche Änderungsempfehlung wurde im Zuge dieser Masterarbeit entworfen, die allerdings gezeigt hat, dass die derzeit eingesetzte Lösung in diesem Anwendungsbereich durchaus Angriffe von außen verhindern kann. Nach dem Evaluierungsprozess in der Testumgebung wurden die ausgewählten Monitoring-Tools auf den tatsächlich eingesetzten Produktionsdaten-Servern erprobt. Die Überwachungsmöglichkeiten werden in Zukunft das Risiko eines Ausfalls bzw. auch die finanziellen Auswirkungen eines solchen für die Firma LOGICDATA minimieren.
Webshop to Machine
(2017)
Die vertikale Integration von Geschäftsprozessen ist ein wesentlicher Bestandteil der Idee Industrie 4.0. Der Datenaustausch innerhalb des Unternehmens kann durch Enterprise Resource Planning (ERP) und Manufacturing Execution Systeme (MES) unterstützt werden. Diese Systeme bieten eine hohe Flexibilität und können eine Vielzahl von Daten verarbeiten, ihre Umsetzung und die spezifische Anpassung sind jedoch mit einem erheblichen wirtschaftlichen Aufwand verbunden. Dies ist vor allem für kleine und kleine Unternehmen eine große Herausforderung. Ziel dieser Masterarbeit ist es, Konzepte für ein flexibles und sicheres System zu erarbeiten, das einen Datentransfer zwischen verteilten Produktionsanlagen und einem Webshop ermöglicht. Dieses System sollte eine automatische Abwicklung von Aufträgen in einem Online-Shop ermöglichen. Zusätzlich soll eine weitere Website für den Betreiber die Überwachungsdaten der Anlagen zur Kontrolle und Optimierung des Herstellungsprozesses zur Verfügung stellen. Zuerst wurde der Beitrag der Idee, Webanwendungen mit der Produktion zu verknüpfen, in Bezug auf die Industrie 4.0 umrissen. Im theoretischen Teil wurden die Gestaltung von Webanwendungen und die Möglichkeiten einer Kommunikation mit der Steuerung der Produktionsanlagen untersucht. Basierend auf diesen Erkenntnissen wurden mögliche Bedrohungsszenarien skizziert und mögliche Gestaltungsvarianten für die Systemarchitektur entworfen. Nach der Auswertung dieser Konzepte wurde das Projekt als Prototyp realisiert und an einer Produktionsanlage getestet. Das ausgeführte System sorgt für einen sicheren Datenaustausch mit Web-Applikationen und ist besonders einfach in bestehende Systeme zu integrieren. Darüber hinaus ermöglicht es eine automatische Abwicklung der Aufträge im Online-Shop und eine Datenüberwachung für den Betreiber. Es bietet eine wirtschaftlich attraktive, kleine Alternative zu bestehenden MES- oder ERP-Systemen. Basierend auf diesen Ergebnissen sind weitere Langzeitversuche erforderlich, um die höhere Leistung aufgrund der automatischen Auftragsabarbeitung zu bestätigen und weitere Verbesserungen am Prototypen vorzunehmen.
It is a known fact, that more and more people are spending a big part of their lifetime sitting at a static workplace. It is also known, that this leads to injuries like disturbed blood flow, neck pain or even damage of the spine. Currently a rising number of workplaces is getting smarter. They offer the ability to be adjusted in height and to get connected closer to the user. People working at such workplaces simply need to get used to that functionality and the positive effects on their personal health. The challenge is that currently there is no ideal interface between the user and the workplace. One idea to solve this issue is to use standard smartwatches, which are worn by the user and are able to interact with the intelligent work environment. The aim of this thesis is to find ways, how standard smartwatches can be integrated into an intelligent office environment. The main focus of the thesis is to create a foundation for further developments in that field. Therefore a target system is defined and a system architecture is built upon that. In correlation to the target system the toolchain is set up and the integration is realized through exemplary implementations. These implementations were also tested and verified by a defined group of people. The exemplary implementations show, that an integration of smartwatches into intelligent work environments is possible from a technical standpoint. Next to that, a defined group of people conduct tests with the smartwatches. The survey, which has to be done by the group after the tests, showed that smartwatches bring many challenges in terms of haptics, usability and availability. It is planned to continue the developments in the field of smartwatches and their sensors to finally create a real added value for users of intelligent work environments.
Diese theoriegeleitete Fallstudie geht der Frage nach, inwieweit sich das Requirements Engineering (RE) in einem Software-Entwicklungsprozess mit den Konzepten des Domain-Driven Designs (DDD) vereinbaren lässt. Die per Interview und teilnehmender Beobachtung erhobenen Daten wurden gemäß der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Der theoretische Rahmen gibt einen Überblick über die wichtigsten Konzepte des Domain-Driven Designs sowie über das Requirements Engineering, mit Fokus auf der Requirements-Analyse, skizziert Möglichkeiten der Integration des RE in das DDD und stellt Scrum als Vorgehensweise vor. Die Interviews zeigen, dass dem Projektteam sowohl die Ziele als auch die Produktvision unklar sind und dies zu Verunsicherung und Orientierungslosigkeit im Team führt. Das Requirements Engineering in der Rolle als Mittelsmann zwischen Fachbereich und Entwicklungsteam wird als problematisch eingestuft, da das Domänen-Wissen auf RE-Seite oft nicht ausreicht und der Abstimmungsaufwand durch Dreiecksdiskussionen steigt. Dies erschwert die Formulierung und Nutzung einer Ubiquitous Language und die Modellierung des Domänenmodells. Ist der Domänenexperte gleichzeitig in der Rolle des Product Owners tätig, entsteht zudem ein Rollen- und Interessenkonflikt, der eine DDD-Herangehensweise erschwert. Ergebnis der Arbeit ist, dass das Requirements Engineering als Vermittler sich nicht mit DDD vereinbaren lässt, aber unterstützende Funktionen einnehmen kann. Als Handlungsempfehlung kann daraus abgeleitet werden, Situationen zu vermeiden, in denen das Requirements Engineering im Widerspruch zum Domain-Driven Design steht, und Probleme im Entwicklungsprozess mit DDD zu beheben. Methoden und Techniken dafür werden vorgestellt. Die Arbeit ist für Personen interessant, die Aufgaben des Requirements Engineerings in DDD-basierten Entwicklungsprojekten wahrnehmen, also beispielsweise Projektleiter, Product Owner, Requirements Engineers oder Business Analysten.