Informationstechnologien & Wirtschaftsinformatik
Filtern
Dokumenttyp
- Masterarbeit (162)
Volltext vorhanden
- ja (162)
Gehört zur Bibliographie
- ja (162)
Schlagworte
- Digitalisierung (10)
- Software Engineering (9)
- Projektmanagement (8)
- Informationssicherheit (6)
- Kundenmanagement (6)
- Online-Marketing (5)
- Business Intelligence (4)
- Computersicherheit (4)
- Internet der Dinge (4)
- Personalwesen (4)
Institut
Mit der immer größer werdenden Abhängigkeit von der Nutzung des Webs – sei es mittels Smartphones, Tablets oder Laptops – steigt folglich auch die Bedeutsamkeit von Web-Applikationen immer mehr an. Aufgrund dieser steigenden Popularität vervielfachte sich parallel zu dieser Entwicklung auch die Anzahl an Frameworks für diverse Programmiersprachen, welche im Zusammenhang mit Web-Applikationen genutzt werden. Um das passende Framework zu finden, gibt es kritische und objektive Kriterien wie Sicherheit, Wartbarkeit, Performance oder „Time to Market“, die ebenso zu beachten sind wie die Zukunftssicherheit und die Modernität der gewählten Frameworks. Durch die Vielzahl an unterschiedlichen Frameworks wird es immer komplexer, schwieriger sowie zeitintensiver, die richtige Wahl zu treffen. Um diese Wahl zu vereinfachen, werden in dieser Arbeit Technologien aus den einzelnen Layern miteinander kombiniert, evaluiert und auf deren Zusammenspiel hin untersucht und bewertet. Weiters wird es zu einer Verbindung zwischen Theorie und Praxis kommen, indem in diesem Arbeitsschritt die im Theorieteil gewonnen Evaluierungskriterien herangezogen und mit der Praxis in Verbindung gesetzt werden.
Diese Masterarbeit widmet sich dem Thema, wie Lerntheorien die Auswahl eines geeigneten technology-enhanced learning Tools beeinflussen. Hierfür wurden im ersten Schritt Eigenschaften von Lehrveranstaltungen analysiert. Dabei fiel die Entscheidung darauf, Eigenschaften anhand der Lerntheorien Behaviorismus, Kognitivismus, Konstruktivismus und Konnektivismus abgeleitet und zu definieren. Durch diese Basis konnten Eigenschaften für Lehrveranstaltungen definiert werden, wodurch sich Lehrveranstaltungen untereinander unterscheiden lassen. Im zweiten Schritt wurden unterschiedliche technology-enhanced learning Methoden und dazu gehörige Anwendungen näher betrachtet. Hier konnte durch Blended Learning bereits eine Hilfestellung gefunden werden, welche technology-enhanced learning Toolgruppen am geeignetsten Erscheinen. Diese Auflistung wurde um den Konnektivismus erweitert, um alle definierten Lerntheorien abdecken zu können. Die daraus gewonnenen Erkenntnisse wurden im dritten Schritt zu einem Entscheidungsmodell kombiniert. Mit Hilfe dieses Modells soll Lehrenden eine Empfehlung gegeben werden, welches technology-enhanced learning Tool ihre Anforderungen unterstützen kann. Im Anschluss wurde dieses Modell durch eine qualitative als auch durch eine quantitative Evaluierung überprüft. Dabei wurden Lehrende der Fachhochschule Campus02 zu dem Modell befragt. Diese Befragungen haben daraufhin ergeben, dass ein Modell, welches nur auf den zuvor definierten Lerntheorien beruht, nicht ausreichend Eigenschaften miteinbezieht. Dadurch können nicht alle Lehrenden das Modell voll nutzen, um damit bestmögliche Ergebnisse zu erhalten. Es könnte aber als Grundlage dienen, um weitere Eigenschaften einzubinden und somit ein komplexeres Modell mit mehr Eigenschaften zu entwickeln.
Die Anforderungen an die moderne Softwareentwicklung sind hoch. Softwareunternehmungen stehen angesichts einer fast schon unübersichtlich großen Anzahl an Methoden und Entwicklungswerkzeugen vor der Herausforderung, die für ihre Anforderungen und Abläufe idealen Prozesse und Werkzeuge zu wählen. Diese Wahl ist essentiell, um die richtige Nische am Markt effizient und langfristig zu bedienen sowie auf Änderungen noch schneller reagieren zu können. Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung von Metriken, um Softwaretestverfahren miteinander vergleichbar zu machen. Ausgehend von der Literatur werden verschiedene Testverfahren beschrieben, analysiert und auf das Vorhandensein von Klassifizierungs- und Kategorisierungsmerkmalen für das Erstellen der Metriken überprüft. Durch die Kombination von Literaturrecherche und ExpertInneninterviews werden diese Ergebnisse Schritt für Schritt verfeinert. Im Anschluss wird eine Bewertungsmatrix erstellt und mit konkreten Werten auf Basis des ExpertInnenwissens angereichert. Diese Masterarbeit legt den Grundstein für weitere Untersuchungen in EntwicklerInnenteams, um dort das Delta zwischen dem Ist-Stand und dem Soll-Stand bei der Verwendung der aktuellen Softwaretests zu ermitteln. Die sich daraus ergebenden Optimierungspotenziale können untersucht und in den jeweiligen Teams umgesetzt werden. Das Feedback der Teams bei der Umsetzung der Optimierungen ist ein weiterer möglicher Untersuchungsgegenstand. Somit ist klar ersichtlich, dass der Vergleich von Testverfahren einen akademischen, aber auch stark praxisorientierten Anwendungsfall darstellt.
This master’s thesis is about post-quantum cryptography. Therefore, it shows how quantum computers differ from traditional computers, what kind of quantum computers do exist, and what strengths they have. But the focus lies on the threat to information security. For this purpose, the paper shows how traditional cryptographic algorithms work and how vulnerable they are against quantum computers. The paper also shows the possible alternatives. This field is called post-quantum cryptography, and these algorithms are resistant against traditional computers and also against quantum computers. In this paper, expert interviews illustrated an outline of the threat and where it is mandatory to react. At least the results are applied to an IT system in the health sector, and it is analyzed how vulnerable it would be against quantum computers.
Das erfolgreiche Einführen eines Business Intelligence Systems (BI) ist eine komplexe Aufgabe, die viele technische wie auch nicht technische Themen in sich vereint. BI ist nicht nur das Darstellen von Zahlen und Fakten. Grundsätzlich haben BI Systeme die Aufgabe die Nutzer in ihren Entscheidungen zu unterstützen. Das System soll im Prozess der effektiven Entscheidungsfindung zu aufkommenden Fragen, Antworten liefern und auch ggfs. Vorhersagen treffen können. Diese Entscheidungsunterstützung kann auf operationaler bis hin zur strategischen Ebene erfolgen und ist in der heutigen Zeit für Unternehmen unerlässlich. Diese Masterarbeit beschäftigt sich mit den Vor- und Nachteilen die der Einsatz von BI & Analytics Tool mit sich bringen. Im Theorieteil dieser Arbeit werden die Begriffe BI & Analytics definiert. Im Anschluss daran werden Literaturerkenntnisse diskutiert, die die Basis für den empirischen Teil dieses Werk bilden. Die Forschungsfrage wird mit Hilfe eines qualitativen Ansatzes beantwortet. Die Experteninnen- und Experteninterviews wurden mit zwölf Personen aus unterschiedlichen Branchen und aus unterschiedlichen Klein- und Mittelbetrieben geführt. Diese Expertinnen und Experten berichten über Ihre Erfahrungen mit BI & Analytics. Die Datenanalyse erfolgte nach der qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass die Einführung und Nutzung eines BI Systems zu einem erhöhten Datenbewusstsein und einhergehend zu einer erhöhten Datenqualität geführt haben. Das Konsumieren von Inhalten „auf Knopfdruck“ ist ein weiterer positiver Aspekt, der in wiederholtem Maße aufgezählt wurde. Die Expertinnen und Experten sprachen aber auch von der anfänglichen Skepsis der BI Nutzer, die es zu adressieren galt und die manch ein BI Projekt auch beinahe hätte scheitern lassen können.
Diese Arbeit beschäftigt sich mit der Anwendung von Data Mining-Algorithmen zur Informationsgewinnung im Softwaresupport. Data Mining-Algorithmen sind Tools der sogenannten „Knowledge Discovery“, der interaktiven und iterativen Entdeckung von nützlichem Wissen. Sie werden eingesetzt, um Daten zu analysieren und über statistische Modelle wertvolle Informationen einer Domäne zu finden. Die Domäne in dieser Arbeit ist der Softwaresupport, jene Abteilung in Softwareentwicklungs-Unternehmen, die Kundinnen und Kunden bei der Lösung von Problemen unterstützt. Meist sind diese Supportabteilungen als Callcenter organisiert und arbeiten zusätzlich mit Ticketsystemen (einem E-Mail-basierten Kommunikationssystem). Zweck dieser Arbeit ist es zu prüfen, inwiefern Data Mining-Algorithmen im Softwaresupport angewendet werden und ob tatsächlich wertvolle Informationen identifiziert werden können. Erwartet wird, Informationen über das Supportverhalten von KundInnen sowie den Einfluss von externen Faktoren wie Wetter, Feiertage und Urlaubszeiten zu entdecken. Die Literaturrecherche dieser Arbeit, beinhaltet unter anderem die Themen Personaleinsatzplanung im Softwaresupport und Data Science (Zusammenfassender Begriff für Data Mining, Data Engineering oder Data-Driven Decision Making, etc.). Im „experimental Setup“ finden Interviews zum Thema Status quo- und Kennzahlen im Softwaresupport mit führenden österreichischen Softwarehäusern sowie eine Fallstudie zur Anwendung eines Data Mining-Vorgehensmodells statt. Letztlich wird in einem Feldexperiment geprüft, ob es mit Data Mining-Algorithmen tatsächlich möglich ist, Informationen für den Softwaresupport zu entdecken. Als Ergebnis dieser Arbeit zählen einerseits die Identifikation von Möglichkeiten, um im Support Kosten zu sparen und Effizienz zu gewinnen und andererseits das Finden von wertvollen Informationen über Abläufe und Zusammenhänge im Support. Die gewonnenen Informationen können in weiterer Folge in den Supportprozess einfließen, um effektivere und effizientere Prozesse zu schaffen. Ein weiteres Resultat des Informationsgewinns ist auch die Qualitätssteigerung von Managemententscheidungen sein.
Da immer mehr Geräte und Benutzer Zugang zum Internet bekommen, muss die Sicherheit von Web Applikationen immer mehr im Blick behalten werden. Besonders bei Authentifizierungsmechanismen steigen die Anforderungen enorm. Passwörter gelten schon länger als unsicher, um ein Benutzerkonto vor unbefugtem Zugriff zu schützen. Die in dieser Arbeit behandelte Spezifikation soll dabei Abhilfe schaffen. Bei dieser Spezifikation handelt es sich um die WebAuthn Spezifikation, welche von der FIDO Alliance entwickelt wurde. WebAuthn wird im Zuge dieser Arbeit auf Schwachstellen von derzeit gängigen Authentifizierungsmechanismen untersucht. Diese bedient sich bewährten kryptografischen Methoden, um Sicherheit für die Authentifizierung zu gewährleiten. Zur Verifizierung eines Authentifizierungsvorganges wird asymmetrische Kryptografie eingesetzt. WebAuthn benötigt Authentifikatoren, um diesen Vorgang durchführen zu können. Diese können FIDO2-zertifizierte Smartphones, Security Token oder biometrische Authentifikatoren sein. Bei der Registrierung einer Benutzerin oder eines Benutzers wird von Authentifikator und Server ein Schlüsselpaar, bestehend aus privatem und öffentlichem Schlüssel, generiert und die öffentlichen Schlüssel zwischen ihnen ausgetauscht. Nun ist es dem Client möglich, sich am Zielsystem mithilfe des registrierten Authentifikators anzumelden. Um Benutzerinnen und Benutzern sowie Entwicklerinnen und Entwicklern zu zeigen, welche Vor- und Nachteile WebAuthn gegenüber herkömmlicher Authentifizierung bietet, wurden bekannte Angriffe recherchiert und auf die WebAuthn Spezifikation ausgeführt. Attacken, welche darauf ausgeführt werden, beinhalten Angriffe, um an Zugangsdaten von Benutzerinnen oder Benutzern zu kommen, Angriffe, welche auf die Übernahme einer Sitzung des Clients abzielen, Angriffe welche nicht technischer Natur sind und Angriffe auf die Authentifikatoren.
Die moderne IT-Welt befindet sich in einem Wandel. Während diverse Branchen in den letzten Jahren ihre Softwaresysteme von On-Premise Lösungen zu Cloud-basierten Systemen umgestellt haben, ist dieser Trend an vielen Herstellerinnen und Herstellern von SCADA Systemen vorbeigegangen. „Supervisory Control and Data Aquisation“ Systeme werden für Überwachung und Steuerung der Automatisierungsprozesse in verschiedensten Bereichen eingesetzt. Aufgrund der speziellen Anforderungen betreffend Software nahe der Prozessumgebungen, können Standardlösungen hier nicht in jedem Fall eingesetzt werden. Der Erfolg von Unternehmen hängt oft, besonders bei Produktionsprozessen, mit dem reibungslosen Ablauf dieser Systeme zusammen. Es liegt daher im Sinn der Sache, die Systeme bestmöglich von externen Einflüssen (z.B. Ausfall der Internetkonnektivität) zu schützen. Die Systeme arbeiten in Steuerungsebenen der Automatisierung und befinden sich meist in dedizierter Infrastruktur. Oft sind diese von der restlichen IT- Landschaft abgeschottet und werden selten bis gar nicht mit Updates oder Wartungen versehen. Gegenteiliges zeigt sich bei modernen Softwaresystemen der Gegenwart: Ständig werden Verbesserungen am Verhalten, neue Funktionen und Qualitätssteigerungen der Software in kurzen Releasezyklen entwickelt. Obwohl dieses Paradigma viele Vorteile für moderne Entwicklungsprozesse bringt, ist es nicht ohne Weiteres auf automatisierungsnahe Software anwendbar. In die IT-Welt ist mit der Frage konfrontiert, ob SCADA Systeme weiterhin auf traditionelle Art und Weise betrieben werden sollen oder in Zukunft die Vorteile von Cloud-Computing auch für SCADA Software benutzt werden kann. In dieser Masterarbeit wird empirisch erforscht, welche Anforderungen an SCADA Systeme gestellt werden. Diese Anforderungen werden in einer Fallstudie mittels Überarbeitung eines bestehendes SCADA Systems umgesetzt. Es soll verdeutlicht werden, dass SCADA Systeme durch Nutzung von Cloud-Services profitieren können.
Agile Softwareprojekte unterliegen den Fixpunkten Kosten und Termin sowie der Variablen des Umfanges der Software. In dieser Arbeit wird beleuchtet wie der zeitliche Aufwand des Umfanges geschätzt werden kann. Die Forschungsfrage dient der Ergründung von Einflussfaktoren und der Erstellung eines standardisierten Prozessmodells. In diesem Zusammenhang wird einerseits erläutert, welche Methoden der agilen Softwareentwicklung existieren und welche Charakteristiken sie haben. Die Methoden der Aufwandsschätzung unterliegen drei verschiedenen Paradigmen. Die Paradigmen sind die Aufwandsschätzungen basierend auf Experten, basierend auf Daten und das hybride Paradigma. Das hybride Paradigma vereint die Vorteile von Aufwandsschätzungen basierend auf Expertenwissen und historischer Daten. Zur Erstellung eines standardisierten Prozessmodelles werden anhand einer Literaturrecherche Einflussfaktoren auf die Aufwandsschätzung ermittelt und anschließend in das Prozessmodell überführt. Es werden unter anderem humane Faktoren, Einsatz neuer Technologien, die Einheit der Aufwandsschätzung und der Testumfang in der Arbeit diskutiert. Diese Einflussfaktoren werden in das Prozessmodell als Eingangsgrößen übernommen, wobei zunächst immer geprüft wird, ob eine ähnliche Softwareanforderung bereits implementiert wurde und damit die Möglichkeit zur Wiederverwendung bestehender Softwaremodule besteht. Das Prozessmodell wird im Unternehmen Pankl Racing Systems AG experimentell eingesetzt und durch Experteninterviews evaluiert. Die Erkenntnisse des Experteninterviews werden in Form eines Fragebogens, der bei der Anwendung des Prozessmodells unterstützt, angewendet. Eine weitere Erkenntnis des Experteninterviews stellt dar, dass die Aufwandsschätzung durch den Einsatz eines standardisierten Prozessmodells verbessert ist. Der erstellte Fragebogen besitzt einen modularen Aufbau, wodurch er von anderen Unternehmen als dem Beispielunternehmen verwendet und adaptiert werden kann.
In der vorliegenden Arbeit wird ein Kosten-Nutzen-Tool entwickelt, welches als Entscheidungshilfe für höhere Anschaffungen in Krankenhäusern fungiert. Bereits vor dem eigentlichen Moment der Entscheidung für oder gegen eine potentielle Investition soll das Tool zum Einsatz kommen, um derartige Einschätzungen erleichtern zu können. Mit Hilfe eines Anforderungs- und Zielkataloges können etwaige Anschaffungen gewichtet und an die jeweilige Entscheidungsstelle mittels Ampelfarbe weitergeleitet werden, wobei ein Farbsystem Orientierung bietet, Neuerungen als „finanzierbar“ (grün) oder „kaum bis bis gar nicht finanzierbar“ (rot) einzustufen. In einem ersten Schritt und damit im Theorieteil werden das Prinzip der Kosten-NutzenAnalyse (KNA) erklärt, die grundsätzlichen Ziele und Vorteile einer solchen Analyse erläutert und die Wirksamkeit von KNAs in Unternehmen veranschaulicht. Im nächsten Kapitel folgen eine Darstellung der allgemeinen IST-Situation in österreichischen Krankenhäusern und ein Einblick in sämtliche Analysen von Risiko-, Wirtschaftlichkeits- und Finanz- bis hin zur Durchführbarkeitsanalyse und sonstigen Bewertungskriterien. Diese ISTSituation zeigt den Nutzen von KNAs in Krankenhäusern auf und rechtfertigt deren Einsatz. Anschließend wird das kooperierende Partnerunternehmen der Arbeit, nämlich die KABEG, vorgestellt und die KNA auf diesen Krankenhausverbund detailliert abgebildet. Durch Experten- und Expertinneninterviews und deren Ergebnisse wird diese IST-Situation im Partnerunternehmen erneut und auf einer anderen Ebene, nämlich jener der Innensicht, nachvollziehbar gemacht. Definierte Anforderungen und Ziele des Partnerunternehmens ergeben dann Beurteilungskriterien, die wiederum in den Bau eines Prototyps fließen, der als Vorlage für eine Web-Applikation dient. Das Kosten-Nutzen-Tool wird fertiggestellt und dem Partnerunternehmen vorgestellt beziehungsweise dessen Vorteile kommuniziert. Anhand einer erneuten Befragung der Anwender und Anwenderinnen wird das entwickelte Tool anschließend im betrieblichen Ablauf getestet und evaluiert. Somit werden die Auswirkungen der Einführung einerseits durch die Bewertung der Anschaffungsanfragen und andererseits mit dem Feedback der Anwender und Anwenderinnen dokumentiert und belegt, was dem langfristigen Nutzen der Implementierung dienen soll. Andrerseits und gleichzeitig beantworten die Ergebnisse dieser ersten Implementierungsstufe die wissenschaftliche Forschungsfrage der vorliegenden Masterarbeit, nämlich: Wie lassen sich qualitative Argumente in einem Tool bewerten, sodass sie in einer Kosten-/Nutzenrechnung zur Entscheidungsfindung als maßgebliche Parameter verwendet werden können.Die vorliegende Arbeit stellt somit nicht nur im konkreten Bedarfs- und Anwendungsfall Lösungen vor, sondern trägt auch in einem größeren Forschungskontext als beispielhaftes und im besten Fall zukunftsweisendes Modell zur kostenoptimierten Modernisierung unter Verwendung digitaler Strategien bei.
Kundenorientiertes Handeln stellt Unternehmen vor immer neue Herausforderungen. Wie erfolgreich Unternehmen sind und wie deren Kunden zufriedengestellt werden können, ist von vielen Faktoren abhängig. Unter anderem ist der Umgang mit der Ressource Information von Bedeutung, so wie die Einbeziehung der Kunden in den gesamten Service-Prozess. Mittels Vorgehensweisen und Methoden, können die Bedürfnisse von Kunden erhoben und berücksichtigt werden. Diese Erkenntnisse ermöglichen es, ein auf Kundenbedürfnisse abgestimmtes Service zu etablieren. Die frühe Kundenintegration hat Einfluss auf die Kundenzufriedenheit, die für die meisten serviceorientierten Unternehmen von hoher Bedeutung ist. Einleitend widmet sich diese Arbeit wissenschaftlichen Grundlagen, die im Kontext dieses Themengebietes relevant sind. Dazu zählen grundlegende Themen im Bereich Service-Engineering, sowie ausgewählte wissenschaftliche Theorien, die für die Etablierung von neuen Services und für das Verständnis von Kundenzufriedenheit relevant sind. In weiterer Folge beschäftigt sich diese Arbeit mit der Erhebung von kundenrelevanten Aspekten für die Entwicklung eines Service-Konzeptes, im Umfeld von gewerblichen Kühl- und Gefriergeräten. Aufbauend auf diesem zu erarbeitenden Service-Konzept wird ein Prototyp und ein Vorgehen entwickelt, die als Grundlage für die weitere Implementierung für das Partnerunternehmen dienen sollen. Grundvoraussetzung für die Konzeption eines neuen Services beziehungsweise eines Prototypen ist die Analyse der Branchenumfeldes und eine Trendanalyse. Diese gesammelten Informationen dienen als Input für den empirischen Teil dieser Arbeit. Die Empirie hat in weiterer Folge jenen Zweck, die kundenrelevanten Funktionen des erweiterten Services zu evaluieren und in den geplanten Prototypen einfließen zu lassen. Aufbauend auf den neu gewonnenen Erkenntnissen und auf Basis des zu entwickelnden Prototypen, kann eine Handlungsempfehlung an das Partnerunternehmen weitergeben werden. Abschließend wird ein Ausblick auf die neu gewonnenen Erkenntnisse und die dadurch entstehenden Möglichkeiten geboten.
Thema der vorliegenden Masterarbeit ist die Betrachtung von Aspekten der Informationssicherheit beim Einsatz von Geräten aus dem Kontext des Internet of Things (IoT) in Unternehmensnetzwerken. Medienberichte und Analysen der letzten Jahre deuten auf frappierende Sicherheitslücken in IoT-Geräten und damit einer, durch die unabhängig davon zunehmende Bedrohungslage im Internet verschärften, Gefährdung der Sicherheit hin. Eine Frage, die sich dabei stellt, ist, ob vorhandene Sicherheitskonzepte für den Einsatz von IoT-Geräten ausreichend sind. Um dies zu beantworten war es notwendig, eine für die Arbeit gültige Definition des sehr abstrakten Begriffs "IoT" zu entwickeln und mögliche Anwendungsbereiche in Unternehmensnetzwerken aufzuzeigen. Darauf folgt eine Beschreibung der grundlegenden Aspekte der Informationssicherheit (Vertraulichkeit, Integrität und Verfügbarkeit) und eine Analyse von Bedrohungen und Angriffen auf Netzwerke. Ausgehend von diesen Erkenntnissen wurde ein Sicherheitskonzept zusammengestellt, welches heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit in Unternehmensnetzwerken beinhaltet. Um ein Konzept unter Berücksichtigung des Einsatzes von IoT-Geräten entwickeln und mit derzeitigen Maßnahmen zu vergleichen, wurden IoT-spezifische Rahmenbedingungen und Angriffe beschrieben. Dabei zeigen sich vor allem Einschränkungen hinsichtlich technischer Ressourcen, Anforderungen an die Skalierbarkeit von Lösungen sowie eigene Angriffsszenarien. Unter Zuhilfenahme von Standards zur Sicherstellung von Informationssicherheit wurde davon ausgehend ein Katalog von erkannten IoT-bezogenen Risiken zusammengestellt. Darauf basiert das vorgeschlagene, verbesserte Modell, welches organisatorische, applikationsbezogene und technische Maßnahmen zur Behandlung dieser Risiken beinhaltet. Dabei zeigt sich, dass nur Teile davon überhaupt durch Weiterentwicklung bestehender Sicherheitsmaßnahmen realisiert werden können, einige Ansätze jedoch neuartig sind und eine Veränderung der Sicherheitsarchitektur in einem Unternehmen notwendig wird. In der Praxis werden dabei insbesondere Mechanismen zur Authentifizierung, Autorisierung und der Sicherstellung des Datenschutzes zur Herausforderung, da dazu derzeit keine universell realisierbaren Konzepte vorliegen. Entsprechend dieser Erkenntnisse ist davon auszugehen, dass heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit nicht ausreichend für einen IoT-Anwendungsfall sind.
Eine Vielzahl an Softwareunternehmen hat sich in den letzten Jahren dem Thema Testautomatisierung gewidmet. Software-Tests auf Basis des User Interfaces bauen auf unterschiedliche Objekterkennungs-Technologien auf, beispielsweise die Identifikation über ID’s der HTML-Elemente oder der grafischen Bilderkennung. Besonders beim Testen moderner Webanwendungen ist Automatisierung naheliegend, denkt man an die Darstellung von Responsive Designs auf unterschiedlichen Bildschirmgrößen und Browsern. Um festzustellen, wie sich die unterschiedlichen Technologien der UI-Objekterkennung auf die Stabilität automatisierter Tests auswirken, wurde anhand praktischer Beispiele die Identifikation unterschiedlicher Elemente näher betrachtet. Aufbauend auf eine Literatur- und OnlineRecherche wurden UI-Objekterkennungs-Technologien vorgestellt und diskutiert sowie Faktoren zur Beurteilung der Stabilität aufgeschlüsselt. Unterschiedliche Vorgehensweisen zur Aufzeichnung der UI-Objekte wurden beschrieben und gegenübergestellt. Die Evaluierung verschiedener Technologien der UI-Objekterkennung verdeutlichte die Unterschiede in der Art der Aufzeichnung unterschiedlicher Elemente. Während die Identifikation der UI-Objekte über XPath durch eine Gewichtung der Pfad-Komponenten gesteuert werden kann, ist besonders der Einsatz von Image Recognition initial mit viel manuellem Aufwand bei der Aufzeichnung der Elemente verbunden. Jedoch sind Technologien wie OCR oder Image Recognition vermehrt für Spezialfälle einzusetzen, wenn etwa durch technische Einschränkungen nicht über ID oder XPath auf UI-Objekte zugegriffen werden kann. Zwar erwähnen immer mehr Hersteller von Testautomatisierungs-Tools Begriff Aritificial Intelligence im Kontext der UI-Objekterkennung, jedoch ist auch heute noch die Durchführung manueller Schritte für die Wartung der automatisierten Tests notwendig. Daher kann die Verantwortung über die Erstellung einfach zu wartender Tests zum aktuellen Zeitpunkt noch nicht an die jeweiligen Tools abgegeben werden, sondern verlangt noch immer Fachwissen und die strukturierte Vorgehensweise erfahrener Anwender. Dennoch bietet die Aussicht auf hybride Lösungen, die sich künstlicher Intelligenz bedienen, eine vielversprechende Zukunft im Bereich der Software-Testautomatisierung.
Durch die stetig wachsende Verbreitung von agilen Methoden, besonders beim Einsatz von Scrum, kommt es immer wieder zu Herausforderungen seitens des Projektmanagements. Alleine die Schwierigkeit, Besprechungen zu koordinieren, stellt das Projektmanagement oft vor Probleme. Noch problematischer sieht es bei der Durchführung von Projekten mit dezentralen Scrum-Teams aus. Speziell bei der Abwicklung agiler Projekte geschieht es immer wieder, dass die grundlegenden Prinzipien der Agilität nicht eingehalten werden. Diese sind jedoch für eine erfolgreiche Projektdurchführung entscheidend. Auf Basis dieser Problemstellung wird das Ziel dieser Arbeit definiert: die Erarbeitung von Handlungsempfehlungen, um dezentralen Scrum-Teams Möglichkeiten zur Einhaltung der Prinzipien des Agilen Manifests aufzuzeigen. Aufgrund der Notwendigkeit unterschiedlicher Betrachtungsweisen wird in dieser Arbeit sowohl auf Literatur als auch auf praxisbezogene Informationen zurückgegriffen. Im ersten Schritt wird dazu eine Literaturrecherche durchgeführt. Hierbei werden Informationen zu Scrum, dem Agilen Manifest und dezentralen Teams gesammelt. Der zweite Schritt besteht aus der Durchführung von Interviews mit ExpertInnen, die über Erfragungen mit Scrum und dezentralen Teams verfügen. Ziel ist die Identifikation der Problemfelder, denen sich dezentrale Scrum-Teams bei der Einhaltung der Prinzipien des Agilen Manifests stellen müssen. Die Erkenntnisse der Experteninterviews werden mit den aus der Literatur gewonnenen Informationen abgeglichen und diskutiert. Im Anschluss wird eine Onlineumfrage erstellt, die dazu dient, die erkannten Problemfelder hinsichtlich gefundener Lösungsmöglichkeiten genauer zu untersuchen. Abschließend werden Handlungsempfehlungen aus den Ergebnissen der Experteninterviews und der Onlineumfrage abgeleitet. Diese umfassen die Bereiche Kommunikation, Team, Teammitglieder, KundInnen, Unternehmen und Scrum. Die resultierenden Handlungsempfehlungen können für die praktische Zusammenarbeit und Projektdurchführung mit dezentralen Scrum-Teams genutzt werden und richten sich sowohl an Entscheider, die für die Zusammenstellung von Scrum-Teams verantwortlich sind, wie auch an die jeweiligen Teammitglieder.
Robotic Process Automation
(2019)
Robotic Process Automation ermöglicht die softwaregestützte Automatisierung von Prozessen, welche über die grafische Benutzeroberfläche durchgeführt werden. Dies geschieht indem sie menschliche Interaktionen mit dem Computer imitiert. Das heißt diese Software ermöglicht die applikationsübergreifende Automatisierung von Mausklicks und Tastatureingaben. Im Zuge dieser Arbeit wird untersucht, wie sich der Einsatz dieser Technologie auf die Durchlaufzeit und Qualität von Prozessen auswirkt. Erweist sich Robotic Process Automation als ein Tool, welches monotone und repetitive Aufgaben übernehmen kann, bleibt den MitarbeiterInnen mehr Zeit für wertschöpfende Tätigkeiten, die deren Qualifikation eher gerecht werden. Zur Beantwortung der Forschungsfrage wurde ein Quasi-Experiment durchgeführt. In diesem wurde der gewählte Prozess einerseits von einem mit dem Prozess vertrauten Probanden und andererseits mittels Workflow-Automatisierung in je zwei zeitlich unabhängig voneinander durchgeführten Versuchen jeweils zehn Mal durchlaufen. Bei diesem Prozess handelt es sich um einen Geschäftsprozess der Magna Steyr Fahrzeugtechnik AG & Co. KG. Konkret geht es dabei um den Import unterschiedlicher Instandhaltungsdokumente in das SAP ERP-System. Das Ergebnis dieser wissenschaftlichen Arbeit ist daher vor allem für Prozesse zum Datentransfer über Applikationsmasken relevant. Das Ergebnis dieses Quasi-Experiments zeigte, dass mit einer Prozessautomatisierung mittels Robotic Process Automation eine Reduzierung der Durchlaufzeit um durchschnittlich 52 Prozent bei mindestens gleich hoher Prozess- und Ergebnisqualität erreicht wird. Diese Arbeit befasst sich nicht mit den Kosten zur Automatisierung von Prozessen und eventueller Einsparungen in dessen Betrieb. In zukünftigen wissenschaftlichen Arbeiten könnte mittels Ermittlung der Total Cost of Ownership untersucht werden ab wann sich der Einsatz von Robotic Process Automation im Unternehmen bezahlt macht und zu Einsparungen führt.
Die Themen Nachhaltigkeit und Diversität nehmen nach und nach immer eine stärkere Rolle im Denken und auch Handeln der Menschen ein. In einer freien kapitalistischen Marktwirtschaft, in welcher einer der großen treibenden Kräfte die Konkurrenz ist, gilt es daher auf die neue Situation im Bereich der Nachfrage einzugehen und das entsprechende Angebot zu schaffen. Aber auch die sozialen Aspekte zur Festigung gesellschaftlicher Akzeptanz dürfen dabei nicht zu kurz geraten, denn es ist schon lange nicht mehr genug nur dem eigenen Kerngeschäft nachzugehen und weder nach links noch nach rechts zu blicken. Man agiert schließlich auf demselben Planeten und in derselben Umwelt wie alle anderen Bewohnerinnen und Bewohner dieser Welt auch. Die hohe Relevanz von Nachhaltigkeit haben auch bereits einige Regierungen erkannt. So beispielsweise das europäische Parlament, welches mittels der Richtlinie für nicht finanzielle Informationen (NFI-RL) bereits ein Zeichen im Sinne der Nachhaltigkeit gesetzt hat. Dieser folgend wurde auch österreichisches Recht in Form des Nachhaltigkeit- und Diversitätsverbesserungsgesetzes (NaDiVeG) daraus. In diesem Sinne zeigt die vorliegende Arbeit auf, wie wichtig die Themen Nachhaltigkeit und Diversität für die Wirtschaft, insbesondere für die österreichische, sind und dass diese für eine langfristige Existenz und einen langfristigen Erfolg nicht mehr wegzudenken sind. Um dies zu prüfen, wurde auf der einen Seite eine quantitative Umfrage mit 149 Teilnehmerinnen und Teilnehmern durchgeführt, im Zuge welcher das Bewusstsein für Nachhaltigkeit sowie das eigene Verhalten in diesem Kontext abgefragt wurden. Auf der anderen Seite wurden drei Experteninterviews mit Vertretern in der Steiermark agierender Unternehmen geführt. Es zeigt sich deutlich welchen großen Einfluss die Themen Nachhaltigkeit und Diversität auf den langfristigen wirtschaftlichen Erfolg von Unternehmen haben.
Marketing hat sich in den letzten Jahren zunehmend neue, vernetzte Medienkanäle zunutze gemacht, um sowohl effizienter als vor allem auch effektiv beim Ansprechen der Zielgruppen zu sein. Content Marketing und Influencer Marketing bieten diese Möglichkeit. Es bildete sich das Phänomen des Influencers, dessen Geschäftsmodell untersucht werden soll. Die Forschungsfrage „Was sind Best Practices und Methoden, um mit Content Marketing auf YouTube längerfristig erfolgreich zu sein?“ soll beantwortet werden. Die Arbeit hat sich das Ziel gesetzt, Influencer Marketing und der damit assoziierten Marketingdisziplinen wie dem Content Marketing und dem viralen Marketing zu erforschen, um daraus Erfolgskriterien und Best Practices extrahieren zu können. Diese sollen als Unterstützung dienen, möchte man Videoinhalte für YouTube erstellen und veröffentlichen. Hierbei handelt es sich um eine theoretische, wissenschaftliche Masterarbeit basierend auf einer Literaturrecherche und einer Fallstudie. Dem Konsumenten der Inhalte muss Mehrwert geboten werden. Dies kann in Form von Unterhaltung, Nützlichkeit, kostenloser Bereitstellung oder der einfachen Übertragbarkeit von Inhalten geschehen. Der Nutzen kann sich auch aus Kombinationen dieser Faktoren zusammensetzen. Auch die hohe Qualität der Inhalte sowie Kreativität gilt es beim Erstellen von Content für YouTube zu beachten. Dabei erhöht sich die Chance auf den viralen Effekt und die damit verbundene große Reichweite der Inhalte. Auch bei Online Communitys und sozialen Netzwerken erhöht sich dadurch die Chance auf Multiplikationen, was wiederum zu einer höheren Gewichtung des eigenen Contents durch den YouTube Algorithmus führt. Diese Erfolgsfaktoren wurden mithilfe der Fallstudie bewiesen. Auch das Geschäftsmodell für Influencer wurde anhand des Business Model Canvas erarbeitet und zusammengefasst.
Aufgrund der Bedrohungen des Klimawandels wurde in den letzten Jahren weltweit nach Lösungen für umweltfreundlichere Energie gesucht. Mit der Entwicklung erneuerbarer Energiequellen scheint ein guter Ansatz gefunden worden zu sein, um Elektrizität zu erzeugen. Die damit einhergehenden Herausforderungen sind die dezentrale Positionierung und die Volatilität der zukünftig hohen Anzahl von Wind- und Solarerzeugungsanlagen. Eine Folge dessen ist eine hohe Beanspruchung der Verteilnetze und damit auch die Notwendigkeit effizienterer Energienutzung. Im Jahr 2009 wurde daher auf europäischer Ebene beschlossen intelligente Stromnetze, sogenannte „Smart Grids“ und intelligente Stromzähler, sogenannte „Smart Meter“ einzusetzen, um die Energieversorgung durch die Nutzung von Internet- und Kommunikationstechnologien zu unterstützen. In Österreich wurde in Folge dessen im Jahr 2010 das Elektrizitätswirtschafts- und -Organisationsgesetz entworfen, welches gemeinsam mit weiteren Beschlüssen der Gesetzgebung den österreichischen Weg für effizientere und transparentere Energieversorgung vorgibt. Heute, im Jahr 2019, stehen die österreichischen Netzbetreiber mitten in der Umbauphase in der das Netz für die Verwendung der Smart Meter vorbereitet und die bisher eingesetzten mechanischen Zähler durch die neuen intelligenten Messgeräte ersetzt werden. Durch den fortgeschrittenen Status des Smart Meter-Rollout konnten Netzbetreiber und Energielieferanten bereits Erfahrungen sammeln, die Aufschluss über die tatsächlichen Auswirkungen auf den Energiemarkt geben können. Die vorliegende Arbeit zeigt die wirtschaftlichen Auswirkungen von Smart Metering auf und analysiert diese. Das Ziel ist es herauszufinden welche Kosten durch die Einführung von Smart Metering für Energieversorgungsunternehmen, und damit in weiterer Folge für Konsumenten, entstehen und mit welchen marktrelevanten Änderungen aus heutiger Sicht aufgrund des Betriebes von Smart Metering zu rechnen ist.
Besonders im Bereich der Informationstechnologie herrscht eine immerwährende Weiterentwicklung. Neue Technologien oder Vorgehensweisen bringen jedoch neben Verbesserungen jedoch meist auch neue Sicherheitsrisiken mit sich. Um ein einheitliches Sicherheitsniveau bei der Verarbeitung von personenbezogenen Daten im europäischen Raum zu schaffen, wurde die Datenschutz-Grundverordnung (DSGVO) erlassen. Am 25. Mai 2018 ist die DSGVO in Kraft getreten und ein Großteil der Unternehmen musste technische und organisatorische Maßnahmen zur DSGVO Konformität ergreifen. In dieser Masterarbeit wurde die Sammlung von Methoden und Vorgehensweisen zur bestmöglichen Umsetzung der durch die DSGVO vorgeschriebenen Anforderungen behandelt. Daher lautet die Forschungsfrage: „Wie können Klein- und Mittelunternehmen vorgehen um ihre IT-Infrastruktur an die notwendigen Voraussetzungen der Datenschutz-Grundverordnung anzupassen?“. Um die Forschungsfrage zu beantworten, wurde zunächst in der DSGVO bezüglich relevanten Aspekten und wichtigen Vorschriften recherchiert. In einer Zusammenfassung aller wichtigen Bereiche wird ein grundlegendes Wissen zur DSGVO vermittelt. Um Informationen aus der tatsächlichen Praxissituation zu erhalten, wurden fragebogengestützte Experteninterviews mit zehn Datenschutzexperten aus verschiedenen Unternehmen und Tätigkeitsbereichen durchgeführt. Anhand der Ergebnisse aus der Literaturrecherche und den Antworten aus den Experteninterviews wurde eine Best Practice Checklist zur Maßnahmenkontrolle erstellt. Mittels der in dieser Masterarbeit angeführten Informationen sowie der Unterstützung durch die erstellte Best Practice Checkliste werden Unternehmen bzw. Datenschutzverantwortliche bei der Umsetzung der DSGVO-Maßnahmen unterstützt.
Das Ziel dieser Arbeit ist die Schaffung eines neuen Vorgehensmodelles, um agil entwickelte Projekte einfach und effizient übergeben zu können. Daher beschäftigt sich die Arbeit mit der Beantwortung der Frage „Welche Aspekte sind als zentrale Einflussfaktoren zu berücksichtigen, wenn die Weiterentwicklung eines agil umgesetzten Projektes in einem anderen Team stattfinden soll, welches noch über keine bestehende Entwicklungsumgebung und nur begrenztes Know-how verfügt?“. Um diese Frage beantworten zu können, wird zuerst ein grober Überblick über mögliche Modelle zur Entwicklung von Software gegeben. Der Fokus hierbei liegt auf den agilen Methoden. Ausgehend von dem agilen Manifest und den ausgewählten Praktiken wird ein allgemeiner Prozess anhand des Software-Lebenszyklus beschrieben. Aufbauend auf die Beschreibung der einzelnen Phasen des Software-Lebenszyklus wird der Ansatz der kontinuierlichen Integration von Software vorgestellt und beschrieben. Mit Hilfe der theoretischen Grundlagen werden anschließend die Einflussfaktoren entlang des Software-Lebenszyklus identifiziert, kategorisiert und beschrieben. Die einzelnen Einflussfaktoren münden in eine Liste mit Risikobewertung und möglichen Werkzeugen und bilden damit das neue Vorgehensmodell. Das neue Modell wird, nach einer kurzen allgemeinen Beschreibung des Unternehmens inklusive genereller Arbeitsweise, einem Praxistest unterzogen. Dies geschieht, indem ein bereits bestehendes, agil entwickeltes Projekt mit Hilfe des neuen Modells in ein neu geschaffenes Team übernommen wird. Im Zuge der praktischen Anwendung wird grob gezeigt wie das Modell eingesetzt werden kann und die Ergebnisse werden dokumentiert. Abschließend wird eine Übersicht der Ergebnisse in Form einer Tabelle gegeben, welche die einzeln getroffenen Entscheidungen zeigt, bewertet wie erfolgreich die einzelnen Einflussfaktoren im Zuge der Übernahme abgedeckt werden können und angibt, welche Folgeschritte geplant sind.