Informationstechnologien & Wirtschaftsinformatik
Filtern
Dokumenttyp
- Masterarbeit (162)
Volltext vorhanden
- ja (162)
Gehört zur Bibliographie
- ja (162)
Schlagworte
- Digitalisierung (10)
- Software Engineering (9)
- Projektmanagement (8)
- Informationssicherheit (6)
- Kundenmanagement (6)
- Online-Marketing (5)
- Business Intelligence (4)
- Computersicherheit (4)
- Internet der Dinge (4)
- Personalwesen (4)
Institut
Evaluierung der Auswirkung eines agilen Organisationsmodells auf IT-Unternehmen am Beispiel Scrum
(2023)
Diese Masterarbeit beschäftigt sich mit agiler Arbeitsmethodik im Kontext der Softwareentwicklung. Unternehmen im Bereich der IT-Branche sind mit einer Vielzahl von organisationalen Herausforderungen konfrontiert, welche sich durch die hohe Komplexität der Projekte ergeben. Diese Herausforderungen werden anhand von Faktoren wie der standortverteilten Softwareentwicklung verstärkt und resultieren letztendlich in großen Raten von Misserfolgen. Sie beziehen sich direkt auf das Projektmanagement und den hierfür verwendeten Prozess. Das agile Vorgehensmodell Scrum erfreut sich durch seine transparente und einfache Charakteristik immer größerer Beliebtheit und soll die auftretenden organisationalen Probleme im Prozess der Softwareentwicklung verringern. Das Ziel der vorliegenden Arbeit ist es, die Einflüsse des Scrum-Vorgehensmodells auf organisationale Herausforderungen von IT-Betrieben auszuwerten. Um dies zu erreichen, wird ein Anforderungskatalog an ein Vorgehensmodell basierend auf organisationalen Problemen der IT-Branche erstellt, welcher die Grundlage für einen Fragebogen zur Evaluierung der Scrum-Vorgehensmethodik in der Softwareentwicklung darstellt. Durch die erhobenen 76 Antworten lassen sich Aussagen zu dem allgemeinen Ausmaß dieser Herausforderungen, Zusammenhänge zwischen verschiedenen Problembereichen und Veränderungen der Situation beim Wechsel von einer anderen Vorgehensmethodik auf Scrum treffen. Es lässt sich festhalten, dass die Verwendung von Scrum im Allgemeinen eine effektive Herangehensweise zur Bewältigung dieser Herausforderungen ist. Der erstellte Anforderungskatalog kann von Unternehmen verwendet werden, um, unabhängig vom jeweils verwendeten Vorgehensmodell, das Ausmaß ihrer Herausforderungen zu ermitteln. Ebenso kann weiterführende Forschung durch eine wissenschaftliche Evaluierung anderer Vorgehensmodelle, eine Erweiterung der Problembereiche sowie einer Erkundung von Methoden zur Minimierung dieser Herausforderungen, betrieben werden.
Blockchains wurden besonders in den letzten Jahren sehr populär und der Zugang um diese zu Nutzen wurde auch sehr einfach. Aufgrund dieser Entwicklungen wurden viele neue Anwendungsgebiete geschaffen. Die meisten Menschen assoziieren Blockchains mit Kryptowährungen, allerdings gibt es noch weitere Bereiche, die diese Technologie nutzen. Beispiele hierfür sind der Gesundheits- oder der Energiesektor. Immer mehr Unternehmen überprüfen, wie sie diese Technologie ebenfalls nutzen können, um davon zu profitieren und Prozesse zu verbessern. Ein Anwendungsfall, der in dieser Arbeit behandelt wird, ist das Dokumentieren von Dokumenten, Verträgen und Vereinbarungen zwischen Mitarbeiterinnen oder Mitarbeitern und dem Unternehmen. Das Ziel dieser Masterarbeit ist es, zu evaluieren, wie Unternehmen Blockchain-Technologien nutzen können und wie genau Verträge dokumentiert werden können. Es wurde dazu ein Prototyp entwickelt mit dem Verträge in der Blockchain dokumentiert werden können, indem ein Smart Contract verwendet wird. Die Ergebnisse zeigen, dass diese Technologie das Potenzial hat, für diesen Anwendungsfall genutzt werden zu können. Der größte Vorteil dabei ist die Transparenz. Das bedeutet, dass jede Person, die Zugang zur Blockchain hat, nachprüfen kann, wer an diesem Vertrag beteiligt war und wann er abgeschlossen wurde. Allerdings wurden auch einige Probleme festgestellt. Zum Beispiel wird, um Daten in die Blockchain zu schreiben noch mehr Zeit benötigt im Vergleich zu konventioneller Software. Weiters sind bei der Nutzung des entwickelten Prototypen auch öfter Fehler passiert als bei der herkömmlichen Software. Zusammenfassend lässt sich sagen, dass die Verwendung von Blockchain-Technologien zur Dokumentation von Verträgen verwendet werden könnte und es dem Unternehmen einen Mehrwert bieten kann, allerdings ist die Technologie aufgrund der Probleme noch nicht ausgereift genug.
Im Bereich der Softwareentwicklung ist es verbreitet, dass Teams verteilt zusammenarbeiten. Mit der verteilten Arbeit entstehen neue Herausforderungen, die es zu bewältigen gilt, welche sich auch auf die Personalbindung auswirken. Aus diesem Grund ist es bedeutend, die Faktoren zu berücksichtigen, die in verteilten Softwareentwicklungsteams in einem besonderen Zusammenhang zur Personalbindung stehen. Die Masterarbeit mit dem Thema „Personalbindung in verteilten Softwareentwicklungsteams“ betrachtet verschiedene Herausforderungen und Bedürfnisse in der Softwareentwicklung und untersucht spezifische Faktoren, welche bei verteilten Softwareentwicklungsteams in Zusammenhang mit der Personalbindung stehen. Dabei werden die untersuchten Faktoren sowohl in konventionellen als auch in verteilten Softwareentwicklungsteams betrachtet, um die Unterschiede zu beleuchten. Für die erforderliche Datenerhebung wurde eine Befragung von Softwareentwickler*innen durchgeführt, um die vorhandene Personalbindung zu quantifizieren, die zuvor aus der Literatur ermittelten Faktoren zu überprüfen und deren Zusammenhang zu ermitteln. Die Ergebnisse dieser Arbeit zeigen, dass in verteilten Softwareentwicklungsteams ein besonderer Zusammenhang mit der Personalbindung und das Kommunikationsverhalten und regelmäßiges Feedback der Führungskraft, qualitative Mitarbeiter*innengespräche, zureichenden Karriere- und Aufstiegsmöglichkeiten, sowie Weiterbildungsmöglichkeiten bestehen. Aber auch regelmäßige Teambuilding-Aktivitäten und die Klarheit über Aufgaben und Verantwortungen zeigten einen Zusammenhang. Ein weiteres Ergebnis war, dass eine Vermeidung typischer Faktoren die bei Softwareentwickler*innen zur Unzufriedenheit führen, einen positiven Zusammenhang zur Personalbindung vorweist. Zusammenfassend werden durch diese Arbeit wichtige Zusammenhänge zur Personalbindung in verteilten Softwareentwicklungsteams aufgezeigt, welche durch die neuen Herausforderungen in der verteilten Softwareentwicklung zu beachten sind. Durch die Erkenntnisse dieser Arbeit lassen sich in weiterer Folge Maßnahmen für Unternehmen ableiten, um die Personalbindung zu steigern.
Das MitarbeiterInnen-Management und im Besonderen die Personalbeschaffung ist für jedes Unternehmen von entscheidender Bedeutung und Wichtigkeit. Die vorliegende Masterarbeit befasst sich mit genau diesem Thema, wobei der Fokus auf Remote-Arbeit und den ab dem Jahr 1995 geborenen, potenziellen MitarbeiterInnen der Generation Z liegt. Diese Personengruppe stellt einen der interessantesten KandidatInnen-Pools für die zukünftigen Belegschaften der Unternehmen dar. Mit dieser Arbeit wird der Einfluss des Wertesystems der Generation Z auf den Onboarding-Erfolgt untersucht. Besonders wird der Zusammenhang zwischen den einzelnen Aspekten des Wertesystems und den Faktoren des erfolgreichen Onboardings von Remote-ArbeiterInnen betrachtet. Um die formulierte Forschungsfrage zu beantworten, werden die relevanten Faktoren und Aspekte identifiziert und eine quantitative Umfrage mit anschließender Datenanalyse durchgeführt. Die Zielgruppe entspricht ausnahmslos Personen der Generation Z. Zudem wird Interesse an Remote-Arbeit vorausgesetzt. Beginnend mit einleitenden Fragen, befasst sich die Umfrage mit den Wertvorstellungen und Erwartungen der Befragten an einen neuen Arbeitsplatz, sowie mit den Erwartungen an die Integration in ein neues Arbeitsumfeld im Rahmen der Onboarding-Phase. Mittels Korrelationsanalyse werden die personenbezogenen Erwartungen, Aspekte und Faktoren des MitarbeiterInnen-Onboardings untersucht. Die Resultate zeigen, dass positive Zusammenhänge von Onboarding-Faktoren wie Proaktivität oder bidirektionalem Informationsfluss mit einzelnen Generation Z-Aspekten bestehen. Des Weiteren bestätigt sich die Wichtigkeit der Erfüllung der einzelnen Erwartungen für neue MitarbeiterInnen. Die Auswirkung des Wertesystems auf den Onboarding-Erfolg schlägt sich in Form von vielfältiger und hoher Erwartungshaltung nieder. Zur Ergründung der Kausalitäten und Umsetzung von Maßnahmen bedarf es weiterer Untersuchungen.
Gestaltung einer Open Data Energieplattform zur Förderung von Kollaboration und Partizipation
(2023)
Um die Auswirkungen des globalen Klimawandels durch verursachte CO2-Emissionen zu verringern, ist es notwendig, den Energiesektor ökologisch nachhaltiger zu gestalten. Dies kann durch die Reduktion des Gesamtenergieverbrauchs, sowie den Ersatz konventioneller Energiequellen durch erneuerbare erreicht werden. Es ist bekannt, dass die Realisierung von Energieeinsparungen nicht nur durch Investitionen in die Verbesserung der Energieeffizienz möglich ist, sondern auch das Engagement, Bewusstsein und Handeln der Bevölkerung erfordert. Um dies zu erreichen, soll die Beteiligung der Bürgerinnen und Bürger im Energiebereich gefördert werden. Ziel ist es, demokratische Zusammenarbeit, transparentere Entscheidungsfindung, Lernbereitschaft und die Akzeptanz von Energieprojekten zu steigern. Durch den Einsatz einer Open Data Plattform sollen Energiedaten von privaten Haushalten, sowie regionale und überregionale Informationen im Energiesektor zugänglich gemacht und die Bevölkerung damit eingebunden werden. Unter Verwendung des Design-Science-Research-Ansatzes nach Peffers et al. (2007) wurden Anforderungen und Kriterien für eine Open Data Plattform im Energiesektor untersucht. Dies erfolgte durch eine umfassende Literaturrecherche, aus der wichtige Designelemente abgeleitet und Mockups der Plattform entwickelt wurden. Zur Demonstration der Plattform wurden fünf umfassende Anwendungsfälle von sieben Personen durchgeführt. Im Anschluss wurden die Nützlichkeit und Benutzerfreundlichkeit der Plattform anhand eines Fragebogens bewertet. Die Evaluierung hat ergeben, dass die Nutzerinnen und Nutzer den Informations- und Wissensaustausch sowie die Zusammenarbeit auf der Plattform als nützlich und wertvoll empfinden. Insbesondere werden Individualisierungs- und Automatisierungsmöglichkeiten, Vergleichsfunktionen, Visualisierungen, sowie der regionale Informationsaustausch als förderlich betrachtet. Die Einbindung von sozialen Medien und der Einsatz von Gamification Elementen, um die Motivation der Nutzerinnen und Nutzer zu steigern konnte jedoch nicht allgemeingültig bestätigt werden. In weiteren Untersuchungen sollten daher vor allem motivationsfördernde Designelemente betrachtet und untersucht werden.
Die vorliegende Masterarbeit behandelt die Einsatzmöglichkeit von BI-Systemen und deren Unterstützung der Vertriebssteuerung von Versicherungsunternehmen. Es wurde zu Beginn eine umfangreiche Literaturrecherche durchgeführt, um einerseits die technischen Grundlagen und den Aufbau eines BI-Systems und andererseits den Begriff der Vertriebssteuerung genauer zu erklären. Anschließend wurde die theoretische Grundlage mit der Vertriebssteuerung eines Versicherungsunternehmens in Verbindung gebracht.
Im praktischen Teil wurde anhand des Beispiels der Merkur Versicherung AG eine Umsetzung eines neuen BI-Systems erarbeitet. Eingangs wurde die Ist-Situation des Unternehmens erhoben, um die Ausgangsbasis für eine Weiterentwicklung des BI-Systems zu erarbeiten. Anschließend wurden mittels qualitativen mit Fragebogen geführten Interviews die Anforderungen von unterschiedlichen Personengruppen und Hierarchien aufgenommen. Zum Schluss wurde die Entwicklung eines Prototypens auf Basis der Anforderungen erstellt und auf Akzeptanz getestet.
Das Ergebnis der Arbeit zeigt, dass eine einfache Umsetzung eines einzigen BI-Tools für die unterschiedlichen Anforderungen der verschiedenen Adressatinnen und Adressaten, welche mit dem Vertrieb eines Versicherungsunternehmens in Berührung kommen, nicht möglich ist. Aufgrund der verschiedenen Nutzergruppen und Anforderungen sollte ein reines Management-Tool und ein operatives BI-Tool als Self-Service BI zur Verfügung gestellt werden. Die Anforderungen an ein Dashboard waren größtenteils nicht gegeben. Sie wären eher als zusätzliches Feature angesehen worden, waren jedoch nicht gefordert.
In weiterer Folge könnte ein integriertes BI-System, welches alle Anforderungen beinhaltet, eingeführt werden. Dies müsste dann eventuell in Eigenentwicklung durchgeführt werden, damit es alle Anforderungen eines Versicherungsunternehmens abdeckt.
Die Anomalie Erkennung spielt in verschiedenen Bereichen eine große Rolle. Beispielsweise versuchen Kreditkartenanbieter, betrügerische Transaktionen zu identifizieren. Registriert das System einen Einkauf im Wert von Tausenden von Euro, obwohl gewöhnlich nur Bahntickets mit dieser Karte gelöst werden, ist es sehr wahrscheinlich, dass die Karte oder die persönliche ID-Nummer gestohlen wurde. In einem anderen Szenario, wenn die Produktionslinie eines Pharmaunternehmens feststellt, dass das Endgewicht von Medikamentenkapseln 20 % höher als üblich ist, kann ein Fehler im Herstellungsprozess vorliegen. Diese Anomalie Erkennung basiert meist auf strukturierten Zahlenwerten und kann somit leicht erkannt werden. Das Ziel dieser Arbeit ist es, Anomalien aus unstrukturierten beziehungsweise schwach strukturierten Text-Daten zu erkennen und anhand ihrer Semantik Möglichkeiten zur Interpretation und Bewertung aufzuzeigen. Im Zuge dieser Arbeit soll herausgefunden werden, welche Datenverarbeitungsmethoden und Analysemethoden verwendet werden können, um eine bestmögliche Interpretation der Text-Daten zu erreichen. Resultierend auf diesen Erkenntnissen wird ein Vorgehensmodell erstellt. Dieses Vorgehensmodell dient als Basis für einen Prototyp, um eine automatische Auswertung erzeugen zu können. Der Prototyp soll durch eine gezielte Auswahl von Schlüsselwörtern Anomalien in verschiedenen Themenbereichen erkennen, um so vielseitig wie möglich Verwendung zu finden. Weiters sollen geografische Brennpunkte dieser Themenbereiche identifiziert werden und durch Analysen festgestellt werden, ob diese Brennpunkte einen positiven oder negativen Effekt mit sich bringen.
Release Management spielt in der Softwareentwicklung eine große Rolle. Der Prozess von einer Anfrage zu einer Änderung bis zur Ausrollung der Änderung auf das Live-System behandelt alle Themen, die in dem Bereich des Release Managements fallen. Dass dieser Prozess einen großen Einfluss auf die Qualität der Software und den Erfolg des Unternehmens hat, liegt demzufolge auf der Hand. Aufgrund der Konkurrenzsituation am Markt streben IT-Unternehmen nach dem bestmöglichen Prozess. An diesem Punkt kommen Tools wie Jira aus der Atlassian Suite oder Azure DevOps aus dem Microsoft-Portfolio ins Spiel. Diese Tools unterstützen Unternehmen in den Bereichen Issue-Tracking, Taskplanung, sowie weitere Themen, die im Release Management gebraucht werden. Nichtsdestotrotz treten bei vielen IT-Unternehmen nach wie vor Probleme auf, die für die Qualität des Release Managements negative Auswirkungen haben und verbessert werden müssen. In dieser Arbeit wird mithilfe einer Literaturrecherche über die Probleme in Verbindung mit Toolanalysen sowie einer qualitativen Forschung mit Experten aus dem Bereich des Release Management und in der Softwareentwicklung erforscht, ob die gefundenen Probleme im Kontext des Tools auftreten oder, ob diese durch weitere Handlungsempfehlungen gelöst werden können. Aufgrund der Tatsache, dass die Softwareentwicklung in den letzten Jahren eine Entwicklung eingeschlagen hat, in der der Softwareentwicklungsprozess sich in den meisten Unternehmen mehr in Richtung eines agilen Ansatzes geändert hat, wird in folgender Arbeit die Auswirkung dieses Trends auf das Release Management analysiert. Zu guter Letzt werden einer Gruppe an Unternehmen Handlungsempfehlungen erstellt, die bei Eintritt bestimmter Probleme verwendet werden können, um auch in Verbindung mit dem Tool für eine höhere Qualität im Release Management zu sorgen.
Diese Masterarbeit behandelt die Informationssicherheit im Kontext des Social Engineerings von Unternehmen. Das Ziel ist es, Initiativen zu definieren, die Unternehmen kritischer Infrastruktur einsetzen müssen, um die Informationssicherheit in diesem Kontext zu gewährleisten. Im Bereich der Theorie wurde eine Literaturrecherche über das Thema ‚Social Engineering‘ durchgeführt. Es ließ sich herausfinden, welche Möglichkeiten es gibt, Unternehmen zu attackieren. Des Weiteren bedeutet Social Engineering nicht, dass immer eine illegale Aktivität dahinter steckt, sondern dass hier lediglich mithilfe von Psychologie ein Mehrwert für die Angreiferin oder den Angreifer generiert wird. Für den empirischen Teil der Arbeit wurde eine Umfrage an Personen gesendet, die in ihrer Arbeit mit Informationssystemen zu tun haben. Diese Befragung hat ergeben, dass Personen wissen, wie bedeutsam Informationssicherheit ist, und es wurde kein signifikanter Unterschied zwischen IT-affinen und nicht IT-affinen Personen festgestellt. IT-affine Personen wissen lediglich besser über die Auswirkungen Bescheid. Des Weiteren wurden Interviews mit Expertinnen und Experten aus dem Bereich der Informationssicherheit durchgeführt. Deren Zweck war es, herauszufinden, welche Maßnahmen es gibt, die Informationssicherheit im Kontext von Social Engineering zu gewährleisten bzw. zu erhöhen. Es hat sich herausgestellt, dass Security-Awareness-Schulungen sehr sinnvoll sind. Unternehmen kritischer Infrastruktur sollten sich auf Vor-Ort-Schulungen fokussieren, da diese ein höheres Informationssicherheitsempfinden beim Personal auslösen. In Relation zu den Kosten, die ein Social-Engineering-Angriff verursachen kann, zahlt sich für ein Unternehmen kritischer Infrastruktur eine Security-Awareness-Schulung mit großer Wahrscheinlichkeit aus. Es wird auch empfohlen, technische und physische Maßnahmen einzusetzen, um einen Social-Engineering-Angriff zu erschweren. Jedoch ist zu erwähnen, dass technische Maßnahmen nicht ausschließlich darauf ausgelegt sind, Social-Engineering-Angriffe zu verhindern. Das ist lediglich ein Teil davon. technische Maßnahmen schützen die Allgemeinheit vor Social-Engineering-Angriffen, jedoch nicht einzelne Personen. Für Unternehmen kritischer Infrastruktur sollten wiederkehrende Security-Awareness-Schulungen und technische Maßnahmen eingesetzt werden, um die Informationssicherheit im Kontext des Social Engineerings zu gewährleisten. Diese Vorkehrungen haben nämlich keinen erheblich negativen Einfluss auf die Arbeitstätigkeiten der Mitarbeiterinnen und Mitarbeiter im Allgemeinen. Auf der anderen Seite stellen sie jedoch sicher, dass die Angestellten ein entsprechendes Bewusstsein für diese Gefahr entwickeln und es stetig erweitern.
Cloud Technologien wurden zur Bereitstellung von Infrastruktur für REST APIs in den letzten Jahren immer wichtiger. Das Container-as-a-Service (CaaS) Modell bei welchen Anwendungen virtualisiert in der Cloud laufen stellt hierbei einen der meistgenutzten Services dar. Dabei kommt es jedoch immer noch zu einem Overhead bei Verwaltung und Bereitstellung der Container, wodurch Entwicklungsressourcen verloren gehen. Eine noch leichtgewichtigere Alternative ist das neuere Function-as-a-Service (FaaS) Modell, welches den Verwaltungsaufwand reduzieren soll. Ziel der Masterarbeit ist es herauszufinden, ob FaaS sich besser als CaaS für die Entwicklung von REST APIs eignet. Um die Modelle vergleichbar zu machen, werden die Kriterien Kosten sowie Performance herangezogen und es wird folgende Forschungsfrage gestellt: ‚Wie wirkt sich FaaS gegenüber CaaS auf Performance und Kostenentwicklung einer REST API aus?‘. Um die Forschungsfrage zu beantworten, wurde jeweils eine CaaS und eine FaaS API implementiert. Als Metrik für Performance wurde dabei die Response Time (RT) gewählt. Diese gibt die Zeit an, welche zwischen Senden des API Requests und dem Empfang der Response verstreicht. Die RT wurde automatisiert mittels Artillery Skripts gemessen, um gleichzeitige Nutzung durch 1.000 virtuelle Benutzer*innen zu simulieren und verschiedene Anwendungsfälle abzubilden. Anhand der RT Daten wurden anschließend Kosten für verschiedene Benutzerzahlen berechnet. Die Ergebnisse der Performancemessungen zeigen, dass die RT von FaaS durchwegs höher ist als jene von CaaS. Für zeitkritische Applikationen kann FaaS daher nicht empfohlen werden. Bei den Kosten zeigt sich ein gemischtes Bild. Gerade bei wenigen API-Aufrufen entstehen bei FaaS kaum Kosten im Vergleich zu CaaS. Je höher die Anzahl der API Aufrufe, umso mehr verkehrt sich dieser Umstand jedoch ins Gegenteil, bei zwölf Millionen täglichen Aufrufen ist die FaaS Lösung schon beinahe dreimal so teuer wie CaaS. FaaS bietet sich also vor allem für kleinere Applikationen an, um einen Kompromiss zwischen Performance und Kosten zu finden.
In vielen Systemlandschaften stellt ein ERP-System das Rückgrat aller Geschäftsprozesse dar. Das Streben nach durchgängigen Prozessintegrationen macht diese Komponente zu einem beliebten Kandidaten für die Anbindung weiterer Unternehmensanwendungen. Durch moderne, Cloud-basierte Bereitstellungsmodelle werden neue Innovationen und Funktionalitäten immer häufiger im Rahmen automatischer Software-Upgrades bereitgestellt. Um unter diesen Einwirkungen weiterhin einen reibungslosen Produktivbetrieb der geschäftskritischen Kernprozesse sicherstellen zu können, ist die Durchführung regelmäßiger Softwaretests folglich unabdingbar. Eine manuelle Ausführung dieser Tests bindet wiederkehrend Personalressourcen. Testautomatisierung birgt hierbei eine wertvolle Chance, Tests wiederholbar zu machen und effizienter zu gestalten. Die Herausforderungen in der Testautomatisierung in Kombination mit Webapplikationen sind jedoch nicht zu unterschätzen. Der dynamische Aufbau von Benutzeroberflächen erschwert die Erstellung stabiler Automatisierungen auf UI-Ebene. Eingeschränkte Zugriffsmöglichkeiten auf die Codebasis von Anwendungen repräsentieren eine weitere Hürde. Schnittstellenbasierte Ansätze verkörpern dadurch eine attraktive Alternative. In der vorliegenden Arbeit werden Einsparpotenziale durch den Einsatz von GUI- und API-basierter Testautomatisierung für SAP Business ByDesign untersucht. Bei der kaufmännischen Bewertung von Testautomatisierungsprojekten müssen initiale Implementierungskosten ebenso mit in die Betrachtung einfließen, wie auch Wartungsaufwände, Infrastrukturkosten und ggf. anfallende Lizenzkosten. Im Rahmen der Masterarbeit wurden sowohl interne als auch externe Experteninterviews durchgeführt, um einerseits Vergleichs- und Erfahrungswerte aus manuellen Testvorgängen zu erheben, andererseits jedoch auch wichtige Aspekte und Erkenntnisse für mögliche Testautomatisierungen in Zusammenspiel mit SAP Business ByDesign zu gewinnen. Dazu wurden die Interviews transkribiert, paraphrasiert und mittels qualitativer Inhaltsanalyse ausgewertet. Eine abschließende Evaluierung und Gegenüberstellung der aus den Interviews hervorgehenden Ansätze zur UI- und API-basierten Testautomatisierung zeigen konkrete Anknüpfungspunkte für potenzielle Projektautomatisierungsprojekte.
Das virtuelle Büro
(2022)
Die Einführung von einheitlichen und dokumentierten Telearbeitsmodellen wird von Unternehmen häufig außer Acht gelassen. Zahlreiche Unternehmen aus der IT-Branche verfügen über keine standardisierte Vorgehensweise für die Etablierung von Telearbeitsarbeitsplätzen. Durch die Corona-Pandemie mussten viele Arbeitsplätze rasch in die eigenen vier Wände der Belegschaft transformiert werden. Aufgrund der schnellen Transformation wird vermutet, dass auf wesentliche Aspekte für ein erfolgreiches, langfristiges und nachhaltiges Bestehen der Modelle vergessen wurde. Demzufolge richtet sich die behandelte Forschungsfrage auf die Vorgaben und Modelle, welche für einen rein virtuellen Arbeitsplatz im Kontext der modernen Software-Entwicklung benötigt werden. Hierzu wurden Hypothesen zur Bedeutung der Existenz des physischen Büros, zu Dokumentations- & Kommunikationsstrukturen, zur Arbeitsplatzausstattung und zu den internen Strukturen eines Unternehmens aufgestellt. Für die Prüfung der Hypothesen wurde eine Umfrage mit Teilnehmer*innen aus der IT-Branche durchgeführt. Mit Hilfe der Befragung konnten die aktuell gelebten Strukturen sowie einige Adaptierungswünsche der Befragten erhoben werden. Weiters konnten anhand der erhobenen Merkmale einige wichtige Faktoren zur Verbesserung der aktuell gelebten Telearbeitsrichtlinien identifiziert werden. Auf Basis der Ergebnisse und des erarbeiteten theoretischen Wissens wurden Handlungsempfehlungen ausgesprochen. Das Ergebnis dieser Arbeit zeigt, dass die Telearbeit in dieser Branche nicht mehr wegzudenken ist. Diese Form der Arbeitszeiteinteilung wird vermehrt von den Arbeitnehmern und Arbeitnehmerinnen gefordert, weshalb auch Strukturen für funktionierende Modelle geschaffen werden müssen. Im Anschluss an die geprüften Hypothesen werden zwei neue Telearbeitsmodelle anhand der Ergebnisse vorgestellt.
Mobile Computing
(2021)
Die folgende Masterarbeit behandelt das Thema der Sicherheit im Umgang mit mobilen Geräten und welche Gefahren für diese bestehen und welche Maßnahmen getroffen werden können, um Schäden im Unternehmensumfeld zu vermeiden. Dabei wird ein großer Fokus auf mögliche Angriffsvektoren gelegt, diese evaluiert und betrachtet, wie ein Schaden auf den Angriffsvektor bestmöglich vermieden werden kann. Des Weiteren werden Penetration Tests von Geräten näher erleuchtet, da diese für das IT-Personal eine wichtige Möglichkeit darstellt, um die Sicherheit der Geräte und des Netzwerkes zu testen. Das Hauptaugenmerk der ersteren Kapitel bezieht sich auf die Verwendung von Notebooks für den mobilen Arbeitsgebrauch. Im letzten Kapitel des theoretischen Teiles werden Mobiltelefone nochmals genauer erörtert, da diese heutzutage zum Standardequipment von vielen Angestellten gehört. Schlussendlich werden für den praktischen Teil dieser Arbeit mehrere Experten zum Thema der mobilen Sicherheit im Unternehmen befragt, um zu erörtern welchen Stand diese derzeit und welche Maßnahmen diese anwenden, um deren Unternehmen abzusichern. Die Ergebnisse zeigen, dass von allen befragten Experten valide Standards eingesetzt werden, um die Sicherheit der Mobilgeräte zu garantieren. Dabei versuchen diese sowohl die Sicherheit der Geräte, aber auch der Daten zu garantieren.
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
Seit Beginn des 20. Jahrhunderts stellen das Radio und der Fernseher einen fixen und sehr großen Bestandteil in der Unterhaltungs- und Informationslandschaft dar. Mit dem Fortschreiten der Jahre gewöhnten sich die Menschen auch immer mehr an sie und wurden so eine Selbstverständlichkeit, die für jedermann erschwinglich ist. Während das Internet durch seine flächendeckende Verbreitung den bestehenden Medien immer mehr Konkurrenz im Bereich der Informationsgewinnung, nicht zuletzt auch durch seine Zeitunabhängigkeit, macht, tun sich in den letzten Jahren immer mehr Konkurrenten im Unterhaltungssegment hervor. Um nur einige zu nennen: Amazon, Netflix, Spotify und YouTube. Was diese gemeinsam haben, sie richten sich nach der Zeit der Kunden und Kundinnen und geben ihnen völlig freie Wahl darüber, was wann angesehen werden möchte und das bei einer ständig größer werdenden Auswahl an Inhalten von Drittherstellern und Eigenproduktionen. Eine im Rahmen der Arbeit durchgeführte Umfrage mit 131 Teilnehmern und Teilnehmerinnen ergab, dass Video/Content on Demand mit über 171 Minuten Nutzungszeit pro Tag die am meisten genutzte Unterhaltungsform darstellt. Die beliebtesten Kategorien in diesem Bereich sind Filme & Serien sowie Dokumentationen und Musik, also genau die Instrumente, mit denen auch Radio und Fernsehen arbeitet. Platz 1 für Video/Content on Demand ändert sich auch nicht, wenn man die Rohdaten nach Alter oder Geschlecht aufbereitet. Dies hat sich nicht nur im Laufe der letzten Jahre aufgebaut, sondern wurde auch durch die von der Coronavirus SARS-COV 2-Pandemie verursachten Folgeerscheinungen beeinflusst, wodurch zum Beispiel die Nutzungszeit auf der Plattform Twitch.tv um 83 % gegenüber dem Jahr 2019 gestiegen ist. Durch das immer schneller werdende Leben und die Anforderungen an das Leben selbst haben sich auch die Anforderungen der Kunden und Kundinnen entsprechend verändert. Daraus entstehen neue Geschäftsfelder, Möglichkeiten und Ideen, welche die Unterhaltungs- und Informationslandschaft in eine immer flexiblere und interaktivere Richtung ändern. Aus diesem Grund wurde ein Konzept entwickelt, welches Unterhaltungsplattformen anhand dieser Anforderungen gestaltet.
Selbst für die Hotel Industrie bringt die Digitalisierung viele neue Probleme mit sich, denen sich Hotels stellen müssen. Eines dieser Probleme ist Online-Marketing. Deshalb steht dieser Themenkreis in dieser Masterarbeit im Mittelpunkt der Betrachtung. Welche Schritte im Bezug auf Onlinemarketing sind notwendig, damit ein privater Seminarhotel Betreiber langfristig neue Business Kunden akquirieren kann? Diese Forschungsfrage wird im Rahmen dieser Arbeit zentral behandelt. Alle Grundlagen des Marketings und weitere Grundlagen, um diese Frage beantworten zu können, wird im ersten Teil sorgfältig definiert. Dazu gehören die Definition von Businesshotels, die Digitale Transformation, Marketing, die Alleinstellungsmerkmale oder auch Unique Selling Propositions genannt, die 4Ps des Marketings, die 7Ps des erweiterten Marketings, die Kundenzufriedenheit, die Kommunikationswege, die Kundenbindung, die Personas, die Customer Journey und der Service Blueprint. Im zweiten Teil wird alles, was aus Sicht des Online Marketings für das in dieser Arbeit beschriebene Konzept notwendig ist, abgebildet. Zu diesem Zweck erfolgte eine Gliederung in Social Media, Webseiten, Buchungsportale, Usability / User Experience, Suchmaschinenwerbung, Newsletter Marketing und Signatur Marketing. Im dritten Teil wird das Konzept erstellt und jeder Teil des Konzepts wird detailliert beschrieben. Der vierte Teil befasst sich mit dem Design der Umfrage. Dabei wird einerseits definiert, wer für diese Arbeit als Mitglied der Zielgruppe dient, andererseits werden aber auch der Inhalt, der Bewertungsprozess und die Ergebnisse der Umfrage als auch mögliche Änderungen des Konzepts erörtert. Um dieses Konzept zu validieren, wurde eine Umfrage unter 137 Personen durchgeführt. Die Ergebnisse zeigen, dass ein Konzept für Hotels, wie es in dieser Arbeit erstellt wurde, notwendig ist und dass es kontinuierlich überwacht und verbessert werden muss. Alle Daten aus der Umfrage sind nicht in dieser Arbeit enthalten, sondern separat auf der CD beigefügt.
In dieser Masterarbeit wird die relevante Theorie und ein Konzept zum Thema IT unterstützte Kommunikation in einem privaten Seminarhotel beschrieben. Hierzu werden zu Beginn im ersten Kapitel die Grundlagen des Prozessmanagements erörtert. Dies beinhaltet die Definition der Begriffe Prozess und Prozessmanagement. Des Weiteren wird ein Reifegradmodell in diesem Kontext und die Bedeutung von Effektivität und Effizienz näher erörtert. Abschließend werden in diesem Kapitel noch Fehler im Prozessmanagement und der kontinuierliche Verbesserungsprozess erklärt. Im zweiten Kapitel wird das Thema Dienstleistungsmanagement behandelt. Hierfür wird zuerst der Begriff des Dienstleistungsmanagements näher erörtert. Im Anschluss werden die besonderen Eigenschaften von Dienstleistungen und das Dimensionen Modell betrachtet. Darauffolgend werden in Bezug auf das Dienstleistungsmanagement sogenannte Leistungsbündel und die Wahrnehmung von Dienstleistungen beschrieben. Zum Abschluss des Kapitels werden die Themen Value Proposition Canvas, Personas, Service Blueprint, Customer Journey Map, Usability und User Experience in Bezug auf das Erstellen und Verbessern von Dienstleistungen erklärt. Das dritte Kapitel beschäftigt sich nachfolgend mit den Grundlagen des Marketings und der Digitalisierung. Hierzu wird der Marketing-Mix, die Unique Selling Proposition und das KANO Modell beschrieben. Anschließend folgt die Überleitung zur digitalen Transformation und der IT unterstützten Kommunikation im Hotelbereich. Im vierten Kapitel wird ein Konzept vorgestellt, welches die wichtigsten Voraussetzungen an die IT unterstützte Kommunikation in einem privaten Seminarhotel abdeckt. Nachfolgend wird im fünften Kapitel eine Umfrage durchgeführt, um Rückmeldungen und wertvolle Informationen zum Konzept zu erhalten. Abschließend wird im letzten Kapitel dieser Masterarbeit auf Basis der erhaltenen Informationen das Konzept optimiert. Das Ergebnis der Umfrage zeigt, dass das im Rahmen dieser Arbeit erstelle Konzept eine gute Basis für die Zukunft darstellt.
Das Smart Home hat sich als Anwendungsgebiet innerhalb des IoT große Beliebtheit verschafft. Mithilfe von verschiedenartigen, miteinander vernetzten Geräten werden Komfort und Sicherheit im Wohnbereich gesteigert. Aufgrund der einfachen Bedienung und der Interoperabilität zwischen unterschiedlichen Plattformen ist diese Art von Geräten besonders in Privathaushalten verbreitet. Durch ständige Konnektivität zum Internet bestehen jedoch Risiken hinsichtlich der Informationssicherheit sowie des Schutzes von Daten der BenutzerInnen. Die untersuchte Architektur im Rahmen dieser Arbeit behandelt ein generisches, Cloud-basiertes System. Dieses wird mithilfe des Risikoanalysemodells OCTAVE Allegro und dem Fokus auf kritische Informationsassets systematisch auf Sicherheitsrisiken überprüft. Für eine bessere Übersicht wird das Gesamtsystem in drei Subsysteme aufgeteilt. Ziel der Risikoanalyse ist es, die unterschiedlichen Sicherheitsrisiken, welche mit der Nutzung von Cloud-basierten Smart Home Systemen verbunden sind, aufzuzeigen. Für die Reduzierung von Risiken werden Gegenmaßnahmen sowie ein Katalog über Handlungsempfehlungen für NutzerInnen erarbeitet. Die Ergebnisse zeigen, dass NutzerInnen innerhalb ihres Einflussbereiches gezielt Maßnahmen zur Reduzierung der Risiken setzen können. Besonders beim Betrieb von kritischen Geräten sind eine stabile Energieversorgung und Internetverbindung essenziell. Der restliche Anteil der Sicherheitsrisiken geht bei einem Cloud-basierten System auf die Systemanbieter sowie Service Provider über. Durch die Entwicklung von Systemen innerhalb aktueller Security-Frameworks können Systemanbieter bereits in der Konzeptphase spätere Risiken vermeiden und Security und Privacy by Design Prinzipien einhalten. Für eine nachhaltige Durchsetzung von Smart Home Systemen ist dies ein essenzieller Faktor. Mithilfe neuer Technologien wie Blockchain könnten traditionelle Sicherheitsprobleme im IoT obsolet werden, konkrete Anwendungsfälle dafür befinden sich noch im Forschungsstadium.
Die Digitalisierung schreitet über alle Branchen hinweg kontinuierlich voran. Auch die Tätigkeit der Hypothekarkreditvermittlung ist von diesem Trend nicht ausgenommen. Dennoch wird ein Großteil der Informationen, die für eine Kreditvermittlung notwendig sind, noch handschriftlich erfasst und die erforderlichen Dokumente werden per E-Mail ausgetauscht. Im Zuge dieser Arbeit soll herausgefunden werden, wie der gesamte Prozess der Hypothekarkreditvermittlung sowohl auf Seiten der Kund/innen als auch auf Seiten der Kreditvermittler/innen mit Hilfe eines webbasierten Portals bestmöglich unterstützt werden kann. Das Ziel ist dabei nicht, das persönliche Beratungsgespräch zu ersetzen, sondern die Abwicklung digital zu unterstützen. Ausgehend von der Analyse des Prozesses werden die Anforderungen an die Anwendung festgelegt. Anschließend wird ein Prototyp konzeptioniert und implementiert, der diese Anforderungen bestmöglich erfüllen soll. Der Fokus liegt dabei auf eine möglichst einfache Bedienung und größtmögliche Zeitersparnis für alle Beteiligten. Der Prototyp ermöglicht, sämtliche Daten, die im Zuge einer Hypothekarkreditvermittlung erforderlich sind, direkt im Webportal einzugeben. Alle Dokumente können über die Anwendung hochgeladen oder mittels Kameraaufnahme hinzugefügt werden. Kreditvermittler/innen haben im Portal die Möglichkeit, Anfragen an Banken für Finanzierungsangebote zu stellen. Dadurch entfällt das zeitaufwändige, manuelle Zusammenstellen der Unterlagen. Die von den Banken übermittelten Angebote können den Kund/innen in einem übersichtlichen Vergleich zur Verfügung gestellt werden. Das erhöht die Transparenz und erleichtert die Entscheidung für die bestmögliche Finanzierung. Der Prototyp erfüllt alle gestellten Anforderungen und könnte zukünftig zu einer vollwertigen Plattform ausgebaut werden.
Wissen wird zu einem immer wichtiger werdenden Wettbewerbsfaktor, welcher durch die steigende Globalisierung und Entstehung neuer Absatzmärkte begründet wird. Durch die COVID-19-Pandemie ist es jedoch zu einer nie dagewesenen Umstellung der Arbeitsweise gekommen. Der Anteil der an zu Hause arbeitenden Personen ist gestiegen und es haben sich Kommunikationswege durch die verteilte Arbeitsweise auf digitale Kanäle wie E-Mails oder Chatnachrichten verlagert. Dadurch ist das Sammeln, Speichern und Verteilen von Wissen erschwert worden. Das Ziel dieser Arbeit ist es aufzuzeigen, wie ein Werkzeug für Wissensmanagement in dieser geänderten Arbeitsumgebung Unterstützung bieten kann und dazu beiträgt, die mit Teleworking, verteilten Teams und unabhängiger Arbeitsweise verbundenen Herausforderungen zu bewältigen. Deshalb wurden im ersten Schritt die theoretischen Grundlagen zu Wissensmanagement bzw. der dazugehörigen Werkzeugen sowie die Barrieren zu deren Nutzung erarbeitet. Danach wurde der Arbeitsalltag am Beispiel der Softwareentwicklung analysiert, welche Änderungen aufgrund des gesteigerten Teleworkings entstanden sind und wie Wissensmanagement in dieser Branche eingesetzt werden kann. Anschließend wurde eine vertiefte Analyse von modernen Ansätzen für Wissensmanagementsysteme durchgeführt. Basierend auf den Ergebnissen der theoretischen Untersuchung wurde dann ein Prototyp entwickelt, mit welchem es möglich ist, Wissensartikel und Self-Service-Prozesse für Mitarbeiterinnen und Mitarbeiter bereitzustellen. Die Kernfunktionalitäten für die Umsetzung der modernen Ansätze umfassen die folgenden Bereiche: - proaktive Wissensbereitstellung - kontextbasierte Wissenserfassung - Ausführung von Self-Service-Prozessen Letztlich wurde der Prototyp an unterschiedlichen Unternehmen getestet und Feedback hinsichtlich der modernen Ansätze gesammelt und evaluiert. Das finale Kapitel dieser Arbeit zeigt, dass sowohl die proaktive Wissensbereitstellung als auch die Ausführung von Self-Service-Prozessen von den Unternehmen erwünscht wird.
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Lagerleitstände sind mit einer Vielzahl an technischen und organisatorischen Herausforderungen konfrontiert. Sich ändernde Umstände im Lagerlogistikumfeld sowie geänderte Konsumentenanforderungen erfordern zudem, dass sich Informationssysteme daran anpassen. Die vorliegende Arbeit befasst sich hier insbesondere damit, wie künstliche Intelligenz den Lagerleitstand in seinen Aufgaben unterstützen kann. Um diese Frage zu beantworten, wird die aktuell vorhandene Literatur in drei Aspekten beleuchtet. Zum einen werden die Aufgaben, die Lagerleitstand zukommen analysiert. Anschließend wird erfasst, mit welchen Informationssystemen dieser in Kontakt ist. Zuletzt wird beschrieben, wie intelligente Systeme implementiert werden können. Um die aus der Literatur aufgestellten Hypothesen zu überprüfen, erfolgte ein zweistufiger Prozess zur Überprüfung dieser. Hierbei wurde eine Befragung von Lagerlogistiksoftware Experten durchgeführt und diese wurde qualitativ ausgewertet. Die Ergebnisse dieser Befragung wurden in einer Kundenumfrage weiter validiert. Diese Kundenumfrage wurde quantitativ ausgewertet. Die Ergebnisse der Arbeit zeigen, dass in unterschiedlichen Teilbereichen zusätzliche intelligente Funktionalitäten benötigt werden. Künstliche Intelligenz ist hierbei lediglich die Möglichkeit, diese Anforderungen umzusetzen und wird nicht gesondert von Kunden nachgefragt. Vor allem in Warehouse-Management-Systemen sind bisher wenig konkrete Anwendungsfälle implementiert worden. Neben intelligenter Lagerung von Waren, die berücksichtigt, welche Produkte häufig gemeinsam ausgeliefert werden, identifizierten die Befragten vor allem auch die Notwendigkeit von Prozessoptimierung. Diese umfasst Ressourcenoptimierung sowie das Erkennen von optimalen Zeitpunkten für bestimmte Lageroperationen. Zudem ist eine vorrauschauende Fehlererkennung in unterschiedlichen Lagerteilbereichen für Lagerleitstände ein besonders relevanter Anwendungsfall. Dieser eignet sich aufgrund der Datenbeschaffenheit und der Komplexität des Problems für eine Implementierung mithilfe von künstlicher Intelligenz.
Teambuilding
(2021)
Die Covid-19-Krise hat viele Unternehmen dazu verleitet, Home-Office-Regelungen in der ein oder anderen Form beizubehalten. Auch wenn dies gewisse Vorteile mit sich bringt, sollten die Nachteile nicht außer Acht gelassen werden. Ziel dieser Studie war die Untersuchung, wie die negativen Faktoren der Heimarbeit durch Teambuilding-Maßnahmen im Rahmen von Softwareentwicklungsunternehmen abgemildert werden können. Ausgehend von bestehender Literatur wurde eine Gruppe von Expertinnen und Experten, zusammengesetzt aus 3 coachenden Personen, 3 Führungskräften, einem Scrum-Master und einer Fachkraft, gebeten, ihre Erkenntnisse und Erfahrungen zu diesem Thema zu teilen. Anschließend wurde eine qualitative Inhaltsanalyse nach Mayring durchgeführt, um die Erkenntnisse zur Erstellung eines Best-Practice-Leitfadens für die Durchführung von Home-Office in Unternehmen zu verwenden. Die Ergebnisse zeigen, dass eine offene und regelmäßige Kommunikation über fachliche und private Themen notwendig ist, um einen stetigen Informationsfluss zu gewährleisten. Darüber hinaus muss ein respektvolles und integratives Umfeld geschaffen werden, um Ausgrenzung zu verhindern, insbesondere bei einer Mischung von Mitarbeitenden, von denen einige zu Hause und andere im Büro sind. Es besteht ein allgemeiner Konsens darüber, dass die notwendigen Schritte in erster Linie von den Führungskräften unternommen werden müssen. Die Ergebnisse deuten darauf hin, dass die Förderung respektvoller und integrativer Praktiken der Zusammenarbeit im Allgemeinen wirksamer zu sein scheint als die Durchführung einzelner Teambuilding-Aktivitäten. Zusammenfassend kann das Ergebnis dieser Arbeit als Leitfaden für Unternehmen dienen, die mit dem Trend zur vermehrten Heimarbeit Schritt halten wollen. Darüber hinaus sollten weitere Untersuchungen angestellt werden, welche modernen Tools und Programme die Arbeit von zu Hause aus am besten unterstützen.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
„Verteilte Zusammenarbeit so gestalten, dass sie an das Gefühl der Zusammenarbeit an einem Ort herankommt“, sagte Dr. Vincent Tietz, Senior Consultant bei der Saxonia Systems AG, im Jahr 2016. In der heutigen Zeit, in der hohe Internetgeschwindigkeiten und hohe Bandbreiten als gang und gäbe betrachtet werden, entstehen neue Möglichkeiten der Arbeitsformen. In Zeiten der Coronakrise wurde dieser Trend noch mehr verstärkt und viele Unternehmen weltweit setzten auf den Denkansatz „Homeoffice“. Doch welche Herausforderungen birgt diese neue Form des Arbeitens und bietet sie nur Vorteile? Wie können wir speziell in der IT-Branche verteilte Softwareentwicklungsteams optimal steuern oder eine derartige Konstellation generell einführen? Sind Projektabwicklungen hinsichtlich solcher Umstände erfolgreich realisierbar und welche Vorrausetzungen sind hierfür unverzichtbar? Das Ziel dieser Masterarbeit war das Ermitteln und Modellieren von Prozessen, die einen wesentlichen Beitrag zur Steuerung sowie Einführung einer verteilten Softwareentwicklung leisten. Das Prozessmodell umfasst dabei nicht nur die Projektabwicklung selbst, sondern auch die vorgelagerten und nachgelagerten Arbeitsabläufe. Als praktische Grundlage dient hierbei die Guid.New GmbH, ein österreichischer Individualsoftwaredienstleister mit Sitz in Graz, welcher schon vor der Pandemie auf die „Remote“-Methode setzte. Samt der wissenschaftlichen Literaturrecherche und der praktischen Validierung des entstandenen Prozessmodells durch ExpertInnen, dient das Resultat als Vorlage für Unternehmen in der Individualsoftwarebranche. Als ExpertInnen wurden die Geschäftsführung, Gesellschafter sowie MitarbeiterInnen der Guid.New GmbH herangezogen – infolgedessen enthält das Ergebnis Praxisbezogenheit, Wiederverwendbarkeit und schafft neuen Mehrwert.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Business Intelligence und Analytics (BI&A) Systeme umfassen eine Vielzahl an Techniken, um Daten für eine faktengestützte Entscheidungsfindung in Unternehmen aufzubereiten und Informationen grafisch darzustellen. Das Ziel dieser Arbeit ist es herauszufinden, inwiefern BI&A Systeme von Klein- und Kleinstunternehmen sowie Ein-Personen-Unternehmen in Österreich eingesetzt werden und welche Faktoren einen Einsatz beeinflussen. Die Literaturrecherche umfasst Eigenschaften von BI&A, analysiert Chancen und Herausforderungen für kleine Unternehmen und stellt das empirische Forschungsmodell vor. Das Forschungsmodell kategorisiert Unternehmen in eine von drei Einführungsstufen und analysiert die Zusammenhänge von sieben Faktoren mit den Einführungsstufen. Insgesamt nahmen 94 Unternehmen an der Onlineumfrage teil. Die Datenanalyse umfasst eine Analyse des Einführungsstandes und der Einflussfaktoren sowie die Auswertung der Hypothesen mittels der Rangkorrelation nach Spearman. Sechs Hypothesen konnten verifiziert und eine musste verworfen werden. Der Einführungsstand von BI&A Systemen in kleinen österreichischen Unternehmen kann als niedrig angesehen werden. Die höchsten signifikanten Zusammenhänge mit dem Stand der Einführung bestehen mit den Faktoren wahrgenommener Wettbewerbsvorteil (rs=0,58**), interne Readiness (rs=0,55**) und der Unterstützung für BI&A durch das Management (rs=0,51**). Eine hohe Bewertung der Datenqualität in den Unternehmen und eine positive Tendenz, zahlenbasierte Entscheidungen zu treffen, können als Chancen für zukünftige BI&A Projekte gesehen werden. Die größten Herausforderungen für eine Einführung von BI&A in kleinen Unternehmen sind fehlende Ressourcen und ein fehlendes Verständnis für BI&A. Unternehmen, welche BI&A bereits verwenden, bewerten den relativen Vorteil und die Kostenersparnis durch BI&A auch für kleine Unternehmen positiv. Weiterführende Forschungen können das Forschungsmodell auf weitere Zielgruppen und Branchen anwenden und somit den Stand der Einführung und dessen Einflussfaktoren vergleichen.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
Durch die Liberalisierung des Energiemarktes in Österreich wurde es möglich, dass KundInnen den Energielieferanten frei wählen können. Dadurch ist der Wettbewerb zwischen den Energielieferanten stark gestiegen. Um Kundenabwanderung zu verhindern wird versucht die Kundenbindung zu stärken und besser auf die Bedürfnisse von KundInnen einzugehen. Eine Methode dies zu erreichen sind Communities. Die Motivation hinter dieser Arbeit ist zu zeigen, wie die Kundenbindung mit Hilfe einer Community gestärkt beziehungweise vertieft werden kann. Der Austausch zwischen EnergiekundInnen und Energielieferanten beziehungsweise mit geschultem Fachpersonal wird dadurch ermöglicht. Weiters kann eine Community beispielsweise zur Produktverbesserung oder für Co-Creation Zwecke genutzt werden. Das Ziel der vorliegenden Arbeit ist es, die Einflussfaktoren, die eine wichtige Rolle bei der Einführung einer Community spielen, heraus zu arbeiten und zu untersuchen. Dies wird mithilfe von Literaturrecherche und empirischer Forschung bewerkstelligt. Zuvor werden basierend auf den theoretischen Kenntnissen Hypothesen erstellt, welche mithilfe einer qualitativen Befragung geprüft werden. Anhand von leitfadengestützen Interviews und den Ergebnissen aus der Literaturrecherche, werden Einflussfaktoren aufgenommen oder verworfen. Daraus wird ein Leitfaden erstellt, welcher bei der Einführung einer Community herangezogen werden kann. Dieser Leitfaden hebt jene Kernelemente hervor, welche bei einer Gemeinschaftsgenerierung zu beachten sind. Damit soll mit hoher Wahrscheinlichkeit sicher gestellt werden, dass die Erstellung einer Community zum Erfolg führt.
Das Darknet, von vielen auch als das „böse Internet“ bezeichnet, bringt aufgrund seiner mysteriösen Natur viele Fragen mit sich. Es handelt sich um einen Teil des Deep Webs mit der besonderen Eigenschaft, dass Links im Darknet von keiner Search Engine indiziert werden können. Dieses Netzwerk besitzt jedoch weitere interessante Eigenschaften. Der Grad an Anonymität, welcher Darknet-Nutzern ermöglicht wird, ist im Laufe der Zeit charakteristisch für das Darknet geworden und damit auch zu seinem größten Vorteil geworden. Die Chancen, welche mit dem hohen Anonymisierungsgrad verknüpft sind, bringen ein breites Spektrum an Handlungsmöglichkeiten mit sich. Der Handel besitzt eine dominante Rolle im Darknet. Nicht nur diverse Drogen, sondern auch Fälschungen von persönlichen Dokumenten, schädliche Malware oder Hacking-Anleitungen sowie Schusswaffen können im Darknet problemlos erworben werden. Auch Rohdaten in unterschiedlichster Ausprägung spielen eine wichtige Rolle in diesem Netzwerk. So werden zahlreiche Whistleblowing-Seiten zum Vertrieb von Informationen verwendet oder auch weitere Kanäle, wie zum Beispiel Foren. Darknet-Nutzer können solche Daten konsumieren ohne Angst vor Zensur zu haben, da diese im Darknet keine Anwendung findet. So wie das Darknet ursprünglich für die sichere Kommunikation des amerikanischen Militärs entwickelt wurde, wird es heutzutage - nicht mehr auf das Militär eingeschränkt - zum gleichen Zweck eingesetzt. Hierbei wird eine Vielfalt an attraktiven Kommunikationskanälen angeboten, welche die uneingeschränkte Konversation erst möglich machen. Solche Grenzenlosigkeit kann jedoch sehr schnell zu starken Änderungen in der Verhaltensweise beider Gesprächspartner führen. Versteckt hinter dem Gefühl unbeschränkter Anonymität können im Darknet die persönlichen Grenzen aufgebrochen werden und das Verhalten der Anwender dieses Netzwerks ändert sich. Nichtsdestotrotz bringen die Kontaktaufnahme und das Kennenlernen anderer Nutzer zahlreiche interessante Erfahrungen mit sich, der Aufenthalt im Darknet stellt ein attraktives, überwältigendes Erlebnis dar.
PIDAS Aktiengesellschaft (PIDAS AG) verwendet seit über zwei Jahren Robotergesteuerte Prozessautomatisierung (RPA) um die Produktivität ihrer Mitarbeiter zu steigern. Diese Arbeit ermittelt mit Hilfe einer Umfrage unter den Mitarbeitern der PIDAS AG die Akzeptanz von RPA. Die Umfrage basiert auf dem Technology Acceptance Model, welches der Autor um zwei zusätzliche Variablen erweitert hat. Diese beiden Variablen messen die Jobangst und das Bewusstsein in Bezug auf die Verwendung von RPA. Die Analyse der Umfrage bestätigt die Hypothese, dass erhöhte Jobangst zu einem geringeren Nutzungswillen führt. Die Daten bestätigen auch, dass vermehrte Nutzung von RPA die Bereitschaft zur Nutzung erhöht. Zudem zeigen die Daten, dass die Befragten eine umso höhere Meinung von RPA haben, je bewusster sie es nutzen. Obwohl die Akzeptanz der Mitarbeiter der PIDAS AG sich auf einem hohen Niveau bewegt, ließe sich diese noch weiter durch entsprechende Maßnahmen der Entwicklung und des Managements steigern.
Service Transformation und die Digitale Transformation sind Schlagwörter, die Unternehmen aktuell beschäftigen. Dabei handelt es sich um Veränderungen in und um die Unternehmen selbst. Diese Trends sind jedoch mit Komplexität behaftet. Reifegradmodelle werden häufig zur Messung von komplexen Themen herangezogen. Daher finden diese auch für die aktuellen Trends der Digitalen Transformation und der Service Transformation Anwendung. Hierbei erfassen Unternehmen deren Reifegrad innerhalb eines Trends. Dies erfolgt mithilfe von Reifegradfaktoren und Reifegradkriterien, die auf unterschiedliche Weise ermittelt werden. Auch wenn beide Trends Ähnlichkeiten aufweisen und teils auch auf Themen des jeweils anderen Trends verweisen, stellt sich dennoch die Frage zur konzeptuellen Gemeinsamkeit beider Trends. Das Ziel dieser Masterarbeit ist es daher, die Forschungsfrage zu den konzeptuellen Gemeinsamkeiten der Faktoren zur Messung der Digitalen Transformation und der Service Transformation in Unternehmen zu beantworten. Dazu wird ein Untersuchungsdesign erarbeitet, mit welchem diese konzeptuellen Gemeinsamkeiten der Faktoren dann analysiert werden können. Dies erfolgt anhand eines Literatur-Reviews als Methode, der den systematischen Prozess zur Auswahl auf eine definierte Stichprobe abgrenzt. Zu dieser Stichprobe erfolgt eine inhaltsanalytische Auswertung, um die konzeptuellen Gemeinsamkeiten der Faktoren zu identifizieren. Es werden systematisch Kriterien erarbeitet und daraus fünf Dimensionen als Faktoren gebildet. Aus dieser Analyse lässt sich interpretieren, dass es eine Überschneidung zwischen den Reifegradmodellen der Digitalen Transformation und der Service Transformation gibt. Diese Überschneidung betrifft die Faktoren zum Ökosystem, Produkt und Service, Management und Führung, und Organisationskultur. Mit dem Ergebnis des Literatur-Reviews ergeben sich weitere Potenziale für Forschungen. Einerseits können die Ergebnisse dieser Masterarbeit durch weitere Detailbetrachtungen erweitert und angepasst werden. Andererseits können basierend auf dieser Masterarbeit weitere Themen zu den Gemeinsamkeiten der Digitalen Transformation und der Service Transformation erarbeitet werden.
Moderne Frameworks für die Entwicklung von Anwendungen auf mobilen Plattformen entwickeln sich ständig weiter, um den sich ständig ändernden Anforderungen der Welt der Softwareentwicklung gerecht zu werden. Seit 2018 entwickelt Google das Flutter-Framework, das für die Entwicklung mobiler Anwendungen auf den Plattformen Android und iOS eingesetzt wird. Da es sich bei Flutter um das neueste Framework handelt, das eine native Anwendungsleistung verspricht, ist es wichtig, ein besseres Verständnis für die Performance der Technologie zu erhalten und zu erfahren, wie sie sich mit anderen verfügbaren Plattformen messen kann. Aus diesem Grund analysiert diese Arbeit Flutter und vergleicht das Framework mit nativen und anderen plattformübergreifenden Technologien. Prototypen mit den gleichen Funktionalitäten wurden mit Flutter und anderen Plattformen (z. B. Android, iOS, React Native) erstellt und dann getestet, um ihre Leistungsniveaus zu vergleichen. Die Ergebnisse zeigen, dass Flutter in einigen Aspekten (z. B. CPU-Nutzung) eine native Performance erreichen kann, in anderen Aspekten (z. B. Speichernutzung) jedoch schlechter abschneidet als andere Frameworks. Insgesamt zeigt die Forschung, dass Flutter ein sehr vielversprechendes Framework für die plattformübergreifende Entwicklung ist. Zukünftige Arbeiten können auf diese Arbeit aufbauen, um mit verschiedenen Anwendungsfällen zu experimentieren und einen tieferen Einblick in die Leistungsfähigkeit des Frameworks zu erhalten.
Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.
Die steigende Komplexität von Geschäftsprozessen und IT-Services führt auch zu steigender Relevanz des Prozessmanagements. Die Verbesserung der Prozesse von einem IST-Zustand zu einem SOLL-Zustand, angepasst an die Bedürfnisse der Stakeholder und basierend auf aktuellen Standards, Best-Practices (z.B. ITIL) zu gestalten, stellt für viele Organisationen eine Herausforderung dar. Die Bewältigung dieser Herausforderung stellt den Hauptfokus dieser Arbeit dar. Dabei werden Ansätze zur Verbesserung zuerst theoretisch dargestellt und anschließend praktisch durchgeführt. Die Methoden bzw. Ansätze, welche auf Literaturrecherche basieren, werden aufgelistet und nach der Verifizierung im praktischen Teil der Arbeit in einem Grazer Software-Unternehmen am Incident- und Managementprozess exemplarisch angewandt. Die so erarbeiteten Ansätze sollen als Leitfaden beziehungsweise als Modell für die ganzheitliche Verbesserung von Prozessen in diesem Unternehmen dienen. Das entwickelte Modell soll als Best-Practice zur Verbesserung der Prozesse dienen und somit in das Prozessmanagement aktiv eingebaut werden.
Analyse und Bewertung von State-Management Varianten in modernen Cross-Plattform Technologien
(2020)
Plattformübergreifende Technologien entwickeln sich ständig weiter und bieten einen kostengünstigen und zeiteffizienten Ansatz zur Entwicklung von Anwendungen auf mehreren Plattformen. Die Frage nach dem richtigen State-Management Ansatz muss dabei zu Beginn eines jeden Projekts beantwortet werden, was eine Herausforderung sein kann mit einer Vielzahl an mögliche Lösungen. Das Ziel dieser Arbeit war daher die Untersuchung von State-Management Ansätzen am Beispiel von Flutter und deren Bewertung auf der Grundlage von festgelegten Kriterien. In dieser Arbeit werden zunächst plattformübergreifende Technologien untersucht, mit Schwerpunkt auf Flutter. Danach werden gängige Ansätze von State-Management und die Theorie hinter Code Qualität Metriken analysiert. Basierend auf den gesammelten Informationen und den daraus resultierenden wirtschaftlichen und technologischen Entscheidungsgründen wurden Bewertungskriterien erstellt. Vier State-Management Ansätze wurden umgesetzt und entsprechend der Kriterien bewertet. Der Vergleich zeigt, dass BLoC die beste Lösung für Großanwendungen mit erfahrenen Entwicklern zu sein scheint. Für kleinere Projekte oder unerfahrene Entwickler bietet sich der Einsatz von Provider an.
Das Ziel dieser Masterarbeit ist die Analyse der IT-Sicherheit von kritischen Infrastrukturen. Es soll gezeigt werden, ob eine Absicherung kritischer Infrastrukturen mit Hilfe von Methoden aus der IT-Sicherheit möglich ist und welche Auswirkung eine Vernetzung der einzelnen Systeme hat. Nicht behandelt werden Absicherungen für Cloud und mobile Geräte. In den vergangenen Jahren hat die Vernetzung der kritischen Infrastrukturen stark zugenommen und die Angriffe auf diese sind deutlich gestiegen. Aufgrund dessen werden in dieser Masterarbeit zunächst vergangene Angriffe beschrieben und analysiert. Großen Wert wird hierbei auf die NIS-Richtlinie gelegt, die als EU-Richtlinie wichtige Punkte für ganz Europa vorgibt. Aus den gewonnenen Erkenntnissen werden anschließend technische IT-Maßnahmen abgeleitet wie kritische Infrastrukturen in Zukunft besser geschützt werden können. Folgend werden die einzelnen Maßnahmen auch technisch in einer extra dafür aufgesetzten Testumgebung umgesetzt und im Detail beschrieben. Unter anderem wird gezeigt, wie wichtig es ist eine Verschlüsselung einzusetzen und dass es nicht ausreichend ist, die Zugänge nur mit einem starken Passwort abzusichern, sondern auch ein zweiter Faktor eingesetzt werden sollte. Durch Umsetzung der Sicherheitsmaßnahmen, zusätzlich zu den normalen IT-Schutzvorkehrungen, kann die IT-Sicherheit erhöht werden. Ein kompletter Schutz vor Angriffen ist jedoch nicht möglich, da durch die Vernetzung der Systeme immer ein Angriffsvektor entsteht, der ausgenutzt werden kann. In Zukunft könnten kritische Infrastrukturen besser abgesichert werden, wenn die aufgezeigten Sicherheitsmaßnahmen umgesetzt werden.
Seit Anbeginn der Tertiärisierung haben sich nicht nur die Gesellschaft und die Technologie verändert, sondern auch die Erwartungshaltung der Menschen an ihre Dienstleistungserbringer. Dieses Verlangen nach ausgezeichnetem Service und Angebot wird durch das Vordringen von amerikanischen Konzernen in unsere Breitengrade zusätzlich verstärkt. Der digitale Wandel und neue, disruptive Ansätze, sind notwendig, um Betriebe auf Vordermann zu bringen und bereit für die Herausforderungen der Zukunft zu machen. Dieser Ansatz ist nicht nur in der allgemeinen Geschäftswelt zu verfolgen, sondern auch in der Medizin und den damit verbundenen Arztpraxen und Apotheken. In dieser Masterarbeit werden Möglichkeiten erhoben, wie man durch den Einsatz von Chatbots die Kundenzufriedenheit der Apothekenkunden steigern kann. Damit sind nicht nur direkt ableitbare und auf der Hand liegende Möglichkeiten gemeint, sondern auch prozessoptimierende Maßnahmen, welche darauf abzielen die Effektivität und Effizienz innerhalb der Apotheke zu steigern. Um die Forschungsfrage zu beantworten wurde auf zwei Methoden zurückgegriffen. Diese umfassen Literaturrecherchen zu den Themen Kundenzufriedenheit, Chatbots, Big Data, Machine Learning, Natural Language Processing, Natural Language Understanding und gängiges EU, sowie österreichisches Recht. Darüber hinaus Fachartikel zu diesen Themen und abschließend einer Umfrage, welche darauf abzielt, die Erfahrungen, Wünsche und Vorstellungen der breiten Masse, im Umgang mit Chatbots und Apotheken, zu erfragen. Bei der Umfrage sowohl auf Personen eingegangen, die bereits Erfahrungen mit Chatbots hatten, aber auch die Wünsche von Personen abgefragt, die noch keinen Kontakt mit diesen hatten. Die Antworten auf die Fragestellung lassen auf eine generelle Akzeptanz der Allgemeinheit schließen und legen nahe, dass ein Einsatz von Chatbots dazu führen würde die Zufriedenheit der Kunden zu steigern.
Aufgrund der Covid-19-Krise im Jahr 2020 mussten erstmals praktisch alle steirischen Landesbediensteten von zu Hause aus arbeiten. Dieses Werk konzentriert sich auf das Home Office im öffentlichen Dienst und geht auf folgende Forschungsfrage ein: „Wie kann das Führen von Mitarbeitern und Mitarbeiterinnen im öffentlichen Dienst während der Remotetätigkeit effektiv und effizient gestaltet werden?“ Zur Beantwortung dieser Frage wurde eine tiefgehende Literaturrecherche durchgeführt und auf Basis der Forschungsergebnisse ein Interviewleitfaden erstellt. Anschließend wurden Interviews mit acht Führungskräften aus der IT-Abteilung der Steiermärkischen Landesregierung geführt, die entweder mit Softwareentwicklung oder organisatorischen Aufgaben befasst sind. Die Interviewergebnisse brachten wichtige Erkenntnisse zur Führung in Telearbeitssituationen zutage. Diese Erkenntnisse werden in sieben Kategorien (z.B. Kommunikation, Flexibilität) eingeteilt, wobei auch Tipps und Empfehlungen für das tägliche Handeln der Führungskräfte gegeben werden. Aufgrund der speziellen Zielgruppe ist die Anwendbarkeit der vorliegenden Ergebnisse möglicherweise auf diesen besonderen Rahmen beschränkt. Die Ergebnisse bilden jedoch eine Grundlage für zukünftige Studien, um ihre Anwendung in anderen Sektoren und Telearbeitssituationen zu untersuchen. In der Zwischenzeit legen die Ergebnisse nahe, dass die Vor- und Nachteile sowie die Erkenntnisse möglichst vielen Führungskräften vermittelt werden sollten (z.B. durch Workshops, Webinare oder Newsletter).
Zu Beginn eines Softwareprojekts stellt sich fast immer die Frage, welche Technologien dafür eingesetzt werden. Die Entscheidung über die Auswahl der Frameworks wird dabei oft nach Präferenz oder vorhandener Erfahrung der Entwickler*innen getroffen. Gerade bei wichtigen oder großen Projekten sollte die Auswahl der Frameworks rational anhand der gegebenen Projektanforderungen getroffen werden. Ziel dieser Masterarbeit ist es, zu bestimmen, ob die Auswahl der Frameworks durch ein systematisches Entscheidungsmodell unterstützt werden kann. Aus diesem Ziel wurde folgende Forschungsfrage gestellt: Kann mithilfe eines systematischen Entscheidungsmodells die Auswahl eines geeigneten Single-Page-Application-Frameworks im Bereich Web-Frontendentwicklung getroffen werden? Die Forschungsfrage wird dabei primär durch Literaturrecherche zur Entscheidungstheorie untersucht. Ferner wird anhand der Recherche ein Entscheidungsmodell entwickelt. Um die Forschungsfrage zu beantworten, wurden Single-Page-Application- (SPA)Frameworks recherchiert, gefiltert und anhand eines Kriterienkataloges bewertet, um sukzessive ein Entscheidungsmodell zu erarbeiten. Das entstandene Modell bietet die Möglichkeit, SPA-Frameworks anhand ihrer Eignung für individuelle an das Modell übergebene Projektanforderungen zu sortieren und ungeeignete Frameworks auszuscheiden. Die Bewertung der Frameworks erfolgte dabei mittels einer Bestandsaufnahme messbarer Fakten sowie durch den Vergleich der Frameworks anhand eines erstellten Prototyps bei nicht messbaren Kriterien. Für die Validierung des erstellten Modells wurde unter Personen aus der Softwareentwicklungsbranche eine Umfrage durchgeführt, bei der die Teilnehmer*innen die Frameworks bewerten konnten. Anschließend wurde mit der Bewertung der Umfrageergebnisse ein neues Modell erstellt und dieses anhand fiktiver Projektanforderungen mit dem ursprünglich erstellten Modell verglichen. Dabei wurde dasselbe Ergebnis erzielt und somit das Modell validiert. Die vorliegenden Ergebnisse zeigen, dass ein Entscheidungsmodell die Auswahl eines Frameworks ermöglicht oder als Entscheidungsgrundlage dienen kann. Voraussetzung dafür ist die objektive Bewertung der Frameworks sowie der individuellen Projektanforderungen.
Werbung wird seit je her genutzt, um neue potenzielle Kundschaft zu erreichen, aber auch um existierende Kundschaft zu binden. Die Privatwirtschaft hat viele Möglichkeiten Werbung zu gestalten und zu nutzen. Die Möglichkeiten einer Apotheke in Österreich sind aber stark durch das Gesetz reguliert, denn das Ziel einer Apotheke ist primär nicht der Profit, sondern die kontinuierliche Versorgung der Bevölkerung mit Medikamenten. Deshalb soll zwischen einzelnen Apotheken kein Konkurrenzkampf um dieselbe Kundschaft herrschen. Daraus resultiert, dass die meisten Apotheken nur minimalen Gewinn erwirtschaften können. Um dieser Situation gegenzusteuern können Apotheken die gesetzlich graue Zone des Internets nutzen, um Teile des Geschäfts zu bewerben. Durch Applikationen kann aber nicht nur neue Kundschaft geworben werden, sondern vor allem auf Bindung der bestehenden Kundschaft hingearbeitet werden, um langfristig erfolgreich zu sein. Diese Arbeit erläutert und konzipiert besagte Werbemöglichkeiten einer Applikation anhand des Beispiels der Apotheke Kalsdorf. Dazu werden zunächst die theoretischen Hintergründe für erfolgreiches Schaffen von KundInnenbindung in Verbindung mit typischem Verhalten von Konsumenten und Konsumentinnen im Internet betrachtet. Anschließend wird auf dieser Grundlage ein belastbares Konzept für eine Applikation entwickelt. Um diesem Gewicht zu verleihen wurde eine Umfrage durchgeführt, deren Ergebnisse das Konzept überprüfen und neue Erkenntnisse in das Konzept integrieren. Dieses Konzept wird aber lediglich aus Sicht des Nutzens für die Kundschaft erstellt und übernimmt deshalb auch nur begrenzte Rücksicht auf die finanziellen, technischen sowie ressourcentechnischen Anforderungen an die Apotheke selbst. Das Konzept dient demnach bei einer tatsächlichen Entwicklung einer Applikation für die Apotheke als Vorlage und ermöglicht somit einen Fokus auf die übrigen Rahmenbedingung sowie die Entwicklung selbst, sodass beispielsweise ein IT-Unternehmen bzw. eine Freelancing-Person beauftragt werden kann und diese mit einem validieren Konzept direkt zu arbeiten beginnen kann.
Hochschulen vermitteln als leistungsfähige Organisationen Bekanntes, erforschen neues Wissen und bilden Spezialisten und Führungskräfte der Zukunft aus. Die Abläufe sind dokumentiert und eingespielt, sowie Anpassungen der Struktur und Lehrinhalte sind durch ein Akkreditierungsverfahren validiert. Vorgänge in der Lehre kurzfristig zu ändern, bedarf konkreten Vorbereitungen. Eine Schließung des gesamten Hochschulbetriebs aufgrund einer Pandemie, wie es in Österreich im Sommersemester 2020 vorkam, stellte die Präsenzlehre mit sofortiger Wirkung ein. Um die Wissensvermittlung weiterführen zu können musste die Fernlehre als schnellstmögliche Alternative eingeführt bzw. ausgeweitet werden. Um den Herausforderungen eines plötzlichen Wandels im Hochschulbetrieb nachhaltig gerecht zu werden und den Studierenden eine vollständige Weiterführung der Aus- und Weiterbildung zu gewährleisten, bedarf es eines generischen Transformationsprozesses. Dieser dient primär den Hochschulen und den Studierenden, aber sekundär auch der österreichischen Wirtschaft, da eine lückenlose Sicherstellung zukünftiger Fach- und Führungskräfte für die Wirtschaft gewährleistet werden kann. Die Basis des in der Arbeit „Hochschullehre in Zeiten einer Pandemie“ entwickelten Prozesses bilden die Ergebnisse einer österreichweiten empirischen Analyse, welche durch eine digitale Umfrage realisiert wurde. Durch Auswertung der Kombination von Antworten konnten Richtungstendenzen erkannt werden. Als Ergebnis wurden Herausforderungen, Probleme und Verbesserungsbedarf in Verbindung mit den betroffenen hochschulischen Institutionen, deren eingesetzten Prozessen und der Semesteranzahl von Lehrtätigkeiten identifiziert. Für das Design des hochschulischen Transformationsprozesses wurde der Grazer Ansatz, eine modulare Modellierungsplattform, genutzt. Der entstandene Prozess bietet vorrangig Hochschulen den Mehrwert, den lückenlosen Lehrbetrieb und damit die Aus- und Weiterbildung der Studierenden zu gewährleisten. Zusätzlich stellt dieser designte Prozess sicher, dass der österreichischen Wirtschaft zukünftige Fach- und Führungskräfte zur Verfügung stehen.
Der permanent wachsende Online-Markt steigert die Nachfrage erschwinglicher Webshop-Systeme, damit Webshops nicht nur dem Online-Auftritt von Großunternehmen vorbehalten bleiben, sondern auch im breiten Markt der KMU Einzug finden. Gleichzeitig haben sich mit dem Aufstieg von Cloud-Plattformen und dem häufig damit verbundenen „Pay-per-Use“-Prinzip ganz neue Anforderungen an die Effizienz der Ressourcennutzung von Software-Systemen ergeben. Zentrales Ziel dabei ist die Einsparung von Kosten bei gleichzeitiger Erhaltung der Performanz. Die Systemeigenschaft Elastizität ermöglicht es, diesen speziellen Anforderungen gerecht zu werden. Für die Umsetzung von Elastizität in einem mandantenfähigen Webshop-System bietet sich die Bereitstellung in der Cloud in Verbindung mit Container-Technologien und der Verwendung eines geeigneten Cluster-Management-Systems an. Mit diesem Hintergrund ist das Ziel der vorliegenden Arbeit die Messung der Auswirkungen von Elastizität auf Performanz und Kosten in einem mandantenfähigen, containerbasierten Webshop-System. Um diese Messung durchzuführen, werden zunächst die Rahmenbedingungen abgesteckt sowie die zugehörigen Metriken und Messmethoden vorgestellt. Anschließend werden zwei unabhängige Testsysteme aufgebaut, wovon sich das eine nur durch seine elastischen Eigenschaften vom anderen unterscheidet. Die beiden Testsysteme werden denselben Auslastungen ausgesetzt, um jeweils die Performanz und Kosten zu ermitteln. Durch den Vergleich der Ergebnisse lässt sich eine deutliche Verbesserung der Performanz durch Elastizität belegen. Allerdings wird trotz der verringerten durchschnittlichen Antwortzeit die maximale Antwortzeit erhöht. In Bezug auf die Kosten wird zwar eine leichte Tendenz zu einer Erhöhung durch Elastizität gemessen, jedoch ist das Ergebnis nicht deutlich genug, um eine positive oder negative Auswirkung eindeutig festzustellen. Jedenfalls lässt sich aus den Ergebnissen ableiten, dass der positive Effekt von Elastizität auf die Performanz größer ist als die Veränderung der Kosten.
In den vergangenen Jahren war die Welt immer wieder geprägt von Veränderungen. Die Corona-Krise im Jahr 2020 stellte die Unternehmen vor große Herausforderungen. Unternehmen produzierten und lagerten plötzlich andere Produkte, weil sich der Bedarf schlagartig verändert hatte. Das eingesetzte Warehouse Management System (WMS) im Lager muss deshalb auch noch lange nach dem Go-Live anpassbar sein, um die Prozesse im Lager weiterhin optimal zu unterstützen. Die seitens des WMS-Anbieters angebotene Dienstleistung, nämlich gemeinsam mit dem Kunden die Anforderungen und Lösungen für diese Veränderungen abzustecken, ist eine Dienstleistung, die den WMS-Anbieter viel Zeit kostet. Der wahrgenommene Wert aus der Sicht des Kunden ist für diese Dienstleistung teilweise noch unerforscht. In diesem Kontext ist es das Ziel dieser Arbeit, zu untersuchen, welche Einflussfaktoren den wahrgenommenen Wert dieser Dienstleistung sowie die Zahlungsbereitschaft für selbige im D-A-CH-Raum beeinflussen. Zwecks Identifizierung der Einflussfaktoren werden unterschiedliche Studien und Forschungen zur Konzeptualisierung der Wertwahrnehmung analysiert. Diese werden in der empirischen Untersuchung mittels eines Onlinefragebogens überprüft. Zusätzlich wird die Zahlungsbereitschaft für ein konkretes Beispiel dieser Dienstleistungen mittels Preisbarometer erfragt. Die Auswertung der erhobenen Daten zeigt, dass für die Befragten von den ausgewählten Einflussfaktoren insbesondere die Qualität der Dienstleistung und der bestehenden Software, emotionale Faktoren sowie das Preis-Leistungsverhältnis eine wesentliche Rolle spielen. Insbesondere jene Einflussfaktoren, die mit dem Dienstleistungspersonal des WMS-Anbieters zusammenhängen, scheinen von Bedeutung zu sein. Zusammenfassend betrachtet liefern die Ergebnisse der vorliegenden Arbeit Hinweise auf jene Faktoren, welche für die Gestaltung der spezifischen Dienstleistung „Angebote für Change Requests“ entscheidend sein können.
Die Situation, welche COVID-19 hervorgerufen hat, drängte viele Organisationen dazu, ihre Arbeitsabläufe so weit als möglich vom ständigen Arbeitsort, auf das Homeoffice mittels Teleworking Arbeitsplätzen zu verlegen. Diese Maßnahme soll helfen, die Ausbreitung der Infektionskrankheit zu verlangsamen und einzudämmen. Jedoch stellt dies den laufenden IT-Betrieb vor große Herausforderungen, wie die Erfüllung der im IT-Service Management definierten Ziele und Kennzahlen. Die Einhaltung geforderter Grenzwerte ist essentiell um einen reibungslosen Ablauf der Geschäftsprozesse gewährleisten und somit die Organisation als Ganzes weiterführen zu können. Auf Basis dieser Situation wird im Rahmen dieser Arbeit die Forschungsfrage „Wie haben sich mit vermehrtem Einsatz von Teleworking Arbeitsplätzen in der Pandemie von COVID-19 die Anforderungen an Monitoring Kennzahlen für IT-Operations verändert?“ behandelt. Beginnend mit der Literaturrecherche werden Themenblöcke rund um IT-Service Management IT-Governance, IT-Performance-Management, IT-Ziele, Key-Performance-Indikatoren, Continual-Service-Improvement und den gängigen IT-Rahmenwerken beschrieben. Darauffolgend werden die Themen Monitoring und den dazugehörigen Teilgebieten Infrastruktur, Cloud Service Modellen, Technologien und Tools sowie Knackpunkte des interdisziplinären Monitorings erörtert. Abschließend für die Literaturrecherche wird eine Situationsanalyse der Pandemie von COVID19 dargelegt und die daraus resultierenden Auswirkungen und korrigierenden Maßnahmen dargelegt. Im fünften Teil der Arbeit werden die Hypothesen auf Basis der erarbeiteten Literatur erläutert. Darauffolgend wird im sechsten Teil auf das Untersuchungsdesign erklärt. Hierzu gehören eine Beschreibung des Vorgehens selbst, die Befragte Untersuchungsgruppe, Kontaktaufnahme, Aufbau des Gesprächsleitfadens, Dokumentation der Durchführung und die Auswertung. Zusammenfassend werden im siebten Kapitel die Ergebnisse erläutert. Die durchgeführten Experteninterviews sind im Anhang enthalten und werden zusätzlich als Audioaufnahme der CD beigelegt.
Customer – Releationship Management Systeme haben in den letzten Jahren eine immer größere Bedeutung für Unternehmen bekommen. Das System wird ins Unternehmen sowie deren Prozesse integriert. Dies kann unter der richtigen Verwundung den Umsatz der Unternehmen steigern und Prozesse optimiert werden. Aktuelle CRM System wie Salesforce bieten die Möglichkeit der Integration einer Artificial Intelligence welche auf Basis der vorhandenen Daten Vorhersagen über Kosten eines Angebots und wie hoch die Wahrscheinlichkeit ist, dass es zu einem Auftrag kommen wird. Diese Informationen sollen dem Sales Mitarbeiter bzw. der Sales Mitarbeiterin bei der Angebotslegung sowie Kalkulation unterstützen. Für den Einsatz von Artificial Intelligence ist das Sammeln von Informationen ein wichtiger Punkt weshalb auch das Thema Big Data aufgearbeitet wird. Im Rahmen dieser Arbeit sollen die Auswirkungen des Einsatzes überprüft werden, im Speziellen wird die Artificial Intelligence mit dem Namen „Einstein“ des Salesforce CRM Systems untersucht. Um dies zu überprüfen wird ein Versuch durchgeführt, welcher zwei CRM Systeme miteinander vergleicht, zu diesem Zweck werden in unterschiedlichen Gruppen Aufgabenstellungen gestellt und die durchgeführt werden sollen. Die Teilnehmer / Teilnehmerinnen werden im Rahmen eines Interviews erfragt inwiefern sich die Systeme unterschieden haben, ob und welche Effekte auf das Vorgehen bei der Durchführung hatte. Auf Basis der Ergebnisse werden Schlussfolgerungen erstellt, ob es Auswirkungen gab und welche diese waren in Bezug auf die Angebotserstellung und dem allgemeinen Vorgehen. Aus der Arbeit wird hervorgehen, dass eine gute Informationsqualität eine Voraussetzung für den Einsatz von Artificial Intelligence ist, welche sich wiederum auf die Vorhersagen bzw. Unterstützung auswirkt. Das erarbeitete Wissen, welches aus dieser Arbeit hervorgeht, bietet eine Grundlage für die Verwendung und Integration einer Artificial Intelligence.
Digitale Plattformen ermöglichen Softwareentwicklungsunternehmen und digitalen Geschäftsmodellen ein schnelles Wachstum. Dies erfordert skalierbare und flexible Softwarelösungen wie White-Label Plattformen die als Software-as-a-Service bereitgestellt werden. Das Ziel dieser Arbeit ist, Software Architekturen für digitale Plattform zu analysieren und wie Plattformen durch die Verwendung von Clouddiensten bereitgestellt werden können. Die Analyse untersucht drei gängige Software Architekturen und vergleicht die Architekturen für unterschiedliche Ausprägungen von digitalen Plattformen. Die Auswertung zeigte, dass eine Serverless-Architektur die beste Möglichkeit für die Bereitstellung einer Plattform ist, die unregelmäßig verwendet wird oder für Plattformen bei denen die Kunden stark reguliert sind und eigene Instanzen benötigen. Eine Microservice Architektur bietet sich für Systeme mit einer hohen Auslastung an oder für Plattformen, die eine große Anzahl an Benutzer benötigen. Zusammenfassend kann gesagt werden, dass Clouddienste Unternehmen eine einfache Möglichkeit bieten um flexible digitale Geschäftsmodelle zu entwickeln, die gegebenenfalls uneingeschränkt skaliert werden können und in kürzester Zeit auf die Bedürfnisse des Marktes angepasst werden können.
Die Wirtschaftsinformatik betrachtet Informationssysteme als komplexe soziotechnische Systeme, in denen Mensch und Informationstechnik zur Erledigung einer Aufgabe zusammenwirken. Jedoch verursacht der Einsatz von Informationstechnik unerwartete Sekundäreffekte im menschlich-sozialen Bereich des Systems, die die wissenschaftliche Literatur bisher kaum behandelt. Aus diesem Grund versucht diese Masterarbeit in diesem Bereich einen Beitrag zu leisten, indem die langfristigen Auswirkungen des Einsatzes von Informationssystemen auf das Fundament des sozialen Subsystems, die Unternehmenskultur, untersucht werden. Zu diesem Zweck wurde eine explorative Einzelfallstudie in einer Organisation des öffentlichen Dienstes, in der in den letzten fünfzehn Jahren die Informationsinfrastruktur laufend erweitert wurde, durchgeführt. Eine solche Organisation wurde gewählt, da der Literatur entsprechend von einer ausgeprägten Unternehmenskultur im öffentlichen Dienst auszugehen ist. Ziel der Studie war es, jene Kulturdimensionen, auf die sich der Einsatz von Informationssystemen auswirkt, zu identifizieren und konkrete Auswirkungen sowie einige relevante moderierende Effekte in diesen Dimensionen zu bestimmen. So wurde als Vorbereitung zur empirischen Untersuchung ein weitreichender theoretischer Bezugsrahmen auf Basis der Systemtheorie, des soziotechnischen Designansatzes sowie wissenschaftlicher Literatur aus der Kultur- und Informationssystemforschung entwickelt. Diesem Bezugsrahmen entsprechend wurden 15 qualitative Experteninterviews mit Führungskräften, einem Personalvertreter und einem IT-Administrator abgehalten, in denen Daten zu 16 verschiedenen Kulturdimensionen erhoben wurde. Diese Daten wurden anschließend mit einer qualitativen Inhaltsanalyse, die durch den Einsatz einer Analysesoftware unterstützt wurde, ausgewertet. Die Ergebnisse zeigen, dass sich der Einsatz von Informationssystemen vor allem in den Kulturdimensionen Kommunikation, Qualifikationsanforderungen an die Mitarbeiter, Einbindung der Mitarbeiter, Umgang mit Zeit und Kontrolle auswirkt. Beispielsweise hat die Veränderung im Kommunikationsverhalten zu einem Verlust von impliziter sozialer Hintergrundinformation bei den Führungskräften geführt, was wiederum deren Führungsarbeit erheblich beeinträchtigt. Zudem hat sich in der Organisation eine ungewöhnlich offene Informationskultur entwickelt, die das Informationsaufkommen deutlich erhöht und die Bediensteten zum gleichzeitigen Erledigen mehrerer Aufgaben drängt. Insgesamt konnten in dieser explorativen Studie, die durch intensive Literaturarbeit unterstützt wurde, 56 Hypothesen erarbeitet werden. Diese bilden eine solide Basis für weitere Forschungsschritte mit dem Ziel, unbeabsichtigte soziokulturelle Auswirkungen in der praktischen Entwicklung von Informationssystemen zu verhindern.
Die Softwarequalität ist ein wesentlicher Wettbewerbsfaktor in der Softwarebranche. Viele Softwareprojekte legen daher den Schwerpunkt ihrer Softwarequalität auf Abnahmetests und ignorieren andere wichtige Faktoren des gesamten Software-Lebenszyklus. Aus diesem Grund konzentriert sich diese Arbeit darauf, ob ausgewählte Einflussfaktoren aus dem gesamten Software-Lebenszyklus in Verbindung mit Testergebnissen von Abnahmetests eine detailliertere Bewertung der Qualität eines Software Release ermöglichen können. Hierzu wurden Einflussfaktoren untersucht und in ein Modell integriert. Darauf aufbauend wurde eine Bewertungsmatrix für die Implementierung entwickelt. In einem Experiment, in dem das Modell auf ein Beispielprojekt angewendet wurde, wurden 6 von 16 Features aus dem Software Release ausgenommen. Hätte sich dieses Experiment nur auf die Ergebnisse des Akzeptanztests gestützt, wären nur 4 von 16 Features aus dem Software Release ausgenommen worden. Diese Ergebnisse bestätigen, dass die ausgewählten Einflussfaktoren eine detailliertere Bewertung der Qualität des Software Release ermöglichen. Trotz dieser Schlussfolgerung würden die Erkenntnisse dieser Arbeit von weiteren Studien profitieren, bei denen mehr Zeit zur Verfügung steht und verschiedene Werkzeuge zur Überprüfung der Forschungsfrage verwendet werden.
Ein Navigationssystem für Tunnelbohrmaschinen sammelt eine enorme Menge an Daten wie Sensordaten, Betriebsdaten, Fehlerprotokolle oder Informationen über das Benutzerverhalten. Viele dieser Daten werden nur für die Fehleranalyse verwendet. Dieses reaktive Verhalten kann in proaktives Handeln umgewandelt werden bevor die Zwischenfälle eintreten. Dies führt zu einer Kostenreduktion, da ein Stillstand der Maschine sehr teuer ist. Das Ziel dieser Arbeit ist es, ein Portfolio mit neuen Services aus den mitprotokollierten Daten zu erstellen. Das erste Kapitel beschäftigt sich mit der Forschungsfrage, der angewandten Methoden und dem weiteren Aufbau dieser Arbeit. Es folgen Kapitel über Tunnelbau und Software, Wertschöpfungsprozesse, Smart Services und Big Data. Im folgenden Kapitel wird das methodische Vorgehen zur Erstellung der Services beschrieben. Die Ergebnisse werden im nächsten Kapitel zusammengefasst, welches in drei Unterkapitel gegliedert ist. Das erste Unterkapitel beinhaltet die Ergebnisse eines durchgeführten Workshops, welcher Störungen im Tunnelbau analysiert und neue Dienstleistungen entdeckt. Im nächsten Kapitel werden die erarbeiteten Dienstleistungen anhand zweier Experteninterviews evaluiert. Das Serviceportfolio und die Ergebnisse der Arbeit werden im folgenden Kapitel dargestellt. Die Ergebnisse zeigen, dass die protokollierten Daten eine wertvolle Quelle für die Analyse der Prozesse im Tunnelbau sind und viel effizienter verwendet werden können.
The impact of digitalization on the chemical process industry will lead to a decentralized, highly automated production environment, in which intelligent products supervise and control their own production processes. There has been little work directed to the impact of digitalization on chemical plants. Traditional risk management methods are problematic in this highly complex environment. One method suitable for complex systems is the functional resonance accident method FRAM. FRAM analyses examine performance variabilities of functions and the couplings between these functions. The aims of this study were to analyze and simulate the risk and performance variability of chemical plants in dependence of their digitalization maturity. As this study was also exploratory in its nature, an additional goal was the identification of future research topics. To accomplish this research agenda, a new hybrid simulation methodology, that combines functional resonance accident methodology and fuzzy logic to simulate chemical plants, was developed. This simulation methodology can generally be used to identify risks in complex socio-technological systems. A new metric was proposed and used to identify critical couplings. In this study three plants, representing three different digitalization maturity levels, were designed in a case study. The results of the FRAM methods supported the theory that digitalization leads to a general lower performance variability. If disturbances were introduced into the simulation, the results were inconclusive. Supplementing these findings, an FTA analysis for the specific top event run-away reaction showed the correlation between this top event and the digital maturity level of the chemical plant.
Wissen ist eine ständig wachsende Ressource, deren effizientes Handling für unternehmerischen Erfolg ausschlaggebend ist. Insbesondere die Arbeit an Projekten kann durch effizientes Wissensmanagement innerhalb von Teams sowie teamübergreifend zu einer Effizienzsteigerung beitragen. Strukturierte Methoden zur Erfassung von Wissen sowie eine klare Vorgehensweise zur Dokumentation dieses Know-hows sind Schlüsselfaktoren für erfolgreiches Projektmanagement. Der erste Teil der Arbeit zeigt grundlegende theoretische Aspekte des Themas Wissensmanagement auf, die insbesondere aus einer betriebswirtschaftlichen Perspektive betrachtet werden. Die zugrundeliegende Forschungsfrage lautet: Wie kann Nachhaltigkeit in der Projektabwicklung durch die Integration von Wissensmanagement sichergestellt werden, damit zukünftige Projektvorhaben von den Learnings aus bereits abgeschlossenen Projekten profitieren können? Neben einer genauen Betrachtung des Wissensbegriffs steht außerdem die Beschreibung unterschiedlicher Wissensarten im Zentrum der theoretischen Inhalte. All diese Ausführungen werden stets vor dem Hintergrund der vorliegenden Fragestellung der Arbeit erarbeitet und diskutiert. Der zweite Teil der theoretischen Ausführungen zielt auf das Thema Wissensmanagement ab und zeigt anhand verschiedener Modelle, wie Wissensmanagement aus verschiedenen konzeptuellen Blickwinkeln betrachtet werden kann. Die weiteren Ausführungen zielen insbesondere auf die Einführung von Wissensmanagement in Organisationen ab und legen den Fokus auf die organisationale Ebene. Es werden konkrete Möglichkeiten aufgezeigt, Wissensmanagement in Teams und Organisationen zu verankern. Damit in Zusammenhang stehen außerdem mögliche Tools, welche die Wissenssicherung unterstützen können. Den Abschluss des Theorieteils bilden Ausführungen zum Thema Projektmanagement vor dem Hintergrund von Wissensmanagement. Dabei spielen insbesondere Lessons Learned aus Projekten eine zentrale Rolle, deren Erkenntnissicherung für Teams und Organisationen einen großen Mehrwert für die Projektabwicklung darstellen kann, wenn Prozesse und Methoden klar definiert und allen MitarbeiterInnen bekannt sind. Die Inhalte des Theorieteils liefern die Basis für den empirischen Teil, der auf einer Einzelfallanalyse beruht. Eine Umfrage unter MitarbeiterInnen eines österreichischen Finanzdienstleisters gibt Aufschluss darüber, welcher Stellenwert dem Wissensmanagement innerhalb der Organisation aktuell zukommt und wie dessen Potential für zukünftige Projekte eingeschätzt wird. Dafür wurden ProjektleiterInnen des Finanzdienstleiters mittels einer Online-Umfrage befragt. Basierend auf den Umfrageergebnissen werden Handlungsempfehlungen abgeleitet, die aufzeigen, welche Möglichkeiten existieren, um Wissensmanagement in der Projektorganisation zu verankern. Dabei geht es einerseits um die notwendigen Rahmenbedingungen, die für die Einführung von Wissensmanagement notwendig sind, andererseits um die Auseinandersetzung mit dem Thema aus prozessualer und methodischer Sicht. Der Einsatz konkreter Tools findet ebenfalls Berücksichtigung.
In einer Zeit, in der die Digitalisierung von Geschäftsprozessen immer weiter voranschreitet und der digitale Wettbewerb dadurch kontinuierlich intensiver wird, müssen Unternehmen mehr denn je um ihren Platz darin kämpfen. Die aggressive Preispolitik und eine
„die Großen fressen die Kleinen“-Mentalität der Internetgiganten wie Amazon und Alibaba lassen das E-Commerce immer mehr zu einer „Two-Man-Show“ verkommen. Um dem entgegenzuwirken, müssen sich die sogenannten „Kleinen“ auf jene Stärken konzentrieren, die sie „groß“ werden ließen: Qualität und KundInnennähe. Während die Qualität eine Selbstverständlichkeit darstellen sollte, wirft die KundInnennähe im E-Commerce eine gewichtige Frage auf: Wie soll man den BesucherInnen eines Webshops ein Kauferlebnis bieten, das in den Filialen von Angesicht zu Angesicht doch so selbstverständlich ist? Und genau an dieser Stelle hakt diese Masterarbeit ein. Um BesucherInnen ein Erlebnis im Online Shop zu bieten, muss man ihre Bedürfnisse kennen. Diese Bedürfnisse zu sammeln, zu speichern und auszuwerten wird unter dem Begriff Digital Analytics zusammengefasst. Digital Analytics bedeutet auf den Einzelfall heruntergebrochen, dass das Verhalten einer Person, die einen Online Shop betritt, beobachtet wird, damit die darauffolgenden Besuche an diese Beobachtungen angepasst werden können. Aus Beobachtungen werden Metriken und aus diesen Metriken können in weiterer Folge Kennzahlen zur kontinuierlichen Verbesserung abgeleitet werden. Tools zur Bewältigung dieser Aufgaben gibt es bereits, doch sind diese auch auf die Bedürfnisse von klein- und mittelständischen Unternehmen ausgerichtet und wenn ja, welche sind das? Ein Handlungsleitfaden für Klein- und Mittelunternehmen im Bereich E-Commerce, der mit Hilfe von ExpertInnen erstellt wird, soll diese Frage beantworten. Neben einer Gegenüberstellung von potenziellen Digital Analytics Lösungen beinhaltet der Handlungsleitfaden Informationen über die Identifizierung von relevanten Kennzahlen und Funktionen sowie einen Überblick über datenschutzrechtliche Aspekte.
Diese Arbeit beschäftigt sich mit der Frage, welcher Voraussetzungen und Inhalte es bedarf, um über Social-Media-Kanäle monetäre Wertschöpfung zu erreichen. Soziale Medien haben Einzug in unsere Gesellschaft gehalten und nehmen Einfluss auf unseren Alltag und unseren Kontakt zu Mitmenschen. Private Internetnutzerinnen und -nutzer veröffentlichen Inhalte in sozialen Netzwerken, genauso wie Unternehmen oder Organisationen. Viele Internetnutzerinnen und -nutzer starten aus privatem Interesse Social-Media-Kanäle, welche sich zu Einnahmequellen entwickeln können, wenn Unternehmen sich deren Authentizität und Reichweite zu Nutze machen wollen. Ziel der Arbeit ist die Erforschung von Social-Media-Kanälen und wie diese zur Einkommensgenerierung genutzt werden können. Daher werden im Rahmen dieser Arbeit die Begrifflichkeiten rund um soziale Medien und Online-Marketing anhand bestehender Literatur definiert. Ergänzt wird der Theorieteil durch aktuelle Informationen zur Zusammenarbeit zwischen Unternehmen und privaten Internetnutzerinnen und -nutzern, sowie durch eine Definition von Einkommensformen über
Social-Media-Kanäle. Mit Hilfe der erarbeiteten theoretischen Grundlagen und dem Business Model Canvas nach Osterwalder & Pigneur wird im Rahmen einer Fallstudie das Social-Media-Angebot von vier Internetnutzerinnen und -nutzern untersucht, um deren Geschäftsmodell samt Einkommensquellen zusammenzufassen und Gemeinsamkeiten zu erkennen. Die Fallstudie bestätigt, dass es möglich ist, Einnahmequellen über soziale Medien zu generieren. Es lässt sich festhalten, dass mit wenigen technischen Hilfsmitteln bereits Inhalte erstellt werden können, aber es Aufwand und Beständigkeit bedarf, qualitativ hochwertige Inhalte zu schaffen und diese mit Einnahmequellen zu verknüpfen. Werden verschiedene Social-Media-Kanäle gebündelt verwendet, können die Zielgruppen erweitert und die Inhalte mit neuen Einnahmequellen verknüpft werden. Interessant wären im Rahmen weiterer Forschungsarbeiten die Erstellung und Untersuchung eines neuen Social-Media-Kanals inklusive dessen Monetarisierung, um die Wertschöpfung über Social-Media-Kanäle aus einer direkten Perspektive zu erforschen und mit den vorliegenden Ergebnissen zu vergleichen.
Die digitale Bildverarbeitung ist derzeit ein hochaktuelles Thema. Sie umfasst eine Vielzahl an computergestützten Lösungen in Bezug auf maschinelles Sehen: Von automatischen optischen Qualitätsanalysen über autonome Fahrzeuge bis hin zu Sicherheitstechnik können Beispiele aus unterschiedlichsten Bereichen aufgelistet werden. Der Bereich Computer Vision ist schwer einzugrenzen und einer rasanten Entwicklung unterworfen. Parallel zu der Evolution von professionellen Systemen breitete sich auch der Markt der kostengünstigen Einplatinenrechner aus. Die günstigen Geräte sind heute sehr populär und zahllose Anwendungsmöglichkeiten rechtfertigen ihre Beliebtheit sowohl unter HobbyentwicklerInnen wie auch Unternehmen. Da ihre Rechenleistung immer stärker wird und sich herkömmlichen Personal Computer annähert, sind sie auch für komplexere Problemlösungen immer besser geeignet und werden somit auch für die Durchführung von unterschiedlichen Bildverarbeitungsaufgaben verwendet. In dieser Masterarbeit mit dem Titel „Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems“ wurden von den weitreichenden Anwendungsgebieten drei voneinander komplett unterschiedliche Beispiele ausgewählt. Eine tiefgehende Analyse dieser Beispielanwendungen hat die technischen Grenzen dieser Einplatinenrechner untersucht, die wirtschaftlichen Vor- und Nachteile, und ihren Einsatz als alternative Lösung zu meist kostenintensiven professionellen Systemen. Die Arbeit hat gezeigt, dass der Raspberry Pi – als Vertreter der Einplatinenrechner – von Anwendung zu Anwendung unterschiedliche Leistungen erbringt und die Erwartungen unterschiedlich gut erfüllt. Anhand von drei Beispielen wurde eine Auflistung von Kriterien erstellt, welche eine Anwendung erfüllen muss, damit ein Einplatinenrechner effektiv angewendet werden kann. Diese Liste kann als Wegweiser fungieren für die Entscheidung, ob eine beliebige Bildverarbeitungsanwendung mit einem Einplatinenrechner wirtschaftlich und technisch realisierbar ist.
Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen
(2017)
Videokonferenzsysteme sind ein Teilbereich der Unified Communications. Letztere beinhalten, unter anderen, auch Instantmessaging und Content Sharing und komplettieren somit die Kommunikationsmöglichkeiten. Die Masterarbeit Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen ist motiviert von verhältnismäßig teuren Lösungen am Markt und dem Spaß, sich mit computerbasierten Lösungen zu beschäftigen. Nach der Aufstellung, welche Komponenten bei einem Videokonferenzsystem beteiligt sind, werden notwendige Voraussetzungen herausgearbeitet, die für ein Full-HD-Videokonferenzsystem notwendig sind. Aus diesen Anforderungen werden unterschiedliche Umsetzungsvarianten abgeleitet. Im Anschluss wird eine mögliche Umsetzungsvariante mit einem Raspberry Pi 3 und einer Kamera, die H.264-kodierte Videodaten liefert, experimentell umgesetzt. Dabei ist es kein Ziel, eine fertige, einsetzbare Lösung zu erstellen, sondern nur, zu verifizieren, ob die Hardware fähig ist, die ihm gestellte Aufgabe zu erfüllen. Da die Latenzzeit sowohl der Audiodaten als auch der Videodaten unter 450 Millisekunden liegt, konnte die Hypothese H1 bestätigt und die Hypothese H0 widerlegt werden. Dementsprechend kann die Forschungsfrage mit der oben genannten Auswahl an Hardware beantwortet werden. Da die gemessene Latenzzeit inklusive einer höheren WAN Latenz jedoch über 300 Millisekunden liegen kann, muss zur Kenntnis genommen werden, dass die empfundene Qualität als nicht optimal wahrgenommen werden könnte. Es müsste entsprechend später festgestellt werden, ob sich diese Latenz auf dieser zugrundeliegenden Hardware weiter reduzieren lässt, oder ob es notwendig ist, eine andere Hardwarealternative in Betracht zu ziehen. Davon abgesehen, fehlt für ein einsetzbares Produkt eine Benutzeroberfläche. Auch könnte in Zukunft der Einsatz von H.265, die Steigerung der Auflösung auf 4K, sowie die Komplettierung der Features in Richtung Unified Communications von Interesse sein.
The importance of stainless and special steel products has increased substantially in recent decades, as their use has shifted from niche special applications to widespread popular function. Clearly, the vacuum oxygen decarburization (VOD) process plays a major role in stainless steel production. In order to achieve extremely low carbon ratios in the presence of high chromium content, oxygen is blown under reduced pressure conditions. Despite the well-known determination of the required amount of oxygen, the operation practice itself seems to vary in the field. This gives rise to the question of the existence of a consistent optimized control strategy. The present master’s thesis addresses the existing optimization problem by using a multiple-validated VOD process simulation model. As a first step, the optimization problem is defined by the examination of the existing model. Thus, the process model flow is step by step transformed into mathematical terms. Subsequently, a variable study is carried out evaluating the influences of the oxygen blowing rate, stirring gas rate and the system pressure on the result of the model. Based on the findings, an optimization algorithm is then implemented to generate enhanced control strategies with respect to the given optimization criterion: minimize chromium oxidation. Finally, the results are demonstrated by simulations and tests of generated control strategies with the existing model. These tests clearly show an improvement regarding the optimization criterion. Moreover, the results demonstrate numerically and visually, that the newly developed algorithm generates enhanced control strategies.
Die Technische Dokumentation ist nicht nur zum Aufbau einer Maschine oder Anlage notwendig, sondern begleitet diese über deren gesamten Lebenszyklus. Vor allem im Störfall ist die Dokumentation ein zentrales Werkzeug für Wartungspersonal und Customer Service. Eine mangel- oder fehlerhafte Dokumentation führt dazu, dass zum einen die Support-Qualität gemindert wird und zum anderen auch versteckte Kosten für das Unternehmen anfallen. Der Grund dafür sind Abweichungen zwischen dem Abbild in der Dokumentation und der letztendlich vor Ort aufgebauten Maschine oder Anlage. Um dem entgegenzuwirken, gilt es eine vollständige und lückenlose Rückdokumentation aller Änderungen und Abweichungen, die während der Montage- und Inbetriebnahmephase entstehen, zu erfassen. Eine mögliche Lösung für die Problemstellung der Dokumentationsabweichung ist der Einsatz eines IT-basierten Service zur Unterstützung der Rückdokumentationsaktivitäten auf der Baustelle. Ziel der Arbeit ist es Kriterien und Anforderung für ein solches Service zu erheben. Im Rahmen der Arbeit werden durch Literaturrecherche, sowie Experteninterviews mit Customer Service- und Montagepersonal der Ist-Stand bezüglich Rückdokumentation und die Auswirkungen einer unvollständigen Dokumentation ermittelt. Aufbauend darauf wird als quantitative Forschungsmethode eine Umfrage durchgeführt, um einerseits die Kriterien und Anforderung des Service zu evaluieren, und andererseits um die Nutzungsakzeptanz gegenüber eines solchen IT-basierten Service zu erheben. Die Ergebnisse der Arbeit setzen sich aus einer Bewertung der aufgestellten funktionalen Anforderungen, sowie einer Reihung der Kriterien für das IT-basierte Service zur Rückdokumentationsunterstützung zusammen. Das Weiteren wird mittels Akzeptanzmodell dargestellt, dass die Nutzungsabsicht des Service am Stärksten von der wahrgenommenen Nützlichkeit für die späteren AnwenderInnen des Service abhängt.
Many areas of human activity demand high availability (HA) for the services provided by information technology (IT), including supply chain and especially logistics services as its backbone. Logistics automation has already been tightly linked with IT for some time now. Eventually, it is expected to reach a tipping point of digitalization under the Logistics 4.0 concept. Such anticipated convergence provided a basis for the thesis research. It was possible to apply time-proven approaches originally used in IT to produce a tailored and cost-effective HA solution for an ITenabled logistics system in order to minimize costly downtime. A multi-layer architectural pattern was adopted to focus the research on the opportunities to improve HA provided by innovative open-source software. “State-of-the-art” approaches, best practices, and challenges to attaining availability are covered in the course of the thesis. The case study was based on the efforts of a Styrian solution provider for intralogistics systems to improve and standardize HA solution for their software products and services. Mandatory HA requirements to ensure business continuity were used to outline a reference architecture for a generic HA solution by means of HA cluster for a logistics system. A prototype testbed, based on the relevant stack of technologies, validated and evaluated the proposed reference HA architecture. The findings of this thesis demonstrate the feasibility of the idea to build a cost-optimized clusterbased HA solution using commercial off-the-shelf hardware and free open-source software which can deliver an improved level of availability for a modern logistics system.
Zur schnelleren Prozessabwicklung ist es Unternehmen möglich, gewisse (Teil-)Prozesse zu automatisieren. Wie eine Prozessänderung aussehen kann und welche Emotionen und Widerstände eine Änderung bei den Mitarbeiterinnen und Mitarbeitern auslöst, dürfen die umsetzenden Personen dabei nicht außer Acht lassen. Im Rahmen dieser Arbeit führt die Autorin einen Bestellvorschlag in der Einkaufsabteilung und einen Planungsvorschlag in der Logistikabteilung ein. Diese sollen für die Mitarbeitenden die Erstellung von Bestellungen und gewissen Aufträgen übernehmen. In der praktischen Umsetzung widmet sich die Autorin vorab den Mitarbeiterinnen und Mitarbeitern, welche von den Prozessänderungen betroffen sind. Sie ermittelt die aktuellen Prozesse sowie die Möglichkeiten im System, um die Erstellung zu automatisieren. Durch die Ermittlung aller relevanten Informationen kann die Autorin darauf aufbauend den neuen Prozess entwickeln. Vorbereitend auf die Einführung des Bestell- und Planungsvorschlages erstellt die Autorin einen Leitfaden, der die Mitarbeitenden beim Einsatz der neuen Methode unterstützt. Mit Hilfe des Leitfadens führt die Autorin persönliche Schulungen mit den betroffenen Mitarbeiterinnen in den Abteilungen durch. Der aktive Einsatz von Bestell- und Planungsvorschlag mündet in Anpassungsvorschlägen der Mitarbeitenden, welche die Autorin umsetzen lässt. Anhand von Interviews, Zeitaufzeichnungen und einer Datenanalyse von Artikeln beantwortet die Autorin die Forschungsfrage und verwirft die Nullhypothese teilweise. Durch den Einsatz des Planungsvorschlages ist es den Mitarbeiterinnen möglich, die Montageaufträge für Standardartikel schneller zu erstellen als manuell. Zu den technischen Voraussetzungen zählt, dass das System eine automatisierte Erstellung ermöglicht, organisatorisch müssen die umsetzenden Personen unter anderem die Mitarbeitenden bei der Prozessänderung einbinden, damit diese die Änderung nicht durch Widerstände verhindern. Zu den potenziellen Vorteilen zählt, dass neben einer beschleunigten Erstellung bei Standardartikeln auch die monotone Tätigkeit der Erfassung im System durch die Mitarbeitenden entfällt.
Die Einbindung von Open Source Softwareprodukten in kommerzielle, proprietäre Softwareprodukte bietet Unternehmen Chancen und Vorteile, birgt aber ebenso Risiken. Zweck dieser Arbeit ist herauszufinden, wie ein Unternehmen Open Source Softwareprodukte in sein eigenes kommerzielles, proprietäres Softwareprodukt einbinden kann, ohne dadurch das eigene Geschäftsmodell zu gefährden. Im Fokus steht dabei die Erarbeitung der rechtlichen Hintergründe. Auf technische Aspekte in Bezug auf die Einbindung von Open Source Softwareprodukten wird in dieser Arbeit nicht näher eingegangen. Ebenso wird auf Unternehmen eingeschränkt, die kommerzielle, proprietäre Softwareprodukte herstellen und vertreiben. Ferner wird aus der Summe der gewerblichen Schutzrechte ausschließlich auf den Umgang mit dem Urheberrechtsgesetz näher Bezug genommen. Mittels Literaturrecherche konnten proprietäre Softwareprodukte sowie Open Source Softwareprodukte näher beschrieben werden. Darauf aufbauend wird auf die Schutzfähigkeit von Software, Softwarelizenzierung sowie die Positionierung von Unternehmen zu Open Source Software näher erläutert. Ebenso werden Präzedenzfälle behandelt, die die Relevanz der Thematik hervorheben. Daran anschließend wurden Expertinnen und Experten zum ISTund SOLL-Zustand in Bezug auf die Einbindung von Open Source Softwareprodukten innerhalb eines Softwareentwicklungsunternehmens und dessen kommerzielles, proprietäres Softwareprodukt befragt. In Bezug auf die Beantwortung der Forschungsfrage ergab sich, dass das Verständnis des Wesens der Open Source Softwareprodukte sowie deren rechtliche Grundlage notwendig sind, um diese entsprechend des eigenen Geschäftsmodells einbinden und nutzen zu können. Im praktischen Teil dieser Arbeit wurden ein Open Source Genehmigungsprozess sowie ein Leitfaden für die Produktentwicklungsabteilung des Unternehmens erstellt. Darauf aufbauend wurde das Ausrollen der besagten Artefakte und weitere Folgeschritte geplant. In weiterer Folge können Unternehmen, die ebenso Open Source Softwareprodukte in ihre eigenen, kommerziellen, proprietären Produkte einbinden, diese Arbeit als Basis heranziehen, um ihre eigenen Prozesse im Unternehmen zu analysieren und anzupassen.
Wenn ein Unternehmen mit seinem Enterprise-Resource-Planning-System (ERP-System) oder mit dem Service des Softwareherstellers unzufrieden ist, entsteht ein Wechselwunsch und damit sehr oft die Erkenntnis, dass die Wechselkosten den Umstieg auf ein neues ERP-System verhindern. Diese Arbeit setzte es sich zum Ziel die Ursachen von solchen Lock-in-Situationen in österreichischen Energieversorgungsunternehmen bei der Verwendung von ERP-Systemen zu erforschen und Strategien dagegen zu entwickeln. Einführend erfolgt eine Abgrenzung der ERP-Systeme und eine Beschreibung der zu unterstützenden Geschäftsprozesse. Mittels Literaturrecherche wurden sieben Ursachen für Lock-in identifiziert und in sieben Zusammenhangshypothesen formuliert. Nach der Operationalisierung der Hypothesen wurden diese mit 18 Fragen in einer Online-Umfrage von 52 österreichischen Energieversorgern verifiziert. Mit einer deskriptiven statistischen Analyse wurden die für die Gesamtpopulation relevanten Ursachen herausgearbeitet und die Betriebsdauer, fehlende Alternativen, Implementierungskosten und der Grad der Integration als Ursachen für Lock-in bei der Verwendung von ERP-Systemen in österreichischen Energieversorgungsunternehmen identifiziert. Diese wurden anschließend für die Strategieentwicklung herangezogen und in Expertengesprächen auf ihre Praxistauglichkeit und Effektivität geprüft. Damit konnte herausgefunden werden, dass mit der Durchführung eines Business Process Reengineering und der Installation eines kontinuierlichen Verbesserungsprozesses die internen Abläufe vereinfacht und in Verbindung mit einem angemessenen Lieferantenmanagement Lock-in reduziert werden kann. Ein Expertenteam zur internen Wissenssicherung und die Durchführung von Pilotprojekten bei der Implementierung können dem ebenfalls entgegenwirken. Die teils widersprüchlichen Aussagen der Experten lassen jedoch darauf schließen, dass der Erfolg der Strategien sehr stark von der Unternehmenskultur und dem Mindset der Mitarbeiter abhängig ist. In diesem Kontext kann diese Arbeit Hinweise geben, wie ein Energieversorger den Weg in die Abhängigkeit vermeiden und einen Weg aus einer Lock-in-Situation finden kann.
Technische Implementierung einer Personalstruktur- und Personalkostenplanung an Universitäten
(2016)
Aufgrund der Tatsache, dass über 60 Prozent des gesamten Budgets an österreichischen Universitäten für Personalaufwendungen benötigt werden, stehen Universitäten vor der Herausforderung, eine mittel- bis langfristige Personalstruktur- und Personalkostenplanung durchzuführen. Diese Masterarbeit zeigt, inwiefern technische Tools eine solche mittel- bis langfristige Personalplanung an österreichischen Universitäten unterstützen können und welche spezifischen Anforderungen diesbezüglich existieren. Basierend auf der Organisationsund Personalstruktur von Universitäten sowie den unterschiedlichen Kategorien der Personalplanung werden relevante Hypothesen, die zuvor aufgrund des erarbeiteten Vorwissens wissenschaftlich formuliert wurden, mittels quantitativer Forschungsmethoden geprüft. Dadurch können anhand der Untersuchungsergebnisse in Summe neun von insgesamt zehn wesentliche Anforderungen identifiziert und in Form von User-Stories formuliert werden. Beispielsweise muss ein Personalplanungstool relevante Kennzahlen, wie Personalkosten und Vollzeitäquivalente, für einen Zeitraum von mindestens fünf Jahren auf Monats- und Jahresebene bereitstellen. Im zweiten Teil der Masterarbeit werden vier unterschiedliche Standard-Tools in Hinblick auf die ermittelten Anforderungen geprüft und auf deren Eignung für den Einsatz an österreichischen Universitäten bewertet. Die Ergebnisse zeigen, dass insbesondere die Tools größerer Softwarehersteller (wie SAP oder SAGE-HR) geeignet sind und alle notwendigen Basisanforderungen erfüllen. Darüber hinaus wird das an der Universität Graz entwickelte Personalplanungstool „Profilbildung durch Strukturplanung“ genauer untersucht und mittels ExpertInneninterviews zusätzlich evaluiert. Die Ergebnisse dieser qualitativen Untersuchung zeigen, dass dieses Tool ebenso alle Anforderungen erfüllt, jedoch Verbesserungspotential im Hinblick auf den Detaillierungsgrad der Datenbereitstellung sowie der Usability existiert. Sofern sich eine österreichische Universität dazu entscheidet eine elektronisch gestützte Personalstruktur- und Personalkostenplanung einzusetzen, liefert diese Arbeit die herausgearbeiteten, relevanten Basisanforderungen und nennt darüber hinaus mögliche AnbieterInnen von geeigneten Software-Produkten. Letzten Endes stellt der allgemeine Aspekt der bestmöglichen Integration eines solchen Systems in die bestehende IT-Infrastruktur eine Herausforderung dar, der sich österreichische Hochschulen stellen müssen.
Sharepoint 2013 Intranet Lösung für mittelständische-matrixorganisierte Unternehmen im B2G Bereich
(2016)
Die Bundesbeschaffung GmbH (kurz BBG) entschloss sich zur Einführung einer IntranetLösung auf Basis der Technologie SharePoint 2013. Durch die Verwendung eines Intranets im Unternehmen werden Verbesserungen in der Zusammenarbeit und in der Kommunikation erwartet. Dabei ist es wichtig eine hohe Akzeptanz bei den Stakeholdern zu erreichen. Zur Einführung eines Intranets wird ein entsprechendes Intranet-Konzept benötigt.
Das Ziel dieser Arbeit ist ein Vorgehensmodell zu entwickeln, welches praktisch anwendbar ist, um ein Intranet-Konzept auf Basis von SharePoint 2013 für mittelständisch-matrixorganisierte Unternehmen im Business to Government-Bereich zu erstellen. Dabei wird großer Wert auf die Stakeholder-Akzeptanz gelegt.
Um das Ziel zu erreichen werden zu Beginn Erläuterungen benötigt. Diese behandeln die Themen Intranet, Mittelständisch-matrixorganisierte Dienstleister im B2G Bereich und SharePoint 2013. Aus den Anforderungen an ein Intranet, welche sich aus den Erläuterungen ergaben, können im Folgenden die wesentlichen Herausforderungen abgeleitet werden. Daraus ergibt sich, dass Intranet-Projekte nicht nur aus technischen Tätigkeiten bestehen, sondern ebenso einen starken Fokus auf die Organisation des Unternehmens haben. Daher werden Methoden aus den Disziplinen Projektmanagement und Requirements Engineering verwendet und beschrieben. Die Erkenntnisse der Ausarbeitungen fließen in das Vorgehensmodell zur Erstellung von passenden Intranet-Konzepten ein.
Dieses Vorgehensmodell wurde in der Bundebeschaffung GmbH (BBG) angewandt, wobei jede Phase des Vorgehensmodells durchlaufen und dokumentiert wird. Daraus ergeben sich Anforderungen an ein Intranet, welche im Kano-Modell kategorisiert und anschließend in eine Intranet-Roadmap überführt werden. Die gesammelten Anforderungen und Rahmenbedingungen fließen dabei in den Intranet-Architektur-Vorschlag ein. Dieser stellt die Grundlage für die Entwicklung des Intranets dar. Den Abschluss der Arbeit bilden ein Resümee und ein Ausblick mit Empfehlungen für nächste Schritte.
E-services have a major impact on the business models of companies and define new rules and behaviour patterns in communication between companies and (potential) customers. Looking at the business of consulting agencies, it seems that digital transformation has not yet fully arrived. Consulting agencies advise their customers on the digitization of services and customer touchpoints, while the digitization of services in the consulting industry itself is only progressing slowly. Empirical studies indicate that the consulting industry is able to benefit from the digitization of their services. This thesis investigates how a practical consulting eservice can be developed in order to offer benefits for consultants. The focus is on the development of an e-service in the analysis phase of the customer´s needs within the consulting process. The results of the e-service application represent initial approaches for consultants regarding their potential customer´s need for consulting services. The e-service is used as a supporting tool for consultants, which optimizes internal consulting processes. In order to develop a beneficial e-service, the core question arises as to which consulting steps, methods, procedures and requirements can be identified as key success factors to provide a beneficial e-service assisting in the customer consulting process. Based on a systematic service engineering process, a methodical approach is introduced to successfully develop and evaluate the e-service application. Established consulting tools and methods in practice and science are used to implement the customer self-directed e-service application. The practical part of this thesis consists of the technical implementation of the e-service as an online application. In expert interviews, the e-service is subjected to proof of the applicability in support of consulting services. The results show that a higher efficiency in the consulting process can be achieved through increased flexibility, time and cost savings. Moreover, great potential in the use of the e-service is seen within the consulting industry. The e-service tends to be most suitable in smaller consulting firms. A high suitability of e-service is attributed to consulting services in the field of strategic consulting, consulting in digital communication measures and PR services. SMEs are defined as the main target group of potential customers with the highest acceptance to participate in the e-service.
The development of the information society, the increase in the number of users make the transmission of information more diverse but also attractive as possible and easier to use. Under these circumstances, public or private institutions choose to synthesize and share information through the web sites. More, online shops are nowadays very popular and used because people want to save time, money and flexibility of payment methods.
Recognizing the importance of software products quality has led to key changes in the behavior of software producers by their focus on delivering solutions to ensure client satisfaction. In order to develop software products with a high level of quality and client satisfaction, software developers have adopted best practices and standards for quality management in the software product life cycle. The results of numerous European projects as well as international quality standards have been and are still being adopted and capitalized through quality improvement programs.
To analyze and compare the quality of web sites to see if they meet the users’ requirements are proposing to develop a methodology based on the procedures and algorithms used in the method EWAM - The Extended Web Assessment Method, a methodology that will end with a series of recommendations on designing or implementing web sites. The method responds to a major problem related to the evaluation of ecommerce applications: which are the most relevant criteria to ensure the success of an e-commerce system.
EWAM is a complex method that was created for a detailed analysis of a sample of applications and websites in a particular sector. In this respect, the method is not intended for the mass evaluation of websites.
The EWAM method uses the specific “profile” concept. This is a reference against which the results from evaluating an e-commerce application are compared. One of such profiles have been defined “Best practice” profile – which means a set of methods, techniques, procedures, etc. demonstrated and proven to be the best in current practice and used in the provision of e-commerce services.
The evaluation criteria are formulated in general terms and are valid for any sector, but they are differentiated by the sector-specific importance. In this way, the conditions for identifying the reference sector and benchmarking of different e-commerce applications are created both within a sector and between different sectors.
The establishment of (referential) “profiles” allows the comparison of the quality of an e-commerce application with the average quality of a given sector, and, at the same time, the comparison with the best practices used in the sector.
The focus lies on consumer perspectives and the specific features of the Internet as a medium. Using the EWAM tool, an analysis of four commercial Web sites in the same business sectors – fashion but in two different countries, will be performed: the websites as Orsay (www.orsay.com), Zara (www.zara.com), H&M (www.hm.com) and Mango (www.mango.com). The results will be per country compared. Furthermore, the work analyses the conceptual elements such as quality models, software product quality in general and the methodology to prove the web sites quality as well - The Extended Web Assessment Method.
The empirical section based on The Extended Web Assessment Method examines and evaluate the online shops of Orsay, Zara, H&M and Mango websites based on interviewing people from Austria and Romania. Web assessment is a very ambitious and labor-intense work. The assessors should meet certain criteria:
• They need to understand the criteria of the Web assessment form very well, hence they must undergo a thorough instruction
• They must be experienced Web users
• They must take the time to go through all four transaction phases for each Web sites assessed (including delivery and payment!)
The objectives of experimenting with the EWAM method are:
• verifying and validating website evaluation criteria specified in the EWAM method;
• verifying the applicability of the method for measuring and evaluating websites in the field of fashion e-commerce in Romania and Austria - its comparing;
• formulating new criteria on the evaluation of websites, in general, and of fashion e-commerce websites, using results comparison from two European countries – Austria (central Europe) and Romania (eastern Europe)
Additionally, a set of questions will be performed to find if e-commerce systems, especially B2C systems in fashion sector, operate in selected target countries as well as it does in its home country, across geographic boundaries. Does the site respect cultural differences between the home and foreign country? Which are the particularly needs to for fashion e-commerce websites? Are the user needs changed due modern technology – use they nowadays more web or apps? The answers will conclude if the ‘best practices’ profiles can be extended with new criteria on evaluation of fashion e-commerce websites due modern technology and internationalization/globalization.
Diese Arbeit befasst sich mit dem Einsatz des Internets der Dinge (IoT) im Messtechnikbereich. Das Ziel dieser Arbeit ist die Feststellung der Aspekte, die für den IoT-Einsatz in der Entwicklung von Produkten bzw. Dienstleistungen zu beachten sind. Diese Arbeit wird wichtige Konzepte erläutern, um das Internet der Dinge anzuwenden, sowie die verschiedenen Arten von Technologien erklären, die im IoT verwendet werden und die Auswirkungen des IoT-Einsatzes auf Dienstleistungen und Produktion skizzieren. Es ist auch wichtig, die Risiken eines solchen IoT- Einsatzes und die Maßnahmen dagegen zu erläutern. Zum Schluss werden die wichtigsten Aspekte des IoT- Einsatzes und deren Auswirkung auf die Weiterentwicklung bzw. Neuentwicklung von Produkten und Diensten dargestellt. Die Forschungsfrage dieser Arbeit ist: „Welche Aspekte entscheiden über den Einsatz von IoT im Bereich der Messtechnik?“ Um die Forschungsfrage beantworten zu können, wurden Interviews und Umfragen mit den Entwicklern durchgeführt, die in der Firma Messtechnik GmbH & CO KG arbeiten. So soll herausgefunden werden, wie das Vorwissen der Entwickler über die angewendeten Technologien bei einem IoT- Einsatz sein sollte. Darüber hinaus wurde eine Umfrage unter Kunden des Unternehmens durchgeführt, um die Auswirkungen von IoT-Anwendungen auf ihren Energieverbrauch oder Wasserverbrauch zu ermitteln. Zusätzlich sollte die Flexibilität der Zusammenarbeit mit den Kunden anhand der entwickelten/vorhandenen Produkte/Dienste oder neuer Produkte/Dienste des Unternehmens erfasst werden. Die Antwort wird darin bestehen, diese Umfragen und Interviews zu analysieren und die Ergebnisse in Tabellen und Diagrammen darzustellen. Schließlich wird klar, welche Aspekte beim Einsatz und der Anwendung des IoT auf die Messtechnik-Branche, wie z.B. Qualität, Dienstleistungserweiterung, Risikominderung und Kosten überwiegen.
Agile Entwicklungsmethoden haben schon seit vielen Jahren ihren Einsatz in der Wirtschaft gefunden. Unternehmen haben den Bedarf von solchen agilen Entwicklungsprozessen entdeckt und haben schnelle Maßnahmen getroffen, um weiter am Markt zu existieren und die Kundenwünsche mit Hilfe von agilen Prozessen zu erfüllen. Jedoch gibt es einen wesentlichen Faktor, der alle agilen Entwicklungsprozesse betrifft, dieser Faktor ist die Zeit. Die Zeit spielt eine wesentliche Rolle für alle Auftraggeber und Auftragnehmer. Unter den agilen Entwicklungsprozessen gibt es zwei unterschiedliche Ansätze, timeboxed und non-timeboxed. Da stellt sich die interessante Frage: „Welche Auswahlkriterien sind entscheidend für agile Timeboxed und Nontimeboxed Ansätze?“, mit der sich diese Arbeit beschäftigt. Aufgrund dessen, dass es in der vorhandenen Literatur kaum Antworten auf diese Fragestellung gibt, wurden im Rahmen dieser Masterarbeit mithilfe der qualitativen Inhaltsanalyse „Interview“, einige Experten Interviews durchgeführt, um diese Frage zu beantworten. Die Ergebnisse dieser Arbeit stellen einen Software-Manager einige Auswahlkriterien zur Verfügung, anhand dessen entschieden werden kann, ob man einen Timeboxing oder einen Non-Timeboxing Ansatz bevorzugt.
In zukunftsgerichteten Klein- und Mittelunternehmen in Österreich spielt das Thema Digitalisierung eine große Rolle. Die Digitalisierung wird als Wandel von Technologien, Prozessen und Arbeitsweisen sowie als Vernetzung von Dingen und Menschen gesehen. Dieser Wandel spiegelt sich in der Weiterentwicklung und der fortschreitenden Schnelligkeit wider. In österreichischen Klein- und Mittelunternehmen (KMU) besteht in Bezug auf den Digitalisierungsgrad noch Aufholbedarf, auch in jenen der IT-Dienstleistungsbranche. Im Unternehmensbereich Betrieb und Tätigkeiten, zu dem auch das Taskmanagement gezählt werden kann, ist die Digitalisierung am wenigsten fortgeschritten. Das Taskmanagement beinhaltet die Erfassung, Verwaltung und Steuerung aller Aufgaben eines Unternehmens. Im Digitalisierungszeitalter ist das Ziel, das Taskmanagement mithilfe von elektronischen und Online-Tools zu realisieren. Die Einführung eines solchen Systems stellt ein Unternehmen vor zahlreiche Herausforderungen. Ziel der vorliegenden Forschungsarbeit war es, Handlungsempfehlungen für die Einführung eines Taskmanagementsystems zu erarbeiten. Diese Handlungsempfehlungen sollen KMU der IT-Dienstleistungsbranche bei der Einführung eines solchen Systems unterstützen. Um die Anforderungen, die in der Praxis bestehen, bestmöglich analysieren zu können, wurde die Methodik einer qualitativen Fallstudie in einem ausgewählten KMU der IT-Dienstleistungsbranche angewandt. Der Gegenstand der Fallstudie war die Einführung eines Taskmanagementsystems in den laufenden Betrieb. Aus den gewonnenen Erkenntnissen im Rahmen der Fallstudie konnte abgeleitet werden, dass sich die Handlungsempfehlungen vor allem auf die Bereiche Mitarbeiterinnen und Mitarbeiter, Führungsstile, Prozesse und Schulung beziehen. Die Ergebnisse zeigen, dass nur eine Kombination aus technischer und Managementsicht zu einem erfolgreichen Aufgabenmanagement führen kann und dass eine einseitige Betrachtung nicht sinnvoll ist. Es ist empfehlenswert, die betroffenen Personen möglichst früh in den Projektverlauf miteinzubeziehen, um die unterschiedlichen Führungsstile und Bedürfnisse der verschiedenen Unternehmensbereiche bestmöglich in die Anforderungsdefinition mit aufnehmen zu können. Weiters ist es ratsam, bei der Einführung eines Taskmanagementsystems der Anpassung der Unternehmensprozesse und der regelmäßigen Schulung einen großen Stellenwert beizumessen. Durch dieses Zusammenspiel unter Berücksichtigung der technischen Anforderungen des Digitalisierungsprozesses kann ein funktionierendes Taskmanagement in einem KMU der IT-Dienstleistungsbranche etabliert werden.
Dass durch Social-Media Einkommen generiert werden kann, ist schon lange kein Geheimnis mehr. Vor allem streben viele Nutzer und Nutzerinnen nach passivem Einkommen. In dieser Masterarbeit soll geklärt werden, über welche Wege es möglich ist, passives Einkommen mithilfe der Social-Media zu lukrieren. Dafür werden in einem ersten Schritt die Begriffe Social-Media, Web 2.0 und Content-Creator definiert und erklärt. Danach werden die verschiedenen Social-Media-Plattformen vorgestellt und erläutert. Anschließend werden Marketingkonzepte dargelegt, wobei vor allem auf digitales Marketing eingegangen wird. Des Weiteren wird aufgezeigt, wann Einkommen als aktiv oder als passiv gewertet wird und welche Wege aus der Theorie zu dessen Generierung eingeschlagen werden können. Zusätzlich werden verschiedene Partnerprogramme vorgestellt und es wird dargelegt, wieviel damit verdient werden kann. Im Praxisteil dieser Arbeit wird eine multiple Fallstudie durchgeführt. Um die Untersuchungsobjekte vergleichbar zu machen, wird die Value Proposition Canvas eingesetzt. Es wird aufgezeigt, welche Bereiche in dieser Masterarbeit wie umgesetzt werden. Danach werden die Untersuchungsobjekte ausgewählt und vorgestellt. Zusätzlich werden die Personas kreiert, die als Kunden und Kundinnen den Untersuchungsobjekten gegenübergestellt werden. Anschließend wird die multiple Fallstudie durchgeführt und die Untersuchungsobjekte analysiert. Die Ergebnisse werden zusammengefasst und der Theorie gegenübergestellt. Dabei konnten mehrere Wege zum passiven Einkommen über Social-Media identifiziert werden. Vor allem Affiliate Links, YouTube, Twitch, Patreon, Merch und Content, der digital vervielfältigt werden kann, wurden in der Praxis von den Untersuchungsobjekten eingesetzt, um passives Einkommen zu generieren.
Diese Arbeit befasst sich mit dem Vergleich von unterschiedlichen Machine Learning Verfahren zur Ermittlung ähnlicher Bilder im Kontext einer Suche nach ähnlichen Produkten in E-Commerce Lösungen. Die Motivation liegt dabei in der Evaluierung möglicher Verfahren für den Einsatz in einem Produktivsystem. Das Ziel ist es, das geeignetste Verfahren bezogen auf einen spezifischen Anwendungsfall zu ermitteln. Konkret werden drei Verfahren in einer Basisvariante umgesetzt und mit geeigneten Metriken evaluiert. Ein bestehendes Datenset an realen Produktbildern wird zu Evaluierungszwecken verwendet. Kein Ziel dieser Arbeit ist es, die jeweiligen Verfahren soweit zu optimieren, sodass diese die jeweils bestmöglichen Ergebnisse zurückliefern. Auf Basis eines Experiments werden die zuvor recherchierten Verfahren anhand des Anwendungsfalles einer Suchfunktionalität nach ähnlichen Produkten evaluiert. Es kommen dabei unterschiedliche Evaluierungsmetriken zum Einsatz. Als Hauptevaluierungsmetrik der Verfahren wird die Mean Average Precision@K verwendet. Transfer Learning mit einem vortrainierten VGG16 Modell und darauf angewandtes FineTuning liefert in Bezug auf diese Metrik die besten Ergebnisse. Dahinter landet das Autoencoder Verfahren. Das Siamese Network Verfahren liefert im direkten Vergleich mit den beiden anderen die schlechtesten Ergebnisse. Dennoch eignen sich alle drei Verfahren für den untersuchten Anwendungsfall, sodass im Schnitt mindestens 50 Prozent der Suchergebnisse innerhalb der top fünf Ergebnisse relevant sind. Für einen potenziellen Einsatz in einer Produktivumgebung wäre es trotzdem erforderlich und empfehlenswert, weitere Optimierungen der dahinterliegenden Modelle vorzunehmen. Passend zur Hypothese haben die Experimente bestätigt, dass Transfer Learning trainiert mit den Bildern aus dem gegebenen Datenset bessere Ergebnisse ermöglichen kann. Weitere Forschungstätigkeiten umfassen die Optimierung der Verfahren und des Datensets sowie die Evaluierung weiterer, alternativer Verfahren beziehungsweise Kombinationen davon, die nicht Teil der vorliegenden Arbeit sind.
Stadion-Apps, welche das Fanerlebnis bei Live-Sportevents bereichern sollen, sind vor allem in den High-End-Arenen der Amerikanischen Major-Sportligen ein etabliertes Konzept. In Zeiten der zunehmenden Digitalisierung und Vernetzungen rückt die Idee eines „Connected-Stadion“ auch in Europa immer mehr in den Fokus. In Europa ist Fußball der populärste Sport mit den größten Stadien, weshalb eine potentielle Stadion-App auf die Bedürfnisse von Fußballfans angepasst werden muss. Das Ziel dieser Arbeit ist es, den Aufbau einer Stadion-App für die Bedürfnisse des Fußballs zu evaluieren, sodass eine Akzeptanz bei den Fans erzielt und gleichzeitig auch Ertragspotentiale ausgeschöpft werden können, um einen wirtschaftlichen Betrieb der App zu gewährleisten. Für diesen Zweck wurden 29 potentielle Services durch eine Literatur-Recherche definiert, welche in einer empirischen Studie auf deren Akzeptanz bei den Fans, deren Potential zur Steigerung der Fanmotivation und deren Ertragspotentiale untersucht wurden. Das Ergebnis der Studie ergab, dass die Akzeptanz für eine Stadion-App bei einem Großteil der Fans vorhanden ist, nicht jedoch bei Fans mit regelmäßigen Stadionbesuchen. Während Fans mit weniger als vier Stadionbesuchen im Jahr die größte Akzeptanz und folglich auch das größte Potential zur Steigerung der Fanmotivation zeigen, sind Fans mit vier bis acht Stadionbesuchen im Jahr die größten Potentiale für eine direkte Monetarisierung. Die Arbeit liefert anhand der Ergebnisse Empfehlungen, welche Services wann in einer Stadion-App sinnvoll sind und wie die vorhanden Potentiale am besten ausgeschöpft werden können. Um die Wiederverwendbarkeit einer Stadion-App zu erhöhen, können die Ergebnisse dieser Arbeit herangezogen werden, um einen Standard zu entwickeln, welcher in mehreren Stadien, bei unterschiedlichen Veranstaltungen (andere Sportarten, Konzerte, etc.) oder auch in anderen Locations (Konzerthallen, Messen etc.) verwendet werden kann.
In den letzten Jahren ist ein stetiger Anstieg des Stellenwertes von agiler Softwareentwicklung zu beobachten. Im Speziellen ist Scrum eines der bedeutendsten und populärsten Frameworks für das Management agiler Entwicklungen. Im Zuge der agilen Entwicklung und auch im klassischen Projektmanagement, spielt das Team für die Entwicklung eine der größten Rollen. Dies führt dazu, dass auch die Strukturierung dieser Teams eine wesentliche Aufgabe spielt, da die Ressourcen meist knapp sind und die Arbeit der Teams eine möglichst hohe Effizienz aufweisen soll. In dieser Arbeit werden die gängigen klassischen, als auch die agilen Teamstrukturen vorgestellt und verglichen. Ergänzend dazu, werden einige agile Skalierungs-Frameworks betrachtet. Daraus resultierend, werden zwei Teamstrukturen in dieser Arbeit vorgestellt. Zum einen handelt es sich um Projektteams und zum anderen um Produktteams. Beide dieser Teams sollen eine effiziente Umsetzung im Unternehmen ermöglichen. In dieser Arbeit werden dazu Kriterien aufgezeigt, welche für die Entscheidung der Auswahl der Teamstruktur ausschlaggebend sind. Daraus resultieren wiederum Handlungsempfehlungen, welche sich an SoftwaremanagerInnen richten. Diese Handlungsempfehlungen zeigen, dass es möglich ist, aufgrund diverser Kriterien die Auswahl der Teamstruktur zu treffen. Letzten Endes gilt es jedoch die Vor- und Nachteile, welche sich durch die Teamstrukturen ergeben, zu priorisieren. Die Bildung der Teams soll somit, wie auch die agilen Methoden selbst, ein iterativer Lernprozess sein.
Um den steigenden Bedarf an IT-ExpertInnen, welcher durch die Digitalisierung von Geschäftsprozessen verstärkt auch in Unternehmen zum Tragen kommt, deren Kerngeschäft nicht im Bereich IT oder Softwareentwicklung liegt, entgegenzuwirken, setzt die ANDRITZ Gruppe seit 2018 Mendix als Low-Code bzw. No-Code Plattform ein. Durch den Einsatz solcher Plattformen, mit denen Softwarelösungen von nicht IT-Experten direkt in der Fachabteilung umgesetzt werden können, ergeben sich jedoch neue Herausforderungen betreffend der Zusammenarbeit zwischen IT- und Fachabteilung. Ziel dieser Arbeit ist es daher, Strukturen zur modellgetriebenen Softwareentwicklung in einem international verteilten Team, bestehend aus IT-ExpertInnen und MitarbeiterInnen der Fachabteilungen, zu etablieren, um Softwareprojekte effektiv über Abteilungsgrenzen hinweg umzusetzen. Dazu wurden anhand einer Literaturrecherche entlang des Software-Lebenszyklus Einflussfaktoren identifiziert, welche die effektive Zusammenarbeit in einem dezentralen Team beeinflussen können. Um diesen Faktoren je nach Projektsituation individuell begegnen zu können, wurde ein eigener Servicebereich innerhalb der ANDRITZ IT etabliert welche sämtlichen Tätigkeiten rund um das Thema Rapid Application Development (RAD) steuert. Kern dieses Servicebereichs ist ein Center of Excellence (CoE), welches die zentrale Steuerungs- und Koordinationsaufgabe übernimmt und je nach Projekt entscheidet, welche Umsetzungsmethoden, Werkzeuge und Rollen für eine erfolgreiche Umsetzung benötigt werden. Nach einer Einführung in die für diese Arbeit relevanten Theorietischen Grundlagen wird das ANDRITZ RAD CoE und dessen Aufgaben detailliert beschrieben. Im empirischen Teil dieser Arbeit wird der Einsatz des CoE an einem real durchgeführten Projekt innerhalb der ANDRITZ Gruppe getestet und anschließend mittels ExpertInneninterviews eruiert, ob sich die entwickelte Vorgehensweise für den praktischen Einsatz eignet oder ob Anpassungen durchgeführt werden müssen.
Menschen sind soziale Wesen, wir brauchen soziale Interaktionen, um ein gesundes Leben und einen gesunden Geist zu erhalten. Social Media ist in den letzten Jahren enorm gewachsen und wird vermehrt zur Kommunikation genutzt. Dadurch ergeben sich auf diesen Plattformen auch häufiger Konflikte. In dieser Arbeit wird im Speziellen das Posting-Verhalten der Nutzer*innen von Social Media im Zusammenhang mit den strafrechtlichen Auswirkungen untersucht. Als Basis dieser Forschung wurde zu den drei Themenbereichen der digitalen Kommunikationsplattform, des psychosoziologischen Verhaltens der Menschen in Bezug auf die Kommunikation miteinander und in Bezug auf die neue Technologie sowie der juristischen Auslegung und deren strafrechtliche Konsequenzen in Bezug auf Social-Media eine explorative Literaturrecherche durchgeführt. Zur Datenerhebungen wurde eine bestimmte Zielgruppe von Facebook-User*innen mit langjähriger Social-Media-Erfahrung interviewt. Es wurde ein Leitfadeninterview durchgeführt, welches wiederum mittels einer Inhaltsanalyse ausgewertet wurde. Die Ergebnisse zeigten, dass die Aufklärung und die beispielhafte Erläuterung der gesetzlichen Lage nahezu keine Beeinflussung auf das Posting-Verhalten der Nutzer*innen hatten. Konflikte wurden von den Befragten im Social-Media-Bereich wahrgenommen, jedoch nicht selbst erlebt. Deswegen wird eine gesetzliche Regelung und auch deren Anpassung befürwortet. Außerdem konnte daraus schlussgefolgert werden, dass bei bedachter und nicht aggressiver Nutzung von Social-Media Konflikte vermieden werden können.
Diese wissenschaftliche Arbeit wurde als Abschlussarbeit des Studiengangs IT & Wirtschaftsinformatik an der FH Campus02 in Graz erstellt. Sie handelt von den Möglichkeiten der Auswertung und Darstellung von Daten aus IT-Systemen, welche entlang eines zentralen Verkaufsprozesses entstehen. Als praktisches Beispiel wird der Angebotsprozess des Geschäftsbereiches Instrumentation & Test Systems der AVL List GmbH in Graz herangezogen. Die Nutzung von vorhandenen Daten für das eigene Vorankommen und die eigene Positionierung am Markt hat mittlerweile in vielen Betrieben Einzug gehalten und ist – sowohl als Entscheidungsgrundlage für das Management, als auch für die eigene Auswertung in mittleren Führungsebenen – nicht mehr wegzudenken. Der theoretische Teil dieser Arbeit erklärt, was Daten sind, wie sie zustande kommen und wie sie mittels Datenauswertung auch für Entscheidungen genutzt werden können. Der praktische Teil der Arbeit befasst sich mit einem Prozessabschnitt der AVL List GmbH aus Graz, die entlang ihrer CRM-, CPQ- und ERP-Systeme Datenauswertungen schon betreibt beziehungsweise Projekte initiiert, die die Nutzung bestehender strukturierter Daten sowie die Strukturierung von unstrukturierten Daten vorantreiben. Es wird erklärt, wie die AVL bestehende Daten nutzt beziehungsweise welche Projekte konkret im Entstehen sind, um neue Datenquellen zu erschließen.
Blockchain
(2020)
Die Papierindustrie ist eine hoch effiziente Branche und ein wichtiger Bestandteil der österreichischen Wirtschaft. Durch regulatorische Maßnahmen und die öffentliche Diskussion von Umweltfragen, wird der Papierindustrie eine noch bedeutendere Rolle zugeschrieben. Durch die Verarbeitung des Rohstoffes Holz ist die Papierindustrie eng mit der Forstindustrie verknüpft. Dadurch sieht sich auch dieser Industriezweig mit Umweltfragen konfrontiert, die vor allem über das Thema „nachhaltige Forstwirtschaft“ diskutiert wird. Durch das Aufkommen des Blockchain Hypes wurde in den letzten Jahren auch oft ein potentieller Use Case für die Papier- und Forstindustrie überlegt, der genau in die Kerbe des Themas „Nachhaltigkeit“ schlägt. So sollte die Herkunft von Holz entlang der Supply Chain zur Produktion eines Papierprodukts, in einer Blockchain, gespeichert werden. Doch macht diese Anwendung auch wirklich Sinn? Im Rahmen dieser Arbeit werden die grundlegenden Eigenschaften einer Blockchain erläutert und der aktuelle technische Stand der Forschung in der Blockchain Technologie recherchiert. Anschließend wird der Prozess zur Erzeugung von Baum zu Papier entlang der Supply Chain der beteiligten Stakeholder beschrieben. Daraus wird ein grober Anwendungsfall spezifiziert, der auf die Tauglichkeit zur Verwendung in einem Blockchain Netzwerk geprüft wird. Zur genaueren Spezifikation des Anwendungsfalls wurden Experteninterviews durchgeführt und daraus Vorteile, Nachteile und Hindernisse des Blockchain Anwendungsfalls diskutiert. Die Erkenntnisse der Arbeit zeigen auf, dass ein Blockchain Netzwerk in Kombination mit dem Anwendungsfall zwar geeignet ist, es in der digitalisierten Umsetzung zur Zurückverfolgung von Holz und der Schaffung einer Blockchain fähigen Anwendung allerdings noch Probleme gibt. Die Weiterentwicklung und Digitalisierung der Zurückverfolgung bedarf noch Investition in der Schaffung weiterer, verbesserter Lösungen.
Das Ziel dieser Masterarbeit ist es, das Grundkonzept eines Smart Homes anhand eines konkreten Beispiels zu erstellen und das ganze System auf einem Raspberry Pi zu implementieren. Ein Smart Home kann basierend auf mehreren Kommunikationsprotokollen erstellt werden. Die Masterarbeit hat gezeigt, dass ZigBee, welches im Jahr 2002 entwickelt wurde, eines der geeignetsten Kommunikationsprotokolle für Smart Homes ist. Ein ZigBee-Netzwerk erfordert die Verwendung eines zentralen Koordinators zur Steuerung des gesamten Netzwerks. Eine der Einschränkungen eines ZigBee-Netzwerks besteht darin, dass jedes Gerät nur mit dem von dem Hersteller unterstützten Koordinator arbeiten kann. Mit dem CC2531 USB-Stick und der Software Zigbee2MQTT, die von Texas Instruments entwickelt wurde, kann ein eigener Koordinator erstellt werden, mit welchem jedes Gerät, welches von der Software unterstützt wird, verbunden werden kann. Die Verwaltung eines Smart Homes ist über Hausautomationsplattformen möglich. Das Projekt der Masterarbeit konzentriert sich auf die zwei Plattformen, Domoticz und Home Assistant, die von der Zigbee2MQTT-Software unterstützt werden. Im Rahmen dieser Arbeit werden der Installationsprozess beider Plattformen und der Betrieb des Systems am Beispiel von vier ausgewählten ZigBee-Geräten demonstriert.
Cryptocurrency brokers offer price quotations to investors for a set period. The investor can decide whether to accept the offer while the quote remains open. The broker bears a risk of the price changing while the quote is open. To mitigate this risk, brokers add an individual risk premium to the price. This thesis investigates how to improve the risk premium’s precision by using an artificial neural network (ANN) instead of the classical general autoregressive conditional heteroscedasticity (GARCH) model. The thesis opens by describing financial risks, conventional traditional approaches, and the theory of machine learning, in particular neural networks. Subsequently, short-term volatility in the market is explored in terms of volatility prediction with the classical GARCH and ANN approach with a focus on an investor’s purchase process. With the predicted volatility, the risk premium is calculated with the expected short-fall method. This thesis explores BTC-USD, ETH-USD, and ETH-BTC. The risk premium is calculated for a 10-minute quotation period with data from the cryptocurrency exchange Kraken from October 2019 to April 2020. The analysis shows that the ANN approach delivers a more precise volatility prediction and risk premium calculation due to a lower mean square error deviation compared to the GARCH model. However, the ANN has a low explanation of power in the test period. Different volatility cluster phenomena in the short-term data compared to the classical daily basis are also identified.
Machine Learning ist seit vielen Jahren ein aufstrebender Begriff in der IT-Branche. Unabhängig von der jeweiligen Branche werden in nahezu allen Unternehmen, die Produkte oder Services an Kunden vertreiben, Daten über die Kunden im Rahmen des Verkaufsprozesses in diversen Formen gespeichert. Produktempfehlungen oder personalisierte Inhalte sind dabei ein Weg, die Kunden noch direkter und effektiver anzusprechen. Oft verwenden Unternehmen dazu Analysen aus Marketingabteilungen und legen statische Regeln für diese Inhalte fest. Diese Aufgabe kann jedoch auch Machine Learning übernehmen. Dabei sind vor allem bislang unbekannte Zusammenhänge innerhalb der verfügbaren Daten von Interesse. Welche neuen Informationen können mittels automatisierter Analysen gewonnen werden? In dieser Arbeit wurde eine Clusteranalyse von 250.000 anonymisierten Onlinekunden des weltweit zweitgrößten Möbelhändlers, der auch im E-Commerce vertreten ist, mithilfe von Machine Learning Algorithmen vorgenommen. Dazu wurde ein Experteninterview durchgeführt, um die für das Unternehmen interessanten Aspekte der Kunden in die Analyse aufnehmen zu können. Es wurden statische Regeln für eine Einteilung der Kunden erstellt, die im Anschluss mit den Ergebnissen aus der automatisierten Clusteranalyse gegenübergestellt wurden. Nach dem Vergleich mehrerer Ansätze wurde festgestellt, dass der K-means Algorithmus die gestellten Anforderungen für eine anschließende Analyse der Clusterinhalte am besten erfüllen konnte. Die abschließende Analyse der erstellten Cluster hat gezeigt, dass eine Verwendung von automatisch erstellten Segmenten zur Anwendung von Personalisierung machbar ist. Die Gemeinsamkeiten von Kunden innerhalb einzelner Cluster konnten anhand der Daten belegt werden. Darüber hinaus konnten neue, interessante Zusammenhänge aus den Clustern gelesen werden. So hat sich zum Beispiel herausgestellt, dass es nicht die vom Experten genannten Zielgruppen waren, die häufig bestellt oder viel Geld ausgegeben haben.
Mit der immer größer werdenden Abhängigkeit von der Nutzung des Webs – sei es mittels Smartphones, Tablets oder Laptops – steigt folglich auch die Bedeutsamkeit von Web-Applikationen immer mehr an. Aufgrund dieser steigenden Popularität vervielfachte sich parallel zu dieser Entwicklung auch die Anzahl an Frameworks für diverse Programmiersprachen, welche im Zusammenhang mit Web-Applikationen genutzt werden. Um das passende Framework zu finden, gibt es kritische und objektive Kriterien wie Sicherheit, Wartbarkeit, Performance oder „Time to Market“, die ebenso zu beachten sind wie die Zukunftssicherheit und die Modernität der gewählten Frameworks. Durch die Vielzahl an unterschiedlichen Frameworks wird es immer komplexer, schwieriger sowie zeitintensiver, die richtige Wahl zu treffen. Um diese Wahl zu vereinfachen, werden in dieser Arbeit Technologien aus den einzelnen Layern miteinander kombiniert, evaluiert und auf deren Zusammenspiel hin untersucht und bewertet. Weiters wird es zu einer Verbindung zwischen Theorie und Praxis kommen, indem in diesem Arbeitsschritt die im Theorieteil gewonnen Evaluierungskriterien herangezogen und mit der Praxis in Verbindung gesetzt werden.
Diese Masterarbeit widmet sich dem Thema, wie Lerntheorien die Auswahl eines geeigneten technology-enhanced learning Tools beeinflussen. Hierfür wurden im ersten Schritt Eigenschaften von Lehrveranstaltungen analysiert. Dabei fiel die Entscheidung darauf, Eigenschaften anhand der Lerntheorien Behaviorismus, Kognitivismus, Konstruktivismus und Konnektivismus abgeleitet und zu definieren. Durch diese Basis konnten Eigenschaften für Lehrveranstaltungen definiert werden, wodurch sich Lehrveranstaltungen untereinander unterscheiden lassen. Im zweiten Schritt wurden unterschiedliche technology-enhanced learning Methoden und dazu gehörige Anwendungen näher betrachtet. Hier konnte durch Blended Learning bereits eine Hilfestellung gefunden werden, welche technology-enhanced learning Toolgruppen am geeignetsten Erscheinen. Diese Auflistung wurde um den Konnektivismus erweitert, um alle definierten Lerntheorien abdecken zu können. Die daraus gewonnenen Erkenntnisse wurden im dritten Schritt zu einem Entscheidungsmodell kombiniert. Mit Hilfe dieses Modells soll Lehrenden eine Empfehlung gegeben werden, welches technology-enhanced learning Tool ihre Anforderungen unterstützen kann. Im Anschluss wurde dieses Modell durch eine qualitative als auch durch eine quantitative Evaluierung überprüft. Dabei wurden Lehrende der Fachhochschule Campus02 zu dem Modell befragt. Diese Befragungen haben daraufhin ergeben, dass ein Modell, welches nur auf den zuvor definierten Lerntheorien beruht, nicht ausreichend Eigenschaften miteinbezieht. Dadurch können nicht alle Lehrenden das Modell voll nutzen, um damit bestmögliche Ergebnisse zu erhalten. Es könnte aber als Grundlage dienen, um weitere Eigenschaften einzubinden und somit ein komplexeres Modell mit mehr Eigenschaften zu entwickeln.
Die Anforderungen an die moderne Softwareentwicklung sind hoch. Softwareunternehmungen stehen angesichts einer fast schon unübersichtlich großen Anzahl an Methoden und Entwicklungswerkzeugen vor der Herausforderung, die für ihre Anforderungen und Abläufe idealen Prozesse und Werkzeuge zu wählen. Diese Wahl ist essentiell, um die richtige Nische am Markt effizient und langfristig zu bedienen sowie auf Änderungen noch schneller reagieren zu können. Die vorliegende Masterarbeit beschäftigt sich mit der Erstellung von Metriken, um Softwaretestverfahren miteinander vergleichbar zu machen. Ausgehend von der Literatur werden verschiedene Testverfahren beschrieben, analysiert und auf das Vorhandensein von Klassifizierungs- und Kategorisierungsmerkmalen für das Erstellen der Metriken überprüft. Durch die Kombination von Literaturrecherche und ExpertInneninterviews werden diese Ergebnisse Schritt für Schritt verfeinert. Im Anschluss wird eine Bewertungsmatrix erstellt und mit konkreten Werten auf Basis des ExpertInnenwissens angereichert. Diese Masterarbeit legt den Grundstein für weitere Untersuchungen in EntwicklerInnenteams, um dort das Delta zwischen dem Ist-Stand und dem Soll-Stand bei der Verwendung der aktuellen Softwaretests zu ermitteln. Die sich daraus ergebenden Optimierungspotenziale können untersucht und in den jeweiligen Teams umgesetzt werden. Das Feedback der Teams bei der Umsetzung der Optimierungen ist ein weiterer möglicher Untersuchungsgegenstand. Somit ist klar ersichtlich, dass der Vergleich von Testverfahren einen akademischen, aber auch stark praxisorientierten Anwendungsfall darstellt.
This master’s thesis is about post-quantum cryptography. Therefore, it shows how quantum computers differ from traditional computers, what kind of quantum computers do exist, and what strengths they have. But the focus lies on the threat to information security. For this purpose, the paper shows how traditional cryptographic algorithms work and how vulnerable they are against quantum computers. The paper also shows the possible alternatives. This field is called post-quantum cryptography, and these algorithms are resistant against traditional computers and also against quantum computers. In this paper, expert interviews illustrated an outline of the threat and where it is mandatory to react. At least the results are applied to an IT system in the health sector, and it is analyzed how vulnerable it would be against quantum computers.
Das erfolgreiche Einführen eines Business Intelligence Systems (BI) ist eine komplexe Aufgabe, die viele technische wie auch nicht technische Themen in sich vereint. BI ist nicht nur das Darstellen von Zahlen und Fakten. Grundsätzlich haben BI Systeme die Aufgabe die Nutzer in ihren Entscheidungen zu unterstützen. Das System soll im Prozess der effektiven Entscheidungsfindung zu aufkommenden Fragen, Antworten liefern und auch ggfs. Vorhersagen treffen können. Diese Entscheidungsunterstützung kann auf operationaler bis hin zur strategischen Ebene erfolgen und ist in der heutigen Zeit für Unternehmen unerlässlich. Diese Masterarbeit beschäftigt sich mit den Vor- und Nachteilen die der Einsatz von BI & Analytics Tool mit sich bringen. Im Theorieteil dieser Arbeit werden die Begriffe BI & Analytics definiert. Im Anschluss daran werden Literaturerkenntnisse diskutiert, die die Basis für den empirischen Teil dieses Werk bilden. Die Forschungsfrage wird mit Hilfe eines qualitativen Ansatzes beantwortet. Die Experteninnen- und Experteninterviews wurden mit zwölf Personen aus unterschiedlichen Branchen und aus unterschiedlichen Klein- und Mittelbetrieben geführt. Diese Expertinnen und Experten berichten über Ihre Erfahrungen mit BI & Analytics. Die Datenanalyse erfolgte nach der qualitativen Inhaltsanalyse nach Mayring. Die Ergebnisse zeigen, dass die Einführung und Nutzung eines BI Systems zu einem erhöhten Datenbewusstsein und einhergehend zu einer erhöhten Datenqualität geführt haben. Das Konsumieren von Inhalten „auf Knopfdruck“ ist ein weiterer positiver Aspekt, der in wiederholtem Maße aufgezählt wurde. Die Expertinnen und Experten sprachen aber auch von der anfänglichen Skepsis der BI Nutzer, die es zu adressieren galt und die manch ein BI Projekt auch beinahe hätte scheitern lassen können.
Diese Arbeit beschäftigt sich mit der Anwendung von Data Mining-Algorithmen zur Informationsgewinnung im Softwaresupport. Data Mining-Algorithmen sind Tools der sogenannten „Knowledge Discovery“, der interaktiven und iterativen Entdeckung von nützlichem Wissen. Sie werden eingesetzt, um Daten zu analysieren und über statistische Modelle wertvolle Informationen einer Domäne zu finden. Die Domäne in dieser Arbeit ist der Softwaresupport, jene Abteilung in Softwareentwicklungs-Unternehmen, die Kundinnen und Kunden bei der Lösung von Problemen unterstützt. Meist sind diese Supportabteilungen als Callcenter organisiert und arbeiten zusätzlich mit Ticketsystemen (einem E-Mail-basierten Kommunikationssystem). Zweck dieser Arbeit ist es zu prüfen, inwiefern Data Mining-Algorithmen im Softwaresupport angewendet werden und ob tatsächlich wertvolle Informationen identifiziert werden können. Erwartet wird, Informationen über das Supportverhalten von KundInnen sowie den Einfluss von externen Faktoren wie Wetter, Feiertage und Urlaubszeiten zu entdecken. Die Literaturrecherche dieser Arbeit, beinhaltet unter anderem die Themen Personaleinsatzplanung im Softwaresupport und Data Science (Zusammenfassender Begriff für Data Mining, Data Engineering oder Data-Driven Decision Making, etc.). Im „experimental Setup“ finden Interviews zum Thema Status quo- und Kennzahlen im Softwaresupport mit führenden österreichischen Softwarehäusern sowie eine Fallstudie zur Anwendung eines Data Mining-Vorgehensmodells statt. Letztlich wird in einem Feldexperiment geprüft, ob es mit Data Mining-Algorithmen tatsächlich möglich ist, Informationen für den Softwaresupport zu entdecken. Als Ergebnis dieser Arbeit zählen einerseits die Identifikation von Möglichkeiten, um im Support Kosten zu sparen und Effizienz zu gewinnen und andererseits das Finden von wertvollen Informationen über Abläufe und Zusammenhänge im Support. Die gewonnenen Informationen können in weiterer Folge in den Supportprozess einfließen, um effektivere und effizientere Prozesse zu schaffen. Ein weiteres Resultat des Informationsgewinns ist auch die Qualitätssteigerung von Managemententscheidungen sein.
Da immer mehr Geräte und Benutzer Zugang zum Internet bekommen, muss die Sicherheit von Web Applikationen immer mehr im Blick behalten werden. Besonders bei Authentifizierungsmechanismen steigen die Anforderungen enorm. Passwörter gelten schon länger als unsicher, um ein Benutzerkonto vor unbefugtem Zugriff zu schützen. Die in dieser Arbeit behandelte Spezifikation soll dabei Abhilfe schaffen. Bei dieser Spezifikation handelt es sich um die WebAuthn Spezifikation, welche von der FIDO Alliance entwickelt wurde. WebAuthn wird im Zuge dieser Arbeit auf Schwachstellen von derzeit gängigen Authentifizierungsmechanismen untersucht. Diese bedient sich bewährten kryptografischen Methoden, um Sicherheit für die Authentifizierung zu gewährleiten. Zur Verifizierung eines Authentifizierungsvorganges wird asymmetrische Kryptografie eingesetzt. WebAuthn benötigt Authentifikatoren, um diesen Vorgang durchführen zu können. Diese können FIDO2-zertifizierte Smartphones, Security Token oder biometrische Authentifikatoren sein. Bei der Registrierung einer Benutzerin oder eines Benutzers wird von Authentifikator und Server ein Schlüsselpaar, bestehend aus privatem und öffentlichem Schlüssel, generiert und die öffentlichen Schlüssel zwischen ihnen ausgetauscht. Nun ist es dem Client möglich, sich am Zielsystem mithilfe des registrierten Authentifikators anzumelden. Um Benutzerinnen und Benutzern sowie Entwicklerinnen und Entwicklern zu zeigen, welche Vor- und Nachteile WebAuthn gegenüber herkömmlicher Authentifizierung bietet, wurden bekannte Angriffe recherchiert und auf die WebAuthn Spezifikation ausgeführt. Attacken, welche darauf ausgeführt werden, beinhalten Angriffe, um an Zugangsdaten von Benutzerinnen oder Benutzern zu kommen, Angriffe, welche auf die Übernahme einer Sitzung des Clients abzielen, Angriffe welche nicht technischer Natur sind und Angriffe auf die Authentifikatoren.
Die moderne IT-Welt befindet sich in einem Wandel. Während diverse Branchen in den letzten Jahren ihre Softwaresysteme von On-Premise Lösungen zu Cloud-basierten Systemen umgestellt haben, ist dieser Trend an vielen Herstellerinnen und Herstellern von SCADA Systemen vorbeigegangen. „Supervisory Control and Data Aquisation“ Systeme werden für Überwachung und Steuerung der Automatisierungsprozesse in verschiedensten Bereichen eingesetzt. Aufgrund der speziellen Anforderungen betreffend Software nahe der Prozessumgebungen, können Standardlösungen hier nicht in jedem Fall eingesetzt werden. Der Erfolg von Unternehmen hängt oft, besonders bei Produktionsprozessen, mit dem reibungslosen Ablauf dieser Systeme zusammen. Es liegt daher im Sinn der Sache, die Systeme bestmöglich von externen Einflüssen (z.B. Ausfall der Internetkonnektivität) zu schützen. Die Systeme arbeiten in Steuerungsebenen der Automatisierung und befinden sich meist in dedizierter Infrastruktur. Oft sind diese von der restlichen IT- Landschaft abgeschottet und werden selten bis gar nicht mit Updates oder Wartungen versehen. Gegenteiliges zeigt sich bei modernen Softwaresystemen der Gegenwart: Ständig werden Verbesserungen am Verhalten, neue Funktionen und Qualitätssteigerungen der Software in kurzen Releasezyklen entwickelt. Obwohl dieses Paradigma viele Vorteile für moderne Entwicklungsprozesse bringt, ist es nicht ohne Weiteres auf automatisierungsnahe Software anwendbar. In die IT-Welt ist mit der Frage konfrontiert, ob SCADA Systeme weiterhin auf traditionelle Art und Weise betrieben werden sollen oder in Zukunft die Vorteile von Cloud-Computing auch für SCADA Software benutzt werden kann. In dieser Masterarbeit wird empirisch erforscht, welche Anforderungen an SCADA Systeme gestellt werden. Diese Anforderungen werden in einer Fallstudie mittels Überarbeitung eines bestehendes SCADA Systems umgesetzt. Es soll verdeutlicht werden, dass SCADA Systeme durch Nutzung von Cloud-Services profitieren können.
Agile Softwareprojekte unterliegen den Fixpunkten Kosten und Termin sowie der Variablen des Umfanges der Software. In dieser Arbeit wird beleuchtet wie der zeitliche Aufwand des Umfanges geschätzt werden kann. Die Forschungsfrage dient der Ergründung von Einflussfaktoren und der Erstellung eines standardisierten Prozessmodells. In diesem Zusammenhang wird einerseits erläutert, welche Methoden der agilen Softwareentwicklung existieren und welche Charakteristiken sie haben. Die Methoden der Aufwandsschätzung unterliegen drei verschiedenen Paradigmen. Die Paradigmen sind die Aufwandsschätzungen basierend auf Experten, basierend auf Daten und das hybride Paradigma. Das hybride Paradigma vereint die Vorteile von Aufwandsschätzungen basierend auf Expertenwissen und historischer Daten. Zur Erstellung eines standardisierten Prozessmodelles werden anhand einer Literaturrecherche Einflussfaktoren auf die Aufwandsschätzung ermittelt und anschließend in das Prozessmodell überführt. Es werden unter anderem humane Faktoren, Einsatz neuer Technologien, die Einheit der Aufwandsschätzung und der Testumfang in der Arbeit diskutiert. Diese Einflussfaktoren werden in das Prozessmodell als Eingangsgrößen übernommen, wobei zunächst immer geprüft wird, ob eine ähnliche Softwareanforderung bereits implementiert wurde und damit die Möglichkeit zur Wiederverwendung bestehender Softwaremodule besteht. Das Prozessmodell wird im Unternehmen Pankl Racing Systems AG experimentell eingesetzt und durch Experteninterviews evaluiert. Die Erkenntnisse des Experteninterviews werden in Form eines Fragebogens, der bei der Anwendung des Prozessmodells unterstützt, angewendet. Eine weitere Erkenntnis des Experteninterviews stellt dar, dass die Aufwandsschätzung durch den Einsatz eines standardisierten Prozessmodells verbessert ist. Der erstellte Fragebogen besitzt einen modularen Aufbau, wodurch er von anderen Unternehmen als dem Beispielunternehmen verwendet und adaptiert werden kann.
In der vorliegenden Arbeit wird ein Kosten-Nutzen-Tool entwickelt, welches als Entscheidungshilfe für höhere Anschaffungen in Krankenhäusern fungiert. Bereits vor dem eigentlichen Moment der Entscheidung für oder gegen eine potentielle Investition soll das Tool zum Einsatz kommen, um derartige Einschätzungen erleichtern zu können. Mit Hilfe eines Anforderungs- und Zielkataloges können etwaige Anschaffungen gewichtet und an die jeweilige Entscheidungsstelle mittels Ampelfarbe weitergeleitet werden, wobei ein Farbsystem Orientierung bietet, Neuerungen als „finanzierbar“ (grün) oder „kaum bis bis gar nicht finanzierbar“ (rot) einzustufen. In einem ersten Schritt und damit im Theorieteil werden das Prinzip der Kosten-NutzenAnalyse (KNA) erklärt, die grundsätzlichen Ziele und Vorteile einer solchen Analyse erläutert und die Wirksamkeit von KNAs in Unternehmen veranschaulicht. Im nächsten Kapitel folgen eine Darstellung der allgemeinen IST-Situation in österreichischen Krankenhäusern und ein Einblick in sämtliche Analysen von Risiko-, Wirtschaftlichkeits- und Finanz- bis hin zur Durchführbarkeitsanalyse und sonstigen Bewertungskriterien. Diese ISTSituation zeigt den Nutzen von KNAs in Krankenhäusern auf und rechtfertigt deren Einsatz. Anschließend wird das kooperierende Partnerunternehmen der Arbeit, nämlich die KABEG, vorgestellt und die KNA auf diesen Krankenhausverbund detailliert abgebildet. Durch Experten- und Expertinneninterviews und deren Ergebnisse wird diese IST-Situation im Partnerunternehmen erneut und auf einer anderen Ebene, nämlich jener der Innensicht, nachvollziehbar gemacht. Definierte Anforderungen und Ziele des Partnerunternehmens ergeben dann Beurteilungskriterien, die wiederum in den Bau eines Prototyps fließen, der als Vorlage für eine Web-Applikation dient. Das Kosten-Nutzen-Tool wird fertiggestellt und dem Partnerunternehmen vorgestellt beziehungsweise dessen Vorteile kommuniziert. Anhand einer erneuten Befragung der Anwender und Anwenderinnen wird das entwickelte Tool anschließend im betrieblichen Ablauf getestet und evaluiert. Somit werden die Auswirkungen der Einführung einerseits durch die Bewertung der Anschaffungsanfragen und andererseits mit dem Feedback der Anwender und Anwenderinnen dokumentiert und belegt, was dem langfristigen Nutzen der Implementierung dienen soll. Andrerseits und gleichzeitig beantworten die Ergebnisse dieser ersten Implementierungsstufe die wissenschaftliche Forschungsfrage der vorliegenden Masterarbeit, nämlich: Wie lassen sich qualitative Argumente in einem Tool bewerten, sodass sie in einer Kosten-/Nutzenrechnung zur Entscheidungsfindung als maßgebliche Parameter verwendet werden können.Die vorliegende Arbeit stellt somit nicht nur im konkreten Bedarfs- und Anwendungsfall Lösungen vor, sondern trägt auch in einem größeren Forschungskontext als beispielhaftes und im besten Fall zukunftsweisendes Modell zur kostenoptimierten Modernisierung unter Verwendung digitaler Strategien bei.
Kundenorientiertes Handeln stellt Unternehmen vor immer neue Herausforderungen. Wie erfolgreich Unternehmen sind und wie deren Kunden zufriedengestellt werden können, ist von vielen Faktoren abhängig. Unter anderem ist der Umgang mit der Ressource Information von Bedeutung, so wie die Einbeziehung der Kunden in den gesamten Service-Prozess. Mittels Vorgehensweisen und Methoden, können die Bedürfnisse von Kunden erhoben und berücksichtigt werden. Diese Erkenntnisse ermöglichen es, ein auf Kundenbedürfnisse abgestimmtes Service zu etablieren. Die frühe Kundenintegration hat Einfluss auf die Kundenzufriedenheit, die für die meisten serviceorientierten Unternehmen von hoher Bedeutung ist. Einleitend widmet sich diese Arbeit wissenschaftlichen Grundlagen, die im Kontext dieses Themengebietes relevant sind. Dazu zählen grundlegende Themen im Bereich Service-Engineering, sowie ausgewählte wissenschaftliche Theorien, die für die Etablierung von neuen Services und für das Verständnis von Kundenzufriedenheit relevant sind. In weiterer Folge beschäftigt sich diese Arbeit mit der Erhebung von kundenrelevanten Aspekten für die Entwicklung eines Service-Konzeptes, im Umfeld von gewerblichen Kühl- und Gefriergeräten. Aufbauend auf diesem zu erarbeitenden Service-Konzept wird ein Prototyp und ein Vorgehen entwickelt, die als Grundlage für die weitere Implementierung für das Partnerunternehmen dienen sollen. Grundvoraussetzung für die Konzeption eines neuen Services beziehungsweise eines Prototypen ist die Analyse der Branchenumfeldes und eine Trendanalyse. Diese gesammelten Informationen dienen als Input für den empirischen Teil dieser Arbeit. Die Empirie hat in weiterer Folge jenen Zweck, die kundenrelevanten Funktionen des erweiterten Services zu evaluieren und in den geplanten Prototypen einfließen zu lassen. Aufbauend auf den neu gewonnenen Erkenntnissen und auf Basis des zu entwickelnden Prototypen, kann eine Handlungsempfehlung an das Partnerunternehmen weitergeben werden. Abschließend wird ein Ausblick auf die neu gewonnenen Erkenntnisse und die dadurch entstehenden Möglichkeiten geboten.
Thema der vorliegenden Masterarbeit ist die Betrachtung von Aspekten der Informationssicherheit beim Einsatz von Geräten aus dem Kontext des Internet of Things (IoT) in Unternehmensnetzwerken. Medienberichte und Analysen der letzten Jahre deuten auf frappierende Sicherheitslücken in IoT-Geräten und damit einer, durch die unabhängig davon zunehmende Bedrohungslage im Internet verschärften, Gefährdung der Sicherheit hin. Eine Frage, die sich dabei stellt, ist, ob vorhandene Sicherheitskonzepte für den Einsatz von IoT-Geräten ausreichend sind. Um dies zu beantworten war es notwendig, eine für die Arbeit gültige Definition des sehr abstrakten Begriffs "IoT" zu entwickeln und mögliche Anwendungsbereiche in Unternehmensnetzwerken aufzuzeigen. Darauf folgt eine Beschreibung der grundlegenden Aspekte der Informationssicherheit (Vertraulichkeit, Integrität und Verfügbarkeit) und eine Analyse von Bedrohungen und Angriffen auf Netzwerke. Ausgehend von diesen Erkenntnissen wurde ein Sicherheitskonzept zusammengestellt, welches heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit in Unternehmensnetzwerken beinhaltet. Um ein Konzept unter Berücksichtigung des Einsatzes von IoT-Geräten entwickeln und mit derzeitigen Maßnahmen zu vergleichen, wurden IoT-spezifische Rahmenbedingungen und Angriffe beschrieben. Dabei zeigen sich vor allem Einschränkungen hinsichtlich technischer Ressourcen, Anforderungen an die Skalierbarkeit von Lösungen sowie eigene Angriffsszenarien. Unter Zuhilfenahme von Standards zur Sicherstellung von Informationssicherheit wurde davon ausgehend ein Katalog von erkannten IoT-bezogenen Risiken zusammengestellt. Darauf basiert das vorgeschlagene, verbesserte Modell, welches organisatorische, applikationsbezogene und technische Maßnahmen zur Behandlung dieser Risiken beinhaltet. Dabei zeigt sich, dass nur Teile davon überhaupt durch Weiterentwicklung bestehender Sicherheitsmaßnahmen realisiert werden können, einige Ansätze jedoch neuartig sind und eine Veränderung der Sicherheitsarchitektur in einem Unternehmen notwendig wird. In der Praxis werden dabei insbesondere Mechanismen zur Authentifizierung, Autorisierung und der Sicherstellung des Datenschutzes zur Herausforderung, da dazu derzeit keine universell realisierbaren Konzepte vorliegen. Entsprechend dieser Erkenntnisse ist davon auszugehen, dass heute übliche Maßnahmen zur Sicherstellung der Informationssicherheit nicht ausreichend für einen IoT-Anwendungsfall sind.
Eine Vielzahl an Softwareunternehmen hat sich in den letzten Jahren dem Thema Testautomatisierung gewidmet. Software-Tests auf Basis des User Interfaces bauen auf unterschiedliche Objekterkennungs-Technologien auf, beispielsweise die Identifikation über ID’s der HTML-Elemente oder der grafischen Bilderkennung. Besonders beim Testen moderner Webanwendungen ist Automatisierung naheliegend, denkt man an die Darstellung von Responsive Designs auf unterschiedlichen Bildschirmgrößen und Browsern. Um festzustellen, wie sich die unterschiedlichen Technologien der UI-Objekterkennung auf die Stabilität automatisierter Tests auswirken, wurde anhand praktischer Beispiele die Identifikation unterschiedlicher Elemente näher betrachtet. Aufbauend auf eine Literatur- und OnlineRecherche wurden UI-Objekterkennungs-Technologien vorgestellt und diskutiert sowie Faktoren zur Beurteilung der Stabilität aufgeschlüsselt. Unterschiedliche Vorgehensweisen zur Aufzeichnung der UI-Objekte wurden beschrieben und gegenübergestellt. Die Evaluierung verschiedener Technologien der UI-Objekterkennung verdeutlichte die Unterschiede in der Art der Aufzeichnung unterschiedlicher Elemente. Während die Identifikation der UI-Objekte über XPath durch eine Gewichtung der Pfad-Komponenten gesteuert werden kann, ist besonders der Einsatz von Image Recognition initial mit viel manuellem Aufwand bei der Aufzeichnung der Elemente verbunden. Jedoch sind Technologien wie OCR oder Image Recognition vermehrt für Spezialfälle einzusetzen, wenn etwa durch technische Einschränkungen nicht über ID oder XPath auf UI-Objekte zugegriffen werden kann. Zwar erwähnen immer mehr Hersteller von Testautomatisierungs-Tools Begriff Aritificial Intelligence im Kontext der UI-Objekterkennung, jedoch ist auch heute noch die Durchführung manueller Schritte für die Wartung der automatisierten Tests notwendig. Daher kann die Verantwortung über die Erstellung einfach zu wartender Tests zum aktuellen Zeitpunkt noch nicht an die jeweiligen Tools abgegeben werden, sondern verlangt noch immer Fachwissen und die strukturierte Vorgehensweise erfahrener Anwender. Dennoch bietet die Aussicht auf hybride Lösungen, die sich künstlicher Intelligenz bedienen, eine vielversprechende Zukunft im Bereich der Software-Testautomatisierung.
Durch die stetig wachsende Verbreitung von agilen Methoden, besonders beim Einsatz von Scrum, kommt es immer wieder zu Herausforderungen seitens des Projektmanagements. Alleine die Schwierigkeit, Besprechungen zu koordinieren, stellt das Projektmanagement oft vor Probleme. Noch problematischer sieht es bei der Durchführung von Projekten mit dezentralen Scrum-Teams aus. Speziell bei der Abwicklung agiler Projekte geschieht es immer wieder, dass die grundlegenden Prinzipien der Agilität nicht eingehalten werden. Diese sind jedoch für eine erfolgreiche Projektdurchführung entscheidend. Auf Basis dieser Problemstellung wird das Ziel dieser Arbeit definiert: die Erarbeitung von Handlungsempfehlungen, um dezentralen Scrum-Teams Möglichkeiten zur Einhaltung der Prinzipien des Agilen Manifests aufzuzeigen. Aufgrund der Notwendigkeit unterschiedlicher Betrachtungsweisen wird in dieser Arbeit sowohl auf Literatur als auch auf praxisbezogene Informationen zurückgegriffen. Im ersten Schritt wird dazu eine Literaturrecherche durchgeführt. Hierbei werden Informationen zu Scrum, dem Agilen Manifest und dezentralen Teams gesammelt. Der zweite Schritt besteht aus der Durchführung von Interviews mit ExpertInnen, die über Erfragungen mit Scrum und dezentralen Teams verfügen. Ziel ist die Identifikation der Problemfelder, denen sich dezentrale Scrum-Teams bei der Einhaltung der Prinzipien des Agilen Manifests stellen müssen. Die Erkenntnisse der Experteninterviews werden mit den aus der Literatur gewonnenen Informationen abgeglichen und diskutiert. Im Anschluss wird eine Onlineumfrage erstellt, die dazu dient, die erkannten Problemfelder hinsichtlich gefundener Lösungsmöglichkeiten genauer zu untersuchen. Abschließend werden Handlungsempfehlungen aus den Ergebnissen der Experteninterviews und der Onlineumfrage abgeleitet. Diese umfassen die Bereiche Kommunikation, Team, Teammitglieder, KundInnen, Unternehmen und Scrum. Die resultierenden Handlungsempfehlungen können für die praktische Zusammenarbeit und Projektdurchführung mit dezentralen Scrum-Teams genutzt werden und richten sich sowohl an Entscheider, die für die Zusammenstellung von Scrum-Teams verantwortlich sind, wie auch an die jeweiligen Teammitglieder.
Robotic Process Automation
(2019)
Robotic Process Automation ermöglicht die softwaregestützte Automatisierung von Prozessen, welche über die grafische Benutzeroberfläche durchgeführt werden. Dies geschieht indem sie menschliche Interaktionen mit dem Computer imitiert. Das heißt diese Software ermöglicht die applikationsübergreifende Automatisierung von Mausklicks und Tastatureingaben. Im Zuge dieser Arbeit wird untersucht, wie sich der Einsatz dieser Technologie auf die Durchlaufzeit und Qualität von Prozessen auswirkt. Erweist sich Robotic Process Automation als ein Tool, welches monotone und repetitive Aufgaben übernehmen kann, bleibt den MitarbeiterInnen mehr Zeit für wertschöpfende Tätigkeiten, die deren Qualifikation eher gerecht werden. Zur Beantwortung der Forschungsfrage wurde ein Quasi-Experiment durchgeführt. In diesem wurde der gewählte Prozess einerseits von einem mit dem Prozess vertrauten Probanden und andererseits mittels Workflow-Automatisierung in je zwei zeitlich unabhängig voneinander durchgeführten Versuchen jeweils zehn Mal durchlaufen. Bei diesem Prozess handelt es sich um einen Geschäftsprozess der Magna Steyr Fahrzeugtechnik AG & Co. KG. Konkret geht es dabei um den Import unterschiedlicher Instandhaltungsdokumente in das SAP ERP-System. Das Ergebnis dieser wissenschaftlichen Arbeit ist daher vor allem für Prozesse zum Datentransfer über Applikationsmasken relevant. Das Ergebnis dieses Quasi-Experiments zeigte, dass mit einer Prozessautomatisierung mittels Robotic Process Automation eine Reduzierung der Durchlaufzeit um durchschnittlich 52 Prozent bei mindestens gleich hoher Prozess- und Ergebnisqualität erreicht wird. Diese Arbeit befasst sich nicht mit den Kosten zur Automatisierung von Prozessen und eventueller Einsparungen in dessen Betrieb. In zukünftigen wissenschaftlichen Arbeiten könnte mittels Ermittlung der Total Cost of Ownership untersucht werden ab wann sich der Einsatz von Robotic Process Automation im Unternehmen bezahlt macht und zu Einsparungen führt.
Die Themen Nachhaltigkeit und Diversität nehmen nach und nach immer eine stärkere Rolle im Denken und auch Handeln der Menschen ein. In einer freien kapitalistischen Marktwirtschaft, in welcher einer der großen treibenden Kräfte die Konkurrenz ist, gilt es daher auf die neue Situation im Bereich der Nachfrage einzugehen und das entsprechende Angebot zu schaffen. Aber auch die sozialen Aspekte zur Festigung gesellschaftlicher Akzeptanz dürfen dabei nicht zu kurz geraten, denn es ist schon lange nicht mehr genug nur dem eigenen Kerngeschäft nachzugehen und weder nach links noch nach rechts zu blicken. Man agiert schließlich auf demselben Planeten und in derselben Umwelt wie alle anderen Bewohnerinnen und Bewohner dieser Welt auch. Die hohe Relevanz von Nachhaltigkeit haben auch bereits einige Regierungen erkannt. So beispielsweise das europäische Parlament, welches mittels der Richtlinie für nicht finanzielle Informationen (NFI-RL) bereits ein Zeichen im Sinne der Nachhaltigkeit gesetzt hat. Dieser folgend wurde auch österreichisches Recht in Form des Nachhaltigkeit- und Diversitätsverbesserungsgesetzes (NaDiVeG) daraus. In diesem Sinne zeigt die vorliegende Arbeit auf, wie wichtig die Themen Nachhaltigkeit und Diversität für die Wirtschaft, insbesondere für die österreichische, sind und dass diese für eine langfristige Existenz und einen langfristigen Erfolg nicht mehr wegzudenken sind. Um dies zu prüfen, wurde auf der einen Seite eine quantitative Umfrage mit 149 Teilnehmerinnen und Teilnehmern durchgeführt, im Zuge welcher das Bewusstsein für Nachhaltigkeit sowie das eigene Verhalten in diesem Kontext abgefragt wurden. Auf der anderen Seite wurden drei Experteninterviews mit Vertretern in der Steiermark agierender Unternehmen geführt. Es zeigt sich deutlich welchen großen Einfluss die Themen Nachhaltigkeit und Diversität auf den langfristigen wirtschaftlichen Erfolg von Unternehmen haben.
Marketing hat sich in den letzten Jahren zunehmend neue, vernetzte Medienkanäle zunutze gemacht, um sowohl effizienter als vor allem auch effektiv beim Ansprechen der Zielgruppen zu sein. Content Marketing und Influencer Marketing bieten diese Möglichkeit. Es bildete sich das Phänomen des Influencers, dessen Geschäftsmodell untersucht werden soll. Die Forschungsfrage „Was sind Best Practices und Methoden, um mit Content Marketing auf YouTube längerfristig erfolgreich zu sein?“ soll beantwortet werden. Die Arbeit hat sich das Ziel gesetzt, Influencer Marketing und der damit assoziierten Marketingdisziplinen wie dem Content Marketing und dem viralen Marketing zu erforschen, um daraus Erfolgskriterien und Best Practices extrahieren zu können. Diese sollen als Unterstützung dienen, möchte man Videoinhalte für YouTube erstellen und veröffentlichen. Hierbei handelt es sich um eine theoretische, wissenschaftliche Masterarbeit basierend auf einer Literaturrecherche und einer Fallstudie. Dem Konsumenten der Inhalte muss Mehrwert geboten werden. Dies kann in Form von Unterhaltung, Nützlichkeit, kostenloser Bereitstellung oder der einfachen Übertragbarkeit von Inhalten geschehen. Der Nutzen kann sich auch aus Kombinationen dieser Faktoren zusammensetzen. Auch die hohe Qualität der Inhalte sowie Kreativität gilt es beim Erstellen von Content für YouTube zu beachten. Dabei erhöht sich die Chance auf den viralen Effekt und die damit verbundene große Reichweite der Inhalte. Auch bei Online Communitys und sozialen Netzwerken erhöht sich dadurch die Chance auf Multiplikationen, was wiederum zu einer höheren Gewichtung des eigenen Contents durch den YouTube Algorithmus führt. Diese Erfolgsfaktoren wurden mithilfe der Fallstudie bewiesen. Auch das Geschäftsmodell für Influencer wurde anhand des Business Model Canvas erarbeitet und zusammengefasst.
Aufgrund der Bedrohungen des Klimawandels wurde in den letzten Jahren weltweit nach Lösungen für umweltfreundlichere Energie gesucht. Mit der Entwicklung erneuerbarer Energiequellen scheint ein guter Ansatz gefunden worden zu sein, um Elektrizität zu erzeugen. Die damit einhergehenden Herausforderungen sind die dezentrale Positionierung und die Volatilität der zukünftig hohen Anzahl von Wind- und Solarerzeugungsanlagen. Eine Folge dessen ist eine hohe Beanspruchung der Verteilnetze und damit auch die Notwendigkeit effizienterer Energienutzung. Im Jahr 2009 wurde daher auf europäischer Ebene beschlossen intelligente Stromnetze, sogenannte „Smart Grids“ und intelligente Stromzähler, sogenannte „Smart Meter“ einzusetzen, um die Energieversorgung durch die Nutzung von Internet- und Kommunikationstechnologien zu unterstützen. In Österreich wurde in Folge dessen im Jahr 2010 das Elektrizitätswirtschafts- und -Organisationsgesetz entworfen, welches gemeinsam mit weiteren Beschlüssen der Gesetzgebung den österreichischen Weg für effizientere und transparentere Energieversorgung vorgibt. Heute, im Jahr 2019, stehen die österreichischen Netzbetreiber mitten in der Umbauphase in der das Netz für die Verwendung der Smart Meter vorbereitet und die bisher eingesetzten mechanischen Zähler durch die neuen intelligenten Messgeräte ersetzt werden. Durch den fortgeschrittenen Status des Smart Meter-Rollout konnten Netzbetreiber und Energielieferanten bereits Erfahrungen sammeln, die Aufschluss über die tatsächlichen Auswirkungen auf den Energiemarkt geben können. Die vorliegende Arbeit zeigt die wirtschaftlichen Auswirkungen von Smart Metering auf und analysiert diese. Das Ziel ist es herauszufinden welche Kosten durch die Einführung von Smart Metering für Energieversorgungsunternehmen, und damit in weiterer Folge für Konsumenten, entstehen und mit welchen marktrelevanten Änderungen aus heutiger Sicht aufgrund des Betriebes von Smart Metering zu rechnen ist.
Besonders im Bereich der Informationstechnologie herrscht eine immerwährende Weiterentwicklung. Neue Technologien oder Vorgehensweisen bringen jedoch neben Verbesserungen jedoch meist auch neue Sicherheitsrisiken mit sich. Um ein einheitliches Sicherheitsniveau bei der Verarbeitung von personenbezogenen Daten im europäischen Raum zu schaffen, wurde die Datenschutz-Grundverordnung (DSGVO) erlassen. Am 25. Mai 2018 ist die DSGVO in Kraft getreten und ein Großteil der Unternehmen musste technische und organisatorische Maßnahmen zur DSGVO Konformität ergreifen. In dieser Masterarbeit wurde die Sammlung von Methoden und Vorgehensweisen zur bestmöglichen Umsetzung der durch die DSGVO vorgeschriebenen Anforderungen behandelt. Daher lautet die Forschungsfrage: „Wie können Klein- und Mittelunternehmen vorgehen um ihre IT-Infrastruktur an die notwendigen Voraussetzungen der Datenschutz-Grundverordnung anzupassen?“. Um die Forschungsfrage zu beantworten, wurde zunächst in der DSGVO bezüglich relevanten Aspekten und wichtigen Vorschriften recherchiert. In einer Zusammenfassung aller wichtigen Bereiche wird ein grundlegendes Wissen zur DSGVO vermittelt. Um Informationen aus der tatsächlichen Praxissituation zu erhalten, wurden fragebogengestützte Experteninterviews mit zehn Datenschutzexperten aus verschiedenen Unternehmen und Tätigkeitsbereichen durchgeführt. Anhand der Ergebnisse aus der Literaturrecherche und den Antworten aus den Experteninterviews wurde eine Best Practice Checklist zur Maßnahmenkontrolle erstellt. Mittels der in dieser Masterarbeit angeführten Informationen sowie der Unterstützung durch die erstellte Best Practice Checkliste werden Unternehmen bzw. Datenschutzverantwortliche bei der Umsetzung der DSGVO-Maßnahmen unterstützt.
Das Ziel dieser Arbeit ist die Schaffung eines neuen Vorgehensmodelles, um agil entwickelte Projekte einfach und effizient übergeben zu können. Daher beschäftigt sich die Arbeit mit der Beantwortung der Frage „Welche Aspekte sind als zentrale Einflussfaktoren zu berücksichtigen, wenn die Weiterentwicklung eines agil umgesetzten Projektes in einem anderen Team stattfinden soll, welches noch über keine bestehende Entwicklungsumgebung und nur begrenztes Know-how verfügt?“. Um diese Frage beantworten zu können, wird zuerst ein grober Überblick über mögliche Modelle zur Entwicklung von Software gegeben. Der Fokus hierbei liegt auf den agilen Methoden. Ausgehend von dem agilen Manifest und den ausgewählten Praktiken wird ein allgemeiner Prozess anhand des Software-Lebenszyklus beschrieben. Aufbauend auf die Beschreibung der einzelnen Phasen des Software-Lebenszyklus wird der Ansatz der kontinuierlichen Integration von Software vorgestellt und beschrieben. Mit Hilfe der theoretischen Grundlagen werden anschließend die Einflussfaktoren entlang des Software-Lebenszyklus identifiziert, kategorisiert und beschrieben. Die einzelnen Einflussfaktoren münden in eine Liste mit Risikobewertung und möglichen Werkzeugen und bilden damit das neue Vorgehensmodell. Das neue Modell wird, nach einer kurzen allgemeinen Beschreibung des Unternehmens inklusive genereller Arbeitsweise, einem Praxistest unterzogen. Dies geschieht, indem ein bereits bestehendes, agil entwickeltes Projekt mit Hilfe des neuen Modells in ein neu geschaffenes Team übernommen wird. Im Zuge der praktischen Anwendung wird grob gezeigt wie das Modell eingesetzt werden kann und die Ergebnisse werden dokumentiert. Abschließend wird eine Übersicht der Ergebnisse in Form einer Tabelle gegeben, welche die einzeln getroffenen Entscheidungen zeigt, bewertet wie erfolgreich die einzelnen Einflussfaktoren im Zuge der Übernahme abgedeckt werden können und angibt, welche Folgeschritte geplant sind.