Informationstechnologien & Wirtschaftsinformatik
Filtern
Dokumenttyp
- Masterarbeit (162)
Volltext vorhanden
- ja (162)
Gehört zur Bibliographie
- ja (162)
Schlagworte
- Digitalisierung (10)
- Software Engineering (9)
- Projektmanagement (8)
- Informationssicherheit (6)
- Kundenmanagement (6)
- Online-Marketing (5)
- Business Intelligence (4)
- Computersicherheit (4)
- Internet der Dinge (4)
- Personalwesen (4)
- Data Mining (3)
- Electronic Commerce (3)
- Enterprise-Resource-Planning (3)
- Logistik (3)
- Marketing (3)
- Mikroservice (3)
- Scrum <Vorgehensmodell> (3)
- Social Media (3)
- Softwareentwicklung (3)
- Telearbeit (3)
- Webanwendung (3)
- Agile Softwareentwicklung (2)
- Benutzeroberfläche (2)
- Betriebliche Kennzahl (2)
- Blockchain (2)
- Cloud Computing (2)
- Datenanalyse (2)
- Dokumentenverwaltungssystem (2)
- Informatik (2)
- Kommunikationssystem (2)
- Maschinelles Lernen (2)
- Portal <Internet> (2)
- Robotic Process Automation (2)
- Servicemanagement (2)
- Wissensmanagement (2)
- Agilität <Management> (1)
- App <Programm> (1)
- Arbeitsgestaltung (1)
- Assistenzsystem (1)
- Authentifikation (1)
- Autonome Systeme (1)
- Bestandsmanagement (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Change Management (1)
- Chatbot (1)
- Cloud (1)
- Computerunterstützte Kommunikation (1)
- Darknet (1)
- Data-Warehouse-Konzept (1)
- Datenauswertung (1)
- Datenschutz (1)
- Datensicherheit (1)
- Datenverarbeitung (1)
- Datenübertragung (1)
- Dienstleistung (1)
- Dienstleistungsangebot (1)
- Digitale Fotografie (1)
- Elektromobilität (1)
- Energiewirtschaft (1)
- Framework <Informatik> (1)
- Führung (1)
- Gamification (1)
- Generation Z (1)
- Geschäftsfeldplanung (1)
- Geschäftsmodell (1)
- Hochschullehre (1)
- Hochverfügbarkeit (1)
- IT-Sicherheit (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Infotainment (1)
- Integriertes Lernen (1)
- Intranet (1)
- IoT-Geräte (1)
- Kosten-Nutzen-Analyse (1)
- Kreditwesen (1)
- Kundendienst (1)
- Künstliche Intelligenz (1)
- Management (1)
- Marktforschung (1)
- Messtechnik (1)
- Mobiles Endgerät (1)
- Mustererkennung (1)
- Nachhaltigkeit (1)
- Objekterkennung (1)
- Online-Shop (1)
- Performance Management (1)
- Personalplanung (1)
- Preisbildung (1)
- Prozessautomation (1)
- Prozessmanagement (1)
- Prozesssimulation (1)
- Qualitätsmanagement (1)
- Qualitätssteigerung (1)
- REST <Informatik> (1)
- Risikoanalyse (1)
- SCADA <Programm> (1)
- Service Engineering (1)
- SharePoint 2013 (1)
- Sicherheitsplanung (1)
- Single-page-Webanwendung (1)
- Social Engineering <Sicherheit> (1)
- Softwarekonfigurationsverwaltung (1)
- Softwareproduktion (1)
- Softwareschutz (1)
- Softwaretest (1)
- Strategisches Management (1)
- Supply Chain Management (1)
- Technische Unterlage (1)
- Telekommunikationsnetz (1)
- Unternehmensgründung (1)
- Verbraucherverhalten (1)
- Vertrieb (1)
- Verwaltung (1)
- Videokonferenz (1)
- Vielfalt (1)
- Virtuelle Kommunikation (1)
- Vorgehensmodell (1)
- Web Services (1)
- Wertschöpfung (1)
- Wirtschaft (1)
- Zugriffskontrolle (1)
Institut
Evaluierung der Auswirkung eines agilen Organisationsmodells auf IT-Unternehmen am Beispiel Scrum
(2023)
Diese Masterarbeit beschäftigt sich mit agiler Arbeitsmethodik im Kontext der Softwareentwicklung. Unternehmen im Bereich der IT-Branche sind mit einer Vielzahl von organisationalen Herausforderungen konfrontiert, welche sich durch die hohe Komplexität der Projekte ergeben. Diese Herausforderungen werden anhand von Faktoren wie der standortverteilten Softwareentwicklung verstärkt und resultieren letztendlich in großen Raten von Misserfolgen. Sie beziehen sich direkt auf das Projektmanagement und den hierfür verwendeten Prozess. Das agile Vorgehensmodell Scrum erfreut sich durch seine transparente und einfache Charakteristik immer größerer Beliebtheit und soll die auftretenden organisationalen Probleme im Prozess der Softwareentwicklung verringern. Das Ziel der vorliegenden Arbeit ist es, die Einflüsse des Scrum-Vorgehensmodells auf organisationale Herausforderungen von IT-Betrieben auszuwerten. Um dies zu erreichen, wird ein Anforderungskatalog an ein Vorgehensmodell basierend auf organisationalen Problemen der IT-Branche erstellt, welcher die Grundlage für einen Fragebogen zur Evaluierung der Scrum-Vorgehensmethodik in der Softwareentwicklung darstellt. Durch die erhobenen 76 Antworten lassen sich Aussagen zu dem allgemeinen Ausmaß dieser Herausforderungen, Zusammenhänge zwischen verschiedenen Problembereichen und Veränderungen der Situation beim Wechsel von einer anderen Vorgehensmethodik auf Scrum treffen. Es lässt sich festhalten, dass die Verwendung von Scrum im Allgemeinen eine effektive Herangehensweise zur Bewältigung dieser Herausforderungen ist. Der erstellte Anforderungskatalog kann von Unternehmen verwendet werden, um, unabhängig vom jeweils verwendeten Vorgehensmodell, das Ausmaß ihrer Herausforderungen zu ermitteln. Ebenso kann weiterführende Forschung durch eine wissenschaftliche Evaluierung anderer Vorgehensmodelle, eine Erweiterung der Problembereiche sowie einer Erkundung von Methoden zur Minimierung dieser Herausforderungen, betrieben werden.
Blockchains wurden besonders in den letzten Jahren sehr populär und der Zugang um diese zu Nutzen wurde auch sehr einfach. Aufgrund dieser Entwicklungen wurden viele neue Anwendungsgebiete geschaffen. Die meisten Menschen assoziieren Blockchains mit Kryptowährungen, allerdings gibt es noch weitere Bereiche, die diese Technologie nutzen. Beispiele hierfür sind der Gesundheits- oder der Energiesektor. Immer mehr Unternehmen überprüfen, wie sie diese Technologie ebenfalls nutzen können, um davon zu profitieren und Prozesse zu verbessern. Ein Anwendungsfall, der in dieser Arbeit behandelt wird, ist das Dokumentieren von Dokumenten, Verträgen und Vereinbarungen zwischen Mitarbeiterinnen oder Mitarbeitern und dem Unternehmen. Das Ziel dieser Masterarbeit ist es, zu evaluieren, wie Unternehmen Blockchain-Technologien nutzen können und wie genau Verträge dokumentiert werden können. Es wurde dazu ein Prototyp entwickelt mit dem Verträge in der Blockchain dokumentiert werden können, indem ein Smart Contract verwendet wird. Die Ergebnisse zeigen, dass diese Technologie das Potenzial hat, für diesen Anwendungsfall genutzt werden zu können. Der größte Vorteil dabei ist die Transparenz. Das bedeutet, dass jede Person, die Zugang zur Blockchain hat, nachprüfen kann, wer an diesem Vertrag beteiligt war und wann er abgeschlossen wurde. Allerdings wurden auch einige Probleme festgestellt. Zum Beispiel wird, um Daten in die Blockchain zu schreiben noch mehr Zeit benötigt im Vergleich zu konventioneller Software. Weiters sind bei der Nutzung des entwickelten Prototypen auch öfter Fehler passiert als bei der herkömmlichen Software. Zusammenfassend lässt sich sagen, dass die Verwendung von Blockchain-Technologien zur Dokumentation von Verträgen verwendet werden könnte und es dem Unternehmen einen Mehrwert bieten kann, allerdings ist die Technologie aufgrund der Probleme noch nicht ausgereift genug.
Im Bereich der Softwareentwicklung ist es verbreitet, dass Teams verteilt zusammenarbeiten. Mit der verteilten Arbeit entstehen neue Herausforderungen, die es zu bewältigen gilt, welche sich auch auf die Personalbindung auswirken. Aus diesem Grund ist es bedeutend, die Faktoren zu berücksichtigen, die in verteilten Softwareentwicklungsteams in einem besonderen Zusammenhang zur Personalbindung stehen. Die Masterarbeit mit dem Thema „Personalbindung in verteilten Softwareentwicklungsteams“ betrachtet verschiedene Herausforderungen und Bedürfnisse in der Softwareentwicklung und untersucht spezifische Faktoren, welche bei verteilten Softwareentwicklungsteams in Zusammenhang mit der Personalbindung stehen. Dabei werden die untersuchten Faktoren sowohl in konventionellen als auch in verteilten Softwareentwicklungsteams betrachtet, um die Unterschiede zu beleuchten. Für die erforderliche Datenerhebung wurde eine Befragung von Softwareentwickler*innen durchgeführt, um die vorhandene Personalbindung zu quantifizieren, die zuvor aus der Literatur ermittelten Faktoren zu überprüfen und deren Zusammenhang zu ermitteln. Die Ergebnisse dieser Arbeit zeigen, dass in verteilten Softwareentwicklungsteams ein besonderer Zusammenhang mit der Personalbindung und das Kommunikationsverhalten und regelmäßiges Feedback der Führungskraft, qualitative Mitarbeiter*innengespräche, zureichenden Karriere- und Aufstiegsmöglichkeiten, sowie Weiterbildungsmöglichkeiten bestehen. Aber auch regelmäßige Teambuilding-Aktivitäten und die Klarheit über Aufgaben und Verantwortungen zeigten einen Zusammenhang. Ein weiteres Ergebnis war, dass eine Vermeidung typischer Faktoren die bei Softwareentwickler*innen zur Unzufriedenheit führen, einen positiven Zusammenhang zur Personalbindung vorweist. Zusammenfassend werden durch diese Arbeit wichtige Zusammenhänge zur Personalbindung in verteilten Softwareentwicklungsteams aufgezeigt, welche durch die neuen Herausforderungen in der verteilten Softwareentwicklung zu beachten sind. Durch die Erkenntnisse dieser Arbeit lassen sich in weiterer Folge Maßnahmen für Unternehmen ableiten, um die Personalbindung zu steigern.
Das MitarbeiterInnen-Management und im Besonderen die Personalbeschaffung ist für jedes Unternehmen von entscheidender Bedeutung und Wichtigkeit. Die vorliegende Masterarbeit befasst sich mit genau diesem Thema, wobei der Fokus auf Remote-Arbeit und den ab dem Jahr 1995 geborenen, potenziellen MitarbeiterInnen der Generation Z liegt. Diese Personengruppe stellt einen der interessantesten KandidatInnen-Pools für die zukünftigen Belegschaften der Unternehmen dar. Mit dieser Arbeit wird der Einfluss des Wertesystems der Generation Z auf den Onboarding-Erfolgt untersucht. Besonders wird der Zusammenhang zwischen den einzelnen Aspekten des Wertesystems und den Faktoren des erfolgreichen Onboardings von Remote-ArbeiterInnen betrachtet. Um die formulierte Forschungsfrage zu beantworten, werden die relevanten Faktoren und Aspekte identifiziert und eine quantitative Umfrage mit anschließender Datenanalyse durchgeführt. Die Zielgruppe entspricht ausnahmslos Personen der Generation Z. Zudem wird Interesse an Remote-Arbeit vorausgesetzt. Beginnend mit einleitenden Fragen, befasst sich die Umfrage mit den Wertvorstellungen und Erwartungen der Befragten an einen neuen Arbeitsplatz, sowie mit den Erwartungen an die Integration in ein neues Arbeitsumfeld im Rahmen der Onboarding-Phase. Mittels Korrelationsanalyse werden die personenbezogenen Erwartungen, Aspekte und Faktoren des MitarbeiterInnen-Onboardings untersucht. Die Resultate zeigen, dass positive Zusammenhänge von Onboarding-Faktoren wie Proaktivität oder bidirektionalem Informationsfluss mit einzelnen Generation Z-Aspekten bestehen. Des Weiteren bestätigt sich die Wichtigkeit der Erfüllung der einzelnen Erwartungen für neue MitarbeiterInnen. Die Auswirkung des Wertesystems auf den Onboarding-Erfolg schlägt sich in Form von vielfältiger und hoher Erwartungshaltung nieder. Zur Ergründung der Kausalitäten und Umsetzung von Maßnahmen bedarf es weiterer Untersuchungen.
Gestaltung einer Open Data Energieplattform zur Förderung von Kollaboration und Partizipation
(2023)
Um die Auswirkungen des globalen Klimawandels durch verursachte CO2-Emissionen zu verringern, ist es notwendig, den Energiesektor ökologisch nachhaltiger zu gestalten. Dies kann durch die Reduktion des Gesamtenergieverbrauchs, sowie den Ersatz konventioneller Energiequellen durch erneuerbare erreicht werden. Es ist bekannt, dass die Realisierung von Energieeinsparungen nicht nur durch Investitionen in die Verbesserung der Energieeffizienz möglich ist, sondern auch das Engagement, Bewusstsein und Handeln der Bevölkerung erfordert. Um dies zu erreichen, soll die Beteiligung der Bürgerinnen und Bürger im Energiebereich gefördert werden. Ziel ist es, demokratische Zusammenarbeit, transparentere Entscheidungsfindung, Lernbereitschaft und die Akzeptanz von Energieprojekten zu steigern. Durch den Einsatz einer Open Data Plattform sollen Energiedaten von privaten Haushalten, sowie regionale und überregionale Informationen im Energiesektor zugänglich gemacht und die Bevölkerung damit eingebunden werden. Unter Verwendung des Design-Science-Research-Ansatzes nach Peffers et al. (2007) wurden Anforderungen und Kriterien für eine Open Data Plattform im Energiesektor untersucht. Dies erfolgte durch eine umfassende Literaturrecherche, aus der wichtige Designelemente abgeleitet und Mockups der Plattform entwickelt wurden. Zur Demonstration der Plattform wurden fünf umfassende Anwendungsfälle von sieben Personen durchgeführt. Im Anschluss wurden die Nützlichkeit und Benutzerfreundlichkeit der Plattform anhand eines Fragebogens bewertet. Die Evaluierung hat ergeben, dass die Nutzerinnen und Nutzer den Informations- und Wissensaustausch sowie die Zusammenarbeit auf der Plattform als nützlich und wertvoll empfinden. Insbesondere werden Individualisierungs- und Automatisierungsmöglichkeiten, Vergleichsfunktionen, Visualisierungen, sowie der regionale Informationsaustausch als förderlich betrachtet. Die Einbindung von sozialen Medien und der Einsatz von Gamification Elementen, um die Motivation der Nutzerinnen und Nutzer zu steigern konnte jedoch nicht allgemeingültig bestätigt werden. In weiteren Untersuchungen sollten daher vor allem motivationsfördernde Designelemente betrachtet und untersucht werden.
Die vorliegende Masterarbeit behandelt die Einsatzmöglichkeit von BI-Systemen und deren Unterstützung der Vertriebssteuerung von Versicherungsunternehmen. Es wurde zu Beginn eine umfangreiche Literaturrecherche durchgeführt, um einerseits die technischen Grundlagen und den Aufbau eines BI-Systems und andererseits den Begriff der Vertriebssteuerung genauer zu erklären. Anschließend wurde die theoretische Grundlage mit der Vertriebssteuerung eines Versicherungsunternehmens in Verbindung gebracht.
Im praktischen Teil wurde anhand des Beispiels der Merkur Versicherung AG eine Umsetzung eines neuen BI-Systems erarbeitet. Eingangs wurde die Ist-Situation des Unternehmens erhoben, um die Ausgangsbasis für eine Weiterentwicklung des BI-Systems zu erarbeiten. Anschließend wurden mittels qualitativen mit Fragebogen geführten Interviews die Anforderungen von unterschiedlichen Personengruppen und Hierarchien aufgenommen. Zum Schluss wurde die Entwicklung eines Prototypens auf Basis der Anforderungen erstellt und auf Akzeptanz getestet.
Das Ergebnis der Arbeit zeigt, dass eine einfache Umsetzung eines einzigen BI-Tools für die unterschiedlichen Anforderungen der verschiedenen Adressatinnen und Adressaten, welche mit dem Vertrieb eines Versicherungsunternehmens in Berührung kommen, nicht möglich ist. Aufgrund der verschiedenen Nutzergruppen und Anforderungen sollte ein reines Management-Tool und ein operatives BI-Tool als Self-Service BI zur Verfügung gestellt werden. Die Anforderungen an ein Dashboard waren größtenteils nicht gegeben. Sie wären eher als zusätzliches Feature angesehen worden, waren jedoch nicht gefordert.
In weiterer Folge könnte ein integriertes BI-System, welches alle Anforderungen beinhaltet, eingeführt werden. Dies müsste dann eventuell in Eigenentwicklung durchgeführt werden, damit es alle Anforderungen eines Versicherungsunternehmens abdeckt.
Die Anomalie Erkennung spielt in verschiedenen Bereichen eine große Rolle. Beispielsweise versuchen Kreditkartenanbieter, betrügerische Transaktionen zu identifizieren. Registriert das System einen Einkauf im Wert von Tausenden von Euro, obwohl gewöhnlich nur Bahntickets mit dieser Karte gelöst werden, ist es sehr wahrscheinlich, dass die Karte oder die persönliche ID-Nummer gestohlen wurde. In einem anderen Szenario, wenn die Produktionslinie eines Pharmaunternehmens feststellt, dass das Endgewicht von Medikamentenkapseln 20 % höher als üblich ist, kann ein Fehler im Herstellungsprozess vorliegen. Diese Anomalie Erkennung basiert meist auf strukturierten Zahlenwerten und kann somit leicht erkannt werden. Das Ziel dieser Arbeit ist es, Anomalien aus unstrukturierten beziehungsweise schwach strukturierten Text-Daten zu erkennen und anhand ihrer Semantik Möglichkeiten zur Interpretation und Bewertung aufzuzeigen. Im Zuge dieser Arbeit soll herausgefunden werden, welche Datenverarbeitungsmethoden und Analysemethoden verwendet werden können, um eine bestmögliche Interpretation der Text-Daten zu erreichen. Resultierend auf diesen Erkenntnissen wird ein Vorgehensmodell erstellt. Dieses Vorgehensmodell dient als Basis für einen Prototyp, um eine automatische Auswertung erzeugen zu können. Der Prototyp soll durch eine gezielte Auswahl von Schlüsselwörtern Anomalien in verschiedenen Themenbereichen erkennen, um so vielseitig wie möglich Verwendung zu finden. Weiters sollen geografische Brennpunkte dieser Themenbereiche identifiziert werden und durch Analysen festgestellt werden, ob diese Brennpunkte einen positiven oder negativen Effekt mit sich bringen.
Release Management spielt in der Softwareentwicklung eine große Rolle. Der Prozess von einer Anfrage zu einer Änderung bis zur Ausrollung der Änderung auf das Live-System behandelt alle Themen, die in dem Bereich des Release Managements fallen. Dass dieser Prozess einen großen Einfluss auf die Qualität der Software und den Erfolg des Unternehmens hat, liegt demzufolge auf der Hand. Aufgrund der Konkurrenzsituation am Markt streben IT-Unternehmen nach dem bestmöglichen Prozess. An diesem Punkt kommen Tools wie Jira aus der Atlassian Suite oder Azure DevOps aus dem Microsoft-Portfolio ins Spiel. Diese Tools unterstützen Unternehmen in den Bereichen Issue-Tracking, Taskplanung, sowie weitere Themen, die im Release Management gebraucht werden. Nichtsdestotrotz treten bei vielen IT-Unternehmen nach wie vor Probleme auf, die für die Qualität des Release Managements negative Auswirkungen haben und verbessert werden müssen. In dieser Arbeit wird mithilfe einer Literaturrecherche über die Probleme in Verbindung mit Toolanalysen sowie einer qualitativen Forschung mit Experten aus dem Bereich des Release Management und in der Softwareentwicklung erforscht, ob die gefundenen Probleme im Kontext des Tools auftreten oder, ob diese durch weitere Handlungsempfehlungen gelöst werden können. Aufgrund der Tatsache, dass die Softwareentwicklung in den letzten Jahren eine Entwicklung eingeschlagen hat, in der der Softwareentwicklungsprozess sich in den meisten Unternehmen mehr in Richtung eines agilen Ansatzes geändert hat, wird in folgender Arbeit die Auswirkung dieses Trends auf das Release Management analysiert. Zu guter Letzt werden einer Gruppe an Unternehmen Handlungsempfehlungen erstellt, die bei Eintritt bestimmter Probleme verwendet werden können, um auch in Verbindung mit dem Tool für eine höhere Qualität im Release Management zu sorgen.
Diese Masterarbeit behandelt die Informationssicherheit im Kontext des Social Engineerings von Unternehmen. Das Ziel ist es, Initiativen zu definieren, die Unternehmen kritischer Infrastruktur einsetzen müssen, um die Informationssicherheit in diesem Kontext zu gewährleisten. Im Bereich der Theorie wurde eine Literaturrecherche über das Thema ‚Social Engineering‘ durchgeführt. Es ließ sich herausfinden, welche Möglichkeiten es gibt, Unternehmen zu attackieren. Des Weiteren bedeutet Social Engineering nicht, dass immer eine illegale Aktivität dahinter steckt, sondern dass hier lediglich mithilfe von Psychologie ein Mehrwert für die Angreiferin oder den Angreifer generiert wird. Für den empirischen Teil der Arbeit wurde eine Umfrage an Personen gesendet, die in ihrer Arbeit mit Informationssystemen zu tun haben. Diese Befragung hat ergeben, dass Personen wissen, wie bedeutsam Informationssicherheit ist, und es wurde kein signifikanter Unterschied zwischen IT-affinen und nicht IT-affinen Personen festgestellt. IT-affine Personen wissen lediglich besser über die Auswirkungen Bescheid. Des Weiteren wurden Interviews mit Expertinnen und Experten aus dem Bereich der Informationssicherheit durchgeführt. Deren Zweck war es, herauszufinden, welche Maßnahmen es gibt, die Informationssicherheit im Kontext von Social Engineering zu gewährleisten bzw. zu erhöhen. Es hat sich herausgestellt, dass Security-Awareness-Schulungen sehr sinnvoll sind. Unternehmen kritischer Infrastruktur sollten sich auf Vor-Ort-Schulungen fokussieren, da diese ein höheres Informationssicherheitsempfinden beim Personal auslösen. In Relation zu den Kosten, die ein Social-Engineering-Angriff verursachen kann, zahlt sich für ein Unternehmen kritischer Infrastruktur eine Security-Awareness-Schulung mit großer Wahrscheinlichkeit aus. Es wird auch empfohlen, technische und physische Maßnahmen einzusetzen, um einen Social-Engineering-Angriff zu erschweren. Jedoch ist zu erwähnen, dass technische Maßnahmen nicht ausschließlich darauf ausgelegt sind, Social-Engineering-Angriffe zu verhindern. Das ist lediglich ein Teil davon. technische Maßnahmen schützen die Allgemeinheit vor Social-Engineering-Angriffen, jedoch nicht einzelne Personen. Für Unternehmen kritischer Infrastruktur sollten wiederkehrende Security-Awareness-Schulungen und technische Maßnahmen eingesetzt werden, um die Informationssicherheit im Kontext des Social Engineerings zu gewährleisten. Diese Vorkehrungen haben nämlich keinen erheblich negativen Einfluss auf die Arbeitstätigkeiten der Mitarbeiterinnen und Mitarbeiter im Allgemeinen. Auf der anderen Seite stellen sie jedoch sicher, dass die Angestellten ein entsprechendes Bewusstsein für diese Gefahr entwickeln und es stetig erweitern.
Cloud Technologien wurden zur Bereitstellung von Infrastruktur für REST APIs in den letzten Jahren immer wichtiger. Das Container-as-a-Service (CaaS) Modell bei welchen Anwendungen virtualisiert in der Cloud laufen stellt hierbei einen der meistgenutzten Services dar. Dabei kommt es jedoch immer noch zu einem Overhead bei Verwaltung und Bereitstellung der Container, wodurch Entwicklungsressourcen verloren gehen. Eine noch leichtgewichtigere Alternative ist das neuere Function-as-a-Service (FaaS) Modell, welches den Verwaltungsaufwand reduzieren soll. Ziel der Masterarbeit ist es herauszufinden, ob FaaS sich besser als CaaS für die Entwicklung von REST APIs eignet. Um die Modelle vergleichbar zu machen, werden die Kriterien Kosten sowie Performance herangezogen und es wird folgende Forschungsfrage gestellt: ‚Wie wirkt sich FaaS gegenüber CaaS auf Performance und Kostenentwicklung einer REST API aus?‘. Um die Forschungsfrage zu beantworten, wurde jeweils eine CaaS und eine FaaS API implementiert. Als Metrik für Performance wurde dabei die Response Time (RT) gewählt. Diese gibt die Zeit an, welche zwischen Senden des API Requests und dem Empfang der Response verstreicht. Die RT wurde automatisiert mittels Artillery Skripts gemessen, um gleichzeitige Nutzung durch 1.000 virtuelle Benutzer*innen zu simulieren und verschiedene Anwendungsfälle abzubilden. Anhand der RT Daten wurden anschließend Kosten für verschiedene Benutzerzahlen berechnet. Die Ergebnisse der Performancemessungen zeigen, dass die RT von FaaS durchwegs höher ist als jene von CaaS. Für zeitkritische Applikationen kann FaaS daher nicht empfohlen werden. Bei den Kosten zeigt sich ein gemischtes Bild. Gerade bei wenigen API-Aufrufen entstehen bei FaaS kaum Kosten im Vergleich zu CaaS. Je höher die Anzahl der API Aufrufe, umso mehr verkehrt sich dieser Umstand jedoch ins Gegenteil, bei zwölf Millionen täglichen Aufrufen ist die FaaS Lösung schon beinahe dreimal so teuer wie CaaS. FaaS bietet sich also vor allem für kleinere Applikationen an, um einen Kompromiss zwischen Performance und Kosten zu finden.
In vielen Systemlandschaften stellt ein ERP-System das Rückgrat aller Geschäftsprozesse dar. Das Streben nach durchgängigen Prozessintegrationen macht diese Komponente zu einem beliebten Kandidaten für die Anbindung weiterer Unternehmensanwendungen. Durch moderne, Cloud-basierte Bereitstellungsmodelle werden neue Innovationen und Funktionalitäten immer häufiger im Rahmen automatischer Software-Upgrades bereitgestellt. Um unter diesen Einwirkungen weiterhin einen reibungslosen Produktivbetrieb der geschäftskritischen Kernprozesse sicherstellen zu können, ist die Durchführung regelmäßiger Softwaretests folglich unabdingbar. Eine manuelle Ausführung dieser Tests bindet wiederkehrend Personalressourcen. Testautomatisierung birgt hierbei eine wertvolle Chance, Tests wiederholbar zu machen und effizienter zu gestalten. Die Herausforderungen in der Testautomatisierung in Kombination mit Webapplikationen sind jedoch nicht zu unterschätzen. Der dynamische Aufbau von Benutzeroberflächen erschwert die Erstellung stabiler Automatisierungen auf UI-Ebene. Eingeschränkte Zugriffsmöglichkeiten auf die Codebasis von Anwendungen repräsentieren eine weitere Hürde. Schnittstellenbasierte Ansätze verkörpern dadurch eine attraktive Alternative. In der vorliegenden Arbeit werden Einsparpotenziale durch den Einsatz von GUI- und API-basierter Testautomatisierung für SAP Business ByDesign untersucht. Bei der kaufmännischen Bewertung von Testautomatisierungsprojekten müssen initiale Implementierungskosten ebenso mit in die Betrachtung einfließen, wie auch Wartungsaufwände, Infrastrukturkosten und ggf. anfallende Lizenzkosten. Im Rahmen der Masterarbeit wurden sowohl interne als auch externe Experteninterviews durchgeführt, um einerseits Vergleichs- und Erfahrungswerte aus manuellen Testvorgängen zu erheben, andererseits jedoch auch wichtige Aspekte und Erkenntnisse für mögliche Testautomatisierungen in Zusammenspiel mit SAP Business ByDesign zu gewinnen. Dazu wurden die Interviews transkribiert, paraphrasiert und mittels qualitativer Inhaltsanalyse ausgewertet. Eine abschließende Evaluierung und Gegenüberstellung der aus den Interviews hervorgehenden Ansätze zur UI- und API-basierten Testautomatisierung zeigen konkrete Anknüpfungspunkte für potenzielle Projektautomatisierungsprojekte.
Das virtuelle Büro
(2022)
Die Einführung von einheitlichen und dokumentierten Telearbeitsmodellen wird von Unternehmen häufig außer Acht gelassen. Zahlreiche Unternehmen aus der IT-Branche verfügen über keine standardisierte Vorgehensweise für die Etablierung von Telearbeitsarbeitsplätzen. Durch die Corona-Pandemie mussten viele Arbeitsplätze rasch in die eigenen vier Wände der Belegschaft transformiert werden. Aufgrund der schnellen Transformation wird vermutet, dass auf wesentliche Aspekte für ein erfolgreiches, langfristiges und nachhaltiges Bestehen der Modelle vergessen wurde. Demzufolge richtet sich die behandelte Forschungsfrage auf die Vorgaben und Modelle, welche für einen rein virtuellen Arbeitsplatz im Kontext der modernen Software-Entwicklung benötigt werden. Hierzu wurden Hypothesen zur Bedeutung der Existenz des physischen Büros, zu Dokumentations- & Kommunikationsstrukturen, zur Arbeitsplatzausstattung und zu den internen Strukturen eines Unternehmens aufgestellt. Für die Prüfung der Hypothesen wurde eine Umfrage mit Teilnehmer*innen aus der IT-Branche durchgeführt. Mit Hilfe der Befragung konnten die aktuell gelebten Strukturen sowie einige Adaptierungswünsche der Befragten erhoben werden. Weiters konnten anhand der erhobenen Merkmale einige wichtige Faktoren zur Verbesserung der aktuell gelebten Telearbeitsrichtlinien identifiziert werden. Auf Basis der Ergebnisse und des erarbeiteten theoretischen Wissens wurden Handlungsempfehlungen ausgesprochen. Das Ergebnis dieser Arbeit zeigt, dass die Telearbeit in dieser Branche nicht mehr wegzudenken ist. Diese Form der Arbeitszeiteinteilung wird vermehrt von den Arbeitnehmern und Arbeitnehmerinnen gefordert, weshalb auch Strukturen für funktionierende Modelle geschaffen werden müssen. Im Anschluss an die geprüften Hypothesen werden zwei neue Telearbeitsmodelle anhand der Ergebnisse vorgestellt.
Mobile Computing
(2021)
Die folgende Masterarbeit behandelt das Thema der Sicherheit im Umgang mit mobilen Geräten und welche Gefahren für diese bestehen und welche Maßnahmen getroffen werden können, um Schäden im Unternehmensumfeld zu vermeiden. Dabei wird ein großer Fokus auf mögliche Angriffsvektoren gelegt, diese evaluiert und betrachtet, wie ein Schaden auf den Angriffsvektor bestmöglich vermieden werden kann. Des Weiteren werden Penetration Tests von Geräten näher erleuchtet, da diese für das IT-Personal eine wichtige Möglichkeit darstellt, um die Sicherheit der Geräte und des Netzwerkes zu testen. Das Hauptaugenmerk der ersteren Kapitel bezieht sich auf die Verwendung von Notebooks für den mobilen Arbeitsgebrauch. Im letzten Kapitel des theoretischen Teiles werden Mobiltelefone nochmals genauer erörtert, da diese heutzutage zum Standardequipment von vielen Angestellten gehört. Schlussendlich werden für den praktischen Teil dieser Arbeit mehrere Experten zum Thema der mobilen Sicherheit im Unternehmen befragt, um zu erörtern welchen Stand diese derzeit und welche Maßnahmen diese anwenden, um deren Unternehmen abzusichern. Die Ergebnisse zeigen, dass von allen befragten Experten valide Standards eingesetzt werden, um die Sicherheit der Mobilgeräte zu garantieren. Dabei versuchen diese sowohl die Sicherheit der Geräte, aber auch der Daten zu garantieren.
Every fifth human suffers from musculoskeletal disorders. Diagnosis, treatment and aftercare of those conditions provide a severe problem for the healthcare system around the world. Radiology units are highly occupied with patient demands and in consequence, radiologists are especially prone to suffer from fatigue. Overall 11% to 27% fractures are misdiagnosed. This is especially harmful during childhood since inappropriate treatments are futile for further bone development. Certain care in this perspective is epiphyseal fractures, which are directly linked to bone growth.In recent years more and more computational driven diagnosis methods find their way into clinical diagnosis due to hardware and software advancements. Particularly the evolvement of machine learning algorithms for image analysis in any kind of application is intriguing for clinical usage to support radiologists. Here, we compare state-of-art imaging analysis machine learning modells for their applicability to predict epiphyseal fractures. Using 21557 X-ray images, split into training and validation datasets, from the Radiology Department of the Medical University of Graz were used to train seven different commonly used models. We found that A custom ensemble model of ShapeMask and SpineNet yielded the most accurate prediction with 80,7%. Most tested models, including SpineNet, ResNet, MobileNetV2, a custom convolutional neural network, faster R-CNN, and Azure Custom AI provided an accuracy of 70% to 80%. Only MobileNetV2 turned out to be inapplicable for this use case, resulting in a meagre 40% accuracy. None of the tested models was able to outperform the accuracy of radiologists. All in all, we provide a comprehensive overview of the possible utilization of currently available imaging analysis machine learning models and their possible use for epiphyseal fracture diagnosis.
Seit Beginn des 20. Jahrhunderts stellen das Radio und der Fernseher einen fixen und sehr großen Bestandteil in der Unterhaltungs- und Informationslandschaft dar. Mit dem Fortschreiten der Jahre gewöhnten sich die Menschen auch immer mehr an sie und wurden so eine Selbstverständlichkeit, die für jedermann erschwinglich ist. Während das Internet durch seine flächendeckende Verbreitung den bestehenden Medien immer mehr Konkurrenz im Bereich der Informationsgewinnung, nicht zuletzt auch durch seine Zeitunabhängigkeit, macht, tun sich in den letzten Jahren immer mehr Konkurrenten im Unterhaltungssegment hervor. Um nur einige zu nennen: Amazon, Netflix, Spotify und YouTube. Was diese gemeinsam haben, sie richten sich nach der Zeit der Kunden und Kundinnen und geben ihnen völlig freie Wahl darüber, was wann angesehen werden möchte und das bei einer ständig größer werdenden Auswahl an Inhalten von Drittherstellern und Eigenproduktionen. Eine im Rahmen der Arbeit durchgeführte Umfrage mit 131 Teilnehmern und Teilnehmerinnen ergab, dass Video/Content on Demand mit über 171 Minuten Nutzungszeit pro Tag die am meisten genutzte Unterhaltungsform darstellt. Die beliebtesten Kategorien in diesem Bereich sind Filme & Serien sowie Dokumentationen und Musik, also genau die Instrumente, mit denen auch Radio und Fernsehen arbeitet. Platz 1 für Video/Content on Demand ändert sich auch nicht, wenn man die Rohdaten nach Alter oder Geschlecht aufbereitet. Dies hat sich nicht nur im Laufe der letzten Jahre aufgebaut, sondern wurde auch durch die von der Coronavirus SARS-COV 2-Pandemie verursachten Folgeerscheinungen beeinflusst, wodurch zum Beispiel die Nutzungszeit auf der Plattform Twitch.tv um 83 % gegenüber dem Jahr 2019 gestiegen ist. Durch das immer schneller werdende Leben und die Anforderungen an das Leben selbst haben sich auch die Anforderungen der Kunden und Kundinnen entsprechend verändert. Daraus entstehen neue Geschäftsfelder, Möglichkeiten und Ideen, welche die Unterhaltungs- und Informationslandschaft in eine immer flexiblere und interaktivere Richtung ändern. Aus diesem Grund wurde ein Konzept entwickelt, welches Unterhaltungsplattformen anhand dieser Anforderungen gestaltet.
Selbst für die Hotel Industrie bringt die Digitalisierung viele neue Probleme mit sich, denen sich Hotels stellen müssen. Eines dieser Probleme ist Online-Marketing. Deshalb steht dieser Themenkreis in dieser Masterarbeit im Mittelpunkt der Betrachtung. Welche Schritte im Bezug auf Onlinemarketing sind notwendig, damit ein privater Seminarhotel Betreiber langfristig neue Business Kunden akquirieren kann? Diese Forschungsfrage wird im Rahmen dieser Arbeit zentral behandelt. Alle Grundlagen des Marketings und weitere Grundlagen, um diese Frage beantworten zu können, wird im ersten Teil sorgfältig definiert. Dazu gehören die Definition von Businesshotels, die Digitale Transformation, Marketing, die Alleinstellungsmerkmale oder auch Unique Selling Propositions genannt, die 4Ps des Marketings, die 7Ps des erweiterten Marketings, die Kundenzufriedenheit, die Kommunikationswege, die Kundenbindung, die Personas, die Customer Journey und der Service Blueprint. Im zweiten Teil wird alles, was aus Sicht des Online Marketings für das in dieser Arbeit beschriebene Konzept notwendig ist, abgebildet. Zu diesem Zweck erfolgte eine Gliederung in Social Media, Webseiten, Buchungsportale, Usability / User Experience, Suchmaschinenwerbung, Newsletter Marketing und Signatur Marketing. Im dritten Teil wird das Konzept erstellt und jeder Teil des Konzepts wird detailliert beschrieben. Der vierte Teil befasst sich mit dem Design der Umfrage. Dabei wird einerseits definiert, wer für diese Arbeit als Mitglied der Zielgruppe dient, andererseits werden aber auch der Inhalt, der Bewertungsprozess und die Ergebnisse der Umfrage als auch mögliche Änderungen des Konzepts erörtert. Um dieses Konzept zu validieren, wurde eine Umfrage unter 137 Personen durchgeführt. Die Ergebnisse zeigen, dass ein Konzept für Hotels, wie es in dieser Arbeit erstellt wurde, notwendig ist und dass es kontinuierlich überwacht und verbessert werden muss. Alle Daten aus der Umfrage sind nicht in dieser Arbeit enthalten, sondern separat auf der CD beigefügt.
In dieser Masterarbeit wird die relevante Theorie und ein Konzept zum Thema IT unterstützte Kommunikation in einem privaten Seminarhotel beschrieben. Hierzu werden zu Beginn im ersten Kapitel die Grundlagen des Prozessmanagements erörtert. Dies beinhaltet die Definition der Begriffe Prozess und Prozessmanagement. Des Weiteren wird ein Reifegradmodell in diesem Kontext und die Bedeutung von Effektivität und Effizienz näher erörtert. Abschließend werden in diesem Kapitel noch Fehler im Prozessmanagement und der kontinuierliche Verbesserungsprozess erklärt. Im zweiten Kapitel wird das Thema Dienstleistungsmanagement behandelt. Hierfür wird zuerst der Begriff des Dienstleistungsmanagements näher erörtert. Im Anschluss werden die besonderen Eigenschaften von Dienstleistungen und das Dimensionen Modell betrachtet. Darauffolgend werden in Bezug auf das Dienstleistungsmanagement sogenannte Leistungsbündel und die Wahrnehmung von Dienstleistungen beschrieben. Zum Abschluss des Kapitels werden die Themen Value Proposition Canvas, Personas, Service Blueprint, Customer Journey Map, Usability und User Experience in Bezug auf das Erstellen und Verbessern von Dienstleistungen erklärt. Das dritte Kapitel beschäftigt sich nachfolgend mit den Grundlagen des Marketings und der Digitalisierung. Hierzu wird der Marketing-Mix, die Unique Selling Proposition und das KANO Modell beschrieben. Anschließend folgt die Überleitung zur digitalen Transformation und der IT unterstützten Kommunikation im Hotelbereich. Im vierten Kapitel wird ein Konzept vorgestellt, welches die wichtigsten Voraussetzungen an die IT unterstützte Kommunikation in einem privaten Seminarhotel abdeckt. Nachfolgend wird im fünften Kapitel eine Umfrage durchgeführt, um Rückmeldungen und wertvolle Informationen zum Konzept zu erhalten. Abschließend wird im letzten Kapitel dieser Masterarbeit auf Basis der erhaltenen Informationen das Konzept optimiert. Das Ergebnis der Umfrage zeigt, dass das im Rahmen dieser Arbeit erstelle Konzept eine gute Basis für die Zukunft darstellt.
Das Smart Home hat sich als Anwendungsgebiet innerhalb des IoT große Beliebtheit verschafft. Mithilfe von verschiedenartigen, miteinander vernetzten Geräten werden Komfort und Sicherheit im Wohnbereich gesteigert. Aufgrund der einfachen Bedienung und der Interoperabilität zwischen unterschiedlichen Plattformen ist diese Art von Geräten besonders in Privathaushalten verbreitet. Durch ständige Konnektivität zum Internet bestehen jedoch Risiken hinsichtlich der Informationssicherheit sowie des Schutzes von Daten der BenutzerInnen. Die untersuchte Architektur im Rahmen dieser Arbeit behandelt ein generisches, Cloud-basiertes System. Dieses wird mithilfe des Risikoanalysemodells OCTAVE Allegro und dem Fokus auf kritische Informationsassets systematisch auf Sicherheitsrisiken überprüft. Für eine bessere Übersicht wird das Gesamtsystem in drei Subsysteme aufgeteilt. Ziel der Risikoanalyse ist es, die unterschiedlichen Sicherheitsrisiken, welche mit der Nutzung von Cloud-basierten Smart Home Systemen verbunden sind, aufzuzeigen. Für die Reduzierung von Risiken werden Gegenmaßnahmen sowie ein Katalog über Handlungsempfehlungen für NutzerInnen erarbeitet. Die Ergebnisse zeigen, dass NutzerInnen innerhalb ihres Einflussbereiches gezielt Maßnahmen zur Reduzierung der Risiken setzen können. Besonders beim Betrieb von kritischen Geräten sind eine stabile Energieversorgung und Internetverbindung essenziell. Der restliche Anteil der Sicherheitsrisiken geht bei einem Cloud-basierten System auf die Systemanbieter sowie Service Provider über. Durch die Entwicklung von Systemen innerhalb aktueller Security-Frameworks können Systemanbieter bereits in der Konzeptphase spätere Risiken vermeiden und Security und Privacy by Design Prinzipien einhalten. Für eine nachhaltige Durchsetzung von Smart Home Systemen ist dies ein essenzieller Faktor. Mithilfe neuer Technologien wie Blockchain könnten traditionelle Sicherheitsprobleme im IoT obsolet werden, konkrete Anwendungsfälle dafür befinden sich noch im Forschungsstadium.
Die Digitalisierung schreitet über alle Branchen hinweg kontinuierlich voran. Auch die Tätigkeit der Hypothekarkreditvermittlung ist von diesem Trend nicht ausgenommen. Dennoch wird ein Großteil der Informationen, die für eine Kreditvermittlung notwendig sind, noch handschriftlich erfasst und die erforderlichen Dokumente werden per E-Mail ausgetauscht. Im Zuge dieser Arbeit soll herausgefunden werden, wie der gesamte Prozess der Hypothekarkreditvermittlung sowohl auf Seiten der Kund/innen als auch auf Seiten der Kreditvermittler/innen mit Hilfe eines webbasierten Portals bestmöglich unterstützt werden kann. Das Ziel ist dabei nicht, das persönliche Beratungsgespräch zu ersetzen, sondern die Abwicklung digital zu unterstützen. Ausgehend von der Analyse des Prozesses werden die Anforderungen an die Anwendung festgelegt. Anschließend wird ein Prototyp konzeptioniert und implementiert, der diese Anforderungen bestmöglich erfüllen soll. Der Fokus liegt dabei auf eine möglichst einfache Bedienung und größtmögliche Zeitersparnis für alle Beteiligten. Der Prototyp ermöglicht, sämtliche Daten, die im Zuge einer Hypothekarkreditvermittlung erforderlich sind, direkt im Webportal einzugeben. Alle Dokumente können über die Anwendung hochgeladen oder mittels Kameraaufnahme hinzugefügt werden. Kreditvermittler/innen haben im Portal die Möglichkeit, Anfragen an Banken für Finanzierungsangebote zu stellen. Dadurch entfällt das zeitaufwändige, manuelle Zusammenstellen der Unterlagen. Die von den Banken übermittelten Angebote können den Kund/innen in einem übersichtlichen Vergleich zur Verfügung gestellt werden. Das erhöht die Transparenz und erleichtert die Entscheidung für die bestmögliche Finanzierung. Der Prototyp erfüllt alle gestellten Anforderungen und könnte zukünftig zu einer vollwertigen Plattform ausgebaut werden.
Wissen wird zu einem immer wichtiger werdenden Wettbewerbsfaktor, welcher durch die steigende Globalisierung und Entstehung neuer Absatzmärkte begründet wird. Durch die COVID-19-Pandemie ist es jedoch zu einer nie dagewesenen Umstellung der Arbeitsweise gekommen. Der Anteil der an zu Hause arbeitenden Personen ist gestiegen und es haben sich Kommunikationswege durch die verteilte Arbeitsweise auf digitale Kanäle wie E-Mails oder Chatnachrichten verlagert. Dadurch ist das Sammeln, Speichern und Verteilen von Wissen erschwert worden. Das Ziel dieser Arbeit ist es aufzuzeigen, wie ein Werkzeug für Wissensmanagement in dieser geänderten Arbeitsumgebung Unterstützung bieten kann und dazu beiträgt, die mit Teleworking, verteilten Teams und unabhängiger Arbeitsweise verbundenen Herausforderungen zu bewältigen. Deshalb wurden im ersten Schritt die theoretischen Grundlagen zu Wissensmanagement bzw. der dazugehörigen Werkzeugen sowie die Barrieren zu deren Nutzung erarbeitet. Danach wurde der Arbeitsalltag am Beispiel der Softwareentwicklung analysiert, welche Änderungen aufgrund des gesteigerten Teleworkings entstanden sind und wie Wissensmanagement in dieser Branche eingesetzt werden kann. Anschließend wurde eine vertiefte Analyse von modernen Ansätzen für Wissensmanagementsysteme durchgeführt. Basierend auf den Ergebnissen der theoretischen Untersuchung wurde dann ein Prototyp entwickelt, mit welchem es möglich ist, Wissensartikel und Self-Service-Prozesse für Mitarbeiterinnen und Mitarbeiter bereitzustellen. Die Kernfunktionalitäten für die Umsetzung der modernen Ansätze umfassen die folgenden Bereiche: - proaktive Wissensbereitstellung - kontextbasierte Wissenserfassung - Ausführung von Self-Service-Prozessen Letztlich wurde der Prototyp an unterschiedlichen Unternehmen getestet und Feedback hinsichtlich der modernen Ansätze gesammelt und evaluiert. Das finale Kapitel dieser Arbeit zeigt, dass sowohl die proaktive Wissensbereitstellung als auch die Ausführung von Self-Service-Prozessen von den Unternehmen erwünscht wird.