Informationstechnologien & Wirtschaftsinformatik
Filtern
Dokumenttyp
- Masterarbeit (162)
Volltext vorhanden
- ja (162)
Gehört zur Bibliographie
- ja (162)
Schlagworte
- Digitalisierung (10)
- Software Engineering (9)
- Projektmanagement (8)
- Informationssicherheit (6)
- Kundenmanagement (6)
- Online-Marketing (5)
- Business Intelligence (4)
- Computersicherheit (4)
- Internet der Dinge (4)
- Personalwesen (4)
- Data Mining (3)
- Electronic Commerce (3)
- Enterprise-Resource-Planning (3)
- Logistik (3)
- Marketing (3)
- Mikroservice (3)
- Scrum <Vorgehensmodell> (3)
- Social Media (3)
- Softwareentwicklung (3)
- Telearbeit (3)
- Webanwendung (3)
- Agile Softwareentwicklung (2)
- Benutzeroberfläche (2)
- Betriebliche Kennzahl (2)
- Blockchain (2)
- Cloud Computing (2)
- Datenanalyse (2)
- Dokumentenverwaltungssystem (2)
- Informatik (2)
- Kommunikationssystem (2)
- Maschinelles Lernen (2)
- Portal <Internet> (2)
- Robotic Process Automation (2)
- Servicemanagement (2)
- Wissensmanagement (2)
- Agilität <Management> (1)
- App <Programm> (1)
- Arbeitsgestaltung (1)
- Assistenzsystem (1)
- Authentifikation (1)
- Autonome Systeme (1)
- Bestandsmanagement (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Change Management (1)
- Chatbot (1)
- Cloud (1)
- Computerunterstützte Kommunikation (1)
- Darknet (1)
- Data-Warehouse-Konzept (1)
- Datenauswertung (1)
- Datenschutz (1)
- Datensicherheit (1)
- Datenverarbeitung (1)
- Datenübertragung (1)
- Dienstleistung (1)
- Dienstleistungsangebot (1)
- Digitale Fotografie (1)
- Elektromobilität (1)
- Energiewirtschaft (1)
- Framework <Informatik> (1)
- Führung (1)
- Gamification (1)
- Generation Z (1)
- Geschäftsfeldplanung (1)
- Geschäftsmodell (1)
- Hochschullehre (1)
- Hochverfügbarkeit (1)
- IT-Sicherheit (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Infotainment (1)
- Integriertes Lernen (1)
- Intranet (1)
- IoT-Geräte (1)
- Kosten-Nutzen-Analyse (1)
- Kreditwesen (1)
- Kundendienst (1)
- Künstliche Intelligenz (1)
- Management (1)
- Marktforschung (1)
- Messtechnik (1)
- Mobiles Endgerät (1)
- Mustererkennung (1)
- Nachhaltigkeit (1)
- Objekterkennung (1)
- Online-Shop (1)
- Performance Management (1)
- Personalplanung (1)
- Preisbildung (1)
- Prozessautomation (1)
- Prozessmanagement (1)
- Prozesssimulation (1)
- Qualitätsmanagement (1)
- Qualitätssteigerung (1)
- REST <Informatik> (1)
- Risikoanalyse (1)
- SCADA <Programm> (1)
- Service Engineering (1)
- SharePoint 2013 (1)
- Sicherheitsplanung (1)
- Single-page-Webanwendung (1)
- Social Engineering <Sicherheit> (1)
- Softwarekonfigurationsverwaltung (1)
- Softwareproduktion (1)
- Softwareschutz (1)
- Softwaretest (1)
- Strategisches Management (1)
- Supply Chain Management (1)
- Technische Unterlage (1)
- Telekommunikationsnetz (1)
- Unternehmensgründung (1)
- Verbraucherverhalten (1)
- Vertrieb (1)
- Verwaltung (1)
- Videokonferenz (1)
- Vielfalt (1)
- Virtuelle Kommunikation (1)
- Vorgehensmodell (1)
- Web Services (1)
- Wertschöpfung (1)
- Wirtschaft (1)
- Zugriffskontrolle (1)
Institut
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Lagerleitstände sind mit einer Vielzahl an technischen und organisatorischen Herausforderungen konfrontiert. Sich ändernde Umstände im Lagerlogistikumfeld sowie geänderte Konsumentenanforderungen erfordern zudem, dass sich Informationssysteme daran anpassen. Die vorliegende Arbeit befasst sich hier insbesondere damit, wie künstliche Intelligenz den Lagerleitstand in seinen Aufgaben unterstützen kann. Um diese Frage zu beantworten, wird die aktuell vorhandene Literatur in drei Aspekten beleuchtet. Zum einen werden die Aufgaben, die Lagerleitstand zukommen analysiert. Anschließend wird erfasst, mit welchen Informationssystemen dieser in Kontakt ist. Zuletzt wird beschrieben, wie intelligente Systeme implementiert werden können. Um die aus der Literatur aufgestellten Hypothesen zu überprüfen, erfolgte ein zweistufiger Prozess zur Überprüfung dieser. Hierbei wurde eine Befragung von Lagerlogistiksoftware Experten durchgeführt und diese wurde qualitativ ausgewertet. Die Ergebnisse dieser Befragung wurden in einer Kundenumfrage weiter validiert. Diese Kundenumfrage wurde quantitativ ausgewertet. Die Ergebnisse der Arbeit zeigen, dass in unterschiedlichen Teilbereichen zusätzliche intelligente Funktionalitäten benötigt werden. Künstliche Intelligenz ist hierbei lediglich die Möglichkeit, diese Anforderungen umzusetzen und wird nicht gesondert von Kunden nachgefragt. Vor allem in Warehouse-Management-Systemen sind bisher wenig konkrete Anwendungsfälle implementiert worden. Neben intelligenter Lagerung von Waren, die berücksichtigt, welche Produkte häufig gemeinsam ausgeliefert werden, identifizierten die Befragten vor allem auch die Notwendigkeit von Prozessoptimierung. Diese umfasst Ressourcenoptimierung sowie das Erkennen von optimalen Zeitpunkten für bestimmte Lageroperationen. Zudem ist eine vorrauschauende Fehlererkennung in unterschiedlichen Lagerteilbereichen für Lagerleitstände ein besonders relevanter Anwendungsfall. Dieser eignet sich aufgrund der Datenbeschaffenheit und der Komplexität des Problems für eine Implementierung mithilfe von künstlicher Intelligenz.
Teambuilding
(2021)
Die Covid-19-Krise hat viele Unternehmen dazu verleitet, Home-Office-Regelungen in der ein oder anderen Form beizubehalten. Auch wenn dies gewisse Vorteile mit sich bringt, sollten die Nachteile nicht außer Acht gelassen werden. Ziel dieser Studie war die Untersuchung, wie die negativen Faktoren der Heimarbeit durch Teambuilding-Maßnahmen im Rahmen von Softwareentwicklungsunternehmen abgemildert werden können. Ausgehend von bestehender Literatur wurde eine Gruppe von Expertinnen und Experten, zusammengesetzt aus 3 coachenden Personen, 3 Führungskräften, einem Scrum-Master und einer Fachkraft, gebeten, ihre Erkenntnisse und Erfahrungen zu diesem Thema zu teilen. Anschließend wurde eine qualitative Inhaltsanalyse nach Mayring durchgeführt, um die Erkenntnisse zur Erstellung eines Best-Practice-Leitfadens für die Durchführung von Home-Office in Unternehmen zu verwenden. Die Ergebnisse zeigen, dass eine offene und regelmäßige Kommunikation über fachliche und private Themen notwendig ist, um einen stetigen Informationsfluss zu gewährleisten. Darüber hinaus muss ein respektvolles und integratives Umfeld geschaffen werden, um Ausgrenzung zu verhindern, insbesondere bei einer Mischung von Mitarbeitenden, von denen einige zu Hause und andere im Büro sind. Es besteht ein allgemeiner Konsens darüber, dass die notwendigen Schritte in erster Linie von den Führungskräften unternommen werden müssen. Die Ergebnisse deuten darauf hin, dass die Förderung respektvoller und integrativer Praktiken der Zusammenarbeit im Allgemeinen wirksamer zu sein scheint als die Durchführung einzelner Teambuilding-Aktivitäten. Zusammenfassend kann das Ergebnis dieser Arbeit als Leitfaden für Unternehmen dienen, die mit dem Trend zur vermehrten Heimarbeit Schritt halten wollen. Darüber hinaus sollten weitere Untersuchungen angestellt werden, welche modernen Tools und Programme die Arbeit von zu Hause aus am besten unterstützen.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
„Verteilte Zusammenarbeit so gestalten, dass sie an das Gefühl der Zusammenarbeit an einem Ort herankommt“, sagte Dr. Vincent Tietz, Senior Consultant bei der Saxonia Systems AG, im Jahr 2016. In der heutigen Zeit, in der hohe Internetgeschwindigkeiten und hohe Bandbreiten als gang und gäbe betrachtet werden, entstehen neue Möglichkeiten der Arbeitsformen. In Zeiten der Coronakrise wurde dieser Trend noch mehr verstärkt und viele Unternehmen weltweit setzten auf den Denkansatz „Homeoffice“. Doch welche Herausforderungen birgt diese neue Form des Arbeitens und bietet sie nur Vorteile? Wie können wir speziell in der IT-Branche verteilte Softwareentwicklungsteams optimal steuern oder eine derartige Konstellation generell einführen? Sind Projektabwicklungen hinsichtlich solcher Umstände erfolgreich realisierbar und welche Vorrausetzungen sind hierfür unverzichtbar? Das Ziel dieser Masterarbeit war das Ermitteln und Modellieren von Prozessen, die einen wesentlichen Beitrag zur Steuerung sowie Einführung einer verteilten Softwareentwicklung leisten. Das Prozessmodell umfasst dabei nicht nur die Projektabwicklung selbst, sondern auch die vorgelagerten und nachgelagerten Arbeitsabläufe. Als praktische Grundlage dient hierbei die Guid.New GmbH, ein österreichischer Individualsoftwaredienstleister mit Sitz in Graz, welcher schon vor der Pandemie auf die „Remote“-Methode setzte. Samt der wissenschaftlichen Literaturrecherche und der praktischen Validierung des entstandenen Prozessmodells durch ExpertInnen, dient das Resultat als Vorlage für Unternehmen in der Individualsoftwarebranche. Als ExpertInnen wurden die Geschäftsführung, Gesellschafter sowie MitarbeiterInnen der Guid.New GmbH herangezogen – infolgedessen enthält das Ergebnis Praxisbezogenheit, Wiederverwendbarkeit und schafft neuen Mehrwert.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Business Intelligence und Analytics (BI&A) Systeme umfassen eine Vielzahl an Techniken, um Daten für eine faktengestützte Entscheidungsfindung in Unternehmen aufzubereiten und Informationen grafisch darzustellen. Das Ziel dieser Arbeit ist es herauszufinden, inwiefern BI&A Systeme von Klein- und Kleinstunternehmen sowie Ein-Personen-Unternehmen in Österreich eingesetzt werden und welche Faktoren einen Einsatz beeinflussen. Die Literaturrecherche umfasst Eigenschaften von BI&A, analysiert Chancen und Herausforderungen für kleine Unternehmen und stellt das empirische Forschungsmodell vor. Das Forschungsmodell kategorisiert Unternehmen in eine von drei Einführungsstufen und analysiert die Zusammenhänge von sieben Faktoren mit den Einführungsstufen. Insgesamt nahmen 94 Unternehmen an der Onlineumfrage teil. Die Datenanalyse umfasst eine Analyse des Einführungsstandes und der Einflussfaktoren sowie die Auswertung der Hypothesen mittels der Rangkorrelation nach Spearman. Sechs Hypothesen konnten verifiziert und eine musste verworfen werden. Der Einführungsstand von BI&A Systemen in kleinen österreichischen Unternehmen kann als niedrig angesehen werden. Die höchsten signifikanten Zusammenhänge mit dem Stand der Einführung bestehen mit den Faktoren wahrgenommener Wettbewerbsvorteil (rs=0,58**), interne Readiness (rs=0,55**) und der Unterstützung für BI&A durch das Management (rs=0,51**). Eine hohe Bewertung der Datenqualität in den Unternehmen und eine positive Tendenz, zahlenbasierte Entscheidungen zu treffen, können als Chancen für zukünftige BI&A Projekte gesehen werden. Die größten Herausforderungen für eine Einführung von BI&A in kleinen Unternehmen sind fehlende Ressourcen und ein fehlendes Verständnis für BI&A. Unternehmen, welche BI&A bereits verwenden, bewerten den relativen Vorteil und die Kostenersparnis durch BI&A auch für kleine Unternehmen positiv. Weiterführende Forschungen können das Forschungsmodell auf weitere Zielgruppen und Branchen anwenden und somit den Stand der Einführung und dessen Einflussfaktoren vergleichen.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
Durch die Liberalisierung des Energiemarktes in Österreich wurde es möglich, dass KundInnen den Energielieferanten frei wählen können. Dadurch ist der Wettbewerb zwischen den Energielieferanten stark gestiegen. Um Kundenabwanderung zu verhindern wird versucht die Kundenbindung zu stärken und besser auf die Bedürfnisse von KundInnen einzugehen. Eine Methode dies zu erreichen sind Communities. Die Motivation hinter dieser Arbeit ist zu zeigen, wie die Kundenbindung mit Hilfe einer Community gestärkt beziehungweise vertieft werden kann. Der Austausch zwischen EnergiekundInnen und Energielieferanten beziehungsweise mit geschultem Fachpersonal wird dadurch ermöglicht. Weiters kann eine Community beispielsweise zur Produktverbesserung oder für Co-Creation Zwecke genutzt werden. Das Ziel der vorliegenden Arbeit ist es, die Einflussfaktoren, die eine wichtige Rolle bei der Einführung einer Community spielen, heraus zu arbeiten und zu untersuchen. Dies wird mithilfe von Literaturrecherche und empirischer Forschung bewerkstelligt. Zuvor werden basierend auf den theoretischen Kenntnissen Hypothesen erstellt, welche mithilfe einer qualitativen Befragung geprüft werden. Anhand von leitfadengestützen Interviews und den Ergebnissen aus der Literaturrecherche, werden Einflussfaktoren aufgenommen oder verworfen. Daraus wird ein Leitfaden erstellt, welcher bei der Einführung einer Community herangezogen werden kann. Dieser Leitfaden hebt jene Kernelemente hervor, welche bei einer Gemeinschaftsgenerierung zu beachten sind. Damit soll mit hoher Wahrscheinlichkeit sicher gestellt werden, dass die Erstellung einer Community zum Erfolg führt.
Das Darknet, von vielen auch als das „böse Internet“ bezeichnet, bringt aufgrund seiner mysteriösen Natur viele Fragen mit sich. Es handelt sich um einen Teil des Deep Webs mit der besonderen Eigenschaft, dass Links im Darknet von keiner Search Engine indiziert werden können. Dieses Netzwerk besitzt jedoch weitere interessante Eigenschaften. Der Grad an Anonymität, welcher Darknet-Nutzern ermöglicht wird, ist im Laufe der Zeit charakteristisch für das Darknet geworden und damit auch zu seinem größten Vorteil geworden. Die Chancen, welche mit dem hohen Anonymisierungsgrad verknüpft sind, bringen ein breites Spektrum an Handlungsmöglichkeiten mit sich. Der Handel besitzt eine dominante Rolle im Darknet. Nicht nur diverse Drogen, sondern auch Fälschungen von persönlichen Dokumenten, schädliche Malware oder Hacking-Anleitungen sowie Schusswaffen können im Darknet problemlos erworben werden. Auch Rohdaten in unterschiedlichster Ausprägung spielen eine wichtige Rolle in diesem Netzwerk. So werden zahlreiche Whistleblowing-Seiten zum Vertrieb von Informationen verwendet oder auch weitere Kanäle, wie zum Beispiel Foren. Darknet-Nutzer können solche Daten konsumieren ohne Angst vor Zensur zu haben, da diese im Darknet keine Anwendung findet. So wie das Darknet ursprünglich für die sichere Kommunikation des amerikanischen Militärs entwickelt wurde, wird es heutzutage - nicht mehr auf das Militär eingeschränkt - zum gleichen Zweck eingesetzt. Hierbei wird eine Vielfalt an attraktiven Kommunikationskanälen angeboten, welche die uneingeschränkte Konversation erst möglich machen. Solche Grenzenlosigkeit kann jedoch sehr schnell zu starken Änderungen in der Verhaltensweise beider Gesprächspartner führen. Versteckt hinter dem Gefühl unbeschränkter Anonymität können im Darknet die persönlichen Grenzen aufgebrochen werden und das Verhalten der Anwender dieses Netzwerks ändert sich. Nichtsdestotrotz bringen die Kontaktaufnahme und das Kennenlernen anderer Nutzer zahlreiche interessante Erfahrungen mit sich, der Aufenthalt im Darknet stellt ein attraktives, überwältigendes Erlebnis dar.
PIDAS Aktiengesellschaft (PIDAS AG) verwendet seit über zwei Jahren Robotergesteuerte Prozessautomatisierung (RPA) um die Produktivität ihrer Mitarbeiter zu steigern. Diese Arbeit ermittelt mit Hilfe einer Umfrage unter den Mitarbeitern der PIDAS AG die Akzeptanz von RPA. Die Umfrage basiert auf dem Technology Acceptance Model, welches der Autor um zwei zusätzliche Variablen erweitert hat. Diese beiden Variablen messen die Jobangst und das Bewusstsein in Bezug auf die Verwendung von RPA. Die Analyse der Umfrage bestätigt die Hypothese, dass erhöhte Jobangst zu einem geringeren Nutzungswillen führt. Die Daten bestätigen auch, dass vermehrte Nutzung von RPA die Bereitschaft zur Nutzung erhöht. Zudem zeigen die Daten, dass die Befragten eine umso höhere Meinung von RPA haben, je bewusster sie es nutzen. Obwohl die Akzeptanz der Mitarbeiter der PIDAS AG sich auf einem hohen Niveau bewegt, ließe sich diese noch weiter durch entsprechende Maßnahmen der Entwicklung und des Managements steigern.
Service Transformation und die Digitale Transformation sind Schlagwörter, die Unternehmen aktuell beschäftigen. Dabei handelt es sich um Veränderungen in und um die Unternehmen selbst. Diese Trends sind jedoch mit Komplexität behaftet. Reifegradmodelle werden häufig zur Messung von komplexen Themen herangezogen. Daher finden diese auch für die aktuellen Trends der Digitalen Transformation und der Service Transformation Anwendung. Hierbei erfassen Unternehmen deren Reifegrad innerhalb eines Trends. Dies erfolgt mithilfe von Reifegradfaktoren und Reifegradkriterien, die auf unterschiedliche Weise ermittelt werden. Auch wenn beide Trends Ähnlichkeiten aufweisen und teils auch auf Themen des jeweils anderen Trends verweisen, stellt sich dennoch die Frage zur konzeptuellen Gemeinsamkeit beider Trends. Das Ziel dieser Masterarbeit ist es daher, die Forschungsfrage zu den konzeptuellen Gemeinsamkeiten der Faktoren zur Messung der Digitalen Transformation und der Service Transformation in Unternehmen zu beantworten. Dazu wird ein Untersuchungsdesign erarbeitet, mit welchem diese konzeptuellen Gemeinsamkeiten der Faktoren dann analysiert werden können. Dies erfolgt anhand eines Literatur-Reviews als Methode, der den systematischen Prozess zur Auswahl auf eine definierte Stichprobe abgrenzt. Zu dieser Stichprobe erfolgt eine inhaltsanalytische Auswertung, um die konzeptuellen Gemeinsamkeiten der Faktoren zu identifizieren. Es werden systematisch Kriterien erarbeitet und daraus fünf Dimensionen als Faktoren gebildet. Aus dieser Analyse lässt sich interpretieren, dass es eine Überschneidung zwischen den Reifegradmodellen der Digitalen Transformation und der Service Transformation gibt. Diese Überschneidung betrifft die Faktoren zum Ökosystem, Produkt und Service, Management und Führung, und Organisationskultur. Mit dem Ergebnis des Literatur-Reviews ergeben sich weitere Potenziale für Forschungen. Einerseits können die Ergebnisse dieser Masterarbeit durch weitere Detailbetrachtungen erweitert und angepasst werden. Andererseits können basierend auf dieser Masterarbeit weitere Themen zu den Gemeinsamkeiten der Digitalen Transformation und der Service Transformation erarbeitet werden.
Moderne Frameworks für die Entwicklung von Anwendungen auf mobilen Plattformen entwickeln sich ständig weiter, um den sich ständig ändernden Anforderungen der Welt der Softwareentwicklung gerecht zu werden. Seit 2018 entwickelt Google das Flutter-Framework, das für die Entwicklung mobiler Anwendungen auf den Plattformen Android und iOS eingesetzt wird. Da es sich bei Flutter um das neueste Framework handelt, das eine native Anwendungsleistung verspricht, ist es wichtig, ein besseres Verständnis für die Performance der Technologie zu erhalten und zu erfahren, wie sie sich mit anderen verfügbaren Plattformen messen kann. Aus diesem Grund analysiert diese Arbeit Flutter und vergleicht das Framework mit nativen und anderen plattformübergreifenden Technologien. Prototypen mit den gleichen Funktionalitäten wurden mit Flutter und anderen Plattformen (z. B. Android, iOS, React Native) erstellt und dann getestet, um ihre Leistungsniveaus zu vergleichen. Die Ergebnisse zeigen, dass Flutter in einigen Aspekten (z. B. CPU-Nutzung) eine native Performance erreichen kann, in anderen Aspekten (z. B. Speichernutzung) jedoch schlechter abschneidet als andere Frameworks. Insgesamt zeigt die Forschung, dass Flutter ein sehr vielversprechendes Framework für die plattformübergreifende Entwicklung ist. Zukünftige Arbeiten können auf diese Arbeit aufbauen, um mit verschiedenen Anwendungsfällen zu experimentieren und einen tieferen Einblick in die Leistungsfähigkeit des Frameworks zu erhalten.
Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.
Die steigende Komplexität von Geschäftsprozessen und IT-Services führt auch zu steigender Relevanz des Prozessmanagements. Die Verbesserung der Prozesse von einem IST-Zustand zu einem SOLL-Zustand, angepasst an die Bedürfnisse der Stakeholder und basierend auf aktuellen Standards, Best-Practices (z.B. ITIL) zu gestalten, stellt für viele Organisationen eine Herausforderung dar. Die Bewältigung dieser Herausforderung stellt den Hauptfokus dieser Arbeit dar. Dabei werden Ansätze zur Verbesserung zuerst theoretisch dargestellt und anschließend praktisch durchgeführt. Die Methoden bzw. Ansätze, welche auf Literaturrecherche basieren, werden aufgelistet und nach der Verifizierung im praktischen Teil der Arbeit in einem Grazer Software-Unternehmen am Incident- und Managementprozess exemplarisch angewandt. Die so erarbeiteten Ansätze sollen als Leitfaden beziehungsweise als Modell für die ganzheitliche Verbesserung von Prozessen in diesem Unternehmen dienen. Das entwickelte Modell soll als Best-Practice zur Verbesserung der Prozesse dienen und somit in das Prozessmanagement aktiv eingebaut werden.
Analyse und Bewertung von State-Management Varianten in modernen Cross-Plattform Technologien
(2020)
Plattformübergreifende Technologien entwickeln sich ständig weiter und bieten einen kostengünstigen und zeiteffizienten Ansatz zur Entwicklung von Anwendungen auf mehreren Plattformen. Die Frage nach dem richtigen State-Management Ansatz muss dabei zu Beginn eines jeden Projekts beantwortet werden, was eine Herausforderung sein kann mit einer Vielzahl an mögliche Lösungen. Das Ziel dieser Arbeit war daher die Untersuchung von State-Management Ansätzen am Beispiel von Flutter und deren Bewertung auf der Grundlage von festgelegten Kriterien. In dieser Arbeit werden zunächst plattformübergreifende Technologien untersucht, mit Schwerpunkt auf Flutter. Danach werden gängige Ansätze von State-Management und die Theorie hinter Code Qualität Metriken analysiert. Basierend auf den gesammelten Informationen und den daraus resultierenden wirtschaftlichen und technologischen Entscheidungsgründen wurden Bewertungskriterien erstellt. Vier State-Management Ansätze wurden umgesetzt und entsprechend der Kriterien bewertet. Der Vergleich zeigt, dass BLoC die beste Lösung für Großanwendungen mit erfahrenen Entwicklern zu sein scheint. Für kleinere Projekte oder unerfahrene Entwickler bietet sich der Einsatz von Provider an.
Das Ziel dieser Masterarbeit ist die Analyse der IT-Sicherheit von kritischen Infrastrukturen. Es soll gezeigt werden, ob eine Absicherung kritischer Infrastrukturen mit Hilfe von Methoden aus der IT-Sicherheit möglich ist und welche Auswirkung eine Vernetzung der einzelnen Systeme hat. Nicht behandelt werden Absicherungen für Cloud und mobile Geräte. In den vergangenen Jahren hat die Vernetzung der kritischen Infrastrukturen stark zugenommen und die Angriffe auf diese sind deutlich gestiegen. Aufgrund dessen werden in dieser Masterarbeit zunächst vergangene Angriffe beschrieben und analysiert. Großen Wert wird hierbei auf die NIS-Richtlinie gelegt, die als EU-Richtlinie wichtige Punkte für ganz Europa vorgibt. Aus den gewonnenen Erkenntnissen werden anschließend technische IT-Maßnahmen abgeleitet wie kritische Infrastrukturen in Zukunft besser geschützt werden können. Folgend werden die einzelnen Maßnahmen auch technisch in einer extra dafür aufgesetzten Testumgebung umgesetzt und im Detail beschrieben. Unter anderem wird gezeigt, wie wichtig es ist eine Verschlüsselung einzusetzen und dass es nicht ausreichend ist, die Zugänge nur mit einem starken Passwort abzusichern, sondern auch ein zweiter Faktor eingesetzt werden sollte. Durch Umsetzung der Sicherheitsmaßnahmen, zusätzlich zu den normalen IT-Schutzvorkehrungen, kann die IT-Sicherheit erhöht werden. Ein kompletter Schutz vor Angriffen ist jedoch nicht möglich, da durch die Vernetzung der Systeme immer ein Angriffsvektor entsteht, der ausgenutzt werden kann. In Zukunft könnten kritische Infrastrukturen besser abgesichert werden, wenn die aufgezeigten Sicherheitsmaßnahmen umgesetzt werden.
Seit Anbeginn der Tertiärisierung haben sich nicht nur die Gesellschaft und die Technologie verändert, sondern auch die Erwartungshaltung der Menschen an ihre Dienstleistungserbringer. Dieses Verlangen nach ausgezeichnetem Service und Angebot wird durch das Vordringen von amerikanischen Konzernen in unsere Breitengrade zusätzlich verstärkt. Der digitale Wandel und neue, disruptive Ansätze, sind notwendig, um Betriebe auf Vordermann zu bringen und bereit für die Herausforderungen der Zukunft zu machen. Dieser Ansatz ist nicht nur in der allgemeinen Geschäftswelt zu verfolgen, sondern auch in der Medizin und den damit verbundenen Arztpraxen und Apotheken. In dieser Masterarbeit werden Möglichkeiten erhoben, wie man durch den Einsatz von Chatbots die Kundenzufriedenheit der Apothekenkunden steigern kann. Damit sind nicht nur direkt ableitbare und auf der Hand liegende Möglichkeiten gemeint, sondern auch prozessoptimierende Maßnahmen, welche darauf abzielen die Effektivität und Effizienz innerhalb der Apotheke zu steigern. Um die Forschungsfrage zu beantworten wurde auf zwei Methoden zurückgegriffen. Diese umfassen Literaturrecherchen zu den Themen Kundenzufriedenheit, Chatbots, Big Data, Machine Learning, Natural Language Processing, Natural Language Understanding und gängiges EU, sowie österreichisches Recht. Darüber hinaus Fachartikel zu diesen Themen und abschließend einer Umfrage, welche darauf abzielt, die Erfahrungen, Wünsche und Vorstellungen der breiten Masse, im Umgang mit Chatbots und Apotheken, zu erfragen. Bei der Umfrage sowohl auf Personen eingegangen, die bereits Erfahrungen mit Chatbots hatten, aber auch die Wünsche von Personen abgefragt, die noch keinen Kontakt mit diesen hatten. Die Antworten auf die Fragestellung lassen auf eine generelle Akzeptanz der Allgemeinheit schließen und legen nahe, dass ein Einsatz von Chatbots dazu führen würde die Zufriedenheit der Kunden zu steigern.
Aufgrund der Covid-19-Krise im Jahr 2020 mussten erstmals praktisch alle steirischen Landesbediensteten von zu Hause aus arbeiten. Dieses Werk konzentriert sich auf das Home Office im öffentlichen Dienst und geht auf folgende Forschungsfrage ein: „Wie kann das Führen von Mitarbeitern und Mitarbeiterinnen im öffentlichen Dienst während der Remotetätigkeit effektiv und effizient gestaltet werden?“ Zur Beantwortung dieser Frage wurde eine tiefgehende Literaturrecherche durchgeführt und auf Basis der Forschungsergebnisse ein Interviewleitfaden erstellt. Anschließend wurden Interviews mit acht Führungskräften aus der IT-Abteilung der Steiermärkischen Landesregierung geführt, die entweder mit Softwareentwicklung oder organisatorischen Aufgaben befasst sind. Die Interviewergebnisse brachten wichtige Erkenntnisse zur Führung in Telearbeitssituationen zutage. Diese Erkenntnisse werden in sieben Kategorien (z.B. Kommunikation, Flexibilität) eingeteilt, wobei auch Tipps und Empfehlungen für das tägliche Handeln der Führungskräfte gegeben werden. Aufgrund der speziellen Zielgruppe ist die Anwendbarkeit der vorliegenden Ergebnisse möglicherweise auf diesen besonderen Rahmen beschränkt. Die Ergebnisse bilden jedoch eine Grundlage für zukünftige Studien, um ihre Anwendung in anderen Sektoren und Telearbeitssituationen zu untersuchen. In der Zwischenzeit legen die Ergebnisse nahe, dass die Vor- und Nachteile sowie die Erkenntnisse möglichst vielen Führungskräften vermittelt werden sollten (z.B. durch Workshops, Webinare oder Newsletter).
Zu Beginn eines Softwareprojekts stellt sich fast immer die Frage, welche Technologien dafür eingesetzt werden. Die Entscheidung über die Auswahl der Frameworks wird dabei oft nach Präferenz oder vorhandener Erfahrung der Entwickler*innen getroffen. Gerade bei wichtigen oder großen Projekten sollte die Auswahl der Frameworks rational anhand der gegebenen Projektanforderungen getroffen werden. Ziel dieser Masterarbeit ist es, zu bestimmen, ob die Auswahl der Frameworks durch ein systematisches Entscheidungsmodell unterstützt werden kann. Aus diesem Ziel wurde folgende Forschungsfrage gestellt: Kann mithilfe eines systematischen Entscheidungsmodells die Auswahl eines geeigneten Single-Page-Application-Frameworks im Bereich Web-Frontendentwicklung getroffen werden? Die Forschungsfrage wird dabei primär durch Literaturrecherche zur Entscheidungstheorie untersucht. Ferner wird anhand der Recherche ein Entscheidungsmodell entwickelt. Um die Forschungsfrage zu beantworten, wurden Single-Page-Application- (SPA)Frameworks recherchiert, gefiltert und anhand eines Kriterienkataloges bewertet, um sukzessive ein Entscheidungsmodell zu erarbeiten. Das entstandene Modell bietet die Möglichkeit, SPA-Frameworks anhand ihrer Eignung für individuelle an das Modell übergebene Projektanforderungen zu sortieren und ungeeignete Frameworks auszuscheiden. Die Bewertung der Frameworks erfolgte dabei mittels einer Bestandsaufnahme messbarer Fakten sowie durch den Vergleich der Frameworks anhand eines erstellten Prototyps bei nicht messbaren Kriterien. Für die Validierung des erstellten Modells wurde unter Personen aus der Softwareentwicklungsbranche eine Umfrage durchgeführt, bei der die Teilnehmer*innen die Frameworks bewerten konnten. Anschließend wurde mit der Bewertung der Umfrageergebnisse ein neues Modell erstellt und dieses anhand fiktiver Projektanforderungen mit dem ursprünglich erstellten Modell verglichen. Dabei wurde dasselbe Ergebnis erzielt und somit das Modell validiert. Die vorliegenden Ergebnisse zeigen, dass ein Entscheidungsmodell die Auswahl eines Frameworks ermöglicht oder als Entscheidungsgrundlage dienen kann. Voraussetzung dafür ist die objektive Bewertung der Frameworks sowie der individuellen Projektanforderungen.