Informationstechnologien & Wirtschaftsinformatik
Filtern
Dokumenttyp
- Masterarbeit (162)
Volltext vorhanden
- ja (162)
Gehört zur Bibliographie
- ja (162)
Schlagworte
- Digitalisierung (10)
- Software Engineering (9)
- Projektmanagement (8)
- Informationssicherheit (6)
- Kundenmanagement (6)
- Online-Marketing (5)
- Business Intelligence (4)
- Computersicherheit (4)
- Internet der Dinge (4)
- Personalwesen (4)
- Data Mining (3)
- Electronic Commerce (3)
- Enterprise-Resource-Planning (3)
- Logistik (3)
- Marketing (3)
- Mikroservice (3)
- Scrum <Vorgehensmodell> (3)
- Social Media (3)
- Softwareentwicklung (3)
- Telearbeit (3)
- Webanwendung (3)
- Agile Softwareentwicklung (2)
- Benutzeroberfläche (2)
- Betriebliche Kennzahl (2)
- Blockchain (2)
- Cloud Computing (2)
- Datenanalyse (2)
- Dokumentenverwaltungssystem (2)
- Informatik (2)
- Kommunikationssystem (2)
- Maschinelles Lernen (2)
- Portal <Internet> (2)
- Robotic Process Automation (2)
- Servicemanagement (2)
- Wissensmanagement (2)
- Agilität <Management> (1)
- App <Programm> (1)
- Arbeitsgestaltung (1)
- Assistenzsystem (1)
- Authentifikation (1)
- Autonome Systeme (1)
- Bestandsmanagement (1)
- Bilderkennung (1)
- Bildverarbeitung (1)
- Change Management (1)
- Chatbot (1)
- Cloud (1)
- Computerunterstützte Kommunikation (1)
- Darknet (1)
- Data-Warehouse-Konzept (1)
- Datenauswertung (1)
- Datenschutz (1)
- Datensicherheit (1)
- Datenverarbeitung (1)
- Datenübertragung (1)
- Dienstleistung (1)
- Dienstleistungsangebot (1)
- Digitale Fotografie (1)
- Elektromobilität (1)
- Energiewirtschaft (1)
- Framework <Informatik> (1)
- Führung (1)
- Gamification (1)
- Generation Z (1)
- Geschäftsfeldplanung (1)
- Geschäftsmodell (1)
- Hochschullehre (1)
- Hochverfügbarkeit (1)
- IT-Sicherheit (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Infotainment (1)
- Integriertes Lernen (1)
- Intranet (1)
- IoT-Geräte (1)
- Kosten-Nutzen-Analyse (1)
- Kreditwesen (1)
- Kundendienst (1)
- Künstliche Intelligenz (1)
- Management (1)
- Marktforschung (1)
- Messtechnik (1)
- Mobiles Endgerät (1)
- Mustererkennung (1)
- Nachhaltigkeit (1)
- Objekterkennung (1)
- Online-Shop (1)
- Performance Management (1)
- Personalplanung (1)
- Preisbildung (1)
- Prozessautomation (1)
- Prozessmanagement (1)
- Prozesssimulation (1)
- Qualitätsmanagement (1)
- Qualitätssteigerung (1)
- REST <Informatik> (1)
- Risikoanalyse (1)
- SCADA <Programm> (1)
- Service Engineering (1)
- SharePoint 2013 (1)
- Sicherheitsplanung (1)
- Single-page-Webanwendung (1)
- Social Engineering <Sicherheit> (1)
- Softwarekonfigurationsverwaltung (1)
- Softwareproduktion (1)
- Softwareschutz (1)
- Softwaretest (1)
- Strategisches Management (1)
- Supply Chain Management (1)
- Technische Unterlage (1)
- Telekommunikationsnetz (1)
- Unternehmensgründung (1)
- Verbraucherverhalten (1)
- Vertrieb (1)
- Verwaltung (1)
- Videokonferenz (1)
- Vielfalt (1)
- Virtuelle Kommunikation (1)
- Vorgehensmodell (1)
- Web Services (1)
- Wertschöpfung (1)
- Wirtschaft (1)
- Zugriffskontrolle (1)
Institut
Auch heutzutage vertrauen noch viele Unternehmen auf eigene IT-Infrastruktur und veraltete Legacy-Anwendungen, um ihre geschäftskritischen Prozesse zu unterstützen. Allerdings gibt es mehrere kritische Bedenken, wie Wartbarkeit, Skalierbarkeit und Sicherheit, die mit dem Fortbestand eines Legacy-Systems und eigenständig verwalteter Infrastruktur verbunden sind. Vor diesem Hintergrund bieten Cloud-Services eine agilere und kostengünstigere Plattform, um Geschäftsprozesse zu unterstützen. Da die Akzeptanz von Cloud-Diensten in letzter Zeit zugenommen hat, hat auch die akademische Forschung im Bereich des Einsatzes von Cloud-Diensten zugenommen. Es besteht jedoch ein Bedarf an Sekundärstudien, um diese Forschung weiter zu stärken. Das primäre Ziel dieser Arbeit ist es, die prioritären Herausforderungen bei der Transformation von Geschäftsprozessen in die Cloud aufzuzeigen, und eine Übersicht über Migrationsstrategien zu liefern. Da der Wechsel von einer On-Premise-Lösung hin zu einer Cloud-Lösung durch technische und nicht-technische Faktoren beeinflusst wird, soll erörtert werden, worauf im Sinne einer erfolgreichen Migration besonders Wert gelegt werden muss. Im Rahmen dieser Untersuchung konnte gezeigt werden, dass die Faktoren Change-Management und Cybersecurity die größte Herausforderung für eine erfolgreiche Transformation von Geschäftsprozessen in die Cloud darstellen, und aktiv gemanagt, respektive sichergestellt werden müssen.
Lagerleitstände sind mit einer Vielzahl an technischen und organisatorischen Herausforderungen konfrontiert. Sich ändernde Umstände im Lagerlogistikumfeld sowie geänderte Konsumentenanforderungen erfordern zudem, dass sich Informationssysteme daran anpassen. Die vorliegende Arbeit befasst sich hier insbesondere damit, wie künstliche Intelligenz den Lagerleitstand in seinen Aufgaben unterstützen kann. Um diese Frage zu beantworten, wird die aktuell vorhandene Literatur in drei Aspekten beleuchtet. Zum einen werden die Aufgaben, die Lagerleitstand zukommen analysiert. Anschließend wird erfasst, mit welchen Informationssystemen dieser in Kontakt ist. Zuletzt wird beschrieben, wie intelligente Systeme implementiert werden können. Um die aus der Literatur aufgestellten Hypothesen zu überprüfen, erfolgte ein zweistufiger Prozess zur Überprüfung dieser. Hierbei wurde eine Befragung von Lagerlogistiksoftware Experten durchgeführt und diese wurde qualitativ ausgewertet. Die Ergebnisse dieser Befragung wurden in einer Kundenumfrage weiter validiert. Diese Kundenumfrage wurde quantitativ ausgewertet. Die Ergebnisse der Arbeit zeigen, dass in unterschiedlichen Teilbereichen zusätzliche intelligente Funktionalitäten benötigt werden. Künstliche Intelligenz ist hierbei lediglich die Möglichkeit, diese Anforderungen umzusetzen und wird nicht gesondert von Kunden nachgefragt. Vor allem in Warehouse-Management-Systemen sind bisher wenig konkrete Anwendungsfälle implementiert worden. Neben intelligenter Lagerung von Waren, die berücksichtigt, welche Produkte häufig gemeinsam ausgeliefert werden, identifizierten die Befragten vor allem auch die Notwendigkeit von Prozessoptimierung. Diese umfasst Ressourcenoptimierung sowie das Erkennen von optimalen Zeitpunkten für bestimmte Lageroperationen. Zudem ist eine vorrauschauende Fehlererkennung in unterschiedlichen Lagerteilbereichen für Lagerleitstände ein besonders relevanter Anwendungsfall. Dieser eignet sich aufgrund der Datenbeschaffenheit und der Komplexität des Problems für eine Implementierung mithilfe von künstlicher Intelligenz.
Teambuilding
(2021)
Die Covid-19-Krise hat viele Unternehmen dazu verleitet, Home-Office-Regelungen in der ein oder anderen Form beizubehalten. Auch wenn dies gewisse Vorteile mit sich bringt, sollten die Nachteile nicht außer Acht gelassen werden. Ziel dieser Studie war die Untersuchung, wie die negativen Faktoren der Heimarbeit durch Teambuilding-Maßnahmen im Rahmen von Softwareentwicklungsunternehmen abgemildert werden können. Ausgehend von bestehender Literatur wurde eine Gruppe von Expertinnen und Experten, zusammengesetzt aus 3 coachenden Personen, 3 Führungskräften, einem Scrum-Master und einer Fachkraft, gebeten, ihre Erkenntnisse und Erfahrungen zu diesem Thema zu teilen. Anschließend wurde eine qualitative Inhaltsanalyse nach Mayring durchgeführt, um die Erkenntnisse zur Erstellung eines Best-Practice-Leitfadens für die Durchführung von Home-Office in Unternehmen zu verwenden. Die Ergebnisse zeigen, dass eine offene und regelmäßige Kommunikation über fachliche und private Themen notwendig ist, um einen stetigen Informationsfluss zu gewährleisten. Darüber hinaus muss ein respektvolles und integratives Umfeld geschaffen werden, um Ausgrenzung zu verhindern, insbesondere bei einer Mischung von Mitarbeitenden, von denen einige zu Hause und andere im Büro sind. Es besteht ein allgemeiner Konsens darüber, dass die notwendigen Schritte in erster Linie von den Führungskräften unternommen werden müssen. Die Ergebnisse deuten darauf hin, dass die Förderung respektvoller und integrativer Praktiken der Zusammenarbeit im Allgemeinen wirksamer zu sein scheint als die Durchführung einzelner Teambuilding-Aktivitäten. Zusammenfassend kann das Ergebnis dieser Arbeit als Leitfaden für Unternehmen dienen, die mit dem Trend zur vermehrten Heimarbeit Schritt halten wollen. Darüber hinaus sollten weitere Untersuchungen angestellt werden, welche modernen Tools und Programme die Arbeit von zu Hause aus am besten unterstützen.
Desktop- und Web-Anwendungen
(2021)
Web-Anwendungen sind heute kaum mehr aus dem Alltag wegzudenken. Oft bemerken Benutzerinnen und Benutzer nicht einmal, dass es sich bei der Anwendung um eine Web-Anwendung handelt. Web-Technologien sind ein Schlüsselelement für viele Funktionen und Services, die heutige Applikationen ausmachen. Sie ermöglichen die gleichzeitige Benutzung einer Anwendung von vielen Nutzerinnen und Nutzern, ohne dass dabei eine Installation seitens der nutzenden Personen notwendig ist. Doch auch wenn Web-Anwendungen immer öfter zum Einsatz kommen, stellt sich die Frage, ob sie Desktop-Anwendungen auf allen Gebieten ersetzen können. Desktop-Anwendungen bieten viele Vorteile und Einsatzmöglichkeiten. Deshalb werden in dieser Arbeit die Eigenschaften und Merkmale sowie die Einsatzgebiete von Desktop- und Web-Anwendungen genauer betrachtet und analysiert. Dabei wird auf die Vor- und Nachteile der beiden Anwendungstypen eingegangen, um genauer abgrenzen zu können, wo deren Stärken und Schwächen liegen. Die vorliegende Arbeit teilt sich in eine Literatur- und eine empirische Forschungsarbeit. In der Literaturarbeit werden die theoretischen Grundlagen dargelegt und die entsprechenden Erkenntnisse zu den oben angeführten Themenpunkten angeführt. Im empirischen Teil der Arbeit sollen die aus der Literatur gewonnenen Erkenntnisse durch Expertenwissen ergänzt werden. Dabei werden zwei wissenschaftliche Methoden, die Experteninterviews und die qualitative Inhaltsanalyse nach Mayring, angewendet. Mit Hilfe der Erkenntnisse aus der Literaturarbeit und der empirischen Forschungsarbeit soll die Forschungsfrage beantwortet werden. Im Fazit wird die Forschungsfrage nochmals erörtert und schließlich beantwortet.
„Verteilte Zusammenarbeit so gestalten, dass sie an das Gefühl der Zusammenarbeit an einem Ort herankommt“, sagte Dr. Vincent Tietz, Senior Consultant bei der Saxonia Systems AG, im Jahr 2016. In der heutigen Zeit, in der hohe Internetgeschwindigkeiten und hohe Bandbreiten als gang und gäbe betrachtet werden, entstehen neue Möglichkeiten der Arbeitsformen. In Zeiten der Coronakrise wurde dieser Trend noch mehr verstärkt und viele Unternehmen weltweit setzten auf den Denkansatz „Homeoffice“. Doch welche Herausforderungen birgt diese neue Form des Arbeitens und bietet sie nur Vorteile? Wie können wir speziell in der IT-Branche verteilte Softwareentwicklungsteams optimal steuern oder eine derartige Konstellation generell einführen? Sind Projektabwicklungen hinsichtlich solcher Umstände erfolgreich realisierbar und welche Vorrausetzungen sind hierfür unverzichtbar? Das Ziel dieser Masterarbeit war das Ermitteln und Modellieren von Prozessen, die einen wesentlichen Beitrag zur Steuerung sowie Einführung einer verteilten Softwareentwicklung leisten. Das Prozessmodell umfasst dabei nicht nur die Projektabwicklung selbst, sondern auch die vorgelagerten und nachgelagerten Arbeitsabläufe. Als praktische Grundlage dient hierbei die Guid.New GmbH, ein österreichischer Individualsoftwaredienstleister mit Sitz in Graz, welcher schon vor der Pandemie auf die „Remote“-Methode setzte. Samt der wissenschaftlichen Literaturrecherche und der praktischen Validierung des entstandenen Prozessmodells durch ExpertInnen, dient das Resultat als Vorlage für Unternehmen in der Individualsoftwarebranche. Als ExpertInnen wurden die Geschäftsführung, Gesellschafter sowie MitarbeiterInnen der Guid.New GmbH herangezogen – infolgedessen enthält das Ergebnis Praxisbezogenheit, Wiederverwendbarkeit und schafft neuen Mehrwert.
Mobile Anwendungen
(2021)
Mobile Anwendungen bekommen eine immer größere Relevanz zugesprochen. Wesentliche Gründe hierfür sind die Offline-Fähigkeit, uneingeschränkte Geräte-Zugriffe, App Stores zur Bereitstellung, intuitive Interaktionen und vieles mehr. Um diese Charakteristiken zu nutzen, hat sich bisher der native Ansatz durchgesetzt, wobei für jedes Betriebssystem eine eigener Quellcode geschrieben werden muss. Genau hier setzen Progressive Web-Anwendungen an. Diese Art von Technologie verspricht eine native Benutzererfahrung, mit dem entscheidenden Unterschied, dass nur eine einzige Quellcode-Basis notwendig ist. Somit kann der Entwicklungs- und Wartungsaufwand mit den umhergehenden Kosten intensiv verringert werden. Diese Arbeit betrachtet aus diesem Grund die Möglichkeiten und Einschränkungen von Progressive Web-Anwendungen gegenüber nativen iOS- und Android-Anwendungen. Um dieses Ziel zu erreichen, wird ein Benchmarking für die unterschiedlichen Konzepte durchgeführt. Die Basis bilden dabei eine Literaturanalyse und eine Implementierung einer Progressive Web-Anwendung mit den Mindestanforderungen. Im Anschluss werden Vergleichskriterien anhand der ISO 25010 aufgestellt, welche als Norm für die Qualitätskriterien von Software, IT-Systemen und Software-Engineering bekannt sind. Die Technologieansätze werden daraufhin mithilfe dieser Kriterien evaluiert und einander gegenübergestellt. Das Resultat dieser Arbeit ist eine Entscheidungsmatrix, welche für jede Art von Entwicklungsprojekten mobiler Anwendungen anwendbar ist. Diese Matrix hilft, den optimalen Ansatz für vorliegende Projekt-Anforderungen zu bestimmen. Grundsätzlich konnte in dieser Master-Thesis ein aufsteigender Trend für Progressive Web-Anwendungen beim mobilen Chrome und Samsung Internet Browser evaluiert werden. Nichtsdestotrotz sind seitens Apple mit dem mobilen Safari Browser noch wesentliche Einschränkungen vorhanden, was den Ersatz durch Progressive Web-Anwendungen nicht in allen Fällen gewährleisten kann.
Business Intelligence und Analytics (BI&A) Systeme umfassen eine Vielzahl an Techniken, um Daten für eine faktengestützte Entscheidungsfindung in Unternehmen aufzubereiten und Informationen grafisch darzustellen. Das Ziel dieser Arbeit ist es herauszufinden, inwiefern BI&A Systeme von Klein- und Kleinstunternehmen sowie Ein-Personen-Unternehmen in Österreich eingesetzt werden und welche Faktoren einen Einsatz beeinflussen. Die Literaturrecherche umfasst Eigenschaften von BI&A, analysiert Chancen und Herausforderungen für kleine Unternehmen und stellt das empirische Forschungsmodell vor. Das Forschungsmodell kategorisiert Unternehmen in eine von drei Einführungsstufen und analysiert die Zusammenhänge von sieben Faktoren mit den Einführungsstufen. Insgesamt nahmen 94 Unternehmen an der Onlineumfrage teil. Die Datenanalyse umfasst eine Analyse des Einführungsstandes und der Einflussfaktoren sowie die Auswertung der Hypothesen mittels der Rangkorrelation nach Spearman. Sechs Hypothesen konnten verifiziert und eine musste verworfen werden. Der Einführungsstand von BI&A Systemen in kleinen österreichischen Unternehmen kann als niedrig angesehen werden. Die höchsten signifikanten Zusammenhänge mit dem Stand der Einführung bestehen mit den Faktoren wahrgenommener Wettbewerbsvorteil (rs=0,58**), interne Readiness (rs=0,55**) und der Unterstützung für BI&A durch das Management (rs=0,51**). Eine hohe Bewertung der Datenqualität in den Unternehmen und eine positive Tendenz, zahlenbasierte Entscheidungen zu treffen, können als Chancen für zukünftige BI&A Projekte gesehen werden. Die größten Herausforderungen für eine Einführung von BI&A in kleinen Unternehmen sind fehlende Ressourcen und ein fehlendes Verständnis für BI&A. Unternehmen, welche BI&A bereits verwenden, bewerten den relativen Vorteil und die Kostenersparnis durch BI&A auch für kleine Unternehmen positiv. Weiterführende Forschungen können das Forschungsmodell auf weitere Zielgruppen und Branchen anwenden und somit den Stand der Einführung und dessen Einflussfaktoren vergleichen.
Smart Services sind Teil des globalen Megatrends der digitalen Transformation. Seit circa 2015 ermöglichen Smart Services, dass Unternehmen Dienstleistungen erbringen, bereits bevor Kund/innen den Bedarf für diese erkennen. Dies führt zu einer Effizienz- und Effektivitätssteigerung für alle Beteiligten, wodurch wiederum die Zufriedenheit aller gesteigert wird. Die Ursprünge von Smart Homes reichen hingen bis in die 1960er Jahre zurück. Bereits damals wurden reaktive und proaktive Steuerungsmöglichkeiten für das „Wired Home“ aufgezeigt. Der hohe Energie- und Ressourcenbedarf wecken bei immer mehr Menschen das Bedürfnis, die Effektivität und die Effizienz ihres Lebensraumes zu steigern. Trotz der großen Weiterentwicklungen im Bereich des Internet of Things und dem Machine Learning, nennen Benutzer/innen ihren Lebensraum bereits smart, wenn sie diesen aus der Ferne steuern können. Diese Arbeit überträgt die Implikationen des Begriffs „smart“ aus der Grundfunktionalität eines Smart Services auf Smart Homes. Damit soll die Frage beantwortet werden, ob mit Machine Learning eine präemptive Steuerung eines Smart Homes möglich ist. Hierzu werden unterschiedliche Algorithmen verwendet, um mit einem Datensatz aus einer Laborumgebung Machine Learning Modelle zu erstellen. Diese werden auf Basis mehrerer Metriken miteinander verglichen, um festzustellen, ob es möglich ist, damit eine präemptive Steuerung für ein Smart Home umzusetzen.
Durch die Liberalisierung des Energiemarktes in Österreich wurde es möglich, dass KundInnen den Energielieferanten frei wählen können. Dadurch ist der Wettbewerb zwischen den Energielieferanten stark gestiegen. Um Kundenabwanderung zu verhindern wird versucht die Kundenbindung zu stärken und besser auf die Bedürfnisse von KundInnen einzugehen. Eine Methode dies zu erreichen sind Communities. Die Motivation hinter dieser Arbeit ist zu zeigen, wie die Kundenbindung mit Hilfe einer Community gestärkt beziehungweise vertieft werden kann. Der Austausch zwischen EnergiekundInnen und Energielieferanten beziehungsweise mit geschultem Fachpersonal wird dadurch ermöglicht. Weiters kann eine Community beispielsweise zur Produktverbesserung oder für Co-Creation Zwecke genutzt werden. Das Ziel der vorliegenden Arbeit ist es, die Einflussfaktoren, die eine wichtige Rolle bei der Einführung einer Community spielen, heraus zu arbeiten und zu untersuchen. Dies wird mithilfe von Literaturrecherche und empirischer Forschung bewerkstelligt. Zuvor werden basierend auf den theoretischen Kenntnissen Hypothesen erstellt, welche mithilfe einer qualitativen Befragung geprüft werden. Anhand von leitfadengestützen Interviews und den Ergebnissen aus der Literaturrecherche, werden Einflussfaktoren aufgenommen oder verworfen. Daraus wird ein Leitfaden erstellt, welcher bei der Einführung einer Community herangezogen werden kann. Dieser Leitfaden hebt jene Kernelemente hervor, welche bei einer Gemeinschaftsgenerierung zu beachten sind. Damit soll mit hoher Wahrscheinlichkeit sicher gestellt werden, dass die Erstellung einer Community zum Erfolg führt.
Das Darknet, von vielen auch als das „böse Internet“ bezeichnet, bringt aufgrund seiner mysteriösen Natur viele Fragen mit sich. Es handelt sich um einen Teil des Deep Webs mit der besonderen Eigenschaft, dass Links im Darknet von keiner Search Engine indiziert werden können. Dieses Netzwerk besitzt jedoch weitere interessante Eigenschaften. Der Grad an Anonymität, welcher Darknet-Nutzern ermöglicht wird, ist im Laufe der Zeit charakteristisch für das Darknet geworden und damit auch zu seinem größten Vorteil geworden. Die Chancen, welche mit dem hohen Anonymisierungsgrad verknüpft sind, bringen ein breites Spektrum an Handlungsmöglichkeiten mit sich. Der Handel besitzt eine dominante Rolle im Darknet. Nicht nur diverse Drogen, sondern auch Fälschungen von persönlichen Dokumenten, schädliche Malware oder Hacking-Anleitungen sowie Schusswaffen können im Darknet problemlos erworben werden. Auch Rohdaten in unterschiedlichster Ausprägung spielen eine wichtige Rolle in diesem Netzwerk. So werden zahlreiche Whistleblowing-Seiten zum Vertrieb von Informationen verwendet oder auch weitere Kanäle, wie zum Beispiel Foren. Darknet-Nutzer können solche Daten konsumieren ohne Angst vor Zensur zu haben, da diese im Darknet keine Anwendung findet. So wie das Darknet ursprünglich für die sichere Kommunikation des amerikanischen Militärs entwickelt wurde, wird es heutzutage - nicht mehr auf das Militär eingeschränkt - zum gleichen Zweck eingesetzt. Hierbei wird eine Vielfalt an attraktiven Kommunikationskanälen angeboten, welche die uneingeschränkte Konversation erst möglich machen. Solche Grenzenlosigkeit kann jedoch sehr schnell zu starken Änderungen in der Verhaltensweise beider Gesprächspartner führen. Versteckt hinter dem Gefühl unbeschränkter Anonymität können im Darknet die persönlichen Grenzen aufgebrochen werden und das Verhalten der Anwender dieses Netzwerks ändert sich. Nichtsdestotrotz bringen die Kontaktaufnahme und das Kennenlernen anderer Nutzer zahlreiche interessante Erfahrungen mit sich, der Aufenthalt im Darknet stellt ein attraktives, überwältigendes Erlebnis dar.
PIDAS Aktiengesellschaft (PIDAS AG) verwendet seit über zwei Jahren Robotergesteuerte Prozessautomatisierung (RPA) um die Produktivität ihrer Mitarbeiter zu steigern. Diese Arbeit ermittelt mit Hilfe einer Umfrage unter den Mitarbeitern der PIDAS AG die Akzeptanz von RPA. Die Umfrage basiert auf dem Technology Acceptance Model, welches der Autor um zwei zusätzliche Variablen erweitert hat. Diese beiden Variablen messen die Jobangst und das Bewusstsein in Bezug auf die Verwendung von RPA. Die Analyse der Umfrage bestätigt die Hypothese, dass erhöhte Jobangst zu einem geringeren Nutzungswillen führt. Die Daten bestätigen auch, dass vermehrte Nutzung von RPA die Bereitschaft zur Nutzung erhöht. Zudem zeigen die Daten, dass die Befragten eine umso höhere Meinung von RPA haben, je bewusster sie es nutzen. Obwohl die Akzeptanz der Mitarbeiter der PIDAS AG sich auf einem hohen Niveau bewegt, ließe sich diese noch weiter durch entsprechende Maßnahmen der Entwicklung und des Managements steigern.
Service Transformation und die Digitale Transformation sind Schlagwörter, die Unternehmen aktuell beschäftigen. Dabei handelt es sich um Veränderungen in und um die Unternehmen selbst. Diese Trends sind jedoch mit Komplexität behaftet. Reifegradmodelle werden häufig zur Messung von komplexen Themen herangezogen. Daher finden diese auch für die aktuellen Trends der Digitalen Transformation und der Service Transformation Anwendung. Hierbei erfassen Unternehmen deren Reifegrad innerhalb eines Trends. Dies erfolgt mithilfe von Reifegradfaktoren und Reifegradkriterien, die auf unterschiedliche Weise ermittelt werden. Auch wenn beide Trends Ähnlichkeiten aufweisen und teils auch auf Themen des jeweils anderen Trends verweisen, stellt sich dennoch die Frage zur konzeptuellen Gemeinsamkeit beider Trends. Das Ziel dieser Masterarbeit ist es daher, die Forschungsfrage zu den konzeptuellen Gemeinsamkeiten der Faktoren zur Messung der Digitalen Transformation und der Service Transformation in Unternehmen zu beantworten. Dazu wird ein Untersuchungsdesign erarbeitet, mit welchem diese konzeptuellen Gemeinsamkeiten der Faktoren dann analysiert werden können. Dies erfolgt anhand eines Literatur-Reviews als Methode, der den systematischen Prozess zur Auswahl auf eine definierte Stichprobe abgrenzt. Zu dieser Stichprobe erfolgt eine inhaltsanalytische Auswertung, um die konzeptuellen Gemeinsamkeiten der Faktoren zu identifizieren. Es werden systematisch Kriterien erarbeitet und daraus fünf Dimensionen als Faktoren gebildet. Aus dieser Analyse lässt sich interpretieren, dass es eine Überschneidung zwischen den Reifegradmodellen der Digitalen Transformation und der Service Transformation gibt. Diese Überschneidung betrifft die Faktoren zum Ökosystem, Produkt und Service, Management und Führung, und Organisationskultur. Mit dem Ergebnis des Literatur-Reviews ergeben sich weitere Potenziale für Forschungen. Einerseits können die Ergebnisse dieser Masterarbeit durch weitere Detailbetrachtungen erweitert und angepasst werden. Andererseits können basierend auf dieser Masterarbeit weitere Themen zu den Gemeinsamkeiten der Digitalen Transformation und der Service Transformation erarbeitet werden.
Moderne Frameworks für die Entwicklung von Anwendungen auf mobilen Plattformen entwickeln sich ständig weiter, um den sich ständig ändernden Anforderungen der Welt der Softwareentwicklung gerecht zu werden. Seit 2018 entwickelt Google das Flutter-Framework, das für die Entwicklung mobiler Anwendungen auf den Plattformen Android und iOS eingesetzt wird. Da es sich bei Flutter um das neueste Framework handelt, das eine native Anwendungsleistung verspricht, ist es wichtig, ein besseres Verständnis für die Performance der Technologie zu erhalten und zu erfahren, wie sie sich mit anderen verfügbaren Plattformen messen kann. Aus diesem Grund analysiert diese Arbeit Flutter und vergleicht das Framework mit nativen und anderen plattformübergreifenden Technologien. Prototypen mit den gleichen Funktionalitäten wurden mit Flutter und anderen Plattformen (z. B. Android, iOS, React Native) erstellt und dann getestet, um ihre Leistungsniveaus zu vergleichen. Die Ergebnisse zeigen, dass Flutter in einigen Aspekten (z. B. CPU-Nutzung) eine native Performance erreichen kann, in anderen Aspekten (z. B. Speichernutzung) jedoch schlechter abschneidet als andere Frameworks. Insgesamt zeigt die Forschung, dass Flutter ein sehr vielversprechendes Framework für die plattformübergreifende Entwicklung ist. Zukünftige Arbeiten können auf diese Arbeit aufbauen, um mit verschiedenen Anwendungsfällen zu experimentieren und einen tieferen Einblick in die Leistungsfähigkeit des Frameworks zu erhalten.
Das Technologieumfeld der Webentwicklung hat sich in den letzten fünf Jahren stark verändert. So ist die Beliebtheit der weitverbreiteten JavaScript Library jQuery im Verlauf der Jahre gesunken. Die bekanntesten Webtechnologien Angular.js, React.js und Vue.js haben stattdessen an Popularität gewonnen und haben ihre Konkurrenten längst überholt. Da Webtechnologien sich immer schneller weiterentwickeln und ständig neue Technologien auf den Markt kommen, beschäftigt sich diese Arbeit mit der Portierbarkeit sowie der Zukunftssicherheit von Angular.js, React.js und Vue.js. Dabei wird überprüft, ob die vorgestellten Technologien in die jeweils anderen portierbar sind oder ob bei einem Technologiewechsel eine Neuentwicklung notwendig ist. Als Ziele dieser Arbeit kann neben der Gewinnung wichtiger Erkenntnisse in Bezug auf die Portierungen die Erarbeitung von Hilfestellungen und Richtlinien für Portierungen, sowie eine Bewertung und Empfehlung der ausgewählten Webtechnologien genannt werden. Um die Portierungen durchzuführen, werden im ersten Schritt einheitliche Anwendungen in Angular.js, React.js und Vue.js nach zuvor definierten Anforderungen entwickelt. Die Anwendungen fokussieren sich auf Formularinhalte. Dabei werden Daten von einem Server geladen, im Frontend dargestellt, bearbeitbar gemacht und wieder an den Server geschickt, um persistent gespeichert zu werden. Jede dieser Anwendungen wird danach in die beiden anderen Technologien portiert und die daraus entstandenen Erkenntnisse dokumentiert. Die abschließende Bewertung der miteinander verglichenen Technologien erfolgt nach den Kriterien: Popularität, Entwicklungsaufwand, Flexibilität, Portierbarkeit und Zukunftssicherheit.
Die steigende Komplexität von Geschäftsprozessen und IT-Services führt auch zu steigender Relevanz des Prozessmanagements. Die Verbesserung der Prozesse von einem IST-Zustand zu einem SOLL-Zustand, angepasst an die Bedürfnisse der Stakeholder und basierend auf aktuellen Standards, Best-Practices (z.B. ITIL) zu gestalten, stellt für viele Organisationen eine Herausforderung dar. Die Bewältigung dieser Herausforderung stellt den Hauptfokus dieser Arbeit dar. Dabei werden Ansätze zur Verbesserung zuerst theoretisch dargestellt und anschließend praktisch durchgeführt. Die Methoden bzw. Ansätze, welche auf Literaturrecherche basieren, werden aufgelistet und nach der Verifizierung im praktischen Teil der Arbeit in einem Grazer Software-Unternehmen am Incident- und Managementprozess exemplarisch angewandt. Die so erarbeiteten Ansätze sollen als Leitfaden beziehungsweise als Modell für die ganzheitliche Verbesserung von Prozessen in diesem Unternehmen dienen. Das entwickelte Modell soll als Best-Practice zur Verbesserung der Prozesse dienen und somit in das Prozessmanagement aktiv eingebaut werden.
Analyse und Bewertung von State-Management Varianten in modernen Cross-Plattform Technologien
(2020)
Plattformübergreifende Technologien entwickeln sich ständig weiter und bieten einen kostengünstigen und zeiteffizienten Ansatz zur Entwicklung von Anwendungen auf mehreren Plattformen. Die Frage nach dem richtigen State-Management Ansatz muss dabei zu Beginn eines jeden Projekts beantwortet werden, was eine Herausforderung sein kann mit einer Vielzahl an mögliche Lösungen. Das Ziel dieser Arbeit war daher die Untersuchung von State-Management Ansätzen am Beispiel von Flutter und deren Bewertung auf der Grundlage von festgelegten Kriterien. In dieser Arbeit werden zunächst plattformübergreifende Technologien untersucht, mit Schwerpunkt auf Flutter. Danach werden gängige Ansätze von State-Management und die Theorie hinter Code Qualität Metriken analysiert. Basierend auf den gesammelten Informationen und den daraus resultierenden wirtschaftlichen und technologischen Entscheidungsgründen wurden Bewertungskriterien erstellt. Vier State-Management Ansätze wurden umgesetzt und entsprechend der Kriterien bewertet. Der Vergleich zeigt, dass BLoC die beste Lösung für Großanwendungen mit erfahrenen Entwicklern zu sein scheint. Für kleinere Projekte oder unerfahrene Entwickler bietet sich der Einsatz von Provider an.
Das Ziel dieser Masterarbeit ist die Analyse der IT-Sicherheit von kritischen Infrastrukturen. Es soll gezeigt werden, ob eine Absicherung kritischer Infrastrukturen mit Hilfe von Methoden aus der IT-Sicherheit möglich ist und welche Auswirkung eine Vernetzung der einzelnen Systeme hat. Nicht behandelt werden Absicherungen für Cloud und mobile Geräte. In den vergangenen Jahren hat die Vernetzung der kritischen Infrastrukturen stark zugenommen und die Angriffe auf diese sind deutlich gestiegen. Aufgrund dessen werden in dieser Masterarbeit zunächst vergangene Angriffe beschrieben und analysiert. Großen Wert wird hierbei auf die NIS-Richtlinie gelegt, die als EU-Richtlinie wichtige Punkte für ganz Europa vorgibt. Aus den gewonnenen Erkenntnissen werden anschließend technische IT-Maßnahmen abgeleitet wie kritische Infrastrukturen in Zukunft besser geschützt werden können. Folgend werden die einzelnen Maßnahmen auch technisch in einer extra dafür aufgesetzten Testumgebung umgesetzt und im Detail beschrieben. Unter anderem wird gezeigt, wie wichtig es ist eine Verschlüsselung einzusetzen und dass es nicht ausreichend ist, die Zugänge nur mit einem starken Passwort abzusichern, sondern auch ein zweiter Faktor eingesetzt werden sollte. Durch Umsetzung der Sicherheitsmaßnahmen, zusätzlich zu den normalen IT-Schutzvorkehrungen, kann die IT-Sicherheit erhöht werden. Ein kompletter Schutz vor Angriffen ist jedoch nicht möglich, da durch die Vernetzung der Systeme immer ein Angriffsvektor entsteht, der ausgenutzt werden kann. In Zukunft könnten kritische Infrastrukturen besser abgesichert werden, wenn die aufgezeigten Sicherheitsmaßnahmen umgesetzt werden.
Seit Anbeginn der Tertiärisierung haben sich nicht nur die Gesellschaft und die Technologie verändert, sondern auch die Erwartungshaltung der Menschen an ihre Dienstleistungserbringer. Dieses Verlangen nach ausgezeichnetem Service und Angebot wird durch das Vordringen von amerikanischen Konzernen in unsere Breitengrade zusätzlich verstärkt. Der digitale Wandel und neue, disruptive Ansätze, sind notwendig, um Betriebe auf Vordermann zu bringen und bereit für die Herausforderungen der Zukunft zu machen. Dieser Ansatz ist nicht nur in der allgemeinen Geschäftswelt zu verfolgen, sondern auch in der Medizin und den damit verbundenen Arztpraxen und Apotheken. In dieser Masterarbeit werden Möglichkeiten erhoben, wie man durch den Einsatz von Chatbots die Kundenzufriedenheit der Apothekenkunden steigern kann. Damit sind nicht nur direkt ableitbare und auf der Hand liegende Möglichkeiten gemeint, sondern auch prozessoptimierende Maßnahmen, welche darauf abzielen die Effektivität und Effizienz innerhalb der Apotheke zu steigern. Um die Forschungsfrage zu beantworten wurde auf zwei Methoden zurückgegriffen. Diese umfassen Literaturrecherchen zu den Themen Kundenzufriedenheit, Chatbots, Big Data, Machine Learning, Natural Language Processing, Natural Language Understanding und gängiges EU, sowie österreichisches Recht. Darüber hinaus Fachartikel zu diesen Themen und abschließend einer Umfrage, welche darauf abzielt, die Erfahrungen, Wünsche und Vorstellungen der breiten Masse, im Umgang mit Chatbots und Apotheken, zu erfragen. Bei der Umfrage sowohl auf Personen eingegangen, die bereits Erfahrungen mit Chatbots hatten, aber auch die Wünsche von Personen abgefragt, die noch keinen Kontakt mit diesen hatten. Die Antworten auf die Fragestellung lassen auf eine generelle Akzeptanz der Allgemeinheit schließen und legen nahe, dass ein Einsatz von Chatbots dazu führen würde die Zufriedenheit der Kunden zu steigern.
Aufgrund der Covid-19-Krise im Jahr 2020 mussten erstmals praktisch alle steirischen Landesbediensteten von zu Hause aus arbeiten. Dieses Werk konzentriert sich auf das Home Office im öffentlichen Dienst und geht auf folgende Forschungsfrage ein: „Wie kann das Führen von Mitarbeitern und Mitarbeiterinnen im öffentlichen Dienst während der Remotetätigkeit effektiv und effizient gestaltet werden?“ Zur Beantwortung dieser Frage wurde eine tiefgehende Literaturrecherche durchgeführt und auf Basis der Forschungsergebnisse ein Interviewleitfaden erstellt. Anschließend wurden Interviews mit acht Führungskräften aus der IT-Abteilung der Steiermärkischen Landesregierung geführt, die entweder mit Softwareentwicklung oder organisatorischen Aufgaben befasst sind. Die Interviewergebnisse brachten wichtige Erkenntnisse zur Führung in Telearbeitssituationen zutage. Diese Erkenntnisse werden in sieben Kategorien (z.B. Kommunikation, Flexibilität) eingeteilt, wobei auch Tipps und Empfehlungen für das tägliche Handeln der Führungskräfte gegeben werden. Aufgrund der speziellen Zielgruppe ist die Anwendbarkeit der vorliegenden Ergebnisse möglicherweise auf diesen besonderen Rahmen beschränkt. Die Ergebnisse bilden jedoch eine Grundlage für zukünftige Studien, um ihre Anwendung in anderen Sektoren und Telearbeitssituationen zu untersuchen. In der Zwischenzeit legen die Ergebnisse nahe, dass die Vor- und Nachteile sowie die Erkenntnisse möglichst vielen Führungskräften vermittelt werden sollten (z.B. durch Workshops, Webinare oder Newsletter).
Zu Beginn eines Softwareprojekts stellt sich fast immer die Frage, welche Technologien dafür eingesetzt werden. Die Entscheidung über die Auswahl der Frameworks wird dabei oft nach Präferenz oder vorhandener Erfahrung der Entwickler*innen getroffen. Gerade bei wichtigen oder großen Projekten sollte die Auswahl der Frameworks rational anhand der gegebenen Projektanforderungen getroffen werden. Ziel dieser Masterarbeit ist es, zu bestimmen, ob die Auswahl der Frameworks durch ein systematisches Entscheidungsmodell unterstützt werden kann. Aus diesem Ziel wurde folgende Forschungsfrage gestellt: Kann mithilfe eines systematischen Entscheidungsmodells die Auswahl eines geeigneten Single-Page-Application-Frameworks im Bereich Web-Frontendentwicklung getroffen werden? Die Forschungsfrage wird dabei primär durch Literaturrecherche zur Entscheidungstheorie untersucht. Ferner wird anhand der Recherche ein Entscheidungsmodell entwickelt. Um die Forschungsfrage zu beantworten, wurden Single-Page-Application- (SPA)Frameworks recherchiert, gefiltert und anhand eines Kriterienkataloges bewertet, um sukzessive ein Entscheidungsmodell zu erarbeiten. Das entstandene Modell bietet die Möglichkeit, SPA-Frameworks anhand ihrer Eignung für individuelle an das Modell übergebene Projektanforderungen zu sortieren und ungeeignete Frameworks auszuscheiden. Die Bewertung der Frameworks erfolgte dabei mittels einer Bestandsaufnahme messbarer Fakten sowie durch den Vergleich der Frameworks anhand eines erstellten Prototyps bei nicht messbaren Kriterien. Für die Validierung des erstellten Modells wurde unter Personen aus der Softwareentwicklungsbranche eine Umfrage durchgeführt, bei der die Teilnehmer*innen die Frameworks bewerten konnten. Anschließend wurde mit der Bewertung der Umfrageergebnisse ein neues Modell erstellt und dieses anhand fiktiver Projektanforderungen mit dem ursprünglich erstellten Modell verglichen. Dabei wurde dasselbe Ergebnis erzielt und somit das Modell validiert. Die vorliegenden Ergebnisse zeigen, dass ein Entscheidungsmodell die Auswahl eines Frameworks ermöglicht oder als Entscheidungsgrundlage dienen kann. Voraussetzung dafür ist die objektive Bewertung der Frameworks sowie der individuellen Projektanforderungen.
Werbung wird seit je her genutzt, um neue potenzielle Kundschaft zu erreichen, aber auch um existierende Kundschaft zu binden. Die Privatwirtschaft hat viele Möglichkeiten Werbung zu gestalten und zu nutzen. Die Möglichkeiten einer Apotheke in Österreich sind aber stark durch das Gesetz reguliert, denn das Ziel einer Apotheke ist primär nicht der Profit, sondern die kontinuierliche Versorgung der Bevölkerung mit Medikamenten. Deshalb soll zwischen einzelnen Apotheken kein Konkurrenzkampf um dieselbe Kundschaft herrschen. Daraus resultiert, dass die meisten Apotheken nur minimalen Gewinn erwirtschaften können. Um dieser Situation gegenzusteuern können Apotheken die gesetzlich graue Zone des Internets nutzen, um Teile des Geschäfts zu bewerben. Durch Applikationen kann aber nicht nur neue Kundschaft geworben werden, sondern vor allem auf Bindung der bestehenden Kundschaft hingearbeitet werden, um langfristig erfolgreich zu sein. Diese Arbeit erläutert und konzipiert besagte Werbemöglichkeiten einer Applikation anhand des Beispiels der Apotheke Kalsdorf. Dazu werden zunächst die theoretischen Hintergründe für erfolgreiches Schaffen von KundInnenbindung in Verbindung mit typischem Verhalten von Konsumenten und Konsumentinnen im Internet betrachtet. Anschließend wird auf dieser Grundlage ein belastbares Konzept für eine Applikation entwickelt. Um diesem Gewicht zu verleihen wurde eine Umfrage durchgeführt, deren Ergebnisse das Konzept überprüfen und neue Erkenntnisse in das Konzept integrieren. Dieses Konzept wird aber lediglich aus Sicht des Nutzens für die Kundschaft erstellt und übernimmt deshalb auch nur begrenzte Rücksicht auf die finanziellen, technischen sowie ressourcentechnischen Anforderungen an die Apotheke selbst. Das Konzept dient demnach bei einer tatsächlichen Entwicklung einer Applikation für die Apotheke als Vorlage und ermöglicht somit einen Fokus auf die übrigen Rahmenbedingung sowie die Entwicklung selbst, sodass beispielsweise ein IT-Unternehmen bzw. eine Freelancing-Person beauftragt werden kann und diese mit einem validieren Konzept direkt zu arbeiten beginnen kann.
Hochschulen vermitteln als leistungsfähige Organisationen Bekanntes, erforschen neues Wissen und bilden Spezialisten und Führungskräfte der Zukunft aus. Die Abläufe sind dokumentiert und eingespielt, sowie Anpassungen der Struktur und Lehrinhalte sind durch ein Akkreditierungsverfahren validiert. Vorgänge in der Lehre kurzfristig zu ändern, bedarf konkreten Vorbereitungen. Eine Schließung des gesamten Hochschulbetriebs aufgrund einer Pandemie, wie es in Österreich im Sommersemester 2020 vorkam, stellte die Präsenzlehre mit sofortiger Wirkung ein. Um die Wissensvermittlung weiterführen zu können musste die Fernlehre als schnellstmögliche Alternative eingeführt bzw. ausgeweitet werden. Um den Herausforderungen eines plötzlichen Wandels im Hochschulbetrieb nachhaltig gerecht zu werden und den Studierenden eine vollständige Weiterführung der Aus- und Weiterbildung zu gewährleisten, bedarf es eines generischen Transformationsprozesses. Dieser dient primär den Hochschulen und den Studierenden, aber sekundär auch der österreichischen Wirtschaft, da eine lückenlose Sicherstellung zukünftiger Fach- und Führungskräfte für die Wirtschaft gewährleistet werden kann. Die Basis des in der Arbeit „Hochschullehre in Zeiten einer Pandemie“ entwickelten Prozesses bilden die Ergebnisse einer österreichweiten empirischen Analyse, welche durch eine digitale Umfrage realisiert wurde. Durch Auswertung der Kombination von Antworten konnten Richtungstendenzen erkannt werden. Als Ergebnis wurden Herausforderungen, Probleme und Verbesserungsbedarf in Verbindung mit den betroffenen hochschulischen Institutionen, deren eingesetzten Prozessen und der Semesteranzahl von Lehrtätigkeiten identifiziert. Für das Design des hochschulischen Transformationsprozesses wurde der Grazer Ansatz, eine modulare Modellierungsplattform, genutzt. Der entstandene Prozess bietet vorrangig Hochschulen den Mehrwert, den lückenlosen Lehrbetrieb und damit die Aus- und Weiterbildung der Studierenden zu gewährleisten. Zusätzlich stellt dieser designte Prozess sicher, dass der österreichischen Wirtschaft zukünftige Fach- und Führungskräfte zur Verfügung stehen.
Der permanent wachsende Online-Markt steigert die Nachfrage erschwinglicher Webshop-Systeme, damit Webshops nicht nur dem Online-Auftritt von Großunternehmen vorbehalten bleiben, sondern auch im breiten Markt der KMU Einzug finden. Gleichzeitig haben sich mit dem Aufstieg von Cloud-Plattformen und dem häufig damit verbundenen „Pay-per-Use“-Prinzip ganz neue Anforderungen an die Effizienz der Ressourcennutzung von Software-Systemen ergeben. Zentrales Ziel dabei ist die Einsparung von Kosten bei gleichzeitiger Erhaltung der Performanz. Die Systemeigenschaft Elastizität ermöglicht es, diesen speziellen Anforderungen gerecht zu werden. Für die Umsetzung von Elastizität in einem mandantenfähigen Webshop-System bietet sich die Bereitstellung in der Cloud in Verbindung mit Container-Technologien und der Verwendung eines geeigneten Cluster-Management-Systems an. Mit diesem Hintergrund ist das Ziel der vorliegenden Arbeit die Messung der Auswirkungen von Elastizität auf Performanz und Kosten in einem mandantenfähigen, containerbasierten Webshop-System. Um diese Messung durchzuführen, werden zunächst die Rahmenbedingungen abgesteckt sowie die zugehörigen Metriken und Messmethoden vorgestellt. Anschließend werden zwei unabhängige Testsysteme aufgebaut, wovon sich das eine nur durch seine elastischen Eigenschaften vom anderen unterscheidet. Die beiden Testsysteme werden denselben Auslastungen ausgesetzt, um jeweils die Performanz und Kosten zu ermitteln. Durch den Vergleich der Ergebnisse lässt sich eine deutliche Verbesserung der Performanz durch Elastizität belegen. Allerdings wird trotz der verringerten durchschnittlichen Antwortzeit die maximale Antwortzeit erhöht. In Bezug auf die Kosten wird zwar eine leichte Tendenz zu einer Erhöhung durch Elastizität gemessen, jedoch ist das Ergebnis nicht deutlich genug, um eine positive oder negative Auswirkung eindeutig festzustellen. Jedenfalls lässt sich aus den Ergebnissen ableiten, dass der positive Effekt von Elastizität auf die Performanz größer ist als die Veränderung der Kosten.
In den vergangenen Jahren war die Welt immer wieder geprägt von Veränderungen. Die Corona-Krise im Jahr 2020 stellte die Unternehmen vor große Herausforderungen. Unternehmen produzierten und lagerten plötzlich andere Produkte, weil sich der Bedarf schlagartig verändert hatte. Das eingesetzte Warehouse Management System (WMS) im Lager muss deshalb auch noch lange nach dem Go-Live anpassbar sein, um die Prozesse im Lager weiterhin optimal zu unterstützen. Die seitens des WMS-Anbieters angebotene Dienstleistung, nämlich gemeinsam mit dem Kunden die Anforderungen und Lösungen für diese Veränderungen abzustecken, ist eine Dienstleistung, die den WMS-Anbieter viel Zeit kostet. Der wahrgenommene Wert aus der Sicht des Kunden ist für diese Dienstleistung teilweise noch unerforscht. In diesem Kontext ist es das Ziel dieser Arbeit, zu untersuchen, welche Einflussfaktoren den wahrgenommenen Wert dieser Dienstleistung sowie die Zahlungsbereitschaft für selbige im D-A-CH-Raum beeinflussen. Zwecks Identifizierung der Einflussfaktoren werden unterschiedliche Studien und Forschungen zur Konzeptualisierung der Wertwahrnehmung analysiert. Diese werden in der empirischen Untersuchung mittels eines Onlinefragebogens überprüft. Zusätzlich wird die Zahlungsbereitschaft für ein konkretes Beispiel dieser Dienstleistungen mittels Preisbarometer erfragt. Die Auswertung der erhobenen Daten zeigt, dass für die Befragten von den ausgewählten Einflussfaktoren insbesondere die Qualität der Dienstleistung und der bestehenden Software, emotionale Faktoren sowie das Preis-Leistungsverhältnis eine wesentliche Rolle spielen. Insbesondere jene Einflussfaktoren, die mit dem Dienstleistungspersonal des WMS-Anbieters zusammenhängen, scheinen von Bedeutung zu sein. Zusammenfassend betrachtet liefern die Ergebnisse der vorliegenden Arbeit Hinweise auf jene Faktoren, welche für die Gestaltung der spezifischen Dienstleistung „Angebote für Change Requests“ entscheidend sein können.
Die Situation, welche COVID-19 hervorgerufen hat, drängte viele Organisationen dazu, ihre Arbeitsabläufe so weit als möglich vom ständigen Arbeitsort, auf das Homeoffice mittels Teleworking Arbeitsplätzen zu verlegen. Diese Maßnahme soll helfen, die Ausbreitung der Infektionskrankheit zu verlangsamen und einzudämmen. Jedoch stellt dies den laufenden IT-Betrieb vor große Herausforderungen, wie die Erfüllung der im IT-Service Management definierten Ziele und Kennzahlen. Die Einhaltung geforderter Grenzwerte ist essentiell um einen reibungslosen Ablauf der Geschäftsprozesse gewährleisten und somit die Organisation als Ganzes weiterführen zu können. Auf Basis dieser Situation wird im Rahmen dieser Arbeit die Forschungsfrage „Wie haben sich mit vermehrtem Einsatz von Teleworking Arbeitsplätzen in der Pandemie von COVID-19 die Anforderungen an Monitoring Kennzahlen für IT-Operations verändert?“ behandelt. Beginnend mit der Literaturrecherche werden Themenblöcke rund um IT-Service Management IT-Governance, IT-Performance-Management, IT-Ziele, Key-Performance-Indikatoren, Continual-Service-Improvement und den gängigen IT-Rahmenwerken beschrieben. Darauffolgend werden die Themen Monitoring und den dazugehörigen Teilgebieten Infrastruktur, Cloud Service Modellen, Technologien und Tools sowie Knackpunkte des interdisziplinären Monitorings erörtert. Abschließend für die Literaturrecherche wird eine Situationsanalyse der Pandemie von COVID19 dargelegt und die daraus resultierenden Auswirkungen und korrigierenden Maßnahmen dargelegt. Im fünften Teil der Arbeit werden die Hypothesen auf Basis der erarbeiteten Literatur erläutert. Darauffolgend wird im sechsten Teil auf das Untersuchungsdesign erklärt. Hierzu gehören eine Beschreibung des Vorgehens selbst, die Befragte Untersuchungsgruppe, Kontaktaufnahme, Aufbau des Gesprächsleitfadens, Dokumentation der Durchführung und die Auswertung. Zusammenfassend werden im siebten Kapitel die Ergebnisse erläutert. Die durchgeführten Experteninterviews sind im Anhang enthalten und werden zusätzlich als Audioaufnahme der CD beigelegt.
Customer – Releationship Management Systeme haben in den letzten Jahren eine immer größere Bedeutung für Unternehmen bekommen. Das System wird ins Unternehmen sowie deren Prozesse integriert. Dies kann unter der richtigen Verwundung den Umsatz der Unternehmen steigern und Prozesse optimiert werden. Aktuelle CRM System wie Salesforce bieten die Möglichkeit der Integration einer Artificial Intelligence welche auf Basis der vorhandenen Daten Vorhersagen über Kosten eines Angebots und wie hoch die Wahrscheinlichkeit ist, dass es zu einem Auftrag kommen wird. Diese Informationen sollen dem Sales Mitarbeiter bzw. der Sales Mitarbeiterin bei der Angebotslegung sowie Kalkulation unterstützen. Für den Einsatz von Artificial Intelligence ist das Sammeln von Informationen ein wichtiger Punkt weshalb auch das Thema Big Data aufgearbeitet wird. Im Rahmen dieser Arbeit sollen die Auswirkungen des Einsatzes überprüft werden, im Speziellen wird die Artificial Intelligence mit dem Namen „Einstein“ des Salesforce CRM Systems untersucht. Um dies zu überprüfen wird ein Versuch durchgeführt, welcher zwei CRM Systeme miteinander vergleicht, zu diesem Zweck werden in unterschiedlichen Gruppen Aufgabenstellungen gestellt und die durchgeführt werden sollen. Die Teilnehmer / Teilnehmerinnen werden im Rahmen eines Interviews erfragt inwiefern sich die Systeme unterschieden haben, ob und welche Effekte auf das Vorgehen bei der Durchführung hatte. Auf Basis der Ergebnisse werden Schlussfolgerungen erstellt, ob es Auswirkungen gab und welche diese waren in Bezug auf die Angebotserstellung und dem allgemeinen Vorgehen. Aus der Arbeit wird hervorgehen, dass eine gute Informationsqualität eine Voraussetzung für den Einsatz von Artificial Intelligence ist, welche sich wiederum auf die Vorhersagen bzw. Unterstützung auswirkt. Das erarbeitete Wissen, welches aus dieser Arbeit hervorgeht, bietet eine Grundlage für die Verwendung und Integration einer Artificial Intelligence.
Digitale Plattformen ermöglichen Softwareentwicklungsunternehmen und digitalen Geschäftsmodellen ein schnelles Wachstum. Dies erfordert skalierbare und flexible Softwarelösungen wie White-Label Plattformen die als Software-as-a-Service bereitgestellt werden. Das Ziel dieser Arbeit ist, Software Architekturen für digitale Plattform zu analysieren und wie Plattformen durch die Verwendung von Clouddiensten bereitgestellt werden können. Die Analyse untersucht drei gängige Software Architekturen und vergleicht die Architekturen für unterschiedliche Ausprägungen von digitalen Plattformen. Die Auswertung zeigte, dass eine Serverless-Architektur die beste Möglichkeit für die Bereitstellung einer Plattform ist, die unregelmäßig verwendet wird oder für Plattformen bei denen die Kunden stark reguliert sind und eigene Instanzen benötigen. Eine Microservice Architektur bietet sich für Systeme mit einer hohen Auslastung an oder für Plattformen, die eine große Anzahl an Benutzer benötigen. Zusammenfassend kann gesagt werden, dass Clouddienste Unternehmen eine einfache Möglichkeit bieten um flexible digitale Geschäftsmodelle zu entwickeln, die gegebenenfalls uneingeschränkt skaliert werden können und in kürzester Zeit auf die Bedürfnisse des Marktes angepasst werden können.
Die Wirtschaftsinformatik betrachtet Informationssysteme als komplexe soziotechnische Systeme, in denen Mensch und Informationstechnik zur Erledigung einer Aufgabe zusammenwirken. Jedoch verursacht der Einsatz von Informationstechnik unerwartete Sekundäreffekte im menschlich-sozialen Bereich des Systems, die die wissenschaftliche Literatur bisher kaum behandelt. Aus diesem Grund versucht diese Masterarbeit in diesem Bereich einen Beitrag zu leisten, indem die langfristigen Auswirkungen des Einsatzes von Informationssystemen auf das Fundament des sozialen Subsystems, die Unternehmenskultur, untersucht werden. Zu diesem Zweck wurde eine explorative Einzelfallstudie in einer Organisation des öffentlichen Dienstes, in der in den letzten fünfzehn Jahren die Informationsinfrastruktur laufend erweitert wurde, durchgeführt. Eine solche Organisation wurde gewählt, da der Literatur entsprechend von einer ausgeprägten Unternehmenskultur im öffentlichen Dienst auszugehen ist. Ziel der Studie war es, jene Kulturdimensionen, auf die sich der Einsatz von Informationssystemen auswirkt, zu identifizieren und konkrete Auswirkungen sowie einige relevante moderierende Effekte in diesen Dimensionen zu bestimmen. So wurde als Vorbereitung zur empirischen Untersuchung ein weitreichender theoretischer Bezugsrahmen auf Basis der Systemtheorie, des soziotechnischen Designansatzes sowie wissenschaftlicher Literatur aus der Kultur- und Informationssystemforschung entwickelt. Diesem Bezugsrahmen entsprechend wurden 15 qualitative Experteninterviews mit Führungskräften, einem Personalvertreter und einem IT-Administrator abgehalten, in denen Daten zu 16 verschiedenen Kulturdimensionen erhoben wurde. Diese Daten wurden anschließend mit einer qualitativen Inhaltsanalyse, die durch den Einsatz einer Analysesoftware unterstützt wurde, ausgewertet. Die Ergebnisse zeigen, dass sich der Einsatz von Informationssystemen vor allem in den Kulturdimensionen Kommunikation, Qualifikationsanforderungen an die Mitarbeiter, Einbindung der Mitarbeiter, Umgang mit Zeit und Kontrolle auswirkt. Beispielsweise hat die Veränderung im Kommunikationsverhalten zu einem Verlust von impliziter sozialer Hintergrundinformation bei den Führungskräften geführt, was wiederum deren Führungsarbeit erheblich beeinträchtigt. Zudem hat sich in der Organisation eine ungewöhnlich offene Informationskultur entwickelt, die das Informationsaufkommen deutlich erhöht und die Bediensteten zum gleichzeitigen Erledigen mehrerer Aufgaben drängt. Insgesamt konnten in dieser explorativen Studie, die durch intensive Literaturarbeit unterstützt wurde, 56 Hypothesen erarbeitet werden. Diese bilden eine solide Basis für weitere Forschungsschritte mit dem Ziel, unbeabsichtigte soziokulturelle Auswirkungen in der praktischen Entwicklung von Informationssystemen zu verhindern.
Die Softwarequalität ist ein wesentlicher Wettbewerbsfaktor in der Softwarebranche. Viele Softwareprojekte legen daher den Schwerpunkt ihrer Softwarequalität auf Abnahmetests und ignorieren andere wichtige Faktoren des gesamten Software-Lebenszyklus. Aus diesem Grund konzentriert sich diese Arbeit darauf, ob ausgewählte Einflussfaktoren aus dem gesamten Software-Lebenszyklus in Verbindung mit Testergebnissen von Abnahmetests eine detailliertere Bewertung der Qualität eines Software Release ermöglichen können. Hierzu wurden Einflussfaktoren untersucht und in ein Modell integriert. Darauf aufbauend wurde eine Bewertungsmatrix für die Implementierung entwickelt. In einem Experiment, in dem das Modell auf ein Beispielprojekt angewendet wurde, wurden 6 von 16 Features aus dem Software Release ausgenommen. Hätte sich dieses Experiment nur auf die Ergebnisse des Akzeptanztests gestützt, wären nur 4 von 16 Features aus dem Software Release ausgenommen worden. Diese Ergebnisse bestätigen, dass die ausgewählten Einflussfaktoren eine detailliertere Bewertung der Qualität des Software Release ermöglichen. Trotz dieser Schlussfolgerung würden die Erkenntnisse dieser Arbeit von weiteren Studien profitieren, bei denen mehr Zeit zur Verfügung steht und verschiedene Werkzeuge zur Überprüfung der Forschungsfrage verwendet werden.
Ein Navigationssystem für Tunnelbohrmaschinen sammelt eine enorme Menge an Daten wie Sensordaten, Betriebsdaten, Fehlerprotokolle oder Informationen über das Benutzerverhalten. Viele dieser Daten werden nur für die Fehleranalyse verwendet. Dieses reaktive Verhalten kann in proaktives Handeln umgewandelt werden bevor die Zwischenfälle eintreten. Dies führt zu einer Kostenreduktion, da ein Stillstand der Maschine sehr teuer ist. Das Ziel dieser Arbeit ist es, ein Portfolio mit neuen Services aus den mitprotokollierten Daten zu erstellen. Das erste Kapitel beschäftigt sich mit der Forschungsfrage, der angewandten Methoden und dem weiteren Aufbau dieser Arbeit. Es folgen Kapitel über Tunnelbau und Software, Wertschöpfungsprozesse, Smart Services und Big Data. Im folgenden Kapitel wird das methodische Vorgehen zur Erstellung der Services beschrieben. Die Ergebnisse werden im nächsten Kapitel zusammengefasst, welches in drei Unterkapitel gegliedert ist. Das erste Unterkapitel beinhaltet die Ergebnisse eines durchgeführten Workshops, welcher Störungen im Tunnelbau analysiert und neue Dienstleistungen entdeckt. Im nächsten Kapitel werden die erarbeiteten Dienstleistungen anhand zweier Experteninterviews evaluiert. Das Serviceportfolio und die Ergebnisse der Arbeit werden im folgenden Kapitel dargestellt. Die Ergebnisse zeigen, dass die protokollierten Daten eine wertvolle Quelle für die Analyse der Prozesse im Tunnelbau sind und viel effizienter verwendet werden können.
The impact of digitalization on the chemical process industry will lead to a decentralized, highly automated production environment, in which intelligent products supervise and control their own production processes. There has been little work directed to the impact of digitalization on chemical plants. Traditional risk management methods are problematic in this highly complex environment. One method suitable for complex systems is the functional resonance accident method FRAM. FRAM analyses examine performance variabilities of functions and the couplings between these functions. The aims of this study were to analyze and simulate the risk and performance variability of chemical plants in dependence of their digitalization maturity. As this study was also exploratory in its nature, an additional goal was the identification of future research topics. To accomplish this research agenda, a new hybrid simulation methodology, that combines functional resonance accident methodology and fuzzy logic to simulate chemical plants, was developed. This simulation methodology can generally be used to identify risks in complex socio-technological systems. A new metric was proposed and used to identify critical couplings. In this study three plants, representing three different digitalization maturity levels, were designed in a case study. The results of the FRAM methods supported the theory that digitalization leads to a general lower performance variability. If disturbances were introduced into the simulation, the results were inconclusive. Supplementing these findings, an FTA analysis for the specific top event run-away reaction showed the correlation between this top event and the digital maturity level of the chemical plant.
Wissen ist eine ständig wachsende Ressource, deren effizientes Handling für unternehmerischen Erfolg ausschlaggebend ist. Insbesondere die Arbeit an Projekten kann durch effizientes Wissensmanagement innerhalb von Teams sowie teamübergreifend zu einer Effizienzsteigerung beitragen. Strukturierte Methoden zur Erfassung von Wissen sowie eine klare Vorgehensweise zur Dokumentation dieses Know-hows sind Schlüsselfaktoren für erfolgreiches Projektmanagement. Der erste Teil der Arbeit zeigt grundlegende theoretische Aspekte des Themas Wissensmanagement auf, die insbesondere aus einer betriebswirtschaftlichen Perspektive betrachtet werden. Die zugrundeliegende Forschungsfrage lautet: Wie kann Nachhaltigkeit in der Projektabwicklung durch die Integration von Wissensmanagement sichergestellt werden, damit zukünftige Projektvorhaben von den Learnings aus bereits abgeschlossenen Projekten profitieren können? Neben einer genauen Betrachtung des Wissensbegriffs steht außerdem die Beschreibung unterschiedlicher Wissensarten im Zentrum der theoretischen Inhalte. All diese Ausführungen werden stets vor dem Hintergrund der vorliegenden Fragestellung der Arbeit erarbeitet und diskutiert. Der zweite Teil der theoretischen Ausführungen zielt auf das Thema Wissensmanagement ab und zeigt anhand verschiedener Modelle, wie Wissensmanagement aus verschiedenen konzeptuellen Blickwinkeln betrachtet werden kann. Die weiteren Ausführungen zielen insbesondere auf die Einführung von Wissensmanagement in Organisationen ab und legen den Fokus auf die organisationale Ebene. Es werden konkrete Möglichkeiten aufgezeigt, Wissensmanagement in Teams und Organisationen zu verankern. Damit in Zusammenhang stehen außerdem mögliche Tools, welche die Wissenssicherung unterstützen können. Den Abschluss des Theorieteils bilden Ausführungen zum Thema Projektmanagement vor dem Hintergrund von Wissensmanagement. Dabei spielen insbesondere Lessons Learned aus Projekten eine zentrale Rolle, deren Erkenntnissicherung für Teams und Organisationen einen großen Mehrwert für die Projektabwicklung darstellen kann, wenn Prozesse und Methoden klar definiert und allen MitarbeiterInnen bekannt sind. Die Inhalte des Theorieteils liefern die Basis für den empirischen Teil, der auf einer Einzelfallanalyse beruht. Eine Umfrage unter MitarbeiterInnen eines österreichischen Finanzdienstleisters gibt Aufschluss darüber, welcher Stellenwert dem Wissensmanagement innerhalb der Organisation aktuell zukommt und wie dessen Potential für zukünftige Projekte eingeschätzt wird. Dafür wurden ProjektleiterInnen des Finanzdienstleiters mittels einer Online-Umfrage befragt. Basierend auf den Umfrageergebnissen werden Handlungsempfehlungen abgeleitet, die aufzeigen, welche Möglichkeiten existieren, um Wissensmanagement in der Projektorganisation zu verankern. Dabei geht es einerseits um die notwendigen Rahmenbedingungen, die für die Einführung von Wissensmanagement notwendig sind, andererseits um die Auseinandersetzung mit dem Thema aus prozessualer und methodischer Sicht. Der Einsatz konkreter Tools findet ebenfalls Berücksichtigung.
In einer Zeit, in der die Digitalisierung von Geschäftsprozessen immer weiter voranschreitet und der digitale Wettbewerb dadurch kontinuierlich intensiver wird, müssen Unternehmen mehr denn je um ihren Platz darin kämpfen. Die aggressive Preispolitik und eine
„die Großen fressen die Kleinen“-Mentalität der Internetgiganten wie Amazon und Alibaba lassen das E-Commerce immer mehr zu einer „Two-Man-Show“ verkommen. Um dem entgegenzuwirken, müssen sich die sogenannten „Kleinen“ auf jene Stärken konzentrieren, die sie „groß“ werden ließen: Qualität und KundInnennähe. Während die Qualität eine Selbstverständlichkeit darstellen sollte, wirft die KundInnennähe im E-Commerce eine gewichtige Frage auf: Wie soll man den BesucherInnen eines Webshops ein Kauferlebnis bieten, das in den Filialen von Angesicht zu Angesicht doch so selbstverständlich ist? Und genau an dieser Stelle hakt diese Masterarbeit ein. Um BesucherInnen ein Erlebnis im Online Shop zu bieten, muss man ihre Bedürfnisse kennen. Diese Bedürfnisse zu sammeln, zu speichern und auszuwerten wird unter dem Begriff Digital Analytics zusammengefasst. Digital Analytics bedeutet auf den Einzelfall heruntergebrochen, dass das Verhalten einer Person, die einen Online Shop betritt, beobachtet wird, damit die darauffolgenden Besuche an diese Beobachtungen angepasst werden können. Aus Beobachtungen werden Metriken und aus diesen Metriken können in weiterer Folge Kennzahlen zur kontinuierlichen Verbesserung abgeleitet werden. Tools zur Bewältigung dieser Aufgaben gibt es bereits, doch sind diese auch auf die Bedürfnisse von klein- und mittelständischen Unternehmen ausgerichtet und wenn ja, welche sind das? Ein Handlungsleitfaden für Klein- und Mittelunternehmen im Bereich E-Commerce, der mit Hilfe von ExpertInnen erstellt wird, soll diese Frage beantworten. Neben einer Gegenüberstellung von potenziellen Digital Analytics Lösungen beinhaltet der Handlungsleitfaden Informationen über die Identifizierung von relevanten Kennzahlen und Funktionen sowie einen Überblick über datenschutzrechtliche Aspekte.
Diese Arbeit beschäftigt sich mit der Frage, welcher Voraussetzungen und Inhalte es bedarf, um über Social-Media-Kanäle monetäre Wertschöpfung zu erreichen. Soziale Medien haben Einzug in unsere Gesellschaft gehalten und nehmen Einfluss auf unseren Alltag und unseren Kontakt zu Mitmenschen. Private Internetnutzerinnen und -nutzer veröffentlichen Inhalte in sozialen Netzwerken, genauso wie Unternehmen oder Organisationen. Viele Internetnutzerinnen und -nutzer starten aus privatem Interesse Social-Media-Kanäle, welche sich zu Einnahmequellen entwickeln können, wenn Unternehmen sich deren Authentizität und Reichweite zu Nutze machen wollen. Ziel der Arbeit ist die Erforschung von Social-Media-Kanälen und wie diese zur Einkommensgenerierung genutzt werden können. Daher werden im Rahmen dieser Arbeit die Begrifflichkeiten rund um soziale Medien und Online-Marketing anhand bestehender Literatur definiert. Ergänzt wird der Theorieteil durch aktuelle Informationen zur Zusammenarbeit zwischen Unternehmen und privaten Internetnutzerinnen und -nutzern, sowie durch eine Definition von Einkommensformen über
Social-Media-Kanäle. Mit Hilfe der erarbeiteten theoretischen Grundlagen und dem Business Model Canvas nach Osterwalder & Pigneur wird im Rahmen einer Fallstudie das Social-Media-Angebot von vier Internetnutzerinnen und -nutzern untersucht, um deren Geschäftsmodell samt Einkommensquellen zusammenzufassen und Gemeinsamkeiten zu erkennen. Die Fallstudie bestätigt, dass es möglich ist, Einnahmequellen über soziale Medien zu generieren. Es lässt sich festhalten, dass mit wenigen technischen Hilfsmitteln bereits Inhalte erstellt werden können, aber es Aufwand und Beständigkeit bedarf, qualitativ hochwertige Inhalte zu schaffen und diese mit Einnahmequellen zu verknüpfen. Werden verschiedene Social-Media-Kanäle gebündelt verwendet, können die Zielgruppen erweitert und die Inhalte mit neuen Einnahmequellen verknüpft werden. Interessant wären im Rahmen weiterer Forschungsarbeiten die Erstellung und Untersuchung eines neuen Social-Media-Kanals inklusive dessen Monetarisierung, um die Wertschöpfung über Social-Media-Kanäle aus einer direkten Perspektive zu erforschen und mit den vorliegenden Ergebnissen zu vergleichen.
Die digitale Bildverarbeitung ist derzeit ein hochaktuelles Thema. Sie umfasst eine Vielzahl an computergestützten Lösungen in Bezug auf maschinelles Sehen: Von automatischen optischen Qualitätsanalysen über autonome Fahrzeuge bis hin zu Sicherheitstechnik können Beispiele aus unterschiedlichsten Bereichen aufgelistet werden. Der Bereich Computer Vision ist schwer einzugrenzen und einer rasanten Entwicklung unterworfen. Parallel zu der Evolution von professionellen Systemen breitete sich auch der Markt der kostengünstigen Einplatinenrechner aus. Die günstigen Geräte sind heute sehr populär und zahllose Anwendungsmöglichkeiten rechtfertigen ihre Beliebtheit sowohl unter HobbyentwicklerInnen wie auch Unternehmen. Da ihre Rechenleistung immer stärker wird und sich herkömmlichen Personal Computer annähert, sind sie auch für komplexere Problemlösungen immer besser geeignet und werden somit auch für die Durchführung von unterschiedlichen Bildverarbeitungsaufgaben verwendet. In dieser Masterarbeit mit dem Titel „Evaluierung von Anwendungsbereichen der maschinellen Bildverarbeitung im Kontext von Embedded Systems“ wurden von den weitreichenden Anwendungsgebieten drei voneinander komplett unterschiedliche Beispiele ausgewählt. Eine tiefgehende Analyse dieser Beispielanwendungen hat die technischen Grenzen dieser Einplatinenrechner untersucht, die wirtschaftlichen Vor- und Nachteile, und ihren Einsatz als alternative Lösung zu meist kostenintensiven professionellen Systemen. Die Arbeit hat gezeigt, dass der Raspberry Pi – als Vertreter der Einplatinenrechner – von Anwendung zu Anwendung unterschiedliche Leistungen erbringt und die Erwartungen unterschiedlich gut erfüllt. Anhand von drei Beispielen wurde eine Auflistung von Kriterien erstellt, welche eine Anwendung erfüllen muss, damit ein Einplatinenrechner effektiv angewendet werden kann. Diese Liste kann als Wegweiser fungieren für die Entscheidung, ob eine beliebige Bildverarbeitungsanwendung mit einem Einplatinenrechner wirtschaftlich und technisch realisierbar ist.
Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen
(2017)
Videokonferenzsysteme sind ein Teilbereich der Unified Communications. Letztere beinhalten, unter anderen, auch Instantmessaging und Content Sharing und komplettieren somit die Kommunikationsmöglichkeiten. Die Masterarbeit Full HD Videokonferenzsystem auf Basis von Standard-Hardwarekomponenten und freien Softwarelösungen ist motiviert von verhältnismäßig teuren Lösungen am Markt und dem Spaß, sich mit computerbasierten Lösungen zu beschäftigen. Nach der Aufstellung, welche Komponenten bei einem Videokonferenzsystem beteiligt sind, werden notwendige Voraussetzungen herausgearbeitet, die für ein Full-HD-Videokonferenzsystem notwendig sind. Aus diesen Anforderungen werden unterschiedliche Umsetzungsvarianten abgeleitet. Im Anschluss wird eine mögliche Umsetzungsvariante mit einem Raspberry Pi 3 und einer Kamera, die H.264-kodierte Videodaten liefert, experimentell umgesetzt. Dabei ist es kein Ziel, eine fertige, einsetzbare Lösung zu erstellen, sondern nur, zu verifizieren, ob die Hardware fähig ist, die ihm gestellte Aufgabe zu erfüllen. Da die Latenzzeit sowohl der Audiodaten als auch der Videodaten unter 450 Millisekunden liegt, konnte die Hypothese H1 bestätigt und die Hypothese H0 widerlegt werden. Dementsprechend kann die Forschungsfrage mit der oben genannten Auswahl an Hardware beantwortet werden. Da die gemessene Latenzzeit inklusive einer höheren WAN Latenz jedoch über 300 Millisekunden liegen kann, muss zur Kenntnis genommen werden, dass die empfundene Qualität als nicht optimal wahrgenommen werden könnte. Es müsste entsprechend später festgestellt werden, ob sich diese Latenz auf dieser zugrundeliegenden Hardware weiter reduzieren lässt, oder ob es notwendig ist, eine andere Hardwarealternative in Betracht zu ziehen. Davon abgesehen, fehlt für ein einsetzbares Produkt eine Benutzeroberfläche. Auch könnte in Zukunft der Einsatz von H.265, die Steigerung der Auflösung auf 4K, sowie die Komplettierung der Features in Richtung Unified Communications von Interesse sein.
The importance of stainless and special steel products has increased substantially in recent decades, as their use has shifted from niche special applications to widespread popular function. Clearly, the vacuum oxygen decarburization (VOD) process plays a major role in stainless steel production. In order to achieve extremely low carbon ratios in the presence of high chromium content, oxygen is blown under reduced pressure conditions. Despite the well-known determination of the required amount of oxygen, the operation practice itself seems to vary in the field. This gives rise to the question of the existence of a consistent optimized control strategy. The present master’s thesis addresses the existing optimization problem by using a multiple-validated VOD process simulation model. As a first step, the optimization problem is defined by the examination of the existing model. Thus, the process model flow is step by step transformed into mathematical terms. Subsequently, a variable study is carried out evaluating the influences of the oxygen blowing rate, stirring gas rate and the system pressure on the result of the model. Based on the findings, an optimization algorithm is then implemented to generate enhanced control strategies with respect to the given optimization criterion: minimize chromium oxidation. Finally, the results are demonstrated by simulations and tests of generated control strategies with the existing model. These tests clearly show an improvement regarding the optimization criterion. Moreover, the results demonstrate numerically and visually, that the newly developed algorithm generates enhanced control strategies.
Die Technische Dokumentation ist nicht nur zum Aufbau einer Maschine oder Anlage notwendig, sondern begleitet diese über deren gesamten Lebenszyklus. Vor allem im Störfall ist die Dokumentation ein zentrales Werkzeug für Wartungspersonal und Customer Service. Eine mangel- oder fehlerhafte Dokumentation führt dazu, dass zum einen die Support-Qualität gemindert wird und zum anderen auch versteckte Kosten für das Unternehmen anfallen. Der Grund dafür sind Abweichungen zwischen dem Abbild in der Dokumentation und der letztendlich vor Ort aufgebauten Maschine oder Anlage. Um dem entgegenzuwirken, gilt es eine vollständige und lückenlose Rückdokumentation aller Änderungen und Abweichungen, die während der Montage- und Inbetriebnahmephase entstehen, zu erfassen. Eine mögliche Lösung für die Problemstellung der Dokumentationsabweichung ist der Einsatz eines IT-basierten Service zur Unterstützung der Rückdokumentationsaktivitäten auf der Baustelle. Ziel der Arbeit ist es Kriterien und Anforderung für ein solches Service zu erheben. Im Rahmen der Arbeit werden durch Literaturrecherche, sowie Experteninterviews mit Customer Service- und Montagepersonal der Ist-Stand bezüglich Rückdokumentation und die Auswirkungen einer unvollständigen Dokumentation ermittelt. Aufbauend darauf wird als quantitative Forschungsmethode eine Umfrage durchgeführt, um einerseits die Kriterien und Anforderung des Service zu evaluieren, und andererseits um die Nutzungsakzeptanz gegenüber eines solchen IT-basierten Service zu erheben. Die Ergebnisse der Arbeit setzen sich aus einer Bewertung der aufgestellten funktionalen Anforderungen, sowie einer Reihung der Kriterien für das IT-basierte Service zur Rückdokumentationsunterstützung zusammen. Das Weiteren wird mittels Akzeptanzmodell dargestellt, dass die Nutzungsabsicht des Service am Stärksten von der wahrgenommenen Nützlichkeit für die späteren AnwenderInnen des Service abhängt.
Many areas of human activity demand high availability (HA) for the services provided by information technology (IT), including supply chain and especially logistics services as its backbone. Logistics automation has already been tightly linked with IT for some time now. Eventually, it is expected to reach a tipping point of digitalization under the Logistics 4.0 concept. Such anticipated convergence provided a basis for the thesis research. It was possible to apply time-proven approaches originally used in IT to produce a tailored and cost-effective HA solution for an ITenabled logistics system in order to minimize costly downtime. A multi-layer architectural pattern was adopted to focus the research on the opportunities to improve HA provided by innovative open-source software. “State-of-the-art” approaches, best practices, and challenges to attaining availability are covered in the course of the thesis. The case study was based on the efforts of a Styrian solution provider for intralogistics systems to improve and standardize HA solution for their software products and services. Mandatory HA requirements to ensure business continuity were used to outline a reference architecture for a generic HA solution by means of HA cluster for a logistics system. A prototype testbed, based on the relevant stack of technologies, validated and evaluated the proposed reference HA architecture. The findings of this thesis demonstrate the feasibility of the idea to build a cost-optimized clusterbased HA solution using commercial off-the-shelf hardware and free open-source software which can deliver an improved level of availability for a modern logistics system.
Zur schnelleren Prozessabwicklung ist es Unternehmen möglich, gewisse (Teil-)Prozesse zu automatisieren. Wie eine Prozessänderung aussehen kann und welche Emotionen und Widerstände eine Änderung bei den Mitarbeiterinnen und Mitarbeitern auslöst, dürfen die umsetzenden Personen dabei nicht außer Acht lassen. Im Rahmen dieser Arbeit führt die Autorin einen Bestellvorschlag in der Einkaufsabteilung und einen Planungsvorschlag in der Logistikabteilung ein. Diese sollen für die Mitarbeitenden die Erstellung von Bestellungen und gewissen Aufträgen übernehmen. In der praktischen Umsetzung widmet sich die Autorin vorab den Mitarbeiterinnen und Mitarbeitern, welche von den Prozessänderungen betroffen sind. Sie ermittelt die aktuellen Prozesse sowie die Möglichkeiten im System, um die Erstellung zu automatisieren. Durch die Ermittlung aller relevanten Informationen kann die Autorin darauf aufbauend den neuen Prozess entwickeln. Vorbereitend auf die Einführung des Bestell- und Planungsvorschlages erstellt die Autorin einen Leitfaden, der die Mitarbeitenden beim Einsatz der neuen Methode unterstützt. Mit Hilfe des Leitfadens führt die Autorin persönliche Schulungen mit den betroffenen Mitarbeiterinnen in den Abteilungen durch. Der aktive Einsatz von Bestell- und Planungsvorschlag mündet in Anpassungsvorschlägen der Mitarbeitenden, welche die Autorin umsetzen lässt. Anhand von Interviews, Zeitaufzeichnungen und einer Datenanalyse von Artikeln beantwortet die Autorin die Forschungsfrage und verwirft die Nullhypothese teilweise. Durch den Einsatz des Planungsvorschlages ist es den Mitarbeiterinnen möglich, die Montageaufträge für Standardartikel schneller zu erstellen als manuell. Zu den technischen Voraussetzungen zählt, dass das System eine automatisierte Erstellung ermöglicht, organisatorisch müssen die umsetzenden Personen unter anderem die Mitarbeitenden bei der Prozessänderung einbinden, damit diese die Änderung nicht durch Widerstände verhindern. Zu den potenziellen Vorteilen zählt, dass neben einer beschleunigten Erstellung bei Standardartikeln auch die monotone Tätigkeit der Erfassung im System durch die Mitarbeitenden entfällt.
Die Einbindung von Open Source Softwareprodukten in kommerzielle, proprietäre Softwareprodukte bietet Unternehmen Chancen und Vorteile, birgt aber ebenso Risiken. Zweck dieser Arbeit ist herauszufinden, wie ein Unternehmen Open Source Softwareprodukte in sein eigenes kommerzielles, proprietäres Softwareprodukt einbinden kann, ohne dadurch das eigene Geschäftsmodell zu gefährden. Im Fokus steht dabei die Erarbeitung der rechtlichen Hintergründe. Auf technische Aspekte in Bezug auf die Einbindung von Open Source Softwareprodukten wird in dieser Arbeit nicht näher eingegangen. Ebenso wird auf Unternehmen eingeschränkt, die kommerzielle, proprietäre Softwareprodukte herstellen und vertreiben. Ferner wird aus der Summe der gewerblichen Schutzrechte ausschließlich auf den Umgang mit dem Urheberrechtsgesetz näher Bezug genommen. Mittels Literaturrecherche konnten proprietäre Softwareprodukte sowie Open Source Softwareprodukte näher beschrieben werden. Darauf aufbauend wird auf die Schutzfähigkeit von Software, Softwarelizenzierung sowie die Positionierung von Unternehmen zu Open Source Software näher erläutert. Ebenso werden Präzedenzfälle behandelt, die die Relevanz der Thematik hervorheben. Daran anschließend wurden Expertinnen und Experten zum ISTund SOLL-Zustand in Bezug auf die Einbindung von Open Source Softwareprodukten innerhalb eines Softwareentwicklungsunternehmens und dessen kommerzielles, proprietäres Softwareprodukt befragt. In Bezug auf die Beantwortung der Forschungsfrage ergab sich, dass das Verständnis des Wesens der Open Source Softwareprodukte sowie deren rechtliche Grundlage notwendig sind, um diese entsprechend des eigenen Geschäftsmodells einbinden und nutzen zu können. Im praktischen Teil dieser Arbeit wurden ein Open Source Genehmigungsprozess sowie ein Leitfaden für die Produktentwicklungsabteilung des Unternehmens erstellt. Darauf aufbauend wurde das Ausrollen der besagten Artefakte und weitere Folgeschritte geplant. In weiterer Folge können Unternehmen, die ebenso Open Source Softwareprodukte in ihre eigenen, kommerziellen, proprietären Produkte einbinden, diese Arbeit als Basis heranziehen, um ihre eigenen Prozesse im Unternehmen zu analysieren und anzupassen.
Wenn ein Unternehmen mit seinem Enterprise-Resource-Planning-System (ERP-System) oder mit dem Service des Softwareherstellers unzufrieden ist, entsteht ein Wechselwunsch und damit sehr oft die Erkenntnis, dass die Wechselkosten den Umstieg auf ein neues ERP-System verhindern. Diese Arbeit setzte es sich zum Ziel die Ursachen von solchen Lock-in-Situationen in österreichischen Energieversorgungsunternehmen bei der Verwendung von ERP-Systemen zu erforschen und Strategien dagegen zu entwickeln. Einführend erfolgt eine Abgrenzung der ERP-Systeme und eine Beschreibung der zu unterstützenden Geschäftsprozesse. Mittels Literaturrecherche wurden sieben Ursachen für Lock-in identifiziert und in sieben Zusammenhangshypothesen formuliert. Nach der Operationalisierung der Hypothesen wurden diese mit 18 Fragen in einer Online-Umfrage von 52 österreichischen Energieversorgern verifiziert. Mit einer deskriptiven statistischen Analyse wurden die für die Gesamtpopulation relevanten Ursachen herausgearbeitet und die Betriebsdauer, fehlende Alternativen, Implementierungskosten und der Grad der Integration als Ursachen für Lock-in bei der Verwendung von ERP-Systemen in österreichischen Energieversorgungsunternehmen identifiziert. Diese wurden anschließend für die Strategieentwicklung herangezogen und in Expertengesprächen auf ihre Praxistauglichkeit und Effektivität geprüft. Damit konnte herausgefunden werden, dass mit der Durchführung eines Business Process Reengineering und der Installation eines kontinuierlichen Verbesserungsprozesses die internen Abläufe vereinfacht und in Verbindung mit einem angemessenen Lieferantenmanagement Lock-in reduziert werden kann. Ein Expertenteam zur internen Wissenssicherung und die Durchführung von Pilotprojekten bei der Implementierung können dem ebenfalls entgegenwirken. Die teils widersprüchlichen Aussagen der Experten lassen jedoch darauf schließen, dass der Erfolg der Strategien sehr stark von der Unternehmenskultur und dem Mindset der Mitarbeiter abhängig ist. In diesem Kontext kann diese Arbeit Hinweise geben, wie ein Energieversorger den Weg in die Abhängigkeit vermeiden und einen Weg aus einer Lock-in-Situation finden kann.
Technische Implementierung einer Personalstruktur- und Personalkostenplanung an Universitäten
(2016)
Aufgrund der Tatsache, dass über 60 Prozent des gesamten Budgets an österreichischen Universitäten für Personalaufwendungen benötigt werden, stehen Universitäten vor der Herausforderung, eine mittel- bis langfristige Personalstruktur- und Personalkostenplanung durchzuführen. Diese Masterarbeit zeigt, inwiefern technische Tools eine solche mittel- bis langfristige Personalplanung an österreichischen Universitäten unterstützen können und welche spezifischen Anforderungen diesbezüglich existieren. Basierend auf der Organisationsund Personalstruktur von Universitäten sowie den unterschiedlichen Kategorien der Personalplanung werden relevante Hypothesen, die zuvor aufgrund des erarbeiteten Vorwissens wissenschaftlich formuliert wurden, mittels quantitativer Forschungsmethoden geprüft. Dadurch können anhand der Untersuchungsergebnisse in Summe neun von insgesamt zehn wesentliche Anforderungen identifiziert und in Form von User-Stories formuliert werden. Beispielsweise muss ein Personalplanungstool relevante Kennzahlen, wie Personalkosten und Vollzeitäquivalente, für einen Zeitraum von mindestens fünf Jahren auf Monats- und Jahresebene bereitstellen. Im zweiten Teil der Masterarbeit werden vier unterschiedliche Standard-Tools in Hinblick auf die ermittelten Anforderungen geprüft und auf deren Eignung für den Einsatz an österreichischen Universitäten bewertet. Die Ergebnisse zeigen, dass insbesondere die Tools größerer Softwarehersteller (wie SAP oder SAGE-HR) geeignet sind und alle notwendigen Basisanforderungen erfüllen. Darüber hinaus wird das an der Universität Graz entwickelte Personalplanungstool „Profilbildung durch Strukturplanung“ genauer untersucht und mittels ExpertInneninterviews zusätzlich evaluiert. Die Ergebnisse dieser qualitativen Untersuchung zeigen, dass dieses Tool ebenso alle Anforderungen erfüllt, jedoch Verbesserungspotential im Hinblick auf den Detaillierungsgrad der Datenbereitstellung sowie der Usability existiert. Sofern sich eine österreichische Universität dazu entscheidet eine elektronisch gestützte Personalstruktur- und Personalkostenplanung einzusetzen, liefert diese Arbeit die herausgearbeiteten, relevanten Basisanforderungen und nennt darüber hinaus mögliche AnbieterInnen von geeigneten Software-Produkten. Letzten Endes stellt der allgemeine Aspekt der bestmöglichen Integration eines solchen Systems in die bestehende IT-Infrastruktur eine Herausforderung dar, der sich österreichische Hochschulen stellen müssen.
Sharepoint 2013 Intranet Lösung für mittelständische-matrixorganisierte Unternehmen im B2G Bereich
(2016)
Die Bundesbeschaffung GmbH (kurz BBG) entschloss sich zur Einführung einer IntranetLösung auf Basis der Technologie SharePoint 2013. Durch die Verwendung eines Intranets im Unternehmen werden Verbesserungen in der Zusammenarbeit und in der Kommunikation erwartet. Dabei ist es wichtig eine hohe Akzeptanz bei den Stakeholdern zu erreichen. Zur Einführung eines Intranets wird ein entsprechendes Intranet-Konzept benötigt.
Das Ziel dieser Arbeit ist ein Vorgehensmodell zu entwickeln, welches praktisch anwendbar ist, um ein Intranet-Konzept auf Basis von SharePoint 2013 für mittelständisch-matrixorganisierte Unternehmen im Business to Government-Bereich zu erstellen. Dabei wird großer Wert auf die Stakeholder-Akzeptanz gelegt.
Um das Ziel zu erreichen werden zu Beginn Erläuterungen benötigt. Diese behandeln die Themen Intranet, Mittelständisch-matrixorganisierte Dienstleister im B2G Bereich und SharePoint 2013. Aus den Anforderungen an ein Intranet, welche sich aus den Erläuterungen ergaben, können im Folgenden die wesentlichen Herausforderungen abgeleitet werden. Daraus ergibt sich, dass Intranet-Projekte nicht nur aus technischen Tätigkeiten bestehen, sondern ebenso einen starken Fokus auf die Organisation des Unternehmens haben. Daher werden Methoden aus den Disziplinen Projektmanagement und Requirements Engineering verwendet und beschrieben. Die Erkenntnisse der Ausarbeitungen fließen in das Vorgehensmodell zur Erstellung von passenden Intranet-Konzepten ein.
Dieses Vorgehensmodell wurde in der Bundebeschaffung GmbH (BBG) angewandt, wobei jede Phase des Vorgehensmodells durchlaufen und dokumentiert wird. Daraus ergeben sich Anforderungen an ein Intranet, welche im Kano-Modell kategorisiert und anschließend in eine Intranet-Roadmap überführt werden. Die gesammelten Anforderungen und Rahmenbedingungen fließen dabei in den Intranet-Architektur-Vorschlag ein. Dieser stellt die Grundlage für die Entwicklung des Intranets dar. Den Abschluss der Arbeit bilden ein Resümee und ein Ausblick mit Empfehlungen für nächste Schritte.
E-services have a major impact on the business models of companies and define new rules and behaviour patterns in communication between companies and (potential) customers. Looking at the business of consulting agencies, it seems that digital transformation has not yet fully arrived. Consulting agencies advise their customers on the digitization of services and customer touchpoints, while the digitization of services in the consulting industry itself is only progressing slowly. Empirical studies indicate that the consulting industry is able to benefit from the digitization of their services. This thesis investigates how a practical consulting eservice can be developed in order to offer benefits for consultants. The focus is on the development of an e-service in the analysis phase of the customer´s needs within the consulting process. The results of the e-service application represent initial approaches for consultants regarding their potential customer´s need for consulting services. The e-service is used as a supporting tool for consultants, which optimizes internal consulting processes. In order to develop a beneficial e-service, the core question arises as to which consulting steps, methods, procedures and requirements can be identified as key success factors to provide a beneficial e-service assisting in the customer consulting process. Based on a systematic service engineering process, a methodical approach is introduced to successfully develop and evaluate the e-service application. Established consulting tools and methods in practice and science are used to implement the customer self-directed e-service application. The practical part of this thesis consists of the technical implementation of the e-service as an online application. In expert interviews, the e-service is subjected to proof of the applicability in support of consulting services. The results show that a higher efficiency in the consulting process can be achieved through increased flexibility, time and cost savings. Moreover, great potential in the use of the e-service is seen within the consulting industry. The e-service tends to be most suitable in smaller consulting firms. A high suitability of e-service is attributed to consulting services in the field of strategic consulting, consulting in digital communication measures and PR services. SMEs are defined as the main target group of potential customers with the highest acceptance to participate in the e-service.
The development of the information society, the increase in the number of users make the transmission of information more diverse but also attractive as possible and easier to use. Under these circumstances, public or private institutions choose to synthesize and share information through the web sites. More, online shops are nowadays very popular and used because people want to save time, money and flexibility of payment methods.
Recognizing the importance of software products quality has led to key changes in the behavior of software producers by their focus on delivering solutions to ensure client satisfaction. In order to develop software products with a high level of quality and client satisfaction, software developers have adopted best practices and standards for quality management in the software product life cycle. The results of numerous European projects as well as international quality standards have been and are still being adopted and capitalized through quality improvement programs.
To analyze and compare the quality of web sites to see if they meet the users’ requirements are proposing to develop a methodology based on the procedures and algorithms used in the method EWAM - The Extended Web Assessment Method, a methodology that will end with a series of recommendations on designing or implementing web sites. The method responds to a major problem related to the evaluation of ecommerce applications: which are the most relevant criteria to ensure the success of an e-commerce system.
EWAM is a complex method that was created for a detailed analysis of a sample of applications and websites in a particular sector. In this respect, the method is not intended for the mass evaluation of websites.
The EWAM method uses the specific “profile” concept. This is a reference against which the results from evaluating an e-commerce application are compared. One of such profiles have been defined “Best practice” profile – which means a set of methods, techniques, procedures, etc. demonstrated and proven to be the best in current practice and used in the provision of e-commerce services.
The evaluation criteria are formulated in general terms and are valid for any sector, but they are differentiated by the sector-specific importance. In this way, the conditions for identifying the reference sector and benchmarking of different e-commerce applications are created both within a sector and between different sectors.
The establishment of (referential) “profiles” allows the comparison of the quality of an e-commerce application with the average quality of a given sector, and, at the same time, the comparison with the best practices used in the sector.
The focus lies on consumer perspectives and the specific features of the Internet as a medium. Using the EWAM tool, an analysis of four commercial Web sites in the same business sectors – fashion but in two different countries, will be performed: the websites as Orsay (www.orsay.com), Zara (www.zara.com), H&M (www.hm.com) and Mango (www.mango.com). The results will be per country compared. Furthermore, the work analyses the conceptual elements such as quality models, software product quality in general and the methodology to prove the web sites quality as well - The Extended Web Assessment Method.
The empirical section based on The Extended Web Assessment Method examines and evaluate the online shops of Orsay, Zara, H&M and Mango websites based on interviewing people from Austria and Romania. Web assessment is a very ambitious and labor-intense work. The assessors should meet certain criteria:
• They need to understand the criteria of the Web assessment form very well, hence they must undergo a thorough instruction
• They must be experienced Web users
• They must take the time to go through all four transaction phases for each Web sites assessed (including delivery and payment!)
The objectives of experimenting with the EWAM method are:
• verifying and validating website evaluation criteria specified in the EWAM method;
• verifying the applicability of the method for measuring and evaluating websites in the field of fashion e-commerce in Romania and Austria - its comparing;
• formulating new criteria on the evaluation of websites, in general, and of fashion e-commerce websites, using results comparison from two European countries – Austria (central Europe) and Romania (eastern Europe)
Additionally, a set of questions will be performed to find if e-commerce systems, especially B2C systems in fashion sector, operate in selected target countries as well as it does in its home country, across geographic boundaries. Does the site respect cultural differences between the home and foreign country? Which are the particularly needs to for fashion e-commerce websites? Are the user needs changed due modern technology – use they nowadays more web or apps? The answers will conclude if the ‘best practices’ profiles can be extended with new criteria on evaluation of fashion e-commerce websites due modern technology and internationalization/globalization.
Diese Arbeit befasst sich mit dem Einsatz des Internets der Dinge (IoT) im Messtechnikbereich. Das Ziel dieser Arbeit ist die Feststellung der Aspekte, die für den IoT-Einsatz in der Entwicklung von Produkten bzw. Dienstleistungen zu beachten sind. Diese Arbeit wird wichtige Konzepte erläutern, um das Internet der Dinge anzuwenden, sowie die verschiedenen Arten von Technologien erklären, die im IoT verwendet werden und die Auswirkungen des IoT-Einsatzes auf Dienstleistungen und Produktion skizzieren. Es ist auch wichtig, die Risiken eines solchen IoT- Einsatzes und die Maßnahmen dagegen zu erläutern. Zum Schluss werden die wichtigsten Aspekte des IoT- Einsatzes und deren Auswirkung auf die Weiterentwicklung bzw. Neuentwicklung von Produkten und Diensten dargestellt. Die Forschungsfrage dieser Arbeit ist: „Welche Aspekte entscheiden über den Einsatz von IoT im Bereich der Messtechnik?“ Um die Forschungsfrage beantworten zu können, wurden Interviews und Umfragen mit den Entwicklern durchgeführt, die in der Firma Messtechnik GmbH & CO KG arbeiten. So soll herausgefunden werden, wie das Vorwissen der Entwickler über die angewendeten Technologien bei einem IoT- Einsatz sein sollte. Darüber hinaus wurde eine Umfrage unter Kunden des Unternehmens durchgeführt, um die Auswirkungen von IoT-Anwendungen auf ihren Energieverbrauch oder Wasserverbrauch zu ermitteln. Zusätzlich sollte die Flexibilität der Zusammenarbeit mit den Kunden anhand der entwickelten/vorhandenen Produkte/Dienste oder neuer Produkte/Dienste des Unternehmens erfasst werden. Die Antwort wird darin bestehen, diese Umfragen und Interviews zu analysieren und die Ergebnisse in Tabellen und Diagrammen darzustellen. Schließlich wird klar, welche Aspekte beim Einsatz und der Anwendung des IoT auf die Messtechnik-Branche, wie z.B. Qualität, Dienstleistungserweiterung, Risikominderung und Kosten überwiegen.
Agile Entwicklungsmethoden haben schon seit vielen Jahren ihren Einsatz in der Wirtschaft gefunden. Unternehmen haben den Bedarf von solchen agilen Entwicklungsprozessen entdeckt und haben schnelle Maßnahmen getroffen, um weiter am Markt zu existieren und die Kundenwünsche mit Hilfe von agilen Prozessen zu erfüllen. Jedoch gibt es einen wesentlichen Faktor, der alle agilen Entwicklungsprozesse betrifft, dieser Faktor ist die Zeit. Die Zeit spielt eine wesentliche Rolle für alle Auftraggeber und Auftragnehmer. Unter den agilen Entwicklungsprozessen gibt es zwei unterschiedliche Ansätze, timeboxed und non-timeboxed. Da stellt sich die interessante Frage: „Welche Auswahlkriterien sind entscheidend für agile Timeboxed und Nontimeboxed Ansätze?“, mit der sich diese Arbeit beschäftigt. Aufgrund dessen, dass es in der vorhandenen Literatur kaum Antworten auf diese Fragestellung gibt, wurden im Rahmen dieser Masterarbeit mithilfe der qualitativen Inhaltsanalyse „Interview“, einige Experten Interviews durchgeführt, um diese Frage zu beantworten. Die Ergebnisse dieser Arbeit stellen einen Software-Manager einige Auswahlkriterien zur Verfügung, anhand dessen entschieden werden kann, ob man einen Timeboxing oder einen Non-Timeboxing Ansatz bevorzugt.
In zukunftsgerichteten Klein- und Mittelunternehmen in Österreich spielt das Thema Digitalisierung eine große Rolle. Die Digitalisierung wird als Wandel von Technologien, Prozessen und Arbeitsweisen sowie als Vernetzung von Dingen und Menschen gesehen. Dieser Wandel spiegelt sich in der Weiterentwicklung und der fortschreitenden Schnelligkeit wider. In österreichischen Klein- und Mittelunternehmen (KMU) besteht in Bezug auf den Digitalisierungsgrad noch Aufholbedarf, auch in jenen der IT-Dienstleistungsbranche. Im Unternehmensbereich Betrieb und Tätigkeiten, zu dem auch das Taskmanagement gezählt werden kann, ist die Digitalisierung am wenigsten fortgeschritten. Das Taskmanagement beinhaltet die Erfassung, Verwaltung und Steuerung aller Aufgaben eines Unternehmens. Im Digitalisierungszeitalter ist das Ziel, das Taskmanagement mithilfe von elektronischen und Online-Tools zu realisieren. Die Einführung eines solchen Systems stellt ein Unternehmen vor zahlreiche Herausforderungen. Ziel der vorliegenden Forschungsarbeit war es, Handlungsempfehlungen für die Einführung eines Taskmanagementsystems zu erarbeiten. Diese Handlungsempfehlungen sollen KMU der IT-Dienstleistungsbranche bei der Einführung eines solchen Systems unterstützen. Um die Anforderungen, die in der Praxis bestehen, bestmöglich analysieren zu können, wurde die Methodik einer qualitativen Fallstudie in einem ausgewählten KMU der IT-Dienstleistungsbranche angewandt. Der Gegenstand der Fallstudie war die Einführung eines Taskmanagementsystems in den laufenden Betrieb. Aus den gewonnenen Erkenntnissen im Rahmen der Fallstudie konnte abgeleitet werden, dass sich die Handlungsempfehlungen vor allem auf die Bereiche Mitarbeiterinnen und Mitarbeiter, Führungsstile, Prozesse und Schulung beziehen. Die Ergebnisse zeigen, dass nur eine Kombination aus technischer und Managementsicht zu einem erfolgreichen Aufgabenmanagement führen kann und dass eine einseitige Betrachtung nicht sinnvoll ist. Es ist empfehlenswert, die betroffenen Personen möglichst früh in den Projektverlauf miteinzubeziehen, um die unterschiedlichen Führungsstile und Bedürfnisse der verschiedenen Unternehmensbereiche bestmöglich in die Anforderungsdefinition mit aufnehmen zu können. Weiters ist es ratsam, bei der Einführung eines Taskmanagementsystems der Anpassung der Unternehmensprozesse und der regelmäßigen Schulung einen großen Stellenwert beizumessen. Durch dieses Zusammenspiel unter Berücksichtigung der technischen Anforderungen des Digitalisierungsprozesses kann ein funktionierendes Taskmanagement in einem KMU der IT-Dienstleistungsbranche etabliert werden.
Dass durch Social-Media Einkommen generiert werden kann, ist schon lange kein Geheimnis mehr. Vor allem streben viele Nutzer und Nutzerinnen nach passivem Einkommen. In dieser Masterarbeit soll geklärt werden, über welche Wege es möglich ist, passives Einkommen mithilfe der Social-Media zu lukrieren. Dafür werden in einem ersten Schritt die Begriffe Social-Media, Web 2.0 und Content-Creator definiert und erklärt. Danach werden die verschiedenen Social-Media-Plattformen vorgestellt und erläutert. Anschließend werden Marketingkonzepte dargelegt, wobei vor allem auf digitales Marketing eingegangen wird. Des Weiteren wird aufgezeigt, wann Einkommen als aktiv oder als passiv gewertet wird und welche Wege aus der Theorie zu dessen Generierung eingeschlagen werden können. Zusätzlich werden verschiedene Partnerprogramme vorgestellt und es wird dargelegt, wieviel damit verdient werden kann. Im Praxisteil dieser Arbeit wird eine multiple Fallstudie durchgeführt. Um die Untersuchungsobjekte vergleichbar zu machen, wird die Value Proposition Canvas eingesetzt. Es wird aufgezeigt, welche Bereiche in dieser Masterarbeit wie umgesetzt werden. Danach werden die Untersuchungsobjekte ausgewählt und vorgestellt. Zusätzlich werden die Personas kreiert, die als Kunden und Kundinnen den Untersuchungsobjekten gegenübergestellt werden. Anschließend wird die multiple Fallstudie durchgeführt und die Untersuchungsobjekte analysiert. Die Ergebnisse werden zusammengefasst und der Theorie gegenübergestellt. Dabei konnten mehrere Wege zum passiven Einkommen über Social-Media identifiziert werden. Vor allem Affiliate Links, YouTube, Twitch, Patreon, Merch und Content, der digital vervielfältigt werden kann, wurden in der Praxis von den Untersuchungsobjekten eingesetzt, um passives Einkommen zu generieren.